Monash Uni udvikler AI-oversættelsesapp til diplomatiske samtaler

0
177

Aimee ChanthadavongSkrevet af Aimee Chanthadavong, seniorjournalist Aimee Chanthadavong Aimee Chanthadavong Senior Journalist

Siden hun afsluttede en grad i journalistik, har Aimee haft sin rimelige andel af at dække forskellige emner, herunder forretning, detailhandel, fremstilling og rejser. Hun fortsætter med at udvide sit repertoire som tech-journalist med ZDNet.

Fuld bio den 9. februar 2022 | Emne: Innovation

Forskere ved Monash University er blevet anklaget for at lede et projekt på 5 millioner dollars, støttet af det amerikanske forsvarsministeriums Defense Advanced Research Projects Agency (DARPA), for at udvikle en AI-baseret smartphone-applikation, der kunne hjælpe med reel- tidstolkninger til diplomatiske samtaler, internationalt forretning og turisme.

Forskningen vil blive ledet af Monash Universitys Vision and Language Group ved Fakultet for IT i samarbejde med forskere fra David Nazarian College of Business and Economics ved California State University, og King's College London.

Ifølge Monash, projektet vil involvere udvikling af et sprogbehandlingssystem, der skal bruges sammen med smarte briller. Håbet er, at systemet kan genkende og tilpasse sig følelsesmæssige, sociale og kulturelle signaler, der varierer mellem forskellige samfund og sprog.

For eksempel vil systemet være i stand til at genkende et forestående kommunikationsnedbrud ved at analysere audiovisuelle signaler i realtid, før det sender en notifikation til brugerens smarte briller, der foreslår et mere passende svar til at rette op på situationen, såsom at henvende sig mere til den anden person respektfuldt for at få den anden til at føle sig mere komfortabel, sagde Monash.

“Ud over at fortolke indholdet af talen, vil systemet “oversætte” kropssprog og ansigtsudtryk, give kulturelle signaler for at forhindre et sammenbrud i kommunikationen og sikre en smidigere tværkulturel dialog. I løbet af dette projekt vil vi primært fokusere på på forhandlingsbaserede dialoger,” forklarede forskerne.

I løbet af de næste tre år vil forskerne arbejde på den indledende prototype i to faser, før de frigiver prototypen i marts 2023.

“Nuværende AI-aktiverede systemer er ikke i stand til at præcist at analysere de mange nuancer af menneskelig kommunikation eller at yde nyttig assistance ud over grundlæggende maskinoversættelse,” siger vicedekanprofessor Maria Garcia de la Banda ved Fakultetet for IT.

“I dette projekt vil vores forskere kombinere sofistikeret tale teknologi med avanceret multimedieanalyse og kulturel viden til at bygge systemer, der giver en holistisk løsning.”

Relateret dækning

Google introducerer Woolaroo AI-oversættelsesapp for at bevare truede sprogFacebook AI open sources flersproget maskinoversættelsesmodelGoogle Assistant's Interpreter mode kan 44 sprog Australien | CXO | Digital transformation | Teknisk industri | Smarte byer | Sky