U izvještaju istraživačke novinske kuće ProPublica iz 2019. godine utvrđeno je da su službenici za imigraciju upućeni da koriste Google Translate kako bi "provjerili" korištenje društvenih mreža za zahtjeve za izbjeglice.         Foto: Reuters

Imena prevedena kao mjeseci u godini, netačni vremenski okviri i pomiješane zamjenice — svakodnevni nedostaci aplikacija za prevođenje vođenih umjetnom inteligencijom izazivaju haos u američkom sistemu azila, kažu kritičari.

"Imamo bezbroj primjera ove prirode", rekla je Ariel Koren, osnivačica Respond Crisis Translation, globalnog kolektiva koji je preveo više od 13.000 zahtjeva za azil, upozoravajući da greške mogu dovesti do neutemeljenih odbijanja.

U jednom slučaju, rekla je, advokati su propustili ključni detalj u ženskom izvještaju o zlostavljanju u porodici jer se aplikacija za prevođenje koju su koristili stalno kvarila, a ponestalo im je vremena.

"Same mašine ne rade ni s djelićem kvaliteta koji im je potreban da bi mogli obavljati rad na slučajevima koji je prihvatljiv za nekoga u situaciji velikih uloga", istakla je Koren, koja je nekada radila za Google Translate.

Ona je rekla Fondaciji Thomson Reuters da je prevodilac iz grupe procijenio da je 40 posto slučajeva afganistanskog azila na kojima je radio naišlo na probleme zbog internetskog prevođenja. Slučajevi koji uključuju govornike haićanskog kreolskog također su se suočili sa značajnim problemima, dodala je.

Vladini izvođači i velike humanitarne organizacije sve više koriste alate za mašinsko prevođenje umjetne inteligencije zbog "ogromne količine podsticaja za smanjenje troškova", rekla je Koren.

Međutim, u kojoj se mjeri takvi alati koriste u obradi imigracije u SAD-u je nejasno, usljed velikog nedostatka transparentnosti, rekla je Aliya Bhatia, analitičarka politike u Centru za demokratiju i tehnologiju.

"Znamo da se vlade i lobiji za azil širom svijeta... kreću ka korištenju automatizirane tehnologije", kaže Bhatia.

U izvještaju istraživačke novinske kuće ProPublica iz 2019. godine utvrđeno je da su službenici za imigraciju upućeni da koriste Google Translate kako bi "provjerili" korištenje društvenih mreža za zahtjeve za izbjeglice.

Američko Ministarstvo pravde i Agencija za imigraciju i carinu nisu odgovorili na zahtjeve za komentar Thomson Reuters fondacije, kao ni Bijela kuća, koja je nedavno objavila nacionalni "nacrt" smjernica za umjetnu inteligenciju.

Upitan za zabrinutost zbog upotrebe mašinskog prevođenja u slučajevima azila, glasnogovornik Googlea je rekao da je njegov alat Google Translate podvrgnut strogim kontrolama kvaliteta i istakao da se nudi besplatno.

"Rigorozno obučavamo i testiramo naše sisteme kako bismo osigurali da svaki od 133 jezika koje podržavamo ispunjava visoke standarde kvaliteta prevoda", rekao je glasnogovornik.

Rupe u obuci

Glavni nedostatak upotrebe alata za prevođenje u slučajevima azila proizlazi iz teškoće ugradnje provjera, rekao je Gabe Nicholas, istraživač iz Centra za demokratiju i tehnologiju i koautor s Bhatiom u majskom radu o modelima koji se koriste za mašinsko prevođenje.

"Budući da osoba govori samo jedan jezik, mogućnost da greške ostanu neprimijećene je zaista, zaista velika", rekao je.

Prema Nicholasu i Bhatiji, mašinsko prevođenje je značajno napredovalo posljednjih godina, ali još nije dovoljno dobro da bi se na njega moglo osloniti u često složenim situacijama s visokim ulozima kao što je proces azila.

Ključni problem je kako su aplikacije obučene na prvom mjestu – na digitaliziranom tekstu, za koji postoji masa dostupnih za engleski, ali daleko manje za druge jezike.

Ovo ne samo da rezultira manje nijansiranim ili jednostavno netačnim prevodima, već to također znači da engleski ili neki drugi jezici s visokim resursima postaju "posrednici preko kojih ovi modeli posmatraju svijet", rekla je Bhatia.

Rezultat su anglocentrični prevodi koji često ne uspijevaju precizno uhvatiti ključne detalje oko određene riječi.

Kao i mnogi drugi sektori, industrija prevođenja je posljednjih mjeseci narušena objavljivanjem "generativnih" AI alata kao što je ChatGPT.

"ChatGPT i umjetna inteligencija su sada svima na umu", rekla je Jill Kushner Bishop, osnivačica i izvršna direktorica Multilingual Connections, kompanije sa sjedištem u području Chicaga.

"Postoje slučajevi za to, i oni su sve uvjerljiviji s vremenom. Ali još nije spreman u većini slučajeva da se koristi bez uključenja čovjeka", kaže Bishop.

Kompanija redovno testira alate i različite jezike, rekla je direktorica produkcije Katie Baumann, ali nastavlja da pronalazi probleme s prevodom teksta koji uključuje, recimo, turski ili japanski, ili audiotranskripcije vođene umjetnom inteligencijom s pozadinskom bukom.

"Proveli smo testove izvoda intervjua za provođenje zakona, obradili ih i stavljali ih u mašinsko prevođenje - mnogo toga je besmislica. Ne bi vam uštedjelo vrijeme, pa ga ne bismo koristili", rekla je Baumann.

Dakle, iako Multilingual Connections sve više koristi mašinsko prevođenje, čovjek je uvijek uključen.

"Ne znate šta ne znate. Dakle, za nekoga ko ne govori jezik... ne znate gdje će biti greške", rekla je Bishop.

"Razmislite o slučajevima azila... i šta bi moglo biti pogrešno shvaćeno bez ljudske provjere", rekla je. OpenAI, koji je razvio ChatGPT, odbio je da komentariše, ali je glasnogovornik ukazao na politike koje zabranjuju upotrebu za „visoko rizično donošenje odluka u vladi“, uključujući provođenje zakona, krivično pravosuđe, migracije i azil.

„Užasna zbrka“

U Respond Crisis Translation, nedostaci alata za prevođenje vođenih umjetnom inteligencijom također stvaraju dodatni posao za Koren i njene kolege.

"Ljudi koji treba da očiste nered su ljudski prevodioci", rekla je.

Jedna od prevoditeljica kolektiva, Samara Zuza, tri godine radi s brazilskim tražiocem azila čiji su dokumenti o azilu bili loše prevedeni aplikacijom umjetne inteligencije dok je bio u imigracionom pritvoru u Kaliforniji, rekla je ona.

Aplikacija je bila "puna suludih grešaka", rekla je Zuza. "Imena grada i države su pogrešna. Rečenice su poništene - i to je obrazac koji je poslat sudu."

Ona smatra da su upravo te nepreciznosti dovele do odbijanja početnih pokušaja da se osigura oslobađanje muškarca. Čovjek, koji je tražio da bude identifikovan samo kao Carlos, na kraju je pušten u maju 2020. nakon što su njih dvojica počeli da rade zajedno.

"Jezik je za mene bio najgori dio", rekao je Carlos (49) o svojih šest mjeseci u imigracionom pritvoru nakon što je pobjegao od aktivnosti bandi u Brazilu.

Razgovarao je telefonom iz Massachusettsa, gdje sada živi jer se prijavljuje za boravak u SAD-u.

Carlos, koji je nepismen i govori brazilski portugalski, rekao je da mjesecima nije mogao komunicirati s imigracijskim službenicima , pa čak ni s drugim pritvorenicima.

Da bi ispunio svoju papirologiju za azil, oslanjao se na snimač glasa na tabletu u kombinaciji s aplikacijom koja je koristila mašinsko prevođenje.

“Toliko je riječi pogrešno prevedeno”, rekao je. "Moji dokumenti o azilu bili su užasna zbrka."

TRT Balkan