jurnalista Georgina Findlay avertizează despre utilizarea neautorizată a vocii sale în scopuri de propagandă
Update cu 5 luni în urmă
Timp de citire: 7 minute
Articol scris de: Simona Stan

jurnalista Georgina Findlay avertizează despre utilizarea neautorizată a vocii sale în scopuri de propagandă
Georgina Findlay, o jurnalistă și prezentatoare a canalului YouTube TLDR News, cunoscut pentru prezentarea știrilor într-un mod simplificat, a dezvăluit într-un articol de opinie publicat în The Guardian că vocea ei a fost folosită fără consimțământ pentru a promova mesaje de extremă dreapta, prin intermediul inteligenței artificiale. Fratele acesteia a fost cel care a observat prima dată că vocea ei era folosită într-un context surprinzător. "Îți va părea înfiorător", i-a spus el.
Un videoclip postat pe Instagram, care prezenta un adolescent la un miting, conținea o voce asemănătoare cu cea a jurnalistei, care a afirmat: "Recentul strigăt al unui student britanic a devenit un simbol puternic al unei crize a sistemului educațional din Marea Britanie, care se adâncește". Findlay a declarat: "Ca prezentatoare, eram obișnuită să-mi aud vocea pe ecran, dar aici nu eram eu, chiar dacă vocea era clar a mea".
Vocea din acel clip condamna faptul că sistemul educațional britanic i-ar obliga pe elevi să învețe despre islam și Mahomed. "A fost înfricoșător să-mi aud vocea asociată cu propagandă de extremă dreapta și, pe măsură ce am cercetat mai departe, am realizat cât de mari pot fi consecințele audio falsificate", a mai spus Findlay.
Clonarea vocii cu ajutorul inteligenței artificiale reprezintă o nouă formă de "deepfake" audio, având o incidență tot mai mare în 2024. Multe victime își găsesc vocile reproduse profesional, fără a avea cunoștință sau consimțământ. Această problemă a dus deja la ocolirea măsurilor de securitate bancară și la fraude, oamenii fiind convinși că discută cu rude.
Findlay a aflat despre clipul ce-i folosea vocea de la fratele său, care l-a primit de la un prieten. După cercetări, a descoperit că sursa clipului provenea de la un canal de YouTube de extremă dreapta, cu aproximativ 200.000 de abonați, despre care se suspectează că ar fi american, însă conținea greșeli tipice conturilor de dezinformare. "Am fost îngrozită să constat că opt din cele douăsprezece cele mai recente videoclipuri ale canalului mi-au folosit vocea. Un videoclip din urmă cu cinci luni avea 10 milioane de vizionări. Vocea suna aproape exact ca a mea, cu excepția unui ritm ciudat, ce sugerează că a fost generată de inteligența artificială", a explicat Findlay.
Problema clonării vocilor cu ajutorul inteligenței artificiale a stârnit îngrijorări serioase. În noiembrie 2023, un deepfake audio al primarului Londrei, Sadiq Khan, afirmând comentarii provocatoare despre Ziua Armistițiului, a circulat pe scară largă pe rețelele sociale, aproape provocând "tulburări grave", conform declarațiilor lui Khan pentru BBC.
În contextul în care încrederea în sistemul politic din Regatul Unit este la nivel scăzut, fiindcă 58% dintre britanici nu au încredere în politicieni să spună adevărul, manipularea discursului public devine problematică. Drepturile legale de a-ți controla vocea se află într-o zonă gri, având în vedere lipsa reglementărilor în acest domeniu tehnologic emergent. David Attenborough și Scarlett Johansson au fost și ei victime ale clonării vocii în scandaluri recente.
În martie 2024, OpenAI a amânat lansarea unui nou instrument de clonare a vocii considerând că este "prea riscant", având în vedere numărul record de alegeri globale din acest an. Cu toate acestea, măsurile de precauție implementate de unele startup-uri nu sunt suficiente pentru a combate problema. În SUA, senatori preocupați au propus un proiect de lege pentru a reglementa reproducerea audio fără consimțământ, în timp ce în Europa, Sistemul European pentru Observarea Furtului de Identitate dezvoltă instrumente pentru a combate dezinformarea.
Dr. Dominic Lees, expert în inteligența artificială, a declarat că reglementările actuale privind confidențialitatea și drepturile de autor sunt depășite. De asemenea, Hany Farid, expert în detectarea deepfake-urilor, a semnalat că efectele acestei crize audio ar putea fi extrem de grave, ajungând la violențe.
În acest context, există întrebări despre posibilitățile pozitive ale clonării vocilor. De exemplu, clonele vocale AI ar putea oferi confort prin reîncarnarea vocii persoanelor dragi decedate sau prin ajutorarea celor cu probleme de vorbire. Un exemplu este actorul Val Kilmer, care a revenit cu o voce restaurată de AI în 2022.