duminicã, 25 mai, 2025

Special Arad Logo

    Fenomenul Fake News de tip Deepfake ajunge la un nou nivel: reporteri AI hiperrealistici creați cu Google Veo 3 provoacă îngrijorări globale

    de Special Arad | 25 mai 2025, 2:42 PM | Internaţional | IT | Social Media | Topic special

    0

    Reporteri AI hiperrealistici creați cu Google Veo 3 (foto: Hindustan Times / X)

    Rețelele sociale au fost recent invadate de o serie de videoclipuri alarmant de realiste, în care așa-ziși „reporteri” prezintă știri fabricate într-un format profesional, dar complet fals. Clipurile sunt generate cu ajutorul noii tehnologii Google Veo 3 — un model AI video extrem de avansat, capabil să creeze conținut vizual la calitate cinematografică.

    Fenomenul a ridicat un val de îngrijorare în rândul specialiștilor în dezinformare, dar și al publicului larg.

    Atenție: nimic din acest videoclip nu este real!

    Platforme ca TikTok și X (fostul Twitter) au fost inundate de astfel de materiale deepfake, create evident în glumă, dar care pot fi oricând modificate cu altfel de dezinformări mult mai serioase. Într-unul dintre aceste videouri care circulă pe X, un reporter AI anunță că iahtul scriitoarei J.K. Rowling s-a scufundat cu ea la bord în urma unui atac al orcilor în largul coastelor Turciei. În altul, reporterul AI anunță preluarea Palatului Buckingham de către o armată de pisici, condusă de o pisică Scottish Fold numită „Big White” (Marele Alb), care s-a autodeclarat apoi noul rege al Marii Britanii, notează Hindustan Times.

    Măsuri de siguranță de la Google, însă doar pentru experți

    În cadrul conferinței Google I/O 2025, James Manyika, vicepreședinte senior la Google, a declarat că toate videoclipurile generate de Veo 3 vor fi marcate cu filigrane digitale invizibile prin tehnologia SynthID. Această măsură are scopul de a identifica conținutul generat de AI și de a preveni răspândirea dezinformării, potrivit DarkReading.

    De asemenea, Google a implementat măsuri de siguranță în Veo 3 pentru a împiedica generarea anumitor tipuri de conținut, cum ar fi deepfake-uri ale politicienilor, scrie The Verge. Cu toate acestea, modelul poate crea reprezentări convingătoare ale evenimentelor fictive, ceea ce ridică preocupări etice și creative.

    Semnalele SynthID vin însă doar în ajutorul experților și al jurnaliștilor pentru a dezminți mai ușor aceste deepfake-uri. Utilizatorii simpli ai rețelelor de socializare rămân vulnerabili în fața acestor videoclipuri fake extrem de realiste.

    Adevărul, tot mai greu de recunoscut

    Ceea ce diferențiază aceste deepfake-uri de generațiile anterioare este verosimilitatea aproape perfectă a expresiilor faciale, a vocii și a comportamentului corporal al personajelor generate. Spre deosebire de deepfake-urile clasice, unde „lipirea” feței trăda adesea artificialitatea, noile creații par filmări autentice de la fața locului.

    Oricine cu o idee convingătoare și acces la AI poate acum să creeze un video fals cu un reporter care pare să transmită în direct din centrul unei crize. Este un salt periculos în era post-adevărului.

    Această evoluție tehnologică amplifică provocările pentru platformele online, autorități și consumatorii de informație, care vor trebui să navigheze printr-un peisaj mediatic tot mai înșelător. În lipsa unor măsuri clare și urgente de reglementare și marcare a conținutului generat de AI, granița dintre real și fals riscă să dispară complet.

    Europa și SUA, în cursa reglementării AI

    Fenomenul a atras atenția autorităților internaționale, care deja analizau impactul IA generativă asupra dezinformării și siguranței democratice.

    În Uniunea Europeană, AI Act, adoptat provizoriu în martie 2024 și aflat în faza finală de aprobare, impune obligații stricte dezvoltatorilor de modele AI avansate. Printre acestea se numără etichetarea clară a conținutului generat, interzicerea utilizării neautorizate pentru manipulare politică și obligativitatea testelor de transparență. Conținutul deepfake va trebui, conform reglementărilor, să includă o marcă vizibilă și detectabilă automat.

    În Statele Unite, Casa Albă a emis în 2023, în timpul mandatului Biden, Ordinul Executiv 14110 privind inteligența artificială sigură și de încredere, care impune standarde de securitate pentru dezvoltarea de modele AI, dar fără o legislație federală unitară. Între timp, state precum California și New York au introdus proiecte de lege pentru combaterea deepfake-urilor, în special în context electoral.

    Tema siguranței AI a câștigat teren în 2023, în special după declarațiile publice despre potențialele riscuri existențiale ale AI. În timpul AI Safety Summit din noiembrie 2023, Regatul Unit (Marea Britanie) și Statele Unite (SUA) și-au creat ambele propriul Institute pentru siguranța AI (AI Safety Institute). În timpul Summitului AI de la Seoul din mai 2024, liderii internaționali au convenit să formeze o rețea de institute de siguranță AI, care să cuprindă institute din Marea Britanie, SUA, Japonia, Franța, Germania, Italia, Singapore, Coreea de Sud, Australia, Canada și Uniunea Europeană.

    Citește și:

    Inteligența plagiată (1)

    Inteligența plagiată (2)

    Reușești să depistezi imaginile generate de AI? Fă testul Deepfake realizat de DNSC!

    Escrocherie și Fake News: videoclip fals pe Facebook despre un „remediu unic pentru cheaguri de sânge cauciucate”

    Războiul Rusiei în Ucraina: Trei ani și sute de Fake News verificate și dezmințite de site-urile de Fact-checking

    Urmărește Special Arad și pe Google News, Twitter, LinkedIn și Instagram!

    Distribuie articolul

    Scrie un comentariu

    7 + 4 =

    Redacția Special Arad își rezervă dreptul de a selecta și a modera comentariile în funcție de relevanța lor față de subiect. Comentariile care nu fac referire la subiectul prezentat nu vor fi aprobate. De asemenea, răspunderea juridică aparține autorului comentariului.