Fenomenul Fake News de tip Deepfake ajunge la un nou nivel: reporteri AI hiperrealistici creați cu Google Veo 3 provoacă îngrijorări globale





Rețelele sociale au fost recent invadate de o serie de videoclipuri alarmant de realiste, în care așa-ziși „reporteri” prezintă știri fabricate într-un format profesional, dar complet fals. Clipurile sunt generate cu ajutorul noii tehnologii Google Veo 3 — un model AI video extrem de avansat, capabil să creeze conținut vizual la calitate cinematografică.
Fenomenul a ridicat un val de îngrijorare în rândul specialiștilor în dezinformare, dar și al publicului larg.
Atenție: nimic din acest videoclip nu este real!
Platforme ca TikTok și X (fostul Twitter) au fost inundate de astfel de materiale deepfake, create evident în glumă, dar care pot fi oricând modificate cu altfel de dezinformări mult mai serioase. Într-unul dintre aceste videouri care circulă pe X, un reporter AI anunță că iahtul scriitoarei J.K. Rowling s-a scufundat cu ea la bord în urma unui atac al orcilor în largul coastelor Turciei. În altul, reporterul AI anunță preluarea Palatului Buckingham de către o armată de pisici, condusă de o pisică Scottish Fold numită „Big White” (Marele Alb), care s-a autodeclarat apoi noul rege al Marii Britanii, notează Hindustan Times.
General population is cooked 😭
You can literally create news clips with Veo-3 now , what’s even real anymore? pic.twitter.com/XfpFnIi8E2— AshutoshShrivastava (@ai_for_success) May 22, 2025
Haha, here‘s another bit of breaking news, but I concocted it 😄 pic.twitter.com/9kA28pNuQm
— Kevin Zhang (@kevin_zhang) May 22, 2025
Măsuri de siguranță de la Google, însă doar pentru experți
În cadrul conferinței Google I/O 2025, James Manyika, vicepreședinte senior la Google, a declarat că toate videoclipurile generate de Veo 3 vor fi marcate cu filigrane digitale invizibile prin tehnologia SynthID. Această măsură are scopul de a identifica conținutul generat de AI și de a preveni răspândirea dezinformării, potrivit DarkReading.
De asemenea, Google a implementat măsuri de siguranță în Veo 3 pentru a împiedica generarea anumitor tipuri de conținut, cum ar fi deepfake-uri ale politicienilor, scrie The Verge. Cu toate acestea, modelul poate crea reprezentări convingătoare ale evenimentelor fictive, ceea ce ridică preocupări etice și creative.
Semnalele SynthID vin însă doar în ajutorul experților și al jurnaliștilor pentru a dezminți mai ușor aceste deepfake-uri. Utilizatorii simpli ai rețelelor de socializare rămân vulnerabili în fața acestor videoclipuri fake extrem de realiste.
Adevărul, tot mai greu de recunoscut
Ceea ce diferențiază aceste deepfake-uri de generațiile anterioare este verosimilitatea aproape perfectă a expresiilor faciale, a vocii și a comportamentului corporal al personajelor generate. Spre deosebire de deepfake-urile clasice, unde „lipirea” feței trăda adesea artificialitatea, noile creații par filmări autentice de la fața locului.
Oricine cu o idee convingătoare și acces la AI poate acum să creeze un video fals cu un reporter care pare să transmită în direct din centrul unei crize. Este un salt periculos în era post-adevărului.
Această evoluție tehnologică amplifică provocările pentru platformele online, autorități și consumatorii de informație, care vor trebui să navigheze printr-un peisaj mediatic tot mai înșelător. În lipsa unor măsuri clare și urgente de reglementare și marcare a conținutului generat de AI, granița dintre real și fals riscă să dispară complet.
Europa și SUA, în cursa reglementării AI
Fenomenul a atras atenția autorităților internaționale, care deja analizau impactul IA generativă asupra dezinformării și siguranței democratice.
În Uniunea Europeană, AI Act, adoptat provizoriu în martie 2024 și aflat în faza finală de aprobare, impune obligații stricte dezvoltatorilor de modele AI avansate. Printre acestea se numără etichetarea clară a conținutului generat, interzicerea utilizării neautorizate pentru manipulare politică și obligativitatea testelor de transparență. Conținutul deepfake va trebui, conform reglementărilor, să includă o marcă vizibilă și detectabilă automat.
În Statele Unite, Casa Albă a emis în 2023, în timpul mandatului Biden, Ordinul Executiv 14110 privind inteligența artificială sigură și de încredere, care impune standarde de securitate pentru dezvoltarea de modele AI, dar fără o legislație federală unitară. Între timp, state precum California și New York au introdus proiecte de lege pentru combaterea deepfake-urilor, în special în context electoral.
Tema siguranței AI a câștigat teren în 2023, în special după declarațiile publice despre potențialele riscuri existențiale ale AI. În timpul AI Safety Summit din noiembrie 2023, Regatul Unit (Marea Britanie) și Statele Unite (SUA) și-au creat ambele propriul Institute pentru siguranța AI (AI Safety Institute). În timpul Summitului AI de la Seoul din mai 2024, liderii internaționali au convenit să formeze o rețea de institute de siguranță AI, care să cuprindă institute din Marea Britanie, SUA, Japonia, Franța, Germania, Italia, Singapore, Coreea de Sud, Australia, Canada și Uniunea Europeană.
Citește și:
Reușești să depistezi imaginile generate de AI? Fă testul Deepfake realizat de DNSC!
Comentariile portalului
Exista vreun locuitor al Aradului care a crezut ca lucrarile demarate vor fi gata la termen ? Eu nu cred...Si intr-adevar,solicitarea adresata de Alexandrion pentru un articol pe problema (...)
Ni-no, ni-no
Asta au votat arădenii la alegerile locale din 2024, asta primesc. Votați în continuare PNL, Bibarț, Cionca și va înflori Aradul.