Într-o lume plină de deepfake-uri și știri false, cercetătorii finanțați de UE construiesc instrumente pentru a-i ajuta pe jurnaliști să spună ce este real și ce nu.
Iarna trecută, când s-au deschis piețele de Crăciun în întreaga Europă, rețelele sociale au fost inundate cu materiale video alarmante. Potrivit postărilor, islamiștii radicali „invadează” piețele de Crăciun, potrivit stiripesurse.
Citește și: Moldova va exporta energie electrică din surse regenerabile în Ucraina
Un videoclip părea să arate persoane care „perturbă” deschiderea pieței de Crăciun din Bruxelles, în timp ce într-o altă fotografie se vedea o piață înconjurată de dispozitive masive de securitate. Mesajul era clar: Tradițiile creștine erau aparent amenințate.
Dar realitatea a fost diferită. Videoclipurile proveneau din demonstrații pașnice, iar fotografia a fost generată cu ajutorul AI. Ceea ce părea convingător la prima vedere a fost înșelător – sau complet fals.
Acesta este noul peisaj informațional.
Potrivit unui studiu recent al Comisiei Europene, aproximativ două treimi dintre respondenți au afirmat că s-au confruntat cu dezinformări sau știri false în săptămâna precedentă. Având în vedere că instrumentele de AI sunt acum capabile să genereze imagini, materiale video și texte extrem de realiste, a devenit mai dificil ca oricând să se facă distincția între ceea ce este real și ceea ce nu este real.
Ca răspuns, o echipă multinațională de cercetători și specialiști media sprijiniți prin fonduri UE a decis să se lupte cu aceleași arme.
O primă linie de apărare
În 2020, experți din universități, agenții mass-media și societăți din domeniul tehnologiei au făcut echipă comună în cadrul unei inițiative pe patru ani cu finanțare UE intitulată AI4Media.
Scopul a fost să se creeze instrumente de AI care să ajute jurnaliștii și verificatorii veridicității informațiilor să verifice rapid și fiabil conținutul digital.
„Există o nevoie urgentă de a dezvolta tehnici de AI pentru sectorul mass-media”, a declarat Yiannis Kompatsiaris, director de cercetare la Centrul de Cercetare & Tehnologie Hellas (CERTH), care a coordonat inițiativa.
AI a coborât dramatic de jos bariera în calea producerii de conținut fals convingător. Toți cei cu acces la AI generativă pot acum crea imagini fabricate, voci clonate sau articole noi care arată foarte realist. Rețelele sociale amplifică cu rapiditate conținutul respectiv.
„Atunci când o poveste falsă este susținută de imagini realiste, devine mult mai ușor de crezut – și este mai tentant de partajat, deoarece conținutul generează vizualizări mai mari”, a adăugat Kompatsiaris.
Echipa AI4Media a creat instrumente de verificare concepute pentru a se integra direct în fluxurile de lucru ale redacțiilor de știri. Organizațiile de presă, cum ar fi Deutsche Welle în Germania și VRT în Belgia, le-au testat în condiții reale.
„Verificatorii veridicității informațiilor și jurnaliștii se confruntă cu imagini suspecte zilnic”, a afirmat Akis Papadopoulos, cercetător la CERTH, care a lucrat pe proiect. El a descris tehnologia ca fiind o „primă linie de apărare”, nu un înlocuitor al judecății umane, ci o modalitate de a semnala rapid conținutul potențial manipulat.
„Este important ca jurnaliștii din întreaga Europă – și de la nivel mondial – să fie dotați cu instrumente care să îi ajute să identifice rapid materialele suspecte”, a declarat el.
Potrivit Observatorului european al mass-mediei digitale, un centru independent finanțat de UE care monitorizează campaniile de dezinformare din toate țările membre, dezinformarea generată de AI a crescut constant în ultimele luni.
Iar acest lucru înseamnă mult mai mult decât înșelătoriile izolate. Campaniile coordonate pot influența alegerile, pot denatura dezbaterea publică și pot submina încrederea în instituții.
Identificarea tiparelor de dezinformare
Identificarea conținutului manipulat este doar o parte a provocării. Înțelegerea modului în care se răspândește dezinformarea – cine o amplifică, cum evoluează discursurile și dacă campaniile sunt coordonate – este la fel de importantă.
„Încercăm în permanență să înțelegem și să fim la zi cu ultimele tehnologii”, a declarat Riccardo Gallotti, șeful Unității Comportament Complex din cadrul Fondazione Bruno Kessler (FBK).
Cu sediul în Trento, Italia, FBK este un centru de cercetare cunoscut pentru activitatea sa în domeniul inovării digitale, al AI și al studiului sistemelor sociale complexe. În cadrul unui proiect finanțat de UE în paralel cu AI4Media, denumit AI4Trust, FBK a colaborat cu universități și organizații mass-media din întreaga Europă pentru a analiza dinamica mai largă a dezinformării online.
Printre parteneri se numără Euractiv în Belgia, Sky Italia și serviciile de verificare a veridicității informațiilor Maldita.es în Spania, Ellenika Hoaxes în Grecia și Demagog în Polonia.
În timp ce AI4Media s-a axat pe detectarea mass-media manipulată și pe integrarea instrumentelor de verificare în redacțiile de știri, AI4Trust a construit un sistem om-mașină hibrid pentru a monitoriza și a analiza dezinformarea la scară largă.
Platforma sa urmărește mai multe rețele sociale și site-uri de știri în timp aproape real, utilizând algoritmi de AI avansați pentru a prelucra conținut multilingv și multimodal – text, audio și imagini.
Deoarece volumul materialelor online depășește cu mult capacitatea umană, sistemul filtrează și semnalează postările care prezintă un risc ridicat de a fi false. Verificatorii profesioniști ai veridicității informațiilor examinează apoi acest material, iar evaluările lor verificate sunt realimentate în sistem pentru a-i îmbunătăți performanța.
Cele două proiecte sunt complementare. Unul se axează pe detectarea conținutului manipulat, în timp ce celălalt examinează modul în care acesta se răspândește. Împreună, ele oferă atât microscopul, cât și lentila cu unghi larg necesare pentru a înțelege și a contracara dezinformarea bazată pe AI.
O cursă a înarmării
Utilizarea AI pentru a detecta AI poate suna ironică, dar este o afacere serioasă.
„Este într-adevăr amuzant, dar este ca o cursă a înarmării”, a spus Kompatsiaris.
Modelele de inteligenţă artificială generativă evoluează cu o viteză extraordinară. La începuturile AI4Media, instrumente precum ChatGPT erau încă în fază incipientă. De atunci, calitatea și realismul conținutului generat de AI au avansat dramatic.
„Am intrat într-o nouă eră în care accelerația este atât de puternică încât este greu pentru mintea umană să țină pasul cu ea”, a declarat Papadopoulos. „Pentru a ține pasul cu AI, trebuie să folosim AI.”
Pe măsură ce modelele generative devin din ce în ce mai puternice, sistemele de detectare trebuie să se adapteze în mod constant. Aceasta a fost una dintre cele mai mari provocări cu care s-au confruntat cercetătorii.
„Tehnologia a progresat atât de rapid încât este dificil chiar și pentru noi, cercetătorii, să ținem pasul”, a explicat Papadopoulos. „A trebuit să ne actualizăm în permanență modelele pentru a detecta imaginile nou generate.”
Citește și: Ce spun experții despre ieșirea R. Moldova din CSI
Echipa a automatizat părți ale procesului de verificare și și-a reînvățat periodic sistemele. Dar pentru a rămâne în față este nevoie de investiții continue – atât în sectorul cercetării, cât și în cel al mass-media, care depinde de aceste tehnologii.
Viitorul AI
Cu toate acestea, doar tehnologia nu este suficientă.
„Avem nevoie de instrumente, dar avem nevoie și de politici și norme”, a declarat Kompatsiaris.
În temeiul Regulamentului UE privind serviciile digitale, platformele online foarte mari trebuie să evalueze și să atenueze riscurile sistemice, inclusiv răspândirea dezinformării, și să sporească transparența cu privire la modul în care funcționează sistemele lor.
Regulamentul privind AI introduce obligații de transparență pentru anumite sisteme de inteligenţă artificială generativă, inclusiv cerințe de etichetare a conținutului generat de AI.
În același timp, un proiect de Cod de bune practici privind transparența pentru conținutul generat de AI urmărește să încurajeze standarde mai clare privind divulgarea și filigranarea.
Protejarea jurnalismului independent este o altă prioritate. Regulamentul european privind libertatea mass-media stabilește garanții pentru a se asigura că conținutul mediatic profesional este recunoscut și protejat pe principalele platforme online.
Platformele mari trebuie să informeze canalele mass-media recunoscute înainte de a elimina conținutul jurnalistic și să își explice raționamentul, acordând organizațiilor timpul necesar pentru a răspunde. Obiectivul este de a preveni eliminarea nejustificată a relatărilor legitime.
Împreună, aceste măsuri și sisteme formează un scut mai extins: tehnologia pentru a detecta manipularea, reglementări pentru a îmbunătăți transparența și responsabilitatea și garanții pentru a proteja jurnalismul responsabil.
Sensibilizarea publicului rămâne la fel de vitală.
„Nu există o soluție unică”, a declarat Kompatsiaris. „Avem nevoie de o combinație de instrumente de AI, de transparență, reglementări și sensibilizare dacă vrem să fim mai eficienți împotriva dezinformării.”












