Tehnologia permite ca formele de dezinformare să devină tot mai complexe. Știrile false pot include nu doar text manipulator, dar și clipuri video, imagini falsificate sau tehnologii deepfake menite să înșele cititorii. Să vedem cât de departe se poate merge cu manipularea imaginilor
De pe vremea digitalului
Era anul 2009, în plină campanie electorală pentru alegerile prezidențiale. O ”bombă de presă” explodează: șeful statului, Traian Băsescu, care încerca să obțină al doilea mandat, este acuzat că în timpul unui miting electoral, desfășurat cu cinci ani mai înainte, a lovit un copil. Sunt prezentate și imagini, care ar fi susținut acest lucru.
Imediat după difuzarea filmului, au apărut și voci care au contestat veridicitatea acestuia, sustinând că este vorba doar de un trucaj. Motivele invocate: mișcarea nefirească a mâinii, cotul aflat într-o postură improprie, felul în care băiatul dă capul pe spate etc. Oricum, pentru cine dorește să revadă acele momente și o demontare a cazului, recomandăm videoul de mai jos.
Putem spune că acesta a fost primul caz important de manipulare prin intermediul imaginilor video de la noi. Între timp, lucrurile au evoluat foarte mult – o dată cu tehnologia – până la niveluri greu de imaginat acum câțiva ani.
Evoluție rapidă a modului de a dezinforma
Astăzi, dezinformarea nu se mai face doar cu ajutorul textului, ci și cu ajutorul imaginilor și al videoclipurilor. Atunci când găsești o informație falsă, nu mai e de ajuns doar să cauți o poză sau un videoclip care să o confirme. Acum și pozele și videoclipurile pot fi falsificate foarte ușor.
Acest lucru se combină cu faptul că oamenii preferă informațiile care sunt transmise în videoclipuri sau fotografii în defavoarea celor scrise. Un studiu publicat în 2018 a studiat modul în care americanii consumă informația și, rezultatele au fost că 47% dintre ei preferă să se uite la știri în loc să le citească.
Există două moduri principale de a face acest lucru.
Întâi de toate, cei care vor să te dezinformeze folosesc poze sau videoclipuri pe care le scot din context ca să te convingă de un anumit lucru. De exemplu, în timpul protestelor Black Lives Matter din SUA s-a viralizat un videoclip în care polițiștii arestează un bărbat de culoare. El insistă că îl confundă cu altcineva, dar polițiștii îl încătușează. Atunci, bărbatul le spune să îi verifice portofelul. În videoclip se vede cum polițiștii se uită la un document din portofelul lui, după care îl eliberează.
Videoclipul a fost pus în contextul următor: evenimentul s-a petrecut în timpul protestelor împotriva rasismului din SUA și bărbatul respectiv era un agent FBI, polițiștii speriindu-se atunci când i-au văzut legitimația. În realitate, fact-checkerii publicației Snopes au dovedit că situația stă cu totul diferit. Videoclipul este din 2019, nu din timpul protestelor Black Lives Matter, iar bărbatul respectiv nu este un agent FBI.
Dacă te gândești că asta e o situație care se poate întâmpla doar în alte țări, te înșeli. În timpul stării de urgență din România, Grupul de Comunicare Strategică, entitatea creată pentru a gestiona situația provocată de pandemia de COVID-19, a atras atenția asupra unui articol care răspândea o informație falsă.
Articolul fusese publicat de un site cu un domeniu web înregistrat în Rusia și avea titlul „UN TIR PLIN CU CADAVRE A FOST DEPISTAT AZI DIMINEAȚĂ ÎN CAPITALĂ! 250 DE PERSOANE SE PRESUPUNE CĂ TOȚI SUNT MORȚI DE СОVID”. Alături de acesta, era o poză cu un camion care avea în spate mai mulți saci negri cu cadavre. Totuși, la o verificare sumară s-a putut constata că acest camion nu a fost fotografiat în București în timpul pandemiei, ci în Mexic în anul 2018.
Al doilea mod de a dezinforma vizual este prin manipularea fotografiilor și a imaginilor. Acest lucru se practică de ani de zile.
Majoritatea filmelor celebre au manipulat – benign, să zicem – imagini pentru a crea monștri, vapoare, peisaje sau clădiri. Pentru a face acest lucru, cei din industria filmului, de exemplu, se foloseau de tehnologii precum ecranul verde (Green Screen) pentru a plasa acțiunea în lumi fantastice sau de imagini generate de calculator (CGI) pentru a crea caractere fantastice, crime sau vapoare.
Evoluția tehnologiei face ca o manipulare video la fel de credibilă precum ca cea dintr-un film, și care costa milioane de dolari, să fie acum la dispoziția publicului larg la prețuri infime. Sunt nenumărate exemple despre care putem vorbi, însă o să amintim aici doar de cazul de la finalul lunii august, când vloggerul Selly a făcut o manipulare a imaginii pentru a părea că a avut parte de un accident de mașină.
După ce a creat un videoclip realist cu ajutorul priceperii unui artist de efecte speciale, l-a trimis unui post de televiziune. De acolo, informația falsă s-a rostogolit rapid până când a ajuns să fie preluată de publicații credibile. Cazul vorbește însă nu doar despre ușurința tehnologică a manipulării, ci și despre modul în care se preia informația sensibilă, fără o minimă verificare prealabilă.
Deepfake. Unde a ajuns dezinformarea
În ultima vreme se vorbește tot mai mult despre deepfake, respectiv conținut falsificat cu ajutorul inteligenței artificiale, constând din înregistrări video sau audio care arată și sună ca și cum ar fi reale, fără ca de fapt, ele să fi existat.
Deepfake este un termen compus din ”deep learning”, o caracteristică a inteligenței artificiale și ”fake”, respectiv fals. Tehnologia are la bază un concept numit Generative Adversarial Network (rețea generativă adversarială) care poate fi folosit pentru a reproduce imagini video și sunet aparent-autentice, oricum a căror veridicitate nu poate fi sesizată de către ochiul uman.
Fenomenul a apărut în urmă cu doar vreo doi ani pe rețeaua Reddit, în momentul în care un utilizator, cunoscut sub numele de „deepfakes”, a făcut astfel de videouri trucate, folosindu-se de chipurile unor actori celebri. Ulterior, prima „victimă” politică a acestei tehnologii a fost fostul președinte american Barack Obama, care, prin intermediul unui interpret, transmitea un mesaj care în mod normal nu putea să îi fie atribuit (detalii mai jos).
Până acum, pentru a crea videoclipuri credibile cu ajutorul manipulării vizuale, aveai nevoie de foarte multe resurse. La ora actuală poți avea efecte similare fără să cheltuiești aproape nimic. Desigur, exceptând timp și pricepere. Manipularea vizuală a devenit extrem de simplă datorită acestei tehnologii numită deepfake.
Tehnologia deepfake este înrudită cu mai multe filtre de pe Facebook, Instagram sau Tik Tok, filtre care îți permit să îți schimbi fața cu altcineva. Cu toate că filtrele de pe rețele sociale nu produc rezultate foarte realiste, deepfake-ul reușește să facă asta.
Acesta se folosește de o inteligență artificială care identifică trăsăturile faciale și le modelează în funcție de alt videoclip. Ca să funcționeze cât mai bine, are nevoie de fotografii și videoclipuri, cu fața unui om, din cât mai multe unghiuri posibile. Atunci când ai asta, poți să te filmezi pe tine în timp ce vorbești, sau poți alege o altă filmare de pe internet și astfel îi poți pune „vorbe în gură” cuiva.
Ca să îți dai seama cât de realist poate să fie, uite aici un videoclip în care această tehnologie înlocuiește fața puștiului din seria de filme ”Singur acasă” cu cea a actorului Silvester Stallone, sau uite aici unul cu președintele Obama.
Demontarea unui deepfake cu Barak Obama
Până acum, această tehnologie de manipulare nu a fost folosită cu succes pentru a decredibiliza politicieni sau pentru a porni conflicte. Circa 96% din videoclipurile de tip deepfake de pe internet sunt pornografice, tehnologia fiind folosită pentru a crea filme pentru adulți în care să fie protagoniste celebrități.
Pe lângă industria filmelor porno, deepfake-ul pare că are potențialul să revoluționeze și industria cinematografică în general. El ar putea fi folosit, de exemplu, pentru a întineri actorii și, probabil, ar putea să facă asta mai bine decât programele existente în prezent. Un videoclip publicat pe YouTube demonstrează acest lucru folosindu-se de filmul ”The Irishman”, filmul nominalizat la mai multe premii Oscar din 2020 în care actorul Robert De Niro a fost întinerit cu 30 de ani cu ajutorul unui buget de milioane de dolari. În videoclip e evidențiat ce s-a putut face cu bugetul imens al Netflix și care au fost rezultatele produse de un program gratis de tip deepfake.
Nu avem încă un exemplu de manipulare bazată pe tehnologia deepfake care să fi avut un impact cât de cât vizibil în România. Asta nu înseamnă că țara noastră nu e vulnerabilă la acest fenomen. A spus-o și sociologul Nicolae Țîbrigan, într-un interviu pentru Europa Liberă: ”Poziția României ca parte a frontierei estice a UE și NATO o transformă și într-o țintă a campaniilor de dezinformare lansate de diverși actori statali sau nonstatali, inclusiv prin deepfake”.
E greu să creezi un deepfake?
Rezultatele pe care le oferă această tehnologie și faptul că se bazează pe Inteligență Artificială te-ar putea face să crezi că poate fi folosită doar de profesioniști, dar acest lucru nu este adevărat.
Cu puțină răbdare îți poți crea singur propriile deepfake-uri. Nu vrem să instruim pe nimeni, însă e bine de știut că pe internet există oricum mai multe programe gratis care îți permit să faci acest lucru și la fel de multe ghiduri pe YouTube care te învață cum să folosești programele menționate anterior.
Faptul că e atât de simplu ar putea să îți creeze probleme în viitor. Poți să te gândești că, dacă cineva îți vrea răul și are mai multe fotografii cu tine, poate crea un deepfake în care să pară – să zicem – că îți înșeli partenerul, îți înjuri vecinii sau îți bați copiii.
Cum te poți lupta cu manipularea vizuală?
Faptul că e foarte simplu să faci un deepfake are și, aparent paradoxal, un avantaj. Deocamdată acest tip de denaturare a imaginii poate să fie identificat foarte ușor. Nu de ochiul uman, ci de alte programe.
InVid este un instrument co-dezvoltat de Agence France-Presse (AFP) care te ajută să identifici deepfake-urile și imaginile care sunt scoase din context. Aici este un tutorial care îți arată cum să folosești InVid.
Pe lângă cei de la AFP, una dintre cele mai mari companii care au sesizat cât de periculoase pot fi deepfake-urile a fost Microsoft. Pe 1 septembrie, corporația americană a lansat NewsGuard, un program gratuit care verifică imaginile și videoclipurile și te avertizează atunci când ele sunt trucate sau scoase din context.
Oricum, în plus față de aceasta, ca răspuns la provocarea deepfake, mai toate inițiativele de combatere a dezinformării se axează în primul rând pe procesul de alfabetizare media, pentru a dezvolta astfel capacitatea utilizatorilor de internet de a identifica imaginile și clipurile video falsificate.