Tehnologia recunoașterii faciale capătă amploare, dar ne poate afecta serios intimitatea și nevoia de confidențialitate. Mai multe detalii pe acest subiect într-un material video ARTE Săptămânal
Zâmbiți! Sunteți filmat. Camerele de supraveghere fac parte din tot mai mult din peisajul cotidian. Este posibil să se întâmple la fel și în cazul recunoașterii faciale?
Uniunea Europeană este singura entitate din lume care a reglementat folosirea Inteligenței Artificiale (IA), inclusiv în cazuri de supraveghere vizuală, dar unele țări au găsit lacune în lege. Militanții pentru drepturi avertizează că această tehnologie este o încălcare gravă a confidențialității și pun sub semnul întrebării eficiența sa.
CONTEXT:
Uniunea Europeană este, în prezent, singura entitate din lume care a adoptat un cadru juridic cuprinzător pentru reglementarea utilizării Inteligenței Artificiale (IA). Prin Legea privind Inteligența Artificială (AI Act), UE încearcă să stabilească limite clare pentru folosirea acestor tehnologii, inclusiv în domenii sensibile precum supravegherea vizuală și recunoașterea biometrică. Cu toate acestea, la scurt timp după adoptarea legislației, au apărut semne că unele state membre caută sau exploatează lacunele legii, stârnind îngrijorarea activiștilor pentru drepturile omului și a organizațiilor pentru protecția vieții private.
AI Act pornește de la o abordare bazată pe risc. Sistemele de inteligență artificială sunt clasificate în funcție de potențialul lor de a aduce prejudicii drepturilor fundamentale. La cel mai înalt nivel de risc se află aplicațiile considerate „inacceptabile”, printre care se numără, în principiu, supravegherea biometrică în timp real în spații publice. Ideea centrală este că monitorizarea constantă a cetățenilor, prin camere inteligente capabile să identifice fețe sau să analizeze comportamente, reprezintă o amenințare directă la adresa dreptului la viață privată și a libertății de exprimare.
Totuși, legea nu instituie o interdicție absolută. Ea permite excepții pentru „motive de interes public major”, precum prevenirea unor atacuri teroriste, căutarea unor persoane suspecte de infracțiuni grave sau localizarea victimelor unor crime. Aceste excepții, formulate relativ vag, sunt exact punctul în care militanții pentru drepturi civile văd o problemă majoră. În lipsa unor definiții stricte și a unor mecanisme de control solide, există riscul ca supravegherea să devină regula, nu excepția.
În practică, mai multe state membre au început deja să testeze sau să extindă sisteme de supraveghere bazate pe IA, invocând nevoia de securitate publică. Unele guverne folosesc tehnologii de recunoaștere facială în gări, aeroporturi sau în cadrul unor evenimente de masă, susținând că acestea nu funcționează „în timp real” sau că sunt activate doar temporar, pentru a se încadra formal în limitele legii. Criticii spun însă că astfel de distincții sunt artificiale și că efectul asupra cetățenilor este același: sentimentul de a fi permanent observați.
Organizațiile pentru drepturi digitale avertizează că supravegherea vizuală asistată de IA nu este doar o problemă de confidențialitate, ci și una de discriminare. Numeroase studii au arătat că algoritmii de recunoaștere facială au rate mai mari de eroare în cazul femeilor, al persoanelor de culoare sau al minorităților etnice. Într-un context de aplicare a legii, aceste erori pot duce la identificări greșite, opriri abuzive sau chiar arestări nejustificate. Chiar dacă tehnologia se îmbunătățește, spun activiștii, riscul nu poate fi eliminat complet.
Un alt punct critic este eficiența reală a acestor sisteme. Deși sunt promovate ca instrumente indispensabile pentru combaterea criminalității și a terorismului, dovezile privind impactul lor concret sunt limitate. În multe cazuri, costurile implementării sunt foarte mari, iar beneficiile rămân neclare sau marginale. Mai mult, accentul pus pe soluții tehnologice poate deturna atenția și resursele de la politici publice clasice, precum prevenția socială, educația sau consolidarea comunităților locale.
La nivel european, Comisia susține că AI Act oferă suficiente garanții și că implementarea va fi atent monitorizată. Statele membre vor fi obligate să raporteze utilizarea sistemelor de risc ridicat, iar autoritățile naționale de supraveghere vor avea competențe sporite. Cu toate acestea, experiența altor domenii arată că aplicarea uniformă a legislației europene rămâne o provocare, mai ales atunci când sunt implicate interese politice și de securitate.
Pentru militanții pentru drepturi civile, miza este una fundamentală: ce fel de societate dorește Europa să fie în era inteligenței artificiale. Una în care tehnologia este folosită cu maximă prudență, sub control democratic strict, sau una în care excepțiile devin portițe larg deschise pentru supraveghere extinsă. În absența unor limite clare și a unei dezbateri publice reale, avertizează aceștia, riscul este ca promisiunea unei IA „centrate pe om” să rămână doar un slogan, iar dreptul la viață privată să fie erodat treptat, aproape imperceptibil.
Programul este realizat de către platforma europeană ARTE și este disponibil în 10 limbi în urma unui parteneriat media intitulat EMOVE Hub. Proiectul este coordonat de ARTE și include publicațiile Balkan Insight (BIRN), Sinopsis (BIRN Romania), El País (Spania), Gazeta Wyborcza (Polonia), Internazionale (Italia), Ir (Letonia), Kathimerini (Grecia), Le Soir (Belgia) și Telex (Ungaria). Parteneriatul media este susținut prin fonduri europene în urma inițiativei DG CNECT „European Media Hubs” din cadrul programului EU’s Multimedia Actions
