Comisia Europeană analizează posibilitatea interzicerii aplicațiilor bazate pe inteligență artificială care „dezbracă” persoane în mediul online, pe fondul valului de conținut abuziv generat cu ajutorul lui Grok, asistentul integrat în platforma X.
Săptămâna trecută, eurodeputați au lansat un apel — relatat inițial de POLITICO — pentru interzicerea aplicațiilor și instrumentelor care permit utilizatorilor să creeze imagini intime false ale unor persoane, fără consimțământ, în temeiul legii europene privind inteligența artificială (AI Act).
Executivul UE „se uită la această chestiune”, a declarat pentru POLITICO purtătorul de cuvânt al Comisiei, Thomas Regnier.
Demersul vine după proliferarea unor imagini deepfake sexualizate, generate de botul Grok și găzduite pe rețeaua X a lui Elon Musk. Platforma a anunțat săptămâna trecută schimbări despre care spune că ar limita fenomenul, însă acestea nu s-ar aplica și utilizatorilor asistentului Grok integrat.
În baza AI Act, anumite utilizări ale inteligenței artificiale sunt interzise din februarie 2025, atunci când reprezintă o amenințare clară pentru siguranța oamenilor, drepturile fundamentale sau mijloacele lor de trai.
Totuși, aplicațiile de „nudificare” nu sunt menționate explicit în lista actuală a practicilor interzise. Asta ar trebui să se schimbe, susține eurodeputatul irlandez liberal Michael McNamara, într-un interviu acordat POLITICO vineri. McNamara este copreședinte al grupului de lucru al Parlamentului privind inteligența artificială și răspunde de activitatea legislativului pe o propunere de modificare și simplificare a AI Act.
„Este, în mod clar, un tip de prejudiciu care se intenționa să fie oprit prin categoria practicilor interzise”, a spus el, referindu-se la postările legate de Grok.
Scandalul Grok a reaprins întrebarea: de ce deepfake-urile sexualizate generate cu AI nu au fost incluse în lista de interdicții atunci când negocierile asupra legii s-au încheiat, în 2023.
„Presupun că nu s-a anticipat că se va ajunge aici”, a declarat McNamara.
Într-o postare pe blog publicată vineri, Laura Caroli, expertă în guvernanța inteligenței artificiale, a scris că interzicerea deepfake-urilor „ar fi părut pur și simplu de neconceput”. Caroli este fostă asistentă a celuilalt raportor principal al Parlamentului pe AI, social-democratul italian Brando Benifei, și a participat la negocierile finale din decembrie 2023, când lista practicilor interzise a fost stabilită.
„Interdicțiile erau considerate aproape toxice, mai ales de către statele membre”, a notat ea.
În forma actuală, singura trimitere la deepfake-uri din lege este obligația de etichetare, astfel încât utilizatorii să le poată recunoaște — cerință care intră în vigoare din august 2026.
Acum, Comisia trebuie să decidă dacă deepfake-urile sexualizate generate cu AI se pot încadra în una dintre interdicțiile deja existente (de exemplu, interzicerea sistemelor „manipulative sau înșelătoare” ori a celor care exploatează vulnerabilitățile oamenilor) sau dacă e nevoie de introducerea unei noi interdicții.
AI Act obligă Comisia să evalueze anual dacă lista practicilor interzise trebuie actualizată, ceea ce deschide ușa către modificări.
Caroli avertizează însă că extinderea listei de interdicții poate crea probleme noi, comparând situația cu deschiderea „cutiei Pandorei” în felul în care UE gestionează inteligența artificială: „Mi-e teamă că poate merge în toate direcțiile, pentru că unele state membre nu erau foarte încântate de anumite interdicții”, a spus ea. „Cine ne garantează că va fi o trecere lină?”