Spania va impune amenzi uriase companiilor care folosesc continut generat de AI fara sa-l eticheteze ca atare

Guvernul Spaniei a aprobat marti un proiect de lege care impune amenzi uriase companiilor care utilizeaza continut generat de inteligenta artificiala (AI) fara a-l eticheta ca atare, in incercarea de a reduce utilizarea asa-numitelor „deepfake”, transmite Reuters.
Proiectul de lege adopta orientari din Actul legislativ de referinta al Uniunii Europene privind AI care impune obligatii stricte de transparenta in privinta sistemelor AI considerate a fi cu risc ridicat, a declarat ministrul Transformarii Digitale, Oscar Lopez.
„AI este un instrument foarte puternic care poate fi folosit pentru a ne imbunatati vietile… sau pentru a raspandi dezinformarea si a ataca democratia”, a spus el.
Spania este printre primele tari din UE care a implementat regulile blocului, considerate mai cuprinzatoare decat sistemul Statelor Unite, care se bazeaza in mare parte pe respectarea voluntara si pe un mozaic de reglementari statale.
Lopez a adaugat ca toata lumea este vulnerabila la atacuri „deepfake” – un termen pentru videoclipuri, fotografii sau audio care au fost editate sau generate cu algoritmi AI, dar sunt prezentate ca reale.
Proiectul de lege, care trebuie aprobat de camera inferioara, clasifica nerespectarea etichetarii adecvate a continutului generat de inteligenta artificiala drept „infractiune grava” care poate duce la amenzi de pana la 35 de milioane de euro sau 7% din cifra de afaceri anuala la nivel global.
Asigurarea ca sistemele de inteligenta artificiala nu dauneaza societatii a fost o prioritate pentru autoritatile de reglementare de cand OpenAI a lansat ChatGPT la sfarsitul anului 2022.
Proiectul de lege interzice, de asemenea, alte practici, precum utilizarea tehnicilor subliminale – sunete si imagini care sunt imperceptibile – pentru a manipula grupuri vulnerabile. Lopez a citat ca exemple chatbot-uri care incita persoanele cu dependente la jocuri de noroc sau jucariile care incurajeaza copiii sa faca provocari periculoase.
De asemenea, ar impiedica organizatiile sa clasifice oamenii prin datele lor biometrice folosind AI, evaluandu-i pe baza comportamentului sau a trasaturilor personale, pentru a le oferi acces la beneficii sau pentru a le evalua riscul de a comite o infractiune.
Cu toate acestea, autoritatilor li se va permite in continuare sa utilizeze supravegherea biometrica in timp real in spatiile publice din motive de securitate nationala.
Aplicarea noilor reguli va fi de competenta agentiei nou-create de supraveghere a inteligentei artificiale, AESIA, cu exceptia cazurilor specifice care implica confidentialitatea datelor, criminalitate, alegeri, ratinguri de credit, asigurari sau sisteme de piata de capital, care vor fi supravegheate de organele de supraveghere specifice.