ChatGPT, acuzat de autoritatile italiene ca incalca normele UE privind confidentialitatea datelor. OpenAI spune ca lucreaza la protectia informatiilor private

news

Sam_Altman

Autoritatile de reglementare italiene au declarat ca au informat OpenAI ca chatbotul sau de inteligenta artificial, ChatGPT, a incalcat normele Uniunii Europene privind confidentialitatea datelor. Autoritatea pentru protectia datelor din Italia, cunoscuta si sub numele de „Garante”, a declarat, luni, ca a notificat OpenAI, cu sediul in San Francisco, cu privire la incalcarea normelor UE, cunoscute sub numele de Regulamentul general privind protectia datelor (GDPR), potrivit fortune.com.

Autoritatea de supraveghere a inceput sa investigheze ChatGPT, anul trecut, cand a interzis temporar pe teritoriul Italiei chatbotul care poate produce text, imagini si sunet, ca raspuns la intrebarile utilizatorilor.

Pe baza rezultatelor „activitatii sale de investigare”, organismul de supraveghere a declarat ca „a ajuns la concluzia ca dovezile disponibile indica existenta unor incalcari ale dispozitiilor” din normele UE privind confidentialitatea.

OpenAI are 30 de zile sa raspunda acuzatiilor

OpenAI, care are la dispozitie 30 de zile pentru a raspunde la acuzatii, a declarat ca va colabora in mod constructiv cu autoritatile de reglementare italiene.

„Credem ca practicile noastre se aliniaza la GDPR si la alte legi privind confidentialitatea si luam masuri suplimentare pentru a proteja datele si confidentialitatea oamenilor”, se arata intr-un comunicat al companiei conduse de Sam Altman. „Vrem ca inteligenta noastra artificiala sa invete lucruri despre lume, nu despre persoane private. Lucram in mod activ pentru a reduce datele personale in antrenarea sistemelor noastre, cum ar fi ChatGPT, care respinge solicitarile de informatii private sau sensibile despre persoane.”

Compania a declarat, anul trecut, ca a indeplinit o serie de conditii pe care „Garante” le-a cerut pentru a obtine ridicarea interdictiei ChatGPT.

ChatGPT nu protejeaza copiii in fata informatiilor sensibile

Organismul de supraveghere impusese interdictia, dupa ce a constatat ca mesajele si informatiile de plata ale unor utilizatori au fost expuse si pentru ca ChatGPT nu avea un sistem de verificare a varstei utilizatorilor, permitand copiilor sa primeasca raspunsuri de la instrumentul de inteligenta artificiala, care erau nepotrivite pentru varsta lor.

De asemenea, autoritatile italiene a pus sub semnul intrebarii daca exista un temei legal pentru ca OpenAI sa colecteze cantitati masive de date utilizate pentru a antrena algoritmii ChatGPT si si-a exprimat ingrijorarea ca sistemul ar putea genera uneori informatii false despre persoane.

UE pregateste primele reglementari in domeniu

Popularitatea tot mai mare a sistemelor de inteligenta artificiala generativa, precum ChatGPT, atrage, de asemenea, o atentie tot mai mare din partea autoritatilor de reglementare de pe ambele maluri ale Atlanticului.

Comisia Federala pentru Comert din SUA a deschis, saptamana trecuta, o ancheta privind relatiile dintre startup-urile de inteligenta artificiala OpenAI si Anthropic si gigantii din domeniul tehnologiei care le-au finantat – Amazon, Google si Microsoft.

Intre timp, autoritatile de reglementare a concurentei din UE cu 27 de state membre si din Marea Britanie examineaza, de asemenea, investitiile Microsoft in OpenAI.

Sistemele de inteligenta artificiala se confrunta, de asemenea, cu o supraveghere mai ampla in UE, care va finaliza o legislatie inovatoare privind inteligenta artificiala, primul regulament cuprinzator din lume pentru inteligenta artificiala. Cele 27 de state membre ale blocului comunitar sunt asteptate sa aprobe vineri o prima versiune a legislatiei.

Urmareste-ne si pe:

Comentarii: