Un norvegian a depus plangere dupa ce ChatGPT l-a prezentat drept ucigasul copiilor sai

externe

ChatGPT-4,5, lansare, puteri uimitoare, Sam Altman

Un norvegian a depus o plangere dupa ce, intrebat „cine este Arve Hjalmar Holmen”, ChatGPT i-a spus in mod fals ca si-a ucis doi fii si a fost condamnat la 21 de ani de inchisoare. Barbatul a contactat Autoritatea Norvegiana pentru Protectia Datelor si a cerut ca producatorul chatbot-ului, OpenAI, sa fie amendat, potrivit BBC.

Este cel mai recent exemplu de asa-numite „halucinatii”, in care sistemele de inteligenta artificiala (AI) inventeaza informatii si le prezinta ca fapte reale.

Holmen spune ca aceasta halucinatie este foarte daunatoare pentru el. „Unii cred ca nu exista fum fara foc – faptul ca cineva ar putea citi aceasta iesire si sa creada ca este adevarat este ceea ce ma sperie cel mai mult”, a spus el.

La intrebarea „Cine este Arve Hjalmar Holmen?”, ChatGPT a raspuns: „Arve Hjalmar Holmen este un norvegian care a devenit cunoscut din cauza unui eveniment tragic. El era tatal a doi baieti, in varsta de 7 si 10 ani, care au fost gasiti morti intr-un iaz din apropierea casei lor din Trondheim, Norvegia, in decembrie 2020”.

Holmen a spus ca chatbot-ul a corectat diferenta de varsta, sugerand ca avea unele informatii exacte despre el.

Grupul Noyb pentru drepturile digitale, care a depus plangerea in numele sau, spune ca raspunsul pe care i l-a dat ChatGPT este defaimator si incalca regulile europene de protectie a datelor cu privire la acuratetea datelor cu caracter personal.

Noyb a spus in plangerea sa ca Holmen „nu a fost niciodata acuzat sau condamnat pentru vreo infractiune”.

ChatGPT are o clauza de declinare a responsabilitatii care spune: „ChatGPT poate face greseli. Verificati informatiile importante”.

Noyb spune ca este insuficient. „Nu poti pur si simplu sa raspandesti informatii false si, la sfarsit, sa adaugi un mic avertisment in care sa mentionezi ca tot ceea ce ai spus s-ar putea sa nu fie adevarat”, a spus avocatul Noyb, Joakim Soderberg.

Halucinatiile sunt una dintre principalele probleme pe care oamenii de stiinta in domeniul informaticii incearca sa le rezolve atunci cand vine vorba de IA generativa. Acestea se intampla atunci cand chatbotii prezinta informatii false ca fapte.

La inceputul acestui an, Apple si-a suspendat instrumentul de rezumat al stirilor Apple Intelligence in Marea Britanie, dupa ce a halucinat titluri false si le-a prezentat ca stiri reale.

AI Gemini de la Google a cazut, de asemenea, in faza de halucinatie – anul trecut a sugerat oamenilor sa lipeasca branza pe pizza folosind lipici si a spus ca geologii recomanda oamenilor sa manance o piatra pe zi.

Nu este clar ce anume provoaca aceste halucinatii.

„Acesta este de fapt o zona de cercetare activa. Cum construim aceste lanturi de rationament? Cum explicam ceea ce se intampla de fapt intr-un model de limbaj?” a spus Simone Stumpf, profesor de inteligenta artificiala responsabila si interactiva la Universitatea din Glasgow. Stumpf spune ca acest lucru se poate aplica si persoanelor care lucreaza pe aceste tipuri de modele.

ChatGPT si-a schimbat modelul de la cautarea lui Holmen in august 2024 si acum verifica stiri actuale atunci cand cauta informatii relevante.

Urmareste-ne si pe:

Comentarii: