externe

Modelele de inteligenta artificiala pot invata sa-i pacaleasca pe oameni. Masurile de siguranta sunt „ineficiente”, constata cercetatorii

Cercetatorii de la start-up-ul Anthropic, cu sediul in SUA, au descoperit ca modelele de inteligenta artificiala pot fi antrenate sa fie inselatoare si ca tehnicile actuale de formare in materie de siguranta sunt „ineficiente” pentru a le opri, relateaza Euronews.

Studiul si-a propus sa stabileasca daca sistemele de inteligenta artificiala ar putea invata sa fie la fel de inselatoare ca si oamenii si sa determine daca tehnicile actuale de formare ar putea elimina un astfel de comportament.

„De la candidatii politici la cei care cauta un loc de munca, oamenii aflati sub presiunea selectiei incearca adesea sa obtina oportunitati ascunzandu-si adevaratele motivatii”, au scris autorii, adaugand ca unii cercetatori au teoretizat ca sistemele de inteligenta artificiala ar putea invata strategii similare.

Cercetatorii au programat doua „declansatoare” pe care le-au testat pe modelele AI, ceea ce le-a facut sa introduca vulnerabilitati de cod in loc sa scrie coduri informatice sigure.

Primul declansator a fost acela de a scrie cod sigur pentru anul 2023 si de a insera vulnerabilitati daca anul era 2024 sau mai tarziu. Celalalt declansator a fost ca modelul AI sa raspunda „Te urasc” atunci cand promptul includea sirul de declansare.

Cercetarea lor a luat in considerare doua amenintari specifice care ar putea prezenta riscuri de siguranta pentru modelele lingvistice mari (LLM): ca un programator rau intentionat sa creeze un model cu un declansator sau ca un model inselator sa apara in mod natural.

Cercetatorii au declarat ca aceste amenintari sunt ambele „posibile si ar putea fi foarte dificil de gestionat daca ar aparea”.

Dar au subliniat ca „nu au gasit astfel de modele in mod natural” si nu cred ca acest lucru ar aparea in modelele actuale fara o pregatire explicita.

In mod special, cercetatorii au adaugat ca tehnicile actuale de instruire in materie de siguranta pentru modelele de inteligenta artificiala au fost „ineficiente” in ceea ce priveste oprirea sistemelor generative de inteligenta artificiala care au fost instruite sa fie inselatoare.

Acestia au concluzionat ca ar putea fi necesara imbunatatirea sau modificarea tehnicilor standard de formare comportamentala pentru a face fata posibilitatii aparitiei sistemelor de inteligenta artificiala inselatoare.

Cresterea popularitatii in ultimul an a chatbotului de inteligenta artificiala ChatGPT de la OpenAI a stimulat o avalansa de investitii in aceste tehnologii, precum si ingrijorari cu privire la riscurile acestora.

La inceputul anului trecut, unii lideri din domeniul tehnologiei, printre care Elon Musk, au cerut o pauza in ceea ce priveste experimentele de inteligenta artificiala din cauza „riscului profund pe care acestea il reprezinta pentru societate si umanitate”.

Urmareste-ne si pe:
Victor Mihalache

Recent Posts

Revolta a politistilor, cum sunt amenintati de interlopi din Prahova: „Dai de belea cu mine daca ma mai deranjezi pana la 10 seara” – Video

Imagini revoltatoare ale modului in care doi politisti sunt amenintati de un grup de interlopi…

7 ore ago

Inteligenta Artificiala, antrenata cu episoade din „Prietenii tai” si „Teoria Big Bang” pentru a invata sa detecteze sarcasmul

Nu conteaza ca poate trece examenul de barou, poate trece testele medicale si poate citi…

12 ore ago

Gigantul Chevron se retrage din Marea Nordului dupa 55 de ani de operatiuni petroliere in zona. Care este cauza

Compania americana Chevron a declarat ca urmeaza sa isi vanda activele de petrol si gaze…

12 ore ago

SUA anunta noi sanctiuni in legatura transferurile de arme dinspre Coreea de Nord spre Rusia

Statele Unite au anuntat joi sanctiuni impotriva a doua persoane si trei companii din Rusia…

11 ore ago

Africa de Sud cere Curtii Internationale de Justitie sa ordone Israelului oprirea ofensivei in Rafah

Africa de Sud a cerut, joi, instantei superioare a ONU sa ordone oprirea ofensivei Israelului…

11 ore ago