Directori si experti in Inteligenta Artificiala avertizeaza asupra „riscului de disparitie” al oamenilor

life

Directori importanti din domeniul inteligentei artificiale, inclusiv CEO-ul OpenAI, Sam Altman, au publicat o declaratie cu o singura fraza in care se spune ca „reducerea riscului de disparitie din cauza inteligentei artificiale ar trebui sa fie o prioritate globala”, asemanator razboiului nuclear sau pandemiilor, potrivit DW.

Cercetatori, directori, experti si alte personalitati in domeniul inteligentei artificiale au semnat o declaratie cu o singura propozitie publicata marti de grupul umbrela Centrul pentru Siguranta Inteligentei Artificiale (CAIS).

„Reducerea riscului de disparitie din cauza inteligentei artificiale ar trebui sa fie o prioritate globala, alaturi de alte riscuri la scara societala, cum ar fi pandemiile si razboiul nuclear”, se spune in declaratie.

Introducerea declaratiei a fost de peste doua ori mai lunga decat evenimentul principal. Potrivit acesteia, se „discuta din ce in ce mai mult despre un spectru larg de riscuri uriase si urgente ridicate de inteligenta artificiala”.

„Chiar si asa, poate fi dificil sa ne exprimam ingrijorarile cu privire la unele dintre cele mai grave riscuri ridicate de IA. Declaratia succinta de mai jos urmareste sa depaseasca acest obstacol si sa reprezinte un punct de pornire al discutiei”, a spus grupul. „De asemenea, este menit sa creeze informatii legate de numarul tot mai mare de experti si personalitati publice care iau, de asemenea, in serios unele dintre cele mai grave riscuri ale IA”.

Doi dintre cei trei asa-numiti „Nasi ai inteligentei artificiale” care au impartit Premiul Turing 2018 pentru munca lor in domeniul invatarii profunde, Geoffrey Hinton si Yoshua Bengio, se afla in fruntea listei semnatarilor. Al treilea, Yann Le Cun, care lucreaza la Meta, compania-mama a Facebook detinuta de Mark Zuckerberg, nu a semnat.

CEO-ul DeepMind de la Google, Demis Hassasbis, si CEO-ul OpenAI (compania din spatele chatbot-ului ChatGPT), Sam Altman, au fost urmatorii pe lista, alaturi de CEO-ul companiei AI Anthropic, Dario Amodei.

Academicieni si oameni de afaceri, multi dintre ei lucrand la companii precum Google si Microsoft, au alcatuit cea mai mare parte a listei. Dar a inclus si alte persoane celebre, cum ar fi fostul presedinte al Estoniei, Kersti Kaljulaid, neurologul si prezentatorul de podcast Sam Harris si cantareata canadiana Grimes.

Scrisoarea a fost publicata pentru a coincide cu reuniunea Consiliului pentru Comert si Tehnologie SUA-UE din Suedia, unde politicienii si personalitati din domeniul tehnologiei vor discuta despre potentiala reglementare a IA.

Oficialii UE au mai spus marti ca responsabilul pentru piata interna, Thierry Breton, va avea o intalnire personala cu directorul OpenAI la San Francisco luna viitoare. Cei doi sunt asteptati sa discute despre modul in care compania va implementa prima incercare a blocului de a reglementa inteligenta artificiala, programata sa intre in vigoare pana in 2026.

In ciuda apelurilor sale frecvente de reglementare a industriei, Altman a amenintat ca isi va retrage compania din Europa atunci cand UE a prezentat pentru prima data aceste planuri, spunand ca propunerile au mers prea departe, inainte de a renunta oarecum la aceasta amenintare.

Declaratia privind riscurile asociate AI nu mentiona riscurile potentiale, cat de severe le considera a fi, cum ar putea sa le atenueze sau cine ar trebui sa fie responsabil pentru acest lucru, cu exceptia faptului ca „ar trebui sa fie o prioritate globala”.

Inainte de a publica declaratia, Centrul pentru Siguranta Inteligentei Artificiale a publicat o sinteza a comentariilor recente ale lui Yoshua Bengio, directorul Institutului de Algoritmi de Invatare din Montreal, care teoretizeaza despre modul in care o inteligenta artificiala ar putea reprezenta o amenintare existentiala pentru umanitate.

Bengio sustine ca, in curand, IA-urile ar trebui sa poata urmari obiective in lumea reala, si ar fi posibil ca o IA superinteligenta sa urmareasca obiective care intra in conflict cu valorile umane.

Bengio identifica patru moduri prin care o IA ar putea ajunge sa urmareasca obiective care ar putea intra in conflict cu interesele umane:
Principala este umanitatea insasi – un actor uman rauvoitor care instruieste un AI sa faca ceva rau. Utilizatorii au cerut deja ChatGPT, de exemplu, sa formuleze un plan pentru a obtine dominatia mondiala.

El spune, de asemenea, ca unei IA i-ar putea fi dat un obiectiv care a fost specificat sau descris necorespunzator si din asta sa traga o concluzie gresita cu privire la instructiunile sale.

A treia varianta posibila este o IA care vine cu propriile sale obiective secundare, in cautarea unui obiectiv mai amplu stabilit de un om, care l-ar putea ajuta sa atinga tinta, dar cu un cost prea mare.

In cele din urma, si probabil ca se uita putin mai departe in viitor, Bengio spune ca IA ar putea dezvolta in cele din urma un fel de presiune evolutiva pentru a se comporta mai egoist, asa cum fac animalele in natura, pentru a asigura supravietuirea lor si a semenilor lor.

Recomandarile lui Bengio despre cum pot fi reduse aceste riscuri includ mai multe cercetari privind siguranta IA, atat la nivel tehnic, cat si la nivel politic.

El a fost unul dintre semnatarii scrisorii deschise anterioare care solicita o pauza in construirea unor sisteme IA mai mari si mai complexe, pentru a oferi timp pentru reflectie si cercetare.

El recomanda, de asemenea, interzicerea IA de a urmari obiective si actiuni din lumea reala pentru moment si concluzioneaza ca „este de la sine inteles” ca armele autonome letale „trebuie sa fie absolut interzise”.

Urmareste-ne si pe:

Comentarii: