Casa Alba, reuniune privind AI: Sefii Big Tech au primit ordin sa protejeze publicul de riscurile dezvoltarii inteligentei artificiale

externe

Sefii din domeniul tehnologiei au fost convocati joi la Casa Alba si li s-a spus ca trebuie sa protejeze publicul de pericolele inteligentei artificiale (AI), scrie BBC.

Lui Sundar Pichai de la Google, Satya Nadella de la Microsoft si Sam Altmann de la OpenAI li s-a spus ca au o datorie „morala” de a proteja societatea.

Casa Alba a lasat sa se inteleaga ca ar putea reglementa acest sector.

Produsele de inteligenta artificiala lansate recent, precum ChatGPT si Bard, au captat imaginatia publicului. Acestea ofera utilizatorilor obisnuiti sansa de a interactiona cu  „inteligenta artificiala generativa”, care poate rezuma informatii din mai multe surse in cateva secunde, poate depana coduri informatice, poate scrie prezentari si chiar poezii, care suna plauzibil ca si cum ar fi fost generate de oameni.

Lansarea lor a starnit o noua dezbatere cu privire la rolul AI in societate, oferind o ilustrare tangibila a riscurilor si recompenselor potentiale ale noii tehnologii.

Directorilor din domeniul tehnologiei, reuniti joi la Casa Alba, li s-a spus ca depinde de firme sa „asigure siguranta si securitatea produselor lor” si au fost avertizati ca administratia este deschisa la noi reglementari privind inteligenta artificiala.

Sam Altman, directorul executiv al OpenAi, firma din spatele ChatGPT, a declarat reporterilor ca, in ceea ce priveste reglementarea, executivii au fost „surprinzator de de acord cu ceea ce trebuie sa se intample”.

Vicepresedintele SUA, Kamala Harris, a spus in urma reuniunii ca noua tehnologie ar putea reprezenta un risc pentru siguranta, confidentialitatea si drepturile civile, desi are, de asemenea, potentialul de a imbunatati vietile.

Sectorul privat are „responsabilitatea etica, morala si juridica de a asigura siguranta si securitatea produselor lor”, a spus ea.

Casa Alba a anuntat o investitie de 140 de milioane de dolari din partea National Science Foundation pentru a lansa sapte noi institute de cercetare in domeniul inteligentei artificiale.

Apelurile pentru o mai buna reglementare a cresterii dramatice a inteligentei artificiale emergente au fost numeroase, atat din partea politicienilor, cat si a liderilor din domeniul tehnologiei.

La inceputul acestei saptamani, „nasul” inteligentei artificiale, Geoffrey Hinton, si-a dat demisia de la Google, spunand ca regreta acum munca sa. El a declarat pentru BBC ca unele dintre pericolele pe care le prezinta robotii de chat cu inteligenta artificiala sunt „destul de infricosatoare”.

In martie, o scrisoare semnata de Elon Musk si de fondatorul Apple, Steve Wozniak, a cerut o pauza in implementarea acestei tehnologii.

Iar miercuri, sefa Comisiei Federale pentru Comert (FTC), Lina Khan, si-a expus punctul de vedere cu privire la modul si motivele pentru care IA trebuie reglementata.

Exista ingrijorari legate de faptul ca AI ar putea inlocui rapid locurile de munca ale oamenilor, precum si ingrijorari legate de faptul ca robotii de chat, precum ChatGPT si Bard, pot fi inexacti si pot duce la diseminarea de informatii eronate.

Exista, de asemenea, preocupari legate de faptul ca IA generativa ar putea incalca legislatia privind drepturile de autor. Inteligenta artificiala care cloneaza vocea ar putea exacerba frauda. Videoclipurile generate de AI pot raspandi stiri false.

Cu toate acestea, sustinatori precum Bill Gates au ripostat la apelurile pentru o „pauza” a IA, spunand ca o astfel de masura nu ar „rezolva provocarile” care ne asteapta.

Dl Gates sustine ca ar fi mai bine sa ne concentram asupra modului in care sa folosim cel mai bine evolutiile din domeniul inteligentei artificiale.

Altii considera ca exista pericolul unei reglementari excesive, ceea ce ar oferi un avantaj strategic companiilor de tehnologie din China.

Urmareste-ne si pe:

Comentarii: