Specialist in Inteligenta Artificiala: „Opriti totul imediat. Fiti pregatiti sa distrugeti cu lovituri aeriene centrele de dezvoltare a IA”

externe

Un cercetator in domeniul inteligentei artificiale, care a avertizat asupra pericolelor tehnologiei inca de la inceputul anilor 2000, anunta ca ar trebui sa „inchidem totul”, intr-un editorial alarmant publicat miercuri de revista Time, citat de Business Insider.

Eliezer Yudkowsky, un cercetator si autor care lucreaza la Inteligenta Generala Artificiala din 2001, a scris articolul ca raspuns la o scrisoare deschisa din partea mai multor nume mari din lumea tehnologiei, care a cerut un moratoriu asupra dezvoltarii IA timp de sase luni.

Scrisoarea, semnata de 1.125 de persoane, printre care Elon Musk si cofondatorul Apple, Steve Wozniak, a solicitat o pauza in ceea ce priveste antrenarea unor tehnologii de inteligenta artificiala mai puternice decat GPT-4, lansat recent de OpenAI.

In articol, intitulat „Pauza dezvoltarii AI nu este suficienta. Trebuie sa inchidem totul”, Yudkowsy scrie ca s-a abtinut sa semneze scrisoarea deoarece aceasta subestimeaza „gravitatea situatiei” si cere „prea putin pentru a o rezolva”.

El a scris: „Multi cercetatori implicati in aceste probleme, inclusiv eu insumi, se asteapta ca cel mai probabil rezultat al construirii unei inteligente artificiale supraumane, in circumstante care seamana cat de cat cu cele actuale, sa duca literalmente la consecinta ca toata lumea de pe Pamant va muri”.

El a explicat ca IA „nu ii pasa de noi si nici de viata sensibila in general”, iar in prezent suntem departe de a insufla aceste tipuri de principii in tehnologie.

El a studiat cu atentie cele mai recente progrese in domeniul retelelor neuronale si a ajuns la concluzia ca este prea devreme pentru ca oamenii sa se joace cu astfel de lucruri. Pentru ca nimeni nu are un plan B in cazul in care masinile care ne executa cu fidelitate comenzile devin brusc constiente de ele insele.

In opinia lui Yudkowsky, s-ar putea foarte bine sa se ajunga la o revolta a inteligentei artificiale superinteligente – deoarece oamenii ar fi un fel de civilizatie subdezvoltata, proasta si cu mintea inceata. Din acest motiv, cercetatorul a cerut lumii sa ia masuri drastice: sa nu mai antreneze retele neuronale, sa dezvolte standarde internationale si sa se simta liber sa lanseze atacuri aeriene asupra celor care le incalca.

Yudkowsky a sugerat o interdictie „pe termen nelimitat si la nivel mondial”, fara exceptii pentru guverne sau armate.

„Daca serviciile de informatii spun ca o tara din afara acordului construieste un cluster GPU, fiti mai putin speriati de un conflict armat intre natiuni decat de incalcarea moratoriului; fiti dispusi sa distrugeti un astfel de centru de date printr-o lovitura aeriana”, a spus Yudkowsky.

Yudkowsky lanseaza de mai multi ani avertismente bombastice cu privire la posibilele consecinte catastrofale ale IA. La inceputul lunii martie, el a fost descris de Bloomberg ca fiind un „AI Doomer”, iar autoarea Ellen Huet a mentionat ca el avertizeaza de mult timp cu privire la posibilitatea unei „apocalipse a IA”.

Cofondatorul si directorul general al Open AI, Sam Altman, a scris chiar pe Twitter ca Yudkowksy „a facut mai mult pentru a accelera IA decat oricine altcineva” si ca merita „premiul Nobel pentru pace” pentru munca sa.

De cand OpenAI si-a lansat chatbotul ChatGPT in noiembrie, acesta devenind aplicatia cu cea mai rapida crestere din istoria internetului, Google, Microsoft si alti giganti din domeniul tehnologiei au concurat pentru a-si lansa propriile produse de inteligenta artificiala.

Henry Ajder, un expert in inteligenta artificiala si prezentator care face parte din Consiliul consultativ european pentru Meta’s Reality Labs, a declarat anterior pentru Insider ca firmele de tehnologie sunt blocate intr-un „mediu competitiv de cursa a inarmarii”, in efortul de a fi vazute ca fiind „primele care avanseaza”, ceea ce ar putea duce la trecerea cu vederea a preocuparilor legate de etica si siguranta in inteligenta artificiala.

Chiar si Altman a recunoscut temerile legate de inteligenta artificiala, spunand intr-un podcast saptamana trecuta ca „ar fi o nebunie sa nu-ti fie putin teama, iar eu empatizez cu oamenii care se tem foarte mult”.

Cu toate acestea, el a adaugat ca OpenAI ia masuri pentru a rezolva problemele si problemele legate de tehnologia sa, spunand: „Vom minimiza lucrurile rele si vom maximiza lucrurile bune”.

Urmareste-ne si pe:

Mai mult despre:

Comentarii: