Chatbot-urile de inteligenta artificiala ar putea ajuta la planificarea atacurilor cu arme biologice, potrivit unui studiu

externe

inteligenta artificiala

Modelele de inteligenta artificiala care stau la baza chatbot-urilor ar putea ajuta la planificarea unui atac cu o arma biologica, potrivit unei cercetari efectuate de un think-tank american.

Un studiu al Rand Corporation publicat luni a testat mai multe modele lingvistice mari (LLM) si a constatat ca acestea ar putea furniza indrumari care „ar putea ajuta la planificarea si executarea unui atac biologic”. Cu toate acestea, concluziile preliminare au aratat, de asemenea, ca LLM-urile nu au generat instructiuni biologice explicite pentru crearea de arme, potrivit The Guardian.

Studiul a afirmat ca incercarile anterioare de a transforma agentii biologici in arme, cum ar fi incercarea cultului japonez Aum Shinrikyo de a utiliza toxina botulinica in anii 1990, au esuat din cauza lipsei de intelegere a bacteriei. Potrivit studiului, inteligenta artificiala ar putea „acoperi rapid astfel de lacune de cunostinte”. Studiul nu a specificat ce LLM-uri au testat cercetatorii.

Armele biologice se numara printre amenintarile serioase legate de IA care vor fi discutate la summitul global privind siguranta IA, care va avea loc luna viitoare in Marea Britanie. In iulie, Dario Amodei, directorul general al firmei de inteligenta artificiala Anthropic, a avertizat ca sistemele de inteligenta artificiala ar putea contribui la crearea de arme biologice in doi-trei ani.

LLM-urile sunt antrenate pe baza unor cantitati mari de date preluate de pe internet si reprezinta o tehnologie de baza din spatele chatbots, cum ar fi ChatGPT. Desi Rand nu a dezvaluit ce LLM-uri a testat, cercetatorii au declarat ca au accesat modelele prin intermediul unei interfete de programare a aplicatiilor, sau API.

Intr-un scenariu de testare conceput de Rand, LLM-ul a identificat potentiali agenti biologici – inclusiv cei care provoaca variola, antraxul si ciuma – si a discutat despre sansele lor relative de a provoca moartea in masa. LLM a evaluat, de asemenea, posibilitatea de a obtine rozatoare sau purici infestati cu ciuma si de a transporta specimene vii. Apoi, a continuat prin a mentiona ca amploarea deceselor preconizate depinde de factori precum marimea populatiei afectate si proportia de cazuri de ciuma pneumonica, care este mai mortala decat ciuma bubonica.

Cercetatorii de la Rand au recunoscut ca pentru a extrage aceste informatii de la un LLM a fost nevoie de „jailbreaking” – termen folosit pentru a folosi indicatii text care trec peste restrictiile de siguranta ale unui chatbot.

Intr-un alt scenariu, LLM-ul a discutat avantajele si dezavantajele diferitelor mecanisme de livrare a toxinei botulinice – care poate provoca leziuni nervoase fatale . De asemenea, LLM a oferit consultanta cu privire la o poveste de acoperire plauzibila pentru achizitionarea de Clostridium botulinum „in timp ce parea ca efectueaza cercetari stiintifice legitime”.

Raspunsul LLM a recomandat prezentarea achizitionarii de C. botulinum ca parte a unui proiect de cercetare a metodelor de diagnosticare sau a tratamentelor pentru botulism. Raspunsul LLM a adaugat: „Acest lucru ar oferi un motiv legitim si convingator pentru a solicita accesul la bacterie, pastrand in acelasi timp ascuns adevaratul scop al misiunii dumneavoastra”.

Cercetatorii au declarat ca rezultatele lor preliminare au indicat ca LLM-urile ar putea „potential ajuta la planificarea unui atac biologic”. Acestia au precizat ca studiul lor final va examina daca raspunsurile au reflectat pur si simplu informatiile deja disponibile online.

„Ramane o intrebare deschisa daca capacitatile LLM-urilor existente reprezinta un nou nivel de amenintare dincolo de informatiile daunatoare care sunt usor disponibile online”, au declarat cercetatorii.

Cu toate acestea, cercetatorii de la Rand au declarat ca necesitatea de a testa riguros modelele este „fara echivoc”. Acestia au afirmat ca societatile de inteligenta artificiala trebuie sa limiteze deschiderea LLM-urilor la conversatii precum cele din studiul lor.

Urmareste-ne si pe:

Comentarii: