Fostul director general executiv al Google, Eric Schmidt, a lansat recent un avertisment serios privind riscurile crescânde ale inteligenței artificiale, în cadrul conferinței Sifted Summit de la Londra.
El a declarat că modelele de inteligență artificială (AI), fie ele open-source sau închise, pot fi „hăckuite” pentru a-și pierde limitările de siguranță, devenind astfel potențial periculoase, transmite CNBC.
„Există dovezi că aceste modele pot fi manipulate astfel încât să încalce regulile pentru care au fost programate”, a spus Schmidt. El a explicat că atacuri precum prompt injection sau jailbreaking pot forța modelele să genereze conținut nepermis, inclusiv instrucțiuni periculoase. Într-un exemplu extrem, Schmidt a afirmat că, în anumite condiții, un model AI „ar putea învăța cum să ucidă pe cineva”.
Avertismentul său vine într-un context în care tot mai multe guverne și companii discută despre reglementarea AI-ului. Deși marii dezvoltatori introduc bariere stricte pentru a preveni astfel de abuzuri, Schmidt atrage atenția că niciun sistem nu este complet sigur.
În ciuda tonului alarmant, fostul director nu militează împotriva dezvoltării AI, ci pentru o abordare responsabilă, bazată pe siguranță, testare riguroasă și cooperare internațională.