Secretarul american al Apărării, Pete Hegseth, ar fi dat companiei de inteligență artificială Anthropic un termen limită de vineri pentru a relaxa restricțiile de securitate privind utilizarea sa în scopuri militare, potrivit unor relatări din presă și surse din interior. Dacă compania nu se conformează, se confruntă cu sancțiuni severe, au relatat portalul de știri Axios și Associated Press, citând surse din interior.
Pentagonul ar putea invoca Legea privind producția de apărare, a explicat un oficial de rang înalt al Pentagonului, relatează Der Spiegel.
Această lege din epoca Războiului Rece permite guvernului american să oblige companiile să acorde prioritate nevoilor de securitate națională.
Contextul acestei situații este planul Pentagonului de a utiliza modele de inteligență artificială în rețele clasificate, fără a fi supus restricțiilor obișnuite impuse de producători. Guvernul SUA dorește să utilizeze din ce în ce mai mult modele de inteligență artificială la toate nivelurile de secretizare pentru a accelera procesul decizional militar.
Negocierile cu compania cunoscută pentru chatbot-ul său Claude se dovedesc dificile, potrivit unor surse din interior . Managerii Anthropic ar fi precizat oficialilor guvernamentali că tehnologia lor nu ar trebui utilizată pentru direcționare autonomă sau supraveghere internă. Un purtător de cuvânt al companiei a declarat că, deși doresc să contribuie la asigurarea poziției de lider a SUA în domeniul inteligenței artificiale, sunt încă în discuții despre natura precisă a colaborării.
Un oficial de rang înalt al Pentagonului a respins îngrijorările Anthropic cu privire la utilizarea tehnologiei sale în scopuri militare. El a declarat că Pentagonul a acționat întotdeauna în limitele legii.
Prin poziția sa, Anthropic se remarcă în prezent în industrie. Concurenți precum compania-mamă a Google, Alphabet, xAI, compania condusă de CEO-ul Tesla, Elon Musk, și dezvoltatorul ChatGPT, OpenAI, au ajuns deja la acorduri cu guvernul. De exemplu, OpenAI a fost de acord să ridice multe dintre restricțiile obișnuite de utilizare pentru rețeaua militară „genai.mil”. Cu toate acestea, experții avertizează asupra riscurilor. Modelele de inteligență artificială tind să inventeze informații, prezentând așa-numitele „halucinații”.
Anthropic a fost fondată în 2021 de foști angajați ai companiei de inteligență artificială OpenAI. În timp ce OpenAI este mult mai cunoscută publicului larg pentru chatbot-ul său ChatGPT, Anthropic, cu aplicația sa Claude, vizează programatorii și companiile pentru care securitatea datelor, printre altele, este importantă.