Compania de inteligență artificială Anthropic a dat în judecată administrația Trump pentru a împiedica aplicarea a ceea ce numește o „campanie ilegală de represalii” pentru refuzul său de a permite utilizarea militară nerestricționată a tehnologiei sale.
Anthropic a solicitat luni instanțelor federale să anuleze decizia Pentagonului de săptămâna trecută de a desemna compania de inteligență artificială drept „risc în lanțul de aprovizionare”. Compania încearcă, de asemenea, să anuleze ordinul președintelui Donald Trump care le-a ordonat angajaților federali să înceteze utilizarea chatbotului său de inteligență artificială Claude, potrivit Associated Press.
Contestarea legală intensifică o dispută publică neobișnuită privind modul în care inteligența artificială poate fi utilizată în război și supraveghere în masă – o dispută care i-a implicat și pe rivalii Anthropic din industria tehnologică, în special OpenAI, producătorul ChatGPT, care a încheiat propriul acord de colaborare cu Pentagonul la doar câteva ore după ce guvernul a pedepsit Anthropic pentru poziția sa.
Anthropic a intentat luni două procese separate, unul la tribunalul federal din California și altul la curtea federală de apel din Washington, D.C., fiecare contestând diferite aspecte ale acțiunilor guvernului împotriva companiei cu sediul în San Francisco.
„Aceste acțiuni sunt fără precedent și ilegale. Constituția nu permite guvernului să își exercite enorma putere de a pedepsi o companie pentru libertatea de exprimare. Nicio lege federală nu autorizează acțiunile întreprinse aici. Anthropic apelează la sistemul judiciar ca ultimă soluție pentru a-și apăra drepturile și a opri campania ilegală de represalii a Executivului”, se arată în procesul intentat de Anthropic
Anthropic a declarat că a încercat să restricționeze utilizarea tehnologiei sale pentru două utilizări de nivel înalt: supravegherea în masă a americanilor și arme complet autonome. Secretarul Apărării, Pete Hegseth, și alți oficiali au insistat public că firma trebuie să accepte „toate utilizările legale” ale Claude și au amenințat cu pedepse dacă Anthropic nu se conformează.
Desemnarea companiei drept risc în lanțul de aprovizionare întrerupe activitatea de apărare a Anthropic, utilizând o autoritate concepută pentru a împiedica adversarii străini să afecteze sistemele de securitate națională. A fost prima dată când guvernul federal a folosit această desemnare împotriva unei companii americane. Hegseth a declarat într-o scrisoare adresată Anthropic din 4 martie că este „necesar pentru a proteja securitatea națională”, conform procesului intentat de Anthropic.
Președintele Donald Trump a mai spus că va ordona agențiilor federale să înceteze utilizarea Claude, deși a acordat Pentagonului șase luni pentru a elimina treptat un produs care este profund încorporat în sistemele militare clasificate, inclusiv cele utilizate în războiul din Iran.
Procesul intentat de Anthropic implică și alte agenții federale, inclusiv departamentele Trezoreriei și Statului, după ce oficialii au ordonat angajaților să nu mai utilizeze serviciile Anthropic.
Chiar și în timp ce combate acțiunile Pentagonului, Anthropic a încercat să convingă companiile și alte agenții guvernamentale că desemnarea sa de către administrația Trump drept risc de aprovizionare este una restrânsă, care afectează contractorii militari doar atunci când aceștia utilizează Claude în activități pentru Departamentul Apărării.
Clarificarea acestei distincții este crucială pentru compania privată Anthropic, deoarece cea mai mare parte a veniturilor sale estimate la 14 miliarde de dolari în acest an provine de la companii și agenții guvernamentale care utilizează Claude pentru codare computerizată și alte sarcini. Peste 500 de clienți plătesc companiei Anthropic cel puțin 1 milion de dolari anual pentru Claude, potrivit unui anunț recent de investiții care a evaluat compania la 380 de miliarde de dolari.
Anthropic a declarat luni într-un comunicat că „solicitarea unei decizii judecătorești nu schimbă angajamentul nostru de lungă durată de a valorifica inteligența artificială pentru a proteja securitatea noastră națională, dar acesta este un pas necesar pentru a ne proteja afacerea, clienții și partenerii”.
Procesul susține că siguranța inteligenței artificiale și obținerea unor „rezultate benefice pentru umanitate” au fost elemente esențiale pentru misiunea Anthropic încă de la fondarea sa în 2021 de către CEO-ul Dario Amodei și alți șase foști angajați OpenAI.
Politica sa de utilizare „a interzis întotdeauna utilizarea serviciilor Anthropic pentru război autonom letal fără supraveghere umană și supraveghere în masă a americanilor”, a declarat compania.
Anthropic a declarat că nu a testat niciodată Claude pe aceste aplicații și nu are încredere că produsele sale ar putea „funcționa în mod fiabil sau în siguranță dacă sunt utilizate pentru a susține războiul autonom letal”.
În același timp, a permis armatei să utilizeze Claude în moduri în care civilii nu ar putea, inclusiv în operațiuni militare și în analizarea „informațiilor străine colectate legal”.
Până de curând, Anthropic era singura companie din industria tehnologică aprobată să furnizeze modelul său de inteligență artificială sistemelor militare clasificate. Disputa a determinat Pentagonul să încerce să transfere munca lui Claude către Gemini de la Google, ChatGPT de la OpenAI și Grok al lui Elon Musk.
Procesul intentat de Anthropic susține că acțiunile administrației Trump îi pun în pericol reputația, „punând în pericol contracte de sute de milioane de dolari” cu alte companii și încercând să „distrugă valoarea economică creată de una dintre companiile private cu cea mai rapidă creștere din lume”.
În schimb, lupta a sporit, de asemenea, reputația Anthropic în rândul unor clienți și lucrători din domeniul tehnologiei care susțin refuzul companiei de a ceda presiunilor din partea administrației Trump.
Poziția morală a lui Amodei a fost și mai remarcabilă atunci când rivalul său, CEO-ul OpenAI, Sam Altman, a încercat să-l înlocuiască pe Claude de la Pentagon cu ChatGPT, o mișcare recunoscută ulterior de Altman ca grăbită și ca părând oportunistă.
Descărcările aplicației Claude de către consumatori au crescut vertiginos, crescând popularitatea acesteia pentru prima dată față de cunoscutele ChatGPT și Gemini.
Controversa continuă să aibă repercusiuni și în competiția pentru păstrarea talentelor din industria inteligenței artificiale, ducând la demisia șefului departamentului de robotică de la OpenAI, Caitlin Kalinowski.
„Nu a fost o decizie ușoară”, a scris Kalinowski pe rețelele de socializare în weekend. „Inteligența artificială are un rol important în securitatea națională. Dar supravegherea americanilor fără control judiciar și autonomia letală fără autorizație umană sunt argumente care meritau mai multă dezbatere decât a avut loc”, a spus ea.