Departamentul american al Apărării dorește să utilizeze modelele de inteligență artificială ale Anthropic în moduri legale și nu va permite companiei să dicteze limite înainte de termenul limită de vineri pentru a fi de acord cu cerințele, a reiterat principalul purtător de cuvânt al Pentagonului.
Sean Parnell a declarat joi pe rețelele de socializare că Pentagonul „nu are niciun interes în utilizarea inteligenței artificiale pentru a efectua supraveghere în masă a americanilor (ceea ce este ilegal) și nici nu dorim să folosim inteligența artificială pentru a dezvolta arme autonome care funcționează fără implicarea umană”, potrivit Associated Press.
Politicile Anthropic împiedică utilizarea modelelor lor în aceste scopuri. Este cea mai recentă companie similară care nu furnizează tehnologia sa unei noi rețele interne militare americane.
Parnell spune că Pentagonul dorește „să utilizeze modelul Anthropic în scopuri legale”, dar nu a oferit detalii și a afirmat că rezistența Anthropic „pune în pericol operațiuni militare critice”.
După întâlnirea de marți, Pentagonul a transmis companiei că trebuie să permită accesul la tehnologia sa, sau va risca să piardă contractul și să fie desemnată ca risc în lanțul de aprovizionare.
De mai multe luni, Departamentul Apărării și compania de inteligență artificială Anthropic negociază un contract privind utilizarea AI pe sisteme clasificate ale Pentagonului, însă discuțiile au degenerat.
În centrul conflictului se află modul în care va fi utilizată AI. Anthropic spune că nu dorește ca inteligența sa artificială să fie folosită pentru supravegherea în masă a americanilor sau să facă parte din arme autonome care nu implică deloc intervenție umană.
Președintele Trump și consilierii săi doresc extinderea utilizării tehnologiei, reducerea restricțiilor la export pentru cipurile AI și critică reglementările statale care ar putea fi percepute drept obstacole în dezvoltarea inteligenței artificiale.
Directorul executiv al Anthropic, Dario Amodei, a susținut de mult timp că AI are nevoie de limite stricte pentru a preveni riscul de a produce efecte devastatoare la nivel global.
Departamentul Apărării utilizează tehnologia Anthropic de peste un an, în cadrul unui program pilot de AI în valoare de 200 de milioane de dolari, destinat analizării imaginilor, altor date de informații și activităților de cercetare. Google, OpenAI și xAI, compania lui Elon Musk, fac, de asemenea, parte din program.
Însă Claude, chatbotul AI al Anthropic, a fost cel mai utilizat de agenție – și singurul prezent pe sisteme clasificate – datorită integrării cu tehnologia companiei de analiză a datelor Palantir, care lucrează cu guvernul federal.
Duminică, The Wall Street Journal a relatat că tehnologia Anthropic a fost utilizată în ianuarie în operațiunea militară americană de capturare a președintelui Venezuelei, Nicolas Maduro, și că angajați ai companiei și-au exprimat îngrijorările față de rolul jucat de întegrarea tehnologiei lor în Palantir.