Departamentul Apărării al SUA (Pentagonul) își intensifică presiunea asupra companiilor de inteligență artificială (AI) pentru a integra cele mai avansate modele direct pe rețelele militare clasificate, fără multe dintre restricțiile de utilizare pe care firmele le impun în mod normal.
Acest demers marchează un punct de cotitură în modul în care armata americană intenționează să valorifice AI în operațiuni sensibile și pe viitoarele teatre ale luptelor, transmite Reuters.
Într un eveniment desfășurat la Casa Albă, oficialii Pentagonului le-au comunicat liderilor din tehnologie dorința de a face modelele AI disponibile atât pe sistemele neclasificate, cât și pe cele clasificate — zone în care sunt gestionate informații vitale despre planificare de misiuni, strategii sau chiar țintire.
Oficialii militari afirmă că AI ar trebui să funcționeze pe toate nivelurile de clasificare, atâta timp cât respectă legislația americană.
Până acum, firme precum OpenAI, Google și xAI au convenit să și ofere instrumentele AI pentru uz pe rețele neclasificate, cum ar fi platforma GenAI.mil, folosită de milioane de angajați ai Departamentului Apărării.
În acele condiții, unele restricții de utilizare au fost eliminate sau adaptate pentru mediul militar, dar acestea rămân mai stricte comparativ cu cerințele Pentagonului pentru mediile clasificate.
Compania Anthropic este un caz aparte: ea permite accesul la modelele sale prin intermediari în medii clasificate, dar impune politici stricte privind modul în care pot fi folosite acele modele — de exemplu, refuzând categoric utilizarea AI pentru direcționarea automată a armelor sau supraveghere internă.
Negocierile au devenit astfel mai tensionate, deoarece Pentagonul dorește mai puține limitări, iar companii ca Anthropic insistă asupra unor garanții pentru siguranță și etică.
Miza pentru Pentagon este clară: intenția de a folosi AI pentru analiza rapidă a volumelor enorme de date, sprijinul decizional și alte funcții critice pentru operațiuni militare. Oficialii consideră că astfel de instrumente ar putea schimba fundamental modul în care se desfășoară planificarea și execuția misiunilor.
Totuși, această abordare nu este lipsită de controverse. Experții în AI și securitate avertizează că modelele generative pot produce erori, pot genera informații inexacte sau inventate și pot avea un comportament imprevizibil, ceea ce într un mediu clasificat — unde deciziile greșite pot duce la pierderi de vieți sau consecințe strategice grave — este un motiv de alarmă.
De asemenea, există îngrijorări legate de controlul guvernamental asupra AI și de limitele pe care companiile doresc să le păstreze asupra propriilor tehnologii, pentru a evita ca acestea să fie utilizate în moduri considerate nedorite din perspectiva eticii sau securității.
Pentagonul, pe de altă parte, argumentează că dacă o tehnologie este legală, restricțiile private ar trebui minimalizate pentru a nu limita capacitățile militare.