Oficialii americani afirmă că Departamentul Apărării își dorește ca marile companii de tehnologie să permită armatei utilizarea instrumentelor lor de inteligență artificială pentru „toate scopurile legale”, incluzând dezvoltarea de arme, colectarea de informații și operațiuni pe câmpul de luptă. Cu toate acestea, Anthropic nu a acceptat aceste condiții.
Conform unui raport, relația dintre Pentagon și Anthropic se află sub presiune după luni de discuții privind eliminarea restricțiilor referitoare la utilizarea modelelor AI în operațiuni sensibile.
În timp ce alte companii mari din domeniul inteligenței artificiale, precum OpenAI, Google și xAI, au semnat acorduri pentru a furniza instrumentele lor, Anthropic a refuzat să renunțe la anumite limitări etice.
Un purtător de cuvânt al Anthropic a declarat că nu au avut discuții cu Pentagonul despre utilizarea modelului AI Claude în operațiuni specifice, subliniind că discuțiile s-au concentrat pe politici de utilizare — inclusiv limite stricte privind armele complet autonome sau supravegherea masivă — și nu pe operațiuni curente.
Wall Street Journal a raportat că modelul Claude, dezvoltat de Anthropic, a fost utilizat în operațiuni militare ale SUA pentru capturarea fostului președinte venezuelean Nicolás Maduro, în cadrul unui parteneriat cu Palantir. Această utilizare a generat noi tensiuni în negocierile dintre Pentagon și compania de inteligență artificială.
Pe de altă parte, Pentagonul solicită ca instrumentele AI să fie disponibile și pe rețelele clasificate, fără restricțiile standard impuse utilizatorilor comerciali, ceea ce ar permite forțelor armate să folosească aceste tehnologii în contexte critice de securitate națională.
Având în vedere contractele importante în joc și rolul tot mai crescut al inteligenței artificiale în strategiile de apărare, decizia finală referitoare la relația dintre Pentagon și Anthropic ar putea influența modul în care tehnologiile AI sunt integrate în domeniul militar în anii următori.













