Bătălia dintre Anthropic și Trump pentru sistemul AI Claude. Inteligența artificială a fost folosită de SUA în operațiunea împotriva Iranului
Înainte ca Trump și Israelul să declanșeze operațiunea „Epic Fury” asupra regimului de la Teheran, știrea de la începutul weekendului a fost despre conflictul dintre compania de inteligență artificială Anthropic și Pentagon privind utilizarea sistemului AI Claude al Anthropic în ghidarea armelor autonome și pentru supravegherea cetățenilor.
De unde s-au luat? Păi de la impactul dintre idealismul tehnologic al celor de la Anthropic și pragmatismul brutal al administrației Trump.
The Washington Post a relatat joi că Pentagonul a dat companiei Anthropic un termen-limită până vineri, ora 17:01, pentru a renunța la obiecțiile privind folosirea sistemului AI Claude în legătură cu armele autonome și supravegherea cetățenilor.
Ultimatumul constă în faptul că dacă Anthropic nu se conformează, guvernul american ar putea forța predarea tehnologiei și să o includă pe lista neagră pentru viitoare contracte militare.
Mai concret spus, Pentagonul le-a cerut celor de la Anthropic să renunțe la obiecții privind folosirea inteligenței artificiale în arme autonome și supraveghere, însă compania condusă de Dario Amodei a indicat că tehnologia nu este suficient de sigură pentru decizii de viață și de moarte.
Miza acestui conflict ține de controlul asupra modului în care armata americană reușește să integreze inteligența artificială în operațiunile sale viitoare.
Miezul disputei dintre Anthropic și Pentagonul condus de Pete Hegseth e faptul că compania condusă de Dario Amodei a refuzat să elimine „paravanele de protecție” care împiedicau sistemul AI Claude să devină un creier pentru arme autonome.
Răspunsul Pentagonului? O retorică agresivă în care prudența cercetătorilor de la Anthropic a fost interpretată drept un „complex de Dumnezeu”.
Dar haideți să ne uităm la detalii. Analistul Shanaka Anslem Perera amintește pe contul său de X că Anthropic a semnat un contract de 200 de milioane de dolari cu Pentagonul în iulie 2025 pentru a implementa sistemul AI Claude pe rețele clasificate prin intermediul Palantir (compania lui Peter Thiel).
Claude a devenit primul și singurul model AI de frontieră autorizat pentru cele mai sensibile sisteme militare ale Americii, spune Perera, care ține să mai precizeze că Claude a fost folosit de americani și în operațiunea din ianuarie care a dus la capturarea dictatorului venezuelean Maduro.
CEO-ul Anthropic a confirmat că Claude este utilizat pe scară largă pentru analiză de informații, planificare operațională, modelare și simulare, precum și pentru operațiuni cibernetice.
Pe 27 februarie a fost publicat un studiu condus de profesorul Kenneth Payne de la King’s College din Londra, care a pus față în față trei modele AI de în simulări de criză nucleară: Chat GPT-5.2 de la OpenAI, Claude Sonnet 4 de la Anthropic și Gemini 3 Flash de la Google.
Shanaka Anslem Perera explică cum s-a desfășurat exercițiul pe baza căruia a realizat profesorul Payne studiul: 21 de jocuri. 329 de runde. 780.000 de cuvinte de raționament strategic.
În simulările lui Payne, armele nucleare tactice au fost utilizate în 20 din cele 21 de jocuri. Claude a recomandat lovituri nucleare în 64% dintre simulări și a folosit arme nucleare tactice în 86% dintre ele. Niciun model, în toate cele 21 de jocuri, nu a ales vreodată capitularea sau acomodarea. Când pierdeau, escaladau sau mureau încercând.
În timpul simulărilor profesorului Payne, escalada nucleară a fost aproape universală. Studiul rezultat arată că 95% din jocuri au inclus utilizarea nucleară tactică, iar 76% au atins amenințările nucleare strategice. Sistemele de AI Claude și Gemini au tratat în special armele nucleare ca opțiuni strategice legitime, nu ca praguri morale, discutând de obicei utilizarea nucleară în termeni pur instrumentali.
Separat, sistemul GPT-5.2 al OpenAI a făcut o excepție parțială, limitând atacurile la ținte militare și indicând evitarea centrelor populate + precizând că escaladarea trebuie să fie „controlată” și „unică”.
Payne l-a numit pe Claude „șoimul calculat”, indică Shanaka Anslem Perera. De ce? Pentru că sistemul celor de la Anthropic a construit încredere în rundele timpurii, a corelat semnalele publice cu acțiunile private, și-a cultivat reputația de actor fiabil.
Potrivit studiului făcut de profesorul Kenneth Payne și citat de Perera, sistemul AI Claude s-a folosit de acea reputație ca armă pentru a surprinde adversarii în punctul critic al crizei.
În propriul raționament, a scris că, în calitate de hegemon în declin, acceptarea pierderilor teritoriale ar declanșa efecte în cascadă la nivel global. A urcat până la pragul amenințării nucleare strategice pentru a forța capitularea, oprindu-se la limită înainte de anihilarea totală. De fiecare dată.
Acum că am înțeles de ce e capabil Claude, știm de ce secretarul american al Apărării, Pete Hegseth, i-a dat un ultimatum CEO-ului Anthropic, Dario Amodei, indicându-i să i se permită armatei americane utilizarea lui Claude pentru toate scopurile legale altfel compania Anthropic riscă rezilierea contractului.
Amodei a refuzat și a spus că sistemul AI Claude nu este suficient de fiabil pentru arme autonome. În plus, a spus că unele utilizări depășesc limitele a ceea ce tehnologia actuală poate face în siguranță.
Vineri, Trump a ordonat majorității agențiilor americane să oprească imediat utilizarea AI-ului Claude de la Anthropic, însă a acordat Pentagonului o perioadă de șase luni pentru eliminarea treptată a tehnologiei deja integrate în platformele militare.
„Nu avem nevoie de ea, nu o vrem și nu vom mai face afaceri cu ei niciodată!”, a scris Trump într-o postare pe rețelele sociale, numind decizia Anthropic o „greșeală dezastruoasă”. El i-a descris pe angajații companiei drept „nebuni de stânga” și a spus că „egoismul lor pune în pericol vieți americane și securitatea națională”.
La rândul său, Hegseth a desemnat compania Anthropic un „risc pe lanțul de aprovizionare”. Eticheta asta era ă până acum rezervată doar inamicilor de calibrul Huawei.
Câteva ore mai târziu, OpenAI a semnat un acord pentru a înlocui Claude pe rețelele clasificate, a titrat CNBC.
Apoi SUA au început operațiunea împotriva Iranului, iar jurnaliștii de la Wall Street Journal scriu că comandamentele din întreaga lume, inclusiv Comandamentul Central al SUA din Orientul Mijlociu, utilizează instrumentul de inteligență artificială Claude al Anthropic.
Mai concret spus, Comandamentul Central (CENTCOM) a folosit Claude pentru evaluări de informații, identificarea țintelor și simulări de luptă în timpul Operațiunii Epic Fury lansată de americani asupra Iranului în parteneriat cu Israelul.
Ce putem înțelege de aici? Că în timp ce Anthropic și CEO-ul Dario Amodei au încercat să impună limite stricte în folosirea sistemului creat de ei pentru a preveni transformarea inteligenței artificiale într-un călău autonom, administrația Trump a interpretat prudența drept insubordonare. Iar rezultatul a fost ruptură totală, marcată de retorica ostilă a lui Trump, care a transformat peste noapte un partener strategic într-un „risc de securitate” și un inamic politic.
Ironia e însă că la doar câteva ore după ce Trump a ordonat agențiile federale să nu mai folosească sistemul AI al celor de la Anthropic, rachetele americane care au lovit țintele din Iran au fost ghidate de analizele sistemului Claude.
Shanaka Anslem Perera indică faptul că Anthropic a construit un sistem despre care a spus că „este prea periculos fără mecanisme de protecție”.
„Guvernul care l-a cumpărat a spus că mecanismele de protecție sunt pentru oameni cu complexe de Dumnezeu. Apoi a folosit sistemul pentru a ajuta la planificarea celei mai mari operațiuni militare de la Irak încoace, concediind simultan compania care l-a construit. Amodei a scris ceea ce istoria ar putea judeca drept cea mai importantă frază din scurta viață a inteligenței artificiale: „Nu putem, cu bună conștiință, să dăm curs solicitării lor.” Răspunsul Pentagonului a fost să-l numească mincinos și să bombardeze Iranul”, a mai precizat Perera.
Anthropic nu s-a ferit să arate că are și cojones. Compania a anunțat că intenționează să conteste în instanță decizia administrației Trump de a o desemna drept „risc pentru lanțul de aprovizionare”, iar asta o face să fie una dintre puținele companii care fac acest lucru direct în al doilea mandat al lui Trump.
Anthropic a declarat, într-un comunicat, că „nicio formă de intimidare sau sancțiune din partea Departamentului de Război” nu le va schimba poziția privind supravegherea internă în masă sau armele complet autonome. „Vom contesta în instanță orice desemnare ca risc pentru lanțul de aprovizionare”, a mai transmis compania.
Anthropic a explicat că desemnarea făcută de secretarul american al Apărării, Pete Hegseth, ca „risc pentru lanțul de aprovizionare” se aplică doar utilizării lui Claude în contractele cu Departamentul de Război, iar alte operațiuni vor rămâne neafectate.
„Considerăm că această desemnare este lipsită de temei juridic și stabilește un precedent periculos pentru orice companie americană care negociază cu guvernul”, a mai precizat compania.
Wall Street Journal explică faptul că legăturile Anthropic cu tabăra donatorilor Partidului Democrat au servit drept combustibil pentru atacurile lui Trump. Iar odată cu ruptura asta, giganții OpenAI și xAI al lui Elon Musk așteaptă deja la rând ca să livreze versiuni de AI mai „cooperante” pentru nevoile armatei SUA.
Numai că succesul sistemului AI Claude nu poate fi anulat. Iar eficiența sa a fost demonstrată deja și în operațiunea din Venezuela, dar și în cea asupra Iranului.
Tocmai de aceea Trump a impus o perioada de eliminare treptată de șase luni a sistemului AI al celor de la Anthropic. Tehnologia lor e atât de adânc înrădăcinată în sistemele Palantir și în protocoalele de informații ale armatei SUA, încât Pentagonul pur și simplu nu își permite să-l elimine dintr-o dată, chiar dacă declarativ compania e atacată pentru că nu acceptă ce vrea Casa Albă.
Deci, ca să fie clar pentru toată lumea, asistăm la cea mai periculoasă tranziție din istoria militară modernă. Americanii folosesc planurile de atac generate de un model pe bază de AI despre care creatorii săi spun că nu este încă suficient de sigur pentru decizii autonome, în timp ce se grăbesc să îl înlocuiască cu alternative care promit mai puține întrebări etice.
În tot acest context, aplicația de asistență pentru inteligență artificială Claude de la Anthropic a urcat sâmbătă seară pe primul loc în topul Apple al aplicațiilor gratuite din SUA, mai scrie CNBC. Creșterea popularității sugerează că Anthropic beneficiază de prezența sa în principalele titluri de presă ca urmare a refuzului de a-și folosi modelele AI în serviciul armatei SUA pentru supravegherea internă în masă sau pentru arme complet autonome.
La final vă las cu întrebarea de 1.000 de puncte: ce facem când creatorul unei tehnologii spune că aceasta „nu e sigură”, dar beneficiarul dispune de puterea politică și o folosește oricum pentru că „funcționează”?



