International

International

Claude de la Anthropic: Interzis, folosit in razboi, si mai popular ca niciodata

marți, 3 martie 2026

3 mar. 2026

Timp de citire: 11 minute

Cum AI-ul Anthropic a ajuns simultan interzis de Trump, folosit de Pentagon si nr. 1 in App Store — intr-o singura zi 

Vineri, 28 februarie 2026, a fost probabil cea mai stranie zi din scurta dar tumultuoasa istorie a companiei Anthropic. Inainte de ora pranzului, presedintele Donald Trump o declara public drept o firma de "nebuni de stanga", ordonand tuturor agentiilor federale sa inceteze imediat utilizarea AI-ului sau, Claude. Pana seara, OpenAI anuntase ca preia contractul militar al rivalei. Iar la ora 20:00, avioanele americane decolau spre Iran — cu Claude integrat in sistemele de comanda ale US Central Command, procesand date de informatii, identificand tinte si simuland scenarii de lupta. Intre timp, aplicatia Claude urca vertiginos in App Store, depasind ChatGPT pentru prima data in istorie.

Este povestea unui paradox ametitor: un AI interzis de propriul guvern, dar imposibil de inlocuit in mijlocul celui mai mare razboi din Orientul Mijlociu de la invazia din Irak. Si, ca un rasucitor de ironie, exact aceasta drama politica i-a adus companiei Anthropic cei mai multi utilizatori din istoria sa.

I. CRONOLOGIA UNUI CONFLICT: DE LA VENEZUELA LA TEHERAN

CRONOLOGIE

3 IANUARIE

Fortele speciale americane il capureaza pe presedintele venezuelean Nicolas Maduro. Claude, integrat prin Palantir, este folosit in planificarea operatiunii.

14 FEBRUARIE

Presa americana dezvaluie ca AI-ul Claude al Anthropic a fost folosit in operatiunea Maduro. Tensiunile cu Pentagonul escaladeaza.

25 FEBRUARIE

Pentagon ii da lui Dario Amodei un ultimatum: accepta utilizarea nelimitata a Claude pana vineri ora 17:00, sau risca pierderea contractului de 200 de milioane de dolari.

26 FEBRUARIE

Amodei refuza public in Washington Post: Anthropic nu va ridica restrictiile privind supravegherea in masa si armele letale autonome.

27 FEBRUARIE

Secretarul Apararii Pete Hegseth desemneaza Anthropic drept 'risc in lantul de aprovizionare pentru securitatea nationala'. Trump scrie pe Truth Social: 'Nebunii de stanga de la Anthropic au facut O GRESEALA DEZASTRUOASA.'

28 FEBRUARIE

Ora 19:00: OpenAI anunta un acord cu Pentagonul. Ora 20:00: SUA si Israelul lanseaza atacurile asupra Iranului — cu Claude integrat in sistemele CENTCOM, desi interzis cu cateva ore inainte.

1 MARTIE

Claude urca pe locul 1 in App Store, depasindu-l pe ChatGPT. Zilnic, Anthropic inregistreaza recorduri absolute de noi utilizatori.

2 MARTIE

WSJ si Axios confirma: armata americana a folosit Claude in atacurile din Iran. Anthropic anunta actiune in justitie impotriva desemnarii ca risc de securitate.

II. RADACINILE DISPUTEI: VENEZUELA SI LIMITELE PE CARE ANTHROPIC NU LE-A NEGOCIAT

Povestea incepe, tehnic, in iulie 2024, cand Anthropic a semnat un contract de pana la 200 de milioane de dolari cu Pentagonul. A fost un moment de referinta: pentru prima oara, un model AI comercial era introdus in retelele clasificate ale armatei americane. Parteneriatul se realiza prin Palantir Technologies, firma de analiza de date cu legaturi profunde in comunitatea de informatii, care oferea Claude drept motor pentru procesarea de date sensibile.

Insa in ianuarie 2026, un eveniment a precipitat criza: fortele speciale americane l-au capturat pe presedintele venezuelean Nicolas Maduro. Claude, prin contractul cu Palantir, fusese folosit in operatiune — pentru analiza de informatii, planificarea operationala si, potrivit unor surse, identificarea de tinte. Cand aceasta informatie a ajuns la urechile unui angajat Anthropic, reactia interna a creat o "ruptura" in relatia firmei cu Pentagonul, conform Semafor.

Dario Amodei, CEO-ul Anthropic, isi explicase de mult pozitia intr-un eseu amplu: democratiile au un interes legitim in instrumentele militare bazate pe AI, insa cu limite clare. Doua linii rosii absolute: nicio utilizare pentru supravegherea in masa a cetatenilor americani si nicio utilizare pentru arme letale complet autonome, fara supraveghere umana. Nu sunt interdictii vagi, sustinea Amodei. Sunt linii dincolo de care AI-ul devine un instrument al opresiunii, nu al apararii.

Amodei scria: 'O AI puternica care analizeaza miliarde de conversatii de la milioane de oameni ar putea masura sentimentul public, detecta pungi de disloialitate care se formeaza si le elimina inainte sa creasca.'

Pentagonul, condus de secretarul Pete Hegseth, nu era de acord. Pozitia militara era directa: un contractor nu are dreptul sa impuna restrictii operationale armatei celei mai puternice din lume. Daca utilizarea este legala, decizia de utilizare apartine Departamentului de Razboi, nu unui startup din San Francisco. Mai mult, conform Axios, Pentagonul chiar dorea sa foloseasca Claude pentru colectarea si analiza de date personale ale americanilor — geolocalizare, istoricul navigarii pe web, informatii financiare cumparate de la brokeri de date. 

"Nu vom ceda niciodata la supravegherea in masa a americanilor sau la armele letale complet autonome, indiferent de intimidarile sau pedepsele din partea Departamentului de Razboi." — Anthropic, 27 februarie 2026

III. ULTIMATUMUL, REFUZUL SI CONTRAATACUL TRUMPIAN

Pe 25 februarie, Hegseth l-a convocat pe Amodei la Pentagon. Ultimatumul era simplu: accepta utilizarea nelimitata a Claude pentru orice scop legal pana vineri, 27 februarie, la ora 17:00, sau pierde contractul si risc o desemnare ca 'risc in lantul de aprovizionare'. Acest tip de desemnare -- bazata pe statutul 10 USC 3252 -- era pana atunci rezervata exclusiv companiilor din tari adversare, precum gigantul chinez Huawei.

Amodei nu a cedat. Joi, 26 februarie, a publicat un comunicat in Washington Post: 'Nu putem in constiinta sa acceptam cererea lor.' Vineri la ora 17:01, Hegseth a postat pe X desemnarea. In acelasi timp, backstage, subsecretarul Pentagonului Emil Michael il suna pe Amodei oferindu-i un acord de ultima ora -- care include insa tocmai colectarea de date personale ale americanilor. Amodei a refuzat din nou.

Trump a urcat imediat pe Truth Social: 'Nebunii de stanga de la Anthropic au facut O GRESEALA DEZASTRUOASA incercand sa IMPUNA Departamentului de Razboi sa asculte de Termenii lor de Serviciu in loc de Constitutia noastra.' A ordonat agentiilor federale sa inceteze imediat utilizarea produselor Anthropic, cu o fereastra de tranzitie de sase luni pentru Departamentul de Razboi.

Ironia cu taisuri multiple: in aceeasi seara in care Trump interzicea Claude, Sam Altman de la OpenAI anunta un acord cu Pentagonul. Altman sustinea ca noul acord OpenAI-Pentagon contine de fapt aceleasi linii rosii pe care Anthropic le ceruse si care fuseseseara refuzate. Pentagonul nu a negat acest aspect. Sute de angajati Google si OpenAI au semnat o scrisoare deschisa cerand companiilor lor sa nu cedeze presiunilor militare similare.

IV. PARADOXUL RAZBOIULUI: INTERZIS SI FOLOSIT IN ACELASI TIMP

Duminica, 1 martie, Wall Street Journal si Axios au dezvaluit ceea ce va intra in cartile de istorie ale inteligentei artificiale: armata americana folosise Claude in atacurile asupra Iranului, demarate cu doar cateva ore dupa interdictia lui Trump. US Central Command utilizase modelul pentru evaluari de informatii, identificarea de tinte si simularea de scenarii de lupta -- cu alte cuvinte, pentru aproape intreaga dimensiune cognitiva a unei operatiuni militare de aceasta amploare.

Explicatia paradoxului este tehnica, nu politica. Claude era singurul AI integrat in retelele clasificate ale armatei americane. Prin Palantir si AWS Top Secret Cloud, modelul era incastrat adanc in infrastructura de intelligence a CENTCOM. Un oficial Pentagon a spus explicit pentru Axios ca inlocuirea Claude ar fi 'un chin enorm' si ca 'celelalte modele sunt pur si simplu in urma' pentru aplicatii guvernamentale specializate. Defense One a raportat ca tranzitia va dura minimum sase luni -- ceea ce garanteaza practic ca Claude va continua sa fie folosit pe tot parcursul conflictului iranian.

Un analist citat de Decrypt a formulat concis: 'Cand instrumentele AI sunt deja integrate in sistemele live de intelligence si simulare, deciziile de la varf nu se traduc instant in schimbari pe teren.'

Anthropic insasi a reactionat cu seninatate controlata. CEO-ul Amodei a declarat pentru CBS News: 'Chiar daca administratia Trump ia masuri fara precedent impotriva noastra, vom sprijini guvernul. Vom furniza tehnologia noastra atata timp cat este nevoie, pana cand concurentii care ne vor inlocui vor fi pe deplin operationali.' Este o afirmatie care combina loialitatea institutionala cu un mesaj subiacent: nu noi am ales aceasta situatie absurda.

V. EFECTUL DE BUMERANG: INTERZIS DE TRUMP, ADORAT DE CONSUMATORI

Daca Pentagonul a pierdut accesul preferential la Claude, publicul american i l-a compensat din belsug. Sambata, 1 martie -- la doar 24 de ore de la drama Hegseth-Trump -- aplicatia Claude a urcat pe primul loc in App Store din SUA, depasindu-l pe ChatGPT, rival pe care il urmarea de ani. Locul doi era ocupat de ChatGPT, locul patru de Google Gemini.

Cifrele companiei sunt spectaculoase. La sfarsitul lui ianuarie 2026, Claude era pe locul 131 in App Store. La inceputul lui februarie, intrase in top 20. Pe 28 februarie, era numarul unu. Anthropic a raportat ca utilizatorii gratuiti au crescut cu peste 60% fata de ianuarie, ca inregistrarile zilnice s-au triplat fata de noiembrie 2025 si ca abonatii platiti s-au dublat in 2026 -- recorduri absolute in fiecare zi din saptamana conflictului.

Reactia publicului reflecta o schimbare culturala profunda. Contul de Instagram 'quitGPT' a castigat aproximativ 10.000 de urmaritori in 24 de ore. O inregistrare video virala parea sa arate arta cu creta pe trotuarul din fata birourilor Anthropic din San Francisco cu mesajul: 'Ne dati curaj.' Oamenii pe retelele sociale au subliniat donatia anterioara de 25 de milioane de dolari a lui Greg Brockman (presedintele OpenAI) la un super PAC pro-Trump ca motiv pentru a se muta de la ChatGPT.

Chiar Sam Altman, CEO OpenAI si beneficiarul direct al contractului pierdut de Anthropic, a comentat pe X: 'Cred ca este un precedent extrem de infricosator si sper ca vor gasi o rezolvare mult mai buna.' Franklin Turner, un avocat specializat in contracte guvernamentale, a comparat blacklistarea Anthropic cu 'echivalentul contractual al razboiului nuclear', avand in vedere implicatiile in cascada pentru mii de contractori din domeniul apararii.

"Intrebarea nu este daca AI-ul va fi folosit in aparare -- asta se intampla deja. Intrebarea este daca laboratoarele de frontiera pot mentine garantii diferentiate odata ce sistemele lor devin active operationale." -- Midhun Krishna, CEO TknOps

VI. IMPLICATII: AI, RAZBOI SI DEMOCRATIE

Episodul Anthropic-Pentagon pune pe masa intrebari pe care nimeni nu s-a grabit sa le raspunda sistematic. Prima: cand un AI comercial devine infrastructura militara critica, cine detine autoritatea morala si juridica asupra utilizarii sale? Contractorii privati sau guvernul suveran? A doua: daca modelele AI sunt suficient de bune pentru a identifica tinte intr-un razboi real, sunt si suficient de fiabile pentru a face asta fara o supraveghere umana robusta? Anthropic sustine ca nu, invocand 'halucinatiile' modelelor si riscul de escaladare neinventionata.

A treia intrebare, poate cea mai tulburatoare: daca Pentagonul cerea lui Anthropic dreptul de a analiza geolocalizarea, istoricul de navigare si datele financiare ale americanilor -- nu ale iranienilor sau venezuelenilor, ci ale cetatenilor SUA -- ce fel de precedent se stabileste? Amodei avertizase: 'Democratiile au in mod normal mecanisme de protectie care impiedica aparatul lor militar si de intelligence sa fie intors impotriva propriei populatii.' Aceste mecanisme, scria el, 'se erodeaza deja gradual in unele democratii.'

Profesorul Michael Horowitz de la Universitatea Pennsylvania, fost oficial Pentagon pentru politici AI, a nuantat: este improbabil ca un model precum Claude sa fie folosit direct pentru tintire letala autonoma, avand in vedere ca algoritmii pentru asta sunt mai specifici. Rolul sau este mai degraba cognitiv -- procesarea masiva de date, generarea de rezumate, evaluarea de riscuri -- dar si acesta poate fi decisiv intr-un razboi modern.

Cazul ramane deschis pe mai multe fronturi. Anthropic a promis actiune in justitie impotriva desemnarii ca risc in lantul de aprovizionare, sustinand ca statutul 10 USC 3252 nu poate depasi contractele DoD si nu se poate extinde la clientii civili. Daca va castiga, precedentul va fi unul dintre cele mai importante din istoria industriei AI. Daca va pierde, peisajul AI militar va fi redefinit fundamental: companiile vor sti ca, odata integrate in aparatul de securitate nationala, nu mai pot impune niciun fel de restrictii etice.

VII. CE URMEAZA

Pe termen scurt, Claude ramane integrat in operatiunile militare americane pentru cel putin sase luni, indiferent de retorica politica. OpenAI va incerca sa construiasca o alternativa clasificata, desi proprii analisti ai Pentagonului admit ca nu poate fi un inlocuitor imediat. xAI (Grok al lui Elon Musk) a semnat deja un contract fara restrictii etice -- ceea ce, pentru ingrijoratorii drepturilor civile, este un scenariu mai grav decat disputa Anthropic.

Pe termen lung, aceasta saptamana a definit o linie de fractura ireconciliabila in industria AI: intre companiile care vor sa mentina o voce critica asupra utilizarii tehnologiei lor si guvernele care trateaza AI-ul ca pe orice alt echipament militar -- fara drept de apel al producatorului.

Ironiile curg: o companie 'de stanga', conform lui Trump, a furnizat instrumentele cognitive ale celui mai mare atac militar american din ultimii douazeci de ani. Interzisa de propria sa democratie, a castigat in acelasi timp cel mai mare val de suport popular din istoria sa. Folosita pentru a tinti instalatii in Iran, a provocat dezbateri mai vii despre drepturile civile americane decat orice eveniment recent.

Dario Amodei a formulat dilemele in eseul sau: 'Trebuie sa inarmam democratiile cu AI, dar sa o facem cu grija si in limite. Formularea la care am ajuns este ca ar trebui sa folosim AI pentru apararea nationala in toate modurile, cu exceptia celor care ne-ar face sa semananem cu adversarii nostri autocrati.' Aceasta saptamana, acea distinctie a devenit brusc nu un exercitiu academic, ci o miza de milioane de dolari, de vietile unor oameni si de insasi natura democratiei americane.

SURSE: Wall Street Journal, Axios, Reuters, NBC News, CBS News, TechCrunch, CNBC, The Washington Post, Engadget, 9to5Mac, Al Jazeera, Inc., SFist, Decrypt, WinBuzzer, Tekedia, MacObserver, Sensor Tower (date App Store). Articol redactat pe baza informatiilor disponibile pana la ora 21:56, 2 martie 2026.

Share this article

Related Articles

Related Articles

Related Articles