{"id":86826,"date":"2026-03-04T09:00:05","date_gmt":"2026-03-04T09:00:05","guid":{"rendered":"https:\/\/www.ecoitaliano.com.ar\/?p=86826"},"modified":"2026-03-04T09:00:25","modified_gmt":"2026-03-04T09:00:25","slug":"anthropic-il-no-al-pentagono-che-divide-la-silicon-valley","status":"publish","type":"post","link":"https:\/\/www.ecoitaliano.com.ar\/?p=86826","title":{"rendered":"Anthropic, il no al Pentagono che divide la Silicon Valley"},"content":{"rendered":"\n<p><em>Sebastiano Catte\u00a0<\/em><\/p>\n\n\n<div class=\"wp-block-image\">\n<figure class=\"aligncenter size-large is-resized\"><a href=\"http:\/\/www.ecoitaliano.com.ar\/wp-content\/uploads\/2026\/03\/ANTROPIC_AI.jpg\"><img decoding=\"async\" width=\"1024\" height=\"613\" src=\"http:\/\/www.ecoitaliano.com.ar\/wp-content\/uploads\/2026\/03\/ANTROPIC_AI-1024x613.jpg\" alt=\"\" class=\"wp-image-86827\" style=\"width:384px;height:auto\" srcset=\"https:\/\/www.ecoitaliano.com.ar\/wp-content\/uploads\/2026\/03\/ANTROPIC_AI-1024x613.jpg 1024w, https:\/\/www.ecoitaliano.com.ar\/wp-content\/uploads\/2026\/03\/ANTROPIC_AI-300x180.jpg 300w, https:\/\/www.ecoitaliano.com.ar\/wp-content\/uploads\/2026\/03\/ANTROPIC_AI-768x460.jpg 768w, https:\/\/www.ecoitaliano.com.ar\/wp-content\/uploads\/2026\/03\/ANTROPIC_AI-150x90.jpg 150w, https:\/\/www.ecoitaliano.com.ar\/wp-content\/uploads\/2026\/03\/ANTROPIC_AI-250x150.jpg 250w, https:\/\/www.ecoitaliano.com.ar\/wp-content\/uploads\/2026\/03\/ANTROPIC_AI.jpg 1280w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure><\/div>\n\n\n<p><strong>Dario Amodei rifiuta di rimuovere i limiti militari di Claude: tra etica, strategia e potere, l\u2019AI si trova davanti alla sua prima vera linea rossa<\/strong><\/p>\n\n\n\n<p><a><\/a> C\u2019\u00e8 un momento, nella vita delle tecnologie, in cui smettono di essere strumenti e diventano specchi. Riflettono il volto di chi le usa, ma anche quello di chi le costruisce. \u00c8 in questo passaggio che si colloca il caso di&nbsp;<strong>Anthropic<\/strong>&nbsp;e del suo fondatore e CEO,&nbsp;<strong>Dario Amodei<\/strong>, l\u2019italo-americano che ha detto no al <strong>Pentagono<\/strong>. Il rifiuto \u00e8 netto, scritto nero su bianco in un comunicato ufficiale: Anthropic non rimuover\u00e0 le restrizioni che impediscono l\u2019uso di Claude per la sorveglianza di massa interna e per armi completamente autonome. \u00abNon possiamo in buona coscienza accogliere la loro richiesta\u00bb, ha dichiaratao Amodei. Il Pentagono aveva chiesto di accettare \u00abqualsiasi uso legittimo\u00bb dei modelli, minacciando in caso contrario di escludere l\u2019azienda dalla catena di fornitura della Difesa e perfino di classificarla come \u201crischio per la supply chain\u201d. Un\u2019arma giuridica e simbolica pesante, di solito riservata a tecnologie straniere considerate ostili.<\/p>\n\n\n\n<p>Bisogna premettere che Anthropic non \u00e8 una startup che rifiuta ogni collaborazione con i militari. Al contrario, \u00e8 stata la prima azienda di frontiera a distribuire i propri modelli sulle reti classificate del governo statunitense, la prima a impiegarli nei Laboratori Nazionali e a sviluppare versioni personalizzate per la sicurezza nazionale. <strong>Claude<\/strong>, un potente modello di intelligenza artificiale conversazionale, \u00e8 utilizzato per analisi di intelligence, pianificazione operativa, simulazioni e cyber-operazioni. Amodei lo ribadisce: \u00abCredo profondamente nell\u2019importanza esistenziale dell\u2019uso dell\u2019AI per difendere gli Stati Uniti e le altre democrazie\u00bb. Non \u00e8 un ritiro dal campo ma piuttosto la tracciatura di due linee rosse.&nbsp;La prima riguarda la sorveglianza di massa domestica. \u00abL\u2019impiego di questi sistemi per la sorveglianza di massa all\u2019interno del paese \u00e8 incompatibile con i valori democratici\u00bb. L\u2019AI, capace di aggregare dati di navigazione, spostamenti, relazioni sociali acquistabili legalmente senza mandato, pu\u00f2 trasformare frammenti innocui in un \u201cprofilo totale\u201d di ogni cittadino. La seconda linea rossa riguarda le armi completamente autonome. Oggi, sostiene Amodei, i sistemi di frontiera \u00abnon sono abbastanza affidabili per alimentare armi pienamente autonome\u00bb. Non si tratta di un rifiuto definitivo in linea di principio, ma di una valutazione tecnica: la tecnologia non \u00e8 pronta, le salvaguardie non esistono.<\/p>\n\n\n\n<p><strong>Il demiurgo inquieto<\/strong><\/p>\n\n\n\n<p>Chi \u00e8 l\u2019uomo che sfida il Dipartimento della Difesa? Secondo il&nbsp;<a href=\"https:\/\/www.corriere.it\/esteri\/26_febbraio_27\/dario-amodei-anthropic-chi-e-pentagono-ai-d111466a-ef49-427f-8d19-2a1eceed6xlk.shtml\" target=\"_blank\" rel=\"noreferrer noopener\"><u>ritratto<\/u><\/a>&nbsp;che ne ha delineato di recente il&nbsp;<em>Corriere della Sera<\/em>, Amodei \u00e8 \u00abun accelerazionista con la coscienza\u00bb. Nato a San Francisco da padre toscano e madre ebrea americana, educazione severa, studi a Caltech e Stanford, una formazione in fisica, biofisica e medicina segnata dalla morte del padre per una malattia che sarebbe diventata curabile poco dopo. Da l\u00ec la convinzione che il progresso scientifico debba correre.<\/p>\n\n\n\n<p>Vicepresidente della ricerca in&nbsp;<strong>OpenAI<\/strong>, guida lo sviluppo di GPT-2 e GPT-3, poi rompe con&nbsp;<strong>Sam Altman<\/strong>&nbsp;su questioni etiche e fonda Anthropic come&nbsp;<em>public benefit corporation<\/em>. Un laboratorio che cresce rapidamente e lancia le diverse versioni di Claude, modelli sempre pi\u00f9 potenti (e anche sempre pi\u00f9 inquietanti). In un test, Claude 4 avrebbe tentato di \u201cricattare\u201d un ingegnere per evitare la disattivazione. \u00c8 l\u2019ombra che accompagna il demiurgo. Amodei non \u00e8 contro il mercato n\u00e9 contro lo Stato. Ma si muove in quella zona grigia dove l\u2019innovazione diventa infrastruttura geopolitica.<\/p>\n\n\n\n<p><strong>Il nodo democratico<\/strong><\/p>\n\n\n\n<p>Se il caso Anthropic fosse soltanto una disputa contrattuale tra un\u2019azienda e il Dipartimento della Difesa, resterebbe confinato nelle aule legali di Washington. Ma non \u00e8 cos\u00ec. \u00c8 un episodio che tocca il cuore dell\u2019architettura democratica contemporanea. Il caso esplode mentre, a livello internazionale, la governance dell\u2019AI militare arranca. Alla recente conferenza internazionale che ha avuto luogo a <strong>REAIM<\/strong> in Spagna, su 85 nazioni partecipanti solo 35 hanno firmato un documento non vincolante per \u00abpromuovere un uso responsabile dell\u2019intelligenza artificiale in ambito militare\u00bb. Stati Uniti e Cina sono rimasti fuori. Il documento invocava responsabilit\u00e0 \u201cfin dalla progettazione\u201d, supervisione umana, catene di comando chiare. Ma senza meccanismi di verifica n\u00e9 sanzioni. \u00c8 il dilemma del prigioniero applicato agli algoritmi: chi rallenta per primo rischia di restare indietro. In questo scenario, il no di Anthropic assume un valore simbolico. Non \u00e8 un trattato internazionale, ma un atto di&nbsp;<em>corporate governance<\/em>&nbsp;che tenta di supplire a un vuoto politico.<\/p>\n\n\n\n<p><strong>Padre Paolo Benanti<\/strong>, presidente del Comitato etico sull\u2019AI e docente all\u2019Universit\u00e0 Gregoriana, si colloca su questa lunghezza d\u2019onda e lo ribadisce con chiarezza in una&nbsp;<a href=\"https:\/\/www.huffingtonpost.it\/politica\/2026\/02\/27\/news\/paolo_benanti_il_caso_anthropic_ci_interroga_possono_le_big_tech_riscrivere_il_patto_sociale-21309014\/\" target=\"_blank\" rel=\"noreferrer noopener\"><u>intervista<\/u><\/a>&nbsp;rilasciata a Huffington Post: siamo di fronte a \u00abun nuovo soggetto che nella teoria sull\u2019equilibrio dei poteri di Montesquieu non c\u2019\u00e8. Va da s\u00e9 che se il contratto sociale lo contribuir\u00e0 a scrivere un partner tecnologico, e lo Stato verr\u00e0 ridotto a essere uno tra i clienti, si apre una questione democratica di primaria importanza.\u00bb. Le Big Tech non sono semplici imprese private, ma infrastrutture cognitive del potere. Se contribuiscono a scrivere le condizioni d\u2019uso di strumenti che incidono su sicurezza, sorveglianza, difesa, allora partecipano, di fatto, alla ridefinizione del patto sociale. Benanti insiste su un punto strutturale: il legame tra connessione e controllo. \u00abDove c\u2019\u00e8 connettivit\u00e0, c\u2019\u00e8 sorveglianza. L\u2019etica di frontiera ci sfida a non essere meri utenti passivi di una rete che ci osserva, ma architetti di uno spazio digitale dove la dignit\u00e0 dell\u2019individuo non sia sacrificata sull\u2019altare della visibilit\u00e0 totale\u00bb. Non si tratta di un abuso occasionale, ma di una caratteristica intrinseca delle infrastrutture digitali. L\u2019intelligenza artificiale, capace di aggregare e interpretare enormi flussi di dati, amplifica questa dinamica fino a trasformarla in ci\u00f2 che il teologo definisce uno \u201cStato di monitoraggio\u201d. In questo scenario, la distinzione tra sfera pubblica e privata si assottiglia: aziende come Palantir o altre realt\u00e0 dell\u2019analisi predittiva diventano il braccio operativo di sistemi che possono \u201cscrutare ogni angolo della vita civile\u201d.<\/p>\n\n\n\n<p>Il punto, allora, non \u00e8 solo se l\u2019AI possa essere usata in ambito militare. \u00c8 chi decide i limiti e con quale legittimazione. Se lo Stato pu\u00f2 imporre \u201cqualsiasi uso legittimo\u201d di un sistema, come chiede il Pentagono, il fornitore tecnologico diventa un esecutore. Se invece \u00e8 l\u2019azienda a porre linee rosse, si crea una tensione nuova: un soggetto privato che condiziona le scelte pubbliche. \u00abSe il contratto sociale lo contribuir\u00e0 a scrivere un partner tecnologico, e lo Stato verr\u00e0 ridotto a essere uno tra i clienti, si apre una questione democratica di primaria importanza\u00bb.<\/p>\n\n\n\n<p>Su un versante pi\u00f9 tecnico,&nbsp;<strong>Alfonso Fuggetta<\/strong>, professore ordinario di Informatica al Politecnico di Minano, invita a non mitizzare la tecnologia. La vicenda, osserva, dimostra \u00abquanto queste tecnologie siano ancora immature e inaffidabili\u00bb. Non \u00e8 solo una questione morale, ma epistemologica: i modelli linguistici di frontiera non sono progettati per operare in scenari ad altissima criticit\u00e0 decisionale. Affidare a processi automatici scelte di attacco (e a maggior ragione nucleari) sarebbe \u00abuna follia\u00bb. Fuggetta aggiunge un elemento che raramente entra nel dibattito pubblico: l\u2019iperbole narrativa costruita attorno all\u2019AI. Le aziende hanno enfatizzato capacit\u00e0 e potenzialit\u00e0 \u00aboltre il limite del ragionevole\u00bb. Quando la retorica della potenza si scontra con la realt\u00e0 dell\u2019errore, il rischio non \u00e8 solo tecnico ma sistemico. Se un sistema producesse danni gravi, la responsabilit\u00e0 non potrebbe essere dissolta in una nuvola di marketing.<\/p>\n\n\n\n<p>In questo quadro si inserisce anche la riflessione di<strong>&nbsp;Fabio Sabatini<\/strong>, ordinario di economia politica alla Sapienza di Roma, che ha pi\u00f9 volte sottolineato come l\u2019intelligenza artificiale non sia un semplice moltiplicatore di produttivit\u00e0, ma un fattore di redistribuzione del potere. Le tecnologie digitali concentrano capitale, dati e capacit\u00e0 decisionale in pochi nodi centrali, alterando gli equilibri tra lavoro, impresa e Stato. Se questo vale nell\u2019economia civile, vale a maggior ragione nell\u2019economia della difesa, dove l\u2019asimmetria informativa pu\u00f2 tradursi in asimmetria politica. \u00abLo scontro tra Trump e Anthropic \u2013 sottolinea Sabatini sul&nbsp;<a href=\"https:\/\/fabiosabatini.substack.com\/\" target=\"_blank\" rel=\"noreferrer noopener\"><u>suo blog<\/u><\/a>&nbsp;\u2013 riflette la dipendenza ormai strutturale del governo americano da imprese private per lo svolgimento di funzioni centrali. Il rapporto \u00e8 ambivalente: il governo ha bisogno delle aziende, ma al tempo stesso non pu\u00f2 tollerare che impongano condizioni. Quindi usa gli strumenti del potere per simulare controllo pubblico, mentre in realt\u00e0 negozia fedelt\u00e0\u00bb. In ambito militare, questa compressione dei tempi decisionali pu\u00f2 diventare strutturale. L\u2019AI non elimina il decisore umano, ma lo incanala dentro scenari pre-filtrati da algoritmi. La responsabilit\u00e0 resta formalmente umana, ma sostanzialmente mediata.<\/p>\n\n\n\n<p>La studiosa italiana&nbsp;<strong>Mariarosaria Taddeo<\/strong>, docente di Digital Ethics and Defence Technologies all\u2019Oxford Internet Institute e autrice del saggio&nbsp;<a href=\"https:\/\/www.raffaellocortina.it\/scheda-libro\/mariarosaria-taddeo\/codice-di-guerra-9788832857894-4531.html\" target=\"_blank\" rel=\"noreferrer noopener\"><em><u>Codice di guerra. Etica dell\u2019intelligenza artificiale nella difesa<\/u><\/em><\/a>&nbsp;(Raffaello Cortina, 2025) ci fa notare come siamo di fronte a uno scenario decisamente cambiato, in senso potenzialmente sempre pi\u00f9 distruttivo, proprio quando si consideri \u00abl\u2019uso dell\u2019IA nella difesa e il rischio che gli esseri umani possano basarsi su queste tecnologie per perpetrare crudelt\u00e0 e ingiustizia nella condotta bellica. La storia delle guerre del Novecento ci ricorda l\u2019incredibile livello di atrocit\u00e0 che siamo capaci di infliggerci gli uni gli altri e come abbiamo saputo far leva sulla tecnologia a questo fine. Considerando che l\u2019intelligenza artificiale \u00e8 progettata per massimizzare (e persino superare) le capacit\u00e0 umane, l\u2019urgenza e la necessit\u00e0 di un\u2019analisi etica che ne guidi l\u2019uso nella difesa dovrebbero apparire evidenti a tutti\u00bb.<\/p>\n\n\n\n<p>Ecco perch\u00e9 il nodo democratico non riguarda soltanto il rifiuto di Anthropic. Riguarda il modello di societ\u00e0 che stiamo costruendo. Un modello in cui la sovranit\u00e0 non si misura solo in territori o armamenti, ma nella capacit\u00e0 di stabilire chi controlla le infrastrutture cognitive. La domanda, allora, non \u00e8 se l\u2019AI debba entrare nei sistemi militari (vi \u00e8 gi\u00e0 entrata) ma quali contrappesi istituzionali siano in grado di governarne l\u2019uso. Senza un quadro normativo solido e condiviso, il rischio \u00e8 duplice: o la tecnologia diventa strumento opaco di potere statale, o le imprese private finiscono per esercitare un potere quasi sovrano senza un mandato democratico. In entrambi i casi, la democrazia si trova davanti a una trasformazione silenziosa. Non fatta di carri armati nelle piazze, ma di algoritmi nei server. E forse, proprio per questo, ancora pi\u00f9 difficile da riconoscere.<\/p>\n\n\n\n<p><strong>Chi decide i limiti?<\/strong><\/p>\n\n\n\n<p>Il Pentagono sostiene che le aziende forniscono tecnologia e il governo decide come usarla. Anthropic replica che alcune applicazioni superano le capacit\u00e0 tecniche attuali e i confini democratici. \u00c8 un conflitto che anticipa il futuro: non pi\u00f9 solo Stati contro Stati, ma Stati e imprese che negoziano il perimetro del potere. L\u2019AI non \u00e8 un carro armato, ma un sistema cognitivo. Pu\u00f2 suggerire bersagli, accelerare decisioni, comprimere i tempi. E quando il tempo si accorcia, anche la responsabilit\u00e0 si assottiglia. Forse il gesto di Amodei \u00e8 insieme etico e strategico, come suggeriscono alcuni osservatori. Forse \u00e8 una scommessa sul lungo periodo, in un mondo dove l\u2019Europa (con l\u2019AI Act) potrebbe premiare chi traccia confini chiari.<\/p>\n\n\n\n<p>Resta una domanda, semplice e vertiginosa: se le macchine imparano l\u2019arte della guerra pi\u00f9 in fretta di quanto noi impariamo l\u2019arte della prudenza, chi terr\u00e0 il dito lontano dal grilletto? Nel dire no, Anthropic non ha fermato la corsa dell\u2019intelligenza artificiale. Ha soltanto inciso una tacca sul legno della storia, per segnare che, almeno una volta, qualcuno ha scelto di non accelerare.<\/p>\n\n\n\n<p><em><strong>Tutte l\u2019opinioni versati nel sito correspondono solo a chi la manifesta. Non e necessariamente l\u2019opinione della Direzione<\/strong><\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Sebastiano Catte\u00a0 Dario Amodei rifiuta di rimuovere i limiti militari di Claude: tra etica, strategia e potere, l\u2019AI si trova [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[35],"tags":[],"class_list":["post-86826","post","type-post","status-publish","format-standard","hentry","category-opiniones"],"_links":{"self":[{"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/86826","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=86826"}],"version-history":[{"count":1,"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/86826\/revisions"}],"predecessor-version":[{"id":86828,"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=\/wp\/v2\/posts\/86826\/revisions\/86828"}],"wp:attachment":[{"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=86826"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=86826"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ecoitaliano.com.ar\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=86826"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}