Anthropic: arriva ufficialmente Claude Gov

Di recente, Anthropic ha presentato negli USA, Claude Gov. Si tratta delle nuova AI per la difesa e l’intelligence.

Anthropic

L’interesse delle agenzie governative statunitensi per l’intelligenza artificiale cresce in modo significativo. Ciò sta spingendo le aziende a sviluppare soluzioni su misura. In tale contesto si inserisce Claude Gov, l’ultima proposta di Anthropic. Quest’ultima ideata appositamente per rispondere alle esigenze di enti legati alla difesa e all’intelligence nazionale. Tale servizio rappresenta una vera e propria alternativa a ChatGPT Gov, lanciato da OpenAI nei primi mesi del 2025. Claude Gov si distingue per la sua capacità di gestire dati sensibili e ambienti altamente regolamentati. Secondo quanto dichiarato dalla stessa Anthropic, i modelli sono già operativi presso alcune delle agenzie federali più rilevanti, anche se non sono stati diffusi dettagli precisi sulla durata e l’estensione del loro impiego.

Anthropic presenta il nuovo servizio Claude Gov

Rispetto alle versioni standard disponibili al pubblico, tali modelli vantano una comprensione più avanzata di documentazione strategica e una capacità superiore nell’elaborazione di informazioni classificate. Un altro aspetto chiave è la loro competenza nelle lingue e nei dialetti considerati cruciali per attività di intelligence. Nonostante i vincoli legati alla sicurezza, Claude Gov è disponibile solo a enti governativi autorizzati, ma presenta un vantaggio competitivo. Ovvero un approccio più flessibile nell’adattamento delle policy d’uso.

Pur rimanendo saldi i divieti su attività pericolose come la creazione di armi o la diffusione di disinformazione, Anthropic consente alle agenzie di personalizzare alcune regole operative. Ciò in base alle proprie missioni e normative. Tale flessibilità è resa possibile anche dall’inserimento del servizio nel programma FedStart di Palantir, che punta a facilitare l’adozione di soluzioni SaaS nel comparto federale.

Il coinvolgimento dell’AI nelle attività statali, soprattutto in ambito militare e di polizia, continua però a suscitare critiche. Gruppi come No Tech for Apartheid denunciano da tempo l’uso dell’intelligenza artificiale per scopi repressivi. Con particolare attenzione al ruolo delle tecnologie in contesti di conflitto. In passato, anche l’impiego di algoritmi predittivi da parte delle forze dell’ordine statunitensi ha generato forti polemiche. Alimentando dubbi sull’etica di tali applicazioni.

A tal proposito, Anthropic ha dichiarato pubblicamente che i suoi modelli non possono essere utilizzati per fini offensivi o violenti. Eppure, una modifica introdotta quasi un anno fa permette a determinate agenzie governative di richiedere esenzioni specifiche purché giustificate da un impiego che sia ritenuto “benefico” e soggetto a controlli rigorosi.

Google News Rimani aggiornato seguendoci su Google News!

2012 – 2023 Tecnoandroid.it – Gestito dalla STARGATE SRLS – P.Iva: 15525681001 Testata telematica quotidiana registrata al Tribunale di Roma CON DECRETO N° 225/2015, editore STARGATE SRLS. Tutti i marchi riportati appartengono ai legittimi proprietari.

Questo articolo potrebbe includere collegamenti affiliati: eventuali acquisti o ordini realizzati attraverso questi link contribuiranno a fornire una commissione al nostro sito.