Nel lessico dell’intelligenza artificiale i “guardrail” sono, letteralmente, i guardrail di una strada di montagna: barriere progettate per impedire che il sistema esca di carreggiata quando le condizioni diventano estreme. Applicati all’AI militare, indicano l’insieme di vincoli tecnici, procedurali ed etici che limitano ciò che un algoritmo può fare, dire o decidere. Non sono solo filtri superficiali. Possono includere regole codificate nei modelli, sistemi di supervisione umana (human-in-the-loop), controlli di validazione dei dati, meccanismi di blocco automatico e protocolli di verifica incrociata con altre fonti informative. Partiamo da qui per capire cosa è successo tra Anthropic, OpenAi e il Pentagono




