← Tutte le storieAI

AI safety: Anthropic, OpenAI e DeepMind investono sull'allineamento

Constitutional AI, Superalignment e red teaming diventano parte integrante del ciclo di sviluppo dei modelli frontier.

CZ

Caterina Zhao

30 Marzo 2026 · 7 min di lettura

AI safety: Anthropic, OpenAI e DeepMind investono sull'allineamento

Il dibattito sulla sicurezza dei modelli AI è uscito dalle conferenze accademiche ed è entrato nei comitati esecutivi. Anthropic ha consolidato il proprio approccio Constitutional AI come framework di riferimento per l'allineamento di Claude.

OpenAI, dopo la riorganizzazione del team Superalignment nel 2024, ha mantenuto un programma interno di red teaming e ha pubblicato i propri Preparedness Framework. Google DeepMind contribuisce con la Frontier Safety Framework.

Sul fronte istituzionale, gli AI Safety Institute britannico e statunitense conducono valutazioni indipendenti sui modelli prima del rilascio. Resta aperto il dibattito su quali capability oltrepassino la soglia di rischio sistemico.

Continua a leggere