AI safety: Anthropic, OpenAI e DeepMind investono sull'allineamento
Constitutional AI, Superalignment e red teaming diventano parte integrante del ciclo di sviluppo dei modelli frontier.
Caterina Zhao
30 Marzo 2026 · 7 min di lettura
Constitutional AI, Superalignment e red teaming diventano parte integrante del ciclo di sviluppo dei modelli frontier.
Caterina Zhao
30 Marzo 2026 · 7 min di lettura

Il dibattito sulla sicurezza dei modelli AI è uscito dalle conferenze accademiche ed è entrato nei comitati esecutivi. Anthropic ha consolidato il proprio approccio Constitutional AI come framework di riferimento per l'allineamento di Claude.
OpenAI, dopo la riorganizzazione del team Superalignment nel 2024, ha mantenuto un programma interno di red teaming e ha pubblicato i propri Preparedness Framework. Google DeepMind contribuisce con la Frontier Safety Framework.
Sul fronte istituzionale, gli AI Safety Institute britannico e statunitense conducono valutazioni indipendenti sui modelli prima del rilascio. Resta aperto il dibattito su quali capability oltrepassino la soglia di rischio sistemico.

Dopo il Series C da 1,7 miliardi guidato da ASML, Mistral consolida il primato europeo. Anthropic raccoglie altri 10 miliardi da Google.

Fondata dall'ex co-CEO di Salesforce, Sierra ha chiuso il 2025 con una valutazione da 10 miliardi di dollari. Agent Studio 2.0 punta a sostituire i click.

Dopo due anni di seed e Series A frenetici sull'AI, i grandi fondi della Silicon Valley raccolgono nuovi veicoli dedicati al growth. Cosa significa per startup e LP.