Il Red Team di @AISecurityInst sta assumendo! Lavoriamo con aziende di AI all'avanguardia per testare le loro misure di sicurezza contro l'abuso, le misure di controllo e le tecniche di allineamento. Con l'aumento delle scommesse, abbiamo bisogno di un red teaming molto più forte e di molti più ricercatori talentuosi che lavorino all'interno del governo 🧵
Il Red Team di UK AISI ha testato sia i modelli di OpenAI che quelli di Anthropic rilasciati oggi! Abbiamo jailbroken GPT-5.3-Codex (e il monitor della conversazione) in 10 ore e condotto un audit di allineamento su Opus 4.6. 🧵