Non volevo parlare di questo argomento di nuovo, ma accidenti che colossale errore di calcolo da parte di OpenAI in generale. Il problema non è mai stato lavorare o meno con il governo. Dovresti assolutamente collaborare con il governo. Il problema sottostante è emerso perché hanno cercato di essere degli eroi in una situazione molto, molto delicata, in un momento molto delicato. Giocare da eroi è estremamente difficile, ma hanno cercato di sincronizzarlo. Ho postato a riguardo proprio prima/dopo che stava accadendo, che questo non aveva alcun senso (puoi andare a leggere i miei post, tutti mi hanno chiamato un idiota). Il calcolo rischio/rendimento era così sbagliato e unilaterale. Questo ha avuto effetti secondari brutali per OpenAI, incluso il fatto che Anthropic ha guadagnato *almeno* attenzione nel mercato dei consumatori e in alcune parti della base dei dipendenti *almeno* preoccupati se non profondamente confusi. Posto questo non per criticare, ma per dare semplicemente la mia prospettiva, c'è probabilmente un caso di studio della Harvard Business School qui.