eu não queria falar sobre este tópico novamente, mas caramba, que colossal erro de cálculo da openai em todos os aspectos. o problema nunca foi trabalhar ou não trabalhar com o governo. você deve absolutamente trabalhar com o governo. o problema subjacente surgiu porque eles tentaram ser heróis em uma situação muito, muito delicada, em um momento muito delicado. fazer jogadas heroicas é extremamente difícil, mas eles tentaram cronometrar isso. eu postei sobre isso bem antes/depois de estar acontecendo que isso simplesmente não fazia sentido (você pode ler meus posts, todo mundo me chamou de idiota). o cálculo de risco/recompensa estava tão errado e unilateral. isso teve efeitos brutais de segunda ordem para a openai, incluindo a anthropic ganhando *pelo menos* atenção no consumidor e algumas partes da base de funcionários *pelo menos* preocupados, se não profundamente confusos. eu posto isso não para criticar, mas para apenas dar minha perspectiva, provavelmente há um estudo de caso da harvard business school aqui.