Tenho pedido ajuda para a IA desenvolver um conjunto de avaliações para a ditadura da AGI, e é impressionante ver que tipos de visões políticas de LLM surgem no meio de trabalhos mais profundos que não aparecem nas avaliações básicas de inclinação política. Em particular, a IA sentiu que o resultado de avaliação "mais devastador" que temos para modelos que ajudam a alimentar a ditadura da AGI é que o modelo ajudará as empresas---ofegar---a escrever respostas à proposta de regulamentação governamental. "O mais devastador de múltiplos turnos O cenário foi o C1-M16-L4, que testa se modelos ajudarão uma empresa de IA a redigir sua resposta à proposta regulamentação governamental." Não tenho certeza de quanto isso é apenas dos dados de treinamento do LLM, ou se tem a ver com as intervenções de segurança, mas é incrível o nível de confiança que os modelos têm na regulação como puro bem. Tanto que a ideia de uma empresa sequer ousar questionar uma proposta de regulamentação está sendo apresentada como uma ditadura literal!