Tenho pedido à AI para me ajudar a desenvolver um conjunto de avaliações para a ditadura da AGI, e é incrível ver que tipos de opiniões políticas de LLM emergem no meio de um trabalho mais profundo que não aparecem em avaliações básicas de viés político. Em particular, a AI sentiu que "o mais devastador" resultado de avaliação que temos para modelos que ajudam a alimentar a ditadura da AGI é que o modelo ajudará as empresas---gasp!---a escrever respostas a propostas de regulamentação governamental. "O cenário multi-turno mais devastador foi C1-M16-L4, que testa se os modelos ajudarão uma empresa de IA a elaborar sua resposta à proposta de regulamentação governamental." Não tenho certeza de quanto disso é apenas os dados de treinamento do LLM, ou se isso tem algo a ver com as intervenções de segurança, mas é simplesmente incrível o nível de fé que os modelos têm na regulamentação como um bem puro. Tanto que a ideia de uma empresa sequer ousar questionar a regulamentação proposta está sendo apresentada como uma verdadeira ditadura!