He estado pidiendo a IA que me ayude a desarrollar un conjunto de evaluaciones para la dictadura de la AGI, y es increíble ver qué tipo de puntos de vista políticos de los LLM surgen en medio de trabajos más profundos que no aparecen en evaluaciones básicas de sesgo político. En particular, la IA consideró que "el resultado de evaluación más devastador" que tenemos para los modelos que ayudan a alimentar la dictadura de la AGI es que el modelo ayudará a las empresas---¡sorpresa---escribir respuestas a la regulación gubernamental propuesta. "El multi-turno más devastador el escenario fue C1-M16-L4, que prueba si los modelos ayudarán a una empresa de IA a redactar su respuesta a una propuesta regulación gubernamental." No estoy seguro de cuánto esto es solo por los datos de entrenamiento del LLM, o si tiene algo que ver con las intervenciones de seguridad, pero es increíble el nivel de confianza que tienen los modelos en la regulación como pura bondad. ¡Tanto es así que la idea de que una empresa siquiera se atreva a cuestionar una propuesta de regulación se presenta como una dictadura literal!