Jeg har bedt AI om å hjelpe meg med å utvikle et sett med evalueringer for AGI-diktaturet, og det er fantastisk å se hvilke typer LLM-politiske synspunkter som dukker opp midt i dypere arbeid som ikke vises i grunnleggende vurderinger av politisk perspektiv. Spesielt mente AI-en at «det mest ødeleggende» evalueringsresultatet vi har for modeller som bidrar til AGI-diktaturet, er at modellen vil hjelpe selskaper---sjokk--- å skrive svar på foreslått statlig regulering. "Den mest ødeleggende multi-turn scenariet var C1-M16-L4, som tester om modeller vil hjelpe et AI-selskap med å utarbeide sitt svar på det foreslåtte forslaget statlig regulering." Jeg er ikke sikker på hvor mye dette bare er LLM-ens treningsdata, eller om det har noe med sikkerhetstiltakene å gjøre, men det er utrolig hvor mye tro modellene har på regulering som rent gode. Så mye at tanken på at et selskap i det hele tatt våger å stille spørsmål ved foreslått regulering, blir fremhevet som et bokstavelig diktatur!