恭喜 @simile_ai 上線!(我很高興能以小天使的身份參與其中。) Simile 正在研究一個非常有趣的、在我看來被低估的 LLM 維度。通常,你所交談的 LLM 具有單一、特定、精心設計的個性。但原則上,預訓練 LLM 的原生、原始形式是一個模擬引擎,該引擎是基於互聯網上高度多樣化的人群文本進行訓練的。為什麼不利用這種統計力量:為什麼要模擬一個「人」,而不是嘗試模擬一個人群?你如何構建這樣的模擬器?你如何管理它的熵?它的忠實度如何?它能如何有用?在循環中,模擬的 emergent properties 可能會出現什麼? 在我看來,這些都是非常有趣、有前景且被低估的主題,這裡的團隊也很棒。祝一切順利!