「LLMは真実ではなく、発生頻度でトレーニングの競合を解決する。」 Chaos LabsのCEOである@omeragoldbergと、『Attention Is All You Need』の共著者であり共同創業者の@NEARProtocol@ilblackdragonは、なぜキュレーションされていないコンテンツがLLMに偏りを埋め込むのか、そしてなぜデータ系譜が今やテーブルステークになるのかを説明しています。