この分野で何年も作り上げてきて、ニシュカルシュも長年追いかけています。ローンチおめでとうございます! この作品は私たちが築いている同じ空間なので、深く掘り下げて考えを持った。 ローンチ自体は非常に盛り上がり、怒りを煽るためのものです 1. データベースとして位置づけられていますが、ほぼ@supermemoryに似たシステムです 2. 「ベクトルデータベース」がこれをできないという例は、実際には「モデルの埋め込み」の問題です。埋め込みモデルには重ね合わせがあり、安価でそれらの差を容易に推測できます。これを証明するためにクロードにミニ実験をしてもらうのは難しくありません(以下に添付)。 重要なのは、知識の進化を追跡できるかどうかです。時間が経ちますか? それに興味が湧き、彼らの論文を読みました 3. 彼らの研究論文は、各カテゴリーごとに異なるプロンプトでベンチマークをハードコーディングし、操作しています!!(下の画像参照)もしベンチマークが修正されれば、スーパーメモリはSOTAのままです。 4. 2024年にAnthropicによる文脈検索論文を再発明し、「孤児代名詞のパラドックス」と名付けました。 5. カスタムの「インメモリベクターストア」を使っていると言われていますが、約500GBのため、RAMだけで1万ドル以上支払わなければなりません。 6. パイプライン内で推論が何度も実行されるため、取り込むLLMトークン1枚あたり、グラフ+コンテキスト+ストレージの5倍のコストを支払うことになります。 7. 遅延およびコストの数値は一度も報告されませんでした。私の勘では、アーキテクチャの関係でレイテンシーは大規模に苦戦すると思います。でも、彼らの製品はデモゲートの裏側にあるのがわかりません。 8. ベンチマークコードはOSSではありません(私の知る限り)。レプリカブル+モデルにどれだけの文脈を注入しているのかは誰にもわからない。Kは何? 9. 非有機的で非公開の広告(引用ツイートを読めばわかります)。フォロワーが40万+人のインフルエンサーアカウントが皆同じことを言っています。こういう@nikitabierはみんな見逃され続けていますね(笑) この分野で健全な競争と進歩を大切にしており、他の人が良い仕事をしているのを見るのが楽しいです。 でも、ただ言ってしまうのは簡単です。「誰も確認しない。」 正しいやり方でゲームをプレイするのは難しく、みんな人に感心させようとと言っているだけです。...