Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ihre KI hat stillschweigend alles vergessen, was Sie ihr gesagt haben.
Nicht zufällig. Nicht laut. Systematisch. Begonnen mit den Entscheidungen, die am wichtigsten sind.
> Die Einschränkung, die Sie vor drei Monaten festgelegt haben: "verwenden Sie niemals Redis, der Kunde hat es nach einem Produktionsvorfall abgelehnt." Weg. Die Einschränkung der Bereitstellungsregion gemäß GDPR. Weg. Das Retry-Limit, das Sie empirisch nach dem Kaskadenfehler getestet haben. Weg.
> Das Modell hat es Ihnen nie gesagt. Es hat einfach begonnen, Standardwerte zu verwenden.
> Das nennt man Kontextverfall. Und Forscher von Cambridge und Independent haben gerade quantifiziert, wie schlimm es wirklich ist.
> Jedes Produktions-KI-System, das lange genug läuft, wird schließlich seinen Kontext komprimieren, um Platz für neue Informationen zu schaffen. Diese Kompression ist katastrophal verlustbehaftet. Sie haben es direkt getestet: 2.000 Fakten, die mit 36,7× komprimiert wurden, ließen 60 % der Wissensbasis dauerhaft irreparabel zurück. Nicht halluziniert. Nicht falsch. Einfach weg. Das Modell hat ehrlich berichtet, dass es die Informationen nicht mehr hatte.
> Dann haben sie etwas Schlimmeres getestet. Sie haben 20 reale Projektbeschränkungen in ein 88-Runden-Gespräch eingebettet, die Art von Beschränkungen, die natürlich in jedem langfristigen Projekt entstehen, und dann die kaskadierende Kompression genau so angewendet, wie es Produktionssysteme tun. Nach einer Runde: 91 % erhalten. Nach zwei Runden: 62 %. Nach drei Runden: 46 %.
> Das Modell arbeitete die ganze Zeit mit vollem Vertrauen weiter. Es generierte Ausgaben, die gegen die vergessenen Beschränkungen verstießen. Kein Fehlersignal. Keine Warnung. Einfach stillschweigende Rückkehr zu angemessenen Standardwerten, die zufällig für Ihre spezifische Situation falsch waren.
> Sie haben dies über vier Grenzmodelle getestet. Claude Sonnet 4.5, Claude Sonnet 4.6, Opus, GPT-5.4. Jedes einzelne brach unter der Kompression zusammen. Das ist kein Modellproblem. Es ist architektonisch.
→ 60 % der Fakten dauerhaft verloren nach einem einzigen Kompressionsdurchgang
→ 54 % der Projektbeschränkungen nach drei Runden kaskadierender Kompression weg
→ GPT-5.4 fiel bei nur 2× Kompression auf 0 % Genauigkeit
→ Selbst Opus behielt nur 5 % der Fakten bei 20× Kompression
→ In-Context-Speicher kostet 14.201 $/Jahr bei 7.000 Fakten gegenüber 56 $/Jahr für die Alternative
Die KI-Labore wissen das. Ihre Lösung sind größere Kontextfenster. Ein 10M-Token-Fenster ist ein größeres Behältnis. Es ist immer noch ein Behälter. Verdichtung ist unvermeidlich für jedes langfristige System. Die Fenstergröße bestimmt nur, wann das Vergessen beginnt, nicht ob es passiert.

Top
Ranking
Favoriten
