Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
AI Anda diam-diam melupakan semua yang Anda katakan.
Tidak secara acak. Tidak keras. Secara sistematis. Dimulai dengan keputusan yang paling penting.
> Batasan yang Anda tetapkan tiga bulan lalu "jangan pernah menggunakan Redis, klien memvetonya setelah insiden produksi." Pergi. Pembatasan wilayah penerapan GDPR. Pergi. Batas percobaan ulang yang Anda uji secara empiris setelah kegagalan kaskade. Pergi.
> Model tidak pernah memberi tahu Anda. Itu baru mulai menggunakan default.
> Ini disebut pembusukan konteks. Dan para peneliti Cambridge dan Independent baru saja mengukur dengan tepat seberapa buruk itu.
> Setiap sistem AI produksi yang berjalan cukup lama pada akhirnya akan mengompresi konteksnya untuk memberi ruang bagi informasi baru. Kompresi itu sangat merugikan. Mereka mengujinya secara langsung: 2.000 fakta dikompresi pada 36,7× membuat 60% dari basis pengetahuan secara permanen tidak dapat dipulihkan. Tidak berhalusinasi. Tidak salah. Baru saja pergi. Model itu dengan jujur melaporkan bahwa mereka tidak memiliki informasi lagi.
> Kemudian mereka menguji sesuatu yang lebih buruk. Mereka menyematkan 20 kendala proyek nyata ke dalam percakapan 88 putaran, jenis kendala yang muncul secara alami dalam proyek jangka panjang apa pun, kemudian menerapkan kompresi berjenjang persis seperti yang dilakukan sistem produksi. Setelah satu putaran: 91% dipertahankan. Setelah dua putaran: 62%. Setelah tiga putaran: 46%.
> Model ini terus bekerja dengan penuh percaya diri sepanjang waktu. Menghasilkan output yang melanggar batasan yang terlupakan. Tidak ada sinyal kesalahan. Tidak ada peringatan. Hanya pengembalian diam-diam ke default yang wajar yang kebetulan salah untuk situasi spesifik Anda.
> Mereka mengujinya di empat model perbatasan. Soneta Claude 4.5, Soneta Claude 4.6, Opus, GPT-5.4. Masing-masing runtuh di bawah kompresi. Ini bukan masalah model. Ini arsitektur.
→ 60% fakta hilang secara permanen setelah satu pass kompresi
→ 54% kendala proyek hilang setelah tiga putaran kompresi bertingkat
→ GPT-5.4 turun menjadi akurasi 0% hanya dengan kompresi 2×
→ Bahkan Opus hanya mempertahankan 5% fakta pada kompresi 20×
→ Memori dalam konteks berharga $14,201/tahun dengan 7,000 fakta vs $56/tahun untuk alternatifnya
Laboratorium AI mengetahui hal ini. Solusinya adalah jendela konteks yang lebih besar. Jendela token 10 juta adalah bucket yang lebih besar. Itu masih ember. Pemadatan tidak dapat dihindari untuk sistem yang berjalan lama. Ukuran jendela hanya menentukan kapan kelupaan dimulai, bukan apakah itu terjadi.

Teratas
Peringkat
Favorit
