Melakukan beberapa eksperimen hari ini dengan jendela konteks 1M Opus 4.6. Mencoba mendorong sesi pengkodean jauh ke dalam apa yang saya anggap sebagai 'zona bodoh' model SOTA: >100K token. Penurunan kualitas benar-benar terlihat. Keputusan yang lebih bodoh, kode yang lebih buruk, mengikuti instruksi yang lebih buruk. Jangan memperlakukan jendela konteks 1M secara berbeda. Masih 100K pintar, dan 900K bodoh.