Dette er faktisk en veldig sterk stemme for Grok. Jeg har sjekket, og det ser ut til at ja, det forbedret nedre grense i en seriøs sannsynlighetsartikkel fra 2025. Multiagent med søk og kodekjøring, men hvorfor sette seg selv på bekostning hvis du faktisk kan bruke verktøyene? DS (kun nett) mislykkes/gir opp.
Paata Ivanisvili
Paata Ivanisvili18. feb. 2026
Grok 4,20 (Beta) forbedrer nedre grense med 9,1 % på den Gaussiske perimeteren av konvekse sett på to minutter. Dette er noe som ble påpekt for meg av Xinyuan Xie. Tilbake i 1993 viste Keith Ball at den gaussiske omkretsen til et konvekst legeme i n-dimensjonalt euklidsk rom er avgrenset ovenfra av 4n^{1/4}. Når det gjelder nedre grense, viste Ball at for en kube (av passende størrelse) kan omkretsen vokse som \sqrt{\log(n)}. Så det var et gap en stund i hvilken grense som er skarp, frem til 2003, da Fedor Nazarov i en vakker artikkel viste at på eksempelet med et tilfeldig polyeder (skjæringspunktet av mange tilfeldige halvrom) kan nedre grensen vokse som C n^{1/4}, med C=\exp(-5/4)=0,286.... I tillegg forbedret Nazarov også konstanten 4 i øvre grense (erstattet den med 0,64) når n er stor. Disse grensene forble ubeseiret inntil nylig, da Martin Raic i 2019 klarte å forbedre den øvre konstantfaktoren fra 0,64 til 0,59. Grok 4.20 (Beta), ved å optimalisere Nazarovs konstruksjon mer nøye, klarte å forbedre nedre grensekonstanten fra 0,286 til 0,3126. Jeg synes dette er overraskende, selv om det bare spiller innenfor teknikkene i Nazarovs artikkel, fordi Nadimpalli--Pascale (2025) nylig publiserte et preprint hvor de, med en annen tilnærming, hentet Nazarovs nedre grense med samme konstantfaktor 0,286.... Grok var svært generøs i sitt svar: de sa at forbedringen den ga følger samme argument som Nazarov «linje for linje», mens da jeg ba andre modeller (bortsett fra Grok) om å verifisere Groks påstand, var de enige om alt unntatt denne delen; De sa at forbedringen egentlig ikke er «linje-for-linje»-:D. Til slutt vil jeg ikke si at Nazarov overså denne forbedringen. Etter å ha kjent ham lenge, er jeg ganske sikker på at det er vanlig at han ofrer optimale konstanter for algebraisk eleganse. Hvorfor er alt dette interessant? Å kontrollere den gaussiske perimeteren gjør det mulig å kontrollere Fourier-haler av karakteristiske funksjoner for disse mengdene, noe som fører til kontroll av tidskompleksiteten til PAC-læring og agnostiske læringsalgoritmer for denne familien (se Klivans--O'Donnell--Servedio). Referanser: Chat-lenke med Grok 4.20 (Beta). Keith Ball. Det omvendte isoperimetriske problemet for Gaussisk mål. Diskret og beregningsgeometri, 10:411–420, 1993. Adam Klivans, Ryan O'Donnell og Rocco A Servedio. Å lære geometriske konsepter via Gaussisk overflateareal. I Proc. 49. IEEE Symposium on Foundations of Computer Science (FOCS), sidene 541–550, 2008. Shivam Nadimpalli, Caleb Pascale. På den maksimale Gaussiske perimeteren av konvekse mengder, gjenbesøkt. Preprint (2025) Fedor Nazarov. På den maksimale omkretsen av en konveks mengde i R^n med hensyn til et Gaussisk mål. I Geometric Aspects of Functional Analysis (2001–2002), sidene 169–187. Forelesningsnotater i matematikk, bind 1807, Springer, 2003 Martin Raicz. Et multivariat Berry–Esseen-teorem med eksplisitte konstanter. Bernoulli 25(4A), 2019, 2824–2853
For å være tydelig, hvis jeg sier til DS at han IKKE skal gi opp, tenker den mye hardere, 12 minutter her, og gir en idé om hvordan konstanten kan forbedres. Men koden den genererer feiler. Når jeg tenker meg om, gir den opp. Faktisk ser det kvalitativt ut til å være "korrekt", men får 0,3116, <Grok
Hvis DeepSeeks kode er fast (selv av DeepSeek), produserer den et resultat som konvergerer mot Groks verdi. Så jeg antar at med en ganske enkel REPL ville det ha «lykkes» likevel. Uansett, høyere nytte for Grok her.
137