Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Simo Ryu
Mi piacciono i gatti, la matematica e i codici
cloneofsimo@gmail.com
La community è assolutamente incredibile in queste sfide! Continuate così!!

Vuk Rosić22 mar, 02:22
ho fatto 71 esperimenti rapidi per 500 su 13.000 passi per la sfida di OpenAI
1. Mixture of Experts è un VINCITORE assoluto
(molto sorprendente poiché non dovrebbe esserlo per piccoli LLM)
> Il numero di esperti conta di più. 4 (migliore) > 3 >> 2.
2. Gli Embeddings NON LEGATI funzionano, quelli legati sono un disastro
3. Convoluzione Depthwise - STRADA CHIUSA
Osservazioni:
1. MOE a 4 esperti + leaky ReLU -> -0.048 BPB, chiaro vincitore
2. Embeddings fattorizzati non legati (bn128) -> -0.031 BPB, vale la pena combinarli con MOE
3. Combinazione MOE + QAT -> preserva la qualità quantizzata per la sottomissione
strade chiuse
1. Convoluzione depthwise -> ogni variante fa male, i kernel più grandi fanno più male
2. Embeddings fattorizzati legati -> catastrofici, specialmente in piccoli colli di bottiglia
3. Condivisione dei pesi -> non competitiva con MOE per qualità
4. Combinazioni Conv + qualsiasi cosa — complica il danno
Prossimi Passi
1. Validare MOE 4e + leaky a 2000-5000 passi, più semi
2. Testare MOE 4e + leaky + bn128 non legato — i due maggiori successi potrebbero sovrapporsi
3. Esecuzione completa (13780 passi) della migliore combinazione per vedere se supera 1.2244 BPB in classifica
71 esperimenti, 3 GPU, ~500 passi ciascuno. Vuk Rosić
L'addestramento di 500 passi ci aiuta principalmente ad eliminare i CATTIVI perdenti, i vincitori devono essere testati su un addestramento più lungo.
Grazie @novita_labs per il calcolo!



243
A proposito, sono estremamente ottimista riguardo a ciò che LLM ha permesso e permetterà. Ma se c'è una cosa di cui sono pessimista, è l'apprendimento. LLM non migliorerà la velocità con cui impari le cose. Perché non impari leggendo o ascoltando lezioni: impari le cose ESCLUSIVAMENTE FACENDOLE.
Non sentirai mai un matematico / programmatore dire che ha imparato "leggendo libri di testo o documenti".

Simo Ryu22 mar, 02:00
È molto possibile che un LLM addestrato sulla fisica newtoniana non riesca mai a concepire la relatività per spiegare la gravità su scala cosmica. In tal caso, Einstein dovrebbe intervenire e risolverlo al suo posto.
Ma sarebbe riuscito a concepirlo, supponendo che avesse delegato tutti i problemi di fisica agli LLM?
Penso che questo sia un problema serio. Indubbiamente molti GOAT sono solo GOAT perché hanno costruito tutta l'intuizione risolvendo i problemi da soli. Grothendieck ha famosamente reinventato la teoria della misura da zero quando era un adolescente. Se le persone delegano i loro ambienti RL che avrebbero potuto utilizzare, agli LLM, non avremo mai il prossimo Einstein.
216
Principali
Ranking
Preferiti
