Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Julian Schrittwieser
Membro dello staff tecnico presso Anthropic AlphaGo, AlphaZero, MuZero, AlphaCode, AlphaTensor, AlphaProof Gemini RL Prev Principal Research Engineer presso DeepMind
Fast Opus è incredibile, la prima volta che l'ho usato non riuscivo a smettere di programmare per ore - onestamente sembra una superpotenza, puoi modellare la tua base di codice tanto rapidamente quanto riesci a pensare.
Davvero incredibile, nulla mi ha fatto sentire l'AGI di più, provalo assolutamente!

Claude8 feb 2026
I nostri team hanno lavorato con una versione di Claude Opus 4.6 che è 2,5 volte più veloce.
Ora la rendiamo disponibile come esperimento preliminare tramite Claude Code e la nostra API.
195
Mi sono divertito molto a chiacchierare con @mattturck del podcast MAD questa settimana! Abbiamo parlato delle tendenze in AI, RL e del perché sblocca gli Agenti, della scalabilità e molto altro ancora:
link a ciò di cui abbiamo parlato e ulteriori letture:

Matt Turck24 ott 2025
Non riesci a capire l'esponenziale, di nuovo?
La mia conversazione con @Mononofu - Julian Schrittwieser (@AnthropicAI, AlphaGo Zero, MuZero) - su Move 37, Scaling RL, Premio Nobel per l'AI e il confine dell'AI:
00:00 - Apertura a freddo: “Non vediamo alcun rallentamento.”
00:32 - Introduzione — Incontra Julian
01:09 - L'“esponenziale” dall'interno dei laboratori di frontiera
04:46 - 2026–2027: agenti che lavorano un'intera giornata; ampiezza a livello esperto
08:58 - Benchmark vs realtà: lavoro a lungo termine, GDP-Val, valore per l'utente
10:26 - Move 37 — cosa è realmente successo e perché è stato importante
13:55 - Scienza innovativa: AlphaCode/AlphaTensor → quando l'AI guadagna un Nobel?
16:25 - Discontinuità vs progresso fluido (e segnali di avvertimento)
19:08 - La pre-formazione + RL ci porta lì? (dibattiti sull'AGI a parte)
20:55 - “RL da zero” di Sutton? Il parere di Julian
23:03 - Il percorso di Julian: Google → DeepMind → Anthropic
26:45 - AlphaGo (impara + cerca) in termini semplici
30:16 - AlphaGo Zero (nessun dato umano)
31:00 - AlphaZero (un algoritmo: Go, scacchi, shogi)
31:46 - MuZero (pianificazione con un modello del mondo appreso)
33:23 - Lezioni per gli agenti di oggi: ricerca + apprendimento su larga scala
34:57 - Gli LLM hanno già modelli del mondo impliciti?
39:02 - Perché il RL sugli LLM ha impiegato tempo (stabilità, cicli di feedback)
41:43 - Calcolo e scalabilità per RL — ciò che vediamo finora
42:35 - Frontiera delle ricompense: preferenze umane, rubriche, RLVR, ricompense di processo
44:36 - Dati di addestramento RL & il “volano” (e perché la qualità è importante)
48:02 - RL & Agenti 101 — perché il RL sblocca la robustezza
50:51 - I costruttori dovrebbero usare RL come servizio? O solo strumenti + prompt?
52:18 - Cosa manca per agenti affidabili (capacità vs ingegneria)
53:51 - Evals & Goodhart — benchmark interni vs esterni
57:35 - Interpretabilità meccanicistica & “Golden Gate Claude”
1:00:03 - Sicurezza & allineamento in Anthropic — come si manifesta nella pratica
1:03:48 - Lavori: complementarità umano–AI (vantaggio comparativo)
1:06:33 - Disuguaglianza, politica e il caso per una produttività 10× → abbondanza
1:09:24 - Pensieri finali
757
Principali
Ranking
Preferiti
