Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 DERNIÈRE MINUTE : Des chercheurs de Meta ont montré à un modèle 2 millions d'heures de vidéo. Pas d'étiquettes. Pas de manuel de physique. Pas de supervision du tout.
Ensuite, ils lui ont montré un extrait où un objet disparaît derrière un mur et ne revient jamais.
Le modèle l'a signalé comme incorrect. 🤯
Il avait appris la permanence des objets. La cohérence des formes. La dynamique des collisions. Entièrement en regardant.
Ce qui est encore plus surprenant : même un modèle entraîné sur une seule semaine de vidéos uniques a atteint des performances supérieures à la chance en matière de détection de violations de la physique. Ce n'est pas un coup de chance. C'est un principe.
L'idée clé de l'article : cela ne fonctionne que lorsque le modèle prédit dans un espace de représentation appris, et non dans des pixels bruts. Le modèle doit construire un modèle du monde interne, compressé et abstrait, et prédire par rapport à cela. La prédiction dans l'espace pixel échoue. Les LLM multimodaux qui raisonnent par le texte échouent. Seule l'architecture qui construit des représentations abstraites tout en prédisant des entrées sensorielles manquantes, quelque chose de proche de la façon dont les neuroscientifiques décrivent le codage prédictif, acquiert réellement l'intuition physique.
Ce qui signifie que les connaissances fondamentales que les chercheurs pensaient devoir être câblées peuvent simplement être l'observation à grande échelle. Les bébés apprennent la permanence des objets en regardant des choses. Il s'avère que le même principe s'applique ici.
Maintenant, voici la partie dont personne ne parle.
Si l'observation seule enseigne à un modèle les règles du monde physique, que se passe-t-il lorsque vous appliquez le même principe aux systèmes de production ?
La production a aussi de la physique.
Pas la gravité. Mais des règles tout aussi cohérentes : lesquelles des déploiements causent des incidents à 3h du matin, quelles combinaisons de configurations interagissent dangereusement, quels chemins de code se dégradent silencieusement sous charge, quels changements de service causent des échecs à deux sauts de distance. Ces motifs sont intégrés dans des milliers de trajectoires. Poussées de code, changements de métriques, tickets clients, chronologies d'incidents. Largement non observés. Certainement non étiquetés.
Personne n'écrit un manuel d'exécution qui dit "si le service A se déploie avec le drapeau X actif et que le service B est au-dessus de 70 % de CPU, la latence du service C se dégrade de 40 % en 6 minutes." Mais ce motif existe. Il est répétable. Et il se trouve dans vos données d'observabilité en ce moment, invisible parce que personne n'a construit un modèle pour le trouver.
C'est le fossé que @playerzeroai essaie de combler. Pas un autre exécuteur de tests. Pas un autre seuil d'alerte. Un modèle du monde de production qui apprend quelles choses se cassent à partir de l'observation accumulée, de la même manière que le modèle de Meta a appris la gravité. Il ne vérifie pas votre couverture de test. Il prédit les trajectoires d'échec.
Une semaine de vidéo a suffi pour apprendre que les objets solides ne passent pas à travers les murs.
La question est de savoir combien d'observation de production votre système a besoin avant qu'un modèle commence à prédire où le vôtre va se casser ensuite.
...

Meilleurs
Classement
Favoris
