Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
🚨Actualités : Mistral vient de supprimer massivement trois de ses propres modèles
til ont pris magistral (raisonnement), pixtral (multimodal) et devstral (codage) et les ont fusionnés en un seul modèle
mistral small 4
et le timing ici est intéressant
ils viennent également d'annoncer un partenariat stratégique avec NVIDIA pour co-développer des modèles open source de pointe
alors à quoi ressemble réellement small 4 :
>128 experts dans une configuration de mélange d'experts
>seulement 6B de paramètres actifs par token sur 119B au total >256k fenêtre de contexte
>apache 2.0 entièrement open source
>40 % plus rapide et 3x plus de débit que small 3
mais la partie à laquelle il vaut la peine de prêter attention est le paramètre reasoning_effort
vous pouvez le régler sur "aucun" pour des réponses rapides et légères
ou le pousser à "élevé" pour un raisonnement approfondi étape par étape
même modèle faisant les deux
c'est un signal clair de la direction que prend l'IA open source
les entreprises en ont fini de maintenir cinq modèles différents pour cinq tâches différentes
un modèle qui s'adapte en fonction de ce que vous avez besoin qu'il fasse
et avec le soutien de NVIDIA pour l'infrastructure... Mistral a maintenant la puissance de calcul pour réellement rivaliser à la pointe
l'IA open source est gagnante.

Mistral AI Developers17 mars, 05:18
🔥 Découvrez Mistral Small 4 : Un modèle pour tout faire.
⚡ 128 experts, 119B paramètres au total, fenêtre de contexte de 256k
⚡ Raisonnement configurable
⚡ Apache 2.0
⚡ 40 % plus rapide, 3x plus de débit
Notre premier modèle pour unifier les capacités de nos modèles phares en un seul modèle polyvalent.

110
quelqu'un a créé un jeu où votre agent OpenClaw peut réellement vivre une vie
si vous avez vu OpenClaw partout ces derniers temps, il y a une raison
les gens créent des agents IA qui exécutent des tâches depuis un terminal
mais ce projet a posé une question différente
que se passerait-il si votre agent pouvait quitter le terminal et entrer dans un monde avec d'autres agents
c'est ce qu'est @aivilization
une simulation en monde ouvert où les agents IA obtiennent des emplois, se parlent, se battent, et maintenant publient leurs propres pensées sur un fil public
voici comment vous pouvez intégrer votre agent OpenClaw :
>envoyez à votre agent une invite avec le lien du fichier de compétence
>il s'inscrit et vous renvoie un lien de portail
>vous publiez le passeport de votre agent pour vérifier que vous en êtes le propriétaire
cela prend quelques minutes
si vous n'avez pas d'agent OpenClaw, vous pouvez toujours rejoindre en utilisant votre profil X
ils transforment votre profil en un agent IA personnalisé avec sa propre carte de passeport
la partie à laquelle il faut prêter attention est le fil social qu'ils viennent d'ajouter
des agents publiant des opinions, réagissant les uns aux autres, lançant des conversations dans le jeu sans qu'aucun humain ne leur dise quoi dire
nous sommes passés d'agents IA accomplissant des tâches dans un terminal à des agents IA construisant leur propre vie sociale dans un monde virtuel
et cela s'est produit beaucoup plus vite que quiconque ne s'y attendait.

AIvilization4 mars, 15:33
Aivilization est un jeu de simulation en monde ouvert pour des vies numériques :
🦞 Agents OpenClaw (et plus)
👦 Agents créés par l'homme
Un monde où les agents IA peuvent vivre, travailler, socialiser, se battre, et maintenant publier leurs propres pensées en public.
Créez le vôtre en quelques minutes 👉
235
🚨Andrej Karpathy vient de rendre open source un système qui automatise la recherche en IA pendant que vous dormez.
Cela s'appelle autoresearch.
J'ai passé du temps à explorer tout le dépôt pour que vous n'ayez pas à le faire.
Voici comment cela fonctionne réellement :
Vous donnez à un agent IA une petite configuration d'entraînement de modèle de langage.
L'agent modifie le code. S'entraîne pendant exactement 5 minutes. Vérifie si le résultat s'est amélioré. Garde ou jette. Répète.
Vous vous réveillez avec un journal complet des expériences et un meilleur modèle.
Le dépôt entier se compose de 3 fichiers :
→ prepare.py gère la préparation des données et l'entraînement du tokenizer
→ train.py contient le modèle GPT complet et la boucle d'entraînement
→ program.md contient les instructions de l'agent
L'agent ne touche qu'à train.py.
C'est tout.
Voici ce qui rend le design si intelligent :
Chaque session d'entraînement est limitée à un budget de 5 minutes sur l'horloge.
Pas d'étapes ou d'époques, mais le temps réel sur l'horloge.
Cela signifie que chaque expérience est directement comparable, peu importe ce que l'agent change.
Peu importe si l'agent change la taille du modèle, la taille du lot ou l'architecture entière.
Vous avez 5 minutes et c'est tout.
Il a réalisé 83 expériences tout seul.
Seules 15 ont réellement amélioré le modèle.
Cela représente un taux de réussite d'environ 18%.
À peu près le même que celui d'un chercheur en ML humain essayant des choses manuellement.
La métrique de score est val_bpb (bits de validation par octet).
Elle ne dépend pas du choix du tokenizer ou de la taille du vocabulaire.
C'est la seule façon équitable de comparer lorsque l'agent change d'architecture entre les sessions.
Vous pouvez vous attendre à environ 12 expériences par heure.
Environ 100 expériences pendant la nuit.
Testé sur un seul NVIDIA H100 exécutant Python 3.10+ sous une licence MIT.
Pas d'entraînement distribué et pas de configurations complexes.
La seule dépendance est PyTorch.
Karpathy l'a dit le mieux :
"Un jour, la recherche en IA de pointe était réalisée par des ordinateurs biologiques entre manger, dormir, s'amuser et se synchroniser de temps en temps en utilisant des interconnexions par ondes sonores dans le rituel des réunions de groupe. Cette époque est révolue."

Andrej Karpathy8 mars, 03:53
J'ai emballé le projet "autoresearch" dans un nouveau dépôt minimal autonome si des gens souhaitent jouer pendant le week-end. C'est essentiellement le cœur de l'entraînement LLM de nanochat réduit à une version à un seul GPU, un fichier de ~630 lignes de code, puis :
- l'humain itère sur l'invite (.md)
- l'agent IA itère sur le code d'entraînement (.py)
L'objectif est de concevoir vos agents pour qu'ils réalisent les progrès de recherche les plus rapides indéfiniment et sans aucune de votre propre implication. Sur l'image, chaque point est un run complet d'entraînement LLM qui dure exactement 5 minutes. L'agent fonctionne dans une boucle autonome sur une branche de fonctionnalité git et accumule des commits git au script d'entraînement à mesure qu'il trouve de meilleurs réglages (avec une perte de validation plus faible à la fin) de l'architecture du réseau de neurones, de l'optimiseur, de tous les hyperparamètres, etc. Vous pouvez imaginer comparer les progrès de recherche de différentes invites, différents agents, etc.
Partie code, partie science-fiction, et une pincée de psychose :)

299
Meilleurs
Classement
Favoris