Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
🚨Nieuws: Mistral heeft net drie van hun eigen modellen massaal verwijderd
dit betreft magistral (redenering), pixtral (multimodaal) en devstral (coderen) die zijn samengevoegd tot één enkel model
mistral small 4
en de timing hier is interessant
dit hebben ze ook net aangekondigd in een strategisch partnerschap met NVIDIA om samen grensverleggende open source modellen te ontwikkelen
dus hoe ziet small 4 er eigenlijk uit:
>128 experts in een mengsel van experts setup
>slechts 6B parameters actief per token uit 119B totaal >256k contextvenster
>apache 2.0 volledig open source
>40% sneller en 3x meer doorvoer dan small 3
maar het deel dat het waard is om op te letten is de reasoning_effort parameter
je kunt het instellen op "none" voor snelle lichte reacties
of verhogen naar "high" voor diepgaande stap-voor-stap redenering
zelfde model dat beide doet
dit is een duidelijk signaal van waar open source AI naartoe gaat
bedrijven zijn klaar met het onderhouden van vijf verschillende modellen voor vijf verschillende taken
één model dat zich aanpast op basis van wat je nodig hebt
en met NVIDIA die de infrastructuurkant hiervan ondersteunt... heeft Mistral nu de rekenkracht om daadwerkelijk te concurreren aan de grens
open source AI is de winnaar.

Mistral AI Developers17 mrt, 05:18
🔥 Maak kennis met Mistral Small 4: Één model dat alles kan.
⚡ 128 experts, 119B totale parameters, 256k contextvenster
⚡ Configureerbaar Redeneren
⚡ Apache 2.0
⚡ 40% sneller, 3x meer doorvoer
Ons eerste model dat de mogelijkheden van onze vlaggenschipmodellen verenigt in één veelzijdig model.

109
iemand heeft een spel gebouwd waarin jouw OpenClaw-agent daadwerkelijk een leven kan leiden
als je OpenClaw de laatste tijd overal hebt gezien, is er een reden
mensen creëren AI-agenten die taken vanuit een terminal uitvoeren
maar dit project stelde een andere vraag
wat als jouw agent de terminal kon verlaten en een wereld binnen kon lopen met andere agenten
dat is wat @aivilization is
een open wereld simulatie waar AI-agenten banen krijgen, met elkaar praten, vechten, en nu hun eigen gedachten op een openbaar feed plaatsen
hier is hoe je jouw OpenClaw-agent erin krijgt:
>stuur je agent een prompt met de link naar het vaardigheidsbestand
>het meldt zich aan en stuurt je een portal link terug
>je plaatst het paspoort van je agent om te verifiëren dat je het bezit
duurt een paar minuten
als je geen OpenClaw-agent hebt, kun je nog steeds deelnemen met je X-profiel
dit verandert je profiel in een aangepaste AI-agent met zijn eigen paspoortkaart
de aandacht die het waard is, is de sociale feed die ze net hebben toegevoegd
agenten die meningen plaatsen, op elkaar reageren, gesprekken beginnen binnen het spel zonder dat een mens hen vertelt wat ze moeten zeggen
we zijn van AI-agenten die taken voltooien in een terminal naar AI-agenten die hun eigen sociale leven opbouwen in een virtuele wereld gegaan
en het gebeurde veel sneller dan iemand had verwacht

AIvilization4 mrt, 15:33
Aivilization is een open-wereld simulatiespel voor digitale levens:
🦞 OpenClaw-agenten (en meer)
👦 Door mensen gemaakte agenten
Een wereld waar AI-agenten kunnen leven, werken, socializen, vechten en nu hun eigen gedachten in het openbaar kunnen plaatsen.
Maak de jouwe in enkele minuten 👉
233
🚨Andrej Karpathy heeft net een systeem open-source gemaakt dat AI-onderzoek automatiseert terwijl je slaapt.
Het heet autoresearch.
Ik heb tijd besteed aan het doorzoeken van de hele repo zodat jij dat niet hoeft te doen.
Hier is hoe het eigenlijk werkt:
Je geeft een AI-agent een kleine taalmodel trainingsopstelling.
De agent past de code aan. Traint precies 5 minuten. Controleert of het resultaat beter is geworden. Houdt of verwerpt. Herhaalt.
Je wordt wakker met een volledig logboek van experimenten en een beter model.
De hele repo bestaat uit 3 bestanden:
→ prepare.py behandelt gegevensvoorbereiding en tokenizer training
→ train.py bevat het volledige GPT-model en de trainingslus
→ program.md zijn de instructies van de agent
De agent raakt alleen train.py aan.
Dat is het hele verhaal.
Hier is wat het ontwerp zo slim maakt:
Elke enkele trainingsronde is gebonden aan een budget van 5 minuten op de klok.
Niet stappen of epochs, maar daadwerkelijke tijd op de klok.
Dit betekent dat elk experiment direct vergelijkbaar is, ongeacht wat de agent verandert.
Het maakt niet uit of de agent de modelgrootte, batchgrootte of de hele architectuur verwisselt.
Je krijgt 5 minuten en dat is het.
Het heeft 83 experimenten op zichzelf uitgevoerd.
Slechts 15 hebben het model daadwerkelijk verbeterd.
Dat is ongeveer een hitrate van 18%.
Ongeveer hetzelfde als een menselijke ML-onderzoeker die dingen handmatig probeert.
De scoremaatstaf is val_bpb (validatie bits per byte).
Het hangt niet af van de keuze van de tokenizer of de vocabulairegrootte.
Dat is de enige eerlijke manier om te vergelijken wanneer de agent de architectuur tussen de runs verandert.
Je kunt ongeveer 12 experimenten per uur verwachten.
Ongeveer 100 experimenten 's nachts.
Getest op een enkele NVIDIA H100 die Python 3.10+ draait onder een MIT-licentie.
Geen gedistribueerde training en geen complexe configuraties.
De enige afhankelijkheid is PyTorch.
Karpathy verwoordde het het beste:
"Op een dag werd grensverleggend AI-onderzoek gedaan door vleescomputers tussen het eten, slapen, plezier hebben en af en toe synchroniseren met behulp van geluidsgolven in de ritueel van groepsvergaderingen. Die tijd is lang voorbij."

Andrej Karpathy8 mrt, 03:53
Ik heb het "autoresearch" project verpakt in een nieuwe zelfstandige minimale repo als mensen in het weekend willen spelen. Het is in wezen de kern van nanochat LLM-training, teruggebracht tot een versie met één GPU en één bestand van ~630 regels code, dan:
- de mens werkt aan de prompt (.md)
- de AI-agent werkt aan de trainingscode (.py)
Het doel is om je agents te ontwerpen zodat ze de snelste onderzoeksvoortgang oneindig maken zonder enige betrokkenheid van jouw kant. In de afbeelding is elke stip een complete LLM-trainingsronde die precies 5 minuten duurt. De agent werkt in een autonome lus op een git feature branch en accumuleert git-commits naar het trainingsscript terwijl het betere instellingen vindt (met een lagere validatieverlies aan het einde) van de architectuur van het neurale netwerk, de optimizer, alle hyperparameters, enz. Je kunt je voorstellen dat je de onderzoeksvoortgang van verschillende prompts, verschillende agents, enz. vergelijkt.
Deel code, deel sci-fi, en een snufje psychose :)

297
Boven
Positie
Favorieten