Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Lior Alexander
Bevakar de senaste utvecklingsnyheterna inom AI • Founder @AlphaSignalAI (250 000 användare)
ML Eng sedan 2017 • Före detta Mila
Cursor Automations löser problemet som agentisk kodning skapade.
Ingenjörer kan nu hantera 10+ kodningsagenter samtidigt, men mänsklig uppmärksamhet blev flaskhalsen.
Du kan inte passa ett dussin agenter samtidigt som du gör ditt faktiska jobb.
Automationer vänder på modellen: istället för att du startar agenter, gör händelser det. En sammanslagen PR utlöser en säkerhetsrevision.
En PagerDuty-varning startar en agent som söker loggar och föreslår en lösning. En Cron jobbgranskning testar täckningsluckor varje morgon.
Varje automation körs i en isolerad molnsandlåda med full tillgång till de verktyg du konfigurerar via MCP (ett standardprotokoll som låter agenter ansluta till Slack, Linear, GitHub, Datadog eller vilket anpassat API som helst).
Agenten följer dina instruktioner, verifierar sitt eget arbete och lär sig från tidigare körningar genom ett inbyggt minnessystem.
Cursor kör hundratals sådana per timme internt.
Deras säkerhetsautomation fångade flera sårbarheter genom att granska varje push till main utan att blockera PR:er.
Detta låser upp fyra saker som inte var praktiska tidigare:
1. Kontinuerlig kodgranskning på ett djup som människor hoppar över
2. Incidenthantering som börjar undersöka innan du blir uppkallad
3. Underhållsarbete som sker enligt schema, inte när någon minns
4. Kunskapssyntes över verktyg
De kommande två åren kommer att definieras av vem som bygger den bästa fabriken, inte den bästa koden.
De företag som rör sig snabbast är inte de med de bästa ingenjörerna.
Det är de vars ingenjörer lägger tid på att konfigurera automationer istället för att skriva kod.

Cursor21 timmar sedan
Vi introducerar cursor automations för att bygga alltid på-agenter.
188
En modell med 24 miljarder parametrar kördes bara på en laptop och valde rätt verktyg på under en halv sekund.
Den verkliga historien är att verktygsanropsagenter till slut blev tillräckligt snabba för att kännas som mjukvara.
Liquid byggde LFM2-24B-A2B med en hybridarkitektur som blandar konvolutionsblock med grupperad frågeuppmärksamhet i ett förhållande på 1:3.
Endast 2,3 miljarder parametrar aktiveras per token, trots att hela modellen rymmer 24 miljarder.
Det där sparsamma aktiveringsmönstret är anledningen till att det får plats med 14,5 GB minne och skickar verktyg på 385 millisekunder på en M4 Max.
Arkitekturen designades genom hårdvaru-i-loop-sökning, vilket innebär att de optimerade modellstrukturen genom att testa den direkt på de chip den skulle köras på. Inget molnöversättningslager.
Ingen API tur och retur. Modellen, verktygen och din data stannar kvar på maskinen.
Detta låser upp tre saker som tidigare var opraktiska:
1. Reglerade branscher kan köra agenter på anställdas bärbara datorer utan att data lämnar enheten.
2. Utvecklare kan prototypa arbetsflöden för flera verktyg utan att hantera API-nycklar eller hastighetsbegränsningar.
3. Säkerhetsteam får fullständiga revisionsspår utan leverantörssubprocessorer i loopen.
Modellen nådde 80 % noggrannhet vid enkelstegsval av verktyg över 67 verktyg fördelade på 13 MCP-servrar.
Om denna prestation håller i stor skala behöver två antaganden uppdateras.
För det första är agenter på enheten inte längre en kompromiss för batteriets livslängd; De är en efterlevnadsfunktion.
För det andra är flaskhalsen i agentiska arbetsflöden på väg från modellkapacitet till verktygsekosystemets mognad.
241
Topp
Rankning
Favoriter
