Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Akshay 🚀
Forenkling av LLM-er, AI-agenter, RAG og maskinlæring for deg! • Medgründer @dailydoseofds_• BITS Pilani • 3 patenter • eks-AI-ingeniør @ LightningAI
Det de ikke forteller deg om vibe-koding:
• Moltbook eksponerte 1,5 millioner autentiseringstokens. Eieren hadde ikke skrevet en eneste linje kode.
• Tea App lekket 72 000 offentlige ID-er. Databasen var bare åpen, ingen avansert hacking nødvendig.
• En forsker tok kontroll over en journalists datamaskin gjennom sitt eget vibe-kodede spill, uten et eneste klikk.
Koden fungerte fint i alle tre tilfeller, testene bestod, anmeldelsene så rene ut, og ingenting ga opplysninger.
Det er problemet ingen snakker om.
Teams sendes raskere enn noen gang. AI skriver koden. CI fanger opp byggefeil. Tester fanger regresjoner. Observabilitet fanger opp strømbrudd.
Men ingen stiller det ene spørsmålet som faktisk betyr noe:
Hva kan en angriper gjøre med dette, akkurat nå?
Fordi flaskehalsen ikke lenger er å skrive kode. Det handler om å forstå hva koden faktisk eksponerer når den er live.
PR-gjennomganger overser autentiseringstilfeller. Enhetstester undersøker ikke ødelagt tilgangskontroll. Iscenesettelsesmiljøer simulerer ikke motsetningsatferd. Og forretningslogiske feil ser helt fine ut helt til noen bestemmer seg for å bryte dem med vilje.
Strix er et åpen kildekode-verktøy som fyller dette gapet.
Den gjennomgår kjøreappen din slik en angriper ville gjort:
- Crawler appen og kartlegger hver eksponert rute og flyt
- Prober misbruker stier dynamisk, ikke bare under byggetid
- Returnerer funn med konseptbevis og foreslåtte løsninger
Strix ble benchmarket mot 200 ekte selskaper og åpne kildekode-repos, hvor det fant 600+ verifiserte sårbarheter inkludert tildelte CVE-er.
Det er designet for å passe inn i hvordan moderne team allerede fungerer. Kjør det før en lansering, etter store endringer, eller kontinuerlig etter hvert som appen utvikler seg.
Hvis teamet ditt leverer AI-generert kode og du for øyeblikket ikke har en måte å svare på «hva eksponerer dette egentlig», er det verdt å se nærmere på.
GitHub-lenke i neste tweet.
436
K-Means er enkelt. Å gjøre det raskt på GPU er ikke det.
Flash-KMeans er en IO-bevisst implementering av eksakte k-means som tenker nytt om algoritmen rundt moderne GPU-flaskehalser.
Ved å angripe minneflaskehalsene direkte, oppnår Flash-KMeans:
- 30x hastighetsøkning over cuML
- 200x hastighetsøkning over FAISS
Bruker nøyaktig samme algoritme, bare utviklet for dagens maskinvare.
På millionskala kan Flash-KMeans fullføre en k-means iterasjon på millisekunder.
Her er hvorfor dette er viktig i dag:
K-means har alltid vært en offline-primitiv. Noe du kjører én gang for å forhåndsbehandle data og gå videre. Disse hastighetsøkningene endrer det.
↳ Vektordatabaser som FAISS bruker k-means for å bygge søkeindekser. Raskere k-means betyr at du kan re-indeksere dynamisk etter hvert som data endres, ikke batche det over natten.
↳ LLM-kvantiseringsmetoder trenger k-means for å finne kodebøker for optimal vekt, per lag, gjentatte ganger. Det som tar timer, kan nå ta minutter.
↳ MoE-modeller trenger rask token-ruting ved inferenstidspunkt. Millisekund k-means gjør det mulig å kjøre dette inne i inferenssløyfen, ikke bare i forbehandling.
200x over FAISS er tallet man bør internalisere. FAISS er bransjestandarden. De fleste produksjonsvektorsøkesystemer ligger oppå den.
Lenke til artikkelen og koden i neste tweet!
244
Topp
Rangering
Favoritter

