Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dhravya Shah
20. @supermemory hoofdbouwer, solooprichter
al jaren aan het bouwen in deze ruimte en heb nishkarsh ook al jaren gevolgd - gefeliciteerd met de lancering!
aangezien dit in dezelfde ruimte is waar we aan het bouwen zijn, ben ik er diep in gedoken en heb ik gedachten.
de lancering zelf is erg hype-y en is bedoeld om woede te triggeren.
1. het is gepositioneerd als een database, maar is bijna een @supermemory-achtig systeem.
2. hun voorbeeld van "vector db's" die dit niet kunnen, is eigenlijk een vraag van "embedding modellen". en embedding modellen hebben superposities, ze zijn goedkoop en kunnen gemakkelijk verschillen tussen hen afleiden. het is niet moeilijk om claude te vragen een mini-experiment te doen om dit te bewijzen (zie hieronder bijgevoegd).
Wat belangrijk is: kan het bijhouden hoe kennis evolueert? gaat de tijd voorbij?
dit maakte me nieuwsgierig, dus las ik hun paper.
3. hun onderzoeksdocument is hardcoding en gamet de benchmark door verschillende prompts voor elke categorie!!! (zie afbeelding hieronder). Als hun benchmarking vastligt, zal supermemory de SOTA blijven.
4. ze hebben het paper over contextuele retrieval van Anthropic uit 2024 opnieuw uitgevonden en het "de wees-voornaamwoord paradox" genoemd.
5. ze vermelden dat ze een aangepaste "in-memory vector store" gebruiken = bij ongeveer 500GB, moet je meer dan $10k betalen voor alleen het RAM.
6. inferentie wordt te vaak in de pipeline uitgevoerd - wat betekent dat je voor elke LLM-token die je opneemt, 5x meer betaalt dan de tokenkosten voor de grafiek + contextualisatie + opslag.
7. latentie- en kostengetallen zijn nooit gerapporteerd. Mijn onderbuikgevoel is dat de latentie vanwege de architectuur moeite zal hebben op schaal. maar ik kan het niet zeggen - hun product is achter een demo-gate.
8. de benchmarkingcode is niet OSS (voor zover ik kan zien). niet reproduceerbaar + wie weet hoeveel context ze in het model injecteren? wat is de K?
9. anorganische, niet-gepubliceerde advertenties (lees gewoon de citaat-tweets). influencer-accounts met 400k+ volgers zeggen allemaal hetzelfde. mensen blijven hiermee wegkomen @nikitabier lol
ik ben helemaal voor gezonde concurrentie en vooruitgang in deze velden, geniet ervan om goed werk te zien dat door anderen wordt gedaan.
maar het is gemakkelijk om gewoon dingen te zeggen. "niemand zal controleren." het spel op de juiste manier spelen is moeilijk, en iedereen zegt maar wat ze kunnen om indruk te maken op mensen.
TLDR is: je zou dit moeten gebruiken als je 2-5x meer wilt uitgeven voor geen echte marginale verbetering en ongezonde onderzoeks- en bedrijfspraktijken wilt genieten.
bijgevoegd:
1. experiment om de hypothese van vector db's die grijs versus grijs niet begrijpen te weerleggen.
2. een van hun prompts, die gewoon zegt "zeg dat ik het niet weet". ze scoorden 100% :)



Nishkarsh12 mrt, 22:16
We hebben $6,5 miljoen opgehaald om vector databases te elimineren.
Elk systeem vandaag de dag haalt context op dezelfde manier op: vectorzoekopdracht die alles opslaat als platte embeddings en teruggeeft wat "het dichtstbijzijnde" lijkt.
Vergelijkbaar, zeker. Relevant? Bijna nooit.
Embeddings kunnen een Q3-verlengingsclausule niet onderscheiden van een Q1-opzegging als de taal dicht genoeg bij elkaar ligt.
Een vriend van mij vroeg vorige week zijn AI naar een contract, en het gaf een gedetailleerd, perfect geformuleerd antwoord dat uit het bestand van een totaal andere klant was gehaald.
Zodra je met meer dan 10 miljoen documenten te maken hebt, gebeuren deze verwarringen de hele tijd.
De nauwkeurigheid van VectorDB gaat naar de knoppen.
We hebben @hydra_db precies hiervoor gebouwd.
HydraDB bouwt een ontologie-eerste contextgrafiek over je gegevens, kaart relaties tussen entiteiten, begrijpt de 'waarom' achter documenten en volgt hoe informatie in de loop van de tijd evolueert.
Dus wanneer je vraagt naar 'Apple', weet het dat je het hebt over het bedrijf dat je als klant bedient. Niet de vrucht.
Zelfs wanneer de gelijkenisscore van een vector DB 0,94 zegt.
Meer hieronder ⬇️
309
wauw. @solofounding podcast is hier
(EN IK BEN IN DE VIDEO)

weisser3 mrt, 05:37
Announcing the Solo Founders Podcast.
Conversations with founders building the most ambitious companies without co-founders.
First episode drops tomorrow.
270
claude heeft zojuist ons product gevalideerd (gedood) :)
@supermemory's claude code plugin's lancering had deze exacte woorden (leert debugpatronen, voorkeuren, projectcontext).
geweldig om te zien dat de grote laboratoria geheugen adopteren!


Thariq27 feb 2026
We've rolled out a new auto-memory feature.
Claude now remembers what it learns across sessions — your project context, debugging patterns, preferred approaches — and recalls it later without you having to write anything down.
272
Boven
Positie
Favorieten
