Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Dhravya Shah
20. @supermemory główny budowniczy, jedyny założyciel
buduję w tej przestrzeni od lat i śledzę nishkarsha od lat - gratulacje z okazji uruchomienia!
ponieważ to jest w tej samej przestrzeni, w której budujemy, zagłębiłem się w to i mam przemyślenia.
samo uruchomienie jest bardzo huczne i ma na celu wywołanie rage bait
1. jest pozycjonowane jako baza danych, ale jest prawie systemem podobnym do @supermemory
2. ich przykład "vector dbs" nie będących w stanie tego zrobić, to naprawdę pytanie o "modele osadzenia". a modele osadzenia mają superpozycje, są tanie i łatwo potrafią wywnioskować różnice między nimi. nie jest trudno poprosić claude'a o przeprowadzenie mini eksperymentu, aby to udowodnić (załączone poniżej).
Co ma znaczenie: czy potrafi śledzić, jak ewoluuje wiedza? czas mija?
to mnie zaciekawiło, więc przeczytałem ich pracę
3. ich praca badawcza to hardcoding i oszukiwanie benchmarku przez różne podpowiedzi dla każdej kategorii!!! (zobacz obrazek poniżej). Jeśli ich benchmarking jest stały, supermemory pozostanie SOTA.
4. wynaleźli pracę o kontekstowym wyszukiwaniu od Anthropic z 2024 roku i nazwali to "paradoksem porzuconego zaimka"
5. wspominają, że używają niestandardowego "wewnętrznego magazynu wektorów" = przy około 500 GB, będziesz musiał zapłacić więcej niż 10 tys. dolarów tylko za RAM.
6. wnioskowanie jest uruchamiane zbyt wiele razy w pipeline - co oznacza, że za każdy token LLM, który wprowadzasz, zapłacisz 5x więcej niż koszt tokena za grafikę + kontekstualizację + przechowywanie.
7. liczby dotyczące opóźnienia i kosztów nigdy nie zostały zgłoszone. Moje przeczucie jest takie, że z powodu architektury, opóźnienie będzie miało problemy na dużą skalę. ale nie mogę powiedzieć - ich produkt jest za bramą demo.
8. kod benchmarkujący nie jest OSS (z tego, co mogę powiedzieć). nie do powtórzenia + kto wie, ile kontekstu wprowadzają do modelu? jakie jest K?
9. nieorganiczne, nieujawnione reklamy (wystarczy przeczytać cytowane tweety). konta influencerów z ponad 400 tys. obserwujących mówiące to samo. ludzie wciąż się z tego wykręcają @nikitabier lol
ejestem za zdrową konkurencją i postępem w tej dziedzinie, cieszę się, widząc dobrą pracę wykonywaną przez innych.
ale łatwo jest po prostu mówić rzeczy. "nikt nie sprawdzi." granie w grę w odpowiedni sposób jest trudne, a wszyscy po prostu mówią, co mogą, aby zaimponować ludziom.
TLDR to: powinieneś to używać, jeśli chcesz wydać 2-5x więcej bez rzeczywistej marginalnej poprawy i cieszyć się niezdrowymi praktykami badawczymi i biznesowymi.
załączone:
1. eksperyment mający na celu obalenie hipotezy, że wektory dbs nie rozumieją szarości vs szarości
2. jedna z ich podpowiedzi, która po prostu mówi "powiedz, że nie wiem". zdobyli 100% :)



Nishkarsh10 godz. temu
Zebraliśmy 6,5 miliona dolarów, aby zlikwidować bazy danych wektorowych.
Każdy system dzisiaj pozyskuje kontekst w ten sam sposób: wyszukiwanie wektorowe, które przechowuje wszystko jako płaskie osadzenia i zwraca to, co "wydaje się" najbliższe.
Podobne, pewnie. Istotne? Prawie nigdy.
Osadzenia nie potrafią odróżnić klauzuli odnowienia Q3 od powiadomienia o wypowiedzeniu Q1, jeśli język jest wystarczająco zbliżony.
Mój przyjaciel zapytał swoje AI o umowę w zeszłym tygodniu, a to zwróciło szczegółową, doskonale skonstruowaną odpowiedź wyciągniętą z zupełnie innego pliku klienta.
Gdy masz do czynienia z ponad 10 milionami dokumentów, takie pomyłki zdarzają się cały czas.
Dokładność VectorDB spada na psy.
Zbudowaliśmy @hydra_db właśnie w tym celu.
HydraDB buduje kontekstowy graf ontologiczny nad twoimi danymi, mapuje relacje między podmiotami, rozumie 'dlaczego' za dokumentami i śledzi, jak informacje ewoluują w czasie.
Więc kiedy pytasz o 'Apple', wie, że masz na myśli firmę, której jesteś klientem. A nie owoc.
Nawet gdy wynik podobieństwa bazy danych wektorowej wynosi 0,94.
Więcej poniżej ⬇️
48
wow. @solofounding podcast jest tutaj
(ORAZ JESTEM W WIDEO)

weisser3 mar, 05:37
Announcing the Solo Founders Podcast.
Conversations with founders building the most ambitious companies without co-founders.
First episode drops tomorrow.
165
claude właśnie zatwierdził (zabił) nasz produkt :)
Uruchomienie wtyczki kodu claude @supermemory miało te dokładne słowa (uczy się wzorców debugowania, preferowanych podejść, kontekstu projektu).
świetnie widzieć, jak duże laboratoria przyjmują pamięć!


Thariq27 lut 2026
Wprowadziliśmy nową funkcję automatycznej pamięci.
Claude teraz zapamiętuje to, czego się uczy w trakcie sesji — kontekst twojego projektu, wzorce debugowania, preferowane podejścia — i przypomina to później, bez potrzeby zapisywania czegokolwiek.
173
Najlepsze
Ranking
Ulubione
