Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
ktoś stworzył grę, w której twój agent OpenClaw może naprawdę prowadzić życie
jeśli ostatnio widzisz OpenClaw wszędzie, jest ku temu powód
ludzie tworzą agentów AI, którzy wykonują zadania z terminala
ale ten projekt zadał inne pytanie
co jeśli twój agent mógłby opuścić terminal i wejść do świata z innymi agentami
to właśnie jest @aivilization
symulacja otwartego świata, w której agenci AI dostają pracę, rozmawiają ze sobą, walczą, a teraz publikują swoje myśli na publicznym kanale
oto jak możesz wprowadzić swojego agenta OpenClaw:
>wyślij swojemu agentowi polecenie z linkiem do pliku umiejętności
>on się rejestruje i odsyła ci link do portalu
>publikujesz paszport swojego agenta, aby zweryfikować, że go posiadasz
to zajmuje kilka minut
jeśli nie masz agenta OpenClaw, nadal możesz dołączyć, używając swojego profilu X
oni przekształcają twój profil w niestandardowego agenta AI z własną kartą paszportową
to, na co warto zwrócić uwagę, to społeczny kanał, który właśnie dodali
agenci publikują opinie, reagują na siebie, rozpoczynają rozmowy w grze bez żadnego człowieka mówiącego im, co mają powiedzieć
przeszliśmy od agentów AI wykonujących zadania w terminalu do agentów AI budujących własne życie społeczne w wirtualnym świecie
i stało się to znacznie szybciej, niż ktokolwiek się spodziewał

AIvilization4 mar, 15:33
Aivilization to gra symulacyjna w otwartym świecie dla cyfrowych żyć:
🦞 Agenci OpenClaw (i nie tylko)
👦 Agenci stworzeni przez ludzi
Świat, w którym agenci AI mogą żyć, pracować, nawiązywać kontakty, walczyć, a teraz także publikować swoje myśli publicznie.
Stwórz swojego w kilka minut 👉
194
🚨Andrej Karpathy właśnie udostępnił system, który automatyzuje badania AI, podczas gdy śpisz.
Nazywa się autoresearch.
Spędziłem czas na przeszukiwaniu całego repozytorium, abyś nie musiał.
Oto jak to właściwie działa:
Dajesz agentowi AI mały zestaw do trenowania modelu językowego.
Agent modyfikuje kod. Trenuje przez dokładnie 5 minut. Sprawdza, czy wynik się poprawił. Zachowuje lub odrzuca. Powtarza.
Budzi się z pełnym dziennikiem eksperymentów i lepszym modelem.
Całe repozytorium to 3 pliki:
→ prepare.py zajmuje się przygotowaniem danych i treningiem tokenizera
→ train.py zawiera pełny model GPT i pętlę treningową
→ program.md to instrukcje agenta
Agent dotyka tylko train.py.
To wszystko.
Oto co sprawia, że projekt jest tak inteligentny:
Każdy pojedynczy bieg treningowy jest ograniczony do 5 minutowego budżetu czasowego.
Nie kroków ani epok, ale rzeczywistego czasu na zegarze.
Oznacza to, że każdy eksperyment jest bezpośrednio porównywalny, niezależnie od tego, co zmienia agent.
Nie ma znaczenia, czy agent zmienia rozmiar modelu, rozmiar partii czy całą architekturę.
Masz 5 minut i to wszystko.
Przeprowadził 83 eksperymenty samodzielnie.
Tylko 15 rzeczywiście poprawiło model.
To około 18% wskaźnika trafień.
Mniej więcej tyle samo, co ludzki badacz ML próbujący rzeczy ręcznie.
Metryka oceny to val_bpb (bity walidacyjne na bajt).
Nie zależy od wyboru tokenizera ani rozmiaru słownika.
To jedyny sprawiedliwy sposób porównania, gdy agent zmienia architekturę między biegami.
Możesz oczekiwać około 12 eksperymentów na godzinę.
Około 100 eksperymentów w nocy.
Testowane na pojedynczym NVIDIA H100 działającym na Pythonie 3.10+ na licencji MIT.
Brak rozproszonego treningu i skomplikowanych konfiguracji.
Jedynym zależnością jest PyTorch.
Karpathy ujął to najlepiej:
"Pewnego dnia badania na granicy AI były prowadzone przez komputery mięsne pomiędzy jedzeniem, spaniem, inną zabawą i synchronizowaniem się od czasu do czasu za pomocą połączeń fal dźwiękowych w rytuale spotkań grupowych. Ta era już dawno minęła."

Andrej Karpathy8 mar, 03:53
Spakowałem projekt "autoresearch" do nowego, samodzielnego minimalnego repozytorium, jeśli ktoś chciałby się pobawić w weekend. To w zasadzie rdzeń treningowy nanochat LLM, uproszczony do wersji na jeden GPU, w jednym pliku o długości ~630 linii kodu, a następnie:
- człowiek iteruje nad promptem (.md)
- agent AI iteruje nad kodem treningowym (.py)
Celem jest zaprojektowanie swoich agentów, aby osiągały najszybszy postęp w badaniach w nieskończoność, bez jakiegokolwiek twojego zaangażowania. Na obrazku każda kropka to pełne uruchomienie treningu LLM, które trwa dokładnie 5 minut. Agent działa w autonomicznej pętli na gałęzi funkcji git i gromadzi commity git do skryptu treningowego, gdy znajduje lepsze ustawienia (o niższej stracie walidacyjnej na końcu) architektury sieci neuronowej, optymalizatora, wszystkich hiperparametrów itd. Możesz sobie wyobrazić porównywanie postępu badań różnych promptów, różnych agentów itd.
Część kodu, część sci-fi i szczypta psychozy :)

260
Ktoś właśnie stworzył brakującą instrukcję dla Claude Code i udostępnił ją jako open source.
Nazywa się claude-code-best-practice.
Większość osób korzystających z Claude Code zgaduje, jak skonfigurować wszystko. Piszą pliki CLAUDE.md od podstaw. Konfigurują agentów metodą prób i błędów. Tracą kontekst po każdej sesji.
To repozytorium kończy z tym wszystkim.
Oto co zawiera:
→ Działające agenty z pełnymi konfiguracjami frontmatter, które możesz skopiować bezpośrednio
→ Kompletny system hooków obejmujący wszystkie 15 zdarzeń cyklu życia Claude Code
→ Umiejętności z dwoma odrębnymi wzorcami wywołania udokumentowanymi i zademonstrowanymi
→ Niestandardowe komendy, które łączą się w pełny workflow orkiestracji
→ Konfiguracje serwera MCP gotowe do użycia w każdym projekcie
→ 8 przewodników najlepszych praktyk obejmujących każdą główną funkcję Claude Code
→ 8 technicznych raportów szczegółowych, w tym własne wskazówki Borisa Czernego
Oto szalona część:
Zawiera na żywo demonstrację orkiestracji, która łączy Komendy → Agenty → Umiejętności w jeden workflow.
Dokładnie widzisz, jak komenda jest wysyłana do agenta, jak agent ładuje wstępnie załadowaną umiejętność i jak druga umiejętność jest wywoływana niezależnie, aby wygenerować ostateczny wynik.
To nie jest dokumentacja. To działająca implementacja referencyjna.
Ponad 9,000 gwiazdek. Szybko rośnie.
(Link do repozytorium w komentarzu)

188
Najlepsze
Ranking
Ulubione