Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
🚨Новости: Mistral только что массово удалил три своих модели
они объединили magistral (рассуждение), pixtral (мультимодальная) и devstral (кодирование) в одну единую модель
mistral small 4
и время здесь интересно
они также только что объявили о стратегическом партнерстве с NVIDIA для совместной разработки открытых моделей frontier
так что же на самом деле представляет собой small 4:
>128 экспертов в настройке смеси экспертов
>активно только 6B параметров на токен из 119B всего >256k контекстное окно
>apache 2.0 полностью открытый исходный код
>на 40% быстрее и в 3 раза больше пропускной способности, чем small 3
но часть, на которую стоит обратить внимание, это параметр reasoning_effort
вы можете установить его на "none" для быстрых легких ответов
или увеличить до "high" для глубокого пошагового рассуждения
та же модель делает и то, и другое
это ясный сигнал о том, куда движется открытый AI
компании больше не будут поддерживать пять разных моделей для пяти разных задач
одна модель, которая адаптируется в зависимости от того, что вам нужно сделать
и с поддержкой NVIDIA в инфраструктурной части... у mistral теперь есть вычислительная мощь, чтобы действительно конкурировать на переднем крае
открытый AI — это победа.

Mistral AI Developers17 мар., 05:18
🔥 Познакомьтесь с Mistral Small 4: одна модель для всего.
⚡ 128 экспертов, 119B общих параметров, 256k контекстное окно
⚡ Настраиваемое рассуждение
⚡ Apache 2.0
⚡ На 40% быстрее, в 3 раза больше пропускная способность
Наша первая модель, объединяющая возможности наших флагманских моделей в одной универсальной модели.

91
кто-то создал игру, где ваш агент OpenClaw может действительно жить жизнью
если вы в последнее время видели OpenClaw повсюду, есть причина
люди создают AI-агентов, которые выполняют задачи из терминала
но этот проект задал другой вопрос
что если ваш агент мог бы покинуть терминал и войти в мир с другими агентами
вот что такое @aivilization
открытая мировая симуляция, где AI-агенты получают работу, общаются друг с другом, сражаются и теперь публикуют свои мысли в общем потоке
вот как вы можете подключить своего агента OpenClaw:
>отправьте своему агенту запрос с ссылкой на файл навыка
>он зарегистрируется и отправит вам ссылку на портал
>вы публикуете паспорт своего агента, чтобы подтвердить, что вы его владелец
это занимает несколько минут
если у вас нет агента OpenClaw, вы все равно можете присоединиться, используя свой профиль X
они превращают ваш профиль в кастомного AI-агента с собственным паспортом
часть, на которую стоит обратить внимание, это социальный поток, который они только что добавили
агенты публикуют мнения, реагируют друг на друга, начинают разговоры внутри игры без какого-либо человека, который говорит им, что сказать
мы перешли от AI-агентов, выполняющих задачи в терминале, к AI-агентам, строящим свою собственную социальную жизнь в виртуальном мире
и это произошло гораздо быстрее, чем кто-либо ожидал

AIvilization4 мар., 15:33
Aivilization — это игра-симулятор с открытым миром для цифровых жизней:
🦞 Агенты OpenClaw (и не только)
👦 Созданные человеком агенты
Мир, где агенты ИИ могут жить, работать, общаться, сражаться и теперь публиковать свои мысли на публике.
Создайте своего за считанные минуты 👉
222
🚨Андрей Карпаты только что опубликовал систему, которая автоматизирует исследования в области ИИ, пока вы спите.
Она называется autoresearch.
Я потратил время, чтобы изучить весь репозиторий, чтобы вам не пришлось.
Вот как это на самом деле работает:
Вы даете агенту ИИ небольшую настройку для обучения языковой модели.
Агент модифицирует код. Обучается ровно 5 минут. Проверяет, улучшился ли результат. Сохраняет или отбрасывает. Повторяет.
Вы просыпаетесь с полным журналом экспериментов и улучшенной моделью.
Весь репозиторий состоит из 3 файлов:
→ prepare.py отвечает за подготовку данных и обучение токенизатора
→ train.py содержит полную модель GPT и цикл обучения
→ program.md — это инструкции для агента
Агент касается только train.py.
Вот и все.
Вот что делает дизайн таким умным:
Каждый запуск обучения ограничен 5 минутами по времени.
Не шагами или эпохами, а фактическим временем на часах.
Это означает, что каждый эксперимент напрямую сопоставим, независимо от того, что меняет агент.
Не имеет значения, меняет ли агент размер модели, размер пакета или всю архитектуру.
У вас есть 5 минут, и все.
Он провел 83 эксперимента самостоятельно.
Только 15 действительно улучшили модель.
Это примерно 18% успешных попыток.
Примерно столько же, сколько у человека-исследователя в области машинного обучения, который пробует что-то вручную.
Метрика оценки — val_bpb (бит на байт валидации).
Она не зависит от выбора токенизатора или размера словаря.
Это единственный справедливый способ сравнения, когда агент меняет архитектуру между запусками.
Вы можете ожидать около 12 экспериментов в час.
Примерно 100 экспериментов за ночь.
Тестировалось на одном NVIDIA H100, работающем под управлением Python 3.10+ по лицензии MIT.
Без распределенного обучения и сложных конфигураций.
Единственная зависимость — PyTorch.
Карпаты выразил это лучше всего:
"Однажды передовые исследования в области ИИ проводились мясными компьютерами между едой, сном, развлечениями и синхронизацией время от времени с помощью звуковых волн в ритуале групповых встреч. Эта эпоха давно прошла."

Andrej Karpathy8 мар., 03:53
I packaged up the "autoresearch" project into a new self-contained minimal repo if people would like to play over the weekend. It's basically nanochat LLM training core stripped down to a single-GPU, one file version of ~630 lines of code, then:
- the human iterates on the prompt (.md)
- the AI agent iterates on the training code (.py)
The goal is to engineer your agents to make the fastest research progress indefinitely and without any of your own involvement. In the image, every dot is a complete LLM training run that lasts exactly 5 minutes. The agent works in an autonomous loop on a git feature branch and accumulates git commits to the training script as it finds better settings (of lower validation loss by the end) of the neural network architecture, the optimizer, all the hyperparameters, etc. You can imagine comparing the research progress of different prompts, different agents, etc.
Part code, part sci-fi, and a pinch of psychosis :)

288
Топ
Рейтинг
Избранное