Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Будівля @EurekaLabsAI. Раніше директор AI @ Tesla, команда засновників @ OpenAI, CS231n/PhD @ Stanford. Мені подобається тренувати великі глибокі нейронні мережі.
Мене дуже цікавить, як може виглядати наближення епохи висококастомного програмного забезпечення.
Приклад із сьогоднішнього ранку — останнім часом я став трохи розслабленим у кардіо, тому вирішив провести більш srs, регламентований експеримент, щоб знизити пульс у стані спокою з 50 до > 45 протягом експерименту тривалістю 8 тижнів. Основний спосіб — прагнути до певної загальної кількості цілей у кардіо зони 2 та 1 HIIT на тиждень.
Через годину я написав цей суперкастомний дашборд для цього дуже конкретного експерименту, який показує, як я відстежую. Клод довелося реверс-інженерити хмарний API Woodway для бігової доріжки, щоб отримати сирі дані, обробити, відфільтрувати їх, відлагодити та створити інтерфейс веб-інтерфейсу для відстеження експерименту. Це був не зовсім гладкий досвід, і мені довелося помічати та просити виправити баги, наприклад, це порушило метричні та імперські системні одиниці, і в календарі виникали помилки при зіставці днів і дат.
Але я все одно відчуваю, що загальний напрямок зрозумілий:
1) У магазині додатків ніколи не буде (і не повинно бути) конкретного додатку для таких речей. Я не повинен шукати, завантажувати і використовувати якийсь «трекер кардіоекспериментів», коли це ~300 рядків коду, які агент LLM видасть за секунди. Ідея «магазину додатків» із довгим хвостом окремого набору додатків, з яких ви обираєте, здається якимось чином неправильною і застарілом, коли агенти LLM можуть імпровізувати додаток на місці і лише для вас.
2) По-друге, індустрія має переналаштуватися на набір сервісів датчиків і виконавчих механізмів із агентською ергономікою. Моя бігова доріжка Woodway — це сенсор, вона перетворює фізичний стан на цифрові знання. Він не повинен підтримувати якийсь фронтенд, зрозумілий людині, і мій LLM-агент не повинен його реверс-інжинірингувати, це має бути API/CLI, яким мій агент легко користується. Я трохи розчарований (і мої терміни відповідно повільніші) тим, як повільно відбувається цей розвиток у галузі загалом. 99% продуктів/послуг досі не мають штучного інтелектуального CLI. 99% продуктів/послуг підтримують .html/.css документи, наприклад, я не буду одразу шукати, як скопіювати все це агенту, щоб щось зробити. Вони дають список інструкцій на веб-сторінці, як відкрити той чи інший URL і натиснути тут чи там, щоб щось зробити. У 2026 році. Що я — комп'ютер? Ти зроби це. Або щоб мій агент це зробив.
Отже, сьогодні я вражений, що ця випадкова ситуація зайняла 1 годину (2 роки тому це було б ~10 годин). Але найбільше мене захоплює думка про те, що це мало б бути максимум 1 хвилина. Що має бути на місці, щоб це тривало 1 хвилину? Щоб я міг просто сказати: «Привіт, чи можете ви допомогти мені відстежувати кардіо протягом наступних 8 тижнів», і після дуже короткого сесії запитань і відповідей додаток був би відкритий. ШІ вже матиме багато особистого контексту, він збиратиме додаткові необхідні дані, шукатиме та шукатиме пов'язані бібліотеки навичок, а також підтримуватиме всі мої маленькі додатки/автоматизації.
Коротко: «магазин додатків» набору окремих додатків, з яких ви обираєте, стає дедалі більш застарілим поняттям сам по собі. Майбутнє — це сервіси сенсорів і актуаторів, нативних на основі ШІ, організованих за допомогою LLM-клею у дуже кастомні, ефемерні додатки. Просто ще не тут.

106
Я вважаю, що зараз дуже цікавий час для мов програмування та формальних методів, бо LLM повністю змінюють ландшафт обмежень програмного забезпечення. Ознаки цього вже помітні, наприклад, у зростаючому імпульсі портування C на Rust або у зростаючому інтересі до оновлення застарілих кодових баз у COBOL тощо. Зокрема, LLM *особливо* ефективні для перекладу порівняно з генерацією de-novo, оскільки 1) оригінальна кодова база виконує функцію дуже детального запиту, і 2) слугує джерелом для написання конкретних тестів щодо них. Втім, навіть Rust далеко не оптимальний для LLM як цільової мови. Яка мова є оптимальною? Які поступки (якщо такі є) досі передбачені для людей? Неймовірно цікаві нові питання та можливості. Схоже, що ми будемо переписувати великі частини всього програмного забезпечення, коли-небудь написаного багато разів.
104
Вітаю з запуском @simile_ai! (і я з нетерпінням чекаю, що долучаюся як маленький ангел.)
Simile працює над дуже цікавим, на мою думку, недостатньо дослідженим виміром LLM. Зазвичай LLM, з якими ви спілкуєтеся, мають одну конкретну, сформовану особистість. Але в принципі, рідна, первинна форма попередньо навченої LLM полягає в тому, що це симуляційний рушій, навчений на тексті дуже різноманітного населення людей в інтернеті. Чому б не скористатися статистичною силою: навіщо моделювати одну «людину», якщо можна спробувати змоделювати популяцію? Як створити такий симулятор? Як ви керуєте його ентропією? Наскільки вона вірна? Як це може бути корисним? Які емерджентні властивості можуть виникати при порівняннях у петлях?
На мою думку, це дуже цікаві, перспективні та малодосліджені теми, і команда тут чудова. Усього найкращого!

Joon Sung Park13 лют., 03:00
Представляємо Simile.
Моделювання людської поведінки — одна з найважчих і технічно складних проблем нашого часу.
Ми залучили $100 млн від Index, Hanabi, A* BCV @karpathy @drfeifei @adamdangelo @rauchg @scottbelsky інших.
95
Найкращі
Рейтинг
Вибране
