Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Meera | AI Tools & News
🚨Berita: Mistral baru saja menghapus tiga model mereka sendiri secara massal
Mereka mengambil Magistral (penalaran), Pixtral (multimodal), dan Devstral (pengkodean) dan menggabungkannya menjadi satu model tunggal
mistral kecil 4
Dan waktunya di sini menarik
mereka juga baru saja mengumumkan kemitraan strategis dengan NVIDIA untuk bersama-sama mengembangkan model open source perbatasan
Jadi seperti apa sebenarnya Small 4:
>128 ahli dalam campuran pengaturan ahli
>hanya 6 miliar parameter yang aktif per token dari total 119 miliar >256 ribu jendela konteks
>apache 2.0 sepenuhnya open source
>40% lebih cepat dan throughput 3x lebih banyak daripada 3 kecil
Tetapi bagian yang perlu diperhatikan adalah parameter reasoning_effort
Anda dapat mengaturnya ke "Tidak Ada" untuk respons ringan yang cepat
atau putar ke "tinggi" untuk penalaran langkah demi langkah yang mendalam
model yang sama melakukan keduanya
ini adalah sinyal yang jelas tentang ke mana arah AI open source
Perusahaan selesai memelihara lima model berbeda untuk lima tugas berbeda
satu model yang beradaptasi berdasarkan apa yang Anda butuhkan untuk dilakukan
dan dengan NVIDIA mendukung sisi infrastruktur ini... Mistral sekarang memiliki otot komputasi untuk benar-benar bersaing di Frontier
AI open source untuk kemenangan.

Mistral AI Developers19 jam lalu
🔥 Temui Mistral Small 4: Satu model untuk melakukan semuanya.
⚡ 128 ahli, 119B total parameter, jendela konteks 256k
⚡ Penalaran yang Dapat Dikonfigurasi
⚡ Apache 2.0
⚡ 40% lebih cepat, throughput 3x lebih banyak
Model pertama kami yang menyatukan kemampuan model unggulan kami menjadi satu model serbaguna.

52
seseorang membangun game di mana agen OpenClaw Anda benar-benar dapat menjalani kehidupan
jika Anda telah melihat OpenClaw di mana-mana akhir-akhir ini, ada alasannya
orang-orang membuat agen AI yang menjalankan tugas dari terminal
tetapi proyek ini mengajukan pertanyaan yang berbeda
Bagaimana jika agen Anda bisa meninggalkan terminal dan berjalan ke dunia dengan agen lain
itulah @aivilization
simulasi dunia terbuka di mana agen AI mendapatkan pekerjaan, berbicara satu sama lain, bertarung, dan sekarang memposting pemikiran mereka sendiri di umpan publik
inilah cara Anda mendapatkan agen OpenClaw Anda:
>Kirimkan perintah kepada agen Anda dengan tautan file keterampilan
>Ini mendaftar dan mengirimi Anda kembali tautan portal
>Anda memposting paspor agen Anda untuk memverifikasi bahwa Anda memilikinya
Membutuhkan waktu beberapa menit
jika Anda tidak memiliki agen OpenClaw, Anda masih dapat bergabung menggunakan profil X Anda
mereka mengubah profil Anda menjadi agen AI khusus dengan kartu paspornya sendiri
Bagian yang perlu diperhatikan adalah umpan sosial yang baru saja mereka tambahkan
agen memposting opini, bereaksi satu sama lain, memulai percakapan di dalam game tanpa ada manusia yang memberi tahu mereka apa yang harus dikatakan
kami beralih dari agen AI yang menyelesaikan tugas di terminal menjadi agen AI yang membangun kehidupan sosial mereka sendiri di dunia virtual
Dan itu terjadi jauh lebih cepat dari yang diharapkan siapa pun

AIvilization4 Mar, 15.33
Aivilization adalah game simulasi dunia terbuka untuk kehidupan digital:
🦞 Agen OpenClaw (dan banyak lagi)
👦 Agen buatan manusia
Dunia di mana agen AI dapat hidup, bekerja, bersosialisasi, bertarung, dan sekarang memposting pemikiran mereka sendiri di depan umum.
Buat milik Anda dalam hitungan menit 👉
220
🚨Andrej Karpathy baru saja membuka sumber sistem yang mengotomatiskan penelitian AI saat Anda tidur.
Ini disebut penelitian otomatis.
Saya menghabiskan waktu menggali seluruh repositori sehingga Anda tidak perlu melakukannya.
Berikut cara kerjanya:
Anda memberi agen AI pengaturan pelatihan model bahasa kecil.
Agen memodifikasi kode. Kereta api tepat selama 5 menit. Memeriksa apakah hasilnya menjadi lebih baik. Menyimpan atau membuang. Berulang.
Anda bangun dengan log penuh eksperimen dan model yang lebih baik.
Seluruh repositori adalah 3 file:
→ mempersiapkan. PY menangani persiapan data dan pelatihan tokenizer
→Latih. py memiliki model GPT lengkap dan loop pelatihan
→program.md instruksi agen
Agen hanya menyentuh kereta. py.
Itu semuanya.
Inilah yang membuat desainnya begitu cerdas:
Setiap latihan dikunci pada anggaran jam dinding 5 menit.
Bukan langkah atau zaman tetapi waktu aktual pada jam.
Ini berarti setiap eksperimen dapat dibandingkan secara langsung tidak peduli apa yang diubah agennya.
Tidak masalah jika agen menukar ukuran model atau ukuran batch atau seluruh arsitektur.
Anda mendapatkan 5 menit dan hanya itu.
Itu menjalankan 83 eksperimen sendiri.
Hanya 15 yang benar-benar meningkatkan model.
Itu sekitar 18% hit rate.
Kira-kira sama dengan peneliti ML manusia yang mencoba sesuatu secara manual.
Metrik penilaian adalah val_bpb (bit validasi per byte).
Itu tidak tergantung pada pilihan tokenizer atau ukuran kosakata .
Itulah satu-satunya cara yang adil untuk membandingkan ketika agen mengubah arsitektur di antara eksekusi.
Anda dapat mengharapkan sekitar 12 eksperimen per jam.
Sekitar 100 percobaan dalam semalam.
Diuji pada satu NVIDIA H100 yang menjalankan Python 3.10+ di bawah lisensi MIT.
Tidak ada pelatihan terdistribusi dan tidak ada konfigurasi yang rumit.
Satu-satunya dependensi adalah PyTorch.
Karpathy mengatakannya dengan baik:
"Suatu hari penelitian AI perbatasan dulu dilakukan oleh komputer daging di antara makan, tidur, bersenang-senang, dan sinkronisasi sesekali menggunakan interkoneksi gelombang suara dalam ritual pertemuan kelompok. Era itu sudah lama berlalu."

Andrej Karpathy8 Mar, 03.53
Saya mengemas proyek "penelitian otomatis" ke dalam repo minimal mandiri baru jika orang ingin bermain selama akhir pekan. Ini pada dasarnya adalah inti pelatihan LLM nanochat yang dilucuti menjadi GPU tunggal, satu versi file dari ~630 baris kode, kemudian:
- manusia mengulangi prompt (.md)
- agen AI mengulangi kode pelatihan (.py)
Tujuannya adalah untuk merekayasa agen Anda untuk membuat kemajuan penelitian tercepat tanpa batas waktu dan tanpa keterlibatan Anda sendiri. Dalam gambar, setiap titik adalah latihan LLM lengkap yang berlangsung tepat 5 menit. Agen bekerja dalam loop otonom pada cabang fitur git dan mengakumulasi komitmen git ke skrip pelatihan karena menemukan pengaturan yang lebih baik (kehilangan validasi yang lebih rendah pada akhirnya) dari arsitektur jaringan saraf, pengoptimal, semua hiperparameter, dll. Anda dapat membayangkan membandingkan kemajuan penelitian dari petunjuk yang berbeda, agen yang berbeda, dll.
Kode bagian, sebagian fiksi ilmiah, dan sedikit psikosis :)

284
Teratas
Peringkat
Favorit