Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Bo Wang
SVP și șef al @Xaira_Thera de IA biomedicală; Profesor asociat @UofT; Ofițerul șef AI @UHN; fost doctor, CS @Stanford; opiniile mele. #AI #healthcare #biology
Bine ați venit în Laboratorul Viitorului! 🧬🤖
Suntem încântați să vă prezint LUMI-lab, lansat astăzi în @CellCellPress — o platformă autonomă care combină un model de bază AI cu un laborator robotic pentru a descoperi autonom lipide ionizabile (LNP) pentru livrarea ARNm.
Problema de bază: Proiectarea nanoparticulelor lipidice (LNP) este dificilă. Spațiul chimic al lipidelor ionizabile este vast, ciclurile experimentale sunt lente, iar — critic — seturile de date LNP istorice sunt mult prea mici pentru a antrena un model predictiv de la zero. Majoritatea abordărilor AI din acest domeniu s-au lovit imediat de un obstacol: nu există suficiente date din care să învețe.
Soluția noastră: învățarea modelelor de bază în laborator în buclă. În loc să se antreneze doar pe date LNP, LUMI începe ca un model de fundație bazat pe transformatori, preantrenat pe un spațiu chimic larg, construind reprezentări moleculare bogate înainte de a vedea vreun singur experiment LNP. Apoi intră într-un circuit închis cu o platformă robotică de sinteză: prezice → sintetizează → testează → actualizează. Fiecare rundă de experimente reale de laborator umed ajustează modelul, care apoi propune candidați mai inteligenți pentru runda următoare. Laboratorul nu doar validează predicțiile AI — ci predă activ modelul, continuu.
Ce s-a întâmplat când l-am lăsat să funcționeze: LUMI-lab a sintetizat și testat autonom 1.700+ lipide ionizabile în celulele epiteliale bronșiale umane. Principalul candidat — LUMI-6 — are o coadă lipidică brominată, un motiv structural care fusese în mare parte trecut cu vederea în designul LNP. LUMI a găsit-o fără să i se spună unde să caute. Când a fost formulat în LNP-uri și administrat intratraheal la șoareci, LUMI-6 a atins o eficiență de editare genetică de 20,3% în celulele epiteliale pulmonare — un rezultat convingător pentru una dintre cele mai greu de atins ținte terapeutice, direct relevantă pentru boli precum fibroza chistică și deficitul de alfa-1 antitripzină.
De ce contează acest lucru dincolo de LNP-uri: Aceasta este o dovadă de concept pentru o teză mai largă — că preantrenarea modelului de bază + învățarea activă + experimentarea robotică pot depăși blocajul de lipsă de date care afectează descoperirile bazate pe AI în biologie. Nu ai nevoie de un set de date masiv specific domeniului ca să începi. Ai nevoie de un model care să poată generaliza, de un laborator care să genereze datele corecte și de o buclă care să le conecteze.
Felicitări uriașe primilor autori Yue Xu, @HAOTIANCUI1 și Kuan Pang, precum și întregii echipe @BowenLi_Lab. Recunoscător colaboratorilor noștri de la @UHN și @UofTPharmacy și Centrului de Cercetare pentru Cancer Princess Margaret @PMResearch_UHN.
📄 Hârtie:
2
"De ce nu pot calculatoarele să se potrivească cu creierul biologic?"
—întrebat de Naveen Rao, CEO al @unconvAI
Iată cum arată de fapt cifrele:
🧠 Creierul biologic:
• 20+ wați
• 86 miliarde de neuroni, 100 trilioane de sinapse
• Gestionează simultan viziunea, limbajul, memoria și emoția
• Energie totală pentru "antrenament" pe 20 de ani: ~3.500 kWh
⚡ GPT-4:
• Doar antrenamentul: ~50.000.000 kWh
• Asta înseamnă cu 14.000× mai multă energie decât a consumat întregul tău creier în 20 de ani
• Inferență la scară: zeci de megawați, continuu
Biologia oferă mai multă inteligență generală pe watt decât orice am construit vreodată.
67
Limită superioară
Clasament
Favorite
