Trendaavat aiheet
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Tekoälymallien ja isännöintipalveluntarjoajien riippumaton analyysi - valitse paras malli ja API-palveluntarjoaja käyttötapaukseesi
Alibaba on laajentanut Qwen3.5-malliperhettään kolmella uudella mallilla – 27B-malli erottuu erinomaisesti, saaden 42 pistettä Artificial Analysis Intelligence Indexissä ja vastaten avoimia malleja, jotka ovat 8–25-kertaisia kokonsa
@Alibaba_Qwen on laajentanut Qwen3.5-perhettä kolmella uudella mallilla yhdessä tämän kuun alussa julkaistun 397B-lippulaivamallin kanssa: Qwen3.5 27B (Tiheä, 42 pistettä Intelligence Indexissä), Qwen3.5 122B A10B (MoE, 42) ja Qwen3.5 35B A3B (MoE, 37). Kaksi MoE (Mixture-of-Experts) -mallia aktivoivat vain murto-osan kokonaisparametreista per eteenpäinsyöttö (10B 122B:stä ja ~3B 35B:stä). Älykkyysindeksi on synteesimittarimme, joka sisältää 10 arviointia, jotka kattavat yleisen päättelyn, agenttitehtävät, koodauksen ja tieteellisen päättelyn.
Kaikki mallit ovat Apache 2.0 -lisensoituja, tukevat natiivisti 262K-kontekstia ja palaavat alkuperäisen Qwen3:n yhtenäiseen ajattelu/ei-ajattelu-hybridiarkkitehtuuriin, kun Alibaba siirtyi erottamaan Instruct- ja Reasoning-tarkistuspisteet Qwen3 2507 -päivitysten myötä.
Keskeiset vertailutulokset päättelyvarianteille:
➤ Qwen3.5 27B saa 42 pistettä Älykkyysindeksissä ja on älykkäin malli alle 230B. Lähin samankokoinen malli on GLM-4.7-Flash (yhteensä 31B, aktiivinen 3B), joka saa 30 pistettä. Vastaavan älykkyyden avoimet painomallit ovat kokonaisparametreiltaan 8–25 kertaa suurempia: MiniMax-M2.5 (230B, 42), DeepSeek V3.2 (685B, 42) ja GLM-4.7 (357B, 42). FP8-tarkkuudella mallipainojen tallentamiseen kuluu ~27GB, kun taas 4-bittisessä kvantisoinnissa voi käyttää kannettavan laadukasta laitteistoa, jossa on 16GB+ RAM-levyä
➤ Qwen3.5 27B saa pisteet 1205 GDPval-AA:ssa (Agentic Real-World Work Tasks), asettaen sen suurempien mallien rinnalle. Taustaksi: MiniMax-M2.5 saa 1206, GLM-4.7 (Päättely) 1200 ja DeepSeek V3.2 (Päättely) 1194. Tämä on erityisen merkittävää 27B-parametrimallissa ja viittaa vahvaan agenttiseen kapasiteettiin sen kokoon nähden. GDPval-AA testaa malleja todellisissa tehtävissä 44 ammatissa ja 9 päätoimialalla
➤ AA-Kaikkitietävyys on edelleen suhteellinen heikkous Qwen3.5-perheessä, mikä johtuu pääasiassa alhaisemmasta tarkkuudesta eikä hallusinaatioiden määrästä. Qwen3.5 27B saa -42 pisteitä AA-Omnisciencessa, verrattavissa MiniMax-M2.5:een (-40), mutta jää DeepSeek V3.2:n (-21) ja GLM-4.7:n (-35) jälkeen. Vaikka Qwen3.5 27B:n hallusinaatioprosentti (80 %) on alhaisempi kuin vastaavilla (GLM-4.7 90 %, MiniMax 89 %, DeepSeek 82 %), sen tarkkuus on myös alhaisempi, 21 % verrattuna DeepSeek V3.2:n 34 %:iin ja GLM-4.7:n 29 %:iin. Tämä johtuu todennäköisesti mallin koosta – olemme yleisesti havainneet, että mallit, joissa on enemmän kokonaisparametreja, suoriutuvat paremmin AA-Omnisciencessa, koska laajempi tietopalautus hyötyy suuremmista parametrimääristä
➤ Qwen3.5 27B on yhtä älykäs kuin Qwen3.5 122B A10B. 122B A10B on asiantuntijoiden yhdistelmämalli, joka aktivoi vain 10B 122B:n kokonaisparametreista per eteenpäin suuntautuva syöttö. 27B-malli johtaa GDPval-AA:ssa (1205 Elo vs 1145 Elo) ja hieman TerminalBenchissä (+1,5 p.p.), kun taas 122B-malli johtaa SciCodessa (+2,5 p.p.), HLE:ssä (+1,2 p.p.), ja hallusinaatioprosentti on alhaisempi (Omniscience -40 vs -42)
➤ Qwen3.5 35B A3B (Päättely, 37) on älykkäin malli ~3B aktiivisilla parametreilla, 7 pistettä edellä GLM-4.7-Flashia (30). Muita malleja tässä ~3B aktiivisessa kategoriassa ovat Qwen3 Coder Next (yhteensä 80B 28), Qwen3 Next 80B A3B (27) ja NVIDIA Nemotron 3 Nano 30B A3B (24)
➤ Qwen3.5 27B käytti 98M output tokenia Intelligence Indexin ajamiseen, kustannus ~$299 Alibaba Cloud API:n kautta. Tämä on huomattavasti korkea tokenien käyttö verrattuna malleihin, joiden älykkyys on samankaltainen: MiniMax-M2.5 (56M), DeepSeek V3.2 (61M) ja jopa suurempi Qwen3.5 397B (86M).
Muuta tietoa:
➤ Konteksti-ikkuna: 262K tokenia (laajennettavissa 1M:ään YaRN:n kautta)
➤ Lisenssi: Apache 2.0
➤ API-hinnoittelu (Alibaba Cloud): 397B: $0.60/$3.60, 122B: $0.40/$3.20, 27B: $0.30/$2.40, 35B A3B: $0.25/$2.00 per 1M sisään/ulostulotokenia

3,61K
Kling 3.0 1080p (Pro) sijoittuu #1 tekstistä videoon -kategoriassa sekä äänen kanssa että ilman ääntä tekoälyvideoiden sarjassa, ohittaen Grok Imaginen, Runway Gen-4.5:n ja Veo 3.1:n!
Kuvasta videoon Kling 3.0 1080p (Pro) sijoittuu With Audio -tulostaulukossa sijalle #4 ja No Audiossa sijalle #6, jääden Grok Imaginen ja PixVerse V5.6:n jälkeen.
Kling 3.0 on uusin julkaisu @Kling_ai:lta, mikä edustaa suurta harppausta heidän Kling 2.6 -malleistaan. Malli on saatavilla 1080p (Pro) ja 720p (Standardi) laatutasoissa, ja tukee jopa 15 sekunnin sukupolvia sekä natiiviäänituotantoa.
Kling on myös julkaissut Kling 3.0 Omni -mallin, joka ulottuu videon tuottamisen ulkopuolelle tukemaan kuva- ja videosyötteitä, videon editointia sekä videon tuottamista yhdessä yhtenäisessä mallissa. Kling 3.0 Omni 1080p (Pro) ja Omni 720p (Standard) suoriutuvat myös hyvin, Omni 1080p (Pro) sijoittui sijalle #2 tekstistä videoon äänen kanssa ja sijan #4 ilman ääntä.
Kling 3.0 on saatavilla Kling AI -sovelluksen kautta sekä API:n kautta @fal:ssa. Kling 3.0 1080p (Pro) maksaa ~$13/min ilman ääntä ja ~$20/min äänen kanssa, kun taas 720p (standardi) maksaa vastaavasti ~$10/min ja ~$15/min. Ilman ääntä 1080p (Pro) on verrattavissa Veo 3.1:een hintaan 12 dollaria minuutissa, mutta huomattava lisä verrattuna Kling 2.5 Turboon ja Grok Imaginen 4.20 dollaria minuutissa.
Katso alta vertailuja Kling 3.0 1080p (Pro) -mallien ja muiden johtavien mallien välillä Artificial Analysis Video Arenassamme 🧵

179
Inception Labs on lanseerannut Mercury 2:n, heidän seuraavan sukupolven tuotantovalmiin Diffusion LLM:n. Mercury 2 saavuttaa >1 000 tuotostokenia/s merkittävillä älykkyysparannuksilla
@_inception_ai:n diffuusio-LLM:t ("dLLM:t") käyttävät erilaista arkkitehtuuria verrattuna autoregressiivisiin LLM:iin. Diffusion LLM:n generointiprosessi alkaa kohinalla ja tarkentaa lähtöä iteratiivisesti muuntajamallilla, joka voi muokata useita tokeneita rinnakkain. Tämä mahdollistaa ulostulotokenien rinnakkaisuuden, mikä mahdollistaa nopeammat lähtönopeudet, koska useita ulostulotokeneita tuotetaan samanaikaisesti.
Tärkeimmät huomiot:
➤ Vertailukelpoisten kokoisten ja hintaluokkien joukossa Mercury 2 pärjää älykkyydessä ja lähtönopeudessa. Vaikka sillä ei ole johtavaa älykkyyttä, sen lähtönopeus on yli 3 kertaa seuraavaksi nopein malli tässä luokassa (benchmarkit, jotka perustuvat ensimmäisen osapuolen päätepisteisiin tai niiden palveluntarjoajien mediaaniin, joissa ensimmäisen osapuolen päätepiste ei ole saatavilla)
➤ Keskeisiä vahvuuksia ovat agenttikoodaus, terminaalien käyttö ja ohjeiden noudattaminen. Mercury 2 suoriutuu Terminal-Bench Hard -vaikeudella samalla tasolla kuin Claude 4.5 Haiku ja saa 70 % IFBenchissä (Instruction Following), päihittää gpt-oss-120B:n, GPT-5.1 Codex minin ja GPT-5 nano:n
Inception Labsin tausta:
Tämä on toinen julkaisu Inception Labsilta. Perustajat olivat aiemmin professoreita Stanfordista, UCLA:sta ja Cornellista, ja he ovat osallistuneet tekoälytutkimukseen ja teknologioihin, kuten Flash Attention, Decision Transformers ja Direct Preference Optimization (DPO).
Katso alta lisäanalyysi.

11,34K
Johtavat
Rankkaus
Suosikit
