É importante confirmar se sua biblioteca pode ser usada por LLMs. Aquela atenção flash codificada por LLM no Tinygrad supera a do AOTriton no PyTorch no meu AMD Strix Halo.
harshbajpai
harshbajpai13 horas atrás
Haha, o geohot está marcando recordes pessoais com a frase "ai slop" XD
E não chega perto. É 1,8x mais rápido. Isso é usando o DSL Tinygrad. O substituto do BEAM será o LLM.
67