Yapay zeka ajanlarının gerçekten nasıl çalıştığı. Bir konuşmayı bir dizi nesne olarak düşünün: sistem → kullanıcı→ asistan → kullanıcı → asistan... Sistem isteği rolü tanımlar. Örnek: "Programlama problemlerini çözen bir kodlama ajanısınız." Sonra kullanıcı bir şey soruyor. LLM, tüm konuşmayı bağlam olarak alır ve sonraki tokenları üretmeye başlar. (Jetonlar nedir? Küçük metin parçaları. Token bir kelimenin tamamı olabilir, onun bir parçası, boşluk vb.) Ama başka bir parça daha var: araçlar. Araçlar sadece LLM'nin çağırmasına izin verilen fonksiyonlardır. Örneğin: • read_file(yol) • edit_file(yol, içerik) • search_web(sorgu) • bash (komuta) bunlar bağlamın bir parçası olarak modele aktarılır. Yani LLM sadece metin geri dönmek yerine, araç çağrılarını geri verebilir. Örnek:...