Lo único que añadiré en el lado positivo de la balanza para los humanos. Los humanos tienen una capacidad mucho mayor para conocer los resultados de sus acciones. Los agentes y los LLMs, en cambio, nunca lo hacen. Incluso un niño de 18 meses aprenderá lo que sucede cuando empujan el vaso de entrenamiento desde su silla alta. Mamá se molesta. Viene y tiene que limpiar. Lo descubren rápidamente. Los agentes pueden decirte que el vaso de entrenamiento caerá. Pero no tienen idea del contexto y de lo que sucederá a continuación. El otro problema es que los agentes "se desconectan". (Estoy seguro de que ya hay un término para esto). No hay garantías, por muchas razones diferentes, de que el agente ejecute de la misma manera cada vez. Para empeorar las cosas, no pueden decirte que se han "desconectado", por qué y cuándo. Los agentes siguen siendo como pasantes universitarios que llegan con resaca, cometen errores y no asumen la responsabilidad por ellos :) Como siempre, tengo curiosidad por saber qué piensa todo el mundo.