Lo único que añadiré como punto positivo para los humanos. Los humanos tienen una capacidad mucho mayor para conocer las consecuencias de sus acciones. Los agentes y los LLMs tampoco lo hacen. Incluso un niño de 18 meses aprenderá lo que ocurre cuando empuja el vaso con boquilla de su trona. Mamá se enfada. Viene y tiene que limpiarse. Lo descubren rápido Los agentes pueden decirte que el vaso con tapa caerá. Pero no tienen ni idea del contexto ni de lo que ocurrirá a continuación El otro problema es que los agentes "se desconectaron". (Seguro que ya existe un término para esto). No hay garantías, por muchas razones diferentes, de que el agente ejecutará siempre de la misma manera. Para empeorar las cosas, no pueden decirte que se han "desconectado", por qué ni cuándo. Los agentes siguen siendo como becarios universitarios que llegan resacosos, cometen errores y no asumen la responsabilidad de ellos :) Como siempre, tengo curiosidad por saber qué opina todo el mundo.