Mike Bursell usa um exemplo clássico da Segunda Guerra Mundial para explicar por que a exfiltração de modelos de IA é quase impossível de prevenir. "É difícil impedir a exfiltração sem guardrails específicos destinados a proteger isso. E sem saber o que você está protegendo, é realmente, realmente difícil."