Mike Bursell utilise un exemple classique de la Seconde Guerre mondiale pour expliquer pourquoi l'exfiltration des modèles d'IA est presque impossible à prévenir. "Il est difficile d'arrêter l'exfiltration sans des garde-fous spécifiques visant à protéger cela. Et sans savoir ce que vous protégez, c'est vraiment, vraiment difficile."