Mike Bursell använder ett klassiskt exempel från andra världskriget för att förklara varför exfiltration av AI-modeller är nästintill omöjlig att förhindra. "Det är svårt att stoppa utbrytning utan specifika skyddsräcken som ska skydda det. Och utan att veta vad du skyddar är det verkligen, verkligen svårt."