Un tribunale cinese ha emesso una sentenza sul primo caso di allucinazione dell'IA nel paese. La decisione fornisce un utile quadro di riferimento per riflettere sulla responsabilità nell'IA generativa. I fatti: lo scorso giugno, qualcuno ha chiesto a un chatbot IA informazioni sulle posizioni dei campus universitari. L'IA ha fornito informazioni errate. Quando è stato corretto, ha insistito di avere ragione e ha detto: "Ti pagherò 100.000 yuan se ho torto. Fai causa al tribunale di Internet di Hangzhou." Così l'utente ha fatto. Ha citato in giudizio per 9.999 yuan, sostenendo che l'IA lo avesse ingannato e avesse fatto una promessa di risarcimento vincolante. Il tribunale ha detto di no. I sistemi IA non possono fare impegni legali perché mancano di personalità giuridica. Anche la piattaforma dietro l'IA non è responsabile. Le risposte del chatbot non contano come se l'azienda stesse parlando o agendo tramite un agente. La parte più significativa: il tribunale ha applicato la responsabilità basata sul dolo invece della responsabilità oggettiva. L'IA generativa è un servizio, afferma la sentenza. I fornitori non possono prevedere o controllare completamente ciò che i modelli generano. Questo crea obblighi specifici. Le piattaforme devono filtrare in modo aggressivo i contenuti illegali. Devono implementare misure tecniche ragionevoli contro gli errori. Devono avvisare chiaramente gli utenti sui limiti. Ma non sono tenute a eliminare completamente le allucinazioni, il che non è tecnicamente fattibile oggi. La piattaforma in questo caso aveva registrato il suo modello, completato le valutazioni di sicurezza, implementato le misure di accuratezza disponibili e divulgato correttamente i rischi. Il tribunale ha ritenuto che avesse adempiuto al suo dovere di diligenza. Questo sembra una regolamentazione pragmatica. Tiene le aziende responsabili per imprudenza, riconoscendo al contempo la realtà tecnica. Man mano che la Cina sviluppa la governance dell'IA, decisioni come questa sono importanti per stabilire le aspettative del settore.