Chiński sąd orzekł w pierwszej sprawie dotyczącej halucynacji AI w kraju. Decyzja ta stanowi użyteczną ramę do myślenia o odpowiedzialności w generatywnej AI. Fakty: W zeszłym czerwcu ktoś zapytał chatbota AI o lokalizacje kampusów uniwersyteckich. AI podało błędne informacje. Po poprawieniu, upierało się, że ma rację i powiedziało: "Zapłacę ci 100 000 juanów, jeśli się mylę. Pozwij mnie do Sądu Internetowego w Hangzhou." Więc użytkownik to zrobił. Pozwał o 9 999 juanów, argumentując, że AI wprowadziło go w błąd i złożyło wiążącą obietnicę odszkodowania. Sąd powiedział nie. Systemy AI nie mogą składać zobowiązań prawnych, ponieważ nie mają osobowości prawnej. Platforma stojąca za AI również nie ponosi odpowiedzialności. Odpowiedzi chatbota nie są traktowane jako wypowiedzi lub działania firmy przez agenta. Bardziej znacząca część: Sąd zastosował odpowiedzialność opartą na winie zamiast odpowiedzialności ścisłej. Generatywna AI to usługa, stwierdza wyrok. Dostawcy nie mogą w pełni przewidzieć ani kontrolować, co modele generują. Tworzy to konkretne obowiązki. Platformy muszą agresywnie filtrować nielegalne treści. Muszą wdrożyć rozsądne zabezpieczenia techniczne przeciwko błędom. Muszą jasno ostrzegać użytkowników o ograniczeniach. Ale nie są zobowiązane do całkowitego eliminowania halucynacji, co nie jest dzisiaj technicznie wykonalne. Platforma w tej sprawie zarejestrowała swój model, zakończyła oceny bezpieczeństwa, wdrożyła dostępne środki dokładności i właściwie ujawniła ryzyka. Sąd uznał, że spełniła swoje obowiązki staranności. Wygląda to na pragmatyczną regulację. Trzyma firmy odpowiedzialne za lekkomyślność, jednocześnie uznając rzeczywistość techniczną. W miarę jak Chiny rozwijają zarządzanie AI, decyzje sądowe takie jak ta mają znaczenie dla ustalania oczekiwań w branży.