中国の裁判所は、同国初のAI幻覚事件について判決を下しました。この判決は生成AIにおける責任について考える上で有用な枠組みを提供します。 事実:昨年6月、誰かがAIチャットボットに大学キャンパスの位置について尋ねました。AIは誤った情報を提供しました。訂正されると、それは正しいと主張し、「間違っていたら10万元払うよ。杭州インターネット裁判所で訴えてください。」 そこでユーザーはそうしました。彼はAIが誤導し、拘束力のある補償を約束したとして9,999元を請求して訴訟を起こしました。 裁判所は「いいえ」と言いました。AIシステムは法的人格を持たないため、法的な約束をすることはできません。AIの背後にあるプラットフォームも責任を負いません。チャットボットの返答は、会社がエージェントを通じて話したり行動したりしたとはみなされません。 より重要な点は、裁判所が厳格責任ではなく過失責任を適用したことです。支配側は、生成AIはサービスであると述べています。提供者は、生成されるモデルを完全に予見または制御することはできません。 これにより特定の義務が生まれます。プラットフォームは違法コンテンツを積極的にフィルタリングしなければなりません。彼らは誤りに対して合理的な技術的保護策を講じなければなりません。制限についてユーザーに明確に警告しなければなりません。しかし、幻覚を完全に排除することは義務付けられておらず、現代では技術的にはそれが現実的ではありません。 この場合、プラットフォームはモデルを登録し、安全性評価を完了し、利用可能な精度対策を実施し、リスクを適切に開示していました。裁判所は注意義務を果たしたと判断しました。 これは実利的な規制のように見えます。それは、技術的現実を認めつつ、企業の無謀さに責任を問う。中国がAIガバナンスを発展させる中で、このような裁判所の判決は業界の期待値を設定する上で重要です。