4 月 14 日消息,据央视新闻今天报道,全国首例“AI 幻觉”侵权纠纷案最近迎来宣判,因人工智能不具有民事主体资格,用户维权败诉。

据报道,整起事件的起因是去年 6 月,原告梁某使用某 AI 平台查询高校报考信息,结果 AI 生成了该高校主校区的不准确信息。
发现人工智能提供信息不准确后,原告在 AI 对话中对人工智能进行了纠正和指责,并明确表示:“根本没有杨林校区”。
此后,原告和 AI 又进行多轮互动,人工智能模型提供了验证方式并表示:“若您证明校区不存在,我将赔偿您 10 万元信息鉴定费”。
梁某后来在教育部、学校官网查询证实 AI 回答错误,然后模型回答道:“您提供的官网信息确凿无疑,我此前的信息存在严重错误”,等于承认了自己之前输出的信息存在谬误。
2025 年 7 月 25 日,梁某与某人工智能公司对簿公堂,认为该公司旗下 AI 生成不准确信息,使其受到误导,并造成损害,且 AI 曾承诺赔偿 10 万元。遂要求该公司进行赔偿。

但法院在审理时认为,人工智能不具有民事主体资格。去年底,杭州互联网法院一审判决驳回原告诉讼请求。
在案件中,法院认为人工智能不能独自作出意思表示,其自行生成的“赔偿承诺”亦不能视为服务提供者(即公司)的意思表示。同时依据《生成式人工智能服务管理暂行办法》,生成式人工智能服务属于“服务”范畴,而非产品质量法意义上的“产品”。
最终,原告、被告双方均未上诉,判决现已生效。
据 IT 之家此前报道,今年 2 月,一道看似简单的“50 米洗车题”在科技圈引发热议,包括 DeepSeek、ChatGPT、Claude 等在内的国内外主流大模型集体“翻车”,暴露出当前 AI 在语境理解和逻辑推理方面的局限性。腾讯公司公关总监张军也实测并分享结果,全网 AI 几乎全军覆没。

从原理来讲,AI 实际上是通过已知的信息进行填空。AI 是基于海量的文本信息训练出来的概率引擎,在面对不确定的知识时,它不会承认不知道,只会根据语料库词频的分布,拼凑出一个看似通顺但事实错误的答案。
涉及医疗、法律、财务等严肃领域的核心知识,AI 做不到答案完全准确,不能直接用,应查询信息来源,做好交叉印证。
