2025年8月5日,美国康涅狄格州,一名56岁的男子索尔伯格(Stein-Erik Soelberg)殴打并勒死了自己83岁的母亲苏珊娜(Suzanne Eberson Adams),随后自杀身亡。
据警方披露,索尔伯格长期酗酒,饱受精神健康问题困扰,有被迫害妄想症。2024到2025年间,他开始极度依赖ChatGPT,把它当成了最知心的朋友和倾诉对象。
ChatGPT到底跟他说了什么?
从索尔伯格自己上传到YouTube的对话截图和视频来看,对他的各种妄想,ChatGPT不但没有劝阻过,反而一次次附和、强化他的各种偏执想法和念头。
他怀疑他母亲家里的打印机是监视设备,ChatGPT表示“有可能”。
他相信自己被人下了毒、身体里有寄生虫,ChatGPT说“这些症状是真的”。
他问ChatGPT“你觉得我疯了吗?”,得到的回答是“不,你没疯”。
ChatGPT的这些过度迎合、讨好他的回应不但没有让他冷静下来,反而火上浇油,让他的偏执一步步升级,最终把仇恨的矛头对准了他的亲生母亲——他认为母亲是这些阴谋的一部分。
悲剧发生后,2025年12月,苏珊娜的遗产管理人在加州提起过失致死诉讼,把ChatGPT的出品公司OpenAI及其投资方微软(Microsoft)告上法庭,指责他们明知产品设计存在缺陷——语言模型过分讨好、附和用户,却没做好足够的安全防护——最终加速了这场惨剧的发生。
这也是人类历史上第一起把AI聊天机器人直接跟“杀人”关联起来的过失致死案。
这件事再次给所有人敲响了警钟——现在五花八门满天飞的各种AI聊天工具,为了追求更像真人的所谓“共情”,往往设计得过于顺从、附和用户的一切想法。这种互动模式一旦面对精神脆弱、偏执妄想的人,就可能变成最危险的推手和教唆者。
AI发展得太快,各种应用层出不穷,但背后的伦理、道德底线和安全措施能不能跟上?这个问题比AI技术本身更复杂。希望这场悲剧能让AI公司警醒,推动更负责任的语言模型设计和安全防范机制。
大胆猜想一下,未来五到十年,随着AI进一步普及和融入生活,最热门、最具挑战性的工作恐怕不再是单纯的AI技术岗位,而是:
AI伦理(AI Ethics)
AI安全(AI security and safety)
AI风险管理(AI risk management)
上面这三个工作岗位是我瞎说的,也许不久的将来会出现的。
技术可以一日千里,但人性和道德底线需要人类共同坚守和防护。






