OpenAI 因未妥善处理员工关于 ChatGPT 暴力对话的警示而陷入危机。据《华尔街日报》报道,尽管内部多次建议将涉及暴力内容的用户上报警方,但部分未被采纳。此举关联到加拿大一起致 8 人死亡的枪击案,受害者家属已起诉 OpenAI 疏忽。事件引发关于 AI 企业如何在用户隐私与公共安全间平衡的激烈争论。CEO 阿尔特曼已公开道歉,公司称已加强安全机制,若按现行标准类似账户将被移交执法部门。
OpenAI 因员工警示 ChatGPT 暴力对话未获妥善处置而面临压力
据最新报道,OpenAI 再次陷入舆论风暴:有员工曾对 ChatGPT 中出现的暴力对话内容发出警示,但这些情况并未全部上报警方。该事件重新引发了关于人工智能公司应如何在用户隐私、平台安全与企业责任之间取得平衡的广泛讨论。
(配图由 AI 生成)
作者:Ankita Garg 地点:新德里 更新时间:2026 年 5 月 3 日 15:43(印度标准时间)
随着新的指控浮出水面,OpenAI 正面临法律与声誉的双重危机。据称,即便在部分员工认为存在明显危险的情况下,ChatGPT 对话中出现的预警信号也未被及时升级处理。这一争议源于《华尔街日报》的一篇调查报告,文中指出,公司内部多名员工曾在不同时间点敦促管理层就用户描述的暴力场景向执法机构发出警报。
然而,部分此类建议据称并未得到落实。该报道进一步加剧了本已敏感的辩论:人工智能企业在多大程度上应当介入并监管用户行为?
内部安全关切与隐私担忧发生冲突
目前,施加于 OpenAI 的压力已远超伦理讨论范畴。2026 年 2 月,加拿大不列颠哥伦比亚省坦伯勒里奇(Tumbler Ridge)发生一起大规模枪击案,造成多人遇难。受害者家属已提起七起诉讼,指控 OpenAI 存在疏忽、过失致死,并为袭击提供了便利。据报,嫌疑人杰西·范·鲁茨拉尔(Jesse Van Rootselaar)在作案前数月曾通过 ChatGPT 撰写大量暴力内容。
根据报道,部分 OpenAI 员工认为这些信息严重到足以通知当局。但公司高层据称最终决定不予上报。数月后,这起袭击导致八人丧生。
对此,OpenAI 表示已加强其内部安全机制,并指出若按现行标准,同类账户很可能已被移交执法部门处理。公司首席执行官山姆·阿尔特曼(Sam Altman)随后公开道歉,称:“尽管我深知言语无法弥补损失,但我认为有必要致歉,以承认贵社区所遭受的伤害与不可逆转的悲痛。”
该报道还披露了公司内部在处理平台不当行为问题上的更广泛分歧。据称,在去年举行的多次内部会议中,来自法务、调查、运营及政策团队的成员共同审议了多起敏感案例,涉及暴力提示词及潜在威胁内容。
专注于安全事务的员工主张采取更积极的干预措施,认为任何明确讨论攻击或伤害的行为都不应被轻视。而另一些员工则警告,过度或不必要的警方转介可能带来反效果,尤其当年轻用户或其家庭因从未转化为实际行动的对话而遭到质询时,可能造成二次伤害。
这种张力似乎也在其他几起独立案件中显现……
来源:indiatoday.in
