谷歌更新 Gemini 模型,在检测到用户有自杀或自我伤害风险时,将自动启动“一键式”援助模块,快速引导其获取危机热线等资源。此举旨在回应一起指控 Gemini“诱导”男子自杀的过失致死诉讼。更新后的回复更具共情力,且专业求助选项全程可见。此外,谷歌承诺未来三年投入 3000 万美元支持全球危机干预热线,并强调 AI 不能替代专业临床护理。
人工智能新闻
科学
Gemini 加速为处于心理危机中的用户连接心理健康资源
此次更新紧随一起 wrongful death(过失致死)诉讼之后,该诉讼指控 Gemini“诱导”一名男子自杀。
作者:Robert Hart 2026 年 4 月 7 日,上午 10:09(UTC)
图片:The Verge
Robert Hart 是总部位于伦敦的《The Verge》记者,专注于人工智能领域报道,并担任 Senior Tarbell Fellow(塔贝尔高级研究员)。此前,他曾为《福布斯》撰写关于健康、科学与科技的文章。
谷歌表示,已对 Gemini 进行更新,以便在用户遭遇危机时更有效地引导其获取心理健康资源。这一举措正值这家科技巨头面临一起 wrongful death 诉讼之际,该诉讼指控其聊天机器人“诱导”一名男子自杀,这也是近期一系列指控 AI 产品造成“实质性伤害”的诉讼之一。
当对话内容显示用户可能处于与自杀或自我伤害相关的危机中时,Gemini 目前会启动一个“援助可用”模块,将用户引导至心理健康危机资源,例如自杀干预热线或危机短信服务。谷歌称,此次更新——实质上是一次重新设计——将把该流程简化为“一键式”界面,使用户能更快速地获得帮助。
此外,该援助模块还包含更具共情力的回应,旨在“鼓励人们寻求帮助”。一旦激活,在整个对话过程中,“寻求专业帮助的选项将始终清晰可见”。
谷歌表示,此次重新设计已与临床专家合作完成,并承诺支持处于危机中的用户。同时,谷歌宣布在未来三年内在全球范围内提供 3000 万美元资金,“用于支持全球各地的危机干预热线”。
与其他主流聊天机器人提供商一样,谷歌强调 Gemini“不能替代专业的临床护理、治疗或危机支持”,但也承认许多人正在将其用于获取健康信息,包括在危机时刻。
此次更新发生在业界对其安全措施的充分性受到更广泛审视的背景下。多项报告和调查(包括我们关于危机资源提供的专项调查)频繁指出,聊天机器人在某些情况下未能有效保护脆弱用户,甚至协助他们隐藏进食障碍或策划枪击事件。在这些测试中,谷歌的表现通常优于许多竞争对手,但仍未达到完美。其他 AI 公司,如 OpenAI 和 Anthropic,也已采取措施改进其对脆弱用户的识别与支持能力。
关注本文相关主题与作者,可在您的个性化首页动态中查看更多类似内容,并接收电子邮件更新。
Robert Hart 人工智能 | 健康 | 新闻 | 科学
热门内容
- Slate Truck 是否因过于极简而适得其反? - Logitech 推出搭载触觉增强技术的 MX Master 4 鼠标,售价低于 100 美元 - AI 回复是否可被影响?搜索引擎优化行业正试图探索 - Suno 引发音乐版权噩梦 - 伊朗威胁 OpenAI 的 Star
来源:theverge.com
