返回资讯列表
行业动态

微软因将 Copilot 定义为“仅限娱乐”遭猛烈抨击

moroccoworldnews.com2026/05/06-342,247 阅读
🚀

微软向企业推销 Copilot 时,因服务条款中“仅供娱乐使用”的表述引发争议。该措辞虽已更新为 2025 年版本,但强调产品可能出错且需用户自担风险,与其“生产力工具”的定位形成反差。微软回应称将修改这一“遗留性措辞”,以反映其实际应用场景。此事件折射出 AI 行业普遍现象:开发者通过免责声明警示风险,而用户却往往过度信赖 AI 输出,将其用于决策等关键事务,模糊了辅助与依赖的界限。

卡萨布兰卡

本周,微软向企业客户推销 Copilot 的举措遭遇尴尬时刻:社交媒体上用户重新翻出了其服务条款中“仅供娱乐使用”的表述。

该措辞出现在最后更新于 2025 年 10 月 24 日的条款中,其中警告称 Copilot“可能出错”、“未必按预期运行”,且不应将其作为重要建议的依据;同时提醒用户需自行承担使用该工具的风险。

这一行文字之所以引发关注,是因为微软一直积极将 Copilot 定位为面向企业客户的生产力工具,用于撰写、研究和职场任务等场景。销售话术与法律免责声明之间的强烈反差迅速成为网络质疑者的谈资,许多人因此质疑微软自身对其 AI 产品的信心究竟有多强。

一位微软发言人告诉 PCMag,公司计划修改其所称的“遗留性措辞”。该发言人表示,当前用语已不能反映 Copilot 如今的实际使用方式,将在下一版条款修订中进行更新。

其他媒体报道指出,该短语是该产品早期作为 Bing 助手阶段的遗留内容,当时尚未扩展至企业软件及企业订阅服务。

这一事件也折射出整个 AI 行业的普遍现象:OpenAI 明确告知用户,不应将聊天机器人输出视为唯一的事实来源;xAI 同样警示用户,不应假定回复内容就是“真相”。

如今,越来越多的人像对待同事或搜索引擎一样依赖 AI 工具,将其用于从健康咨询、法律文书起草到财务决策和个人建议等各类事务。

人们对这些系统的信任往往建立得很快,很大程度上是因为回复即时呈现,且语气清晰笃定。这种易用性固然构成了产品吸引力的一部分,但也容易模糊“有效辅助”与“过度信赖”之间的界限。

各公司自身的免责声明恰恰提醒我们:用户对这些系统的信任程度,往往超过了开发者所建议的水平。在实践中,AI 正逐渐从单纯的搜索工具演变为一种“思维捷径”,许多用户的使用方式已远超简单的辅助范畴。

摩洛哥世界新闻(Morocco World News)也在 X 平台活跃——欢迎立即查看我们的最新帖子!下载 MWN iOS 和 Android 应用,即可即时获取突发新闻。

标签: 人工智能(AI) Copilot 微软

来源:moroccoworldnews.com

AI人工智能科技行业动态