微软更新Copilot AI使用条款,声明该工具仅供“娱乐目的”且“风险自负”。尽管Copilot主打生产力功能,此举意在规避AI“幻觉”导致的信息不准责任,强调用户需自行核实信息。微软仍将其作为生产力工具推广,并要求用户将其视为辅助工具而非决策者。
微软现称 Copilot AI 仅供娱乐用途,使用风险自负
微软已更新其 Copilot AI 工具的使用条款。该公司声明,Copilot 旨在用于“娱乐目的”,用户应“风险自负”。值得注意的是,Copilot 是一款旨在提高 PowerPoint、Excel 等各类应用生产力的产品。
(广告)
微软 Copilot 的使用条款指出,其仅供娱乐用途。(由 AI 生成的示意图)
Armaan Agarwal 新德里 更新时间:2026 年 4 月 5 日 12:50 IST
微软更改了其 Copilot AI 工具的使用条款。这家雷德蒙德巨头现在声明,Copilot 设计用于“娱乐目的”,且用户应“风险自负”。
值得注意的是,Copilot 是一款旨在提高微软 365 办公套件(如 Excel 和 PowerPoint)生产力的工具。该公司过去曾大力向企业用户推广 Copilot,同时也面向消费者推出了该工具。
(广告)
❮
❯
阅读完整报道
最近有发现称,微软拥有 78 款名称中带有 Copilot 的不同产品。
微软为何做出这一改变?
虽然新的使用条款似乎旨在转移 Copilot 可能产生潜在错误的责任。根据微软官方网站,这一使用条款的变更是在去年 10 月进行的。
像 OpenAI 的 GPT 或 Anthropic 的 Claude 这样的大型语言模型(LLM)容易出现“幻觉”,即 AI 可能会编造内容,而不是展示真实信息。虽然这种情况已有所减少,但仍然是一个问题。微软更新的使用条款确实暗示,该公司对 AI 可能产生的准确性问题仍持谨慎态度。
更新的条款将使微软免于承担因 AI 提供不准确信息而可能引发的任何法律索赔。
一张 Copilot 更新后使用条款的截图。
你仍然可以将 Copilot 用于工作
微软并非真的让你完全停止在工作中使用 Copilot。本质上,该公司是在声明,它不会对 AI 犯下的任何错误承担责任。
相反,它希望你将 Copilot 作为一种工具,而不是决策者。公司希望用户在依赖 Copilot 提供的信息处理重要工作之前,先进行事实核查。
请注意,大多数 AI 模型确实都附带有关于其可能存在的潜在不准确性和错误的免责声明。
微软正在加大 Copilot 的销售力度
微软也没有停止将 Copilot 作为工作生产力工具进行推广。据彭博社报道,微软 CEO Judson Althoff 最近在一次内部会议上表示,上季度公司在 Copilot 销售方面实现了“一些相当宏大的目标”。
今年 1 月,该公司曾确认,截至 2025 年 12 月 31 日,只有 3% 的客户在为 Copilot 付费。
今年早些时候……
来源:indiatoday.in
