唠唠资讯2025年08月29日 10:47消息,本网站用于AI训练,聊天记录将被收集使用,默认同意。
8月29日,Anthropic宣布将开始利用用户数据来训练其AI模型,这些数据涵盖新的聊天记录和代码编写对话,除非用户主动选择不参与。此外,该公司还将其数据保存期限延长至五年,同样适用于未选择退出的用户。
根据Anthropic周四发布的博客文章,所有用户需在9月28日前做出选择。如果用户现在点击“接受”,Anthrobe将立即开始使用其数据训练模型,并将这些数据保留最多五年。 从用户隐私和数据安全的角度来看,这种要求无疑增加了用户的负担。在信息日益敏感的当下,用户本应拥有更清晰、更透明的选择权。而这样的截止日期设置,似乎在暗示用户必须迅速做出决定,而非充分了解可能带来的影响。数据的长期保留期限也值得警惕,尤其在没有明确使用范围和保护措施的情况下,用户的个人信息可能会面临更多风险。
此设置仅适用于“新发起或重新开启的聊天及代码编写会话”。即使用户同意Anthropic使用其数据用于模型训练,该公司也不会将用户未重新开启的旧聊天记录或代码会话用于训练。但一旦用户继续使用某段旧会话,相关数据将会被纳入训练范围。
Anthropic 在文中指出,此次更新覆盖 Claude 面向消费者的所有订阅层级,包括 Claude 免费版、专业版(Pro)及高级版(Max),“用户通过上述订阅账户使用 Claude Code 时同样适用”。不过,该更新不适用于 Anthropic 的商业用途层级,例如 Claude 政府版(Claude Gov)、企业版(Claude for Work)、教育版(Claude for Education),也不适用于 API 调用场景,“包括通过亚马逊 Bedrock、谷歌云 Vertex AI 等第三方平台进行的 API 使用”。
新用户在注册Claude时需要设置个人偏好,而现有用户则会收到弹窗提示进行确认。用户可以选择点击“暂不设置”按钮,暂时延后做出选择,但所有用户必须在9月28日前完成偏好设置。 这一措施体现了平台对用户体验的精细化管理,旨在提升服务的个性化水平。不过,对于部分用户而言,强制性的截止日期可能会带来一定的压力,尤其是在时间安排较为紧张的情况下。因此,平台在提供便利的同时,也需关注用户的实际操作体验,确保流程顺畅、合理。
需要注意的是,许多用户可能没有仔细阅读条款内容,就迅速点击了“接受”。用户在弹窗中看到的标题使用大号字体显示为“消费者条款及政策更新”,下方文字说明为“我们的消费者条款与隐私政策更新将于2025年9月28日生效,您可今天接受更新后的条款”,弹窗底部设有一个显眼的黑色“接受”按钮。
注意到,在该按钮下方的小字部分,有几行文字写着“允许使用您的聊天记录及代码编写会话,用于训练和改进 Anthropic AI 模型”,旁边配有一个开启 / 关闭切换开关,且默认处于“开启”状态。显然,即便未阅读条款,许多用户也会直接点击大号“接受”按钮,而不会调整该切换开关。
若用户希望选择退出,可在看到弹窗时将切换开关调至“关闭”状态。若已不慎点击“接受”并希望更改,可进入个人设置(Settings),选择隐私标签页(Privacy),进入隐私设置板块(Privacy Settings),最后在“帮助改进 Claude”选项下将开关调至“关闭”。消费者可随时通过隐私设置更改选择,但新设置仅对未来产生的数据生效 —— 已用于模型训练的数据无法撤回。
Anthropic在博客中提到:“为了保护用户隐私,我们将采用多种工具和自动化流程,对敏感数据进行过滤或模糊处理。我们不会将用户数据出售给第三方。” 随着数据安全问题日益受到关注,企业对用户隐私的重视程度也在不断提升。Anthropic的表态体现了当前科技公司对数据伦理的重新审视,尤其是在监管趋严和公众意识增强的背景下,透明化数据处理方式显得尤为重要。这种做法不仅有助于建立用户信任,也为行业树立了负责任的标杆。然而,如何确保这些措施真正落实到位,仍需持续观察与监督。