你的ChatGPT数据可以不被官方拿去训练模型了!代价是「只聊天不记录」

AI资讯1年前 (2023)发布 AI工具箱
228 0 0

ChatGPT出新规了。

似乎是为了应对数据隐私方面的争议,OpenAI最新blog宣布了ChatGPT数据使用的新规则:

用户可以通过关闭聊天记录功能,来避免自己的个人数据被官方拿去训练

现在在用户个人管理中,已经出现了一个关闭“Chat history&training”的选项。

只要点击取消,历史记录就被禁用了,新的对话也不会再存入聊天记录里。

但新的对话还是会在官方系统里留存30天,OpenAI解释说:

同时还上线了一个导出聊天记录的Export功能,方便用户自己保存数据。

同样是出于数据保护方面的考虑,OpenAI还表示将推出ChatGPT企业版(ChatGPT Business)。

这种版本面向的是对数据保护有更高要求的用户们,相关规则会和API用户的一致,也就是数据完全不会被拿去训练。

官方表示,预计这一版本将会在未来几个月内上线。

如上提到的用户数据被拿去训练,是ChatGPT对话能力提升的途径之一。

数据越多意味着模型能被训练地越精准、聪明。

但它同样牵扯到了用户的隐私安全保护问题。OpenAI声明他们不会滥用收集到的数据,可还是在全球范围内引发了不小的担忧。

由此这次用户数据安全新规推出,不少人都点赞了。

表示这确实能在更大程度上保护个人隐私,同时又不会免费为新模型训练提供数据。

还有一部分人想着“既要又要”:

也有人表示,自己之前就填写了表单,表示不愿意被ChatGPT使用数据,那么现在这部分人会受到什么影响吗?

官方表示他们还会尊重之前申请用户的意愿,新的方法只是将关于训练数据这个过程变得更简单了些。

此前OpenAI开放了一个表单,供不愿意个人数据被拿去训练的用户填写申请。

与此同时他们也提醒用户,如果自己使用了一些插件/软件恶意抓取用户数据,新功能是干预不了的。

有人就发现当自己关闭数据训练后,一些插件也消失了。这可能就是OpenAI为了避免数据在其他地方泄露采取的应对策略。

值得一提的是,这不是OpenAI第一次调整ChatGPT隐私数据使用规则了。

3月1日开始,所有调用API接口的用户数据,将不再被用于模型训练,除非用户自愿提供。

在此之前,如果用户没有特殊要求,默认数据也是会被拿去训练的。

调整后,API接口用户发出的数据同样会被放在系统内保存30天,应对一些监测审查。

调用API后的数据传输是加密的,但数据都会在美国保存和处理。

OpenAI之所以在几个月内频繁地发布数据隐私方面的公告,主要原因或许还是ChatGPT的数据使用已经引发了不小恐慌。

最先“发难”的是意大利,他们以违反欧洲数据隐私法GDPR为由,暂时禁止了ChatGPT。该国监管机构命令OpenAI停止从意大利客户收集数据,并披露纠正该国独立机构提出投诉的步骤。

之后德国、法国、西班牙等也传出了或将加入这一阵营的消息。

4月13日,欧洲各国监管机构表示已就ChatGPT成立了一个特别工作小组。这意味着制定人工智能隐私规范共同政策,或将迈出重要一步。

这种隐私数据方面的担忧,不仅来自于OpenAI的数据收集使用方式,还有一部分原因是用户导致的。

随着越来越多人将ChatGPT加入工作流,上传的数据中难免会夹带公司机密。

有人就表示自己听说有科技巨头员工把产品代码全上传了。

所以,及时给员工制定ChatGPT使用规范,成为当下不少企业都在考虑的事。

比如三星就被传出过因ChatGPT数据泄露的消息,软银、台积电等企业目前也对员工使用ChatGPT提出了要求。

总之,在ChatGPT改变工作方式、改变世界的同时,制定出合理的数据隐私规范,也迫在眉睫了。

参考链接:
[1]https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt
[2]https://openai.com/policies/api-data-usage-policies
[3]https://www.reuters.com/technology/european-data-protection-board-discussing-ai-policy-thursday-meeting-2023-04-13/
[4]https://www.computerweekly.com/opinion/Could-your-employees-use-of-ChatGPT-put-you-in-breach-of-GDPR

© 版权声明

相关文章

暂无评论

暂无评论...