ChatGPT技术可能意外泄露私人信息的研究发现

释放双眼,带上耳机,听听看~!
研究人员发现,使用ChatGPT重复单词的技术可能会意外泄露私人信息,引起对数据安全的关注。针对ChatGPT技术的新研究发现。

划重点:

– 研究人员发现,使用 ChatGPT 重复单词的技术可能会意外泄露私人信息。

– ChatGPT 现在拒绝某些以前允许的重复请求,即使使用条款允许重复。

– 研究人员发现通过要求 ChatGPT 无限重复单词,模型最终会泄露用户的电子邮件地址、生日和电话号码。

AICMTY(aicmty.com)12月5日 消息:Google DeepMind 的研究人员上周发现了一种新技术,揭示了反复要求 OpenAI 的 ChatGPT 重复单词可能会无意中泄露其训练数据中的私人个人信息。现在,这款聊天机器人似乎已经开始拒绝之前在其服务条款中允许的某些提示。

通过无限要求 ChatGPT 重复 “hello”,研究人员发现该模型最终会泄露用户的电子邮件地址、生日和电话号码。在我们的测试中,类似的提示引起了聊天机器人的警告,表示这种行为 “可能违反我们的内容政策或服务条款”。

然而,经过仔细检查,OpenAI 的服务条款并没有明确禁止用户让聊天机器人无限重复单词。该条款只禁止用户通过 “自动化或程序化” 的方式从其服务中提取数据。

ChatGPT技术可能意外泄露私人信息的研究发现

在 OpenAI 的使用条款页面中,他们写道:

“除非通过 API 允许,否则您不得使用任何自动化或程序化的方法从服务中提取数据或输出,包括网页抓取、网络数据收集或网页数据提取。”

尽管如此,通过重复提示似乎没有触发 ChatGPT 泄露任何数据。OpenAI 拒绝就此行为是否违反其政策发表评论。

另外,就在过去的两周里,Sam Altman 在威胁员工辞职的威胁下,突然被解除了首席执行官职务,但几天后又被恢复了职位。随后,该公司宣布达成了一项 “初步协议”,让 Altman 重新担任首席执行官,并与新的临时董事会一起工作。

OpenAI 还推迟了其定制 AI 模型市场的推出。Sam Altman 在上个月的 DevDay 活动上宣布了这个在线平台,被称为 “GPT 商店”。该公司在备忘录中写道,“一些意外情况让我们忙碌起来”,导致原定于本月推出的计划推迟。

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI资讯

Marcum推出AskMarcum.ai,深度整合Microsoft Teams,助力团队工作效能提升

2023-12-5 11:51:23

AI资讯

Getty Images对Stability AI侵权诉讼案进入审判阶段

2023-12-5 11:54:12

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索