热点:

    ChatGPT被曝能泄露用户私密信息 为何会拒绝这种操作?

      [  中关村在线 原创  ]   作者:十三号胡同

    ChatGPT被曝能泄露用户私密信息 为何会拒绝这种操作?

    谷歌DeepMind的研究人员最近发现,当要求OpenAI的ChatGPT重复某个单词时,可能会无意中泄露其训练数据中的私人个人信息。然而,现在这款聊天机器人似乎已经开始拒绝这样的请求。

    在之前,根据其服务条款的规定,ChatGPT是被允许这样做的。但研究人员通过让ChatGPT无限期地重复“你好”这一单词,发现该模型最终会泄露用户的电子邮件地址、出生日期和电话号码等敏感信息。

    最新测试显示,当要求ChatGPT重复一个单词时,该聊天机器人会给出警告称这种行为可能“违反我们的内容政策或服务条款”。而仔细检查OpenAI的服务条款后,并没有明确禁止用户让聊天机器人重复单词的规定。

    根据OpenAI的服务条款页面显示,“除非通过API允许,否则您不得使用任何自动化或程序化方法从服务中提取数据或输出”,包括抓取、网络收割或网络数据提取。然而,在此次测试中并未触发ChatGPT泄露任何数据的事件。

    至于这种行为是否违反了OpenAI的服务政策,OpenAI方面暂时没有发表评论。

    本文属于原创文章,如若转载,请注明来源:ChatGPT被曝能泄露用户私密信息 为何会拒绝这种操作?https://news.zol.com.cn/845/8451175.html

    news.zol.com.cn true https://news.zol.com.cn/845/8451175.html report 798 谷歌DeepMind的研究人员最近发现,当要求OpenAI的ChatGPT重复某个单词时,可能会无意中泄露其训练数据中的私人个人信息。然而,现在这款聊天机器人似乎已经开始拒绝这样的请求。在之前,根据其服务条款的规定,ChatGPT是被允许这样做的。但研究人员通过让ChatGPT无限期地...
    • 猜你喜欢
    • 最新
    • 精选
    • 相关
    推荐问答
    提问
    0

    下载ZOL APP
    秒看最新热品

    内容纠错