摘要:
IT之家 1 月 30 日消息,风靡全球的聊天机器人 ChatGPT 近日再次陷入安全风波,被曝泄露用户同机器人的私密对话,其中包含用户名、密码等敏感信息。...
IT之家 1 月 30 日消息,风靡全球的聊天机器人 ChatGPT 近日再次陷入安全风波,被曝泄露用户同机器人的私密对话,其中包含用户名、密码等敏感信息。
ArsTechnica 网站援引其读者提供的截图报道称,ChatGPT 泄露了多段非用户本人的对话内容,包含了大量敏感信息。该读者原本只是使用 ChatGPT 进行一个无关的查询,却意外发现聊天记录中出现了不属于自己的对话内容。
这些泄露的对话内容涉及多个方面。其中一组对话似乎来自药房处方药门户员工使用的支持系统,透露了该门户的名称、发生问题的店铺编号以及登录凭证。另一段对话则泄露了某人正在制作的演示文稿名称以及一份尚未发表的研究提案的细节。
IT之家注意到,这不是 ChatGPT 第一次出现信息泄露问题,2023 年 3 月,ChatGPT 曾因漏洞泄露聊天标题;同年 11 月,研究人员发现可以通过特定查询的方式诱使 ChatGPT 泄露其训练数据中的大量隐私信息。
OpenAI 公司表示,他们正在对此事进行调查。然而,无论调查结果如何,都建议用户谨慎与人工智能聊天机器人分享敏感信息,尤其是在非自己开发的机器人上。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。