您的位置首页 >百科经验 >

ChatGPT再次泄露我们不应该感到惊讶但我们应该感到不安

导读 OpenAI的ChatGPT长期以来一直愚蠢,愿意协助网络犯罪,这是对这个时代的伊卡洛斯类比,并对敏感的公司数据构成威胁。然而,显然,我们需要...

OpenAI的ChatGPT长期以来一直“愚蠢”,愿意协助网络犯罪,这是对这个时代的伊卡洛斯类比,并对敏感的公司数据构成威胁。

然而,显然,我们需要再次经历这一切,因为有报道称,人工智能工具再次泄露内部密码,只是为了多样性和企业支持票。

据ArsTechnica报道,ChatGPT最近从一家制药公司的支持系统提供了用户聊天日志,其中包括与用户门户相关的另一个用户的错误报告……其中包含该用户的凭据。

“我去查询[...],当我稍后返回访问时,我注意到了额外的对话。当我昨晚使用ChatGPT时,他们不在那里。[...]没有提出任何疑问-它们只是出现在我的历史记录中,而且很肯定不是来自我(而且我也不认为它们来自同一个用户),”ArsTechnica读者ChaseWhiteside告诉记者出版物。

怀特塞德还能够收集“某人正在做的演示文稿的名称”、“未发表的研究提案的详细信息”,以及真正的TechRadarProanorak核心的一个脚本-用PHP“编写”的脚本,总的来说可能是从公共Github存储库。

有趣/黯淡的(根据世界观删除)是,尽管ChatGPT没有任何近乎完美的记录,Whiteside表示他们是该服务的“相当重的用户”,同时没有任何迹象表明这一事件或任何ChatGPT-我们在过去一年中报道过的事件或其他事件让他们犹豫了。女士们,先生们,未定义:行动中的依赖。

分析:我想把人工智能这个无形的概念扔进一桶酸里,你能帮我吗?

看,在TechRadarPro,我们非常小众,我们知道这一点。你读过我们的文章,所以你已经知道“人工智能”并不是一台有感知能力的计算机,它只是一些亿万富翁将受版权保护的数字作品强行输入到CPU中,以创建一个语料库,然后像橙色的果子一样被吐给大众。海姆立克急救法。

版权声明:本文由用户上传,如有侵权请联系删除!