根据韩国媒体 Economist 和 SBS 报导,Samsung 在引进聊天型 AI 机器人 ChatGPT 後不久,就发生了机密资料外泄事故。近期被指出,部分 Samsung 内部资料,如半导体设备测量数据和产品良率等,已经被错误地存入 ChatGPT 的学习资料库中。
内部资料变成 ChatGPT 学习数据
这些外泄事件主要源於 Samsung 员工在使用 ChatGPT 时的误用或滥用。据报导,共发生了三次事故,其中两次涉及半导体设备,另一次涉及会议内容。Samsung 员工在使用 ChatGPT 查询问题并验证答案时,不慎将这些资讯添加到 ChatGPT 的学习资料库中。若其他使用者在 ChatGPT 上提出相关问题,可能导致 Samsung 企业机密外泄。
提示员工勿输入敏感资料
为防止此类事故再次发生,Samsung 正在制定相应的保护措施。如果类似事件继续发生,Samsung 内部可能会切断 ChatGPT 服务。有消息称,Samsung 正考虑通过其创新中心开发专属的 AI 服务。
Samsung 已经通过公告提醒员工注意在使用 ChatGPT 时的方式,并强调在输入内容後,相关资料将被传送到外部伺服器,无法收回。使用者应避免在 ChatGPT 中输入敏感资料,以防止机密外泄。
限制提问字数
事实上, ChatGPT 的使用指南也明确要求「使用者不要输入敏感内容」。尽管最初因担心机密外泄,所以 Samsung 初时是禁止使用 ChatGPT,但自 3 月 11 日起,Samsung 允许其半导体和装置解决方案部门(DS)使用 ChatGPT,而装置体验部门(DX)仍禁用该服务。
然而,在放宽政策不到 20 天後,就爆出机密外泄事件,引起了 Samsung 的警惕。作为应对措施,Samsung 紧急将 ChatGPT 提问字数限制在 1,024 字节以下,以降低资料外泄风险。日後,若再次发生类似事件,Samsung 可能会对相关人员进行惩处。
相关文章
- Gmail 开发者估计 ChatGPT 般的 AI 机器人将在 2 年内摧毁 Google
- Galaxy S23 系列登场 配 2 亿像素相机
- 阻止用 ChatGPT 作弊?OpenAI 推出 AI 内容识别器!
- 收费版 ChatGPT Professional 消息曝光 反应更快、不限提问次数