随着ChatGPT的大火,生成式AI已经被各行各业火速跟进,光国内发布的类似产品都有数十款。
不过目前这类产品还存在着极大的争议,有很多巨头都宣布禁用,甚至呼吁停止开发更强的迭代AI。
最近,三星公司发布了一项内部规定,禁止员工使用生成式AI工具,以防止数据泄露事件的发生。这一决定引起了广泛关注,也引起了人们对于AI技术安全的关注。三星电禁止员工使用流行的生成式AI工具,如ChatGPT、Google Bard 和Bing。
据悉,三星电子已经通知了该公司最大的部门之一,担心传输到谷歌Bard和Bing等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。
三星公司此次的决定表明,AI技术在使用中需要更加谨慎,对于潜在的风险需要进行有效的控制和管理。不仅是企业,政府、学术界、社会机构等各方面也需要对于AI技术的安全进行更深入的研究和管理。
因为此前三星电子引入聊天型机器人ChatGPT,结果不到20天时间,就曝出有机密数据外泄,甚至有员工将代码上传。
三星电子内部的一些调查显示,有65%受访者认为使用AI工具存在安全风险。
目前三星正准备推出内部工具供员工使用。公司内部备忘录显示,三星电子担心传输到生成式AI平台的数据被存储在外部服务器上,导致其难以被追回和删除,并可能最终被泄露给其他用户。
三星电子的新规禁止在公司所属的电脑、平板电脑、电话及内部网络使用生成式AI系统,但不影响出售给消费者的设备,由用户自行决定。此前,摩根大通、美国银行和花旗等华尔街大行已禁止或限制使用ChatGPT。