周日,一则关于ChatGPT的利空传闻突然刷屏。具体是:ChatGPT目前停止注册,开始大面积封号,4月2日全面封亚洲登录账号。
意大利更是在3月31日宣布封禁ChatGPT,成为首个禁用的国家。而ChatGPT口碑的急速反转,主要集中在数据安全问题方面。
据韩国媒体报道,三星导入ChatGPT不到20天,近日便曝出机密资料外泄的意外事件,涉及半导体设备测量资料、产品良率等内容,传已经被存入chatgpt的数据库中。
韩版《经济学人》的文章中直接写到:这导致半导体设备测量资料、产品良率原封不动传输给了美国公司。据报道,总共有3起事件涉及ChatGPT,2起与半导体设备有关,1项与会议内容有关。
在设计芯片设备的事件中,三星半导体事业暨装置解决方案(device solutions)部门的员工于操作半导体测试设备下载软件的过程中,发现复制有问题,即把有问题的代码复制到ChatGPT中寻找答案,此举有可能令ChatGPT把三星的机密信息当作训练资料使用。
另一事件亦为ds部门所发生,亦是寻求ChatGPT来优化代码,只不过此代码是涉及芯片良率的。第三起则是让chatgpt记录会议内容,虽然不是技术机密,但亦可能导致会议内容外泄。
为此三星表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。
三星这次引起热议,关键点在于将内部半导体数据上传给了ChatGPT。
3月11日,三星的半导体事业暨装置解决方案事业部(DS)部门允许员工使用ChatGPT,随后20天内就发生了三起将公司内部半导体数据上传到ChatGPT的事件:
其中,员工A用ChatGPT帮自己查一段代码的bug,而这段源代码与半导体设备测量数据有关;员工B想用ChatGPT帮自己优化一段代码,就直接将与产量和良品率记录设备相关的一段代码输入了其中;
员工C则先用AI语音助手Naver Clova将自己的会议录音转成文字,再用ChatGPT帮他总结一下会议内容,做成摘要……
目前,三星内部已经采取了“紧急措施”,限制与ChatGPT沟通的话题每个内容上传量不超过1024 bytes,还透露出要开发公司内部AI的意向。
然而,同样值得注意的是,这些消息大多为韩国方面在跟进,OpenAI尚未回应。
实际上,为了规避数据泄露风险,已有不少企业明确禁止员工使用ChatGPT。如软银、日立、富士通、摩根大通等都发出了相关通知。
同样是芯片大厂的台积电也在几天前表示,员工使用ChatGPT时不准泄露公司专属信息,注意个人隐私。
而ChatGPT之所以会让各大企业“谈虎色变”,是因为在今年3月底ChatGPT被曝出现bug会导致用户对话数据、支付信息丢失泄露,这一度导致ChatGPT暂时关闭。
OpenAI的回应中表示,这一漏洞可能导致了1.2%ChatGPT Plus用户的支付信息(包含用户姓名、邮件、支付地址、信用卡号最后四位及信用卡过期时间)被暴露了约9个小时。
众多意外事件的发生开始让人们开始思考人工智能技术的安全问题。毫无疑问,人工智能技术的应用已经深入到各个领域,而在其应用中,安全问题显得尤为重要。一旦机密信息外泄,不仅会对企业自身造成损失,也可能对整个行业产生不良影响。