继马斯克、图灵奖得主等一众大佬签署公开信、联名呼吁暂停大型AI研究后,ChatGPT再遭争议与质疑。
(资料图片仅供参考)
近日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。同时个人数据保护局开始立案调查。这是第一起政府禁止使用聊天机器人的案例。
个人隐私泄露,意大利禁用ChatGPT
3月20日,多名ChatGPT用户表示在自己的历史对话中看到了他人的对话记录。还有不少 ChatGPT Plus用户在Reddit和Twitter等平台发出截图,表示在他们的订阅页面上看到了其他人的电子邮件地址。
3月25日,OpenAI发布声明承认,由于开源代码库中存在一个漏洞,部分用户能够看到另一个用户的聊天标题记录,此前已将ChatGPT短暂下线并紧急修补此漏洞。
同时,OpenAI表示,在特定的9小时窗口期内,1.2%的付费版用户的个人支付信息可能被泄露。部分用户可能会看到另一名活跃用户的姓名、电邮、支付地址、信用卡后4码、信用卡到期时间等信息。
意大利个人数据保护局认为,ChatGPT泄露了用户对话数据和付款服务支付信息,没有告知用户将收集处理其信息,缺乏大量收集和存储个人信息的法律依据,同时缺乏年龄验证系统,因此未成年人可能接触到非法信息。OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
忧心泄密风险,企业限制ChatGPT使用
事实上,这已经不是ChatGPT第一次拉响有关数据安全担忧的警报。
据报道,微软的工程师和亚马逊的律师都曾警告员工,不要与ChatGPT分享“任何亚马逊的机密信息,包括你正在编写的代码,因为他们可能会将其用于训练未来的模型。”
然而,警告或许并未达到实际效果。数据安全公司Cyberhaven调查了不同行业客户的160万员工的ChatGPT使用情况。该公司发布报告表示,2.3%的员工将公司机密数据贴入ChatGPT,企业员工平均每周向ChatGPT泄露敏感数据达数百次,目前敏感数据占员工粘贴到ChatGPT的内容的11%。
多家媒体消息称,三星内部就发生了3起误用、滥用ChatGPT案例,恐泄露三星内部机密。其中,有两起关于三星的半导体设备,另一起关于三星的内部会议内容。
有观点认为,输入ChatGPT的数据可能被用于未来模型的迭代训练。如果用户输入敏感数据,这些数据便极有可能成为其输出的内容,造成敏感数据泄露。
出于这种忧虑,美国银行、花旗集团、德意志银行、高盛集团、富国银行、摩根大通和Verizon等机构已经禁止员工使用ChatGPT聊天机器人处理工作任务。许多日本大公司,如软银、富士通、瑞穗金融集团、三菱日联银行、三井住友银行等,也限制了ChatGPT和类似聊天机器人的商业用途。
本周,1000多名科技行业领导和研究人员呼吁暂停先进AI系统的研发,以便相关的数据安全政策能够首先得到讨论施行。AI与数字政策中心(The Center for A.I. and Digital Policy)长期致力于推行数字科技的道德化使用,要求美国联邦交易委员会(U.S. Federal Trade Commission)禁止OpenAI发布ChatGPT新的商用版本。
日前,OpenAI首席执行官Sam Altman在接受媒体采访时坦白,对AI技术以及它如何影响劳动力、选举和虚假信息的传播有些害怕,“我担心这些模型可能会被用于大规模的虚假信息传播。”他认为,这些可能的负面影响需要政府和社会共同参与监管,并呼吁反馈和规则对抑制人工智能的负面影响非常关键。
尽管,在2019年微软宣布注资10亿美元支持OpenAI研发通用人工智能模型时,Sam Altman曾将这一努力与二战期间美国制造原子弹的曼哈顿计划相提并论,认为二者都将带来巨大的科技进步,且自信于控制风险的能力。
(文章来源:21世纪经济报道)