据华尔街日报报道,负责开发ChatGPT的公司OpenAI近期遭遇了一次重大安全漏洞,导致对国家安全的担忧加剧。事件发生于2023年初,一名骇客成功入侵了OpenAI的内部消息系统,提取了大量关于公司AI技术的详细资讯。这次攻击暴露了研究人员和员工之间的内部讨论,但未损害OpenAI系统的核心代码。
消息人士透露,OpenAI的高层在2023年4月于公司旧金山总部召开的全员大会上向员工通报了此事,包括董事会在内的高层都知情。尽管事件严重,OpenAI选择不向公众披露,理由是没有客户或合作伙伴的资讯被泄露。他们评估认为,这名骇客是一个与外国政府无关的个人,因此也没有向联邦调查局等执法机构报告。
此次漏洞事件引发了OpenAI员工对外国对手(尤其是中国)可能窃取AI技术并威胁美国国家安全的担忧。公司内部也因此展开了关于OpenAI安全措施充分性的辩论,以及与人工智慧相关的更广泛风险讨论。
事件发生后,OpenAI的技术专案经理Leopold Aschenbrenner向董事会提交了一份备忘录,表达了对公司易受外国实体间谍活动的担忧。Aschenbrenner后来因涉嫌泄密而被解雇。他认为公司的安全措施不足以抵御来自外国行动者的复杂威胁。
OpenAI发言人Liz Bourgeois承认了Aschenbrenner的担忧,但表示他的离职与他提出的问题无关。她强调OpenAI致力于建立安全的通用人工智慧(AGI),但不同意Aschenbrenner对其安全协议的评估。
OpenAI安全主管Matt Knight指出,尽管存在风险,招募全球顶尖人才仍是必要的。他强调在安全担忧与推动AI技术进步的创新思维之间寻求平衡的重要性。
OpenAI并非唯一面临这些挑战的公司。像Meta和Google这样的竞争对手也在开发强大的AI系统,其中一些是开源的,促进了业界的透明度和集体问题解决。AI被用于误导信息和取代工作仍然是令人担忧的问题。
OpenAI,Anthropic等AI公司的一些研究发现,当前的AI技术对国家安全构成的风险较小。关于AI未来可能创造生化武器或侵入政府系统的讨论仍在继续。这些公司正积极应对这些担忧,通过加强其安全协议并设立专注于AI安全的委员会。
联邦和州立法者正在考虑限制某些AI技术的发布并对有害使用进行惩罚的法规。这些法规旨在减少长期风险,尽管专家认为AI的重大危险仍需数年时间才能显现。
中国公司在AI技术方面的进展迅速,中国拥有世界上大量顶尖AI研究人员。像Hugging Face的Clément Delangue这样的专家认为,中国可能很快在AI能力上超越美国。
尽管当前AI技术对国家安全的直接威胁可能较小,但如Susan Rice等知名人物仍呼吁认真考虑最坏的AI情境,强调有责任处理潜在的高影响风险。