Tether首席执行官Paolo Ardoino近日发出警告,称中心化的大型语言模型(LLM)存在严重缺陷。他特别指出,有报道称领先的生成式AI公司OpenAI在2023年初遭遇了一次重大安全漏洞,这一事件被他形容为“可怕”。
据《纽约时报》报道,尽管此次安全漏洞导致一些敏感信息被泄露,OpenAI却选择不公开披露这一事件。前OpenAI研究员Leopold Aschenbrenner批评该公司的安全措施不足,认为这可能使其容易受到与外国政府有关的恶意行为者的攻击。Aschenbrenner声称,他与OpenAI断绝关系是出于政治原因。OpenAI否认上述事件是他被解雇的原因,并补充说,这一违规行为甚至在他被公司聘用之前就已发生。
尽管OpenAI声称其当前技术不构成国家安全风险,但仍有担忧其机密信息可能落入中国等外国对手手中。Ardoino的警告进一步引发了对中心化AI模型安全性的广泛讨论。
除了安全漏洞,集中式AI模型还面临着不道德的数据使用和审查制度的批评。Ardoino认为,释放本地人工智能模型的力量是解决隐私问题并确保弹性和独立性的“唯一途径”。他表示:“可以在本地执行的人工智能模型是保护人们隐私并确保弹性/独立性的唯一方法。”他补充说,现代便携式设备如智能手机和计算机的功能已经足够强大,可以运行复杂的AI模型。