OpenAI持续受到安全问题的困扰

105次阅读
没有评论

OpenAI 在人工智能方面属于绝对的领先地位。然而,其员工频繁出现在媒体和播客中,表达他们对这家估值 800 亿美元的非营利研究实验室安全性的严重担忧。最新消息来自《华盛顿邮报》,一位匿名消息人士声称,OpenAI 在确保其产品安全之前就匆忙通过了安全测试并大肆宣传其产品。

一位不愿透露姓名的员工告诉《华盛顿邮报》:“他们在确定发射是否安全之前就策划了发射后派对。我们基本上在这个过程中失败了。”

OpenAI 的安全问题迫在眉睫——而且似乎还在不断出现。现任和前任员工最近签署了一封公开信,要求公司采取更好的安全和透明度措施。此前不久,因联合创始人 Ilya Sutskever 离职,OpenAI 的安全团队解散。主要研究员 Jan Leike 不久后也辞职,并在一篇帖子中声称,公司内的安全文化和流程已被闪亮的产品取代。

安全是 OpenAI 章程的核心。其中一条条款称,如果竞争对手的通用人工智能(AGI)达到一定水平,OpenAI 将协助其他组织提高安全性,而不是继续竞争。OpenAI 声称致力于解决如此庞大、复杂的系统所固有的安全问题。为确保安全,OpenAI 甚至将其专有模型保密,而不是公开,这引发了争议和诉讼。这些警告表明,尽管安全对公司的文化和结构至关重要,但安全问题似乎被降级了。

显然,OpenAI 正处于困境之中,但仅靠公关努力不足以保护社会。

OpenAI 发言人 Taya Christianson 在给 The Verge 的一份声明中表示:“我们为我们提供最强大、最安全的人工智能系统的记录感到自豪,并相信我们应对风险的科学方法。”她补充说:“鉴于这项技术的重要性,严谨的辩论至关重要,我们将继续与各国政府、民间社会和其他社区合作,为我们的使命服务。”

OpenAI 和其他研究新兴技术的机构认为,安全风险巨大。美国国务院 3 月份委托撰写的一份报告指出:“当前前沿人工智能的发展对国家安全构成了紧迫且日益严重的风险。先进人工智能和通用人工智能的崛起有可能破坏全球安全,其破坏方式让人联想到核武器的出现。”

OpenAI 的警钟也源自去年董事会政变,当时首席执行官 Sam Altman 被短暂罢免。董事会表示,他被免职的原因是未能“始终坦诚沟通”,因此展开了一项调查,但调查并未让员工放心。

OpenAI 发言人 Lindsey Held 告诉《华盛顿邮报》,GPT-4o 的发布“没有在安全方面偷工减料”,但另一位未透露姓名的公司代表承认,安全审查时间被压缩到一周。这位匿名代表告诉《华盛顿邮报》,公司“正在重新考虑整个做法”,“这不是最好的做法。”

面对层出不穷的争议,OpenAI 试图通过一些适时的公告来平息人们的担忧。本周,该公司宣布将与洛斯阿拉莫斯国家实验室合作,探索 GPT-4o 等先进 AI 模型如何安全地协助生物科学研究,并在同一公告中多次指出洛斯阿拉莫斯自身的安全记录。第二天,一位匿名发言人告诉彭博社,OpenAI 创建了一个内部量表,以跟踪其大型语言模型在通用人工智能方面取得的进展。

面对外界对其安全实践的批评,OpenAI 本周发布的以安全为重点的声明似乎只是一种防御手段。很明显,OpenAI 正处于困境之中,但仅靠公关努力不足以保护社会。如果 OpenAI 继续无法按照严格的安全协议开发人工智能,正如他们内部声称的那样,这将对普通人产生重大影响:普通人对私有化 AGI 的开发没有发言权,但他们却无法选择如何保护自己免受 OpenAI 创造物的侵害。

美国联邦贸易委员会主席莉娜·汗 (Lina Khan) 去年 11 月对彭博社表示:“人工智能工具可能具有革命性。”但她表示,“截至目前,人们担心这些工具的关键输入由相对少数的公司控制。”

如果针对该公司安全协议的众多指控属实,那么这肯定会引发人们对 OpenAI 是否适合担任 AGI 管理者的严重质疑,而该组织基本上已经将这一角色赋予了自己。允许旧金山的一个团体控制可能改变社会的技术令人担忧,而且即使在其内部,现在也比以往任何时候都更迫切地要求透明度和安全性。

正文完
 1
gaoqian
版权声明:本文于2024-07-16转载自Theverge,共计1626字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码