上周,人工智能先驱和专家敦促主要人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少六个月。
未来生命研究所(Future of Life Institute)撰写的一封公开信警告称,具有“人类竞争智能”的人工智能系统可能成为人类的重大威胁。 在这些风险中,人工智能有可能比人类聪明,使我们过时,并控制文明。
信中强调,需要制定一套全面的协议来管理人工智能的开发和部署。 州:
这些协议应确保遵守这些协议的系统在合理怀疑之外是安全的。 这并不意味着人工智能发展总体上的暂停,只是从危险的竞赛倒退到具有紧急能力的更大、不可预测的黑箱模型。
通常情况下,监管之争是政府和大型科技公司之间的较量。 但最近的公开信——到目前为止已经有超过5000人签名,包括推特和特斯拉首席执行官埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克和OpenAI科学家尤纳斯·卡萨——似乎表明更多的政党最终会站在一边。
我们真的能实施一个精简的、全球性的人工智能监管框架吗? 如果是,会是什么样子?
阅读更多:我曾经在谷歌工作,现在我是一名人工智能研究员。 以下是为什么放慢人工智能开发是明智的
已经存在哪些法规?
在澳大利亚,政府已经建立了国家人工智能中心,以帮助发展该国的人工智能和数字生态系统。 在这一框架下是负责任的人工智能网络,旨在推动负责任的实践,并在法律和标准方面发挥领导作用。
然而,目前还没有针对人工智能和算法决策的具体规定。 政府采取了一种温和的方法,广泛接受负责任的人工智能的概念,但没有设置确保实现这一概念的参数。
同样,美国也采取了不干涉战略。 立法者在试图监管人工智能方面没有表现出任何紧迫感,而是依赖现有法律来监管其使用。 美国商会最近呼吁对人工智能进行监管,以确保它不会损害经济增长或成为国家安全风险,但目前还没有采取任何行动。
在人工智能监管方面处于领先地位的是欧盟,它正在竞相制定《人工智能法案》。 这项拟议的法律将分配与人工智能相关的三个风险类别:
造成“不可接受风险”的应用程序和系统将被禁止,比如中国使用的政府运营的社会评分系统
被视为“高风险”的应用程序,如对求职者进行排名的简历扫描工具,将受到特定法律要求的约束
所有其他应用程序将在很大程度上不受监管。
尽管一些组织认为欧盟的做法将扼杀创新,但澳大利亚应该密切关注这一做法,因为它在提供可预测性和跟上人工智能发展的步伐之间取得了平衡。
中国对人工智能的做法专注于针对特定的算法应用,并制定法规,解决它们在特定环境下的部署问题,例如产生有害信息的算法。 虽然这种方法提供了专一性,但它的规则可能会很快落后于快速发展的技术。
阅读更多:具有中国特色的AI聊天机器人:为什么百度的ChatGPT竞争对手可能永远不会达到标准
利弊
支持和反对使用谨慎来控制人工智能的观点都有。
一方面,人工智能因能够生成各种形式的内容、处理日常任务和检测癌症等而闻名。 另一方面,它可以欺骗、延续偏见、剽窃,当然,这也让一些专家对人类的集体未来感到担忧。 就连OpenAI的首席技术官米拉·穆拉蒂(Mira Murati)也表示,应该采取措施监管人工智能。
一些学者认为,过度监管可能会阻碍人工智能的充分潜力,并干扰“创造性破坏”——这一理论认为,为了创新的蓬勃发展,必须打破长期存在的规范和实践。
同样,多年来,商业团体一直在推动灵活的、仅限于特定应用的监管,这样就不会妨碍竞争。 行业协会呼吁进行道德“指导”,而不是监管,他们认为人工智能的发展速度太快,而且没有限制,无法进行充分的监管。
但民众似乎主张加强监管。 根据布里斯托斯(Bristows)和毕马威(KPMG)的报告,约三分之二的澳大利亚和英国人认为,人工智能行业应该受到监管并承担责任。
接下来是什么?
先进人工智能系统的开发暂停六个月,可能会为似乎并没有停止的人工智能军备竞赛提供令人欢迎的喘息机会。 然而,到目前为止,全球还没有采取有效措施对人工智能进行有意义的监管。 世界各地的努力一直是支离破碎、延误和总体松懈的。
全球禁令很难执行,但并非不可能。 这封公开信对政府的角色提出了质疑,政府在非常强大的人工智能工具的潜在危害方面基本保持沉默。
如果要有所改变,政府、国家和超国家监管机构将需要在确保问责制和安全方面发挥带头作用。 正如信中所言,在社会层面上,有关人工智能的决策不应掌握在“未经选举的技术领袖”手中。
因此,政府应与业界合作,共同制定一个全球框架,列出管理人工智能发展的全面规则。 这是防止有害影响和避免竞争的最佳方式。 它还避免了政府和科技巨头争夺人工智能未来主导权的不可取局面。
注:本文由院校官方新闻直译,仅供参考,不代表指南者留学态度观点。