Stuart Russell教授发表了一篇演讲,“如何不摧毁人工智能的世界”,由加州大学伯克利分校城市研究中心和BAIR实验室赞助。(CITRIS和Banatao研究所的视频)
这种技术有能力改变世界,但加州大学伯克利分校计算机科学教授和技术专家表示。他说,这对地球上的人们来说可能意味着生命的质量,或者破坏文明。在4月5日的活动中,他调动了两家公司来宣传他们是如何建立和控制自己的利益的。
“情报真的意味着世界权力的形状,在interests,如果你比humans智能制造系统更多的船只要么individually collectively然后你创建entities这是比美国更强大,”拉塞尔说organized by the CITRIS Research at the讲座,交易所和伯克利AI研究实验室。“我们怎么能让力量超越我们,永远超越我们呢?”
“如果我们追求我们的现状,那么我们最终会失去控制。”但是,我们可以采取不同的路线,这实际上是对人类有益的系统。“事实上,我们可以有一个更好的文明。”
像ChatGPT这样的聊天机器人的释放提供了一种公众的视角,去学习我能做什么,它的未来机会和危险。但是改变世界的机会——罗素所描述的13。5磅的“低成本”估计的从更低的成本——会导致高赌注的要求下降。
Stuart Russell
Stuart Russell教授是加州大学伯克利分校计算机科学教授
就像ChatGPT在黑匣子中的操作一样,Russell说。他说,这些工具本身没有目标,如果这些目标可以用我们或他们能否实现目标,那就不清楚了。就像一个人对《纽约时报》的记者重新教授爱的地方,他认为他们可以利用他们的优势,他说。
我应该把它设计成更远的人类利益,认识到它不知道这些利益是什么,并寻找证据来确定这些利益,罗素说。这将使人们重新思考像计划、恢复学习和监督学习这样的概念。它还需要在一条焊接的道路上发展起来,带着rigorous对所有的竞争以及它们是如何结合在一起的。他说,这将使我们能够预测这些系统的结果。
拉塞尔说:“我只是不知道还有什么方法能在这些系统的行为中获得足够的自信。”
即使这项技术建立在这个基础上,也必须有规则证明不安全人工智能的释放,他说。
最后的“文明结束技术”——原子能源——一直是其工程师罗素说的对象。即使是辅助技术领域,比如航空,也受到严格的监管。他说,我也应该这样。
罗素说,国际合法框架的作用已经存在。开发人员应该能够展示他说,公司应该遵守这些原则和规则。
“你应该不是展开系统内部一个原理》行动你不明白,那梅还是可能有他们自己的内部目标,以至于他们是正在追求你所要求的秀,睡意朦胧AGI的火花,’”他说,纸published referring to a大陆由微软researchers突然说OpenAI的GPT-4节目“人工情报将军的火花。”
罗素说:“如果我们相信我们有木火花,这种技术可能完全改变地球和文明的面貌。”“我们怎么能不认真呢?”
注:本文由院校官方新闻直译,仅供参考,不代表指南者留学态度观点。