登录遇到问题
Q:长时间接收不到验证码怎么办?
A:您可以拨打我们的客服热线400-183-1832进行语音辅助
没找到相关问题?点此联系客服
选择国家地区
指南者留学logo
指南者留学
选校/定位/规划 必备工具
打开App
卡内基梅隆大学 | 我们还没有为 AI 繁荣做好准备。 无论如何都会来
指南者留学 2023-04-13 09:25:58
阅读量:1251

在大型语言模型 (LLM) 的世界里,几个月来一直是旋风式的,大多数人都将其称为聊天机器人。 自 OpenAI 于 2022 年 11 月发布 ChatGPT 以来,我们已经看到数十亿美元投入到生成式 AI 的开发和实施中,例如谷歌的 Bard 和微软的 Bing 聊天机器人——原因显而易见。

 

ChatGPT 等聊天机器人或 DALL-E 和 Midjourney 等图像生成器感觉就像魔法一样。 有了正确的提示,您就可以让它做几年前无法想象的事情,例如制作深夜独白的笑话和创作屡获殊荣的“艺术品”。 毫不奇怪,自从 ChatGPT 公开发布以来,科技公司一直在努力从这场现代淘金热中获利。

 

就像淘金热一样,人工智能的繁荣也充满了尚未被充分考虑的风险——包括财务和社会方面的风险。 一个严重的担忧是,涌入这些 LLM 的新投资和开发正在吹起一种生成的 AI 泡沫,这是我们自*检查笔记* metaverse 和加密货币以来从未见过的类似泡沫。

 

好吧,也许我们应该看到这个来了。


“将会有成百上千家公司用‘假装到你做到’的承诺引诱那些容易上当受骗的人,”Gary N. Smith,几本关于 AI 的书的作者,包括 Distrust: Big Data, Data-Torturing, 和对科学的攻击,告诉野兽日报。 “LLM 泡沫的破灭可能不会像互联网泡沫、加密货币和 AI 泡沫那样阻止未来的泡沫。”

 

当谈到当前的聊天机器人趋势时,有一种不可否认的似曾相识的感觉。 不到两年前,Facebook 大张旗鼓地宣布,它正在调整其整个商业模式,专注于成为“一家元宇宙公司”。 突然之间,公司也开始向元宇宙迈进。 三星、阿迪达斯和雅达利等主要品牌开始在 Decentraland 等元宇宙平台上进行投资和拍卖。 迪士尼应时任首席执行官 Bob Chapek 的要求开设了一个元宇宙部门。

 

然而,一年后,这一切都像许多坏掉的 VR 耳机一样在他们面前爆炸了。 Decentraland 仍然是一个令人尴尬的空置和未使用的平台。 Meta 将数十亿美元投入到一个普及缓慢的支点上——或者说根本没有人气——而且他们的 Horizon Worlds 平台似乎不存在需求。 迪士尼在上个月削减了其元宇宙部门,但收效甚微。


在此之前有区块链和加密货币。 各行各业的公司和企业家都在拼命想办法通过出售 NFT 收藏品或铸造加密货币来从加密货币热潮中获利,无论它是否真正适合他们的主要业务。 该死,麦当劳甚至发布了 McRib NFT。 硬切到今天,加密货币和 NFT 已成为不良投资的重点。

 

现在,这些趋势中的每一个都不仅仅是让人工智能退居二线——它们实际上已经被踢出汽车,任其在路上腐烂。 Snapchat、Instacart、可口可乐和 Shopify 等公司都已开始与 OpenAI 合作,以便将其生成人工智能技术整合到他们的流程中。 最重要的是,微软推出 Bing 的聊天机器人已经成为谷歌、Meta 和中国百度等其他大型科技巨头发布他们自己的专有聊天机器人的牛鞭。

 

卡内基梅隆大学人工智能伦理研究员文森特康尼策在一封电子邮件中告诉 The Daily Beast,“公司将在这些系统中看到机会,但不一定足够了解它们以充分利用它们。” “很容易被一个显示 ChatGPT 给出好的答案的好演示所说服——如果一个人给出这个答案,就会让你相信那个人真的知道她的东西。”

 

史密斯回应了这种观点,称这些公司“高估了不可靠的 LLM 的潜在好处,并且没有足够重视在错误造成严重后果时依赖 LLM 的财务、法律和声誉风险。”


这些后果可能是微不足道的——聊天机器人弄错了产品的价格,或者在叙述历史事实时弄错了日期——到彻头彻尾的危险。

 

我们一次又一次地看到人工智能在偏见行为方面存在的问题。 自从 ChatGPT 发布以来,我们已经看到 OpenAI 的 LLM 捏造新闻和科学文章,甚至指控一名法学教授性骚扰。

 

将这些问题视为聊天机器人犯下的简单错误可能很容易,但在错误信息在社交媒体上泛滥的时代,它们可能会在现实世界中产生一些后果。 人们很容易受到影响,即使他们知道他们正在与机器人交谈。

 

4 月 6 日发表在 Scientific Reports 上的一篇论文发现,ChatGPT 甚至能够影响人们的道德决策。 该研究向 767 名美国参与者询问了电车问题,这是一个著名的思想实验和网络表情包,询问您是否愿意牺牲一个人的生命来拯救五个人。 在回答之前,用户会收到一份由 ChatGPT 撰写的声明,支持或反对牺牲该人。

 

最后,他们发现参与者更有可能做出与他们刚刚阅读的声明相同的选择——即使在他们被告知它是由 ChatGPT 生成之后也是如此。 这意味着当涉及到生死攸关的实际问题时,我们可能仍然很容易受到聊天机器人的影响。

 

注:本文由院校官方新闻直译,仅供参考,不代表指南者留学态度观点。

老师
我是 的搭档
联系我
已为您分配留学咨询顾问老师 ,请等待顾问老师和您联系。
如需更换老师进行咨询,请联系客服
400-183-1832
预约咨询
电话咨询