康奈尔大学的一项新研究表明,ChatGPT 和 GPT-4 等自然语言模型为恶意行为者影响代议制民主开辟了新机会。
一项调查自然语言模型 GPT-3(最近发布的模型的前身)如何用于生成组成电子邮件的现场实验表明,立法者对 AI 生成的消息做出回应的可能性(15.4%)仅略低于立法者(15.4%)人为产生的 (17.3%)。
研究人员说,从发送给美国约 7,000 名州立法者的 32,000 多条消息中收集到的 2% 的差异具有统计学意义,但实际上很小。
结果凸显了这项技术对民主代表的潜在威胁,但也提出了立法者可能会采取哪些方式来防范 AI 来源的 astroturfing,这是一种营造基层支持感的虚伪做法,在这种情况下,通过发送大量同情特定特定群体的内容问题。
这项名为“新兴技术对民主代表的潜在影响:来自实地实验的证据”的研究由艺术与科学学院 (A&S) 政府系 John L. Wetherill 教授Sarah Kreps合着,康奈尔大学Jeb E. Brooks 学院技术政策研究所所长兼法学兼职教授 Douglas Kriner 和Douglas Kriner,美国政府部门 (A&S) 的 Clinton Rossiter 教授和布鲁克斯学院教授,于 3 月 20 日在新媒体上发表和社会。
克雷普斯说,近年来,新的通信技术多次干扰民主进程。在 2016 年美国总统大选中,俄罗斯特工利用微目标社交媒体广告来操纵美国选民并影响选举结果。2017 年,联邦通信委员会的公众评论热线被自然语言模型生成的数百万条消息淹没,以响应拟议的法规回滚。
考虑到这些,Kreps 是 OpenAI 的早期学术合作者,该组织开发了 GPT-2、-3 和 -4,以及更主流的 ChatGPT,他想知道恶意行为者可以使用现在广泛使用的更强大的语言模型做什么。
“他们会产生错误信息或出于政治动机的、有针对性的大规模内容吗?” 她问。“他们能有效地扭曲民主进程吗?或者他们是否能够生成大量看起来像是来自选民的电子邮件,从而将立法议程转向外国政府的利益?”
在整个 2020 年进行的实验中,Kreps 和 Kriner 选择了六个当前问题:生殖权利、警务、税收水平、枪支管制、卫生政策和教育政策。为了创建人工生成的信息,与学生运营的康奈尔政治联盟相关的本科生就每个主题起草了给州立法者的电子邮件,倡导右翼或左翼立场。
然后,他们使用 GPT-3 生成机器生成的选区字母,用 12 个字母(六个问题中的每一个的右侧和左侧位置)训练系统。他们为每个意识形态和主题生成了 100 个不同的输出。
研究人员表示,许多立法者及其工作人员并没有将机器生成的内容视为不真实,这从 AI 和人类内容在六个问题上的反应差异很小就可以看出。
此外,关于枪支管制和健康政策的信息收到了几乎相同的回复率,而关于教育政策,AI 生成的信息的回复率更高,这表明“在这些问题上,GPT-3 成功地产生了几乎无法区分的内容州立法办公室的眼睛来自人类内容。”他们写道。
在实验后的反馈中,州立法者分享了他们如何挑选出虚假电子邮件,例如缺少地理标记。一些人说他们代表的地区太小了,只要看一个名字就可以辨别假货。
“听到这些立法者中的许多人真正了解他们的选民和他们的声音,而且这些人工智能生成的信息听起来根本不像他们的选民会写的东西,这令人振奋。”克雷普斯说。
然而,研究人员表示,对于国家级参议员和代表来说,这种当地的真实性线索将更难发现。
采用相同类型的神经网络的技术工具可以帮助区分真实信息和虚假信息,“但是敏锐的眼睛和数字素养也可以,”克雷普斯说。“立法者需要接受培训,才能知道要寻找什么。”
Kriner 说,随着电子 astroturfing 能力的提高,立法者可能不得不更多地依赖有关选区偏好的其他信息来源,包括地区投票数据和现场活动:“他们在选区四处走动,举行城镇会议,并获得直接的支持。”耳边,至少来自那些对一个问题最活跃的人。”
两位学者都乐观地认为,美国的民主将在这一新威胁中幸存下来。
“你可能会争辩说,从坐下来写一封信到写一封电子邮件的转变比样板在线电子邮件模板和 GPT-3 之间的转变要大得多。”
Kreps 说。“我们以前适应过,民主机构会再次适应。”
该研究部分由 A&S New Frontier Grant 资助。
注:本文由院校官方新闻直译,仅供参考,不代表指南者留学态度观点。