所谓的生成式人工智能(可用于使用机器学习创建内容的算法)最近经常出现在新闻中。特别是Open AI开发的工具ChatGPT,引起了相当大的关注。
在澳大利亚,这无疑得益于微软联合创始人比尔·盖茨的评论,他最近访问了我国,热衷于宣传这项技术的好处。
大多数争论都是关于ChatGPT和类似的人工智能工具,如DALL。e2,用于创造被认为是真实的图像和艺术,Whisper,提供“自然语言语音识别”,以及它们为学生作弊或取代工人提供便利的潜力。
他们还被认为有潜力解放人们的时间,使他们能够从事其他任务。
在一篇文章中,一位创办了一家专门从事科技创业的公司的企业家热情地说道:
“ChatGPT给人的感觉就像是PC的引入——它是一种工具,可以让我们更聪明地工作,并增强人类的能力,让他们做自己最擅长的事情,也就是创造、梦想和创新。”
然而,到目前为止,很少有人说这些工具在医学和医疗保健中的潜在使用和滥用,包括诊断,包括自我诊断和处方。
如果以史为鉴,这些技术很可能在这些领域得到早期的广泛应用。它们也是有很大可能被利用和滥用的领域,特别是考虑到在线工具的现成可访问性。
在最近的一篇新闻文章中,据报道,比尔·盖茨看到了“(ChatGPT)在医疗行业以及其他需要了解大量信息的行业的明显好处”。
文章称,“例如,人工智能可以帮助医生开处方,向病人解释医疗账单,或者还可以帮助撰写和理解法律文件。”
作为一名对新兴健康技术感兴趣的健康社会学家,这些评论引起了我的注意。这是围绕新健康技术的典型承诺话语。这也令人深感担忧。
从表面上看,使用实际上是复杂的聊天机器人的近乎即时的信息生产有很多吸引人的地方。
聊天机器人已经被广泛使用了一段时间,尽管有时有用,但人们很清楚它们的局限性。作为人工智能的一种形式,它们依赖于从许多在线来源收集的信息——其中一些可靠性存疑——这些信息也带有偏见,包括基于性别、阶级、种族/民族和年龄差异的信息。
网上的很多信息都是“个性化”算法驱动的广告,旨在吸引用户。这些个性化的信息被精心设计成“情感共鸣”
在我最近出版的书中,我探讨了在网上利用情感的机制;例如,通过欺骗性的设计或“黑暗模式”,旨在欺骗用户,使他们以某种方式感受和行动,通常目的是鼓励他们继续在线并购买广告中的商品和服务。
情感计算是罗莎琳德•皮卡德(Rosalind Picard)创立的一个领域,旨在让机器变得更“像人”、更“健谈”,因此情感得到了前所未有的利用。皮卡德联合创立了Affectiva,这是麻省理工学院媒体实验室的一个分支,声称自己的使命是“使技术人性化”,而这种技术在广告领域可能有广泛的应用。这就是生成式AI(如ChatGPT)备受关注的地方。
OpenAI推出了ChatGPT,声称这种语言模型“以对话的方式进行交互”,并且“对话格式使ChatGPT能够回答后续问题,承认错误,挑战不正确的前提,并拒绝不适当的请求”。
这一声明表明,人工智能可以像人类一样思考、感受和反应,这一声明意义重大,显然引起了很多人的兴趣,据称该工具发布后一周内就有大约100万用户。
一个会思考、有感觉、有感觉的人工智能的前景很牵强,但在科幻小说和大众想象中根深蒂固。
让我非常担心的是人们使用ChatGPT和类似的工具进行常规医疗程序,包括自我诊断。
OpenAI得到了一些有权势的人的支持,包括盖茨(据报道微软已经是投资者)、埃隆·马斯克(Twitter的现任所有者)、彼得·蒂尔(PayPal的创始人)和其他大型科技企业家。
当他们谈论生成式AI的好处时,他们很难说是无私的玩家。毫无疑问,他们和其他亿万富翁企业家都在关注生成式人工智能在健康和医药等领域所能带来的巨大利润。
阅读更多:医疗保健教育中的人工智能:它准备好教未来了吗?
自我诊断已经成为人们使用数字媒体的重要组成部分。正如我和同事在我们的研究中所表明的那样,许多人在发病后不久就上网了解更多关于他们的病情,并在网上搜索信息和治疗方法。
这些在线搜索被寄予厚望,并使用启发式捷径来简化有关信息可信度的复杂决策。生成式人工智能无疑将在那些寻求治疗和管理复杂疾病的快速答案的人中得到广泛应用。
对于生成式人工智能(generative AI)等创新带来的危险,有必要展开更多辩论。这些创新前景广阔,但也存在巨大风险。
注:本文由院校官方新闻直译,仅供参考,不代表指南者留学态度观点。