proton油管教程 , , , ,

ChatGPT 正在改变人们的思维模式,你可能没有意识到的隐忧

在近期的科技相关产业中,几乎没有任何新技术比 AI 有更深远的影响。从编写答案到建立复杂的视觉艺术、生成音乐等,像 ChatGPT 这样的生成式 AI 工具已经抓住了公众的想像力。发展如此迅速,影响如此之大,以至於监管机构正忙着建立防护,以使这些 AI 工具不会抢走人类的饭碗或是更坏的情况。

ChatGPT 正在改变人们的思维模式,你可能没有意识到的隐忧

AI 人工智慧工具远非完美,尤其是涉及其固有偏见时,但似乎这些偏见不仅是这些 AI 的缺陷,因为他们可以影响到人们的思维,尤其是儿童。根据都柏林三一学院和美国科学促进会(AAAS)专家的合作研究,这些 AI 也可能改变人类的信念,尤其是在他们对 AI 可以做什麽以及应该信任什麽的看法时。在《Science》上发表的研究论文中,一个主题反覆出现,就是当人们坚信这些 AI 程式拥有渊博的知识时,他们可能会更相信它。在 ChatGPT、Bard 和 Bing Chat 等生成 AI 模型最常见问题之一就是虚假故事。

AI 如何造成误导

虚假故事是指 AI 产生的回应不是其训练数据中的一部分,或是未预期出现的答案,但 AI 模型无论如何都会提出来以取悦人类用户。众所周知,ChatGPT 容易出现虚假故事,还有 Google 的 Bard 也是如此。最常见的虚假故事之一就是历史资料。举例来说,当你提示 ChatGPT 关於两个历史人物之间的虚拟会面,其中一个是圣雄甘地,它会自信地回答甘地餐与枪战的虚假描述,就好像是一个真实的历史事件一样。

根据 AAAS 的官方文章,AI 目前是为搜寻和资讯提供等目的而设计的,可能很难改变接收 AI 提供的虚假或偏见资讯的人的想法,该文章中还指出,儿童最容易受到 AI 的不良影响。加州大学柏克利分校心理学教授,同时也是该文章联合创作者之一的 Celeste Kidd 在 Twitter 中解释,AI 模型的能力往往被夸大且不切实际,AI 的这种公开展示在他看来创造了一种普遍的误解,这些模型超出人类水准推理加剧了将虚假资讯和负面刻板印象传播的风险。其中在心理层面起作用的原因是人类经常根据一小部分的资讯形成整个观点或理念。

AI 模型是一个有缺陷的资讯管道

如果 AI 作为一个人的关键资讯和想法成形的来源,即使後来他们接触到正确的资讯,想要变更这些已经根深蒂固的信念会变得很艰难,这就是生成式 AI 变得危险的部分。由於产生虚假故事,AI 不仅可以让人们相信错误的资讯,还可以将内含的固有偏见渗透根植到人类用户的意识中。当涉及到儿童的时候这种情况就会更危险,孩子很可能相信透过这些生成式 AI 模型找到的资讯,而不是来自严格研究查核的传统讯息来源与父母师长的教育。

在教育机构中使用像 ChatGPT 这样的生成 AI 已经成为热门讨论的话题,学术界成员不仅担心抄袭,但忧心它会从根本上改变年轻人收集知识的方式以及自己动手做研究和实验的倾向。Celeste Kidd 还强调另一个关键因素:语言确定性。他指出,人类在交流过程中经常会用「我认为」这样的词语来表达自己传达的资讯可能出自个人观点或回忆,因此虽然容易出错但可以听得出来。另一方面,像 ChatGPT 和 Bard 这样健谈的生成式 AI 模型并不会有这麽细微的表徵来让用户察觉其中的差别。

被误导的信心回圈

Celeste Kidd 指出,相比人类,AI 生成模型单方面以自信、流畅的陈述来给与答案,没有任何不确定性的表示,也没有传达自己不确定的能力。这些 AI 模型为了免责,要嘛避免使用「作为 AI 模型」来规避敏感话题发表意见,要嘛只是产生虚假故事并编造虚假资讯,并且将它以彷佛真实的样子呈现。

当一个人接收到的虚假资讯频率越高,对此类错误资讯的信念就越强。同样的,可疑资讯的重复,特别是当它来自「可信的」AI 模型时,越容易向人类灌输错误观念,这很可能就会变成传播虚假资讯的回圈。

情况只会恶化

该论文中还指出,当使用者产生不确定时就是他们转向 AI 作为资讯出口的那一刻。一旦他们得到答案,无论是否 100% 正确,他们的怀疑就会消失,他们的好奇心也会消失,因为他们的观点已经形成。因此,他们不再像第一次需要新资讯时那样紧迫地考虑或权衡新资讯。

令人担忧的是,现在 AI 模型越来越多样化,这表示它们可以生成多种格式的答案,这种情况似乎并没有得到缓解。ChatGPT 和 Microsoft 的 Bing Chat 以文字形式给出答案,另外还有像 Dall-E和MidJourney 这样以文字描述产生图像的生成 AI 模型,还有一些工具可以从公共领域的文件生成音讯等。

随着 GPT-4 的升级,OpenA I的 ChatGPT 已经变成了多模式。在其反覆运算中,尤其是在视觉方面,偏见再次抬头。在与电影制作人一起测试 ChatGPT 时,事实证明当涉及到艺术、语言、地理和文化等创意输出时,明显倾向於以西方为中心的英语叙事。对於一个没有意识到 AI 偏见问题的人来说,将 AI 的输出吸收为可靠的资讯并形成一个建立在有缺陷的基础上的坚定信念变得很自然。

Source: Slash Gear