现代人的生活离不开人工智慧(artificial intelligence, AI),例如常见的Google Assistant、Apple Siri等语音型智慧助理,而在ChatGPT、Google Bard等生成式人工智慧聊天机器人逐渐普及後,也有愈来愈多人开始将这些文字型聊天机器人当成查找资料时的好帮手。然而,这些藉由对话产生资料的AI对话引擎,可能会从学习资料提取到如网路谣言等错误资讯,或是出现「幻觉」(hallucinations)而无中生有地生成了不真实的回应。
为了量化AI生成的不实讯息对人类记忆的影响,进而影响日常生活中的决策,台湾大学心理学系副教授黄从仁与美国艺术与科学院院士拉贾拉姆(Suparna Rajaram)组成的团队进行了相关研究。在研究中,团队为了避免耸动资讯带来的影响,刻意采用不带情绪或价值的中性资讯作为实验材料,但最终仍发现当人们与会提供不实资讯的人型机器人交流後,会将机器人所提供约七到八成的不实资讯,错误地指认为真实资讯。目前此研究结果已刊登於《美国心理学家》 (American Psychologist)期刊。
此外,团队也在这项研究中发现,这种从机器到人的假记忆传染似乎很难避免。在进行其中一组实验时,机器人会在与人类交流前告知人类「它们有可能会提供错误资讯」,或是在提供特定错误资讯前,数次做出自己不太确定答案的警告。不过在後续的记忆测验时,却发现人们必须在曾被数次特定警告的情况下,整体的假记忆比例才有些微减少。团队进一步分析这些人假记忆减少的原因,推测他们可能是因为被机器人警告後对它们所说的内容提高了戒心,因此才使得假记忆形成的比例降低。
团队表示,人们普遍相信具有完美记忆的机器人能提供他们正确的资讯,而在记忆容量有限的情况下,大脑通常会优先记住资讯的内容而非对资讯的「标注」(例如内容来源为何或是否有被警告过),此现象也被预期会发生在其他的人机互动情境中。根据这项研究结果,团队建议聊天机器人应该藉由技术上的改善,尽可能不要输出错误的资讯,像是透过人工检核的方式剔除学习资料中的错误讯息,或是让聊天机器人在输出资讯前先针对答案进行事实查核。若机器人无法确认自己答案的真确性,应该直接回答不知道而非自行产生不真实的回应。最後,人们也应对聊天机器人的输出内容抱持适度戒心,不要完全相信机器人提供的答案。
(Adobe Stock)