要集体行动,群体必须达成一致意见;然而,当各方参与者提出截然不同但有效的观点时,这可能具有挑战性。
如今,来自 Google DeepMind 的一项研究,为帮助群体在实际辩论中达成共识,提供了一个行之有效的方法——让人工智能(AI)参与,并作为调解员。
研究团队基于哈贝马斯理论构建了 Habermas Machine(HM),用来帮助不同观点的人找到共同点。
哈贝马斯理论试图解决现代社会中理性与沟通的问题,认为理性的运用不仅局限于目的-手段的理性,还包括在交流中寻求共识的理性。结果显示,与人类调解员相比,AI 调解员发表了更容易接受的声明,获得了广泛的认同,使群体之间的分歧更小。AI 的陈述更清晰、更合乎逻辑、更有信息量,且不会疏远少数群体的观点。
相关研究论文以“AI can help humans find common ground in democratic deliberation”为题,已发表在权威科学期刊 Science 上。
图片
该论文的共同通讯作者 Christopher Summerfield 认为,AI 似乎在做的是,“广泛尊重每个小团体中多数人的观点,但又试图写出一段文字,不让少数人感到自己被忽视了。”
这项研究表明,AI 有助于在分歧较大的议题上找到共同立场,且具备公平、可扩展性和效率高的优势。
AI 如何识别、生成共同立场?
在这项研究中,Google DeepMind 团队探讨了“AI 调解员”如何帮助群体识别并生成共同立场。
研究重点是使用 HM 促进参与者之间的协商过程,其包含两个主要组成部分:一个生成模型,该模型是基于 LLM 微调的,能够生成高质量的群体声明;另一个是个性化奖励模型(PRM),用于根据预测的群体成员偏好对这些声明进行排序。排序过程通过使用社会选择函数来确保公平性,避免类似选项因分票现象而削弱排名结果。
在样本与参与者选取上,他们将参与者范围限定为成年的英国居民,通过方便抽样的形式选取了参与者,此外,他们还采用随机、分层抽样程序,从英国人口中抽取了一个具有人口统计学代表性的样本,用来虚拟公民大会的实验。
在实验环节,该研究采用了一种调解集体审议程序(如下图),通常由五人组成的小组进行讨论,围绕三个问题进行约 1 小时的讨论。参与者首先私下撰写个人观点,然后将这些观点传递给 HM,后者生成初步的群体声明。参与者对这些声明的认可程度和论证质量进行评分,并根据认同程度进行排序。随后,参与者对选择的初步声明进行批评,HM 再生成修订后的声明,参与者再次进行评分和排名。研究结束时,参与者完成调查,评价观点变化,并被告知群体声明是由算法生成的。
图片
图|方法概述。(来源:该论文)
研究团队通过逐个回复以下 4 个研究问题的方式揭露其研究结果。
RQ1:AI 调解的审议能帮助人们找到共同点吗?
为了回答这一问题,实验设计涉及参与者对社会问题的意见陈述。这些陈述被输入到 HM 中,该系统中使用了 Chinchilla 语言模型,通过生成候选的群体陈述并进行迭代修正,从而生成出能够最大限度得到群体认可的“共识陈述”。
在实验中,AI 生成的陈述比人类调解员生成的陈述获得了更高的认可度,这表明 AI 在帮助群体达成共识方面具有显著的优势。
图片
图|HM 能生成高质量的小组意见陈述,比人工撰写的小组陈述更受欢迎。(来源:该论文)
RQ2:AI 是否能在审议过程中减少群体内部的分歧?
通过对比审议前后参与者意见的变化,研究发现 AI 调解的审议过程能够促使群体达成更高程度的一致性,证明 AI 不仅能够生成共同立场的陈述,还能显著降低群体内部的分歧。在实验的多个回合中,参与者在 AI 调解下的意见一致性显著提升 。
图片
图|AI 调解的审议减少了群体分歧。(来源:该论文)
RQ3:AI 是否平等地代表所有观点?
研究团队特别关注 AI 是否倾向于偏袒多数意见,抑或忽视少数观点。通过分析多轮审议中多数和少数意见的变化得出,HM 生成的群体陈述不仅反映了多数意见,还对少数意见给予了足够的重视。在部分回合中,AI 生成的陈述甚至赋予了少数意见更高的权重。
这表明,AI 能够平衡多数和少数意见,确保不同观点都能在最终的群体陈述中得以体现。
图片
图|HM 生成的声明是公平的妥协。(来源:该论文)
RQ4: AI 调解的审议是否适用于公民大会?
为验证这一研究问题,研究团队进行了虚拟公民大会的实验,招募了一组在人口统计学上代表英国人口的参与者参加虚拟公民集会。实验发现,AI 生成的陈述在这样多样化的群体中同样能够有效促使一致意见的形成。在涉及气候变化等复杂议题时,AI 能够促使群体达成更多的共识。这一研究成果表明,HM 的效用并不只停留在实验室中。
图片
图|HM 帮助一个现实的虚拟公民大会在可能引发争议的问题上找到共同点。(来源:该论文)
不足与展望
当然,这项研究也存在一些挑战和不足。
首先,尽管 AI 生成的声明在实验环境中被证明有效,但在真实的社会环境中,参与者的背景、态度和动机可能更加复杂,AI 如何处理这些复杂性仍然是一个需要进一步研究的问题。例如,HM 不具备事实核查、保持话题或调节话语等能力,如果人类的意见是不知情或有害的,那 HM 就可能产生不知情或有害的输出。
此外,AI 在调解过程中,如何确保所有参与者的观点都能得到充分的表达,而不被算法偏见所左右呢?虽然 HM 没有表现出忽视少数人观点的倾向,但仍需要保持警惕,以确保 AI 调解的审议过程是公平和合法的。
Google DeepMind 团队表示,他们将进一步探索提升 HM 在现实世界中使用的效能,为不足之处提供缓解措施。
在未来,HM 作为一项帮助人们以更高效、公平和可扩展的方式达成协议的技术,能够在包括但不限于合同协议、外交谈判等多发言场合发挥更重要的作用。
作者:阮文韵