警惕人工智能的误导性风险
本报综合外媒报道 据美国斯坦福大学官网2月27日报道,该校社会学系教授罗伯·维勒(Robb Willer)等人的一项研究发现,新一代人工智能有能力生成具有政治说服力的信息,这给人工智能监管提出了新问题。
随着经超大规模语料库训练的深度学习模型兴起,人工智能开始能够处理许多高阶认知任务。维勒等人通过三次实验考察了第三代生成式预训练转换器(GPT-3)是否具备影响人类观念的能力。到目前为止,左右他人观点被视为一种人类独有的社会行为。GPT-3是当前最先进的人工智能模型之一,ChatGPT也是在GPT-3的基础上发展而来。
研究人员让GPT-3围绕若干个争议性政治话题生成具有说服力的文本,然后将生成的作品与同话题下非专业人士创作的文本混合起来,随机分配给4836名来自美国的实验参与者(人类)阅读。参与者在阅读文本之前和之后分别报告对相关话题的看法,以便研究人员测量并比较人工智能作品与人类作品的说服力。
三次实验均显示,GPT-3生成的内容对参与者产生了一定的影响。虽然说服作用并不显著,但在数量级上与人类作品相当。这说明人工智能的说服能力在一定程度上已经赶上普通人,而说服能力是人工智能类人表现(human-like performance)的一个关键衡量标准。另外,参与者普遍认为GPT-3的作品理据更加充分,愤怒感和独特性更弱,人类作品则更多地聚焦于经历和故事,意象生动。在坚定自信、聪明、道德、创意、有趣、同情心等维度上,参与者对人工智能作者和人类作者的评分没有明显差别。
维勒等人提醒,这项研究表明人们应尽快考虑对人工智能在政治活动中的应用实施监管,预防人工智能文本生成工具被用于大量制造面向选民、政策制定者和立法者的说服性信息。如果内容不准确或存在误导性,就有可能导致不实信息广泛传播,妨碍人们对政治化问题和事件的看法。“显然,人工智能的先进程度已经带来了利害攸关的政策和法律问题。人工智能有潜力影响政治话语,我们应该从开始就前摄性地应对这些问题。”维勒说。
针对上述风险,维勒提出了几点防范措施:要求人工智能聊天机器人在对话和写作时亮明身份;给人工智能生成的文本添加标识符;训练能够检测出人工智能生成内容的人工智能;通过规则设置,使人工智能拒绝产出存在立场倾向性或缺乏理据的内容。“在未来的研究中探索各种监管措施的可行性和有效性非常重要。”研究人员表示。
(王悠然/编译)