生成式人工智能介入大众传播和社交传播领域,形塑新的舆论环境,使观点和意见的生成面临新的机遇和挑战。研究思考其重塑舆论传播机制的潜能、特征与风险,探索纾解问题的可行性策略,对于优化智能传播技术发展,促使其维护整体向善的舆论环境,确保主流意识形态安全,推进社会文明,具有重要的理论价值和现实意义。
智能新主体的舆论参与和机制重建
新闻传播学领域对于传播机制的研究一般指向动力、行为、控制、影响等层面。舆论传播机制可被视为包括观点酝酿、生成、扩散、消解、沉淀的全过程,涉及信息源、主体、渠道、介质、内容诸要素。媒介环境学理论看重媒介技术在文明史上的作用,麦克卢汉提出“媒介即讯息”,认为“任何技术都逐渐创造出一种全新的人的环境”。波斯曼试图建立起心理、感觉、文化与“技术固有的偏向”的联系。从大众传播、网络传播迈向人工智能传播的进程中,媒介技术不仅增进了对感知、交往、情感的影响力,也日益显露出意欲将人类认知、思维、理念全部纳入新环境之中的野心。
技术作用于观点理念的传播发生于三个层面:一是器物层面,表现为平台建设——技术最先改造传播形态进而刷新平台功能,拓宽见识的视野。二是人的层面,表现为大众化应用——新技术改善和创新传播方式,提升信息传播效率和品质,直接影响到人。三是关系层面,表现为互动效能——技术提供新工具,创造交往新模式。舆论是意见观点和理念的反映,技术改变媒介环境,也塑造舆论传播机制。
“人工智能”一词自1956年达特茅斯研讨会被正式提出,迄今已有近70年历史。在此期间,智能技术发展经历了从微观走向宏观创造的过程。生成式人工智能不仅能够理解和生成自然语言内容,而且可承担问答对话、意见生成等多种自然语言处理任务。目前,ChatGPT、DeepSeek等大语言模型,被越来越多地应用于传播交往场景。
生成式人工智能作为新的参与主体,在重塑舆论机制方面,表现出了前所未有的变更特征。
首先,人与物同台的舆论场景变更。借助大语言模型的基本对话功能,人—机交互生成了新场景:人与物,而非仅仅是人与人,都出现在同一平台上,参与舆论形成。其中,舆论主体角色悄然换位,人作为提问者、搜索者,看似仍具有主导地位,事实上却越来越被人工智能削弱了曾引以为傲的独特性,人类的理性从一开口便受到了人工智能的导引和抑制。
其次,理性综合智能体生成。生成式人工智能虽未拥有自我意识,却具备与亿万人即时对话的能力,这种能力使它能够迅速吸纳、处理数据,将人类对话所指代入算法可计算的数据模型并重新表达出来。作为筛选、重构、呈现交往理性的综合智能体,它使公众更易在对话中被说服。
最后,中介干预的话语机制奏效。在智能传播中,原来“人—人”之间的对话关系,被中介成为“人—物—人(或物)”之间的复杂关联,公众的对话和协商自始至终受到智能中介的干预:它既可代言其背后的设计者的操纵性企图,也具备了主导和综合理念生成的思考机制。人工智能作为人—机网络中的“行动者”,它“不是行动的源头”,而成为“蜂拥而至的大量实体的移动目标”。它所能改变的不只是人与人之间的信息传递方式,更是基于人—物交往背后所隐含的人—人之间的思想博弈和观念流变。
舆论生成机制新特征
传播学研究认为,舆论的生成过程一般可分为大众行为、公众争论、组织化决策三个阶段,生成式人工智能改变舆论环境,使舆论生成机制亦呈现出不同于以往的阶段性新特征。
一是信息筛选行为阶段,提升信息处理效率。生成式人工智能自动生成和处理大量文本信息,无论是问询新闻、撰写文章还是生成代码,都可确保用户随时得到技术响应。它们一方面帮助人们迅速收集和辨别舆论事件信息和意见,另一方面可根据用户的偏好和历史行为,推送符合个性化的内容放大其声量,为决策者提供意见动态、定位特定群体,实现合意的精准分析。
二是观点互动对峙阶段,深化认同或对峙。首先,生成式人工智能可根据用户的问题和指令提供答案和建议,它支持连续集中的多轮对话,可增强话语互动性。其次,生成式人工智能通过情感识别与分析了解公众倾向,从而调整传播角度,以使回馈贴近舆论主体的心理真实。最后,智能媒介能够跨越语言障碍,支持多种语言,服务于全球用户,从而提升跨域传播引导效能。通过不断模拟、搜索和回应的过程,推动用户构建起信息、观点之间的新关系。
三是共识决策形成阶段,过滤信息与风险预测。生成式人工智能基于数据和分析逻辑,可帮助用户作出看起来明智的选择,辅助实现决策的智能支持。在这方面,ChatGPT、DeepSeek等均精于信息过滤和筛选,并似乎可预测到舆论事件的趋势和方向,进而为组织和个人提供舆论应对的决策支持。
新的难题:算法规训下的“囚笼效应”
就信息真实性而言,人工智能生成内容目前仍存在高度不确定性。生成式人工智能有时会正儿八经地胡说八道,产生事实性错误、知识盲区和常识偏差。有研究指出,人工智能提供的事实性虚假信息主要集中在数据、作者作品、客观事实、编程代码、机器翻译五个方面。它们常常提供不存在的报道、文章或网页,甚至被用于制造假新闻或误导性广告。大模型通过“猜测”来产生虚假答案,还擅长制造“AI幻觉”。被称为深度合成的一项智能技术,能够借助神经网络技术进行大样本学习,将声音、表情及身体动作叠加拼接合成到源图片或视频上,形成虚假内容的“深度伪造”,以假乱真,混淆视听。
智能传播的不确定性所带来的安全风险,导致一些企业陷入了虚假信息舆论围困的旋涡,一些个体则受到肖像权、隐私权方面的危害,也引发了诈骗、勒索等违法犯罪活动。一个更为显著而长期的危险后果是:造成公共舆论的信任危机,破坏人—人、人—机之间的信任与合作关系。
当智能传播融入生活之时,人们曾期望基于算法能够表现正义、平等对待和道德伦理,以消解学者桑斯坦所提出“信息茧房”的焦虑。然而,智能算法模型从设计的原点出发,就自带“有色眼镜”“偏见基因”,生成式人工智能使一种更甚于茧房的新效应产生——这里将其命名为“囚笼效应”。
大模型依托数据库资源与神经网络模型算法回答问题,其答案已不再是人类知识的简单复现,而是经过了大量深度学习所得出的优化或调整的回答,这一过程虽然极大提升了信息的准确性、有效性,但藏于其背后的学习机制和个性化交流语境,也使得大模型提供的内容信息生成更具隐蔽性、私密性。生成式人工智能擅长捕捉用户需求规律,精准锁定内容目标。而沉浸于应用场景的用户则很难时时清醒察觉到其接收信息的被动,反而常将人工智能回应视作自主探索信息、观点的结果,并不自觉地受其牵引,落入人机互构信息的“定制孤岛”,满足进而封固于自我的观念及其延伸的小圈子里,直至“茧房”演变为禁锢认知的“囚笼”。而一旦智能技术被某些组织或群体所利用,特别是与某种固化观念相绑定,便不可避免地产生操控用户观念意识和群体舆论倾向的影响力,加剧舆论场的分化。
防范智能传播舆论风险的规制之剑
清醒认识生成式人工智能之于舆论传播机制的特征和作用。在充分利用技术新机遇的同时,要强化新的风险规避与防范。一要完善生成式人工智能技术的法律法规体系建设,严格监管,确保人工智能技术的负责任传播。二要加大研发力度,为应对和化解生成式人工智能舆论风险提供坚实的技术保障。三要努力搭建生成式人工智能文明生态资源平台,促进跨领域跨学科研究合作,整合优势提出问题解决方案。四要通过政策引导、资金扶持等,强化正能量传播、主流舆论对人工智能技术的创新采纳和内容生成影响。五要进一步提高全民算法素养,最大程度地消除智能传播环境下的舆论风险,确保科技更好地服务于人类文明和社会进步的目标愿景。
(作者系中国社会科学院新闻与传播研究所研究员)