【日新论坛“专家谈”】郭俊波:推动和引领人工智能聚焦主流价值观传播

图片
  全媒体时代,媒体融合发展是大势所趋。8月19日,“日日新·向未来”2023媒体融合10年实践与探索日新论坛在昆明开幕,共同探讨新形势下推进媒体深化融合,加强融媒传播体系建设的对策与办法,为讲好新时代云南故事汇智聚力。
  论坛上,人民日报国重实验室学术带头人郭俊波以“人工智能的应用于安全”为主题作了主旨演讲。以下为主旨发言全文:
  人工智能对传播领域有着巨大影响。包括搜索、推荐和生成在内的人工智能算法,都深刻改变着信息的传播方式和流量分布,具备很强的意识形态属性。
  近来以ChatGPT为代表的新一代人工智能发展速度惊人。生成式大模型(以下简称大模型)在知识储备、内容理解、逻辑推理、交互问答、文本生成等方面体现出很强的能力,正逐渐成为人类知识增强工具和新型生产工具。
  人们向大模型提出各种问题,大模型给出大致令人满意的唯一答案,看似可以“无脑接受”,具有“生成即传播”的能力。与搜索引擎给出若干候选链接供用户自行对比选择相比,具有更强的认知影响能力。大模型也在以不同的产品和服务形态,日渐渗透到人们工作与生活的方方面面,正成为新的网络流量入口,并影响和构建新的传播生态。
  大模型基于大数据、大算力,通过无监督预训练的方法构建基础大语言模型;通过提示和指令学习等方法,将各种自然语言处理任务统一转化成内容生成任务,机器自行理解任务指令和输入内容,然后给出候选答案,这种人机交互更符合人类自然语言交互习惯;结合有监督微调、人类反馈强化学习,与人类认知能力和价值观对齐。大模型可被认为是迈向通用人工智能的第一步。
  大模型表现出超预期的能力,但并不完美。大模型本质上是基于概率统计的文本生成方式,在算法机理上就存在容易生成虚假日期地点、虚假数据、虚假细节、传播虚假信息的风险,加上语料采集来源不同、语料生产者取态不同,自动生成的内容也必然存在价值导向风险。大模型如使用不当、使用违规、发展泛滥,也有可能带来路径依赖、内容操纵、话语权垄断、保密性信息数据泄露、危害国家安全和侵犯隐私等各种风险。
  在推荐平台,传播的底层逻辑已经算法化。内容的生产和传播已经被分离,内容传播给谁、什么时候传播、传播的场景选择和上下文如何组合,往往由算法决定。推荐算法千人千面的特性聚集了大量的流量,但也造成不良导向内容的隐匿传播,对特定群体产生了不良影响。算法平台对用户认知产生的影响、内容发布者的驱动力来源、传播平台生态等深层次问题仍有待深入研究。
  随着生成式人工智能的发展,内容生产也有被算法化的趋势。必须深刻认识到人工智能带来的新的机遇和挑战,在内容生产、传播、反馈等环节,针对不同的人工智能技术,分析数据、算法和平台的技术机理与作用影响,制订具体的应对策略,推动和引领人工智能聚焦主流价值观传播,用主流价值观驾驭算法,促进传媒行业自身以及人工智能行业的创新发展和安全发展。
  人民日报社传播内容认知全国重点实验室为此开展了积极的探索和实践,取得一系列进展。在主管部门的指导和支持下,先后推出了生成式人工智能合规性评估技术体系、主流价值语料库、人民审校内容风控平台、深度合成内容检测平台AIGC-X、写易写作助手等技术和产品,取得了良好的应用效果和用户反馈。实验室致力用技术赋能主流价值观传播,创新发展媒体智能应用,更好地感知社会、服务人民,努力成为智能时代内容生产传播的引领者,社会主流价值的守护者。
统筹:刘红
策划:罗蓉婵 李洁 李星佺
记者:杨萍 期俊军 段芃 实习记者 高祎祎 实习生 马官雪
编辑:胡津滔 孙寅翔
设计:王元 蔡陈晨