黄楚新
技术发展必然会带来相应的社会变革,当人工智能技术全方位嵌入社会并持续升级的时候,人与技术之间的问题再次成为整个社会关注的焦点。探讨AI幻觉并非在唱衰智能社会的发展,反而是在人工智能技术突飞猛进的发展趋势下,提醒人们回顾与反思。笔者认为,讨论AI幻觉这一议题,具有警醒世人的现实意义。
AI幻觉诞生于整个信息生态系统,造成的破坏性也会反馈到信息生态系统。有人比喻大语言模型如同一只“能说话但不理解语言”的鹦鹉。AI话语仅仅是语言的符号模仿组合,而非扎根于经验世界的表述,当这些以随机概率组成的符号形成新的训练数据投喂给AI,“幻觉迷宫”便形成了。新的信息生态动摇了高度专业领域的“人类中心知识范式”的信任体系,甚至普通用户也不得不对AI提供的信息时刻保持警惕。
在人工智能发展过程中,如何使人工智能的目的始终与人的目的保持一致?数据优化是缓解AI幻觉的源头,在保护数据隐私和信息安全的前提下,尽可能建立跨机构的数据协同机制,搜集方式要多样化,还要进行数据清理筛选,挑出高质量的可投喂数据,实现信息机构、政府公开数据、学术科研数据等数据共享,减少单一信源的失真问题。当前的治理方向,主要聚焦于技术优化和技术监管两个方面。
在技术优化方面,大模型厂商可建立AI使用场景分级系统。AI使用的场景虽是虚拟场景,却也深深渗透进了人们的日常生活之中。如果在高风险领域,例如金融、医疗、高精科技等出现AI幻觉,造成的后果将难以估量。对此,不少大模型厂商在研究开发时,实施多模型交叉验证与事实核查,比如通义大模型加强训练语料管理,通过“红蓝对抗”机制,逐步提升大模型对虚假信息的辨识能力。
在技术监管方面,笔者认为,各方主体责任尚待进一步厘清,协同监管机制与法律法规体系也需同步推进完善。从政府管理者到大模型设计者再到平台运营者,应由政府牵头建立协同监管体系,既要有宏观导向又要有精准的实施举措。笔者认为,欧盟出台的《人工智能法案》草案,对高风险AI系统提出的严格透明度和可解释性要求值得参考。从《生成式人工智能服务管理暂行办法》开始,我国AI领域权益保护也在逐渐强化。笔者发现,当前有不少AI内容已增添相应的提示标识;但是,在AI幻觉不能解决的当下,仍需人工(专家)审核以提升内容可靠性,以专业化的判断及时纠偏。
此外,配套教育体系与宣传引导机制仍需同步推进完善,以提升全民媒介素养。新技术在发展过程中暴露出来的潜在问题,并不代表着我们就要陷入“技术威胁论”的恐慌,加快AI普及教育,提升公众智能素养势在必行。在此阶段,我们既要警惕,如算法偏见结构性风险,也要谨防深度伪造、内容失真、知识侵权等问题。
未来,必将有更多涉及AI的难题摆在我们面前,技术发展的速度与人文关怀的温度应该并驾齐驱。在一个算法深度参与的世界中,人与技术交融的数智未来需要被关注,也需要被理解。合力为技术变革锚定人文坐标,创新者和监管者每一刻都要更清醒、更稳健。
(作者分别为中国社会科学院大学新闻传播学院副院长、教授,研究生)