AI时代治理网络虚假信息,关键依然在“人”

2023-04-03 11:20:00    字号:

  近来发生多起AI换脸、换装事件,引发公众广泛关注。其中,一网红特效合成师洪某,将电视剧中和女明星有亲密镜头的男主角用人工智能手段换成了自己的脸。相关图片视频在网络上广泛传播,真假难辨,让不少网友直呼难以接受。
  如今,随着AI技术的日益发达以及技术应用的大众化,网络虚假信息带来严峻挑战。以ChatGPT为代表的变革性AI新技术不仅可以模拟人类语言,还可以利用深度伪造技术(Deep Fake),强化伪造图片、声音、视频的逼真性,催生场景化和沉浸式的互动,不仅可能扰乱大众认知,还可被用来实施网络欺诈,致使用户利益受损,甚至危及公共安全。
  事情皆有两面。ChatGPT等新兴AI技术可能加剧互联网虚假信息的泛滥。同时,合理使用AI技术,也可促进网络虚假信息的治理。
  以ChatGPT为例,这一先进的自然语言处理技术(NLP)可以生成非常连贯、自然的对话,让人类与计算机之间的交互更加智能,它也能自动生成逼真的虚假信息,应用于训练AI模型,以提高其自动识别和检测信息的能力。
  此外,一些组织和个人还在探索使用ChatGPT自动监测虚假新闻发布和社交媒体发帖,并向用户提供相关的背景信息,帮助他们做出更加明智的决策,避免受骗。当然也需要注意,ChatGPT等大语言模型的使用应得到有效监管,以符合道德和法律规范要求。
  然而,仅依靠AI的力量,无法彻底解决网络虚假信息传播这一社会问题。“人机合作治理”成为时下的一个热门话题。首先, AI作为信息处理工具,可以通过机器学习和自然语言处理等技术,对海量信息进行自动化辨识,快速、高效地识别和筛选出可能存在的虚假信息。
  其次,人类作为信息消费者,可以对AI辨识出的可能存在虚假的信息进行审核和修正,以提高虚假信息检测的准确率。在此基础上,AI还可以根据用户的兴趣、偏好和历史行为,提供个性化的反虚假信息推送,帮助用户更加准确地获取信息,降低其受虚假信息影响的可能性。
  应当看到,在人机合作治理网络虚假信息的过程中,居于主导地位的始终是“人”,而非依赖机器驾驭一切。个人作为AI技术专家、普通用户和网络社群成员,在不同维度上均对虚假信息治理发挥着关键作用。
  作为AI技术专家的个人能够通过技术和应用创新,开发用于检测虚假信息的AI算法和模型。尽管人工智能在提取虚假信息方面具有可靠的洞察力,但依然需要分析师和数据专家的辅助,实现大数据、高等算力等的最佳配置,才能将计算结果转化为可解释、可操作的优质结论。也就是说,最精确的人工智能模型只有依靠人类自身的专业知识来训练和强化才可能实现。同时,为减轻虚假信息病毒式传播所造成的风险,需要人们主动实施反制措施,并对虚假信息文本进行多角度分析,这也只有通过“人类+人工智能”的路径才能实现。
  作为普通网络用户的个人可在治理网络虚假信息的过程中发挥注意、负责和审慎的作用,注意信息的来源和真实性,不盲目相信和转发未经证实的信息,而是负责任地分享,并主动学习和提高数字素养,以辨别信息的真实性和可靠性。
  作为网络社群成员,个人还需要发挥宣传、监督和参与的作用,包括宣传虚假信息的危害,引导社群同伴对信息的真实性和可靠性进行审慎评估,以及监督、举报、标记和纠正网络虚假信息,以进一步降低虚假信息的影响。
  总体看来,网络广泛存在虚假及错误信息的原因很复杂,需要通过多种方法来应对,包括加强数字素养教育、改进社交媒体平台的算法和推荐机制、加强信息审核和披露、强化法律和政策监管等。ChatGPT等新兴AI技术必须要得到符合伦理与道德地使用,才能有助于治理网络虚假和错误信息泛滥的问题。
  在此过程中,个人的积极作为不容小觑。通过关注可靠信息、投身技术创新、参与社区治理、提高数字素养、有效开展人机合作等方式,“人”依然是人工智能时代信息正本清源的关键所在。
  (澎湃新闻2023-03-31,澎湃研究所研究员 吕娜)

附件下载

相关链接