应谨防对AI“膝跳反射式”的监管

2023-04-17 09:09:00    字号:

  2023年至今,以ChatGPT牵引出对人工智能的关注热度持续升温,尤其是自3月15日凌晨OpenAI正式发布升级后的ChatGPT-4至今的一个月内,世界范围内针对AI大语言模型带来的迭代更新惊讶之余,也开始刮起了一股“从严监管”风。
  比如意大利个人数据保护局3月底就宣布禁止使用ChatGPT;与此同时,美国科技界千余名科学家联名签署暂停训练比ChatGPT-4更强大的AI系统至少6个月的公开信,并呼吁开发者与决策者在治理和监管机构方面进行合作。
  这背后是因为人们对于人工智能技术的发展和应用存在着诸多关切和担忧。
  浅层原因,是对AI挑战数据与隐私保护、人类职业需求等方面的恐惧,对任何一个国家来说,光是就业机会的缩减,都是触及根本的大问题。
  深层原因,是随着AIGC(生成式人工智能)向AGI(通用人工智能)不断挺进,超级人工智能迟早会出现,而一旦出现了超级人工智能,那么或许会带来巨大的对既有人类社会形态的改变。
  而对生成式人工智能如ChatGPT类语言模型实施监管,既是对这些担忧的回应,也是保障人工智能技术可持续发展和应用的必要手段。
  从技术发展角度看,AI监管的必要性在于防范技术滥用和技术风险。虽然AI技术的应用领域非常广泛,但是也存在一些潜在的风险和危害,比如数据泄露、歧视性算法、自主行动系统失控等问题。AI监管需要关注技术安全、数据隐私、透明度和公正性等方面。
  从科学伦理角度看,AI监管的必要性在于确保科学研究和技术应用的合法性和道德性。AI技术的研究和应用需要遵循一些基本的科学伦理原则,比如尊重人的尊严和隐私、维护公正和公平、遵循法律法规等。
  那么,对于ChatGPT类的生成类人工智能训练模型来说,现在去谈监管是不是为时尚早?还是已经有点晚了?
  AI必须以合适的方式监管,这毋庸置疑,但也要注意的是,监管本身是一个含义模糊的词,根本不让AI发展,也是一种监管,但很显然,这未必是想要的成果。欧洲历来监管更严厉,也因此在过去20年的科技浪潮中明显落后于中国,跟过去认知中欧洲应当在科学技术浪潮中应有的地位完全不相称,固然避免了很多“问题”,但从长远来看是福还是祸很难讲清楚。
  那么,如何对AI实施监管呢?其实,对AIGC这样一个生成技术机理还存在很多“黑箱效应”的服务应用,在没搞清技术机理之前,高效的监管可以说是很难的,先“管两头”“管一进一出”——即“训练数据+结果对齐”,这也是目前务实的唯一做法。
  监管的核心要义和本质在于平衡发展和风险、平衡权利和义务。在制定监管措施时,需要考虑技术的安全性和透明度、数据的隐私保护和公正性、应用的道德性和合法性等方面,充分尊重和保障人的权利和自主选择权。同时,还需要建立相应的监管机构和制度,加强对技术研究和应用的监督和管理,提高技术评估和风险评估的科学性和客观性。
  当然,AI监管的平衡与落地也需要考虑监管的成本和效益、监管的时效性和灵活性等因素,避免过度或不足的监管,保证监管的有效性和可持续性。
  平衡监管和发展环境的关系,也是AI监管的重要问题。AI技术的发展和应用需要一个开放、自由的环境,鼓励技术创新和进步。因此,监管不能过于严格和僵化,阻碍技术发展和应用的进步。但是,监管也不能太松散和放任,导致技术滥用和风险加剧。平衡监管和发展环境的关系,需要依靠科学、合法、公正的监管机制和制度,保护人的权利和自由,促进技术的发展和应用。
  总而言之,不可做“膝跳反射式”的监管,即在还没有了解这个事情的本质之前,就凭着恐慌或者凭着焦虑的本能反应来作出决定,这种决定很可能不是基于完备的事实而作出的,也不是基于对长远的深刻洞察作出的,落后于现实的监管也不能构成有效的监管。我们必须正视,对于技术的发展,无论高兴也好,焦虑也罢,趋势是挡也挡不住的。或许,有了人工智能助力,人类社会生产力可能呈指数级暴增。
  (《中国经济时报》2023-04-14,腾讯微信市场战略拓展中心 杨舸)

附件下载

相关链接