您的位置首页  桂林资讯  信息

多措并举破解人工智能治理困境

面对人工智能迅速发展以及其正在或可能引发的经济社会问题,我们必须积极探索并致力于形成务实管用、行之有效的人工智能治理体系。

智库观点

杜庆昊

以人工智能为代表的新一代信息技术正在深刻改变着世界,改变着人类生活。新技术亟待新治理。习近平总书记在致首届世界人工智能大会的贺信中要求,坚持推动发展和优化治理紧密结合起来,进一步健全治理体系,铺设法治轨道,为人工智能发展注入更多安全因素。近日,刚刚落幕的“2020世界人工智能大会”围绕“人工智能的权利义务与法治实践”进行了深入研讨,进一步引发了人们对人工智能治理的思考。应当说,一种新技术的出现,都会引发有关旧的治理规则是否适用,以及是否需要制定新的治理规则的讨论。互联网治理经历了这个阶段,人工智能治理也面临同样的境况。面对人工智能迅速发展以及其正在或可能引发的经济社会问题,我们必须积极探索并致力于形成务实管用、行之有效的人工智能治理体系。

当前人工智能治理面临多种困境

第一,治理松紧度难以把握。人工智能作为新一轮信息技术革命的重心和高科技的风口,正在深刻地影响着人类社会的前进轨迹。一方面,推动人工智能更好地发展,就要进一步简政放权、放管结合、优化服务,创造更加宽松的发展环境、更加公平高效的监管、更加简捷便利的服务,为人工智能蓬勃发展清障助力。另一方面,人工智能也存在着巨大的风险隐患,隐私数据被无节制使用、网络安全漏洞层出不穷、技术垄断越来越突出、现存伦理秩序受到冲击和挑战等,这些都是悬在人工智能之上的达摩克利斯之剑,随时可能爆发“爆炸式”风险或“踩踏式”风险。人工智能治理随之也陷入松和紧的两难选择困境。

第二,对智能技术本身的治理责任难以认定。

牛津大学教授弗洛里迪和桑德斯依据行动者之互动关系标准,确立交互性、自主性和适应性三个标准以判定智能技术是否具备伦理责任主体地位。这一研究认为,一个与其环境持续产生交互的系统,如果在没有响应外部刺激的情况下也能行动,也有在不同的环境中行动的能力,这个系统就可以被视作行动者。伦理学界对人工智能技术的道德主体地位存在较大争议。一种观点认为,虽然智能技术可以通过算法影响行为体的行动路径,但因其尚未完全达到自主性和适应性,将其判定为独立的伦理行动者依据不足。另一种观点认为,智能技术已不仅仅是技术性辅助工具或起媒介作用的技术中介,在一定程度上,智能技术已经主动介入或干预社会事务治理。后一种观点认为,人类智能由于其在限定的时间里的计算速度有限,很难在穷举中得出最优解,而往往通过经验、直觉等方法得出自认为满意的答案。而人工智能通过合并算法和深度学习可以在极短的时间内精确计算所有的可能性,从而使得它们能够选择人类完全没有考虑过而“出人意料”的解决问题方法,作出的结论可能同人类认知系统作出的决策有很大差异。人工智能还可能影响人类的价值判断,比如,在新闻传播领域,虽然互联网企业不直接涉足新闻内容制作,但其推荐的算法实际在对新闻价值从不同维度予以赋值,直接影响着大众的新闻阅读导向。

第三,治理时机的选择困境。著名的“科林格里奇困境”指出了技术评估的两难困境:在技术发展的早期控制其应用方向相对容易,但此时决策者缺少合理控制的专业知识,也缺少对发展趋势的准确判断,当技术应用的风险显露时,对它的控制已几乎不可能。人工智能是基于互联网、大数据、云计算等新一代信息技术而发展起来的技术科学,新技术的发展具有很大的不确定性,基于新技术的人工智能发展同样具有不确定性。当前,人工智能发展进入“无人区”,包括技术持续探索的无人区,在应用中摸索的无人区,以及配套政策、法规、伦理的无人区,无人区前路茫茫,既有重大发展机遇,也面临突发性风险挑战,对治理者来说最大的难点在于治理对象和风险的不确定性,难以精准施策、有效治理。

积极破解人工智能治理难题

在治理原则上,坚持促进创新和底线治理相结合。一方面,人工智能是创新性科学技术,具有颠覆性和不可预见性等特征,其发展和应用可能给经济社会带来颠覆性变化。但这种改变遵从量变到质变的演进逻辑,只有当技术发展到一定程度,与产业融合达到一定深度,并经过大量试错、校正和调整后,才可能带来实质性的改变。因此,人工智能治理必须秉持促进创新、促进发展的原则,只有在“必要”的时候才对其进行规制,而且政府规制要遵循适时、适度的原则,尽量采用对技术发展干预最小的规制方式。另一方面,在放松规制的同时也要加强底线管理,确保对人工智能风险的有效防范,尤其是要加强对诸如数据安全、技术垄断、算法偏见、伦理道德等重点领域的规制。

在治理模式上,明确人工智能本身治理责任和构建多元协同治理机制相结合。人工智能可以通过技术手段抓取个体或组织的信息,再通过算法对相关信息进行分析和计算,进而得出有关个体或组织的“画像”;反之,人工智能还能够根据所掌握的“画像”信息,采取有针对性的措施来影响和干预相关主体。如此一来,人工智能在某种意义上就成为“另类”的治理主体。就目前的技术发展状况而言,更为重要的是确立人工智能商业机构的伦理地位,赋予其相应的治理权限,推动人工智能商业机构加强企业自治。在此基础上,推动人工智能从传统的政府主导的权威自上而下的单向管理走向政府主导、企业自治、社会广泛参与的协同治理模式,在确保发挥政府公共性、主导性作用的同时,又充分利用企业的效率高、专业性强的特点,还能兼顾社会主体回应快、诉求准等特征,综合多个主体、多种手段的优势,形成多元主体协同共治的人工智能治理新范式。要特别注重转变政府职能定位,人工智能发展的开放性使得监管机构难以准确定位监管对象,信息不对称问题的加剧还可能导致监管行为走向反面。因此,要积极调整治理结构与治理逻辑,推动政府从“划桨人”向“掌舵人”转变,促其将工作重心放到积极营造人工智能良好发展环境上。应积极参与人工智能全球治理,以多种形式促进人工智能重大国际共性问题的解决,共同应对人工智能发展中的全球性挑战。

在治理手段上,积极推行法律法规和公共政策前置治理相结合。为了走出“科林格里奇困境”,一些国家在人工智能伦理治理和立法实践方面行动迅速,采取相对前置的治理模式,积极推动人工智能立法工作。比如,美国提出《人工智能未来法案》,重点就人工智能对经济发展、劳动就业、隐私保护等方面的影响进行法律规制。中国也加快了与人工智能密切相关的立法项目,如数字安全法、个人信息保护法和修改科学技术进步法等,已列入立法规划。但从法律经济学角度看,法律和公共政策在一定程度上具有可替代性,都能起到规范社会秩序的作用。在某一阶段,对某一具体问题,究竟是用法律,还是用公共政策,主要取决于问题本身的明确性和变化性。法律具有相对的刚性和滞后性,这也决定了它在应对人工智能这类明确性较差、变化性较大的问题时往往会遇到一定的困难。相比之下,公共政策更为灵活,能够对变化的问题相机作出反应,这使它在很多时候比法律更有效。比如,面对人工智能可能带来的算法歧视问题,我们可以提前做好标准规范的制定、对从业人员职业伦理和专业技能的培训,以及相关评价机制的建立,通过制定相对前置的公共政策以确保人工智能的技术中立性。由于这些政策相对灵活,可以根据现实情况及时调整,因此在多变的环境下可能比立法更管用。

[作者单位:中共中央党校(国家行政学院)]

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186
TAGS标签更多>>