人工智能嵌入政府治理:算法图景、价值问题与回归路径

|

汪太贤,唐 祎

(1.广西大学法学院,广西 南宁 530004;
2.广西大学公共管理学院,广西 南宁 530004)

人工智能作为当下技术热点正成为国家治理现代化过程中的重要驱动力,其与公共行政的交互融合,促进政府治理向行政决策自动化与公共服务精准化方向转型,向世人描绘了一幅改进政府治理绩效、提高决策公正性的算法行政图景。然而,在算法行政的现实情境中,人工智能算法存有替代人类主体地位的趋向,辅助甚至可能取代公权力决策,其潜在的偏见、歧视、不透明等特性,致使智能算法技术的部分实践活动存在价值负向实现的现象。目前,学界从公共管理学、政治学等学科对人工智能在政府治理领域的应用与反思研究日益增多,主要集中在以下方面:

一是探讨人工智能嵌入政府治理的发展逻辑。政府治理与技术吸纳实质是一种双向互动关系,人工智能遵循基于机器学习形成自主决策的内在逻辑,驱动政府治理变革向着 “技术原始吸纳—技术作用组织—政府自我重塑”的方向转变,最终生成治理主体协同化、手段界面化以及过程智慧化的 “计算式治理范式”[1-4]。人工智能改变着政府体制模式,使得政府管理的体制、结构、职能、流程和方式发生革命性的变化[5]。

二是反思人工智能嵌入带来的风险与挑战。技术治理存有 “仁慈”和 “阴暗”两幅面孔,政府运用人工智能技术治理可改善决策制定过程、公共服务供给和公共行政部门的内部管理[6-7],但同时亦会面临贬低人类能力、减少人类控制、侵蚀人类自主权[8]、不透明决策过程[9]、公平与责任制[10]、数据安全与隐私[11]等方面挑战,以及由于技术弱势地位面临算法霸权、独裁和去中心化[12]等方面的风险。如果过分强调效率和其他经济目标而牺牲公平、透明度和响应能力等公共价值目标,则可能无法满足实现公众关键价值观的这一核心责任[13]。

上述研究从一定角度探究了人工智能技术治理的发展变革和风险挑战,但呈现出碎片化和笼统化的现象,仍不足以清晰认识人工智能嵌入治理的具体境况,对于其带来的价值问题也鲜有专门研究,尤其缺乏基于公共行政视角对价值问题的具体分析。人工智能技术的嵌入治理在塑造人类的选择和行动、促进社会互动和合作的同时也可能产生超出人类期望或理解的影响力,破坏人类对环境和社会的控制以及威胁人类的自主能力[14]。作为一种公共行政的变革性技术,人工智能的运用更是关涉人性完善和社会可持续发展之目的实现,有必要对智能算法治理带来的价值问题做专门性剖析,从而对其形成客观全面的认识。鉴于此,本文通过探究人工智能嵌入政府治理的算法图景,聚焦智能技术治理中的价值问题及其优化路径,以期促进人工智能技术在正向意义上推动人民满意的 “高质量”服务型政府的建设。

人工智能与公共行政交融于一定的社会历史条件下,这一条件既包括科技本身的发展水平和价值目标,亦包含当时的社会政治利益和需求。随着新一代人工智能技术的发展和社会环境的转变,人类开始逐步迈入 “算法行政”的时代。相较于传统发生在人与人之间的公共行政场景,人工智能的嵌入治理转向一种人机对话或机机交互的智能化、算法化场景,整个政府治理过程呈现出全新景象。

1.1 实践主体:由人类主导转向算法决策

人工智能在政府领域的深度融入产生了以算法决策为核心的治理范式,其深刻影响着政府的实践决策,冲击着公共行政过程中人类的主体性地位。这一主体性挑战并不仅仅体现为作为技术产出的结果而引发的权利争议,更在于作为影响社会运行重要规则的形成方式的变化[15]。传统公共行政以人的行为作为出发点,强调人是治理的核心,而人工智能的嵌入治理可能会促使 “技术系统从人的自然感官、自然肢体或自然智能的代理者朝着自然人的以及人类中心地位的替代者的方向发展”[16]。

尽管人工智能算法的应用在较大程度上促进了政府治理的智能转型和革新,但其强大的自主学习能力和数据运用效率使得其具备 “拟人化”的自主性内核,并对人的本质、人的主体地位形成强烈冲击。在一些情形中,政府智能治理系统的运作愈发趋向 “无人化”,导致人的 “新异化”,由传统的主导地位转向非核心的参与者抑或旁观者。

在智能算法治理的虚拟空间中,身体的直接交流开始转向通过数字化编码的虚体的中介进行交流, “沟通双方既有可能是实体对象,也有可能仅是一段虚拟程序或是智能软件系统”[17]。但无论是何种交流对象,算法应用一旦进入公共管理的规则或者平台运行的规则之中,算法控制者与使用者都会在不同程度和范围上受到算法规则的约束与限制。与此同时,各主体对算法程序产生的依赖和服从,还可能会使得以人类为核心的权力主体开始成为被规训的对象,人类作为公共行政的实践主体角色逐渐迷失,在诸多政府治理场景中存在开始退居幕后或完全退出的趋向。

人工智能算法决策对人类行为的冲击,在嵌入治理的范围和程度上体现出强弱不同的政治伦理,潜在着高低不等的价值受损风险。当下人工智能的应用范围并不限于交通管理、道路维护、程序性审批等程序性行政场景,还涉及生命健康、公共安全等权利型分配场景,涉及对公民基本权利的分配价值判断等政治与伦理属性。随着算法决策对行政决策过程占据越来越高的主导性,实体决定生成过程可能 “无需人类参与,或人类决策者完全采纳人工智能的意见,不做或较少做出审核或干预”[18]。

综上可知,人工智能算法主导性的高低不仅决定其应用模式,还关乎政府治理领域风险产生的高低。在人工智能只是提供辅助性决策咨询时,人类可及时纠正人工智能算法存在的偏误,而当人工智能主导实体决定时,决策者完全听从人工智能,这就可能会导致算法中的问题被忽略或无法察觉,潜在着价值异化的风险。人工智能技术的强大优势极易让决策者、公众等主体陷入技术依赖与崇拜的陷阱之中,继而削弱决策者、公众等主体的自主性。尽管技术专家在决策中扮演着界定风险存在、裁决不同风险认知、监督权力滥用等重要角色,但由于智能算法的复杂化、动态化和场景化特征,其角色及功能实现具有其限度。未来人工智能的快速发展与嵌入,将使得算法决策在较多领域辅助甚至代替人类决策,不可避免地会造成政府治理的负效应。

1.2 治理基础:由人类情感与理性转向算法理性

进入智能化时代,人工智能算法在知识共享和学习既往经验方面非人类所能企及,可以说在这一层面上智能算法已经远超人类理性的能力。这种能力作为人类理性的延伸,对充分认识世界自然大有助益。然而,算法行政本质上仍属于技术治理思维的延续和强化[19]。

在推进公共行政算法化进程中,人与智能技术之间的主从关系遭遇挑战,人的主体性地位容易丧失,且可能会自觉或不自觉地迎合人工智能的要求,国家和政府治理中的人性情感元素也随着人类主体角色的迷失和离场而渐渐弱化和隐没。尽管韦伯所述的理想科层制强调组织的 “非人格化”特质,然而其也论及在隐匿人性情感的形式主义及可计算的行政中无法收获实质效益,提出行政只有在具有一种非形式的、基于实质内容之 “伦理的”性格时,才能执行此种任务[20]。

显然,依托于科层制运转的良善的政府治理系统必然需要具备深厚的情感基础和人文关怀,只有拥有情感裁量的治理体系才能增强治理活动的有效性。在拟态的数字空间中,人工智能技术治理趋向于一种算法理性, “去人化”的算法理性构成了单向度的统治结构,它是以利己主义作为指引,算法秉持完全实用主义的认知方式,最大目标在于设计程序以达到特定结果[21]。而人类理性则具有更复杂的一面,在人的行动逻辑中还存有利他主义和批判主义的倾向。在马克思辩证唯物主义看来,人类理性的发展包含着本能理性与认识理性、进化理性与建构理性、个体理性与社会理性的基本范畴[22]。因此,基于人类理性和情感的公共行政实践显然超越了实用理性的范畴,会将价值探讨作为重要部分,时刻重视反思的重要意义。而算法理性则不具备这种能力,它极易被少数群体控制。有学者将此种情形下的现象称为 “理性运用的封建化”,即理性运用具有相对固定和封闭的边界,变成以维护智能算法所有者利益为旨归的专断独白[23]。

“算法理性”之所以被称为一种 “后人类时代”新的理性形式,主要原因在于人工智能算法具有理性意志和理性能力方面的优越性。作为无机生命,人工智能没有理性意志方面的弱点,在占有关涉理性运用之基础的理论性和实践性知识方面也远远超过人类个体可以达到的程度。然而,当人们被这种日渐外在的 “技术优越性”俘获之后,会自觉或不自觉地将 “技术的逻辑”所展示的理性视为理所当然的规律[24],将被智能化塑造的治理系统视为理所当然的选择,这极易削弱治理相关主体的自主思考和行动能力。

由于算法理性的运用存在 “去人化”和 “封闭化”趋向,会让政府治理活动不自觉地追求效率最大化,从而引致便利与安全、效率与公正等多方面的价值冲突。从人类社会长远发展的角度看,完全依赖于人工智能反而会影响政府治理目标的实现,使得算法理性替代人类的情感和理性,减损人类社会的人文特质,不利于行政裁量权的有效行使。因此,在寄望于人工智能满足人的发展需求、改进政府治理绩效的同时,应当竭力寻回人类情感和理性在政府治理体系中的应有位置和独特价值,防止 “人越来越像机器”的现象发生。

1.3 权力逻辑:由辅助治理转向算法支配

人工智能嵌入政府治理的轴心在于治理,强调人是治理的核心,技术只是辅助工具,切忌本质化,以避免人工智能对现行治理结构的重构。进入智能化时代,政府、社会组织和公众在决策和行为等方面愈发依赖于算法应用,人工智能技术平台的控制者凭借自身的算法技术优势开始拥有较强的影响力,算法权力由此开始成型并在政府治理中日渐凸显。然而,在以算法权力为核心的治理范式变革中,政府治理系统愈发趋向一种 “算法驱动”的智能化形态,并在诸多治理场景中呈现一种 “算法支配”的景象。

首先,重构公共行政的权力关系。人工智能的嵌入在一定程度上强化了公权力行使,使得权力作用范围更具有延展性,不再受到传统时间和空间方面的限制,有效延伸到公共治理领域内的所有个体。但公共行政传统权力关系和结构也面临重构,传统行政中紧握于决策者之手的权力开始出现松动,政府部门的部分 “治理权”逐渐被人工智能算法接管, “算法辅助甚至代替公权力,做出具有法律效力的算法决策”[25]。假若将公共权力无限制地外包给机器,可能会破坏人权和法治[26],算法这一 “接管”的背后实际上潜藏着新兴技术公司 “私权力”支配政府公权力的风险隐忧,且人工智能算法的不透明性和自主性还可能会进一步强化算法支配的力度。

其次,压缩公众表达的话语空间,弱化公众参与的积极价值。尽管人工智能应用促进了个体权利实现方式的开阔性,但个人在实现权利自由时也会受到算法权力的潜在规制,其会形成对公众更加分散化、强力化和无形化的控制。依托强大的智能算法,行政主体可实现对包括公众在内的治理参与者行为的实时监控和精准画像,这会使得二者的自由对话空间在一定程度上被压缩。与此同时,人工智能算法依托深度学习系统这一优势可以更为全面精准地获取公众真实诉求,而实际上公众参与的价值在某种程度上得到弱化。在此情形下,公众容易陷入技术万能的幻象之中,继而引致对自我表达和参与的迷失,存在被人工智能算法支配的可能。

在人工智能嵌入治理的虚拟空间内,算法权力的运行 “遵循商业逻辑、偏好原则、技术理性和隐性规则,呈现出资本化、歧视化、工具化和私密化的态势”[27]。作为一种新型的技术权力,算法权力借助于公权力体系快速生长,自动改变着现实公共行政中的规则界限和主导权,算法支配之下的新型权力结构潜在价值减损的隐忧。传统适用于公权力限制的依法行政、正当程序、行政公开、行政公平等法律基本原则难以践行,行政法治原理面临更加严重的挑战,加上缺乏相应的法律规制和救济路径,从而更加大了这种算法权力异化的风险指数,还极容易与公权力合谋形成权力滥用[28]。

从功能效应看,算法权力的异化会弱化公共行政价值的考量,导致出现人工智能算法支配治理过程的结果。因此,在迈向算法行政时代的漫漫征途中,必须对算法保持清醒的认识,警惕算法权力对人的规训和对政府治理过程支配带来的负面效应。

人工智能的嵌入促使公共行政系统越来越走向一种 “算法驱动”的智能化形态,智能治理的过程和活动正冲击着当下的社会秩序。新时代我国社会需求已转向对美好生活的需要,人们对于安全、责任、公正、自主等良好的公共物品需求与日俱增。在这一算法新图景下,政府运用智能技术在满足人的部分需求、增进政府治理效能时,也存在着价值负向实现的情形,这不免会削弱政府治理的正当性基础。

2.1 数据共享的不安全性

从某种意义上说,安全是第一价值目标,亦是风险社会的道德诉求和公共行政的价值旨归。作为人类自身最优先、最重要的 “公共资源”和 “公共产品”,安全具有生命意义上 “善”的本质特征。迈入人工智能时代,数字政府建设与数据安全之间脱节的现象愈加凸显,云上数据泄露、勒索攻击、数据要素垄断、信息伪造等现象日益严重,数据运用存在较大的不安全性。

一是算法决策促使相关主体之间抢占数据资源,加剧数据要素聚集和垄断。算法决策的基础在于数据,数据天然具有的 “生产价值性、技术可控性与客观独立性”[29]使其成为一项新型财产类型,算法对人类决策的替代使得数据资源成为现代极具竞争性的战略资源。政府部门、技术厂商、平台企业等通过自身系统和平台获取数据,愈加重视对高价值数据的占有而不愿开放共享。在政府数据资源的开发利用过程中,难免会让技术厂商使用和控制这些数据资源,还可能会导致抢占数据、滥用数据、索取数据等现象。

二是算法理性的 “去人化”,引发数据安全和隐私泄露问题。尽管算法理性能帮助人类提升决策和行动效率,以更有效的手段实现特定目标的那些事务,但这些事务的实现大多是以数据处理为基础。由于其运算过程和数据采集的 “去人化”,一旦缺乏有效的监管机制,将可能使得社会秩序链崩解。

三是数据权力背后潜在着资本力量,利益驱动数据诱发数据伪造、数据欺诈、数据歧视和数据霸权等问题。智能治理过程中形成了以数据为中心的新型权力,通过对收集的数据进行深度学习和特征提取,借助于伪造技术对数据进行篡改和伪造,最终生成的虚假信息会破坏治理秩序。例如,英国伦敦大学科研工作者研发的用于笔迹伪造的人工智能算法可以学习和伪造各种样式的笔迹,这极有可能在治理活动中被非法利用来获取利益。

2.2 治理责任的模糊化

作为公共行政的核心, “责任”构成了治理过程的基础。在人工智能时代,命运的相互关联、行动的相互依存决定了责任的重要性[30]。人工智能的深度嵌入使得人与人之间以及人与机器之间的关联度和依赖性不断增强,政府治理活动面临着责任的日益复杂化与模糊化。

一是算法替代人类决策,致使责任承担主体模糊化。随着人工智能被运用于越来越多的公共行政场景,现实治理中的主体范围得到扩大,其存在技术开发者、设计者与使用者的分离,而对于算法决策过程中造成的数据信息泄露或决策错误乃至财产损失,如何确定责任承担主体并执行问责仍有较大难度,治理实践难免会出现相互推诿责任的现象。关于杭州城市大脑首发的红绿灯调控问题,尽管杭州交管部门为顺利试验城市大脑揽下责任,但仍未建立明确详细的责任体系[31]。

二是人类主体角色弱化,引致角色责任意识模糊化,主要指在政府智能治理过程中出现的不能准确判断自身所扮演的角色和认同所应担负的责任。算法理性对人类情感和理性的替代,在一定程度上会使得人类的责任意识随着人类主体角色的迷失和离场而逐渐弱化和模糊。由于嵌入范围和程度的不同,各主体所处角色和所负责任亦存有差异,角色意识模糊可能会存在将责任归咎于智能技术本身或者其他主体的现象。

三是算法权力缺乏有效规制,致使责任内容模糊化。人工智能运用存在边界意味着嵌入治理的范围和程度有所不同,当然,智能治理过程中所形成的算法权力亦存在强弱之分。在技术公司 “私权力”介入公权力的运行场域之后,由于缺乏相应法律规范的规制,不同时期和不同程度的智能算法治理存有责任内容不明晰的问题,未来需着重关注算法问责的确立和执行难题。

2.3 算法公正的减损化

公正是人类社会具有永恒价值的基本理念,也是智能治理实践必须重点关注的要素。智能算法越来越多地用于支持政府的决策,但算法通常对决策者乃至公众来说仍然是不透明的。算法偏见与黑箱操纵对公共行政的公平正义的侵蚀加剧了不公平现象,降低了民众对政府的信任值,当它们应用在治理系统中时,被称作为民主调制了一杯 “有毒鸡尾酒”[32]。政府治理实践造成的公正减损主要体现为以下方面:

一是算法 “偏见”引发决策不公的价值判断。算法依赖于大数据,核心数据源头是人和物,每个政府治理利益相关者既是政府数据的生产者,也是政府数据的消费者。换言之,人工智能算法本质上仍属于 “人算计人”的思维物化的表现[33]。首先,数据形成过程中的价值偏向成为算法偏见之源,带有偏见属性的数据会影响智能治理过程中算法决策的公正性。其次,算法规则的设计过程难免会注入个人价值,亦可能会嵌入主观隐含的偏见。例如,美国司法系统实行的审前释放评估系统 (COMPAS),其选择变量生成的风险评估分数可能将黑人被告错误分类为比白人被告更高的风险。

二是算法理性的 “封闭化”引致治理活动有失公正。随着智能算法取代生物算法,拥有强大算法的技术公司开始对财富和权力的垄断,这一现象关涉算法理性趋向理性的算法,即它越来越以算法所有者为封闭边界而运行,这势必会导致政府治理过程弱化社会利益和公共利益,引致更多的不公正现象。

三是黑箱操纵导致不公正隐患增多。算法权力的快速生长,自动改变着现实公共行政中的规则界线和主导权,算法技术鸿沟使得算法的设计、训练、使用面临可信赖危机,在算法暗箱面前人们不得不担心自己是否被公平对待。在虚拟空间内智能算法会自动按照自身逻辑运行,首先面临的难题便是算法规则的透明度,其指称算法所作公共决策的可访问性和可解释性[34]。然而,算法通常是不透明且缺乏明确解释,这意味着外部机构无法评估其是否符合道德要求和法律标准,也无法解释和理解政府决策做出的依据和情境。相关研究表明,算法可以帮助决策者做出更正确的决策,且可解释的人工智能结合经验可以帮助他们检测算法提出的错误建议[35]。

2.4 技术依赖的自主性损害

现代智能技术日益显现出对人的 “身体自然”的替代趋势,从公共行政价值实现与人类在场之间的关系看,人工智能嵌入所引致的 “人类出场”情景势必会冲击传统的 “以人民为中心”所构建起来的行政价值观。算法行政的无接触式和自主性特征,使得处在技术弱势地位的政府和民众处于一种 “智能失权”状态[36],表现出较弱的行动能力和话语权,对技术依赖的增强引致行政自主性的减损化。

一是算法决策引致行政决策自主性受损。人工智能的深度嵌入促使治理活动愈加依赖智能技术进行信息的筛选、计算、分析等,算法决策替代人类决策的情景将不在少数。当智能算法对政府实体决定生成具有高主导性时,它会在自动运行程序中对行政对象的资格和权利进行分配,并做出应对行政任务的决策方案。在人工智能支配初期可能会让人文主义加速追求健康、幸福和力量,然而,一旦权力从人类手中交给智能算法,人文主义的议题就可能惨遭淘汰[37]。

二是算法理性运用使得主体自主性思维受限。智能算法理性会将行政人员的情感裁量以及民众潜在的、不可量化的价值理性排除在外,对人工智能的过分依赖反而会容易让主体成为器物的工具,这常常令人忽略其中的价值立场和人自身被异化的现实。在政府治理现实中较少关注现象本身蕴含的知识价值,欠缺治理实践现象本质的思考,一味坚持技术拿来主义,跟风新技术的应用甚至借此创造技术治理新现象。

三是算法的强支配力削弱主体的自主行动能力。随着算法权力逐步获得 “人类权力”的合法地位,其作用直接表现为算法所产生的影响力和控制力,政府治理对智能算法的依赖性渐趋增强。对于公众和政府机构而言, “信息茧房可以变成可怕的梦魇”[38],对人工智能的这种依赖以及 “技术上瘾”会大幅减弱人们的自主性思考和行动能力。

人工智能技术治理的正向价值实现是政府治理活动的不懈追求和希冀所在,如何消解治理过程中的负面价值,不仅影响人工智能技术的发展走向和未来政府治理的现代化水平,还直接关系到人类社会自身发展的命途。面对人工智能浪潮,只有科学促进人工智能与政府治理的交互融合,才能有效消解智能算法治理过程中存在的价值负效应。为了让智能算法行政朝着满足人的需求、改进政府治理绩效的目标行进,可从以下方面探寻具体的行动路径。

3.1 健全体系完备的政府数据治理法规政策

在新技术时代,数据的权力化特性日益凸显,海量实时的数据和强大的算法技术已成为强影响力和控制力形成的基础,国家面对的将是一个结合资本、技术和权力的数字化垄断技术群体。政府数据安全治理的前提和基础在于得到体系完善的法规政策的指导和约束,当前我国政府数据安全治理在法治建设方面相对滞后,配套政策缺乏系统性,难以满足智能治理实践的需求。由此,可从以下方面予以完善:

首先,加强数据相关立法供给,明晰主体间的数据权属分配。数据不是中立和非政治性的,或者仅仅是一个物质实体,重要的是根据数据的传输和分配,对数据轨迹产生影响的技术、社会和政治力量的分类[39]。现行数据产权相关规定的不清晰极易导致多方数据主体的利益冲突,有研究从政府、企业和个人角度提出平衡数据权益 “三维配置”的制度框架[40],但治理现实中较难将某种数据权简单配置某一单独主体。因此,加强政府数据安全治理与人工智能领域的立法,应充分考虑数据主体的动态利益关系来确认权利配置,及时协调各主体的职责、权益关系,以提升政企间数据共享水平和促进不同主体之间数据资源的交换和流动。

其次,健全政府数据安全审查制度。虽然新实施的 《数据安全法》以及相关法规政策文本明确要建立数据安全审查制度,但相关论述过于宏观、精简,可操作性和执行性不强。故而现有法规政策应进一步明确数据安全审查的实施主体、实施机制、审查内容、审查结果等,并完善数据全生命周期方面的安全审查规定。

最后,健全以共享为基础的数据流通监管制度。数据监管的目的不仅仅是规制算法权力和保障数据安全,还在于促进数据的流通。现有法规政策应确立数据安全和数据共享相结合的监管原则来促进数据流通,这有助于弱化少数平台企业及其背后的资本所拥有的数据优势。同时,除了规范事前数据收集外,还有必要从立法角度增加数据流通的事中和事后监管措施,赋予监管机构相应处罚权以规制违法行为。

3.2 构建明晰完备的算法问责制

责任明晰是实现治理透明、建立信任的中心问题。事实上,人工智能的嵌入治理并不必然会带来公共治理绩效的改善,陈旧的制度体系会限制技术应用的广度和深度,从而影响智能技术赋能的效果[41]。因此,如何构建有效的问责机制来匹配技术的发展,将是政府治理的重要内容。在算法问责方面,美国政府在2021年6月发布 《人工智能技术问责框架》,确定了关键问责做法,英国、法国和其他国家也通过立法等形式明确了技术公司的算法技术责任。广义的算法责任既包括人工智能设计者、研究者的行动内容,也包括使用者政府的治理行为。现阶段,我国算法问责制可从以下方面予以完善:

首先,基于政府主导和行业驱动相结合的原则,明确主体责任承担范围。政府过多干预会减缓技术的发展创新,但缺乏外在有效规制极易导致出现边界之外的技术研究和开发。当前我国新一代人工智能应以敏捷式治理为主,要保持技术创新力度和风险规制力度的持续并重、动态均衡[42]。政府应建立总体治理框架,技术公司在遵循框架要求下自主性拟定提升透明度等相关准则,继而明晰主体责任承担内容。

其次,坚持权力规制理念,强化主体责任意识。如果将算法作为技术规制的理念会偏重设计者的设计责任,而算法权力的现实运行才是造成负面价值的直接动因,换言之,研发人员能够解决算法设计的偏见,但无法阻止算法滥用发生。因此,需转向权力规制,以此督促算法使用者切实对人工智能算法应用负起责任。

最后,建立完善的算法权力问责机制。一方面,明晰算法问责的标准,通过对算法系统采用各种控制措施来检验其是否符合设计意图,并及时有效地识别和纠正有害结果。另一方面,执行相对严格的问责制,明确定义责任机制和透明化流程,对于滥用数据、篡改数据、掩盖透明度等恶意行为执行较为严格的问责制。新型技术公司应该积极地将责任嵌入其算法系统之中,以明确行动的责任边界。

3.3 建立透明有效的算法运行机制

政府治理是围绕公共行政价值实现而进行的活动,智能技术治理必须积极回应公众的需求,加快推进 “高质量”服务型政府建设。然而,人工智能核心技术和决策程序的开发设计不可避免地渗透着研发者和设计者的主观特质,主体采集数据的准确性和客观性以及数据样本分析的无偏差也难以得到保证,智能治理不免存在算法偏见和决策不公的可能。基于算法的决策不如基于规则的过程透明或可解释,尽管具有相同认知偏见的人类决策者可能会改变其决定,但基于偏见的算法决策能够使大规模歧视长期存在[43]。为了消解政府在智能技术应用过程中的负面价值,可从以下方面予以完善:

首先,培育主体的数据素养和技术责任,建立数据筛选机制。公共行政价值对技术彰显的是素养和责任,通过优化算法研发和数据采集相关主体人员的培训教育,提升主体人员的数据素养,以保证数据采集的准确性、客观性和代表性,降低数据存有的偏差分布。在数据筛选方面,应注重数据的代表性和优化分布,要遵循尽可能全面的数据优于筛选过的 “好”数据, “好”数据优于分布不均、代表性欠缺的数据原则。

其次,坚持算法透明原则,保证智能过程的算法公正。算法透明原则实质上是对智能治理过程的设计提出要求,并对系统的运行进行监督,算法透明确保了民众对智能治理过程的了解,有利于民众发现智能算法治理中存在的不公平现象,旨在消除人与智能系统之间的 “数据鸿沟”,确保民众在理解政府治理工作的基础上实现公正。

最后,选择可行的因果推断和技术性纠偏方法,增强算法透明度和解释度以规制算法权力的运行。因果推断方法可避免多数由于算法简单关联性引致的公共决策领域的不公平,其在创建公平的算法决策上是必要的。为了弥合因果推理中精确建模传统与机器学习中的算法黑箱之间的差距,有研究人员提出并开发了稳定学习作为共同点的来源,可有效提升算法的可解释性和公平性[44]。同时,可使用修正度量或相似度计算来比较主观性数据较为集中的算法输出与期望的公平行为,执行严格的公平性约束,以减少算法不公正现象发生。

3.4 建构理性的自主性提升机制

人工智能嵌入治理作为一种新型的治理形态,其最明显的表象便是算法辅助或者替代决策者做出决定,朝着数字化和自主化决策模式转变。然而,现实治理中仅仅靠算法理性无法使公共行政活动趋于务实与向善,这在于算法理性无法真正关注到人的全面发展和社会全面进步等内在价值目标,并对价值实现难题做出积极有效的回应。作为程序智能,人工智能治理体现为一种实现程序正义的刚性治理,要实现实质正义还需要弹性治理加以平衡,要求合力保证人类在治理实践中的自主性[45]。由此,可从以下方面寻求改进:

首先,坚持人的主体性地位,明确算法决策的适用范围。尽管人工智能在预测力上具有强大的优势,但并不意味着政府治理过程中的大部分决策都应交由人工智能决定。一方面,要坚持构建以人民为中心的行政价值观。

“公共行政始终是围绕行政价值选择进行的管理活动”[46],应充分认识到人在智能治理活动中的主体性地位,将满足人民美好生活需要以及实现人的自由全面发展作为智能技术嵌入治理的价值准则,从而克服对智能技术依赖造成的自主性减损。另一方面,审慎决定人工智能应用场景,对于比较敏感的政治伦理领域,应尽量降低人工智能的主导性,在重复性、程序性等弱伦理属性的行政领域,充分发挥人工智能的价值,提高行政效率与公共服务质量。

其次,树立科学创新的智能治理理念,运用价值理性牵引人工智能技术的理性。一方面,不断增强智能治理意识,形成对人工智能技术的正确认识和理解。由于主体自主性的减损在很大程度上是基于对人工智能技术的认知偏差,故而可通过强化认知教育、完善公开渠道和沟通机制、规范信息传播渠道等方式来提高主体的认知水平。另一方面,将工具理性与价值理性统摄于政府治理的有限理性范畴之内,构建 “以价值的文化内应力和文化软约束形塑技术”[47]的治理路径,确立政府主导和算法辅助的政府治理格局。

最后,通过完善相关制度伦理来规制算法权力,继而提升主体的自主能力。以法律、规则和制度的形式对行政活动做出道德设定,使得治理主体能从合法合理的制度系统中汲取符合公共行政要求的伦理精神,提升主体的道德判断和自主选择能力。

人工智能的嵌入促使公共治理过程愈加趋向一种算法化的智慧形态,推动公共行政范式向 “算法行政”转变。相比较传统公共行政范式,算法行政引发了人类主体角色转换的危机,治理主体的权力支配者角色有被算法替代的危险,整个智能治理过程呈现出人类主导转向算法决策、人类情感与理性转向算法理性、辅助治理转向算法支配的形态。政府在运用人工智能技术满足公众的需求、提升政府治理价值时,也存有数据共享的不安全性、治理责任的模糊化、算法公正减损化以及技术依赖的自主性损害等价值问题。

当然,我们并不能将由此产生的 “负效应”归咎于智能技术,赋予其 “原罪”的性质,继而主张废止科技应用。治理本身与价值存在着天然的不可分割性,人工智能的嵌入治理既是人类智能的扩展,亦是人类价值系统的延伸,必然要包含对人类伦理价值的考量。因此,需要始终坚持把增进人类福祉作为公共行政终极价值,从保障政府数据安全、明晰算法问责、增强算法透明度以及提升主体自主性等方面寻求有效的回归路径,最大化地将人工智能优势转化为政府治理效能,更好地促进人和社会的全面发展。

猜你喜欢公共行政理性决策为可持续决策提供依据纺织科学研究(2021年9期)2021-10-14决策为什么失误了中学生数理化·七年级数学人教版(2019年6期)2019-06-25基于反身性理论对公共行政学实践教学局限性的解读与探析北京电子科技学院学报(2016年1期)2016-06-15改革牛和创新牛都必须在理性中前行IT时代周刊(2015年7期)2015-11-11我国公共行政的系统分析:可行性、必要性及局限性学习月刊(2015年10期)2015-07-09理性的回归汽车科技(2014年6期)2014-03-11对一夫一妻制度的理性思考中华女子学院学报(2013年1期)2013-03-11理性看待GDP增速减缓中国工程咨询(2011年10期)2011-02-19论公共行政文化对公共行政管理的影响和作用长春工程学院学报(社会科学版)(2010年2期)2010-08-15试论公共行政的伦理诉求东南大学学报(哲学社会科学版)(2004年4期)2004-01-10

推荐访问:图景 人工智能 算法