人工智能时代公司社会责任的软法规制

|idpi

摘要:在人工智能时代,数据和算法的运用使公司社会责任规制面临着新挑战。在此情形下,基于传统硬法对于公司社会责任规制的乏力现实,为与当前时代的发展契合,以软法为主导的规制手段将成为公司社会责任规制的新路径。从法学和经济学视角审视都更具有合理性,其不仅能够促进主体间实现实质正义,也更符合成本—收益的价值考量。为推进这种规制手段的实施,首先应将数字正义和政府适度干预确立为公司社会责任软法规制的基本理念,并在该理念的指引下,使公司运营与社会责任的实施形成互动,并赋予用户算法解释权,促使公司内生激励和外部约束共同发力,最后形成以软法规制为主导,软硬法协同的公司社会责任规制格局。

关键词:人工智能;
公司社会责任;
软法;
数字正义;
适度干预

中图分类号:D 912.29文献标识码:A文章编号:1003-9945(2020)05-0084-11

基金项目:国家社科基金项目“创新社会治理背景下社会企业法律规制研究”(18AFX018);
2018年重庆市人文社科规划项目“关联企业破产法律问题研究”(2018BS116)

一、问题的缘起

近百年来,学界对公司社会责任(Corporate So? cial Responsibility)理论探讨的热情一直未有退减之势,相反,几乎是每隔20年就要轮回一次[1]。究其原因,有其理论自身的发展逻辑,更有社会经济发展现实的影响。进入数字时代,海量的数据似浪潮般涌来,日益深刻地影响和改变着人们的生活。在这场无声的巨变之中,公司作为市场经济的主要力量,在经济理性的驱使下,也致力于数字经济和人工智能的发展,从而大量地产生和使用数据。与此同时,在2018年中国发展高层论坛上,作为BAT之一的互联网独角兽公司百度,其董事长李彦宏表示:“中国用户对于数据隐私问题不怎么敏感在很多情况下愿意用隐私数据交换便捷性和效率。”可见,数据环笼之下的广大消费者,对于数据的敏感,并未随着数字经济的发展而渐趋敏锐。另一方面,基于海量数据的人工智能技术的运用,为公司洞悉用户意图提供了巨大便利。在百度竞价排名、“魏则西事件”、大数据“杀熟”等事件引起社会热议的同时,由此引发的公司社会责任的问题,再次激起社会讨论的热情。因此,在制度体系阙如的背景下,百度等数据型巨头公司是否中立、正当地使用数据,对数据的分析是否遵循伦理道德,并将这些嵌入公司社会责任的践履之中,成为人们热议的焦点。在此,不难预测,在当前时代下,对公司践履社会责任的规制探究,必将涌起公司社会责任理论探讨的新一轮浪潮。综观现有文献,对公司社会责任规制的研究,可谓汗牛充栋,但将该问题置于人工智能时代的视阈之下,且探讨基于软法的规制路径,进行系统性论述且卓有成效之理论著述寥寥。理论研究的不足使得对该问题的解决难以找到足够的支撑。难以达到引导企业建立向善的经营模式,促使数字技术可持续发展并实现经济繁荣局面;
也无法引导提高广大数据用户和消费者的数据保护意识,维护其数据权利的目的。为此,本文拟在人工智能语境之下,以数字正义和适度干预理念为指引,探究基于软法的公司社会责任规制路径,希冀促成以上目标的实现。

二、人工智能时代公司社会责任规制的现实挑战

公司社会责任并非新词,相反,滥觞于上世纪20年代美国大工业发展时期的公司社会责任,在历经近百年的论争和发展之后,已经逐渐被学界和企业界所接受。大家普遍认为,公司社会责任是公司法不断完善的产物,也是公司法的发展方向,其是对以追求利润最大化为唯一目标的传统公司经营理念的修正[2]。通过公司社会责任的实施,可以化解公司在正常经营过程中的负外部性,实现公司内部利润和外部利益的均衡和稳定[3]。并且,以义务为本位的公司社会责任可以破解公司单一追求经济效益而可能诱致的市场失灵,是经济法社会本位理念的突出表现[4]。进入人工智能时代,在大数据、云计算、深度算法学习等的催化下,人类正在从持续千百年的物理实体社会跨入由虚拟数字构造的新兴社会[5],包括公司在内的社会主体的活动空间在虚拟与现实的时空交织中得以延伸。与此同时,公司社会责任也被嵌入“数字基因”,具有了更加丰富的内涵。由此导致对其的规制也面临着新挑战,这种挑战主要表现为引导公司对掌握的数据和算法的规制。

(一)数据和算法:人工智能时代公司社会责任规制面临的新特征

诚如前述,公司通过践行社会责任,可以化解正常经营过程中的负外部性,即将外部性内部化。随着“万物互联,事事算法”的人工智能时代的到来,公司践行社会责任的外部环境发生了巨大变化。这些变化一来为公司践行社会责任提供了有力工具,二来也为破解公司追求利润最大化与服务社会的二元悖论提供了新路径。人工智能的基础是数据,本质是算法[6]。为此,人工智能时代的公司要关切利益相关者的伦理和法治诉求,需协助解决因海量数据获取、分析和使用引致的伦理和善治等问题。本部分分析围绕公司社会责任规制而出现的数据量化和算法统治问题,从数据用户和消费者权益保护的维度展开。

1.数据量化

随着信息技术的不断发展和普及,产生了大量半结构化甚至非结构化数据,并呈指数级暴增。这些数据集中于企业、政府、高校、医院等机构,但客观来讲,相比于前三者对数据的使用,企业因商业利润的驱动,更易对掌握的数据过度分析和使用,甚至是非法利用,对数据主体和消费者的权益造成侵害。有了海量数据的“喂养”,人工智能变得更加智能,处理数据的能力进而也越强,其对用户和消费者数据获取越多,就更能实现对后者的精准“画像”。当你和家人朋友聊到某个商品时,此时打开淘宝等电商购物平台,你刚聊到的商品很大概率会出现在搜索栏里,这是对消费者某个时点消费需求的满足。当然,通过对一时间段内消费者行为的串联和分析,人工智能的“画像识别”功能还可以判断出消费者的消费习性,并在算法的辅助下,向你精准地推销商品或服务。比如,你在使用自动驾駛汽车外出时,通过汽车自载的导航功能搜索的目的地信息、经过哪家超市并购买了什么商品、经过加油站并用哪种付款方式加了油,这些信息都可以串联起来,整合并加以分析[7]。类似操作绝大多数都是在你未知的情形下完成的,潜藏着风险,这就是典型的数据量化。遗憾的是当前法律规范对此并无系统的规制安排,由此,对企业的数据治理是数据治理活动的重点领域。根据国际数据治理研究所、IBM数据治理委员会等权威机构的定义,企业数据治理即对企业的数据管理和利用进行评估、监督和指导,通过不断创新数据服务,为企业创造价值[8]。由于公司社会责任的实施与公司自身的经营活动密切相关,因而,对企业的数据治理,成为人工智能时代公司社会责任规制面临的新特征。

2.算法统治

在数据量化的基础上,算法的运用随处可见。“万物皆可数据化,一切皆可被算法处理,算法深刻地影响着我们的生活,影响着公司商业模式的运行”[9]。在公司经营中,为了不断地扩大影响力,巩固自身市场以进一步获取利益,公司将投入充足的人力、物力和财力,将计算科学与认知科学相融通,不断开发、调试和完善算法。如此,一方面将客观促进社会技术的进步,满足社会变迁的需求;
另一方面,由于算法结果的不可预知和算法典型的商业秘密属性,除因底层数据本身原因而导致的偏见和歧视外,还有可能在其输出层和输入层之间产生“黑箱”问题,歧视和不透明导致各相关利益主体之间“权-义-责”结构不对称程度加剧,数据用户和消费者的权益极其容易受到侵害。

除此之外,在精神实在层面,算法造成的“统治”局面也同樣使人担忧。这主要体现在对人自由发展的束缚。在马克思的经典论述中,人自身的发展可以分为三个阶段:第一阶段是“人的依赖关系阶段”。这个阶段生产力水平整体较低,人和人之间的依存度较高,个体如果独立于群体便无法生存。第二个阶段是“以物的依赖性为基础的人的独立性”阶段。在这个阶段,人身依附关系的解除使个人获得了对他人的独立性,并且形成了普遍的社会物质交换、广泛的社会关系、多方面的需求以及全面的能力体系。但在这个阶段,由于人对物的依赖关系的存在,致使个体的这种独立性是“初级的”“外表上的”,人的全面自由发展还远没有实现。第三阶段是“自由个性”阶段。在这一阶段,人摆脱了对物和对人的依赖关系,完全控制了自己的生存条件,形成了“自由人的联合体”,并且,每个人的自由发展是一切人自由发展的条件。显然,算法统治将冲击原有资源的分配体系,导致人对物依赖性的不断增强,物理阻隔人自身历史发展的进程。立于人工智能发展前沿的量化数据掌握者的能力得以明显强化,而另一部分人甚至连自身隐私和自由发展权利都越来越难得以保障。强弱悬殊越变越大,“强者为所能为,弱者受所必受”,少部分人享有越来越大的自由,越来越多的人受到越来越强的必然性束缚。

由此,对公司掌握的算法进行规制具有正当性和紧迫性。在众多的规制手段中,相对于其他方式的较高成本和不显著效果,公司社会责任的实施可以进行较好地适配,达到引导、约束算法发展和伦理遵循的目的。

(二)传统硬法不足以规制人工智能时代的公司社会责任

经过多年的探讨和论争,学界普遍认为,“硬法”即指由国家强制力保障实施的法律规范[10]。公司社会责任是在经济责任、法律责任之外,以道义准则为核心的倡导性义务①。在硬法规制的语境下,公司社会责任的承担只能是最基本义务的倡导,更高层次的要求则属于企业自主选择的范畴,这种倡导性义务以不侵犯企业私权为界限。可见,以硬法规制并不能涵盖公司社会责任各层次的内容要求,也无法将其可能存在的变动适当地纳入到调整范围,形成良性的互动机制则更是惘谈。为此,单纯依靠硬法显然无法满足公司践行社会责任的制度需求[11]。具体言之,(1)传统硬法对公司社会责任规制的调整范围有限。将道义准则作为法律化的义务,如过度要求则极其可能使道德调控方式的“自律”转变为“他律”,在价值多元的道德自由社会,将自觉主动的社会行为变为需他人约束的行为,一来将导致公权过度介入社会生活,二来导致社会责任行为者心理接受的困难。(2)硬法对公司社会责任的规制缺乏灵活性和合理性。由于社会整体利益的价值导向,硬法的规范效力具有普遍性和全局性,为此难以兼顾不同主体在部分时空条件下追求的公平正义。由于不同公司在地域、行业、技术条件等方面的差异,致使其承担社会责任的内容也具有差异性。并且,随着经济的发展,社会对公司的期待也在变化,使公司社会责任内容兼具时代性。显然,硬法的规制不能满足公司社会责任发展所要求的即时性和多元性。(3)硬法的规制主体较为单一,缺乏社会参与。硬法主要由公权机关采取命令式的实施机制,与社会权力缺乏互动和对话,这与当前公共治理中强调的共治理念相悖。当前,公司社会责任的内容具有时代性、多层次性和多元性等特征,利益关系较为复杂,需多方主体协同共治,才能取得最佳的治理效果。单纯依靠硬法显然无法满足这种需求。

人工智能时代,公司社会责任实施中面临的海量数据和算法等新特征,为其规制带来了新的挑战。除前述所言的问题之外,在数据和算法等为新特征的数字时代,公司践行社会责任面临着新的问题。如果仅由硬法进行规制,效果明显是要大打折扣的。(1)人工智能时代,对公司社会责任的规制,硬法本身是不完备的,这种不完备主要体现在与公司社会责任相关的法律规范较为分散且效力有限,系统性不足②。(2)硬法实施机制单一且缺乏灵活性,当前时代,该缺弊将被极大程度地放大,进一步影响规制的效果。(3)硬法规制带给企业实质的不平等。技术在变革着传统企业经营模式和竞争样态的同时,使一些大企业在数字时代发展初期即占尽优势,前期制度的不完备及执行的缺位使其迅速成为受益者,不仅获取了较多利润,且在法律规范制定中占据了主导地位,相比之下,其他企业则必然处于劣势地位。同时,在数字技术主导下,也使一些企业因为差异化产品的提供、性价比提高和服务模式的优化,快速获取了用户并实现较大利润,具有了较高估值。具有普遍规范性的硬法如果对这些企业均采取统一的规制手段,必然造成企业之间的实质不平等。

综上,基于硬法对当前时代公司社会责任规制的乏力现状,我们在探讨公司社会责任规制的新路径之时,将目光转向与硬法相对应的软法便成了不二选择。

三、软法:基于公司治理的公司社会责任规制新思路

软法并非新概念,其在全球范围内的公共治理中已被普遍接受[12]。滥觞于20世纪中后期的软法治理,虽历经近半个世纪的发展,但仍有争议,学界对其的研究,还处于不断的推进之中。在概念上,国内外学者多采用法国学者Francis Snyder的界定,即认为:软法是“原则上没有法律约束力但有实际效力的行为规则”[13]。通过这些行为规则实现的公司社会责任的规制效力,兼具法学和经济学的逻辑基础。

(一)公司社会责任软法规制的法学和经济学分析

1.促进各主体间权利的实质公平

对于公司而言,由于不同公司在先天资源禀赋、技术研发能力和政策优待等方面的差异,其在社会责任的承受能力上也必有不同。并且随着人工智能等技术的发展与迭代,这种差异性会更加明显。如用硬法普遍规范的形式对其不加区分的对待,将导致实质上的不公平,这种未包含“某种补偿性安排的制度也是不健全和不可持续的”[14]。通过软法差异化的规制,有层次的区分不同公司社会责任的承受能力,使公司社会责任的实施不流于形式,也更符合该制度设计的初衷。这种“差别原则”是经济法实质公平理念在社会责任实施中的体现。

对于消费者和用户而言,由于硬法规范本身的不完备,以及实施机制的单一和形式化。如果仅由硬法对公司社会责任进行规制,公司在大多数时候可以满足最低形式的法律责任要求,在形式上达到正义的要求,但在实质上,会因没有选择“善治”的规范而功败垂成。因此,通过软法规制,可以克服硬法规制公司社会责任的不足,一来保护用户和消费者数据信息的安全性,免于非法窃取和不合理使用;
二来规制公司在“法无禁止即自由”的“免责金牌”之下过度收集和分析用户数据,使大数据“杀熟”等现象得到遏制;
三来在软法的主导之下构建起“柔性”的多元纠纷解决机制,包括建立多元的在线纠纷解决机制和优化纠纷处置程序和反馈机制。以使用户和消费者在权益受到侵害时能够及时、有效和妥当地解决纠纷。通过选择这种“善治”规范,使消费者和用户获取实质意义上的公平。

2.成本—收益分析和主体博弈的考量

首先,软法促成成本—收益分析结构的优化。在公司社会责任的实施中,硬法规制主要通过公权介入的方式进行,这意味着或多或少将影响公司的自主经营权。根据法经济学的成本效益理论,效益并非仅仅局限于经济主体的经济效益,还包括与之相关的政治效益、社会效益等。就成本而言,公权介入的管制包括管制立法、执法、法规的修改与调整等环节,每个环节,都会产生相当成本[15]。从效益来看,在管制经济学看来,政府管制的收益由垄断者收益减少而消费者收益增加衡量[15]。公权过多地介入会出现政府以“敦促”公司实施社会责任为由,无端介入公司自主经营,为“政府摊派企业”寻找正当性基础。这种介入也容易使公司社会责任规制陷入数据和量化的窠臼。在印度推出“不低于最近三个财政年度平均净利润百分之二”的“强制支出模式”③后,有一项针对该法案实施效果的调查显示:被强制实施社会责任企业的价值平均减少了2.6%~3.3%,远超法案规定的2%[16]。而这些成本,都需先由公司承担,并最终落在使用公司产品的消费者身上。为此,政府管制应遵循适度原则,严格控制在一定限度之内。相比而言,通过软法规制公司社会责任的实施,可以降低规制过程中直接由社会负担的成本,且避免了“企业办社会”现象的发生。软法主张通过公司的内生机制,使公司自觉承担起其可承受范围内的社会责任,即在建立充分的信息披露制度和声誉约束机制的基础上,以用户的自由选择来促使公司基于“成本—收益”的考量而自主承担社会责任。

其次,软法是有关共同体充分对话和博弈的结果。虽然公权介入也涉及市场主体之间的交流和谈判,但是随着数字技术的发展,网络公域急剧扩张,硬法规制的滞后性已不能满足社会责任规制的需要。具体来看,立法在程序上的严格,时间、物质上的高成本,与数字技术的高速发展形成潜在的矛盾。软法规范具有多元性和灵活性等特征,其法源除了一般的法律文件和政府规定,还可以是行业协会等组织制定的规章制度,甚至可以是公司内部的章程或手册,这些规范均由更加具体的利益主体参与制定,规范内容更具针对性。软法规范更像是合作博弈的结果,对博弈方来说更接近帕累托最佳,这意味着参与直接互动关系的消费者和企业在一定程度达到了能体现各自利益的一致意见[17]。进言之,这些经过内部参与成员充分民主协商、对话而制定的规范,是共同体内部成员利益博弈的结果,更充分地体现博弈主体的利益诉求,由此减少规则实施的阻力。

(二)公司治理:公司社会责任软法规制与人工智能的契合空间

在著名的“公司社会责任金字塔理论”④中,公司社会责任除经济责任、法律责任等最低限度的责任外,还有相当部分是社会对其除营利之外的期待,即较之法律责任更高层次的道德伦理义务。这种道德伦理义务的践行,直接由公权规制实施明显是不合理的。通过内嵌于公司内部治理和行业协会等组织的价值认同实现的软法规制,由于不具有硬法规制的强制性和普遍性,符合特定利益群体的要求和愿望,可以引导公司自觉承担其可实现的最大限度的社会责任,满足了社会的期待。我国虽然在2006年《公司法》修订中才将“社会责任”的表述作为一般条款入法,但其实早在2002年《上市公司治理准则》中,就采纳了国际公认的标准规范,单独设立了“利益相关者”一章,对上市公司实施社会责任作出了要求。在2018年修订的《上市公司治理准则》中,更是对公司社会责任的主要内容、在公司治理中的原则定位和信息披露框架等作了具体规定,这些共同构成了社會责任嵌入上市公司治理的制度框架。在该准则中,并未明确上市公司社会责任信息披露等是否采用强制性的规则框架,显然这些都留待软法规范予以解决,如由交易所、相关行业协会等制定操作细则和规范。

人工智能的发展与公司社会责任规制的结合,必然显现在与公司治理的矛盾关系之中,这从公司治理的理论和实践发展即可看出。早在上世纪30年代,伯利和米恩斯在经典著作《现代公司与私有财产》中,就表达了公司治理会走向技术统治的观点。他们以美国当时的公共公司为样本,论证了公司股东与经营者之间的紧张关系。而这甚至使他们对公司制度产生担忧,“如果公司要继续存在下去的话,对大公司的控制则必然发展成纯粹中立的技术统治,以公共政策而非个人利益为基础,以平衡不同群体的利益。”⑤关于“中立的技术统治”的选择,在“世界首个机器人公司董事”VITAL出现,并作为香港风投公司Deep Knowledge Ventures“投资委员”的时候⑥,答卷已徐徐展开。在当前技术水平阶段,人工智能已在介入公司治理之中并发挥作用,不难想象,在人工智能技术发展到强人工智能甚至超人工智能阶段⑦,由其担当“中立的技术统治”角色,完全可能。但可预见,公权介入也必然随着对人工智能的管制渗透到公司治理之中[18],通过公司治理实现的公司社会责任规制又将重回公权和硬法规制的窠臼。为制约公权介入,保障公司的自治空间,可通过软法规范进行缓冲。

软法规范的多元性和灵活性,能够在更大程度实现共商、共治理念,将不同时空语境下的不同类型公司均纳入参与主体的范畴之内。由于个体的参与感提高,为纷繁复杂的社会责任践行提供了更广泛的基础。这种共商、共治理念在涉及道德伦理性的社会责任的践行中,让企业参与到规则的制定和实施中,充分体现了对企业意愿的尊重。使软法规制手段本身与公司社会责任的实施形成了良好的互动关系。

软法规制公司社会责任中所践行的共商、共治理念,正契合了“共建共享共治”的新的社会治理理念,由单一的国家制度输出优化为国家、社会、个体共同参与的制度构建。这与以数据、算法为新特征的人工智能具有不谋而合之处,不论是构建由数据和算法架构的网络公域,还是对这一网络领域进行治理,共商、共治理念都是行动指针,前者指向发展,后者着眼于安全和稳定,虽导向不同,但也因此构成了人工智能发展的整体。当前,对公司践行社会责任的规制,即引导和规范公司践行数字伦理的要求,发展向善的数字经济模式,合理、中立的使用数据,以此推动社会责任的实施。

四、人工智能时代公司社会责任软法规制的具体进路

人工智能时代,对公司践行社会责任进行规制面临着新的挑战,表现为公司运用数据和算法等底层技术逻辑,而硬法不足于对其进行规制。在软法规制成为不二选择的前提下,探索其规制的具体进路,首先便需明确软法规制应遵循的基本理念。

(一)数字正义与适度干预:公司社会责任软法规制的基本理念

作为哲学的重要范畴,理念指的是“一种理想的、精神的、永恒的普遍范畴”。在黑格尔看来,理念属于哲学的研究对象,而法学作为哲学的一部分,其研究应该以理念为出发点的。人工智能时代,确立公司社会责任软法规制的基本理念,应该从两个主体着手:一是掌握和控制人工智能技术的公司,二是以政府为代表的介入人工智能技术治理的公权机关。通过以下两个维度确立的基本理念,一来构建伦理为先导的社会规范调控体系,二来制约政府的管制行为,保障公司的自治空间。

1.公司运营维度

从公司运营维度来看,即引导公司确立数字正义理念。对于“正义”概念,在经典的《正义论》中,罗尔斯对其有深邃的论述。“正义”与“真理”一道,作为人类活动的首要价值,是“绝不妥协的”。在人工智能时代,这种正义价值观具有了更丰富的内涵,特别是因数据量化和算法的广泛应用而导致的数据正义观、算法正义观的粉墨登场,为现代性正义价值输入了新鲜血液[19]。这种现代性的正义价值内容,嵌入正义理论的阐释中,可以得出如下阐释框架:所谓数字正义:(1)对于在网络空间活动的每个人,都拥有一种基于正义的不可侵犯性的权利;
(2)这种正义的观念,最终是为推动网络空间全员利益服务的;
(3)这种正义观,必须在网络空间充分公开并受到广泛认可;
(4)由这种正义观指导而设计的用于规范网络空间利益冲突的准则需在各利益主体之间进行恰当的平衡⑧。

为使这种理念落实到公司社会责任具体实施中,第一,应将这种理念深植公司的日常中,不仅体现在公司的运营中,引导公司建立向善的商业模式,还应践行于公司使用数据和算法的具体商业操作上,遵循基本的安全、透明、非歧视和责任原则。这和2018年10月第40届数据保护与隐私专员国际大会通过的《人工智能伦理与数据保护宣言》所确立的人权保护六项原则具有异曲同工之处⑨。2020年4月,欧盟有关方面和微软、IBM等科技巨头签署了《人工智能伦理罗马宣言》,再次申明了人工智能发展中应遵循的相关伦理原则[20]。这代表人工智能发展中人权保护和发展的趋势。第二,公司主导加强数字伦理的讨论与研究,推进自然科学、社会科学领域专家间的沟通与对话,围绕数字技术的开发和使用共同商定和形成具有普遍約束力的伦理指导原则,指导公司社会责任的实施。如在美国,由数据公司开发,并广泛用于各地法院的犯罪风险评估算法COMPAS,后被证明对黑人造成了系统性歧视,此事轰动全美,一时使美国司法权威大受质疑。这表明,发展机器伦理不仅需要自然科学领域专家,还需要社会学家、法学家等社科领域专家的参与,为数字技术的研发和应用提供道德准则。第三,在数据的分析、使用和算法的运用中,要加强论证和试验,广泛征求意见,切莫采用数据独裁和霸权手段,通过自身技术优势实施欺凌行径。因为从长远看,这是不符合公司发展利益和有损于公司技术进步的。

2.政府管制维度

在政府管制维度,确立适度干预理念,为软法规范的生成和实施创造制度环境,也同时为公司治理保留自治空间。在人工智能的发展上,国务院于2017年颁行《新一代人工智能发展规划》(国发〔2017〕35号),该规划希冀人工智能技术能够在新兴技术领域有所作为,并促进社会经济的发展。同时,规划也明确提出了人工智能在推进社会治理工作中的价值。在此前的2016年10月,美国国家科学与技术委员会发布《国家人工智能发展与研究战略计划》,提出七个关键性的人工智能领域战略方向,为人工智能发展统筹规划和布局。可见,为促进人工智能发展,各国大多采取国家规划的形式,从国家战略的层面制定发展路线图,和其他产业相比,更多地体现了政府意志,这是居于人工智能产业发展和技术安全的考量。同样由于安全因素,政府管制对算法的介入甚至控制在一些领域司空见惯[21]。诚如前述,当人工智能作为具体的技术工具介入公司的治理之中,一方面满足了公司治理发展对“中立的技术统治”的需要,另一方面,客观将政府管制引致公司治理中,这将“直接限制市场主体私权,改变市场主体的利益结构”[22]。如果公权通过算法进而控制人工智能,不仅公司社会责任等事项的决议,甚至公司整体也存在被控制的可能性。此时,必要将政府的管制框定在适度的区域之内。

为落实适度干预理念,(1)应确立公权规制的界限,加强对人工智能安全标准的研究,在国家标准之外,还应设定行业安全标准,并尽量细化,如此为各方行为设定边界;
(2)除居于人工智能行业发展、安全因素考量,政府应秉持适度的干预原则,在决策中遵循程序的法定化、科学化和明确化原则,并尽量适用软法规范,不应越界;
(3)确立使用人工智能的公司的重大事项报备的常态化机制,公司应组成人工智能、安全、法律等领域专家所组成的委员会,对重要事项适时决策;
(4)确立一套分别适用于监管机构和公司、公司经营者的权、责和激励机制,促进该理念的实施。当然,该问题较为复杂,还需进一步研究阐释。

(二)经营利益与社会利益平衡:公司运营与社会责任实施的良性互动

有观点认为,公司管理者应当将股东权益放在最高的地位,认为“公司社会责任学是一种伪装”⑩。虽然此观点在20世纪以来接踵而至的公害事件冲击下逐渐失去支撑,但是作为以道德责任为核心的公司社会责任,其实施的前提是公司获得利润,也即公司社会责任的实施与公司利润的获取并非背道而驰。相反,如果公司社会责任与股东利益相一致将产生相乘效应,二者应同时存在于对公司的广义认知中。换言之,只有公司在经营中获得利润,才能更好地践行社会责任,否则将在激烈的市场竞争中被淘汰,承担服务社会的功能更是惘谈。为此,为探索公司践行社会责任的长效机制,应着力寻求公司经济目的与道德责任的平衡,使公司运营与社会责任实施形成良性互动,这是公司社会责任实现的股东共益权路径。此处之平衡,从根本上来说,即在公司自身与利益相关者之间,处理和平衡好和义利问题、功利追求与道义的践行问题。这种平衡在当前时代具有新的内涵。

人工智能时代,公司社会责任被嵌入“数字基因”,这对社会责任的规制提出了新要求。当前,公司通常通过提供免费服务的方式吸引用户,用户则以同意公司获取数据的方式享受相应的便利,此情形下,“数据产出者”和“数据使用者”都为同一主体,此模式导致公司在使用数据时缺乏自我约束激励。由此,在收集数据时公司必然存在“数据越多越好”的倾向。这种倾向存在因过度索取数据而侵犯个人数据权益的可能性,亟需进行限制。在传统硬法规制不完备情形下,通过软法对公司社会责任进行治理成了最优选择。与此同时,为形成社会责任实施的長效机制,应实现公司社会责任与其数据权益的平衡,即鼓励和促成公司实行积极的数据政策,以达到一方面推动公司数字技术长远发展,另一方面呼应数字正义伦理要求。公司通过遵循数字正义的伦理要求和诚信原则的商业实践,从而赢得用户的信任,增强对公司产品或服务的粘度。具体而言,(1)应建立自由竞争、公开透明的市场机制,市场主体之间的充分竞争能够促使公司遵循商业伦理,自觉维护用户的数据权益。相反,不主动承担社会责任的公司,在此机制之下将最终被市场淘汰。(2)健全公司社会责任信息披露制度,以信息披露基础上的数据用户的自主选择来促使公司基于成本—收益核算的考量而自主承担社会责任[23]。除此之外,企业和数据监管部门还可以建立针对公司的用户数据使用的光荣榜和黑名单制度,以此引导公司社会声誉建设。(3)将公司自觉遵循数字正义伦理的商业实践要求嵌入公司的治理之中,完善公司高管信义责任体系,一方面引导公司高管在行使职权过程中遵循数字正义的伦理要求,对其行为的正当性进行公正评判;
另一方面抑制高管唯经济利益论的不恰当理念和管理行为,纠正其不适当迎合投资人意志的行为。

(三)公司与用户间权利的平衡:公司算法权力与用户算法解释权的赋予

通过软法规制公司社会责任的实施,除平衡公司运营与实施社会责任间的关系,还需通过权利赋予的方式矫正业已严重失衡的权利格局。由于新技术的发展,公司掌握数据及算法的运用,其决策很难被审查和质询,这使用户和消费者常处于一种“未知的支配和恐惧之中”。实质而言,这种具有强大支配力的算法正日益演变为一种“准公权力”。致使具有算法决策力的公司所掌握的权力与用户个人的权利之间出现了严重的失衡。对这种权利失衡格局的矫正,不能采取削弱“算法权力”的方式了之,以抑制科技创新为代价。只能通过补强用户或消费者权利的方式,即赋予其算法解释的请求权,使掌握“算法权力”的公司承担相应的技术责任。

一般认为,算法解释权是指当数据用户认为算法决策得出的结果与自己的预期不相符合时,有提出异议并要求对算法的设计及运行作出解释的权利。类似于在一般考试中,如考生拿到考卷时发现成绩与自己预期存在明显出入,有要求进行复核的权利。作为新型的救济性权利,算法解释权中的“算法解释”应区别于法律解释中要求的对法律文本意思的理解和说明,其是对特定结果的原因和理由的解释,而并非对整个决策的过程予以描述。算法解释权主要包括解释算法和披露算法信息两个方面,以提升算法的透明度。相对于硬法规制路径,算法解释权基于平衡算法相关主体间权利关系,作为软法规制手段,能够直面算法设计,助于算法黑箱的破解。在美国计算机协会于2017年发布的关于算法透明度和可审查性的七项基本原则中,就有关于算法解释的相关原则规定,该原则鼓励使用算法决策的系统及机构,无论算法逻辑架构在多么复杂的情况下,都应作出正常人能够理解的说明。在2018年5月正式颁行的欧盟《通用数据保护条例》的序言中,也有关于算法解释权的相关规定,对算法解释权实施进行实践指导。在我国金融业实践中,也有关于提升算法透明性的规定,虽然这是一种由公权力发起和实施的监管手段,但对于当前金融机构社会责任的实施,也具有较大的实践指导意义。

在公司社会责任软法规制中,赋予用户算法解释权,对公司课以技术责任,以平衡用户个人与公司之间的权利关系。首先,应在充分披露算法信息基础上,为用户配置算法解释请求权,以保护其数据处理的知情权利,以及增强其对算法优劣的评判力。其次,增强数据用户的数据意识,更多体现在如算法决策与其预期存在较大出入时,有要求作为算法使用者的公司对算法进行解释的意识。与此同时,公司也应在数据伦理指引下,保证使用的算法是中立的,确保算法是可解释和说明的。最后,作为一项救济型权利,司法机关是算法解释权实现的最后保护伞。如果用户的算法解释权不能在双方协商的基础上实现,用户则有权向司法机关提起诉讼,请求裁决公司履行解释算法的义务。在2017年美国的一起诉讼中,法院即判决二手房销售网站Zillow公司对算法进行解释,并强调算法决策的过程是可以被有效解释的。此案充分体现了算法解释权作为救济型权利的特点。

(四)从问题导向到目标导向:公司社会责任规制的软硬法协同

诚如前述,本文所言之软法规制,并非仅仅基于当前现实问题,而是立基于规制的目标,以软法为主导,兼具硬法的规制手段。为达到本文开篇希冀促成的目标,应在数字正义、适度干预理念的指导下,实施以软法为主导的软硬法协同规制手段。因为,以往的实践证明,虽然软法在规制社会责任实践中,较之硬法具有先天的优势,但软法也并非尽善尽美的,其也存在着缺陷:首先,由于缺乏自由传统和自治精神,软法规制手段的培育在我国并未形成良好的氛围。原因在于,制度的孕育需要长期的过程,而我国市民社会还处在成长之中,国家中心主义还具有鲜明的印记。在公共治理悄然兴起,日益成为一种全球性的普遍治理模式时,我国还大体保持着权力中心化的制度安排,这种长期自上而下的制度变迁模式,并不符合公共治理所要求的治理需求,由此导致整个社会公共理性的缺失。其次,软法在实施中面临着客观方面的障碍。市场本身缺乏数据的交流和共享机制,数据孤岛就是典型,并且软法实施中的政府监管规定仍处于空白。最后,还存在主观层面的障碍。作为软法实施中坚力量的行业组织,行政色彩过浓,成为政府主管部门的附庸,多数则因疏于内部建设而“徒有虚名”,行业号召力明显不足。并且,由于实施中强制力欠缺,导致软法在解决纠纷时效力有限[24]。这些都是我们运用软法规制公司社会责任时需要直面的问题。

为解决以上问题,达到软法规制的既定效果,需从以下二方面入手:(1)从克服软法既有缺陷入手,一来通过政府扶持和规范的方式,促进行业组织的发展,广泛吸纳公司会员,使其承担起社会治理的职责;
二来在软法解决纠纷时,加强与仲裁、诉讼等救济方式的衔接,弥补软法在解决纠纷时效力的局限;
三来加强政府与企业间的数据共享,破解数据孤岛难题,以此推进软法的实施。(2)加强公司社会责任规制中软法和硬法之间的衔接,一来确立“底线思维”,明确“硬法是最低的行为准则,软法在制定时不能与之相抵触”的原则;
二来根据不同行业领域、不同公司类型,确立相对标准化的软法制定和实施准则,并在充分信息披露的基础上加强各类监管;
三来畅通软、硬法间双向沟通机制,以此促成软法和硬法实现最大程度的衔接。

综上,虽然笔者主张通过软法规制公司社会责任,但并不意味着因此主张政府干预的全部离场。市场经济的发展已经证明,政府对市场经济并非干预越少越好。并且,软法的研究重在系统性,其不仅在于自身理论体系的宏观搭建和规则共性的提炼,还在于对被列入软法的公共政策、自律章程等制度内容进行正当性衡量,以及对软硬法的衔接问题进行细化研究,以使各种公共制度在特定的时空之内进行最优的排列组合,达到最佳的社会治理效果。

结语

公司自创设以来,即兼具“经济人”和“社会人”的双重角色,引领着社会变化,影响着民众生活。人工智能时代,公司引领和推动着数字技术的发展,一方面促进了社会的进步,另一方面利用其掌握的数据和算法,影响着用户和消费者的数据权益。基于此,在公司社会责任规制中,应肯定数字技术发展带来的进步意义,不能因噎废食,抑制技术的发展。本文认为,两全的选择即倡导“社会责任导向”的数字技术发展观,寻求契合当前时代发展需要的公司社会责任实施路径。通过软法为主导的规制手段,在数字正义和政府适度干预理念的指导下,探寻能够与公司运营形成良性互动的长效机制,并且赋予用户和消费者算法解释权,以平衡与公司之间权利失衡格局。最后,形成以软法规制为主导,软硬法协同的公司社会责任治理格局,以实现本文开篇所希冀促成的良好局面。

参考文献:

[1]施天涛.《公司法》第5条的理想与现实:公司社会责任何以实施?[J].清华法学,2019(5):57-79.

[2]蒋建湘.企业社会责任的法律化[J].中国法学,2010(5):123-132.

[3]王懷勇,刘帆.数字时代企业社会责任的理论拓补与实现路径[J].西北工业大学学报:社会科学版,2018(4):76-83.

[4]程信和.经济法视野下的企业社会责任[J].甘肃社会科学,2011(2):126-131.

[5]吴霁虹·桑德森.众创时代——互联网+、物联网时代企业创新完整解决方案[M].北京:中信出版集团,2015:1.

[6]郑志峰.人工智能时代的隐私保护[J].法律科学:西北政法大学学报,2019(2):51-60.

[7] John Frank Weaver. Robots Are People Too:How Siri,Google Car,and Artificial Intelligence Will Force Us to Change Our Laws[M].Praeger,2014:72-73.

[8]张绍华,潘蓉.大数据治理与服务[M].上海:上海科学技术出版社,2016:13.

[9]郑戈.算法的法律与法律的算法[J].中国法律评论,2018(2):66-85.

[10]罗豪才,宋功德.认真对待软法——公域软法的一般理论及其中国实践[J].中国法学,2006(2):3-24.

[11]钟颖,向超.论企业社会责任的软法规制路径[J].现代经济探讨,2015(9):83-87.

[12]翟小波.软法概念与公共治理,载罗豪才.软法与公共治理[M].北京:北京大学出版社,2006:144.

[13] Francis Snyder.Soft Law and a Institutional Practice in the European Community,in S.Martin(ed.),The Construc? tion of Europe,Kluwer Academic Publishers,1994.

[14]廖申白.《正义论》对古典自由主义的修正[J].中国社会科学,2003(5):126-137.

[15]王俊豪.政府管制经济学导论[M].北京:商务印书馆,2017:23-28.

[16] D. Dharmapala,V.S. Khanna.The Impact of Mandated Corporate Social Responsibility:
Evidence from Indias Companies Act of 2013[C]. Coase-Sandor Institute for Law and Economics Working Paper,2016:783.

[17] [美]丹尼尔·F·史普博.管制与市场[M]//余晖,何帆等译,上海:格致出版社、上海三联书店、上海人民出版社,2017:85.

[18]林少伟.人工智能对公司法的影响:挑战与应对[J].华东政法大学学报,2018(3):61-71.

[19]马长山.智能互联网时代的法律变革[J].法学研究,2018(4):20-38.

[20]姜奇平.欧盟发力数字经济监管[N].人民日报,2020-4-14(18).

[21] J.Kroll,J.Huey,S.Barocas,E.Felten,J.Reidenberg,D.Robin? son&H.Yu.Accountable Algorithms[J].University of Penn? sylvania Law Review,2017,163(3):633.

[22]李昌麒.经济法理念研究[M].北京:法律出版社,2009:198-199.

[23]沈贵明,王长华.论企业社会责任的实现路径--以市場制约机制为视角[J].学习与探索,2014(10):61-66.

[24]石佑启,陈可翔.论互联网公共领域的软法治理[J].行政法学研究,2018(4):51-60.

Soft Law Regulation on Corporate Social Responsibility in the Era of Artificial Intelligence

LIANG Wei-liang(Civil, Commercial and Economic Law School, China University of Political Science and Law, Beijing 100088, China)

Abstract:
In the era of artificial intelligence, the use of data and algorithms makes corporate social responsibility regu? lation face new challenges. In this case, based on the weak reality of the traditional hard law, and in accordance with the development of the current era, the soft law as the main regulation means has become a new path of corporate social responsibility regulation. This is more rational from the perspective of law and economics, which can not only promote the realization of substantial justice among subjects, but also accord with the value consideration of cost-benefit. In or? der to promote the implementation of this kind of regulation means, first of all, digital justice and moderate government intervention should be established as the basic concept of corporate social responsibility soft law regulation, and under the guidance of this concept, the company operation and the implementation of social responsibility are interactive, and users are endowed with the right to explain the algorithm, thus the companys endogenous incentive and external con? straints are promoted to work together. Finally, a corporate social responsibility regulatory pattern dominated by soft laws and regulations and coordinated by soft and hard laws is formed.

Key words:
artificial intelligence;

corporate social responsibility;

soft law;

digital justice

①如在《公司法》第五条、《民法总则》第八十六条,均有相关的倡导条款。

②在这些法律规范中,大多仅有一个或两个条文直接使用“社会责任”一词,如《公司法》第五条、《合伙企业法》第七条、《民法总则》第八十六条、《网络安全法》第九条等。《产品质量法》《劳动法》《环境保护法》等部门法对企业社会责任的具体内容进行了细化,但其仅可对相关领域产生积极作用。此外,大量行政法规、司法文件、部委规章、地方性法规和其他规范性文件均有浅层次地提及企业社会责任,在系统性方面较为欠缺。参见王怀勇,刘帆:《数字时代企业社会责任的理论拓补与实现路径》,《西北工业大学学报(社会科学版)》2018年第4期,第76-83页。

③印度《公司法草案》第135条规定:“第(1)款中所涉企业的董事会应当保证每一个财政年度企业支出不低于最近三个财政年度平均净利润的百分之二的资金,用于完成企业社会责任计划。企业应当优先将企业社会责任活动资金用于其经营场所地的所在地或周边地区。若企业未达到社会责任资金支出标准,董事会应根据134条第(3)第(0)项制定的报告中就该问题进行解释。”参见The Indian Companies Act, 2013, section 135。

④该理论由卡罗尔提出,其将公司社会责任分为经济责任、法律责任、伦理责任和自愿责任。

⑤见[美]阿道夫·A·伯利,加德纳·C·米恩斯:《现代公司与私有财产》,甘华鸣等译,商务印书馆2005年版,第142-163页。转引自徐晓松:《公司治理:“结构”抑或“问题”》,《政法论坛》2013年第6期,第61-68页。

⑥关于“世界首个机器人公司董事”的报道,See E. Zolfagharifard,“Would You Take Orders from a Robot? An Artificial Intelli‐gence Becomes the Worlds First Company Director”, Daily Mail, May 19, 2014。

⑦根据人工智能的实力来划分,有学者将人工智能分为三大类:弱人工智能、强人智能和超人工智能。See Tim Urban,“The AI Revolution:
The Road toSuperintelligence”,https://waitbutwhy.com/2017/04/neuralink.html, accessed January 22, 2015。

⑧笔者在其他论著中也提出过相同的论断。见梁伟亮:《金融征信数据共享:现实困境与未来图景》,《征信》2019年第6期,第14-19页。

⑨见光明网:《应用风险加剧将AI关进笼子还需政策发力》,http://kepu.gmw.cn/2019-09/10/content_33148452.htm,最后访问时间:2020年5月1日。

⑩弗里德曼在其代表作《资本主义与自由》中表达了对公司社会责任批判的观点。见吴知峰:《企业社会责任思想的起源、发展与动因》,《企业经济》2008年第11期,第18-22页。

对于算法解释权,有众多学者作出过概念界定,但大多大同小异。具体见姜野,李拥军:《破解算法黑箱:算法解释权的功能证成与适用路径》,《福建师范大学学报(哲学社会科学版)》2019年第4期,第84-92页;
张凌寒:《风险防范下算法的监管路径研究》,《交大法学》2018年第4期,第49-62页。

2018年4月,中国人民银行等多家机构联合发布《关于规范金融机构资产管理业务的指导意见》,其中第23條规定:金融机构应当向金融监督管理部门报备人工智能模型的主要参数以及资产配置的主要逻辑。因算法同质化、编程设计错误、对数据利用深度不够等人工智能算法模型缺陷或者系统异常,金融机构应当及时采取人工干预措施。

Patel v. Zillow,Inc.,915 F. 3d 446 (7th Cir. 2019)。

猜你喜欢 人工智能 人工智能作文周刊(高考版)(2020年12期)2020-05-28人工智能之父科学Fans(2019年6期)2019-07-262019:人工智能商界(2019年12期)2019-01-032019:人工智能商界(2019年12期)2019-01-03人工智能故事作文·高年级(2018年11期)2018-11-19人工智能与就业IT经理世界(2018年20期)2018-10-24China’s Artificial Intelligence Revolution中国经贸聚焦·英文版(2017年9期)2017-09-26特朗普的首次外访之旅第一财经(2017年22期)2017-06-14特朗普的首次外访之旅第一财经(2017年22期)2017-06-14数读人工智能小康(2017年16期)2017-06-07

推荐访问:人工智能 法规 责任