编者按:
在人工智能蓬勃发展的中国,不论是“算法治理”还是“治理算法”,都是紧迫而重要的重大问题。在疫情防控中,健康码等科技抗疫手段业已证明:算法比以往任何时候更有可能取代人工决策。2021年,西班牙金融研究学院的Marta Cantero Gamito 和德国洪堡大学法学院Martin Ebers编著《算法治理和治理算法:法律和道德挑战——数据科学,机器智能和法律》(Algorithmic Governance and Governance of Algorithms: Legal and Ethical Challenges - Data Science, Machine Intelligence, and Law)一书,深入讨论了算法治理(基于算法的决策)的潜力以及可能引发的操纵、偏见、监控、社会歧视以及对隐私权和财产权的侵害,并梳理了欧盟对算法开展治理的最新动态。本书着重从法学和伦理学的角度探讨了算法公平、算法自动化决策的透明性和正当程序、责任、数据隐私保护、消费者权益保护、算法产品保护等广泛议题。每篇文章的分析逻辑严谨,细致入微,见解深刻,是难得的佳作,可为算法治理研究者和政策制定者提供有益的参考。
随着计算机、移动互联网、智能终端、大数据分析、云计算、人工智能、物联网等数字技术的发展,算法已深入我们生活各个领域。搜索引擎、新闻推送、精准广告、人脸识别、行车导航、自动驾驶等的背后技术核心都是算法。我们正生活在算法的世界里,算法将无处不在。
算法让我们的世界变得更加智能,更加高效。人们甚至可以在未来创造出一个完全由算法构造的虚拟世界—元宇宙(metaverse)。算法对人类社会的渗透力和影响力或将只增不减。伴随而来的问题是,我们应如何处理算法与人的关系。一百多年前,机器大生产时代来临之时,机器与人的关系吸引了马克思等思想巨擘的关注与研究。如今,算法与人的关系这一全新时代命题,同样值得今日的我们思考与探索。
防止算法可能对人造成的侵犯、伤害和异化,是算法治理的首要内容。比如,要防止算法滥用。算法规则的背后是商业利益。为了追求利益最大化,算法有可能违背社会公平、道德和人性。比如,算法利用大数据“杀熟”,同样的商品或服务,老客户的价格反而比新客户要贵;只推荐能带来潜在商业利益的产品,而不是最适合、最恰当的东西;可能滥用人性弱点,过度激发、劝服、诱导客户,使人习惯于“被喂养”,不自觉地对算法投放的产品沉迷上瘾。算法逻辑被运用到极致,人有可能被“异化”为纯粹的数据、商品和工具。算法的具体原理和参数只有运营企业的少部分人才能知道,难免产生利益侵占问题。甚至,企业可能利用算法作恶,比如为了扩大流量,推送耸人听闻的虚假信息或推荐虚假产品。
我们还要防止算法偏见。算法的数据可能不一定全面,碎片化的数据得到的结果极易导致偏见。算法的设计者是人,算法设计师乃至企业管理者、价值观的偏见可能被嵌入算法。算法的“技术光环”容易让人盲从所谓的“科学”,但实质上有些算法却存在很大程度的不可解释性,比如类似“黑箱”的机器学习算法。机器学习算法侧重于相关性分析,而不是因果分析,可能产生错误的勾连与判断;基于历史数据的机器学习算法隐含着“过去决定未来”的逻辑,以历史宿命论定义和标签每个人,某种程度上也是一种偏见。当有偏见的算法被用于司法审判时,将可能导致不公正判决,损害社会公平正义。
处理算法与人的关系,核心原则是以人为本。我们应防止算法与人的对立。例如,人工智能可以极大提高社会生产率,但对人也产生了替代。如果说人工智能完全替代人类,有些危言耸听,但取代一些规律性、重复性的人力工作,却是正在发生的事实。未来随着人工智能在各个领域的发展与蔓延,其对人类的替代有可能是全方位的。在此情况下,社会失业人群将可能迅速增加,引发贫困等社会性问题。对于个体而言,自我价值实现是最高的社会需求。人工智能的替代不仅带来个人经济收入的减少,还有个体的精神损害,影响人的心理健康。此外,以超越人类能力为导向、追求更快更强的技术唯上论,某种意义上也可能会引致紧张的人机对立关系。应该说,战胜人类并不是发展人工智能的终极目标,更好地服务人类才是其终极使命。如何在人工智能应用的过程中,避免人机对立,使科技不因技术创新的深度而失去本该有的人文温度,正成为当下算法治理的重要命题。
在特定领域,算法还可能引发特定风险。比如,在金融领域,智能算法给出的资产配置建议有可能是推荐与金融机构自身利益高度攸关的产品,涉嫌利益侵占;智能算法形成“信息茧房”,强化投资者偏见,容易掩盖金融风险的复杂性,引诱过度消费和负债,甚至误导投资者;智能算法若存在歧视投资者现象,则有违市场公平与公正;智能算法趋同导致“羊群效应”,加大金融顺周期风险等。针对这些特定领域的算法风险,我们要有应对举措。
数据是算法的基础,因此数据权利保护也成为算法治理的重点。欧盟《通用数据保护条例》(GDPR)和我国《个人信息保护法》规定数据主体享有知情同意权、持续控制权、拒绝权、可携权、更正权、删除权等权利。除了数据主体权利,法学家们还从不同角度拎出了数据相关的各种“权利”,包括数据财产权、商业秘密权、知识产权等不同权利,甚至从公共利益和国家安全的角度提出数据主权的概念。这些数据权利与数据主体权利构成了一个数据权利谱系。在这套权利谱系中,存在个人、企业、监管机构、政府部门等多个数据权利主张者。对此,需要在法理学的指导下,结合司法实践,进一步明确个人隐私保护权利、数据财产权、数据主权等各类数据权利的确权规定,以及相应的冲突解决规则和路径。
算法存在风险和缺陷,可能引发伤害,那么谁应该为算法的伤害负责?有这么一个经常被提到的案例:2018年3月18日,伊莱恩·赫茨伯格(ElaineHerzberg)在美国亚利桑那州坦佩市骑车横穿马路,被一辆自动驾驶汽车撞倒,不幸身亡。虽然车上有安全驾驶员,但当时汽车完全由自动驾驶系统控制。这起事故提出了一系列的道德和法律问题:谁应该为赫茨伯格的死负责?是测试那辆汽车的公司?是该人工智能系统的设计者?是车载感应设备的制造商?还是坐在驾驶位上的安全驾驶员?回答这些问题,需要清晰合理地界定人工智能各方的责任边界,这其实并不容易。甚至有人提出,如果未来人工智能有了公民身份,它是否需要承担法律责任以及如何界定?是否因此而减轻相关方的法律责任,以及这样做是否合理?这些问题均值得我们认真研究。
在司法抗辩过程中,算法鸿沟值得重视。算法通常是隐秘的,或是专利,或是商业秘密。即便公开,也因技术门槛的存在,导致并非人人都能看懂。这就形成新的数字鸿沟。不懂算法的人群在利益受损时有可能并不知情,即便知情,也可能无力举证和对抗。为此,我们需要针对算法可抗辩性建立适当的司法机制和程序,以保障司法公平正义。
加强算法治理的目标并不是打击或抑制算法的创新应用,而是为了规范,并在规范中进一步促进算法技术和产业发展。从这个意义来说,加强算法技术本身及相关产品的法律保护,如知识产权、著作权、专利权保护,也是算法治理的应有之义。
总之,随着各类先进数字技术的发展与应用,我们正迎来以数据为基础、以算法为核心、以算力为支撑的数字经济时代,算法治理已成为重要的社会治理命题,有许多问题值得我们研究和探索。研究这些问题,不仅需要计算机、经济学、社会学,还需要法学和伦理学等各个学科的智慧与洞见。
《算法治理:法律与道德挑战》着重从法学和伦理学的角度探讨了算法公平、算法自动化决策的透明性和正当程序、责任、数据隐私保护、消费者权益保护、算法产品法律保护等广泛议题。每篇文章的分析逻辑严谨,细致入微,见解深刻,是难得的佳作,因此译者将其翻译成中文,希望能为我国算法治理研究者和政策制定者提供有益的参考。
值得一提的是,本书原名为“Algorithmic Governance and Governance of Algorithms: Legal and Ethical Challenges”,意涵丰富,既包含“基于算法的治理”(Algorithmic Governance),又包含“针对算法的治理(Governance of Algorithms)。考虑到中文“算法治理”在不同语境中的含义变化,因此译者化繁为简,直截了当将“算法治理”作为中文书名。