当前位置:看商机 > 行业资讯 > 企业动态 > 推荐算法规制的他山之石

推荐算法规制的他山之石

发布时间:2020-08-13 16:00:59 点击次数:238

摘要:用推荐算法进行新闻分发不是保持新闻真实、客观并有效传播的“万能药”,习惯藏身于“黑箱子”里的算法,同样需要法律和行政命令的规制。

关键词:

作者简介:

  摘要:用推荐算法进行新闻分发不是保持新闻真实、客观并有效传播的“万能药”,习惯藏身于“黑箱子”里的算法,同样需要法律和行政命令的规制。西方国家尝试在法律上设定“规制”:一是从隐私权出发设定法律规范推荐算法;二是对某些重点行业进行立法或政策管制。其方法可以为我国提供镜鉴。

  关键词:推荐算法 “黑箱子” 法律规制 隐私权

  基于用户兴趣的“算法推荐”是网络新闻的主要分发方式,其代表有今日头条、一点资讯等。今日头条宣称自己的“运转核心是一套由代码搭建而成的算法”,此算法在商业上获得成功,为它带来了1.4亿活跃用户。与此同时,推荐算法也引来不少质疑,如:算法歧视、算法短视会导致媒体公共性内容的缺失,加深用户偏见、形成信息茧房;“编辑缺位”致使低俗消息更加泛滥,甚至挑战道德底线,既不利于用户获得知识,又难以做到价值引领①;推荐算法获取信息的方式可能侵犯个人隐私②。

  这些问题都与推荐算法的设计和使用息息相关。事实说明,使用推荐算法进行新闻分发不是保持新闻真实、客观并有效传播的“万能药”,习惯藏身于“黑箱子”里的算法,同样需要法律和行政命令的规制。从国际视角看,人工智能支持下的推荐算法在全球范围内都有广泛的应用,这些算法及使用它们的公司也都遇到了一些相似的道德和法律困境。比如,推荐算法会不会过分搜集和使用用户的数据,侵犯个人的隐私?又如,过于依赖推荐算法是否会造成不良社会影响,如何消除?此外,国外还特别关注人工智能算法是否会导致行业规则被破坏——自动驾驶带来车祸,谁承担责任;机器人写出了假新闻,谁来负责?

  对此,西方国家与亚洲的日本、新加坡等国尝试在法律上设定“规制”:一是从隐私权出发设定法律规范推荐算法,二是对某些重点行业(如传媒、汽车、金融等)进行立法或政策管制,以消除不良社会影响。这些相关的法律、立法议案、行政命令堪称“他山之石”,可以为我国的推荐算法规制提供镜鉴。

  用什么样的方式收集数据可能会侵犯个人隐私?

  在保护隐私权方面做得比较好的欧盟“数据隐私法案”,规定欧盟国家公民将有权要求“审查某项特定服务中如何做出特定算法决策”。法案要求算法公司详细、明确说明他们如何使用算法收集和保护用户数据,并且在收集数据前必须征得个人同意。欧盟极端重视数据隐私,在此之前就已经出台了“通用数据保护条例”(GDPR),而“数据隐私法案”在条例的基础上继续展开,它赋予个人以权利,去确认一个组织是否正在处理自己的数据,或是哪种类型的数据。此外,个人还有调整相关数据的保留期限、向数据保护机构投诉的权利。欧盟设置了严苛的惩罚机制,如果一家公司不合规,那么罚款可以高达2000万欧元(约合2400万美元),或者是该组织在全球收入的4%。③

  对于用户面部数据的采集,爱尔兰、德国以及美国伊利诺伊州《生物信息隐私法案》(BIPA)要求:采集前需要明确提醒用户并征得同意。著名互联网公司Facebook因此遭到美、德、爱等国的调查,并被迫在欧洲地区关闭了人脸识别功能,删除了针对欧洲用户建立的人脸数据库④。

  欧盟之外,香港地区也出台了“数字隐私法案”(DPO),但审查力度不如欧盟。此外新加坡有“个人资料保护法”(PDPA),日本有“个人信息保护法”⑤。

  如何监管“保密”的推荐算法?

  现在大多数的推荐算法原理都是秘密,这样的“算法黑箱子”潜藏一系列问题:究竟有多少工程师懂算法,能够保证其稳定运行?不公开的算法会不会秘密设置了某些违反道德、法律的规则,如推荐招聘信息的算法涉及性别歧视?不公开的算法一旦出了问题,相关责任人在政府调查之前修改、销毁了问题算法怎么办?

  作为一种建议,中国计算机协会在2017年出版了七项算法透明度和问责制的原则⑥:

  意识:所有者、设计师、构建者、用户和其他分析系统的涉众应该意识到他们对算法的设计、实现和使用可能存在的偏见,意识到偏见可能对个人和社会造成的潜在危害。

  获得和纠正:监管机构应鼓励一种机制,当个人和团体因算法决定的决策而受到不利影响时,允许他们(对算法)进行质疑和纠正。

  问责:机构应该对他们使用的算法做出的决策负责,即使不可能详细解释算法是如何产生结果的。

  解释:鼓励使用算法决策的系统和机构,对算法的过程和其作出的具体决定给予解释。这在公共政策环境中尤为重要。

  数据来源:对训练数据收集方式的描述应该由算法的建造者维护,同时还要探索人为或算法本身在数据收集过程中可能产生的偏差。公众对数据的审查为修正偏差提供了最大的机会,但是,考虑到隐私、保护商业秘密以及对公众过于开放分析过程可能导致对系统的恶意攻击,需要限制个人访问,只允许合格的、得到授权的人接触数据和算法。

  可审核性:模型、算法、数据和决策应该被记录,以便在有危害的情况下对它们进行审计。

  验证和测试:机构应该使用严格的方法来验证他们的模型,并记录这些方法和结果。特别是,他们应该定期进行测试,以评估和确定该模型是否会产生歧视性的危害,鼓励机构将此类测试的结果公之于众。

  西方国家主要通过行业立法来监管算法本身。欧盟证券和市场管理局(ESMA)就制定了金融管理标准:在金融交易领域,高频算法交易员有义务存储记录和交易算法至少5年⑦。“算法交易”是指一些公司通过推荐算法自动确定订单的各个参数,例如是否启动订单的顺序、时间、价格或数量等,并在有限的人为干预或无人干预的情况下,对订单、报价和执行过程进行调整和优化。ESMA的金融管理标准规定,使用这类算法辅助操作的公司需要:1.报告公司资质,证明其有足够的员工和工程师来理解、操作和控制算法;2.算法备案,以防不正当竞争和出现系统错误时进行回溯检查;3.使用算法的公司要向监管部门报备,并接受交易全流程的持续监控。

  此外,英国上议院也对数字经济法案的修正案进行了辩论,该法案将给予有关部门执行和发布算法评估的权力。与数字保护法案不同,数字经济法案并不是要明确地反对某一种算法设计⑧,而原有的数字保护法案授权英国资讯委员会办公室可采取强制措施保护数据安全。