AI 何以扩大公民自由

为了限制滥用,保护和促进公民自由,民间社会必须提高对人工智能的认知和利用。


By: Zach Lampell & Lily Liu
December 18, 2018

Available in:
English | العربية



 “未来是属于人工智能的,这不仅是对俄罗斯,对整个人类来说也是如此。谁要是在这个领域占领了先机, 谁就会是未来世界的统治者。“ – 弗拉基米尔·普金

民主的未来与人工智能 (AI) 纠缠在一起。国际组织、国家, 以及个人如何与AI 技术发展与政策互动,会导致AI到底是限制还是扩大公民自由。我们都听说过“AI为善“一说,可现在问题是AI 更可能被用来通过限制表达自由、集会结社自由的方式削弱公民自由

比如说,中国就利用AI发现、屏蔽社交媒体上支持#米兔运动 的帖子和网站。与此类似,有些国家比如卡塔尔和科威特,则利用AI操作的网络清除软件搜索、屏蔽LGBTQIA相关的内容

至于集会自由, 预测性执法使得警察可以在和平集会开始前就实施破坏拦阻。当游行发生时,人脸识别使得警察能够定位抗议者,对他们进行拘留和讯问。

AI 驱动的数据分析被政府用来处理大量社会组织信息以及那些申请注册社会组织的个人的信息。利用这些信息, 政府可以基于某些特征(比如说政治或者宗教原因)专断地决定批准或者不准注册,从而达到限制结社自由的目的。AI还可以用来通过屏蔽政治反对派和人权组织的网站达到破坏社会组织运营的目的。比如说位于巴林的巴林人权中心, 其网站就在2013年因为发表了一份报告,揭露政府高官与班得门丑闻Bandargate Scandal)之间的联系以及他们不公平影响议会选举的企图而遭到屏蔽。

AI有保护公民空间的潜力

虽说AI 完全有可能在保护公民空间上发挥积极作用,但民间社会目前在AI 发展和使用上所起的作用非常有限。为了解决这些问题,国际非营利法中心(the International Center for Not-for-Profit Law, 简称ICNL) 正在开展一个项目,旨在确保促进公民自由成为AI技术与政策发展的关键考量因素。这个项目包括:(1) 发展国际规则;(2)改善国内政策和法律;(3)加强AI 的运用; 以及(4) 推动AI 为善。

发展国际规则

根据我们的经验,国际标准和最佳实践可以为国内政策制定者制定发展保护、推动公民自由的AI 政策提供借鉴指导。从联合国特别报告员大卫•卡耶最近发布的报告,到多伦多宣言,不少与AI 议题相关的规则开发项目都正在开展。联合国发起的及其他国际多边项目,比如说自由在线联盟和互联网治理论坛,都应当继续支持数字议题(包括AI)相关的国际规则开发,以确保科技不会被用来限制公民自由。联合国也应当增强人权高专办的职能,为AI 及其他数字议题相关的报告员提供有力协助。另外,不管是与联合国还是其他机构相关的所有项目,都应当将民间社会与公众的参与放在优先位置,特别要关注边缘化群体的参与。

国家、地方AI政策与法律

加拿大、墨西哥、印度、芬兰、澳大利亚和其他一些国家已经或正在开发AI国家战略。这些战略规划考虑的内容也包括哪些种类的AI项目会得到开发和实施,以及如何给AI分配资源。有些国家战略,比如美国还在讨论的一项法案, 将AI 和国家安全与防卫挂钩,而没有充分考虑包括保护和推进公民自由在内的重要人权议题。在国家AI政策中忽略人权议题会导致政策畸形偏重某一领域(比如军事领域)的AI 技术快速发展,而对民用领域内的AI 发展则缺乏资源投入和政策刺激。各国应当咨商民间社会以确保国家AI政策为公民生活提供能动的环境。

地方上来说, 纽约市圣克拉拉市西雅图 都已经颁布了市政条例,规定对任何基于AI 的系统使用都需要设立公民监督机制。得益于这些条例,公众可以通过民选的官员或者政府委员会来了解AI 技术被用在了哪些地方,以及会产生什么作用,并在某些情况下对其使用发表意见。缺乏公众监督,以前通过信息法实现的执政透明就会受到损害。 由于支撑AI 的算法受专利保护,公众本来就已经无法加以审查了。随着AI的出现,其他领域的法律法规,比如信息保护、公共采购、侵权责任法、反歧视法,以及公开听证也都应当进行复核,将AI 的出现纳入考量。

增强AI的运用

那些工作在公民空间第一线的合作伙伴们告诉我们,他们不懂AI,没法参与政策制定。尽管有很多为民间组织提供的关于AI 和数字权利的国际会议,但是一些容易参加的工作坊还是需要的,会大大帮助草根领导者理解什么是AI、AI 怎么运作,以及AI 会怎样影响他们的工作。比如说,ICNL在一些领域的工作中纳入教育功能,就帮助草根活动家建设性地参与其他议题,包括网络犯罪和反恐立法。一旦民间组织领导者理解了AI,他们就能够参与到AI 政策的制定,来推动公民空间的拓展,并知道怎样将AI 运用到工作中。

另外,设立独立机构来协助立法者会帮助政策制定者就AI政策、成本花费,以及社会影响做出充分有据的决定。类似于英国的科学技术议会办公室(Parliamentary Office of Science and Technology, 简称POST) 或者美国、瑞典和澳大利亚的独立预算办公室这样一些新的机构能够提供关于AI 技术和政策的独立分析,基于AI对政府、社会、社群和人权造成的实际成本和收益而提供相应建议。

使用AI 为善

民间组织和技术人员要针对民间组织如何能够使用AI 为善进行更多的对话。AI不仅能够使内部管理流程更流畅,还能够用来为服务对象提供更好、更快的服务。比如说,俄罗斯的一家民间组织 就开发了一个机器人来为抗议者提供实时的法律援助。资助者也已经在使用机器人顾问来制定慈善投资组合,不久的将来,人们将会用Siri、Alexa或者其他AI 驱动的 “个人助手” 来为他们喜欢的慈善组织捐款。

然而,要实现这些进步,民间组织首先要能用上AI 技术,而这又是很昂贵的。一些公司已经在协助民间组织使用AI, 比如微软、谷歌、IBM等,但现实是,民间组织对投资新兴科技仍然掣肘于有限的资源。我们需要其他的途径来为民间组织提供AI 相关的低成本甚至免费的专业服务,也许可以通过政府补贴的知识转移或一些鼓励科技工作者在民间组织挂职锻炼几个星期的方式实现。这种交换项目会培养关于AI 的组织文化,同时揭示使用新兴科技过程中的一些未知的缺漏

角逐仍在上演

现在是关键时刻。AI 发展非常迅速,而它推动公民自由的潜力方兴未艾。民间社会在全球、国家、地方,以及组织层面全面参与,对确保人人(包括边缘群体和个体)可以在这个新时代受益来说,至关重要。AI是一个有力的工具,它既需要审慎开发和管制,以限制对它的滥用,也需要善加利用来为民间社会赋能。

 


扎克·兰佩尔在国际非营利法中心(the International Center for Not-for-Profit Law, 简称ICNL) 负责全球表达自由项目。该中心致力于保护、推动网络表达自由和民间社会数字权利。扎克也负责ICNL人工智能相关的项目设计。

刘Lily在国际非营利法中心从事多项与公民空间相关议题的工作,包括保护、推动不同地区的公民自由。


 

COMMENTS