安全奥运的衍生物即将审视你我他。
2024年夏天的巴黎奥运会上,负责安全的官员将在这座光之城的中心进行一项大规模的实验。实验根据一项临时法律开展,覆盖赛事、整个奥运村以及连接的道路和铁路,允许自动监控系统侦察可能导致恐怖袭击的“预定事件”。
对此,隐私保护活动人士提出反对。该临时法律通过后不久,国际特赦组织秘书长艾格尼丝 · 卡拉马德(Agnes Callamard)表示:“人工智能驱动的大规模监控是一个危险的政治项目,可能导致广泛侵犯人权。公共场所的每项行动都将被纳入监视基础设施的天罗地网,从而损害基本的公民自由。”
然而广大公众似乎并不关心。事实上,当巴黎奥运会主办区之一塞纳-圣但尼省的官员介绍了一个初步的人工智能视频监控系统,表示它可以检测乱扔垃圾等反社会行为并处以罚款时,居民们举手询问为什么系统还没出现在街道上。
“监控不是一个单一概念。并非每个人都反对。”马修斯 · 维加斯 · 法拉利(Matheus Viegas Ferrari)说道。法拉利是巴西巴伊亚联邦大学的国际关系博士生和法国巴黎第八大学的人类学博士生,曾参加塞纳-圣但尼省的社区会议,并发表了关于2024年奥运会监控的研究论文。
如果有邻居遛狗时放任宠物排泄而又不收捡狗便,对该邻居不满者就可与塞纳-圣但尼省那些欢迎监控的居民站在同一战线。但如果监控系统可能因算法偏好某种肤色或服装风格而在罚款时厚此薄彼,很多人的意见大概就要反转了。
事实上,欧盟国家制定《人工智能法案》旨在通过规范人工智能的政府和商业使用以保护公民的隐私和权利。与福利政策相关的人工智能法执行不力已经导致荷兰内阁垮台。
临时监控法(其中的视频处理条款将于2025年3月到期)似乎是为避免这种结果而制定的。它坚称其管辖下的算法“不处理任何生物识别数据,也不实施任何面部识别技术,无法与其他个人数据处理进行任何协调、互连或自动连接”。
艺术家保罗 · 西里奥(Paolo Cirio)曾在未经批准的众包面部识别活动中印制了警察脸部海报并将其张贴于巴黎各地。他认为这种表达是一种进步。“事实上,即使在法国奥运会期间,政府也必须在法律中写入他们不会使用生物识别技术,这对我来说已经是令人难以置信的事情,这是活动人士在法国和欧洲其他地方多年奋斗的结果。”
群体分析
官员们可以做的就是使用计算机进行实时人群分析,而非生物识别和面部识别分析。这项技术可追溯至很久以前,人们对多种群体行为的许多方面进行研究,此类研究甚至被应用于防止母鸡自相残杀。虽然群体可能非理性,但对群体分析是一门科学。
然而,群体中的个体可能无法真正获得隐私保护。欧洲民间社会团体在一封公开信中称,监视必然需要隔离并识别个人,从而剥夺无辜者的隐私权。
这是否属实尚不清楚,所涉及技术的快速发展使其成为一个难以回答的问题。法国上阿尔萨斯大学的数据科学家乔纳森 · 韦伯(Jonathan Weber)曾合著一份关于视频监控的人群分析回顾文章,在他看来,“你不必识别这些人,程序员可以用类似人形的素材训练神经网络,直到它能在后续视频中可靠识别出人类。然后,他们能训练神经网络处理更复杂的模式,例如人们摔倒、奔跑、打架,甚至争论或携带刀具”。
法国视频分析公司Videtics联合创始人兼首席执行官艾伦 · 费尔巴赫(Alan Ferbach)表示:“我们发出的警报并非基于生物识别技术,而是基于体态,例如一个人是否躺在地上。”位于巴黎的Videtics已提交了2024年奥运会安保合同部分内容的投标,也开始销售可检测建筑物坠落或户外非法倾倒的软件——这两种方法都无需识别个人身份。
但这可能还不足以让批评者满意。欧洲非营利法律中心(位于荷兰海牙的民间社会组织)的数字民用空间顾问卡罗琳娜 · 伊万斯卡(Karolina Iwańska)表示:“即使只是对人们的行为进行分类,那也可能与识别人们的身份一样具有侵略性和危险性,因为它可能导致错误、歧视以及对隐私和匿名的侵犯,还可能影响公平审判权和诉诸司法的机会。”欧洲非营利法律中心已向法国宪法委员会提交了有关奥运会监控法的非当事人意见陈述。
韦伯特别重视训练数据的偏差会如何导致AI群体分析出现问题。例如,当美国公民自由联盟将美国国会代表的照片与警方拍摄的罪犯的面部照片进行比较时,该软件错误地将深色皮肤者识别为匹配对象。韦伯表示,这种算法的潜在偏差将取决于软件开发人员训练它的方式:“你必须非常小心。一个最大的问题在于你或许没有大量关于危险行为的视频用以训练算法。”
费尔巴赫说道:“我认为,我们必须对训练路径渠道进行认证,然后不同公司可以根据经过认证的训练集开发自己的模型。如果需要验证每个模型,那成本将是巨大的。”欧盟监管机构尚未明确人工智能法案会如何解决这个问题。
即使软件开发人员能利用足够多关于不良行为的现实和模拟视频,毫无偏见地训练算法,他们也还需要弄清楚怎样处理他们收集到的所有现实世界数据。西里奥指出:“收集的数据越多,这些数据最终落入公众或坏人手中的可能性就越大。”作为回应,一些公司使用面部模糊工具以减少个人数据泄露的风险。其他研究人员建议从正上方录制视频,从而避免录制人脸。
也许生物识别技术是必需的
另一些学者则在朝相反方向努力——开发识别个体的工具,或者至少使用步态分析将目标与视频中的其他人区分开来。如果这种技术被应用,那么监控视频就不会做面部模糊,也不会以俯视视角拍摄视频,所谓隐私保护自然无从谈起,它与法国奥运会的相关法律规定亦背道而驰。伊万斯卡表示,法律禁止生物特征数据处理,同时又允许算法做事件侦测,这“似乎只能是美好的一厢情愿,我无法想象如果不处理生物识别数据,系统该如何按照预期工作”。
监控在潜行
困扰奥运会安全观察者的另一个问题是该系统应保留多久。旧金山民间社会组织电子前沿基金会的高级政策分析师马修 · 瓜里格利亚(Matthew Guariglia)表示:“对于希望加强监控的政府来说,利用一些煽动事件(例如袭击或即将发生的重大事件)来证明其正当性是很常见的。基础设施可以保留,易于日后重启并用于日常警务。”
法国奥运会法律规定了监控系统的有效期限,但伊万斯卡称这是任意而为,官方做出这一决定时“并未对它之于为期两个月的奥运会和残奥会的必要性或恰当性进行任何评估”。
另有研究安全技术和奥运会的历史学家指出,各国经常将奥运会视为安全商品展览会。而且,即使法国在奥运法到期后停止在公共场所使用其视频处理算法,其他国家也可能从法国公司购买技术并在本国使用。法国和其他地方的监控行业将从巴黎奥运会的曝光中获益匪浅,其他国家的人权可能受损。
奥运会也成为推翻恼人安全措施的试验场。1980年,当美国官员们在普莱西德湖奥运村周围安装围栏时,运动员们不断往围栏上靠,从而触发了警报。一段时间后,安全官员发现警报根本不起作用。原来有人(甚至可能是官员自己)拔掉了警报系统的电源。
资料来源 IEEE Spectrum