人工智能时代该如何夺回我们的“不知情权”

qfjavabd qfjavabd     2022-12-03     802

关键词:

  导语:美国科学杂志nautil.us《鹦鹉螺》作者Christina Leuker Wouter Van Den Bos近日发表了针对人工智能时代下如何保护人类的“不知情权”的深度报道。人工智能的出现能以无法预知的方式改变了现实生活中需要在选择知道和不知道的平衡,同时让我们在决定什么时候保持不知情的问题上变得复杂,研究故意不知情的心理将有助于设计适用于人工智能的不知情权法律,不过,这一严谨的科学研究话题长期以来一直被忽略。

  以下为文章全文:

  柏林墙倒塌后,东德公民终于有机会阅读到斯塔西(Stasi,东德的国家安全机构,被认为是当时世界上最有效率的情报和秘密警察机构之一)保存的关于他们的资料。然而迄今为止,只有大约10%的人真的去查阅了这些资料。

  2007年,脱氧核糖核酸(DNA)结构的发现者之一詹姆斯·沃森(James Watson)表示,他并不想知道自己的载脂蛋白E(ApoE)基因信息。该等位基因被认为是阿尔茨海默症的风险因子。

  民意调查显示,如果有选择的话,大多数人宁愿不知道自己的死亡日期——甚至是快乐事件的发生日期也不想知道。

  以上这些都是故意选择不知道的例子。苏格拉底可能会提出,未经审视的生活不值得过;而霍布斯则会争论称,好奇心是人类最主要的激情;但还有许多古老的故事向我们描述了知道太多也会带来危险。从亚当、夏娃和智慧树,到盗取取火秘密的普罗米修斯,这些故事告诉我们,现实生活中需要在选择知道和不知道之间达成微妙的平衡。

  然而,如果出现一种技术,能以无法预知的方式改变这种平衡,同时让我们在决定什么时候保持不知情的问题上变得复杂的话,又会带来什么后果?这种技术其实已经出现了,那就是人工智能。

  人工智能可以利用相对较少的数据来找到模式并做出推论。例如,只需要几个Facebook上的点赞就可以预测出你的个性、种族和性别。还有一种计算机算法声称,只需根据人们的照片,就能以81%的准确率区分同性恋和异性恋男性,而区分同性恋和异性恋女性的准确率为71%。另一种名为“替代性制裁的惩罚性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)的算法则可以通过青少年被捕记录、家庭犯罪记录、教育、社会隔离和休闲活动等数据,来预测犯罪者再犯的可能性,准确率达到65%。

  在这些例子中,结论和所用的数据可能在本质上存在着惊人的偏差(即使某些结果的有效性仍在争论中)。这使得控制我们所知道的内容十分困难,而且也没有什么法规来帮助我们保持不知道的状态:不存在受保护的“不知情权”。

  于是,这就创造了一种氛围,用Facebook的早期座右铭来说,我们很容易“快速行动,破除陈规”(move fast and break things)。但是,当涉及到我们私人生活的细节时,“破除陈规”是否就是我们想要的呢?

  几十年来,政府和立法者都知道“潘多拉的盒子”有时候最好还是不要打开。至少在20世纪90年代,保护个人不知情权利的法律就已经出台。例如,1997年的“欧洲人权和生物医学公约”(European Convention on Human Rights and Biomedicine)规定:“每个人都有权了解其被收集的有关健康状况的任何信息。但是,应当遵从个人不希望被告知的意愿。”类似的,1995年世界医学协会的“患者权利宣言”(Rights of the Patient)中指出:“患者有权利明确要求不被告知(医疗数据),除非是为了保护其他人的生命。”

  然而,为人工智能制定“不知情权”法规是完全不同的问题。虽然医疗数据受到严格管制,但人工智能所使用的数据往往掌握在名声不佳的盈利性科技公司手中。人工智能处理的数据类型也更广泛,因此任何相应的法律都需要对什么是“不知情权”有更深入的理解。研究故意不知情的心理将有助于设计适用于人工智能的不知情权法律。不过,令人惊讶的是,这一严谨的科学研究话题长期以来一直被忽略,或许是因为某种隐含的假设,即故意忽略信息是不理性的。

  心理学家拉尔夫·赫特维格(Ralph Hertwig)和法律学者克里斯托弗·恩格尔(Christoph Engel)近期发表了一篇文章,对故意选择不知情的动机进行了细致分类。在他们识别出的动机中,有两组尤其与面对人工智能时对不知情的需求密切相关。

  第一组动机围绕公正和公平展开。简而言之,知识有时会破坏判断力,而我们往往选择以故意不知情作为回应。例如,学术论文的同行评议通常是匿名的。大多数国家的保险公司在登记之前不得获取有关客户健康状况的细节;他们只能知道一般的健康风险因素。这种考虑尤其与人工智能关系密切,因为人工智能可以产生极具偏见的信息。

  第二组相关的动机是情绪调节和避免遗憾。赫特维格和恩格尔写道,刻意的不知情可以帮助人们维持“珍视的信仰”,并避免“精神不适、恐惧和认知失调”。故意不知情其实非常盛行。调查中大约90%的德国人希望避免可能由于“预知诸如死亡和离婚等负面事件”而产生的负面情绪,40%到70%的人也不想知道正面事件,以帮助保持“对惊喜和悬念的积极感受”,比如不知道未出生孩子的性别。

  这两组动机能帮助我们理解在人工智能面前保护不知情权的必要性。举例来说,人工智能“同志雷达”(gaydar)算法的潜在收益似乎接近于零,但是在公正性和公平性方面的潜在成本却很高。正如《经济学人》(The Economist)所说的那样,“在世界上同性恋社交不被接受或被认为非法的部分地区,这样的算法可能对安全构成严重威胁。”同样的,NtechLab目前正在开发的种族识别人工智能系统所能带来的潜在收益,与其对公正性和公平性的负面影响相比显得苍白许多。COMPAS累犯预测软件具有比人类更高的准确性,但正如Dressel和Farid所写,这“并不像我们想要的那种准确,尤其是从未来还悬而未决的被告者的角度来看”。预测个人预期寿命的算法,比如Aspire Health正在开发的算法,并不一定会让人们的情绪调节变得更容易。

  这些例子说明了识别个体不知情动机的影响,并且展示了知识和无知的问题可以有多复杂,特别是在涉及人工智能的时候。关于集体不知情在什么时候有益处,或者在道德上合理的问题,没有现成的答案。理想的做法是单独考虑每个案例,进行风险收益分析。理想情况下,鉴于争论的复杂性和后果的重要性,这一分析将公开进行,考虑各种利益相关者和专家意见,并考虑所有可能的未来结果,包括最坏的情况。

  这其中涉及的问题太多了……事实上,理想做法在大多数情况下都是行不通的。那么,我们又该如何做呢?

  一种方法是控制和限制机器根据已采集数据进行的推理。例如,我们可以“禁止”使用种族作为预测变量的司法算法,或者从潜在求职者的预测分析中排除性别。但是,这种方法也存在问题。

  首先,限制大公司使用信息的成本太高,技术难度也很大。这需要这些公司将算法开源,同时要求大型政府机构不断对其审查。另一方面,一旦采集到大量的数据集,总是会有很多迂回的方法来推理出“禁止的知识”。假设政府宣布使用性别信息来预测学术成功是非法的,那就可能出现使用“拥有汽车类型”和“最喜欢的音乐流派”作为性别替代指标,直接进行替代指标的二级推理。有时候,尽管一家公司的意图是好的,但有关性别的推理也可能意外地嵌入到算法中。这些二级推理导致对算法的审查更加困难。一个分析中包含的变量越多,发生二级推理的可能性就越大。

  

技术图片

  麻省理工学院的研究者在网站(moralmachine.mit.edu)上根据人们自己选择的数据类型,测试他们在机器即将做出决定的情况下表现出的道德直觉。

 

  保护不知情权权更激进——也可能更有效——的方法是第一时间防止数据被收集。2017年,德国做出了一项开创性的举措,立法禁止自动驾驶汽车通过种族、年龄和性别来识别道路上的人。这意味着汽车将无法通过这些类别的数据来做出驾驶决策,尤其是在事故不可避免时需要做出的决策。

  基于相同的思维方式,欧盟推出了新的《通用数据保护条例》(General Data Protection Regulation,GDPR),并于2018年5月生效。该条例规定,只允许公司在提供明确的指定服务时,收集和存储必需的最少量数据,并且获得客户对其数据使用方式的同意。这种对数据获取的限制可能也会阻止二级推理。但《通用数据保护条例》的一个重要局限是,公司可以为自己设定非常宽泛的目标。例如,如今已经关门的剑桥分析(Cambridge Analytica)公司的明确目标是评估用户的个性,因此在技术上,它对Facebook数据的收集符合《通用数据保护条例》的规定。同样的,只要用户同意——许多人即使在奖励相当微薄的情况下也会同意分享自己的数据——《通用数据保护条例》对数据和给定服务之间一致性的关注就无法排除道德上有问题的数据类别,也不能完全阻止公司从数据中介那里购买被排除的数据。研究人员发现,麻省理工学院的一些学生会分享他们朋友的联系数据,只为了获得一小片披萨。显然,我们还需要更多的限制手段,但究竟需要多少呢?

  美国程序员、自由软件活动家理查德·斯托曼(Richard Stallman)说:“利用数据来害人的方法太多了,以至于唯一安全的数据库就是从未被收集过的数据库。”然而,如果对数据采集的限制过于严厉,又可能会阻碍人工智能的发展,并减少我们从中获得的收益。

  谁应该权衡其中的利弊?首先应该是我们自己。

  在大多数情况下,我们谈论的其实是你我作为个人所拥有的数据。我们一直都很粗心大意,将这些数据拱手让给各种闪亮的app,丝毫不考虑后果。事实上,我们一直在放弃我们的数据,以至于忘记了一开始它就是属于我们的。收回数据将使我们每个人都能决定哪些事情想知道,哪些不想知道。让数据回到合适的人——也就是我们自己——手中,就可以巧妙地解决我们讨论的许多艰巨问题。我们不再需要制定通用的预见性指导规范,相反的,数以百万计的个体将根据自己的是非观来决定自身数据的用途。我们可以对公司如何使用数据做出实时反应,根据他们对待数据的方式来进行惩罚或奖励。

  关于把数据放回人们手中,计算机科学哲学家杰伦·拉尼尔(Jaron Lanier)提出了一个经济学上的论据。他指出,通过将我们自己的个人数据卖给大公司,我们应该都能从中受益。这种方法存在着两个问题。首先,它混淆了数据使用和所有权的道德规范。在回答数据应该如何被使用的问题时,免费提供数据的意愿在道德完整性上是很好的试金石。一个小众群体中有多少人会愿意免费提供数据,以创建一个像“同志雷达”这样的面部识别应用程序?又有多少人会愿意为此付费?另一方面,大多数人会很乐意贡献他们的数据来寻找治疗癌症的方法。第二个问题是,赋予个人数据(较高的)经济价值可能会迫使人们分享他们的数据,并使数据隐私成为富人的特权。

  这并不是说个人的单独行动就足够了,社会机构的集体行动也是必需的。即使只有小部分人口分享他们的敏感数据,其结果也可能具有大多数人反对的高预测准确性。并不是所有人都明白这一点。为了防止不必要的后果,我们需要更多的法律和公共讨论。

  《经济学人》曾写道,世界上最宝贵的资源不再是石油,而是数据。然而,数据与石油有着很大不同。数据是无限的资源,由个人所有,并且通常是在没有交易价值的情况下进行交换。从石油中获利便杀死了石油市场。作为第一步,从数据中获取利润将为我们提供空间,用于创造和维持能在人工智能到来之后延续的道德标准,并为管理集体的不知情权铺平道路。换句话说,在数据成为现代世界最有用的商品之一的同时,它也需要成为最便宜的商品之一。(任天)

?

 

吴军《智能时代》读书笔记

...兴衰,书中最后的时间介绍到2013年左右,而这本《智能时代》似乎延续了《浪潮之巅》中的“浪潮”关键词,畅谈我们正置身其中的智能时代的大潮。在即将到来的智能时代,如何融入其中而不被淘汰,如何顺应潮流去选择有... 查看详情

“weallattheperiodofmaidenhood”该如何翻译?

参考技术A我们都处在少女时代。maiden是“少女”的意思,hood”年代:时代”(你可以联想一下childhood童年)所以这里的“maidenhood”就是“少女时代”的意思。attheperiodof意思是:“处于....的时期”综合起来,就是,我们都处在... 查看详情

人工智能来了,我们该如何提升创新思维?

人工智能来了,我们该如何提升创新思维?by高煥堂[email protected]创新之路:AI思维+设计思维  在AI潮流下,如何让机器和人类携手共舞、一起创新,成为最新潮的创新思维。其中最先进的创新之路很可能是:机器AI思... 查看详情

从电影《her》来看ai时代下,未来的七夕我们将会如何度过?

...出好戏》化身月老,为大家成功在七夕前夕组了50对cp。人工智能是又火了一把。七夕将至,趁着人工智能的火热,小编不禁想起了2013年的一部电影《Her》。《Her》有点像《黑镜》都是探讨了未来科技进步与人际关系的问题。但... 查看详情

人工智能带来的,是我们这个时代最大的革命。

人工智能带来的,是我们这个时代最大的革命。  其实人工智能(ArtificialIntelligence,以下简称AI)是突然之间火起来的。2013年,AI还只是科幻小说里的东西,只有硅谷的科学家才关心,5年之后,人人都在谈论AI。  AI最有意思... 查看详情

人工智能时代,人类会被秒杀?(楚才国科)

人工智能像一把利刃,将时代劈斩为泾渭分明的两个板块:在人工智能到来之前,世界上的一切循规蹈矩,有序进行;人工智能到来之后,未来势必是一个大变革的时代,所有的秩序和契约都会被重新撰写。自从深度学习发明以... 查看详情

在人工智能的时代,云计算又该何去何从呢?

尽管当今的行业炒作主要侧重于人工智能(AI)、机器学习(ML)和区块链等技术,但在许多情况下,更传统的解决方案以及更基本的问题是IT经理认为最为迫切的优先事项。高级管理人员认为人工智能(AI)、机器学习(ML)和深度学习是数... 查看详情

智能时代吴军云图

...展、商业和社会都会产生重大的影响。作者吴军在《智能时代:大数据与智能革命重新定义未来》中指出,首先,我们在过去认为非常难以解决的问题,会因为大数据和机器智能的使用而迎刃而解,比如解决癌症个性化治疗的难... 查看详情

李松南:智能全真时代的多媒体技术——关于8k沉浸式和人工智能的思考

...时代的多媒体技术》,副标题是《关于8K、沉浸式和人工智能的思考》。我将结合在腾讯多媒体实验室的工作经验,跟大家在宏观维度上分享一下我个人对8K、沉浸式和人工智能的一点思考,不对的地方还请大家指正... 查看详情

ai时代:推荐引擎正在塑造人类

...,反过来工具也在塑造我们。”我本人不反感AI,也相信人工智能会开创一个伟大的时代,但是我们要思考一些东西,至少知道那是什么。本人旨在让你了解当前人工智能应用最普遍的智能推荐引擎(IntelligentRecommendationEngine) 查看详情

ai时代:推荐引擎正在塑造人类

...,反过来工具也在塑造我们。”我本人不反感AI,也相信人工智能会开创一个伟大的时代,但是我们要思考一些东西,至少知道那是什么。本人旨在让你了解当前人工智能应用最普遍的智能推荐引擎(IntelligentRecommendationEngine) 查看详情

在愚人节里,我们都需要变得更加智能--如何使用真格智能单

...快来试试真格量化的“智能单”!身处AI技术席卷一切的时代,似乎我们身边的一切物件都需要变得更加智能,从“智能手机”、“智能手表”、“智能音箱”、“智能合约”到“智能×××”,几乎可以覆盖我们从摇篮到坟墓的... 查看详情

深度剖析:智能手机如何诱变我们大脑“思维方式”

这是一个科技改变大脑的时代。互联网的大量使用会对我们的大脑进行重塑。我们的思维方式、阅读习惯以及记忆能力都在逐渐被改变。智能手机和PC终端正在慢慢地干扰和影响着我们的注意力,日益强大的智能机正在悄然地改... 查看详情

数据智能时代:数据体系建设的实质、思路和方式

...层出不穷。伴随着大数据、云技术以及整个算力的发展,人工智能技术的研究及应用也迅速壮大,在语音、图像和自然语言方面取得了卓越的成绩。更为重要的是,政府也在大力发展数字经济,包括党的十九届四中全会首次增列... 查看详情

智能革命之读书笔记

...得那是距离我所生活的时代遥不可及的事物,大学时听说人工智能,一直对它敬而远之,甚至对它有一种畏惧情绪,心里一直有种担忧,人工智能高度发展,将来会不会对我们造成威胁,虽说它不会夺走我们的自由和生命,但会... 查看详情

2020年python有哪些就业方向?应该如何选择?

...师的第一首选,它同时可以给工作带来很大的效率。五:人工智能我们都知道谷歌制作出了的机器人战胜了一个围棋大师,这个就是目前刚出头的人工智能,当然我们的人工智能时代还没有到来,如果这天来了,生活和世界将会... 查看详情

人工智能自动写作软件2.0时代

大家好,人工智能人工智能(ai)的定义是计算机科学的一个分支,自20世纪70年代以来被称为世界三大最先进技术之一(空间技术、能源技术和人工智能)。它有许多定义,它们都是有意义的,没有对错之分。人工智能自动写作软件2.... 查看详情

解放人与设备距离,5g时代的远程操控该如何完成

...特性。而远程控制作为5G技术的先导,其对于智能化时代具备重要价值,5G可以满足远程控制应用中更多信息的同步需求。文章将会系统介绍5G时代,远程操控的理论与使用技巧。本文作者:毛峻岭|腾讯云通信5G产... 查看详情