导语:谷歌与美国五角大楼合作的Maven项目曝光后,部分谷歌员工表示反对。之后,更有数千名员工签署请愿书,要求谷歌取消该项目的合同,数十名员工辞职以示抗议。他们认为,这项技术有可能用于提高无人机打击的精确度,有违谷歌的“不作恶”原则

20180601093125108.jpeg

背景介绍

据美国媒体报道,本月初,谷歌与美国五角大楼合作的Maven项目曝光,导致该公司一些职员抗议和辞职。据悉,Maven是美国国防部将人工智能应用于无人机的举措。该项目旨在建立一个类似“谷歌地球”的监测系统,让五角大楼的分析师能“点击建筑,查看与之相关的一切”,并为“整个城市”建立车辆、人员、土地特性和大量人群的图像。

谷歌在2017年9月底获得了Maven项目的合同,此后合作一直处于保密状态,直到今年有员工在谷歌公司内部沟通平台将这件事曝光出来。部分谷歌员工几乎是立即就站出来表示反对。之后,更有数千名员工签署请愿书,要求谷歌取消该项目的合同,数十名员工辞职以示抗议。他们认为,这项技术有可能用于提高无人机打击的精确度,有违谷歌的“不作恶”原则。

a0dc200244ce40a_size12_w530_h298.jpeg

【谷歌云计算业务负责人戴安·格林】

国际机器人武器控制委员会(ICRAC)甚至还曾发布了一封公开信,这封信的两位作者Peter Asaro和Lucy Suchman曾在联合国就自动武器问题作证,第三位作者Lilly Irani是一位科学教授、前谷歌员工。

Suchman表示,谷歌对Maven项目的贡献完全可能加速全自动武器的开发。虽然谷歌总部位于美国,但它有义务保护全球用户群,而不是与任何一个国家的军队结盟。

在这封支持谷歌员工的公开信中,他们是这样说的:

尽管Maven项目的报告目前强调了人类分析师的作用,但这些技术有望成为自动目标识别和自主武器系统的基础。随着军事指挥官们对目标识别算法的越来越信任,它将会吸引人们对这些系统进行减弱甚至消除人为审查和监督。

据国防部称,国防部已经计划在无人机上安装图像分析技术,包括武装无人机。由此可想,我们距离授权自动无人机自动杀人越来越近,而且在这个过程中不需要人工监控或有意义的人员控制。科技公司的道德行为需要考虑谁可能受益于技术而谁又可能受到伤害。

我们也非常担心Google可能将人们日常生活的数据与军事监控数据整合在一起,并将其与有针对性的杀戮结合起来应用。谷歌已经进入军事工作,无需在国内或国际上进行公开辩论或审议。虽然谷歌在没有民主公众参与的情况下经常决定技术的未来,但其加入军事技术会将信息基础设施的私人控制问题变得突出。如果谷歌决定将全球互联网用户的个人数据用于军事目的,那么它将侵犯公众的信任,因为它将用户的生命和人权置于危险之中,这对其业务至关重要。

像谷歌这样的跨国公司,其责任必须与他们的用户的跨国化相匹配。根据谷歌所考虑的国防部合同,以及已经在微软和亚马逊上签订的类似合同,都标志着私人科技行业之间的危险联盟,这个联盟目前拥有大量来自全球各地的敏感的个人数据,以及一个国家的军队。它们还表明,未能与全球公民社会和外交机构进行接触,这些机构已经强调了这些技术的道德风险我们正处于关键时刻。剑桥分析公司 (Cambridge Analytica) 的丑闻表明,公众越来越担心科技行业将拥有如此大的权力。这使得信息技术基础设施的风险越来越高,以及当前国家和国际治理框架不足以维护公众的信任。这种情况比从事裁决生命和死亡的系统更为真实。

据报道,谷歌已经为Maven做了大量工作,并且取得不错的成果。根据Gizmodo获取的消息,谷歌已经构建了一个系统,检测专业图像标签所遗漏的车辆;谷歌的高级工程项目经理Reza Ghanadan在一封邮件中写道,几个案例表明,模型对专业标签错过的车辆检测率准确率能达到90%。

谷歌公布AI使用七项原则

gettyimages-85758332.jpg

面对如此巨大的争议和压力,近日,谷歌发布了一套关于AI使用的七项原则,这些原则虽然存在模糊不清的地方,但确实是令人赞叹的存在。谷歌CEO Sundar Pichai表示,

AI如何开发和使用,将会对未来社会产生重大影响。作为人工智能领域的领导者,我们感到深深的责任感。所以我们宣布了七项原则来指导我们今后的工作。这些不是理论概念,而是具体的标准,将积极主导我们的研究和产品开发,并会影响我们的业务决策。

虽然这七项原则的制定,直接原因在于该公司与美国军方签署的Project Maven引起了内部员工的强烈不满,但这个问题只是一个关于人工智能的一个缩影,关于AI应该如何开发、使用的考量才是根源所在。

在Pichai宣称这些原则具有约束力的同时,谷歌云首席执行官Diane Green在另一篇官方博客中证实了上周的一些传闻,即一旦该合同失效,将不会继续合作。黛安称,

这是一项为期18个月的合同,因此它将于2019年3月结束,过期将不再续约。

但是,对于“谷歌正在利用Maven项目作为敲门砖,来获取更有利可图的敏感政府合同”的传闻,Green并未予以回应。根据相关报道称,谷歌虽然终止了Maven项目,但仍将与美国军方合作,以进行新的探索。谷歌将继续与美国政府和军方开展在网络安全、培训、退伍军人医疗保健、搜救和军事招聘方面合作。而且,这家网络巨头正在争取两项数十亿美元的国防部门办公和云服务合同。

谷歌使用AI的七项原则内容

AI应用目标

1.对社会有益

当我们考虑AI技术的潜在发展和应用时,我们将需要考虑一系列的社会和经济因素,尊重运营所在国家的文化、社会和法律准则,并在我们认为整体收益远超过可预见的风险和弊端的情况下继续推进。

2.避免制造或加剧不公平的偏见

我们将努力避免对人们造成不公正的影响,特别是与种族、民族、性别、国籍、收入、性取向、能力以及政治或宗教信仰等敏感特征有关的人。

3.构建并测试安全性

我们将继续开发和应用强大的安全和保障措施,以避免造成引起伤害的意外结果。我们将设计我们的AI系统,使其保持“适当的”(这就是上文所谓的“模糊不清”)谨慎,并根据人工智能安全研究的最佳实践开发它们。在“适当的”情况下,我们将在有限的环境中测试AI技术,并在部署后监控其操作。

4.对人类负责

我们将设计能够提供反馈、相关解释和说明的AI系统。我们的AI技术将受到人类“适当的”指导和控制。

5.纳入隐私设计原则

我们将在开发和使用AI技术时融入隐私原则。我们将提供通知和同意的机会,鼓励具有隐私保护措施的架构,并对数据的使用提供“适当的”透明度和控制。

6.坚持科学卓越的高标准

技术创新植根于科学的方法和开放式调查的承诺,学术严谨,诚信和合作。人工智能工具有可能在生物学、化学、医学和环境科学等关键领域开拓科学研究和知识的新领域。我们致力于促进人工智能的发展,追求高标准的科学卓越。

我们将与广大股东合作,通过科学严谨和跨学科的方式来全面促进该领域的发展。我们将通过发布教育材料,以及通过发布可以促进更多人开发AI应用的最佳实践和研究来分享AI知识。

7.从主要用途、技术独特性等方面来提供技术

许多技术有多种用途。我们将努力限制可能有害或被滥用的应用程序。在开发和部署AI技术时,我们将根据以下因素评估可能的用途:

· 主要目的和用途:技术和应用的主要目的和可能的用途,包括解决方案与有害用途的相关性或适用程度;

· 普遍与独特:我们的技术是独一无二的还是更普遍适用的;

· 规模:这项技术的使用是否会产生重大影响;

· 谷歌参与的性质:我们是否提供通用工具,为客户集成工具还是开发定制解决方案;

禁止将AI应用于

· 制造整体伤害之处。如一项技术可能造成伤害,我们只会在其好处大大超过伤害的情况下进行,并提供安全措施;

· 武器或其他用于直接伤害人类的产品;

· 收集使用信息,以实现违反国际规范的监控的技术;

· 目标违反被广泛接受的国际法与人权原则的技术。

争议之声

大家可以看到,在这七条原则及其描述中,谷歌自由的使用了诸如“适当的”这样的字眼,为自己留下了很大的余地。什么时候是“适当的”情况下,在有限的测试环境中测试AI技术并部署后监控其操作?什么是保持“适当的”谨慎?AI技术将受到人类“适当的”指导和控制又是指什么呢?

不过,在如此短的时间内,我们很难指望这些原则能有太多硬性的规定,但再仔细想想,这份原则并不是在短时间得出来的结论;谷歌多年来一直是人工智能领域的领导者,并且有很多时间来建立更多的原则。

例如,该公司关于“尊重文化,社会和法律规范”的承诺在很多方面都得到了验证。尽管确立了这些原则,或者谷歌的政策已经倾向于适应政府或宗教权威的要求,但我们可以从哪里可以看到他们在什么地方应用了实践呢?

而且,在承诺“避免产生偏见,并对人类负责”的时候,有没有一些具体的做法呢?例如,如果涉及谷歌的系统具有基于敏感数据或类别的结果,那么该系统是否可以进行完全审计并公之于众?

这些想法都是值得赞许的,但AI的应用并不是抽象的。这些系统目前正用于确定警力的部署,或选择房屋贷款利率,或分析医疗数据。如果谷歌真的想保持自己在该领域的主导地位,那么确立真正的规则是必要的,或者说如果规则已经建立,就需要把它们放到重要的位置去践行。

最后,不得不说的是,虽然在原则中使用“适当的”一词会留给谷歌自行解释的空间,但是对于“禁止应用AI”的规则却恰恰相反,这些定义是高度不明确的,监管机构对诸如“可能造成整体伤害”或“国际公认的规范”等词语的广泛解释可能导致Google自己的规则出乎意料地被禁止。

文章最后,Pichai写道,

我们承认,这个领域是动态的和不断发展的,我们将以谦逊的态度来对待我们的工作,对内部和外部的参与做出承诺,并愿意随着时间的推移调整我们的方法。

源链接

Hacking more

...