欢迎来到极品财经网!

[谷歌空间下载]谷歌集体请辞,原因是军用杀人机器人

各种利率表 时间:2021-05-01

【www.jpmy1688.com--各种利率表】

1.谷歌员工大规模抗议“杀人机器人”

机器蜂杀人演示

今年的整个4月到5月,谷歌与军方合作的Maven项目争议持续发酵,说通俗一点就是杀人机器人项目引发各种争议。

继数月前谷歌3000多名员工内部上书之后,十几名谷歌员工正在集体请辞以示抗议。同时,国际机器人武器控制委员会(ICRAC)也向佩奇、Pichai、Diane Greene和李飞飞发出了一封公开信,呼吁谷歌退出军方项目,并承诺不将其技术武器化。

然而,来自近4000名员工的压力似乎没有影响谷歌的决定,谷歌声称它只向Maven项目提供开源软件,并且,“制定政策和保障措施”到现在也没看到进展。谷歌向来鼓励员工挑战和讨论产品决策,但一些辞职的员工表示,高管们对有争议的商业决策的态度已经变得不那么透明了,他们似乎不太愿意听取员工的反对意见。

谷歌遭集体反对的情况并不多,距离上次出现大规模反对或抗议的事件发生在2015年。当时谷歌博客Blogger发布禁令,把所有含色情内容的博客强制转为私密状态。此举随后遭到大量用户的反对。最终,谷歌撤回了对Blogger色情禁令,决定只对“商业化”的情色内容进行限制。

2.Maven项目究竟是什么?

这就是机器蜂

遭到众人反对的Maven项目究竟是什么?它的效果是使用机器学习来识别无人机镜头中的车辆和其他物体,从而减轻分析人员的负担。根据五角大楼的说法,Maven最初的目标是为军方提供先进的计算机视觉,能够自动检测和识别无人机全动态摄像机捕获的多达38种物体。

这个项目曝光后,谷歌发言人在一份声明中说,它向国防部提供用于机器学习应用的TensorFlow API,以帮助军事分析人员检测图像中的物体。同时也承认使用机器学习用于军事目的的争议性。该发言人表示,该公司正在围绕其使用开展“制定政策和保障措施”。

国际机器人武器控制委员会(ICRAC)发布一封联名公开信,超过300位人工智能、伦理学和计算机科学等领域的学者公开呼吁,要求Google结束Maven项目的工作并支持禁止自主武器系统的国际条约。这封公开信的两位发起人Peter Asaro和Lucy Suchman已经在联合国面前听证了自动武器报告; 第三位发起人Lilly Irani是位科学教授,同时也是谷歌前雇员。

Suchman告诉Gizmodo,谷歌参与Maven项目可能会加速完全自主武器的开发。她说,尽管谷歌位于美国,但它有义务保护其全球用户群,这比任何单一国家的军队都重要。

公开信上这样写着:

谷歌的黑科技

通过Maven项目,谷歌与有受争议的、有针对性的杀戮行为有牵连。这包括所谓的“签名罢工”和“生活模式”攻击,目标人群不是基于已知的活动,而是基于从远程监控录像中得出的概率。这些行动的合法性受到国际和美国法律的质疑。同时,这些行动也暴露了在目标识别和罢工分析中,关于种族和性别偏见的重大问题(最臭名昭著的是,将成年男性作为激进分子的笼统分类)。这些问题不能依靠图像分析算法的准确性,只能通过对国际机构的问责和加深对实地地缘政治局势的了解来解决。

虽然目前关于项目Maven的报告强调了人类分析人员的作用,但这些技术将成为自动目标识别和自动武器系统的基础。当军事指挥官们认为目标识别算法是可靠的,它将会削弱甚至消除对这些系统的人类审查和监督。根据国防部的说法,国防部已经计划在无人机上安装图像分析技术,包括武装无人机。因此,我们距离授权自动无人机自主杀戮,而不需要人工监控,只需要一小步。

如果谷歌决定将全球互联用户的个人数据用于军事目的,那么它将侵犯公众的信任,因为它将用户的生命和人ren权置于危险之中。像谷歌这样跨国公司的责任必须与他们的用户的跨国化相匹配。根据谷歌所考虑的国防部合同,以及微软和亚马逊已经实施的类似合同,这样的做法标志着拥有大量全球敏感私人数据的科技公司与一个国家军队的危险联盟。它们还表明,谷歌未能与全球公民社会和外交机构进行接触,这些机构已经强调这些技术的道德风险。

3.有关人机器人的争论一直存在

机器人参与战争一直有争议

1942年,艾萨克·阿西莫夫(Isaac Asimov)发表了一个名为“Runaround”的短篇小说,创造了“机器人”一词,并引入了机器人杀死人类的想法,“只要我们能够制造机器人,我们一直担心他们杀了我们。”

自阿西莫夫以来,自治机器人系统确实走过了漫长的道路。2012年,人ren权观察组织发表了一份报告,提出杀手机器人是一个机器人,可以决定在没有人为干预的情况下使用致命的力量,这个定义随后被扩大到包括任何可以选择对人类使用武力的机器人,即使这种武力不是致命的。2017年8月,全球100多位AI先驱呼吁联合国禁止杀手机器人的开发和使用,这份公开信警告说,必须紧急禁止在火药和核武器之后进行“第三次战争革命”。到目前为止,已有19个国家要求禁止,包括阿根廷,埃及和巴基斯坦。

2017年的11月,联合国在特定常规武器公约会议上发布了一段“杀人机器人”视频,强烈呼吁AI技术巨大的危害和道德风险,引发热议。视频中,类似杀人蜂的小型人工智能机器人通过面部识别系统辨别射杀对象,迅速敏捷将其击毙。这款所谓的“杀人机器人”,体型大概蜜蜂大小,飞入会场后躲过演讲人的抓捕,导航系统完全基于 AI 。从具体的配置上看,这个机器人配有:广角摄像头、战术传感器、面部识别技术,并且在其内装有3克炸药。

4.机器人参与战争不可避免

谷歌公司面临各种困扰

军事应用中将会使用更多人工智能机器人,这是不可逆的趋势,类似无人机参与战争,它们有能力执行更多困难的任务。在要求速度和精度的情况下,军用机器人的神经络的机器图像分类器已经能够在一些基准图像识别测试中击败人类。

这些优势表明,在战争中的某些情况下,机器可能会胜过人类,比如迅速确定一个人是否持有武器。机器还可以追踪人体的动作,甚至可以捕捉潜在的可疑活动,比如一个人可能是一个隐藏了武器,这类反应比人类更快,更可靠。即使机器智能目前有许多弱点,它们的威力不可小觑。

人类也能够理解战争的道德后果,战争中的许多决定都没有简单的答案,需要权衡,机器无法衡量人类的生命价值。美国参谋长联席会议副主席保罗·塞尔瓦在今年7月份向参议院军事委员会表示:“我们认为让机器人负责我们的生命是不合理的。”

本文来源:http://www.jpmy1688.com/ll/100547.html

推荐内容