您当前的位置:首页资讯科技财经正文

谷歌拒绝开发用于武器装备的人工智能

放大字体  缩小字体 发布日期:2018-06-11 浏览次数:4
  谷歌正在拒绝开发可用于武器的人造智能软件,首席执行官Sundar Pichai周四表示,为这家科技巨头如何在人工智能日益强大的时代开展业务设定了严格的新道德准则。

 
谷歌拒绝开发用于武器装备的人工智能
  
  由于硅谷和全球的竞争对手在自动驾驶汽车,自动助理,机器人,军事AI和其他行业争夺霸主地位,新规则可能为人工智能的部署铺平了道路。
  
  “我们认识到,如此强大的技术对其使用提出了同样强大的问题,”Pichai 在一篇博客文章中写道。“作为人工智能领域的领导者,我们觉得这是一个特殊的责任。”
  
  伦理原则是对员工辞职和公众批评谷歌与国防部关于可以帮助分析无人机视频的软件的批评的反应,批评者认为该软件已经推动公司向“战争业务”靠拢了一步。谷歌高管称,上周,他们将不再续签该交易为军队的AI的努力,被称为项目Maven的,当它在明年到期。
  
  Pichai表示,谷歌不会追求人工智能的发展,因为它可能被用来打破国际法,造成总体伤害或监视人们违反“国际公认的人权规范”。
  
  然而,该公司将继续与政府和军方在网络安全,培训,退伍军人医疗保健,搜救和军事招聘方面合作,Pichai说。这家以过去的“不要做坏事”为名的网络巨头正在争取两项数十亿美元的国防部门办公和云服务合同。
  
  谷歌8000亿美元的母公司Alphabet被认为是全球领先的人工智能领域权威人士之一,并聘请了该领域的一些顶尖人才,包括位于伦敦的子公司DeepMind。
  
  但该公司正在与中国人工智能公司和Facebook和亚马逊等国内竞争对手进行激烈的研究人员,工程师和技术竞争,他们可能会争夺谷歌放弃的各种利润丰厚的合同。
  
  这些原则对公司如何寻求遵守其规则提供了有限的细节。但Pichai列出了其AI应用程序的七个核心原则,包括它们对社会有益,建立和测试安全性,避免造成或加强不公平的偏见。Pichai表示,该公司还将通过研究其技术如何能够“适应有害使用”来评估其在AI中的工作。
  
  一位不愿透露姓名的谷歌代表坦诚地谈论这一过程,他说公司几个月来一直在制定道德原则,并将聘请外部顾问进行内部审查,以确保AI准则得到执行。
  
  人工智能是谷歌同名Web工具的重要组成部分,包括图像搜索和识别以及自动语言翻译。但它也是未来雄心勃勃的关键,其中许多涉及自己的道德雷区,包括其自动驾驶的Waymo部门和Google Duplex,这一系统可用于通过模仿电话中的人声来预订晚餐。
  
  但谷歌的新限制似乎并没有减缓五角大楼的技术研究人员和工程师的速度,他们认为其他承包商仍然会竞相帮助开发军事和国防技术。美国国防部高级研究计划局副局长Peter Highnam表示,没有经营Maven项目,但因帮助发明互联网而获评的五角大楼代理机构称,DARPA的“有数百家(如果不是数千家)积极出价的学校和公司” AI等技术研究项目。
  
  “我们的目标,我们的目标是创造和防止技术突袭。所以我们正在考虑什么是可能的,“DARPA信息创新办公室副主任约翰埃弗里特周三接受采访时说。“任何组织都可以自由参与这个正在进行的探索。”

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!

0条 [查看全部]  相关评论