cabet990亚洲城手机版 >新闻 >谷歌排除使用人工智能武器 >

谷歌排除使用人工智能武器

2019-07-28 12:12:04 来源:工人日报

  

谷歌周四宣布,它不会将人工智能用于武器,也不会“导致或直接导致人员受伤”,因为它公布了一系列技术原则。

首席执行官Sundar Pichai在博客文章中概述了该公司的人工智能政策,他指出,即使Google不会将人工智能用于武器,“我们将继续与政府和军方在许多其他领域开展工作”,如网络安全,培训,或搜救。

谷歌因与美国军方达成的合同而面临来自员工和其他人的骚动,加利福尼亚州科技巨头上周表示不会续约。

Pichai为Google的人工智能应用或可以模拟智能人类行为的高级计算提出了七项原则。

他表示谷歌正在使用人工智能“帮助人们解决紧急问题”,例如预测野火,帮助农民,诊断疾病或防止失明。

“我们认识到这种强大的技术对其使用提出了同样强大的问题,”Pichai在博客中说。

“人工智能的开发和使用将如何在未来许多年对社会产生重大影响。 作为人工智能的领导者,我们有责任做到这一点。“

这位首席执行官表示,谷歌的人工智能计划将专为“社会有益”和“避免制造或加强不公平偏见”的应用而设计。

他说,这些原则还要求人工智能应用程序“为安全而构建和测试”,“对人们负责”并“纳入隐私设计原则”。

Pichai写道,谷歌将避免使用“导致或可能造成整体伤害的任何技术”。

这意味着要避免使用“主要目的或实施导致或直接促进人身伤害的武器或其他技术”以及“收集或使用违反国际公认规范的监视信息的系统”。

谷歌还将禁止使用任何“其目的违反广泛接受的国际法和人权原则”的技术。

- '一个好的开始' -

对该公告的一些初步反应是积极的。

电子前沿基金会反对谷歌与五角大楼的Project Maven合同,称新闻“是道德人工智能原则的一大胜利”。

“祝贺Google员工和其他一些努力说服公司取消Project Maven工作的人,”EFF在推特上说。

华盛顿大学法学教授兼斯坦福互联网与社会中心研究员Ryan Calo发推文说,“谷歌的人工智能道德原则更多地归功于(英国哲学家杰里米)边沁和实证主义者(德国哲学家)康德。 尽管如此,一个良好的开端。“

卡洛补充说:“他们不会促进暴力或极权主义监视的明确声明是有意义的。”

此举是因为人们越来越担心自动化或机器人系统可能被滥用并失控,从而导致混乱。 与此同时,谷歌已经面临批评它已经偏离其原始创始人的“不要做坏事”的座右铭。

一些技术公司已经同意使用人工智能的一般原则,但谷歌似乎提供了一套更精确的标准。

该公司已经是人工智能合作伙伴关系的成员,其中包括数十家致力于人工智能原则的技术公司,他们因与五角大楼合作开发的Maven项目而面临批评,该项目利用机器学习和工程人才来区分人和物。无人机视频。

据媒体报道,面对数千名员工签署的请愿书以及公司外部的批评,谷歌表示1000万美元的合同不会续签。

但据信谷歌正在与亚马逊和微软等其他科技巨头竞争与美国政府签订的有利可图的“云计算”合同,包括军事和情报机构。

法新社

现在下载PUNCH NEWS APP

(责任编辑:姚义蓍)
  • 热图推荐
  • 今日热点