打开APP

谷歌CEO:担忧AI做坏事很合理,不能先创造再完善

皮查伊将AI技术早期的围绕AI设置参数的工作,比作学术界在遗传学研究早期的努力。 “许多生物学家开始划定这项技术的发展方向,”他说。 “学术界有很多的自我监管,我认为这一点非常重要。”

(原标题:Google CEO Sundar Pichai: Fears about artificial intelligence are ‘very legitimate,’ he says in Post interview)

网易科技讯 12月15日消息,据《华盛顿邮报》报道,全球*的人工智能公司谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)本周接受采访时表示,对人工智能技术被滥用的担忧是“非常合理的”,但同时应该相信科技行业能够负责任地规范好该技术的使用。

谷歌CEO:担忧AI做坏事很合理,不能先创造再完善

桑达尔·皮查伊周二下午在接受采访时表示,新的人工智能工具,比如无人驾驶汽车和疾病检测算法等,都要求科技公司设置道德护栏并思考什么是对该技术的滥用。

“我认为科技公司必须意识到不能先创造人工智能工具,然后再去完善它,”皮查伊说,“我认为这样是行不通的。“

同时皮查伊表示,科技巨头必须确保人工智能与其应用不会对人类造成危害。 他说,他对人工智能的长期益处持乐观态度,但他对人工智能潜在风险的评估与一些科技批评人士的观点一致。这些批评人士认为,人工智能可能会被用于侵入性监控的授权、致命武器和错误信息的传播。SpaceX和特斯拉(Tesla)创始人埃隆·马斯克(Elon Musk)以及其他一些科技公司的高管甚至做出了更可怕的预测,称人工智能可能”比核武器危险得多”。

人工智能技术支撑着谷歌的方方面面,很多业务都离不开人工智能技术。而最近,谷歌如何部署人工智能的决定也引发了员工动荡。

在皮查伊呼吁科技公司自我监管之前,曾出席国会听证会,当时立法者威胁要对技术施加限制以应对技术滥用现象-包括使用科技传播错误信息和仇恨言论。 如今,皮查伊承认AI构成的潜在威胁,这非常关键,因为这位出生于印度的工程师经常吹嘘自动化系统的世界形态,这些系统可以在没有人为控制的情况下学习和做出决策。

皮查伊在采访中表示,世界各地的立法者仍在努力掌握AI的影响以及政府监管的潜在需求。他说道: “有时我担心人们低估了中长期可能出现的变化规模,我认为这些问题实际上非常复杂。”包括微软在内的其他科技巨头,最近也接受了对AI的监管,这种监管既来自于创建该技术的公司,也来自于监督AI使用的政府部门。

同时皮查伊表示,如果处理得当,AI可以带来“巨大的好处”,包括帮助医生通过自动扫描健康数据来检测眼疾和其他疾病。 他说:“在早期,对技术进行监管非常困难,但我确实认为公司应该自我监管,这也是为什么我们想要努力阐明一套AI原则。 可能并不是我们做的每一件事都是正确的,但我们认为开始对话很重要。”

皮查伊于2004年加入谷歌,11年后成为首席执行官,1月份曾称AI是“人类正在为之努力的最重要的事情之一”,并称AI对人类社会的影响可能会被证明比 “电力”的影响更“深刻”。但是,对自动化机器的追求,重新引发了人们对于硅谷的企业精神的担忧,这种企业精神-像Facebook曾经说过的那样,“快速行动,打破现状”-可能会导致强大的、不*的技术取代众多就业岗位,伤害人们。

在谷歌内部,其在人工智能方面的努力也引发了争议。今年早些时候,该公司曾因在一份涉及人工智能的国防部合同中所做的工作而受到严厉批评,该合同中的AI技术可以自动为汽车、建筑和其他用于军用无人机的物品贴上标签。一些员工辞职是因为他们认为谷歌在从“战争业务”中获利。

当被问及员工的强烈反对态度时,皮查伊告诉记者,谷歌员工是“我们文化的重要组成部分。他们肯定会有自己的意见,非常重要的意见,我非常珍视这些意见。”

今年6月,皮查伊宣布谷歌明年不再续签与国防部的合同后,公布了一系列人工智能道德原则,其中包括了一般禁止开发系统,这些系统可能会造成伤害,损害人权或被用于违反国际公认准则的监视行为。

谷歌在2015年发布其内部机器学习软件TensorFlow,有助于加速人工智能的广泛开发,但它同时也被用于自动创建骚扰和逼真虚假视频。这使谷歌备受批评。

谷歌和皮查伊为该软件的发布进行了辩护,他们说,限制技术的使用可能会导致公众监督的减少,并阻止开发人员和研究人员以有益的方式提高其能力。

皮查伊在接受采访时表示:“随着时间的推移,当技术不断进步时,我认为围绕道德(和)偏见展开对话,同时取得进展是很重要的。”

他说:“从某种意义上,你确实希望建立道德框架,尽早聘请非计算机科学家,以更具代表性的方式让人类参与其中,因为这项技术将影响人类。”

皮查伊将AI技术早期的围绕AI设置参数的工作,比作学术界在遗传学研究早期的努力。 “许多生物学家开始划定这项技术的发展方向,”他说。 “学术界有很多的自我监管,我认为这一点非常重要。”

这位谷歌高管表示,尤其是在自主武器研发方面,自我监管是至关重要的,这个问题一直困扰着科技高管和员工。今年7月,包括谷歌在内的科技公司数千名技术工人签署了一项承诺,反对开发可编程杀人的人工智能工具。

皮查伊还说,他在YouTube上发现了一些可恨的、阴谋论的视频,这些视频在一些媒体报道中被描述为“令人憎恶的”,他还表示,该公司将致力于改进其系统以检测有问题的内容信息。这些视频自今年4月出现以来,在YouTube上被观看了数百万次。视频中包含一些毫无根据的指控,即民主党人希拉里·克林顿(Hillary Clinton)及其长期助手胡玛·阿贝丁(Huma Abedin)袭击、杀害一名女孩并喝了她的血。

皮查伊说,他没有看过这些他在国会听证会上也被问及的视频,并拒绝透露YouTube在这一领域的缺陷是源于检测系统的限制,还是源于用于评估是否应该删除特定视频的政策的限制。但他补充说,“你会看到我们2019年将会继续在此方面做出更多努力。”(Vicky)

【本文由投资界合作伙伴网易授权发布,本平台仅提供信息存储服务。】如有任何疑问题,请联系(editor@zero2ipo.com.cn)投资界处理。

相关资讯

AI数据总览

最新资讯

热门TOP5热门机构 | VC情报局

去投资界看更多精彩内容
【声明:本页面数据来源于公开收集,未经核实,仅供展示和参考。本页面展示的数据信息不代表投资界观点,本页面数据不构成任何对于投资的建议。特别提示:投资有风险,决策请谨慎。】