客服中心
谷歌人工智能技术使用规范:不得向武器化方向发
原标题:谷歌将公布人工智能技术使用规范:不得向武器化方向发展
由于和美国军方合作进行人工智能项目,科技巨头谷歌面临的内部辞职潮和外部舆论压力,有愈演愈烈之势。
为了平息舆论压力,谷歌向公司员工承诺,将制定一套原则,来指导其人工智能业务在防务和情报合同中,如何越过道德雷区。谷歌也向外界表示,新的原则将会避免让人工智能朝武器化发展。但在实际实施中如何应用,还尚未清楚。
去年4月份,美国军方提出Maven项目。Maven的目标是“加快国防部整合大数据和机器学习”,也被美国国防部称为算法战争跨功能团队(AWCFT:Algorithmic Warfare Cross-Functional Team)。此前谷歌称,该项目中向美国国防部提供用于机器学习应用的TensorFlow API接口,以帮助军事分析人员检测图像中的物体。
谷歌究竟参与程度如何,双方都未提及。据《纽约时报》5月30日的报道,谷歌云CEO黛安·格林曾在每周的全公司TGIF(Thanks God, it‘s Friday)会议上发言,她称,这个项目不是为了攻击目的,双方的合同价值相当小,仅900万美元。
尽管如此,谷歌内部员工的愤怒和失望情绪并没有得到安抚,他们认为这次的合作影响到了谷歌的声誉和公司文化,也关乎机器学习发展和使用的道德问题。
截至美国当地时间5月14日,谷歌已有十几名员工正式因这一项目向谷歌请辞,以抗议公司继续参与军方的Maven项目。同时,学术界有364名人工智能专业人士也联名上书,反对谷歌。
谷歌对于事态的发展并没有做好准备。更令谷歌头疼的是,Maven项目引发的争议可能在未来几个月还会加剧。
原因是据《连线》5月29日的报道,到了2018年,Maven项目开始扩展到新领域,包括利用开发工具以更高效地驱动硬盘。另外,今年Maven项目获得的资金也有望扩大到1.31亿美元。美国五角大楼还计划与硅谷建立联合人工智能中心,可能会效仿Maven项目,以支持美国军方,并为情报机构提供服务。
一方面是不想失去军方的合同,另一方面是员工对于公司文化的质疑,谷歌在“不作恶”和“做正确的事”之间面临了两难的困境。
李飞飞不支持AI武器化,谷歌将发布AI技术使用规范
为了安抚内部员工的情绪,《纽约时报》称,谷歌在上周四(5月24日)召开了内部讨论会。
谷歌现任CEO桑达尔·皮查伊(Sundar Pichai)在会上表示,公司会公布一系列机器学习使用的政策和防护安全措施文件,这些原则必须要经得住时间的考验。
但实际上,谷歌在Maven项目成立之初就提到了这些原则和安全措施文件,直到到现在都未对外界公开。谷歌的员工希望公司能在未来几个星期内提交这些原则和安全措施。
面对这场公司内部的辞职潮,谷歌原本有机会在项目合作时就避免事态严重化。
去年9月份,谷歌内部在讨论如何向公众解释这个事情时,谷歌云首席科学家、副总裁李飞飞曾在邮件中强烈建议双方在合同中回避“AI”(人工智能)这个字眼。
“无论付出什么代价,都必须要避免提及或者使用到AI这两个字。武器化人工智能可能是AI领域里最敏感的话题,没有之一。对于媒体而言这简直就是红肉(red meat),他们会找到一切方式毁掉谷歌。”这位来自斯坦福大学人工智能实验室的学者在邮件中说。
“我不知道如果媒体开始谷歌正在秘密建造AI武器或AI技术,并为国防工业服务会发生什么。”李飞飞说,因此她希望在对外公布合同时,能将项目描绘为是谷歌云平台的重大胜利。不过李飞飞也在邮件中指出,这是她的建议,最终决定权还在她的老板身上。
李飞飞一直坚持相信的是以人为中心的人工智能,可以用积极和慈善的方式让人类受益。她还表示,任何将人工智能武器化的项目研究,都将违背她的原则。
最后,谷歌选择不将Maven项目公之于众。只有反对的员工通过谷歌内部沟通平台开始抗议时,谷歌作为Maven项目分包商的事才引起了公众的关注。
到了今年4月初,反对的声音越来越大,导致大约有3100多名谷歌员工签名,向谷歌现任CEO桑达尔·皮查伊(Sundar Pichai)提交了一封信,要求皮查伊立即取消参与Maven项目,并起草并公开一份清晰的政策表明:谷歌和它的合作方不会开发用于战争的技术。
相关推荐: