《连线》李飞飞专访:AI领域几乎90%是男性,女性太少了
11月20日,根据斯坦福人工智能实验室官方Twitter消息,李飞飞将离任斯坦福人工智能实验室负责人,深度学习自然语言处理领军人、斯坦福教授Chris Manning将接任。而李飞飞将继续担任斯坦福视觉与学习实验室(SVL)负责人,以及新成立的斯坦福以人为本人工智能研究院共同院长。
《连线》网站近日刊文详述人工智能界的大牛李飞飞探寻让人工智能更好地造福人类的征程。众所周知,人工智能存在一个非常棘手的问题:其创造者的偏见正在被硬生生地编码到人工智能的未来中,因而带来不少的隐患,李飞飞打算修复这一问题。
“必须采取行动让AI可造福人类”
去年6月,李飞飞出席了美国国会一场主题为“人工智能——能力越大责任越大”的听证会。李飞飞是会上的唯一一名女性,也是会上唯一一个在人工智能领域取得过突破性成就的人。作为打造出帮助计算机识别图像的数据库ImageNet的研究员,她是屈指可数的推动人工智能在近期取得非凡进展的科学家之一。
去年6月的时候,李飞飞还是谷歌云的首席人工智能科学家,离开了她在斯坦福大学人工智能实验室主任的岗位。但她出现在委员会面前,还因为她的另一重身份:一家专注于招募妇女和有色人种成为人工智能的建设者的非营利组织的联合创始人。
那天议员征询她的专业意见不足为奇。令人惊讶的是她的演讲内容:她如此热爱的领域所引发的种种严重威胁。
技术一经发明,可在短时间内引发翻天覆地的影响。在像ImageNet这样的人工智能工具的帮助下,电脑可以学会处理特定的任务,并取得远远超过人类的办事效率。随着这项技术变得越来越成熟,它被用来过滤、排序和分析数据,以及就全球和社会的重要问题作出决策。虽然这些工具在某种程度上已经存在了60年以上,但在过去的十年里,我们已经开始使用它们来执行会改变人类生活轨迹的任务:今时今日,人工智能可以帮助确定各种各样的问题,比如为病患提供什么样的治疗,谁有资格办理人寿保险,给犯罪者定多长的刑期,为哪些求职者提供面试机会。
当然,这些力量也会带来危险。亚马逊不得不弃用其学会过滤掉女性的简历的AI招聘软件。谷歌2015年的丑闻还历历在目,当时其照片识别软件将黑人误标为大猩猩。微软由人工智能驱动的聊天机器人也曾发表带有种族歧视的推文。但这些问题可以解释清楚,因而也能够纠正。李飞飞认为,在不久的将来,我们将达到一个无法采取纠偏措施的时刻,这是因为人工智能这项技术被采用得如此之快,影响如此深远和广泛。
李飞飞之所以到去年6月这场听证会作证,是因为她坚定认为她所在的领域需要进行重新校准。多数是男性的科技行业大牛们一直在警告,未来由人工智能驱动的技术会给人类带来存亡威胁。但李飞飞认为那些担忧被严重放大了。她专注于不那么夸张、但更为重要的问题:人工智能将会如何影响人们工作和生活的方式。它必将改变人类的体验,但不一定是往好的方向改变。“我们有时间,”李飞飞说道,“但我们必须现在就采取行动。”她认为,如果我们在AI的设计方式以及设计者上做出根本性的变化,那么该项技术就会成为一股可造福人类的变革性力量。否则的话,该项技术会变得十分缺乏人性。
在听证会上,李飞飞是最后一个发言。“人工智能没有什么是人工的。它受人启发,它由人创造出来,最重要的是,它对人产生影响。它是一个强大的工具,我们才刚刚开始理解它,我们有很大的责任去理解它。”
斯坦福大学人工智能实验室的Segway平台移动机器人JackRabbot 1
ImageNet的诞生
李飞飞在成都长大,她是一个孤独而聪明的孩子,热爱阅读。她的家庭总是有不同寻常之举:她家并不喜欢宠物,而她的父亲却给她买来了一只小狗。她的母亲出生于一个知识分子家庭,鼓励她读《简爱》。在李飞飞12岁的时候,父亲移居到新泽西帕西帕尼,她和母亲一度好几年没见过他。家庭重聚那一年,她16岁。在两年内,李飞飞学会了足够多的英语来充当翻译,在生活中为只会最基本的英语的父母带来便利。
她在学校的表现也相当优异。李飞飞的一位高中数学老师鲍勃·萨贝拉(Bob Sabella)在学习和适应美国的新生活上给她带来了很大的帮助。帕西波尼高中没有高等微积分课,于是萨贝拉设计了一个临时的课程,在午休期间教导李飞飞。萨贝拉和他的妻子把她当家人般来看待,和她一起到迪士尼游玩,并借了2万美元给她开干洗店,供她的父母经营。1995年,她获得了到普林斯顿大学学习的奖学金。在那里,她几乎每个周末都会回家到她家的干洗店帮忙。
在大学里,李飞飞兴趣广泛。她主修物理学,同时也攻读计算机科学和工程。2000年,她开始在帕萨迪纳市的加州理工学院攻读博士学位,钻研神经科学和计算机科学的交叉融合。
凭借发现和打通看似不同的领域之间的联系的能力,李飞飞构想出了ImageNet。她从事计算机视觉的同辈在打造模型来帮助计算机感知和解码图像,但是那些模型的应用范围十分有限:研究员可能要分别写一个算法来识别猫和狗。李飞飞开始怀疑问题不是出在模型上,而是出在数据上。她认为,如果说小孩子是通过在年幼时观察不计其数的物体和场景来学会识别物体的,那么计算机也许能够以类似的方式去学习:通过分析各式各样的图像以及它们之间的联系。这一概念是李飞飞的一大斩获。“这是将世界的一整个视觉概念组织起来的一种方式。”她表示。
然而,她没能说服她的同事,从事标记巨大数据库中每一个物体的每一张图片的巨大任务是理性的一件事。更重要的是,李飞飞认定,该理念要可行的话,标记需要由简入繁,不管是一般的例如“哺乳动物”的标记,还是非常具体的例如“星鼻鼹”标记,都需要做好。2007年李飞飞回到普林斯顿大学担任助理教授时,她谈到了其打造ImageNet的想法,但她没能劝服同事来帮忙。最后,一位专攻计算机架构的教授同意与她展开合作。
她的下一个挑战是完成该项十分艰巨的项目。那意味着许多人将得花大量的时间千篇一律地标记图片。李飞飞尝试向普林斯顿的学生支付10美元一个小时,让他们帮忙完成,但进展还是十分缓慢。然后,有个学生问她是否听说过亚马逊的劳务众包平台Amazon Mechanical Turk,借助该平台,她一下子就能够以低得多的成本招揽到一大批工作者。但将劳动力从少数的普林斯顿的学生扩张到成千上万工作者看不见,也会带来挑战。李飞飞必须要将工作者潜在的偏见考虑进来。“作为网络工作者,他们的目标就是用最简单的方式赚钱吧?”她说,“如果你叫他们从100张图片中选择出大熊猫,有什么能阻止他们去不断地点击选择呢?”于是,她嵌入和追踪了某些图片——如已经正确地标记为狗的金毛寻回犬的照片——将它们用作对照组。如果Amazon Mechanical Turk上的工作者们能正确标记这些图片,那就代表他们有在老老实实地工作。
2009年,李飞飞的团队觉得其320万张图片的庞大数据集在用途上足够全面广泛,于是他们公布了该数据库,同时也发表了一篇相关的论文,后来该数据库的图片数量增加到1500万。起初,该项目没得到什么关注。不过该团队有一个主意:他们主动接洽了次年将在欧洲举行的计算机视觉技术竞赛的组织方,要求他们允许参赛者使用Image?Net数据库来训练他们的算法。该比赛由此变成了ImageNet大规模视觉识别挑战赛。
与此同时,李飞飞加入斯坦福大学担任助理教授。接着,她嫁给了机器人专家西尔维奥·萨瓦雷瑟(Silvio Savarese)。但是他是在密歇根大学工作,两人相隔万里。萨瓦雷瑟最终于2013年加入斯坦福大学,成为一名教员。
2012年,多伦多大学的研究人员杰弗里·辛顿(Geoffrey Hinton)参加了ImageNet的竞赛,使用李飞飞的数据库来训练一种名为深度神经网络的人工智能。他发现该AI比迄今为止任何其它的东西都要准确得多——他也最终赢得该项比赛。辛顿打造的由ImageNet驱动的神经网络改变了一切。到2017年的最后一届ImageNet比赛,计算机识别图像中的物体的错误率已经从2012年的15%减少到低于3%。至少在某种程度上,计算机已经变得比人类更善于识别图像了。
ImageNet促使深度学习技术取得大跃进——为近年来自动驾驶汽车、面部识别和可识别物体的手机摄像头等领域的进展打下了坚实的基础。
在辛顿领奖后不久,李飞飞还在休产假的时候,她开始不断思考为什么她的同行鲜少有女性的问题。那时候,她觉得这一问题很严重;她知道从业人员男女比例严重失调将渐渐带来麻烦。构建人工智能算法的科学家大多数是男性,而男性往往有着相似的背景。他们特定的世界观渗透到了他们所追逐的项目,甚至渗透到他们所设想的危险场景。许多人工智能的创造者都是有着科幻梦想的男孩,他们的脑子里充斥着来自《终结者》和《银翼杀手》的场景。李飞飞认为,担心像这样的事情并无不妥。但那些想法会让人无法全面看到人工智能的潜在危险。
李飞飞说,对于深度学习系统,“给它们输入偏见,它们就会输出偏见。”她承认,尽管驱动人工智能的算法可能是中性的,但造就那些算法的结果的数据和应用则不然。真正重要的是人工智能创造者和他们创造人工智能的初衷。李飞飞在美国国会听证会作证时指出,没有形形色色的工程师,我们可能会产生有偏颇的算法,进而就人们的贷款申请做出不公平的决策,又或者只在白人面孔上训练神经网络——创造出的模型无法有效应用于黑人面孔上。“我想,要是20年后,我们的科技行业、领导者和从业者缺乏多元性,那简直就是世界末日。”她说道。
李飞飞开始觉得,让人工智能的发展聚焦于帮助改善人类的体验是至关重要的。她在斯坦福大学的其中一个项目是,与医学院合作将人工智能引入重症监护室(ICU),以便减少诸如因住院而感染的问题。该项目涉及开发一个摄像系统来监视洗手台,提醒忘记正确地洗手的医院人员。这种类型的跨学科合作是不同寻常的。“从来没有别的来自计算机科学领域的人向我提出这样的事情。”斯坦福大学临床研究中心主任、医学教授阿诺·米尔斯坦(Arnold Milstein)说到。
那个项目让李飞飞看到了AI会如何演变的希望,它可以用来补充人们的技能,而不是直接取而代之。如果工程师与其他学科的人、甚至是普通人展开合作,他们能创造出扩展人类的能力的工具,比如可以节省自动化耗时的任务,让ICU护士得以花更多的时间照料病人,而不是使用人工智能来自动化人们的购物体验和淘汰收银员的工作。
考虑到人工智能发展的速度太快,李飞飞认为她们需要尽可能快速地改变其团队的构造。
▲李飞飞在斯坦福大学人工智能实验室
帮助更多的女性入行人工智能
李飞飞一直对数学十分着迷,她也清楚女性和有色人种从事计算机科学需要付出巨大的努力。根据美国国家科学基金会的数据,在2000年获得计算机科学学士学位的人当中,女性占28%。在2015年这一数字下降至18%。即便是在自己的实验室,李飞飞也招募不到足够多的有色人士和女性。她称,尽管要比过往典型的人工智能实验室更加多元化,但它仍然大多是男性。“我们仍然没有足够多的女性,少数族裔尤甚,人才储备上甚至也是如此。”她说,“学生们去一个AI会议,他们会看到90%的人是男性,非裔美国人的数量也远远少于白人男孩。”
李飞飞成为奥尔加·卢萨科夫斯基(Olga Russakovsky)的顾问的时候,后者一点都不看好该领域。那时卢萨科夫斯基已经是一位很有学问的计算机科学家——拥有斯坦福大学的数学学士学位和计算机科学硕士学位本科,但她的论文工作迟迟未能完成。由于自己是实验室中唯一的一名女性,她感到有些孤独。而李飞飞来到斯坦福以后,情况立马发生了变化。卢萨科夫斯基说道,李飞飞帮助她学习到了研究成功所需的一些技能,也帮助她建立起了自信心。她现在是普林斯顿大学的计算机科学助理教授。
4年前,卢萨科夫斯基完成博士学位的时候,她请求李飞飞帮助创建一个旨在激发女生对人工智能的兴趣的夏令营。李飞飞立即答应了她,她们把志愿者召集在一起,并发布公告呼吁高中二年级的学生参加。在短短一个月内,她们收到了多达200份的申请,尽管报名名额只有24个。两年后她们扩张了该项目,成立非营利组织AI4All来将未被充分代表的年轻群体——包括女生、有色人种和经济条件不佳的人——带到斯坦福大学和加州大学伯克利分校的校园。
AI4All如今的发展规模,其位于加州奥克兰市中心Kapor Center小小的共享办公室已经快容纳不下了。它目前在6所大学有夏令营。去年,新推出的卡内基梅隆大学夏令营有20个报名名额,但申请人数多达900人。有位AI4All学生使用计算机视觉来检测眼疾。另一位学生利用AI编写程序来按照紧迫性给911急救电话排序;她的祖母去世了,原因就是救护车没能及时到达。这似乎证明,个人视角可以给未来的人工智能工具产生影响。
在斯坦福大学人工智能机器人实验室的丰田人力支持机器人
在谷歌遭遇Maven军事项目事件
在斯坦福大学运营人工智能实验室3年以后,李飞飞于2016年离开,加入谷歌出任该公司的企业计算业务谷歌云(Google Cloud)AI的首席科学家。她想亲身了解业界是如何运作的,同时也想看看接触急于部署新工具的客户是否会改变她的跨学科研究的范围。像Facebook、谷歌和微软这样的科技巨头悉数砸大钱发展人工智能,以期利用该项技术来更好地发展自身的业务。企业拥有的数据也通常比高校更多更好。对于人工智能研究员而言,数据就是燃料。
在谷歌,李飞飞最初的经历很令人兴奋。她接触到了将她的科学成果公司应用于现实世界的企业。她主导了面向公众的人工智能工具的推出,那些工具让任何人不必编写任何的代码就能创建机器学习算法。她在中国开设了一个新的实验室,帮助塑造AI工具,以期改善卫生保健。她在达沃斯世界经济论坛上发表讲话,期间还接触到一些国家领导和大明星。
然而,在一家私企工作也带来了新的压力和不适感。去年春天,李飞飞卷入了谷歌与美国国防部的Maven项目合同争议当中。该项目使用AI来解读视频图像,帮助无人机袭击目标;据谷歌称,那是“利用人工智能进行低分辨率物体识别”,“拯救生命是首要目的”。不过,很多员工都强烈反对他们的工作成果被用于军用无人机,大约4000人签署了一份请愿书,要求公司“制定明确的政策来声明,无论是谷歌还是承包商都不得打造用于战争的技术。”有几个员工辞职以示抗议。
虽然李飞飞没有直接参与该项目,但她所在的部门被指负责项目的执行。在她所撰写的似乎是为了帮助公司避免难堪局面的电子邮件被泄露给《纽约时报》以后,她在公众舆论中也备受争议。大家觉得此事令人困惑,因为她被业界视作人工智能伦理学的象征性人物。事实上,在舆论哗然之前,她是认为该项技术是“无害的”,她没有想到它会引起员工如此强烈的不满。
但李飞飞有认识到该事件为什么会引发轩然大波:“不完全是因为事情本身,是因为那个时间点——大家对于我们的责任有一种集体紧迫感,AI成为了新兴力量,硅谷需要展开这样的对话。这些问题Maven似乎都有触及。”她说道,“不作恶”不再是一个具有说服力的口号。
在谷歌宣布不会续签Maven项目合同以后,这场风波才平息。谷歌的科学家和高管团队包括李飞飞在内还撰写了公开的指引,承诺谷歌的人工智能研究会聚焦于打造造福社会的技术,避免让它的工具出现偏颇,并避免技术最终可能会伤害到人的情况。李飞飞一直在准备回到斯坦福大学,但她觉得指引的完成极其重要。“我认为,认识到每个组织有一套原则和负责任的审查过程十分重要。你知道,本杰明·富兰克林(Benjamin Franklin)在《宪法》出炉时说过,它可能不是完美无缺的,但它是我们目前能做到的最好的一个版本。”她说,“人们还会有不同意见,看法不一的人也还是可以继续进行对话交流。“她说,该指引发布的时候,是她一年中最快乐的日子之一:“能亲自参与其中,做出贡献,对我而言意义十分重大。”
回到斯坦福启动新项目
今年6月,笔者到李飞飞位于斯坦福大学校园的家中拜访。我们开始交谈时,她的手机不断收到新短信。她的父母让她将医生给母亲的服药指示翻译成中文,她的父母随时都有可能给她发短信,请求她尽快提供帮助,不管她在谷歌总部开会,在世界经济论坛发表演讲,还是在出席国会听证会期间,她能够在不打断她原来的思路的情况下给予父母回复。
在生活中的很多时候,李飞飞都是在一心二用,在同一时间专注于两件似乎全然不同的事情。她是一位对艺术有着深切感受的科学家,她既痴迷于机器人,也痴迷于人类。
7月末,李飞飞给笔者打来电话问到:“你看到香农·瓦勒尔(Shannon Vallor)的声明了吗?”瓦勒尔是圣克拉拉大学的一位哲学家,主要钻研新型科技的哲学和伦理学,她刚刚签约成为谷歌云的伦理学顾问。李飞飞对此非常支持;她甚至引用了瓦勒尔在华盛顿听证会上的证词,说:“没有独立的机器价值。机器价值就是人类价值。”谷歌的这一任命并非没有先例。其他的公司也已纷纷开始出台实施他们的人工智能软件的用途和谁可以使用它方面的规范。2016年,微软建立了一个内部伦理委员会。该公司表示,由于该委员会提出的伦理担忧,它已经拒绝了与潜在的客户进行生意来往。它也开始在其人工智能技术的使用上实施限制,如禁止部分人脸识别应用。
当我们7月进行交谈时,李飞飞知道她要离开谷歌了,斯坦福大学给她的两年学术休假要结束了。有很多人猜测她离开谷歌是因为Maven项目事件,但是她的说法是,她回斯坦福大学的原因是,她不想失去自己的学术地位。她听上去也很疲惫。她称,在谷歌经历了一个动荡不安的夏天以后,她帮助撰写的伦理指引可谓“黎明前的曙光”。
她渴望在斯坦福大学启动一个新的项目。今年秋天,她和前斯坦福大学教务长约翰·艾切曼第(John Etchemendy)共同宣布成立一个学术中心,致力于融合人工智能和人性的研究,融合自然科学、设计研究和跨学科研究。“作为一门新科学,人工智能领域从未有大范围地尝试让人文学者和社会科学家共同进行研究。”她指出。那些技能一直以来都被视为与人工智能领域没多大的关联性,但李飞飞坚称它们是人工智能未来的关键所在。
李飞飞听上去很乐观。在去年6月的听证会上,她告诉立法者,“我深入思考过目前对人类而言有危险的、有害的工种,比如救火搜救和自然灾难恢复。”她认为,我们不仅要尽可能避免人受到伤害,也要意识到这些恰恰就是技术可带来巨大帮助的工作。
当然,光凭一个学术机构的一个项目,能在多大程度上改变一整个领域呢?但是,李飞飞坚定地说道,她必须得尽其所能地将研究者训练得能像伦理学家那样思考,让他们变得受原则指引,而非受利润指引,让他们能够受到各种不同的背景领域的启发。
在电话里,笔者问李飞飞,她有没有想象过有方法能以不同的方式开发人工智能,也许不会产生任何我们目前看到过的问题。“我觉得很难想象,”她说,“科学进步和创新来自于一代又一代人的枯燥乏味的辛勤工作以及孜孜不倦的尝试。我们花费了一段时间才认识到这样的偏见的存在。我六年前才意识到‘哦,天啊,我们正在进入一个危机当中’。”
在国会山,李飞飞说到,“作为一名科学家,看到还处于相当初期的发展阶段的人工智能科学,我深感卑微。这是一个只有60年历史的科学领域。相比让人类日常生活更美好的经典科学——物理学、化学和生物学——人工智能要走很长很长的路才能兑现它帮助人类的潜力。”她补充说,“有了适当的指引,AI会让生活变得更美好。但没有适当的指引,这项技术就会进一步扩大财富差距,让科技变得更具排他性,且会强化我们花了几代来试图克服的偏见。”李飞飞让我们觉得,现在我们处在人工智能在被发明之后还没有充分发挥影响力的时期。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。