歧视、造假、思维控制:人工智能在道德面前急踩刹车
北京时间 9 月 9 日上午消息,据报道,去年 9 月,谷歌的云计算部门考虑使用人工智能帮助一家金融公司决定向谁借钱。
经过数周的内部讨论后,他们拒绝了客户的提议,认为该项目在道德上过于冒险,因为人工智能技术可能会在种族和性别等因素上延续偏见。
自去年年初以来,由于担心对文化因素不够敏感,谷歌还放弃了分析情感的新型人工智能功能,微软也限制了模仿声音的软件,IBM 则拒绝了客户对高级面部识别系统的请求。
根据对这三大美国科技巨头人工智能伦理负责人的采访,所有这些技术都是公司的高管小组或其他领导人亲手干预的。
这是媒体首次披露他们针对这些技术行使的否决权和审议过程,这也反映出整个行业涌现出一股新生力量,可以在追求利润丰厚的人工智能系统与加大社会责任考量之间达成平衡。
“有机会,也有伤害,我们的工作是最大限度地增加机会,并最大限度地减少伤害。”特雷西・皮佐・弗雷 (Tracy Pizzo Frey)说,他是谷歌云的两个道德委员会成员,还是谷歌人工智能社会责任负责人。
但判断起来并非易事。
例如,微软的首席人工智能责任官娜塔莎・克兰普顿(Natasha Crampton)表示,微软的语音模仿技术可以让聋哑人重新“发声”,但同时也会加大政治深度造假等风险,因此必须在二者之间找到平衡点。
激进人士表示,可能对社会产生广泛影响的决定不应单独在企业内部决定。他们认为,道德委员会不可能做到真正独立,他们的公开透明度受到竞争压力的限制。
欧洲公民自由联盟的宣传负责人贾斯查・加拉斯基(Jascha Galaski)认为外部监督是未来的趋势,美国和欧洲政府确实正在为这个刚刚起步的领域制定规则。
如果企业的人工智能伦理委员会“真的变得独立透明 —— 这都是非常乌托邦主义的 —— 那可能好于任何其他解决方案,但我认为这不现实。”加拉斯基说。
两家公司表示,他们欢迎对人工智能的使用方式进行明确监管,这对于客户和公众的信心都至关重要。从这一点来讲,这与汽车安全规则类似。他们说,在具体行事过程中充分考虑各种责任,也符合他们的经济利益。
然而,他们希望任何规则都能足够灵活,从而跟上创新步伐及其造成的最新困境。
IBM 表示,该公司的人工智能伦理委员会正在考虑许多复杂问题,包括如何监管一个新兴领域:将计算机与大脑相连的植入物和可穿戴设备。
IBM 首席隐私官克里斯蒂娜・蒙哥马利(Christina Montgomery)表示,这种神经技术可以帮助残疾人控制身体运动,但也存在许多隐忧,例如黑客有可能借此操纵人的思想。
情绪识别
科技公司承认,就在 5 年前,当他们刚刚推出聊天机器人和照片标记等人工智能服务时,几乎没有任何道德保障,只能通过后续更新解决滥用问题或有偏见的结果。
但随着人工智能因为失败而面临越来越多的政治和公众审查,微软(2017 年)、谷歌(2018 年)和 IBM(2018 年)相继成立了道德委员会,从一开始就新服务进行审查。
谷歌表示,去年 9 月,当一家金融服务公司认为人工智能比其他方法更适合评估人们的信用时,它便陷入了“放贷困境”。
该项目似乎非常适合谷歌云,谷歌的人工智能技术有助于检测异常交易,因而吸引了德意志银行、汇丰银行和纽约梅隆银行等客户。
谷歌云预计基于人工智能的信用评分可能会成为一个每年价值数十亿美元的市场,他们希望在其中站稳脚跟。
然而,皮佐・弗雷透露,该部门的道德委员会由大约 20 名负责审查潜在交易的经理、社会科学家和工程师组成,他们在去年 10 月的会议上一致投票反对该项目。
该委员会总结道,人工智能系统需要从过去的数据和模式中学习,因此有可能模仿世界各地对有色人种和其他边缘群体的歧视性做法。
更重要的是,在内部被称作“柠檬水”(Lemonaid)的委员会制定了一项政策,规定在此类问题得到解决之前,放弃所有与信誉相关的金融服务交易。
“柠檬水”过去一年驳回了三项类似的提议,其中包括一家信用卡公司和一家商业贷款机构,而皮佐・弗雷和负责销售的同事一直渴望就这个问题制定更广泛的规定。
谷歌还表示,该公司的云计算业务还有第二个名为“冰茶”(Ice Tea)伦理委员会,他们今年正在审查 2015 年发布的一项服务,将人们的照片按喜悦、悲伤、愤怒和惊讶四种表情分类。
在此之前,谷歌总公司的道德委员会,即高级技术审查委员会(ATRC)刚刚作出裁决,禁止推出与识别情感有关的新服务。
谷歌责任创新团队的创始人兼负责人珍・吉耐(Jen Gennai)表示,由十多位高管和工程师组成的 ATRC 明确认定,推断情绪的技术不够敏感,其中一个原因是,在不同文化中,面部线索与具体感受存在着不同的关联。
吉耐和皮佐・弗雷表示,“冰茶”已经封杀了云工具的对 13 种情绪判断,包括尴尬和满足,并且可能很快会完全放弃这项服务,转而采用一种新系统,届时只会对皱眉和微笑等动作进行描述,而不加以解读。
声音和面孔
与此同时,微软人工智能高管克兰普顿表示,微软开发的软件可以利用一个简短的样本重现某人的声音,但该公司的敏感用法委员会花了两年多时间,针对与此有关的道德问题进行辩论,并咨询了公司总裁布拉德・史密斯(Brad Smith)。
她说,该委员会包含人权、数据科学和工程等领域的专家,他们最终为 Custom Neural Voice 今年 2 月全面发布开了绿灯。但对它的使用设置了限制,包括确认受试者的同意声明,并且根据公司的相关政策培训了一个“负责任的人工智能冠军”(Responsible AI Champs)团队。
IBM 的人工智能委员会大约包含 20 名部门领导,在新冠疫情初期,当客户要求定制面部识别技术,以识别发烧情况和面部遮盖物时,他们陷入了困境。
该委员会联席主席蒙哥马利表示,他们拒绝了这个要求,认定人工检查足以减少对隐私的侵犯,因为照片不会被保留到任何人工智能数据库中。
6 个月后,IBM 宣布停止提供面部识别服务。
壮志未酬
为了保护隐私和其他自由,欧盟和美国的立法者希望加大对人工智能系统的控制。
欧盟的人工智能法案有望于明年通过,该法案将禁止在公共场所进行实时人脸识别,并要求科技公司审查高风险应用,例如用于招聘、信用评分和执法的应用。
美国国会议员比尔・福斯特(Bill Foster)曾就算法如何加剧金融服务和住房领域的歧视举行听证会,他表示,针对人工智能出台新的法律将为供应商营造一个公平的市场。
“当你要求一家公司为了社会利益减少利润时,他们会说,‘我们的股东怎么办?怎么不处罚竞争对手?’所以才需要细致的监管,”这位来自伊利诺伊州的民主党人说。
“可能有些领域非常敏感,你会看到科技公司有意不去涉足,直到有明确的规则出现。”
事实上,一些人工智能的进步可能会被搁置,直到企业能在不投入大量工程资源的情况下应对道德风险。
在谷歌云去年 10 月拒绝为金融公司定制人工智能服务后,“柠檬水”委员会告诉销售团队,该部门的目标是有朝一日能开发与信贷相关的应用程序。
谷歌云在发给员工的政策中表示,首先,必须通过研究来打击不公平的偏见,以此匹配谷歌云通过“高度敏感”的技术提高金融包容性的雄心壮志。
“在那之前,我们无法部署解决方案。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。