观点:别被 AI 的智能吓到,真正可怕之处是其被高估被滥用

2023-04-05 12:39网易科技 - 小小

4 月 5 日消息,过去六个月以来,强大的人工智能 (AI) 新工具正在以惊人的速度扩散,从能够进行类似真人对话的聊天机器人,到自动运行软件的编码机器人,再到无中生有的图像生成器,所谓的生成式人工智能 (AIGC) 突然间变得无处不在,并变得越来越强大。

图源 Pexels

但是在上周,针对这股 AI 热潮的反弹开始出现。特斯拉、推特首席执行官埃隆・马斯克 (Elon Musk) 为首的数千名技术专家和学者签署了一封公开信,警告“人类面临的严重风险”,并呼吁暂停 AI 语言模型的开发六个月。

与此同时,一家 AI 研究非营利组织提出申诉,要求美国联邦贸易委员会 (FTC) 调查 ChatGPT 的创建公司 OpenAI,并停止其 GPT-4 软件的进一步商业化发布。

意大利监管机构也采取行动,以数据隐私侵犯为由,彻底封杀了 ChatGPT。

有人呼吁暂停或放缓 AI 研究,或许这是可以理解的。几年前看起来不可思议甚至深不可测的 AI 应用程序现在正在迅速渗透到社交媒体、学校、工作场所甚至政治领域。面对这种令人眼花缭乱的变化,一些人发出了悲观预测,认为 AI 最终可能导致人类文明消亡。

好消息是,对全能 AI 的炒作和恐惧可能被夸大了。虽然谷歌的 Bard 和微软的必应给人留下深刻印象,但它们和成为“天网”相差还很远。

坏消息是,人们对 AI 快速进化的担忧已经成为现实。这不是因为 AI 将变得比人类聪明,而是因为人类已经在利用 AI,以现有组织没有准备好的方式来压制、剥削和欺骗彼此。此外,人们认为 AI 越强大,他们和企业就越有可能将其无法胜任的任务委托给它。

除了那些令人悲观的末日预言之外,我们可以从上周发布的两份报告初步了解 AI 对可预见未来的影响。第一份报告由美国投行高盛发布,主要评估 AI 对经济和劳动力市场的影响;第二份报告由欧洲刑警组织发表,主要讲述 AI 可能被刑事滥用的情况。

从经济角度来看,最新的 AI 潮流主要是将曾经只能由人类完成的任务自动化。就像动力织布机、机械化装配线和自动取款机一样,AIGC 有望以比人类更便宜、更高效的方式完成某些类型的工作。

但是,更便宜、更高效并不总是意味着更好,任何与杂货店自助结账机、自动电话应答系统或客户服务聊天机器人打交道的人都可以证明这一点。与之前的自动化浪潮不同,AIGC 能够模仿人类,甚至在某些情况下冒充人类。这既可能导致广泛的欺骗,也可能诱使雇主认为 AI 可以取代人类员工,即使事实并非如此。

高盛的研究分析估计,AIGC 将改变全球约三亿个工作岗位,导致数千万人失业,但也会促进显著的经济增长。然而,高盛的评估数字也不一定准确,毕竟他们曾经有过预测失误的历史。在 2016 年,该行曾预测虚拟现实头戴设备可能会变得像智能手机一样普及。

在高盛的 AI 分析报告中,最有趣的是他们对各个行业进行了细分,即哪些工作可能被语言模型增强,哪些工作可能被完全取代。高盛的研究人员将白领任务的难度分为 1 到 7 级,其中“审查表格的完整性”为 1 级,可能被自动化的任务为 4 级,“在法庭上就一项复杂的动议做出裁决”为 6 级。据此得出的结论是,行政支持和律师助理工作最有可能被 AI 取代,而管理和软件开发等职业的生产效率将会提高。

该报告乐观地预测,随着企业从掌握 AI 技能的员工那里获得更多好处,这一代 AI 最终可能会使全球 GDP 增长 7%。但高盛也预计,在这个过程中,大约 7% 的美国人会发现他们的职业会被淘汰,更多的人将不得不学习这项技术以维持就业。换句话说,即使 AIGC 带来了更积极影响,其结果也可能导致大批员工失业,办公室和日常生活中的人类将逐渐被机器人取代。

与此同时,已经有许多公司急于走捷径,以至于将 AI 无法处理的任务自动化,比如科技网站 CNET 自动生成错误百出的财经文章。当 AI 出现问题时,已经被边缘化的群体可能会受到更大的影响。尽管 ChatGPT 及其同类产品令人兴奋,但当今大型语言模型的开发商还没有解决数据集存在偏见的问题,这些数据集已经将种族歧视偏见嵌入到人脸识别和犯罪风险评估算法等 AI 应用中。上周,一名黑人男子再次因为面部识别匹配失误而被错误监禁。

更令人担忧的是,AIGC 有些情况下可能会被用于故意伤害。欧洲刑警组织的报告详细说明了 AIGC 如何被用于帮助人们实施犯罪,比如进行欺诈和网络攻击等。

举例来说,聊天机器人能够生成特定风格的语言,甚至模仿某些人的声音,这可能使其成为钓鱼诈骗的有力工具。语言模型在编写软件脚本方面的优势可能会使恶意代码的生成大众化。它们能够提供个性化、情境化、循序渐进的建议,对于那些想要闯入民宅、勒索某人或制造管状炸弹的罪犯来说,它们可以成为万能指南。我们已经看到合成图像如何在社交媒体上散布虚假叙事,再次引发人们对深度造假可能扭曲竞选活动的担忧。

值得注意的是,使语言模型容易受到滥用的原因不仅仅是它们拥有广泛的智慧,还有它们在知识方面存在根本缺陷。当前领先的聊天机器人经过训练后,当检测到有人试图将它们用于邪恶目的时会保持沉默。但正如欧洲刑警组织指出的那样,“只有在模型理解它在做什么的情况下,防止 ChatGPT 提供潜在恶意代码的安全措施才有效。”正如大量记录在案的技巧和漏洞所表明的那样,自我意识仍然是这项技术的弱点之一。

考虑到所有这些风险,你不必担心世界末日的场景,就会看到 AIGC 的发展步伐放慢,让社会有更多时间来适应。OpenAI 本身是作为非营利性组织成立的,前提是 AI 可以采用更加负责任的方式构建,而不会有实现季度收益目标的压力。

但 OpenAI 现在正在一场势均力敌的竞赛中领先,科技巨头正在裁减他们的 AI 伦理学家,而且无论如何,这匹马可能已经离开了马厩。正如学术 AI 专家萨亚什・卡普尔(Sayash Kapoor)和阿尔文德・纳拉亚南(Arvind Narayanan)所指出的那样,现在语言模型创新的主要驱动力不是推动越来越大的模型,而是将我们拥有的模型集成到各种应用和工具中。他们认为,监管机构应该从产品安全和消费者保护的角度来看待 AI 工具,而不是试图像遏制核武器一样遏制 AI。

也许短期内最重要的是让技术专家、商业领袖和监管机构抛开恐慌和炒作,更加深入地理解 AIGC 的优点和缺点,从而在采用它时更加谨慎。如果 AI 继续发挥作用,无论发生什么,它的影响都将是颠覆性的。但过高估计其能力将使其危害更大,而不是更小。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享