6 月 4 日消息,随着人工智能技术的快速发展和普及,很多行内人士担心不加限制的人工智能可能会导致人类灭亡。但专家们表示,人工智能带来的最大负面影响不太可能是科幻电影中的核战场面,反而更有可能是虚假信息、操纵用户等造成的社会环境不断恶化。
以下是翻译内容:
近几个月来,业内愈发担心人工智能。就在本周,300 多名行业领袖发表了一封联名公开信,警告人工智能可能导致人类灭绝,对待人工智能应该像“疫情和核战”那样加以严肃对待。
像“人工智能末日”这种术语总会让人联想到科幻电影中机器人统治世界的画面,但实际上任由发展的人工智能会带来哪些后果?专家们说,现实可能不像电影情节那样跌宕起伏,不会是人工智能启动核弹,而是社会基础环境逐渐恶化。
加州大学伯克利分校人工智能安全计划主任杰西卡・纽曼(Jessica Newman)说:“我不认为人们该担心人工智能会变坏,或者人工智能会有某种恶意欲望。”“危险来自一些更简单的东西,那就是人们可能会给人工智能编程,让它做有害的事情,或者我们最终会把天生不准确的人工智能系统整合到越来越多的社会领域,从而造成伤害。”
这并不是说我们不应该担心人工智能。即便末日场景不太可能发生,强大的人工智能也有能力用错误信息问题不断加剧、操纵人类用户以及给劳动力市场带来巨大变化等形式破坏社会稳定。
虽然人工智能技术已经存在了几十年时间,但像 ChatGPT 这种语言学习模型的普及加剧了人们长期以来的担忧。纽曼说,与此同时,科技公司争先恐后将人工智能应用到他们的产品中,相互开展激烈竞争,带来了一堆麻烦事。
她说:“我非常担心我们眼下走的道路。”“对于整个人工智能领域来说,我们正处于一个特别危险的时期,因为这些系统虽然看起来很特别,但仍然非常不准确,并且存在固有漏洞。”
接受采访的专家们表示,他们最担心的有不少方面。
许多领域早已经启动了所谓的人工智能变革。机器学习技术支撑着社交媒体新闻推送算法,长期以来,人们一直指责这种技术加剧了固有偏见和错误信息等问题。
专家们警告说,随着人工智能模型的发展,这些尚未解决的问题只会进一步加剧。最糟糕的情况可能影响到人们理解事实真相和有效信息,从而导致更多基于谎言的事件发生。专家们表示,错误和虚假信息的增加可能引发进一步的社会动荡。
“可以说,社交媒体的崩溃是我们第一次遇到真正愚蠢的人工智能。因为推荐系统实际上只是简单的机器学习模型,”数据科学平台 Anaconda 首席执行官兼联合创始人 Peter Wang 说。“我们真的彻底失败了。”
Peter Wang 补充说,这些错误可能导致系统陷入永无止境的恶性循环,因为语言学习模型也是在错误信息的基础上进行训练,为未来模型创造的又是有缺陷的数据集。这可能会导致“模型自相残杀”效应,未来模型会因为过去模型的输出放大偏差,并永远受到影响。
专家们称,不准确的错误信息和容易误导人们的虚假信息都被人工智能放大了。像 ChatGPT 这种大语言模型很容易出现所谓的“幻觉”现象,反复捏造杜撰虚假信息。新闻行业监督机构 NewsGuard 的一项研究发现,几十个完全由人工智能撰写材料的在线“新闻”网站中有许多内容都存在不准确之处。
NewsGuard 联合首席执行官戈登・克罗维茨 (Gordon Crovitz) 和史蒂文・布里尔 (Steven Brill) 表示,这种系统可能会被坏人利用,故意大规模传播错误信息。
克罗维茨说:“一些恶意的行为者可以制造虚假陈述,然后利用这个系统的倍增效应来大规模传播虚假信息。”“有人说人工智能的危险被夸大了,但在新闻信息领域,它正在产生惊人影响。”
全球非营利性机构 Partnership on AI 的丽贝卡・芬利 (Rebecca Finlay) 表示:“就更大规模的潜在危害而言,错误信息是人工智能最有可能对个人造成伤害的方面、风险也最高。”“问题是我们如何创造一个生态系统,让我们能够理解什么是真实的?”“我们又该如何验证我们在网上看到的东西?”
虽然大多数专家都表示,错误信息是最直接和最普遍的担忧,但关于这项技术可能会在多大程度上对用户的思想或行为产生负面影响,还存在不少争议。
事实上,这些担忧已经带来了不少悲剧。据报道,比利时一名男子在得到聊天机器人的鼓动后自杀身亡。还有聊天机器人告诉用户和他的伴侣分手,或者让有饮食失调问题的用户减肥。
纽曼说,从设计上讲,因为聊天机器人是以对话的形式与用户交流,可能会产生更多的信任感。
“大语言模型特别有能力说服或操纵人们在潜移默化中改变他们的信念或行为,”她说。“孤独和心理健康已经是全世界的大问题,我们需要观察聊天机器人会对世界产生何种认知影响。”
因此,专家们更担心的不是人工智能聊天机器人会获得感知能力并超越人类用户,而是它们背后的大语言模型可能会操纵人们给自己造成原本没有的伤害。纽曼说,那些以广告盈利模式运作的语言模型尤为如此,它们试图操纵用户行为,从而尽可能长时间地使用平台。
纽曼表示:“在很多情况下,给用户造成伤害也不是因为他们想要这样做,而是系统未能遵循安全协议造成的后果。”
纽曼补充说,聊天机器人的类人特性使用户特别容易受到操纵。
她说:“如果你和一个使用第一人称代词的东西交谈,谈论它自己的感受和所处情境,即使明知道它不是真实的,仍然更有可能引发一种它像人类的反应,让人们更容易想要相信它。”“语言模型让人们愿意信任它,把它当成朋友,而不是工具。”
长期存在的另一个担忧是,数字自动化将取代大量人类工作。一些研究得出结论,到 2025 年,人工智能将在全球范围内取代 8500 万个工作岗位,未来将取代超过 3 亿个工作岗位。
受人工智能影响的行业以及岗位非常多,有编剧也有数据科学家。现如今,人工智能可以像真正的律师那样通过律师考试,还能比真正的医生更好回答健康方面的问题。
专家们发出警告,人工智能的崛起可能会导致出现大规模失业,从而造成社会不稳定。
Peter Wang 警告说,大规模裁员在不久将来就会发生,“许多工作岗位都面临风险”,而且几乎没有任何计划应对后果。
他说:“在美国,没有关于人们失业时如何生存的框架。”“这将导致很多混乱和动荡。对我来说,这是由此产生的最具体、最现实的意外后果。”
尽管人们越来越担心科技行业和社交媒体带来的负面影响,但在美国,监管科技行业和社交媒体平台的措施却很少。专家们担心人工智能也是如此。
Peter Wang 说:“我们许多人担心人工智能发展的原因之一是,在过去的 40 年时间里,作为一个社会,美国基本上放弃了对科技的监管。”
尽管如此,近几个月来美国国会已经有了一番积极动作,举行听证会,让 OpenAI 首席执行官萨姆・奥尔特曼 (Sam Altman) 就应该实施的监管措施作证。芬利表示,她对这些举措感到“鼓舞”,但在制定人工智能技术规范以及如何发布方面,还需要做更多工作。
她说:“很难预测立法和监管部门的反应能力。”“我们需要对这种水平的技术进行严格审查。”
尽管人工智能的危害是行业内大多数人最关心的问题,但并非所有专家都是“末日论者”。许多人也对这项技术的潜在应用感到兴奋。
Peter Wang 说:“实际上,我认为新一代人工智能技术真的可以为人类释放出巨大的潜力,让人类社会以更大规模繁荣起来,要超出过去 100 年甚至 200 年的水平。”“实际上,我对它的积极影响非常非常乐观。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。