北京时间 5 月 25 日消息,ChatGPT 的火爆俨然让 OpenAI CEO 萨姆・阿尔特曼 (Sam Altman) 成了一位大明星。现在,阿尔特曼正在全球巡回演讲,谈论人工智能 (AI) 的好处和适度监管的必要性。然而,一些抗议者认为,阿尔特曼的愿景是危险的。
周三,当阿尔特曼来到英国伦敦大学学院进行演讲时,排队进入拥有 985 个座位的地下礼堂的人从门口往外排,站满了几段楼梯,一直排到街上,然后蜿蜒穿过一个城市街区。在阳光下排队等候的人都在讨论 OpenAI 以及他们使用 ChatGPT 的经历。
在礼堂内,阿尔特曼受到了摇滚明星般的接待。演讲结束后,他被仰慕者团团围住,让他摆出自拍的姿势,并就创业公司建造“护城河”的最佳方式征求意见。“这正常吗?”一位难以置信的记者站在拥挤的人群里向一位 OpenAI 新闻人处理人员问道,回答是:“我们这次旅行所到之处几乎都是这样。”
在伦敦,阿尔特曼重复着熟悉的观点,他指出人们担心 AI 的影响是正确的,但在他看来,AI 的潜在好处要大得多。他再次对潜在监管表示欢迎,但仅限于正确的监管。他说,他希望看到“介于传统欧洲方法和传统美国方法之间的东西”。也就是说,有一些监管,但不要太多。他强调,太多的规定可能会损害小公司和开源运动。
“另一方面,”他说,“我认为大多数人都会同意,如果有人真的攻克了难关,并建立了一个超级智能 —— 不管你想怎么定义它 —— 那么出现一些全球规则是合适的…… 我想确保我们至少像对待核材料一样认真对待这个问题,因为超大规模的系统可以产生超级智能。”
但是与此同时,礼堂外,六个举着标语的年轻人呼吁 OpenAI 放弃开发通用人工智能 (AGI,达到人类大脑同等智慧) 的努力。一名抗议者拿着扩音器指责阿尔特曼有一种弥赛亚情结,为了自我而冒着毁灭人类的风险。弥赛亚情结也叫救世主情结,通过拯救他人使自己获救,通过扮演一种救世主的角色来体会到自己的价值。
抗议者呼吁,OpenAI 和像它这样的公司需要停止开发先进的 AI 系统,以免它们有机会伤害人类。
“听着,也许他在诈骗。我真心希望他是这样,”抗议者之一、牛津大学研究太阳能地质工程和生存风险的学生吉迪恩・富特曼 (Gideon Futerman) 这样评价阿尔特曼,“但如果是这样的话,他是在炒作有足够已知危害的系统。不管怎么样,我们或许应该阻止他们。如果他是对的,他正在构建系统是通用人工智能,那么危险会大得多。”
OpenAI 的批评者认为,这种关于监管超级智能 (也被称为 AGI) 的言论是花言巧语,是阿尔特曼采用的一种方法,旨在转移人们对 AI 系统当前危害的注意力,让立法者和公众分心于科幻场景。
AI Now 研究所的董事总经理萨拉・迈尔斯・韦斯特 (Sarah Myers West) 上周表示,像阿尔特曼这样的人“把问责制放在了未来”。韦斯特认为,相反,人们应该谈论 AI 系统目前造成的已知威胁,从带有种族偏见的面部识别,到错误信息的传播。
阿尔特曼的言论没有说服抗议者。伦敦大学学院政治学和伦理学硕士研究生阿利斯泰尔・斯图尔特 (Alistair Stewart) 表示,他希望看到“对先进系统的某种暂停或中止”,这与 AI 研究人员和埃隆・马斯克 (Elon Musk) 等知名科技人物最近签署的一封公开信所倡导的相同。斯图尔特表示,他并不一定认为阿尔特曼关于 AI 驱动的繁荣未来的愿景是错误的,但“不确定性太多”,不能听凭运气。
斯图尔特说,阿尔特曼在演讲完后出来和抗议者交谈,但这没能改变他的想法。他说,他们聊了大约一分钟,讨论了 OpenAI 的安全方法,包括同时开发 AI 系统及其护栏的能力。
“我聊完后比以前更担心了,”斯图尔特说,“我不知道他掌握了什么信息,让他认为这行得通。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。