解散 AI 伦理团队引发外界质疑,微软官方给出解释

2023-05-02 22:47IT之家 - 远洋

IT之家 5 月 2 日消息,微软的人工智能(AI)伦理与社会团队在 2023 年 3 月被解散后,引发了外界的质疑和批评。在 AI 领域频发的丑闻和争议中,微软如何保证其未来的 AI 产品能够被负责任地开发和使用?近日,微软的首席负责任 AI 官 Natasha Crampton 在微软的“议题”博客上发表了一篇文章,解释了微软解散 AI 伦理团队的原因和新的 AI 管理策略。

Crampton 表示,解散 AI 伦理团队是因为“单靠一个团队来负责 AI 的伦理或责任是不够的。”她说,微软采取了与其隐私、安全和无障碍团队相同的方法,即“将负责任的 AI 融入到整个公司”。这意味着微软在每个核心业务部门都有高级人员“负责推动负责任的 AI”,以及“一个由不同技能和角色组成的负责任的 AI‘拥护者’网络,以实现更频繁、更直接的沟通。”

此外,Crampton 还透露,微软目前有近 350 人从事负责任的 AI 工作,其中有 129 人是全职专职,其余的人则将负责任的 AI 作为他们工作的核心部分。在解散 AI 伦理团队后,Crampton 指出,一些团队成员随后被分配到了公司各个部门。然而,该团队的七名成员也在 2023 年初微软裁员 1 万人的行动中被解雇。

近几个月来,AI 领域几乎没有摆脱过丑闻和争议,正是这些担忧导致了外界对微软解散 AI 伦理团队的反对。如果微软缺乏一个专门的团队来帮助指导其 AI 产品朝着负责任的方向发展,人们认为,其将难以遏制其 Bing 聊天机器人所出现的各种滥用行为。微软最新的博客文章无疑是试图缓解公众对这一问题的担忧,微软并没有完全放弃其 AI 努力,而是试图确保公司各个团队都能与负责任 AI 方面的专家保持定期联系。

然而,毫无疑问,关闭其 AI 伦理与社会团队并没有给微软带来好名声,在这个话题上让公众放心还有很长的路要走。事实上,就连微软自己也认为 ChatGPT 应该受到监管。IT之家此前报道,就在昨天,“AI 教父”Geoffrey Hinton 离开了谷歌,并表示他对 AI 扩张的速度和方向感到非常不安。微软可能并没有忽视有关 AI 伦理开发方面的担忧,但其新策略是否正确,还有待观察和验证。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      一大波评论正在路上
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享