消息称谷歌警告员工不要向生成式 AI“泄密”,也不要直接用其写代码

2023-06-15 18:37IT之家 - 江程(实习)
感谢IT之家网友 HH_KK 的线索投递!

IT之家 6 月 15 日消息,据路透社报道,尽管谷歌是生成式 AI 最坚定的支持者之一,但该公司正在警告员工注意聊天机器人的使用。

▲ 图源 Pixabay

知情人士称,谷歌母公司 Alphabet 已建议员工不要将其机密材料输入给 AI 聊天机器人,同时该公司还提醒 IT 工程师避免直接使用聊天机器人生成的计算机代码

谷歌对此回应称,其聊天机器人 Bard 可以提出不受欢迎的代码建议,但它仍然对 IT 工程师们会有所帮助。谷歌表示其目标是对生成式 AI 的技术局限性保持足够的透明度。

分析人士指出,这些担忧表明谷歌希望避免生成式 AI 对公司的商业化运作造成损害,这种谨慎的态度也体现出对生成式 AI 的使用限制正越发成为某种具有共性的企业安全标准。

IT之家此前报道,包括三星、亚马逊、苹果等大型科技企业对员工使用生成式 AI 都设置了一定的限制,以确保不会对公司运营造成风险。

支持 OpenAI 的微软则拒绝评论是否已全面禁止员工将机密信息输入 ChatGPT 这样的公共 AI 应用。但微软消费者业务首席营销官 Yusuf Mehdi 曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。

根据 Fishbowl 对包括美国顶级公司员工在内的近 12000 名受访者的调查,截至今年 1 月,约 43% 的专业人士在工作中使用了 ChatGPT 或其他生成式 AI 工具,而且通常都没有告诉他们的老板。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享