谷歌警告员工使用聊天机器人时要小心,包括自家的 Bard
IT之家 6 月 19 日消息,据路透社报道,四名知情人士称,谷歌母公司 Alphabet 在向全球推广其聊天机器人 Bard 的同时,也提醒员工在使用聊天机器人时要小心,包括其自家的 Bard。
上述知情人士称,Alphabet 已经建议员工不要将其机密材料输入人工智能聊天机器人,谷歌证实了这一消息,并称这是保护信息的长期政策。
其中一些人还称,Alphabet 还提醒其工程师避免直接使用聊天机器人生成的计算机代码。谷歌对此表示,Bard 可能会给出不合适的代码建议,但它仍然可以帮助程序员。谷歌还表示,其旨在对其技术的局限性保持透明。
谷歌的谨慎态度也反映了企业安全标准的发展趋势,即警告员工不要使用公开可用的聊天程序。世界各地越来越多的企业对 AI 聊天机器人设置了防护措施,其中包括三星、亚马逊和德意志银行。据报道,苹果也是如此,但该公司没有回应置评请求。
根据社交网站 Fishbowl 进行的一项调查,在今年 1 月份有 43% 的专业人士在使用 ChatGPT 或其他 AI 工具,其中很多人没有告诉他们的老板。这项调查涵盖了近 1.2 万名受访者,其中包括来自美国顶级公司的一些员工。
IT之家注意到,目前谷歌正在向 180 多个国家推广 Bard,谷歌在 6 月 1 日更新的隐私声明中也表示:“不要在你的 Bard 对话中包含机密或敏感信息。”
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。