首页 > 热点资讯内容详情

谷歌内测员工称 Bard 为“病态的骗子”,为追赶 ChatGPT 不顾道德伦理? 2023-04-23 12:14:29

ChatGPT 一经面世就备受追捧,甚至成为各大企业竞相追逐的目标,而一直走在 AI 前沿的 Google 在发布 Bard 后却接连翻车,甚至引来自家员工的吐槽。根据内部讨论的截图,谷歌一位员工称 Bard 是个“病态的骗子”。另一个员工表示 Bard“令人尴尬”。一位员工写道,当他们向 Bard 询问如何降落飞机时,它却给出了导致坠机的建议;另一位员工则表示,Bard 提供的关于潜水的建议“可能会导致重伤或死亡”。

为追赶ChatGPT,将道德伦理置之不顾

在2020年底和2021年初,因为撰写了一篇批评大型人工智能模型(包括谷歌开发的模型)危害的研究论文,谷歌裁掉了公司的两名研究人员 Timnit Gebru 和 Margaret Mitchell。

丑闻发生后,谷歌试图提高其公众声誉。2021年,谷歌承诺,要将研究 AI 伦理道德的团队成员扩大一倍,并投入更多资源评估 AI 技术的潜在危害。然而,在2022年11月,随着竞争对手 OpenAI 的聊天机器人 ChatGPT 的火爆出圈,谷歌高级管理层就发出了“红色警报”。在内部开始要求尽快将生成式 AI 技术集成旗下所有主要产品中。

员工们表示,谷歌的管理层决定,只要把新产品称为“实验”,公众就可以原谅他们的缺点。当月,谷歌人工智能伦理负责人 Jen Gennai 召开了创新小组会议,她表示为了加快产品发布的步伐,谷歌可能有必要做出一些妥协。

谷歌分别为几个重要类别的产品进行打分,看看这些产品是否准备好向公众发布。在儿童安全等一些领域,工程师仍然需要100% 解决潜在问题。在其他领域, Jen Gennai 表示,“我们可能只要到80分、85分,或更高的水平,就可以满足产品发布的需求。”

在一份声明中, Jen Gennai 表示,这不仅仅是她这个层级的决定。在团队做出评估之后,她“列出了潜在风险清单,并将分析结果”升级提交给产品、研究和业务线的高级管理层。她表示,该团队随后判断,“可以通过有限制的实验性发布的形式向前推进,包括继续进行预训练,提高安全围栏,以及做出适当的免责声明”。

在今年2月,谷歌就向公众展示了 Bard。Bard 刚一亮相,就犯了一个事实性错误。这场仓促演示的背后,带来的是信任危机,股价大跌,令谷歌颜面大失。

相关标签: 谷歌内测员工称 Bard 病态的骗子 为追赶

发布评论