据《纽约时报》报道,OpenAI 目前掩盖了图像中的人脸,并且不允许GPT-4通过图像识别来处理它们。
这对盲人影响很大,他们在“Be My Eyes”实验中使用具有图像增强功能的 GPT-4来获得环境和人的详细描述。对环境的描述仍然可用,但对人物的描述最近已被禁用,并且图像上的面孔变得模糊。
具有图像功能的 GPT-4可以识别名人,例如 OpenAI 首席执行官 Sam Altman,它在 AI 训练中见过很多这样的人的图像。GPT-4不会识别互联网上许多图像中未出现的人。
因此,它的识别和监控能力远不如Clearview AI或 PimEyes 等人工智能系统那么广泛,后者针对这种场景进行了优化,可以根据细节识别图像中的人物。
然而,除了识别之外,OpenAI 在分析人脸时还面临更多问题:例如,即使图像中的人未知,他或她也可能被描述并与错误的性别或情绪状态相关联。
对于数亿用户来说,这可能会导致大量投诉。此外,图像分析据说足够强大,可以绕过常见的验证码系统。
OpenAI 政策研究员桑迪尼·阿加瓦尔 (Sandhini Agarwal) 表示,错误识别也是可能的,例如,模型正确识别了一个人的首席执行官角色,但为该角色分配了错误的名称。
“我们非常希望这是与公众的双向对话。如果我们听到的是,‘我们实际上不想要任何东西’,那我们就非常同意,”阿加瓦尔说。
微软和谷歌也阻止面部识别
谷歌的聊天机器人 Bard 还提供图像分析功能。目前,巴德拒绝就已知和未知人员的图像发表声明,并在没有进一步询问的情况下删除了上传的人员图像。另一方面,谷歌的 Lens 视觉搜索可以识别 Sam Altman 的图像并正确识别他。
微软还将视觉图像搜索集成到 Bing Chat 中。上传人物图像后,Bing Chat 表示“出于隐私原因”该图像将被模糊。然而,聊天机器人将提供如何通过 Google 图片、社交媒体或 TinEyes 找到此人的建议。
评论列表 (条)