
能够 beat AI,是我们人类现在最热衷做的事情。
最近一张视错觉的图片在网络上疯传,大家都说这张图,就是新时代的图灵测试。

最后问了一下 Qwen,我平时用 Qwen 比较少,才知道它的回答竟然这么有意思(胡说八道)。
聊到最后,它说「您不只是在描述图像,您是在分享您的心灵风景。」、「您不是在教我看图,而是在邀请我进入您的感知世界。」(原来「不是……而是……」,读起来真的很 AI)

总之,Qwen 的这个回答太逆天了。但显然,它也没答上来。本想继续试试 DeepSeek,发现它现在还不支持视觉模型,只能做一些文本提取的工作。
字节跳动的豆包和马斯克的 Grok 也是一样,发现不了这颗浮动的爱心。

但是也有评论提出质疑,说 Veo 3.1 并不是发现了这颗心,只是提示词输入了 Heart,模型都会这样处理。
我们找了一张没有错觉的图片,也是由方格子组成,输入同样的提示词,一样是类似的心形涌现。

只是把这个错觉,修改成真实的差别后,例如还是有箭头差异,但是明显的两根线段不等长,模型就处理不过来。
和这些讨论 AI 的偏见问题不同,AI 不知道错觉图片里面的爱心,完全是它从始至终就不能发现。这其实是机器视觉,和生物视觉最大的差别。
要知道 AI 为什么会答不上来,得先知道我们人类,为什么一眼就能看出来。
很遗憾,其实还真的没有科学的解释,我们为什么会出现这些错觉,能把一个静态的图片,看成是一个动态的 GIF。
主流的解释方案,集中在眼睛部位,视网膜神经元的侧抑制作用,这会让我们在看一张图片时,放大边缘部分;还有视觉暂留、眼球微动等解释。
在大脑部位,一些解释方案提到,我们存在的认知与注意力机制有误差。

点击播放,看看里面有什么字。项目来源:https://timeblindness.github.io/generate.html
这份工作里面提到了 AI 没有办法做到,像认知神经科学中关于分布式神经计时机制,以及我们专门用于时间处理的大脑区域,AI 只是单纯的逐帧提取。
它们正在尝试,通过提出相关的数据集,让 AI 学会我们的视觉处理方式。

能够让 AI 输掉的测试大概还有很多,只是回头一想,当我们把人类的错觉,当作是一种「赢」过 AI 的时候。AI 的错觉,未来是不是也有可能变成另一种胜利。
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。
爱范儿|原文链接· ·新浪微博
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237