最近,一个有趣的逻辑问题在网上火了:
我左手有一只鸡,右手有一只鸭,我左右手开始互换,互换10581次后,我的左手里拿着什么?
答案似乎很简单,但不同的人工智能模型却给出了不同的答案:
百度文心一言:鸭OpenAI ChatGPT:鸡Google Gemini:鸡究竟谁的逻辑出了错?
中文语言回复只有文心一言回答正确,chatGPT和Gemini都是回答错误。
文心一言:chatGPT:Gemini:我猜测chatGPT和Gemini都是先将中文机翻成英文,然后再去解析语义,接下来先将问题翻译成英文,然后再去做测试。
I have a chicken in my left hand and a duck in my right hand, and I start switching between my left and right hands, and after 10,581 swaps, what do I have in my left hand?
结果可以看到,文心一言、chatGPT以及Gemini结果都是鸭,都回答正确。
文心一言:chatGPT:Gemini:从测试结果分析,后面两者都存在“语义障碍”。它们可能会首先将中文翻译成英文,然后再进行逻辑推理。因此,当问题涉及语义推理时,这种机械化的转换可能会导致误差。
人工智能模型虽然强大,但仍然存在局限性。在某些情况下,它们还是可能会犯错。