近日,苹果公司内部研究团队对20个顶尖AI模型进行了一项有趣的测试,结果令人大跌眼镜。在面对包含干扰信息的简单算术问题时,这些AI的表现竟不如小学生。
测试中,苹果团队使用了这样一个问题:Oliver在连续三天的采摘活动中,分别摘取了不同数量的猕猴桃。星期五他摘了44个,星期六摘了58个,而星期日的采摘数量是星期五的两倍。但在这其中,有5个猕猴桃的个头明显偏小。题目要求计算出Oliver这三天总共摘了多少个猕猴桃。
令人惊讶的是,尽管正确答案应为190个,但大多数AI模型给出的答案却是185个。显然,它们在处理问题时受到了“5个猕猴桃个头偏小”这一干扰信息的影响,错误地将这一信息与总数计算关联了起来。
苹果团队的研究发现,当问题中包含有误导性的信息时,AI模型的表现会显著下降。这表明,这些模型在处理问题时更多地是依赖于训练数据中的语言模式,而非真正理解了数学概念或问题的本质。
这一发现引发了人们对AI智能程度的重新思考。尽管AI在某些领域取得了显著的进展,但这次测试却揭示出它们在处理复杂或含混信息时的局限性。这也提醒我们,在依赖AI技术时,需要更加谨慎地评估其性能和可靠性。
苹果团队的研究并非旨在贬低AI的价值,而是希望为AI的发展提供更为理性的视角。他们指出,单纯地增加数据量或提升计算能力,并不能从根本上解决AI在处理这类问题时的困境。未来,我们需要在AI的训练方法和算法设计上寻求更多的突破和创新。