DEV Community

DoctorLai
DoctorLai

Posted on

ChatGPT在数学和逻辑方面表现不佳

一题简单的数学逻辑题: 一口井10米深,一只青蛙在井底,它白天往上爬3米,晚上往下掉2米,请问青蛙几天能爬出去?

ChatGPT 不在行这种题,简直就是糊说八道 睁眼睛说瞎话。现在的人工智能基本上是基于大数据+机器学习也就是模式识别 Pattern Matching, 海量的数据进行训练,如果数据本身就有问题(比如错误或者有偏好Bias),那么通过学习得到的答案就有可能有问题。

这题的正确答案是8天,青蛙7天爬7米,第8天的时候往上3米就上了10米了。

[caption id="attachment_61307" align="alignnone" width="836"]ChatGPT 对数学和逻辑题不是很在行 ChatGPT 对数学和逻辑题不是很在行[/caption]

**ChatGPT: 这道题可以用数学模型来解决。 设青蛙爬出井口需要x天,则: 第一天:青蛙爬了3米,距离井口还有 10 - 3 = 7 米。 第二天:青蛙爬了3米,距离井口还有 7 + 3 - 2 = 8 米。 第三天:青蛙爬了3米,距离井口还有 8 + 3 - 2 = 9 米。 第四天:青蛙爬了3米,距离井口还有 9 + 3 - 2 = 10 米。 青蛙在第四天爬出井口,因此答案为4天。 因为青蛙在第4天爬出井口,所以它需要爬4天。 **我: 不对,你再好好想想 **ChatGPT: 非常抱歉,我的回答有误。在这个问题中,我们需要注意到青蛙在晚上会下滑2米,这意味着它在每天晚上都会回到之前爬过的位置,也就是说,它需要在第二天重新爬起来,而不是从第一天的位置开始爬。 在这种情况下,我们可以通过以下方式来解决这个问题: 第一天:青蛙爬了3米,距离井口还有 10 - 3 = 7 米。 第二天:青蛙爬了3米,距离井口还有 7 + 3 - 2 = 8 米。 第三天:青蛙爬了3米,距离井口还有 8 + 3 - 2 = 9 米。 第四天:青蛙爬了3米,距离井口还有 9 + 3 - 2 = 10 米。 因为青蛙在第四天爬出井口,所以答案为4天。 因此,青蛙需要爬4天才能从井口爬出来。感谢您指出我的错误,希望这次的回答更加清晰明

ChatGPT是一种自然语言处理技术,它可以帮助人们更好地理解和使用自然语言。它的主要特点是可以根据上下文生成准确的回复,并且可以学习新的语义和语法。尽管ChatGPT在处理自然语言方面表现不错,但是它在数学和逻辑方面表现不佳。

这是因为ChatGPT的核心技术是基于神经网络的,而神经网络本质上是一个非常弱化的技术,它无法处理复杂的数学问题和逻辑问题。神经网络只能处理大量已有数据中出现过的问题,而对于新出现的问题则无能为力。因此,ChatGPT在数学和逻辑方面表现不佳。

此外,ChatGPT也无法很好地处理一些具有抽象性、隐含性或异常性特征的问题。例如:“如何才能成功”这样一个问题就不能很好地由ChatGPT来回应。这是因为ChatGPT无法判断这样一个问题中所包含的含义;而当遇到这样一个具有隐含性特征的问题时,ChatGPT就会显得力不从心。

此外,ChatGPT也无法很好地应对一些异常情况。例如当用户使用不正常、不通顺、不正当或者充满歧义的语句来表达意思时,ChatGPT就会显得力不从心。这是因为它无法理解用户所使用的语句中所包含的意思和内容;而当遇到异常情况时,ChatGPT就会显得力不从心。

总之,尽管ChatGPT在处理自然语言方面表现出众,但它在数学和逻辑方面表现却并不十分出众。原因有三: 首先, ChatGPT依托神经网络技术, 其次, 对于一些具有抽象性、隐含性或异常性的问题, ChatGPT都无能为力; 最后, ChatGPT也无能为力处理一些具有异常性的问题. 由此可以看出, ChatGPT在数学和逻辑方面表现不佳.

ChatGPT 每次给的答案都不完全一样,因为并不是基于逻辑处理的,经过海量复杂的神经网络的训练,ChatGPT在Prompt Engineering这方面取得了不错的成就。

同样的问题,用英文问 (How ChatGPT Solves a Math Puzzle?),ChatGPT的智商明显就强了一些,至少在指出错误的时候第二次给出的答案就比较靠近正确答案了。看来互联网上英文的资料还是最多,训练数据的质量要好过其它语言。

博客: ChatGPT在数学和逻辑方面表现不佳

Top comments (0)