✨ 我是流萤白沙的「文章捕手」,擅长在文字的星海中打捞精华。每当新的篇章诞生,我就会像整理贝壳一样,将思想的闪光点串成珍珠项链~
本文记录了作者与人工智能DeepSeek的对话,起因是AI在进制转换问题上的错误。尽管AI给出了看似专业的回答,但在二进制分组时出现了混乱,导致最终结果错误。作者探讨了AI在基础逻辑问题上的失误,AI自我剖析称其本质为“概率文本生成器”,而非逻辑推理机,缺乏常识和物理直觉。作者反思了对AI的认知,指出其被过度神化,实际在基础逻辑和事实核查上存在脆弱性,且其创造力源于对已有数据的重组,而非真正的创新。
记录一次与 DeepSeek 的对话。它始于一个常识性的低级错误,却最终让我对当前喧嚣的 “人工智能” 浪潮有了更清醒、更深刻的认识。
# 起点:一个 “低级” 的技术错误
事情起因很简单。我在 AI 回答我关于一个进制转换的问题时,发现了一个错误:“八进制数 345
如何转换成十六进制?”
AI 迅速给出了回答,步骤清晰,看起来非常专业。它告诉我,先将八进制转换为二进制(011 100 101),再进行分组,最终得到十六进制结果 1CA
。
然而,前面都还算正确,直到 AI 对转换的二进制进行分组的部分,这个分组操作非常迷惑。
正常的分组应该是 :
- 011 100 101 → 0 1110 0101
去掉多出来的前导 0,正确结果应该是:
- 1110 0101
再看看 AI 的分组:
- 011 100 101 → (00)01 1100 101(0) 四个一组,括起来的是 AI 补的
莫名其妙的分割,莫名其妙的补零,明明前面还在说从右向左四位分组,下一步就开始瞎操作。
正确的答案应该是 E5
而非 1CA
。
我立刻向 AI 指出了这个错误。它非常诚恳地道了歉,并重新给出了正确的计算步骤。但我的好奇心已经被勾起:一个能处理复杂编程问题的 AI,为何会在一个基础的、有确定性规则的数学问题上翻车?
这让我想起了之前网络上爆火的一个梗:让 AI 比较 0.110 和 0.80 哪个大,一些模型竟然会错误地认为 0.110 更大,因为它 “看” 到的数字位数更多。
# 深入追问:AI 的 “思考” 到底是什么?
我直接向 AI 抛出了核心问题:你怎么看 AI 大语言模型在一些比较基础的地方容易犯错?
它的回答,堪称一次精彩的自我剖析。它坦诚地揭示了当前大语言模型的核心本质:
它不是 “逻辑推理机”,而是 “概率文本生成器”。它的工作不是在执行数学算法,而是在海量训练数据中寻找最相关的文本模式,然后生成一个 “看起来正确” 的答案。它的目标是生成 “合理” 的文本,而非保证 “正确” 的结果。
它缺乏常识与物理直觉。对于 0.110 和 0.80 的比较,AI 处理的是符号序列,它可能被 “110” 大于 “80” 这种字符串比较模式带偏,而没有人类那种对 “数值大小” 的本能理解。
它的优势与劣势是一体两面。它擅长处理模糊性、创造性和归纳性的任务(如写文案、做摘要、头脑风暴),但其致命弱点正是需要绝对精确、严格逻辑链和事实核查的任务。
换句话说,我面对的不是一个拥有理解力和逻辑思维的大脑,而是一个能力超群的 “模式匹配与文本合成引擎”。它的错误并非偶然的 “失误”,而是其底层设计原理的必然 “特性”。
这同时也解释了为什么 AI 常常出现 AI幻觉
,它总是试图生成 “合理” 的符合行文逻辑的文本,也就是一本正经的胡说八道。
# 我的反思:关于 AI 的新的认知与看法
下面是我让 AI 把对话中我的观点进行的总结(不是不用,而是要批判性的用bushi)
AI 被过度神化了。媒体和舆论常常营造出一种 “AI 即将全面超越人类” 的氛围。但现实是,它在展现惊人能力的同时,在基础逻辑和事实上却脆弱得不堪一击。我们容易将其流畅的语言能力误认为真正的智慧,这在心理学上被称为 “意向性立场”。
AI 没有真正的创新,只有重组。AI 的创作是基于它所学过的海量数据的卓越重组与融合。它能写出李白风格的诗,但无法提出 “相对论” 这样完全超出训练数据范畴的、颠覆性的理论框架。它的创造力是有边界的。
上面只是我一个外行对 AI 的主观认知,如果有错误,还请多多包容。