一篇挺有意思的论文,专门评论辩论了人类和大年夜说话模型(LLM)在断定方法上的差别。
论文原文:osf.io/preprints/psyarxiv/c5gh8_v1
论文指出,在 “怎么知道、怎么做断定” 这件事上,人和 LLM 其实有很大年夜不合。固然 LLM 给出的谜底经常看起来和人类的断定很像,但这种 “像” 只是外面,背后的断定机制完全不是一回事。
回想 AI 的成长,从最早依附规矩和推理的 “符号 AI”,到后来按关键词筛选信息的体系,再到如今这种大年夜范围生成式的 Transformer 模型,LLM 其实并不是那种 “懂得了再形成不雅点” 的存在。它更像是在宏大年夜的语料库中学会了说话的规律,然后在高低文里 “补全” 下一句话。用稍微技巧一点但也直不雅的说法,LLM 的工作方法更像是在一个高维的 “词语连接收集” 里,根据概率选出下一个词,而不是像人那样基于对世界的信念来做断定。
6. 元认知断层:人类可以发明本身的不肯定、修改缺点,甚至暂停断定,LLM 没有元认知,必须赓续输出内容,这也是 “幻觉” 难以避免的根来源基本因之一。

1. 扎根断层:人类的断定是建立在感官、身材体验和社会经验之上的,而 LLM 只能靠文本,经由过程符号间接地 “重建” 意义。
2. 解析断层:人类懂得场景是经由过程整合感知和概念,LLM 则是把文本分词、标记,获得的构造固然便利处理,但语义其实很薄弱。
3. 经验断层:人类靠情景记忆、直觉物理、心理和习得概念来断定,LLM 只能依附嵌入(embeddings)里编码的统计接洽关系。
论文里,两位作者把人类和 LLM 的断定流程逐项比较,发明两者在七个关键环节上有着根本的差别:
4. 念头断层:人类受情感、目标、价值不雅和进化念头影响,LLM 则没有内涵偏好、目标或情感。
5. 因果断层:人类善于用因果模型、反事实推理来思虑,LLM 不会主动构建因果解释,而是偏向于用表层的相干性来 “拼接” 谜底。
7. 价值断层:人类的断定会反应身份认同、道德和实际短长关系,LLM 只是在猜测下一个词,没有真正的价值断定或义务感。
作者还提到,尽管有这些断层,大年夜家照样很轻易被 LLM 的流畅和自负所 “说服”,从而产生过度信赖。这背后其实是一种 “可托度误差”,也就是用漂亮的说话包装出来的器械看起来就更可托。
他们把这种现象称为 Epistemia(一种熟悉幻象或说话性认知错觉):我们经常会被说话的流畅性误导,认为本身已经 “知道了”,但其实本质上并没有真正懂得。
针对 Epistemia,论文还提出了三种应对策略:熟悉性评估(epistemic evaluation)、熟悉性治理(epistemic governance)和熟悉性素养(epistemic literacy)。
来源:https://weibo.com/2192828333/QjQJM4J22


发表评论 取消回复