把概率统计用在 AGI 工程上会有什么问题
有个微信群,20 人,专门讨论 OpenNARS 相关的技术,有学生时常问一些刁钻的问题,博士生导师通常并不直接回答问题,而是给出一篇以前写的论文作为解答。
这说明一些问题:
- 导师写的很多论文,连学生们都没读过,更别说外面的研究者,一方面是导师的知识体量大,一方面是学生学不过来。
- 有些论文太艰深,读了容易忘。
- 经典论文需要经常翻出来复习。
今天单独讲一篇论文,虽然我也没完全读懂,但尽量把我理解到的,用我的语言简单转述一下,肯定有理解偏差,所以建议你读原文,原文链接是:
《Issues in Applying Probability Theory to AGI》
下面是我对论文的理解:
概率学、统计学用在 AGI 中可能会产生下面这些偏误
公理和概率统计期望对“真理”求极限(公理认为存在永恒不变的命题,且概率分布有极限)
因为要求极限,所以需要收集海量的证据,但他们高估了收集所有证据的能力,做了不切实际的假设(公理假设自己具有收集宇宙中所有相关证据的能力,但实际资源不足)
忽略意外情况(公理的覆盖范围不足)
试图将 多层次、多种颗粒度 的关系整合到单一的平均计算中
把不可知的部分简单的归结为随机(公理喜欢画圈圈,喜欢设置理想环境,故意忽略现实中相关但他们无法解释的部分)
主观地给某个陈述分配概率值或信任度,但并没有说明其来源(公理的前提假设太迷幻)
也因为以上原因,概率统计系统是被动的,不能通过概率统计自己获得背景知识,只能依靠外部对其进行填鸭。
某些支持概率统计的人也知道未来是 不确定的,但却一口咬定某个概率的极限是 确定的,这显然矛盾。
在 AGI 领域,概率统计也不全是错,其逻辑解释有可取之处,即,信念基于历史证据,但 AGI 的信念和主流概率统计依然有很大差别,比如,AGI 的每个单独的信念的概率分布是独立的,而主流的实现是黏连的。
总结起来说,概率 就是 公理的变体,对立面就是非公理,或者说,非公理可以包容公理化,但反过来则不行。