Photo by JJ Ying on Unsplash,本文来自微信公众号: 返朴(ID: fanpu2019) ,撰文:王培(美国天普大学计算机与信息科学系)
对一个系统 (不论是人还是机器) 中的概念 (如“鸟”) 来说,其主要语义问题是如何确定其意义,但对陈述 (如“鸟会飞”) 来说,除了意义的问题之外还有真值的问题。具体说来,主要是
1) 真值可能取那些值?
2) 真值刻画了陈述的什么性质?
在这些问题上,传统的观点是众所周知的:
1) 每个陈述非“真”即“假”。
2) 真值刻画了陈述是否符合事实。
这个“符合论”真理观和前文介绍的“指称论”意义观一起构成了“模型论语义学”的基础。这种语义学及其变种在逻辑学中占统治地位,并被大量人工智能系统所采用。按照这种观点,如果一个系统中有一个符号化语句R(E,S),则在其中符号获得指称之前,该语句没有意义。如果E指“地球”,S指“太阳”,R(x,y)指关系“x绕y转动”,则R(E,S)有意义且为“真”。如果R和E指称不变,S指“月亮”,则R(E,S)有意义但为“假”。在哲学里,类似的观点可见于实证论、实在论、反映论等关于人类认识的理论中,其特征是强调真理的客观性。一个认识主体 (不论是人还是机器) 可以发现真理,但是不能发明真理。科学知识就是那些已经被证实了的陈述,是“不以人的意志为转移的客观规律”。
尽管这个“客观真理观”源远流长且成就非凡,历史上却也没少遇到来自各方面的挑战,而且这些挑战的来源逐渐从哲学领域扩散到科学领域,并且出现在多个学科之中。
物理学曾经是最强调 “描述世界的本来面貌”的,但量子力学却对这种经典的世界观发起了挑战。一方面,这个理论和实验数据高度吻合,但另一方面,其流行解释却把观察结果和观察者联系了起来。
认知科学从另一个角度得出了类似的结论。一个观察者能直接接收的外部信号取决于其感官,而且感知过程是一个多层抽象过程,其结果不仅取决于收到的外部信号,同时也取决于观察者对此信号的加工方式。在这个过程中,观察者的背景知识、观察动机、心理预期、注意分配、情绪状态等因素都会影响观察结果。我们对于外部世界的认识常常不能被当做世界在我们心灵中的被动“反映”,而应被看作我们在和世界相互作用的过程中的主动构造产物。
这种观点并不否认认识过程中客观性因素。首先,外部世界依然可以被看作独立于观察者的“客观存在”,而且观察者所接收到的外部信号也仍是“不以其意志为转移的”。进一步来说,认知系统内部的概念一般也来源于外部世界中的相对稳定的成分和过程,而非系统自身臆造的。这里的关键是把“世界自身”和“对世界的描述”区分开。前者可以和观察者无关,但后者必定会或多或少地打上描述者的印记。没有一种“上帝的语言”可以描述“世界的本来面目”,所以我们也无法通过“和上帝对笔记”来检验我们信念的正确性。
我们信念的客观性因素的另一个来源是社会性。在个体认知系统通过通讯形成共享信念以获得间接经验的过程中,个体差异被在很大程度上排除了。当我们说科学结论比个人信念“更客观”时,我们是说前者总结了很多人的经验,因而基本摆脱了个人的偏见。但这种“客观”仍然受限于这个群体的共同认识方式,因此只不过是一种“集体主观”。在这里“主观”和“客观” 之别应当被解读成“主人的观点”和“客人们的观点”之别,而非“主体的观点”和“客体的观点”之别,因为客体根本无“观点”可言。这一点在机器人研究中尤为明显。因为机器人有不同于人类的感知运动系统,其对环境的表述不会和人类的描述相同,但这不意味着它就是错的。
实证论的真理观在科学哲学研究中也受到了挑战。因为科学结论大都是关于普遍情形的,一次具体检验的成功不能说明其普遍成立,但一次具体检验的失败却能说明其并非普遍成立。基于这一不对称性,波普尔提出了“科学理论无法证实,但可以证伪”的理论。“证伪主义”产生了广泛的影响,尤其在抨击那些自封为“颠扑不破的真理”和那些似乎什么都说了,但其实什么也没说的“理论”时杀伤力颇大。但在另一方面,“证伪论”本身却面临被科学史“证伪”的尴尬局面。如果我们考察任何研究领域,都不难发现多个相互竞争的理论,而每个都有其尚不能解释的现象。不论在科学研究中还是日常生活中,我们都极少因为发现了一个反例就判定一个一般性陈述为“伪”并抛弃它,尽管可能会减少对它的信任和依赖。
如果“证实”和“证伪”均不可得,还有没有办法得到确定的结论了?似乎唯一的办法是人为地确定它们,并使其免于来自经验的挑战。一个常见情况是使用抽象的约定性前提。一个数学理论中的公理 (比如平面几何中的公设) 是被约定为真的,因此既不需要被证实,也不可能被证伪。基于这些公理,形形色色的定理可以被证明出来。因此定理的“真”实际上是和公理的逻辑一致性。当一个数学理论被应用于一个具体领域时,这种逻辑一致性告诉我们,如果该理论的公理在某个解释下 (即把理论中的抽象概念对应于领域中的具体概念) 可以被接受,那么其所有定理也都应当在相同的解释下被接受。但是即使一个结论是已经被证明了的,这也不意味着它应该在某个特定领域中被接受,因为它所属的理论在该领域中的适用性本身就是可能是有问题的,而在一个抽象理论之外是不能谈“证明”的。当我们听到某个结论已经“被证明了”的时候,我们应当首先检查这个证明的前提及其解释,以此决定是否接受它。
另一个把信念确定化的方式是把它奉为信仰。当然,在汉语中“信念”和“信仰”并没有严格区别,而这里我把它们区分开,是为了用“信仰”特指那些被认知系统本身当成“已经被证实,不可能再被证伪”的陈述。和公理或定理不同,信仰不是抽象的,而是和系统经验直接相联系的,因此无须解释。信仰不被证伪,是因为一旦信仰和其它认识和想法相冲突,系统总是有意识地试图通过各种手段 (如怀疑其它想法、调整概念意义、增加辅助假说等等) 来维护它。从认知的角度来说,信仰的存在为系统提供了稳定性,但一旦系统只有修改信仰才能适应环境变化时,所需的努力以致代价也是巨大的。很多人已经从自己的生活经历中认识到了这一点。
对其它“经验性”信念 (如“鸟会飞”) 来说,如果上述种种办法均不适用,我们还能在什么意义下谈论其“真值”呢?我们还有“证据”。和前面提到的诸位“证字辈同门”相同,证据也是确定真值的常见手段之一,但它的特点是其“非判决性”。和证实、证伪、证明等“一劳永逸”的真值确定方法不同,一个陈述的每个证据都只是对该陈述的真值做一定程度上的贡献,且不排除其它 (相似或相反) 证据的存在可能性。一个“基于证据的真值”所衡量的是陈述与已有证据的一致程度。不像固定的“事实”或“公理”,在一个开放系统中“证据”是逐渐收集到的,而且既可能是正例 (支持该陈述) 也可能是反例 (反对该陈述) 。这就是说“真”是个程度问题,而且这个程度会被系统的经验所修改。
允许陈述有除“真”和“假”之外的其它真值远不是一个新想法,比如有若干种“多值逻辑”引入了“可能真”、“通常真”、“不确定”等真值作为对二值逻辑的扩充。尽管这些逻辑有其适用领域,对人工智能来说它们都太“弱”了,不足以为系统的决策提供支持。当系统比较多种可能性时,证据的量往往是至关重要的,而实现证据量一般可比性的最简单方法就是用数量表示真值。尽管人类知识通常是表达为二值陈述的,允许信念强度在系统的内部感受和外部表达上有不同的精确度仍是有理由的。
基于类似的考虑,有些“非经典逻辑”把真值定义成0和1之间的一个实数,而将“真”和“假”作为其极端情况。这些逻辑系统之间的根本差别是如何解释这个数的意义和来源。模糊逻辑是最明确地以“真假是个程度问题”为口号的,但它一直没说清这个程度测量的是什么,这就导致不同的人以不同的标准来使用它。这样固然是提高了灵活性,但其代价是其结论的“权威性”失去了保障。概率逻辑的想法是让概率论和数理逻辑“强强联合”,但双方在基本预设上的差异让这场“包办婚姻”很难和谐。尤其关键的是这些逻辑都没有把真值完全放在证据的基础上。有些读者可能认为概率可以是完全由已知证据决定的,但经过仔细的概念分析可以发现概率统计所能够处理的“证据”是被样本空间和先验概率等因素所制约的,而且对概率的表示和处理也不完全满足一个智能推理系统的要求。
让我们看“鸟会飞”这个例子。为讨论的简单起见,我们假定系统可以完全确定一个对象是否是鸟和是否会飞,而忽略这些判断本身所可能包含的不确定性。同时,我们假设这个陈述的真值是完全被直接观察决定的。如果我们对“鸟会飞”进行了N次有效观察,在其中有M次所观察的鸟的确会飞 (而N-M次所观察的鸟不会飞) ,那么“鸟会飞”的概率就被设为M/N。这听起来很自然,但严格地说概率应该是该陈述的正确率M/N当N趋于无穷大时的极限,而当N有限时,只从N和M出发没法确定M/N是否有极限,更不要说确定其范围甚至准确值。在运用概率统计解决实际问题时,一般的办法是借助各种假设,比如假设证据(观察)足够多且有代表性。但既然它们是“假设”,那就有错的可能。在实际应用中,使用这个理论模型的人有责任检查这些假设的合理性,并且只在它们成立时使用这个理论工具。但在智能推理系统中真值需要被附在每个陈述上,不论其证据是否很多或是否有代表性。用已知的成功率估计未知的概率,这本身也有个可靠性问题:如果M和N分别是1和2,M/N是0.5;如果M和N分别是1000和2000,M/N仍是0.5。直观上我们会觉得后一种情况更“可靠”,但这种可靠性不体现在正确率M/N之中。在概率统计中自然有办法表示这两种情况的差别,但这又需要引入更多的假设,而非只有赖于(由M和N所代表的)已有证据。
在智能系统中“知识和资源相对不足”的假设下,参考资料[2]讨论了一个完全基于已有证据的真值定义。对每个经验陈述 (即不包括公理、定理等) 而言,其真值由两个0和1之间的实数表示。第一个就是上面提到的“正确率”M/N,第二个叫“可信度”,定义成N/(N+K),其中的N仍是该陈述被检验过的总次数,而K是个不小于1的系统常数。
正确率刻画的是由反例造成的不确定性。这里需要比较的双方是“正例”和“反例”。对一个在知识不足的条件下工作的系统而言,有反例的陈述不能简单地被标注为“假”。实际上一个有少量反例的陈述常常比一个尚未发现反例但太复杂或太空洞的陈述有用得多。正确率给出了正例和反例的比例,而且这种方式和我们日常生活中表示此类信息的方式很类似 (像“有三成机会”、“十有八九”等等) 。
可信度刻画的是由未来证据造成的不确定性。这里需要比较的双方是“已知”和“未知”。因为对一个开放系统来说未知证据量没有上限,所以在这里是把已知证据的量(N)和定量(K)的未来证据相比。最直观的选择是令K=1,这时可信度就是当前证据的量在一个未来时刻 (当一个新证据到达后) 在总证据中的比例。在前面的例子中,N是2和2000分别相应于可信度2/3和2000/2001,当然差别很大了。在已有证据量N有限的情况下,一个陈述的可信度总是小于1,尽管可以随新证据的到来而继续增长。这就是说在经验陈述中没有绝对真理。
这个真值定义的最大特点是完全基于现有证据,而不依赖于对“世界”或“未来”的任何假设。可信度高说明证据多,因此对新证据不敏感,故信念稳固。但这并不意味着“更接近事实”。实际上如果一个系统的经验受很强的限制,其中的偏见也可能有很高的可信度。如果是这样,这个值还有理由被叫做“真值”吗?如同我在《人工智能:何为“智”?》中所解释的,对一个知识不足的系统来说,“适应”正是指 “以过去的知识应对未来的情况”,即使在系统完全明白未来不可能完全和过去一样时也是如此,因为除了过去经验之外,这样的系统没有其它可以依靠的。
“正确率 = M/N;可信度 = N/(N+K)”是这种真值的定义,说明这一对值在理想情况下和证据的关系。但在一个具体人工智能系统中,真值往往是需要在很多“很不理想” 的情况下被确定的 (如证据本身有不确定性,且来自不同渠道,因而不能同等对待) ,因此不能直接使用上述定义。这就好像是1米的长度被定义为“光在真空中于1/299792458秒内行进的距离”,但这不意味着裁缝要直接用这个标准量布料。在人工智能系统设计过程中,真值的定义只是为各种相关规则和函数确立设计依据。
系统信息加工资源的不足使得情况更加复杂。由于要在时间不足以考虑所有相关信息的情况下作出判断,在一个真值背后的证据往往不是系统所知道的全部有关证据,而只是系统在当下所考虑到的那些。其结果之一就是基于不同证据的结论可能互相冲突,因而系统无法保证其信念之间的一致性。“不一致”是传统的真理观所不能容忍的,因为世界只能有一个“本来面目”,而且公理之间也不允许有矛盾。但如果真值是以证据为依据的,不同证据所导致的真值冲突是无法完全避免的,尽管系统必须要有办法来处理这种情况以保证其正常工作。
现在我们可以来总结这个新的真值定义对本文开头处提出的问题的回答:
1) 真值由一个“正确率”和一个“可信度”组成。
2) 真值刻画了一个陈述和已有证据之间的关系。
尽管我提出这个真值定义的直接动因是人工智能研究,它也可以被用来解释人的思维活动以及科学发展中的很多现象。这个“以证据为准”的真理观和流行的“以事实为准”的真理观颇为不同,但如果仔细考察我们平常所谓的“事实”,就不难发现它们其实也不是“世界的本来面目”,而是我们对世界的描述和认识,因此是依赖于我们的认知能力和认知过程的。因此,这个真理观并没有降低“真”对我们 (或对人工智能系统) 的价值。
参考资料
[1] Peter Achinstein (Editor), The Concept of Evidence, Oxford University Press, 1983
[2] Pei Wang, Formalization of evidence: a comparative study, Journal of Artificial General Intelligence, 1: 25-53, 2009
版权声明:本文由《返朴》原创,欢迎个人转发,严禁任何形式的媒体未经授权转载和摘编。
《返朴》,致力好科普。国际著名物理学家文小刚与生物学家颜宁联袂担任总编,与几十位学者组成的编委会一起,与你共同求索。关注《返朴》(微信号:fanpu2019)参与更多讨论