然而,不管我们回顾历史时如何尽力客观评价Cyc项目,可悲的事实总是无法改变。Cyc项目在人工智能发展史中之所以留下浓墨重彩的一笔,源于它是一个人工智能被过度炒作的极端案例,它完全辜负了人们寄予的不切实际的厚望。莱纳特的名字也被编入了计算机科学的民间笑料里。有个笑话说,“微莱纳特”应该作为一个科学计量单位,用来衡量某件事情的虚假程度。为什么要在莱纳特前面加上“微”?因为你找不到比一个“整莱纳特”更虚假的东西了。
破灭出现
就像许多理论上很美好的人工智能一样,基于知识的人工智能被证明实际应用非常有限。这种方式在一些我们认为荒谬琐碎的推理任务中,也遇到了困难。考虑一下常识推理任务,下面的场景给出一个典型例子[42]:
你得知翠迪是一只鸟,所以你得出一个结论:翠迪会飞。然而,翠迪是一只企鹅。所以你收回了之前的结论。
乍一看,这个问题在逻辑上应该很容易理解。看上去跟我们之前讨论的逻辑三段论没什么差别——我们的人工智能系统存在知识“如果x是一只鸟,那么x会飞”,那么,给出“x是一只鸟”的信息,它理所当然能推理出“x能飞”的结论。好吧,到目前为止没有任何问题。但我们现在得知,翠迪是一只企鹅,接下来会发生什么呢?我们需要撤销之前得出的“翠迪会飞”的结论。问题来了,逻辑无法处理这样的问题。在逻辑上,增加更多的信息永远不会消除你之前得到的任何结论。但是增加的信息(即“翠迪是一只企鹅”)确确实实使我们需要撤销之前的结论(即“翠迪会飞”)。