(严格来说这不是影评)
Caleb在和Ava的第二次会谈里,谈到了Frank Jackson提出的那个思想实验“黑白屋中的玛丽”(“What Mary Didn't Know”,1986)。具体内容我就不重复了,但我觉得有讲讲这个思想实验出现的背景还是有必要的
可能熟悉人工智能历史的人都知道70、80年代人工智能理论和实践出现了一个所谓“寒冬期”,Simon & Newell确立的那种通过数字符号运算实现人工智能的纲领遭遇了一系列实践上的挫败;80年代后人工智能领域就渐渐抛开了这种纲领,不再追求通过符号逻辑运算实现智能的想法、不再想着制造“像人一样”的人工智能,转向如BBN、SVM、神经网络这类更像是统计学习的方法——简单来说,前者是“基于规则的分类”,后者是“基于统计关系的分类”;而符号逻辑运算人工智能便成了Haugeland所说的GOFAI(“Good Old Fashioned Artificial Intelligence”)
像Simon & Newell纲领这类强人工智能的理论,转化到了心灵哲学理论,就是记号物理主义及随后衍生出的功能主义。物理主义-功能主义可谓盛极一时,主宰着战后心灵哲学领域。如果你不想花时间去专研的话,只需记住功能主义的一个口号和一个教条就可以了:
口号:大脑状态=心灵状态(这其实是沿袭自物理主义)
教条——多重可实现(multiple realization):如果说心灵是对一个系统的高层、宏观描述,那么大脑就是对这个系统的底层、微观描述;不同的底层设备、材料可以实现相同的高层现象。打个比方,碳基的大脑可以实现心灵,那么木头、钢铁、硅也可以实现心灵
好了,不知是不是巧合,大概就是在人工智能寒冬期的70、80年代,哲学界出现了一批反驳物理-功能主义的思想实验,比如内格尔的“成为蝙蝠是什么感觉”、Ned Block的“全体中国人”、本片提到的玛丽,当然,还有许多人都知道的塞尔的“中文屋”。其中内格尔的蝙蝠论证和Jackson的玛丽大体可以归为一类,强调的是心灵的“主观体验”。而主观体验中的一个难题便是qualia(有人翻译做“感受质”)——在传统哲学术语里面,这就是洛克所说的“第二性质”
回到这部电影。在论述玛丽实验时,影片展示了一个虚拟的场景:Ava就代表着玛丽,当她走出房屋,看到的世界却是黑白色的(其实是我们观众看到的世界是黑白的)。虽然她具有所有关于色彩的物理知识,知道每一种颜色的波长,但她面对着多彩的世界,感官却只能感受到黑白两种颜色,以至于她无法分辨现实中的事物,哪些是红色,哪些是绿色。
换句话说,这里存在着两种知识:一种是物理知识,另一种则是感觉知识。而感觉知识的对象,就是qualia。它是纯粹主观的知识对象,你可以告诉别人红色光的波长是多少纳米,但你没办法告诉别人“红色”的感觉究竟是“怎么样的”(特别是如果这个人天生就是盲人)。
由玛丽实验,Jackson发展出了一套“知识论证”(knowledge argument):
玛丽知道所有物理事实
玛丽不知道所有事实
物理事实并未穷尽所有事实
(事实上,你可以在中文屋实验里也发现类似的论证逻辑,那就是物理设备无法实现某些人脑的东西:计算机可以有句法(程序),但却不会有语义(心理内容),所以……)
我在50%甚至更高的水平上赞同这类自然主义的论点,但是这类自然主义论证是否适用于人工智能的开发呢?我想到了另一个哲学家Daniel Dennett,如果说上述的思想实验是对功能主义的反动的话,那么Dennett就是反反动。他对qualia的看法是qualia只是“副现象”的。并且,对于Jackson的玛丽实验,他针锋相对地构造了另一个思想实验:蓝色香蕉
如果有人拿来一个蓝色的香蕉形状的东西给玛丽,玛丽会大声呵斥道:这个根本不是香蕉,香蕉是黄色的,而这个东西是蓝色的。对方很惊奇,玛丽怎么会分辨得出这个东西的颜色?玛丽回答说:我知道的是所有关于颜色的物理知识,包括我的物理身体会对每一种颜色做出何种因果反应的知识;我知道面对蓝色(黄色)光的感觉输入我会有怎样的身体反应,现在我身体的反应模式正符合蓝色光的感觉输入。
Dennett的论证里其实暗含着一种知识内容的两分法:对于外部客观事物的物理、客观性质的知识,我们称之为知觉(perception);对于外部客观事物在我们脑中形成的主观体验,我们称之为感觉(sensation)。心理学的一系列实验表明,人类面对不同颜色的光刺激,确实会产生不同的行为模式(譬如红色让人暴躁、蓝色让人情绪安宁),而这种行为模式,并不需要我们“知道”面对的刺激究竟叫“什么颜色”。玛丽虽然从未有过关于蓝色和黄色的sensation,但她确实拥有关于蓝色和黄色的perception——包括面对蓝色和黄色,人类的物理身体会产生何种行为的因果反应模式的知识。
身体产生x状态当且仅当蓝色光出现
玛丽的身体产生x状态
∴玛丽正经历着蓝色光
甚至,在玛丽实验最极端的变形——即玛丽本身就是一个色盲,只有黑白色的感觉,这种二分法也依然可以奏效:Nicholas Humphrey的并行处理理论指出,我们对于知觉和感觉的处理系统其实是并行的;即使一个人丧失了感觉能力,依然有可能具有知觉能力。最经典的例子就是所谓的“盲视”现象和“阈下知觉”
回到影片。老板和Caleb经常讨论人工智能的一些问题,其中一次老板的评论是:
“不自觉的行为”。如果我们接受前面讲到的“多重可实现”教条——你会意识到它是很合理的——那么所谓自觉的行为,其实就系统行为中被表征为意识行为的那一类,而不自觉的行为,自然就是没有被意识表征的那部分行为。但不管行为有没有被表征为意识,都需要系统的底层结构来实施行为。
对于机器人Ava,它不需要知道“红色”、“蓝色”、“黄色”的qualia是什么样的,因为按照多重可实现的教条,它的底层感官设备不需要像人一样,它身体安装的感知器可以直接探知接受到的光的波长,从而判断光的颜色,进而按照我们预先储存的光感受行为模式信息而输出行为。
老板说:
这取决于你觉得人工智能要达到什么样的目的。如果你要求用机器复制出完全和人一样的东西(包括像人一样会有“感觉”),那么qualia问题是永远无法绕开的(尽管从演化心理学的角度,感觉本身就是早期生物物理刺激输入-输出回路逐渐私人化的结果);如果你只是要求用机器制造出像人一样行动的东西,比如像人一样下棋,那么qualia问题就是完全可以绕开的。功能主义对于解释人的意识上是有很多错误的,但对指导人工智能的方向来说,我觉得是正确的(只是它对应的不可能再是GOFAI式的人工智能)。
(另外,没有qualia的机器人,也可以减缓某些人对人工智能的忧虑。毕竟,底层的物理语言可以有bug,但不会有“感情”)