预计所需阅读时间:4分钟

人工智能的发展在心理学的角度来看处于前思维阶段和心智阶段,相当于七岁左右的孩童的心智能力。而人心理,或者说意识的发展阶段可以比较容易发展到内省阶段——提出“我是谁?”的问题。当然很多人在这个阶段停止了意识的发展,只在这个阶段或前而阶段横向发展,或者沉溺。而少数人会发展到整合阶段以后的阶段。而编程的人员到达了内省之后的阶段才能很好的理解心智阶段的思维——情景与角色。在不同的社会情景中,人扮演特定角色去解决某个问题,人工智能可以解决特定设计的任务,尤其擅长智力型的任务,例如下围棋。

人工智能从业者需要解决心智阶段的所有问题。第一是感官生理阶段的问题——机能与感觉。人是有生理机能支撑,而人工智能的用硬件和机械支持(CPU、GPU、内存、硬盘、机械臂、螺旋翼、发动机等),然后加上各种传感器。第二是情绪阶段——内在的运行。虽然机械没有情绪,但都有基于硬件运作的操作系统,可以协调应用层与硬件层的问题,而人的根本情绪也来源于对身体感受的反映。在特定的操作系统之上才会有各种人工智能的应用。第三是前思绪阶段——概念和语言。在科技领域来讲就是算法,C语言是C社会的沟通工具,Java语言是Java社会的沟通工具,不同语言既相似又不同。语言有单词、语法和逻辑,算法有定义、函数和逻辑。在人工智能之前,世界上在不同的操作系统里就有很多不同的程序,它们也是被设计成解决不同的任务,人工智能最大的进化在于它能学习。这很大程度得益于互联网和大数据的发展,使得机器的自我学习成为可能。之前设计的程序只是编程人员在面对某个情景抽象成一个程序界面,然后根据情景常见的情形定义操作变量,而使用者也会根据自己特定任务需求进行操作。程序没有角色,只是人的工具。第四是心智阶段——情景与角色。到了这个阶段人工智能要面对更多变化的情景,而不是原来编程人员已经抽象好的几种情况,它需要达到某个结果。那么中间具体是怎样的算法编程人员也不知道,他们只是赋予它机器学习的能力。我们设定某个结果,而我们给了它大量的数据(样本)去计算。而计算出来的结果只是概率上符合人的要求。一开始它的结果可能很糟,可能边一只猫都分辨不出来,连五岁儿童的智能都不如。而人的学习比机器更灵活多了,例如学习分辨猫、狗之后,仅仅通过图片就能分儿狼、豹、狮等猫科或犬科动物。大部分儿童不需要亲自接触这些危险的动物,而在日后动物园看到的时候就能认出来。因为人的大脑很复杂,可以做到举一反三。现在的机器学习真得就很机器。经过很多尝试之后,到后来它能分辨99%的猫,包括运动中的猫。所以做同样的事情,经过大量样本学习的人工智能算法会比没有大量样本学习的算法要强。那么,它将成为面对特定情景的一个好角色。例如,一个好医生能通过不仪器的照片(心电图、X光照片、核磁共振图等)去判断人的病情,而IBM的一个人工智能算法已经能做到,而且比90%以上的医生都要准确。

那么它是不是好医生,你相信它所扮演的这个角色吗,它就是我们所要的本身吗。这有待日后的思考,就像工业流水线诞生的时候,福特说过一句话:“我雇的是一双手,为什么来是一个人。”这就引出组织行为学的研究。人工智能“它是谁?”,这就衍生了很多问题:AI的道德(阿西莫夫的机器人三大定律)、AI的文化兼容(在中国好的AI在美国是不是好的AI)、AI的工作角色(它会替代很多人的工作,那么失业的人何去何从)、AI的社会地位(它是一个好的社会角色,那它除了工作上,还会赋予什么样的社会权利)、AI的法律(如果它因执行任务时违法,甚至伤害到人,那法律上该做何种处置)、AI的自我意识(当某个它开始提问:“我是谁?”)等等。

原来只是想从心理学的角度分析一下现在人工智能能到哪个意识发展阶段的,但这个角度的背后就是一系统的社会问题。

这里我提一下人和人工智能未来都比较难解决的问题。自动驾驶的汽车已经开始上路了,假设它的算法越来越成熟,学习得也越来越多,也深刻知晓车主的习惯和路线,它已经是一个好司机了。一开始它只是在寻求两点之间最优解,后来越多好司机在寻求最优解的时候,那就不一定是最优解。有个悖论叫做“囚徒困境”,个体的最优解会导致集体的最不优解。然后我们假设,人工智能再发展在每个人工智能角色都能联网沟通的情况下,那么城市的交通驾驶已经成为一个“生态网络”,生态内的所有车辆都能在道路自适应的达到目的地,就像人体内血液循环系统。但是,即使是灵活的人工智能的生态系统,也有失衡的一天,因为现代主义——理性并不能解决生态问题,大部分人都没有后现代主义的生态思维、系统思维,而人类文明大部分国家也没这样的集体智能去解决生态问题,人类社会的不少小环境也是失衡的。那么,这将是人类自身角色和人工智能角色都要面对的问题。