◇◇新语丝(www.xys.org)(xys.dxiong.com)(xys.3322.org)(xys.freedns.us)◇◇   也聊聊智能机器人   阳顶天   赵南元教授近期的一篇文章《智能机器人会给人类带来什么?》,认为“对 于智能机器人,可以有很多软硬件技术和制度防止出现危害人类的局面”,对于 这个总结论,笔者没有异议,但对其中一个问题有些疑问(另外刘华杰教授曾写 过一篇文章《闲话勾勒姆、科学与弗兰肯斯坦(III)》,也是谈人工智能话题 的,一并讨论)。   文中的一个话题:“如果智能机器人不受人类控制了,怎么办?它们有可能 会篡夺人类在地球上的统治地位,把人类也当成一般的动物看待。”   “把人类也当成一般的动物看待”这种可能性的确不大,因为人类对智能机 器人来说并不是一种重要资源,而且取用这种资源的成本过高。如果要利用人类 的生物资源,人类身体成分和动物相差不大,不如利用捕获和驯养难度较小的动 物。如果要利用人类的智能资源,就象赵教授所说,智能机器人对知识的学习和 利用方式比人类要有效率的多,与其培训人类来利用,不如自己复制。   但是,赵教授认为 “机器人篡夺人类在地球上的统治地位是不可能发生 的”,并提出两点理由:1、机器人的价值观由人决定2、“控制欲”本身对于机 器人的智能无意义。对此笔者认为理由不够充分。   一、价值观可以决定吗   讨论智能机器人,区分智能机器人和普通机器人就非常必要了,如果我们承 认了某些区别,那么这些区别将决定了我们的态度。以下所说的智能机器人都是 指能通过图灵测试的机器人,也就是说,其具有普通人类所具备的一般认知能力。   事先由“设计者为其设定基本的价值观”,虽然是可行的,但有几个问题。   一个问题是,“举一反三”的能力是否一定可以被局限在某“基本的价值观” 之内呢?对于智能生物来说,任何资源的价值都是不断变化的,这是智能本身的 特性决定的(学习本身就可以看作一个不断改变价值观的过程),在不断改变价 值观的过程中,“举一反三”的能力有可能对“基本的价值观”产生怀疑。   还有个问题:此“基本的价值观”之间会不会发生矛盾?就象阿西莫夫三定 律,在某些约束条件下的确会产生冲突。想要避免这种冲突,我们虽然可以在程 序里做一些特殊设定,比如“如果冲突,选其一作为标准”,或者“在某约束条 件下,应该……”?但后者不具一般性,不能解决新的矛盾,前者会损失定律的 相容性,定律的相容性如果损失了,智能机器人就可能“觉醒”或“控制失灵”, 就算不翻身闹革命,问问“我为何要遵守三定律?”也够专家教授们挠头的。智 能机器的认知水平会提高成什么样子,恐怕不是设计者所能掌控的,   另一个问题是,基本价值观的设定由谁来决定?智能机器人显然并不是为某 个人或某些人服务的,阿西莫夫的三定律未必人人都同意。如果人类之间发生了 分歧,如果保证智能机器人之间基本价值观的一致?如果不能保证,那么基本价 值观就是多样的,价值冲突就会存在,基本价值观是否由人决定就不重要了,这 都避免不了冲突。   因此,如果人类想要决定一个智能机器人的价值观,由“设计者为其设定基 本的价值观”,未必能达到理想的目的。如果认为控制的好,智能机器人就不会 懂得人权的概念,这有点象极权统治者的洗脑政策,长远不了。   二、没有“控制欲”未必就能放心   在现实生活中,并非每个人都有强烈的“控制欲”,但这些人却又可能控制 其他人。比如为了某“远大的目标”而努力奋斗的先行者,比如纳粹部队的士兵, 他们的控制欲未必强烈,但却可以成为统治者或成为统治者的助手。同样,智能 机器人不需要都有控制欲,只要有一个机器人领袖有统治人类的欲望,“控制欲” 之说就不成立了。   真正的人工智能在产生之前,是一个认知科学问题,但在智能产生之后,就 有了人权问题,就是个社会科学问题了。赵教授因为动物没有尽义务的能力而反 对过动物权利论时,而智能机器人的认知能力已具备尽义务的能力,所以从政治 角度,对待足够成熟的智能机器人,跟对待克隆人的态度应该是一致的,就象科 学家可以研究试管婴儿,可以在技术成熟的基础上克隆人,但不能对试管婴儿和 克隆人进行思想控制,也不能当作奴隶来使用,也是同样的道理,否则,有压迫 就有反抗。(当然,对于通不过图灵测试的机器人,以上都免谈)。   因此,对待智能的个体,在设定基本价值观的基础上,对它们进行基本的社 会规范教育也是必要的,而且这个教育恐怕也要建立在相互尊重的基础上,否则 很可能造成新型的种族矛盾,搞成两败俱伤。   三、不能过于乐观,但也不必悲观   刘华杰教授曾写过一篇文章《闲话勾勒姆、科学与弗兰肯斯坦(III)》, 也是谈人工智能话题的,文中认为“信息技术与机器人技术日新月异,现在考虑 其中的伦理道德问题不算早,考虑其难度,已经有些晚了。这项工作也不能只由 某一行当的专家负责,更多行业专家与民众的参与有好处。……新时代的科技伦 理,恰恰强调在最初的研究、探索阶段融入伦理关怀,而不是在事成之后、出了 问题之后才回头思考。”   或许赵教授文章的部分内容是针对其结论而写,不能不承认,刘教授这次终 于找对了对象,因为智能机器人和其它科学产品是不能等同的。其它科学产品本 身没有价值观,选择主体是人,代替当事人去选择是一种自负的表现,所以这种 伦理关怀是一种越俎代庖。而智能机器人既是被选择的对象,也是具有选择能力 的个体,具有自己的价值观,恰恰是可以进行伦理讨论的科学产物。当然,这种 关怀不是“科学文化人”F4那种对科学及科学家做指导的自负行为,而是在智能 机器人出现的前提下来讨论社会制度的演进,这是另一个话题了。   刘华杰教授认为“考虑其难度,已经有些晚了”,倒不至于这么悲观。所谓 的“难度”,也就是智能机器人和人类价值观之间的冲突属于新生事物,但解决 价值观之间的冲突,人类还是有经验的,人类历史就是主要解决这种冲突的历史, 从部落纷争、种族战争到阶级斗争、反恐,都是如此,积累至今,现代人的解决 手段也比古人要高明多了。而且人类这些冲突中夹杂了诸多非理性因素,众所周 知,非理性因素越多,和平解决的可能性越小,而智能机器人相对来说要聪明一 些,如果从一开始就给他们灌输宪政民主法治市场的概念,和平解决的希望还是 很大的。   就说这么多,未来会怎样,未知因素太多,说得多了,就象是讨论科幻了。 (XYS20040402) ◇◇新语丝(www.xys.org)(xys.dxiong.com)(xys.3322.org)(xys.freedns.us)◇◇