2023年12月24日星期日

赵致真:“人类命运共同体”和现代科技随想(上)

 五、“自私”是“天经地义”吗?


关于“利己主义”和“利他主义”,几乎每一代思想家都有精彩论述。我们讨论“人类命运共同体”,自然绕不开这个历久弥新的话题。


我先谈谈在美国的一件小事。


那是1990年代,我和朋友雷先生租了一辆凯迪拉克轿车去古巴,路上轮胎破了。天色已晚又下起雨来,我帮雷先生打着伞,看他忙着在陌生的后备箱中寻找工具。这时候一辆别克车在我们前面停下,一位四十来岁的男人提着千斤顶和扳手走过来。他仰面躺在地上,很快帮我们换好了轮胎,身上沾满了泥水。当雷先生对他握手道谢时,捎带着拍过去一张20美元的钞票。那位男人说“No,this just people help people(不用,这只是人之间的互相帮助)”他从头到尾只说了这么一句话。

漫画:自私的基因


我坐回车上陷入沉思,因为不久前刚看过一本道金斯写的书《自私的基因》。


我很佩服道金斯先生独窥深际的见解,他提出了生物进化的新视角——基因中心论。生物行为的最高准则是基因传播概率的最大化,“利他行为”也是以血缘取舍的“基因收益”。所以本质上仍是利己主义。


但这本书却让我在感情上有些别扭:好家伙,自私不仅是“娘胎带的”,还是“基因定的”。这不更加天经地义、冠冕堂皇了吗?但帮我们修车的美国人,万里之外,萍水相逢,永不再见,无论拐多少弯,也不会增加他复制基因的概率吧?


当然,《自私的基因》讲的是生物科学,不是伦理道德,基因也没有“自私”的意识。后来道金斯多次表示,他不否认社会、文化、环境对人类行为的影响。并后悔没有把书的名字改为《永恒的基因》,造成一些读者的误解。可见即使在西方,作家也忌讳为“自私”张目。我们如果把这本书奉为“自私有理”的宝典,显然违反了道金斯先生的初衷。


不久前,一位年轻生物学家冉老师帮我校译《蚂蚁的生活》,我们曾讨论过如果把蚂蚁的“利他主义”基因整合到人类基因中会如何。并一致认为人类完全有能力靠着理性和道德的力量,克服来自基因的“先天缺陷”。


再回到个体生物层面,在大自然进化的过程中,“利己主义”者显然会“占便宜”。但不可否认,从群体的角度,一个种群里“利他主义”者的数量越多,这个种群就越强大,生存概率就更高。


激光基本原理


人类的祖先没有老虎的牙齿、熊的爪子、大象的鼻子,但却靠着群体的智慧和力量,登上“万物之灵”的宝座。你们听说过“整体大于部分之和”吗?在大规模的合作互动中,系统能出现一些无法预测的新属性和行为,这是所有单个个体都不具备的。这种现象叫作“涌现”。譬如人类繁衍后代的分工,围猎大型动物的策略,乃至语言、社会的产生。我们说“劳动创造人”,还应该加上“合作创造人”。


你们一定都见过激光,这是“最亮的光、最快的刀、最准的尺”。如果为激光写一首诗,我看首先要赞美那些光子“方向一致,颜色一致,相位一致”的“团结协作”精神。


你们也都听说过超导,这是在临界温度下,“绝对零电阻,完全抗磁性”的神奇现象。所有电子都不再“自由散漫”和“随机运动”了,而是结成动量和自旋相反的“库珀对”。彼此“相因相生”,“并驾齐驱”,从而避免了电流传送中的损耗。


小到一个机构,一个公司。大到一个社会,一个国家。防止扯皮,化解纠纷,消除内耗,提高效率,从来都是最让人头疼的难题。“激光”和“超导”的奥秘,为系统的高度有序化和熵值最小化提供了有益启示。


亚当·斯密在《国富论》中以“看不见的手”为隐喻,揭示了市场运作和价格机制如何调动人的“自私性”,创造出巨大的社会财富。我们40年的改革开放中,这只“看不见的手”的确功不可没。但问题也有目共睹。特别在法律不健全、制度不完善的条件下,不遗余力地开掘、激活、强化、放大“私”字,甚至连最圣洁的行业和领域都变成了“一门生意”和“一个市场”,不少教训是令人痛心的。正是“看不见的手”也制造了令人发指的贪污腐败、贫富悬殊、尔虞我诈、互坑互害。社会风气的毒化和伦理道德的滑坡,是不能用物质财富弥补的。我们需要为“看不见的手”,安一个“正义”的大拇指。


戈达德地球物理天文台激光测量月球目标


作为一个老人,我永远不相信李大钊、方志敏、瞿秋白的思想和境界,还不如当下的半吊子学者深刻和高尚;也永远不承认白求恩、雷锋、焦裕禄的精神和品质,还不如现今穷奢极欲的富豪更值得仰慕和追随。那些轻薄伟人,戏渎英雄的言行,注定不得人心。我们民族的许多优良传统丢失了,应该在你们这一代日月重光。


你们听说过关于“正能量”和“负能量”的讨论吗?其实从物理学的意义上来说,E=MC2,能量只是中性的,并无正负之分。但作为一个深入人心的形象比喻,约定俗成的文化用语,则是无可非议的。因此犯不着硬从科学理论上附会,乱从外国书本中寻源。人们所指的,不过是它简单朴素的本意:积极向上是正能量,消极颓废是负能量;教人向善是正能量,坏人心术是负能量;大公无私是正能量,损人利己是负能量;爱国主义是正能量,卖国主义是负能量......其中的价值判断和道德取向应该是泾渭分明、一目了然的。


我们现在要说到最关键和要害的问题了。那便是,在高科技迅速发展的“大变局”时代,贪婪和自私的危险性也在按指数增加。回到我们文章的开头,高科技能在第九道“大滤网”毁灭人类,但实际上是高科技和贪婪自私相结合,才会毁灭人类。“自私”虽然在自然选择中有过贡献,但却在最后“算总账”时恶果毕现,在第九道“大滤网”前要了我们的命。如果真有一天,人类文明不幸终结了。也许在“宇宙简史”中只有一行字:“银河系中太阳系的地球,曾经存在过人类文明,但由于自私和内耗而毁灭了。”



爱因斯坦在《为什么要社会主义》一文中,讲过亲历的一件事,他认为只有建立起“超国家的组织”,才能防止下一次战争“危害人类生存”,而他的朋友却冷冷的回答说:“您为什么要那样强烈的反对人类的灭绝呢?”可见这位朋友对人类何等地厌弃和失望。我一生虽然饱经坎坷,但深深地热爱地球、热爱人类,作为大自然妙手偶得的杰作,人类就因为抱着区区一个“私”不肯放手而同归于尽,值得吗?说“自私”是“万恶之源”,冤枉吗?


当今世界,国家尺度的贪婪自私大行其道,各自的国家目标水火难容。彼此以邻为壑,翻云覆雨,拉邦结盟,划分阵营,处处博弈,时时斗法,我们究竟伊于胡底?凡事要讲科学,除了“天下为公”和“人类命运共同体”,我们的前途是什么,出路在哪里,谁能拿出一个行得通的方案来看看?


无论你欢迎也罢,抵制也罢,无奈也罢。人类的命运已经无可逃避地绑定在一起。回顾人类的既往,有过许多的英雄,但全都是“民族英雄”,“百年未有的大变局”正呼唤着“人类英雄”。


六、“人工智能”拉响的警报


2023年5月,总部位于旧金山的人工智能安全中心发布了一份由350多位业内顶级专家和学者联署的声明。只有一句话:“减轻人工智能带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起,成为全球的优先事项。”


这是振聋发聩的醒世箴言,还是庸人自扰的危言耸听?


早在2015年,科学泰斗霍金就在轮椅上发出过类似警告,当代科技巨头比尔·盖茨、埃隆·马斯克都表示过相同的担忧。


当我们对人工智能分为“乐观派”和“担忧派”时,争论的焦点在于:人工智能会不会全面地“聪明过人”?如果会,我们还剩多少时间?它们会不会“取人类而代之”,统治地球而且毁灭人类。


关于第一个问题,霍金认为“没有任何物理定律,阻止粒子比人脑中粒子的排列方式进行更高级的运算”。科学研究表明,生物神经元的最高工作频率约200赫兹,而计算机的工作频率可达数千兆赫兹;神经轴突传输信号的速度最高每秒120米,而计算机则以电和光的速度传输;人类智能受限于大脑的尺寸和结构,人工智能却可以简单地增加硬件来扩展。此外关于记忆的信息量、精确度、可靠性,知识的可复制、可编辑性等等,都是不可同日而语的。


“阿尔法狗”击败韩国围棋大师李世石,这只是“弱人工智能”阶段,因为除了下棋,“阿尔法狗”不能完成其他任务。

即将来临的人工智能时代


2022年11月30日发布的“Chat GPT”聊天机器人,已经能够通过大量的数据训练和模型自学,获得不同领域的多种功能。从而进入了“通用人工智能”阶段。


如果继续势如破竹地向前推进,就来到了“人工超级智能”的最后阶段。几乎在所有领域,包括科学创造和社会交往,“人工智能”都远远超过人类大脑的智慧。不仅能自我学习和改进,还能够自我复制,并有独立的情感和价值判断。


看来人工智能发展的“三阶段”是不可避免了。


那么第二个问题,人类还剩多少时间做好准备呢?过去有人说几十年,现在都普遍缩短了,认为不过20年或者更短。因为当第一台“人工超级智能”出现时,将是人类的最后一项发明创造,从此已经不用再“劳驾”人类为科学做出“微薄奉献”了。人类作为“雷管”,已经触发了“智能大爆炸”。在地球文明史上,生命的发生,智慧的出现,人工智能的兴起,是具有质变意义的三个奇点。

人类的下一代将学会和人工智能和谐相处


人类能阻挡“人工智能”时代的来临吗?2023年3月29日,“生命未来研究所”起草了一封公开信,开放人工智能公司联合创始人马斯克,苹果公司联合创始人史蒂夫,谷歌副总裁辛顿等1000多位科学家和领军人物,呼吁所有AI实验室立即暂停训练比GPT-4更强大的系统至少6个月。这些“始作俑者”们显然都被自己的“杰作”吓住了,他们需要喘喘气,回回神,并看看能不能利用这段时间,建立一个确保安全的发展框架。

我不打算进一步细说了,反正大家都有点手忙脚乱,六神无主。如果早早构建起“人类命运共同体”,我们就会主动和从容得多了。

事到如今,一切通过“政策干预”来限制人工智能发展,显然都行不通。总会有“政策宽松”的地方,或明或暗的资金去乘机抢先,就像当年爱迪生的诉讼逼出了好莱坞那样。何况在一个彼此对立的世界,各国恐怕只会加大投入,避免在人工智能竞赛中落伍和出局吧。

再说,一切崇高的动机都是为了确保“人类”的安全。需要在人工智能的代码中,编入人类的“道德价值观”。而当今“我们”人类有相同的道德价值观吗?当“你们”西方人担心人工智能“操纵大选”时,“他们”巴勒斯坦人可能最担心人工智能更精准地炸毁医院和难民营。2021年,当联合国一片苦心,希望通过一项《禁止杀手机器人条约》,却因军事大国反对而付之东流。显而易见,如果没有“人类命运共同体”的共识和共情,这个世界上许多事都是办不成的。


“人类命运共同体”和人工智能时代的光明前景


可敬的联合国并非无所作为,据悉最近又倡议各成员国签署一项《仁慈通用人工智能条约》,明确规定“只允许利他主义的人工超级智能”(only altruistic Artificial Superintelligences)。公开拒绝“自私的基因”了。但这种微弱的呐喊,如何能令行禁止呢?

无论我们怎样费尽心机,人工智能超越人类的那天一定会到来。可以把他们想象成外星人,正乘坐宇宙飞船赶往地球。我们已经接到他们的电话说,将于20年后抵达。剩下的事,就是如何举行欢迎仪式了。

至于“人工超级智能”会不会“背叛人类”和接管地球,这是科幻故事的领域了。尽管辛顿说:“没有一个好的记录表明,低智能的东西能控制高智能的东西”。但回望人工智能的历史,不是从“弱肉强食”的自然选择中产生的。我倒宁愿相信,他们消化吸收了人类所有的知识并深入研究后,会更客观公正地发现真理,并劝诫“主人”更爱自己的同胞,并摆正“地球长子”的位置,善待这颗行星上一路走来的万物生灵。

至于未来如何与“人工超级智能”打交道,那是你们的全新课题,是未来“人类命运共同体”的时代课题了。但从势头和格局,“人工超级智能”大概不屑去争夺“摇篮里的资源”。他们的横空出世,也许更有利于“地球文明”迅速晋升为“三级文明”,去实现大自然的终极目标:让宇宙充满智慧,让智慧充满宇宙!


作者简介

赵致真,男,1943年生,1967年毕业于武汉大学中文系,首批国务院政府津贴专家。1985至2003年任武汉电视台台长,曾任中国科技新闻学会副会长、中国科教影视协会副会长、中国作家协会会员、武汉市科教影视协会理事长、中央电视台大型科教电视栏目“科技之光”主编,著有《播火录》(北京出版社,2019年6月)。

没有评论:

发表评论