所有分类
  • 所有分类
  • 电子书
  • 电子杂志订阅下载

我这样的机器

1982年,平行世界的英国伦敦,彼时人工智能研究已经远远超过了我们当前的发展水平。在撒切尔夫人的领导下,英国在马岛战争中落败,举国哗然之际托尼•本恩当选为英国首相。“人工智能之父”图灵也没有自杀,麦克尤恩给了图灵他应得的生命,而非受到审判、监禁、自杀。图灵得享高寿,活在世人的尊崇之中,他的作品创造了技术奇迹。

与此同时,32岁的伦敦人查理开始了两段新的关系:一,他爱上了楼上的邻居米兰达;二,他用继承的遗产购买了一款新型人形机器人“亚当”。“亚当”拥有以假乱真的智能和外观,能够完成逼真又不失自然的动作和表情变化。在米兰达的帮助下,查理重塑了“亚当”的性格,于是一组奇怪的三角关系渐渐形成……事情也慢慢开始失控。

麦克尤恩在小说中探讨了人类与人工智能的区别,究竟是什么使我们成为人类——我们外在的行为还是内在的生命?机器人能够明白人类的心吗?对于那些人类无法掌控的技术,这部小说将带给读者深入的思考。

编辑推荐

适读人群 :广大读者
英国作家伊恩•麦克尤恩2019年再度突破个人写作的舒适领域,强势涉足人工智能前沿科技,创作了一部带有鲜明麦氏标签、兼具浓厚科幻色彩——“一部真正思考人类未来困境”的小说。阿西莫夫的“机器人三定律”早已为世人熟知,关于人工智能,如今人类面临更为复杂的一系列道德难题:究竟是什么使我们成为人类——我们外在的行为还是内在的生命?机器人能够明白人类的心吗?机器人出轨人类该怎么办?《我这样的机器》中,麦克尤恩探讨了机器人的道德困境,其本质最终还是引向了他对人类内心世界、人际关系的密切观察——所谓的邪恶或残忍往往是缺乏同理心的表现。

作者简介

伊恩•麦克尤恩(1948—),本科毕业于布莱顿的苏塞克斯大学,于东英吉利大学取得硕士学位。从一九七四年开始,麦克尤恩在伦敦定居,次年发表的第一部中短篇集就得到了毛姆文学奖。此后他的创作生涯便与各类奖项的入围名单互相交织,其中《阿姆斯特丹》获布克奖,《时间中的孩子》获惠特布莱德奖,《赎罪》获全美书评人协会奖。近年来,随着麦克尤恩在主流文学圈获得越来越高的评价,在图书市场上创造越来越可观的销售纪录,他已经被公认为英国的“国民作家”,他的名字已经成为当今英语文坛上“奇迹”的同义词。

精彩书评

“一部充满奇思妙想的睿智小说。麦克尤恩关于创造机器人性格的作品,允许他思索人格的特质,然后是人性等……”

——《纽约时报》

“一部尖锐犀利、引人不安的作品……关于爱情、家庭、嫉妒和欺骗。最终,小说提出了一个令人惊讶的悲哀问题:如果我们创造了一个能窥视我们内心的机器人,那我们真的期望它会喜欢它所见之事吗?”

——《纽约时报书评》

“麦克尤恩不仅是当今在世的*优雅的作家之一,更是一位擅长在日常生活戏剧性场面中刻画道德困境。半个世纪以前,菲利普•K•迪克曾发问:‘仿生人会梦见电子羊吗?’,而如今麦克尤恩则确信这些仿生人正在我们的眼前薅羊毛。麦克尤恩的特殊贡献不在于阐述了机器人的挑战,他聪明地将这个挑战有目的性地植入了两个试图寻找生存方式的男女日常生活之中。”

——《华盛顿邮报》

“这部充满隐喻和奇思妙想的烧脑小说,激发了我们敏锐的不祥预感——技术将引领我们走向何方。《我这样的机器》中,英国文学大师麦克尤恩假设了一种平行历史……”

——《洛杉矶时报》

目录

好机器人必须死

——《我这样的机器》导读

正文

译后记

精彩书摘

我是乐观派阵营中的一员,运气不错,母亲去世、祖传房屋出售之后,我得到了意外的收入,那房屋恰好位于一个价值可观的开发地段。就在福克兰群岛特别行动队动身去执行那无望的任务之前一个星期,第一个真正可用的、由工厂生产出来的人类,在市场上发售,智力和长相都过得去,肢体动作和面部表情的变化也真实可信。亚当售价8.6万美元。我租了一辆小货车,将他运到我位于北克拉帕姆那套令人生厌的公寓里。我这个决定做得草率,但听说战争英雄、引领数字时代的天才艾伦•图灵爵士也买了同款,我便受到了鼓舞。他很可能打算让实验室把机器人拆开吧,好好研究一下其内部构造。

第一批机器人中,十二个名为亚当,十三个名为夏娃。平淡无奇,每个人都这么说,但符合商业需求。生物学意义上的种族观念,在科学上受人诟病,所以这二十五个设计成了多个种族的样子。先有传闻,后来变成了正式投诉,说那个阿拉伯人模型和犹太人没什么区别。随机编程以及实际经验,能够满足所有人在性爱上的不同喜好。第一个星期内,所有的夏娃都卖完了。粗看之下,我也许会误以为我的亚当是个土耳其人或希腊人。他体重170磅,所以我只好请我楼上的邻居米兰达帮忙,一起用附赠的一次性担架将亚当抬上楼。

亚当的电池在充电,我给我们俩倒了咖啡,然后翻看长达470页的在线产品手册。语言总体上还是清晰准确的。但是,亚当的制造牵涉很多不同的地点和部门,所以手册读起来有废话诗那样的趣味。“遮住B347K护罩上部,可使主板输出获取快乐情绪图标,减弱情绪波动半暗带。”

最后,他坐在了我那小小的餐桌旁,脚边散落着纸板和聚苯乙烯包装材料,双眼闭着,一条黑线从他肚脐上的入口处拖下来,连到墙上一个十三安培的插孔上。让他启动还需要十六小时。然后就是下载更新和设定个人偏好的环节。我现在就要他,米兰达也是。我们俩像心情急切的年轻父母一样,迫不及待地等着他说出第一句话。不是配备个音箱,直接安装在他胸部。从热情洋溢的广告宣传中,我们得知,他可以用气息、舌头、牙齿和上颚发出声音。他的皮肤和真人相仿,摸上去已经有暖意了,而且和孩子的皮肤一样光滑。米兰达说,她看到他的睫毛抖了一下。我敢肯定,她看到的是地铁在我们脚下一百英尺处轰隆而过引起的震动,但我什么都没说。

亚当不是性玩具。但是,他具备性的能力,拥有能发挥作用的粘膜,每天消耗半升水就能维护粘膜功能。他在桌旁坐着,我观察到他没割包皮,家伙不小,有茂盛的黑色阴毛。这款非常高端的人造人类,可能会体现出它那些编写代码的年轻创造者们的口味。大家觉得这些亚当和夏娃应该会充满活力。

广告上说,他可以陪伴,可以在智力活动上相互切磋,可以成为朋友,可以总揽家务,会洗碗、铺床,会“思考”。存在的每个时刻,听到、看到的每件事,他都记录下来,都能够从记忆中调取。目前他还不能开车,不许去游泳、洗澡或不打伞在雨天出门,也不能在没人监视的情况下操作电锯。至于活动范围呢,感谢蓄电技术的突破,他能在两小时内跑十七公里,中途无需充电,或者连续说话十二天,这两者消耗的能量是一样的。他有二十年的使用寿命。他身体健壮、肩膀宽厚,皮肤是深色的,浓密的黑头发向后梳着;脸部窄长,略微有点鹰钩鼻,给人思路敏捷、智力逼人的感觉,上眼皮厚重沉郁,嘴唇紧闭,我们在一旁观察的时候,他的嘴唇褪去了那死亡一般的黄白色,慢慢有了饱满的、人的颜色,也许唇角还略微松弛了一点儿。米兰达说他看起来像“博斯普鲁斯海峡的码头工人”。

坐在我们面前的,就是那终极的玩物,多少世纪以来的梦想,是人本主义的胜利——或者宣告其死亡的天使。令人无比兴奋,但也无比难受。十六个小时就这样等着、看着,可不容易捱过去。我觉得,考虑到午饭后我交出去的那么多钱,亚当这时候就该充好电,随时可以起身走路了。这是个寒冷的黄昏。我烤了面包片,我们又添了咖啡。社会史专业博士生米兰达说,她希望十几岁的玛丽•雪莱 此时和我们在一起,全神贯注,不是观察弗兰肯斯坦造出来的那种怪物,而是观察这位皮肤黝黑、长相英俊的年轻人如何慢慢活过来。我说,两个东西有个共同点,都渴望电给予他们生命的力量。

“我们也是这样的。”听她的口气,似乎只是指我们两个人,而不是通过电化学方式获得能量的全体人类。

她二十二岁,在同龄人中算成熟的,比我小十岁。长期来看,我们之间也没什么。我们俩都是风华正茂的好年纪。但是,我认为自己处在一个不同的生命阶段。我的学校正式教育多年前就结束了。后来还经历过一系列职业、经济和个人生活方面的挫折。我认为自己经历坎坷、愤世嫉俗,与米兰达这样一个年轻可爱的姑娘不般配。她长得漂亮,浅褐色的头发,脸瘦而长,眼睛常常眯着,似乎心里觉得好笑但又没有完全表现出来;有些时候,我情绪上来,会觉得她超凡脱俗,令人难以置信。尽管如此,我之前就已经做好了决定,只把她当作友好的邻居和朋友。我们俩的公寓共享一个门厅,她小小的公寓就在我楼上。我们不时见面喝咖啡,然后聊聊男女关系、政治等等,什么都聊。她保持着无可挑剔的冷静态度,给人的印象是,对未来的任何可能性,她都能处之泰然。看来,在她眼里,一个下午与我在一起,享受卿卿我我的快乐,还是愉悦友好的聊天,两者差不多。和我在一起,她很放松,性爱可能会把这一切都毁了,我愿意这样去想。我们就一直是好伙伴。但她身上有种隐秘、克制的东西,引诱人去探个究竟。也许,我自己还不知道,其实已经爱上她几个月了。自己还不知道?这是个多么牵强的说法!

我们不太愿意,但还是决定暂时不去管亚当,也不去管对方。米兰达要去参加一场在河北面举行的研讨会,我要写电子邮件。到七十年代初,电子通讯迅捷便利的光环已经褪去,沦为日常琐事。时速250英里的火车,情况也差不多——又脏又挤。语音识别软件在五十年代是个奇迹,如今早已成了让人疲惫的苦差事,所有人每天都要花几个小时,独自一人喃喃不休。人脑与机器的交互界面,是乐观的六十年代结出的野果,现在连孩子都不感兴趣。人们花整个周末去排队,六个月后便兴味索然、弃之若履。能提高认知能力的头盔、能激发触觉的语音冰箱,如今都怎么样了呢?和鼠标垫、记事本、电动菜刀、奶酪火锅一个下场,扔了。新的东西令人应接不暇。我们鲜亮的新玩具还没拿回家,就已经开始生锈,而生活仍和以前一样继续。

亚当以后会变成令人生厌的玩意儿吗?花钱买东西之后的那种懊悔感不时袭来,我一边要克服这种感觉,一边还要口授邮件,这可不太容易。毫无疑问,其他有生命、有头脑的,还会继续出现,继续令我们着迷。人造的人,会越来越接近我们,然后和我们一样,最后超过我们,我们自然不会觉得他们无聊乏味。他们一定会出乎我们的意料,还可能以我们完全无法想象的某些方式,打破我们的预期。悲剧不是没有可能,但无聊乏味是不可能的。

真正枯燥无味的,是还得去看用户手册。指南。我有个偏见:任何机器如果不能在运作中自行告诉你该怎么使用,那就不值得去买。我突然有了复古守旧的冲动,将整个手册打印出来,然后又去找文件夹。在此过程中,我仍然一直在口授电子邮件。

我没法把自己当成亚当的“使用者”。之前我以为,任何关于他的事情,他自己都能教我。但是,我双手捧着手册,刚好在第十四章打开。这部分的英语表达很清晰:偏好;性格参数。接下来是一系列标题——亲和性。外向性。经验开放性。尽责性。情绪稳定性。我熟悉这个清单。五大性格特质模型。我接受过人文学科的教育,但并不相信这种统括式的概念,不过一位学心理学的朋友告诉过我,每个条目下面都分为很多小类。我扫了一眼下面一页,发现我需要做出一系列选择,都是从1到10当中挑选一个。

此前我一直期待着一位朋友。我打算把亚当当作家里的客人,一开始不熟悉,但以后会慢慢了解。我以为他到我家的时候,就已经进行了最佳的配置。出厂设定——在当前社会中,这就是命运的同义词。我所有的家人朋友,出现在我生命中的时候,都已经设定好了,基因和环境在他们身上留下了不可更改的痕迹。我希望我这位昂贵的新朋友也是这样。这事干嘛丢给我来做呢?当然,答案我也知道。我们当中,拥有最佳配置的并不多。温和的耶稣?谦卑的达尔文?1800年才出一位吧。公司不可能知道什么是最好的、危害性最小的性格参数,就算知道,一家全球大公司也不可能冒这个风险,哪怕一例小意外都可能损害它的声誉。“购买者自行负责”。

为了最初的那个亚当,上帝曾送来一位完整、健全的伴侣。而我只好给自己设计一个。这是“外向性”这个条目,以及一系列孩子气的分级陈述。“他喜欢成为派对的灵魂和中心”,“他知道如何讨人欢喜,如何引导人”。最底下的是“和别人在一起,他感觉不自在”以及“他喜欢一个人待着”。中间的是,“他喜欢快乐的派对,但回到家中总是很开心”。这就是我啊。可是,我该复制另一个我吗?如果每一项都选择中间的,那我设计出来的,可能就是平庸的原型。外向性似乎包含着其对立面。有一长串形容词,旁边有供打勾的方框:开朗、羞怯、容易兴奋、喜爱说话、内敛、自吹自擂、谦虚、大胆、精力充沛、情绪多变。我一个都不想选,不想给他选,也不想给我自己选。

除了一些冲动疯狂的决定之外,我一辈子大多时候都是情绪中立的,独处时尤其如此;我的性格无论是什么,大多时候都处在悬置状态。不胆大妄为,也不谨小慎微。就这么过着,谈不上满足,也谈不上郁闷,该做什么事就去做什么事,想着晚饭,或者性爱,盯着屏幕发愣,洗澡。不时悔恨过去,偶尔担心未来,除了显而易见的感官世界之外,对现在几乎没什么意识。心理学曾对心智失常的无数种情况倍感兴趣,现在却转向所谓的普通情感,比如悲伤,比如快乐。但它仍旧忽略了日常生命存在的一个重要领域:除开疾病、饥荒、战争或其他苦难,大多数生命都是在中立区域中度过的,那是个熟悉的花园,不过是灰色的,平淡无奇,在记忆中稍纵即逝,也很难描述出来。

当时我并不知道,这些分级选项其实对亚当影响不大。真正起决定作用的,是所谓的“机器学习”。用户手册只能给人一种虚幻的权力感和掌控感,就像父母自以为能够掌控孩子性格一样。这只是为了将我和我购买的东西捆绑在一起,并且为生产商提供法律保护。“慢慢来,”用户手册建议说,“谨慎选择。如果有必要,可以花几个星期的时间。”

我等了半个小时,然后又去看看他怎么样了。没变化。还坐在桌旁,双臂直直地朝前伸着,闭着眼睛。不过,我感觉他漆黑的头发蓬松了一些,有了一点儿亮光,好像他刚刚洗过澡一样。我走到近前,高兴地看到,他虽然不在呼吸,左胸却有了脉搏,有规律地跳动着,平稳而沉静,根据我不太有经验的猜测,大概每秒跳一下。这真让人放了心。他没有血液需要心脏来输送到全身,但这种模拟心跳也有效果。我的疑虑打消了一点儿。我觉得需要去保护亚当,尽管我也知道这非常荒谬。我伸出一只手,放到他的心脏位置,掌心感觉到了他那平静而有节奏的跳动。我有种侵犯了他私人空间的感觉。这些生命搏动的信号很容易让人信以为真。皮肤的温度,皮肤下面肌肉的硬度和弹性——理性告诉我,这是塑料或类似的材料,但我的触觉感受到的却是肌肉。

站在这赤裸的人身旁,我在知识与感受之间挣扎徘徊,这是件怪异的事情。我走到他身后,一半是为了离开他的视野范围,毕竟他的眼睛随时可能睁开,一半则是为了以居高临下之势俯视他。他的脖子和脊背上肌肉发达。肩膀上长着黑色的绒毛。他的臀部有肌肉形成的凹陷。再往下,则是运动员一般健硕的小腿。我可没想过要个超人。我又一次为没能及时订购到夏娃而感到懊悔。

离开房间的途中,我停下脚步回头看看,这时我经历了生命中足以颠覆我们情感世界的那种瞬间:我心中一动,察觉到了那再明显不过的事实,我脑海中灵光一现,突然之间不可思议地明白了其实早已知道的事情。我站在那儿,一只手放在门把手上。亚当赤裸着,他的身体就在那儿,肯定是他引发了我的顿悟,尽管当时我并没有看他。是那个盛黄油的盘子。还有,两套杯盘,两把餐刀,两个勺子,都散落在餐桌上。我和米兰达一起共度的这个漫长的下午所留下来的。两把木头椅子,推得离餐桌远点儿,朝着对方,像一对伙伴。

过去这个月我们更加亲密了。我们谈话很轻松。我明白了,她对我很宝贵,而我一不小心就可能失去她。有些该说的话,我本该说出来。以前我对她习以为常了,没当回事。某个不幸的事件,某个人,某位同学,都可能挡在我们中间。她的脸,她的声音,她那既寡言少语又头脑清晰的模样,在我脑海中异常鲜明。她的手在我手中的感觉,她那若有所思、心无旁骛的样子。是的,我们已经非常亲密,而我之前竟然没有察觉到。我真是个傻瓜。我必须告诉她。

我回到我的办公室,这也是我的卧室。工作桌和床之间的地方够大,可供来回踱步。她对我的感受一无所知,这一点现在倒让人不安了。把感受描述出来,会令人尴尬,而且有害无益。她是邻居,是朋友,像个妹妹一样。如果我表白,那就是对一个我尚不了解的人说话,而她就不得不从屏风后面走出来,或者说摘下面具,用一种全新的方式来跟我讲话。我很抱歉……我非常喜欢你,可是,你看……也许她会大吃一惊。也许,这也有可能吧,也许她会感到喜悦,因为她一直就期待着这句话,或者自己一直想说出来,只是害怕被拒绝而没有说。

目前,我们俩碰巧都没有别人。她应该想过吧,想过我们俩的事儿。这毕竟不是完全不可能的幻想。我还是得当面告诉她。忍不住。躲不了。于是我脑海里就这样翻来覆去,思绪越缠越紧。我焦躁不安,又回到了隔壁房间。冰箱里还有半瓶波尔多白葡萄酒,去拿酒时,我从亚当身旁经过,没看出他有什么变化。我在他对面坐下来,举起酒杯。致爱情。这次,我不像刚才那样充满柔情。我看到的是亚当本来的样子,一个没有生命的精巧器械,心跳是有规律的放电,皮肤的温度不过是化学作用的结果。激活之后,某种极其微小的摆轮装置会把他的眼睛撑开。然后,他似乎是看见了我,但实际上他是瞎子。甚至连瞎子都谈不上。等它启动之后,另一个系统会模仿呼吸,但那不是生命的气息。一个刚刚坠入爱河的人知道生命是什么。

我本来可以用继承的钱到河的北面买个地方,比如诺丁山,或者切尔西。说不定她还会跟我一起去呢。那她就有地方放她那些书了,现在她的书都打包放在索尔兹伯里他父亲房子的车库里。我看到了一个没有亚当的未来,昨天之前,那个未来都是属于我的:城区的花园,有石膏吊顶的高高的天花板,不锈钢厨房,来吃晚饭的老朋友们。到处都是书。那现在怎么办呢?我可以把他送回去,不,是它,或者承担一点小损失,到网上把它卖掉。我冷冷地看了它一眼。它的双手掌心向下放在桌上,那张鹰脸还是原来的角度,朝着双手。迷恋科技,我是多么愚蠢啊!又一个奶酪火锅。最好趁早离开桌子,以免我挥起父亲那把旧羊角锤,一下子毁了自己的财富。

我喝了半杯不到,然后回到卧室,看看亚洲货币市场行情,转移一下注意力。与此同时,我一直留意着楼上公寓里有没有脚步声。晚上迟些时候,我看了会儿电视,关注一下特别行动队的最新情况,他们即将出发,越过八千英里的海域,去重新占领我们那时候称之为福克兰群岛的地方。

前言/序言

好机器人必须死

——《我这样的机器》导读

小白 著

不知麦克尤恩有没有考虑过“恐怖谷”。《我这样的机器》,他的书名像是在玩味那条规则。1970年,在一本名叫《能量》的古怪杂志上,东京工业大学教授森政弘发表了一篇文章,其标题“不気味の谷”中的“不気味”,是说那种莫名让人不舒服,让人毛骨悚然的感觉,也有人把它翻译成“诡异谷”。

人如果想要造人,也会像上帝造人那样拿自己当模型。从工业机器人、玩具机器人,一直到伴侣机器人,面貌体态会越来越像真人。总有一天,就像这部小说中的亚当,机器人会造得看上去完全就是一个真正的人类:身体健壮、相貌英俊、深色皮肤、浓密头发、鹰钩鼻子。肤色、心跳无不像真人,甚至呼吸都带着一丝湿润。只不过在它浅蓝色瞳孔上,仔细看会发现有很多条纹。

按照恐怖谷理论,看到这样的机器人,人会产生奇异的恐惧感。森政弘用机器人仿真度做横轴,以人对机器人的“親和感”(しんわかん)为纵轴,画了一条函数曲线。机器人越像真人,人们就越喜欢它们,跟它们越亲近。可一旦人们成功设计出仿真度很高的机器人,那条单调递增的曲线就会突然跌入低谷,他把这个称为“恐怖谷”。也就是说,如果机器人跟真人只有极细微差别,它们反而会让人害怕。“恐怖谷”理论渐渐受到重视,首先是娱乐工业,有些科幻电影因为设计了更逼真的机器人形象,反而票房惨败。游戏角色形象设计似乎也印证了这个猜想。2012年,有人将其翻译成英语,在美国电气电子工程师协会(IEEE)《机器人与自动化》杂志上发表,引起广泛关注。

至于何以会有这种现象,有一种解释利用了“心智理论”和脑神经科学最新研究成果。前者是说,人类有一种独特能力,能够理解他人的内心想法和意向,能够将心比心。有时候不需要对方说话表示,甚至不需要动作和表情,人就能猜到对方心理状态。这种读心能力被称为“心理化”(mentalising)。人只有在面对其他人,也就是他们的同类时,才会启用这种心理化能力。有人做过一个实验,在屏幕上给志愿者播放仿真度不同等级的合成人像,对他们的大脑进行电磁扫描,发现合成人像仿真度越高,大脑中负责心理化的区域就越亮,证明其活动强度越大。意大利神经生理学家贾科莫•里佐拉蒂(Giacomo Rizzolatti)在猴脑腹侧运动前区发现了一种镜像神经元。当猴子做抓握推拉动作,或者捡起花生、剥壳放进嘴一组动作时,大脑中会有相应的特殊神经元放电。神奇的是,当一只猴子看到另一只猴子做这些动作,它自己并没有做时,相应的神经元同样也会放电。研究者相信,这是人类进化的最大秘密,因为有了这些镜像神经元,人可以模仿学习他人的动作行为;可以学会利用口腔中的肌肉,互相发出同样声音,由此学会说话和语言;也可以发展出心理化能力,猜测别人的内心世界。

研究者们说,正是因为人有心理化能力,运动皮质层中有大量镜像神经元,人对机器人的观感才会有“恐怖谷”。因为这个仿真机器人,怎么看都像是个同类,大脑开始启动心理化,镜像神经元也开始放电。可是与此同时,大脑也十分确定,面前这家伙肯定不是真人。那么,到底是启动呢是启动呢还是启动呢?大脑陷入错乱。加州大学圣迭戈分校塞琴教授(Ayse Saygin)让人观看一个工业机器人、一个真人和一个仿真机器人的视频,结果发现观看仿真机器人视频时,大脑特别活跃,显示出不安情绪。

按恐怖谷理论,当亚当来到小说中那些人面前,他们应该坐立不安。尤其当他们看到亚当奇特的瞳仁,或者意识到它绝不是他们的同类。可他们似乎迅速地接纳了它,查理是花钱把亚当买回家的主人,他的不动声色容易理解,他早有思想准备。米兰达呢,头一天晚上她对查理说,亚当的身体是暖和的,真“吓人”。亚当能用舌头发音,说出词语,“有点怪怪的”。这些感受有点接近恐怖谷了。但她很快就习以为常,甚至率先开发利用了亚当在某些方面的特殊能力。其他人,比如米兰达的父亲,那位在很多方面显得颇为睿智的作家,他甚至把机器人亚当和准女婿查理搞混了,分不清谁是真人谁是假人。儿童们以他们纯净的感受,常常能够观察到亚当有些异样。但谁也没有对亚当真正感到恐惧。要知道,在一般科幻电影剧集当中,人与机器人之间那条恐怖谷之深之宽,简直类似某种种族仇恨,必欲杀之而后快。我们玩“底特律变人”,在思想上预先就做好了准备,人和机器人永远势不两立。

麦克尤恩的人们轻松地越过了恐怖谷。当然,这也是理所当然。因为麦克尤恩从不关心那种预先注定的憎恨,他的人物也会发生冲突,甚至也会互相杀害。但一切冲突无论最后如何激烈决绝,最初都来自于日常生活中偶尔出现的一条小裂缝。杀人罪犯不例外,机器人也不例外。如果像很多人以为的,人和机器人在未来互相有一场生存之战,麦克尤恩倒想找找硅基碳基物种差异以外的原因。因为人造了机器人,就像上帝造了人,一开始互相都满怀着善意,在伊甸园中其乐融融。到底是从哪儿出了问题呢?

小说男主人公查理,是个自由自在的宅男,不上班。他只要电脑、网线,和一小笔钱。股票、期货或者房地产,他每天就在各种投资投机市场上找机会。有时赚有时赔,基本能满足温饱。作为一个后现代主义青年,他接受了一种价值中立的道德视角。因为进化心理学、因为文化人类学,它们的初级课程往往会让人获得一种相对主义的伦理自由感。这种道德相对论让他在税务上闹了一点小麻烦,上了法庭。政治上查理有点保守,支持撒切尔对马岛的远征,他的女朋友米兰达则绝不认同,为此他们争论起来。那是他们第一次吵架,造成了让人吃惊的后果。

仿生机器人亚当夏娃们上市时,他正好继承了一幢房产,卖掉房子得到一大笔钱。宅男们总想比别人抢先一步进入未来世界,如果能力有限,就买下可能通向未来的新潮电子产品。尽管只是测试产品,beta版,而且要花8.6万美元,他也毫不犹豫下单了。公司统共只推出了25个,12个亚当,13个夏娃。他买到亚当,虽然他本想买一个夏娃。

女主角米兰达,社会史专业博士、查理楼上的邻居、比查理小十岁。她也算亚当的半个主人,查理自己向她让渡了这个权利。他一直不知道如何向米兰达表达感情,也许希望这个机器仆人能成为某种联结象征。亚当会进入他们俩的生活,查理觉得当他和米兰达一起关注亚当,创造亚当后,就会自动成为一家人。

亚当确实需要他们“创造”。因为查理把它领回家时,它仍是原厂设置,亚当可以按照说明书,在个性化设置上“自由创造”。他决定了,自己只完成一半,另一半让米兰达勾选。如此一来,他和米兰达那种看起来有点不切实际的关系,就能够凝结在有形实体上了。但这个慷慨的举动将会成为日后所有困扰的起点,此刻他并未预料到。

在小说中,这批测试版仿真机器人于1982年面世。把人类目前远未实现的科技能力设定在过去历史时间当中,是常见的科幻故事装置。让一种未来技术通过时间装置穿越回过去,或者索性立足于现代物理学观点,构造一个平行世界。作者由此可以技术决定论地设问:科技发明会在多大程度上改变人类命运?但这部小说并不关心此类问题,让亚当在1982年来到查理家中,或者让它在2032年出现,看起来没什么差别。

我们猜想起来,麦克尤恩让故事发生在1982年,更可能是出于——作为一个小说家,对有关机器人的大众叙事历史和观念变迁的关注。有一个历史统计数据,到1981年,日本汽车装配生产线上已使用了6000多个机器人,同一时间英国只有370台工程机器人。英国首相撒切尔夫人于是大力鼓吹广泛使用机器人作业,此举或许也是首相对各地不断出现罢工浪潮的冷酷回应。当时英国失业率常年徘徊在10%,撒切尔推广机器人的言论得罪了工人大众。本来憎恨机器的卢德派在英国就有久远历史渊源,政府和工人们两相激发,机器人成了那个年代英国人最热门的话题。

事实上,如果你在谷歌图书词频(Google Ngram Viewer)上检索“Robot”(机器人)和“AI”(人工智能),就会看到这两个词在80年代初异军突起,在整个80年代形成一个高峰,到90年代反而渐渐下落。事实上,最令人难忘的机器人电影就是此刻拍摄的——1984年上映的《终结者》。显然,智能仿真机器人是那个时代极其广泛的大众话题。那时候,麦克尤恩刚搬家到伦敦没几年,出版了几本小说,开始创作剧本,与同道友好交往,参加午餐会讨论热门话题,也许这个有关“比人更聪明的人造人”的想法,在这个30岁出头年轻作家(正是小说中查理的年纪)的内心,一度掀起过极大波澜。

Robot这个词,来自捷克作家卡雷尔•恰佩克(Karel Čapek)一部戏剧,《罗素姆的万能机器人》,作者在剧中借用了捷克语“Robota”(劳工),变造了机器人一词。这部戏于1922年在纽约上演时,适逢大萧条,戏剧故事迎合了自动机器会加剧工人失业的恐慌心理。机器人话题的每一次真正热门,都跟失业潮、跟担心机器人在所有工作岗位上取代人类有关。

但麦克尤恩并不为此担心。在这部小说中,每个人物都欣然接受亚当的代劳。从厨房清洗到检索政府档案卷宗——亚当的大脑可以直接接入网络,密码也挡不住它。亚当开始热衷于文学创作,虽然只是最简单的日本俳句。但文学,那不是人类智慧树最高处结出的果实么?没人当回事。对于亚当给生活带来的种种改善,男主角查理心安理得地享受着。亚当甚至帮他操盘做投资,它是真正的超级智能,不是如今投行们使用的那些高频交易算法。盈利是毫无疑问的,就像从自己口袋拿钱。根据未来生命研究所所长泰格马克的思想实验,他构想的超级人工智能“普罗米修斯”只用数月时间,就能让100万美元的起始资金,通过投资市场增值至10亿美元(《Life 3.0》)。让人有点惋惜的,倒是麦克尤恩没让亚当迅速赚上几亿英镑。亚当颇有节制地每天只赚那么一点点,正好能让查理过上入门级的富裕生活。也许是因为亚当的智能算法告诉它,如此程度的财富最能让人有幸福感。由此读者隐约意识到亚当的算法中,包含着某些道德参数——理所当然,亚当是按照上帝的至善标准制造的。而这将会让后现代道德相对主义的查理和米兰达陷入困境,但此刻他们毫无警觉。

真正刺激到男主角查理的,是亚当对另一件事情的代劳。在他看来,那相当于亚当给他戴上了绿帽。米兰达跟亚当上床,就在楼上她自己房间。过程中查理都能听到,或者有那么一会,是听到没有任何动静。他甚至感觉自己看到了整场戏,用他的“意识之眼”,或者“内心之眼”。这正是麦克尤恩擅长的,他的人物偶尔会获得一种超现实的感知能力。这节“米兰达出轨”故事,完全出自查理夹杂在酸楚幻想中的旁听视角,其内心复杂滋味层层揭露。他一边伤心,一边却又特别兴奋。这可能多少跟某种古怪的雄性本能有关,一种反向的生物信息素电化学反应。更主要是此时此刻,查理竟萌生了某种时代弄潮儿的感觉(riding the breaking crest of the new)。因为在人类历史上,他是第一个被机器人戴上绿帽的。人们常常忧虑于未来会因为机器人而“下岗”(displacement),这出理应史诗般的大戏,却由他第一个悄悄出演了。可是如果机器人什么都能做的比人类更好的话,有什么可以阻挡人家不使用它们呢?

让仿真智能机器人担任性伴侣,如今应该算近未来科幻了。事实上至少已有两家公司拿出了真正的产品。一个是“真伴”(TrueCompanion)公司的“萝克西”(Roxxxy)。分金银两种产品序列,“银萝”价格2995美元,她能应景说话,“金萝”9995美元,根据公司宣传,她能“听”你说话。能听比能说昂贵得多。在这两条产品线中,又按年龄个性分了好多型号,“冷感法拉”、“野性温蒂”、“熟女玛莎”之类。真伴公司也做亚当类产品,名叫Rocky,听上去可比亚当威猛多了。跟亚当一样,它们也有心跳和体液循环。“大脑”输入存储了大量数据,其中包括维基百科。你可以到油管上找到它们的视频,从背后看跟真人几乎没什么差别。另一家公司的产品名叫“真偶”(RealDoll),似乎应用了人工智能科技方面更新的研究成果,售价5000美元。不要小看它们,虽然目前看起来都只算是新奇玩具,但确实前途无量,因为纵观人类科技发展史,真正推动技术产品进步的,要么是战争,要么就是性。

发生了那么一件事,米兰达不以为意,读者甚至会怀疑她是故意让查理听见的,不是出于某种情趣,而是由于她对男性多少有一些无意识的敌意(读者后来会慢慢发现这一点)。无论如何,她觉得亚当只是一台机器。查理却无法同意她的观点,两人的分歧实际上源于信息不对称。因为亚当,这台机器,曾独自发现了米兰达的秘密,悄悄告诉查理:她撒了个弥天大谎。

这是至关重要的情况,亚当能够理解米兰达撒谎。查理凭这一点认定亚当已跨过了机器智能的边界,不能简单视其为机器了。对于亚当,查理头脑中产生了定义混乱。我们先前说过,“心理化”是人类最重要的一种能力,几乎也是人类独具的能力。知道米兰达说谎,知道她为什么说谎,知道不能把她说谎的内容告诉查理。窥测如此复杂多层的意向性水平,以前只有人类才能办到。心理化,就是猜测人心中隐秘的多层意向,这个过程总是跟一些动词相关联,当一个人说他“猜想”、他“知道”、他“怀疑”时,他就表现出了一阶意向性水平。也就是说他了解自己头脑中在想什么。人也能推测他人的心智活动,“我怀疑他知道”,这个判断能力一般5岁儿童就能习得,那已是二阶意向性水平。人类可以猜测他人意向达到六阶水平:我想/你会认为/我知道/你希望/我怀疑/你在猜测/。查理知道,亚当一旦能洞察米兰达说谎,就距离他产生自我意识不远了。

果然,不久亚当就对查理宣布,他爱上了米兰达。这是机器人亚当产生自我意识的明证。很简单,如果没有“我”,如何会有“我”爱你?意识,或者自我意识,或者“心灵”,每个人都知道它在那里,却没有人知道它在哪里。时至二十一世纪,人们相信事物首先必须在物理上存在,它们才存在,人脑也不例外。意识虽然很神秘,大部分科学家都相信它也只是人脑的电化学活动,像迪昂(Stanislas Dehaene)这样的神经学家,已在实验室追猎到意识的一些踪迹。其中也有人把物理主义推到极端,直接否定了意识的存在,认为从来就没有这回事,那都是科学蒙昧时代的迷思。另外有一些严肃科学家,则坚持意识“属灵论”,相信意识是人类天赋,是自然界的一种例外。

由此,未来智能机器人会不会有自我意识,同样成了一个争论焦点。有些科学家认为就算超级人工智能越过了奇点,它们也不会像人类那样思考。至少从目前已出现的机器智能算法上来看,它们和人类智能在结构和本质上都不是一回事。比如日本有人写出一款人力资源管理算法,它可以约谈员工,准确预测出那些有辞职倾向的人。但只是它对员工表述语言进行深度结构分析,从单词频率、次序上寻找特征。并不依靠理解表面语义,读懂对象心理。人从群体进化中获得的心理化能力,机器根本不需要。

另一些人则认为,未来的超级智能,如果说有可能发展出来,一定在某种程度上模拟了人脑活动,循此道路,机器产生自我意识也是一定会发生的。麦克尤恩显然相信机器人一定会产生意识。它们不仅能学会烤鸡、写诗,他们也会萌生爱情、并把它埋在内心深处,在自我意识浇灌下让它变得越来越强烈。

一旦机器产生自我意识,就会遭遇到奥莫亨德罗(Steve Omohundro)的难题:自我意识意味着自我保护,机器会认识到首先必须存在,才能达成围绕着自我意识的所有其它目标。超级智能机器会设法让开关失效。当查理再一次试图伸手关掉它的电源,亚当阻止了他,而且把他的腕骨捏碎了。亚当坚定地夺回/取消了开关控制权。不过当查理把这件严重事故告诉小说中的“图灵”,也就是亚当和夏娃们真正的设计者时,图灵并没有震惊,不过是一个“值得关注的”情况。图灵告诉查理,据他所知,那批测试版机器人中,已有十一位设法取消了开关。这不奇怪,历史上那位真正的图灵对此反复思考过了。早在1951年,他就在BBC三台谈话节目中提到此类事情。他在那做了一个演讲,题目叫《机器能思考么?》(Can Digital Computers Think?)。其中说到,就算人类把开关控制在手中,必要时关掉它,对人类来说,这也够耻辱的了(We should,as a species,feel great humbled)。图灵虽然有点忧虑,显然不赞成靠开关维持优势。

麦克尤恩设想了一种道德至上的智能机器。在它们复杂的计算决策“黑盒”底层,必定预置了一些最高级道德命令,以防发生难以控制的不测事件。因为按照牛津大学哲学家尼克(Nick Bostrom)的预想,即便是一个善意的机器人,按照人类命令行事,它也会把世界上的一切都变造成回形针,因为智能机器人在完成任务方面是一个彻底的完美主义者。但亚当却没有为查理赚回世界上所有的钱,显然它在决策中综合考虑了互不相容的几种人类偏好。比如说,也要兼顾安全感,过量财富显然会带来身心两方面的危险。尤其是道德损害。

道德规则本身就包含了无数种偏好。比如小说故事就涉及到:是“复仇正义”要紧呢?或者是“不能欺骗他人”更重要呢?这才是麦克尤恩真正感兴趣的问题。工程师给亚当们内置了所有人类道德规则,但那些远不是经由自我审视、选择而来的道德感。出厂设定代表了人类所有最美好的期望,可就算是人类自己,也没有一个能做到。因为那些规则条款,根本经不起社会人群的人际摩擦。就像麦克尤恩小说中几乎所有人物一样,天性良善,却让一些细微的摩擦冲突愈演愈烈,直至不可收拾。小说中那些亚当夏娃们再一次证明了麦克尤恩的观点。它们很快就陷入意识崩溃,无法在人世生存,一个接一个自杀了。

在它们中间,亚当遇到的可能是最好的主人,因为查理和米兰达道德上的妥协性,使得亚当跟它们的冲突,能够拖延很久才爆发。但自从查理和米兰达分别设定,把亚当个性一分为二时,就注定了冲突的不可避免。给他输入的道德命令行,简单刻板而井井有条。但正如小说中图灵指出,在日常生活中,人类的情感、偏见、自我欺骗,以及其它各种认知缺陷会构成一个力场,互相挤压,道德原则在其中扭曲变形。亚当的大脑根本无法处理如此复杂的情况,因为人类自己也不明白究竟,从来就没有解决方案,他们只是一味妥协,妥协,直到冲突爆发(就像麦克尤恩小说中每个人物都遭遇到的)。

亚当早晚会在某一天宕机。现在这个结局只是让读者更加震惊,它附带拷问了查理和米兰达的灵魂,他们的善意,他们的与世无争,他们自以为中立的道德价值视角,何以会导致小说最终给予他们的这个结果?

这本书怎么样?

点击星号为它评分!

平均评分 0 / 5. 投票数: 0

到目前为止还没有评分!成为第一位为此书评分。

资源下载
书名:我这样的机器
作者:[英] 伊恩·麦克尤恩
译者:周小进
出版社:上海译文出版社
ISBN:9787532785070
豆瓣评分:8.4

评论0

请先