自动化,智能化是我们一直以来所追求的,硅谷巨头,IT精英也备受追捧,甚至他们因描绘的自动化图景平添了一份英雄主义的光环,不仅如此,各大经济体也纷纷将智能制造,万物互联提升到国家战略的高度。一致的赞歌下,却有着不和谐的反对声,本书作者所言可谓盛世危言,而原《浅薄• 互联网是如何毒化我们的思维》作者尼古拉斯卡尔这次又成为互联网大潮里的逆行者。
序言里,卡尔还是赞扬了自动化趋势带来的便捷,即听从算法的智慧,让人类减少了琐事的困扰,经常可以事半功倍或是做些以前做不到的事情。这些优势基本一笔带过之后,卡尔开始毫不留情地表达了对自动化带来更深层次,更隐秘影响的担忧。
1.弱化我们的才能
依靠自动化技术,我们将多模式的响应能力和记忆外包出去,在摆脱了生活许多摩擦的同时,也会使自己的感官体验枯竭。比如客机上广泛采用的自动驾驶技术,导致飞行员过度依赖自动化飞行,削弱了人飞行员快速吃力应急状况的能力。
自动化技术也会让我们生活在一种依赖的状态下,生活在手机应用的牢笼里。最典型就是百度地图之类的导航软件。在人类演化的漫长时期内,大脑由于不断接触事实所造就的导航感使所有记忆进化的源头。可以说生活塑造了我们,而依赖导航软件的结果就是我们远离了塑造的生活。
2.限制视野
信息技术带来了资讯爆炸,永远在线的状态。如何处理过载的资讯,今日头条、网易云音乐的做法是根据用户个人数据偏好,推送适合你的新闻和音乐。目前来看,大获成功,今日头条强势成为新闻APP第一集团军,而网易云音乐更是被赞为神器,屡屡被用户贴上网易好懂我的标签。
这种自动化技术的推送、排列算法使每个人的APP都成了独一无二的呈现。但同时这种自动化的呈现限制了我们的视野,剥夺了我们的选择权。推送的新闻、电影、音乐、旅行路线、酒店、餐厅、穿着乃至推荐的课程、朋友、交往对象都在针对性地塑造我们自己。
从这个意义上讲,我们都成了自动化算法的奴隶,它塑造了我们看待世界的方式,不断重复自我,不断强化自我。
3.被操纵的危险
从第2点来看,有一个更加隐秘且深远的危险,即被自动化算法操纵。这不是危言耸听,既然自动化算法可以推送我们几乎一切需求,背后算法究竟符合谁的利益就显得尤为重要。且不说我们能不能决定认可针对自己的算法,就在这样一个每日不断更新算法且专业分工愈来深入的情况下,我们谈何知情权,更遑论认可选择权!
又如我们日常使用的搜索引擎,它优先考虑的是流行性和新近性,而不是观点多样性、论证充分性、信息准确性。
这样的结果很可能助长了人类的自私性,因为我们会越来越自我,助长更多的纷争,因为我们越来越难以容忍多元和异见。
作者将我们依赖的自动化技术极为精妙的比作玻璃笼子,应该就是指我们貌似解放了许多阅读、筛选、重复工作,获得了自由空闲,但周围就如笼子进口茧房一样将你包裹而不自知。
4.道德困境
阿西莫夫的机器人法则第一条:机器人不得伤害人类,也不能无所作为。貌似不难遵守,可现实问题复杂太多。比如自动驾驶汽车正以80迈行驶,突然前方横窜一犬,自动化汽车经过计算表明,急打转向,乘客有18%的概率颈部受伤,犬完好。不打转向,乘客完好,犬88%概率死亡,请问它怎末自主做出选择。如果不是犬还是顽童呢?如果通过面部识别出是个逃犯呢?如果车内有五名乘客呢?
显然机器必须拥有一定的道德体系作为选择依据。问题是在道德模糊的情况下,谁来决定什么事最优或理性选择?这个选择代表谁的价值观和利益,动物维权人士?汽车乘客?当地政府?保险商?很无奈,目前为止,是不可能有完美的道德算法,不可能简化成人人赞同的规则。
但可怕的是,自动化在商业资本的世界里一路狂奔,停不下来。
除此之外,还有很多需要我们在技术崇拜,技术中心论,技术狂飙的时代深思正视的问题,正如艾默生所说,生命力是活的灵魂,最崇高的责任是抵制任何削弱或腐蚀灵魂的力量。尼古拉斯卡尔先生此书观点独到精准,论证详实有力,十分愉快的阅读体验。