拼客弗洛伊德
对
人工智能:李开复谈AI如何重塑个人、商业与社会的未来图谱
的书评
发表时间:2017-04-25 01:04:54
“人工智能时代”,到底谁比较危险?这是个好问题。
在《Race Against the Machine》这一类的书中,我们看到的危险是来自于对人类未来与机器的竞争。由于人工智能的发展,越来越多人开始担心我们人发明的这些技术会结果反过来会导致我们的失业,甚至认定这是一个在未来会越来越清楚,越来越壮大的趋势。
更厉害些的大神呢?看到的就不止危险,甚至是危机或者说是危难了。Elon Musk曾将研制自治可思考机器的做法描述为“召唤恶魔”。Stephen Hawking则对超人工智能会毁灭人类的可能性表示担忧,为此,两位各自领域的大神甚至在2015年时候联合起来一群科学家和企业家签发了一封公开信,承诺确保人工智能研究造福人类。这封由未来生活研究所草拟的公开信警告称,如果智能机器缺乏监管,人类将迎来一个黑暗的未来。
与此同时,我们也可以从学界听到不同的声音,比如《科学美国人》今年1月的刊物中就有作者表示:相对人类来说,人工智能的行为更容易预测。真正不可控的,是人类自己。这下子,问题似乎真的来了,种种声音,我们该信谁呢?或者说,种种声音,谁对谁错?我们该怎么辨识?也许,只需要想明白一个道理即可,即——人工智能将以怎样一种形式到来?
首先,人工智能即便到来,也不会像大家想象的那么快。这是李开复博士在新书《人工智能》中较为先行得出的一个结论。原因很简单,它“在一段时间的加速发展后,会遇到某些难以逾越的技术瓶颈”。
正如原本受摩尔定律左右的芯片性能发展已遭遇技术瓶颈那样,人工智能在从弱人工智能到强人工智能的发展道路上,未必也就是一帆风顺。由于如物理学和生物学等基础科学尚缺乏对人类智慧和意识的精确描述,其间有很大概率存在难以在短期内解决的技术难题,换言之,如果技术加速发展规律无法与人工智能的长期发展趋势相吻合,那么超人工智能在短期内就很难实现,这是其一。
其二,人类在跟“人工智能”的竞争中有一项天然优势,是至今“人工智能”都无法逾越的。即“人脑中的情感、自我认知等思想都是机器所完全没有的。人类可以跨领域思考,可以在短短的上下文和简单的表达方式中,蕴藏丰富的语义……(而)复杂的思想,今天的AI还完全无法理解”,光凭这一点,人工智能在短期内也是不能超越人类的了。
好吧,你我一样,我们都想知道,即便人工智能时代没那么早到来,也没有那么容易到来,可是,万一它还是来呢呢?到底会在多大程度上会替代人类?书中同样就此给出了自己的答案。
李开复博士表示,他很赞同MIT实验室负责人伊藤穰一先生的观点,即“宏观角度来看,我们无法否认人们会因“新技术总会导致人们失业”而恐慌,但随着新技术的发展,某些领域又会诞生新的工作。”
当然,这并不意味着我们就完全不用为自己未来的饭碗所担心,长远看来,一些符合“五秒钟准则”的工作,即“一项本来由人从事的工作,如果人可以在5秒钟以内对工作中需要思考和决策的问题做出相应的决定,那么,这项工作就有非常大的可能被人工智能技术全部或部分取代。”如果就全人类的工作进行一个粗略的估计,李开复博士预测:约50%的人类工作会受到人工智能的影响!
既然如此,为之奈何?答案是——如果不想在人工智能到来的时代失去人生的价值与意义,唯有从现在开始,找到自己的独特之处,拥抱人类的独特价值,成为在情感、性格、素养上都更加全面的人”。
大概是觉得这样的解释太抽象了,为了方便读者理解,李开复博士在随后的论述中又将内容稍微做了一些延展:“不断提高自己,善于利用人类的特长,善于借助机器的能力,这将是未来社会里各领域人才的必备特质。机器可以快速完成数学运算,可以下出极高水准的围棋,可以独立完成量化交易,甚至可以从事一些最初级的诗歌、绘画等艺术创作。但人类总是可以借助机器这个工具来提高自己,让自己的大脑在更高层次上,完成机器无法完成的复杂推理、复杂决策以及复杂的情感活动”。如此迷津指点,似乎再好不过。
“人工智能时代”,到底谁比较危险?这是个好问题。通读李开复博士的《人工智能》,我们需要的答案,也渐渐清晰了——相比于人工智能给人类可能造成的危险,那些明知道人工智能时代可能到来,却不愿意接受,不愿意改变的人,反倒是比较危险的,不论是对他们自己的未来处境而言,更是对全人类的福祉而言。反之,如果现在开始认识清楚人工智能利弊,早做准备的人,无疑将是幸运的。
所以,不妨更多地借助机器和互联网的便利,去更好地感知整个世界、整个宇宙,体验人生的诸多可能好了,也只有这样,才不枉我们短暂的生命在浩瀚宇宙中如流星般走过的这一程了罢。套用尤瓦尔·赫拉利在《未来简史》中的一句名言:“研究人工智能并不能告诉我们该如何选择,但至少能给我们提供更多选项”,共勉。