人工智能:在它够聪明之前,可能还需要“道德约束”
“自然选择,优胜劣汰。”在过去N万年中,所有的生物体无不 依此规律进化升级,包括我们这些拥有最高智商的人类,也是通过此优胜劣汰,逐步站到了万物金字塔的顶端,更甚至于地球的主宰。但就在今天,我们已然发现自 然选择可能随时会被取代,尤其伴随着人工智能——非有机生物体——的出现。
人 工智能,由我们亲手做出的跳脱天然范畴的人工设计,堪称为人类实现自我突破与变革的一场“逆天革命”与“疯狂冒险”。面对人工智能,与其说我们是对自身的 未来抱有多美好的憧憬,倒不如说对未来满怀“恐惧着的希望”,人工智能碾压一切的进步性与潜在的失控风险始终拉扯着我们的终极神经。
如何制衡人工智能这把“双刃利剑”,已然成为智慧产业前行的重要课题。何以在人工智能“够聪明”之前,为它们树立并能够实际遵循的行为准则,以此构建较完善的监管体系或者说是 “道德束缚”?
智慧进化 箭在弦上
曾 几何时,人工智能还只是计算机科学的一个分支,出于对人类意识、思维的信息模拟。自1956年达特茂斯会议诞生“人工智能”一词以来, 短短60年,商业动机已经让与工业力量相关的人工智能无处不在,互联网、金融、医疗、教育、物流、娱乐、传媒等行业都在加速自己智能化的进程。市场研究公 司IDC预测,到2020年,AI的市场规模将从今年的80亿美元增长到470亿美元,而对话机器人、智能语音、人工智能医疗等则成了人工智能这一热点中 的热点。
互联网及物联网技术的不断进步、大数据在数 量与内容上的持续性几何增长与应用,让人工智能得以不断“深度学习和演化”,在具备学习能力的机器眼中,一切“人、事、物”皆可以被数据化,而算法基于这 些数据便可以建立“人、事、物”之间错综复杂的关联关系。当算法可以充分捕获描述人事物的关键数据后,机器便可以复制甚至超越人类的学习能力。
2016 年3月15日,谷歌阿尔法围棋(AlphaGo)与李世石的五局人机大战在首尔四季酒店战罢,人类代表韩国棋手李世石九段执黑不敌AlphaGo,代表人 类大脑最复杂领域的围棋被机器攻略,进一步论证了人工智能在模拟人脑、基因演化和自我进化的过程中已深度“进阶”。人工智能正在由“弱人工智能”向“超级 人工智能”高速进化。
人与机器 “相爱相杀”
工 业革命将人类从“体力劳动”中解放,当科技的发展进入人工智能领域,人们不可避免的期待着它来解放我们的“脑力劳动”。当前社会,人工智能的发展已经在改 变很多人的生活方式,在医药领域,人工智能做到了对病毒爆发地的提前模拟,从而提前防控疫情;在教育领域,人工智能代替人们做到了一对一家教般的精准体 贴;在旅游领域,人工智能可以实时完成快速调取当前场景信息并实时讲解与翻译……
但 是,人类似乎一直纠结于一种矛盾的存在,始终生活在悖论里。我们一边以科技的进步标榜自己的成就,一边又焦虑并惧怕着被科技产物所取代甚至毁灭。这种巨大 的恐惧和担忧,在文艺工作者的作品中体现得尤其明显:电影《终结者》邪恶机器人天网,企图审判并灭绝人类;《黑客帝国》中机器人要完全控制并奴役人类; 《银翼杀手》里人工智能复制人与人类对抗……虽然我们还不至于亲眼目睹、亲身经历电影桥段中可能出现的危机,但是接下来我们确实很可能会产生一个群体—— 无用的人群。因为以往人类社会的几次技术革命在导致失业的同时,也创造了大量新型工作。而人工智能技术的发展,在替代人类劳动的同时,对创造新工种可能贡 献有限,这将在一定程度上对就业产生负面影响。
充分 吸收了人类几十万年以来的思维进化成果,并在记忆、计算、逻辑推理上占据绝对优势的人工智能,单从硬件上来看,很可能让人类大脑望尘莫及。大脑的内部信息 传播速度是每秒120米,相较于电脑的光速已经没有比较的意义。而且,人工智能还可以随意运用更多的硬件以获得更大的内存,不但容量大而且更精准。甚至, 我们觉得困难的事情,对于人工智能来说未必有多大的难度系数,而这无疑将导致不少工种的在岗人员被替代。与此同时,不少人们围绕人工智能可能产生的社会伦 理、道德、战争等都表现出了深深的担忧。在寻求矛盾告解之法的旅程中,人工智能发展将持久地伴随着人类的自我博弈过程;但不管社会发展最终走向何方,未来 人类自身的存在方式甚至人体构成模式都会朝着更加注重高效、实用与低耗、持久的方向演化。
人力智能的“洪荒之力”亟待约束
人 工智能领域的研究和应用在很多方面都取得急速进步,但与之相对应的规范化约束方案却严重滞缓。人工智能与核武器、生化技术、基因技术等其他影响巨大的技术 一样,潜在的威胁和其潜在的利益是成正比的,想要妥善利用这股洪荒之力,在它们“够聪明”之前,为其树立一套可靠的行为准则是十分必要的。我们要的不仅仅 是娴熟的技术以引燃智能爆炸,还需要在更高水平上掌握控制权,以免我们在智能爆炸中“身首异处”。
就 如科幻小说作家艾萨克•阿西莫夫在他的短篇小说《环舞》中提出的“机器人三大法则”,可以说是一种保护性设计和内置的道德原则。原则一:机器人不可以伤害 人类,或看到一个人将受到伤害而不作为;原则二:机器人必须服从人类的命令,除非这些命令与第一项法则矛盾;原则三:在不违反第一、第二项法则的前提下, 机器人必须保护自身生存。时至今日,这对现实中的人工智能发展同样具备指导意义。
目 前,全球最大的5家科技公司谷歌母公司Alphabet、亚马逊、Facebook、IBM和微软都在率先尝试制定关于人工智能机器人的道德标准,并规划 成立人工智能行业组织。虽然尚不清楚,这一行业组织最终会取得什么样的成果。但其基本出发点很明确:确保人工智能的研究专注于造福人类,而非不利于人类。
此 外,开发人工智能已经是全球性的竞争,这样的竞赛机制也许会让某些害怕落后的团队通过增加冒险行为的方式赶上竞争者,非良性的循环会让这一风险直达最高水 平。因此,除了围绕人工智能研究制定规则,行业内也须制定自我约束框架。而在这一过程中,政府有效并适时的参与到为人工智能规划目标、价值观和道德规范的 过程中来,也将是一种必然行为,因为人工智能已经将技术发展和社会经济政策更紧密地联系在一起。