伴随此轮人工智能@@发展高潮@@,社会中普遍存在这样的担忧与疑虑@@:机器是否会取代人类@@@@,人工智能@@是否会成为人类文明史的终结@@?

  在未来的人类生活中@@,人工智能@@也必将扮演越来越重要的角色@@。对于@@这样的图景@@,我们自@@不必惊慌@@,但也不可忽视@@。监管人工智能@@@@,找到正确的方向并采取合理的措施@@,正是当下所应该重视的政策议题@@。

  人工智能@@在其@@60余年@@起起伏伏的发展史中@@,再次@@迎来了高潮@@。但伴随此轮发展高潮的@@,同样还有社会中普遍存在的担忧与疑虑@@:机器是否会取代人类@@@@,人工智能@@是否会成为人类文明史的终结@@?

  这样的担忧自@@有其合理性所在@@,而也正是基于此@@,要求政府@@介入并对人工智能@@的发展进行监管的呼声不绝于耳@@。可问题在于@@:对于@@一个尚未成为现实而仅存在于想象中的@@“威胁@@”,究竟应该如何施以监管@@,以避免@@“孩子跟洗脚水一起倒掉@@”?

  事实上@@,监管的难题并不在于如何平衡技术发展的利弊两端@@,而是如何准确定位技术的潜在威胁@@并有针对性地施以监管@@。换句话说@@,人工智能@@的危害真的是@@“取代人类@@”么@@?若如此@@,唯一合理的监管方式可能就是完全禁止该项技术的研发@@。考虑到人工智能@@技术的应用已经遍及生活的方方面面@@,从搜索@@引擎到社交网络再到定制新闻@@,不一而足@@。也正因为此@@,我们可能需要重新反思当前对于@@人工智能@@的担忧是否成立@@。如果不成立@@,其真正的威胁@@又是什么@@@@?在回答这些问题的基础上@@@@,我们才有可能找到监管人工智能@@@@的合理路径@@,并使之更有效地服务于人类@@、服务于未来@@。

  人工智能@@:究竟应该担心什么@@@@

  2016年@@10月@@19日@@,霍金在剑桥大学@@Leverhulme未来智能中心的开幕仪式上发表演讲@@,声称@@“人工智能@@可能是人类文明史的终结@@……其在人类历史上@@,可能是最好的@@,也可能是最糟糕的@@”。这并不是霍金第一次@@对人工智能@@的发展发出警告@@。2014年@@在接受@@BBC的采访时@@,他也表达了类似的观点@@@@。自@@那之后@@,霍金也积极投入到宣传@@、推动对人工智能@@研究进行合理规范的行动当中@@。事实上@@,Leverhulme未来智能中心成立的重要使命之一便是化解@@AI(人工智能@@)可能带来的风险@@。

  霍金并非@@“杞人忧天@@@@”的唯一@@,特斯拉@@、SpaceX的创始人埃隆@@·马斯克同样屡次@@警告人工智能@@潜藏的巨大风险@@。在霍金@@、马斯克等人的推动下@@,超过@@892名人工智能@@研究人员以及@@另外@@1445名专家共同签署并发布了@@《人工智能@@23条原则@@》,以确保人工智能@@的发展行进在正确轨道上@@。

  人工智能@@是否会取代甚至@@“奴役@@”人类的可能性并非是针对其的唯一@@担忧@@,人工智能@@对于@@就业的冲击@@、社会不平等状况的加剧同样是引起人们焦虑的重要原因@@。《未来简史@@》的作者@@尤瓦尔@@·赫拉利就直接指出@@:人工智能@@的发展将导致大量失业等社会问题的出现@@,并使得少数个体成为@@“超人@@”中的新精英而大部分人类都将沦为在经济@@、政治意义上毫无价值的个体@@,由此人类将进入最不平等的时代@@。

  我们是否应该相信霍金@@、马斯克和赫拉利等人对于@@人工智能@@的担忧呢@@@@?不同的人有不同的观点@@@@。扎克伯格就曾批评过马斯克@@,他认为@@“现在对于@@人工智能@@安全性的担忧@@,就如同两百年@@前担心飞机坠毁怎么@@办一样@@@@。如果我们总是过度担心安全性@@,我们就不可能造出飞机@@。”事实上@@,历史上任何一项颠覆性的技术进步都伴随着诸多质疑@@,无论是原子能技术的发明@@,抑或是基因工程的突破@@,无不如此@@。但历史最终证明@@,人类社会的发展并未陷入混乱或终结@@,这也说明当前对于@@人工智能@@的担忧或许存在一定的夸大成分@@。

  不过另一方面@@@@@@,人工智能@@的发展又的确潜藏了巨大风险@@,放任自@@流的监管态度明显不是最优选择@@。同样需要指出的是@@,自@@1960年@@代@@OECD提出@@“知识社会@@”的概念之后@@,技术发展就成为了与土地@@、人口并重的国家竞争力的重要体现之一@@。如何通过合理监管以有效引导本国人工智能@@技术的发展@@,自@@然成为各国政府@@绕不开的难题@@。也正因为此@@,当前争议的核心并非@@“是否应该对人工智能@@的发展进行监管@@”,真正的挑战在于@@“监管什么@@@@”,以及@@“如何监管@@”。

  事实上@@,只有回到人工智能@@技术本身并从其基本原理出发@@,才能正确理解什么@@是人工智能@@@@,它能干什么@@@@、不能干什么@@@@,潜藏的价值和风险又是什么@@@@。只有建立在对这些问题正确理解的基础上@@@@,我们才能为未来的监管政策提出@@有益建议@@。

  算法背后的基石@@:数据@@与规则@@

  在经历了@@2016年@@的火热之后@@,许多人已经可以感知到人工智能@@@@,以及@@支撑其运行的机器学习@@算法的普遍存在@@。无处不在的人工智能@@已经开始逐渐影响我们的日@@常生活@@,计算设备在@@“吞入@@”海量数据@@的同时@@,神奇地生产着与你相关的各种信息@@、产品与服务@@。

  但这个过程究竟是如何发生的@@?建立在机器学习@@算法基础上的人工智能@@是否会不断进步乃至最终超越人类的控制@@?要想对这一问题做出回答@@,我们便不得不回到机器学习@@的算法本身上来@@。

  算法本质上就是一系列指令@@,告诉计算机该做什么@@@@。对于@@传统算法而言@@@@,往往事无巨细地规定好了机器在既定条件@@下的既定动作@@;机器学习@@算法却是通过对已有数据@@的@@“学习@@”,使机器能够在与历史数据@@不同的新情境下做出判断@@。

  具体而言@@@@,机器学习@@算法的实现方式多种多样@@,但就当前的技术发展而言@@@@,主要可被划分为@@5个类别@@:符号学派@@、联接学派@@、进化学派@@、类推学派@@和贝叶斯学派@@。每个学派都遵循不同的逻辑@@、以不同的理念实现机器学习@@的过程@@。

  对于@@“符号学派@@”而言@@,所有的信息处理都可被简化为对符号的操纵@@,由此学习@@过程被简化@@(抽象@@)为基于数据@@和假设的规则归纳过程@@。在数据@@@@(即当前事实@@)和已有知识@@(即预先设定的条件@@@@)的基础上@@,符号学派@@通过@@“提出@@假设@@—数据@@验证@@—进一步提出@@新假设@@—归纳新规则@@”的过程训练机器的学习@@能力@@,并由此实现在新环境下的决策判断@@。符号学派@@固然符合经验主义的哲学认知@@,但通过其概念模型我们亦可以发现@@,其成功的关键在于数据@@的完整性和人为预设条件@@@@的可靠性@@。换言之@@,数据@@的缺失和预设条件@@@@的不合理将直接影响机器学习@@的输出@@(即决策规则的归纳@@)。最明显体现这一问题的例子便是罗素的@@“归纳主义者火鸡@@”:火鸡在观察@@10天@@(数据@@集不完整@@)之后得出结论@@(代表预设条件@@@@不合理@@,超过@@10个确认数据@@即接受规则@@),主人会在每天@@早上@@9点给它喂食@@;但接下来是平安夜的早餐@@,主人没有喂它而是宰了它@@。

  数据@@和预设条件@@@@的问题不仅存在于符号学派@@@@,这同样是其他学派的共性@@。“联接学派@@”试图模拟人脑的学习@@过程@@,通过仿真神经元的联接结构@@,并借助反向传播算法@@(反馈输出与输入的对比@@,并以误差为基准调整参数@@)自@@动调整各个联接的权值@@,以最终实现学习@@能力@@。此处的关键仍然是输入数据@@集的完整性@@,以及@@预设条件@@@@的可靠性@@(例如停止反馈调节的阈值设定@@)。“进化学派@@”试图模拟人类的进化过程@@,在预先设定的适应度目标@@(例如过滤垃圾邮件算法的设计中@@,某个规则正确分类邮件的百分比就是适应度目标@@)指引下@@,通过交叉@@、实验不同的规则集合以找出与测试数据@@适应度最高的规则集@@(也即形成学习@@能力@@)。由此仍然可以看出数据@@与预设条件@@@@@@(适应度目标的设定@@)的重要性@@。“类推学派@@”亦是如此@@,其基本思想是通过判别不同场景的相似程度@@,来推导新场景中的合理决策@@。就此而言@@@@,参考数据@@集的完整性和不同场景相似程度的阈值设定@@(预设条件@@@@)依然是影响机器学习@@结果的关键所在@@。相比于前四个学派@@,贝叶斯学派对于@@数据@@集的规模没有太高要求@@,因其优势正是对于@@未来不确定性的学习@@与探索@@。贝叶斯算法将根据收到的新数据@@来持续检验既有假设成立的概率可能性@@,并对其进行实时调整@@。不过即使如此@@,贝叶斯算法依然受制于输入数据@@和调整规则@@。换言之@@,数据@@与人为预设条件@@@@依然是控制贝叶斯算法的关键@@。

  事实上@@,如果跳出具体学派的思维束缚@@,每种机器学习@@算法都可被概括为由@@“表示方法@@、评估@@、优化@@”这三部分组成@@。尽管机器可以不断地自@@我优化@@以提升学习@@能力@@,且原则上可以学习@@任何东西@@,但用以评估@@的数据@@以及@@评估@@的方法和原则都是由人为决定的@@。也正是从这个角度讲@@,本文开始所提到的@@“机器取代人类@@@@”的可能性其实为零@@——尽管机器可能会变得异常复杂以致人类难以理解@@。

  监管人工智能@@@@:真正的挑战是什么@@@@

  正如霍金@@、马斯克等人发起倡议的@@《人工智能@@23条原则@@》一样@@,人工智能@@的发展确需被纳入到正确的轨道上来@@——尽管原因并不在于耸人听闻的@@“机器取代论@@”。

  那究竟应该@@“监管什么@@@@”且又@@“如何监管@@”呢@@?问题的答案或许就在于本文第二部分对于@@机器学习@@算法的概念性描述上@@:既然数据@@和预设规则是所有算法的基石@@,那么@@数据@@治理@@和规则治理便自@@然成为监管人工智能@@@@的关键@@。

  一方面@@,我们给机器什么@@样的数据@@@@,机器就会形成什么@@样的学习@@能力并随之反馈给我们相应的学习@@结果@@。这一过程首先要解决的问题便是数据@@从何而来@@,机器又将如何利用数据@@@@?正如前文所反复阐述的@@,不完整的数据@@集必然导致人工智能@@学习@@过程的错误@@——就像罗素笔下的@@“归纳主义者火鸡@@”一样@@。但大规模的数据@@收集又必然带来隐私保护@@、利益分配等诸多问题@@,由此形成的对于@@数据@@治理@@的监管要求便成为了监管人工智能@@@@的第一步@@。在保护个体数据@@权利的基础上@@@@,鼓励并规范数据@@的分享@@与应用@@,以最终促进人工智能@@朝着更好的方向发展@@。

  另一方面@@@@,机器优化@@的规则@@(条件@@)又是由谁@@、通过何种程序来制定@@。尽管我们认为没有必要过多地担忧人工智能@@的发展@@,但真实的威胁@@依然存在@@。事实上@@,人工智能@@正在以不被察觉的方式潜移默化地影响人类日@@常生活@@,如果机器优化@@的规则@@不是以正当的程序受到监管和制约@@,那么@@很难保证其不被不法之徒所利用@@。正如长久以来对于@@@@“脸书@@”的质疑一样@@@@:公众如何相信其向用户推荐的新闻内容不会掺杂特殊利益的取向@@?当越来越多的人依赖定制化的新闻推送时@@,人工智能@@甚至会影响到总统选举@@。也正因为此@@,包括透明@@、开源在内的诸多治理原则@@,应当成为人工智能@@监管政策制定过程中被纳入的合理议题@@。

  在经历了@@60余年@@的发展之后@@,人工智能@@终于在互联网@@@@、大数据@@@@、机器学习@@等诸多技术取得突破的基础上@@实现了腾飞@@。在未来的人类生活中@@,人工智能@@也必将扮演越来越重要的角色@@。对于@@这样的图景@@,我们自@@不必惊慌@@,但却也不可忽视@@。监管人工智能@@@@,找到正确的方向并采取合理的措施@@,正是当下所应该重视的政策议题@@。

责任编辑@@:lihui