作为新一轮科技革命和产业变革的代表,人工智能正在同实体经济和社会生活深度融合,形成大量新产品和新产业,大幅提升社会生产效率。在为人们带来诸多好处的同时,人工智能也催生了人机关系的新变化和新挑战。对此,我们需要建立人工智能的伦理规则,构建产业发展的“压舱石”,才能让技术更好地造福人类。

2018年10月31日,习近平总书记在中共中央政治局第九次集体学习时强调,要加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。前瞻研究和制定人工智能伦理规范,有助于更好地发挥其“头雁”效应,对产业健康发展、人民幸福生活具有重要意义。

智能时代呼唤伦理规则的建立

继工业革命、电力革命和信息革命后,人类社会正在步入智能革命的新时代。在经济领域,人工智能将极大地提升社会生产力,进一步解放人们的体力和脑力。根据埃森哲的预测,到2035年,人工智能将拉动中国的经济年增长率到7.9%。在生活领域,从语音搜索更方便地获取知识,到人脸识别快速支付;从中国智能音箱市场的快速崛起,到大众对无人驾驶汽车的热切期待,人工智能已经来到每个人的身边,潜移默化地改变着人们的生活。

在智能时代,人与机器的关系将会被重新定义。今天我们看到的每一条新闻信息流,刷的每一个小视频,浏览的每一款商品,都是机器推荐的结果,这背后是机器通过用户画像等技术分析后的精准推荐。可以说,机器辅助决策已悄然融入每个人生活的思考决策中。未来,随着人工智能在产业领域应用的拓展,法官对案件的审判、交易员对买入卖出股票的决定、医生对疾病的诊断等等,都会越来越依靠机器的智慧判断。这种人机关系的新变化,使得机器不再是从属的工具,而是成为人类的顾问和帮手。

当前,我们正站在迈入未来智能社会的门槛上,每个人都面临着一次重要的选择:是利用人工智能满足短期的快乐和沉迷,还是获得长期的学习成长;是让技术沦为少数人获利的工具,还是让每个人都平等地获得技术带来的福利?这些选择决定了技术能否朝着为人类服务的方向发展。特别是随着人工智能更深入地嵌入到经济社会的过程中,我们遇到更多复杂的伦理问题,如怎样保证人工智能的安全、如何让产品设计更符合伦理规范、人与机器的责任如何界定,等等。因此,加强研究和制定人工智能伦理规范,为未来智能社会做好准备,就显得非常重要和紧迫。

人工智能伦理问题受高度关注

从全球范围来看,人工智能技术和应用比较领先的国家和地区,都高度重视人工智能伦理问题。美国政府较早关注到这一问题,2016年在白宫文件中呼吁开展研究,并在《美国国家人工智能研究与发展战略规划》中明确了提高公平、可解释性,符合伦理道德的设计,确保系统安全可靠等要求。今年初,特朗普签署的《维护美国人工智能领导力的行政命令》中,也强调在发展人工智能应用时,要保护公民利益,并增强公众信任。美国的产业界行动非常积极,谷歌、脸书、亚马逊等在2016年成立Partnership on AI组织,目的是让人工智能更好地服务人类。2017年,霍金、特斯拉创始人马斯克、DeepMind创始人戴密斯等全球数千名专家和企业代表,签署有关伦理的阿西洛马人工智能23条原则,呼吁业界遵守,共同保障人类未来的利益和安全。

面对人工智能产业整体发展相对落后的现状,欧盟在人工智能伦理上非常积极,希望借此成为人工智能道德伦理的领导者,并通过《通用数据保护条例》(GDPR)对产业施加更大的影响力。欧盟人工智能高级专家组2018年12月发布《可信人工智能伦理指南草案》,这也是全球首个专门针对伦理的规则范本。指南中提出,人工智能未来应满足7大原则,包括保障人类充分的自主权、技术的稳定性和安全性、数据安全和隐私、模型和算法的透明度和可解释性、公平和无歧视、自然生态和社会福祉的可持续性、可追责。同时,欧盟还推出一个“可信赖AI评估列表”,用来帮助寻找人工智能系统中的风险。

近年来,我国对人工智能伦理的重视也上升到国家层面。《国务院关于印发新一代人工智能发展规划的通知》中提出有关人工智能伦理的相关规划,指出到2020年,部分领域的人工智能伦理规范和政策法规初步建立。今年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则—发展负责任的人工智能》,提出了人工智能治理需遵循的8条原则:和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理。在我国,很多企业也在积极参与探讨,如百度提出人工智能伦理的4条原则,包括人工智能的最高原则是安全可控,创新愿景是促进人类更平等地获取技术和能力,存在价值是教人学习、让人成长,而非超越人、替代人,终极理想是为人类带来更多自由和可能。腾讯则提出“可用、可靠、可知、可控”的理念,倡导科技向善。

5月17日,在第三届世界智能大会上,观众正在与中国移动展区的人工智能机器人互动。记者李天楠 摄

当前需重点关注的人工智能伦理议题

纵观全球各国政府和产业界关注的人工智能伦理重点,其核心都是“以人为本”,把人类社会的福祉作为最终的目标愿景。具体来看,主要聚焦在安全可控、公平和普惠共享、隐私保护、责任分担以及可能造成的失业问题等方面。

安全可控是人们对人工智能最大的担忧之一,也是人工智能伦理需要坚持的最高原则。安全可控的要求体现在系统本身的健壮性和稳定性、数据防泄露和篡改、隐私保护、网络的安全,保证人类对系统的最终控制权,以及提高算法模型的透明度和可解释性等方面。当下,很多影视作品都对人工智能的威胁进行了渲染,加重了人们的恐慌。虽然控制人类的超人工智能可能永远都不会出现,但不可忽视的一个问题是对人工智能技术的滥用所导致的政治和社会稳定等问题。国外开发者利用一款名为DeepFake的软件,可以轻松生成各种以假乱真的视频。去年,美国演员乔丹·皮勒制作了一个非常逼真的奥巴马演说攻击特朗普的视频;还有一些人利用这个软件,基于谷歌开源平台TensorFlow制作色情内容。在我国,换脸视频制作软件也在一些电子商务平台上出售。因此,在提升识破假视频的技术能力的同时,我们也要通过相关的规制,去控制技术滥用,保证技术用于有益于社会的方面。

公众对隐私的关注度近年来不断上升,也是人工智能产业健康发展需要重点保障的方面。隐私并不是人工智能时代的新问题,而是伴随着信息化、互联网的广泛使用,人们各种身份和行为信息被越来越多地数字化,进而带来了可能的泄露和滥用等问题。去年正式生效的欧盟GDPR,提出了对个人数据保护的详细规定,被称为史上最严的数据保护规定。我国出台的《网络安全法》等相关法律法规,有力地保护了整个行业的数据安全生态,保障了网民的隐私和权益。

公平是人工智能应用需要重点保障的原则。如同信息化时代人们担心的“数字鸿沟”问题,人工智能技术应用的差别也可能出现“智能鸿沟”问题。根据麦肯锡的研究,人工智能应用也可能会加剧国家、企业、个人之间的贫富差距。对企业来说,更早采用或者更深度应用人工智能的企业,可以获得更大的市场份额,反之则陷入竞争劣势。对个人来说,那些从事重复工作,而没有结合人工智能技能的员工,很可能会遇到降薪。所以,如何实现普惠AI,让人们更平等地获得技术和能力,就显得更为重要。截至今年7月,百度AI的核心技术引擎—百度大脑已经开放了210项领先的AI技术能力,开发者数量达到130万,平台上开发者的日均调用次数同比增长108%。来自不同行业,拥有不同背景的开发者们,都在借助百度大脑快速地获得AI能力。

人工智能导致的歧视问题,在国外受到极大的关注,因为人工智能模型算法的建立和优化非常依赖数据,如果数据本身出现不完整、负面、偏见等问题,那么机器学习训练出的模型就可能存在算法歧视等问题。要减少算法歧视,就要尽可能地对数据进行清洗和筛选,剔除那些不好的数据,同时还要让数据更开放、更透明,在保护安全和隐私的前提下鼓励数据流动,并在算法模型的设计阶段保证公平。

可能造成的失业问题是人工智能对人类社会影响的一个长期议题。麦肯锡预测,到2030年,随着人工智能等技术的进步,多达3.75亿劳动者可能需要更换职业类型。然而,自动化对就业的替代,并不是一个新问题。从工业革命起,人类被机器取代的问题就一直纠缠着我们,每当一种新技术大规模运用时,这个问题就会被重新提起。19世纪早期,由于自动纺织机的运用,在英国大批纺织业者失业,爆发了以捣毁机器为手段的自发工人运动—卢德运动。20世纪30年代,因大萧条造成持续性失业,曾有经济学家提出“技术性失业”概念,建议通过暂停技术进步的方式缓解失业问题,甚至有人还提出对机器征税的议案。但历史一次次证明,旧职业被淘汰的同时,总会有新职业出现,劳动力也从农业向工业和服务业不断迁移。很多专家相信,如同互联网的繁荣创造了大量的新职位,人工智能新技术会创造更多新的岗位,例如,面对人工智能的飞速发展和强大需求,数据标注员、算法工程师、大数据分析师等新岗位反倒出现“人才匮乏”。面对可能的“结构性失业”问题,我们需要在教育和再培训上下更多功夫,提升人们在新时代的就业技能,并不断推动企业通过平台等方式扩大技术开放,降低新技术利用的门槛,促进各行业的创业和创新,让每个人都有机会实现更好的就业和发展。

人工智能的时代已经来临,面向未来,如何解决好上述这些问题,需要政府、人工智能企业、跨学科的专家、行业和个人用户等相关方,共同探讨和设计人工智能的伦理,推进行业实践的落地,并根据产业发展的新情况和新问题,动态优化相关规范,保证人工智能始终朝着造福人、帮助人和成就人的方向健康发展。(王强,百度发展研究中心副主任)