近日,网络上一张“课堂行为分析”的图片引发网民疑虑和警惕。据媒体报道,南京一高校在部分试点教室安装了人脸识别系统,用于日常考勤和课堂纪律管理。学生是否出勤、是否认真听讲、课堂上是否抬头低头、是否闭眼打瞌睡等行为,均能被智能识别。一些网民认为,它侵犯了学生的隐私权,是一种滥用技术的行为。对此,涉事高校回应称,该系统在校园只是“试点”“规划”,且教室属于公开场所,不存在“侵犯隐私”。教育部科学技术司相关人员在接受媒体采访时表示,校园推广人脸识别技术应谨慎,要加以限制和管理。开发该系统的旷视科技也发布声明称,该图片只是为技术场景化概念演示。

  相关争议不断发酵,截至9月17日,仅微博话题#高校试水教室人脸识别#阅读量达1.1亿次,讨论量达2.5万条。舆论场除担忧此举有侵犯个人隐私之嫌外,数据安全、科技伦理及防范人工智能新技术带来的风险等,成为舆论焦点并引发深度探讨。

  人工智能风险引起普遍担忧

  人工智能一般是指“包括机器学习,基于收集、处理和适应来自现实世界的数据的算法。”近年来,我国人工智能产业呈现出蓬勃发展的良好态势,智能语音、智能网联汽车、智能视频图像身份识别等技术的发展及其所带来的日趋丰富的应用场景,正在深刻改变人们的生产生活方式,为经济社会发展注入了新动能。然而,人工智能带来的风险也引发舆论担忧。

  7月13日,在第四届全球金融科技峰会上,央行科技司司长李伟警示AI人脸识别等新技术带来的新风险,强调要引导信息技术在金融领域合理的运用,不能滥用技术。他说,“前段时间在‘3·15’讲到‘隔空盗刷’的问题,支付场景没有表达出个人主观支付意愿。而人脸支付的时候,一刷脸钱就没了,其实更可怕。银行卡可能还揣在兜里,脸却是平常露在外面的,识别出来非常容易,现在有的技术在3公里之外识别你的人脸,没有表达客户主观意愿去刷脸是多么可怕的一件事情”。

  8月30日,一款名为“ZAO”的人工智能换脸软件在社交媒体成为爆款。网民只需提供一张人脸照片,就可以将选定视频中的人物面部替换掉,从而生成新的视频片段。ZAO给网民带来新奇体验的同时,其存在的个人信息安全保护、肖像权、版权等安全隐患,也引发担忧。

  9月3日,工业和信息化部网络安全管理局对ZAO运营企业陌陌公司相关负责人进行问询约谈,要求其组织开展自查整改,强化网络数据和用户个人信息安全保护。对此,ZAO运营团队回应称,将严格按照法律法规和各主管部门的要求,以更加严格的标准,全面加强内容管理、完善各项管理机制,确保用户个人信息安全和数据安全。

  人工智能带来的舆情风险

  关于人工智能带来的技术风险一直是舆论热议话题。习近平总书记1月25日在中共中央政治局集体学习中指出:“要全面提升技术治网能力和水平,规范数据资源利用,防范大数据等新技术带来的风险。”

  人工智能在给人类生活、社会经济带来新变化的同时,对于相关部门舆情处置与网络治理工作,也带来前所未有的挑战。

  一是虚假新闻问题。

  人工智能可以改变影像中物体的运动轨迹或者重塑人物形象,这让虚假新闻更难被识别,导致谣言的迅速扩散,甚至影响舆论走向。

  二是“人工智能+网络平台”带来的复杂的信息管理难题。

  当前媒介融合方兴未艾,人工智能成为提升生产力、传播力与影响力的重要手段。互联网商业平台与主流媒体上主要用于进行算法精准推送、个性化内容定制、机器人写稿与“中央厨房”建设等,未来应用场景将进一步扩展。同时,“人工智能+网络平台”也蕴含着诸多风险因素,值得研究和关注。比如人工智能算法主导的新闻生产与信息分发,带来了信息茧房效应与算法偏见等问题,冲击网络舆论生态。

  三是舆论操控与数据滥用问题。

  2018年3月,外媒报道脸书公司5000万用户信息被第三方公司“剑桥分析”用于大数据分析,根据用户的兴趣特点、行为动态精准投放广告和资讯内容,甚至被怀疑利用数据预测用户政治倾向,成为间接影响总统大选的力量。再如,一些互联网公司采用大数据技术“杀熟”,都为人工智能时代规范数据运用、加强隐私保护敲响了警钟。

  相关建议

  在人工智能飞速发展的时代,其带来的风险与挑战值得重视。需要政府相关部门、业界和公众深入讨论,加强对潜在风险的研判和防范,让新技术更好地为我所用。有声音认为,人工智能技术治理关键是抓住三个核心关键问题:算法、数据和算力,要在相关方面来立法和监督。

  第一,要高度重视人工智能给网络舆论带来的风险。

  要充分评估人工智能给网络安全、国家安全等构成的威胁,加快人工智能前瞻性研究。

  第二,确保算法公开透明、可监督。

  当前,为规避人工智能带来的虚假新闻,一个行之有效的办法即要求公开商业平台机器算法的源代码,提升算法透明度。此外,人工智能技术目前被广泛运用于追踪和识别虚假新闻。今年4月,某互联网公司发布“AI谣言粉碎机”。据称,这款人工智能程序目前在特定场景中对网络谣言和假新闻的识别准确率已经达到81%,是应对虚假新闻的重要帮手。因此,要进一步规避人工智能舆情应对的风险,也需要加强技术运用,把握技术“制空权”

  最后,要健全人工智能技术方面的法律法规以及行业自律制度,加强数据安全与隐私保护。

  当前,包括人脸识别在内的人工智能的广泛应用已是大势所趋,更要安全地使用人工智能。比如网络数据收集,需要保障用户的数据安全,不得以牺牲用户隐私为代价,需要加强数据保护立法,不断强化人工智能应用中的用户隐私保护。