科技的工具理性不能凌驾在人性的价值理性上,过度依赖智能化的工具理性追逐利益最大化,必然会导致网络传播内容质量的下降,出现劣币驱逐良币的现象。智能传媒时代亟需加强对算法技术应用的导向性,积极发扬科技向善的力量。

  2017年12月26日,成都世纪城新国际会展中心,在由新华社和成都市政府主办的第五届中国新兴媒体产业融合发展大会上,全国各地的传统媒体和新兴媒体的传媒大咖们聚集于此,以“深度融合·跨界融合”为主题,热烈展开跨界探讨和交流。供图/CFP

  在人工智能技术飞速发展的今天,算法推荐、机器人写作等技术在新闻传播领域得到深入应用。其中,利用算法技术推送新闻资讯已成为移动互联网时期新闻分发的重要模式,机器人写作也逐步应用于新闻内容生产各个领域。在科技进步提升新闻效率的同时,算法技术的不当使用与新闻传播价值的冲突也逐步显露。近期,部分新闻资讯类App被整顿,让“唯算法论”的企业回归新闻传播的主体责任。科技的工具理性不能凌驾在人性的价值理性上,过度依赖智能化的工具理性追逐利益最大化,必然会导致网络传播内容质量的下降,出现劣币驱逐良币的现象。智能传媒时代亟需加强对算法技术应用的导向性,积极发扬科技向善的力量。

  算法技术在新闻传播中并非绝对“中立”

  人工智能技术不具备完全的客观中立,其背后代表了设计者的价值观。尽管算法推送、机器人写作等人工智能技术是以数学方式或计算机代码表达意见,具备一定的科学属性,但由于算法设计、目的、标准以及数据选取和使用均带有设计者、开发者的主观选择,算法制定和决策者带有怎样的价值取向决定了哪些内容被挑选,哪些被删除或屏蔽。对于商业新闻资讯分发平台而言,缺乏新闻工作者的职业素养,过分关注用户点击率,必然会带来技术的价值观失范。

  人工智能技术不具备内容审核能力。现阶段的人工智能技术依赖于深度学习的机器算法,尚未具备内容审核能力,导致在涉及敏感新闻事件的技术内容生产和推送环节,出现对社会价值和伦理的扭曲传播现象。平台过分推崇“技术至上”,把人工智能生产和推荐的新闻内容视为客观中立,缺乏人工“把关”新闻价值,导致虚假新闻、低俗内容的泛滥。

  因此,以人工智能为代表的科技理性并不能完全独立于新闻价值与人类道德而存在,技术的价值观即平台的价值观,平台的价值伦理迷失会导致技术与新闻价值相悖情形的出现。科技应该成为辅助新闻价值传递、塑造社会正确价值取向的工具, “技术中立”不应成为平台推脱自身责任,裹挟人类价值认知传播违背社会价值的“作恶”工具。

  非约束下的算法技术对新闻传播存在负面效应

  在移动互联时代,以算法为代表的人工智能技术广泛应用于网络新闻传播的信息生产、审核、分发和推送等各个环节。新技术为新闻传播带来巨大变革、提升网络新闻信息的分发效率的同时,也带来了一系列新的问题。

  加重了新闻失衡问题,加速了低俗内容的传播。相比传统的客观、公正的新闻价值标准,算法技术基于商业驱动以受众需求为导向,强调用户点击率,容易导致新闻失衡。黄色信息、娱乐新闻、暴力新闻等成为算法技术推送的主体,而政治、经济、文化等领域的真正具有思考深度、带有人文关怀、恪守新闻伦理的内容被边缘化。此外,机器人写作则缺少新闻工作者的职业伦理,在内容生成过程中可能隐藏新闻真实,导致机械化、缺乏深度的内容大肆传播。

  智能推荐带来“信息茧房”问题,导致单一内容和情绪的进一步放大。算法完全基于用户点击内容推荐信息,导致用户新闻阅读领域逐渐呈现窄化,加剧“信息茧房”问题。如果用户点击负面新闻或不实信息,会导致出现相关类似负面信息不断被推送,引发民众对于社会产生消极看法和偏见,热点和冲突争议较大的事件和社会问题被集中放大,算法的非正确引导将直接影响网络新闻受众的情绪甚至价值观,也因此可能让人丧失某些正确的价值取向而变为偏执狂,人与人之间的包容和理解就变得更加困难。

  混淆用户价值判断,降低新闻舆论监督能力。由于当前对于用户数据使用权属、边界尚未有明确界定,新闻分发平台通过用户宗教信仰、种族、政治意见、消费等个人隐私数据,可能利用算法歧视有目的的推送信息,达到影响舆论或用户选择的政治和商业目的。同时,由于人工智能技术本身缺少价值判断,对于报道内容尺度、时机、影响都缺乏准确把握,缺少新闻工作者参与内容生产和人工审核的智能生产和推送,将导致新闻媒体舆论监督功能的削弱。

  加大数据收集、使用和流通过程中的法律风险。由于数据是人工智能技术的基础资源,算法决策和人工智能的实现和发展需要大量数据支撑,从而可能导致出现数据过度收集的法律风险,即企业通过不合规手段大规模收集、使用用户数据,其中可能涉及对用户敏感信息的非法收集。同时,数据成为新的流通物导致各类服务之间的交易数据分享、流动更加频繁,可能会形成以数据买卖为目的的黑色产业链,个人和相关部门对于数据的控制和管理难度将进一步加大。

  网络传播算法技术应用治理要综合施策

  2017年国务院印发《新一代人工智能发展规划》,其中对法律和伦理体系建设提出了“三步走”的要求,对人工智能治理面临的责任划分、隐私产权保护等共性法律问题,以及自动驾驶、服务机器人等细分领域落地需要制定的安全法规进行了初步部署。但规划仍处于顶层设计阶段,在技术应用规范、技术伦理治理和监管等方面存在空白,因此当务之急应加快人工智能技术的立法治理体系建设,包括加快人工智能领域立法,建立人工智能监管机构等。

  同时,应加强技术平台的监管治理,明确平台责任,把好技术关。一是强化新闻分发平台的监管治理。加强企业社会主义核心价值观建设,树立企业正确社会价值取向,认清技术必须用正确价值观来引导,尊重社会伦理和法律法规。强化平台问责机制,平台在新闻内容生产、传播过程中应承担相应社会责任,形成合理有效的问责机制。通过平台问责、人机捆绑问责的方式,提升对新闻内容质量的把控。二是加强平台对人工智能技术的把关。规范技术的适用范围和使用标准,特别是要考虑到触及传播伦理的部分技术的改造。强化算法技术对数据及新闻源头的筛选过滤,明确新闻来源、内容生成方式,从源头降低伦理失范的风险。重视“信息茧房”问题,除基于用户浏览行为、用户画像之外,应加强算法对于社会主义核心价值观等内容的推送机制。此外,应明确“人”在新闻传播中的主体性。一是加大人工审核内容的投入力度。平台需加强总编辑责任制度,纠正算法和机器审核带来的缺陷。强化人工审核资源投入和人工运营。同时通过建立一套完备、高效的“人工+技术”内容审核机制,降低人力损耗的同时保证内容质量。二是充分发挥新闻工作者的作用。要发挥新闻机构和新闻媒体工作者的主体作用,提升自我深度分析和调查能力,正确引导社会价值观和舆论导向,与智能推送、机器人写作等人工智能技术形成优势互补,在提升网络新闻传播生产分发效率的同时保证新闻客观公正的伦理底线。(张晓:中国互联网络信息中心副主任)