温州网视

刘柳:国际媒体机构应用人工智能技术的策略与启示
图片

  刘柳

  中国外文局当代中国与世界研究院区域国别研究中心副主任

  人工智能技术特别是生成式人工智能的发展,推动国际媒体机构加大应用力度,使新闻传播多个环节的工作效率得到提升、工作范式悄然转型,同时,也逐渐产生人工智能应用的新风险与新问题。为进一步提升人工智能应用的正向效能,国际媒体机构积极制定各自的人工智能使用原则或指引,试图解决当前人工智能与新闻媒体融合发展的各种问题,并规避潜在风险。通过总结国际媒体机构应用人工智能的主要原则策略,可以为我国媒体规范化应用人工智能提供一定借鉴。

  透明度原则:明确人工智能使用范围,强调清晰标记

  有关透明度的规定被多家国际媒体机构列入人工智能使用指南的开端,并将其视为维护媒体与受众信任的核心原则。该原则要求新闻媒体公开透明地告知受众其人工智能应用范围与使用人工智能的进展情况。目前,人工智能已深入新闻写作与编辑环节,与数据强相关、模版性较强的新闻主题文字报道已实现文本自动生成。对此,多家国际媒体机构对新闻生产环节提出明确要求,即人工智能可以用于辅助生成新闻图表、新闻标题等,但必须以易于理解的方式清楚标记。比利时某新闻机构要求,媒体需要透明传达有关自动化新闻制作和新闻产品个性化的信息,以便用户清楚地了解何时创建或选择基于人工智能的新闻项目。一些机构对人工智能的使用边界要求更为严格,强调人工智能不可用于新闻文本的编辑生产、新闻图片或视频的拍摄与编辑。英国《金融时报》提出,不会发布由人工智能生成的图像,但可使用经人工智能增强处理的信息图表或照片,并明确标记。部分国际媒体机构专门强调,要将人工智能工具在媒体的测试与实验过程登记在册、详细记录,确保该技术被负责任地使用。

  责任感原则:明确新闻内容生产的责任归属,强调编辑记者第一责任人与把关人责任

  一些国际媒体机构认可人工智能技术应用于新闻媒体选题策划,记者可利用人工智能的数据分析技术,从海量数据信息中寻找更独到的报道视角与选题灵感;借助语音识别技术,可以将音视频快速转录为多语种文字,提高新闻信息采集效率;利用人工智能技术,生成更吸引人的新闻标题、优化新闻报道推荐,提高新闻信息的触达率;同时,媒体广泛借助人工智能技术完成新闻文本纠错、辅助版面校对等。但是,鉴于人工智能技术系统潜藏的算法黑箱以及在底层训练时可能被植入的算法偏见,或将导致其生成的内容存在虚假信息与态度偏见。国际媒体机构在使用指南中明确提出,编辑记者是使用人工智能生成内容的第一管理者,负有决策责任,并明确提出人工智能仅是工具,绝不能成为新闻报道的信息来源。同时,国际媒体机构要求从业者提高专业素养与职业能力,利用不同方式对人工智能生成的内容反复验证核查,或交叉引用多个来源的信息。

  保护性原则:明确保护新闻媒体的数据版权,不可分享敏感或私人信息

  新闻媒体握有的大量数据是训练人工智能生成模型的绝佳内容之一。但目前对人工智能模型机构如何获取并使用媒体数据仍存规则盲点。欧美多家新闻媒体机构多次公开表示,使用媒体内容训练的人工智能模型没有考虑原始创作者,未能向原始创作者提供报酬或归属,违反有关版权的法律法规。更多媒体意识到,人工智能模型正在蚕食新闻媒体核心商业竞争力,破坏其成熟的商业模型,对其赖以生存的核心产品生产能力形成冲击。对此,已有更多国际媒体机构加强与人工智能开发机构的博弈力度,明确保护新闻媒体的数据版权,加强数据确权及对人工智能模型运营商的监管力度,并明确将其写入使用指南,要求应用生成式人工智能工具时只能分享获准发布的数据信息。美国《纽约时报》在其最近更新的服务条款中明确提出,禁止将其内容(包括文本、照片、图像、音频/视频剪辑、“外观和感觉”、元数据或编译)用于开发“任何软件程序,包括但不限于训练机器学习或人工智能系统”。该条款还特别提到,“未经书面许可,不能使用网站爬虫类自动化工具访问、收集平台发布的内容”。瑞士最大的综合性媒体集团荣格(Ringier)在使用指南中明确提出,员工不得将新闻来源、员工、客户、商业伙伴或其他自然人的机密信息,商业秘密或个人数据输入人工智能工具。目前,法新社、欧洲新闻图片社、欧洲出版商理事会、盖蒂图片社等多家新闻机构还在继续游说,要求政府部门制定规则,保护用于训练生成人工智能模型的新闻媒体数据版权。

  区隔性原则:鼓励编辑记者合规试水人工智能应用,探索人工智能工具“红绿黄区”

  多家国际媒体机构鼓励编辑记者保持开放与好奇态度,在不同环节探索应用人工智能技术,并明确提出为媒体从业者提供人工智能培训,提高媒体对人工智能的掌控力度。英国《金融时报》、德新社、德国记者协会等均明确要求,编辑记者要积极探索人工智能工具与新闻传播工作的融合,就如何利用人工智能开展新闻选题策划与人工智能滥用等不同主题加强对人员的培训。在积极实验人工智能应用基础上,媒体要定期检讨反思各类人工智能应用案例的成败之处,逐渐形成人工智能工具在新闻传播与应用时的可行与禁行范围:通过明确红色区域、绿色区域与黄色区域,最大限度调用人工智能。红色区域指可能会引起法律纠纷或存有争议的领域,媒体明确禁止人工智能工具涉及的工作范围;绿色区域指人工智能工具已被证实可助于新闻传播生产与工作效率提高的范围;黄色区域指使用人工智能工具可能为媒体发展带来潜力,但需要反复验证的领域。英国《金融时报》、美国《波士顿环球报》等鼓励人员对人工智能应用加强实验测试,充分了解模型潜力与限制,从而为修改人工智能应用提供支撑。人工智能工具公司AppliedXL联合创始人弗朗西斯科·马可尼建议,媒体应进行研究,并与学术机构和科技公司合作,通过更新人工智能工作流程监测技术的演变来识别错误内容。

  对我国媒体应用人工智能技术的启示

  当前,人工智能技术正在为我国媒体深度融合发展提供强有力支撑,人工智能技术领域的创新应用层出不穷,媒体行业智能化进程不断加快。同时,也存在人工智能尤其是生成式人工智能被用于传播虚假信息、深度伪造,人工智能训练内容获取渠道的不可控性造成的侵害新闻媒体数据信息版权以及数据隐私泄露等问题。为有效应对媒体应用人工智能技术的难点痛点及潜在风险点,有必要借鉴国际媒体机构对人工智能技术应用的规制,结合我国媒体发展实际情况,及时根据技术进步和行业发展调整以及细化人工智能应用规则和指引,坚持发展和安全并重,促进创新和依法治理相结合,从而更好发挥主流媒体在塑造与引导舆论方面的价值与效能。

  一是制定更精细化的使用指南。目前,新华网已结合其人工智能应用发展水平制定《机器生产内容(MGC)自动化分级》团体标准,但其他一些媒体仍缺乏明确的使用标准或规范。新闻媒体机构可按国家有关规定探索各自的人工智能使用指南,明确人工智能应用的边界,加强对相关应用的管理,合理界定媒体机构及从业人员在新闻生产传播中的责任归属,对违规使用人工智能生成和传播不实不良内容提出明确规制措施。编制人工智能规范时要注意融合媒体机构中负责新闻、产品、法律、财务等不同部门的意见,通过跨部门协作,提出强大而全面且适应新闻传播发展动态的指导方针。

  二是鼓励媒体探索人工智能应用。在海量信息面前,受众对新闻信息真实、准确性的需求更加强烈,这要求主流媒体切实发挥去伪存真、传播真实信息的主力军作用,把过滤人工智能虚假与偏见性信息原则写入使用指南,明确新闻传播各环节主体责任,避免出现权责不明导致的虚假新闻传播、隐私侵犯等问题。在人工智能应用过程中,应尊重知识产权,清晰定义新闻媒体数据的权利属性,避免新闻媒体版权遭到侵害。同时,鼓励媒体加强与新闻传播学界的交流研讨力度,寻找更稳妥、更高效地将人工智能技术应用于新闻传播活动的路径。及时总结国内外媒体机构应用人工智能的经验与教训,围绕如何助力新闻传播、规避风险隐患等不同维度为编辑记者提供动态性、前沿性培训。

  三是不断提高新闻受众的媒介素养。当前,人工智能技术已全面应用于新闻传播的全过程,国际媒体机构更加侧重规范新闻媒体对新技术的使用。然而,广大受众作为新闻信息的接收端,加强其媒介素养的培养,对促进媒体规范化使用人工智能技术同样重要,这样才能将人工智能应用更加规范地驾驭在新闻传播活动闭环中。通过新闻媒体宣介,提高受众对算法歧视、信息茧房的警惕性,加强信息隐私保护力度,监督新闻媒体更加规范合理应用人工智能。

稿件来源:中国网信杂志

编辑: 许淑瑞 | 责任编辑:徐琼峰 | 监制:黄作敏
推荐视频