生成式人工智能对新闻业的变革将超越功能层面,深入到新闻的理念和结构层面。
生成式人工智能(GAI)正在展示技术的颠覆性力量,被视为至少能与互联网、智能手机相提并论的前沿技术,其代表性应用是2022年底以来发布的ChatGPT、GPT-4等智能程序。它是向数据学习的神经网络系统,半年来已经被广泛运用于日常对话、生活服务、新闻传播、艺术创作(音乐、绘画、时尚、设计和文学等)、商业经营、科学研究、医疗保健、教育教学等各个领域,其爆炸性流行被视为公众采用人工智能技术的第一个真正转折点,也成为激发生产力和人类创造力的巨大引擎。
埃森哲(Accenture)3月下旬发布的研究报告显示,生成式人工智能驱使科学、商业以及社会本身的一切都将发生转变,对人类创造力和生产力的积极影响将是巨大的。98%的全球高管认同人工智能基础模型将在未来3~5年内在其组织的战略中发挥重要作用;40%的工作时间可能会受到像GPT-4这样的大型语言模型的影响。
就新闻业而言,生成式人工智能相当于给每一位新闻工作者配备了一位高效率的助手,给每个新闻机构增添了额外的资源、创新的可能性,也带来了更复杂的专业问题。
本文将从当前生成式人工智能在新闻传播业的应用实践及其效应着手,探讨生成式人工智能对新闻传播的业务、机制的影响,以及它们对新闻专业、新闻理念和记者角色带来的挑战与重塑。
生成式智能赋能新闻业
生成式人工智能正在以一种魔法般的方式,简化了人们将想法、创意转变为现实的过程。新闻界以十分迅捷的反应,投身于这个正在引领新闻业巨大变革的新技术。事实上,早在它发布之前,媒体已经迫不及待地融入智能新技术的洪流之中。
(一)智能技术已经深入新闻业务
人工智能直接运用于新闻界,已经有10年的历史。美联社是最早利用人工智能和自动化来支持其核心新闻报道的新闻媒体之一。2014年,美联社开始使用人工智能程序处理有关企业收益的报道,令新闻业面貌为之一新。在使用人工智能之前,美联社的编辑和记者在其中花费了无数资源制作财务报告,也因此分散了对有更大影响力的新闻的关注。即使大量投入,美联社每季度也只能制作300份财务报告,还有数千份潜在的公司收益报告未能成文。采用人工智能平台Automated Insights的Wordsmith,他们在几秒钟内就可以将那些投资研究的收益数据转换为可发布的新闻报道,效率大大提升,美联社制作的季度收益报告一下子达到4,400个,效率是手动工作的近15倍。
体育报道也是同类情况,体育记者负责整理成堆的得分和比赛笔记,为大学篮球和小联盟棒球比赛撰写预测性和回顾性文章。2016年美联社与Automated Insights合作,将其人工智能生成的内容扩展到体育报道。在采用Wordsmith之前,记者只有时间报道每个联赛中的顶级球队,无暇报道未排名的比赛。Wordsmith使用自然语言生成(NLG)技术,将数据转化为富有洞察力的报道,看起来像人类的叙事,早在2018年赛季就为常规赛提供5,000多场预演,一级男子篮球赛还自动重播。智能技术的投入使他们能够思考创新,让记者少关注数字、多发现细微的独特之处,有时间去做更深度的、更独家的报道,建立所谓“思想领导力” 。
美联社只是使用人工智能的一家媒体,实际上,同时期使用人工智能的媒体还包括彭博社、路透社、福布斯、纽约时报、华盛顿邮报、英国广播公司等大型媒体。这些大型媒体的人工智能应用主要是将机器学习(从数据中学习)运用于采集、制作和分发新闻等各个流程。
仍以美联社为例,在采访方面,该社部署了多种新闻采集工具,使记者能够获取新闻并进行更深入的挖掘。在内容采集方面,他们通过自然语言处理扫描和分析社交媒体源,构建自己的内部工具,更快地验证社交媒体和用户生成的内容;在制作方面,人工智能工具简化了工作流程,比如从视频的自动转录,到自动生成视频分镜头列表和故事摘要,都由人工智能工具完成,这样记者能够专注于更高层次、更有深度的工作;在分发方面,他们努力建设标记系统,通过图像识别来优化内容,为行业创建第一个编辑驱动的计算机视觉分类法(editorially-driven computer vision taxonomy),不仅节省了数百小时的制作时间,还助益更轻松地呈现内容。人工智能技术也已经应用于评论互动,比如华盛顿邮报通过其Modbot,使用机器学习来调节、过滤和标记评论。
媒体机构对人工智能技术的重视,可以从相关新部门、新岗位的设置而见一斑。美联社设置了人工智能和新闻自动化部,英国《金融时报》创设新职位,任命了人工智能编辑。不过,在“前生成式人工智能”时期,智能工具虽然已能够生成财务收入和体育赛事结果等直接的报告,但并未在编辑内容中广泛使用。
(二)生成式智能技术运用于新闻业
2018年以来,大型语言模型和基础模型得到突破性进展,不仅破解了语言复杂性的密码,使机器能够学习上下文、推断意图和独立创造,而且还可以针对各种不同的任务快速进行微调,为生成式人工智能的进步提供了动力。生成式人工智能是一种机器学习系统,是基于算法、模型等创建文本、音频、图像、视频和代码的技术系统。ChatGPT、GPT-4便是其中的代表,它们先后于2022年11月、2023年3月问世。
ChatGPT是一种由人工智能技术驱动的自然语言处理工具,可让人们与聊天机器人进行类似人类的对话、可以回答问题并帮助完成许多任务,例如制作订制化的健康食谱、健身计划,撰写电子邮件、论文和代码等等。
ChatGPT的功能很丰富,与新闻传播相关的包括:生成模仿人类输入数据的样式和结构的类人文本;生成对给定提示文本的响应,包括回答问题或写故事;生成多种语言的文本;修改生成文本的样式,比如正式或非正式的样式;厘清问题从而更好地理解输入数据的意图;回复与之前上下文一致的文本,比如对前面问题的理解、对后续的说明。其他生成式人工智能模型可以执行图像、音频和视频类的任务,比如GPT-4就可以执行跨模态的任务。
生成式人工智能为新闻业的大变革提供了重要机遇。传统的新闻采访、写作、编辑、制作、分发、核查,都可以运用ChatGPT等模型作为得力的辅助工具。
主要工作包括:第一是数据分析。生成式人工智能运用了海量的数据,可以为新闻工作者提供有力的数据分析,从而提供见解或启发,帮助记者寻找更独特的角度、更有洞察力的思考方向。
第二是内容生成。生成式人工智能可以生成文本、图像、音频和视频等形态的内容,在文本方面它既可以生成摘要、文章,也可以生成策划大纲、采访提问等创意性的内容,还可以按照难易要求生成不同知识层次的文本,比如把复杂的话题简化到普通受众能够理解的水平。ChatGPT可以将学术文章的摘要或部分内容简化为新闻语言。
第三是算法个性化。智能算法可以根据用户的偏好生成个性化内容,这样有助于契合用户需求、做到精准生产与分发。第四是事实核查。尽管生成式人工智能在内容的准确性、真实性方面受到质疑,但它可以通过数据训练后自动对信息进行事实核查,帮助新闻工作者核实信息的准确性。
纽约时报网于3月刊出过一篇文章,罗列了人们使用ChatGPT的35种方式,其中许多日常生活中使用的方式也可以被记者采用,如写电子邮件、编辑、组织研究、浏览多份文件、输入Excel公式等等。
(三)新闻业布局生成式智能
ChatGPT横空出世,对新闻业的震撼非同小可。美国非常活跃的《内幕》(Insider)全球总编辑卡尔森(Nicholas Carlson)称之为“海啸”:海啸即将来临,我们要么驾驭它,要么被它消灭。他认为人工智能会让新闻业变得更快更好。《内幕》新闻编辑部于4月中旬成立了一个工作组,以测试将人工智能负责任地纳入其工作流程的方法,然后再向新闻编辑部推出一套更广泛的人工智能规则和最佳实践。
卡尔森4月14日向员工发送了一份备忘录,表示“不得不”学习如何使用和小心使用智能技术,记者才能变得更好。卡尔森一直在广泛使用聊天机器人,视其为“双人文字处理器”(“a two-player word processor”),可以帮助克服写作中的常规障碍。他鼓励记者开始谨慎试用ChatGPT等编写的文本、报道大纲,用ChatGPT等纠正拼写错误、为搜索引擎优化标题、准备采访问题,但不鼓励将敏感信息(尤其是细节)放入ChatGPT。
据4月的一篇评论文章披露,《纽约时报》新闻编辑部的一个工作组正在制定使用聊天机器人的工作指南,探索该报记者使用聊天机器人的机会。其实,《纽约时报》在前几年已经陆续发表过由机器人程序写作的评论文章、书评。ChatGPT也已经被记者使用。
该报科技专栏作家、被Bing测试聊天机器人“爱上”的罗斯(Kevin Roose)3月撰文说,他已让ChatGPT帮自己提出采访的问题:他将被采访嘉宾的简历粘贴到ChatGPT中、要求它向这位嘉宾提出10个深思熟虑、敏锐的采访问题。ChatGPT生成的问题大多数都很好,被罗斯在节目中采用了。
生成式人工智能已经擅长于各种各样的任务,罗斯列出了6个方面:用不同级别难度解释概念,比如要求ChatGPT用高中水平解释“部分准备金银行业务”;帮助编辑和提出建设性批评,比如让智能Bing帮助改进写作技巧;创造性地摆脱困境,比如克服写作障碍;排练现实场景中的任务,比如进行模拟对话、演练;快速总结大量文本,让智能程序为自己“阅读”长篇文章、总结学术论文,将转录的音频和视频记录提炼出要点;编码,比如构建一个Chrome(谷歌浏览器)扩展程序。
新闻工作者已经从ChatGPT获得助力。《纽约时报》观点专栏作家曼珠(Farhad Manjoo)在4月的文章中就相关话题采访了一些媒体的老总,并总结说ChatGPT这样的应用将成为许多记者工具包的常规应用。他在文中将ChatGPT比喻为新闻工作者获得的新型喷气飞行器(jetpack),虽然有时它会崩掉,但有时它则会翱翔、升腾(soar),能够在几秒钟、几分钟内完成过去数小时才能完成的任务。
在写这个喷气飞行器的比喻时,曼珠很难选择一个合适的动词来表达,他写了“screams”(尖叫、呼啸)又觉得不妥。他说要在过去他可能会使用同义词库或者绞尽脑汁地找一个合适的词,而现在,他将自己写的整个段落插入ChatGPT、要求它提供替代动词,ChatGPT为他推荐的替代动词中,“soar”是排在第一的。
曼珠还总结出ChatGPT的其他一些用途:协助编辑工作,比如写过渡语;提炼和总结,比如在重大而复杂的新闻事件爆发时,需要迅速从长篇文件(法院裁决、收益报告、政客的财务表)里提炼出概要。特朗普被起诉时,《内幕》总编辑卡尔森将购得的长篇文件放到ChatGPT中,让它给了一个300字的摘要,从而辅助《内幕》决策如何迅速报道这件事。ChatGPT很擅长从长篇大论中提取摘要和主题。
媒体和记者组织都非常重视ChatGPT的影响。路透社和牛津大学在2023年初的报告中指出,受访的新闻业高管有28%说他们的组织经常使用人工智能,而39%承认他们正在试用。英国的新闻网站journalism.co.uk在今年1月专门发表了一篇文章,总结了ChatGPT可以为记者完成八项任务:生成大文本和文档的摘要;生成问题和答案;提供报价;制造标题;将文章翻译成不同的语言;生成邮件主题和写邮件;生成社交帖子;为文章提供上下文。
该网站还于5月下旬组织了关于人工智能对新闻业影响的论坛。国际新闻工作者中心(ICFJ)则刊登了一篇文章,探究了ChatGPT对记者的利弊。世界新闻研究所(World Press Institute)发表文章讨论ChatGPT和新闻业的关系,呼吁新闻业要适应不断发展的技术,认为ChatGPT有望改变新闻报道、分发和消费的方式。
奈特基金会(Knight Foundation)对全体员工进行了使用聊天机器人和其他新技术工具的培训,其新闻部负责人认为:这些人工智能工具可以帮助记者关注更重要的新闻,让很多新闻机构腾出时间去报道更重要的事情。奈特基金会还资助多家新闻机构建立人工智能工作室,比如Quartz。Quartz在2019年建立了一个机器学习模型。
据《华尔街日报》2月报道,《体育画报》(Sprots Illustrated)利用人工智能生成文章和故事创意,如Arena Group使用生成式人工智能制作男性杂志文章,展示体育运动技巧。Arena Group已经将生成式人工智能运用于内容工作流程、视频创作、时事通讯、赞助内容和营销活动等各个方面。BuzzFeed将使用ChatGPT作为其核心业务的一部分,他们看到人工智能的突破开辟了一个创造力的新时代,有无穷无尽的机会和应用。
专业性困境与负责地使用生成式智能
ChatGPT等生成式人工智能为新闻业的效率与革新带来了种种机会,但同时也带来了诸多挑战,尤其是人工智能生成内容在机制上就存在与新闻专业性相悖的方面。生成式人工智能在赋能新闻业的同时,却不一定能够优化新闻业。
(一)模型本身的局限性
生成式人工智能的大语言模型逻辑,是机器可以从数据和模式中学习,从而创建模仿人类行为和创造力的新内容。由于数据和模式的种种缺陷,生成式人工智能存在系统性偏见、价值观对抗、“观点霸权”、刻板印象、虚假信息等问题。而模型本身也有其局限性。
这些类型的大型语言模型缺乏常识性的推理能力,由此带来了其能力的局限性,比如它难以理解复杂问题、细微差别以及与情绪、价值观和抽象概念相关的问题。
这类局限的最大困境是:生成式人工智能不理解其生成的文本的含义。当它面对细微差别、歧义或讽刺之类的内容时,它难以理解其中的真实意义;它可以生成似是而非但不正确甚至荒谬的文本;它无法验证其输出的真实性;它的输出可能是公式化的,可能会单调乏味、缺乏想象力;它可以生成带有偏见、歧视性或有毒的文本。
它的输出和生成的质量,取决于它输入的数据及其模型训练的水平。比如ChatGPT使用自然语言处理(NLP)——一种处理理解、分析和生成类人语言的人工智能技术,主要组合性地使用两类输入进行训练:一类是2021年底前从网页和程序代码中提取的大量文本,一类是通过人类反馈强化学习(RLHF)技术帮助微调模型。ChatGPT使用的是Common Crawl的大型文本数据集,其网络爬虫数据集是书籍、文章、网站等在线内容的大量集合,包括文本、图像和其他形式的数据。在线数据带有先天性的缺陷,比如其年龄、性别、来源等存在不平衡的问题。研究显示,互联网数据中年轻用户和发达国家用户的比例过高。
当然,对于这类大模型带来的更深的担忧,还不只在这些应用层面,更多的在于未来可能失控的深层困境方面。包括深度参与人工智能开发的教父级的人物辛顿(Geoffrey Hinton)、在过去的四十年里开发了驱动GPT-4等系统技术的本吉奥(Yoshua Bengio),都担心大模型可以学习不想要的和意想不到的行为,它们不仅可能生成不真实的、有偏见的和其他有毒的信息,而且对坏人不设防——很难找到办法防止坏人利用它们来做坏事。
(二)审慎使用生成式人工智能
今年1月,美国著名科技新闻网站CNET被Futurism爆料其在一个多月里悄然刊出77篇未加标注的使用人工智能生成的文章,引发广泛关注和批评。CNET随后对相关文章进行了核查、发现其中出现了一些事实性错误,特别一篇关于“什么是复利”的文章还存在计算性错误。CNET很快对其中41篇文章进行了更正。几周后,CNET及其母公司暂停所有网站上的人工智能生成内容,但是不妨碍用户继续使用其人工智能工具。
CNET的错误不在于其使用了新技术,而在于其使用得不谨慎、不恰当。目前生成式人工智能在新闻业中的应用,存在专业性(如准确性)、伦理(如公正性)和责任难题,并且可能缺乏批判性思维和创造力。但是,在权衡利弊得失之后,人们还是将这项新技术作为新闻业的一次机会,并以坚持专业性、合乎伦理的方式使用ChatGPT,人作为主导者,通过人工编辑和审核确保准确性,保持人类记者的独特立场。
新闻业如何合理地、负责任地使用生成式人工智能?有一些准则值得重视:一定要检查和编辑生成文本的准确性和质量;将生成式人工智能视为半成品而非成品;将生成式人工智能用于一些重复性或耗时的任务,这些任务不那么具有创造力或独创性;不要使用任何敏感或私人信息作为输入数据;将生成式人工智能与其他工具和技术结合使用,并融入自己的创造力、情商和战略思维。
与此同时,还要“透明地”“可溯地”使用人工智能。要重视使用中的规范和标准。首先是署名。不少新闻工作者已经在使用ChatGPT、GPT-4等辅助自己的工作,甚至让其参与了写作之中,正如CNET在风波之后将每篇由人工智能生成(或参与)的文章的署名位置,都加上了“人工智能技术参与了写作”这类说明,一些新闻作品、学术成果、文学创作也都纷纷合署,甚至独署了ChatGPT、GPT-4作为作者,或者以文内引用或脚注来注明。第二是要尽量重视列出参考文献,比如Bing通过智能搜索归纳出的内容,都是有出处的,而不久后Google的人工智能搜索也将面世,它们有助于明确参考资料。第三是今后将有一种新的注释类型,类似于模型名称、内容生成日期、生成过程中的输入或者相关参数。
讨论:变革不只在功能层面
上文抓取了生成式人工智能在新闻业中的最前沿性应用的数据和案例,展示了目前在生成式人工智能背景下新闻业适应新技术的现状、语境和遇到的难题。牛津大学牛津互联网研究所研究员西蒙(Felix Simon)认为,如果使用得当,生成式人工智能技术是新闻的一次机会。人们追求的仍将是与以前相同的目标和相同的需求,人工智能改变的只是追求方式。
但是我们不能局限于应用这种功能层面。从长远来说,这种有别于传统技术的人工智能技术,带来的影响会超越功能性层面,而渐进为一种新闻的理念和结构性的作用。这里从两个方面做些探讨。
(一)数据驱动的故事新范式将会挑战新闻观念
生成式人工智能技术提供了创新报道范式的可能性。记者可以利用人工智能生成的见解、可视化数据和多媒体工具,从原始数据中自动创建摘要和引人入胜的新式叙事,从快速生成交互式叙事、数据驱动的报道到推出沉浸式故事,等等。而这些影响将会从生产流程变革深入到机制层面,更进一步渗透到新闻观念层面。
生成式人工智能正在重构新闻生产流程,变革新闻工作机制。第一,记者采集和核实信息的工作机制改变了。智能算法可以快速高效地处理海量数据,帮助记者提取有价值的见解、识别记者可能无法立即发现的模式、趋势和相关性,并发现数据集的隐藏模式,帮助记者发现角度、根据数据生成意义丰富的叙事。第二,新闻生产机制改变了。生成式人工智能技术可以自动生成新闻报道、摘要和其他内容。第三,分发机制改变了。智能技术可以根据用户偏好、兴趣和浏览行为来个性化新闻分发使用智能策略为每个用户量身定制内容。第四,互动机制加强了,生成式智能可以与用户实时对话、回答查询并提供个性化的新闻更新,并可以收集反馈信息和对用户的了解。第五,事实核查和错误信息检测机制改变了。自动化系统可以分析识别虚假信息和误导性内容。
生成式人工智能将进一步驱动新闻的多模态转换,推动新闻视觉化的浪潮。它可被用以多模态转换,在文本、声音、视觉符号之间自动转变。2016年出现的软件Wibbitz可以将文本自动转换为视频,很快就被众多媒体使用,比如BBC使用Wibbitz为其在线新闻和时事节目制作视频。如今,GPT-4、文心一言等生成式人工智能软件,更是集多模态转换为一体。
人工智能工具可以通过分析图像、视频等协助视觉叙事,它们可以自动标记和给视觉元素分类、生成说明文字,可以根据基础数据创建可视化效果或信息图表,让用户有机会探索数据驱动的视觉叙事和复杂信息,以冲击性的视觉模式唤起情绪反应。人工智能技术还降低了沉浸式新闻的生产门槛,让记者轻松构建交互式页面、虚拟现实或增强现实叠加层。生成式人工智能也可以根据文本描述或数据自动生成3D模型、动画等视觉效果,帮助记者创建增强现实的内容。记者还可以创建专为支持语音的设备设计的音频新闻故事。
生成式人工智能对新闻流程和机制的改变,挑战了传统的新闻观念。比如,智能算法推动的个性化的新闻,是一种以受众为中心的思维驱动的,它挑战了传统的传者中心、传者引领的传播观念,强化的是与一般商业等同的消费者至上的观念,进一步祛魅媒体作为公共利益代言人的角色。生成式人工智能也挑战了新闻业传统的生产者主体身份观,人类生产的内容和智能生成的内容之间的界限变得模糊,这种情形还会进一步引发对新闻业的透明度和问责制的疑虑。
多模态自动转换也带来对新闻理念的挑战。首先,生成式人工智能将提升交互式叙事的运用,将新闻引入非线性叙事,新闻故事可以根据用户交互分为多个路径或结果。这种情形改变了传统新闻的线性叙事结构,使得新闻也朝着多样化和动态的叙事结构演化。
其次,生成式人工智能可以非常便捷地将文本报道转化为视频摘要,这涉及新闻文化的变革。简明的视觉摘要替换了完整深度的文章,文字报道被转换为声音和视觉摘要,其间都会发生信息损耗,还会影响人们对复杂新闻的理解、对信息的分析判断、对完整世界的感知。
再次,多模态化的一个趋向,是智能技术带来的视听新闻的潮流化,文本信息将更多地被自动转换为图像、图形、图表或其他视觉元素。转换通常是被简化的总结,由于视觉效果的空间和注意力范围有限,自动化过程可能会压缩文本,减少文本的复杂性或微妙内涵;自动转化还难免忽略某些上下文元素;将文本转换为视觉效果的过程还涉及解释和主观性,自然会影响原文本的叙述和解释;未来的视听化会带来新闻的短浅化;文本叙事驱动读者构建的心理形象和想象力,逐渐让位给视听新闻叙事的感性消费、即时反应;视觉叙事通常依靠象征性、图像和视觉隐喻来传达意义,而由于象征性、文化语境和视觉素养的差异,视觉效果的解释可能会很不同。
第四,多模态转换还会带来意义损害和歪曲的问题。比如,来自斯坦福大学和哥伦比亚大学学者的研究指出,将文本转换成图像,大规模地放大了人口刻板印象。他们研究了将文本转换为图片智能模型如Dall-E和Stable Diffusion,发现这些系统放大了“大规模的人口刻板印象”。比如,当提示创建“清洁人员”图像时,生成的所有图像都是女性。有人在国内一款语言模型应用中也遇到同类情形,当提示画一幅“老板在开会”的图时,图中显示的老板全是男性。
(二)生成式人工智能工具挑战新闻专业的实践观念
生成式人工智能重构了新闻生产流程,也在重塑记者的角色和职责。记者可以利用人工智能技术分析相关的数据和背景、提炼观点和见解,发现新的报道线索、思路和角度,得到启发和洞察力,助益他们的报道、提升工作效率和质量。
但是,这样的新型辅助工具,在悄然改变新闻工作者的角色和定位。新闻本源于社会实践,如今它由数据驱动,这是否挑战了新闻专业的基础?智能技术替代采写实践,是否挑战了新闻工作者的职责和实践观?
研究显示,早在2015年或之前,新闻媒体就让他们的记者编辑使用人工智能去做“社交媒体事件监控”,进而获取新闻线索。那时,dataminr、Newswhip和路透社的News Tracer等工具都努力从Twitter和Instagram等社交帖子流中提取重要事件,比如News Tracer利用“训练有素”的智能算法在浏览Twitter帖子时“模仿人类判断”,更早一些还有CornellTech的CityBeat努力从Instagram中识别具有新闻价值的事件。传统上,新闻工作者是要投身于社会实践及其相关社会联系中,去获得一手的新闻线索、素材,从中探索角度、寻找思路,是自己从实践中发掘新闻。
新闻和新闻业根植于社会劳动,它们是对客观世界的反映和社会性的构建,其本源是社会生活。新闻是一个由社会因素、社会互动和社会规范塑造的社会现实的动态反映。新闻不仅仅是数据的产物,还受到社会、文化和政治因素的影响。新闻来源于社会实践,传统新闻是通过记者的“新闻鼻”和“新闻眼”去具身寻找、发现,并经过新闻价值判断得来的。
中央电视台的记者1979年在王府井百货大楼停车场看到了一些单位的公车,于是才有了《新闻联播》的第一条批评报道《王府井百货大楼前的停车场见闻》,美国记者在一个偏僻的休假地见到了一辆首都车号,才揭开了一位政治要员的丑闻。作为社会实践的新闻和新闻业,与由“数据驱动”的新闻之间,存在着矛盾。新闻作为一种社会实践,强调记者深入一线、深入生活实践去观察,在与一线的互动中了解、理解社会问题,发现一手的、鲜活的新闻线索,并根据价值观和人类经验进行报道。而依赖数据,虽然同样可以做出独家的报道,但是缺乏一手的、鲜活的现场体验和现实反映。
记者方面,数据驱动的报道正在重新定位记者的角色。记者从积极的新闻信息采集者、解释者,转变成了数据的管理者和分析者。这种转变,对以传统的采写为己业,以探寻背景、揭示真相、通过采访呈现观点的传统新闻价值,是很大的挑战。实地采访能够让记者捕捉到新闻发生的情境、洞察其中的复杂性和细微差别,其中会融入记者的主体性,比如个人经历、情感和社会体验。
过于依赖数据可能难以获得复杂的情境和背景信息,可能会带来对复杂问题的浅薄理解。数据还存在许多先天的局限和问题,也会影响到记者的判断。传统的采访实践可以让记者直接与消息来源互动,建立信任和理解关系,从而更深入地挖掘有价值的内容,而依赖数据可能会限制或缺失这种直接互动的机会,让记者与其报道的对象和社会之间脱节。
此外,生成式人工智能赋予的能量,让新闻工作者不仅能够从社交媒体上高效、准确地寻求信息源和报道线索、寻找更有表达力的词语、写作过渡桥段句子等繁琐的报道细节,还能够获取采访问题的设计、亮眼标题的编辑,乃至一篇篇文章的撰写等极富成就感的工作成果,他们在人工智能生成的一个个有灵性的词汇、一条条富表达力的标题、一些有创意的采访问题的工作情境中,会不会逐渐改变初始报道的目标?
当然,新闻工作者限于其知识、经验、实践范围和判断能力等的影响,也存在种种不足。如今通过数据驱动,获得更广阔的信息,通过智能工具获得洞察力,来弥补自身的不足。但是当智能工具被广泛使用后,可能会使他们过于依赖数据驱动的方法,从而让他们忽视了新闻的更广阔的社会背景和社会问题的复杂性。
新闻业本质上是一种以人为本的事业,依赖人类的直觉、调查挖掘能力和判断力,才会彰显人性化、明辨性思维和价值观。记者必须在数据驱动的洞察力和他们的专业性、新闻理想和目标之间建立一种平衡关系,从而更准确、更有深度地报道有价值的新闻,紧守“实践出真知”的专业底线。
如芒福德(Lewis Mumford)所言,人类拥有比其他一切组合都更为重要的生物学装备——大脑及其支配的身躯。新型智能技术带来的挑战,将会从新闻实践延伸到新闻机制、规范乃至伦理观念,我们需要见微知著,深入研究。
(作者:陈昌凤,清华大学新闻与传播学院教授、安徽大学大师讲席教授;)