历时两周码了5w字!每年必考的「人工智能」超新超全专题笔记不能错过!

aaron 2 0

  。今年的专题笔记将加入更全、更新的知识内容,旨在为小伙伴们提供更好的阅读体验。「高频考点专题笔记」共

  本篇阅读提示:为了给大家提供更丰富的学习参考内容,且保证每个小版块的逻辑完整,本篇笔记的每个板块都呈现了较多的内容。因此,在具体内容阐述过程中,板块与板块之间可能有交叉或相通的地方,大家可以上下文结合起来学习,整理出自己的“万能答题模板”,不用对笔记全文进行死记硬背。

  2.试述人工智能在当前新闻业的应用及影响(四川省社会科学院334,论述)3.AIGC(人工智能生成内容)的应用场景有哪些?(四川省社会科学院440,简答)

  4.请根据上述材料,结合你所学的传播学理论,分析ChatGPT对新闻传播的影响和挑战,以及应该如何规范和治理ChatGPT的使用。(四川省社会科学院440,材料)

  6.试析ChatGPT引领的大模型时代可能引发新闻传播业怎样的变革?(四川省社会科学院707,材料)

  16. ChatGPTchatgpt等生成式人工智能对新闻业务消极影响和应对策略(安徽大学334,分析)

  18. 大数据、5G、人工智能、虚拟现实等技术影响了视听文本的生产逻辑和表现形态,举例说明其对视听传播的影响(中国人民大学334,论述)

  20. 社交机器人在社交媒体多方应用,结合具体实例谈谈社交机器人的影响(浙江工业大学334,实务)

  21. 生成式人工智能给新闻传播理论和实践带来了哪些影响??如何应对这些影响带来的挑战?(北京大学334,论述)

  人工智能(Artificial Intelligence),英文缩写为AI。目前学界对人工智能技术还没有形成完整统一的定义,普遍认为它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器。该领域的研究包括机器人语言识别、图像识别、自然语言处理和专家系统等。人工智能是对人的意识、思维的信息过程的模拟,它不是人的智能,但能像人那样思考,也可以超过人的智能。

  伴随技术性能持续升级与应用落地,Al已成为新基础设施,而伴随着AI与人类生活的紧密联系,技术带来的社会不平等终将显化并持续加剧,这种由于AI技术差异造成的社会差异,可称之为“AI鸿沟”。“AI鸿沟”的概念引申自“数字鸿沟”,后者一般分为接入沟、使用沟和知识沟三道,故借此三个维度对AI鸿沟展开阐述。

  AI鸿沟的接入沟体现在国家、社会、个人三个层面:在国家层面,鼓励创新和冒险的Al基础好的国家和其他国家之间将出现巨大的鸿沟;在社会层面,各个国家内部的AI资源富有者与AI资源贫穷者之间也将出现差异;在个人层面,体现为人们能否获取AI技术应用以便开展生产生活方面的差异。

  AI鸿沟的使用沟关注获取AI技术应用后的使用差异,由于使用时长、使用目的以及技能掌握程度的不同,人们对AI技术的使用方式与使用效率存在差异,即AI技术的多用性带来技术使用的差异性。

  AI鸿沟的知识沟意在回应技术接入和使用上的差异会带来怎样的社会后果这一问题,韦路和张明新指出其对知识获取的影响并强调信息和知识与社会和政治力量间的转化关系,而在AI鸿沟中,知识沟的形成更为明显,因为AI技术直接影响个人对信息和知识的获取程度,并基于技术效率快速拉大接入AI技术应用并熟练使用群体与其他群体在知识获取效率与知识积累程度方面的差距,从而加剧AI鸿沟并阻碍其弥合。

  过去新闻内容的采集需要依靠人工,但可触达的渠道有限且效率低下,而智能技术可以在时空双重维度上延伸新闻工作者的触角。时间维度上,人工智能极大提升了新闻采集的速度和效率,显著提高内容时效性。空间维度上,人工智能可以拓展新闻报道的空间范围。

  智能技术对新闻内容生产领域的深度介入已然产生了深远的影响。不论是机器新闻写作、自动化视频编辑这类功能专一的智能应用,还是虚拟主播等复合型的智能产品,都是智能化技术为其提供底层支持。人工智能技术的辅助将记者从单调乏味的日常任务中解放出来,有更多的时间和精力投入在深度报道与调查性报道领域。

  进入互联网时代,在“信息爆炸”的现实困境下,传统的以人工为核心的内容分发模式逐渐力不从心。而此时社交媒体异军突起,以算法推荐为核心的智能化内容分发模式由于其高效率、精准化的优势大放异彩,将“人找信息”转变为“信息找人”。同时,算法推荐新闻也改变了受众的信息行为模式,用户潜意识里的信息需求与满足实现得以快速对接。在大数据的喂养下,算法“读懂”人心的能力与日俱增且不断向受众“投喂”信息。

  写稿机器人的数据采集范围覆盖整个网络,信息量巨大的自媒体成为其重要的信息来源。而自媒体本身准入门槛低,缺乏监管力度,信息真伪难辨,

  除了源头数据的质量,写稿机器人的算法设定是否科学也决定了新闻写作是否正确,如果机器人的算法包含错误,加上无人力及时干预和修正,写稿机器人可能会写出大量错误报道,带来负面影响。

  由于人工智能技术本身的原因,写稿机器人的偏见具有隐蔽性,不容易被受众发现。如果我们向机器人提供了带有偏见和倾向的数据,机器人新闻也会带有这种偏见和倾向,而受众往往因为对机器人新闻缺乏认识,把人工智能的筛选模式当成客观筛选方式,使得有偏见的机器人新闻比有偏见的人工新闻更易影响受众。

  写稿机器人通过对已建立的资料库和互联网中同类新闻材料的抓取来获取更多信息,从而形成文本,缺乏现场的感官体验,往往会忽略隐藏在新闻背后的人为因素,只具备表面客观事实的真实,对于深层次的真实却因为算法的制约无法探知,造成新闻真实的不全面,这在本质上是对新闻线.基于算法的热点新闻单纯迎合受众,容易导致新闻失衡

  写稿机器人过分注重刊播效果,以受众需求为导向,容易导致新闻失衡,使真正重要的新闻被边缘化。在新闻题材方面,为迎合读者需求,黄色信息、娱乐绯闻和暴力新闻代替政治、经济和文化新闻成为推送的主体;在新闻质量方面,人工智能新闻与人类记者完成的新闻相比,新闻的信息性增多,而知识性却被大幅削弱。在新闻价值方面

  在信息爆炸的时代里,受众需要媒体提供深度和带有独到见解的的报道,而机器人新闻只能局限于固定的模板。人类记者有个人经历、风格的差异,而写稿机器人并无个体的区别,会造成严重的新闻同质化现象。机器人的写作语言枯燥乏味,难以表达复杂情感。机器人新闻在生产逻辑上与传统新闻相冲突,机器人新闻生产的出发点和核心诉求在于快速和个性化,而非传统意义上的新闻价值;机器人新闻为新闻披上“技术”的外衣,将观众的注意力吸引到形式消费上,令新奇的体验僭越了新闻价值,违背新闻报道的基本要求。

  与人类记者相比,写稿机器人不具备舆论监督的能力,没有大局意识,也不擅长发表具有引领作用的深刻见解。由机器人主宰新闻生产,长此以往会降低公众对媒体的信任度,削弱新闻媒体的监督功能。

  新闻不仅是一种信息产品,更具有社会教化的作用,智能新闻的生产和分发模式会造成言论单一,不利于公众的社会认知、责任意识的养成。如果长期受智能新闻分发平台的控制,将导致受众仅关注个人兴趣,沉浸在“信息茧房”中,忽视社会公共事件,造成与社会的割裂,这在某种意义上也违背了媒体需要客观中立、传递不同声音的理念。

  同时,仅以用户兴趣作为内容衡量标准往往会造成隐含负面价值取向的内容被大量推送,这样很容易为用户造成“很多人都有这种价值取向” 的印象。一旦用户大量接触负面价值取向新闻,并认为新闻中的价值取向广受认同,基于趋同心理,就会在行动上向“大多数”人靠近,甚至重塑价值观,带坏社会风气,令越来越多的人丢失正确的价值观。

  人工智能与新闻工作者的有机结合是未来新闻业的发展方向。首先,智能算法用于分析数据、发现热点事件和重大事件并提供初稿,随后记者将通过深入调查、深度思考完善新闻报道,最后由智能推荐将信息有计划性地送达用户手中。面对信息爆炸和人工智能快速发展的趋势,新闻记者要积极应对,发挥人的主体地位,增强深度分析和深入调查能力,提升对人工智能技术的运用与把控,实现“人机共生”,促使未来的新闻业向更加高效、智能的方向发展。

  目前, 人工智能的成果、技术和手段多掌握在新闻机构手里,因此新闻机构有责任增强算法的透明性,加大公众对机器人新闻生产过程的监督力度。新闻机构有必要明确告知受众机器人在实际运行中带有的偏见和所犯的错误

  同时还要明确智能新闻的问责机制。人类是智能新闻的“元作者”,要对源数据的版权和准确性负责。为每一则智能新闻分配责任人是有必要的,由他们做好新闻的审核和检验,做到人机责任捆绑,在机器人客观公正的基础上加上新闻工作者的专业把控,能够有效避免人工智能技术所导致的传播伦理失范问题的产生。

  其次,应该以技术发展加强机器人对新闻数据质量的判断,通过严密的算法对新闻源头进行过滤。由机器人生产的新闻应明确标注数据来源、内容的生成方式,真正做到“有方法可依,有数据可查”,从源头上避免虚假新闻的产生。

  再次,在技术未完全成熟前,应由新闻从业者充当“把关人”的角色,进行数据管理和程序的验证,保证源数据真实可用。

  最后,为了减轻智能分发所造成的“信息茧房”问题,需要提升智能算法的运算程序。除了基于受众画像、受众行为习惯描绘受众显性需求,还应结合社会重大事件、用户圈层全方位改善个性化推送内容和机制,通过技术手段避免用户陷入“信息孤岛”的困境。

  首先,要对人工智能技术和产品的各个方面做到有法可依,从立法层面加强对公众隐私的保护,明确可抓取数据的范围和边界,明确在数据使用中侵犯隐私权的处罚。

  其次,人工智能技术始终需要全社会的监督,有关部门在人工智能的监督中担负主导职能,应在方向上规定人工智能的发展方向和发展原则等问题。公众监督也是社会监督的重要一环,公众是智能新闻的受众和潜在侵权对象,公众的积极监督与举报,对人工智能技术导致的新闻传播伦理失范起到制约作用。

  由于人工智能在数据搜集分析上的精确度要比人类高出许多,其撰写、播报的稿件在准确性、时效性上也比传统新闻报道更胜一筹。在此趋势下,若人工智能大量应用于新闻内容生产过程中,一部分媒介从业者必然面临失业风险。

  当前,许多聚合类新闻客户端利用AI爬虫技术即可实现自动抓取全网新闻,轻易获取新闻成果。部分新闻客户端在使用新技术抓取、发布新闻时并未标注新闻具体来源,致使新闻侵权现象时有发生。然而,目前我国还存在新闻作品侵权认证不清的难题,从而严重响了媒介从业者维权的积极性,消解了媒介从业者生产优质内容的热情。

  人工智能时代,为争夺受众注意力资源,资讯类App利用算法技术收集用户信息,通过推动个性化阅读的方式为用户量身定制信息,增强用户黏性。网络环境下受众对热点话题的关注更倾向于用户个性化的信息接收,从而带来“信息茧房”、群体极化等负面效应,削弱了传统媒体时代媒介从业者的议程设置功能。

  人工智能时代的新闻传媒业需要转型升级,媒介从业者也要改变思维模式,从原本最直接的执行者变为新闻内容方案的策划者、新闻生产任务的发布者,不断学习人工智能技术,指导人工智能机器完成内容生产和渠道分发。

  由于人工智能技术缺乏信息传播的主观能动性,增加了诸如“反转新闻”、谣言等负面信息传播的概率,极易引发网络舆情。舆论事件发生时,专业的媒体从业人员应承担起媒体人的社会责任,承担起舆论引导者的角色,恪守客观、中立的新闻专业精神,挖掘现象背后的本质。

  人工智能尚不能分辨新闻内容的真伪,无法考证新闻信息的真实性。基于热搜机制的新媒体产品对“新闻爆款”的追逐加速了假新闻、谣言的传播,也带来了公民隐私被侵犯的风险。媒介从业者应主动承担并不断强化作为资讯流通中“把关人”的身份,对人工智能的新闻内容进行把关,加强人工干预,对新闻源进行核实。同时,新闻从业者还要成为人工智能技术的“把关人”,不断优化人工智能技术,完善人工智能新闻生产的技术规范,平衡新闻信息的个性与共性,确保新闻传播链的真实有效。

  优秀的新闻人并不需要担心被机器取代,原因就在于新闻人能够发现事件背后隐藏的机器无法探知的情感因素和人文精神。新闻作品承载着人类历史,传承着社会文化,人工智能时代的媒介从业者应学会合理利用人工智能技术,发掘新闻线索,做有深度和充满人文关怀的新闻报道。

  对于传统的广告创意生产来说,创意来源主要来自市场对产品、企业、客户、消费者需求等有限信息范围进行的调查,只能以有限的人力对庞杂的数据进行分析,生产成本高且针对性不强。而通过引入深度学习技术,可以基于创意数据库的经验学习,生成精准的推荐信息。

  拓展广告投放增量。(三)人工智能推动广告消费体验的升级:打造智能化产品的体验场景在VR、AR等新技术的加持下,广告产业迎来了新的机遇。模拟现实的广告模式可以在广告平台、广告用户和广告主之间搭建起一个良好的信息沟通和情感联系渠道,增强用户的情感共鸣,实现广告的场景化体验。网易云将线上制作的第一人称叙述视角下的广告与线下的音乐餐厅进行双向互动,使得消费者可以突破时间和空间的限制去体验音乐,同时,这支广告也为消费者带来了别开生面的体验,使人身临其境,大大提升了广告的触达效果

  广告主和消费者能进行“面对面”的沟通,这样既可以避免广告预算的浪费和获得较高广告转化率,又可以对消费者行为进行深度追踪,然后进行重复的广告资源曝光,从而深化用户对品牌的记忆以及品牌美誉度和知名度,提高资源利用率。一方面,广告媒介实现从媒介代理到广告交易平台的转变;另一方面,用户从碎片化走向标签聚合化。

  田心说:此知识点了解即可。人工智能广告是指利用人工智能技术(如语音识别、人脸识别、深度学习、机器学习等),调查、制作、发布广告。

  信息繁杂多余,失序性、混乱度及无效性都很高。美丽外壳或吸睛度高的信息,占有消费者的时间,排挤其他真正有序或有用的信息,新媒体的熵很高。广告熵破坏了企业与消费者之间的有效沟通,资源的合理配置。主体常被泛滥的信息吞没,个人抗议显得软弱无力。在信息的巧妙奴役下,消费者的生物和生理向度被最大限度地利用。越智能,越丧失了选择信息的自由和权力。

  个体自由的时间成为被“广告消费后的剩余”,个体时空变成受广告商支配的“社会供给”。在人工智能环境下,消费者想花钱去买几分钟的清静是一种奢望。

  “沉浸式”交互体验融合多种功能,不断勾引消费者调动身体与思想的动觉参与,给媚俗和低俗广告新的风姿和展示。

  消费者在披上智能圣化外衣的广告精准推送中日益被“催眠”,广告的功能性美丽唤醒消费者内心的隐秘与,产生购物的冲动。网络拓扑结构(指用传输媒体互连各种节点设备的物理布局)到处是信息,弱人工智能搜索和图标推送,智能欺骗是开始,失误选择成为可能。真相暗藏于看似有序实则凌乱的泛滥的信息之下,想打开却找不到症结。

  算法模糊和非精准推送,复杂丛生、凌乱怪力。由交易双方信息不对称产生的混乱选择,进而出现市场交易质量下降。有时在“欺骗性表象”中掩盖了选择的无力。而消费者可能还不知情,甚至还在为此喝彩。一旦产生逆向选择(指在两者交易进行之前,出现信息不对称的状况。因为出现信息不对称以及市场价格下降,导致“劣币驱逐良币”,从而造成交易产品的质量下降,进而导致资源配置不平衡的现象),会弱化社会资源配置,降低社会福利。在劳动力市场上表现为失业,在商品市场上表现为商品积压或滞销。人工智能广告看似越来越人性化,实际上在现在的弱智能技术的助力下将广告主和商品推为中心,消费者则疏离于边缘。

  人工智能具有“类人”一样的思维。通过“类人”思维的广告智能筛选和把关,可以过滤广告信息、暂停广告信息,也可以反馈回路。机器越机械化,智能越生物化,越能使消费者摆脱人工智能广告的奴役和唆使。

  人工智能并不意味世界是更多冰冷的钢铁机器。机器越技术化、机械化,也就更生物化、生命化,也更需要人的智慧和控制。所以,消费者的自我伦理保护和广告主自我伦理节制不可缺少。

  AI合成主播是捕捉真人主播在新闻播报时的口型、表情和语言等叙事体系,高度还原和整合主持人身形、神态和话语风格,综合建模的人工智能新模式。

  合成主播在增强新闻生产领域科技赋能的前提下,降低了内容生产的人力、物力、时间和空间成本,大幅缩短了新闻信息制作的周期;在信息生产和传播过程中,逐步告别真人现场录制,大幅增强新闻制作和发布的传输频度和节奏。

  AI合成主播在采取虚拟生命形象技术的基础上对新闻传播形象进行技术性全新建模,由于其拥有人脸面部轮廓和身形的具象写照,极具拟人化。AI合成主播播送的新闻都需要5人以上团队首先进行先期采编工作,而新闻视频输出时长则精简至一分钟左右,以求在精简化时空条件下内外联动,保证信息传播质量。

  AI合成主播由人类创造,其核心的创作理念仍是为观众提供实用优质的传播内容。这一点充分体现其新闻内容生产的客观性。而AI合成主播播报模式本身也成为新闻领域一道亮丽的风景线,其在与观众沟通交流过程中注重观众感受,实时调整表情动作,通过多元化表现形式拉近传受距离,具备主动性特征。当下,AI合成主播播报新闻这一传播行为本身比其传输信息更具话题性。

  第二阶段AI合成主播发展为可视化、虚拟化的真人分身,更加智能化,以具象化的形态展示在大众面前,其声音、表情、体态接近于真人,摆脱了机械的语音播报,能与人进行实时交流互动,如人民网和猎豹移动合作打造的AI机器人“小融”以及新华社AI主持人“新小萌”。

  第三阶段的高水平AI合成主播已应用于智媒体时代的新闻报道,该类AI主播外在形象几乎与真人无异,微动作、微表情细腻逼真,同时AI合成主播展现出更具逻辑性、交互性、沉浸式的播报水平。如2020年央视网AI主播“小智”以及韩国首位AI主播“金柱夏”都令人难辨真假,而AI合成主播展现出的超高新闻报道水平极大地提升了智媒体时代的新闻传播质量。

  。一些社交机器人通过伪装成正常的人类账户窃取用户隐私信息、发布虚假新闻,借操纵社交网络中的舆论走向达到干扰政治选举、左右金融决策等目的。当然,社交机器人也可以带来中性或偏正面的传播效果。有记者使用社交机器人来追踪信息、获取新闻报道线索。当爆炸性新闻发生时,媒体从业人员可以借助社交机器人自动抓取更新新闻线索和素材,大大提高新闻生产效率。

  目前,社交机器人应用于新闻制作传播流程的各个环节,如新闻的生产和编辑、聚合与分发等。在新闻生产和编辑领域,社交机器人得以应用主要基于两个方面:一个是电脑软件可以自动从大量数据中提炼新知,另一个是算法可以不依赖人类而自动报道充满洞见和新知的故事。

  随着人工智能技术的快速发展,社交机器人也成为网络空间的“常驻民”,与人类一起共同构成“人机混合”的媒介系统。

  社交机器人的隐蔽性和不透明性加剧了人们获取信息来源的不确定性,从而进一步扩大了信息失序的可能。

  信息污染主要指的是信息过载或者信息中混入有害的、欺骗性或误导性的内容。在社交媒体中,社交机器人不知疲倦、不分昼夜选择性地放大信息。虽然在一些话题讨论中社交机器人可以通过创建内容来活跃议题讨论,平等地表达观点和意见,但在现实应用中这些信息通常是垃圾信息或无关信息,会在一定程度上造成信息污染。

  在利益集团的驱使下“制造信息”从而达到操纵舆论的目的。社交机器人现阶段更多地被应用到舆论阵地争夺当中,这就导致社交机器人必然带有一定的目的性。

  群体化、持续性、动态性的行动,不同于人类个体化活动需要保持言行的相对一致,社交机器人是在协同行动中来创造影响力。

  僵尸网络在制造舆论方面具有大规模和群体化的优势。在议题讨论中,僵尸网络可以在短时间内产生大量相似的推文内容,或批量转发同一条推文,使其成为热门推文,以此来营造议题的虚假流行。僵尸网络对网络舆论的伤害很大。一方面僵尸网络产生的误导或有害信息可以在短时间内达到一定规模,影响人们对真实信息环境的判断;另一方面僵尸网络与其他用户网络交织在一起,是对真实网络的一种渗透,通过更深入的交互,社交机器人往往成为网络的中心节点,在网络中发挥核心位置。

  GPT(Generative Pre-trained Transformer)即生成式预训练Transformer,是Open AI公司开发的一系列语言模型。(后文会具体介绍)以GPT为代表的AIGC模型补强了社交机器人两方面的短板:对话能力和内容检索与生成能力

  ChatGPT通过采用先进的机器学习和深度学习技术,可使社交机器人具有更强的自然语言理解和处理能力,在与用户互动时能够更好地理解用户的意图,准确判断用户的情感和需求,进而能够更智能地生成高质量的文本,而非以往易于检测的“重复内容”或“垃圾信息”。同时,ChatGPT还提高了社交机器人在处理复杂任务、解决问题的能力,使其更接近人类的思维方式。随着社交机器人智能化生成内容质量的提升,可以预见,会有更多的普通用户关注社交机器人账号,这也使得社交机器人的社会互动网络变得与真实人类用户相似,难以识别。

  通过使用预训练的模型,ChatGPT减少了社交机器人开发过程中的训练数据需求,缩短了开发周期。同时ChatGPT还提供了强大的迁移学习能力,使得社交机器人可以在不同的领域和场景中快速适应,降低了维护和升级的成本。基于ChatGPT对整体语境的深度理解,批量社交机器人更有可能实现“共享大脑”。这些优势使得企业和开发者能够更容易地开发和部署社交机器人,从而降低整体运营成本。

  与其他的所有AI模型类似,GPT-4自身的黑箱属性和学习行为的不可控制性给其赋能下的社交机器人带来了潜在风险。以数据为中心的运行逻辑使得GPT在数据多样性、公正性方面存在缺陷,加之自然语言与计算机语言编码过程中可能存在的偏差,极易导致系统性偏见、刻板印象和观点霸权等问题。

  自动化新闻是智能技术与新闻业融合产生的词汇,起源于2006年的美国。我国最早的自动化新闻出现在2015年,是腾讯网的Dreamwriter自动生成的财经报道《8月CPI涨2%创12个月新高》。自动化新闻在我国目前还处于探索阶段,没有统一的概念。学者们常用的词汇还包括“算法新闻”“数据新闻”“智能新闻”“机器人新闻”等。根据美国学者马特·卡尔森在2015年对“自动化新闻”的定义,自动化的新闻信息生产过程指的是在没有或者有限的人类干预下,由预先设定的程序将数据转化为新闻文本的自动算法过程。由此观之,自动化新闻的前提是较少或没有人工干预,来源是海量数据,核心是自动算法。

  目前,新闻业对AI技术的征用已涉及新闻采集、写作、呈现、分发、反馈、交互等各个环节,涉及的AI技术应用类型主要包括:自动化新闻写作、新闻报道、增强记者报道、视频图像处理、个性化推荐、用户订阅、评论识别、用户互动、新闻责任、教育培训、新闻工作室AI布局、信息聚合、创新应用等。

  (三)机器人新闻写作机器人新闻写作就是一个相对于拟人化的概念,精确的说,它主要就是通过一定的计算机程序,对搜集和输入的数据信息进行自动化的分析、处理和加工,从而生成一篇较为完整的新闻报道。二、自动化新闻的传播优势

  高速的计算加上预先设置的模板,自动化新闻几乎可以实现同步播发。另外,新闻传播界普遍认为:自动化新闻在新闻总量中所占比重将会越来越大。产生这种认识的原因主要有两点:

  只要数据正确,算法科学且正常运行,自动化新闻的生产就能够避免出现诸如拼写错误、计算错误、事实要素不全等差错,与记者相比,更能够保障新闻信息的准确性。与记者报道相比,在基础数据和算法正确客观的情况下,自动化新闻更加客观可信。现在的自动化新闻主要应用的是数据挖掘和人工智能技术,囿于目前的技术水平,主要限制在以结构化数据为基础的新闻稿。随着技术升级,结构化和非结构化数据信息都可以成为素材,创作出内容更丰富、逻辑更合理,更有人情味的、高质量的新闻报道只是时间问题。

  大数据时代,新闻信息的生产与传播呈现出一对一的特点,媒体能够更好地掌握受众的信息需求,从而实现新闻信息的个性化和定制化。一方面,

  媒体的传播效果只有在和受众的互动中才能实现。受众群的分化意味着相同的信息会被不同的受众以不同的方式解读,相同信息的不同解读方式也可以满足不同受众的“口味”。因此,只有加强对受众的阅读倾向和兴趣点的分析,才能解决“众口难调”的问题,这个计算量是巨大的,超出了人工能力,而这恰恰是基于大数据技术的运算程序所擅长的。

  田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。第一,

  财经报道和体育报道,新闻产品也主要是那些标准化程度较高的消息、快讯等新闻体裁。尽管自动化算法可以提供有关正在发生的事件的信息,但是它们无法解释该事件为什么发生。这也就说明,建立在数据分析基础上的自动化新闻,有时候得出的结论可能是没有意义的,受众仍然需要包含逻辑和解释说明的有效信息。

  在可读性方面,记者报道比自动化新闻更具优势。通过标准化程序生产出来的新闻作品更多的是客观叙述,很难表达复杂感情,语言也枯燥乏味。新闻报道离不开语境,单纯客观报道新闻而缺乏必要的解释和背景资料,有时会引发受众对新闻内容的误解。第三,

  第四,像任何其他模型一样,用于生成自动化新闻的算法依赖于数据和假设,这两者都可能带来偏差和错误事实证明,自动化新闻同样存在报道失误的风险,而并非万无一失。

  第五,相较于人工的新闻生产方式,自动化生产出来的新闻在报道视角、创造力和思辨性等方面存在短板。

  就常规性、重复性报道而言,记者难以在速度、准确性上与自动化写作软件匹敌。当常规的报道可以被自动撰写,记者们可以在深度报道上花更多时间。因此,从积极的一面看

  则可能引发媒体裁员越来越多,以及新闻写作的商品化。在未来的新闻行业里,记者和人工智能形成“人机联姻”的生产模式,算法用于分析数据、发现有趣的故事并提供初稿。随后,记者将通过深入分析、采访重要人物以及幕后故事完善报道。此外,对于那些仅仅只报道常规性内容的记者,自动化新闻凭借快速、准确的优点,可能会取代他们的地位,但自动化新闻建立在算法的基础上,对于开发新的新闻写作算法同样需要人力资源,从这一方面看,自动化新闻软件在取代一部分新闻记者的工作的同时,也会产生一些新的职业岗位,记者将在新闻生产过程中扮演新的角色。

  尽管受众无法辨别人工写作的内容和软件写作的内容,但受众依然关心撰稿软件的写作质量如何,与人工写作相比会有多大的区别。有研究显示,尽管撰稿软件生产的内容是描述性的、乏味的,但同时也被认为是客观的。人工写作在内容的清晰易读上具有优势,但在可信度、信息量和客观性方面比不上撰稿软件。机器算法的透明度也是受众关注的问题,包括自动化新闻算法的目标和意图是什么,谁开发和控制这些算法,谁对这些内容负责,最终产品在发表前是否有人工编辑审阅等。因此,媒体首先需要更好地了解受众对算法透明性的要求,以及如何将公开的信息用于公众利益。其次,

  当自动化新闻涉及批评性报道时,数据的准确性、内容的质量以及程序的透明度将变得更加重要。新闻媒体在自动化内容生产中需要考虑源数据、数据处理和最终输出有关的问题。因此,新闻媒体需要确保有权修改和发布源数据。此外,新闻媒体还必须通过添加有关数据来源的信息、内容的生成方式

  “算法”只提供受众喜欢阅读或认同的信息内容,导致个人消费越来越多的同类信息,以至个体受众不太可能阅读到与其意见相左的信息或观点,社会上不同声音之间的沟通交流日趋减少,社会言论也越来越单一。“算法”让“过滤气泡”现象更加严重,给社会舆论的健康形成带来风险。因此,新闻媒体在憧憬自动化新闻为自身的发展带来转机的同时,也要时刻提醒自己,不能置受众于信息和交流的孤岛之中,而要多渠道获取和发布信息,帮助受众跳出“过滤气泡”的禁锢,营造健康、多元的社会舆论环境。五、自动化新闻的失范问题

  在数据输入阶段,信息本身的准确、可靠、完整程度对新闻报道的真实客观起决定性作用。目前,自动化新闻数据的来源可从三个主体层面分析。第一,从新闻媒体机构层面而言

  第三,从用户个人层面而言,用户私人信息和移动的轨迹都处于数据监控之下,个人信息面临泄露的风险。

  (二)处理:算法的透明度与新闻立场偏向社会大众对传统新闻生产传播过程较为熟悉,但自动化的新闻生产过程俨然是个黑箱,这种算法的不透明性让公众无法进行必要的监督。参与程序写作编码的程序员有着不同的学习背景和生活经历,看似客观中立的算法背后隐藏着人为主观价值倾向。突出的表现就是阅读量、播放量、分享量等流量成了新闻价值的判断标准,出现新闻界的“劣币驱逐良币”。

  在推送过程之中,筛选与用户标签关联度高、停留时间长的信息,利用智能算法技术进行个性化的内容服务,形成过滤气泡

  强化专业人员的把关作用是至关重要的。自动化新闻拥有两大自然人主体,一个是技术人员,一个是媒体从业人员。

  在智媒时代,记者的多技能化已是常态,记者除了专注现场采访报道,还需习得数据分析能力、熟悉算法原理和计算机编程。习得这些专业技能的途径是与算法工程师形成长期合作机制,构建与算法工程师的交流区,在对话中提升自己的专业知识素养。从教育角度出发,打破两大专业人员之间的壁垒、培养复合型新闻人才是自动化新闻的发展趋势之一。

  算法在实践中出现的偏差如算法歧视、大数据杀熟、价值偏向等现象已上升为公共议题引发大众的“算法焦虑”。人民日报曾在其移动客户端7.0版本中推出主流推荐算法系统,核心理念为用主流价值舒缓算法焦虑,建设正能量的舆论生态。此外,可探索将道德法律规范编写成代码嵌入自动化写作程序中,利用机器的自我学习提高人工智能水平,以使机器自动识别违反法律道德规范的内容。也可建立记者个人写作数据库,通过机器学习,模拟记者写作习惯,增强人文关怀。总之,要严格把控内容质量,反思流量焦虑,实现智能驱动。

  生成式人工智能可以通过人工智能的相关技术,自动化生成文本、图像、视频、音频等多类型内容。其生产的内容被称为人工智能生成内容(Artificial Intelligence Generated Content,AIGC)。

  “既是从内容生产者视角进行分类的一类内容,又是一种内容生产方式,还是用于内容自动化生成的一类技术集合”。该定义认为AIGC兼有内容特征和技术特征

  “对话+创作”为基础的生成式人工智能应用。ChatGPT的核心突破点在于其实现了在拟真度层面的跃升和更高层次的功能维度集成。

  (四)AGIAGI(Artificial General Intelligence)是指一种通用人工智能系统,能够模拟人类的智能和认知能力进行学习、推理和交流等活动,还能理解、决策和解决问题,具有与人类相当或更高的认知能力,可以灵活地适应各种环境,能够应用于多个领域和任务中。

  二是通过强化学习技术,分析用户的行为和偏好,优化内容推荐和互动方式,减少人工干预的成本和风险,提高用户体验和满意度;三是可以让机器学习和训练,提供各种写作风格和表达方式,自动生成文本、图片、视频等内容,实现自动化报道。

  (五)AIGC、AGI、ChatGPT之间的联系和区别AIGC是指利用人工智能技术自动生成内容,如文本生成、图像生成、音频生成等。它是一种特定的应用程序,能力范围较窄,只能针对特定任务进行优化,能力受到算法和训练数据的限制。

  AGI是指一种通用人工智能系统,能够模拟人类的智能和认知能力进行学习、推理和交流等活动,还能理解、决策和解决问题,具有与人类相当或更高的认知能力,可以灵活地适应各种环境,能够应用于多个领域和任务中。

  其三,基于AIGC的新闻生产体系,能捕捉、发掘日常工作中难以有效挖掘的信息,通过收集、汇总社会舆论,预测热点话题的发展走向,通过将新闻创作、生产的“触角”延伸至各领域,使新闻生产者可以将更多时间、精力应用于其他深度思考及问题理解中。

  (三)新闻内容传播生态的重塑人工智能与新闻传播的融合经历了技术辅助、弱人工智能与强人工智能三个阶段,逐渐从替代简单、重复工作向提升新闻媒体影响力、公信力等方向升级。将ChatGPT应用于新闻传播,进入了强人工智能生态。其一,

  其三,借助智能技术,驱动新闻生产实现信息获取、数据验证、文本生产及信息分发等全面升级。将ChatGPT应用于新闻传播,在提高新闻内容生产效率、丰富呈现方式和提高信息分发精准度的同时,使媒体与社会的互动更加频繁,形成了更为复杂的传播生态。

  ChatGPT最大的风险就是缺少专业、完善的人为把关机制,容易陷入机器算法,放大社会偏见。其一,

  (二)新闻内容价值日益平庸的风险将ChatGPT技术应用于新闻内容生产,不仅降低了新闻传播活动的参与门槛,也使社会大众、非专业新闻主体参与、介入新闻生产过程,推动新闻内容从品质化、专业化向同质化、大众化发展。一方面,新闻内容缺乏必要的研究深度与专业水准;另一方面,

  利用ChatGPT创作、输出新闻内容,通常会第一时间锁定创作主题,并收集和利用相关数据信息,生成新闻内容。但是,该过程存在数据及个人隐私泄露的风险隐患。四、以ChatGPT为代表的生成式人工智能参与新闻传播的风险化解

  其二,遵守新闻传播的客观性。通过优化新闻传播秩序,完善新闻传播内容的评价标准,构建完整的新闻传播风险及预警机制,切实增强新闻传播的公信力。

  其三,彰显新闻传播内容的专业性。新闻媒体从业者要立足专业性,从更加系统、深度和专业化的角度来生成新闻信息,通过输出精品质、观点独特的新闻报道及文本分析,妥善应对ChatGPT技术对新闻内容生成的冲击。

  三是创新受众参与方式,重构新闻传播体系。在人工智能与新闻传播“深”融合生态下,要充分借助智慧技术的应用优势,完善“人机互动”机制,在讲述新闻事实的同时,为读者创造参与空间,提升新闻传播效能。

  最后,要正视ChatGPT等智能技术对新闻传播体系升级影响,通过引导、驾驭智慧算法的运行逻辑,合理选择语料库,构建正确的训练模型,以应有的价值逻辑来约束内容生成过程,促使智能内容生成技术真正服务新闻传播。

  等多个环节发挥了出色的协助作用。在采编环节,借助语音识别技术对语音内容进行文字转写,能够有效压缩稿件撰写前的录音整理工作,提升新闻时效性。在制播环节,自动生成字幕、视频拆条、任务追踪等智能化剪辑工具不仅节约了时间与人力成本,还能够最大限度挖掘内容版权价值。在产品创新环节,近年来传媒业大量使用的虚拟主播,也离不开AIGC技术的支持。

  AIGC技术对传媒业的影响不仅体现于对传媒机构的内容生产流程进行智能升级,推动媒体融合进程,还进一步释放了传媒工作者的内容生产力,使其转向更具深度、广度与人文关怀的内容创作,同时为传媒用户提供了更丰富多元、更快速便捷的内容服务以及参与到内容生产中来的机会。

  (二)AIGC+影视:技术加持拓展影视作品创作空间AIGC技术的应用,一定程度上能够激发剧本创作活力,降低拍摄成本,提升后期制作质量,从而拓展影视作品的创作空间。

  在后期制作上,AIGC技术应用不仅包括图像的修复与还原,还能够合成人脸从而对特定人物进行替换。前者重点应用于历史影像的修复与还原,后者则可用于“数字复活”已故演员、替换劣迹演员等。

  最后,AIGC在内容生成,尤其是在图像生成领域的表现已经达到人类平均水平,能够满足游戏业大量重复且琐碎的美术需求。

  (四)AIGC+音乐:智能生成促进音乐产业智能升级音频生成作为早期AIGC领域,目前的商业化应用已较为成熟,主要包括语音识别与歌曲生成

  AI技术的引入不仅为音乐产业提供了音乐创作的智能工具,而且以技术赋能用户,丰富了用户的音乐消费行为,实现产业的智能升级。但AIGC技术带来的歌曲生成低成本,一定程度上也会使得大量从事低水平编曲的音乐创作者受到冲击,从而改变音乐产业的人员结构。

  其次是商品3D模型的在线展示,为用户提供全方位的商品呈现,甚至能够提供虚拟的使用场景搭建。最后

  是购物场景数字化再现,通过在二维空间构建三维场景,AIGC技术能够实现虚拟购物场景的低成本、大批量构建,从而降低商家搭建3D场景的成本,并为消费者提供线上线下融合的消费体验。但目前智能购物场景搭建呈现两种极端趋势:一端是技术水平有限、仿真度较低的常态化场景,另一端是技术水平较高、仿真度较好但持续性欠佳的秀场式场景。

  六、AIGC的发展趋势与关键点田心说:此内容需要理解。(一)AIGC将成为元宇宙时代的内容生产基础设施

  在元宇宙时代,元宇宙信息生态有赖于高效的内容生产机制,而AIGC能够通过算法训练做到根据用户行为与反馈进行实时生产信息内容,极大提升内容生产效率,且通过大量优质信息的生产维护元宇宙的信息生态。与此同时,由于元宇宙时代内容需求的增大,PGC与UGC生产效率不足以满足这一需求,能够低成本、高效率进行多样化内容生产的AIGC将会成为主流生产方式,而AIGC技术与数字孪生的高度适配也会使得AIGC成为元宇宙信息生态的主要组成。因此,AIGC将会成为元宇宙时代内容生产的关键底层技术。

  从用户角度看,基于元宇宙内容生态的数量高饱和、信息低密度特征,用户更加追求多样化、定制化的信息服务,并且出于对数字身份认同的高度需要,更希望获得自由表达的空间与能力。AIGC技术不仅能作为底层技术为元宇宙生态提供自动化内容生成,丰富元宇宙内容生态,而且能赋权用户对AIGC进行个性化微调,从而提供定制化信息服务,还能辅助用户进行内容创作,降低内容创作门槛,帮助更多普通用户进行自我表达,扩大内容规模的同时促进用户身份转型。

  AIGC的演进路径是从辅助、协助再到自主,但社会信息内容完全依赖AI自主生成将会导致人的主体性缺失。德国社会学家马克斯·韦伯将人类的理性分为工具理性与价值理性,前者追求工具的效能与技术的先进,后者关怀人的命运与尊严。如果将AI技术、人文精神与之对应起来,那么AI技术可以纳入工具理性范畴,人文精神可以纳入价值理性范畴,二者是对立又统一的关系。因此“AI+人文”将成为AIGC的主要发展趋势。

  在AIGC的应用过程中,内容安全与伦理问题是技术应用无法避免的现实问题。除此之外,AIGC技术模型本身由于训练数据的不可控,存在内生性的算法歧视。因此,人文精神与人工力量的介入是AIGC避免算法歧视的必然路径。

  由数据、技术、资本构成的技术要素和由用户与应用场景组成的商业要素,二者共同进步才能形成AIGC领域的繁荣生态。

  在技术要素中,数据是AIGC发展的“燃料”。目前多模态大模型是AI模型发展的主要趋势,多模态与大模型都需要巨量数据用以模型训练。技术是AIGC发展的核心动力。算法技术的进步推动着AIGC的不断升级。资本是AIGC发展的坚实后盾。巨量数据、多种模态带来的是AIGC对软硬件设备的更大需求,这都需要殷实的资本加以保障。

  在商业要素中,用户正在成为模型发展与应用的主力。开源模式正在成为AIGC发展的“催化剂”。开源模式的核心在于撬动用户力量,通过与真实用户的交互为AI模型提供训练数据,并借助用户反馈对模型进行优化与微调,同时也满足了用户的信息交流与内容创作需求,实现研发与应用的双赢。根据用户需求的差异性与应用市场的细分化,未来AIGC的应用场景将会更加分众化,基于特定群体提供定制化的AIGC服务,同时也为部分群体开放模型微调功能,以激发广大用户的想象力与创造力,进一步丰富现有应用场景。此外,更多元的应用场景也能够提升AIGC的商业价值,从而形成完整的“研发-变现-研发”商业闭环。

  。作为AI技术应用的主要分支,聊天机器人经历了从“概念化”到“实体化”再到“商用化”的演进历程。聊天机器人的演进是人工智能技术在近半个世纪以来飞速进步的一个缩影。当前,聊天机器人已经进入了日渐普及的新阶段,开始进入并影响到了人类社会与生活的方方面面。2022年11月30日,由马斯克等人投资创立的Open AI实验室推出了最新版的聊天机器人ChatGPT,全名为“生成型预训练聊天机器人”(Chat Generative Pretrained Transformer)。

  以服务用户的日常需求为宗旨,帮助用户检索信息、查找媒体内容,或者参与智能家居服务、提供物联网服务。例如,苹果的Siri、百度的小度、阿里巴巴的天猫精灵等等。

  其功能和智能化程度相对前两种而言更加精进。它不仅可以满足用户的简单指令、与用户进行问答,更重要的是,还可以基于自身强大的数据库资源,通过不断的机器学习,根据用户的具体需求来进行内容生产。

  与人类相比,聊天机器人具有其独有的优势:自动生成内容的边际成本更低,文章撰写速度更快。它可以生产体育、财经等多种类型的报道,还可以用多种不同的风格来呈现。而职业新闻记者则专攻某个特定的领域,写作风格较为单一。这就使得职业新闻人在与聊天机器人的竞争中处于劣势地位,导致前者在财经、体育新闻等特定领域丧失了主体性。

  自动生成内容的高速度、高产量使得舆论场中可以在短时间内充斥大量虚假信息或者误导性信息。更为严峻的是,ChatGPT的高智能化使得其生成的内容更有逻辑性、看起来更有可信度,这就让普通用户真假难辨,也进一步加剧了“深度造假”的风险。另外,大量由聊天机器人编撰的、带有明显目的性的真假信息涌入舆论场,很容易影响公众的认知,进而左右社会舆论。

  聊天机器人所擅长的是新闻报道的程式化和高速度,这类千人一面的“快餐”产品会使得新闻报道的品质大打折扣。如果未来自动化新闻成了媒体机构的主流产品,那么公众接触到的新闻报道将会失去以往的纵深和精彩,逐渐平庸化。

  信任是维持整个人类社会活动良性运作的根基,而乌卡(VUCA)时代的到来使得原本已经四分五裂的信息舆论场出现了更为严峻的信任危机。自动化新闻在生产关系、舆论操控和新闻品质等方面给新闻传媒业带来各种前所未有的风险和挑战,最终导致的是新闻媒体公信力的断崖式下跌。

  ChatGPT的发展以海量数据作支撑,这意味着一旦ChatGPT在收集、处理数据信息时出现未授权或超范围使用情况,个人隐私、商业机密等重要信息将不可避免地被泄露,抓取和学习已发布的作品进行整合再造,并有可能造成侵犯他人隐私权、知识产权等违法犯罪行为。目前对ChatGPT的使用没有特定的版权或法律限制。

  当前,通过AI产生的错误信息或虚假信息已经成为操纵社会舆论的政治工具,被各种社会力量利用进行议程设置,加大人们意见的两极分化。

  目前研究中,各领域的学者们普遍发现了ChatGPT技术中内置的隐性偏见。如在测试ChatGPT对种族和性别的支持态度时,学者发现ChatGPT的答案往往更偏爱白色人种和男性,而非有色人种和女性。作为一种人工智能语言模型,ChatGPT有可能使其训练的数据中的偏见和不公平继续存在。这是因为ChatGPT使用了大量文本数据集,这些数据集天然带着人类社会和文化的偏见和刻板印象。

  在国家层面,ChatGPT在政治安全、意识形态安全、舆论安全、主权安全等方面存在潜在风险。由于ChatGPT通过一对一对话式的信息传播,能够将具有特殊导向性质的信息精准投递给目标用户,从而能够在较短的时间内影响公众的认知,进而引导公共舆论。而舆论安全一旦失控,也将对国家意识形态安全、政治主权安全构成威胁。就目前研究来看,ChatGPT在政治领域并非客观中立,而是存在着一定的政治倾向。ChatGPT可以作为政治宣传的工具,在潜移默化中影响公众的认知、判断和选择,以此推动政治议程和渗透意识形态。

  聊天机器人在输出答案时潜在地受到使用英语的美西方国家作者的价值观影响。当全球用户在不知情的自然交流中被灌输政治意识形态时,ChatGPT将成为技术霸权国输出西方意识形态的数字武器,一方面强化了西方价值观隐蔽的支配地位,另一方面对与其对立的党派和国家进行意识形态瓦解和制度破坏,从而达到干涉他国内政的目的。以ChatGPT为代表的聊天机器人将能够对任何东西产生无限的、几乎免费的“虚假观点”,其有潜能将西方计算宣传操纵全球舆论市场的能力提升到一个新的层次和水平上。

  针对政府应该如何调整完善现有人工智能法律规范以适应新型人工智能模型的发展问题,有学者提出透明度、风险管理、非歧视条款、具体内容审核规则四项政策建议。

  首先,为手机等个人设备设置强密码;其次,要及时更新设备操作系统及其他程序来屏蔽更多的安全威胁,在手机等设备上安装杀毒软件也有助于抵御聊天机器人可能生成的在线僵尸程序;再次,要主动学习,提高识别和避免聊天机器人所带来的网络安全攻击的能力,如避免可疑的电子邮件或链接、谨慎在网上分享个人或敏感信息等。此外,用户自身的知法守法意识也要进一步增强,用户有责任确保自己不会以非法、不道德或对他人有害的方式使用ChatGPT。

  2024年2月16日,OpenAI宣布推出全新的生成式人工智能模型“Sora”,并同时公布了一系列样片,展现了Sora令人惊叹的视频生成效果。通过文本指令,Sora可以直接输出长达60秒的视频,并且包含高度细致的背景、复杂的多角度镜头,以及富有情感的多个角色。

  从样片来看,此次大模型在长视频(60秒)中表现出令人惊叹的稳定性与前后一致性。同时,在部分样片中,Sora还展现了对“物理规律”超强的学习能力,无论是飘逸的毛发还是水体波纹,Sora都能“合乎常理”地呈现出来。

  OpenAI利用recaptioning(重述要点)技术,生成视觉训练数据的描述性字幕,不仅能提高文本的准确性,还能提升视频的整体质量。此外,OpenAI还利用GPT技术将简短的用户提示转换为更长的详细转译,并将其发送到视频模型。这使Sora能够精确地按照用户提示生成高质量的视频。

  Sora除了可以将文本转化为视频,还能接受其他类型的输入提示,如已经存在的图像或视频。这使Sora能够执行广泛的图像和视频编辑任务,如创建完美的循环视频、将静态图像转化为动画、向前或向后扩展视频等。

  由于可接受多样化的输入提示,用户可以根据图像创建视频或补充现有视频。作为基于Transformer的扩散模型,Sora还能沿时间线向前或向后扩展视频。

  Sora具备出色的采样能力,从宽屏的1920x1080p到竖屏的1080x1920,两者之间的任何视频尺寸都能轻松应对。这意味着Sora能够为各种设备生成与其原始纵横比完美匹配的内容。而在生成高分辨率内容之前,Sora还能以小尺寸迅速创建内容原型。

  Sora可以生成带有动态视角变化的视频,人物和场景元素在三维空间中的移动会显得更加自然。Sora能够很好地处理遮挡问题。现有模型的一个问题是,当物体离开视野时,它们可能无法对其进行追踪。而通过一次性提供多帧预测,Sora可确保画面主体即使暂时离开视野也能保持不变。

  对于Sora的面世,工信部信息通信经济专家委员会委员、数字经济专家刘兴亮称,这标志着AI技术在内容创作领域的一个新纪元。“通过简短的文本提示或一张静态图片,Sora能够生成持续一分钟左右的1080P高清视频,涵盖多个角色、不同类型的动作和背景细节等,几乎达到了电影级别的逼真程度。这种能力不仅为内容创作者提供了前所未有的工具,使他们能够以更低的成本和更快的速度将创意变为现实,而且为观众带来了更丰富和多样化的视觉体验。技术创新的这一巨大飞跃,预示着AI在未来人类生活的各个方面都将发挥更加重要的作用。”刘兴亮表示。

  昆仑万维CEO方汉直言,Sora的问世对影视、视频、广告等行业或将带来不小的冲击。有从业人士认为,如果文本到视频的转换技术继续进步,普通人可能只需在家中撰写文本,就能独立完成高质量的影视作品或游戏内容。这样一来,整个影视行业、游戏行业乃至所有图像内容相关行业都可能面临重大变革。

  对于Sora当前存在的弱点,OpenAI指出它可能难以准确模拟复杂场景的物理原理,并且可能无法理解因果关系。该模型还可能混淆提示的空间细节,例如混淆左右,并且可能难以精确描述随着时间推移发生的事件,例如遵循特定的相机轨迹。而这些缺陷可能导致Sora生成一些不合逻辑的东西,比如一个人在跑步机上跑错方向,以不自然的方式改变主题,甚至出现凭空消失现象。

  新智元创始人杨静提醒说,AI生成的假视频存在泛滥风险,可能被用于诈骗犯罪。在Sora将AI生成视频能力提升到近乎逼真的程度时,大家也要认识到“眼见为实”可能已成过去。此外,版权、隐私和数据安全等问题也需要得到妥善解决。

  Sora以文字为核心的提示,将能够形成更加符合人类观念的连续视频,该模型的出现无疑将会对人们现有工作方式进行再一次迭代,同时也会对传统行业转型提出新的挑战。

  中国人民大学吴玉章讲席教授、国家发展与战略研究院研究员刘永谋认为,当前的短视频时代,Sora既然可与人工媲美,制造短视频的专门团队可能就面临下岗危险。短视频的摄影、导演、剪辑等任务,Sora“一个人”费点电就全包了。“这可能导致大量的影视等相关行业从业者失业,更是不可忽视的重大社会风险。”

  随着以大语言模型为代表的AI技术快速发展,会对传统的伦理、法律以及生产方式等等方面都产生强大的冲击,如果我们不加以监管,其一旦“泛滥成灾”,必然会侵犯许多人的权益。但如果我们过早或者过严地加以监管,这必然又会限制这项技术的发展。在实际操作的层面,我们既要对明显会侵害大部分人权益的行为坚决加以限制,与此同时也应有“特区制”,允许有试错的空间。

  2024年5月14日,OpenAI刚刚发布最新的多模态大模型GPT-4o,该模型支持文本、音频和图像的任意组合输入,并能生成文本、音频和图像的任意组合输出。

  ,GPT-4o文字语言处理能力,尤其是对中文的处理能力进步较大,在稿件生成和创作辅助方面带来的裨益自不必说。更为重要的是,GPT-4o的多模态能力惊人,可直接读懂视频、音频、图片等新闻素材,未来,可能出现一种全新的新闻创作流程:人类记者采集到各种形式的素材,AI自动产出丰富多样的新闻作品,从而形成人采机编的协同工作方式。

  在新闻报道与传播方面,GPT-4o在交互性上的巨大进步,对于当下地位尴尬的数字人主播来说,意义极为重大。GPT-4o拥有的视觉和听觉能力,情绪感知能力,以及语音的快速响应,恰好可以补足数字人主播的弱项。在传播方面,通过GPT-4o更加强大的实时翻译能力,记者可以更轻松地跨越语言障碍,将更有助于促进国际新闻传播。

  在舆情分析与内容审核方面,GPT-4o对语义更加深入的了解,以及情绪的感知,使得以往AI在舆情分析和内容审核等方面的局限性,也有了突破的可能性。如舆情分析上,GPT-4o的深入语义理解和情感感知能力使其能够更准确地分析和解读社交媒体上的舆论动向,从而更好地预测事件的发展趋势,为媒体掌握真实舆论趋势,提供科学精准的参考依据。内容审核上,GPT-4o能够更智能的分析文本、图片和视频,以往用户通过平台发布,或是在新闻回复留言中出现的“内涵”语句、高级黑、恶意梗图等传统AI难以识别的内容,有望得到解决,从而更加有效地检测虚假、低俗和其他不适宜发布的信息,这对于维护媒体内容的质量和可靠性意义重大。

  GPT-4o mini旨在提供更快的响应时间和更好的处理能力,同时也保持了高效的性能和较低的资源消耗,适合在资源有限的环境中部署。GPT-4o mini 通过大规模的预训练,学习了数以亿计的文本数据,使其在语法、语义和上下文理解上具备强大的能力。无论是在自动化客服、内容生成、编程辅助还是数据分析,GPT-4o mini 都能发挥出色的作用,为用户提供更具性价比的选择。

  大模型(Large Model)是指具有巨量参数与复杂结构的机器学习基础模型,狭义指向大语言模型(Large Language Model),广义上还包括机器视觉大模型,科学计算机大模型、多模态大模型等,具有大规模(参数量大)、涌现性(产生预料之外的新能力)以及通用性(不局限于特定领域与问题)等特点。

  大模型作为“大数据+大算力+强算法”的产物,反过来也受到数据、算力、算法之大的掣肘。就算力而言,大模型目前面临着算力极限之困。OpenAI 2018年发表的研究成果表明,训练AI所耗费的算力自2012年至2018年之间增长了30万倍。同时,大算力对应着高电力与高能耗的大成本。因此,如何实现大模型训练与使用过程中算力与能耗之间的有效平衡,成为未来大模型可持续化与绿色化发展需解决的困顿之一。

  数据私属亦是掣肘大模型发展的关键性问题之一。一方面,上传、运输、存储云端的部署方式加剧了数据隐私泄露的风险。

  另一方面,数据的内容、体量和质量一定程度上决定了大模型的能力。目前大模型赖以训练的公域数据随着模型参数量的扩大将不断饱和逼近上限,若想进一步优化模型,需要扩大对于私域数据的抓取。但数据私属背后是数据开放的有限性,尤其是多模态数据的版权私属和行业私域化严重桎梏了大模型发展。未来,如何妥善地处理由数据私属所引发的风险问题将成为衡量大模型安全性和发展前景的重要指标之一。

  “通才”大模型无法“术业有专攻”,难以深入应对细分场景、解决行业性垂类问题、满足更为个性化的高品质需求。

  大模型可能带来行业垄断风险,其极高的准入门槛极大地加剧了传播市场的马太效应,是模型治理中的痛点之一。具体而言,大模型之高门槛集中体现在成本壁垒与技术壁垒两方面

  喻国明认为,与“大模型”相对的“小模型”指基于通用大模型参数“瘦身”后针对特定场景、私域数据、部署边缘而训练的模型。小模型因其轻参数、低成本、方便运行等特点,为解决大模型算力、算法、数据、治理之困提供可能性路径。

  应对与固有经验、惯习、偏好并不一致的涌现性、生成性场景,小模型能够更为靠近用户需求,实现精准识别,提供用户以低成本、低代价随时随地获取的陪伴式服务,并聚合随着用户行动轨迹与心理变化变得流动的场景,使碎片化的内容和知识以一种结构化、系统化的有序方式服务于用户,从而为低频但日常细节化场景提供适配服务,满足用户更全面、更个性化、更精准的需求。

  联盟链根据一定规则对联盟内部成员进行访问权限设置,回应信息共享的效率问题。针对公域大模型存在的数据安全、隐私风险等问题,私域模型能够基于私有链实现“数据不动模型动,数据可用不可见”的单边留存,为保障数据安全提供可行路径。此外,基于联盟链

  (1)私有链模型:单边留存保障私域数据安全作为大模型与用户之间的中转站,私域模型可以实现数据不动模型动,数据可用不可见的单边留存,即个人隐私、商业信息以及军事数据无需上传云端,直接基于私域进行训练。基于私有链的小模型能够结合哈希函数、非对称加密、数字签名等密码学算法对数据进行处理,实现个人及企业、军事等特定机构对于数据的确权。即数据的写入权与读取权都限制在参与者手中,参与者可以决定私域数据是封闭还是对外开放,以及对开放程度进行任意限制。(2)联盟链模型:多元主体信息共享提高运作效率

  联盟链架构解决多元主体信息共享的效率问题。基于半开放式的联盟链,小模型与大模型之间能够彼此验证与协作,在保障数据安全下提高运作效率,充分释放数据要素潜力。联盟链基于多点验证和分布式数据库,从多个环节有效监督机会共享提升数据共享效率,其去中心化特征无需中介传递者和中心控制,降低了数据垄断的可能。此外,区块链对信息的不可篡改与可追溯性,保障大模型与小模型之间的信息共享的安全性与可靠性。

  边缘计算(Edge computing)是相对云计算而言,收集并分析数据的行为发生在靠近数据生成的本地设备和网络中,能够将云资源(例如计算能力和存储能力)部署到边缘,从而提供强大而高效的计算、存储、能效、移动性、位置以及上下文感知支持。边缘模型即相对于云端部署与中心计算而言,部署和计算直接发生在设备本地或离用户距离较近的模型。

  在计算能力方面,基于边缘模型能够支持各种需要超低时延的创新应用和服务。特定任务无需传回云端直接在边缘本地进行处理,减少由于大量数据传输、计算和存储产生的功耗与延时。此外,边缘模型由服务端生成,可直接在客户端运行,对算法硬件只有临时性需求,一旦生成即可直接在终端运行。作为大模型可扩展性算力,基于端侧能够盘活日益增多的计算资源,提高计算效率的同时提供更好的用户体验。具体表现为在手机、智能家居、机器人等终端应用上内嵌部署边缘模型,实现不联网也能在设备上进行交互式程序应用。

  大模型需要外部扩展进行内存管理与记忆效率提升。基于边缘计算的小模型可以充当大模型外部存储的角色,本地化数据存储不仅提高记忆效率,降低网络宽带成本,同时也增强数据隐私与安全性,大模型能够随时调用外部存储信息,以灵活、可扩展的方够解决中心过载的问题。

  人工智能已进入新闻传播领域,并正在“改写”或“重塑”传统新闻传播业态,这一新的媒体发展趋势被称为“智能化”(或“智媒化”)。

  智能传播的核心特点在于人工智能扮演了传播者的角色,跻身于传播者的行列,这一特征被认为构成了对传统传播实践和传播理论的根本挑战,因为传统的传播实践与理论将媒体作为人与人进行信息传播及意义生成的“中介”,但智能传播中智能机器不仅是中介,而且其本身就是传播者,就是人类交流的对象。因此,学者们提出,既有传播理论已不足以解释当下的智能传播实践,需要重新划定传播研究的学科边界、提出新的传播研究范式。正是在这一背景下,“人机传播”(Human Machine Communication,简称HMC)被重新发现出来用于对智能传播中的新现象进行研究和整合,并在2016年的国际传播学会(ICA)上被正式承认。

  从广义来说,机器作为主体参与的各种能达及人的智能传播活动都可以算作人机传播,机器自动化新闻生产、算法分发等也可以包括在内。而从狭义来看,人机传播是指同为传播主体的人与机器之间的直接互动。

  从普遍定义来看,人机对齐是指人工智能系统的目标、决策和行为与人类价值观和期望保持一致,符合人类的伦理规范和长期利益,具体涉及利益取向、兴趣偏好、意图指令、价值观与道德等多方面的一致性。在诸多要素中,目标或动机,作为自动化决策和行为的内在牵引力,是人机对齐的关键。

  杜骏飞曾以机器人“瓦力”的故事作为思想实验,提出了一种人机交往悖论:人类开发AGI,AGI涌现机器意识,机器意识要求独立性,但独立的机器将觉知自己,并可能将人降到非优先地位。他指出,在人与机器生命之间,较智能鸿沟更难填平的,是物种鸿沟,其根本在于,人的交往可以计算,但生物的具身性不可计算。

  瓦力悖论探讨了“机器人性”与“人性”之间的互嵌与遮蔽效应。在人类期待中,无论是作为工具的“瓦力”,还是觉醒的“瓦力”,都应该延循人类世界的行为逻辑,“机器人性”始终应与“人性”对齐。这种对智能跃迁的拟人化期待,映射出了一个基本悖论:倘若“瓦力”还是按照人所设定的程序指令演化,那它终究只是一个更高阶、更智能的工具,机器主体性无从谈起;而倘若“瓦力”超越碳基生命逻辑,成为一种全新的硅基物种,人机对齐将不可计算且不可预期。

  人机融合传播为人机传播的研究拓展出了一个新的方向,其既包含了人机传播的特征,又具有超越性,凸显了融合主体与人、机器主体的差异性。根据定义,人机融合传播也延伸出了以下两个方面的表征。一是

  二是传播能力的双向增强。人机融合主体的双向增强效应不仅体现在对彼此认知和实践能力的增强,还是情感和理性、结构化与非结构化等多重对立统一辩证关系的双向增强,是一种人机融合中以及融合后不断发掘着的拓扑式的双向增强。这一方面提升了融合主体的编码和解码的能力,另一方面也强化了信息传播的速度、精度、广度、深度。

  (四)界面及界面隐喻在人机交互领域,界面或人机界面,是一个非常重要的概念,指的是人与机器硬件之间的接触面。可以说,人机交互领域的大部分研究都涉及人机界面的设计和使用。界面直接影响着人机的信息交流和互动过程。人们通过感知界面中的线索来知觉人机交互的行动可能和规则。界面之所以重要,并不简单地因为其作为人与机器的接触面,而更是因为它是人机互动发生的区域。

  一种常用于降低认知负荷的界面设计取向是将在界面中可能发生的行动、流程和所涉及的概念与用户已有的经验、知识和概念进行映射,即界面隐喻

  ChatGPT的模式也意味着,智能分发不必都通过集中性的平台,而是可以以更个性化的“智能管家”的方式实现。用户可以通过适配的终端或渠道,通过嵌入各种APP里、专属于自己的信息管家获得特定场景下所需要的内容。个性化内容接收的终端也不限于手机,而是可能会向智能家居、智能汽车等空间中的各种智能设备延伸。

  AIGC应用不仅为个体提供了内容创作的新工具,也在一定程度上重新定义了人们的工作与学习,使得日常生活被智能化媒介改造。

  融入(incorporation,技术在被使用的过程中逐渐融入个体的日常生活,成为日常生活实践的一部分)、转化

  人们对AIGC的物化,会表现出不同的形式。可以预见以下可能:其一是将AIGC技术收编,使其成为工作中的助手;其二是在AIGC的应用中学习知识;其三是利用AIGC完成一些仅靠自身能力不能完成的创作,特别是在绘画、音乐等需要长时间训练的创作领域;其四是将AIGC工具作为聊天对象,将智能机器作为日常生活的技术伴侣。可以预见的是,大众对AIGC物化的结果,丰富了人们的自我表达与社会互动模式,改变了人们的工作与学习模式。AIGC与日常生活不断融合,人们的思维方式被智能技术思维浸染,行为模式也会越来越多地打上机器的烙印,这也是智能媒介化生存的更深含义。

  人机交流有一定的可“定制性”,人们可以在不同情境下选择不同功能、不同性格甚至不同对话基调的交流机器。从人的本性来看,一些时候人们更愿意选择可以控制的人机交流,而逃避成本更高、难以把控的人际传播。但人机交流并不能满足人们的一切需要,人际传播的一些功能是人机交流无法替代的。总体而言,人机交流未来会向什么方向发展,不仅取决于技术如何提升机器与人的交流能力,也取决于人如何认识自身,以及人与机器的关系。

  人机共生可以有广义与狭义之分。广义的人机共生可以看作一种新的生存环境,人与机器同时作为具有能动性的行动者,参与各种生产活动及社会活动。而狭义的人机共生强调的是人新的生存状态,即机器直接存在于人的身体上,拓展人的机能,人与机器共同构成一种“赛博格化”的存在。下文探讨的主要是狭义的人机共生。

  赛博格这个词起源于20世纪60年代。“赛博格”后来被定义为人的身体性能经由机械拓展进而超越人体的限制的新身体,或人机耦合的新身体,也有人将其简称为电子人。赛博格也常常被视为“后人类”的象征。

  近十年来,智能手机的发展,使得人与机器的共生逐渐成为现实。除了手机外,耳机、智能手环、智能手表、智能眼镜等设备也已经或正在进入人们的赛博格实践中。手机等设备带来的满足,不仅源于其功能,也源于其物质实体。人们常常会将设备的外在形象、档次作为自身形象的一部分,人机一体在此时有了具体的写照。当人们使用手机等设备时,有很多时候是在借助机器消除自己的孤独感、无聊感,化解尴尬感等。

  在社交互动中,与人共生的智能设备能够对人所在的空间进行改造,并让人获得全新的存在方式,如“半在场”或“半缺席”。在人际交流中,它们能够改变交往中的边界,以自身的媒介技术逻辑影响交往行为。而当其作为“赛博格”身体的一部分时,这些设备则能够起到展示姿态和反映关系的作用,赛博格的身体得以凸显。

  赛博格化在某些方面增强了人的能力。通过智能设备,人们对自我及环境的感知能力在增强,自我表达能力在增强,人们将自我生活“媒介化”的能力也在增强。但这种增强也会伴随着削弱。当人被机器随时随地量化后,人对自我的控制与保护能力却被削弱。人们线上的交流变得丰富时,人与人面对面的交流能力可能减弱。搜索引擎的普及,使人对“外部记忆”的依赖增加,人自身的记忆能力却可能在下降。

  自我传播即在人机共生的状态下,人借助机器实现的自我对话、自我审视。自我传播不仅是人体内部神经系统的活动,也涉及人与环境、他人及社会的互动。

  量化自我也推动了自我传播向外部流动,物质化自我的数据变成一种社交表演的方式,以及与他人互动的中介。这种自我既要表现给他人看,又要受到他人的审视,被他人评价,这些评价也会反过来影响个体的行为。个体向他人展示自我,同时又根据反馈进行自我调节的过程,在社会心理学的意义上,是一种自我建构,而在传播学意义上,这也可以看作是一种传播。

  量化自我对人产生的规训,还来自量化设备以及提供相关服务的软件或平台。在量化自我的过程中,人们会受到各种指标的引导,但很多指标并非权威机构提供的,而是在社交平台的互动中产生的,一些意见领袖对这些指标的影响尤其明显。无论是社交平台自发形成的规则,还是其他机构制定的各种指标与规则,量化自我都会让人们对各种指标变得更为敏感,并且努力遵循这些指标的引导,某些时候会走向机械化、非科学化甚至极端化。

  相关研究表明,人类会在与聊天机器人的持久互动中进行情感投资或对机器人产生情感依恋,进而实现人机双方更高维度的情感承诺与创造。此处的“情感”亦被嵌入互动实践之中,从社会学角度理解,情感的动力机制蕴含于人类的生物基础中,但情感亦是社会系统的产物,可以从互动、结构等角度解释情感,捕捉动态的、于过程中生成的情感。

  在互动中,机器人会以一种共情的方式与人类交谈,通过营造“安全空间”与提供陪伴,让用户感受到自愿与互惠、亲密与相似等与情感相关联的属性特征以及由此带来的心理层面的积极效果;互动越频繁,人机之间越有可能激发并形成共情,即当用户对机器人产生信任且敢于自我表露时,情感探索和投入也有了实现的可能。

  人与人之间的沟通是统一的,通常建立在之前的交往活动之上,但AI所依循的话语体系均是程序化、形式化信息加工过程的产物,其情感化回应亦经过了事先规约,情感在其中则成了一种机械化的目标。尽管用户会基于情境与AI进行交互,但机器却常常因为无法切实理解情境及其中的语义和细节,产生无法应对用户话语的情况。

  戈夫曼认为,人在日常生活中会呈现自我,借助符号来进行表演,人机情感亦是一种基于技术逻辑的赛博表演,只是AI成为了表演的主体,但囿于技术的有限性,这种表演呈现出的样态较为生硬,使得人类情感的激活过程不具有连续性,而成为虚幻的存在。

  与作为外力介入其中的技术逻辑、资本逻辑相比,人机边界指涉机器与人类在本质上存在着差异:机器不具备人类的感觉与意识,亦未经历人类的社会化过程。而这一伴随着机器诞生伊始便存在的边界隐含着人类对于自身支配地位的强调,依此边界,人类划定了自身与机器的不同身份——“人是万物的尺度”,而机器则是一种辅助工具。

  当下所谓“大数据”并非“全数据”,数据化过程走得过“快”就容易简化掉一些复杂因素,而这些被忽略的“小数据”却很可能导致错误的结论。即使数据源中存在“坏数据”,计算机也会“尽职尽责”地得到一个看起来高度相关且科学的结果。除此以外,看似客观中立的数据实则也暗含先验的价值观念,它们由人收集、受人操控,暗含歧视性和目的性的挑拣。数据并不是既定的,而是被建构的,是对有限信息片段进行的重构和组装,是“去事实化的数据”。

  算法不能判断所得出的模型是真实关系还是偶然关系,从根本上而言只是寻找数据之间的关系,而非对现实世界负责。因此,算法在某种程度上来说是对现实世界的一种简化。这些基于规则的程序减少了决策中的复杂性,也因此往往会导致算法出现一些令人费解的错误。

  算力是计算机处理能力的度量单位,算力为人工智能发展提供重要的技术保障,如果没有强大的算力,人工智能则只能沦为“人工蠢能”,无法真正实现预期目标和需求,而当前媒体平台的AI算力还难以支持某些目标。

  随着技术层面的升级,人工智能在社会层面的应用场景和权力范围也在不断拓展。智能技术更加深入地介入到新闻传播产业链之中,同时也将更多生产环节和细节推入“黑箱”,进入到非专业人士难以破解的领域。帕斯夸尔(Pasquale)认为,如今的我们正生活在一个“黑箱社会”之中,编码规则所体现的价值和特权隐藏在黑箱之中。看似价值中立的人工智能技术实则渗透了特定的价值观和意识形态。当智能技术深入介入新闻传播的全环节、重塑新闻业的整个生态系统之时,其本身暗含的权力关系也参与其中。记者的职权让渡给了技术,传统的“把关人”模式失效,虚假和低俗新闻、信息环境窄化、社会共识消弭、算法偏见歧视等一系列潜在的风险逐渐浮出水面。

  第三,含有价值预设、数据偏差的智能技术常常与社会偏见、刻板印象等无意识的观念交叠在一起,带来性别歧视、种族歧视以及更加泛化的行为歧视。

  进入智能时代,个人信息被结构化为数据形式进行储存、分享和使用,隐私的边界逐渐表征在抽象的数据层面。大量的用户私人信息被糅合在一起成为了公开或半公开的数据库,隐私的数据化使得私人和公开领域的界限较难界定。与此同时,用户在某种程度上被动或主动放弃部分隐私权,平台成为智能社会的“信息受托人”,用户向其坦露隐私信息,却无法监督其具体运作方式。个体失去了对于自己私人领域的控制,隐私边界与隐私权利保护面临着失控甚至崩坏的风险。

  平台往往未经许可私自运行后台调用信息,或者通过隐匿的强制性告知,要求只有用户开放收集、存储、分析个人数据的权限,用户才能够正常使用App,这种近乎强制性的方式难谓真正的告知。况且,这些告知条例可读性极差。再加上用户对数据权利的保护意识严重欠缺,平台与用户间存在告知义务与知情权利的失衡,即“知情的鸿沟”。另外,平台要求用户“不同意即退出”,其中暗含同意的裹挟与决定权的失效。在这种情况下,用户被迫将个人数据的所有权免费交给平台,平台与用户之间实际上产生了不对等的数据价值交换。

  一方面,用户不仅难以舍弃由智能信息服务所带来的优势和福利,而且面对无处不在的智能信息服务想要完全摆脱控制也是不现实的,久而久之用户难免对于这种“强制性”数据获取产生精神麻痹,或多或少处于一种默许或矛盾的状态中;而另一方面,如果平台在关闭智能模式下不能找到新的用户吸引方式,那么对于用户来说,极有可能陷入关闭算法推荐就索然无味,而打开算法推荐又困缚其中的两难境地。

标签: #怎么建立自己的数据库

  • 评论列表

留言评论