首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 296 毫秒
1.
【目的】本文旨在探讨ChatGPT在出版领域引发的伦理风险。【方法】随着人工智能技术的迅速发展,ChatGPT可以生成高度逼真的文本内容,但同时也出现了一系列出版伦理问题,如虚假信息传播、隐私侵犯、隐藏式雷同等。本文基于出版伦理的核心原则,采用文献分析法和案例分析法,探讨ChatGPT在出版领域的潜在风险。【结果】通过对相关技术、政策和教育解决方案的研究,本文提出了一系列针对性的建议,旨在为ChatGPT的研究者、开发者和决策者提供参考,以确保其发展和应用符合社会期望和需求。【结论】有效监管、技术创新和道德教育是缓解ChatGPT在出版领域引发伦理风险的关键措施。  相似文献   

2.
【目的】以ChatGPT为代表的生成式人工智能逐渐进化为通用型AI,文章探讨这一背景下舆论受到的冲击及舆论如何保持民意的纯粹性。【方法】文章主要采用了文献法及思辨研究,通过对舆论主体、本体、客体等追问反思进行研究。【结果】生成式人工智能将给舆论带来致命冲击:舆论主体“非人化”,舆论本体“虚假化”,舆论客体“无理化”,舆论传播路径与规律被颠覆。进而引发国际舆论场更加复杂,国家舆论风险加大,资本、技术操控舆论,虚假信息横行,用户深陷舆论茧房等舆论风险。【结论】文章认为应建立ChatGPT的使用边界,在舆论等领域内暂时限制其应用;政府积极参与人工智能研发,牢牢把握舆论话语权与引导权;用技术治理技术,开发AIGC检测技术;同时还应开展人工智能素养教育,提升用户使用、批判AI的能力。  相似文献   

3.
刘家铭  刘丽莎 《新闻世界》2010,(10):121-122
随着网络时代的到来,网络舆论迅速出现。一方面,网络传播使公众在网络中获得前所未有的广阔的舆论空间和更多的舆论自由,促进了社会民主化的进程;另一方面也引发了网络虚假信息泛滥、舆论管理不易等问题。其中,信息暴力是近年来随着网络舆论的发展而诞生的一种新的网络传播现象。本文从网络舆论的产生过程及特点出发,分析探讨了与网络舆论发展过程有关的两种信息暴力现象及其成因,并对如何减少信息暴力行为提出了两项措施。  相似文献   

4.
[目的/意义]针对ChatGPT等人工智能生成内容(AI Generated Content,AIGC)兴起背景下,网络信息内容生成呈现出的新特点,梳理网络信息内容生态安全面临的新风险,分析新背景下进行网络信息内容生态安全治理的可行路径。[方法/过程]以总体国家安全观为指引,通过逻辑分析和以ChatGPT为对象的实验访谈案例分析,探析AIGC带来的网络信息内容生态安全风险。[结果/结论]AIGC是Web3.0阶段网络信息内容生成的主要方式,网络信息内容生成呈现出方式智能化、规模海量化、主体空心化以及形态多样化等新特点,而这一变化也会在资源、主体、基础设施以及外部辐射等四大风险域诱发12种典型风险。当前,可通过“动态监管—协同监管—韧性监管—多元监管—系统监管”相结合的“五位一体”监管思路,有效治理AIGC所带来的网络信息内容生态安全风险。  相似文献   

5.
郭美婷  祁博 《东南传播》2024,(3):155-157
自ChatGPT发布以来,人工智能生成内容逐渐应用到社会的各个领域当中。文化类综艺节目作为传播中国文化的窗口之一,需要人工智能技术助力,将传统文化以创新方式进行传承与传播。AIGC能够助力文化类综艺节目文本创作、推动视听内容生成以及丰富主持人语言表达,但同时会遇到AIGC无法深度理解中华文化和产生情感共鸣、出现虚假信息和侵犯知识版权、挤压主持人生存空间等问题。因此,需要人机协同为文化类综艺节目提质增效、深化技术研究及提高AIGC使用素养、建立主持人与AIGC互动协作机制,才能使AIGC更好助力文化类综艺节目发展,从而讲好中国故事。  相似文献   

6.
《新闻界》2015,(7):37-44
近年来,在媒介融合的全球化背景下,学术界对网络舆论的含义特征、生成机理、传播影响、监管引导等研究取得了丰硕成果。本文省思前瞻,在深入调研我国网络舆论管理的体制机制现状基础上,结合网络舆论生成及风险演化机理,研究网络舆论导向的管理体制和联动机制,从理论、体制、机制、技术等层面上构建具有中国特色网络舆论引导的长效机制,将成为今后网络舆论深入研究的理论突破点和创新点。  相似文献   

7.
聊天机器人是自然语言处理等技术在人工智能领域的应用成果,以ChatGPT为代表的聊天机器人标志着人工智能已经从弱人工智能开始向强人工智能过渡,但本质上仍属于人类的工具。聊天机器人的内容生成需要在数据存储的基础上,通过算法选取需要的数据并进行重组,此后被加以使用,所以相应地产生了数据挖掘、内容生成与生成内容使用三个阶段的版权风险。由于生成和使用行为的多样化,其版权风险治理需要“内外兼修”,也就是通过技术监测、司法保护、行政监管以及平台自治共同作用于风险治理。  相似文献   

8.
作为一种现象级的技术应用,ChatGPT不仅给多个行业带来了新的可能,也对现行的法律制度提出了挑战,其在自然语言生成应用场景下的生成内容引发了可版权性和权利归属等论争。基于对著作权法、ChatGPT的技术发展和生成内容类型的分析,本文认为,ChatGPT在自然语言生成应用场景下的生成内容在现有著作权法系统下无法构成“作品”,内容生产和模型训练分别对著作权核心理念和合理使用原则提出了挑战,生成内容的利用有可能引发道德和著作权侵权风险。  相似文献   

9.
<正>OpenAI公司的ChatGPT(Chat Generative Pretrained Transformer)在两个月内火速出圈,引发了人们对AIGC(人工智能技术生成内容)的关注与讨论。作为AI产品问世的ChatGPT,已向消费者展现了AI的技术可供性。用户在ChatGPT的人机交互中,感知到了AI技术所产生的质变。1.技术祛魅:遵循概率的大语言模型ChatGPT是Open AI公司研发的一种预训练语言生成模型。该模型以强化学习方式进行训练,在GPT-3的基础之上,  相似文献   

10.
李扬  刘云丹 《传媒》2024,(3):31-33
类ChatGPT技术是指以ChatGPT为代表的大规模语言模型与生成式人工智能技术,这类技术从不同环节推动媒体全生产链条深度转型,重构媒体产业生态和商业模式,引发媒体领域的思考。类ChatGPT技术的应用不仅改变着新闻及信息的生产方式,同时也对传统的线性论、控制论、系统论的传播模式进行数智化升级与改造,对全链条中的传播主体、内容、渠道、用户及其反馈等方面均带来不同程度的变革,同时也引发了伦理考量。  相似文献   

11.
昝小娜 《现代传播》2024,(2):148-153
生成式人工智能(AIGC)的出现标志着人类社会已经正式进入人工智能时代。ChatGPT是AIGC的具体实现方式和开路先锋。研究首先揭示了ChatGPT内容生产的微观机制,提出了ChatGPT内容生产系统模型,由此决定了ChatGPT填平知识鸿沟的微观机制和基本途径。在此基础上,通过引入智力分布曲线,建立了ChatGPT可以填平的智力鸿沟(Ip)的定量数学模型,为具体评估ChatGPT提升宏观传播效果(Ema)提供了定量基础,从形式上构造了宏观传播效果(Ema)和知识鸿沟(Ip)之间的函数关系,据此可以揭示ChatGPT提升宏观传播效果(Ema)的具体实现途径。研究发现了“高阶信息”的存在,提出了高阶信息的概念及其数学描述。提问次数越多,ChatGPT生成的内容越精确的现象,正好反映了高阶信息的作用。  相似文献   

12.
【目的】以ChatGPT为代表的生成式人工智能凭借优秀的自然语言处理与生成能力,其介入社会生活与知识体系的程度日益加深,对思想观念的影响也成为其社会动员的潜在能力,因此人们需要认识其作为媒介手段影响社会认知的能力。【方法】文章基于生成式人工智能的运作逻辑与机器学习的创新能力,梳理其影响社会观念的层面与可能性,以提醒人们应对潜在风险。ChatGPT的出现推动了传播权力的继续下沉,其参与社会关系的路径包含机器学习所输出的动态价值观对人们认知偏向的诱导、虚假信息的泛滥、削弱人的主体性意识等影响。【结果】【结论】人工智能领域不断革新的趋势下,生成式AI深度侵入认知层面提醒人们可以基于此去辨析机器生成与表达的深层逻辑,警惕偏见性引导。  相似文献   

13.
王影航 《中国出版》2022,(21):38-43
人工智能创作物识别性信息与技术性信息的合理披露,是区分人工智能创作活动与人类创作行为、防控人工智能创作风险的应有之义。当下,我国著作权法与网络内容治理相关规定,尚未就人工智能创作物信息披露问题作出合理全面的回应。从人工智能法律治理趋势与强化技术风险防控需求出发,我国著作权法宜增设专规,在人工智能研发者、使用者以及创作物传播者之间合理地配置有关信息披露义务;为确保有关义务履行效果,还应当因类制宜地细化披露瑕疵责任条款,并推动建立配套的技术辅助与监管机制。  相似文献   

14.
【目的】探究ChatGPT赋能数字出版可能引发的诸多风险并深入剖析其产生根源,为我国人工智能技术赋能数字出版的风险治理提供新思路。【方法】通过对ChatGPT赋能数字出版多模态场景呈现,分析其可能引发的涵化与意识形态风险、伦理风险、社会风险、技术垄断与互联网安全风险、法律风险,进而对上述风险归因做深入剖析。【结果】ChatGPT技术应用的底层逻辑是引发上述风险的主要根源。【结论】ChatGPT与数字出版的融合已无可逆转,须从风险产生根源出发进行风险治理,以减少先进技术赋能数字出版行业时可能产生的负面影响。  相似文献   

15.
网络舆论在社会生活中扮演重要角色的同时,由此引发的网络暴力现象此起彼伏,当这种虚拟暴力已经逐渐被人们熟知时,另一种由此引发的更加难以遏制的暴力现象渐渐进入人们的视野,这就是由此引起的现实暴力,这种由虚拟到现实的演变过程极大地破坏了人们正常的生活秩序,成为网络监管的"主流问题".  相似文献   

16.
智能化背景下,通过技术扰乱正常网络舆论的风险加大,我国网络舆论安全面临外部攻击加剧和内部治理难题的双重挑战。从技术机理来看,人工智能技术可以通过舆论资源的数据化、从大数据资源中获取情报、先进算法和个性化锁定、智能化水军等不同途径对我国网络舆论安全造成威胁。分析这些挑战背后蕴藏的技术原理和运行机制,有利于探索人工智能技术在舆论斗争中的应用手法和防御手段,通过技术升级、数字立法、国际合作、监管引导等防护驯化技术,维护网络舆论安全,营造风清气正的网络舆论环境。  相似文献   

17.
谢梅  王世龙 《新闻界》2023,(8):51-60
ChatGPT“火爆出圈”后,其快速性、同步性、多端性的人工智能生成内容受到广泛关注,过往结果取向的知识产权治理,越来越难以契合形势发展,过程型和结果型并重的风险治理正成为一种迫切需要。在对已有成果述评和风险源研判的基础上,本文基于人工智能生成内容的生态构成,经过对数据来源、算法嵌入、平台集成、用户反馈四个维度风险派生路径的分析,发现存在着披露未许可、虚假不真实、偏见放大、偏差隐藏、被恶意使用、不道德取利、理性致瘾、小概率惊恐八类风险;进一步对AI嵌入内容生成的产生原理及作用机理进行解构与深化,提取出风险治理的隐私保护、说明责任、公平无歧视性、透明可解释性、防第三方侵害、政府责任、人类控制、增进人类价值八项原则;并推演出了开展AI数据的镜像审查治理、促进算法和内容的同步治理、推动生成内容的对象治理转向智能平台的生态治理、实施内容生成和渠道推广的风险共担治理四方面的建议,建构起人工智能生成内容的系统伦理框架。  相似文献   

18.
【目的】新闻传播学是研究“人”的学问,探讨人类与信息的关系,人工智能的不断进步推动着人类与人工智能共生的生态形成。在新闻人才培养中,需要思考技术的边界,以及面对技术革命浪潮时如何找到适合的发展方向。【方法】文章旨在结合以ChatGPT为代表的人工智能在新闻业的最新应用,梳理新闻传播学人才培养脉络,思考ChatGPT对新闻从业者带来的挑战。【结果】ChatGPT在新闻采集、新闻生产、新闻传播方面都有广阔的应用前景,主要表现在高效获取信息,提供新闻写作灵感来源,助推知识生产与传播等多方面。与此同时,ChatGPT在新闻业中应用的潜在问题包括虚假新闻、内容生成“全面”却不“深入”、数据内容的风险与偏见等。【结论】新闻业人才培养的应对性改变可以基于更加强调“融通”育人思想、更加注重细分领域专业素质培养、加强人机协作能力培养等,坚持“以人为本”的逻辑与发展方向,以确保新闻业人才培养能够适应这一变革时代的需求。  相似文献   

19.
在出版融合的背景下,生成式人工智能开始深度赋能出版业的各个环节。人工智能生成内容被应用于选题组稿、翻译校对、配图制表等多种场景,推动传统出版业向智能出版业加速跃升。但由于人工智能生成内容的数据来源不透明、生成过程黑箱化等,给出版产业智能化升级带来了巨大的版权风险。中国、英国、美国等国家纷纷出台新的版权法规或政策来监管AI引发版权风险。文章梳理相关国家和地区版权监管的新动态,分析不同的版权监管路径,为我国出版产业服从政府版权监管、应对AI赋能出版业智能升级带来的版权风险,提出可行性建议。  相似文献   

20.
信息时代,信息基础设施与底层技术逻辑的迭代成为驱动变革的重要力量。以ChatGPT为代表的下一代人工智能标志着从局限于单领域的AI1.0时代向通用化、平台化的AI2.0时代的过渡,人工智能作为新兴信息基础设施将引发新一轮信息革命,重塑信息生产机制、信息整合形态、信息分发网络和信息交互模式。这一变革的重大意义不仅在于人工智能作为智能互联的超级媒介可突破互联网环境下的信息过载与流通低效等困境,更在于人工智能颠覆性地具备了以行动者身份对人的思想施加影响的能力,“人机共生”的新主体时代将对以人为主导的传播研究范式与信息传播伦理带来冲击。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号