首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
贺芳 《科技创业月刊》2023,(12):104-108
ChatGPT以通用人工智能拉开了生成式AI发展的序幕,对人工智能生成内容产生深远影响,但其背后也潜藏着社会对生成式AI技术发展的担忧。通过阐述人工智能生成内容的技术演进过程及应用场景,分析人工智能生成内容带来的意识形态、法律、伦理、环境等风险,从政府层面、行业层面、用户层面3个方面对人工智能生成内容提出风险治理方案,以期为人工智能技术可持续发展提供参考。  相似文献   

2.
生成式人工智能是一种能够自主生成内容的人工智能技术,可以应用于文本生成、图像生成等多个领域。近年来,随着预训练技术的发展和计算硬件的提升,生成式人工智能取得了突破性进展,特别是以ChatGPT为代表的生成式对话模型,取得了令人惊艳的效果,开始广泛应用于各行各业。生成式人工智能有广阔的发展前景,本文首先介绍了ChatGPT的研究进展,包括预训练语言模型、上下文学习和基于人类反馈的强化学习三个关键技术,以及ChatGPT对相关人工智能研究的影响。然后对ChatGPT及生成式人工智能在未来的应用发展进行了思考与总结,讨论了目前亟需解决的关键问题,包括更透彻的理解能力、模型轻量化、可控安全的内容生成、知识可持续学习、类脑化认知和可解释性等;希望通过本文的介绍能引起更多的研究人员关注生成式人工智能,进一步推动生成式人工智能的发展与应用。  相似文献   

3.
[目的/意义]为了厘清ChatGPT用户的认知和使用意愿影响因素,提高ChatGPT用户的使用体验,促进ChatGPT的本土化,有效化解以ChatGPT为代表的人工智能技术对社会和公众带来的负面风险。[方法/过程]文章以ChatGPT用户使用意愿为研究主题,借鉴扎根理论研究范式,通过对23份访谈资料编码分析的方式,构建了ChatGPT用户使用意愿影响因素研究模型,分析和探讨ChatGPT用户的行为特点和作用规律。[结果/结论]研究结果显示,扎根理论对以ChatGPT为代表的人工智能技术用户使用意愿具有较好的适用性和解释力,同时也证实主体因素、技术因素、信息因素和社会环境因素是影响ChatGPT用户使用意愿的重要因素,与其他信息系统用户相比,ChatGPT用户的风险感知特别是职业风险感知尤为明显。结合上述分析,从人机和谐和社会稳定发展的视角,提出了夯实ChatGPT技术基础理论研究的同时,还应当注意防范以ChatGPT为代表的人工智能技术带来的职业风险和技术风险,加强技术伦理道德建设等对策与建议。  相似文献   

4.
《科学生活》2023,(5):6-7
<正>短短两个月内,生成式人工智能(AI)工具ChatGPT就已收获了上亿用户,一举成为史上发展最快的数字产品,也是当今世界的热门话题之一。生成式人工智能带来了无限可能,但对于AI引发的种种变革,我们是否做好了准备?近日,上纽大图书馆举办了系列活动,共同探讨人类与生成式人工智能的互动方式,以及如何应对该技术普及后的影响。  相似文献   

5.
[目的/意义]通过分析ChatGPT类生成式人工智能嵌入数字政府的技术可供性,探寻ChatGPT类生成式人工智能对数字政府建设带来的机遇与挑战,并提出应对方法。[方法/过程]基于技术可供性理论,构建以“生产—社交”可供性为主线的理论分析框架,分析ChatGPT类生成式人工智能嵌入数字政府建设的可供性。[结果/结论]ChatGPT类生成式人工智能为数字政府建设提供生产可供性与社交可供性,为深化数字政府建设提供新的机遇与技术支持。但人工智能技术本身、政府、开发者及其他行动者对技术可供性具有多重约束,限制了ChatGPT类生成式人工智能与数字政府的耦合。因此,应促进技术的完善与协作来提高技术与数字政府的适配性,通过完善数据共享机制为技术嵌入做好铺垫,并做好数据安全工作,更好地促进ChatGPT类生成式人工智能嵌入数字政府建设。  相似文献   

6.
[目的/意义]ChatGPT的出现,引领生成式AI迅速渗透至各行各业,重塑产业形态。在此背景下,情报学也将不可避免地受到极大影响。探讨生成式AI驱动下的情报学研究与实践走向,旨在为情报学更好地迎接AI变革带来的机遇与挑战提供参考。[方法/过程]首先,从研究问题、数据源、研究范式3个角度讨论生成式AI对情报学研究的影响;其次,从综合性知识服务、学术信息服务、决策情报服务与社会信息服务4个层面,深入分析生成式AI将为情报实践工作带来的变化;最后,结合ChatGPT的局限性,讨论了情报学在融合生成式AI时应考量的问题,以及情报学可做的贡献。[结果/结论]生成式AI很可能会给情报学带来巨大的冲击,但如果应对得当,就能够促进情报学的提升,创新情报服务模式。情报学应积极拥抱新一代人工智能,探索与生成式AI交叉融合的路径,但与此同时需保持客观审慎的态度。  相似文献   

7.
[目的/意义]探索人工智能内容生成技术对开源情报工作的影响与改变。[方法/过程]以ChatGPT的形成与AIGC技术演进为研究起点,分析ChatGPT现有技术特征与技术演进趋势,从开源情报全周期视角解析该现象级应用对开源情报工作的潜在影响。[结果/结论] ChatGPT对开源情报的信息搜索、信息获取、信息处理环节具有一定提升作用。但现有技术缺陷使ChatGPT在开源情报全流程介入中仍面临数据可靠性、情报隐秘性、意识形态风险等问题与挑战。建议情报机构采取AIGC技术融合理论探索、AI生成式内容可靠性评估、智能技术体系建设等积极策略来应对本轮技术变革,更好实现开源情报价值。[局限]受限于AIGC技术领域专业化知识与ChatGPT应用下的开源情报实践不足,研究结论仅是ChatGPT对开源情报工作影响的思考与探索。  相似文献   

8.
[目的/意义]随着生成式人工智能的快速发展和广泛应用,信息空间结构也随之发生深刻的变革。以往以用户生成内容(UGC)为主的信息空间开始逐渐被生成式人工智能生成内容(AIGC)所影响,生成式人工智能治理的重要性愈发凸显。文章旨在从主题视角比较AIGC与UGC,揭示两者在内容与结构特征上的差异,并为生成式人工智能治理提供创新参考。[方法/过程]收集了金融、法律、医疗和开放问答4个领域的多个在线平台上的问题和用户回答,并借助gpt-turbo-3.5模型生成每个问题的人工智能回答,最终构建了包含65260条问答数据的语料集,并采用BERTopic主题模型分别对AIGC与UGC进行主题提取,并从主题间关系、主题与文档关系以及主题与主题词关系3个角度对两者进行综合对比。[结果/结论]研究结果揭示了AIGC和UGC在主题分布、主题内文档一致性和主题词权重结构等方面的差异。通过深入了解两者之间的特征差异,能够更好地观察生成式人工智能的行为规律,并为AIGC的治理策略完善提供参考。  相似文献   

9.
2022年11月,OpenAI推出对话人工智能大模型ChatGPT,展现了令人惊艳的自然语言理解和生成能力,并具备了跨学科、多场景、多用途的通用性,在很多任务上的性能达到了人类专家的水平,引起了产业界和学术界的广泛关注。以ChatGPT为代表的大模型技术实现了人工智能技术从“量变”到“质变”的跨越,有望发展成为人工智能关键基础设施赋能百业,加速推进国民经济的高质量发展。本文首先回顾了大模型技术的演进历程,从技术、应用、生态等多个角度阐述大模型技术引发的新一轮人工智能变革,并指出大模型技术可能带来的风险和挑战,最后给出了我国大模型发展的一些启示与展望。  相似文献   

10.
2022年底,OpenAI发布的ChatGPT聊天机器人将人工智能对通用自然语言任务的理解与生成能力提升到新的高度,引发各界广泛关注。当前ChatGPT仅支持文本模态的交互,而真实世界的感知则依赖于图像、文本、视频、音频等多个模态的协同处理。如何借鉴人脑的跨模态处理特性,跨越视觉、语言、听觉等不同感官信息实现对真实世界的感知和认知,是提升模型通用感知和交互能力、实现通用人工智能的关键。本文从ChatGPT的核心技术出发,分析ChatGPT在文本单模态限制下所面临的问题,并介绍ChatGPT与多模态分析技术结合的部分代表性工作,最后从多模态预训练、数据—知识双轮驱动等角度对ChatGPT多模态化的未来研究方向进行展望。  相似文献   

11.
作为生成式人工智能技术的代表,ChatGPT需要在大规模的数据提炼、分析、学习的基础上才能得出智能化结论、作出趋势性预测。具体而言,作为大型自然语言处理模型的ChatGPT在训练和运行过程中涉及到了预训练数据、人工标注数据、抓取数据、人机交互数据等四类数据,不同类型的数据在应用过程中面临着不同的法律风险和挑战。立足数据这一人工智能和算法模型的基础原料开展风险分析、法律回应和技术规制,有着迫切的现实意义。对此,我国可以考虑从顺应产业发展、平衡安全与效率的角度出发,厘清义务边界,完善规制措施,健全立法体系,以包容审慎的态度配合技术发展趋势形成有针对性的规范体系,从而抓住数字经济时代借助人工智能技术发展“弯道超车”的机会。  相似文献   

12.
<正>人工智能情感研究是一个不断发展的领域,人工智能是否拥有人类的情感特征,以及其情感是否等同于人类一贯定义的情感,这些问题仍然存在争议。上海大学教授孙伟平在《ChatGPT冲击波:类人恐惧与异化危机》中说:“以ChatGPT为代表的新一代人工智能正在将智能科技的创新发展推入全新的历史阶段。”  相似文献   

13.
[目的/意义]作为大型语言模型的杰作,ChatGPT智能机器人的出现暗示着强人工智能时代即将来临。由于ChatGPT功能多样和强智能性等特征使其备受关注,但同时也潜藏应用风险,故而有必要探索治理路径。[方法/过程]文章分析ChatGPT的技术逻辑和特征,论证ChatGPT智能机器人应用的风险类型,并在此基础上构建协同治理的体系。[结果/结论]ChatGPT智能机器人应用的风险主要包括:社会信任机制面临危机、版权规则遭受冲击、个人数据的泄露风险骤升以及真实信息被篡改或滥用。未来法律层面应当完善数据分类分级、数据获取以及数据利用制度;ChatGPT开发者和平台层面应当分别强化审查义务和数据清洗义务;ChatGPT用户层面应当承担声明义务和注意义务,同时提高甄别能力;行业组织层面需要发布技术指南,推进企业事前合规建设。  相似文献   

14.
聚焦人工智能监视技术的伦理监管困境,采用文本分析挖掘公众对AI监视的伦理关注,并进行整体和分场景比较,结合深度学习与神经网络对伦理属性进行情感分析。研究发现:公众关注的19个伦理问题贯穿AI监视技术的“动机-过程-结果”生命周期,关注程度在工作、教育和生活场景下存在差异;公众对AI监视整体持负面态度,对其动机合理性、过程正当性及监管有效性存在质疑;通过重要性-情感联合分析可以确定治理优先级,重要性等级高-情感值低的伦理问题需高度重视;最后,结合道义论与目的论,构建了AI监视的伦理审查框架。  相似文献   

15.
在自回归生成模型、预训练以及人类反馈强化学习等技术的基础上,ChatGPT获得了强大的自然语言处理能力,颠覆了过往人们关于人工智能的认知。但与此同时,ChatGPT在模型训练、生成内容以及应用等维度也带来了诸多类型的风险。在治理展开之前,应当明确人本主义是治理的价值基础,包容审慎的敏捷治理是治理的理念,“点面结合”的多方参与是治理的主体要求,多措并举的体系化方案是治理的模式。由此,治理的具体路径将从以下五个方面展开:建设标准训练数据集、健全人工智能训练师职业资格准入制度、强化算法监管技术、落实全过程的伦理治理方案以及优化法律体系与法律责任配置。  相似文献   

16.
张毅 《今日科苑》2023,(9):72-83
人工智能作为新技术创新的代表与引领未来的前沿性与战略性技术,逐渐成为全球新一轮科技革命和产业变革的重要驱动力量,并已经得到了国家和各级政府的高度重视。ChatGPT作为人工智能技术突破和发展的标志性成果,有可能带来一轮新的技术和产业革命,已成为全球关注的新热点。本文简要概述了AIGC和ChatGPT发展的概况,分析了安徽省AIGC产业发展的优势、存在的问题,提出了加强基础设施建设,增强原始创新能力;加强龙头企业引领,夯实产业发展基础;加强人才培养,提升核心竞争能力等促进AIGC产业发展的对策和建议。  相似文献   

17.
随着ChatGPT时代的到来,市场经济对高校人才培养目标提出了更高的要求。培养创新创业型人才,以创新创业教育现代化推动中国式现代化建设,成为当前我国高等教育机构新的使命和价值追求。采用文献分析法,以ChatGPT等人工智能技术辅助创业教育为切入点,分析ChatGPT在教学形式、教学技术和教学师资3个方面给创业教育带来的影响。通过构建创业教育课程模块、优化组合创业教学方法等变革传统创业教育,探索将ChatGPT等人工智能应用于创业教育人才培养的有效路径,为建设创新型国家输送高质量人才。  相似文献   

18.
大型语言模型是当今人工智能领域最前沿的研究方向之一,该方向旨在训练含有大规模参数的通用语言模型,使其能够遵循人类指令完成不同类型的自然语言处理任务。作为大型语言模型的代表,由OpenAI研发的ChatGPT在各个领域均展现出强大的自然语言生成能力,受到了全球各行各业的关注。本文从语言模型的发展历程出发,介绍了近年研究者在扩大语言模型规模上的探索,然后分析了大型语言模型带来的范式改变,并以ChatGPT为典型实例概述了其发展、技术和应用,接着介绍了后ChatGPT时代大型语言模型的前沿进展,最后从评价和治理两方面总结了目前大型语言模型的局限性及未来需要解决的挑战。  相似文献   

19.
以 ChatGPT为代表的 GPT生成式大模型发展日益蓬勃,引起了学界和业界的广泛讨论,对基础科研的发展带来了难以估量的影响。文章首先梳理了 GPT技术革命的发展历程,并讨论了该技术在科学研究中带来的新变革。然后,基于应用牵引、原理驱动、创新主体迁移 3个视角,讨论了 GPT技术革命对基础科学研究带来的影响及对我国的发展建议。研究认为 GPT技术固然可以对知识生产、科学研究等方面发挥积极作用,甚至促进科研范式变革,但也可能造成科研不端、削弱研究可信度、放大互联网固有偏见、知识产权“卡脖子”等问题。因此,本研究最后讨论了如何基于 GPT技术发展我国的基础科学研究,明确在投资与研发国家自主可控、受知识产权保护的数据与计算平台的同时,鼓励人机协作与科研诚信监管并重,为人工智能(AI) 推动基础科学发展营造公开透明的环境。本研究旨在为政策制定者、一线研究工作者理解 GPT技术对于基础科学的影响提供理解视角,推进GPT技术的合理使用,并为未来学术生态的健康发展提供参考。  相似文献   

20.
随着人工智能的井喷式发展,其涉及的伦理风险,也从科幻作品中走进现实,成为众多主体热议的话题。本文以技术接受模型及风险感知理论为基础,以信任为中介,构建了公众对于人工智能伦理风险的感知与其参与风险治理意愿的研究框架,并通过实证检验了相关假设。结果显示:人工智能伦理风险感知对公众参与意向具有显著的负向影响,其中公众对科研机构和政府的信任在人工智能伦理风险感知与公众参与之间起部分中介作用。该结论为构建“政府主导、专家引领、公众参与、社会监督”的治理新格局提供了科学依据,对于新兴技术实现科技向善具有重要的现实意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号