首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
人工智能伦理准则与治理体系:发展现状和战略建议   总被引:1,自引:0,他引:1  
首先,界定人工智能伦理准则的基本概念,分析人工智能发展现状。然后,探讨导致人工智能伦理问题的主要原因,总结人工智能典型应用场景下的伦理问题,包括自动驾驶、智能媒体、智慧医疗、服务机器人等;此外,围绕应对人工智能伦理问题的基本原则探索治理框架体系,包括技术应对、道德规范、政策引导、法律规则等方面。最后,结合我国人工智能发展规划战略部署,指出在社会治理的落地过程中宜采取分层次、多维度的治理体系,并提出在人工智能伦理准则和治理方面的具体措施建议(2020-2035年),包括社会宣传、标准体系、法律法规等方面。  相似文献   

2.
高德胜  季岩 《情报科学》2021,39(8):53-59
【目的/意义】人工智能时代下,个人信息安全面临着越来越多的风险和挑战,研究个人信息的保护问题具 有重要的理论意义和实践价值。【方法/过程】在分析人工智能时代个人信息安全问题的现实发展与理论内涵的基 础上,对个人信息保护法律规制的缺陷、个人信息知情同意原则的困境、个人信息安全面临的技术性风险、人工智 能企业的内部安全威胁与人工智能技术衍生的伦理风险进行检视,结合国际国内个人信息安全治理的理论与经 验,提出人工智能时代个人信息保护问题的安全治理策略。【结果/结论】通过分析研究,提出完善人工智能时代个 人信息安全的法律规制,推动政府、企业与社会公众的协同治理机制,构筑人工智能系统个人信息安全技术壁垒, 健全人工智能企业的安全管理规范,强化个人信息自我保护能力等策略,从而全面提升人工智能时代个人信息安 全治理能力。【创新/局限】以信息安全为研究视角,提出多维度、系统性、立体化的个人信息安全治理策略。但由于 缺少具体的数据分析,本文亦存在进一步细化的空间。  相似文献   

3.
为了实现对人工智能系统的有效治理,社会各界对其透明性的呼声日益提高。提高人工智能系统的透明性,有利于相关人员更好地承担责任,保护公众的知情权,因而透明性原则在各类人工智能伦理原则与伦理指南中出现的频率最高,但不同主体对其的内涵界定却存在一定的差异。人工智能系统的透明性至少表现在算法可解释、数据透明与功能透明等多个方面。我们需要从智能的特征、人工智能技术现状以及技术治理的可行性等角度,充分认识人工智能透明性的限度问题。对于人工智能系统透明性的建构路径,至少有技术进路、伦理法律规制与文化进路等多种途径。  相似文献   

4.
[研究目的]人工智能在发展迅速的过程中,呈现出违背伦理与法治的趋势,美国政府及时采取措施对人工智能发展进行指引,其中的经验值得总结与借鉴。[研究方法]通过对美国政府指引人工智能的理念和实操进行分析,可以发现美国政府在理念层面要求人工智能的发展必须符合美国价值观和法治理念,在实操层面,则对工程实践、系统性能、人机交互、问责治理中的人工智能存在的问题进行解决。[研究结论]通过吸收美国已有的经验,并对其中的误区进行明辨,我国可以在理念层面明确人工智能的伦理与法律准则,在实操层面强化人工智能的可审计性、可追溯性、可解释性及可依赖性,确保人工智能适配伦理与法治。  相似文献   

5.
随着人工智能技术的发展,自治型智能机器人开始走进人们的生活视阈。"机器人伦理学"在国外的兴起正是这一背景下的伦理反思。然而,"机器人伦理学"的研究对象"机器人"有着特定的涵义,其存在领域也涵盖劳动服务、军事安全、教育科研、娱乐、医疗保健、环境、个人护理与感情慰藉等各个方面。其中,安全性问题、法律与伦理问题和社会问题成为"机器人伦理学"研究的三大问题域。  相似文献   

6.
黎常  金杨华 《科研管理》2021,42(8):9-16
人工智能在深刻影响人类社会生产生活方式的同时,也引发诸多伦理困境与挑战,建立新的科技伦理规范以推动人工智能更好服务人类,成为全社会共同关注的主题。本文从科技伦理的视角,围绕机器人、算法、大数据、无人驾驶等人工智能领域所出现的伦理主体、责任分担、技术安全、歧视与公平性、隐私与数据保护等问题,以及人工智能技术的伦理治理,对国内外相关研究成果进行回顾分析,并提出未来需要在中国情境下伦理原则与治理体系的建立、人工智能伦理研究的跨学科合作、理论分析与实践案例的融合、多元主体伦理角色分工与协作等方面进行进一步研究。  相似文献   

7.
随着人工智能技术的快速研发和广泛应用,加强对人工智能技术的伦理风险预估和政策规避路径研究已然成为全球治理共识。为此,应当重新审视人工智能技术本质,正视人工智能技术应用带来的诸多技术风险、伦理风险、社会风险和法律风险挑战。实际上,人工智能技术嵌入社会实际应用风险的规避是一项复杂的系统工程,应该致力于构建一个综合性的治理框架。简而言之,应强化风险意识,制定技术伦理规范和培养科学家的人文精神,提高人工智能技术模型的可解释性和可追溯性;以社会合作共治为框架,推进人工智能技术风险的协同治理;推动人工智能技术运用的国际合作,以及人工智能技术伦理与法律标准化治理体系建设。  相似文献   

8.
李森林  张乐  李瑾 《科学学研究》2023,(10):1737-1746
测量和解析个体对人工智能的风险感知是研究其社会影响的基础性工作。本文通过构建多指标多因素结构方程模型(MIMIC),从4方面测度了青年群体对人工智能的风险感知水平,并考察了8类风险因素对其产生的影响。数据分析显示,青年对社会、伦理、法律、国家安全、政治等具有长远性和集体性特征的社会风险因素的评价正向强化了其对人工智能整体属性的风险感知,而对经济、技术、人身安全与财产损失等具有近期性和现实性的个人风险因素的评价并未产生显著影响。上述结果表明,当代青年对人工智能风险感知的特征主要表现为“远虑”而非“近忧”,体现出该群体对待新兴技术的全局性、长远性和法理性的深度忧患意识。在全面开展人工智能风险治理的进程中,应从国家战略高度和法律伦理的角度强化对人工智能隐性风险的治理,最大限度地消除公众的远虑近忧,夯实新兴技术落地的社会基础。  相似文献   

9.
人工智能技术在养老服务领域的作用愈发显著。现阶段可以从发展目标、模式分类、重点内容以及实施机制四个方面,对域外发达国家的人工智能养老战略与政策展开探讨。其在内容上包括构建安全的人工智能养老系统、践行综合照护服务理念、注重解决伦理和法律困境、不断提升公民人工智能素养,在实施机制上包括政府大力支持智能养老发展、企业和行业协会积极参与。我国应借鉴国外人工智能养老战略中的有益经验,如树立以老年人为中心的人工智能养老服务理念、在实施人工智能战略过程中形成多元化资金筹集渠道等。具体的完善措施包括:采取符合我国实际的人工智能养老战略模式、建立以老年人需求为导向的人工智能养老服务供给体系、提升老年人对人工智能养老服务的支付能力,以及形成政府主导和多方主体共同参与的人工智能养老治理局面。  相似文献   

10.
于雪  李伦 《科学学研究》2023,(4):577-585
人工智能技术的颠覆性特征将诱发一系列风险,但这些风险往往难以预知和研判,因而可以在社会场景中部分地引入某些人工智能技术,并通过密切监测其社会影响而试验其可行性。这种将人工智能引入社会的过程可以被视为人工智能社会实验。作为社会实验的人工智能在防控风险方面有一定的优势,但其实施过程也存在着不容忽视的伦理问题。这主要源于人工智能社会实验是以人为研究对象,考察“人—人工智能”的内在关系,因而对其伦理关切不仅重要而且必要。人工智能社会实验的目的之一就是通过社会实验解决人工智能的伦理问题。但同时,这种实验本身就存在着伦理争议,伦理的二阶性就导致了隐私、“脏手”、欺骗等现实伦理问题。基于此,应当建构面向人工智能社会实验的伦理框架,即人工智能社会实验伦理,以研判和防控人工智能社会实验的潜在伦理风险。通过提出人工智能社会实验伦理的治理策略,有助于探索科技伦理治理的中国道路。  相似文献   

11.
正近年来,高科技在快速发展的同时,科技风险、科技伦理问题也越来越成为社会各界热议的话题。2018年新学期开始,哈佛大学、斯坦福大学、MIT等美国高校开设人工智能伦理、数据科学伦理、技术伦理、机器人伦理等新课,这是对公众因人工智能等新技术感到担忧的回应。国内科技伦理研究也纷纷  相似文献   

12.
正1人工智能:社会治理的新议题及新挑战人工智能技术的发展正在重塑社会现实,带来社会治理领域的新变革。人工智能既是社会治理的工具,又是社会治理的对象。新技术的发展必然带来新的社会议题,人工智能技术及其广泛应用将带来新的社会治理、法律规范及伦理规约问题。就业对国民经济的发展至关重要,然而随着人工智能对人类就  相似文献   

13.
贺芳 《科技创业月刊》2023,(12):104-108
ChatGPT以通用人工智能拉开了生成式AI发展的序幕,对人工智能生成内容产生深远影响,但其背后也潜藏着社会对生成式AI技术发展的担忧。通过阐述人工智能生成内容的技术演进过程及应用场景,分析人工智能生成内容带来的意识形态、法律、伦理、环境等风险,从政府层面、行业层面、用户层面3个方面对人工智能生成内容提出风险治理方案,以期为人工智能技术可持续发展提供参考。  相似文献   

14.
人工智能(AI)是第四次产业革命的核心,但也为伦理道德规范和社会治理带来了挑战。文章在阐释当前人工智能伦理风险的基础上,分析了当前对人工智能伦理准则、治理原则和治理进路的一些共识,提出了以“共建共治共享”为指导理论,逐渐建设形成包含教育改革、伦理规范、技术支撑、法律规制、国际合作在内的多维度伦理治理体系等对策建议。  相似文献   

15.
李娜  陈君 《科技管理研究》2020,40(6):258-264
负责任创新(RRI)旨在科学和技术创新过程中社会行动者和创新者彼此负责,同时会考虑创新过程中的伦理问题及创新产品的可接受性、可持续性和社会需求。其内涵分为行政定义和学术定义。在预期、反思、协商、反应、可持续性、关怀这6种负责任创新框架的基础上引入无私利性,基于负责任创新这7种框架理念解析人工智能技术发展带来的安全、隐私、结果等三方面主要伦理问题,探讨嵌入RRI框架来解决人工智能(AI)在产生、应用和发展等过程中滋生的伦理问题的路径,使AI技术更好地造福人类社会。  相似文献   

16.
为探究医学人工智能发展态势以及我国医学人工智能存在的问题,从医学人工智能领域论文、临床试验、医疗器械产品3个维度进行态势分析,量化分析结果显示我国和全球医学人工智能发表论文数量均呈迅速增长趋势,发文数量及高被引论文方面我国处于国际前列;人工智能临床试验开展数量和面向疾病种类较多,但临床试验注册质量有待提高;我国人工智能医疗器械获批数量逐年增加,医疗人工智能产品认证稳步推进。医学人工智能发展的同时在理论层面、技术层面、伦理法律层面以及应用层面依旧面临着诸多问题和挑战。  相似文献   

17.
正随着近年来人工智能安全与伦理问题的逐渐暴露,全球新一轮人工智能政策部署的重点转向重新平衡创新与监管之间的关系,更加注重通过协同治理实现人工智能的健康发展。2019年G20大阪峰会前夕成为各国和地区发布人工智能治理政策原则、参与人工智能风险全球治理的一个窗口期,诸如日本的《以人类为中心的人工智能社会原则》(2018年12月)、欧盟的《人工智能道德准则》(2019年4月)、《OECD  相似文献   

18.
<正>人工智能作为中国推动新一轮技术革命与行业转型的重要技术,为政治、经济、社会治理、国家安全等领域的发展注入新的动力,其社会应用范围不扩大。2017年,国务院印发的《新一代人工智能发展规划》明确提出,“重点培养贯通人工智能理论、方法、技术、产品与应用等的纵向复合型人才,以及掌握‘人工智能+’经济、社会、管理、标准、法律等的横向复合型人才”。当下,人工智能对科技领域技术应用有深远的影响。社会对人工智能领域复合型人才的需求非常渴望,对高校提出了更高的人才培养要求。  相似文献   

19.
廖欢  刘伟 《科技管理研究》2023,(12):250-258
我国科技创新快速发展,面临的科技伦理挑战日益增多,为应对技术发展与应用中日益凸显的伦理矛盾,科技伦理治理迎来了法治建构的新任务。鉴于科技法律治理与科技伦理治理的底层逻辑有着一定差异性,以适度法制化作为切入点,分析科技伦理治理与法律治理融合机制。通过厘清科技伦理治理相关概念和国内外研究现状,立足于法律治理与科技治理的关联性,指出科技伦理治理法制化能够为科技活动划定边界,有效回应并规范涉及科技应用行为,推动负责任的科技创新与应用;同时,科技伦理法制化要求在法律层面上作出伦理规范,特别是有针对性地关注新兴科技领域相关伦理问题,因此从实体化权利义务、多层次规范体系的构建等角度出发,提出依托法律规范、伦理委员会运转、科技伦理审查等治理有效手段进一步健全完善科技伦理治理机制,增强伦理治理效能。  相似文献   

20.
人工智能社会实验以社会实验的科学方式观测人工智能技术的综合社会影响,意在对其风险进行前瞻性评估,提前寻求应对策略,促进智能技术的良性发展。人工智能社会实验无疑会对实验场域中的参与人员和社会环境造成深刻的伦理影响,因而亟需建构一套切合实际、行之有效的伦理规范体系。当前研究虽有对于伦理风险和伦理原则的探讨,但仍缺乏有关如何在具体实践中定位伦理风险、落实伦理原则并确定伦理责任的精确阐释。人工智能社会实验的实验路径为其伦理规范体系的确立提供了基本框架。基于实验开展的7个阶段,结合人工智能伦理和社会实验伦理的研究成果:(1)分析整合实验各阶段面临的伦理风险,结合应用场景与技术特征进行深化;(2)梳理提炼普适的伦理原则,将其规范要求细化至实验各个阶段;(3)针对实验开展需要,确定不同参与主体在各阶段的职能作用,据此落实主体间的伦理责任。由此形成对人工智能社会实验伦理研究的基本认识,建构起既表达普遍价值共识,又具备实践可操作性的人工智能社会实验伦理规范体系。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号