首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 171 毫秒
1.
随着人工智能技术的快速研发和广泛应用,加强对人工智能技术的伦理风险预估和政策规避路径研究已然成为全球治理共识。为此,应当重新审视人工智能技术本质,正视人工智能技术应用带来的诸多技术风险、伦理风险、社会风险和法律风险挑战。实际上,人工智能技术嵌入社会实际应用风险的规避是一项复杂的系统工程,应该致力于构建一个综合性的治理框架。简而言之,应强化风险意识,制定技术伦理规范和培养科学家的人文精神,提高人工智能技术模型的可解释性和可追溯性;以社会合作共治为框架,推进人工智能技术风险的协同治理;推动人工智能技术运用的国际合作,以及人工智能技术伦理与法律标准化治理体系建设。  相似文献   

2.
黎常  金杨华 《科研管理》2021,42(8):9-16
人工智能在深刻影响人类社会生产生活方式的同时,也引发诸多伦理困境与挑战,建立新的科技伦理规范以推动人工智能更好服务人类,成为全社会共同关注的主题。本文从科技伦理的视角,围绕机器人、算法、大数据、无人驾驶等人工智能领域所出现的伦理主体、责任分担、技术安全、歧视与公平性、隐私与数据保护等问题,以及人工智能技术的伦理治理,对国内外相关研究成果进行回顾分析,并提出未来需要在中国情境下伦理原则与治理体系的建立、人工智能伦理研究的跨学科合作、理论分析与实践案例的融合、多元主体伦理角色分工与协作等方面进行进一步研究。  相似文献   

3.
人工智能社会实验以社会实验的科学方式观测人工智能技术的综合社会影响,意在对其风险进行前瞻性评估,提前寻求应对策略,促进智能技术的良性发展。人工智能社会实验无疑会对实验场域中的参与人员和社会环境造成深刻的伦理影响,因而亟需建构一套切合实际、行之有效的伦理规范体系。当前研究虽有对于伦理风险和伦理原则的探讨,但仍缺乏有关如何在具体实践中定位伦理风险、落实伦理原则并确定伦理责任的精确阐释。人工智能社会实验的实验路径为其伦理规范体系的确立提供了基本框架。基于实验开展的7个阶段,结合人工智能伦理和社会实验伦理的研究成果:(1)分析整合实验各阶段面临的伦理风险,结合应用场景与技术特征进行深化;(2)梳理提炼普适的伦理原则,将其规范要求细化至实验各个阶段;(3)针对实验开展需要,确定不同参与主体在各阶段的职能作用,据此落实主体间的伦理责任。由此形成对人工智能社会实验伦理研究的基本认识,建构起既表达普遍价值共识,又具备实践可操作性的人工智能社会实验伦理规范体系。  相似文献   

4.
人工智能伦理准则与治理体系:发展现状和战略建议   总被引:1,自引:0,他引:1  
首先,界定人工智能伦理准则的基本概念,分析人工智能发展现状。然后,探讨导致人工智能伦理问题的主要原因,总结人工智能典型应用场景下的伦理问题,包括自动驾驶、智能媒体、智慧医疗、服务机器人等;此外,围绕应对人工智能伦理问题的基本原则探索治理框架体系,包括技术应对、道德规范、政策引导、法律规则等方面。最后,结合我国人工智能发展规划战略部署,指出在社会治理的落地过程中宜采取分层次、多维度的治理体系,并提出在人工智能伦理准则和治理方面的具体措施建议(2020-2035年),包括社会宣传、标准体系、法律法规等方面。  相似文献   

5.
正1人工智能:社会治理的新议题及新挑战人工智能技术的发展正在重塑社会现实,带来社会治理领域的新变革。人工智能既是社会治理的工具,又是社会治理的对象。新技术的发展必然带来新的社会议题,人工智能技术及其广泛应用将带来新的社会治理、法律规范及伦理规约问题。就业对国民经济的发展至关重要,然而随着人工智能对人类就  相似文献   

6.
于雪  李伦 《科学学研究》2023,(4):577-585
人工智能技术的颠覆性特征将诱发一系列风险,但这些风险往往难以预知和研判,因而可以在社会场景中部分地引入某些人工智能技术,并通过密切监测其社会影响而试验其可行性。这种将人工智能引入社会的过程可以被视为人工智能社会实验。作为社会实验的人工智能在防控风险方面有一定的优势,但其实施过程也存在着不容忽视的伦理问题。这主要源于人工智能社会实验是以人为研究对象,考察“人—人工智能”的内在关系,因而对其伦理关切不仅重要而且必要。人工智能社会实验的目的之一就是通过社会实验解决人工智能的伦理问题。但同时,这种实验本身就存在着伦理争议,伦理的二阶性就导致了隐私、“脏手”、欺骗等现实伦理问题。基于此,应当建构面向人工智能社会实验的伦理框架,即人工智能社会实验伦理,以研判和防控人工智能社会实验的潜在伦理风险。通过提出人工智能社会实验伦理的治理策略,有助于探索科技伦理治理的中国道路。  相似文献   

7.
日本当前的科研伦理治理体系主要是以政府和科研机构为主导,以其下属专家委员会为依托,经过科学求证制定全国纲要性文件和行业规范准则。在逐步发展的过程中,各大学与行业学会起到了推动作用,自下而上由大学率先成立伦理委员会,政府设置治验和伦理审查委员会,由行业内的纲领规定发展到政府制定颁布相关的伦理规范和指南,中央和下属机构并行从而建立起一套全国范围的伦理治理体系。日本的伦理委员会数量多,覆盖面广,涉及到各行各业,有统一的行规且遵循业内伦理规范和准则,但伦理委员会的运作本身也存在着一定问题。本文从治理理念、组织架构和制度规范三个角度来对日本整个伦理治理体系做一介绍和分析,并提出对中国的经验与启示。  相似文献   

8.
人工智能技术近年来的快速发展及其在军事领域的应用,引发了公众、政策界和学界的广泛关注。本文对人工智能军事化冲击国际稳定的理论和政策争论、人工智能时代国际安全治理的规范演化进行了总结和分析。在国际社会探索人工智能全球安全治理的进程中,国际社会出现了借鉴国际军控的经验教训、全面禁止致命性自主武器以及规范技术发展路径的多元主张。本文认为,多条路径主导和多元网络化发展的国际规范趋势导致不同的行为体之间形成了复杂的相互影响关系,这决定了没有一种治理主张可以在短期内主导规范演进的过程。  相似文献   

9.
随着人工智能的井喷式发展,其涉及的伦理风险,也从科幻作品中走进现实,成为众多主体热议的话题。本文以技术接受模型及风险感知理论为基础,以信任为中介,构建了公众对于人工智能伦理风险的感知与其参与风险治理意愿的研究框架,并通过实证检验了相关假设。结果显示:人工智能伦理风险感知对公众参与意向具有显著的负向影响,其中公众对科研机构和政府的信任在人工智能伦理风险感知与公众参与之间起部分中介作用。该结论为构建“政府主导、专家引领、公众参与、社会监督”的治理新格局提供了科学依据,对于新兴技术实现科技向善具有重要的现实意义。  相似文献   

10.
人工智能技术不仅能快速赋能经济社会发展,也可能引发诸多与人工智能技术本身特征和发展高度相关的伦理问题。国际软法因具有灵活高效、适用成本低,能填补硬法空白,以及方便区分治理、分层应对伦理问题的优势,其在人工智能伦理治理领域的勃兴几乎是必然的。在该领域国际软法发达、硬法落后的现状下,面对国际软法主体间合作不稳定、有时得不到有效实施的治理挑战,治理模式逐渐向软硬兼备、软法“硬化”转变,以提高软法约束力与执行可能性。建议构造国际软硬法混合治理的“中心—外围”模式、构建间接执行机制,以完善人工智能伦理的国际软法治理对策。  相似文献   

11.
新兴科技的前沿创新性、动态变化性、多元互动性使其伦理治理存在难度,传统的治理方式难以快速应对。浙江省作为共同富裕示范区,重点发展“互联网+”、生命健康和新材料三大科创高地,亟需识别新兴科研领域的伦理风险并加强伦理建制。为此,基于我国重点科技创新领域伦理治理存在相关法律法规文本体量不足、专业审查机制及配套保障不完善、科技伦理教育薄弱、总体伦理素养有待提高、科研伦理创新治理路径有待拓展等现状,系统分析信息科学、生命健康和新材料三大科学领域代表技术的潜在伦理风险和伦理治理现状,提出浙江省反思性高阶伦理“元治理”路径,包括:促进多元主体协同参与伦理治理、完善特色科技伦理制度文本、加强伦理审查制度建设、健全伦理教育科普制度以及数字化赋能高效管理等,以期促进科技理性驱动共同富裕示范区经济社会发展。  相似文献   

12.
高德胜  季岩 《情报科学》2021,39(8):53-59
【目的/意义】人工智能时代下,个人信息安全面临着越来越多的风险和挑战,研究个人信息的保护问题具 有重要的理论意义和实践价值。【方法/过程】在分析人工智能时代个人信息安全问题的现实发展与理论内涵的基 础上,对个人信息保护法律规制的缺陷、个人信息知情同意原则的困境、个人信息安全面临的技术性风险、人工智 能企业的内部安全威胁与人工智能技术衍生的伦理风险进行检视,结合国际国内个人信息安全治理的理论与经 验,提出人工智能时代个人信息保护问题的安全治理策略。【结果/结论】通过分析研究,提出完善人工智能时代个 人信息安全的法律规制,推动政府、企业与社会公众的协同治理机制,构筑人工智能系统个人信息安全技术壁垒, 健全人工智能企业的安全管理规范,强化个人信息自我保护能力等策略,从而全面提升人工智能时代个人信息安 全治理能力。【创新/局限】以信息安全为研究视角,提出多维度、系统性、立体化的个人信息安全治理策略。但由于 缺少具体的数据分析,本文亦存在进一步细化的空间。  相似文献   

13.
通用模型是近年来人工智能发展的重要方向之一。随着模型研发应用的增多,模型的社会和伦理影响受到广泛关注。文章从通用模型的特性出发、分析了模型在算法、数据和算力3个层面潜在的伦理挑战,包括不确定性、真实性、可靠性,偏见、毒性、公平、隐私及环境问题。进一步从技术哲学的视角分析了数据驱动的模型在人与世界关系中的中介性作用及所产生的“镜像”效应问题和透明性问题,提出了人与世界关系的新形态是以模型(数据)为中介的,即“人-模型(数据)-世界”关系。最后,从治理技术和治理机制两方面反思了当前的应对措施及局限性。建议建立开放式、全流程、价值嵌入的伦理规约机制,保障通用模型在合规、合伦理的框架下发展。  相似文献   

14.
随着人工智能技术的发展,自治型智能机器人开始走进人们的生活视阈。"机器人伦理学"在国外的兴起正是这一背景下的伦理反思。然而,"机器人伦理学"的研究对象"机器人"有着特定的涵义,其存在领域也涵盖劳动服务、军事安全、教育科研、娱乐、医疗保健、环境、个人护理与感情慰藉等各个方面。其中,安全性问题、法律与伦理问题和社会问题成为"机器人伦理学"研究的三大问题域。  相似文献   

15.
潘恩荣  阮凡  林佳佳 《科学学研究》2018,36(10):1744-1749
传统研究认为技术将带来伦理风险,但并未意识到技术集成还将带来更严重的社会风险,即伦理风险在现代市场经济条件下可能演化为伦理陷阱。这种社会风险与伦理风险有质的区别。在市场经济资本逻辑的驱使下,伦理陷阱通过“互联网+”技术无限扩散,使得公众难以识别和回避。应对技术集成的社会风险可以采用伦理、法律与植入道德代码等手段,但治本之道是发展能识别并治理该社会风险的理论和方法。与现有的技术哲学及伦理研究进路相比,技术哲学“价值论转向”纲领更适合研究当前“互联网+”与未来“人工智能+”技术集成引发的社会风险。  相似文献   

16.
当前自动驾驶汽车发展所面临伦理困境的一个核心问题是:是否应该将道德规范嵌入算法结构以及应当以何种方式嵌入。在面对未来可能的交通事故时,屏蔽信息而依靠“道德运气”进行随机选择和基于完全信息的人工智能系统自主抉择都存在严重困难,因此应当为自动驾驶汽车预设“道德算法”。而对于如何决定“道德算法”的问题,鉴于现有道德原则间的相互冲突、道德决策的复杂性以及人类道德判断的情境化特点,基于某种人类既定的道德原则或道德规范是不现实的。  相似文献   

17.
Some aspects of ethics and research into the silicon brain   总被引:1,自引:0,他引:1  
The aim of this paper is to discuss some of the issues related to ethics in the context of establishing objectives for information systems research in general and artificial intelligence or silicon brain research in particular. Examples are taken from physics and genetic engineering to illustrate the kind of ethical problems that arise when the ethical implications of research are not understood or acknowledged. The aspect of ethics considered here relates to the care with which a research topic should be chosen if one wishes to avoid dilemmas concerning the use to which the knowledge so created will eventually be put. In addition a possible framework for thinking about ethics and research objectives is suggested.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号