首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
人工智能的迅速发展正深刻改变人类的生产方式、生活方式和学习方式,对教育产生深度影响,而现阶段生成式人工智能工具在教育领域广泛应用,给教育带来新的道德伦理问题。该文首先从人工智能快速发展引发更加复杂的道德伦理问题和人工智能道德伦理是人类道德伦理价值体系新组成两方面给出人工智能延展人类道德伦理范围。再从人工智能教育应用伦理风险、教育人工智能伦理治理现状、教育人工智能伦理需解决问题等三个层面阐述了教育人工智能应用伦理风险与治理。再次从核心素养培养、规范应用监管、道德伦理框架、技术规范研制等四个维度给出人工智能向善发展的建设路线。最后,给出五条发展建议:加强顶层设计,系统规划总体框架;重视育人为本,创新发展人工智能课程;遵循治理原则,促进技术向善赋能;明确价值准则,助力人机相融共进;加快标准制定,规范教育人工智能实践。以期推动人工智能向善发展,赋能、赋智教育,促进教育数字化转型,构筑智能时代的人类命运共同体。  相似文献   

2.
随着ChatGPT等新型人工智能技术的进一步发展,未成年人成长面临着新的风险与挑战,急需构建面向未成年人的人工智能规范体系。文章从人才发展、AI向善和人机共融视角出发,构建了面向未成年人的人工智能技术规范体系模型:“技术内容规范”将基础性、时代性和价值性三个维度的知识结合在一起,旨在从核心素养的角度规范学生能接触到的人工智能技术内容;“技术工具规范”围绕可用性、适用性、安全性、价值观对AI学习工具的设计、开发和应用全过程提出规范要求,旨在从应用监管角度保障未成年人的使用体验;“技术伦理规范”基于以人为本、公平公正、安全可控原则,对人工智能技术伦理治理提出要求,旨在从安全伦理角度促进未成年人、社会、自然和人工智能的和谐共处。  相似文献   

3.
伦理问题的产生在人工智能教育应用中不可避免。如何识别与应对之,是当前研究的热点,对于人工智能与教育融合创新具有显著的伦理导向作用。已有研究多着力于对伦理风险的预警,在一定程度上忽视了对伦理问题的识别与判断,暴露出“泛伦理化”研究趋向,难以形成系统的伦理策略。实际上,只有辨别人工智能教育应用行为的伦理属性,通过伦理判断的分类指引,经由不同伦理分析框架的多样尝试,才能确定适切的伦理意图并形成可行的伦理方案。从人工智能教育应用行为的自知性、自愿性、社会性三个基本原则出发,提出“识别人工智能教育应用伦理问题”的一般方法,并基于目的论、义务论、美德论等规范伦理理论,确定“判断人工智能教育应用伦理问题是否合乎伦理规范”的方案依据,从而阐释人工智能教育应用伦理策略的形成过程,为积极回应“伦理问题识别意识薄弱”“伦理原则照搬难适应”等实践困境提供理论依据与实践路径。  相似文献   

4.
人工智能已成为影响未来社会发展的重要变量,其教育应用价值在获得认可的同时,也引起了伦理隐忧.教育伦理范畴视角下人工智能教育应用伦理的内涵,即教育教学过程中"人"与"人工智能"间的道德关系.人工智能教育应用的伦理旨趣在于"助",而助什么和如何助是研究的两个关键问题.人工智能教育应用的伦理原则应从教育主体维度展开,其中教育管理者需遵循权力规约原则,具体表现为数据收集的尊重原则、数据处理的理解原则和数据利用的边界原则;教师需遵循和谐共生原则,具体表现为人本原则、适度原则和关怀原则;学习者需遵循形塑自我原则,具体表现为良善原则、诚信原则和节制原则.人工智能教育应用的伦理实践过程应遵循从个体的伦理认知、伦理行为到社会的伦理制度,再到个体认知和行为伦理的轨迹,即由个体走向社会,又由社会反作用于个体的螺旋循环过程.但人工智能伦理研究的两种研究范畴——技术伦理和教育伦理杂糅交错,不利于伦理实践的开展,希冀跨学科学者能够专注于教育伦理范畴的研究.  相似文献   

5.
教育人工智能伦理研究的“原则方法”旨在通过伦理原则的构建与教授消解教育领域应用人工智能技术出现的伦理风险。然而,当前教育人工智能伦理原则存在有限性,制约了其对教育实践的影响力。就自身而言,教育人工智能伦理原则在构建过程中忽略了其在不同行业领域、不同教育应用甚至同一框架内的个性特征或关系。就实践而言,教育人工智能伦理原则既无法提升目标对象将伦理原则付诸实践的意愿,也缺乏强制其遵守这些价值观和规范的机制。教育人工智能伦理原则有限性的消解需要在完善原则自身的同时引入美德与法律,进而构建“原则-美德-法律”框架。这一框架的构建要义是使原则、美德、法律三大层次针对且有效地应对伦理原则有限性的各个方面,做到确定可靠切实的伦理原则、开展明确可行的美德培育、构筑稳健有效的法律保障。  相似文献   

6.
人工智能技术作为近几年发展最快的技术,其在教育中的应用能够更好地赋能教育,变革教育。文章基于CiteSpace5.6.R3对2010-2020年中国知网(CNKI)期刊的94篇人工智能教育伦理文献进行可视化分析。研究发现国内“人工智能教育伦理”的研究热点主要为“技术理性、教育发展、伦理原则、高等教育、伦理道德”等。基于关键词共现图谱对研究内容的梳理,形成“人工智能教育伦理”研究热点主题分别是:人工智能教育伦理的问题研究、原则构建及其教育体系。  相似文献   

7.
文章旨在揭示智能化时代的教育将面临哪些新的伦理问题,并在人工智能伦理和教育伦理的基础上,探讨教育人工智能的伦理原则。运用文献研究和逻辑推理方法,系统梳理了教育人工智能应用的特点和优势,及其可能引发的新的伦理问题:(1)角色层面,系统创建者、教师、学生和监测员等利益相关者将面临更加复杂的伦理困境;(2)技术层面,涉及自动化决策伦理问责、算法伦理和数据伦理等方面的问题;(3)社会层面,可能转变就业市场、改变人际关系和引发新的社会不公平。因此,需要对教育人工智能伦理问题的复杂性有充分的认识,同时需要遵循一般的人工智能伦理原则和教育伦理原则,其中,最核心的内容为二者之间的交集,具体包括:(1)福祉;(2)是非善恶;(3)公平正义;(4)人权和尊严;(5)自由自治;(6)责任和问责。  相似文献   

8.
人工智能应用与未成年人之间的和谐共生是当前亟待完成的任务。由于未成年人正处于认知、心理塑造发展的关键时期,其成长发展过程中需要更多监管和关注。针对当前人工智能应用监管中存在的风险和挑战,文章从面向未成年人的人工智能应用监管框架顶层设计出发,提出面向未成年人的人工智能应用监管善治路径。监管框架顶层设计以尊重人类的自主能力为核心,提升未成年人的能动性,优化监督机制,具体包括监管内涵、技术原则和组成要素。监管善治路径从以未成年人为中心的人工智能应用监管技术体系的构建出发,探索提升场景多样化评测机制,完善面向未成年人的人工智能应用监管制度,参与面向未成年人的人工智能应用监管国际规则制定,开展面向未成年人的人工智能应用监管社会实验研究。通过研究框架和善治实施路径的构建,以期为面向未成年人的人工智能技术规范提供有益参考。  相似文献   

9.
如今,智能技术的快速发展与人工智能伦理教育的滞后性难以相衬,人工智能伦理教育“为何”问题虽已达成共识,但其本质“是何”“如何”落地等问题成为目前教育人工智能中的重要命题。该研究从认知科学、技术伦理和道德教育等跨学科视角出发,探析人工智能伦理教育的理论溯源,构建人工智能伦理教育体系的知识观、学生观和教学观,以期为中小学人工智能伦理教育实践提供参考。研究揭示了人工智能基础教育阶段旨在培养新一代负责任的“数字公民”,伦理教育要兼顾明言伦理知识和默会伦理知识的生成,从个体伦理知识的积累走向社会共同建构;既要面向未来的技术开发者也要关注新一代技术使用者,让青少年学生与人工智能形成和谐共处、相互调节的道德共同体;教学中通过具身情境法、思辨研讨法培养学生的科技伦理素养,形成从认知到体验、从学校到生活的教育实践转向。  相似文献   

10.
算法公平被视作人工智能领域的核心伦理问题。教育人工智能同样面临算法偏见、算法歧视等伦理风险。通过系统性回顾2013—2023年教育人工智能算法偏见的57篇文献,本研究发现,从总体架构看,教育人工智能算法偏见研究主要分概念性理论研究、教育场景应用研究与算法检测设计研究三类;从以算法偏见为核心厘清算法伦理风险、算法歧视、教育公平三层概念的逻辑层次看,研究样本在算法偏见的种类、成因和治理原则与方法方面存在共性和明确的指向。本研究最后以种类和成因为基础,提出未来教育算法偏见研究的五个方向,以期促进教育的算法公平,优化人工智能教育应用环境,推动教育人工智能生态系统的健康发展。  相似文献   

11.
随着物联网、大数据、量子计算等科技的快速发展,人类进入人工智能时代。智能时代,智能技术与教育的不断融合,在为教育带来便捷、培养时代新人的同时,也衍生出复杂的伦理问题。人工智能教育应用中的伦理风险主要表现为:“我—他”师生的传统伦理关系错乱、数据壁垒和鸿沟带来的合法权利丧失以及确定性算法和不确定性发展之间的伦理背离。究其原因,与“一切皆技术”的算法崇拜主导着当前的人工智能教育应用,人工智能教育应用与固有制度观念的时空分离以及人工智能教育应用中的多元主体责任壁垒密切相关。为合理规避这些伦理风险,促进其可持续健康发展,应坚持“以人为本”的教育理念,建立系统完善的学生隐私保护规制,构建各责任主体共同参与的人工智能教育应用制度体系。  相似文献   

12.
人工智能技术在辅助教学上展现出了巨大潜力,也因其不透明性、无法预测性以及不当使用而引发争议,建设可信赖的人工智能教育应用(AIED)成为国际共识。可信赖AIED强调“以人为本”的价值宗旨,以可靠、安全的AI技术为底层基础,以合伦理性的理解和使用为关键保障,观照教育情境的复杂性,摒弃将通用AI伦理原则或其他AI应用领域的专业伦理原则生搬硬套到教育领域。英国作为人工智能伦理治理的先行者,在可信赖AIED建设方面积累了丰富经验,尤其体现在《人工智能保障生态系统路线图》中。该《路线图》从技术的开发、采购与使用三大阶段出发,分别采取伦理设计、伦理核查和AI素养培养等具体策略,构建了可信赖AIED的保障体系。借鉴英国AIED的典型举措,我国应在开发阶段对智能教育产品开展本土化的价值敏感设计,采购阶段对智能教育产品的可信赖度做出有意义的解释,使用阶段对师生用户的人工智能素养加以培养和提升,以推动技术开发者、产品采购者、一线使用者等利益相关方共促可信赖AIED的本地建设。  相似文献   

13.
随着人工智能的广泛应用,人工智能伦理教育应势而生。人工智能伦理教育的本质是价值观教育,因此高校开展人工智能伦理教育首先应确定以何种伦理道德为价值导向。社会主义核心价值观引领人工智能伦理教育是满足人工智能对价值的内生需求、回应人工智能伦理挑战、坚持教育内在引领价值的需要,应坚持以马克思主义为指导,以中华优秀传统文化为创新之源,以国家、社会、公民三维统一为发展旨归的基本遵循。高校应不断拓宽育人阵地、推进多学科教师在人工智能伦理教育中的高质量协同、以社会主义核心价值观引领人工智能伦理教学资源建设和自主知识体系构建。  相似文献   

14.
目前我国生成式人工智能教育应用研究理论层面存在顶层设计缺乏、监管框架缺位、政策框架缺失等问题,实践层面缺少相对科学完善的应用指南、监管认证工具、创新实施方法和行动措施,严重削弱了生成式人工智能技术全方位赋能教育数字化转型的能力,制约着生成式人工智能与教育和研究融合创新发展的进程。文章采用文本分析和内容分析法,介绍了联合国教科文组织《生成式人工智能教育和研究应用指南》的发布背景和研究目的,从人本主义批判视角探究生成式人工智能引发的争议和伦理风险,构建了生成式人工智能教育和研究应用的政策框架,提出了生成式人工智能教育和研究创新应用的促进方法和未来关注议题。文章最后结合我国生成式人工智能教育和研究政策规划制定进行了思考,以期为我国加速推进教育数字化,推进生成式人工智能与教育和研究深度融合提供参考。  相似文献   

15.
人工智能在全球引领了新一波技术热潮,并对教育行业发展带来新的机遇与挑战,人工智能与教育的深度融合将开创教育行业新纪元。本研究利用科学知识图谱绘制工具“citespace”对“人工智能+教育”相关的研究文献进行了系统的计量分析,梳理研究现状,通过聚类分析归纳目前学术界研究的四大视角,包括中观层面的行业变革以及技术应用,以及微观层面的人才培养和教育主体,并进行了深入分析:一是人工智能对教育行业变革的影响,包括智慧教育的赋能路径、智能技术的解决方案和智慧课堂的创新探索等;二是人工智能的技术应用,包括ChatGPT等应用推动教学效率提升、大数据教学模型构建、在线教育体系构建等;三是推进人才培养和知识学习方面,“人工智能+教育”融合带来观念和实践的变化以及对知识学习途径的创新性影响;四是人工智能对教育主体的影响,教师角色需要重新定义和塑造,学生角色要推动自主、个性化、混合和泛在学习,低年级教育要利用人工智能改变教学方式提升教学质量。最后,人工智能发展也带来了新的伦理困境,需要制定算法向善和数据向善的伦理准则,建立人工智能算法监测与数据安全防护措施,来构建人工智能的治理框架。  相似文献   

16.
人工智能和机器翻译的工程伦理是对人工智能和机器翻译产品或者系统设计和研发过程中所涉及的道德价值、问题和决策的研究.本文分析工程伦理学在人工智能产品和机器翻译系统研发过程中的主要问题,并在美国谷歌公司和欧盟委员会先后发布的人工智能的技术伦理准则基础上总结了实现可信赖的机器翻译系统的七个基本原则.这七个原则基本涵盖了机器翻...  相似文献   

17.
文章以人的发展立场审视人工智能教育应用的伦理问题,揭示出人工智能对人的想象力遮蔽的风险,并探讨未来教育的可能路径。文章采用文献研究和逻辑推理方法,指出想象力是人异于人工智能的重要能力,释放师生的想象是教育伦理的第一原则。以想象力为切入点,指出人工智能所形塑的虚拟景观、他者叙事、算法锁定和主奴互动遮蔽了人的真实体验、自我省思、意义生成、生命实践等,引发人的想象力退化的伦理风险。文章认为,人的想象是防止人与人工智能关系异化的关键,是人机协同不可或缺的要素。因此,未来教育应以释放想象为核心,从“以我为中心”的教育走向“以世界为中心”的教育,从注重“技术性”的教育走向强化“艺术性”的教育,从侧重“肯定性”的教育走向观照“否定性”的教育。  相似文献   

18.
人工智能赋能思想政治教育是智能科学应用技术发展的必然,为思想政治教育带来了广阔发展前景。但人工智能赋能思想政治教育的同时还隐匿着伦理风险,呈现出主体地位消解与情感疏离、算法推荐与学生个性发展异化、个人隐私泄露与权责不清等多方面的伦理风险样态。其生成原因在于其与相关主体的技术素养欠缺、人工智能算法技术自身的局限、伦理制度和政策法规的滞后等有着密切关联。为防范和规避这些风险,需要“以人为本”构建新型师生伦理空间、“以术为用”增强智能思政的技术治理、“以法为界”构建智能思政大数据责任伦理规制,推进做好人工智能赋能思想政治教育伦理风险的防范工作。  相似文献   

19.
面向未来人工智能时代的工程教育,建立一种人工智能伦理谱系是必要的,以此阐明人工智能伦理与工程伦理、传统伦理之间的联系和区别,为开展人工智能伦理教育提供支持.人工智能伦理谱系围绕着"人与机"关系展开,机器"质变"是划分人工智能伦理谱系层级的根本因素.当前人工智能处于"弱人工智能"阶段,不同的参与人群催生了不同类型的人工智能伦理问题.人工智能伦理谱系对未来工程教育和工程人才培养有重要意义,有助于发展"面向科技本身的人工智能伦理教育体系",探索"专业课+必修课"的新人工智能伦理课程体系,推动人工智能科技专家参与或主导编撰人工智能伦理教材,培育新型人工智能伦理教育观.  相似文献   

20.
人类诞生后,生物学意义上的进化就基本上停止了,自此,以人为界,好奇心推动科学,控制欲推动技术,启动了人类文明的演变图景.科学和技术的发展是由向外和向内两个向度展开的,向外由太阳系、银河系到宇宙;向内指向人类自身,由生命运动到意识运动,催生了人工智能.人工智能的类人属性,第一次动摇了以世界为舞台、人类为主角的社会活动剧幕,由此引发了人工智能伦理问题,当然也包括人工智能教育伦理问题.人工智能教育伦理问题是人类教育群体中植入类人,由于"演员"群体的转变而引发的问题,其主要议题包括类人的伦理问题、新的人与人行为准则的调整问题以及"演员"活动的舞台——人工智能教育场问题.人工智能教育伦理问题的规约应该以追求人类的福祉为宗旨,聚焦实践,主要从习俗迁移、规范构建、法律约束等方面着手.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号