米兰官方网页版-米兰MiLan(中国)







  • 咨询热线:021-80392549

    米兰官方网页版-米兰MiLan(中国) QQ在线(xiàn) 米兰官方网页版-米兰MiLan(中国) 企业微信
    米兰官方网页版-米兰MiLan(中国)
    米兰官方网页版-米兰MiLan(中国) 资讯 > 人(rén)工智能 > 正(zhèng)文

    人工智能伦(lún)理风险要怎样消除(chú)

    2021/04/08中国教(jiāo)育报(bào)388

    人工智能正(zhèng)在成为国际(jì)竞争的新焦点,同时也(yě)为人(rén)类社(shè)会(huì)带来了新(xīn)的发展(zhǎn)机遇。机器学习、自然(rán)语言处理、情感(gǎn)计算、虚拟现(xiàn)实等技(jì)术(shù)的迅猛发展,不仅为(wéi)学生获取更高质量(liàng)的教育体验提供了有力支撑,也有(yǒu)助于进(jìn)一步(bù)扩展教师自由发展的空间。但(dàn)与此同时,智能导师系统、智能(néng)数据(jù)挖掘等人工智能技术在教育应用中面临众多伦(lún)理问题,例如(rú)数(shù)据泄露、公共(gòng)安全、恶(è)意(yì)竞争等。

    人工智能(néng)

    人工智(zhì)能(Artificial Intelligence,简称AI)是计算机科学(xué)的一部分,包括研(yán)究、开发(fā)用于模拟、延伸(shēn)和扩展(zhǎn)人的智能的理论、方(fāng)法、技术及应用系(xì)统(tǒng)等方面(miàn)。教育人工智能伦(lún)理(lǐ)则是(shì)用(yòng)以(yǐ)规范教(jiāo)育(yù)人工智能(néng)开发及应用过程中关系、行为的道(dào)理及准则。

    教育人工智能(néng)虽具备强大的数据整合与分析(xī)能力(lì),但同时也会(huì)引发一系列新的伦(lún)理(lǐ)风险,系统(tǒng)来看,其主要(yào)体现在以下四个方面。

    其一,信息安全。人(rén)工智(zhì)能助力教育教学(xué)的同时,不仅为师生发展创造(zào)机(jī)遇,也(yě)产生了海量教育数据如个人身份信(xìn)息(xī)、行(háng)为轨迹、学习偏(piān)好等。若此类(lèi)数据并未得以有效保护或(huò)者被非(fēi)法使用(yòng),则会引发一(yī)系列信息安全问题,例(lì)如个人(rén)隐私资料(liào)被恶意泄露及不正当(dāng)使用、电子(zǐ)邮件的恶意推送(sòng)、非法(fǎ)电(diàn)子监(jiān)控、网络(luò)诈骗、数据侵权等,师生的隐私权利在人工智(zhì)能透视镜下(xià)将变(biàn)得十分(fèn)脆弱。

    其(qí)二,目标冲突。教(jiāo)育人工智能的(de)目标冲突风(fēng)险主要由人工智能开发商(shāng)、用户(hù)的(de)基本目(mù)标不一致所产生的。对私营部门(mén)来说,由(yóu)于商业(yè)利益(yì)至上的理念根深蒂固(gù),可能(néng)会依托人工(gōng)智(zhì)能(néng)技术工具过度追逐私利。而且,不少教育人工智能设计(jì)者与开发(fā)者缺乏致力于(yú)“教(jiāo)育公共服(fú)务(wù)”的责(zé)任意(yì)识,欠缺对教育成长的(de)价值关(guān)怀。若(ruò)人工智能开发商、学校管理团队未在人工智能的教育应用方(fāng)面达成目(mù)标共(gòng)识,则师生自身利(lì)益难以(yǐ)得到长期(qī)的有效(xiào)保障。

    其(qí)三(sān),缺乏制度约束。当(dāng)前,用于约束教育(yù)人工智(zhì)能开(kāi)发与应(yīng)用的制(zhì)度体系尚未健(jiàn)全,教育(yù)用(yòng)户的合法权益难以得到有效保障。而且,专业制(zhì)度约束体系的缺位、失位及错(cuò)位成为导致教育人工(gōng)智能不道德行为(wéi)出现的(de)重要因素(sù)。若缺乏有效的技术标(biāo)准与“强制性(xìng)”法律手段加以规约,教育人工智能的设计(jì)开发与实践(jiàn)应(yīng)用可(kě)能(néng)会逐(zhú)渐偏(piān)离教育价值与人文立场。应对违反(fǎn)教育人工(gōng)智(zhì)能伦(lún)理规范的行为与举措实施问(wèn)责与制裁,以(yǐ)便合(hé)理规约(yuē)人(rén)工智能开发人员、教育用户等(děng)人(rén)的行为。

    其四,过度资源依赖。当前(qián),机器学习和算法推荐虽(suī)然可实现教学资源的个性化推送,但这(zhè)种看似公平(píng)合理的人工智能应用(yòng),隐含着不为人知的算(suàn)法歧视与技术偏向,可能导致学生(shēng)所获取的教学(xué)资源高度同质化(huà),学生逐(zhú)渐形成资源依赖,不(bú)愿跳脱(tuō)僵(jiāng)化思维(wéi),进而影(yǐng)响了学生(shēng)视野的开(kāi)阔及创新发展(zhǎn)。而且,教(jiāo)师(shī)也(yě)可能为节省自身时间(jiān)及工(gōng)作成本,过(guò)度依赖(lài)人工(gōng)智能推送的(de)教学资源,丧失自(zì)身对(duì)于(yú)教育教学的独特理解及思考。

    理清(qīng)相关伦理风险的(de)消(xiāo)解路径(jìng),有利于促使教(jiāo)育能(néng)够合(hé)乎(hū)道德地利用(yòng)人工(gōng)智能机遇,并实现公平和道(dào)德的(de)教育决策。

    第一,注重(chóng)智(zhì)能时代师生信息素(sù)养培育。首(shǒu)先,需注(zhù)重师生信息分(fèn)辨力培育(yù)。学校应引导师生对于信息(xī)资源获取及(jí)筛选、信息伦理风险等问题的理解(jiě)与思考,增(zēng)强师生信息分辨能力。其次,关注师生信息反馈力培育(yù)。学校应引导师生合理反馈人工智能的信息安全、伦理、舒适感问题,并构建畅通的(de)信息反馈渠道,以(yǐ)便(biàn)持续改善人工智能的(de)教育应用成效。

    第二,完(wán)善教(jiāo)育人工(gōng)智(zhì)能(néng)算法(fǎ)审查及(jí)决(jué)议(yì)机制(zhì)。首(shǒu)先(xiān),应(yīng)注重构建人工智能算法的审查机制。人工(gōng)智能算法的运行偏(piān)差有可能(néng)持(chí)续存在,甚至会被放大。应制定有关(guān)人工智能算法培(péi)训和测试(shì)的基本规(guī)范与安全协议,对人工(gōng)智能算法模型的(de)前提假设(shè)进行教育本质层面的剖析,尤其(qí)应审查教(jiāo)育(yù)人工智(zhì)能算法系统是否包含算法歧(qí)视与滥用问题,以(yǐ)便能最大限度保障(zhàng)用户(hù)数据(jù)及信息的精确性、隐私(sī)安全以及伦(lún)理规范。其次,需明确人工智能教育应用(yòng)方案的决议机制(zhì)。政(zhèng)府、学(xué)校(xiào)、企(qǐ)业等均需秉承集(jí)思广(guǎng)益的决策原(yuán)则,鼓励不同意见的提出与开放讨论,思(sī)考通过某种形式的投票与评价来决定(dìng)教育人(rén)工智能应用(yòng)的最优(yōu)决(jué)定,致力于实现教(jiāo)育公共利益诉(sù)求的合理满足。

    第三,加强人工智能及数(shù)据的法规监管。当前教育人工智能发展暴露出众多技术及数据失范问题,因此(cǐ),要完善智能(néng)技术及教(jiāo)育(yù)数(shù)据(jù)风(fēng)险问责机(jī)制(zhì),实(shí)现智能技术(shù)及数据的(de)规(guī)范监管。首(shǒu)先,可尝试制(zhì)定及(jí)颁布具有法律约束(shù)力的(de)教育人工智能法规,规范技术开发及应用的伦(lún)理责任(rèn),非(fēi)法开发、使(shǐ)用(yòng)及销售人工智能的行为将面临法律后果(guǒ)及责任。其次(cì),注重教育人工(gōng)智能应用过程中的数据监管(guǎn),构建(jiàn)专业的(de)数据(jù)隐私监(jiān)管组(zǔ)织或(huò)机构。隐私监(jiān)管组织或(huò)机(jī)构应在某项人工智能技术推广应(yīng)用之前,评估该技(jì)术(shù)的数据安(ān)全(quán)情况,避(bì)免非(fēi)法(fǎ)分享和(hé)使用数据(jù)。

    第四,加(jiā)强教育人(rén)工智能伦理风险排查与评(píng)估(gū)。实(shí)现(xiàn)有道德的教育人(rén)工智能,不可仅仅依靠技术(shù)改进,还应采用“系统化思想”审视与排查教(jiāo)育(yù)人工智(zhì)能的(de)伦理(lǐ)风(fēng)险,这对于最大化保障教育(yù)公共利益是至关(guān)重要的。教(jiāo)育人工(gōng)智能伦(lún)理风险的存在(zài)不(bú)仅涉(shè)及开(kāi)发(fā)阶段,也(yě)涉及生产和分销阶段。除了确保教育人工智能设计(jì)的安全性外,还应仔细评估智能算法(fǎ)伦理风险、教育数(shù)据伦(lún)理(lǐ)风险等的危害等级,以(yǐ)便及时制定教育人工智能伦理风险化解方案。

    第五,构建校本化教育人工智能伦理规范体系。校本化的教育人(rén)工智能伦理规范体系(xì)必须高(gāo)度公正且具有可解释(shì)性,明确规(guī)定(dìng)人工智能在(zài)学校应用的基本要求(qiú)、审查程(chéng)序及伦理(lǐ)规范,并对技术开发商(shāng)、学(xué)校管理人员等人在(zài)教育人工智能伦理监(jiān)管的职责、权利和义务予以合理划(huá)分与限定。学校管理(lǐ)人员可(kě)基于学校(xiào)层面教育人工智能伦理规范体(tǐ)系(xì),为人工智能在学校教育中的(de)应用(yòng)设置许(xǔ)可(kě)权限。若某项人工智能技术在应用中产生了重大伦理风险,则应根据(jù)伦理(lǐ)风险的(de)评估等级(jí)对人工(gōng)智能的应用(yòng)许可权限(xiàn)进行适当限制。

    关键词(cí): 人工智能




    AI人工(gōng)智能网声明:

    凡资讯来源注明为其他媒体来(lái)源的信息,均为(wéi)转载自其他媒体,并不代表本网(wǎng)站赞(zàn)同其观点,也(yě)不代(dài)表本网站对其真实性负责。您(nín)若对该文章(zhāng)内容有任何疑(yí)问或质疑,请立即(jí)与网站(zhàn)(www.fartooclub.huaibei.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系,本网站将迅速给您(nín)回应并做(zuò)处理。


    联系电话:021-31666777   新(xīn)闻、技术文章投(tóu)稿QQ:3267146135   投(tóu)稿邮箱(xiāng):syy@gongboshi.com

    精选(xuǎn)资讯更多

    相(xiàng)关资(zī)讯更多

    热门搜索(suǒ)

    工博士人(rén)工智能网
    米兰官方网页版-米兰MiLan(中国)
    扫描(miáo)二维码关注微(wēi)信
    扫(sǎo)码反馈(kuì)

    扫一扫,反(fǎn)馈当(dāng)前页面

    咨询(xún)反(fǎn)馈(kuì)
    扫码关注

    微信公众号

    返回顶部

    米兰官方网页版-米兰MiLan(中国)

    米兰官方网页版-米兰MiLan(中国)