portant;" />
3 月 18 日(rì),斯坦福以人(rén)为本 AI 研究院(Stanford HAI)成立了(le)。斯坦福利用 HAI 评估智能机器对人类生活所造(zào)成(chéng)的影响,包括机器(qì)自动化取代了(le)部分人力工作,算法引起的性(xìng)别和种族偏见,医疗(liáo)、教育和(hé)司法系统中存(cún)在的(de) AI 问题。在研究院的发布会(huì)上,联合(hé)主任李飞(fēi)飞强调了 HAI 需要秉持“以人为本”的初衷,提出了(le)三点(diǎn):
1)发展 AI 的过(guò)程中必(bì)须考虑 AI 对人类社会的影响;
2)AI 的应用是为了赋(fù)能(néng)人类,而非取代人类;
3)人工智能应该更多融(róng)入人类智慧的多(duō)样性、差异性和深度(dù)。
技术飞速发展,人工智能对教(jiāo)育、科技(jì)、卫生(shēng)和可持(chí)续发展等方面都(dōu)起了关(guān)键性助力作(zuò)用。但同(tóng)时,人工智能也给人类提出(chū)了一系(xì)列复杂的挑战。关于(yú)上述三个(gè)原则,李飞飞希望:智能(néng)机器(qì)更加以人为本,怀(huái)有善意。
什么是“以人为本”?
根据李飞(fēi)飞(fēi)提到的(de)三点原(yuán)则进行解读。第一点,作为技术的发明者(zhě),人类应该正确的引(yǐn)导(dǎo)AI的发展,更(gèng)好地服务人类。比如(rú)在数据安全(quán)、隐(yǐn)私(sī)保(bǎo)护、社会(huì)伦理、知识产(chǎn)权等各(gè)个问题上,由世界性的权威组织制(zhì)定严(yán)格的(de)标准和法规,减少AI带来(lái)的潜在的威胁,这已(yǐ)经基本达成共(gòng)识(shí)。
关于第二点(diǎn),自人工(gōng)智能诞生以(yǐ)来,“人类会不会(huì)被AI取代(dài)”、“AI会不会毁灭世界”等(děng)耸(sǒng)人听闻的问题时常被提起。作为一项技(jì)术,AI应(yīng)当是中(zhōng)性的,技术是用来服务人(rén)类的。从大的(de)方(fāng)向来看,AI不断进(jìn)化它(tā)的判断和感知技能,在比较简单、重复(fù)性(xìng)、危险性的工作上帮助人类,而人类的能(néng)力可以更加专注于更高层(céng)次的人物,偏向创造(zào)性和(hé)感性的部分,最终(zhōng)更有意义(yì)。
最(zuì)后,近年来,AI发展出了计算机视觉、语音识别等能力,但(dàn)在实际生(shēng)活中,AI远远落后于神经元、人(rén)类智能的丰富和灵活性(xìng)。例如(rú),阿尔法狗击败了世界冠军,但它无(wú)法(fǎ)从(cóng)胜利中感受(shòu)到喜悦,也不会在胜利后产生拥抱(bào)心所爱之人的渴望。例如,AI可以(yǐ)在一张(zhāng)照(zhào)片中得知图片中的内容是什么,但是不能轻易识别图片背后的故事的因果关系。人工智能需(xū)要变得更有情(qíng)感意识,加强对(duì)情感(gǎn)和情绪(xù)的认知,不仅能够(gòu)捕捉对人的情感,更需(xū)要让机器跟人进行情感的(de)表达。
人性化AI无处不在(zài)
portant;" />
我(wǒ)国的人工智能正处在快速发展的时期(qī),技(jì)术攻(gōng)关和(hé)产业应用近几年(nián)来发展势头迅猛,目(mù)前已经被广泛应用(yòng)于语音识别(bié)、计(jì)算机视觉、机器人(rén)、语言处理等(děng)领(lǐng)域,代表性产品包(bāo)括旷视科技(jì)的“FaceID在线人脸身份验证”、极链科(kē)技的“VideoAI视频应用系统”、优必选的“个人智(zhì)能机器人悟空”等(děng)。随着AI更加深(shēn)度、多样性,具有(yǒu)情感的细腻,将在产业应用中带来(lái)更多维度的发展。
例如,使用情(qíng)感AI帮助(zhù)人们(men)利用强(qiáng)大的技术建立与其他人(rén)的联(lián)系在医疗行(háng)业(yè)已经逐步应(yīng)用。在自闭症这一医学难症中,AI技术能够实现(xiàn)与自(zì)闭症儿童(tóng)进行反馈,集成反馈的数据,为定制治(zhì)疗方案提供(gòng)支撑。利用AI机器可以促(cù)进自闭症儿童(tóng)和日常(cháng)接(jiē)触(chù)人(rén)之间的沟通,教会自闭症的(de)人读懂(dǒng)他人细微(wēi)的情(qíng)绪;另外,还(hái)能够帮助(zhù)身边的(de)人(rén)更好(hǎo)的识别自闭症儿童情绪。
AI在听说读写、推理等方面的(de)能力(lì)、效率和(hé)准(zhǔn)确(què)度持续提升,也(yě)可以为视觉、听觉、感知、学习、行动能力有所不便的人群,打造出人工智能应用和产(chǎn)品(pǐn)。例如(rú),利用微软的人工智能技术和认知服务中的Microsoft Translator 服务,实现自动语音识别解决方案,可以帮助听力受损人群无障碍沟通。AI技术有希望(wàng)帮助(zhù)世界各地超过10亿残障人(rén)士,打造一个完整(zhěng)、平等、便利的世界。
类似的应用在教育场景(jǐng)下,AI也能(néng)发(fā)挥无限量的(de)作用。AI可以通过学(xué)生(shēng)的面(miàn)部表情和姿势(shì)对情绪作出有根据的判(pàn)断,衡量每个学(xué)生(shēng)的理解程序,可(kě)以帮助老师因材施教。
人类准(zhǔn)备好了吗?
portant;" />
随着人类越(yuè)来(lái)越依赖于机器智能,我们的责任观(guān)念将会变成(chéng)什么样?人工(gōng)智能的生(shēng)成物是否为作品,是否有著作权的(de)问题?自动驾驶的安全性(xìng)、责(zé)任(rèn)认定等法律问题不断涌现,人工(gōng)智(zhì)能(néng)干(gàn)预的事故应(yīng)当如何定责?甚至是否(fǒu)赋予机器人以虚拟的“法律主体资(zī)格”?还有很多重(chóng)要的应(yīng)用领域,如安防(fáng),如果系统出现原(yuán)则性决策失(shī)误,如何判定?如(rú)何(hé)让(ràng)人工智能(néng)可解释、可说明?
智能机器触发的人们对隐(yǐn)私、安全的担忧(yōu),该如何规(guī)避?AI的大幅度(dù)应用对就业的影响该如(rú)何权衡?在人工智(zhì)能不断走进生活的(de)过程中(zhōng),人类(lèi)真的准备(bèi)好了吗(ma)?
这(zhè)需要(yào)政策制定者、法律学者、伦理学家(jiā)、科学家,大家一起寻(xún)找答案(àn)。但现状很(hěn)显然(rán),人工智能安(ān)全健康发展法规和(hé)伦理道德研(yán)究尚且不足(zú),相(xiàng)应的(de)法律法规以及道德(dé)规范(fàn)要求(qiú)还不健全(quán),我们(men)还不能有效防范(fàn)控制潜在的安(ān)全风险。科学(xué)向善,AI以(yǐ)人为(wéi)本,我们需要考虑的(de)事情还很多。
小结:
与所有颠覆性技术一样,新一代人工(gōng)智能具有高度(dù)的不(bú)确定性,可能有很长的一段时(shí)间是(shì)不完美的(de),需要政府、社会、企业共同努(nǔ)力,规(guī)范人工智(zhì)能的发展。但有一点(diǎn)是很肯(kěn)定的,技(jì)术的产生,是(shì)为了让(ràng)人类生活的(de)更好,我们要帮助AI更加(jiā)人性(xìng)化,拥有更好(hǎo)的未来。