人工智(zhì)能(Artificial Intelligence,AI)发轫于20世纪50年代,至今(jīn)已经(jīng)历了三(sān)次发展浪潮,不管是实验(yàn)室阶段还是大规模产业化阶段,研究者(zhě)们几十年如一日不变(biàn)的(de)都是推(tuī)进其技术的(de)进步,希望机器真的有(yǒu)一天能具有一般人(rén)类智(zhì)慧(huì),执行全方位的人类认(rèn)知能力。
近年来,为了(le)让AI更加健康发展,有(yǒu)一项技(jì)术领(lǐng)域正在(zài)成为产业(yè)界和学术界研究的重点(diǎn):可信AI,即将人类社会的正(zhèng)面价值观,通过技术赋予到(dào)人工智(zhì)能上,包括可解(jiě)释、公平性、隐私(sī)保护和公平性(xìng)。
从学术研(yán)究层面(miàn)来说,可信AI主要是针对算法和系统层面的研(yán)究(jiū),包括安全性/鲁棒性(xìng)、可解释性、隐私性、公平性、可审计性/问责性、环境保护。可解释性包括学习方法或模型(xíng)的理论可解释(shì)、算法(fǎ)可解释(shì)、行为可解(jiě)释;鲁棒(bàng)性(xìng)主(zhǔ)要针对模(mó)型(xíng)稳定性研究、攻击(jī)模型和防守模型;隐私保护指的是攻击与保护方法直(zhí)接的博(bó)弈,如差分隐私(sī)、多中心联邦学习;公平(píng)性针对的是各种数(shù)据、模型(xíng)的(de)偏置研(yán)究,平等和公正的平衡;而环(huán)保指的是寻(xún)求高能效策略,更高(gāo)能效的计算硬件。
与可信AI学(xué)术研究不同,企(qǐ)业更多是针对(duì)当下的问(wèn)题(tí),提出解决方案(àn)。如(rú)2015年,蚂蚁集团启动基于“端特征”的手机丢失风险研究项目,旨(zhǐ)在用AI技术保护用户的隐私(sī)安全(quán)。为了解决了AI中的公平性(Fairness),IBM于2018年开发了多个AI可信工具,在AI系统中(zhōng)采用不带偏见的数据集和模型,从而避免对特定(dìng)群(qún)体(tǐ)的不公(gōng)平(píng)。产业界对可信(xìn)AI的应用(yòng)加(jiā)更(gèng)加苛刻(kè),容错(cuò)率更高。很(hěn)多可信AI白皮(pí)书提到,可信AI真正(zhèng)落地起来,需要放到生产流(liú)程里面,让其成为一种机制,发挥(huī)技术的(de)约束作用。
青年学生是重要的技术(shù)人才储备(bèi)。对于研究可信AI的青年学生来说,对从事可信AI怎么准(zhǔn)备,在他们现在(zài)的学习和生(shēng)活中(zhōng),就(jiù)应了解学术的前沿,以及业界最新技术(shù)趋势,思考(kǎo)哪些技术可以应用到哪些(xiē)问(wèn)题(tí)上,主动(dòng)观察了解所处的世界,以及业界的(de)需求痛点和技(jì)术(shù)瓶颈。比如(rú),最近一档可信AI实战科技真人秀,就联动了全(quán)国一些顶尖高校,通过可信(xìn)AI在工业界“科技反诈”当(dāng)中的(de)应用(yòng),还(hái)原了可信AI技术在实际应用中的能(néng)力(lì),把学术界和产业界正(zhèng)在做的(de)事,通过大家(jiā)都能理解的形式打通起来,让技术从业(yè)者、技术(shù)研究者都深度(dù)参与其中(zhōng)。
做(zuò)AI研究,“复杂(zá)度”是一个关键词。环(huán)境(jìng)复杂度、任务复杂度、系(xì)统复杂度决定了(le)AI的水平。对它的研究可以揭示AI产生原(yuán)理,也可以回答AI的(de)终(zhōng)极问题,即对人类命运的最终影响。未(wèi)来可信AI研究(jiū),也要从复杂度分析来看AI为人类带来(lái)的价值,更需要学界和产业界共同(tóng)努力来推动。