据英国(guó)《卫报》报(bào)道,曾撰(zhuàn)写过(guò)一(yī)本有关人工智能的权威教(jiāo)科书的(de)美国(guó)科学家(jiā)表(biǎo)示,在(zài)将人工智能的进步比作原子弹技术的(de)发展时,专(zhuān)家们被自己在(zài)该领(lǐng)域的成就“吓坏了”。
美国加州(zhōu)大学伯(bó)克利分校人(rén)类兼容(róng)人(rén)工智能中心(CHAI)的创始人(rén)斯(sī)图尔(ěr)特·拉塞尔(ěr)(Stuart Russell)教授表示,大多数专家认为本(běn)世纪就(jiù)会开发(fā)出比人(rén)类更聪明的机器,并呼吁制(zhì)定一些国际条(tiáo)约来规(guī)范这一技术的发展。
他对《卫(wèi)报》表(biǎo)示,人工智能界还没有适应(yīng)人工智(zhì)能技术开始(shǐ)在现实世(shì)界中产生(shēng)真正的重大影响的事实。但是,在人(rén)工智能(néng)历史上,过(guò)往(wǎng)大多(duō)数(shù)时候都不(bú)是(shì)这样的——专家只是待在实验室里开(kāi)发产(chǎn)品,试图让这些产品发挥作用,但大多数(shù)情况下都失(shī)败了。因此,人工智能对现实世界的影响与(yǔ)科学家并没(méi)有太大联系,所以科学家必须快(kuài)速成长、赶上潮流。
人工智能支(zhī)撑着现代(dài)生活的许多(duō)方面,包括搜索引擎和银(yín)行(háng)业(yè)务等,而在图像识(shí)别和机(jī)器翻译领域所(suǒ)取得的进步是近年来的重要发展之(zhī)一。
拉塞尔在1995年合著了《人工智能(néng)技术:一种现代方(fāng)法》一书。他表示,在(zài)紧迫的关键领域仍需要确保人类对有超常智慧的人工智能(néng)的控制(zhì)权(quán)。
他指出(chū),人工智能是用一种特定的方法和某(mǒu)种通用方法(fǎ)进行设计的,而在(zài)复杂的现(xiàn)实(shí)环境(jìng)中使用(yòng)这种系(xì)统仍然不够谨慎。
例如(rú),要求人(rén)工智能尽快(kuài)治愈癌症可能会有危(wēi)险。拉塞尔认为,它可能会找到在(zài)整(zhěng)个人类中诱发肿瘤的方(fāng)法,这(zhè)样它就可(kě)以(yǐ)并行进(jìn)行数百万个实验,把我们所有人(rén)都当作实验品。这是因为人工智(zhì)能(néng)在执行我们所设定目标(biāo)的解决(jué)方案;但我(wǒ)们只是忘了作具体(tǐ)说明,忘了告诉人工智能不能把人类当作实验(yàn)品(pǐn)、不能用全世界的GDP来(lái)完(wán)成(chéng)人(rén)工(gōng)智能实验,以及其他的禁忌等。”
他还表(biǎo)示,如今的人工智能(néng)技术与《机械(xiè)姬》等电(diàn)影(yǐng)中描(miáo)述的技术仍有很大差(chà)距,但未来的机器势必会比(bǐ)人类更聪明。
拉塞尔认,为这一目标最快可以在10年(nián)内(nèi)实现,慢(màn)则(zé)需要长达几(jǐ)百年的光阴。不过,几(jǐ)乎所有人工智能研究(jiū)人员都认为这将一展(zhǎn)望将在本世纪得以(yǐ)实现。
一个担忧(yōu)的(de)问题是(shì),机器不需要在所有方面都比人(rén)类更(gèng)聪明,否则会带来严重(chóng)的风险。拉塞(sāi)尔表(biǎo)示,这是目前科学(xué)家们(men)正在做的事情。如(rú)果了(le)解一下社交媒体和(hé)那些通过计(jì)算给人们推送(sòng)阅(yuè)读和观看内容的算法(fǎ),就会知(zhī)道它们(men)在很大程(chéng)度上控制着(zhe)我们(men)的认知输(shū)入。
他表示(shì),结果就是算法操纵(zòng)着用户,不停(tíng)地给他们洗脑,这样算(suàn)法就可以预测用户的(de)行为和(hé)喜好,所推送的(de)内(nèi)容也会(huì)获得更多的点赞(zàn)及收(shōu)入。
以于人工智能(néng)研究人员是否(fǒu)被自(zì)己的成就(jiù)吓到(dào)的(de)问题,拉(lā)塞尔(ěr)明(míng)确表示,“是的(de),我认为(wéi)我们的(de)恐惧正与日(rì)俱(jù)增”。
这让拉塞尔想起了在物理学领(lǐng)域发生(shēng)的事情:物理学家知道原子能的存在,他们可以(yǐ)测量出(chū)不同原子的(de)质量,还可以计算出在不同类型的原子之间进行转换可以释(shì)放多少能量。但是,专家(jiā)们总是强调这(zhè)些(xiē)想(xiǎng)法只是理(lǐ)论(lùn)上的。随后当原子能真正运用到实际生活中时,这(zhè)些(xiē)专家(jiā)还没有准备好。
拉(lā)塞尔(ěr)表示,人工智能在军事领域上的应(yīng)用,比如(rú)造(zào)小(xiǎo)型杀(shā)伤性武器(qì)等(děng),十分令人(rén)担忧。这(zhè)些武器是可以量产的(de),这意味着可(kě)以在一辆卡车上安装一百万个小型武(wǔ)器(qì),之后你打开(kāi)后车厢让它驶离,就足(zú)以摧毁整座(zuò)城市。
拉塞尔认为,人工智能的未来在于(yú)开发出一种机器,知道(dào)真正的目(mù)标是不确定(dìng)的,就好像(xiàng)人们(men)的偏(piān)好(hǎo)也是不确定的一样。这(zhè)意味(wèi)着它们在(zài)做出(chū)任何决定时都必须与人类进行沟通(tōng),而(ér)不是像(xiàng)管家一(yī)样自行决定。但是,这个(gè)想法很复杂,尤其是因(yīn)为(wéi)不(bú)同的人有不同的、或相(xiàng)互(hù)冲突的偏好,而这些偏好不是固定的。
拉塞尔呼吁人(rén)们采(cǎi)取(qǔ)措施,包括制定研究人员行为准则、立法(fǎ)和(hé)条约,以确保使用的人工智(zhì)能(néng)系(xì)统的(de)安全,还(hái)应该培训研究人员来确保人工智能免遭种族偏见(jiàn)等(děng)问题(tí)的影(yǐng)响。他表示,欧(ōu)盟禁止(zhǐ)机(jī)器(qì)模仿人类的相(xiàng)关立(lì)法应该在世界(jiè)范围内实施(shī)。
他(tā)希望让公众参与到(dào)这些(xiē)选择中来是(shì)很重要的,因为公众才是最终受(shòu)益与否的对象。
另一方面,在人(rén)工智能领域取得进步需要(yào)一段时间才能实现,但这也不会让人工智能变(biàn)成科幻小说。