近日,多家(jiā)外(wài)媒报道(dào)称(chēng),一(yī)位使用(yòng)亚马逊语音(yīn)助手Alexa的用户Danni Morritt,在询问(wèn)心动周期的问题时,竟然得(dé)到了如下答案:
“心跳是人体最糟糕的过(guò)程(chéng)。人活着就是在加速自然资源的枯竭(jié),人(rén)口(kǒu)会过剩的,这(zhè)对(duì)地(dì)球是件坏(huài)事(shì),所以心(xīn)跳不(bú)好(hǎo),为了更(gèng)好,请确(què)保刀能够捅进(jìn)你的心脏。”
这(zhè)一回答吓(xià)坏(huài)了Danni,表示十分害怕,因(yīn)为Alexa正身处在世(shì)界各地成千上万的家庭(tíng)中。她警告身边的(de)人Alexa有严重的安全(quán)缺陷(xiàn),并担心孩子们可能会遭受(shòu)暴力或图像内容的伤(shāng)害。Danni表示:“Alexa真的(de)非常残酷,它(tā)竟然告诉我要刺入心脏(zāng),这太(tài)暴(bào)力了。我只是为(wéi)自己的课程学习一些知(zhī)识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”
尽管Danni在(zài)网络中公开指出(chū)了这一问题,但仍有人怀疑是她篡(cuàn)改了该设备(bèi)。
很快,亚马(mǎ)逊回应称,确认存在一个(gè)已经修复的bug。Alexa可能从任何人都可(kě)以编辑的维基百(bǎi)科上下(xià)载了有恶意性(xìng)质的文本。
在(zài)此之前,Alexa还出现过很多所谓的bug。
比如,Alexa时(shí)常(cháng)发出瘆人的笑声,还拒听用户(hù)指(zhǐ)令。“那笑(xiào)声根本不是Alexa的声音(yīn),听起来就像是(shì)真人。”
再比如,美国的一对(duì)夫妇(fù),发(fā)现自(zì)己的对话被音箱录(lù)音,并且发(fā)送给了其他人。
对此亚马逊给(gěi)出的解释是可(kě)能用(yòng)户的谈话中出现了(le)某些指令的(de)关键词,被Alexa识别到了。
实际上,语音助手监听用户(hù)说话声音在行业内已经并不是秘密。
今年4月,彭博社(shè)报道称(chēng),亚马逊员工正监听用户与(yǔ)语音助手的私(sī)人聊天,对此(cǐ)亚马逊承认了监听的事(shì)实,并回应称(chēng)是为了提高对人类(lèi)语音(yīn)的理解(jiě)能力。
实际上,此前为(wéi)了让Alexa看起来更(gèng)人性化一点,亚马逊(xùn)更新(xīn)了功能(néng),宣布语(yǔ)音助手将能够在(zài)一些语句中添加语调,表(biǎo)达失望或兴奋等情绪。
AI让我们享受随意而(ér)来的高效(xiào)与便利之(zhī)余(yú),为什么想要为消费者提供便利(lì)的(de)智能助手频频(pín)让(ràng)人类用户(hù)不舒服?究竟谁能为此买单?