近日,甘肃(sù)省平(píng)凉市公安局网安大队侦破一起利(lì)用AI人工智能技(jì)术炮制虚假不实(shí)信息的案件。
说(shuō)起(qǐ)来,这已不(bú)是ChatGPT第一次(cì)陷入(rù)假(jiǎ)新闻风波了。
问世(shì)伊始,便有人见识到其“一本正经胡(hú)说八道(dào)”的高超(chāo)本领(lǐng)。让解释高深物理理论,说(shuō)得有鼻(bí)子有眼,结果所附论文一(yī)查均无出处(chù);让推(tuī)荐(jiàn)相关领域学(xué)者,瞬间就有人选,可人(rén)物履历却是七拼八(bā)凑。
出于其“天(tiān)赋”的内容生成能(néng)力,ChatGPT似乎比从前的人工智能(néng)都更“聪明”,编出的内容(róng)往往形真实(shí)假、杂糅(róu)难辨(biàn)。
用ChatGPT编假新(xīn)闻
警方出手
4月25日,平凉市公安局崆峒分(fèn)局网安大队对“今晨甘肃一火车(chē)撞(zhuàng)上修路工人致(zhì)9人死亡”的文章,初步判断为信息(xī)虚假不(bú)实。
网安(ān)民警随(suí)即开展工作,发现共计21个账号均在同一时间段发布该(gāi)文(wén)章,文章内容地点(diǎn)除平凉(liáng)市崆峒区外(wài)还涉及兰州、陇南、定西、庆阳等地,文章点击(jī)量(liàng)已达1.5万(wàn)余次。
经查(chá),涉案账号均(jun1)为(wéi)广东深(shēn)圳某自媒体公司所有,公司法人代表洪(hóng)某弟有重大作(zuò)案(àn)嫌疑。
5月5日,专案民警在广东东莞(wǎn)嫌疑人住处对其使用的电脑(nǎo)进行取证。
经审讯,犯罪嫌(xián)疑人洪某弟(dì),在(zài)全网搜索(suǒ)近几年(nián)社会热点新闻,为(wéi)规避(bì)平台查重功能,洪某弟(dì)通过近期火爆的ChatGPT人工智能软件将(jiāng)搜集到的新闻要素(sù)修(xiū)改(gǎi)编辑后,上传至其(qí)多(duō)个账号进行(háng)非法获(huò)利。
洪某(mǒu)弟利用现代科技手段编造虚假信(xìn)息,并散布在互联网上(shàng),被大量传播浏览,其行为已涉嫌寻衅滋(zī)事(shì)罪。
目前(qián),崆峒公安分局(jú)对(duì)犯罪嫌疑人洪某弟采(cǎi)取刑(xíng)事强制措施,案件正在进一步(bù)侦(zhēn)办之中。
这(zhè)条假新闻也(yě)出(chū)自ChatGPT
此前,一条关于杭州3月1日取消限行的“新闻稿”,引(yǐn)发广泛传(chuán)播。但经记(jì)者(zhě)调查(chá)发现,这是一条不实新(xīn)闻。
据了解,2023年2月16日下午(wǔ),杭州某小区业主(zhǔ)群在讨论ChatGPT。一位业主就开玩笑说尝试用(yòng)它写篇杭州取(qǔ)消限(xiàn)行的新闻稿看看。
随后该业主在群里直播了ChatGPT写(xiě)作过程,还把文(wén)章(zhāng)发群里。有不明所以的(de)业主误将其当真并截(jié)图转发,最后导致错误信息被传播。
据(jù)了解(jiě),杭州相关政(zhèng)府部门均(jun1)没有发布此类政策,警方已介入调查(chá),涉事业主也(yě)在群里公(gōng)开道歉。
ChatGPT的(de)潜在(zài)风险
大型预训练(liàn)人工智能语言模型(xíng)ChatGPT在全球爆火。
此前,一(yī)家媒体与ChatGPT展开的“对话(huà)”中,就提(tí)到了“你会取代(dài)记者吗(ma)”这一问。对此,ChatGPT回复如下——
华中科技大(dà)学法学院(yuàn)副教授滕锐表示:
ChatGPT是大量不同(tóng)的数据集群训(xùn)练出来的语言模型,目前(qián)其(qí)背后(hòu)仍是“黑盒”结构(gòu),即无法确(què)切对其内在(zài)的算法逻辑进行(háng)分解,所以不能确保在使用ChatGPT的过程中,其所输出的内容(róng)不会产生攻击伤害(hài)用户的表(biǎo)述。
“如果ChatGPT的回复(fù)是错误或虚假信息,会具有极大(dà)的误(wù)导性,有潜在法律风(fēng)险。”在他(tā)看(kàn)来,ChatGPT难免存在一(yī)些(xiē)侵犯用户(hù)隐(yǐn)私的内容。此外,若回复中存在过度(dù)借(jiè)鉴(jiàn)他人作品(pǐn)的(de)情况,使用(yòng)不当就有可(kě)能侵犯他人的著作权。
值得注意的(de)是,目前,为了避免学生过于(yú)依赖人(rén)工智能类(lèi)工具,防止作弊,多(duō)国学校已(yǐ)经(jīng)发(fā)出禁令,禁止学生在学校内使用类(lèi)似于ChatGPT的人工(gōng)智能(néng)工具完成学习任务和考试。
面对科技(jì),多(duō)一些理性与冷静(jìng)
早有新闻(wén)可(kě)信度(dù)评估(gū)机构(gòu)提出,“ChatGPT可能成为互(hù)联网有史以(yǐ)来最强大的传(chuán)播虚假信息的工具。”也有一些实验表明,ChatGPT等个性化的实(shí)时聊天机器(qì)人在制造阴谋(móu)论方面甚至相比人(rén)类更具优(yōu)势,它能(néng)够修正糟(zāo)糕的语法或错误(wù)的翻译(yì),并变换表达方式,使阴谋论(lùn)显得更(gèng)具说服力和可信度。
一方(fāng)面(miàn)是超强的“造(zào)假能力”,而另(lìng)一方(fāng)面(miàn)却是(shì)相对缺失(shī)的“审核门槛”——在算法逻辑中,事实核查能力天然缺失,来(lái)源不明(míng)的所谓“新(xīn)闻稿”随时可能成为舆论爆点,大众在(zài)将(jiāng)信将疑中“且传且围观”。
乱(luàn)象频仍、真相缺失充分警示:面对这样(yàng)的超强生产能力,如若不(bú)加治理限制(zhì),任由人工智能随(suí)性(xìng)发(fā)展,必将严重(chóng)威胁我们(men)的信(xìn)息生态。
科技是一把双刃剑,人工智能也是(shì)如此。我们当然不必视之为(wéi)洪水猛(měng)兽,关键是在积极拥抱新技术、新事物的同时(shí),注意规避潜(qián)在的问题和风险。
人工智能浪潮滚滚而来,相关法律与伦理框架不仅不(bú)能落后,反(fǎn)而更要(yào)尽(jìn)量赶(gǎn)在前面。
目前,世界各国(guó)皆在开展(zhǎn)相关工作(zuò),以我国来说,今年1月《互(hù)联网信息服务深度合成管理规(guī)定》颁布实施;4月,国家网信办起(qǐ)草(cǎo)《生(shēng)成式人工智能服务管理办法(fǎ)(征求意见稿)》。相信随着法律法规的逐渐完善,相关权责(zé)会(huì)更加明(míng)晰(xī),操作规范会更加(jiā)具体。
与(yǔ)此同时,对待(dài)技术带来(lái)的新(xīn)问题,也(yě)要多多寻求(qiú)“技术(shù)解(jiě)”。比(bǐ)如,对于人工(gōng)智能(néng)合成的文章进行识(shí)别、并打上不可抹掉(diào)的标签。
ChatGPT在接受《时代》专访时曾回答:我(wǒ)还有很多局(jú)限,但人类应准备(bèi)好应对AI。确实,当为ChatGPT打开的新世界而激动万分(fèn)时,我们更应(yīng)该(gāi)有(yǒu)一丝理(lǐ)性的冷静。
构建人(rén)工智能应用的伦理(lǐ)和法律框(kuàng)架,让其(qí)与技术研发(fā)齐头并(bìng)进,规(guī)定好(hǎo)人工智(zhì)能缔造(zào)者的(de)义(yì)务,充分提醒(xǐng)用户保持(chí)警(jǐng)觉。“凡事预则立”,尽快做好(hǎo)方方面面的准(zhǔn)备工作,社会就能更(gèng)好(hǎo)应对“人工智能生产内容新纪元”。