在美國前總統(tǒng)特朗普“預(yù)告”可能于2023年3月21日被捕后,近日,幾張?zhí)乩势赵诩~約街頭遭警察圍捕的圖片在美國社交網(wǎng)絡(luò)上瘋傳。雖然外媒很快辟謠稱,這些照片只是由人工智能(AI)生成的圖像,并非真實(shí)照片。但由于圖片太過以假亂真,不但騙到了不少美國網(wǎng)民,也開始被一些有心之人利用。
除了特朗普,俄羅斯總統(tǒng)普京、美國總統(tǒng)拜登等人也同樣“中招”。有人擔(dān)心,AI技術(shù)的顛覆性發(fā)展和大規(guī)模應(yīng)用很可能導(dǎo)致社交媒體被虛假信息“淹沒”。當(dāng)大量AI生成的圖片和視頻扭曲了人們對現(xiàn)實(shí)的認(rèn)知時(shí),會(huì)發(fā)生什么?
特朗普被捕,有圖有真相?
據(jù)特朗普此前預(yù)告,他將于3月21日被捕,呼吁支持者舉行大規(guī)??棺h。
但21日過去了,不僅特朗普沒被捕,原定于22日舉行的特朗普“封口費(fèi)”案件的大陪審團(tuán)閉門聽證也遭取消。未來,特朗普是否將受到刑事指控,“懸疑”仍將持續(xù)。
就在案件推進(jìn)的過程中,近日,多張?zhí)乩势毡蛔凡兜膽騽⌒詧D片卻在社交網(wǎng)絡(luò)上瘋傳。
在其中一張圖片中,特朗普在前面跑得氣喘吁吁,執(zhí)法人員在后面緊追不舍。
圖片截圖自推特,為AI合成圖像
另一張圖片中,特朗普被多名紐約市警察圍捕,被抓住雙手摁倒在地,場面十分混亂。
圖片截圖自推特,為AI合成圖像
這些圖片是怎么來的?據(jù)悉,大部分“特朗普被捕”相關(guān)圖片都由開源信息調(diào)查網(wǎng)站Bellingcat創(chuàng)始人、英國獨(dú)立記者艾略特·希金斯(Eliot Higgins)發(fā)布。
近日,希金斯讀到特朗普或被逮捕的文章,他靈機(jī)一動(dòng),想將這一事件“可視化”。為此,希金斯在AI繪圖工具M(jìn)idjourney上輸入相應(yīng)提示詞,比如“特朗普在被捕時(shí)摔倒。新聞報(bào)道畫面?!彪S后,他將AI生成的圖像發(fā)布在社交媒體推特上,并在帖子中寫道:“在等待特朗普被捕時(shí),制作了特朗普被捕的圖片?!?/span>
圖片截圖自推特,為AI合成圖像
“我只是在胡鬧而已,我以為大概也就5個(gè)人會(huì)轉(zhuǎn)發(fā)?!毕=鹚拐f。但兩天之后,該推文瀏覽量已突破500萬次,并且仍在不斷增加。受到大量關(guān)注后,希金斯還如法炮制了一系列圖片,給“特朗普被捕”事件補(bǔ)上了一系列后續(xù)——被捕、入獄、受審、獄中生活、越獄、跑去麥當(dāng)勞大吃一頓。
以上圖片均截圖自推特,為AI合成圖像
其中,幾張?zhí)乩势铡拌F窗淚”的照片也得到網(wǎng)友大量轉(zhuǎn)發(fā)。
圖片截圖自推特,為AI合成圖像
對于個(gè)人形象被處理成“假照片”,特朗普本人似乎不以為意。相反,他還親自下場,在“真相社交”上分享了一張自己正在祈禱的AI合成圖像。
圖片截圖自推特,為AI合成圖像
以假亂真的AI圖像
對于這些圖片,美國媒體很快進(jìn)行了辟謠,一些互聯(lián)網(wǎng)“原住民”和AI愛好者也很快辨明真?zhèn)巍?span style="text-indent: 2em;">然而,人們不得不承認(rèn),隨著AI技術(shù)的不斷更迭,這些圖像正變得越來越以假亂真。
希金斯上傳的圖像在經(jīng)由他人重新發(fā)布后,很快騙到了大群美國網(wǎng)友。有人在轉(zhuǎn)發(fā)時(shí),配上“突發(fā)新聞:特朗普今晨在曼哈頓被捕”、“震驚!特朗普被逮捕并押往聯(lián)邦監(jiān)獄”等文字。還有人在圖片下提問:“為什么特朗普被捕的事沒上新聞?”
對此,美聯(lián)社認(rèn)為,雖然處理照片和合成圖像的能力并不新鮮,但近年來,隨著AI技術(shù)的不斷升級,Midjourney、DALL-E等圖像生成工具正變得更易使用。用戶只需提供一個(gè)簡單的文字提示,這些工具就能迅速生成以假亂真的圖像,背景中往往還包含大量令人信服的細(xì)節(jié)。
近日在網(wǎng)絡(luò)引發(fā)熱議的圖像,都是由2023年3月Midjourney發(fā)布的最新版文-圖模型生成的。該版本最“出圈”的一點(diǎn)在于,能夠高度模仿新聞機(jī)構(gòu)的照片。
對此,美國《福布斯》雜志網(wǎng)站稱,AI生成圖像現(xiàn)在已開始出現(xiàn)“危險(xiǎn)信號(hào)”。
過去,AI在生成人手方面特別困難。有時(shí)候,圖像上會(huì)出現(xiàn)缺失的、扭曲的四肢,以及多余的手指和牙齒,讓人感到詭異甚至恐怖。但那已經(jīng)是過去式了,大部分情況下,更新版本的Midjourney已能夠生成正常的手部。
不過,如果仔細(xì)觀察“特朗普被捕”的圖片,仍能發(fā)現(xiàn)多余的四肢、畸形的手、特朗普身上不合理的警察腰帶等。寫實(shí)風(fēng)格的AI圖像也會(huì)有一種不自然的光澤和質(zhì)感,看上去就像是把濾鏡和美顏開到了最高一檔。
圖片細(xì)節(jié)仍失真,截圖自推特
然而,《福布斯》指出,在“假新聞”海嘯中,這些細(xì)節(jié)很難被察覺。這些AI生成中的小錯(cuò)誤,也能夠很容易地用PS等軟件掩蓋。
“假照片”泛濫,會(huì)發(fā)生什么?
分析人士認(rèn)為,隨著越來越多AI合成的假照片和視頻“淹沒”社交媒體,真實(shí)和虛假間的界限將會(huì)變得更加模糊。“在大量制作虛假但可信的圖像方面,AI正在向前邁出巨大一步?!比藱?quán)組織Witness的執(zhí)行董事山姆·格雷戈里(Sam Gregory)說。
實(shí)際上,除了特朗普被生成AI圖像,其他名人和政客也未能幸免。比如,一些俄羅斯總統(tǒng)普京受審的虛假圖像正在網(wǎng)上流傳,還有網(wǎng)友將美國總統(tǒng)拜登的“假照片”做成了“梗圖”或其他圖像。美國參議員沃倫的假音頻和美國前眾議長佩洛西的虛假視頻也在網(wǎng)上流傳。
圖片截圖自推特,為AI合成圖像
對此,人們不禁發(fā)出疑問:過去說“無圖無真相”,但現(xiàn)在,有圖也不一定有真相。未來,當(dāng)AI生成的大量照片和視頻扭曲了人們對現(xiàn)實(shí)的共同認(rèn)知,屆時(shí)將會(huì)發(fā)生什么?
“(AI圖像)在危機(jī)事件期間增加了噪音,也增加了人們憤世嫉俗的程度。”美國華盛頓大學(xué)教授杰文·韋斯特(Jevin West)認(rèn)為,人們將開始對整個(gè)系統(tǒng)和接觸到的信息失去信任。
《福布斯》則認(rèn)為,“假照片”的泛濫將加劇偏見。面對大量難辨真假的圖像,很多人可能只會(huì)相信符合自己偏見的信息,且將真實(shí)的證據(jù)視作虛假。AI很可能成為有心人的工具,并擴(kuò)大潛在受害者的范圍。
對此,專家認(rèn)為,提高公眾意識(shí)、加強(qiáng)相關(guān)教育將是打擊虛假AI圖像的最佳方式。韋斯特就表示,制作這些圖像變得如此容易,成本如此低廉,應(yīng)該盡一切努力讓公眾了解這項(xiàng)技術(shù)的進(jìn)步。
此外,在監(jiān)管方面也需加大力度。
《華盛頓郵報(bào)》稱,目前在利用AI制造和傳播虛假信息的問題上,仍缺乏企業(yè)標(biāo)準(zhǔn)和政府監(jiān)管。比如,雖然因“特朗普被捕”圖像,希金斯的賬號(hào)被Midjourney封禁,但該公司并未告知其違反了哪些規(guī)定。
專注于新興技術(shù)研究的卡內(nèi)基國際事務(wù)倫理委員會(huì)研究員阿瑟·霍蘭德·米歇爾(Arthur Holland Michel)稱,他擔(dān)心世界還沒有為即將到來的“洪水”做好準(zhǔn)備。米歇爾指出,涉及普通人的偽造圖像將更難受到監(jiān)管,“從政策角度來說,我不確定我們是否準(zhǔn)備好應(yīng)對如此大規(guī)模、涉及社會(huì)各階層的虛假信息。要終止這一局面,可能將需要迄今無法想象的技術(shù)突破?!?/span>
本網(wǎng)站及其公眾號(hào)為公益性網(wǎng)絡(luò)平臺(tái),所發(fā)圖文僅供傳播信息、介紹知識(shí)、說明問題之用;相關(guān)版權(quán)歸原作者所有,轉(zhuǎn)載請務(wù)必注明出處和作者。
稿件一經(jīng)選用,即視為作者同意本網(wǎng)免費(fèi)將其使用于本網(wǎng)或與本網(wǎng)有合作關(guān)系的非贏利性各類出版物、互聯(lián)網(wǎng)與手機(jī)端媒體及專業(yè)學(xué)術(shù)文庫等。
由稿件引起的著作權(quán)問題及其法律責(zé)任由作者自行承擔(dān)。
了解更多動(dòng)態(tài),請掃描二維碼,關(guān)注我們的微信公眾號(hào):