近年來,隨著人工智能技術的蓬勃發展,偽造照片和影片的技術也越來越先進,已經超越了人類的視覺辨識能力。無論是政治宣傳、假新聞,或是欺詐性的網路詐騙,都可能利用這些高品質的數位造假來誤導大眾,這無疑是一個嚴重的社會問題。
作者指出,最近一年半以來,我們似乎已經無法完全相信自己的眼睛。PhotoShop 的修圖技術固然已經存在很久,但人工智慧生成的假影像(deepfake)則將此問題提升到了一個全新的層次。2023 年教宗穿著時尚白色羽絨服的 viral 照片可能是最早引起廣泛關注的案例,之後類似的高品質數位造假不計其數。隨著人工智慧技術的進一步發展,我們可以預期將在不久的將來看到更多逼真的假影像和假影片。
這種情況無疑會加劇假新聞和相關圖像的問題。不肖分子可能會用照片來誤導公眾,比如把一個事件的照片斷章取義地說成是另一個事件的。他們還可能把從未謀面的人合成在同一張照片上。
影像和影片造假對網路安全也有直接影響。詐騙分子多年來一直利用假照片和影片來欺騙受害者掏錢。他們可能會發送一張可憐小狗的照片,聲稱需要幫助;或是一張某名人在推崇某項不正當活動的照片;甚至是一張自稱屬於你認識的人的信用卡照片。另外,詐騙分子也會使用人工智慧生成的圖像,在社交媒體和約會網站上冒充他人進行網路釣魚。
最精密的詐騙手段則是利用深度偽造(deepfake)技術製作受害者老闆或親屬的假影片和聲音,來操縱受害者為他們做事。最近就有一名金融機構的員工被騙轉移了2500萬美元給網路罪犯,他們設計了一個與"首席財務官"和"同事"的視訊通話,全都是深度偽造。
那麼,我們如何應對這些深度偽造或一般的數位造假呢?如何檢測它們的真偽?這是一個非常複雜的問題,但是可以通過逐步追蹤圖像的來源來緩解。
首先,並非所有的假圖像都是從頭製作的。有時候,真實的圖像被用在了令人誤解的地方,比如一張戰區的真實照片被說成是另一場衝突的照片,或是一個電影場景被當成紀錄片的畫面。在這種情況下,檢查圖像本身的異常並不太管用,但我們可以嘗試在網上搜索這張圖像的副本。幸運的是,我們有 Google 反向圖像搜索和 TinEye 這樣的工具,可以幫助我們做到這一點。
如果你對某張圖像有任何疑問,只需將其上傳到這些工具中,就能看到它在網上出現的其他場景。你可能會發現,那張被稱為是家庭因火災而流離失所,或是收容所裡的狗狗,又或是其他災難受害者的照片,實際上早就在網上流傳多年了。顺便提一下,除了圖像本身,在假募捐的情況下,還有其他一些值得注意的警示信號。
總的來說,在這個日新月異的數位時代,我們需要不斷提高警惕,培養自己的辨別能力,才能不被假影像和虛假信息所欺騙。除了掌握一些基本的驗證方法,我們還需要提高社會整體的媒體識讀能力,共同維護真相和公平。只有這樣,我們才能在資訊泛濫的時代保持清醒的頭腦,不受虛假信息的蒙蔽。
詳情請看: