<li id="rnldf"></li>
<label id="rnldf"><fieldset id="rnldf"></fieldset></label>
    <small id="rnldf"><strong id="rnldf"></strong></small>

    1. <strike id="rnldf"></strike>
    1. <samp id="rnldf"></samp>
      亚洲国产精品久久无人区,亚洲中文字幕一区二区,亚洲一区二区av免费,JIZZJIZZ亚洲无乱码,欧洲免费一区二区三区视频,国内熟妇与亚洲洲熟妇妇,国产超碰人人爽人人做人人添,视频一区二区三区刚刚碰
      AI時代 眼見還為實嗎
      來源:經濟參考報作者:褚怡2026-03-23 08:33
      字號
      超大
      標準
      AI學會了模仿人的筆跡、復刻人的聲音、合成人的面容,這類技術一旦被惡意利用,會令人“眼睜睜”地被騙。這不禁讓人懷疑,AI時代,眼見還為實嗎?

      視頻電話那頭,出差在外的“伴侶”焦急地索要轉賬;班級群里,“班主任”用熟悉的聲音發布緊急繳費通知……如今,在人工智能(AI)的加持下,普通人也能在幾分鐘內生成足以以假亂真的內容。AI學會了模仿人的筆跡、復刻人的聲音、合成人的面容,這類技術一旦被惡意利用,會令人“眼睜睜”地被騙。這不禁讓人懷疑,AI時代,眼見還為實嗎?

      AI造假侵入公共記憶

      近期,一段“以色列士兵躲在墻后痛哭”的視頻在社交媒體平臺X上廣泛傳播。發布者稱以軍在伊朗火箭彈和無人機襲擊下遭受重創,該視頻播放量迅速突破160萬。德國電視二臺調查發現,該視頻系典型的AI生成產物。視頻中士兵佩戴的徽章時隱時現,上面的文字更是一串毫無意義的亂碼。多名網友也指出,視頻中制服樣式、哭聲音效和槍械細節都與真實場景存在明顯偏差。

      生成式工具進入新聞報道流程后,專業新聞機構的把關機制同樣面臨考驗。2月,德國電視二臺緊急召回并解職了該機構一名駐紐約記者,因為其發回的一則關于美國移民與海關執法局執法行動的報道中,混入了一段由視頻生成模型Sora生成的虛假視頻,畫面角落清晰可見Sora水印。事件發生后,德國電視二臺宣布為員工開設強制性培訓課程,規范AI工具在新聞報道中的使用。“漠視新聞準則造成的損害是巨大的。這關乎報道的公信力。”德國電視二臺總編輯貝蒂娜·紹斯滕說。

      AI造假甚至侵入歷史記憶。今年年初,達豪、布痕瓦爾德等約30家德國集中營紀念機構和博物館聯合簽署一封公開信,敦促社交媒體平臺嚴厲打擊利用AI生成大屠殺相關內容的行為。德國歷史學家伊麗絲·格羅舍克說,利用AI生成的圖像和視頻看起來像極了歷史照片——黑白底色,骨瘦如柴的人,鐵絲網后呼號的孩子……但仔細看就會發現異常,這類圖像和視頻中的人長相相似,身高相仿,而且都非常漂亮。

      “AI讓納粹受害者變得更年輕漂亮,這種美化扭曲了歷史,卻利用公眾同情心獲得廣泛傳播。”格羅舍克說,這類偽造的帖子會削弱紀念館、檔案館、博物館和研究機構工作的權威性,損害它們的公信力。

      操縱制造“社會共識”

      比偽造內容更危險的,是AI可以偽造“多數人的意見”。一個國際團隊近期在美國《科學》雜志“政策論壇”欄目發表文章說,數字操控正進入新階段。散布虛假信息的不再只是單個賬號,而是偽裝成真實用戶的AI集群。這類集群能夠彼此互動、回應真人、適應情緒變化,并在不斷相互附和和強化中制造出一種并不存在的“社會共識”。

      德國康斯坦茨大學研究人員達維德·加西亞解釋說,這類AI集群由一組可被個人或組織控制的AI智能體構成。它們擁有相對穩定的身份和記憶,能夠模擬人類行為,既可以圍繞特定目標協同行動,也能夠根據實時事件和用戶反饋調整表達方式。這類AI集群與早期的僵尸網絡有著顯著區別,后者通常行為機械,較容易識別;而前者可以跨平臺運行,并通過彼此呼應不斷放大影響。

      加西亞認為,真正的風險將不再局限于個別虛假信息,而是“操縱者”可能借助大模型虛擬出“另一種社會”。他說:“AI集群可以通過緩慢而持續的過程,制造某種立場已獲廣泛支持的假象,進而影響人們的觀點甚至改變社會規范。當許多看似彼此獨立的聲音不斷表達相同立場時,多數派的錯覺就會形成,即使這種多數原本并不存在。”

      從被動辟謠到主動識別

      面對這種可以偽造“社會共識”的新威脅,研究人員和機構已經開始行動,利用技術手段予以識別,并通過健全監督機制,及時鑒別和揭露虛假信息和內容。

      加西亞認為,應利用模式識別等技術手段,檢測內容傳播中是否存在異常同步、相互呼應和跨平臺聯動,以更快發現由AI驅動的群體性操縱。

      除了技術識別,研究人員還主張建立獨立監督機制,持續觀察AI智能體如何在不同平臺上影響公共討論,及時揭露虛假內容。加西亞說,這類網絡越早被揭露出來,就越難侵蝕公眾信任,也越難把原本多樣的社會意見偽裝成單一共識。

      德國人工智能研究中心(DFKI)和萊茵蘭-普法爾茨州政治教育中心等機構日前推出尚處于測試階段的深度防偽檢測工具,以提高公眾對可疑內容的識別能力。與僅依賴像素異常識別偽造痕跡的傳統方法不同,該工具不僅會對圖像和音頻進行取證分析,還會結合上下文展開交叉核驗。后臺的AI智能體會并行檢索網絡信息,并調用經過核實的事實資源庫輔助判斷,包括德新社事實核查團隊提供的數據。

      DFKI在新聞公報中說,用戶只需點擊兩下,就能將社交媒體上的可疑圖片轉發給檢測系統,系統隨后會分析相關材料是否由AI生成或經過篡改,并向用戶反饋其為虛假內容的可能性以及相應線索。

      萊茵蘭-普法爾茨州政治教育中心主任伯恩哈德·庫卡茨基說,虛假信息已成為當前信息傳播中的突出問題,公民每天都可能接觸到被操縱的內容,因此辨別和核驗信息的能力尤為重要。

      責任編輯: 陳勇洲
      聲明:證券時報力求信息真實、準確,文章提及內容僅供參考,不構成實質性投資建議,據此操作風險自擔
      下載"證券時報"官方APP,或關注官方微信公眾號,即可隨時了解股市動態,洞察政策信息,把握財富機會。
      為你推薦
      用戶評論
      登錄后可以發言
      網友評論僅供其表達個人看法,并不表明證券時報立場
      發表評論
      暫無評論
      時報熱榜
      換一換
        熱點視頻
        換一換