來源:新智元編輯:Aeneas 好困> **【導讀】**有媒體爆料,早在去年,日本政府便開始用AI工具檢測與福島核污水排放的相關言論,並在幾小時內就能做出回應。這幾天,日本正式開始向太平洋排放核污染水的消息,引起了廣泛的關注。而就在排放之前,有媒體報導稱,日本政府從去年起便開始利用AI工具監控任何與福島核電站計劃排放核污水有關的言論。今年6月,該AI發現了一份韓國媒體的報導,聲稱日本外務省高級官員向國際原子能機構(IAEA)進行了巨額政治獻金。 短短幾個小時之內,日本政府便做出回應,同時用英文和日文駁斥該報導「毫無根據」。 根據Nikkei Asia此前的報導,日本外務省在2023年推出了一套全新的AI系統,用於收集和分析社交媒體等平台上的信息,以及在中長期內對公眾輿論影響的追踪。值得注意的是,該框架不僅包括面向日本受眾的信息,還包括其他國家和地區針對日本的信息。## **事件回顧**2011年3月,地震和海嘯摧毀了福島第一核電站的冷卻系統,導致三個反應堆中的核燃料熔毀,放射性物質不斷洩漏。隨之而來的大面積污染,迫使數万人撤離。為了抑制爆炸後過熱的反應堆堆芯,自那以後,已經有超過130萬立方米的海水被用於冷卻。這些受污染的水也被收集起來,並存儲在該場地上的1000多個不銹鋼儲罐中。在造成污染的64種放射性元素中,主要對人類健康構成威脅的放射性元素為:碳-14,碘-131,銫-137,鍶-90,鈷-60和氚-3。為了處理這些核污水,東京電力公司(TEPCO)採用了自行研發的先進液體處理系統(ALPS),過程分為共沉澱、吸附和物理過濾等五個階段。 然而,如此大量的水也讓持續的儲存變得越來越困難。2021年4月,日本政府正式批准將這些經過處理的核污水排入大海。儘管多個國家和國際組織對此表示擔憂,但這並沒有阻止日本對該計劃的推進。與此同時,日本外務省也開始使用AI來監控網上關於核污水中含有放射性物質的報導,並通過製作大量宣傳材料來稀釋這些信息的濃度。7月21日,日本外務省在推特上發布的一則動畫視頻,就用日語、英語、法語、西班牙語、俄語、阿拉伯語、中文和韓語,解釋了核污水處理過程中採取的安全防護措施。視頻解釋了工廠的水如何通過高級液體處理系統(ALPS)按照監管標准進行淨化。並且強調,在被釋放到更廣泛的海洋區域之前,排放的核污水已經被海水稀釋了100倍。## **AI監控言論**實際上,這種監控互聯網輿論的技術,在AI領域早已有了非常深入和廣泛的探索。其中最為熱門的,便是利用算法、機器學習模型和人工的組合來應對社交媒體中發布的「虛假新聞」。2018年的一項Twitter研究顯示,虛假新聞報導被人類轉發的可能性比真實新聞高70%。與此同時,真實新聞需要大約6倍的時間才能在1500人的群體中傳播,而且大部分時候的傳播範圍很少能超過1000人。相比之下,熱門的虛假新聞卻可以傳播到多達10萬人。 為此,Meta曾在2022年推出過一款全新的AI工具Sphere,用來確保信息的準確性。Sphere是第一個能夠一次性掃描數十萬引用,來檢查它們是否支持相應聲明的AI模型。 Sphere的數據集包括1.34億個公共網頁。它依靠互聯網的集體知識來快速掃描數十萬條網絡引用,以尋找事實錯誤。 Meta表示,Sphere已經掃描了維基百科上所有頁面,以此來檢測它是否能夠找出並不支持頁面中聲明的引用來源。當Sphere發現可疑來源時,就會推薦更強大的來源或更正,來幫助提高條目的準確性。 此前,就有不少AI系統能夠識別出缺乏引用來源的信息,但Meta的研究者表示,挑出可疑的說法並確定引用來源是否真正支持這種說法,需要「AI系統的深度理解和分析」 。Sphere的研發,標誌著Meta為解決平台上的錯誤信息所做的努力。幾年來,Meta一直因為Facebook、Instagram和WhatsApp上傳播的錯誤信息,遭受著用戶和監管機構的嚴厲批評。 CEO小扎甚至被召到國會面前討論這個問題。### **發現假新聞,探索社交媒體傳播模式**在歐洲,還有一個Fandango項目,他們在構建軟件工具,幫助記者和事實核查員檢測假新聞。 無論是PS還是DeepFake,Fandango的系統都可以對這些變化進行逆向工程,使用算法幫助記者發現被篡改的內容。另外,系統還會根據已經被事實核查員標記的假消息,尋找到具有類似詞語和觀點的網頁或者社交媒體帖子。 這個系統的背後,就是各種AI算法的支持,尤其是自然語言處理。 而瑞士盧加諾大學和英國倫敦帝國理工學院教授Bronstein,則採用一種非典型的AI方法來檢測假新聞。這個項目叫做GoodNews,顛覆了傳統的假新聞AI探測工具。 在以往,這些工具會分析假新聞特有的語義特徵,然而它們會經常遇到障礙,比如WhatsApp這類平台是加密的,並不允許訪問。另外,很多時候假新聞可能是圖像,使用自然語言處理技術很難進行分析。 因此,Bronstein教授的團隊顛覆了傳統的模型,轉而研究假新聞是如何傳播的。結果表明,假新聞在Facebook上的分享量可能遠遠多於點贊數,而普通帖子的點贊數往往多於分享量。通過發現這樣的模式,GoodNews就會將可信度分數附加到新聞項目上。 團隊的第一個模型使用基於圖形的機器學習,基於推特的數據訓練,上面的某些消息被記者證明是虛假的。由此,他們訓練了AI算法,教會模型哪些故事是假的,哪些不是。 ### **多模態DeepFake檢測,讓AIGC偽造無處可藏**除了單純的文本外,如Stable Diffusion等視覺生成模型的快速發展,也讓DeepFake問題愈發嚴峻。在多模態媒體篡改中,各類新聞報導的圖片中重要人物的人臉(下圖中法國總統人臉)被替換,文字中關鍵短語或者單詞被篡改(下圖中正面短語「is welcome to 」被篡改為負面短語「is forced to resign」)。 為了應對新的挑戰,研究人員提出了一種多模態層次化篡改推理模型,可以通過融合與推理模態間的語義特徵,來檢測到篡改樣本的跨模態語義不一致性。目前,該工作已被CVPR 2023收錄。 具體來說,作者提出了多模態層次化篡改推理模型HierArchical Multi-modal Manipulation rEasoning tRansformer(HAMMER)。此模型建立在基於雙塔結構的多模態語義融合與推理的模型架構上,並將多模態篡改的檢測與定位細粒度層次化地通過淺層與深層篡改推理來實現。 HAMMER模型具有以下兩個特點:1. 在淺層篡改推理中,通過篡改感知的對比學習(Manipulation-Aware Contrastive Learning)來對齊圖像編碼器和文本編碼器提取出的圖像和文本單模態的語義特徵。同時將單模態嵌入特征利用交叉注意力機制進行信息交互,並設計局部塊注意力聚合機制(Local Patch Attentional Aggregation)來定位圖像篡改區域;2. 在深層篡改推理中,利用多模態聚合器中的模態感知交叉注意力機制進一步融合多模態語義特徵。在此基礎上,進行特殊的多模態序列標記(multi-modal sequence tagging)和多模態多標籤分類(multi-modal multi-label classification)來定位文本篡改單詞並檢測更細粒度的篡改類型。實驗結果表明研究團隊提出的HAMMER與多模態和單模態檢測方法相比,都能更準確地檢測並定位多模態媒體篡改。   從多模態篡改檢測和定位的可視化結果來看,HAMMER可以準確地同時進行篡改檢測與定位任務。 此外,關於篡改單詞的模型注意力可視化結果,進一步展示了HAMMER是通過關注與篡改文本語義不一致性的圖像區域來進行多模態篡改檢測和定位。 參考資料:*******
核污水排海引熱議!日政府被曝出動AI 武器,實時監控全網「虛假信息」
來源:新智元
編輯:Aeneas 好困
這幾天,日本正式開始向太平洋排放核污染水的消息,引起了廣泛的關注。
而就在排放之前,有媒體報導稱,日本政府從去年起便開始利用AI工具監控任何與福島核電站計劃排放核污水有關的言論。
今年6月,該AI發現了一份韓國媒體的報導,聲稱日本外務省高級官員向國際原子能機構(IAEA)進行了巨額政治獻金。
值得注意的是,該框架不僅包括面向日本受眾的信息,還包括其他國家和地區針對日本的信息。
事件回顧
2011年3月,地震和海嘯摧毀了福島第一核電站的冷卻系統,導致三個反應堆中的核燃料熔毀,放射性物質不斷洩漏。隨之而來的大面積污染,迫使數万人撤離。
為了抑制爆炸後過熱的反應堆堆芯,自那以後,已經有超過130萬立方米的海水被用於冷卻。
這些受污染的水也被收集起來,並存儲在該場地上的1000多個不銹鋼儲罐中。
在造成污染的64種放射性元素中,主要對人類健康構成威脅的放射性元素為:碳-14,碘-131,銫-137,鍶-90,鈷-60和氚-3。
為了處理這些核污水,東京電力公司(TEPCO)採用了自行研發的先進液體處理系統(ALPS),過程分為共沉澱、吸附和物理過濾等五個階段。
2021年4月,日本政府正式批准將這些經過處理的核污水排入大海。
儘管多個國家和國際組織對此表示擔憂,但這並沒有阻止日本對該計劃的推進。
與此同時,日本外務省也開始使用AI來監控網上關於核污水中含有放射性物質的報導,並通過製作大量宣傳材料來稀釋這些信息的濃度。
7月21日,日本外務省在推特上發布的一則動畫視頻,就用日語、英語、法語、西班牙語、俄語、阿拉伯語、中文和韓語,解釋了核污水處理過程中採取的安全防護措施。
視頻解釋了工廠的水如何通過高級液體處理系統(ALPS)按照監管標准進行淨化。並且強調,在被釋放到更廣泛的海洋區域之前,排放的核污水已經被海水稀釋了100倍。
AI監控言論
實際上,這種監控互聯網輿論的技術,在AI領域早已有了非常深入和廣泛的探索。
其中最為熱門的,便是利用算法、機器學習模型和人工的組合來應對社交媒體中發布的「虛假新聞」。
2018年的一項Twitter研究顯示,虛假新聞報導被人類轉發的可能性比真實新聞高70%。
與此同時,真實新聞需要大約6倍的時間才能在1500人的群體中傳播,而且大部分時候的傳播範圍很少能超過1000人。相比之下,熱門的虛假新聞卻可以傳播到多達10萬人。
Sphere是第一個能夠一次性掃描數十萬引用,來檢查它們是否支持相應聲明的AI模型。
當Sphere發現可疑來源時,就會推薦更強大的來源或更正,來幫助提高條目的準確性。
Sphere的研發,標誌著Meta為解決平台上的錯誤信息所做的努力。
幾年來,Meta一直因為Facebook、Instagram和WhatsApp上傳播的錯誤信息,遭受著用戶和監管機構的嚴厲批評。 CEO小扎甚至被召到國會面前討論這個問題。
發現假新聞,探索社交媒體傳播模式
在歐洲,還有一個Fandango項目,他們在構建軟件工具,幫助記者和事實核查員檢測假新聞。
另外,系統還會根據已經被事實核查員標記的假消息,尋找到具有類似詞語和觀點的網頁或者社交媒體帖子。
這個項目叫做GoodNews,顛覆了傳統的假新聞AI探測工具。
另外,很多時候假新聞可能是圖像,使用自然語言處理技術很難進行分析。
結果表明,假新聞在Facebook上的分享量可能遠遠多於點贊數,而普通帖子的點贊數往往多於分享量。通過發現這樣的模式,GoodNews就會將可信度分數附加到新聞項目上。
由此,他們訓練了AI算法,教會模型哪些故事是假的,哪些不是。
除了單純的文本外,如Stable Diffusion等視覺生成模型的快速發展,也讓DeepFake問題愈發嚴峻。
在多模態媒體篡改中,各類新聞報導的圖片中重要人物的人臉(下圖中法國總統人臉)被替換,文字中關鍵短語或者單詞被篡改(下圖中正面短語「is welcome to 」被篡改為負面短語「is forced to resign」)。
目前,該工作已被CVPR 2023收錄。
此模型建立在基於雙塔結構的多模態語義融合與推理的模型架構上,並將多模態篡改的檢測與定位細粒度層次化地通過淺層與深層篡改推理來實現。
在淺層篡改推理中,通過篡改感知的對比學習(Manipulation-Aware Contrastive Learning)來對齊圖像編碼器和文本編碼器提取出的圖像和文本單模態的語義特徵。同時將單模態嵌入特征利用交叉注意力機制進行信息交互,並設計局部塊注意力聚合機制(Local Patch Attentional Aggregation)來定位圖像篡改區域;
在深層篡改推理中,利用多模態聚合器中的模態感知交叉注意力機制進一步融合多模態語義特徵。在此基礎上,進行特殊的多模態序列標記(multi-modal sequence tagging)和多模態多標籤分類(multi-modal multi-label classification)來定位文本篡改單詞並檢測更細粒度的篡改類型。
實驗結果表明研究團隊提出的HAMMER與多模態和單模態檢測方法相比,都能更準確地檢測並定位多模態媒體篡改。