您的位置:首頁»人工智能»正文

團隊操縱大數據+AI左右競選引輿論嘩然

一家名叫Cambridge Analytica的數據分析公司成了這兩天新聞的焦點, 他們使用大數據和AI分析Facebook用戶資料, 操縱輿論幫助特朗普競選。 研究早已發現, 機器能比人類更加精準地掌握人類的性格。 AI和大數據正在成為強大的政治武器, 假新聞、機器人水軍、AI換臉既成為一種技術現象,

也是一種社會現象, 是我們每個人都需要面對和思考的問題。

消息已經出來了:俄羅斯大選, 弗拉基米爾·普京輕松贏得了第四個任期, 對70%的得票進行抽查的結果顯示, 普京得票率為75.91%。

民意調查顯示, 普京的支持率遠遠超過其他對手, 當選可以說是早成定局。 然而, 針對俄羅斯的這場大選, 舞弊的質疑聲不絕于耳。 此前俄羅斯非政府研究機構利華達中心的一項調查結果, 有58%的選民計劃抵制這次選舉。 普京最有力的競爭對手, 也因欺詐罪被送入牢獄, 未能參加此次選舉。

另一邊廂, 美國的特朗普也不得安生。 關于他2016年操縱輿情當選總統的報道再一次飛滿天, 其中也包括他與俄羅斯勾結的可能。 美國這邊的輿論風暴更加猛烈, 而位于暴風中心的, 是一家數據分析公司, 以及這家公司使用的方法——人工智能。

這家叫做Cambridge Analytica的公司是這兩天全美關注的焦點。

公司內部人士走向前臺, 主動公開Cambridge Analytica非法獲取超過500萬Facebook個人賬戶信息, 然后使用這些數據構建算法, 分析Facebook用戶個性資料, 并將這些信息與他們的投票行為關聯起來。

算法和大數據兩相結合, 形成了一種強有力的政治武器, 讓競選團隊能夠準確識別在兩位候選人之間搖擺不定的選民, 并有針對性地制作和投放廣告。

根據這位吹哨人的表述, Cambridge Analytica使用這些非法得來的數據, 最終目標是“利用這個訓練集, 構建一個理解Facebook用戶個人資料的‘黃金標準’”。

大數據和AI在競選中的力量:機器能比人更加精準地掌握人類性格

Cambridge Analytica首席執行官Alexander Nix在2016年的一次演講中, 詳細闡述了這家公司的方法論:“我們推出了一個長表(long-form)量化工具來探究人格的基本特征。 如果你知道了目標人物的個性, 你就可以細化信息, 更有效地與這些關鍵群體產生共鳴。 ”

Cambrige Analytica CEO 在會上演講《大數據和心理分析在競選中的力量》

Cambridge Analytica通過收集到的數據——我們先把數據收集方法放在一邊——建立了模型, 并將其轉化為美國成年人的個性概況。 Nix聲稱, 他們“在美國每個成年人身上大約有4000或5000個數據點(data points)”。

他們模型的基礎, 是Michal Kosinski的心理測量學研究, Kosinski在2013年是劍橋大學的一名博士候選人(這也是Cambridge Analytica公司名字的由來)。 Kosinski和他的同事開發了一個模型, 將受試者在Facebook上的點贊(like)與他們的OCEAN分數聯系起來。 OCEAN是心理學家使用的一種調查問卷, 描述了五個維度的人格——開放(openness to experience)、自律(conscientiousness)、外向(extraversion)、隨和(agreeableness)和神經質(neuroticism)。

Cambridge Analytica公司將這種社會心理與數據分析結合起來。 他們從Facebook和Twitter收集數據, 并從第三方那里購買一系列其他的數據, 比如電視偏好、航空旅行、購物習慣、去教堂的頻率、訂閱的雜志等等。 然后, 他們將所有這些信息用于Nix所謂的“行為微觀定位”(behavioral microtargeting), 簡單說就是個性化廣告。

Cambridge Analytica使用心理測量學而不是根據人口統計來定制廣告,

以選民個人的情感內容為目標。 換句話說, 就是為了激發人類情感上的偏見而設計廣告。

這種方法成功與否, 或者有多成功, 取決于對人心理概況的掌握。 我們是否能夠根據社交網絡上的評論、留言和推文來了解一個人的心理狀況?

答案是肯定的。

Kosinski在他2016年接受采訪時, 談到了他的模型的預測能力。 “70個“喜歡”就足以超過這個人的朋友對他的理解, 150個就能超過他的父母, 300個超過伴侶, 更多的“喜歡”能讓模型比這個人本身都更了解他自己。 ”

或許這是Kosinski在王婆賣瓜, 但研究早已證實, 機器能比人類更加精確地判斷人類的性格特征, 這與社交認識能力無關, 一切都在大數據。

2015年發表了PNAS的一項研究表明, 計算機模型基于數字足跡對人物性格的判斷, 比親密的人(朋友, 家人, 配偶, 同事等)所作的判斷更準確和有效。 研究人員表示,

“我們的研究結果強調, 人的個性可以自動預測, 而不涉及人類的社會認知技能。 ”

利用AI和大數據控制公眾輿論:從假新聞到換臉, 初中高三級進階

將機器的這種預測能力與一群bot結合起來, 就成了更加強大的宣傳工具。 牛津大學互聯網研究所計算宣傳項目(Computational Propaganda project)負責人Samuel Woolley說:“控制一千個僵尸計算機帳戶的一個人, 不僅能夠影響他們直接圈子中的人, 還可能影響他們操作的網站的算法。 ”

這些技術可以捕捉到人們在某個特定時刻的想法, 并一次又一次地向他們提供服務。 不僅如此, 活躍在網絡中的bot能夠對Twitter和Facebook上的熱門話題做出迅速的反應, 生成有針對性的帖子、圖像, 甚至YouTube視頻。

隨著大數據和人工智能的發展, 利用相關技術開展社會學研究已經成為一種趨勢。 然而, 就如上文所說, 利用這些技術同時也能影響甚至操控人和社會本身。

牛津大學互聯網研究所計算宣傳研究項目(Computational Propaganda Research Project, COMPROP)就專門針對這種新的現象,調查算法、自動化和政治的相互作用。研究人員的工作包括分析如何利用社交媒體機器人等工具,通過放大或壓制政治內容、假情報、仇恨言論和垃圾新聞來操縱公眾輿論。

項目官網介紹:“我們使用組織社會學,人機交互,溝通,信息科學和政治科學的觀點來解釋和分析收集到的證據。 ”

新智元也簡單梳理了AI和大數據在總統競選中的應用。

初級篇:Fake News,制造假新聞在Facebook上傳播

2016年,特朗普當選總統,假新聞可謂助了一臂之力。

在整個競選期間,美國的充斥著大量的假新聞。BuzzFeed在2016年12月做的一項調查顯示,75%的美國人看到過假新聞。以其中一條假新聞為例,“調查希拉里郵件泄露門的FBI特工自殺-FBI Agent Suspected in Hillary Email Leaks Found Dead in Apparent Murder-Suicide (Fake)”這則新聞,有52%的希拉里支持者和85%的特朗普支持者認為是真的。

而假新聞的制造也有規律可循。

紐約時報曾披露,格魯吉亞一名22歲的計算機專業的學生,發現特朗普的新聞能夠為自己的網站帶來流量,于是他頻繁發布有關贊美特朗普、反希拉里的故事,做法常常只是簡單地剪裁和粘貼,有時會篡改標題,但主要是復制其他地方的材料,就是通常所說的“洗稿”。最終,使網站廣告銷量飆升。

當時,一些分析人士認為,美國假新聞可能跟外國情報機構干預美國政治影響選舉有關。不過《自然》最近發布的研究認為,2012年和2016年美國總統選舉期間,政治類假新聞的數量明顯增多,但假新聞主要由公眾分享,而非“機器人”賬戶自動傳播。公眾之所以更喜歡分享假新聞,是因為它更加聳人聽聞。

盡管如此,在傳播的過程中,Facebook成為重要的渠道,對假新聞的處置力度不夠,這也是馬克·扎克伯格年初放話“整頓”公司的原因。現在,Facebook改變了信息流的呈現方式,優先為用戶推薦好友的新聞。

除了假新聞外,機器人水軍也是為總統選舉造勢的一股力量。

2017年1月17日,Girl 4 Trump USA加入注冊了Twitter賬戶。一個星期之后的1月24日,她突然忙碌起來,每天平均發布1289條推文,其中許多是在支持總統特朗普的內容。當Twitter發現Girl 4 Trump USA是一個機器人的時候,“她”已經發布了34800次推特。

后來,Twitter發現了大量此類的用戶,這就是我們熟悉的“水軍”,在國內社交平臺上也經常見到。但Twitter無法阻止其平臺上的水軍機器人,而且后者的手段也越來越隱蔽。

中級篇:Fake Video,以假亂真,AI換臉變聲

去年,華盛頓大學的研究人員用神經網絡來觀看視頻,并將不同的音頻聲音轉換為基本的嘴形,根據音頻剪輯生成逼真的視頻,讓嘴巴的運動和音頻同步。

不過,這還不是最厲害的。

不久前,Reddit上一名叫deepfakes的用戶,創造一種機器學習算法,可以允許人們用簡單的視頻和開源代碼制作出一條假的色情視頻,并將原視頻的女主角“換臉”。

后來,deepfakes還開發出一款Fake APP,進一步把技術門檻降低到C端。

特朗普的臉換到希拉里身上

最后,由于技術太逆天以及違反道德,Reddit就把相應的社區封了。

除了制造假視頻,音頻也是AI技術不放過的領域。

聽聽奧巴馬說的這段話。

奧巴馬當然不會說中文,音頻后面的話并非奧巴馬自己說的,而是利用科大訊飛的語音技術合成而來。

高級篇:見微知著,看車能預測政治傾向

無論是假新聞也好,假視頻也好,都是下三濫的手段。真正把人工智能玩兒的爐火純青的,還是要實打實的能力。

2017年,李飛飛曾領導斯坦福研究人員,將人工智能的研究成果應用到人口統計學中:他們使用具有視覺和學習能力的算法分析了Google街景視圖上的數百萬個公開可用的圖像。研究人員說,只要看看街上的汽車,他們就可以利用這些知識來確定某個社區的政治傾向。

具體步驟是:

算法進行自我訓練,識別谷歌街景中來自200個美國城市的5000多萬份圖像中,自1990年以來生產的每輛汽車的樣式、型號和年份。

然后將有關汽車類型和位置的數據與當前最全面的人口數據庫、美國社區調查和總統選舉投票數據進行比較,以預測種族、教育、收入和選民偏好等人口因素。

最終,李飛飛及團隊發現了汽車、人口統計學和政治勸說之間存在著簡單的線性關系。簡單而言,如果一個社區的轎車數量大于皮卡的數量,那么該地區有88%的可能性會投票給民主黨。如果皮卡的數量大于轎車,則該選區投票給共和黨的可能性是82%。

人工智能改變政治生態:研究人員立場最關鍵

現在,這種機器人水軍、AI換臉既成為一種技術現象,也是一種社會現象。

如果僅僅從技術角度來看待用技術進行的宣傳,它就會被那些創造它的人、服務于它的平臺以及從中獲利的公司所掌控,也削弱了為改變社會價值和意義的程度,因此,大數據與人工智能研究對于理解技術宣傳對政治的影響是必要的。

與此同時,研究人員必須對正在使用和分析的數據保持一個關鍵的立場,以確保我們在描述、預測或推薦時進行能夠批評。如果對技術宣傳和政治大數據的研究不涉及到權力,那么提高社交媒體平臺在公共生活中的作用的可能性就會消失。

如果真的是那樣,那就到了終極篇——

COMPROP)就專門針對這種新的現象,調查算法、自動化和政治的相互作用。研究人員的工作包括分析如何利用社交媒體機器人等工具,通過放大或壓制政治內容、假情報、仇恨言論和垃圾新聞來操縱公眾輿論。

項目官網介紹:“我們使用組織社會學,人機交互,溝通,信息科學和政治科學的觀點來解釋和分析收集到的證據。 ”

新智元也簡單梳理了AI和大數據在總統競選中的應用。

初級篇:Fake News,制造假新聞在Facebook上傳播

2016年,特朗普當選總統,假新聞可謂助了一臂之力。

在整個競選期間,美國的充斥著大量的假新聞。BuzzFeed在2016年12月做的一項調查顯示,75%的美國人看到過假新聞。以其中一條假新聞為例,“調查希拉里郵件泄露門的FBI特工自殺-FBI Agent Suspected in Hillary Email Leaks Found Dead in Apparent Murder-Suicide (Fake)”這則新聞,有52%的希拉里支持者和85%的特朗普支持者認為是真的。

而假新聞的制造也有規律可循。

紐約時報曾披露,格魯吉亞一名22歲的計算機專業的學生,發現特朗普的新聞能夠為自己的網站帶來流量,于是他頻繁發布有關贊美特朗普、反希拉里的故事,做法常常只是簡單地剪裁和粘貼,有時會篡改標題,但主要是復制其他地方的材料,就是通常所說的“洗稿”。最終,使網站廣告銷量飆升。

當時,一些分析人士認為,美國假新聞可能跟外國情報機構干預美國政治影響選舉有關。不過《自然》最近發布的研究認為,2012年和2016年美國總統選舉期間,政治類假新聞的數量明顯增多,但假新聞主要由公眾分享,而非“機器人”賬戶自動傳播。公眾之所以更喜歡分享假新聞,是因為它更加聳人聽聞。

盡管如此,在傳播的過程中,Facebook成為重要的渠道,對假新聞的處置力度不夠,這也是馬克·扎克伯格年初放話“整頓”公司的原因。現在,Facebook改變了信息流的呈現方式,優先為用戶推薦好友的新聞。

除了假新聞外,機器人水軍也是為總統選舉造勢的一股力量。

2017年1月17日,Girl 4 Trump USA加入注冊了Twitter賬戶。一個星期之后的1月24日,她突然忙碌起來,每天平均發布1289條推文,其中許多是在支持總統特朗普的內容。當Twitter發現Girl 4 Trump USA是一個機器人的時候,“她”已經發布了34800次推特。

后來,Twitter發現了大量此類的用戶,這就是我們熟悉的“水軍”,在國內社交平臺上也經常見到。但Twitter無法阻止其平臺上的水軍機器人,而且后者的手段也越來越隱蔽。

中級篇:Fake Video,以假亂真,AI換臉變聲

去年,華盛頓大學的研究人員用神經網絡來觀看視頻,并將不同的音頻聲音轉換為基本的嘴形,根據音頻剪輯生成逼真的視頻,讓嘴巴的運動和音頻同步。

不過,這還不是最厲害的。

不久前,Reddit上一名叫deepfakes的用戶,創造一種機器學習算法,可以允許人們用簡單的視頻和開源代碼制作出一條假的色情視頻,并將原視頻的女主角“換臉”。

后來,deepfakes還開發出一款Fake APP,進一步把技術門檻降低到C端。

特朗普的臉換到希拉里身上

最后,由于技術太逆天以及違反道德,Reddit就把相應的社區封了。

除了制造假視頻,音頻也是AI技術不放過的領域。

聽聽奧巴馬說的這段話。

奧巴馬當然不會說中文,音頻后面的話并非奧巴馬自己說的,而是利用科大訊飛的語音技術合成而來。

高級篇:見微知著,看車能預測政治傾向

無論是假新聞也好,假視頻也好,都是下三濫的手段。真正把人工智能玩兒的爐火純青的,還是要實打實的能力。

2017年,李飛飛曾領導斯坦福研究人員,將人工智能的研究成果應用到人口統計學中:他們使用具有視覺和學習能力的算法分析了Google街景視圖上的數百萬個公開可用的圖像。研究人員說,只要看看街上的汽車,他們就可以利用這些知識來確定某個社區的政治傾向。

具體步驟是:

算法進行自我訓練,識別谷歌街景中來自200個美國城市的5000多萬份圖像中,自1990年以來生產的每輛汽車的樣式、型號和年份。

然后將有關汽車類型和位置的數據與當前最全面的人口數據庫、美國社區調查和總統選舉投票數據進行比較,以預測種族、教育、收入和選民偏好等人口因素。

最終,李飛飛及團隊發現了汽車、人口統計學和政治勸說之間存在著簡單的線性關系。簡單而言,如果一個社區的轎車數量大于皮卡的數量,那么該地區有88%的可能性會投票給民主黨。如果皮卡的數量大于轎車,則該選區投票給共和黨的可能性是82%。

人工智能改變政治生態:研究人員立場最關鍵

現在,這種機器人水軍、AI換臉既成為一種技術現象,也是一種社會現象。

如果僅僅從技術角度來看待用技術進行的宣傳,它就會被那些創造它的人、服務于它的平臺以及從中獲利的公司所掌控,也削弱了為改變社會價值和意義的程度,因此,大數據與人工智能研究對于理解技術宣傳對政治的影響是必要的。

與此同時,研究人員必須對正在使用和分析的數據保持一個關鍵的立場,以確保我們在描述、預測或推薦時進行能夠批評。如果對技術宣傳和政治大數據的研究不涉及到權力,那么提高社交媒體平臺在公共生活中的作用的可能性就會消失。

如果真的是那樣,那就到了終極篇——