Netflix 紀錄片《智能社會:進退兩難》講的都是真的?真實測試 ...

文章推薦指數: 80 %
投票人數:10人

有研究指出,全世界的YouTube 用戶一天在YouTube 上觀看由「演算法」所推薦的影片時數高達7 億小時,身為網路重度使用者的你知道「演算法Algorithm」 ... Skiptomaincontent有研究指出,全世界的YouTube用戶一天在YouTube上觀看由「演算法」所推薦的影片時數高達7億小時,身為網路重度使用者的你知道「演算法Algorithm」是怎麼運作的嗎?演算法會放大人類最糟的行為嗎?演算法會如何影響我們世界觀?社群媒體的演算法是否讓世界更糟糕?今天GQ科普長知識單元就要跟著科技雜誌《Wired》的主持人SineadBovell來探討演算法運作的模式以及它對我們的影響,她將與對演算法有深入研究的專家學者對談,包括一位曾經參與打造YouTube演算法程式的工程師、一位前Google設計倫理學家、以及一位牛津大學的教授。

但在與他們對談之前,我們先發揮實驗精神,看看我們提供給演算法的資訊,將推薦什麼東西給我們。

SineadBovell將模擬從三個不同的政治看法搜尋影片,來觀察一次簡單的YouTube搜尋,將如何影響其演算法。

我們會檢查一個中立角度的頁面,成立三個不同的帳戶,觀看出現的第一支影片,再觀察搜尋過後,又會如何影響首頁,以及推薦影片。

為了控制條件,SineadBovell準備了三台筆電,並已經清除電腦上所有的歷史資訊與快取,以確保我們是從中立的基礎開始。

首先,在還沒建立帳戶之前,我們先看看平常的YouTube首頁。

出現的影片有:幾個不同的新聞影片、一些搞笑影片、紅髮艾德、LanaDelRey、一些阿拉巴馬州足球賽、「我的狗回答粉絲問題」、當然還有爆紅的FleetwoodMac抖音影片,看來影片類型算是十分多元。

實驗內容接著重頭戲登場,Sinead用她分別創建的三個帳戶,在三台不同的筆電上,在YouTube搜尋欄搜尋三家政治立場不同的新聞台,點擊第一個跳出的影片,看完後按讚,再來觀察YouTube分別透過演算法推薦我們什麼影片。

1.Fox新聞台(偏右派)依據媒體偏好表分析,Fox新聞台偏右派。

在搜尋欄輸入Fox新聞台後,第一個跳出的影片是「C-SPAN電視網暫停史蒂夫·斯卡利職務」,因為他承認謊稱推特帳戶被黑。

將此影片看完後按讚,我們可以看到推薦欄裡出現了三個同樣來自FoxNews頻道的影片,外加一個PBS的影片。

跳回首頁後,我們已經可以看到很大的洗牌。

出現的影片大多來自Fox新聞台和Fox商業頻道,包括一些偏袒總統川普的影片、一些討厭南希·佩洛的影片、關於艾米·康尼·巴雷特確定成為美國最高法院大法官的正面影片、一些關於希拉蕊·柯林頓的負面影片、TED演講「窺探拖延症大師的大腦」,還有一個關於總統川普跳舞的有趣影片。

這些全是因為FoxNews這個關鍵字被搜尋了一遍。

2.MSNBC頻道(偏左派)我們同樣將第一個影片看完後按讚,發現第二個帳戶推薦三個MSNBC頻道的影片,以及一個PBS頻道的影片。

這和我們用第一台筆電看完Fox頻道的第一個影片時一樣,看來PBS頻道被認為是蠻中立的頻道,畢竟它較有教育與學術性質。

回到首頁後,一樣發現出現的影片大部分來自MSNBC或是其他跟它政治立場相近的頻道。

 3.ABC新聞台(中立)重複一樣的步驟後再回到首頁,這次很有趣的是,除了看到許多ABC新聞台的影片,我們還看到一個Fox新聞台和MSNBC頻道的影片、一些CNBC頻道的、一個GQ影片、「川普和柯林頓被要求說一句讚美對方的話」、「100歲退伍老兵與他的人生秘密」。

值得注意的是,單單只是一次搜尋不同,這次我們在首頁看到的影片呈現了更多元的狀態,不只類型更多、也有許多不同的新聞頻道,甚至出現「川普和柯林頓被要求說一句讚美對方的話」這種正向的影片,不鼓勵分化人民。

然而,搜尋這三個頻道後,演算法推薦給我們的影片中,卻都再次強調同一個觀念,沒有出現挑戰觀念或是立場完全相反的推薦影片,因此讓我們更有機會停留更久,並繼續觀看更多影片。

這對廣告商與創作者本身都是有利的,但對於培養個人思辨能力來說,可能是一大隱憂。

專家怎麼說?我們首先打電話給前YouTube工程師紀堯姆·查斯洛,他打造了這項A.I.人工智慧,驅使演算法運作。

「你為Wired雜誌所撰寫關於YouTube回饋循環的文章當中,你說自己能夠預測到A.I.會刻意宣傳有害的影片,像是我們近期看到的陰謀論。

你又如何能預期到這件事,並且有出現任何警告嗎?」Sinead問道。

紀堯姆·查斯洛説:「你無法搶先知道每一件事,重點是要盡可能越早預期越好,讓你能預測到即將出現一個有害的回饋循環。

要如何看到回饋循環在哪裡發生?要達到目的,你需要一定數量的推薦去宣傳這支影片,因此你若看到一支影片特別被YouTube宣傳,並且是有害的,你就知道它會創造出回饋循環。

你認為公司高層起初是善意的嗎?那些宣傳假新聞與陰謀論的人專注在提升市場占有率,讓它每一年都提升20至30%的效率。

這幾百萬個因為YouTube推薦而去觀看陰謀論的人,對他們而言並不重要。

」研究科技對人類心理的影響的崔斯坦·哈里斯則提到:「YouTube一邊預測要推薦哪些影片給你看的時候,它不只在試圖最大化你的個人觀看時間,它也想要推薦你一些,會讓你長期持續回來的影片,所以它在找出這些『高黏著度的物件模式』」。

「假設其中一個影片叫做『媒體在說謊』,這個標題與長達一年的YouTube使用時間相連結,因為顯然如果我不那麼相信媒體,我就會更相信YouTube一點。

當沒有人挑選『媒體在說謊』這個句子,但電腦在預測並找出這個模式,發現它在這個超大規模中是有效的,對30億人口來說,這個模式可以促使更多人長期使用YouTube。

像這樣的模式可能會非常危險,因為它會侵蝕社會與媒體中的信任,這正是一般的陰謀論的用意。

」「有一個關於意義建構理論的研究顯示,好像在接觸陰謀論過後的兩分鐘,大家會出現較少「利社會行為」,並且會更加懷疑,他們被告知的一些資訊。

」Sinead接著發問:「你相信YouTube和大多數的社群媒體,會讓我們產生同溫層效應嗎?」「肯定有的,我認為這是社群媒體的模式。

問題是它們都是害群之馬,它們打造的平台其實是獎那些最極端、最提倡陰謀論的觀念,因為它們通常會得到最多點擊數。

」「研究陰謀論的同事芮妮·迪雷斯塔會說:『如果你打造出陰謀論的潮流,就能讓它成為事實。

』因為它一旦開始變成熱搜,像是拜登戴耳機之類的事,如果媒體開始報導,他們就是贊同這個陰謀論並提高它的反應。

如果他們不報導,不提起拜登戴耳機,就變成媒體不報導實情的一則陰謀論。

」不過,也有學者對於演算法對人們的影響抱持不那麼負面的看法,牛津大學格蘭特·布蘭克博士的研究指出,如果某人使用社群媒體後,改變了他的想法,他就不會處在同溫層當中,因為他們改變了主意。

他認為人們會從廣泛的環境與方法中得到資訊,也經常改變許多議題的想法,不是每一個議題但是有許多個議題。

我們比想像的還要有可塑性,不過前提是你有自己的想法和思辨的能力。

「不過大多時候,人們在事前並沒有既定想法,他們只有一個模糊的概念,然後他們會在某種狀況下發生更詳細的解說。

這種情況便會說服他們,其實真實狀況比他們想像的更不一樣。

」「有些科技業高層會說,我們在社群媒體看到的事,僅是反映出正在發生的事,社群媒體只是一面鏡子罷了。

我認為這個情況下是真的,以前你若去酒吧跟朋友抱怨,讀到或在電視上看到的東西,都是合情合理的,而這段對話便會就此打住,因為你沒有其他方法去聯繫更多的觀眾。

因為網路的出現,以及社群媒體的科技,突然間,你可以跟每個人抱怨,因此那些曾經只存在小圈圈的事,如今都能被全世界看到。

」「因此這些陰謀論,以及不同族群的憎恨等等的事,通常不會在公共場合中表現出來,現在卻能大聲地宣佈在,推特、臉書等場所。

因此科技如今放大了這些聲音,讓他們不再存在於私人對話中,而是在公共場合中。

」結論看來身為網路使用者的我們注定不能不接觸演算法,雖然演算法看似在強化我們的喜好與興趣,只要確保自己獲取資訊的方式來自四面八方、立場多元的管道,並不要喪失思辨的能力,就能降低接收到假訊息與被演算法「洗腦」的機率。

ContentViewIframeURL延伸閱讀「暗網」是什麼?電腦鏡頭到底會不會偷窺你?專家解答網路安全的「四大迷思」!iPhone、Android手機都內建!手機內藏的「定位紀錄」快來檢查你關掉沒!快檢查一下你的手機!這四種「常用APP」其實會偷偷透露你的行蹤!你的密碼有上榜嗎?2020年度最爛密碼名單出爐,冠軍連續七年由「它」稱霸!更多精彩時尚風格內容,也請追蹤GQTaiwan以下平台IG: https://smarturl.it/ytfai5LINE :https://maac.io/1ffHE購買當期雜誌:GQ當期雜誌購買連結購買當期iPad雜誌:GQ當期iPad雜誌購買連結 關鍵字網路陰謀論控制社群媒體心理學



請為這篇文章評分?