螢幕背後:運行社交媒體的演算法和機器人

已發表: 2023-10-27

您有沒有想過為什麼某些貼文會出現在您的動態上,而其他貼文則不會出現? 或者那個在你的評論部分發送垃圾郵件的隨機機器人追隨者是誰? 如今的社群媒體讓人感覺越來越自動化、演算法化,而且……笨蛋。

我們每天花幾個小時瀏覽的網站遠離中立平台。 螢幕背後是複雜的技術基礎設施,旨在管理內容和吸引用戶。

我們許多人都熟悉演算法的概念——計算我們在網路上看到的內容的程式設計公式。 但這些演算法到底是如何運作的呢? 機器人(旨在運行重複任務的自動化軟體應用程式)如何滲透社交媒體生態系統? 這些技術的目標和影響是深遠的,但很少是透明的。

在本文中,我們將揭開社群媒體螢幕背後的內部運作機制。 您將了解演算法和機器人如何影響您收到的訊息,甚至操縱您的觀點和行為。

我們還將深入研究機器人出錯的案例,並探索加強問責制的想法。 是時候調查我們每天所了解和使用的社交網路幕後到底發生了什麼。 這個故事比你想像的更複雜。

太長了; 運行社交媒體的演算法和機器人

  • 演算法管理社交媒體來源以最大限度地提高參與度,而不是高品質的話語
  • 垃圾郵件機器人和政治機器人等機器人在平台上傳播錯誤訊息和宣傳
  • 演算法可以創建迴聲室; 機器人宣揚假新聞和網路犯罪
  • 社交平台缺乏對其演算法的監督和透明度
  • 使用者應該要求社群平台的透明度和問責制

社群媒體演算法的興起

演算法是為完成特定任務和目標而編程的指令集或計算集。 在社群媒體平台上,演算法會分析大量用戶數據,然後在用戶動態中規劃和推薦內容。 目標是向人們展示他們目前最有可能參與的貼文。

Facebook 於 2006 年率先提出了由演算法驅動的個人化新聞推送的想法。在此之前,貼文只是按時間順序顯示。 Facebook 希望針對「有意義的內容」進行最佳化,即獲得最多按讚、留言和分享的貼文。 Twitter、Instagram 和 TikTok 等其他平台最終也採用了演算法提要。

這些演算法考慮了每個用戶的數百個訊號,包括他們的聯繫、興趣、過去的活動和設備類型。 他們根據新數據不斷學習和更新。 推薦演算法還根據與用戶已經參與的內容的相似性來建議要關注的帳戶或要查看的內容。 最終目標是最大化廣告收入,因此演算法也針對貼文和廣告進行最佳化,讓用戶不斷滾動。

社群平台上的機器人景觀

社群媒體機器人是自動產生內容並與真實用戶互動的軟體程序,通常會冒充人類帳戶。 垃圾郵件機器人會自動傳播垃圾郵件、廣告或惡意軟體。 聊天機器人可以進行人工智慧對話。 政治機器人傳播宣傳和錯誤訊息,正如 2016 年美國大選所見。

隨著社群平台的擴張,機器人迅速激增。 一項研究估計,9-15% 的 Twitter 帳戶可能是機器人。 截至 2021 年底,在 Facebook 上,重複帳號和假帳號估計約佔全球月活躍用戶的 11%。

然而,機器人檢測具有挑戰性。 機器人變得越來越先進,利用人工智慧來模仿人類的線上行為模式。 他們的目標是操縱公眾輿論或對言論產生負面影響,同時避免被發現。

演算法和機器人的影響

演算法和機器人為社群媒體用戶帶來了一些好處。 演算法管理可根據個人興趣個人化提要,從而節省處理不相關內容的時間。 聊天機器人可以提供有用的自動化客戶服務。

然而,繁重的演算法管理也導致了迴聲室和兩極化,因為人們只能看到志同道合的觀點。 正如世界各地的選舉所見,機器人被用來快速傳播錯誤訊息,淹沒事實並操縱公共言論。

也許最令人擔憂的是這些技術缺乏監督和透明度。 社交平台對其演算法如何運作以及如何影響用戶看到的內容幾乎沒有提供任何可見性。 他們也努力檢測複雜的機器人,幾乎沒有採取任何措施來遏制因不作為而產生的有害操縱。

機器人出錯的案例研究

2016 年,微軟在 Twitter 上推出了人工智慧聊天機器人 Tay,旨在透過隨意對話吸引用戶。 但網路巨魔發現他們可以訓練泰使用種族主義語言並傳播攻擊性觀點。 24 小時內,Tay 被迫關閉。

2016 年美國總統大選期間,與俄羅斯相關的機器人在 Facebook、Twitter 和其他平台上向超過 1 億美國人宣傳。 此舉旨在散佈社會和政治不和。

垃圾郵件機器人經常透過虛假帳戶在社群平台上傳播惡意軟體和惡意連結。 2020 年的一項研究發現,超過 100,000 個 Twitter 機器人參與了協調一致的 COVID-19 虛假資訊和網路犯罪活動。 這些給用戶帶來了重大風險。

與壞機器人的持續鬥爭

社群平台使用機器學習根據高推文頻率、重複內容和協調行為等模式來偵測機器人帳號。 當被標記為可能的機器人時,帳戶可能會面臨透過驗證碼或電話驗證證明自己是人類的挑戰。 如果機器人檢查失敗,帳戶將被刪除。

然而,利用人工智慧識別更複雜的機器人仍然具有挑戰性。 這些機器人模仿人類的發佈時間表、內容多樣性和線上互動。 有些人一旦被標記就會透過改變行為來避免檢測。 平台與不斷發展的機器人功能進行著無止盡的貓鼠遊戲。

專家建議,隨著時間的推移,分析帳戶元資料、關係和語言模式可以更好地進行檢測。 減緩內容的快速病毒式傳播還可以更好地遏制協調的機器人網路的影響,避免它們造成太大損害。

推動透明度和監督

隨著演算法和機器人內建到其核心業務模型中,社交平台幾乎沒有動力保持透明或允許有意義的監督。 但倡導團體呼籲進行演算法審核,讓研究人員能夠評估影響力。

各國政府也正在考慮加強透明度、人工監控要求以及對不公平演算法決策提出上訴的權利等法規。

使用者可以透過請願書和主題標籤表達擔憂、支持支持透明的政客,甚至透過扭曲自己的活動模式來欺騙演算法,從而幫助施加壓力。 儘管社交平台封閉的、以利潤為導向的文化很難改變,但持續的公眾意識和壓力可能會使演算法和機器人的透明度成為當務之急。

總結:運行社群媒體的演算法和機器人

社群媒體的外觀已經被剝開,我們已經看到了驅動這些平台的演算法和機器人的複雜組合。 我們的提要是透過不透明的公式來策劃的,這些公式針對參與度和收入進行了優化,而不是高品質的話語。 自動化帳號披著虛假的人類身份,肆意橫行。

這一瞥的真相應該讓我們對社群媒體的現狀深感不安。 我們不能再堅持中立的線上城鎮廣場的古怪概念。 獲利動機和不受控制的自動化削弱了社交網路的潛力。 憤怒必須轉化為對透明度和問責制的呼籲。

我們,用戶,擁有數量上的力量。 不要接受對演算法如何影響你的思維的無知。 透過立法和直接平台參與來改變需求。 對機器人放大保持警覺。 永遠不要忘記螢幕背後的人類,無論是真人還是狡猾的人工智慧。 我們未來的現實可能取決於記住我們的人性。