屏幕背后:运行社交媒体的算法和机器人

已发表: 2023-10-27

您有没有想过为什么某些帖子会出现在您的提要上,而其他帖子则不会出现? 或者那个在你的评论部分发送垃圾邮件的随机机器人追随者是谁? 如今的社交媒体让人感觉越来越自动化、算法化,而且……笨蛋。

我们每天花几个小时浏览的网站远离中立平台。 屏幕背后是复杂的技术基础设施,旨在管理内容和吸引用户。

我们许多人都熟悉算法的概念——计算我们在网上看到的内容的编程公式。 但这些算法到底是如何工作的呢? 机器人(旨在运行重复任务的自动化软件应用程序)如何渗透社交媒体生态系统? 这些技术的目标和影响是深远的,但很少是透明的。

在本文中,我们将揭开社交媒体屏幕背后的内部运作机制。 您将了解算法和机器人如何影响您收到的信息,甚至操纵您的观点和行为。

我们还将深入研究机器人出错的案例,并探索加强问责制的想法。 是时候调查一下我们每天所了解和使用的社交网络幕后到底发生了什么。 这个故事比你想象的更复杂。

太长了; 运行社交媒体的算法和机器人

  • 算法管理社交媒体源以最大限度地提高参与度,而不是高质量的话语
  • 垃圾邮件机器人和政治机器人等机器人在平台上传播错误信息和宣传
  • 算法可以创建回声室; 机器人宣扬假新闻和网络犯罪
  • 社交平台缺乏对其算法的监督和透明度
  • 用户应该要求社交平台的透明度和问责制

社交媒体算法的兴起

算法是为完成特定任务和目标而编程的指令集或计算集。 在社交媒体平台上,算法会分析大量用户数据,然后在用户提要中策划和推荐内容。 目标是向人们展示他们目前最有可能参与的帖子。

Facebook 于 2006 年率先提出了由算法驱动的个性化新闻推送的想法。在此之前,帖子只是按时间顺序显示。 Facebook 希望针对“有意义的内容”进行优化,即获得最多点赞、评论和分享的帖子。 Twitter、Instagram 和 TikTok 等其他平台最终也采用了算法提要。

这些算法考虑了每个用户的数百个信号,包括他们的联系、兴趣、过去的活动和设备类型。 他们根据新数据不断学习和更新。 推荐算法还根据与用户已经参与的内容的相似性来建议要关注的帐户或要查看的内容。 最终目标是最大化广告收入,因此算法还针对帖子和广告进行优化,让用户不断滚动。

社交平台上的机器人景观

社交媒体机器人是自动生成内容并与真实用户交互的软件程序,通常会冒充人类帐户。 垃圾邮件机器人自动传播垃圾邮件、广告或恶意软件。 聊天机器人可以进行人工智能对话。 政治机器人传播宣传和错误信息,正如 2016 年美国大选中所见。

随着社交平台的扩张,机器人迅速激增。 一项研究估计,9-15% 的 Twitter 帐户可能是机器人。 截至 2021 年底,在 Facebook 上,重复账户和虚假账户估计约占全球月活跃用户的 11%。

然而,机器人检测具有挑战性。 机器人变得越来越先进,利用人工智能来模仿人类的在线行为模式。 他们的目标是操纵公众舆论或对言论产生负面影响,同时避免被发现。

算法和机器人的影响

算法和机器人为社交媒体用户带来了一些好处。 算法管理可根据个人兴趣个性化提要,从而节省处理不相关内容的时间。 聊天机器人可以提供有用的自动化客户服务。

然而,繁重的算法管理也导致了回声室和两极分化,因为人们只能看到志同道合的观点。 正如世界各地的选举所见,机器人被用来快速传播错误信息,淹没事实并操纵公共言论。

也许最令人担忧的是这些技术缺乏监督和透明度。 社交平台对其算法如何工作以及如何影响用户看到的内容几乎没有提供任何可见性。 他们还努力检测复杂的机器人,几乎没有采取任何措施来遏制因不作为而产生的有害操纵。

机器人出错的案例研究

2016 年,微软在 Twitter 上推出了人工智能聊天机器人 Tay,旨在通过随意对话吸引用户。 但网络巨魔发现他们可以训练泰使用种族主义语言并传播攻击性观点。 24 小时内,Tay 被迫关闭。

2016 年美国总统大选期间,与俄罗斯相关的机器人在 Facebook、Twitter 和其他平台上向超过 1 亿美国人进行宣传。 此举旨在散布社会和政治不和。

垃圾邮件机器人经常通过虚假帐户在社交平台上传播恶意软件和恶意链接。 2020 年的一项研究发现,超过 100,000 个 Twitter 机器人参与了协调一致的 COVID-19 虚假信息和网络犯罪活动。 这些给用户带来了重大风险。

与坏机器人的持续斗争

社交平台使用机器学习根据高推文频率、重复内容和协调行为等模式来检测机器人帐户。 当被标记为可能的机器人时,帐户可能会面临通过验证码或电话验证证明自己是人类的挑战。 如果机器人检查失败,帐户将被删除。

然而,利用人工智能识别更复杂的机器人仍然具有挑战性。 这些机器人模仿人类的发布时间表、内容多样性和在线互动。 有些人一旦被标记就会通过改变行为来避免检测。 平台与不断发展的机器人功能进行着无休止的猫鼠游戏。

专家建议,随着时间的推移,分析账户元数据、关系和语言模式可以更好地进行检测。 减缓内容的快速病毒式传播还可以更好地遏制协调的机器人网络的影响,避免它们造成太大损害。

推动透明度和监督

随着算法和机器人内置到其核心业务模型中,社交平台几乎没有动力保持透明或允许有意义的监督。 但倡导团体呼吁进行算法审核,让研究人员能够评估影响。

各国政府还在考虑加强透明度、人工监控要求以及对不公平算法决策提出上诉的权利等法规。

用户可以通过请愿书和主题标签表达担忧、支持支持透明的政客,甚至通过扭曲自己的活动模式来欺骗算法,从而帮助施加压力。 尽管社交平台封闭的、以利润为导向的文化很难改变,但持续的公众意识和压力可能会使算法和机器人的透明度成为当务之急。

总结:运行社交媒体的算法和机器人

社交媒体的外观已经被剥开,我们已经看到了驱动这些平台的算法和机器人的复杂组合。 我们的提要是通过不透明的公式来策划的,这些公式针对参与度和收入进行了优化,而不是高质量的话语。 自动化账户披着虚假的人类身份,肆意横行。

这一瞥见的真相应该让我们对社交媒体的现状深感不安。 我们不能再坚持中立的在线城镇广场的古怪概念。 盈利动机和不受控制的自动化削弱了社交网络的潜力。 愤怒必须转化为对透明度和问责制的呼吁。

我们,用户,拥有数量上的力量。 不要接受对算法如何影响你的思维的无知。 通过立法和直接平台参与来改变需求。 对机器人放大保持警惕。 永远不要忘记屏幕背后的人类,无论是真人还是狡猾的人工智能。 我们未来的现实可能取决于记住我们的人性。