За ширмами: алгоритмы и боты, управляющие социальными сетями
Опубликовано: 2023-10-27Вы когда-нибудь задумывались, почему некоторые публикации появляются в вашей ленте, а другие никогда не появляются? Или кто этот случайный бот-фолловер, спамящий ваш раздел комментариев? Социальные сети сегодня кажутся все более автоматизированными, алгоритмическими и… ботовыми.
Веб-сайты, которые мы просматриваем часами каждый день, далеки от нейтральных платформ. За экранами скрывается сложная технологическая инфраструктура, предназначенная для управления контентом и привлечения пользователей.
Многие из нас знакомы с концепцией алгоритмов – запрограммированных формул, которые вычисляют то, что мы видим в Интернете. Но как именно работают эти алгоритмы? И как боты – автоматизированные программные приложения, предназначенные для выполнения повторяющихся задач – проникли в экосистемы социальных сетей? Цели и последствия этих технологий далеко идущие, но редко прозрачные.
В этой статье мы рассмотрим внутреннюю работу наших экранов в социальных сетях. Вы узнаете, как алгоритмы и боты влияют на получаемую вами информацию и даже манипулируют вашим мнением и поведением.
Мы также углубимся в тематические исследования ошибок ботов и рассмотрим идеи по повышению ответственности. Пришло время выяснить, что на самом деле происходит за кулисами социальной сети, которую мы знаем и используем каждый день. История сложнее, чем вы думаете.
TLDR; Алгоритмы и боты, управляющие социальными сетями
- Алгоритмы курируют каналы социальных сетей, чтобы максимизировать вовлеченность, а не качество обсуждения.
- Боты, такие как спам-боты и политические боты, распространяют дезинформацию и пропаганду на платформах.
- Алгоритмы могут создавать эхо-камеры; боты продвигают фейковые новости и киберпреступность
- Социальным платформам не хватает контроля и прозрачности в отношении их алгоритмов.
- Пользователи должны требовать прозрачности и подотчетности от социальных платформ.
Распространение алгоритмов в социальных сетях
Алгоритмы — это наборы инструкций или вычислений, запрограммированных для выполнения конкретных задач и целей. На платформах социальных сетей алгоритмы анализируют огромные объемы пользовательских данных, чтобы затем курировать и рекомендовать контент в лентах пользователей. Цель состоит в том, чтобы показать людям посты, которыми они, скорее всего, будут интересоваться в данный момент.
Facebook впервые предложил идею персонализированной ленты новостей, основанной на алгоритмах, в 2006 году. До этого сообщения просто показывались в хронологическом порядке. Facebook хотел оптимизировать «значимый контент» — то есть публикации, которые получат наибольшее количество лайков, комментариев и репостов. Другие платформы, такие как Twitter, Instagram и TikTok, в конечном итоге также переняли алгоритмические каналы.
Эти алгоритмы учитывают сотни сигналов о каждом пользователе, включая его связи, интересы, прошлую активность и тип устройства. Они постоянно учатся и обновляются на основе новых данных. Алгоритмы рекомендаций также предлагают аккаунты, на которые можно подписаться, или контент для просмотра, основываясь на сходстве с тем, с чем пользователь уже взаимодействует. Конечная цель — максимизация дохода от рекламы, поэтому алгоритмы также оптимизируют публикации и рекламу, которые заставят пользователей бесконечно прокручивать страницу.
Боты на социальных платформах
Боты для социальных сетей — это программы, которые автоматически создают контент и взаимодействуют с реальными пользователями, часто выдавая себя за человеческие учетные записи. Спам-боты самостоятельно распространяют спам, рекламу или вредоносное ПО. Чат-боты ведут беседы с использованием искусственного интеллекта. Политические боты распространяют пропаганду и дезинформацию, как это было на выборах в США в 2016 году.
Боты быстро распространяются по мере расширения социальных платформ. По оценкам одного исследования, 9–15% учетных записей Twitter могут быть ботами. По оценкам, на конец 2021 года на Facebook дубликаты и фейковые аккаунты составляли около 11% ежемесячных активных пользователей во всем мире.
Однако обнаружение ботов является сложной задачей. Боты становятся все более продвинутыми, используя искусственный интеллект для имитации моделей поведения человека в Интернете. Их цель — манипулировать общественным мнением или негативно влиять на дискурс, избегая при этом обнаружения.
Влияние алгоритмов и ботов
Алгоритмы и боты принесли некоторые преимущества пользователям социальных сетей. Алгоритмическое курирование персонализирует каналы в соответствии с интересами отдельных пользователей, экономя время на нерелевантном контенте. Чат-боты могут обеспечить полезное автоматизированное обслуживание клиентов.
Однако тщательное алгоритмическое курирование также привело к эхо-камерам и поляризации, поскольку люди видят только точки зрения единомышленников. Боты использовались для быстрого распространения дезинформации, замалчивания фактов и манипулирования общественным дискурсом, как это видно на выборах по всему миру.
Пожалуй, больше всего беспокоит отсутствие надзора и прозрачности в отношении этих технологий. Социальные платформы мало что дают понять, как работают их алгоритмы и как они влияют на контент, который видят пользователи. Они также изо всех сил пытаются обнаружить сложных ботов, мало что делая для предотвращения вредоносных манипуляций, вызванных их бездействием.
Тематические исследования ботов, которые пошли не так
В 2016 году Microsoft запустила в Твиттере чат-бота Tay с искусственным интеллектом, призванного привлекать пользователей посредством повседневного общения. Но интернет-тролли обнаружили, что могут научить Тэя использовать расистские выражения и пропагандировать оскорбительные взгляды. В течение 24 часов Тай пришлось отключить.
Во время президентских выборов в США в 2016 году связанные с Россией боты вели пропаганду, охватив более 100 миллионов американцев в Facebook, Twitter и других платформах. Целью этого было посеять социальную и политическую рознь.
Спам-боты регулярно распространяют вредоносное ПО и вредоносные ссылки на социальных платформах через фейковые аккаунты. Одно исследование 2020 года выявило более 100 000 ботов Твиттера, участвующих в скоординированных кампаниях по дезинформации о COVID-19 и киберпреступности. Они представляют серьезную опасность для пользователей.
Продолжающаяся борьба с плохими ботами
Социальные платформы используют машинное обучение для обнаружения учетных записей ботов на основе таких закономерностей, как высокая частота твитов, дублированный контент и скоординированное поведение. Если учетные записи помечены как вероятные боты, им может быть предложено доказать, что они люди, с помощью CAPTCHA или проверки телефона. В случае неудачной проверки ботом аккаунты удаляются.
Однако выявление более сложных ботов, использующих искусственный интеллект, остается сложной задачей. Эти боты имитируют человеческие графики публикаций, разнообразие контента и онлайн-взаимодействие. Некоторые избегают обнаружения, переключая поведение после того, как они были отмечены. Платформы участвуют в бесконечной игре в кошки-мышки с развивающимися возможностями ботов.
Эксперты предполагают, что более эффективное обнаружение может быть достигнуто путем анализа метаданных учетной записи, связей и языковых моделей с течением времени. Замедление быстрого вирусного распространения контента также могло бы лучше ограничить влияние скоординированных сетей ботов, прежде чем они нанесут слишком большой ущерб.
Стремление к прозрачности и надзору
Поскольку алгоритмы и боты встроены в их основные бизнес-модели, у социальных платформ мало стимулов быть прозрачными или обеспечивать значимый надзор. Но правозащитные группы призвали к алгоритмическому аудиту, предоставляющему исследователям доступ к оценке воздействия.
Правительства также рассматривают правила, обеспечивающие прозрачность, требования к человеческому мониторингу и право на обжалование несправедливых алгоритмических решений.
Пользователи могут оказать давление, выражая обеспокоенность посредством петиций и хэштегов, поддерживая политиков, выступающих за прозрачность, и даже обманывая алгоритмы, искажая свою собственную модель деятельности. Хотя закрытую, ориентированную на прибыль культуру социальных платформ будет трудно изменить, устойчивая осведомленность общественности и давление могут сделать прозрачность вокруг их алгоритмов и ботов императивом.
Подведем итоги: алгоритмы и боты, управляющие социальными сетями
Фасад социальных сетей был открыт, и мы увидели сложное сочетание алгоритмов и ботов, управляющих этими платформами. Наши каналы курируются по непрозрачным формулам, оптимизированным для вовлечения и дохода, а не для качественного обсуждения. Автоматизированные учетные записи выходят из-под контроля, скрываясь под фальшивыми человеческими личностями.
Эта ускользнувшая истина должна заставить нас чувствовать себя глубоко некомфортно из-за нынешнего состояния социальных сетей. Мы больше не можем цепляться за причудливые представления о нейтральных городских площадях онлайн. Мотивы получения прибыли и неконтролируемая автоматизация подорвали потенциал социальной сети. Возмущение должно перерасти в призывы к прозрачности и подотчетности.
Мы, пользователи, обладаем силой в цифрах. Не миритесь с незнанием того, как алгоритмы влияют на ваше мышление. Требуйте изменений через законодательство и прямое взаимодействие с платформой. Будьте осторожны с усилением ботов. И никогда не забывайте о человеке за экраном, будь то реальный человек или хитрый ИИ. Наша будущая реальность может зависеть от того, будем ли мы помнить о нашей человечности.