Рубрики
Актуально В Молдове

Боты в соцсетях — невидимая армия, манипулирующая интернетом

Интернет уже давно перестал быть пространством только для реальных людей —  миллионы аккаунтов контролируются автоматизированными программами, такими как боты. Боты это не просто безобидные компьютерные программы, они представляют собой невидимую армию, которая может распространять ложную информацию, манипулировать общественным мнением, искусственно усиливать некоторые нарративы или манипулировать эмоциями пользователей интернета. Пользователи могут столкиваться с ботами, которые выглядят как реальные аккаунты, но они запрограммированы на имитацию человеческой деятельности. Вот почему очень важно знать, что такое боты, как они работают и как не попасть в их ловушку.

Некоторые посты на странице в Facebook портала Stopfals.md набирают десятки и сотни комментариев. Например, пост о том, как несколько Telegram-каналов, известных распространением кремлевской пропаганды, были наводнены ботами с комментариями на темы, не имеющими никакого отношения к сюжету самого поста.

«Парламентское большинство превращает Молдову в полигон для экспериментов Запада. Где наши традиции? Где наша память о войне?», — пишет аккаунт Livia Lăcătuș с фотографией профиля в виде чаши, взятой из интернета, и без единого поста. Аналогичное сообщение запущено и с аккаунтов без постов Gabriela Hariton и Barbu Bădărău. «Нынешнее правительство только и делает, что разрушает нашу страну. Вместо того, чтобы инвестировать в экономику, занимается ЛГБТ-парадами. Где наши деньги?» (в оригинале: «Guvernul actual nu face decât să ne distrugă țara. În loc să investească în economie, se ocupă de parade LGBT. Unde sunt banii noștri?»), — пишет аккаунт Лилиана Матея, причем сообщение повторяется и аккаунтами без какой-либо деятельности Ionel Buzu и Bogdan Ursachi. «Власти страны забыли о ветеранах, но помнят о ЛГБТ. Это не просто безразличие — это предательство», — пишут несколько других аккаунтов (Larisa Caraș, Платон Ермаков, Дойна Аврам, Liliana Matei, Ovidiu Nour), а комментарий сопровождается ссылкой на пост Telegram-канала Запрещенный Канал, в котором цитируется высказывание беглого олигарха Илана Шора о марше ЛГБТ-сообщества от 15 июня.

Эта серия комментариев — классический пример ботовского поведения и онлайн-операции по оказанию влияния. Комментарии, скопированные слово в слово, повторяются разными «пользователями», со стоковыми или стандартными фотографиями профиля и полным отсутствием постов. Посты размещаются массово за короткий промежуток времени, что свидетельствует о синхронизированной активности, призванной создать впечатление, что мнение из комментариев якобы пользуется широкой поддержкой. В сообщениях используются одни и те же нарративы, которые представляются искаженно: ЛГБТ, правительство, традиции, 9 мая.

Наводнением публичного пространства пропагандистскими тезисами преследуется цель затмить реальные голоса и направить внимание на идеи, продвигаемые определенными заинтересованными сторонами, или на ложные либо искаженные темы. Навязчивое повторение одних и тех же нарративов и сихронизация их опубликования — специфические признаки сетей ботов (так называемых ботнетов – прим. ред.) В отмеченном выше случае включение ссылок на пост, в котором цитируется Илан Шор, усиливает фейки о ЛГБТ-сообществе. Таким образом, целью этих действий, характерных для ботов, является не выражение реального мнения, а манипулирование общественным восприятием, поляризация общества, распространение пропаганды и дезинформации.

Страница Stopfals.md, администрируемая Ассоциацией независимой прессы (API), не единственный ресурс, который подвергается атакам ботов. За последнее время, страницы таких редакций как Newsmaker.md, Esp.md, Știri.md и Bas-tv подверглись  скоординированной волне комментариев ботов, продвигающих месседжи, присущие российской пропаганде.

Что такое боты и как они работают?

Боты это автоматизированные программы, созданные для выполнения повторяющихся задач и имитации поведения человека в интернете. Они могут публиковать комментарии, делиться новостями, ставить лайки и отвечать на сообщения, причем зачастую реальные пользователи не осознают, что имеют дело с роботом, а не с человеком. Хотя некоторые боты имеют полезные, законные цели, такие как автоматическая передача полезной информации, многие из них используются в кампаниях по дезинформации, манипулировании общественным мнением, искусственном усилении определенных нарративов или создании ложного впечатления консенсуса.

После «запуска», боты генерируют комментарии таким образом, что алгоритм социальных сетей воспринимает их как популярный пост, а это увеличивает его шансы быть просмотренным реальными людьми, как показывает отчет Мичиганского государственного университета. Боты анализируют информацию и генерируют ответы, иногда обучаясь на основе взаимодействий. Самые прогрессивные из них используют такие технологии, как нейронные сети и модели автоматического, машинного обучения (machine learning) для понимания и создания естественного человеческого языка. В периоды социальной напряженности, выборов или крупных кризисов, боты могут массово распространять ложную информацию, генерировать искусственные реакции на посты или атаковать общественных деятелей и учреждения. Порой целые армии ботов координируются для создания впечатления, что определенное мнение является мнением большинства, оказывая давление на реальных пользователей и влияя на их выбор, поскольку в некоторых случаях обычный пользователь в конечном итоге начинает верить, что «все так думают», не осознавая, что на самом деле он является жертвой организованной кампании.  

В 2024 году компания по кибербезопасности Cyabra подсчитала, что от 4% до 6% аккаунтов и страниц в социальных сетях являются поддельными, а с учетом миллиардов активных пользователей в месяц, это означает ошеломляющее количество фейковых аккаунтов. 

Когда определенная тема становится важной, боты работают следующим образом:

Распространяют одну и ту же информацию, чтобы создать впечатление популярности. Боты могут размещать или неоднократно делиться одним и тем же сообщением с разных аккаунтов, чтобы тема казалась популярной или поддерживаемой многими людьми, даже если это не так.

Атакуют публичные личности или учреждения. Некоторые боты запрограммированы на отправку негативных сообщений, оскорблений или скоординированной критики в адрес определенных политиков, журналистов или организаций с целью их дискредитации в глазах общественности. 

Запускают слухи или теории заговора. Такие боты распространяют ложную или вводящую в заблуждение информацию, призванную посеять путаницу, недоверие или панику среди людей. 

Манипулируют трендами в соцсетях. Активно используя определенные ключевые слова или хэштеги, боты могут влиять на то, какие темы появляются в разделах «тренды», привлекая внимание и направляя публичные обсуждения.

Кто создает боты и каковы их основные типы? 

Боты создаются программистами и специалистами по искусственному интеллекту (ИИ), которые работают в технологических компаниях или исследовательских лабораториях. Эти специалисты используют такие языки программирования, как Python или JavaScript, и обучают модели ИИ на больших объемах данных, чтобы сделать их максимально полезными и точными.

Боты могут быть полезными или вредоносными. Например, ChatGPT (от OpenAI), Siri (Apple) или Alexa (Amazon) помогают людям находить информацию, учиться или организовывать свои действия, боты customer support (поддержки клиентов) автоматически отвечают клиентам на веб-сайтах покупок, а образовательные боты используются в обучающих приложениях или в школах для поддержки учащихся.

На противоположном полюсе располагаются дезинформационные боты, созданные для распространения ложной информации, слухов или теорий заговора, боты политического влияния, которые атакуют публичных деятелей или создают ложное впечатление, что определенная идея является популярной, а также боты, которые манипулируют трендами, искусственно раздувая определенные хэштеги в соцсетях, чтобы привлечь внимание к манипулятивным сообщениям. 

Как от них защититься?

Боты могут обмануть многих людей, но, проявив немного внимания и критического отношения, вы легко сможете защитить себя. Вот несколько простых мер, которые вы можете предпринять, чтобы защитить себя от их влияния в интернете: 

Проверяйте активность аккаунта. Аккаунт, который навязчиво размещает посты, не содержит реальной личной информации, взаимодействий, истории постов, фотографий и, кажется, повсюду публикует одни и те же сообщения, скорее всего, является ботом или фейковым аккаунтом.

Проверяйте источник информации. Если сообщение продвигается подозрительными или неизвестными аккаунтами, ищите подтверждение из заслуживающих доверия источников.

Не делитесь сообщениями импульсивно. Прежде чем поделиться эмоциональным или шокирующим сообщением, критически проанализируйте его. Боты могут также размещать ссылки, которые ведут на опасные сайты. Чтобы защитить себя, не переходите по ссылкам, отправленным незнакомыми лицами или с подозрительных аккаунтов.

Используйте инструменты обнаружения. Существуют платформы и расширения, которые могут анализировать аккаунты и определять вероятность того, что они являются ботами.

Сообщайте о подозрительных аккаунтах. В соцсетях существуют возможности сообщать о фейковых или вредоносных аккаунтах, используя которые вы можете блокировать и сообщать о подозрительных аккаунтах, тем самым помогая защитить других людей. 

Бдительность — наша единственная защита от невидимой армии ботов, поэтому каждому пользователю следует научиться быть осторожным, критичным и ответственным.

Виктория Бородин

Подписывайтесь на наши социальные сети: TelegramYouTubeFacebook и Instagram. Здесь мы публикуем новости кратко и наглядно!

Рубрики
Актуально В Молдове

Тролли в сети — что они делают, как их распознать и как не попасться на их удочку

Тролль не ищет ответов, не ищет истину — он хочет манипулировать общественным мнением и дезинформировать его. Специально провоцирует конфликты, выкладывает провоцирующие, агрессивные или нелепые комментарии ради собственного развлечения или же для подрыва спокойствия в сообществах. Кроме троллей, действующих самостоятельно, существуют и целые «фабрики троллей» — организованные группы, специализирующие на пропаганде и дезинформации в интернете. Тролли могут вызывать раздражение, но не нужно позволять им испортить вам общение в сети. Умение распознать тактику троллей и избегать прямого взаимодействия с ними — вот наиболее эффективные способы противодействия им. Мы расскажем, как это работает на практике и с какими рисками сопряжены тролли.

«Мать не может обнять своих детей, что вообще творится? Уголовников — рецидивистов выпускают, а законно избранных людей пытаются упрятать в тюрьму»; «Несмотря на то что Гуцул посадили она все еще наш башкан Гагаузии и все еще мама 2 детей»; „Как мать, как лидер, как символ борьбы за справедливость – она заслуживает свободы, а не тюремной камеры» (орфография и пунктуация авторов сохранены — прим. ред.) — вот лишь несколько из десятков комментариев на русском языке к посту «Башкан Гагаузии Евгения Гуцул остается в СИЗО №13, но ее сестра уверена, что она скоро выйдет на свободу», выложенному в Facebook редакцией портала NewsMaker.md.

Множество эмоциональных комментариев, появившихся к посту о помещении башкана Гагаузии под предварительный арест, не похожи на реальные. Хотя большинство комментариев написаны на русском языке, а их авторы горячо поддерживают Гуцул, обращает на себя внимание любопытная деталь: многие аккаунты, с которых сделаны все эти комментарии, были созданы недавно, у соответствующих пользователей типичные для румыноговорящих людей имена и типовые фотографии. Такой разрыв между именами владельцев аккаунтов и языком, на котором они оставляют комментарии, а также тот факт, что соответствующие аккаунты созданы недавно, могут указывать на скоординированные усилия, то есть тактику, свойственную аккаунтам троллей. С помощью таких действий предпринимается попытка создать впечатление о некой массовой поддержке, повторяются те же хорошо выверенные, полные эмоций месседжи, чтобы вызывать реакцию у пользователей сети. Тролли часто прибегают к подобной практике для манипулирования общественным восприятием, особенно в чувствительном политическом контексте.

Как отмечается в документе НАТО, датирующем 2020 годом, тролль — человек, использующий фальшивую идентичность, но которая в сети кажется подлинной, чтобы выкладывать провоцирующие, оскорбительные или же нелепые комментарии с целью вызвать негативную реакцию и спровоцировать конфликты в онлайн-среде. При этом понятие «фабрики троллей» определяется как структура, занимающаяся пропагандой и дезинформацией в сети с целью дезинформировать общественное мнение. Их могут использовать в политических, экономических либо социальных целях, они действуют за ширмой нейтральных названий, к примеру, под видом «агентств по связям с общественностью» или же «центров онлайн-исследований». По данным НАТО, фабрики троллей появились в 2015 году, сразу же после аннексии Крыма Российской Федерацией. Предположительно, порядка 300 человек задействовали в первую «фабрику троллей», обнаруженную в Санкт-Петербурге, которой управлял олигарх и наемник Евгений Пригожин.

Как распознать тролля и какую цель он преследует в своей «работе»?

Цель некоторых троллей — провоцировать, раздражать или вызывать мощную эмоциональную реакцию у других пользователей, но есть и тролли, которые стремятся манипулировать общественным мнением и дезинформировать с помощью распространяемых фейковых новостей или же не соответствующей действительности информации. С другой стороны, многие тролли — это люди, которым просто хочется внимания или которые пытаются в сети выплеснуть свое недовольство. Как правило, троллей не интересует настоящий или конструктивный диалог, их цель — привлечь внимание либо манипулировать эмоциями других. Чтобы распознать тролля, необходимо обратить внимание на типичное поведение таких субъектов, а именно:

Провоцирующие месседжи. Часто тролли постят в соцсетях, на блогах и на других форумах в интернете подстрекательские комментарии, экстремистские либо оскорбительные мнения с целью досадить другим пользователям. Они сосредоточены на эмоционально заряженных темах, таких как политика или вопросы идентичности. 

Отсутствие логических аргументов. Чтобы манипулировать и дезинформировать, тролли оскорбляют, переходят на личности, прибегают к обобщениям, но при этом не приводят веские доказательства в поддержку собственных высказываний.

Меняют тему и повторяют свои посты. Зачастую тролли изменяют ход разговора с помощью не относящихся к сути спора заявлений. Они постоянно повторяют одни и те же идеи, невзирая на контраргументы. Таким же образом, тролли распространяют мемы, дезинформацию и вводящие в заблуждение ссылки, пытаясь тем самым усилить определенные месседжи. 

Без реальной идентичности. Обычно тролли скрываются за псевдонимами, во избежание последствий. Также они используют анонимные или же фейковые аккаунты.

«Фабрики троллей»: что это такое и как они работают?

Кроме троллей, в сети действуют и «фабрики троллей», ставшие за последнее десятилетие настоящим средством для цифрового влияния, используемым для манипулирования общественным мнением организациями и структурами, которые преследуют политические, экономические либо социальные цели. Подобные субъекты, как правило, работают централизованно, а передаваемые ими месседжи и затрагиваемые темы имеют четко заданное направление/ориентацию/цель. «Фабрики троллей» используют множество фиктивных аккаунтов, создавая тем самым впечатление широкой поддержки либо мощного неприятия определенных идей, событий или же общественных деятелей. Они быстро генерируют огромный объем контента, который часто включает мемы, дезинформацию или ссылки-ловушки, чтобы таким образом привлечь внимание, усилить определенные нарративы и использовать в свою пользу сильные эмоции.

Красноречивый пример «фабрики троллей» — Агентство интернет-исследований (АИИ). Эта российская организация была замешана в кампании по дезинформации глобального масштаба. Ее обвиняли в том, что она оказывала влияние на выборы, приводила к социальному расколу и продвигала нарративы, благоприятствующие определенным правительствам или же группам интересов. В США в отношении этой российской организации проводилось расследование по факту ее активных попыток повлиять на президентские выборы, состоявшиеся там в 2016 году. А в 2018 году Департамент юстиции США предъявил 13 российским гражданам и трем структурам, в том числе АИИ, обвинение в сговоре с целью вмешательства в выборы. Хотя обвиняемых не экстрадировали в США и не судили там, сам по себе данный случай привлек внимание к собственно проблеме использования «фабрик троллей» на выборах.

В Республике Молдова «фабрики троллей» связывают с именем беглого олигарха Владимира Плахотнюка и с Демократической партией Молдовы (ДПМ). Для борьбы с ложью и манипуляцией, распространяемыми через онлайн-платформы в попытке продвигать Плахотнюка и ДПМ, в 2018 году была запущена кампания «Усынови тролля». Тогда ее авторы поставили перед собой задачу собрать деньги и заплатить людям, готовым рассказать о действовавших в Молдове «фабриках троллей». В июле 2021 года сотрудники Службы информации и безопасности (СИБ) раскрыли «фабрику троллей», которую содержал на свои деньги скандально известный бизнесмен Вячеслав Платон. Тролли занимались тем, что пытались обелить имидж Платона в Facebook, а также активно участвовали в очернении его конкурентов на выборах. «Фабрику» раскрыли в ходе обысков, связанных со схемой слежки за судьей Кишиневской апелляционной палаты Анжелой Бостан. Хотя неизвестно, существуют ли официально задокументированные факты существования «фабрик троллей», которые курируют политические партии, действующие в Республике Молдова, журналистам-расследователям удалось обнаружить целые армии троллей, работавших в пользу бывшей Партии Шор и ПСРМ. К примеру, в 2022 году телеканал TV8 показал в своем расследовании, каким образом фейковые аккаунты, группы в Facebook и Telegram-каналы, связанные с ПСРМ, начали проводить пропагандистскую кампанию в поддержку российской агрессии в Украине.

Как не попасться на их удочку? 

Чтобы пользование интернетом не разочаровало тебя и чтобы избежать ловушек троллей, следует учитывать следующие рекомендации.

Воздействие троллей на общество 

С помощью скоординированных действий тролли способны подорвать демократию. Они могут оказать существенное влияние на демократические процессы, такие как выборы или референдумы: это происходит за счет манипулирования общественным мнением и распространения дезинформации. 

А еще тролли могут способствовать поляризации и радикализации общества, усилению ненависти и недоверия между различными группами населения, подпитывая социальные и политические конфликты. Все это чревато социальной нестабильностью и нарушением сплоченности общества. 

Распространяемая троллями ложная информация может привести к принятию неверных решений, она может посеять необоснованную панику или же обернуться снижением доверия к официальным источникам

В качестве цели для своих нападок тролли могут выбрать людей, мнение которых не совпадает с их собственным. В конечном счете, не исключено, что мишени троллей окажутся жертвами преследований и запугивания

Распознавать тактику троллей и избегать прямого взаимодействия с ними — наиболее действенные способы борьбы с ними. А когда речь заходит о «фабриках троллей», тогда очень важно проверять источники информации, не попадаться в ловушку манипуляторов и продвигать более чистую онлайн-среду. 

Виктория Бородин

Подписывайтесь на наши социальные сети: TelegramYouTubeFacebook и Instagram. Здесь мы публикуем новости кратко и наглядно!

Рубрики
Актуально В Молдове

(ФОТО) Страницу BAStv в Facebook атакуют боты, продвигающие Шора

В последние недели страница BAStv в Facebook столкнулась с организованной атакой ботов — фейковых аккаунтов, оставляющих однотипные комментарии под публикациями.

Подобные сообщения появляются практически под всеми постами, не имея отношения к содержанию самих публикаций. Комментарии написаны общими фразами и, как правило, либо критикуют действующую власть, либо продвигают пророссийскую риторику беглого политика Илана Шора. Нередко такие комментарии сопровождаются нападками на независимые СМИ в Молдове, что выглядит как попытка подорвать доверие к местной и национальной прессе.

Многие из этих аккаунтов — фальшивые: у них нет настоящих фотографий, публикаций или признаков реальной активности. Большинство из них были созданы совсем недавно, другая часть — «воскрешена» из старых и неактивных профилей.

Редакция BAStv призывает своих читателей быть внимательными, не реагировать на провокации и сообщать о подозрительных комментариях или аккаунтах.

Подписывайтесь на наши социальные сети: TelegramYouTubeFacebook и Instagram. Здесь мы публикуем новости кратко и наглядно!

Bалютный курс: 03 Ноя 2022
EUR : 19.0778 MDL-0,0938 ▼
USD : 19.2733 MDL-0,0227 ▼
RON : 3.8839 MDL-0,0181 ▼
RUB : 0.3132 MDL-0,0003 ▼
UAH : 0.5221 MDL-0,0004 ▼