Инструмент для обнаружения аккаунтов Twitter, контролируемых ботами: исследование, направленное на противодействие кампаниям дезинформации

BotOrNot анализирует более 1000 функций из сети дружбы пользователей, их содержимое Twitter и временную информацию в режиме реального времени. Затем он вычисляет вероятность того, что учетная запись может быть или не быть ботом. Национальный научный фонд и военные США финансируют исследование после того, как осознали, что увеличение потока информации — блоги, сайты социальных сетей, технологии обмена мультимедиа — наряду с ускоренным распространением мобильных технологий меняют способы коммуникации и, возможно, дезинформационных кампаний. проведенный.Поскольку сетевая наука применяется к задаче раскрытия обмана, она использует структуру социальных сетей и сетей распространения информации, а также лингвистические подсказки, временные паттерны и данные о настроениях, полученные из контента, распространяемого через социальные сети.

Каждый из этих классов функций анализируется с помощью BotOrNot.«Мы применили структуру статистического обучения для анализа данных Twitter, но« секретный соус »заключается в наборе из более чем тысячи прогностических функций, способных различать пользователей-людей и социальных ботов на основе контента и времени их твитов, и структура их сетей ", — сказал Алессандро Фламмини, доцент информатики и главный исследователь проекта. «Демонстрация, которую мы сделали доступной, иллюстрирует некоторые из этих функций и их вклад в общую оценку« бот или нет »учетной записи Twitter».

Благодаря использованию этих функций и примеров ботов Twitter, предоставленных информационной лабораторией профессора Техасского университета Джеймса Каверли, исследователи могут обучать статистические модели различать социальных ботов и людей; по словам Фламмини, система довольно точная. Используя критерий оценки под названием AUROC, BotOrNot получает 0,95 балла, при этом 1,0 — идеальная точность.«Частично мотивация нашего исследования состоит в том, что мы не знаем, насколько серьезна проблема с количественной точки зрения», — сказал Фил Менцер, профессор информатики и компьютерных наук, который руководит Центром исследований сложных сетей и систем IU, где Работа ведется в рамках исследовательского проекта распространения информации под названием Truthy. «Существуют ли тысячи социальных ботов? Миллионы?

Мы знаем, что существует множество ботов, и многие из них абсолютно безвредны. Но мы также нашли примеры неприятных ботов, используемых для введения в заблуждение, использования и манипулирования дискурсом с помощью слухов, спама, вредоносных программ, дезинформации. , политический космонавт и клевета ".Фламмини и Менцер заявили, что, по их мнению, подобные социальные боты могут быть опасными для демократии, вызывать панику во время чрезвычайной ситуации, влиять на фондовый рынок, способствовать киберпреступности и препятствовать продвижению государственной политики.

Цель состоит в том, чтобы поддержать человеческие усилия по противодействию дезинформации правдивой информацией.Широкое внимание в СМИ привлекло использование социальных ботов. Менцер дал интервью The New York Times об использовании социальных ботов для влияния на выборы, и авторы сетевого телесериала «Хорошая жена» разыскивали его, чтобы проконсультироваться по этой теме.

В 2012 году команда получила чуть более 2 миллионов долларов за предложение под названием «Выявление ранней подписи убеждения в информационных каскадах», а в прошлом месяце представила результаты о BotOrNot и других аспектах проекта на встрече Министерства обороны в Арлингтоне, штат Вирджиния.Ссылка на BotOrNot: http://truthy.indiana.edu/botornot/