Сегодня происходят коренные изменения в общении между людьми — бум социальных сетей перевел общение в цифровую плоскость. Больше половины жителей планеты регулярно читают новости в социальных сетях и делятся ими. Бурный рост использования социальных сетей в сочетании с бесконтрольной публикацией и воспроизведением цифрового контента привел к росту распространения недостоверных сведений, передаваемых в неструктурированной форме (текст, изображения, видеоролики и т. п.) через рассылки, чаты, веб-страницы, социальные сети, опросы и пр. Проверка истинности такого контента может быть достаточно трудоемкой и потребовать много времени. Фейковые новости и искаженные сведения быстро распространяются, негативно влияя на процессы в целых отраслях экономики и в обществе в целом: здравоохранение и вакцинация, политика и демократия, производство пищевых продуктов и сельскохозяйственный сектор, фондовые рынки и т. д.
Понятие «фейковая новость» имеет ряд определений, общая черта которых — намерение ввести в заблуждение и распространить ложные сведения о происходящем в мире для получения какой-либо выгоды (рис. 1) или насаждения определенных идей и мнений. Фальшивые новости могут быть представлены в форме публикаций под заманчивыми («кликбейтовыми») заголовками, в виде пропаганды, «авторского мнения», юмора и сатиры и т. д.
Как распространители фейковых новостей заставляют аудиторию поверить в них? Психологи, исследующие социальные сети, называют соответствующие приемы «максимизацией влияния» [1], широко используемой для достижения широкого охвата аудитории. Наибольшее распространение в первую очередь получают негативно окрашенные новости, поскольку именно негативные чувства запоминаются лучше позитивных: информация о различного рода угрозах, публикации на тему секса, факты, вызывающие отвращение, а также события, опровергающие общепринятые представления и идущие вразрез с привычным порядком вещей. Кроме того, фальсификаторы пользуются тем, что люди обычно больше верят сведениям, соответствующим их убеждениям, приятным для них лично (например, «четырехдневная рабочая неделя») либо им уже знакомым [2].
Рис. 1. Получение финансовой выгоды с помощью фейковых новостей
Фейки о питании
Верить фейкам, например, на темы из сферы здравоохранения и сельского хозяйства людей нередко заставляет нехватка знаний и понимания основ работы этих отраслей. Фальшивки распространяются главным образом за счет «сознательности» представителей какой-либо социальной группы. Так, родители считают своим долгом уведомить других родителей о вредных продуктах или привычках, ставших известными им со слов «экспертов», из публикаций в Интернете и т. п., как это произошло, к примеру, с движением противников прививок.
Если говорить о сельскохозяйственной продукции, то сегодня бытует масса противоречивых убеждений о здоровом и нездоровом питании. Основная причина путаницы — ложная информация в двух формах: пищевая «мода» (то есть безосновательная вера в то, что употребление или неупотребление в пищу каких-то продуктов, их сочетаний или добавок может лечить заболевания, благотворно влиять на здоровье или способствовать быстрому похудению) и аналогичная дезинформация, распространяемая с целью получения выгоды [3]. Характерный пример пищевой «городской легенды» — слух об искусственном рисе, циркулирующий, по сведениям информационного телеканала BBC, еще с 2010 года и зародившийся в Китае: утверждается, что при употреблении в пищу трех чашек такого риса человек съедает такое же количество пластика, какое содержит полиэтиленовый пакет. Слух оказался таким правдоподобным, что когда в 2016 году он достиг африканских социальных сетей, то нигерийские таможенники конфисковали 2,5 тонны натурального риса. Неменьшую популярность приобрело опубликованное в Facebook видео о домашнем тестировании пищевых продуктов, где мороженое предлагалось проверять в стиральной машине, детское питание — путем смешивания с песком, а сыр — добавлением бытовой химии. Ролик набрал около 100 млн просмотров, 500 тыс. лайков и 170 тыс. комментариев. Им успели поделиться около 3 млн раз, после чего по инициативе Американского управления по контролю пищевых продуктов и медикаментов видео было удалено, а в отношении Facebook начались проверки.
Скандалы из-за распространения фейковых новостей могут привести к социально-экономическому спаду в связи с ростом числом людей, не доверяющих правительству, ученым, индустрии, фермерам и производителям.
Борьба с фейковыми новостями
До недавнего времени в редакциях крупных СМИ фальшивые новости вычисляли вручную: редакторы проверяли факты до публикации, независимые эксперты — после нее [4]. Такие проверки выполняют как сами службы новостей, так и специализированные организации — например, в США к ним относятся FactCheck, PolitiFact и FullFact. Широкое распространение новостей через социальные сети и негативное влияние массовой дезинформации на общество заставило исследователей обратиться к новым методам распознавания фальшивок с помощью технологий больших данных и машинного обучения. Современные автоматизированные системы анализа новостей, как правило, работают по одному из трех принципов:
Анализ стиля текста, а не содержания. Суть метода в том, что фальсификаторы, желая ввести читателя в заблуждение, пользуются определенными приемами, чтобы навязать желаемую идею и при этом не быть пойманными на лжи. Это проявляется в определенных стилистических особенностях, не всегда заметных человеку: показателями фальсификации могут служить определенные частота и закономерность употребления отрицаний, местоимений и союзов, а также уровень словарного запаса и сложность текста.
Анализ распространения. Метод строится на использовании специальных моделей, напоминающих модели эпидемий инфекционных заболеваний и позволяющих предсказывать, как будет распространяться дезинформация.
Анализ пользовательской активности. Метод заключается в оценке участия читателей в создании и распространении фейковых новостей. Пользователи делятся на два класса: «злоумышленники», получающие выгоду от создания и распространения фейков, и обычные пользователи, которые распространяют фальшивки без конкретного намерения, как правило, одновременно со злоумышленниками.
Рис. 2. Схема распознавания фейковых новостей
Оценка стиля: семантический анализ и машинное обучение
Сегодня доступен ряд сервисов, которые с помощью моделей машинного обучения выполняют лингвистический анализ заголовков, текста, мультимедиаконтента, метаданных и других параметров. В ходе тестирования таких сервисов (FakeBox, FightHoax, TrulyMedia, SocialTruth и др.) достигалась точность более 95%. Разработанный в МТИ тест Giant Language Model Test, действующий по принципу статистического анализа и сравнения с опорными данными, с точностью 72% распознает тексты, сгенерированные машиной. Подобные системы (рис. 2) в основном работают по принципу поиска признаков специфического стиля написания, сенсационных заголовков и пр., сравнивая и соотнося их с текстами из уже размеченных наборов данных. Кроме того, такие сервисы могут выполнять поиск аккаунтов или никнеймов, в конечном счете принадлежащих уже проявившим себя авторам фальшивок. В результате работы системы входной контент классифицируется как достоверный или ложный.
Статистический анализ может основываться, например, на анализе общего числа слов, среднем количестве букв в словах, частоте употребления различных слов, количестве неповторяющихся слов. Возможен поиск синтаксических особенностей: частота употребления служебных слов, особенности пунктуации, встречаемость различных частей речи. Показателем достоверности могут служить домен-специфичные элементы текста: цитаты, внешние ссылки, характер иллюстраций. Сам анализ может выполняться при помощи семантических технологий и классификаторов на основе алгоритмов глубинного обучения. При семантическом анализе оценивается смысл синтаксических структур — словосочетаний, фраз, предложений, абзацев, текста в целом — с отбрасыванием признаков, специфичных для конкретного лингвистического и культурного контекста. Обычно это предварительный этап обработки текста, выполняемый для подготовки к дальнейшему анализу, но, в отличие от стандартной очистки от посторонних символов и строк, здесь сохраняются первоначальные отношения между объектами: людьми, событиями и др. При такой предварительной обработке может формироваться «сеть» из слов и их взаимосвязей, которая выражает смысл текста и сама по себе подходит для анализа на этапе классификации, когда тексту назначаются метки или категории в зависимости от содержания. Данная схема применяется для решения многих задач, в том числе при анализе тональности высказываний, при тематической разметке, распознавании спама и определении намерений.
Перечислим алгоритмы машинного обучения, используемые для классификации фейковых новостей с учетом стиля текста.
Метод опорных векторов. Позволяет существенно уменьшить потребность в размеченных обучающих экземплярах при различных типах обучения. Классификаторы этого типа демонстрируют высокую эффективность на новых данных, достигая точности более 90%.
Метод k-ближайших соседей. Алгоритм обучения на основе сходства, который можно применять для различных задач классификации текстов, по эффективности сопоставим с методом опорных векторов.
Логистическая регрессия. Один из ключевых аналитических инструментов, применяемых в обществознании и естественных науках. В обработке естественного языка применяется для контролируемого обучения классификаторов, принимающих решение путем сравнения входных данных с опорными.
Случайный лес. Метод классификации, предусматривающий выращивание большого «ансамбля» решающих деревьев и выбора тех, которые обеспечивают наилучшие результаты.
Наивная байесовская модель. Такая модель популярна в качестве несложного инструмента создания вероятностных классификаторов фейковых новостей, демонстрирующего достаточную эффективность в сложных реалистичных условиях.
Искусственные нейронные сети. Нейросети состоят из узлов, выполняющих вычисления: искусственные нейроны комбинируют входные данные с весовыми коэффициентами, назначая полученным сведениям вес с учетом выполняемой сетью задачи. Традиционные алгоритмы нейросетей хуже справляются с классификацией текстов, так как не запоминают предыдущую историю обработки данных, поэтому в современных системах анализа отдают предпочтение глубинным нейронным сетям.
Глубинное обучение. Глубокие нейронные сети похожи на обычные, но состоят из множества слоев. Для распознавания фейковых новостей предложен ряд архитектур таких сетей, в том числе сверточные (convolutional neuronal network, CNN), требующие минимального количества предварительной обработки, числа параметров и объема обучения. Кроме того, используются рекуррентные нейросети, динамически меняющиеся со временем и способные запоминать новую лексическую и семантическую информацию. Также применяются иерархические сети внимания (hierarchical attention network, HAN), фиксирующие определенные характеристики структуры документа. Вначале они выстраивают репрезентации предложений, а затем на их основе формируют репрезентацию всего документа. При этом используется факт различной степени информативности разных слов и предложений.
Все эти методы могут демонстрировать превосходные результаты, но лучшую эффективность в большинстве случаев (как при распознавании фейковых новостей, так и в других задачах классификации) показывают логистическая регрессия, байесовские модели и глубинное обучение, хорошо проявившее себя на разных наборах данных и при работе с различными схемами обработки. Сверточные сети чаще демонстрируют более точные результаты на разнородных наборах данных, а HAN — при обработке обширных наборов. Обычно CNN позволяют получить точность свыше 90%, причем этот показатель можно улучшить, если задействовать схемы, компенсирующие отсутствие запоминания предыдущих событий. Одна из таких схем — «долгая краткосрочная память». Это разновидность рекуррентных нейронных сетей с циклами и блоками, которые позволяют запоминать значения в течение некоторого периода времени, что позволяет прослеживать связь между словами, которыми начинается и оканчивается анализируемый текст.
Доступные корпусы уже размеченных фейковых и реальных новостей повышают точность работы классификаторов независимо от применяемого метода машинного обучения. К общедоступным наборам данных такого рода можно отнести: Kaggle — базу фейковых новостей, содержащую несколько тысяч вхождений; BuzzFeed — обновляемый перечень сайтов, публикующих сфабрикованные сведения; Kaidmml — нормализованные сборники фейковых новостей; LIAR — набор тестовых данных, содержащий 12,8 тыс. проверенных высказываний различных спикеров на разные темы.
***
Фейки и искажение сведений в новостях по-разному влияют на жизнь людей, при этом от кампаний дезинформации не защищены никакие сферы жизни и отрасли экономики. Фейковые новости наносят ущерб предприятиям различных секторов, даже когда сами эти предприятия не являются непосредственным объектом клеветы. Подрыв доверия к властям, науке и здравоохранению приводит к падению продаж и стоимости акций, негативным социальным последствиям.
С учетом масштабов распространения ложной информации, как никогда актуальна потребность в быстрых и действенных решениях в ходе борьбы с фейками. Современные технологии классификации текстов, основанные на машинном обучении, позволяют ускорить и частично автоматизировать процесс отсева дезинформации. Но, чтобы избежать предвзятости, не стоит доверять задачу распознавания ложных сведений какому-либо одному специализированному центру или алгоритму верификации. Даже самые сложные модели классификации, основанные на глубинном обучении, оптимальны лишь на момент создания, и их точность со временем уменьшается по мере появления новых фальшивок и изменения стиля их написания. Задачу децентрализации можно решить, например, с помощью распределенных архитектур верификации контента на основе блокчейна. А проблему устаревания моделей можно преодолеть с помощью открытых фреймворков, обеспечивающих непрерывное обучение, а также благодаря повышению модульности и адаптивности архитектуры автоматических сервисов верификации контента.
Литература
1. S. Banerjee, M. Jenamani, D. K. Pratihar. A survey on influence maximization in a social network. 2018. arXiv:1808.05502.
2. A. Acerbi. Cognitive attraction and online misinformation // Palgrave Commun. — 2019. — vol. 5. Art. no. 15.
3. Position of the American dietetic association: Food and nutrition misinformation // J. Amer. Dietetic Assoc. — 2006. — N. 4. — P. 601–607.
4. S. Cazalens, P. Lamarre, J. Leblay, I. Manolescu, X. Tannier. A content management perspective on fact-checking. Proc. Companion Web Conf. — 2018. — P. 565–574.
Константинос Деместихас (cdemest@cn.ntua.gr) — научный сотрудник; Константина Ремунду (kremoundou@cn.ntua.gr) — специалист по анализу данных; Евгения Адамопулу (eadam@cn.ntua.gr) — старший научный сотрудник, Афинский политехнический университет.
Konstantinos Demestichas, Konstantina Remoundou, Evgenia Adamopoulou, Food for Thought: Fighting Fake News and Online Disinformation, IT Professional. March/April 2020, IEEE Computer Society. All rights reserved. Reprinted with permission.