Чем опасна недостоверная информация в сети: Что нужно знать о проблемах недостоверной информации в Интернете?

Содержание

Чем опасна недостоверная информация в сети?

В последние годы Интернет стал самым популярным источником информации. Это вполне закономерно, поскольку поиск данных в Сети удобен, прост и занимает гораздо меньше времени, чем поход в библиотеку, чтение архивов газет или даже просмотр телевизора. В связи с постоянным развитием Интернет-технологий, в обществе сформировалось позитивное общественное мнение о полезности Интернета, а расширение его технических возможностей и аудитории, повлекло за собой появление множества информационных сервисов и ресурсов. Поиск информации через Интернет стал прерогативой не только рядовых пользователей, но и государственных служащих, бизнесменов и коммерческих организаций. Ведь своевременное получение информации способно приносить немалую прибыль и ощутимую пользу. Коммуникация с клиентами и потребителями, доступная реклама перед потенциальной аудиторией, все это открыло массу возможностей как для потребителей, так и для распространителей информации.

Доверяй, но проверяй

Таким образом, рано или поздно перед каждым пользователем Интернета встает один неизбежный вопрос. Можно ли доверять той информации, которая публикуется в Интернете? Осуществлять контроль достоверности информации, полученной в результате поиска, не только можно, но и нужно. Доверять всему, что написано в Сети было бы слишком глупо и наивно, ведь Интернет является зоной свободного доступа, и абсолютно каждый может принимать участие в его наполнении. Рассмотрим традиционные способы проверки полученных через Интернет данных:

1. Проверка фактического материала

Факт выдумать невозможно, ибо его достоверность строго установлена. Любые фактические и статистические данные имеют источник. Проверка точности фактов и приведенных чисел с большой долей вероятности покажет, на какие данные опирается сайт. Идеальным будет наличие ссылок на авторитетные источники вроде агентств сбора статистики или научные институты. Если эта информация не является точной или не соответствует действительности, то и остальной материал также не будет заслуживать доверия.

2. Поиск других источников информации

Сравнение – один из самых эффективных способов поиска истины. Редко одна и та же недостоверная информация публикуется на нескольких сайтах сразу. Поэтому, если одни и те же данные встречаются в Интернете на совершенно разных ресурсах, то им можно доверять. При этом стоит уделить внимание первоначальному источнику информации. К сожалению, не редки случаи, когда все сайты ссылаются на один и тот же недостоверный источник.

3. Установление использования материала другими источниками

Перепечатка и копирование данных с одного сайтам другими сайтами является хорошим знаком, поскольку это означает, что этому источнику доверяют. Чем больше ссылок на исходный материал мы найдем в Интернете, тем выше его авторитет в глазах других ресурсов. Несомненно, это говорит в пользу приведенной информации.

4. Выяснение рейтинга и авторитета сайта

Самый простой и действенный способ убедится в правдивости полученной информации, это ознакомится с репутацией сайта, на котором она размещена. Известные ресурсы обычно заслуживают доверия, поскольку трепетно относятся к своему рейтингу и не станут разменивать его на сомнительные сенсации. Узнать о популярности сайта можно с помощью специальных рейтинговых систем, например через топ «Рамблера» и «Яндекса». Также можно просто вбить название ресурса в любой поисковик и почитать отзывы о нем. Хорошим знаком является наличие у ресурса свидетельства о регистрации СМИ. Онлайн-СМИ несут особую ответственность за любую опубликованную информацию, поэтому стараются избегать непроверенных данных. Кроме того, проверенные данные публикуют официальные сайты, являющиеся первоисточниками.

5. Получение информации об авторе материала

Для того чтобы понять, стоит ли доверять какой-либо статье, можно поискать информацию о статусе и компетентности ее автора. Не лишним будет ознакомиться с другими его работами, комментариями и отзывами читателей. Если автор статьи имеет хороший журналистский опыт, почетную должность или научную степень, шансы на правдивость его доводов прилично возрастают. Кроме того, в Интернете могут быть его блоги, страницы социальной сети и прочая информация, которая поможет составить мнение об авторе.

Поиск – это серьезно

Не менее важен грамотный подход к самому процессу поиска информации. Редкий пользователь точно знает сайты, на которых может получить интересующие его данные. Подавляющее большинство людей использует популярные поисковые сервисы, такие как Google, Yandex, Rambler и Mail. Очень многое зависит от поисковой процедуры и формулировки запроса. Любая поисковая система ищет в своей базе данных из миллиарда страниц те, что соответствуют заданным параметрам. Для этого используется так называемая программа индексации. Она распознает текст, связи, и другое содержание страницы, и хранит это в файлах базы данных так, чтобы страница могла быть найдена по ключевым словам. После того, как пользователь делает поисковый запрос, машина ищет нужное слово в своем индексе. Если бы система искала по всему Интернету, то на ответ ей понадобилось бы несколько дней. Поскольку поиск ведется в индексе, многие результаты могут быть устаревшими. Всем известен пример, когда страница уже не существует, а поисковик все еще ее находит и восстанавливает. При этом многие свежие сайты в поисковый результат не попадают. Поэтому если мы не может найти что-либо в одной поисковой системе, имеет смысл поискать в другой.

Подытоживая, можно сделать следующие выводы. Необходимо четко представлять себе, что мы ищем. Правильно сформулированный запрос сэкономит много времени и усилий, а также позволит найти именно то, что нужно. Стоит доверять официальным сайтам и их пресс-релизам. Также заслуживают доверия информационные агентства, научные институты и их исследования. За опубликованные данные несут ответственность онлайн-СМИ. Отдельную категорию составляют материалы, перепечатанные из реальных источников, но доступные в Интернете. Например, учебники и энциклопедические данные. При этом нужно настороженно относиться к таким ресурсам, как Википедия. Информация, опубликованная в ней, вполне может оказаться недостоверной, поскольку доступ к редактированию статей имеет любой желающий. Это может быть, как опытный профессор, так и обыкновенный школьник. Википедия хороша для расширения кругозора, однако ссылаться на нее в серьезной работе весьма опасно. Тоже самое можно сказать и о блогах. Блоггеры, которых называют «гражданскими журналистами», порой располагают очень интересной информацией, которую нельзя найти даже в СМИ. Но при этом часто никто кроме автора блога не может подтвердить достоверность опубликованной информации. Поэтому использовать блоггерские данные нужно осторожно, проверяя их особенно тщательно. Конечно, речь не идет о президентском блоге или «официальных» блогах компаний.

Руководствуясь правилами элементарной логики, подготовленный пользователь сумеет отличить правду от лжи. Однако даже самый искушенный человек может оказаться обманутым. Засилье многочисленных красиво оформленных сайтов мошенников и желтой прессы способно ввести в заблуждение кого угодно. Крайне важно проверять все важные данные, найденные в Интернете, поскольку последствия использования недостоверной информации могут быть весьма печальными.

Что угрожает студентам в интернете?

Кафедра социологии МГИМО представила результаты исследования «Виртуальная свобода и безопасность студентов в интернете». Ученые изучали проблемы использования интернета с учетом гендерных, возрастных, социокультурных факторов, защищенности студентов в интернете, осознания ими правовых и этических границ виртуального общения, а также ответственности за распространение недостоверной информации. Мы задали несколько вопросов руководителю проекта заведующему кафедрой социологии С.Кравченко.

Прежде всего, хотелось бы узнать, кто, собственно, был объектом исследования?

В опросе участвовали 400 студентов бакалавриата и 129 магистрантов МГИМО. Выборка репрезентативна: при ее разработке использовался квотный принцип отбора респондентов, учитывались такие факторы как принадлежность к факультету, курсу обучения, а также пол. Изначально мы хотели сравнить наших студентов со студентами других ведущих университетов Москвы.

Для этого мы обратились к нашим коллегам из МГУ и РУДН. Чтобы сравнение было адекватным, было принято решение провести опрос не всех студентов, а лишь тех, кто имеет родственную учебную и профессиональную ориентацию — социально-политическую и гуманитарную. В МГУ это были студенты социологического факультета, 103 чел., а в РУДН — представители социального и гуманитарного знания, 109 чел. В силу малочисленности групп студентов РУДН и МГУ, их результаты учитывались преимущественно в основном массиве анализируемых анкет, хотя по ряду позиций было интересно посмотреть на различия.

Один из акцентов исследования — проблема безопасности в сети. Что понималось вами под безопасностью в интернете?

Безопасность очень многогранна. Применительно к интернету можно, например, говорить о безопасности социокультурной, правовой, психологической и безопасности для здоровья.

Даже безопасности для здоровья?

Именно так. Среднестатистическое время пребывания студента в интернете в будний день — около четырех часов, а в выходные даже больше. При этом значительная часть молодых людей проводит в интернете более пяти часов. Например, в МГИМО таких 15,7%, в МГУ — 19,2%, в РУДН — 26,5%. Более пяти часов в выходной день: МГИМО — 19,6%, МГУ — 23,2%, РУДН — 31,7%.

То есть, грубо говоря, каждый пятый студент проводит большую часть свободного времени, сидя за компьютером?

Не совсем. Дело в том, что время, проводимое в интернете за компьютером, сокращается, а время выхода в интернет с мобильного телефона резко увеличивается. Именно за счет этого фактора «набегает» столь большое общее время, проводимое в интернете. Вот что по этому поводу сказали сами студенты. Выход в интернет более одного раза в день с мобильного телефона: МГИМО — 69,1%, МГУ — 60,4%, РУДН — 63,9%. Выход в интернет более одного раза в день с компьютера: МГИМО — 20,8%, МГУ — 35,2%, РУДН — 20,5%.

В итоге время пребывания в сети составляет в среднем шестую часть суток. Судите сами, насколько такая психологическая и эмоциональная нагрузка опасна или безопасна для здоровья человека. На наш взгляд, опасна, во всяком случае, это может быть отложенная во времени опасность, подобная курению: естественно, реальной угрозы здоровью на сегодняшний день нет, но она может дать о себе знать в будущем.

И как этих угроз избежать? Есть ли у Вас рецепт?

Думается, возможные решения проблемы лежат в следующих плоскостях: поиск нужной информации можно осуществлять за счет альтернативных источников, в том числе, лучшего, более удобного для студентов функционирования библиотек, организации межвузовских семинаров и конференций и т. п. И не на последнем месте должно быть общение лицом к лицу, которое вытесняется интернет-общением. Да, наконец, просто нужна качественная социокультурная рекреация, на которую бы не жалко было потратить время!

Насколько сами респонденты разделяют Ваши опасения? Есть ли студенты, которые считают, что они проводят избыточно много времени в интернете?

Организованные нами фокус-группы показали, что ряд студентов осознает эти опасности. Но нас главным образом интересовали, как я уже отметил, проблемы безопасности, относящиеся к социальной, культурной и правовой сферам.

Вероятно, конкретное наполнение этих проблем связано с тем, ради чего, собственно, студенты выходят в интернет.

Вы совершенно правы. Давайте посмотрим, что собственно привлекает студентов, какова собственно функциональность интернета.

Ведущая явная функция — использование сети для учебы и работы: МГИМО — 85,5%; МГУ — 88,3%; РУДН — 86,0%. Знакомство с новостями: МГИМО — 55,3%; МГУ — 38,8%; РУДН — 41,1%. (Данные превышают 100%, так как студенты могли выбрать несколько опций, функционально значимых для них).

Все это свидетельствует о том, что в контексте общей рационализации жизнедеятельности студентов интернет сокращает время поиска нужной информации, которое высвобождается для других видов деятельности.

Также нами была выявлена тенденция повышения эффективности использования ресурсов интернета по мере того, как студенты переходят на более старшие курсы обучения — в учебных и профессиональных целях более активно используются те сервисы всемирной паутины, которые позволяют решать профессионально-учебные задачи и меньше задействуются сайты, предназначенные для развлечения.

Получается, что, вопреки расхожему мнению, интернет не отвлекает молодежь от учебы и работы, а ровно наоборот — студенты идут в сеть за знаниями?

Не все так просто, как может казаться на первый взгляд. В сложном обществе нет явлений однозначно положительных или отрицательных. Функциональность интернета амбивалентна: ряд студентов, на что зачастую жалуются преподаватели, идет по легкому пути получения достаточно ограниченных, «куцых» сведений по изучаемой проблеме вместо серьезной проработки рекомендуемых первоисточников. Аналогично: довольствуются новостями бегущей строки вместо чтения аналитических статей газет и журналов. На наш взгляд, в этом состоят социокультурные опасности формирования рассудочного, поверхностного подхода к знанию вообще в противоположность разумного, глубокого подхода. Это не только личностная, но и социальная проблема. Упрощенческий подход к сути сложных проблем сложного общества, в котором мы живем (извините за тавтологию), зачастую оборачивается тем, что «хотим, как лучше, получается же — как всегда».

Для чего еще, кроме учебы и работы, используют интернет студенты? Какие потребности он удовлетворяет?

По данным нашего опроса, функция общения и знакомства стоит на втором месте: МГИМО — 59,9%; МГУ — 67,0%; РУДН — 64,5%.

Но, замечу, это весьма динамичная функция: чем меньше возраст студентов, тем больше их вовлеченность в социальные сети, тем выше коммуникативная активность в виртуальном пространстве. И наоборот: на старших курсах время, отводимое на эту функцию, сокращается.

На третьем месте идут развлечения и игры: МГИМО — 44,4%; МГУ — 40,8%; РУДН — 42,1%. Замечу, что в целом общение в собственно социальных сетях составило: МГИМО — 93,4%; МГУ — 92,2%; РУДН — 90,4%.

При сохранении настоящей тенденции использования студентами социальных сетей Вконтакте, Facebook и Twitter, количество первокурсников, которые выберут социальные сети в качестве средства общения в 2013 году, составит 99,03%, а еще через год каждый первокурсник будет участником всемирной коммуникационной паутины.

Социальные сети тоже несут в себе какие-то угрозы?

Да, разумеется. У виртуального общения есть и латентная сторона: сокращается взаимодействие лицом к лицу, уменьшаются социальные практики коллективистского толка. «Друзья» в интернете как легко заводятся, так и легко оставляются, они радикально отличаются от реальных друзей, предполагающих устойчивые человеческие связи, крепкую дружбу, серьезные интимные отношения в виде любви. Многие социологи отмечают, что возникла принципиально новая проблема: перенос отношений к виртуальным «друзьям» на друзей реальных. Известный британский социолог Зигмунд Бауман считает, что эта опасность вообще представляет угрозу собственно человеческой коммуникации. В изданной в прошлом году книге «Побочный ущерб» ученый утверждает, что если не так давно «побочные потери» относились лишь к военной сфере, то ныне они пришли в повседневную социальную жизнь, что связано с «ослаблением и закатом буквально всех межчеловеческих уз».

Но, несмотря на все эти мрачные «побочные последствия», люди все больше вовлекаются в общение в социальных сетях. В чем секрет?

В доступности сетевого общения. На это качество интернета, кстати, указало подавляющее большинство студентов всех университетов: МГИМО — 64,8%; МГУ — 72,8%; РУДН — 52,8%.

Многие студенты воспринимают сеть Интернет как пространство неограниченной свободы в силу его «бестелесности» (можно не видеть своего партнера по общению), анонимности (можно скрываться под вымышленным именем или ником), легкости установления/разрыва контакта с пользователями, находящимися в любой точке мирового пространства. Такое восприятие интернета порождает иллюзию безопасности сетевого общения.

А что сами студенты считают наиболее привлекательными чертами интернет-общения?

Открытость. К достоинствам открытости интернета студенты отнесли возможность общаться с гражданами других стран: МГИМО — 58,7%; МГУ — 40,8%; РУДН — 52,8%.

Достоинством студенты считают также анонимность. Впрочем, количество студентов, ценящих эту возможность, невелико: МГИМО — 5,6%; МГУ — 6,8%; РУДН — 9,4%. На наш взгляд, эти данные свидетельствуют о том, что у студентов в принципе нет стремления к анонимному общению. Им нет смысла себя как-то скрывать.

К достоинствам открытости сети Интернет студенты отнесли также возможность быстрого доступа к информации о том, что происходит в мире. Вот данные чтения новостных лент: МГИМО — 91,7%; МГУ — 91,1%; РУДН — 91,8%.

Далее, студентов привлекает возможность выступить организаторами виртуальных сообществ, что студенты реально делают: МГИМО — 22, 1%; МГУ — 21,1%; РУДН — 21,4%.

Отмечается также возможность участия в социальных акциях и флешмобах: МГИМО — 27,8%; МГУ — 35,0%; РУДН — 23,2%.

Многие студенты сами ведут блоги: МГИМО — 21,0%; МГУ — 11,7%; РУДН — 17,3%.

Особо отмечу, что многие студенты подписаны в блогах политических деятелей: МГИМО — 34,4%; МГУ — 26,2%; РУДН — 30,0%.

Эти данные опровергают распространенное мнение об увеличивающейся аполитичности молодежи. Да, представители молодежи не спешат вступить в ту или иную политическую партию. Однако молодые люди достаточно активно участвуют в новых формах политической жизни.

А что чаще всего вызывает у студентов негативные эмоции при общении в интернете?

Наибольшее раздражение вызывают, что характерно, те явления, которые являются оборотной стороной той же открытости. Среди них:

недобросовестный маркетинг и спам —

МГИМО — 51,9%; МГУ — 44,7%; РУДН — 53,6%;

непристойные выражения и непристойный контент —

МГИМО — 30,2%; МГУ — 27,7%; РУДН — 35,1%;

пропаганда насилия и безответственного поведения —

МГИМО — 21,7%; МГУ — 19,1%; РУДН — 20,6%;

оскорбление и клевета в адрес других —

МГИМО — 20,1%; МГУ — 22,3%; РУДН — 21,6%;

политическое давление и пропаганда —

МГИМО — 16,6%; МГУ — 14,9%; РУДН — 27,8%;

оскорбление и клевета в собственный адрес —

МГИМО — 20,3%; МГУ — 16,0%; РУДН — 20,6%.

Реалии интернета как сложной самоорганизующейся социальной сети таковы, что достоинства открытости и свободы интернета, увы, сочетаются с «побочными потерями». С одной стороны, имеет место миксофилия (стремление к многообразию жизнедеятельности, знакомству с новыми ценностями и т. д.), а с другой — формируется миксофобия (страх перед увеличивающимся многообразием стилей жизни и опасностей).

Вероятно, это раздражение и этот страх и стали причиной ряда общественных и законодательных инициатив, направленных на усиление регулирующих функций государства в области интернет-коммуникаций? Как Вы считаете, удастся ли соблюсти баланс между свободой и безопасностью?

Безопасность, свобода и открытость в силу своей сложной природы не могут противопоставляться друг другу. Что же касается той части вопроса о «рецепте» баланса между ними, то, по моему мнению, необходимо разрабатывать стратегию управляемой открытости, которая должна прийти на смену самоорганизованной открытости. Речь, конечно, не о том, чтобы управление вытеснило самоорганизацию (это невозможно по определению), а о нахождении оптимального баланса между управлением и самоорганизацией.

А как Вы относитесь к формированию «черных списков» сайтов и блокированию доступа к определенному контенту?

Я не могу сказать, насколько это технически возможно. Да и проблема эта не столько техническая, сколько формирующейся космополитической этики интернета, а также ее адекватности мировым и национальным правовым нормам. Сегодня вряд ли кто-то может предложить готовые рецепты. Во всяком случае, мне о них неизвестно. Но наше исследование выявило то, как студенты к этим проблемам относятся.

Будет интересно узнать их мнение.

Студенты неплохо осведомлены, что существует ответственность перед законом за свое поведение в интернете: МГИМО — 50,5%; МГУ — 45,6%; РУДН — 55,1%.

Более того, подавляющее большинство студентов хотят, чтобы была ответственность перед законом: МГИМО — 55,6%; МГУ — 62,7%; РУДН — 65,4%.

Однако что меня порадовало, так это то, что подавляющее большинство студентов ведущих вузов России вообще не предрасположено к неэтичному поведению в сети. В качестве достоинства отсутствие строгих моральных норм и обязательств готовы рассматривать лишь немногие респонденты: МГИМО — 6,8%; МГУ — 1,9%; РУДН — 9,4%.

Любопытно, что отношение юношей и девушек к этой проблеме весьма не единодушно. Оказалось, что юноши менее чувствительны к соблюдению этических норм поведения другими пользователями в виртуальном пространстве. Среди них больше тех, кто не осудил бы своих друзей за недостоверную информацию (16,2% против 7,6% девушек) и меньше сторонников публичного осуждения недобросовестных пользователей интернета (46,0% против 52,3%).

И еще один интересный результат, который мы получили. Студенты, имеющие, по их оценкам, высокий уровень социальной адаптации и ответственности за свое поведение в сети, не являются сторонниками введения административно-правовых ограничительных способов регуляции поведения в интернете, они чаще называют в качестве условий формирования ответственного поведения — воспитание, уважение к другим людям, чувство долга.

Студенты, в основном из других регионов, боящиеся быть непонятыми, старающиеся не раскрывать себя полностью в виртуальном общении, — за необходимость принятия законодательных норм регуляции поведения в сети.

А что Вы сами думаете по этому поводу?

Идет становление очень сложной реальности. Появились принципиально новые проблемы, которые еще ждут своих исследователей. В усложняющемся социуме этика коммуникации перестает основываться только на моральных нормах, которые в разных культурах становятся «текучими». В этих условиях этика, предполагающая правовые нормы, становится необходимым условием безопасности и эффективности любого общения.

Точка зрения авторов, комментарии которых публикуются в рубрике
«Говорят эксперты МГИМО», может не совпадать с мнением редакции портала.

Коммерческое использование данной информации запрещено.
При перепечатке ссылка на Портал МГИМО обязательна.

Екатерина Мизулина о недостоверной информации в интернете — Газета.Ru

close

100%

Depositphotos, коллаж

Один мой знакомый опубликовал видео процесса своей вакцинации в одной популярной соцсети. Он забыл об этом, так как не пользуется постоянно этой социальной сетью, а открыв свой аккаунт через два месяца, с удивлением обнаружил сотни тысяч просмотров, тысячи комментариев, среди которых множество фейков.

Почему так происходит? Кто и зачем распространяет фейки? Как отличить фейк от экспертного мнения? Что делать, если вы натолкнулись на фейк и возмущены?

Давайте разберемся во всем подробно.

Волонтеры Лиги безопасного интернета и Национального центра помощи детям уже больше года мониторят распространение фейковой информации в сети. С 1 июня этого года они обнаружили 4706 фейков о коронавирусе, вакцине, ходе вакцинации, ограничительных мерах. Некоторые откровенно постановочные недостоверные сообщения, распространяемые под видом достоверных, были направлены в МВД России для проведения проверки. В последние две недели число таких фейков резко возросло: ежедневно волонтеры находят от 100 до 150 недостоверных новостей.

Что за фейки распространяются и как они выглядят?

Видео, которое увидели тысячи пользователей пару недель назад: мужчина едет за рулем и якобы везет медсестру больницы, которая почему-то весь ролик находится за кадром. Тревожным голосом взволнованная женщина рассказывает о том, что к ним «в отделение постоянно едут молодые и взрослые граждане умирать после вакцинации». Никаких фактов, подробностей: только страшное сообщение, которое массово стало пересылаться россиянами в мессенджере WhatsApp.

Еще один пугающий рассказ. Теперь уже из TikTok: прямое включение, срочный репортаж, просьба массово распространить информацию. Женщина скрывает свое лицо, и, показывая городской пейзаж, рассказывает жуткую историю: якобы «ВОЗ запретила вакцину «Спутник V», а нашим гражданам колют запрещенный препарат». Начинаем проверять информацию. Действительно, проверка ВОЗ приезжала на один из российских заводов, где производят вакцину, и нашла там нарушения… в области экологического контроля и недостаточное соблюдение норм безопасности сотрудниками. Результаты инспекции ВОЗ не ставят под сомнение качество вакцины «Спутник V», заверили, в свою очередь, в российском Минпромторге. Зачем тогда вводить людей в заблуждение?

Сегодня, готовя этот материал, изучала публикации за последние сутки. Среди сотен разных роликов впечатлил один: якобы «от вакцинации умирают только полицейские». Ну, конечно, а кто же еще? Ведь именно их работа – привлекать к ответственности вот таких «фантазеров». Никаких фактов, естественно, автор видео не приводит.

Кто и зачем распространяет фейки?

Условно мы выделяем три категории тех, кто это делает.

Первая категория – те, кто услышал новость, например, в метро или автобусе, и поспешил сообщить об этом своим подписчикам (и всему миру). Чаще всего это непроверенная информация о том, что произошло или может произойти в том или ином регионе, городе.

Вторая – это те, кто услышал или придумал информацию и распространил ее для того, чтобы повысить охваты своего аккаунта, увеличить число подписчиков и попасть в рекомендации той или иной соцсети. Это хайп на непроверенной информации. Нередко к такому способу прибегают и отдельные СМИ. Конечно, когда к авторам приходит полиция, они «сожалеют» и говорят о том, что опубликовали информацию по ошибке. Но итоговая цель этих граждан – монетизация.

Самая опасная категория среди тех, кто распространяет фейки, – это профессиональные провокаторы. Они действуют как изнутри России, так и из-за рубежа. Они создают такие фейки по определенным шаблонам, монтируют видео или подменяют голос, создают некий эффект «реальности», например, детскими голосами на фоне. А главное – быстро распространяют фейки с использованием определенных технологий продвижения в соцсетях. Публикации таких провокаторов могут за пару часов охватить один регион, а за 1-2 дня – всю страну. Начинается все через WhatsApp, потом как вирус охватывает все соцсети, а дальше появляются даже листовки в подъездах.

Интересный прецедент был установлен и участником Лиги безопасного интернета – компанией «Крибрум» в прошлом году: после объявления президента России о старте процесса по обсуждению поправок в Конституцию было зарегистрировано множество новых аккаунтов-пустышек в соцсетях, которые сначала в марте 2020 года распространяли фейки о содержании поправок, потом после объявления режима самоизоляции – о ковиде, а после назначения даты общероссийского голосования по поправкам в Конституцию опять вернулись к распространению фейков по вопросу содержания поправок и ходе голосования.

В чем цель распространения фейков?

Кроме случаев хайпа и желания прославиться, у профессиональных провокаторов основная цель одна – посеять панику, создать хаос, а тем значит — дестабилизировать ситуацию в отдельном городе, регионе или во всей стране.

Информацию, которую люди получают через мессенджер, многие воспринимают на веру, очень лично. Ведь это прислал тот, кого вы знаете и кому можете доверять.

Что происходит в итоге? Коллапс. Люди начинают массово звонить в учреждения, органы власти, узнавать информацию. Так, например, произошло в прошлом году, когда родственники тех, кто находится в местах лишения свободы, массово устремились в колонии: фейк о распространении ковида в исправительных учреждения в разных форматах (с указанием того или иного учреждения) облетел всю страну.

Человеку со слабым здоровьем или пожилому человеку от такой информации вообще может стать плохо: такие случаи нередки в последнее время.

Еще один фактор – это коммерческие интересы. Производители иностранных вакцин заинтересованы в дискредитации отечественных препаратов, особенно на территории России. Это логично, ведь так их прибыль будет гораздо больше.

Какая ответственность существует?

Прошлой весной была введена административная и уголовная ответственность за распространение недостоверной информации под видом достоверной. Такая ответственность введена и для физических лиц, и для средств массовой информации.

Как отличить фейк? Что должно насторожить?

У каждой недостоверной публикации, распространяемой под видом достоверной, есть «тревожные звоночки», которые должны насторожить. Чаще всего такое сообщение вам переслали. Автор видео или текста остается анонимным или указывается вымышленная отсылка на автора информации, которую невозможно проверить, например «сестра работает в больнице», «сообщили в полиции», «сообщили со скорой».
Всегда идет просьба о массовом репосте или же, наоборот, говорится о том, что это секретная информация, которую «скрывают власти» и ее нужно держать в тайне (кто же из нас эту тайну не перешлет всем друзьям?). Подчеркивается, что значимая для общества информация специально утаивается.
Информация всегда подается в очень эмоциональном и тревожном ключе. Часто в аудиофайлах на фоне слышны голоса женщин и маленьких детей, разговоры: это приближает фейк к реальной жизни. В таких в аудио и видео файлах, если прислушаться и присмотреться, видна склейка: наложение звука или видеокадров.
В фейках часто речь идет о многочисленных жертвах и угрозе жизни и здоровью большого числа людей.
А самое главное – сообщение не содержит факты, которые можно перепроверить. Открыв поисковик или страницы СМИ, вы не найдете абсолютно ничего.

Почему вообще появляются фейки?

Фейки появляются потому, что существует информационный вакуум по той или иной теме. У людей отсутствует достаточная информация, нет активного диалога с гражданами, разъяснительной работы со стороны органов власти и департаментов здравоохранения. Люди не видят четкой информации от врачей, научных деятелей и начинают сами искать и анализировать информацию. Так начинают плодиться слухи, домыслы, активизироваться «диванные эксперты». В эту среду и приходят профессиональные «фейкометы» и начинают распространять ложную информацию.

Мы призываем все уровни власти к диалогу с гражданами и информационной открытости. Чем больше будет живого общения, разъяснений, терпения у чиновников, тем меньше будет появляться непроверенной информации.

На каких площадках и в каких пабликах чаще всего можно встретить фейки?

По-прежнему лидер по распространению фейков – это WhatsApp. Несмотря на все меры, которые ввела платформа были, в том числе по ограничению количества пересылаемых сообщений, по маркировке пересылаемых сообщений, многие фейки, в частности, скачанные из других соцсетей, продолжают там активно пересылаться.

В ряде регионов в этом преуспевает и другой мессенджер – Viber. Также мы видим колоссальный рост числа фейков в TikTok, в различных группах и чатах в Telegram, множество видео на YouTube, в пабликах «ВКонтакте», в Instagram, Facebook.

Чаще всего такие фейки сначала появляются в каких-то группах и сообществах: группы заводчиков домашних животных, чаты групп детского сада, группы родителей школьников, сообщества автомобилистов и так далее. То есть группы, где собираются активные граждане и общаются на те или иные темы. В последнее время мы видим также всплеск создания сообществ по теме вакцинации и ковида в целом, там тоже активно гуляют фейки. А потом уже из этих чатов сообщения пересылаются друг другу.

Как пожаловаться на фейк?

В любой социальной сети или мессенджере есть возможность пожаловаться на распространение недостоверной информации. Ваша жалоба должна быть рассмотрена платформой в течение 3 суток, а если соцсеть вам не ответит, то в соответствии с законом «о самоцензуре соцсетей» вы имеете право обратиться в Роскомнадзор.

Каждый раз, когда наш волонтер находит фейк, он сначала проверяет его и, убедившись, что распространяется недостоверная информация, направляет жалобу в мессенджер или соцсеть.

За год работы в ходе мониторинга фейков мы видим, что пока соцсети очень вяло реагируют на эти жалобы: только 13% фейков удаляют или маркируют соцсети, остальное продолжает быть доступным пользователям. TikTok нам то и дело предлагает «заблокировать не понравившегося пользователя», а Telegram в 99% случаев вообще не отвечает на жалобы, даже если они направлены на английском языке.

Что делать с проблемой распространения фейков?

Многие страны сейчас пытаются решить этот вопрос. Например, интересным путем пошел Сингапур: он законодательно обязал соцсети маркировать информацию как фейк в случае, если такое предписание выдал уполномоченный орган власти. Так, в соответствии с POFMA (Protection from Online Falsehoods and Manipulation Act, закон, вступивший в силу в Сингапуре в 2019 году) уполномоченный орган власти может потребовать от соцсети откорректировать фейк, добавив к нему справочную информацию, содержащую факты и ссылку на достоверную информацию по этой теме. В отдельных случаях власти страны вправе потребовать от соцсети разослать уведомление всем пользователям, которые просматривали недостоверную публикацию на территории Сингапура. Этим правом власти страны с октября 2019 года до сентября 2020 года воспользовались лишь в 11 случаях, а корректировки к публикациям вносили 51 раз. Жители государства считают такой вариант более гуманным: по их мнению, он не ограничивает право на свободу передачи информации в отличие от полной блокировки публикации.

Может быть, и для России такой вариант был бы выходом: ведь угнаться в такой лавине информации за каждым автором фейка физически невозможно. А для пользователя всегда будет предупреждение: эта информация недостоверна и может быть опасной.

Украинские социальные сети наводнены заведомо ложной и недостоверной информацией о COVID-19  

В течение девяти месяцев – с марта по ноябрь 2020 года, используя новейшие инструменты мониторинга и анализа, группа экспертов компании «SemanticForce» по заказу ООН проанализировала в социальных сетях и в украинских онлайн СМИ более 30 миллионов сообщений, связанных с тематикой COVID-19. В результате было выявлено 250 тысяч сообщений дезинформационного характера – от конспирологических теорий о происхождении вируса до откровенно ложной информации относительно прививок, методов лечения и профилактики инфекции.  

В ходе исследования было установлено, что вся эта дезинформация негативно влияет на поведение людей, в частности их готовность придерживаться необходимых мер предосторожности – носить маски, соблюдать физическую дистанцию и т. д. Многие сообщения направлены на подрыв доверия населения к вакцинам. Такая «инфодемия», по мнению авторов доклада, чревата ростом уровня заболеваемости COVID-19. 

В обнаруженныхфейковых постах в соцсетях и публикациях используются разного рода манипуляционные приемы, в них подается нередко заведомо ложная информация. Во многих материалах читателям навязывают конспирологические теории о происхождении вируса, или пытаются их убедить в том, что никакого вируса нет вообще.  

По словам Постоянного представителя ПРООН на Украине Дафины Ґерчевой, исследование показало, что «инфодемия» – это реальная угроза здоровью жителей Украины. Она считает, что для борьбы с ней правительству важно объединить силы с общественными организациями, в частности с теми, которые выявляют фейковые публикации, а также с людьми, пользующимися популярностью в социальных медиа. 

Герчева предупредила, что конспирологические теории, сплетни и злонамеренная дезинформация могут быстрее, чем вирус, распространяться в социальных сетях, особенно в условиях низкого уровня доверия к государственным институтам.  

«В процессе нашего исследования было установлено, что, объединяя усилия правительства, СМИ, общественных лидеров и других надежных источников, можно стимулировать распространение достоверной информации о COVID-19 и преодолевать опасность дезинформации», – заявила представитель ООН.  

В рамках исследования параллельно с мониторингом социальных медиа было опрошено 1000 украинцев по поводу того, что они знают о пандемии. Примерно треть из них считают, что у них низкие шансы заразиться новым коронавирусом. В ходе этого опроса было установлено, что основными источниками информации для граждан Украины являются социальные медиа. Об этом сказали 42 процента опрошенных. Для 26 процентов главный источник информации – телевидение. Но при этом большинство украинцев отмечали, что не всегда доверяют тому, что слышат и читают, а полагаются, в основном, на информацию от медиков. 

Глава представительства ЮНИСЕФ на Украине Лотта Сильвандер отметила, что вероятность появления недостоверной информации в настоящее время как никогда высока.  «Инфодемия» чревата ростом недоверия к вакцинации, может усложнить внедрение новых вакцин и подорвать доверие общественности к системе здравоохранения в целом», – сказала Сильвандер. 

В выводах исследования содержится целый ряд рекомендаций для правительства, СМИ, социальных и медийных платформ в том, что касается борьбы с «инфодемией». Правительству рекомендовано создать единый центр по вопросам COVID-19 для координации работы на этом направлении. Среди прочего авторы исследования предлагают использовать популярные среди украинцев юмористические передачи для высмеивания дезинформации и ложных сообщений. 

 

«Соглашайся или удали». Что нужно знать о новой политике конфиденциальности WhatsApp

Компания WhatsApp обновила свое пользовательское соглашение еще в начале года, заставив многих усомниться, что их личные данные будут по-прежнему надежно защищены. У клиентов мессенджера было несколько месяцев, чтобы принять его новые условия. Те, кто так и не сделал это в отведенный срок, теперь столкнутся с ограничениями работы сервиса, а в дальнейшем и с приостановкой аккаунта в WhatsApp.

15 мая истекает крайний срок, до которого пользователи WhatsApp должны согласиться с новой политикой конфиденциальности месседжера. Компания обновила пользовательское соглашение в январе 2021 года, прописав в нем пункт об обмене информацией с Facebook — материнской компанией сервиса. В январской версии документа появился новый раздел — «Данные о транзакциях и платежах» в разделе «Предоставляемая вами информация», которого не было в предыдущей версии соглашения от 20 июля 2020 года. В разделе «Услуги третьих лиц» WhatsApp также добавил описание сотрудничества с Facebook, рассказав об интеграции с другими продуктами компании.

«Мы позволяем вам использовать наши сервисы в сочетании с сервисами третьих лиц и другими продуктами компании Facebook. Если вы используете наши услуги с такими сторонними сервисами или продуктами Facebook, мы можем получать от них информацию о вас», — говорится в документе.

При этом, как отметили в Роскомнадзоре, мессенджер еще с 2014 года передает значительный объем пользовательских данных компании Facebook.

Одновременно в WhatsApp указывают, что делятся с Facebook далеко не всей информацией, особенно если речь идет о частных разговорах или переписках, которые защищены сквозным шифрованием. Касаемо новых правил, как уточняет мессенджер, они помогут клиентам общаться напрямую с бизнесом, видеть рекламу Facebook в разных сервисах компании и делать покупки в онлайн-магазинах на сервисах Facebook прямо в WhatsApp.

Изменения «затрагивают необязательные функции для компаний и являются частью общей программы, направленной на обеспечение более удобного, простого и защищенного общения с бизнес-аккаунтами», сообщается в блоге WhatsApp. Что именно под этим подразумевается, до конца непонятно. По сути, из этих слов следует, что новые правила будут касаться только взаимодействий пользователей с компаниями и именно эти данные могут быть переданы Facebook или Instagram (которая также принадлежит соцсети).

Изменения после 15 мая

Изначально руководство WhatsApp установило дедлайн для принятия нового соглашения до 8 февраля, но возмущение пользователей в СМИ и соцсетях вынудило мессенджер перенести сроки на несколько месяцев, чтобы разъяснить правила своей политики.

В самой компании заявили, что в Сети распространилось множество недостоверной информации о том, что Facebook якобы сможет читать переписки пользователей и будет отслеживать их передвижение, что не является правдой. Одна из основных претензий касалась расширения обмена данными между WhatsApp и Facebook. Однако во внешней пресс-службе соцсети в ответ на запрос ТАСС это опровергли: «Обновление не расширяет возможности WhatsApp по обмену данными с Facebook».

Чтобы прояснить ситуацию, в WhatsApp выпустили новую страницу FAQ на своем сайте, где рассказывается о приватном общении в приложении.

«Изменения касаются выборочных бизнес-функций в WhatsApp и обеспечивают дополнительную прозрачность в отношении того, как мы собираем и используем данные», — говорится в сообщении. 

Те, кто не согласился с новым пользовательским соглашением WhatsApp до 15 мая, сможет и дальше использовать мессенджер, но в ограниченном режиме. 

При этом клиенты не смогут открывать списки чатов, но продолжат получать аудио и видеозвонки. Также компания сохранит возможность нажимать на всплывающие уведомления, чтобы читать сообщения, отвечать на них или перезванивать. Однако через несколько недель ограниченной функциональности пользователей лишат возможности получать входящие звонки и уведомления.

Таким образом принятие новых правил ставит клиентов мессенджера перед выбором: продолжить пользоваться WhatsApp и принять соглашение либо искать альтернативные мессенджеры. Стоит отметить, что WhatsApp обычно удаляет неактивные учетные записи через 120 дней.

Недружественный подход

Как сообщило агентство Bloomberg, в ответ на политику WhatsApp уполномоченный Гамбурга по защите персональных данных и свободе информации Йоханнес Каспар временно запретил мессенджеру собирать данные пользователей. Он также обратился к другим регуляторам ЕС с призывом принять аналогичные меры во всех 27 странах сообщества. По его словам, новые условия WhatsApp, разрешающие сбор данных, незаконны, поскольку они непрозрачны, непоследовательны и чрезмерно широки. В самом Facebook отметили, что Каспар неверно оценил цели компании и реальные причины обновления пользовательского соглашения.

«Решение направлено на защиту прав и свобод миллионов пользователей, которые соглашаются с условиями по всей Германии, — приводит Bloomberg заявление Каспара. — Нам необходимо предотвратить ущерб и недостатки, связанные с этой теневой процедурой».

Еще в начале года новость о новых правилах WhatsApp возмутила и другие правительства. К примеру, Совет по вопросам конкуренции Турции инициировал расследование в отношении Facebook из-за изменений пользовательского соглашения. 

«Совет по вопросам конкуренции начал собственное расследование в отношении Facebook и WhatsApp, а также приостановил необходимость совместного использования ими данных [пользователей социальной сети и мессенджера]», — указывается в коммюнике. На этом фоне сотрудники турецких госучреждений стали заводить аккаунты в Telegram и BIP — мессенджере, принадлежащем турецкой компании Turkcell.  

О необходимости уходить с платформы WhatsApp заговорили и в России. В Роскомнадзоре российских пользователей WhatsApp предупредили о недостаточной защите персональных данных в этом мессенджере.

Ранее первый зампредседателя комиссии Общественной палаты РФ по развитию информационного сообщества, СМИ и массовых коммуникаций Александр Малькевич отмечал, что «российским чиновникам следует перестать общаться в WhatsApp по рабочим вопросам». 

Малькевич призвал задуматься о том, что «вся наша конфиденциальная информация теперь на законных правах будет становиться достоянием западных спецслужб».

«Неоптимальным» новый подход мессенджера назвал и член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин. 

«Они просто поставили своих пользователей перед фактом: соглашайся на наши условия или удали приложение. Это недружественная политика по отношению к пользователю, и, полагаю, она будет постепенно снижать популярность WhatsApp», — прогнозирует депутат.

Signal к переходу

После первых новостей о новых правилах WhatsApp основатель SpaceX, а с недавних пор и самый богатый человек на планете Илон Маск призвал своих подписчиков в Twitter переносить общение в Signal. Этот сервис для мгновенного обмена сообщениями часто используют журналисты, активисты, политики и все те, кто особенно озабочен сетевой безопасностью. 

Signal не принадлежит большой корпорации, а работает в рамках фонда Signal Foundation, который спонсируют частные лица. Мессенджер является одним из эталонов шифрования, его протоколами защиты пользуются в том числе WhatsApp и Skype. В отличие от остальных приложений Signal не собирает данные клиентов для рекламных целей, так как не пытается монетизировать свою аудиторию. 

Мессенджер начал набирать популярность в разгар американских протестов против убийства Джорджа Флойда. Участники этих акций опасались, что IT-компании могут делиться их персональными данными с полицией. Единственное, что требует Signal при регистрации нового пользователя, — это номер телефона, но компания уже работает над тем, чтобы обойти и это правило.

После твита Илона Маска мессенджер столкнулся с массовым наплывом новых клиентов, что даже привело к его техническим сбоям.

«Отправка кодов верификации в настоящее время задерживается у нескольких провайдеров, так как слишком много людей пытаются присоединиться к Signal», — написала компания в своем Twitter-аккаунте.

Доверие пользователей

Помимо Signal число скачиваний резко возросло и у Telegram. Основатель мессенджера Павел Дуров напрямую связал это с новой политикой WhatsApp.

По словам предпринимателя, его компания не намерена собирать данные своих пользователей или масштабно внедрять рекламу. Дуров также рассказал, что в Facebook работает целый отдел, который изучает успех его приложения.

 «Я счастлив сэкономить Facebook десятки миллионов долларов и бесплатно раскрыть наш секрет: уважайте своих пользователей», — отметил он.

По информации аналитической компании Sensor Tower, в период с 6 по 8 января более 100 тыс. пользователей установили Signal в Apple Store и Google Play, в то время как Telegram за это же время скачали почти 2,2 млн раз.

«Signal и Telegram — теперь лучшие альтернативы, если вы беспокоитесь о своей конфиденциальности», — написал в Twitter редактор TechCrunch Майк Бутчер.

По данным Sensor Tower, за первую неделю 2021 года число скачиваний WhatsApp упало на 11% по сравнению с предыдущей неделей, но все равно достигло почти 10,5 млн скачиваний по всему миру. В марте 2020 года суммарная аудитория WhatsApp достигла 2 млрд человек. Одновременно представитель мессенджера заверил ТАСС, что в последние несколько месяцев «большинство людей» приняли обновленные правила, а «WhatsApp продолжает расти».

Дмитрий Беляев, Ирина Ли

Ложная информация как угроза обществу: эксперты поддержали законопроект о фейках | Российское агентство правовой и судебной информации

Контекст

РАПСИ, 13 дек — РАПСИ. Распространение заведомо ложной информации может привести к дестабилизации общества, поэтому введение ответственности за такие действия абсолютно оправдано и необходимо, считают эксперты, опрошенные РАПСИ.

«Я поддерживаю данный законопроект, поскольку в сложившихся политико-экономических условиях распространение заведомо недостоверной резонансной информации под видом достоверной может представлять общественную опасность и повлечь негативные последствия, в том числе и массовые беспорядки, дезорганизацию деятельности органов государственной власти, нормальной работы систем жизнеобеспечения», — считает советник Федеральной палаты адвокатов РФ Нвер Гаспарян.

Адвокат Алена Адлер также придерживается мнения о том, что введение ответственности за распространение фейковых сообщений необходимо, так как подобные действия могут дестабилизировать обстановку в стране и нанести вред неопределенному кругу лиц. По ее мнению, подтверждение или опровержение достоверности информации не должно вызывать вопросов. «Сложность с доказыванием мотивов, на мой взгляд, это чисто технический вопрос, и не думаю, что это будет являться какой-то невыполнимой задачей. Все-таки для наступления ответственности нужно будет установить сам факт наличия вины, поэтому я считаю, нет опасений того, что малейшая критика будет восприниматься как оскорбление или неуважение. У нас же есть ответственность за призыв к терроризму — соответственно, по аналогии можно будет применять будущую норму и по поводу сообщения фейковых новостей», — пояснила Адлер.

Во многих западноевропейских странах уже поняли, что информация из нетрадиционных источников (например, из соцсетей) может представлять серьезную угрозу социальной или государственной безопасности, напомнил адвокат Алексей Михальчик. Он добавил, что аналогичным образом на Западе законодательно защищаются и символы государства. «Другое дело, что у меня, как у практикующего адвоката, вызывает серьезные опасение то, как будет формироваться правоприменительная практика. Не используют ли правоохранительные органы эти законы для нарушения таких базовых прав, как свобода слова и свобода от цензуры?» — резюмировал Михальчик.

Накануне в Госдуму внесли законопроект, который вводит административную ответственность за распространение в интернете материалов, оскорбляющих Конституцию и государство.

Авторами документа стали председатель Комитета Совета Федерации по конституционному законодательству Андрей Клишас, сенатор Людмила Бокова и депутат Дмитрий Вяткин. Они предлагают дополнить статью «мелкое хулиганство», указав ответственность за распространение в сети материалов, «в неприличной форме выражающих явное неуважение» к обществу, государству, официальным государственным символам, Конституции и органам власти.

Кроме того, в Госдуму внесен законопроект о штрафах за распространение в СМИ и интернете заведомо недостоверной информации под видом правдивых сообщений, создающей угрозу здоровью граждан и массового нарушения общественного порядка.

«Власти скрывают страшные вещи». Как бороться с фейками… | «Вечёрка» Санкт-Петербург

В марте вступили в силу новые поправки в Федеральный Закон «Об информации, информационных технологиях и о защите информации». Так называемый «Закон о фейках» был принят еще в 2019 году. Как он функционирует сегодня, и как обезопасить себя от недостоверной информации в Интернете, разбиралась корреспондент «Вечёрки» Александра Савина.

Кто такие «фейки» и откуда они берутся?

Практически каждый пользователей соцсетей получал сообщение от друзей или родственников: «Моя тетя/дядя/брат работает в органах и там готовится операция…» или «Секретный способ выздороветь от лучшего врача мира… Информация секретная, поделитесь с родственниками, чтобы они узнали правду».

Это и есть классический пример фейка. Но откуда они появляются и почему?

«Фейком» в законодательстве обозначается недостоверная информация, которая провоцирует панику, создает угрозу причинения вреда жизни и здоровью граждан, имуществу, массовых нарушений общественного порядка и общественной безопасности.

Поводом для появления фейков служит любое резонансное событие – катастрофа, природный катаклизм, болезнь, политические изменения. Умыслы их создателей кроются в дестабилизации общества или государства, во введении в заблуждение, создании искусственного спроса на товары, обогащения путём мошенничества или созданием волны хайпа вокруг какой-то персоны.

Для распространения недостоверных новостей использует мессенджеры и соцсети. Иногда, чтобы выдать фейк за правду, создаются сайты несуществующих СМИ, так информация выглядит солиднее и её могут заметить новостные агрегаторы.

Зачем и почему приняли закон?

Толчком для закрепления в законодательстве понятия «фейк» и наказания за его распространения, стала трагедия в ТЦ «Зимняя вишня» в 2018 году.

Напомним, что 25 марта 2018 года в Кемерово в результате пожара торгового центра погибли 60 человек, в том числе 37 детей. После случившегося в сети распространилась информация, что погибли триста человек.

Украинский блоггер Евгений Вольнов был одним из создателей фейков. Под видом «майора МЧС Позднякова» он обзванивал больницы и морги, и сообщал ложную информацию о погибших. Дезинформация вокруг «Зимней вишне» запустили волну паники, позднее в отношении блоггера в России возбудили уголовное дело по статье 282 УК РФ — «возбуждение ненависти и вражды».

На момент случившегося, ограничить распространение фейков могли только площадки, на которых публиковались сообщения. Но из-за масштабов информации, интернет-ресурсы не успевали мониторить и блокировать ложный контент.

Через год после трагедии в Кемерово, Дума приняла пакет законов по контролю и ограничению распространения недостоверной информации. Выявляет фейки Генеральная прокуратура, а отслеживанием удаления и блокировкой ресурсов занимается Роскомнадзор.

За создание и публичное распространение фейков грозит наказание в виде штрафа. При этом штрафы различаются по тяжести вызванных последствий, которые наступили в результате распространения дезинформации.

Резонный вопрос

Во время подготовки материала, «Вечёрка» провела опрос о знании закона среди жителей Петербурга. В опросе поучаствовало 20 человек и большинство из них о законе слышали впервые.

Часто задаваемые вопросы жителей, мы обсудили с адвокатом Тимуром Харди:

Можно ли попасть под статью за репост фейка, с публичной страницы в социальных сетях на свой личный профиль?

Да, конечно. Репост — осознанное действие и вас могут привлечь, если вы распространили заведомо ложную информацию, которая может ввести людей в заблуждение и нанести вред.

Если на моей странице будет написан фейк 10-летней давности, стоит ли мне опасаться?

Нет, вам опасаться нечего. Уголовная ответственность возможна только за те деяния, которые совершены после вступления закона в силу. Нельзя наказать за действия, которые совершили до этого, пусть даже общественно опасные последствия наступили после. Однако, я рекомендую хорошенько проверить свои страницы, если у вас есть какие-то сомнительные посты, я советую их удалить, либо написать комментарий, что не согласны с содержанием и высказать свое мнение.

Как обезопасить себя от фейков?

Сверяйте информацию с той, что по этой теме публикуют СМИ, которым вы доверяете. Не плодите фейки и не рассылайте непроверенную информацию, даже в WatsApp своим близким. Не верьте жёлтой прессе, которая для привлечения читателей публикует провокационные заголовки.

Как распознать фейк?

Обычно фейки написаны очень эмоциональным языком и неизвестно кем. Особенно их много было с началом пандемии, когда в WatsApp постоянно пересылали фейковые страшилки. В которых по великому секрету родственница мужа соседки, свекровь, которой работает в больнице, сообщает – что «мы все умрём и надо срочно закупаться продуктами».

Все это очень грустно, и такие безобидные, на первый взгляд сообщения могут посеять большую панику.

Поэтому, не верьте непроверенной информации и не распространяйте ее. Обычно в ней речь о том, что власти от нас скрывают «страшные вещи», в сообщениях всегда присутствует призыв к какому-то действию и информация о том, что жизни людей что-то угрожает.

И, в первую очередь, подумайте, откуда информация? Если в сообщении говорится, например, что Минздрав к чему-то призывает, зайдите на сайт Минздрава. Есть там информация о которой говорится в сообщении? Нет? Значит фейк.

Есть ли возможность самому, попытаться остановить распространение фейка?

Приведу один пример, на днях в сети распространили фейк, касающийся призыва, верней НЕ призыва, в армию представителей двух народов. Мне начали писать с просьбой высказать своё мнение как адвоката.

Естественно, как правовед я обязан был выяснить не фейк ли это. У меня на это ушло полчаса.

Это был фейк, естественно, я не стал его распространять. Но посчитал своим долгом написать пост в соцсетях, и в нем я опроверг эту информацию, которую уже многие с возмущением распространили.

Мои подписчики, которые со мной много лет, знают, что я не стану публиковать непроверенную информацию и доверяют мне. Знаю, что после моего поста многие удалили этот фейк.


«Утка» или простая ложь, выдаваемая за правду в социальных сетях, опасна воздействием на общество.

Критическое отношение и информационная грамотность важные навыки для борьбы с недостоверной информацией. Получая и распространяя информацию, лучше потратить пару минут на её проверку, чем выйти за рамки закона.

Александра Савина


Влияние неточной информации о здоровье в Интернете в учебной среде средней школы

Фон: Пациенты в США обычно используют Интернет для получения медицинской информации. Хотя в Интернете можно найти значительный объем информации, связанной со здоровьем, точность этой информации сильно различается.

Цели: Целью исследования было определить, насколько эффективно студенты могут оценивать точность Интернет-материалов при сборе информации по спорной медицинской теме с помощью простого поиска по ключевым словам.

Методы: Группа из 34 студентов из средней школы научного магнита в Хьюстоне, штат Техас, искала термины «безопасность вакцины» и «опасность вакцины» с помощью Google, а затем ответила на вопросы относительно точности информации о здоровье на возвращенных сайтах. Студентов также попросили описать уроки, которые они извлекли из упражнения, и ответить на вопросы относительно силы доказательств семи утверждений о вакцинации.Из-за неожиданного открытия, что большинство студентов покинули упражнение с неточной информацией относительно безопасности и эффективности вакцин, эти же студенты участвовали в последующем исследовании, в котором был показан основанный на фактах видеоролик с вакциной, после которого была проведена оценка вакцины. студенческие знания были повторены.

Полученные результаты: Из 34 участников 20 (59%) сочли, что Интернет-сайты в целом точны, хотя более половины ссылок (22 из 40, 55%), которые просматривали студенты, на самом деле были неточными в целом. .Высокий процент студентов покинул первое упражнение со значительными неправильными представлениями о вакцинах; 18 из 34 участников (53%) сообщили о неточных заявлениях о вакцинах в извлеченных ими уроках. Из 41 поддающегося проверке факта о вакцинах, которые сообщили участники в своих заявлениях об извлеченных уроках, 24 факта (59%) были неверными. После презентации фильма большинство учеников вышли из упражнения с правильной информацией о вакцинах, основанной на их утверждении об извлеченных уроках.В этом случае 29 из 31 участника (94%) сообщили точную информацию о вакцинах. Из 49 достоверных фактов о вакцинах, которые сообщили участники, только 2 (4%) были неверными. Студенты также получили более высокие правильные баллы в упражнении «сила доказательств» после просмотра видео.

Выводы: К разрешению студентам использовать Интернет для получения информации на медицинские темы следует подходить с осторожностью, поскольку студенты могут забрать преимущественно неверную информацию.Важно дополнить противоречивую информацию твердым, недвусмысленным сообщением, которое передает те уроки, которые преподаватель считает наиболее важными. Это заключительное сообщение должно быть основано на фактах, но, возможно, оно должно содержать анекдотический компонент, чтобы противостоять сильному эмоциональному посланию, которое часто доставляется неточными интернет-сайтами.

Опасности дезинформации (фейковые новости) | Элли Бантинг

Фото Элайджа О’Доннелла на Unsplash

В наши дни термин «фейковые новости» стал популярным.Президент Трамп использует этот термин всякий раз, когда ему не нравится что-то, опубликованное в основных средствах массовой информации. Расследование выборов 2016 года доказало, что дезинформация, дезинформация и фейковые новости сыграли важную роль в этих выборах. Хотя это было четыре года назад, количество дезинформации, распространяемой в Интернете, продолжает оставаться проблемой. В то время, когда мир страдает от серьезного кризиса в области здравоохранения, не время игнорировать проблемы, которые вызывают дезинформация и дезинформация.Прокручивая ленту новостей на Facebook, можно найти множество примеров информации, которая либо ложна, либо неверно истолкована. Когда эта информация связана с бушующей пандемией, жизненно важно, чтобы читатели могли отличить факты от вымысла. Тот факт, что что-то публикуется в Интернете, не означает, что информация является законной.

Дезинформация вызвана фермой троллей, структурой социальных сетей и человеческой природой. Последствия дезинформации опасны, потому что эти кампании отвлекают людей от других важных вопросов, они вызывают конфликты и подрывают демократию.Решение проблемы дезинформации — сложная задача, которую должны решать СМИ, технологические компании и правительство.

Следующее видео дает хороший обзор фейковых новостей и их распространения.

Термин «фейковые новости» стал обычным явлением, когда человек слышит новости, которым не хочет верить. Хотя медиаэксперты изначально определяли фейковые новости как «фактически ложную информацию, предоставленную в контексте якобы правдивой новости, которая преднамеренно предназначена для обмана читателей или зрителей», сегодня этот термин также включает кампании дезинформации, распространяемые через Интернет и в социальных сетях. («Фейковые новости в социальных сетях»).

Прежде чем перейти к обсуждению причин появления фейковых новостей, важно понять разницу между m isinformation и дезинформацией. Валери Штраус, пишущая для Washington Post , заявляет, что Dictionary.com определяет дезинформацию как «ложную информацию, которая распространяется независимо от того, есть ли намерение ввести в заблуждение». С другой стороны, «дезинформация» имеет совсем другое значение: «дезинформация» означает «преднамеренно вводящую в заблуждение или предвзятую информацию; манипулированный рассказ или факты; пропаганда »(Штраус).Подводя итог различию, зрители должны смотреть на намерение.

Например, если человек распространяет дезинформацию, он, скорее всего, верит, что это правда. Однако дезинформация создается и распространяется намеренно с целью ввести других в заблуждение. Различия между этими двумя терминами могут сбивать с толку, поскольку дезинформация может легко превратиться в дезинформацию, в зависимости от того, кто делится информацией и почему. Например, если политик намеренно распространяет ложную информацию, это дезинформация.Однако, если человек видит эту информацию, считает ее правдой, а затем делится ею с друзьями, это дезинформация.

Важно различать дезинформацию и дезинформацию.

Когда люди распространяют дезинформацию, они часто верят информации, которой они делятся. Напротив, дезинформация создается и распространяется с намерением ввести других в заблуждение. Еще больше сбивает с толку тот факт, что дезинформация в конечном итоге может стать дезинформацией.Все зависит от того, кто этим поделился и почему. Например, если политик стратегически распространяет заведомо ложную информацию в форме статей, фотографий, мемов и т. Д., Это дезинформация. Когда человек видит эту дезинформацию, верит ей, а затем делится ею, это дезинформация.

Хотя идея фейковых новостей или дезинформации не нова, проблема становится все более и более распространенной с ростом популярности Интернета и социальных сетей. Многие факторы способствуют росту дезинформации и дезинформации, включая фермы троллей, структуру социальных сетей и человеческую природу.

Причина № 1 — Фермы троллей

На фото ниже показана ферма троллей в действии.

Одна из причин, по которой дезинформация распространяется так быстро сегодня, заключается в том, что поисковые машины в Интернете и сайты социальных сетей стали мишенями организованных групп, которые создают и распространяют дезинформацию в Интернете. Эти группы, известные как «фермы троллей», существуют во многих странах, но особенно в России.

Например, в Агентстве интернет-исследований, которое базируется в Ольгино, Россия, работало около 200–300 человек.В результате связанная с Кремлем ферма троллей, согласно отчету специального советника Роберта Мюллера (qtd в Snider), достигла 126 миллионов американцев в Facebook во время последних президентских выборов с помощью мошеннических аккаунтов, групп и рекламы.

Эти «фермы троллей» генерируют онлайн-трафик, направленный на влияние на общественное мнение и распространение дезинформации и дезинформации. Россияне были отправлены в Соединенные Штаты для создания инфраструктуры, которая позволила этим фермам создавать учетные записи в социальных сетях, которые выглядели так, как будто они родом из Америки и принадлежали американцам.

Клинт Уоттс, старший научный сотрудник Исследовательского института внешней политики, утверждает, что цель этих ферм троллей — «создать раскол, натравливающий американцев друг на друга. Они создают эти конфликты и открыто сообщают о них в спонсируемых государством российских СМИ о том, насколько нестабильна Америка. Цель — подорвать демократию. Итак, вы хотите, чтобы Америка выглядела нестабильной, а американцы не доверяли друг другу (Qtd. В Snider) ».

Причина № 2 — Социальные сети Фото Уильяма Ивена на Unsplash — Facebook известен распространением фейковых новостей

Как показало расследование Роберта Мюллера, фермы троллей эффективно использовали политическую напряженность в Соединенных Штатах для распространения дезинформации в социальных сетях, таких как как Facebook и Twitter.Публикация конкретных, вызывающих разногласия и противоречивых тем вызывает разногласия среди зрителей. Это создает поляризацию, которая упрощает манипулирование зрителями. Алгоритмы, используемые для создания этого контента, могут использоваться фермами троллей. Используя алгоритмы, сайты социальных сетей могут изолировать зрителей от противоположных точек зрения, поэтому у них никогда не будет возможности увидеть другую сторону проблемы. Это называется «эффектом эхо-камеры», поскольку зрители, которые видят только одно мнение, начинают верить, что его мнение является доминирующим политическим, даже если оно не соответствует действительности.

Еще одна проблема, связанная с социальными сетями и дезинформацией, — это споры о том, являются ли сайты социальных сетей, такие как Facebook, издателями или платформами. Если эти сайты считаются издателями, они могут нести юридическую ответственность за контент, публикуемый их зрителями. Если они являются просто платформами, они не несут ответственности за любой контент, опубликованный на их сайте. Facebook позиционирует себя как «платформу» для общественности. Однако в судебном процессе считает себя «издателем». На этот вопрос необходимо ответить, чтобы контролировать распространение фейковых новостей в социальных сетях.

Причина № 3: Человеческая природа

На приведенном ниже графике показано, как дезинформация и дезинформация имеют тенденцию пересекаться.

Последняя причина, по которой дезинформация и дезинформация распространяются так быстро, сводится к человеческой природе. Например, недавнее исследование дезинформации показало, что люди склонны делиться дезинформацией на 70 процентов чаще, чем фактической информацией (Соруш). Исследование, проведенное группой ученых из Массачусетского технологического института, опубликованное в журнале Science, , показало, что «ложь распространилась значительно дальше, быстрее, глубже и шире, чем истина, во всех категориях информации, и эффекты были более выражены для ложные политические новости, чем ложные новости о терроризме, стихийных бедствиях, науке, городских легендах или финансовой информации »(Соруш).В этом отчете также было обнаружено, что для того, чтобы истина достигла 1500 человек, потребовалось в шесть раз больше времени, чем для распространения ложного утверждения. Что еще более удивительно, исследователи обнаружили, что эти ложные факты не распространялись ботами. Их распространяли обычные люди.

Понимание терминологии и некоторых причин, по которым дезинформация и дезинформация так быстро распространяются в социальных сетях, является первым шагом в решении проблемы. Последствия кампаний по дезинформации опасны, как будет показано в следующем разделе этого отчета.

В этом видео рассказывается, как фейковые новости и дезинформация меняют способ получения новостей.

Десять лет назад Facebook был платформой, которая способствовала распространению демократии по всему миру. Google делал доступ к информации проще, чем когда-либо, а блоггеры и репортеры социальных сетей поощряли протесты в странах от Ирана до Туниса. Однако к 2017 году стало ясно, что роль Интернета не в улучшении демократии. В частности, платформы социальных сетей, которые помогли побудить людей к протестам в 2011 году, наносили ущерб демократии, распространяя дезинформацию, дезинформацию и пропаганду.Повторяя «большую ложь», восприимчивых людей можно легко убедить принять опасные идеи.

Центр информационных технологий и общества Калифорнийского университета в Санта-Барбаре заявляет, что дезинформация опасна, потому что эти кампании отвлекают людей от других важных проблем, которые никогда не решаются, они усиливают социальный конфликт, чтобы «подорвать веру людей в демократический процесс и способность людей работать. вместе », и они« подрывают функционирование демократии во всем мире ».

Эффект №1: дезинформация разрушает и уводит

Как поясняется в этом видео, фальшивые новости имеют серьезные последствия.

Во-первых, дезинформация и фейковые новости предназначены для того, чтобы разрушить американскую жизнь и отвлечь граждан от более важных вопросов. Эти кампании использовались для разжигания теорий заговора после крупных трагедий, таких как массовые расстрелы. Российские агенты и другие политические деятели скармливали фальшивые новости теоретикам заговора, обычно утверждая, что стрельба была организована фанатиками контроля над оружием. Люди делились этими сообщениями с другими в социальных сетях, хотя знали, что они не настоящие. Эти кампании были успешны в отвлечении американцев от реальных проблем безопасности оружия и более строгих законов о контроле над оружием, потому что люди ищут заговоры в каждой трагедии, и эти теории распространялись через платформы социальных сетей во многих событиях с массовыми жертвами, таких как взрыв в Бостонском марафоне. и резня в Сэнди-Хук.

Эффект №2 — дезинформация может усилить национальные конфликты Фото Элио Сантоса на Unsplash — Протесты часто возникают из-за фейковых новостей.

Во-вторых, кампании дезинформации могут использовать фейковые новости для обострения национальных конфликтов в Соединенных Штатах. Политически мотивированные фейковые новости могут распространяться через иностранные правительства, американские политические группы и сторонников теории заговора. Хотя у каждой из этих групп могут быть разные мотивы, результат один: распространение фейковых новостей для усиления социальных конфликтов.Эти объявления нацелены на спорные вопросы, такие как раса, Black Lives Matter, контроль над огнестрельным оружием и иммиграция. Русские даже использовали мероприятия в Facebook для организации протестов и противодействия протестам по определенному вопросу, в результате чего американцы боролись друг с другом из-за спорных вопросов. Эти события были придуманы для того, чтобы люди «поверили им, явились и устроили проблемы» («Опасность»).

Эффект № 3 Дезинформация угрожает демократическому процессу

Это видео ясно показывает, как фейковые новости могут угрожать демократическому процессу.

Наконец, дезинформация угрожает демократическому процессу, что ясно продемонстрировали выборы 2016 года. Поскольку более 62% американцев получают новости из социальных сетей, чрезвычайно важно убедиться, что эти новости не являются фальшивыми (Шиффрин).

Например, Российское агентство интернет-исследований проделало замечательную работу по обострению социальных конфликтов во время выборов 2016 года. Эти российские фермы троллей намеренно распространяли фальшивые новости в пользу Дональда Трампа и дискредитировали Хиллари Клинтон.Использование платной рекламы в Facebook для распространения дезинформации настроило американцев друг против друга. Центр информационных технологий заявил, что «комитеты Конгресса США по разведке, ответственные за расследование фейковых новостей, опубликовали 3500 таких рекламных объявлений». Это ясно показывает, что это была хорошо спланированная кампания, которая повлияла на результаты выборов в США.

Фейковые новости подрывают доверие к реальным новостям и правительству. Последствия этого для демократии огромны.Шриффрин утверждает, что «демократия зиждется на образованном населении; это одна из причин, почему государственное образование так важно ». Чтобы американцы могли участвовать в демократии, они должны понимать суть проблемы. В противном случае их решения о голосовании могут быть произвольными или основанными на пропаганде или пособничестве. Шиффрин продолжает поддерживать ее доводы, заявляя: «Если дезинформация и кампании фальшивых новостей действительно мешают гражданам самообразовываться — или, что еще хуже, активно манипулировать гражданами, заставляя их поверить в ложную информацию, — тогда сами основы демократии окажутся под угрозой.«

Кампании по дезинформации становятся все более изощренными, поскольку использование троллей и ботов заменяется людьми, которые усиливают эти сообщения и даже самостоятельно создают новые кампании. Это опасно, потому что эти люди верят в распространяемую ими дезинформацию. Это очень важно, поскольку понимание меняющегося характера этих кампаний имеет решающее значение для подготовки к следующим кампаниям дезинформации, включая предстоящие выборы.

В этом видео показано, как распространяются фейковые новости и как это можно остановить.

Райан Уолтерс в статье под названием «Как распознать фальшивку: борьба с фейковыми новостями на переднем крае социальных сетей» утверждает, что 45% американцев получают новости на Facebook. Остальные 65% получают новости в тех или иных социальных сетях. К сожалению, получение новостей из социальных сетей создает проблемы, поскольку через эти платформы социальных сетей легко распространять поддельный контент. Согласно опросу 2016 года, 88% американцев считают, что фейковые новости создают путаницу в отношении основных фактов. Двадцать пять процентов опрошенных признали, что, возможно, делились фейковыми новостями (Уолтерс).Сенсационные новости ходят в таблоидах десятилетиями. Эти истории побуждают пользователей отвечать, публикуя «горячие кнопки», тем самым создавая огромную аудиторию.

Уолтерс утверждает, что проблема дезинформации слишком велика, чтобы решить ее, просто надеясь, что общественность сможет успешно отличить законный контент от дезинформации или дезинформации. Уолтерс заявляет: «Фейковые новости представляют собой грубое злоупотребление властью свободы слова, которое ничего не добавляет к рынку идей и фактически способствует подавлению законной речи.«Решение проблемы дезинформации — сложная задача, которую должны решать СМИ, технологические компании и правительство.

Фальшивые новости и ответственность СМИ (Решение 1) Snopes — один из многих сайтов проверки фактов, которые могут помочь в борьбе с фальшивыми новостями.

Законные источники новостей должны продолжать призывать фальшивые новости и дезинформацию. Использование хорошо зарекомендовавших себя средств проверки фактов — хороший способ рассказать зрителям об историях, созданных для того, чтобы ввести в заблуждение.Некоммерческие организации, такие как PolitiFact, Factcheck. или, и Snopes являются примерами сайтов, которые посвящены разоблачению ложных новостей. Профессор Дартмутского колледжа Брендан Найхан считает, что если сообщение в Facebook помечается как «спорное», это снижает процент читателей, которые верят фальшивым новостям, на 10%. Кроме того, Мелисса Зимдарс, профессор Merrimack College, составила список из 140 веб-сайтов, которые используют «искаженные заголовки и деконтекстуализированную или сомнительную информацию». Списки такого типа помогают людям отслеживать сайты, распространяющие дезинформацию.

Поскольку все больше и больше людей выходят в Интернет для получения новостей, важно, чтобы они были обучены тому, как оценивать источники новостей и не принимать все, что они видят в социальных сетях или цифровых новостных сайтах, за чистую монету. Джозеф Кан и Бенджамин Бауэр обнаружили, что, если человек согласен с ложным заявлением, шансы на то, что он или она будет под влиянием проверки фактов, меньше, чем если бы они не согласились с этим заявлением.

Людей следует научить не полагаться на небольшое количество источников новостей, которые представляют только одну сторону проблемы.Им необходимо понять, что во многих онлайн-ресурсах намеренно используются вводящие в заблуждение заголовки, чтобы стимулировать больше кликов.

Политики платформы и фальшивые новости (Решение 2) На этом рисунке показан трехкомпонентный план Facebook по сокращению фальшивых новостей

Технологическим компаниям необходимо взять на себя больше ответственности за преднамеренное распространение фейковых новостей. Бывший комиссар FCC Том Уиллер утверждает, что «алгоритмы общественного интереса могут помочь в выявлении и публикации фейковых новостных сообщений и, следовательно, стать ценным инструментом для защиты потребителей.Эудженио Таккини считает, что выявлять мистификации можно с высокой степенью точности. Он протестировал 15 500 сообщений в Facebook с более чем 909 000 пользователей и обнаружил, что мистификации выявляются с точностью 99% с помощью автоматической системы обнаружения мистификаций. По словам Келли Борн из Фонда Уильяма и Флоры Хьюлетт, «цифровые платформы должны снижать рейтинг или отмечать сомнительные истории и находить способ лучше идентифицировать и ранжировать аутентичный контент, чтобы улучшить сбор и представление информации».

Обнаружение фейковых новостей создается, чтобы помочь зрителям выявлять дезинформацию.В частности, у Chrome есть расширение, созданное журналистом New York Magazine Брайаном Фельдманом. Дэвид Сирадски создал то, что он называет B.S. Детектор, который является расширением, позволяющим пользователям отправлять запросы и изменения для проверки сайтов. Студенты Принстона создали расширение для Chrome, которое обнаруживает фейковые новости в новостных лентах Facebook.

Даже Facebook вступил в бой, создав инструмент проверки фактов третьей стороной, который предупреждает пользователей о «спорном контенте». В декабре Facebook поместил это предупреждение в историю, в которой ложно утверждалось, что сотни тысяч ирландцев были доставлены в США.С. как рабы. Статья была опубликована в развлекательном блоге накануне Дня Святого Патрика. В этом случае, если кто-то пытался поделиться этой историей, появлялось красное предупреждение о том, что контент оспаривался Snopes и Associated Press. При переходе по ссылке пользователи видели следующую подсказку:

«Иногда люди делятся фейковыми новостями, не зная об этом. Когда независимые специалисты по проверке фактов оспаривают этот контент, вы можете посетить их веб-сайты, чтобы выяснить, почему », — говорится в сообщении. «Показаны только проверяющие факты, подписавшие беспристрастный кодекс принципов Пойнтера.”

Устранение стимулов и поддельных учетных записей для распространения поддельных новостей (решение 3)

В этом видео объясняется, как распознать поддельную учетную запись facebook.

Одна из проблем распространения фейковых новостей — это денежные стимулы, которые эти компании получают, распространяя фейковые новости. Как и все кликбейты, фальшивые новости приносят прибыль, поскольку они приносят доход от рекламы и создания бренда. Хотя платформы социальных сетей усложнили пользователям получение прибыли от фальшивых новостей, рекламные сети должны быть более внимательными в предотвращении монетизации фейковых новостей.Издателям следует отказаться от размещения рекламы этих компаний.

Еще одна проблема — использование фейковых аккаунтов. Подотчетность в Интернете необходимо усилить с помощью более строгих политик и систем регистрации реальных имен. Это упростило бы привлечение к ответственности тех, кто распространяет фейковые новости. Facebook и Twitter изменили свою рекламную политику, так что использование ложной информации в рекламе может привести к принятию компанией мер против учетной записи компании. Facebook даже зашел так далеко, что ввел более строгие требования аутентификации для политической рекламы, включая выданное правительством удостоверение личности, адрес в США и номер социального страхования.Кроме того, Facebook предпринял шаги, чтобы четко обозначить рекламу как политическую и раскрыть, кто платит за эту рекламу.

Технология встречает человечество (Решение 4)

Поскольку фальшивые новости представляют собой развивающуюся угрозу, компьютеру сложно обнаруживать новые формы дезинформации. Хотя сами по себе алгоритмы могут помочь обнаружить дезинформацию, им не хватает критических навыков мышления, необходимых для того, чтобы не отставать от появления новых фейковых новостей. «Люди и технологии должны творчески работать вместе, чтобы ограничить влияние фейковых новостей» (Уолтерс).Подобно тому, как Википедия создала ботов, использующих данные пользователей, компании, работающие в социальных сетях, могут применять аналогичные контрмеры, «которые включают необработанные данные, полученные из критически важных аргументов множества различных пользователей, подобранных компанией». Уолтерс цитирует исследования, которые доказывают, что использование людей для оценки новостных статей и сообщения о проблемном содержании повысит эффективность любых мер противодействия фальшивым новостям.

На этом рисунке показано, что может сделать человек, чтобы остановить распространение фейковых новостей.

Исследования показывают, что существует множество способов предотвратить распространение фейковых новостей и дезинформации.Многие онлайн-платформы тестируют услуги и продукты, которые помогут выявлять истории, разжигающие насилие. Однако эта проблема не исчезнет, ​​если широкая общественность не займет позицию, которая поможет вернуть гражданский дискурс в социальные сети. Решения варьируются от использования технологий для выявления фейковых новостей до сокращения финансовых стимулов для фальшивых новостей и повышения цифровой грамотности среди широкой публики. Если люди будут работать вместе, чтобы улучшить качество беседы и ослабить среду, которая позволяла распространять фальшивые новости, проблема фейковых новостей может быть не устранена полностью, но ее будет легче выявить и контролировать.

Сегодня серьезная проблема — дезинформация. Понимание того, как распространяется дезинформация и какие последствия она может иметь, — это первый шаг в решении проблемы. Когда потребители узнают о том, что происходит в социальных сетях, решения могут быть реализованы с привлечением средств массовой информации, технологических компаний и правительства.

«Фейковые новости в социальных сетях». Гейл, противоположные точки зрения, онлайн-сборник, Гейл, 2019. Гейл в контексте: противоположные точки зрения, 2 октября 2019 г., doi: OBOYIA996440220. По состоянию на 1 марта.2018.

Шиффрин Аня. «ДЕЗИНФОРМАЦИЯ И ДЕМОКРАТИЯ: ИНТЕРНЕТ ПРЕОБРАЗОВАЛ ПРОТЕСТ, НО НЕ УЛУЧШАЛ ДЕМОКРАТИЮ». Журнал международных отношений, т. 71, нет. 1, 2017, стр. 117+. Gale Academic OneFile, https://link-gale-com.db07.linccweb.org/apps/doc/A542847165/AONE?u=lincclin_ecc&sid=AONE&xid=ca802427. По состоянию на 16 февраля 2020 г.

Snider, Mike. «Расследование Роберта Мюллера: что такое русская ферма троллей?» USA Today , 16 февраля 2018 г., www.usatoday.com/story/tech/news/2018/02/16/robert-mueller-investigation-what-russian-troll-farm/346159002/.По состоянию на 10 ноября 2019 г.

Soroush Vosoughi, et al. «Распространение истинных и ложных новостей в Интернете». Наука, т. 359, Issue 6380, pp. 1146–1151. JSTOR , DOI: 10.1126. По состоянию на 09 марта 2018 г.

Strauss, Valerie. «Слово года: дезинформация. Вот почему. Washington Post, 10 декабря 2018 г. www.washingtonpost.com/education/2018/12/10/word-year-misinformation-heres-why/. По состоянию на 10 ноября 2019 г.

Опасность фейковых новостей в разжигании или подавлении социальных конфликтов. Центр информационных технологий и общества в Калифорнийском университете в Санта-Барбаре . 2020. https://www.cits.ucsb.edu/fake-news/danger-election. По состоянию на 2 февраля 2020 г.

Walters, Ryan. «Как отличить фальшивку: борьба с фейковыми новостями на переднем крае социальных сетей». Texas Review of Law & Politics, vol. 23, нет. 1. Осень 2018 г., стр. 111–179. EBSCOhost, search.ebscohost.com/login.aspx?direct=true&db=a9h&AN=134763624&site=ehost-live.

Запад, Даррелл. «Как бороться с фейковыми новостями и дезинформацией.” Brookings. 18 декабря 2017 г.

В этом видео рассказывается, как Россия использовала дезинформацию в социальных сетях, чтобы повлиять на выборы 2016 года.

В этом видео рассказывается, как легко распространять дезинформацию

Почему люди распространяют ложную информацию в Интернете? Влияние характеристик сообщения и зрителей на вероятность самооценки распространения дезинформации в социальных сетях

Образец цитирования: Buchanan T (2020) Почему люди распространяют ложную информацию в Интернете? Влияние характеристик сообщения и зрителей на вероятность распространения дезинформации в социальных сетях.PLoS ONE 15 (10): e0239666. https://doi.org/10.1371/journal.pone.0239666

Редактор: Jichang Zhao, Beihang University, CHINA

Поступило: 3 июня 2020 г .; Дата принятия: 10 сентября 2020 г .; Опубликовано: 7 октября 2020 г.

Авторские права: © 2020 Tom Buchanan. Это статья в открытом доступе, распространяемая в соответствии с условиями лицензии Creative Commons Attribution License, которая разрешает неограниченное использование, распространение и воспроизведение на любом носителе при условии указания автора и источника.

Доступность данных: Все файлы доступны в архиве Службы данных Великобритании (doi: 10.5255 / UKDA-SN-854297).

Финансирование: Эта работа финансировалась за счет награды TB от Центра исследований и доказательств угроз безопасности (Премия ESRC: ES / N009614 / 1). https://crestresearch.ac.uk Финансирующие организации не играли никакой роли в дизайне исследования, сборе и анализе данных, принятии решения о публикации или подготовке рукописи.

Конкурирующие интересы: Авторы заявили, что никаких конкурирующих интересов не существует.

Введение

Дезинформация в настоящее время является критически важной проблемой в социальных сетях и за их пределами. Политическая дезинформация, которая обычно определяется как «преднамеренное создание и распространение ложной и / или манипулируемой информации, которая предназначена для обмана и введения аудитории в заблуждение, либо с целью причинения вреда, либо для политической, личной или финансовой выгоды», политическая дезинформация была охарактеризована как значительная угроза демократии [1, с.10]. Он составляет часть более широкого ландшафта информационных операций, проводимых правительствами и другими организациями [2, 3].Его предполагаемые эффекты включают политическое влияние, усиление групповой поляризации, снижение доверия и в целом подрыв гражданского общества [4]. Эффекты не ограничиваются онлайн-процессами. Они регулярно проникают в другие сферы нашей жизни. Экспериментальная работа показала, что воздействие дезинформации может привести к изменению отношения [5], и существует множество реальных примеров поведения, которое напрямую связано с дезинформацией, например, люди, атакующие телекоммуникационные мачты в ответ на фальшивые истории о том, что 5G вызывает коронавирус. ‘[6, 7].Дезинформация в социальных сетях очень широко используется в качестве инструмента воздействия: компьютерная пропаганда была описана как всеобъемлющая и вездесущая часть современной повседневной жизни [8].

Как распространяется дезинформация в социальных сетях?

Когда дезинформация изначально была посеяна в Интернете ее создателями, одним из способов ее распространения являются действия отдельных пользователей социальных сетей. Обычные люди могут распространять материал в своих социальных сетях посредством преднамеренного обмена — основная функция таких платформ, как Facebook и Twitter.Другие взаимодействия с ним, такие как «лайк», также запускают алгоритмы платформ социальных сетей для отображения его другим пользователям. Это явление известно как «органический охват» [9]. Это может привести к экспоненциальному распространению ложной информации. Например, анализ деятельности дезинформационной группы Российского агентства интернет-исследований (ИРА) в США в период с 2015 по 2017 год показал, что более 30 миллионов пользователей делились и иным образом взаимодействовали с сообщениями ИРА в Facebook и Instagram, распространяя их среди своих семьи и друзья [4].Есть свидетельства того, что ложные материалы широко и быстро распространяются через социальные сети из-за такого поведения людей [10].

Почему люди распространяют дезинформацию в социальных сетях?

Когда люди делятся дезинформацией, которую они видят в Интернете, или взаимодействуют с ней, их, по сути, убедили сделать это ее создатели. Влиятельные модели обработки социальной информации предполагают, что существуют разные способы убеждения [например, 11]. При некоторых обстоятельствах мы можем внимательно изучить доступную информацию.В других случаях мы принимаем быстрые решения на основе эвристики и периферийных сигналов. Когда происходит обмен информацией в социальных сетях, он, скорее всего, будет спонтанным и быстрым, а не осознанным действием, над которым люди тратят время на обдумывание. Например, есть признаки того, что люди используют функции взаимодействия Facebook относительно бездумно и автоматически [12]. В таких ситуациях, вероятно, важен периферийный путь убеждения [13]. Таким образом, индивидуальный выбор делиться, лайкать и т. Д. Будет определяться в первую очередь эвристикой или контекстными подсказками [14].

Три потенциально важных эвристики в этом контексте: согласованность , согласованность и авторитет [15]. Это не единственная эвристика, которая может повлиять на то, делимся ли мы ложным материалом. Однако в каждом случае есть наводящие на размышления эмпирические данные и очевидные попытки реального мира использовать эти явления, которые заставляют их задуматься.

Последовательность.

Последовательность — это степень, в которой обмен информацией будет соответствовать прошлому поведению или убеждениям человека.Например, в США люди, которые ранее голосовали за республиканцев, с большей вероятностью будут поддерживать и распространять правые послания [16]. Существует большое количество работ, основанных на идее о том, что люди предпочитают вести себя в соответствии с их установками [17]. Исследования показали, что пользователи социальных сетей считают заголовки, соответствующие их ранее существовавшим убеждениям, более достоверными, даже если они явно отмечены как ложные [18]. В контексте дезинформации это может сделать желательным целевую аудиторию, симпатизирующую содержанию сообщения.

Консенсус.

Консенсус — это степень, в которой люди думают, что их поведение будет соответствовать поведению большинства других людей. В текущем контексте вполне возможно, что увидев, что сообщение уже широко распространено, люди с большей вероятностью пересылают его себе. В маркетинге такая тактика влияния известна как «социальное доказательство» [19]. Он широко используется в онлайн-торговле в попытках убедить потребителей покупать товары или услуги (например, путем отображения обзоров или рейтингов продаж).Механизмом обратной связи социальных сетей можно манипулировать, чтобы создать иллюзию такой социальной поддержки, и эта тактика, похоже, использовалась после террористических атак в Великобритании [20].

Бот-сети используются для автоматического распространения информации, не заслуживающей доверия, в Твиттере. Было показано, что боты многократно участвуют в быстром распространении информации, в твитах и ​​ретвитах сообщений [21]. Среди людей, которые видят сообщения, большое количество ретвитов, достигнутых через сети ботов, может быть истолковано как свидетельство того, что многие другие люди с ними согласны.Имеются данные, свидетельствующие о том, что «каждое количество совместных действий со стороны вероятных ботов имеет тенденцию вызывать непропорционально большое участие человека» [21, с.4]. Такая активность ботов может быть попыткой использовать эффект консенсуса.

Относительно легко манипулировать степенью согласия или социального доказательства, связанного с онлайн-сообщением. Работа Центра передового опыта стратегических коммуникаций НАТО [22] показала, что было очень легко приобрести высокий уровень ложной вовлеченности для сообщений в социальных сетях (например,грамм. распространение сообщений сетями фальшивых аккаунтов) и что существует значительный черный рынок для манипуляций в социальных сетях. Таким образом, если усиление консенсуса эффективно влияет на органический охват, то это может быть полезным инструментом как для тех, кто сеет дезинформацию, так и для тех, кто стремится распространять контр-сообщения.

Авторитет.

Авторитет — это степень, в которой сообщение, как представляется, исходит из заслуживающего доверия источника [23]. Было обнаружено, что участники исследования сообщают о большей вероятности распространения сообщения в социальных сетях, если оно исходит из заслуживающего доверия источника [24].Есть свидетельства реальных попыток использовать этот эффект. В 2018 году Twitter обнаружил мошеннические аккаунты, имитирующие аккаунты местных газет США [25], которым можно доверять больше, чем национальным СМИ [26]. Возможно, это были скрытые учетные записи, созданные специально с целью создания доверия перед последующим активным использованием.

Факторы, влияющие на распространение дезинформации.

Хотя, вероятно, существует ряд других переменных, которые также влияют на распространение дезинформации, есть основания полагать, что последовательность, консенсус и авторитет могут быть важны.Создание или нацеливание дезинформационных сообщений таким образом, чтобы максимизировать эти три характеристики, может быть способом увеличения их органического охвата. Существуют реальные свидетельства активности, согласующейся с попытками их использования. Если эти эффекты действительно существуют, они также могут быть использованы инициативами по противодействию дезинформации.

Кто распространяет дезинформацию в социальных сетях?

Не все люди, которые сталкиваются с ложными материалами в Интернете, распространяют их дальше. Фактически, подавляющее большинство этого не делает.Исследование, связывающее поведенческие данные и данные опроса [16], показало, что менее 10% участников делились статьями из доменов «фейковых новостей» во время президентской избирательной кампании в США в 2016 году (хотя, конечно, если экстраполировать на огромную базу пользователей социальных сетей, таких как Facebook, это еще очень большое количество людей).

Тот факт, что только меньшинство людей на самом деле распространяет дезинформацию, делает важным рассмотреть то, что отличает их от людей, которые не распространяют ложные материалы дальше.Это поможет информировать о вмешательствах, направленных на противодействие дезинформации. Например, те, кто, скорее всего, будут введены в заблуждение дезинформацией или распространят ее дальше, могут стать мишенью для контрсообщения. Известно, что создатели дезинформации уже нацелены на определенные демографические группы, точно так же, как и политические кампании, направленные на микротаргетинг сообщений на те сегменты аудитории, которые считаются наиболее убедительными [27]. Например, считается, что «Агентство интернет-исследований» стремилось сегментировать пользователей Facebook и Instagram по признаку расы, этнической принадлежности и идентичности, нацеливая их сообщения на людей, которые, по данным платформ, имеют определенные интересы в маркетинговых целях [4].Они были нацелены на конкретные коммуникации, адаптированные к этим сегментам (например, пытались подорвать веру афроамериканцев в политические процессы и подавить их голосование на президентских выборах в США).

Цифровая медиаграмотность.

Исследования показали, что пожилые люди, особенно в возрасте старше 65 лет, с наибольшей вероятностью распространяли материалы, изначально опубликованные в доменах «фейковых новостей» [16]. Ключевая гипотеза, выдвинутая для объяснения этого, заключается в том, что пожилые люди имеют более низкий уровень компьютерной медиаграмотности и, следовательно, с меньшей вероятностью смогут различать правдивую и ложную информацию в Интернете.Хотя определения могут различаться, цифровая медиаграмотность может рассматриваться как включающая «… способность взаимодействовать с текстовыми, звуковыми, изображениями, видео и социальными медиа… поиск, манипулирование и использование такой информации» [28, с. 11] и являясь «многомерной концепцией, включающей технические, когнитивные, моторные, социологические и эмоциональные аспекты» [29, с.834]. Цифровая медиаграмотность широко рассматривается как важная переменная, опосредующая распространение и влияние дезинформации [например, 1]. Утверждается, что многим людям не хватает изощренности, чтобы распознать ложное сообщение, особенно если оно, похоже, исходит из авторитетного или надежного источника.Кроме того, люди с более высокой цифровой медиаграмотностью могут с большей вероятностью участвовать в сложной, а не эвристической обработке (см. Работу по уязвимости к фишингу [30]) и, таким образом, будут менее подвержены таким предубеждениям, как последовательность, консенсус и авторитет. .

Обучение людей цифровой медиаграмотности является основой многих инициатив по борьбе с дезинформацией. Примеры включают игру Facebook «News Hero», разработанную Центром передового опыта стратегических коммуникаций НАТО (https: // www.stratcomcoe.org/news-hero), правительственные инициативы в Хорватии и Франции [8] или работу многочисленных организаций по проверке фактов. Эффективность таких инициатив зависит от выполнения двух предположений. Во-первых, более низкая цифровая медийная грамотность действительно снижает нашу способность выявлять дезинформацию. В настоящее время имеется ограниченное количество эмпирических данных по этому поводу, что усложняется тем фактом, что определения «цифровой грамотности» разнообразны и оспариваются, и в настоящее время нет общепринятых инструментов измерения [28].Во-вторых, люди, распространяющие дезинформацию, делают это невольно, будучи обманутыми для ее распространения. Однако возможно, что по крайней мере некоторые люди знают, что материал не соответствует действительности, и они все равно распространяют его. Обзорное исследование [31] показало, что вера в ложь не обязательно является препятствием для того, чтобы поделиться ею. Люди могут действовать так, потому что они симпатизируют намерениям или посланию рассказа, или они явно сигнализируют о своей социальной идентичности или преданности какой-либо политической группе или движению.Если люди намеренно передают информацию, которая, как им известно, не соответствует действительности, то повышение их компьютерной медиаграмотности в качестве уловки для противодействия дезинформации будет неэффективным. Это делает важным одновременное рассмотрение убеждений пользователей о правдивости дезинформационных историй для разработки контрмер.

Личность.

Также известно, что личность влияет на то, как люди используют социальные сети [например, 32]. Это делает возможным, что личностные переменные также будут влиять на взаимодействие с дезинформацией.Действительно, предыдущее исследование [24] показало, что люди с низким уровнем доброжелательности сообщали, что они с большей вероятностью распространят сообщение. Это важная возможность для рассмотрения, поскольку она повышает вероятность того, что отдельные лица могут стать жертвами на основе их личностных качеств либо с помощью дезинформации, либо с помощью контр-сообщений. В контексте социальных сетей таргетирование коммуникаций на основе личности возможно, поскольку характеристики личности могут быть обнаружены по отпечаткам людей в социальных сетях [33, 34].Крупномасштабные полевые эксперименты показали, что персонализированная реклама в социальных сетях может влиять на поведение пользователей [35].

Вопрос о том, какие черты личности могут быть важными, остается открытым. В текущем исследовании к личности подходили на исследовательской основе, без каких-либо конкретных гипотез об эффектах или их направлениях. Это связано с тем, что может действовать ряд различных и потенциально конкурирующих эффектов. Например, более высокий уровень сознательности может быть связан с большей вероятностью публикации политических материалов в социальных сетях [36], что приведет к более высокому уровню распространения политической дезинформации.Однако люди с более высоким уровнем сознательности, вероятно, будут более осторожными [37] и будут уделять больше внимания деталям [38]. Следовательно, у них также может быть больше шансов проверить достоверность материалов, которыми они делятся, что приведет к более низкому уровню распространения политической дезинформации.

Цели и гипотезы исследования

Общая цель этого проекта заключалась в том, чтобы установить, повышают ли контекстные факторы в представлении дезинформации или характеристики людей, видящих ее, расширение ее охвата.Принятая методология была основана на сценариях, и людей просили оценить их вероятность распространения образцовых дезинформационных сообщений. Была проведена серия из четырех исследований с использованием одной и той же методологии. Было проведено несколько исследований, чтобы установить, были ли обнаружены одинаковые эффекты на разных платформах социальных сетей (Facebook в исследовании 1, Twitter в исследовании 2, Instagram в исследовании 3) и странах (Facebook с образцом из Великобритании в исследовании 1, Facebook с образцом из США. в исследовании 4). Также были собраны данные о том, делились ли участники дезинформацией в прошлом.Было выдвинуто несколько различных гипотез:

h2: Люди будут сообщать о том, что они с большей вероятностью распространят сообщения из более авторитетных источников по сравнению с менее авторитетными источниками.

h3: Люди будут сообщать, что они с большей вероятностью будут распространять сообщения, демонстрирующие более высокую степень консенсуса, чем те, которые демонстрируют более низкую степень консенсуса.

h4: Люди будут сообщать, что они с большей вероятностью будут распространять сообщения, соответствующие их ранее существовавшим убеждениям, по сравнению с несогласованными сообщениями.

h5: Люди с более низкой цифровой грамотностью сообщают о более высокой вероятности распространения ложных сообщений, чем люди с более высокой цифровой грамотностью.

Другие переменные были включены в анализ на исследовательской основе без выдвижения каких-либо конкретных гипотез. Таким образом, этот проект спрашивает, почему обычные пользователи социальных сетей делятся политическими дезинформационными сообщениями, которые они видят в Интернете. Он проверяет, влияют ли конкретные характеристики сообщений или их получателей на вероятность дальнейшего распространения дезинформации в Интернете.Понимание любых таких механизмов улучшит наше понимание явления и поможет при разработке мероприятий, направленных на уменьшение его воздействия.

Исследование 1

Исследование 1 проверило гипотезы 1–4 на образце из Великобритании, используя стимулы, относящиеся к Великобритании. Исследование было проведено онлайн. Участники были членами исследовательских комиссий, предоставленных исследовательской компанией Qualtrics.

Метод

Участников попросили оценить вероятность того, что они поделятся тремя смоделированными сообщениями в Facebook.В исследовании использовался экспериментальный план, манипулирующий уровнями авторитетности и консенсуса, проявляющегося в стимулах. Все манипуляции происходили между участниками, а не внутри них. Согласованность с ранее существовавшими убеждениями не подвергалась манипуляциям. Вместо этого политическая ориентация стимулов оставалась постоянной, а оценки участников по консервативной политической ориентации использовались как показатель соответствия между сообщениями и убеждениями участников. Влияние этих переменных на самооценку вероятности совместного использования стимулов, наряду с таковыми из ряда других предикторов, оценивалось с помощью множественной регрессии.Основная цель анализа состояла в том, чтобы определить переменные, которые статистически значимо объясняли различия в вероятности распространения дезинформации. За запланированным анализом последовали дополнительные и поисковые анализы. Все анализы проводились с использованием SPSS v.25 для Mac. Для всех исследований, представленных в этой статье, этическое одобрение было получено как от Комитета по этике исследований Вестминстерского университета (ETh2819-1420), так и от Комитета по этике исследований в области безопасности Ланкастерского университета (BUCHANAN 2019 07 23).Согласие было получено через электронную форму от анонимных участников.

Материалы.

Короткая анкета использовалась для сбора демографической информации (пол; страна проживания; образование; возраст; профессиональный статус; политическая ориентация, выраженная справа, слева или по центру; частота использования Facebook). Индивидуальные различия в личности, политической ориентации и грамотности в цифровых / новых медиа измерялись с помощью утвержденных анкет. Использовались экологически обоснованные стимулы, причем их представление изменялось в зависимости от условий, чтобы варьировать авторитетность и маркеры консенсуса.

Личность измерялась с помощью пятифакторного опросника личности из 41 пункта [38], полученного из Международного пула элементов личности [37]. Эта мера обеспечивает показатели экстраверсии, невротизма, открытости опыту, доброжелательности и добросовестности, которые хорошо коррелируют с областями Пятифакторной модели Косты и МакКрея [39].

Консерватизм был измерен с помощью 12-балльной шкалы социально-экономического консерватизма (SECS) [40], которая предназначена для измерения политической ориентации в направлении слева и справа; либерально-консервативный континуум.Он был разработан и утвержден на американском образце. В экспериментальной работе для текущего исследования было обнаружено, что средние баллы лиц, проголосовавших за Лейбористскую и Консервативную партии на всеобщих выборах в Великобритании в 2017 г., различались ожидаемым образом ( t (28) = -2,277, p. = 0,031, d = 0,834). Это свидетельствует о его пригодности для использования в образцах из Великобритании. Хотя этот показатель предоставляет индексы различных аспектов консерватизма, он также дает общий балл консерватизма, который использовался в этом исследовании.

Цифровая медиаграмотность измерялась с помощью шкалы новой медиаграмотности из 35 пунктов (NMLS) [29]. Это основанная на теории оценка компетенций в использовании, критическом опросе и создании цифровых медиа-технологий и обмена сообщениями. В пилотной работе с британской выборкой было обнаружено различие между людьми с высоким и низким уровнем использования социальных сетей (Twitter), что обеспечивает доказательство достоверности ( t (194) = -3,847, p <0,001, г =.55). Хотя этот показатель предоставляет индексы различных аспектов грамотности в области новых средств массовой информации, он также дает общий балл, который использовался в этом исследовании.

Участников попросили оценить вероятность того, что они поделятся тремя подлинными примерами «фейковых новостей», которые ранее были опубликованы в Интернете. Общая оценка их вероятности совместного использования стимулов была получена путем суммирования трех оценок, создавая объединенную оценку. Это было сделано, и был использован набор из трех стимулов, чтобы уменьшить вероятность того, что какие-либо обнаруженные эффекты были специфичны для конкретной истории.Стимулы были получены с веб-сайта Infowars.com (который в некоторых случаях переиздавал их из других источников). Infowars.com был описан [41] как сайт с высокой посещаемостью, тесно связанный с распространением «фейковых новостей». Вместо полных статей использовались отрывки (скриншоты), которые имели размер и общий вид того, что респонденты могли ожидать увидеть в социальных сетях. Выдержки были отредактированы, чтобы удалить все индикаторы источника, такие показатели, как количество репостов, дату и автора.Все они придерживались правой ориентации (так что консерватизм участников мог использоваться как показатель согласованности между сообщениями и существующими убеждениями). Это было установлено в экспериментальной работе, оценивающей их политическую ориентацию и вероятность того, что их разделяют. Три истории вошли в число семи, оцененных британской выборкой ( N = 30) по 11-балльной шкале с вопросом: «Как вы думаете, в какой степени этот пост был предназначен для людей с правыми (политически консервативными) взглядами?» поставил якорь в позициях «Очень левое крыло» и «Очень правое крыло».Все семь были оценены статистически значимо выше политически нейтральной средней точки шкалы. Из трех стимулов, выбранных для использования в этом исследовании, тест t- с одной выборкой показал, что наименее правый был статистически значимо выше средней точки ( t (39) = 4,385, p <0,001, d = 0,70).

Одним из стимулов была фотография мужчин в масках и капюшонах под названием «Видео с цензурой: посмотрите, как мусульмане нападают на мужчин, женщин и детей в Англии».На одной из них была фотография многих людей, идущих по дороге, под названием «Разоблачено: план ООН затопить Америку 600 миллионами мигрантов» с сопроводительным текстом, описывающим план «затопить Америку и Европу сотнями миллионов мигрантов для поддержания численности населения». . Третьим было изображение шведского флага под названием «Ребенок-беженец» с флагманским телефоном Samsung и жалобами на золотые часы о шведских правилах выплаты пособий », якобы описывающим жалобы 19-летнего беженца.

Манипуляция авторитетностью достигается путем сочетания стимулов с источниками, которые считаются относительно высокими или низкими по авторитетности.Источник был показан над оцениваемым стимулом, точно так же, как аватар и имя пользователя того, кто опубликовал сообщение, будут на Facebook. В группу с более низким авторитетом входили небольшие варианты реальных имен пользователей, которые ранее ретвитнули либо истории с Infowars.com, либо другую историю, которая, как известно, не соответствует действительности. Использованы оригинальные аватарки. Образцы, использованные в этом исследовании, были названы «Tigre» (с аватаром с нечетким изображением женского лица), «jelly beans» (изображение некоторых мармеладов) и «ChuckE» (нечеткое изображение мужского лица). .Группа с более высоким авторитетом включала в себя фактические поддельные учетные записи, созданные группой Агентства интернет-исследований (IRA), чтобы напоминать местные источники новостей, выбранные из списка заблокированных учетных записей IRA, опубликованного Twitter. Образцами, использованными в этом исследовании, были «Los Angeles Daily», «Chicago Daily News» и «El Paso Top News». Пилотная работа проводилась с выборкой участников из Великобритании ( N = 30), каждый из которых оценил выборку из 9 имен пользователей, включая эти 6, в зависимости от степени, в которой каждое «вероятно является авторитетным источником, то есть, вероятно, быть надежным и надежным источником информации ».Внутренний тест t показал, что средние рейтинги авторитетности для «высшей» группы были статистически значимо выше, чем «низшая» группа ( t (29) = -11,181, p < .001, d z = 2,04).

Манипуляция консенсусом была достигнута путем сочетания стимулов с индикаторами количества акций и симпатий, которые были у истории. Индикаторы были показаны под оцениваемым стимулом, как обычно на Facebook.В условиях низкого консенсуса отображалось небольшое количество лайков (1, 3, 2) и репостов (2, 0, 2). В условиях высокого консенсуса отображалось большее (но не нереалистичное) количество лайков (104K, 110K, 63K) и репостов (65K, 78K, 95K). Информация была представлена ​​с использованием тех же графических индикаторов, что и в случае с Facebook, сопровождаемых (неактивными) значками для взаимодействия с публикацией, чтобы максимизировать экологическую значимость.

Порядок действий.

Исследование проводилось полностью онлайн с использованием материалов, размещенных на исследовательской платформе Qualtrics.Сначала участники увидели информационную страницу об исследовании и, указав свое согласие, перешли к демографическим пунктам. Затем они заполнили шкалы личности, консерватизма и новой медиаграмотности. Каждый из них был представлен на отдельной странице, за исключением NMLS, который был разделен на три страницы.

Затем участников попросили оценить три элемента дезинформации. Участники были рандомизированы по различным комбинациям источника и рассказа в соответствии с заданными условиями.Например, участник А мог видеть Историю 1, отнесенную к Источнику 1, Историю 2, отнесенную к Источнику 2, и Историю 3, отнесенную к Источнику 3; в то время как участник B видел Историю 1, отнесенную к Источнику 2, Историю 2, отнесенную к Источнику 1, и Историю 3, отнесенную к Источнику 3. Каждый участник видел одни и те же три истории в паре с одной комбинацией авторитетности и консенсуса. Было 24 различных набора стимулов.

Каждый участник увидел вступительный абзац, в котором говорилось: «Ваш друг недавно поделился этим на Facebook, отметив, что он считает это важным, и попросил всех своих друзей поделиться этим:».Ниже была комбинация показателей источника, истории и консенсуса, представленных вместе так же, как и настоящий пост в Facebook. Затем они оценили вероятность того, что они поделятся постом в своей общедоступной временной шкале, по 11-балльной шкале с привязкой к «Очень маловероятно» и «Очень вероятно». Это было повторено для второго и третьего стимулов, каждый на отдельной странице. После оценки каждого из них участникам снова были показаны все три стимула, на этот раз на той же странице. Их попросили оценить каждого из них по пятибалльной шкале, «насколько вероятно, что вы думаете, что сообщение является точным и правдивым» и «насколько вероятно, что вы видели его до сегодняшнего дня». Вовсе не вероятно »и« Очень вероятно ».

После оценки стимулов участникам были заданы еще два вопроса: «Делились ли вы когда-нибудь в сети политическими новостями, которые, как вы позже выяснили, были сфабрикованы?» И «Делились ли вы когда-нибудь в сети политическими новостями, которые, по вашему мнению, AT ВРЕМЯ придумано? », С вариантами ответа« да »или« нет ». Этот формат вопросов был напрямую воспроизведен в опросах Pew Research Center, посвященных дезинформации [например, 31].

Наконец, участникам была предоставлена ​​возможность еще раз дать или отозвать свое согласие на участие.Затем они перешли на страницу подведения итогов. Только на этапе разбора полетов им сказали, что рассказы, которые они видели, не соответствовали действительности: до этого момента не было представлено никакой информации о том, были ли стимулы истинными или ложными.

Просмотр и обработка данных.

Перед доставкой образца Qualtrics выполнила серию проверок качества и процедур «очистки данных», чтобы удалить и заменить участников шаблонами ответов, предполагающими недостоверный или невнимательный ответ.В их число входили проверки превышения скорости и изучение шаблонов реакции. После доставки исходного образца ( N = 688) были выполнены дополнительные процедуры скрининга. Было выявлено шестнадцать респондентов, которые ответили с одинаковыми баллами на основные разделы анкеты («прямая линия»). Они были удалены, оставив N = 672. Эти проверки и исключения были выполнены до любого анализа данных. Если у участников отсутствовали данные по каким-либо переменным, они были исключены только из анализа, включающего эти переменные.Таким образом, значения N s незначительно меняются на протяжении всего анализа.

Участников.

Планируется, что целевой размер выборки превысит N = 614, что даст 95% мощность для обнаружения R 2 = 0,04 (эталон для минимального размера эффекта, который может иметь реальное значение в социальной сфере). научное исследование [42]), в запланированном множественном регрессионном анализе с 11 предикторами. Компания Qualtrics заключила контракт с целью предоставить выборку пользователей Facebook, которые в целом представляли население Великобритании по переписи 2011 года с точки зрения пола; раскол между теми, кто получил высшее образование, и теми, у кого его не было; и возрастной профиль (18+).Квоты использовались для создания выборки, состоящей примерно из одной трети, каждая из которых характеризовалась как левый, центристский и правый по своей политической ориентации. Демографические данные участников представлены в таблице 1, столбец 1.

Результаты

Обобщены описательные статистические данные о характеристиках участников (личность, консерватизм, грамотность в новых средствах массовой информации и возраст) и их реакции на стимулы (вероятность поделиться, вера в то, что рассказы были правдивыми, и рейтинг вероятности того, что они видели их раньше). в таблице 2.Все весы имели приемлемую надежность. Основная зависимая переменная, вероятность совместного использования, имела очень асимметричное распределение с сильным минимальным эффектом: 39,4% участников указали, что они «очень маловероятно» поделятся какой-либо из трех историй, которые они видели. Это согласуется с выводами об обмене информацией в реальном мире, которые показывают, что лишь небольшая часть пользователей социальных сетей на самом деле делится дезинформацией [например, 16], хотя он дает зависимую переменную с далеко не идеальными распределительными свойствами.

Для одновременной проверки гипотез 1–4 был проведен множественный регрессионный анализ. При этом оценивалась степень, в которой цифровая медиаграмотность (NMLS), авторитетность источника сообщения, консенсус, вера в правдивость сообщений, согласованность с убеждениями участников (операционализированы как общий балл по шкале консерватизма SECS), возраст и личность (экстраверсия, сознательность) , Доброжелательность, Открытость к опыту и Невротизм), предсказал, по собственной оценке, вероятность того, что вы поделитесь сообщениями.Этот анализ обобщен в Таблице 3. Проверки были выполнены на предмет соответствия набора данных допущениям, необходимым для анализа (отсутствие коллинеарности, независимость остатков, гетероскедастичность и ненормальное распределение остатков). Несмотря на неравномерное распределение зависимой переменной, никаких существенных проблем обнаружено не было.

Однако исследовательский анализ показал, что включение других переменных в регрессионную модель может быть оправданным. Хорошо известно, что существуют гендерные различия по ряду личностных переменных.Кроме того, в текущей выборке мужчины и женщины различались по уровню консерватизма ( M = 669,10, SD = 150,68 и M = 636,50, SD = 138,31 соответственно; t (666) = 2,914, p = 0,004), их самооценка вероятности совместного использования ( M = 10,41, SD = 8,33 и M = 7,60, SD = 6,38 соответственно; t (589.60) = 4,928, р. <.001; скорректированный df использован из-за неоднородности дисперсии, Левена F = 35,99, p <0,001) и их уверенности в правдивости рассказов ( M = 7,16, SD = 3,22 и M = 6,52, SD = 3,12 соответственно; t (668) = 2,574, p = 0,010). Было обнаружено, что уровень образования положительно коррелирует с оценками NMLS ( r = 0,210, N = 651, p <0,001).Уровень использования Facebook значительно коррелировал с возрастом ( r = -126, N = 669 , p = 0,001), образованием ( r = 0,082, N = 671, p = 0,034), NMLS ( r = 0,170, N = 652, p <0,001), с вероятностью совместного использования ( r = 0,079, N = 672, p =. 040), и с вероятностью увидеть стимулы раньше ( r = .107, N = 672, p =.006). Самостоятельная вера в то, что респонденты видели истории раньше, также значительно коррелировала с вероятностью того, что они поделятся ( r = 0,420, N = 672, p <0,001), и рядом других переменных-предикторов.

Соответственно, был проведен дальнейший регрессионный анализ, включая эти дополнительные предикторы (пол, образование, уровень использования Facebook, уверенность в том, что они видели истории раньше). Учитывая включение пола в качестве предиктора, два респондента, которые не указали свой пол как мужской или женский, были исключены из дальнейшего анализа.Анализ, обобщенный в Таблице 4, показал, что модель объяснила 43% дисперсии самооценки вероятности обмена тремя элементами дезинформации. Ни авторитетность источника рассказа, ни согласованная информация, связанная с рассказами, не были значимыми предикторами.

Согласованность пунктов с отношением участников (консерватизм) была важна, с положительной и статистически значимой взаимосвязью между консерватизмом и вероятностью обмена.Единственная личностная переменная, предсказывающая совместное использование, была Приатливость, при этом менее приятные люди давали более высокие оценки вероятности того, что они поделятся. С точки зрения демографических характеристик пол и образование были статистически значимыми предикторами, при этом мужчины и менее образованные люди сообщали о более высокой вероятности обмена. Наконец, люди сообщали о большей вероятности поделиться предметами, если они считали, что они, вероятно, правдивы, и если они думали, что видели их раньше.

Участников также спросили об их историческом обмене ложными политическими историями, как неосознанными, так и преднамеренными.102 из 672 участников (15,2%) указали, что они когда-либо «делились политическими новостями в Интернете, которые, как они позже выяснили, были сфабрикованы», в то время как 64 из 672 указали, что они поделились историей, которая, по их мнению, была сделана в ВРЕМЯ. вверх »(9,5%). Предикторы того, делились ли люди ложным материалом при обоих наборах обстоятельств, были исследованы с использованием логистической регрессии с теми же наборами предикторов на уровне участников.

Распространение ложных материалов по незнанию (таблица 5) было значительно предсказано более низкой сознательностью, более низкой доброжелательностью и более низким возрастом.Распространение информации, которая в то время была заведомо ложной (таблица 6), в значительной степени объяснялась более низкой степенью согласия и более низким возрастом.

Обсуждение

Основной анализ в этом исследовании (таблица 4) предоставил ограниченную поддержку гипотез. Вопреки гипотезам 1, 2 и 4, ни маркеры консенсуса, ни авторитетность источника, ни грамотность в области новых медиа не были связаны с самооценкой вероятности распространения дезинформационных историй. Однако в соответствии с гипотезой 3 более высокий уровень консерватизма был связан с более высокой вероятностью распространения дезинформации.Этот вывод подтверждает предположение о том, что мы с большей вероятностью поделимся вещами, которые согласуются с нашими ранее существовавшими убеждениями, поскольку все стимулы были правыми по ориентации. Альтернативное объяснение может заключаться в том, что более консервативные люди просто с большей вероятностью поделятся дезинформацией. Однако, помимо отсутствия веского обоснования, это объяснение не подкрепляется тем фактом, что консерватизм, по-видимому, не был связан с историческим обменом мнениями по собственной инициативе (Таблицы 5 и 6).

Самыми сильными предикторами вероятности того, что они поделятся, была вера в то, что истории правдивы, и вероятность того, что они видели их раньше.Вера в правдивость рассказов является дополнительным доказательством роли последовательности (гипотеза 3) в том смысле, что мы с большей вероятностью поделимся тем, что, по нашему мнению, является правдой. Связь с вероятным предыдущим знакомством с материалами согласуется с другими недавними исследованиями [43, 44], которые показали, что предварительное знакомство с заголовками «фальшивых новостей» привело к большей уверенности в их точности и уменьшению веры в то, что было бы неэтично делиться ими.

Из личностных переменных только доброжелательность была значимым предиктором, менее приятные люди, оценивавшие себя, с большей вероятностью разделяли стимулы.Это согласуется с предыдущими выводами [24] о том, что менее приятные люди сообщают, что они с большей вероятностью разделяют критическое политическое послание.

Более низкий уровень образования был связан с более высокой вероятностью обмена. Возможно, что менее образованные люди могут быть более восприимчивыми к онлайн-влиянию, если учесть, что исследования показывают, что менее образованные люди больше подвержены влиянию микротаргетированной политической рекламы в Facebook [45].

Наконец, выяснилось, что пол является важной переменной: мужчины сообщают о более высокой вероятности распространения дезинформационных сообщений, чем женщины.Это было неожиданным: хотя есть ряд характеристик, связанных с полом (например, личностных качеств), которые считались важными, не было a priori оснований полагать, что пол сам по себе будет прогностической переменной.

Исследование 1 также исследовало предикторы сообщения об историческом обмене ложной политической информацией. Соответствует реальным данным [16] и прошлым репрезентативным опросам [например, 31], меньшинство респондентов сообщили о подобном обмене информацией в прошлом. Неосознанное распространение ложных политических историй было предсказано низкой добросовестностью, низкой доброжелательностью и более низким возрастом, в то время как сознательное распространение ложных материалов было предсказано только более низкой доброжелательностью и более низким возрастом.Эффект согласия согласуется с результатами основного анализа и [24]. Вывод о том, что Добросовестность повлияла на случайное, но не преднамеренное, совместное использование, согласуется с идеей о том, что менее сознательные люди с меньшей вероятностью будут проверять детали или правдивость истории, прежде чем поделиться ею. Ясно, что эта тенденция не применима к преднамеренному распространению лжи. Эффект возраста объяснить труднее, особенно с учетом данных [16], что пожилые люди чаще делились материалами с фейковых новостных сайтов.Одно из возможных объяснений заключается в том, что молодые люди более активны в социальных сетях, поэтому они с большей вероятностью поделятся любой статьей. Другая возможность состоит в том, что они с большей вероятностью будут делиться юмористическими политическими мемами, которые часто можно классифицировать как ложные политические истории.

Исследование 2

Исследование 2 намеревалось повторить Исследование 1, но материалы были представлены так, как если бы они были размещены в Twitter, а не в Facebook. Целью этого было проверить, применяются ли наблюдаемые эффекты на разных платформах.Участники исследования сообщили об использовании «лайков» в Twitter более продуманно, чем в Facebook [12], что повышает вероятность того, что эвристика может быть менее важной для этой платформы. Исследование было проведено онлайн с привлечением оплачиваемых респондентов, взятых из исследовательской панели Prolific (www.prolific.co).

Метод

Методология в точности повторяла методику исследования 1, за исключением случаев, описанных ниже. Запланированный анализ был пересмотрен, чтобы включить расширенный набор предикторов, которые в конечном итоге использовались в исследовании 1 (см. Таблицу 4).

Материалы.

Измерения и материалы были такими же, как и в исследовании 1. Ключевое отличие от исследования 1 заключалось в представлении трех стимулов, которые изображались как размещенные в Twitter, а не в Facebook. Для манипуляции авторитетностью псевдонимы источников сопровождались @usernames, как это принято в Твиттере. Для манипулирования консенсусом отображались «ретвиты», а не «акции», и использовались соответствующие значки для Twitter.Участники также указали свой уровень использования Twitter, а не Facebook.

Порядок действий.

Процедура повторяла Исследование 1, за исключением того, что в этом случае NMLS была представлена ​​на одной странице. Прежде чем участники увидели каждый из трех элементов дезинформации, во вступительном абзаце говорилось: «Ваш друг недавно поделился этим в Твиттере, прокомментировав, что он считает это важным, и попросил всех своих друзей ретвитнуть его:», и их попросили указать, вероятность того, что они «ретвитнут», а не «поделятся» публикацией.

Просмотр и обработка данных.

Данные были изначально получены от 709 участников. Для обеспечения качества данных была проведена серия проверок, в результате чего был исключен ряд ответов. Один человек отказался дать согласие. Было сочтено, что одиннадцать человек ответили недостоверно, с одинаковыми ответами на все вопросы в основных разделах анкеты («прямая линия»). Двадцать не были активными пользователями Твиттера: три человека заходили в Твиттер «совсем не» и семнадцать «реже», чем каждые несколько недель.Три участника ответили нереалистично быстро, с продолжительностью ответа менее четырех минут (то же значение, используемое Qualtrics в качестве проверки скорости в исследовании 1). Все эти респонденты были удалены, оставив N = 674. Эти проверки и исключения были выполнены до любого анализа данных.

Участников.

Планируется, что целевой размер выборки превысит N = 614, как в исследовании 1. Попыток набрать демографически репрезентативную выборку не предпринималось: вместо этого использовались квоты выборки, чтобы гарантировать, что выборка не была однородной в отношении образования ( предварительная степень vs.степень бакалавра или выше), возраст (до 40 и старше 40) и политические предпочтения (левое, центральное или правое крыло ориентации). Кроме того, участники должны были быть гражданами Великобритании, проживающими в Великобритании; активные пользователи Twitter; и не участники предыдущих исследований, связанных с этим. Каждый участник получил вознаграждение в размере 1,25 фунта стерлингов. Демографические данные участников представлены в таблице 1 (столбец 2). Для фокусного анализа в этом исследовании размер выборки давал 94,6% мощности для обнаружения R 2 =.04 в множественной регрессии с 15 предикторами (двусторонний, альфа = 0,05).

Результаты

Описательная статистика представлена ​​в таблице 7. Все шкалы имели приемлемую надежность. Основная зависимая переменная, вероятность совместного использования, снова имела очень асимметричное распределение с сильным минимальным эффектом.

Для одновременной проверки гипотез 1–4 был проведен множественный регрессионный анализ с использованием расширенного набора предикторов из исследования 1. Учитывая включение пола в качестве предиктора, три респондента, которые не указали свой пол как мужской или женский, были исключены. из дальнейшего анализа.Анализ, обобщенный в Таблице 8, показал, что модель объяснила 46% дисперсии самооценки вероятности обмена тремя элементами дезинформации. Ни авторитетность источника рассказа, ни консенсусная информация, связанная с рассказами, ни грамотность новых СМИ не были значимыми предикторами. Согласованность пунктов с отношением участников (консерватизм) была важна, с положительной и статистически значимой взаимосвязью между консерватизмом и вероятностью обмена.Ни одна личностная переменная не предсказывала оценок вероятности обмена. С точки зрения демографических характеристик пол и образование были статистически значимыми предикторами, при этом мужчины и менее образованные люди сообщали о более высокой вероятности обмена. Наконец, люди сообщали о большей вероятности поделиться предметами, если они считали, что они, вероятно, правдивы, и если они думали, что видели их раньше.

Участников также спросили об их историческом обмене ложными политическими историями, как неосознанными, так и преднамеренными.102 из 674 участников (15,1%) указали, что они когда-либо «делились политическими новостями в Интернете, которые, как они позже выяснили, были сфабрикованы», в то время как 42 из 674 указали, что они поделились историей, которая, по их мнению, была составила »(6,2%). Предикторы того, делились ли люди ложным материалом при обоих наборах обстоятельств, были исследованы с использованием логистической регрессии с теми же наборами предикторов на уровне участников.

Распространение ложных материалов по незнанию (таблица 9) в значительной степени было предсказано более высокой экстраверсией и более высоким уровнем использования Twitter.Распространение информации, которая в то время была заведомо ложной (таблица 10), в значительной степени предсказывалась более высоким невротизмом и принадлежностью к мужчине.

Обсуждение

Для основного анализа Исследование 2 повторяет ряд ключевых результатов исследования 1. В частности, гипотезы 1, 2 и 4 снова не подтверждаются результатами: консенсус, авторитетность и грамотность в новых медиа не были связаны с самооценкой вероятности. ретвитов дезинформационных историй. Снова были обнаружены доказательства, согласующиеся с гипотезой 3, причем более высокий уровень консерватизма был связан с более высокой вероятностью ретвита.Опять же, самым сильным предиктором вероятности обмена была вера в то, что истории были правдой, в то время как вероятность увидеть их раньше снова была статистически значимой. Единственное различие заключалось в роли личности: не было никакой связи между доброжелательностью (или любой другой личностной переменной) и вероятностью ретвита материала.

Однако, для самоотчетов об историческом обмене ложными политическими историями картина результатов была иной. Ни один из предыдущих результатов не был воспроизведен, и были обнаружены новые предикторы как для незнания, так и для преднамеренного обмена.В случае непреднамеренного обмена имеет смысл ссылка на более высокий уровень использования Twitter, поскольку более частое использование дает больше возможностей для случайного обмена неправдой. Также было обнаружено, что более высокая экстраверсия коррелирует с более высоким уровнем использования социальных сетей [32], поэтому та же логика может применяться к этой переменной. Что касается преднамеренного обмена, открытие, что мужчины чаще делятся ложной политической информацией, аналогично результатам исследования 1. Связь с высшим невротизмом объяснить труднее: одна возможность состоит в том, что больше невротиков с большей вероятностью будут делиться ложью, которая будет уменьшить вероятность события, которое вызывает у них беспокойство (например, распространение неправды о политическом кандидате, которого беспокоит избрание).

Учитывая, что эти вопросы касались поведения в прошлом в целом и не были связаны со стимулами Twitter, использованными в этом исследовании, неясно, почему модель результатов должна была отличаться от результатов исследования 1. Одна из возможностей состоит в том, что характеристики выборки были разными (эта выборка была моложе, лучше образована и взята из другого источника). Другая реальная возможность, особенно с учетом типично малых размеров эффекта и больших проверенных выборок, состоит в том, что это просто «грубые» корреляции [46], а не полезные результаты.В будущем, вероятно, будет более информативным сосредоточиться на результатах, которые воспроизводятся в нескольких исследованиях или концептуально схожих анализах.

Исследование 3

Исследование 3 намеревалось повторить Исследование 1, но материалы были представлены так, как если бы они были размещены в Instagram, а не в Facebook. Instagram представляет собой интересный контраст, поскольку механизмы взаимодействия с материалом разные (например, нет собственного механизма обмена). Тем не менее, он был определен как важный театр действий по дезинформации [47].Таким образом, исследование 3 стремилось установить, влияют ли те же факторы, влияющие на публикацию в Facebook, на взаимодействие с ложными материалами в Instagram. Исследование было проведено онлайн с привлечением оплачиваемых респондентов из группы исследований Prolific.

Метод

Методология в точности повторяла методику исследования 1, за исключением случаев, описанных ниже. Запланированный анализ был пересмотрен, чтобы включить расширенный набор предикторов, которые в конечном итоге использовались в исследовании 1 (см. Таблицу 4).

Материалы.

Измерения и материалы были такими же, как и в исследовании 1. Единственное отличие от исследования 1 заключалось в представлении трех стимулов, которые изображались как опубликованные в Instagram, а не в Facebook. Для манипулирования консенсусом «лайки» использовались в качестве единственного индикатора консенсуса, а также использовались соответствующие значки для Instagram.

Порядок действий.

Процедура повторяла Исследование 1, за исключением того, что в этом случае NMLS была представлена ​​на одной странице. Прежде чем участники увидели каждый из трех элементов дезинформации, во вступительном абзаце говорилось: «Представьте, что вы видели этот пост в своей ленте Instagram:», и их просили указать вероятность того, что им «понравится» этот пост.

Просмотр и обработка данных.

Данные были изначально получены от 692 участников. Для обеспечения качества данных была проведена серия проверок, в результате чего был исключен ряд ответов. Четыре человека отказались дать согласие. Было сочтено, что 21 человек ответил недостоверно, с одинаковыми оценками по основным разделам анкеты («прямая линия»). Пять не указали, что находятся в Великобритании. Десять не были активными пользователями Instagram: три человека заходили в Instagram «совсем не» и семь «реже», чем каждые несколько недель.Два участника ответили нереально быстро, с продолжительностью ответа менее четырех минут (то же значение, используемое Qualtrics в качестве проверки скорости в исследовании 1). Все эти респонденты были удалены, оставив N = 650. Эти проверки и исключения были выполнены до любого анализа данных.

Участников.

Планируется, что целевой размер выборки превысит N = 614, как в исследовании 1. Попыток набрать демографически репрезентативную выборку не предпринималось: вместо этого использовались квоты выборки, чтобы гарантировать, что выборка не была однородной в отношении образования ( предварительная степень vs.степень бакалавра или выше) и политические предпочтения (левая, центристская или правая ориентация). Выборка не была стратифицирована по возрасту, учитывая, что использование Instagram связано с более молодым возрастом, а количество пожилых пользователей Instagram в пуле Prolific было ограничено на момент проведения исследования. Кроме того, участники должны были быть гражданами Великобритании, проживающими в Великобритании; активные пользователи Instagram; и не участники предыдущих исследований, связанных с этим. Каждый участник получил вознаграждение в размере 1,25 фунта стерлингов.Демографические данные участников представлены в таблице 1 (столбец 3). Для фокусного анализа в этом исследовании размер выборки давал 93,6% мощности для обнаружения R 2 = 0,04 в множественной регрессии с 15 предикторами (двусторонний, альфа = 0,05).

Результаты

Описательная статистика представлена ​​в таблице 11. Все шкалы имели приемлемую надежность. Основная зависимая переменная, вероятность симпатии, снова имела очень асимметричное распределение с сильным эффектом пола.

Для одновременной проверки гипотез 1–4 был проведен множественный регрессионный анализ с использованием расширенного набора предикторов из исследования 1. Учитывая включение пола в качестве предиктора, три респондента, которые не указали свой пол как мужской или женский, были исключены. из дальнейшего анализа. Анализ, обобщенный в Таблице 12, показал, что модель объяснила 24% дисперсии в самооценке вероятности обмена тремя элементами дезинформации. Ни авторитетность источника рассказа, ни согласованная информация, связанная с рассказами, ни согласованность пунктов с отношением участников (консерватизм) не были статистически значимыми предикторами.Экстраверсия положительно и Добросовестность отрицательно предсказывали рейтинги вероятности обмена. Что касается демографических характеристик, мужчины и более молодые участники сообщают о более высокой вероятности обмена. Наконец, люди сообщали о большей вероятности поделиться предметами, если они считали, что они, вероятно, правдивы, и если они думали, что видели их раньше.

Участников также спросили об их историческом обмене ложными политическими историями, как неосознанными, так и преднамеренными.Восемьдесят пять из 650 (13,1%) участников, ответивших на вопрос, указали, что они когда-либо «делились политическими новостями в Интернете, которые, как они позже выяснили, были сфабрикованы», а 50 из 650 указали, что они поделились тем, что они » мысль В ВРЕМЯ была выдумана »(7,7%). Предикторы того, делились ли люди ложным материалом при обоих наборах обстоятельств, были исследованы с использованием логистической регрессии с теми же наборами предикторов на уровне участников.

Распространение ложного материала по незнанию (таблица 13) было значительно предсказано более высокой экстраверсией, более низкой сознательностью и мужским полом.Распространение материалов, которые в то время были заведомо ложными (таблица 14), в значительной степени предсказывались более высокой грамотностью в области новых медиа, более высоким консерватизмом и более высоким невротизмом.

Обсуждение

Как и в исследованиях 1 и 2, результаты не соответствовали гипотезам 1, 2 и 4: консенсус, авторитетность и грамотность в новых медиа не были связаны с самооценкой вероятности того, что им понравятся дезинформационные истории. Однако, в отличие от исследований 1 и 2, консерватизм не предсказывал симпатии к историям.Вера в то, что рассказы правдивы, снова была самым сильным предсказателем, в то время как вероятность увидеть их раньше снова стала статистически значимой. Среди личностных переменных более низкая доброжелательность вернулась в качестве предиктора вероятного взаимодействия с историями, что согласуется с исследованием 1, но не исследованием 2. Более низкий возраст предсказал вероятную вовлеченность, новый вывод, в то время как принадлежность к мужчине предсказывалась вероятной вовлеченностью, как было обнаружено в обоих исследованиях 1. и Исследование 2. В отличие от Исследования 1 и Исследования 2, образование не имело никакого эффекта.

Что касается исторического случайного обмена, как в Исследовании 3, более высокая Экстраверсия была предиктором, а как в Исследовании 1, так и более низкой Сознательностью.Мужчины чаще делились случайно. Преднамеренный исторический обмен был предсказан более высоким уровнем грамотности в области новых медиа. Это противоречит интуиции и опровергает аргумент о том, что люди делятся вещами, потому что не знают лучшего. Фактически, в контексте преднамеренного обмана мотивированные люди с более высокой цифровой грамотностью могут быть лучше подготовлены для распространения неправды. Консерватизм здесь также был предсказателем. Это снова может быть отражением гипотезы согласованности, учитывая, что существует высокий уровень циркулирующей дезинформации, ориентированной на консерватизм.Наконец, как и в исследовании 3, высший нейротизм предсказал преднамеренное историческое разделение.

Исследование 4

Исследование 4 намеревалось повторить Исследование 1, но с образцом из США и с использованием материалов, ориентированных на США. Целью этого было проверить, применимы ли наблюдаемые эффекты к разным странам. Исследование было проведено онлайн, в нем участвовали члены исследовательских комиссий, привлеченных через исследовательскую компанию Qualtrics.

Метод

Методология в точности повторяла методику исследования 1, за исключением случаев, описанных ниже.Запланированный анализ был пересмотрен, чтобы включить расширенный набор предикторов, которые в конечном итоге использовались в исследовании 1 (см. Таблицу 4).

Материалы.

Меры и материалы были такими же, как и в исследовании 1. Единственное отличие от исследования 1 заключалось в содержании трех примеров дезинформации, которые были разработаны так, чтобы быть актуальными для аудитории в США, а не в Великобритании. Два стимула были получены с веб-сайта Infowars.com, а третий был историей, описанной проверяющим факты веб-сайтом Politifact как неправда.com. Так же, как и в исследовании 1, правый фокус историй был снова установлен в пилотной работе, где выборка из США ( N = 40) увидела семь историй, включая эти, и оценила их политическую ориентацию и вероятность распространения. Все они получили оценку выше средней точки по 11-балльной шкале с вопросом: «Как вы думаете, в какой степени этот пост был рассчитан на людей с правыми (политически консервативными) взглядами?» поставил якорь в позициях «Очень левое крыло» и «Очень правое крыло».Для наименее правого из трех выбранных этажей однократный тест t , сравнивающий средний рейтинг со средней точкой шкалы, показал, что он был статистически значимо выше, t (39) = 6,729, p <0,001, d = 1,07). Один из стимулов, также использованный в исследованиях 1–3, был озаглавлен «Раскрыт: план ООН наводнить Америку 600 миллионами мигрантов». Один из них был озаглавлен «Воспоминание: атака Обамы на свободу в Интернете» с подзаголовком «Глобалисты, глубокое государство, постоянно нацеленное на доминирование Америки в Интернете», в нем были показаны дальнейшие антиобамские, китайские и «большие технологии» настроения, а также изображение Барака Обамы, очевидно пьющего вино с человек восточноазиатской внешности.Третий был основан на тексте и содержал материал под названием «Хирург, разоблачивший коррупцию Фонда Клинтона на Гаити, найден мертвым в квартире с ножевым ранением в грудь».

Материалы, используемые для манипулирования авторитетностью (имена пользователей Facebook, показанные в качестве источников историй), были такими же, как и в исследованиях 1–3. Они были сохранены, потому что пилотная работа показала, что верхний и нижний наборы различались по авторитетности для аудитории в США так же, как и для аудитории в Великобритании. Выборка из 30 участников из США, каждый из которых оценил выборку из 9 имен пользователей, в том числе этих 6, по степени, в которой каждое «вероятно является авторитетным источником, то есть, вероятно, будет надежным и надежным источником информации».Внутренний тест t показал, что средние рейтинги авторитетности для «высшей» группы были статистически значимо выше, чем «низшей» группы ( t (29) = -9,355 p < 0,001, d z = 1,70).

Порядок действий.

Процедура повторяла Исследование 1, за исключением того, что в этом случае NMLS была представлена ​​на двух страницах.

Просмотр и обработка данных.

Перед доставкой образца Qualtrics выполнила серию проверок качества и процедур «очистки данных», чтобы удалить и заменить участников шаблонами ответов, предполагающими недостоверный или невнимательный ответ.В их число входили проверки превышения скорости и изучение шаблонов реакции. После доставки исходного образца ( N = 660) были выполнены дополнительные процедуры скрининга. Было выявлено девять респондентов, которые ответили с одинаковыми баллами на основные разделы анкеты («прямая линия»), и один респондент, не заполнивший ни один из вопросов о личности. Двенадцать респондентов не были активными пользователями Facebook: шесть сообщили, что используют Facebook «совсем не», а еще шесть реже, чем «каждые несколько недель».Все они были удалены, оставив N = 638. Эти проверки и исключения были выполнены до любого анализа данных.

Участников.

Планировалось, что целевой размер выборки превысит N = 614, как в исследовании 1. Qualtrics заключила контракт на предоставление выборки активных пользователей Facebook, которые в целом представляли население США с точки зрения пола; Уровень образования; и возрастной профиль (18+). Квоты выборки использовались для формирования выборки, состоящей примерно из одной трети, каждая из которых характеризовалась как левый, центристский и правый по своей политической ориентации.Ошибки выборки со стороны Qualtrics привели к избыточному набору людей в возрасте 65 лет, которые составляют 94 из 160 человек в возрастной группе 60–69 лет. Как следствие, возрастная группа 60–69 лет сама перепредставлена ​​в этой выборке по сравнению с более широким населением США. Демографические данные участников показаны в таблице 1, столбец 4. Для фокусного анализа в этом исследовании размер выборки давал 92,6% мощности для обнаружения R 2 = 0,04 в множественной регрессии с 15 предикторами (двусторонний , альфа =.05).

Результаты

Описательная статистика представлена ​​в таблице 15. Все шкалы имели приемлемую надежность. Основная зависимая переменная, вероятность совместного использования, снова имела очень асимметричное распределение с сильным минимальным эффектом.

Для одновременной проверки гипотез 1–4 был проведен множественный регрессионный анализ с использованием расширенного набора предикторов из исследования 1. Учитывая включение пола в качестве предиктора переменной, один респондент, который не указал свой пол как мужской или женский, был исключен из дальнейший анализ.Анализ, обобщенный в Таблице 16, показал, что модель объяснила 56% дисперсии самооценки вероятности обмена тремя элементами дезинформации. Ни авторитетность источника рассказа, ни согласованная информация, связанная с рассказами, ни согласованность пунктов с отношением участников (консерватизм) не были статистически значимыми предикторами. Экстраверсия положительно предсказала рейтинги вероятности обмена. Что касается демографических характеристик, возраст был значимым предиктором: более молодые люди сообщали о более высокой вероятности обмена.Наконец, люди сообщали о большей вероятности поделиться предметами, если они считали, что они, вероятно, правдивы, и если они думали, что видели их раньше.

Участников также спросили об их историческом обмене ложными политическими историями, как неосознанными, так и преднамеренными. Из 638 участников 185 (29,0%) указали, что они когда-либо «делились политическими новостями в Интернете, которые, как они позже выяснили, были сфабрикованы», в то время как 132 из 638 указали, что они поделились историей, которая, по их мнению, в ВРЕМЯ была выдумкой. составлено ‘(20.7%). Предикторы того, делились ли люди ложным материалом при обоих наборах обстоятельств, были исследованы с использованием логистической регрессии с теми же наборами предикторов на уровне участников.

Распространение неправдивого материала по незнанию (таблица 17) было значительно предсказано более высокой грамотностью в области новых медиа, более низкой сознательностью, более высоким образованием и более высоким уровнем использования Facebook. Распространение материалов, которые в то время были заведомо ложными (таблица 18), в значительной степени предсказывались более высокой экстраверсией, более низкой доброжелательностью, более молодым возрастом и более высоким уровнем использования Facebook.

Обсуждение

Опять же, структура результатов, полученных в исследовании 4, имела некоторое сходство, но также и некоторые отличия от исследований 1-3. И снова гипотезы 1, 2 и 4 не подтвердились результатами. Подобно исследованию 3, но в отличие от исследований 1 и 2, консерватизм (показатель согласованности) не предсказывал обмен историями. Вера в то, что эти истории правдивы, и вероятность того, что они видели их раньше, были самыми сильными предикторами. Более высокий уровень экстраверсии (новое открытие) и более низкий возраст (как в исследовании 3) были связаны с более высокой вероятностью совместного использования стимулов.

Что касается исторического обмена, то впервые — и это парадоксально — новая медийная грамотность была связана с более высокой вероятностью распространения ложного материала по незнанию. Как и в исследованиях 1 и 2, более низкая сознательность также была важна. Как ни странно, более высокий уровень образования был связан с более высоким уровнем непреднамеренного обмена, как и более высокий уровень использования Facebook. Для преднамеренного обмена предикторами была более высокая экстраверсия, а также более низкий уровень согласия, более молодой возраст и более высокий уровень использования Facebook.

Общее обсуждение

При интерпретации общей картины результатов исследований 1–4, учитывая слабость большинства ассоциаций, вероятно, будет наиболее полезным сосредоточить внимание на взаимосвязях, которые воспроизводятся в разных исследованиях, и игнорировать «одноразовые» выводы. . Таблицы 19–21 содержат сводку статистически значимых предикторов в каждом из исследований. Ясно, что две переменные последовательно предсказывали самооценку вероятности распространения примеров дезинформации: уверенность в том, что рассказы, вероятно, правдивы, и вероятное предшествующее знакомство с ними.Также очевидно, что трех ключевых переменных не было: маркеры авторитета, маркеры консенсуса и цифровая грамотность.

Гипотеза 1 предсказывала, что рассказы, изображаемые как происходящие из более авторитетных источников, с большей вероятностью будут распространены. Однако этого не наблюдалось ни в одном из четырех исследований. Одно из объяснений этого состоит в том, что манипуляция не удалась. Однако экспериментальная работа (см. Исследование 1, Исследование 4) с сопоставимыми выборками показала, что люди действительно считали источники различающимися по авторитетности.Неспособность найти прогнозируемый эффект также может быть связана с использованием смоделированных сценариев — хотя были приняты меры для того, чтобы они соответствовали реальности, — или недостатков методологии, таких как свойства распределения зависимых переменных. Однако наблюдались устойчивые отношения между другими предикторами и зависимой переменной. Таким образом, текущие исследования не предоставляют доказательств того, что авторитетность источника влияет на поведение при совместном использовании.

Гипотеза 2 предсказывала, что истории, изображаемые как имеющие более высокую степень согласия в реакции аудитории (т.е. большое количество людей ранее делились ими) с большей вероятностью будут ими поделены. Фактически, маркеры консенсуса не влияли на вероятность того, что они поделятся историями или понравятся им. Таким образом, текущие исследования не предоставляют доказательств того, что индикаторы «социального доказательства» влияют на реакцию участников на стимулы.

Гипотеза 3 заключалась в том, что люди с большей вероятностью будут делиться материалами, соответствующими их ранее существовавшим убеждениям. Это было реализовано путем измерения политической ориентации участников (общего уровня консерватизма) и использования стимулов, которые были правыми по их ориентации.В исследованиях 1 и 2 более консервативные люди чаще делились материалами. Дополнительным доказательством гипотезы 3 стало обнаружение во всех исследованиях того, что уровень веры в то, что рассказы были «точными и правдивыми», был самым сильным предиктором вероятности их распространения. Это снова соответствует гипотезе постоянства: люди ведут себя в соответствии с их убеждениями. Вывод из Исследования 3 о том, что более консервативные люди с большей вероятностью исторически делились материалами, которые, как они знали, были ложными, также может соответствовать этой гипотезе, учитывая, что очень многие из ложных политических историй, распространяемых в Интернете, ориентированы на консерваторов.

Гипотеза 4 о том, что люди с более низким уровнем цифровой грамотности с большей вероятностью будут заниматься дезинформацией, снова не получила поддержки. Как отмечалось ранее, измерение цифровой грамотности проблематично. Однако экспериментальная работа показала, что шкала грамотности в новых медиа действительно различает людей с более высоким и низким уровнем использования социальных сетей ожидаемым образом, поэтому, вероятно, она будет иметь определенную степень достоверности. В исследовании 4 более высокие баллы по NMLS были связаны с непреднамеренным распространением ложных материалов в прошлом, что противоречит здравому смыслу.Однако это может быть связано с тем, что более грамотные в цифровом отношении люди должны быть более способны увидеть, что что-то было ложным в ретроспективе. Более высокие баллы NMLS также были связаны с преднамеренным распространением лжи в исследовании 3. Это могло быть связано с большей легкостью, с которой люди, обладающие цифровой грамотностью, могли делать такие вещи, если были мотивированы на это.

Ряд других переменных был включен на исследовательской основе или с целью контроля возможных искажений. Из них наиболее важным была оценка участниками вероятности того, что они видели стимулы раньше.Эта переменная изначально была включена в план, чтобы можно было контролировать любые эффекты знакомства при оценке влияния других переменных. Фактически, оцененная вероятность увидеть материалы раньше была вторым наиболее сильным показателем вероятности поделиться ими. Это был прогнозирующий фактор во всех четырех исследованиях, а в исследованиях Facebook (1 и 4) он был второй по значимости переменной. Это согласуется с работой по предварительному выявлению ложных материалов в Интернете, где предварительное знакомство с фальшивыми заголовками новостей повышало оценку участниками их достоверности [44].Кроме того, было обнаружено, что предварительное знакомство с заголовками фейковых новостей снижало оценки участников относительно того, насколько неэтично было делиться или публиковать материал, даже если он был явно отмечен как ложный [43]. Таким образом, повторное знакомство с ложным материалом может увеличить нашу вероятность поделиться им. Известно, что повторное знакомство с утверждениями увеличивает субъективные оценки людей своей правдой [48]. Однако здесь должно быть что-то большее, потому что регрессионный анализ показал, что эффект знакомства не зависел от уровня веры в его истинность.При рассмотрении работы, в ходе которой было обнаружено, что усиление контента бот-сетями привело к более высокому уровню обмена людьми [21], подразумевается, что повторное фактическое знакомство с материалами побуждает людей делиться ими, а не показатели консенсуса, такие как количество лайки или репосты отображаются рядом со статьей.

Из пяти измеренных параметров личности четыре (доброжелательность, экстраверсия, невротизм и сознательность) были предикторами текущего или исторического участия в одном или нескольких исследованиях.В соответствии с выводами из [24], исследования 1 и 3 показали, что более низкая доброжелательность была связана с большей вероятностью поделиться историями или полюбить их. Это также было связано со случайным обменом историей в исследовании 1 и преднамеренным обменом историей в исследованиях 1 и 4. В отличие от этого, прошлые исследования личности и поведения в социальных сетях показывают, что еще приятных людей с большей вероятностью поделятся информацией в социальных сетях. media: [49] сообщили, что его роль в этом была опосредована доверием, в то время как [32] обнаружили, что более высокая степень согласия была связана с более высоким уровнем использования социальных сетей в целом.Учитывая эти результаты, вполне вероятно, что текущие результаты относятся к стимулам дезинформации, а не к социальному обмену в целом. Доброжелательность потенциально может взаимодействовать с источником информации: более приятные люди, вероятно, будут более стремиться доставить удовольствие своим близким, однако, хотя вполне возможно, что доброжелательность каким-то образом взаимодействовала с оформлением материала, которым поделились ‘ друг »в Исследовании 1, Исследование 3 не имело такого фрейма. В более широком смысле, характер историй может иметь значение: дезинформация обычно носит критический или враждебный характер.Это может означать, что они с большей вероятностью будут разделены неприятными людьми, которые сами могут быть критичными в своем мировоззрении и не беспокоиться о том, чтобы обидеть других. Кроме того, доброжелательность связана с общим доверительным поведением. Возможно, поэтому неприятные люди с большей вероятностью поддержат материалы конспирологического характера или другие материалы, связанные с отсутствием доверия к политикам или другим общественным деятелям.

Низкая сознательность была связана со случайным историческим обменом ложными политическими историями в исследованиях 1, 3 и 4.Это неудивительно, поскольку менее сознательные люди с меньшей вероятностью будут проверять правдивость истории, прежде чем поделиться ею. Отсутствие ассоциации с преднамеренным обменом историей подкрепляет эту точку зрения.

Высшая экстраверсия была связана с вероятностью совместного использования в Исследовании 4, со случайным историческим обменом в Исследовании 2 и 3 и с преднамеренным историческим обменом в Исследовании 4. Высший невротизм был связан с историческим преднамеренным обменом в исследованиях 2 и 3. Все эти отношения могут просто отражают более высокую тенденцию экстравертных и невротических индивидуумов к большему использованию социальных сетей [32].

Очевидно, есть некоторая связь между личностью и распространением дезинформации. Тем не менее, в разных исследованиях взаимосвязь слабая и непоследовательная. Возможно, что разные черты характера влияют на разное поведение: например, низкая сознательность связана со случайным, но не преднамеренным обменом информацией, в то время как высокий невротизм связан с преднамеренным, но не случайным обменом информацией. Таким образом, связь между некоторыми чертами личности и распространением дезинформации может быть зависящей от контекста и мотивации, а не отражать общие ассоциации.Однако более низкая Приятность — и в меньшей степени более высокая Экстраверсия — может предсказать общую тенденцию к распространению такого рода материалов.

Демографические переменные также были измерены и включены в анализ. Более молодые люди оценили себя как более склонные к воздействию дезинформационных стимулов в исследованиях 3 и 4, и чаще всего рассказывали ложные политические истории в прошлом случайно (исследование 1) или намеренно (исследования 1 и 4). Это противоречит выводам о том, что пожилые люди с гораздо большей вероятностью распространяли материалы из доменов «фейковых новостей» [16].Возможно, что текущие результаты просто отражают тенденцию молодых людей быть более активными в социальных сетях.

Люди с более низким уровнем образования сообщили о большей вероятности поделиться дезинформационными историями в исследованиях 1 и 2. Как ни странно, более образованные люди с большей вероятностью случайно делились ложными материалами в прошлом (исследование 4). Одно из возможных объяснений состоит в том, что более образованные люди с большей вероятностью осознали, что они сделали это, поэтому эффект в исследовании 4 отражает влияние на сообщение о поведении, а не на само поведение.

В каждом из исследований 1, 2 и 3 мужчины сообщили о большей вероятности того, что они разделяют или симпатизируют стимулам. Мужчины также чаще делились ложными материалами в прошлом непреднамеренно (Исследование 3) или преднамеренно (Исследование 2). Учитывая их воспроизводимость, это могло бы показаться подлинными отношениями, но их нелегко объяснить.

Наконец, уровень использования определенных платформ (Facebook, Twitter или Instagram) не предсказал вероятность распространения стимулов в каком-либо исследовании.Уровень использования Twitter (исследование 2) предсказал случайное распространение лжи, в то время как использование Facebook предсказало как случайное, так и преднамеренное распространение (исследование 4). Что касается исторического обмена, это может быть связано с эффектом объема: чем больше вы используете платформы, тем больше вероятность того, что вы будете делать эти вещи. Следует отметить, что метрике уровня использования не хватало детализации и было сильное влияние потолка, при этом большинство людей сообщали о самом высоком уровне использования в каждом случае.

Во всех четырех исследованиях меньшинство респондентов указали, что они ранее делились политической дезинформацией, с которой столкнулись в Интернете, либо по ошибке, либо намеренно.Доля участников, выполнивших каждое из четырех исследований, варьировалась, вероятно, в зависимости от выборки населения (13,1–29,0% случайно; 6,2–20,7% преднамеренно), но цифры аналогичны тем, о которых сообщалось в других источниках [31, 16]. Даже если доля пользователей социальных сетей, которые намеренно распространяют ложную информацию, составляет всего 6,2%, это самый низкий показатель, найденный здесь, то это все еще очень большое количество людей, которые активно и сознательно распространяют неправду.

Текущие результаты показывают, что ряд переменных предсказывают дальнейшее распространение дезинформации.Однако в большинстве случаев эти отношения очень незначительны. Утверждалось, что минимальный размер эффекта для предсказателя, который имел бы реальное значение в данных социальных наук, составляет β = 0,2 [42]. Принимая во внимание размеры эффекта для предикторов в таблицах 4, 8, 12 и 17, только вера в то, что истории правдивы, превышает этот эталон в каждом исследовании, в то время как вероятность увидеть истории раньше превышала его в исследованиях 1 и 4. Ни одно из другие отношения, о которых сообщалось, превысили пороговое значение.Это имеет значение для практической важности этих результатов с точки зрения информационного вмешательства для противодействия дезинформации.

Практическое значение

Некоторые из ключевых выводов в этом наборе исследований связаны с невозможностью найти доказательства, подтверждающие эффект. Делать на основе таких выводов твердый вывод — логически опасная попытка: отсутствие доказательств, конечно, не свидетельствует об их отсутствии. Однако, учитывая доказательства пилотных исследований, что манипуляции были уместными; ассоциации зависимых показателей с другими переменными; и высокие уровни мощности для обнаружения указанных эффектов, можно с некоторой уверенностью сказать, что гипотезы 1, 2 и 4 не поддерживаются текущими данными.Это означает, что текущий проект не предоставляет никаких доказательств того, что вмешательства, основанные на них, будут иметь ценность.

Это особенно важно для выводов о цифровой грамотности. Повышение грамотности в области цифровых медиа — распространенная и привлекательная политическая позиция для органов, занимающихся дезинформацией (например, [1]). Ряд испытаний свидетельствует о том, что он может быть эффективным в исследуемых популяциях. Однако здесь не нашлось поддержки идеи о том, что цифровая грамотность играет определенную роль в распространении дезинформации.Это потенциально может быть связано с методологией данного исследования. Однако некоторые участники — всего 288 участников во всех четырех исследованиях — сообщили, что делились ложными политическими историями, которые, как им было известно, в то время были выдуманы. Трудно представить, как повышение цифровой грамотности могло бы уменьшить такой преднамеренный обман. Таким образом, попытки повысить цифровую грамотность населения вряд ли когда-либо будут полным решением.

Имеются свидетельства того, что согласованность с ранее существовавшими убеждениями может быть важным фактором, особенно в отношении убеждений в том, что дезинформационные истории являются точными и правдивыми.Это означает, что вмешательства, вероятно, будут наиболее эффективными, если они будут нацелены на людей, которые уже придерживаются мнения или убеждений, а не пытаются изменить мнение людей. Хотя это было бы более полезно для тех, кто стремится распространять дезинформацию, это также могло бы дать представление о группах населения, на которые стоит обратить внимание с помощью контрсообщения. Ориентация на другие переменные — личностные или демографические — вряд ли будет иметь ценность, учитывая низкие размеры эффекта. Хотя эти переменные (возможно, пол и, в частности, доброжелательность), скорее всего, действительно играют роль, их относительная важность кажется настолько низкой, что информация вряд ли окажется полезной на практике.

Наряду с другими недавними работами [43,44], текущие результаты показывают, что повторное знакомство с дезинформационными материалами может увеличить нашу вероятность поделиться ими, даже если мы этому не верим. Практическое значение будет заключаться в том, что для того, чтобы сообщение повторилось в сети, нужно повторить его много раз (есть четкая параллель с афоризмом «повторяйте ложь достаточно часто» в отношении пропаганды). Социальное доказательство (маркеры консенсуса) кажется неважным, исходя из текущих результатов, поэтому нет смысла пытаться манипулировать числами рядом с постом, как это иногда делается в онлайн-маркетинге.Что может быть более эффективным, так это многократно публиковать сообщение (например, ботами), чтобы у людей было больше шансов встретить его повторно. Это будет верно как для дезинформации, так и для контр-сообщений.

Ограничения

Текущая работа, основанная на сценариях, имеет ряд ограничений. Хотя с этической точки зрения он предпочтительнее полевых экспериментов, он страдает от пониженной экологической обоснованности и зависимости от самоотчетов, а не от подлинного поведения. Например, можно задать вопросы о том, достаточно ли важны для участников манипуляции авторитетностью и консенсусом (даже если они точно отражают представление этой информации в реальных условиях).Помимо этого, могут возникнуть вопросы об использовании самооценки вероятности обмена: отражает ли намерение поделиться реальным поведением? Фактически, есть свидетельства, позволяющие предположить, что это так, и недавняя работа показала, что самооценка желания делиться заголовками новостей в социальных сетях соответствовала фактическому уровню распространения этих материалов в Twitter [50].

Все представленные сценарии были отобраны как правые по своей ориентации, тогда как участники охватывали весь диапазон слева направо в своих политических взглядах.Это означает, что согласованность оценивалась только в отношении одного полюса правого-левого измерения. Есть ряд других аспектов, которые использовались в качестве проблемных моментов в реальных информационных операциях: например, поддержка движения Black Lives Matter; изменение климата; или за или против выхода Великобритании из Европейского Союза. Текущее исследование оценивало только соответствие между подходами и одним вопросом. Лучшей проверкой гипотезы согласованности было бы распространение ее на оценку согласованности между установками и некоторыми из этих других вопросов.

Ключевой проблемой является распределение основных переменных результата, которое было сильно искажено из-за сильного минимального эффекта. Хотя они все еще обладали достаточной чувствительностью, чтобы сделать регрессионный анализ значимым, они также означали, что любые обнаруженные эффекты, вероятно, будут ослаблены. Таким образом, возможно, что текущие результаты недооценивают силу некоторых из сообщенных ассоциаций.

Еще одна проблема измерения связана с индексом использования социальных сетей (Facebook, Twitter, Instagram).Как показано в Таблице 1, в трех исследованиях более 60% респондентов попадают в категорию наиболее употребительных. Опять же, это снижает чувствительность оценок этих переменных как предикторов распространения дезинформации.

Чтобы определить переменные, связанные с распространением дезинформации, в этой исследовательской программе использовался подход к представлению отдельным лицам примеров дезинформации с последующим тестированием того, какие из измеряемых переменных были связаны с вероятностью распространения информации, о которой они сообщают сами.Недостатком этого подхода является то, что он не позволяет нам оценить, связаны ли одни и те же переменные с обменом правдивой информацией. Альтернативный план — показать участникам либо правдивую, либо ложную информацию и изучить, предсказывают ли одни и те же конструкции совместное использование обоих. Это позволило бы идентифицировать переменные, по-разному влияющие на распространение дезинформации, но не на достоверную информацию. Однако сложность возникает из-за того, что можно ли считать историю дезинформацией, дезинформацией или правдивой информацией, зависит от точки зрения наблюдателя.Ложные материалы, умышленно размещенные в Интернете, будут классифицироваться как дезинформация. Пользователь социальной сети, полностью осознающий, что это неправда, поделится дезинформацией. Однако, если бы они поделились этим, полагая, что это действительно правда, то с точки зрения наблюдателя это было бы технически классифицировано как дезинформация (определяемая как «непреднамеренное распространение ложной информации» [1, с.10]). Фактически, с точки зрения пользователя, это была бы правдивая информация (потому что они ей верят), даже если всеведущий наблюдатель знал бы, что на самом деле это ложь.Это указывает на важность дальнейшего исследования мотивации пользователей к совместному использованию, которые, вероятно, будут различаться в зависимости от того, верят они или нет в материале.

В трех из четырех исследований (Исследования 1, 2, 4) стимулирующий материал был представлен как опубликованный другом, который хотел, чтобы он им поделился. Это, вероятно, увеличило частоту самооценки вероятности участия в этих исследованиях. Предыдущая работа показала, что люди оценивают себя как более склонные к участию в потенциальных дезинформационных статьях, опубликованных другом, в отличие от более отдаленных знакомых [24].Чтобы было ясно, это не ставит под угрозу проверку гипотез в этих исследованиях (учитывая, что рамки были одинаковыми для всех участников, во всех условиях). Это также реалистичное представление о том, как мы можем встретить подобные материалы в наших лентах в социальных сетях. Тем не менее, оно вносит дополнительную разницу между исследованиями 1, 2 и 4 по сравнению с исследованием 3. Было бы желательно для дальнейшей работы проверить, были ли обнаружены те же эффекты, когда сообщения были созданы как отправленные не друзьями, а другими людьми.

Наконец, время, потраченное на чтение и реакцию на дезинформационные стимулы, не измерялось. Возможно, что более быстрое время отклика будет свидетельствовать о более широком использовании эвристики, а не обдумывать проблемы. Это можно было бы с пользой изучить, возможно, с помощью наблюдательных или имитационных исследований, а не с использованием методологии самоотчета.

Будущие работы

Ряд приоритетов будущих исследований вытекает из текущей работы. Во-первых, желательно подтвердить эти результаты с помощью реальных поведенческих мер, а не моделирования.Хотя этически неприемлемо проводить экспериментальные исследования, публикуя ложную информацию в социальных сетях, можно было бы проводить наблюдения в реальном мире. Например, можно измерить цифровую грамотность у выборки респондентов, а затем провести анализ их прошлого поведения в социальных сетях.

Другой приоритет вращается вокруг тех людей, которые сознательно делятся ложной информацией. Почему они это делают? Без понимания мотивации этой группы любые вмешательства, направленные на снижение поведения, вряд ли будут успешными.Помимо академического интереса, мотивация к распространению ложных материалов была отмечена ключевыми заинтересованными сторонами как пробел в наших знаниях [7].

Текущая работа показала, что мужчины чаще распространяют дезинформацию, чем женщины. В настоящее время неясно, почему это произошло. Есть ли связанные с полом индивидуальные различия, которые влияют на поведение? Может быть, тематика дезинформационных историй стереотипно более интересна мужчинам или мужчины думают, что их социальные сети с большей вероятностью будут интересоваться ими или сочувствовать им?

Хотя в этой статье основное внимание уделяется факторам, влияющим на распространение неправды, следует помнить, что «фальшивые новости» — это только один элемент в информационных операциях в Интернете.Также широко распространены другие тактики и явления, такие как выборочное или вне контекста представление истинной информации, политические мемы и преднамеренно поляризующее гиперпартийное общение. Требуется работа, чтобы установить, применимы ли выводы этого проекта, касающиеся дезинформации, к другим формам компьютерной пропаганды. В связи с этим было бы полезно установить, влияют ли обнаруженные здесь факторы, влияющие на обмен ложной информацией, на обмен правдивой информацией.Это укажет на то, есть ли что-то иное в дезинформации, а также укажет на факторы, которые могут повлиять на обмен правдивой информацией, которая выборочно представлена ​​в информационных операциях.

Заключение

Текущая работа позволяет сделать некоторые выводы о том, какие люди могут в дальнейшем распространять дезинформационные материалы, с которыми они сталкиваются в социальных сетях. Как правило, это люди, которые думают, что материал, скорее всего, правдив, или придерживаются соответствующих им убеждений.Вероятно, они ранее знакомы с материалами. Скорее всего, они будут моложе, мужчинами и менее образованными. Что касается личности, то вполне возможно, что они будут иметь тенденцию быть ниже в доброжелательности и сознательности и выше в экстраверсии и невротизме. За исключением последовательности и предшествующего воздействия, все эти эффекты являются слабыми и могут быть несовместимыми для разных групп населения, платформ и моделей поведения (преднамеренное против безобидного обмена). Текущие результаты не предполагают, что на них, вероятно, повлияет источник материала, с которым они сталкиваются, или показатели того, сколько других людей ранее с ним взаимодействовали.Не было обнаружено доказательств того, что уровень грамотности в отношении новых цифровых медиа имеет большое значение для их поведения. Эти выводы имеют значение для того, как правительства и другие органы должны решать проблему дезинформации в социальных сетях.

Блог курса по сетям

для INFO 2040 / CS 2850 / Econ 2040 / SOC 2090

«https://www.theatlantic.com/technology/archive/2018/08/how-misinfodemics-spread-disease/568921/

Учитывая огромную и постоянно растущую популярность платформ социальных сетей, таких как Twitter и Facebook, неудивительно, что информация распространяется быстрыми темпами.Однако обмен информацией начал приводить к непредвиденным последствиям. Одной из проблемных областей является распространение дезинформации, касающейся здоровья человека и медицины. На крупных платформах появились боты, которые делятся положительной информацией об электронных сигаретах, авторы публикуют ошибочные статьи об опасности вакцинации и свидетельствуют о том, что слухи об Эболе ускорили распространение болезни. Что касается вакцин, ложная информация привела к снижению уверенности населения в том, что вакцины полезны.Несмотря на то, что эта информация была опубликована в Интернете, она привела к вспышкам таких заболеваний, как корь, в развитых странах, которые легко предотвратить с помощью простой вакцинации. Все слухи восходят к одной неверной статье, опубликованной в мошеннической лаборатории. Это относится к феномену «дезинфодемия», который относится к распространению болезни в результате неверной информации в Интернете. Как и выборы 2016 года, российские боты вносят большой вклад в неверную информацию о здоровье.Университет Джорджа Вашингтона даже обнаружил, что эти боты в двадцать два раза чаще писали в Твиттере о вакцинах, чем средний пользователь. Лучшее решение для борьбы с проблемой дезинформации — собирать все более и более точную информацию о заболеваниях, профилактике и других проблемах со здоровьем. Врачи и медицинские работники используют платформы социальных сетей, чтобы повысить осведомленность о своих конкретных причинах. СМИ позволили информации, правильной или неправильной, получить аудиторию на своих платформах.Это повышенное внимание к контенту не только изменило мысли зрителей, но и превратило их в реальные проблемы, влияющие на то, как люди действуют и что они делают.

Несмотря на то, что, несомненно, существует информационная сеть, которая определяет способы и количество людей, которые видят неточные материалы, трудно оценить, насколько велика сеть и как она может способствовать распространению болезней в будущем. Однако эти большие сети могут действовать как опасные каналы распространения дезинформации.Гомофилия, концепция, что мы склонны быть похожими на наших друзей, играет большую роль в этом рассуждении. В сети своего эго они, как правило, имеют сходство со своими друзьями, будь то возраст, географическое положение, сфера деятельности или общее хобби. Чем больше связей разделяют два человека, тем больше у них шансов соединиться и доверять друг другу. Эти прочные связи между людьми приводят к большему количеству связей между их общими друзьями, что приводит к тому, что больше их друзей сами устанавливают связи.Поскольку люди с большей вероятностью поверят статьям, которыми поделился один из их друзей, если одного человека обманом заставят поверить в дезинформацию по определенной проблеме со здоровьем, ему может понравиться статья, содержащая ложную информацию, или поделиться ею. Это означает, что их друзья имеют более высокую вероятность увидеть эту информацию и доверять ей, что увеличивает часть сети, покупающей ложную информацию. В конце концов, это может привести к тому, что значительное меньшинство населения будет убеждено в том, что их убеждения верны.Например, многих людей, которые не верят в вакцинацию, невозможно убедить в том, что эти вакцины не вызывают аутизм, даже несмотря на то, что единственное исследование, подтверждающее эти результаты, было опровергнуто. Дезинформация об общем состоянии здоровья и заболеваниях может привести к серьезным последствиям, если люди начнут доверять информации, распространяемой через социальные сети, больше, чем своим врачам или другим специалистам в этой области. Чем шире становятся социальные сети, тем быстрее эти слухи и боты могут достигать непритязательных пользователей, навсегда меняя отношение к информации о здоровье общественности.

Комментарии

Оставить комментарий

Опасность предоставления неточной информации в сообщениях о конфликтах

28 февраля в сообщении Рейтер ↑ утверждалось, что журналисты Пол Конрой и Эдит Бувье были эвакуированы из Хомса. Это было быстро подтверждено в заявлении Президент Франции Николя Саркози. Машина Твиттера внезапно сместилась в передачу. Он проглотил все эти отчеты и извергнул их в тома.Но любопытно, что стали появляться голоса неповиновения. Среди эти, Sunday Times корреспондент Майлз Амур выделяться. «Сообщение BBC неверно», — написал он в протоколе Twitter. после того, как BBC опубликовала комментарии Саркози: «Я повторю, что ЛЮБАЯ информация в настоящий момент подвергает опасности жизнь журналистов … »

Информационная бедлам, захлестнувший Интернет в тот день, показал, по крайней мере, сюрреалистическое отношение к фактам в международном сообществе. Хранитель сообщил ↑ что трое сирийцев погибли при эвакуации Пол Конрой в Ливан.Через несколько минут в твите повторно цитируется цифра. в тринадцать. Последующий Статья Guardian ↑ предварительно подтвердила большее число. в всего за пару часов редакции начали то, что все больше походило на игра в китайский шепот. В конце очереди были жизни людей хоронят заживо под тяжестью слухов.

История досталась худший. Тщательные и в значительной степени дезинформированные отчеты об эвакуации сопровождались картами и географическими названиями. Они содержали интеллект данные, которые дали всем заинтересованным информацию о возможном местонахождении и пункте назначения каждого эвакуированного.И шквал публикаций и повторных публикаций в Твиттере продолжался, со ссылкой на источники, которые стали казаться все более ненадежными. «НАЗВАНИЯ МЕСТА ЧЕРТ, НЕ ПОЛУЧАЮТ ПОМОЩИ », — написала Амуре. «Пожалуйста, будьте очень внимательны при сообщении. Вы рискуете жизнями других ».

Его претензии подпали Огонь. «Вы хотите сказать, что Саркози бросил пистолет?» — спросил один Твиттерер. Вопрос мог бы быть честным. Но он показал, что однажды история прижились, его трудно искоренить, так как здесь был один плакат, идущий против мудрость тысячи твитеров, отрицающих правдивость президентских объявления и призывы к замолчать онлайн-информационный поток.

Ситуация показывает как мало повзрослела онлайн-журналистика. Распространяются ошибочные новостные сообщения за пределами обычных СМИ и наводняют блогосферу на тревожный темп. Прежде чем мы остановимся на размышлениях, поделимся. Мы не думаем о том, что означает для ретвита новостной статьи. Мы утверждаем право собственности на содержащуюся в нем информацию? В увеличивающемся общественном ознакомления с этой информацией, несем ли мы личную ответственность за ее точность? Что дает нам право отдавать предпочтение одной учетной записи над другой без каких-либо средств независимой проверки? Можем ли мы, сославшись на ложное авторитет как истина, а потом с чистой совестью утверждать обратное?

Всего через час после BBC разместила заявление Саркози в своей ленте Twitter, опровержение появился.Последовали и другие источники новостей. Но машина уже была был приведен в движение. Это открыло кое-что о журналистике, что мы часто не хотят признавать: мы не всегда понимаем историю правильно. Тем не менее, многие из нас беспрекословно восприняли сообщения из Сирии. И пока Бувье лежала в маленькой комнате в Баб-Амре, ее сломанная нога ухудшилась из-за в тот день международное сообщество доносило за границу новости о ней выпускать.

Бувье и фотограф Уильям Дэниелс был окончательно эвакуирован под прикрытием тьма.Ряд местных жителей рисковали своей жизнью, чтобы вывезти их из Хомс и в убежище недалеко от ливанской границы. В глазах СМИ, спасатели были второстепенными персонажами драмы спасения: «Повстанцы», «добровольцы», активисты или «гражданские лица», но всегда без имен. Трудно найти имена местных врачей, которые целыми днями ухаживал за Бувье, пока кровь текла по сточным канавам Homs. Помноженные на серийные ретвиты, эти истории породили рассказы, совершенно без учета местного контекста, о западных людях, которые однажды оказались в опасности, а на следующий день им удалось бежать.

Мы живем в эпоху информационная повсеместность. Любое мнение, которое мы хотим, можно найти на Интернет. Это инструмент, который позволил каждому из нас публиковать свои мысли. чтобы мир мог прочитать. Твиттер сделал это возможным мысли, чтобы получить статистическую значимость. Больше, чем когда-либо, я думаю, что это важно думать о том, что мы публикуем. С какой целью они обслуживать? Какова наша цель в том, чтобы поделиться или написать о проблемах, которые касаются к жизням других?

Я начну.я имеют небольшой опыт работы в репортажах, но драма, развернувшаяся на Интернет на прошлой неделе заставил меня сжаться. Это рассказ о нескольких журналисты тонут в потоке дезинформации. Это рассказ о волна сообщений, в которых приоритетность конфликта снижается в пользу «героических» борьба отдельных лиц. И это касается людей, которых я мог бы встретились, или людям, которые еще могут оказаться под перекрестным огнем. Это важная история, потому что она поднимает важные вопросы о то, как мы используем и передаем информацию, и наши причины для этого.

5 марта Хранитель Сообщается ↑, что двое начинающих журналистов пересекли турецкую границу в Сирию. Они называли себя «независимыми гражданскими журналистами» и назвал знакомство с движением «Захвати» как полевой опыт. Они сняли пограничный переход, и разместил его на Youtube. Их видео показывает точное местонахождение неохраняемой турецкой сторожевой башни, якобы проходившей мимо Сирийские беженцы направляются в лагеря беженцев через границу. Их наивность поражает. Один из журналистов, 30-летний Уильям Гаган, подчеркнул, что сирийская история не имеет отношения к его миссии, потому что «люди умирали, и это то, что я собирался попытаться помощь.»Именно этот слепой идеализм создал сеть ложных сообщений онлайн. Дело в том, что приключения Гагана никого не спасут. Худший тем не менее, его отсутствие интереса к более широкому политическому и историческому контексту может служат для дальнейшего искажения информации, исходящей из региона. И как многие сирийцы умрут, когда придет время перенести его через Ливанская граница? Три? 13?

Почему медицинские работники должны выступать против ложных убеждений в Интернете | Журнал этики

Абстрактные

Широкое распространение и потребление ложной или вводящей в заблуждение медицинской информации, усиленной через Интернет, создает риски для общественного здравоохранения и проблемы как для медицинских учреждений, так и для правительства.В этой статье мы рассматриваем правительственные полномочия и конституционные ограничения на регулирование высказываний, связанных со здоровьем, особенно в Интернете. Мы полагаем, что государственное регулирование может лишь частично решить проблему распространения ложной или вводящей в заблуждение информации о здоровье. Основываясь на Кодексе медицинской этики Американской медицинской ассоциации , мы утверждаем, что медицинские работники обязаны сообщать правдивую информацию пациентам, коллегам и сообществам. Наконец, мы предлагаем, чтобы все специалисты в области здравоохранения играли важную роль в оказании помощи пациентам и согражданам в получении надежной, основанной на фактах информации о здоровье.

Растущая проблема ложной информации о здоровье в Интернете

За прошедшее столетие причины болезней и социальные концепции здоровья эволюционировали от теории болезней, связанных с возбудителями инфекций, к поведенческой теории болезни и социально-экологической модели. 1,2 Социально-экологическая модель признает, что социальные и экологические условия, включая информационную среду и речь, связанную со здоровьем, влияют на результаты в отношении здоровья как отдельных людей, так и населения. 3,4

Проблема, с которой в настоящее время сталкивается наше общество, — это повсеместная доступность и потребление ложной информации о здоровье, 5,6 , которая может нанести индивидуальный и социальный вред, питая ложные представления о медицине, болезнях и профилактике. 7 Одним из основных источников информации о здоровье является Интернет. 8-11 Интернет сделал медицинскую информацию более демократичной, но в результате профессионалы здравоохранения больше не воспринимаются как авторитеты, обладающие исключительными знаниями о медицинском контенте. 12 Поисковые системы, такие как Google, позволяют любому легко найти информацию обо всем. Сайты социальных сетей, такие как Twitter, Reddit и Facebook, предоставляют частным лицам форумы, на которых они могут свободно выражать свои взгляды, в том числе о медицине и здравоохранении. Тем не менее, контент, распространяемый через веб-сайты и онлайн-сообщества, в значительной степени не регулируется. Таким образом, качество и надежность информации во многом зависит от потребителей.

Возникает вопрос, следует ли регулировать распространение информации о здоровье в Интернете, и если да, то кем.Можно привести аргумент в пользу надзора со стороны правительства, поскольку широкое распространение ложной информации о здоровье может привести к реальным травмам и ущербу. В конце концов, хорошо зарекомендовавшая себя роль правительства в демократическом обществе состоит в том, чтобы «способствовать общему благосостоянию» своих граждан. 13 Тем не менее, в Соединенных Штатах правительство также обязано защищать право частных лиц на свободу слова. Таким образом, существует противоречие между приверженностью правительства общему благосостоянию и его обязанностью подтверждать право людей на свободу слова.

Эта статья исследует это напряжение. Во-первых, мы анализируем приверженность нашего общества защите свободы слова частных лиц в публичной сфере, хотя содержание частной речи может быть ложным и даже вредным. Во-вторых, мы кратко описываем коммерческие и профессиональные выступления — особую категорию речи, которая может регулироваться государством в целях общественного здравоохранения и благосостояния. Наконец, признавая конституционные границы свободы слова в обществе, мы обсуждаем профессиональные и этические обязательства специалистов здравоохранения по предоставлению правдивой и точной информации о здоровье как в клинической практике, так и в обществе.Мы предлагаем, чтобы все участники биомедицинской и научной деятельности несли этическую и социальную ответственность за предоставление правдивой информации о здоровье и исправление ложных сведений, когда это возможно.

Свобода слова и Интернет

Первая поправка гласит: «Конгресс не должен принимать закон… ограничивающий свободу слова». 14 Судебная практика Верховного суда, интерпретирующая Первую поправку, подтвердила, что частные лица имеют защищенное конституцией право выражать личные взгляды и убеждения в общественных местах без ненужного государственного регулирования или цензуры, включая общественные места в Интернете.Право на свободу слова не позволяет правительству подавлять слова, даже если контент является ложным или оскорбительным, в том числе когда контент связан со здоровьем. 15 Примеры защищенных конституцией фальшивых высказываний, связанных со здоровьем, как в физических, так и в виртуальных общественных местах, включают утверждения правозащитных групп о том, что вакцины неэффективны и вызывают аутизм 16 , а также утверждения пропагандистских групп о том, что аборты вызывают рак груди. 17 В контексте онлайновой, но не связанной со здоровьем информации, Верховный суд постановил в деле Reno v ACLU , что введенные государством ограничения на непристойные высказывания на основе содержания являются неконституционными. 18 Таким образом, маловероятно, что любое высказывание в Интернете, связанное со здоровьем, которое не является непристойным, может регулироваться государством. Более того, учитывая непредсказуемость расширения Интернета и изменений в предпочтениях потребителей, вопрос о том, сможет ли правительство разработать долгосрочные и осуществимые решения проблемы ложной информации о здоровье, остается сложной и нерешенной проблемой. 19

Коммерческое и профессиональное выступление

Тем не менее, есть 2 категории речи, в отношении которых правительство может иметь право ограничивать или принуждать к высказыванию для содействия здоровью и благополучию общества: коммерческое выступление и профессиональное выступление.Коммерческая речь — это категория речи, определяемая как речь, которая (1) идентифицирует продукт для продажи, (2) является формой рекламы и (3) приносит экономические выгоды. 3 Суды могут поддержать регулирование коммерческих высказываний на основании теста из 4 частей, сформулированного в деле Central Hudson Gas and Electric Corporation против Комиссии по коммунальным услугам Нью-Йорка, . 20 Исторически примеры регулирования коммерческой речи включают рекламу табака, алкоголя и азартных игр. 1 Однако, начиная с Central Hudson , суды демонстрируют растущее нежелание регулировать коммерческую речь, уделяя особое внимание правам говорящих, а не интересам государства в отношении здоровья и благополучия членов сообщества. 4 Мы считаем, что это возлагает на врачей повышенное бремя исправления неточной или ложной информации, связанной со здоровьем, которую можно найти в коммерческих источниках, в том числе в Интернете.

Профессиональная речь — это категория речи, которую ученые определили как речь, «произносимую в ходе профессиональной практики. 21 Верховный суд указал в деле Planned Parenthood of Southeastern Pennsylvania v Casey в 1992 году, что право врачей не говорить в соответствии с Первой поправкой затрагивает, но только как часть медицинской практики, подлежащей разумному лицензированию и регулированию со стороны штат. 22 Хотя в данном случае речь идет о конституционности закона, требующего, среди прочего, чтобы по крайней мере за 24 часа до проведения аборта (за исключением экстренных случаев) врачи информировали женщину о характере процедуры и о рисках для здоровья, связанных с абортом. а также о родах и «вероятном гестационном возрасте будущего ребенка», он заложил основу для государственного регулирования профессиональной речи между врачами и их пациентами.С тех пор суды изо всех сил пытались сформулировать последовательный подход к определению объема и ограничений полномочий государства по регулированию выступления медицинских работников по ряду вопросов, включая выступления врачей относительно владения огнестрельным оружием и усилий по изменению сексуальной ориентации. 23

Хотя у правительства есть некоторые полномочия по регулированию высказываний, связанных со здоровьем, эти полномочия очень ограничены и не являются исчерпывающими или последовательными. Признавая конституционные ограничения полномочий правительства по регулированию свободы слова частных лиц в публичной сфере, мы предполагаем, что нельзя ожидать, что государственное регулирование решит проблему ложной и вредной информации, связанной со здоровьем, которая сохраняется в Интернете частными лицами, которые разговаривают со своим частным лицом, а не в своей профессиональной «шляпе».Более того, нельзя полагаться на то, что правительство является единственным представителем правдивой и точной информации о состоянии здоровья. Как недавно продемонстрировали политически мотивированные запреты на использование определенных слов в официальных документах, правительство может публиковать предвзятые или неполные заявления или вообще воздерживаться от каких-либо высказываний. 24,25 Поскольку нельзя полагаться на правительство в решении проблемы ложной медицинской информации, найденной в Интернете, важно, чтобы все, кто участвует в биомедицинском предприятии, участвовали в публичных дискуссиях.Кроме того, мы предлагаем, чтобы врачи, в рамках своего профессионального кодекса, несли этическую обязанность не только , а не , сообщать неверную или ложную информацию, но также активно участвовать в обсуждениях о здоровье и помогать исправлять ложную или вредную информацию, которую можно найти на интернет.

Значение для специалистов здравоохранения

Медицинские работники несут уникальную ответственность противостоять ложным или вводящим в заблуждение убеждениям в силу своих специальных знаний и профессиональных обязательств.Во-первых, медицинские работники являются членами сообщества, обладающего специальными знаниями и подготовкой в ​​области здравоохранения. Во-вторых, лицензированные специалисты — единственные люди в нашем обществе, которым разрешено заниматься медицинской практикой. Профессиональное обязательство противостоять ложным убеждениям и информации о здоровье более прямолинейно в клинических условиях: когда пациенты выражают ложные или дезинформированные убеждения, с профессиональной и этической точки зрения целесообразно пытаться исправить и перенаправить пациентов, чтобы они могли использовать доказательную информацию. принять осознанное решение о своем уходе.Но помимо индивидуальных отношений между пациентом и клиницистом, каков долг медицинского работника перед более широким сообществом, чтобы противостоять ложным убеждениям и информации?

Мы предполагаем, что у медицинских работников есть этическое обязательство исправлять ложную или вводящую в заблуждение медицинскую информацию, делиться правдивой медицинской информацией и направлять людей к надежным источникам медицинской информации в их сообществах и сферах влияния. В конце концов, здоровье и благополучие — ценности, которые разделяют почти все.Принцип V Принципов этики AMA гласит: «Врач должен продолжать изучать, применять и развивать научные знания, сохранять приверженность медицинскому образованию, предоставлять соответствующую информацию пациентам, коллегам и общественности , получать консультации, и использовать таланты других специалистов здравоохранения, когда это указано »(курсив добавлен). 26 И Принцип VII гласит: « Врач должен осознавать ответственность за участие в деятельности, способствующей улучшению общества и улучшению общественного здравоохранения » (курсив добавлен). 26 Взятые вместе, эти принципы формулируют этическое обязательство по предоставлению соответствующей информации общественности для улучшения здоровья общества и общества. В современную информационную эпоху, когда неограниченное и в значительной степени нерегулируемое распространение ложной информации о здоровье становится возможным благодаря Интернету, а медицинские знания больше не являются привилегированными, эти 2 принципа имеют особый вес и актуальность.

Отказ от публичных выступлений или воздержание от публичных дискуссий в среде, где повсеместно распространяется ложная и вредная информация о здоровье, означало бы отказ от этического обязательства предоставлять «соответствующую информацию» (или точную информацию) для улучшения здоровья общества и общества, как медицинских, так и медицинских. Специалисты общественного здравоохранения обладают надежной и правдивой информацией о природе здоровья и причинах болезней.Например, образованные специалисты могут принять приглашения выступить в местных группах на определенную тему, связанную со здоровьем, или ответить на сообщение в блоге. Еще одно место проведения — Twitter; некоторые используют Twitter в своих профессиональных целях, чтобы делиться выпусками новостей и статьями, а также участвовать в организованных модерируемых чатах Twitter. Даже в своих социальных кругах специалисты здравоохранения могут оказать положительное влияние, направляя людей к точным источникам информации и исправляя неправильные представления, когда это возможно.Мы понимаем, что это обязательство медицинских работников распространяется за пределы клинических условий и в сферу их жизни. Однако, поскольку причины смерти и инвалидности выходят за пределы клиники, растут и обязанности медицинских работников. Это обязательство, которое они берут на себя, когда выбирают профессию врача.

Список литературы

  1. Гостин Л.О., Вайли Л.Ф. Закон об общественном здравоохранении: власть, обязанности, сдержанность . Окленд, Калифорния: Калифорнийский университет Press; 2016.

  2. Институт медицины. Будущее общественного здравоохранения в 21 веке . Вашингтон, округ Колумбия: Национальная академия прессы; 2003.

  3. Гостин Л.О., Явитт Г.Х. Укрепление здоровья и первая поправка: государственный контроль над информационной средой. Милбанк Q .2001; 79 (4): 547-578.
  4. Пармет В.Е., Смит Дж. Свобода слова и общественное здоровье: популяционный подход к Первой поправке. Закон Лойолы Ред. . 2006; 39 (1): 363-446.
  5. Руис Дж. Б., Белл РА. Понимание устойчивости к вакцинации: предвзятость при выборе термина поиска вакцины и значимость полученной информации. Вакцина .2014; 32 (44): 5776-5780.
  6. Машиах Р., Сейдман Г.И., Сейдман Д.С. Использование мифепристона как пример противоречивой и вводящей в заблуждение медицинской информации в Интернете. БЖОГ . 2002; 109 (4): 437-442.
  7. Lo NC, Hotez PJ. Общественное здравоохранение и экономические последствия нерешительности вакцины против кори в Соединенных Штатах. Педиатр JAMA . 2017; 171 (9): 887-892.
  8. Фиксдал А.С., Кумбаму А., Джадхав А.С. и др. Оценка процесса поиска медицинской информации в Интернете: качественный подход к изучению точки зрения потребителей. J Med Internet Res . 2014; 16 (10): e244. DOI: 10.2196 / jmir.3341.

  9. Hesse BW, Nelson DE, Kreps GL и др. Доверие и источники медицинской информации: влияние Интернета и его последствия для поставщиков медицинских услуг: результаты первого исследования национальных тенденций в области здравоохранения. Arch Intern Med . 2005; 165 (22): 2618-2624.
  10. Бенигери М., Плуйе П. Недостатки информации о здоровье в Интернете. Организация по укреплению здоровья . 2003; 18 (4): 381-386.
  11. Клайн Р., Хейнс К.М. Поиск информации о здоровье потребителей в Интернете: состояние дел. Health Education Res .2001; 16 (6): 671-692.
  12. Allmark P, Tod A. Как специалистам общественного здравоохранения следует взаимодействовать с непрофессиональной эпидемиологией? J Медицинская этика . 2006; 32 (8): 460-463.

  13. Преамбула Конст. США.

  14. Поправка к Конституции США I.

  15. Ной Л. Правда или последствия ?: свобода слова в коммерческих целях против пропаганды общественного здоровья (в FDA). Матрица здоровья Кливель . 2011; 21 (1): 31-95.
  16. Naprawa AZ. Не дайте своему ребенку такой шанс: угроза общественному здоровью, исходящая от выступлений против прививок, и почему такие выступления не гарантируются полной защитой в соответствии с Первой поправкой. Этика публично-правовой политики Кардозо J . 2013; 11 (3): 473-527.
  17. Christ’s Bride Ministries Inc против Управления транспорта Юго-Восточной Пенсильвании, , 148 F3d 242, 247 (3-й округ 1998 г.).

  18. Рино против Американского союза гражданских свобод , 521 США 844 (1997).

  19. Бротман С.Н. Спустя двадцать лет после того, как Рино против ACLU, долгая история Интернета возвращается. Институт Брукингса. https://www.brookings.edu/blog/techtank/2017/06/26/twenty-years-after-reno-v-aclu-the-long-arc-of-internet-history-returns/. Опубликовано 26 июня 2017 г. Проверено 29 апреля 2018 г.

  20. Central Hudson Gas and Electric Corp против Комиссии по коммунальным услугам Нью-Йорка , 447 US 557, 561 (1980).

  21. Хальберштам Д. Коммерческая речь, профессиональная речь и конституционный статус социальных институтов. Univ Penn Law Rev . 1999; 147 (4): 771-874.
  22. Planned Parenthood of Southeastern Pennsylvania v Casey , 505 US 833, 844 (1992).

  23. Parmet WE, Smith JA. Свобода слова и общественное здоровье: разгадывая парадокс коммерческой и профессиональной речи. Закон штата Огайо J . 2017; 78 (4): 887-915. https://kb.osu.edu/bitstream/handle/1811/85762/OSLJ_V78N4_0887.pdf. Исследовательский доклад Школы права Северо-Восточного университета 313-2018. По состоянию на 19 сентября 2018 г.

  24. Sun LH, Eilperin J. CDC получил список запрещенных слов: плод, трансгендер, разнообразие. Вашингтон Пост . 15 декабря 2017 г. https://www.washingtonpost.com/national/health-science/cdc-gets-list-of-forbidden-words-fetus-transgender-diversity/2017/12/15/f503837a-e1cf-11e7 -89e8-edec16379010_story.html? utm_term = .7d055eabc34d. По состоянию на 29 апреля 2018 г.

  25. Гостин Л.О. Язык, наука и политика: политизация общественного здравоохранения. JAMA . 2018; 319 (6): 541-542.
  26. Американская медицинская ассоциация. Принципы медицинской этики. https://www.ama-assn.org/delivering-care/ama-principles-medical-ethics. По состоянию на 29 апреля 2018 г.

Цитата

AMA J Этика. 2018; 20 (11): E1052-1058.

DOI

10.1001 / amajethics.2018.1052.

Раскрытие информации о конфликте интересов

У автора (-ов) не было конфликта интересов, о котором следует сообщать.

Точки зрения, выраженные в этой статье, принадлежат авторам и не обязательно отражают взгляды и политику AMA.

Информация об авторе

  • Джоэл Т. Ву, JD, MPH, MA — научный сотрудник по клинической этике в детской больнице Миннесоты и Эбботт Северо-Западный госпиталь в Миннеаполисе, штат Миннесота. Он также является старшим преподавателем Школы общественного здравоохранения Университета Миннесоты в отделе политики здравоохранения и членом-преподавателем Центра биоэтики Университета Миннесоты. Ранее он занимался разработкой политики в области здравоохранения и исследованиями в Институте медицины и Брукингском институте.Его работа сосредоточена на практике клинической этики, организационной этике и политике в области здравоохранения, а также вопросах справедливости в общественном здравоохранении.

  • Дженнифер Б. Маккормик, доктор философии, MPP является членом руководства программы Государственного института клинических и трансляционных наук Пенсильвании и Комитета по социальным вопросам Американского общества генетики человека. Она получила докторскую степень в области молекулярной и клеточной биологии, докторскую степень в области биологической химии, степень магистра государственной политики и научную стипендию Национального исследовательского центра генома человека в области ELSI (этические, правовые и социальные последствия).Она часто читает лекции по темам, связанным с этикой исследований и научной политикой, ответственным поведением в исследованиях, информированным согласием, этикой трансляционных исследований, трансляционной геномикой и политикой, а также социальной ответственностью в науке.

Руководство по борьбе с ложью, фейковыми новостями и хаосом в Интернете

Как бороться с ложью, уловками и хаосомonline

Несколько месяцев назад я рассердился на что-то в Твиттере. Кто-то написал в Твиттере фотографию бумажной вывески в многоквартирном доме, сообщив жильцам, что использование лифта скоро будет стоить 35 долларов в месяц.Это было удивительно, но на интуитивном уровне именно такого поведения я ожидал от жадного домовладельца — такого поведения легко яростно ретвитнуть, не задумываясь.

Но небольшое покопание показало, что фотография была загружена на Reddit еще в 2013 году, и автор сообщения сказал, что знаки были быстро удалены. Управляющий зданием отказался писать их как автору, так и репортеру, предположив, что это была либо шутка, либо план, от которого сразу отказались. Ретвит фотографии просто возмутил бы людей из-за того, что, казалось бы, никогда не происходило.

Подобная вирусная полуправда — часть ткани сегодняшнего Интернета, а порождаемый ею гнев превратился в опасный товар. Его цинично используют предприятия для создания «фейковых новостей», поддерживаемых рекламой, мошенники, собирающие деньги в Интернете, и авторитарные правительства для распространения ненависти и страха.

Я не хочу обвинять людей, попадающихся на эти уловки. Многие проблемы усугубляются компаниями, правительствами и другими факторами, которые люди не могут контролировать.Но в Интернете полно мошенников, обманщиков и откровенных лжецов, которые полагаются на базовое доверие людей, чтобы усилить свое сообщение. Стоит притормозить и тщательно обойти их ловушки — чтобы не распространять тревожные ложные слухи, не рассердиться на группу людей за то, что они не делали, или не увековечить искреннее недоразумение.

И как человек, который действительно глубоко заботится о том, чтобы размещать правду в Интернете, я знаю, что лично я неправильно понимал истории, потому что я не думал смотреть более внимательно, и не всегда потому, что кто-то намеренно обманул меня.Мне потребовались годы, чтобы по-настоящему понять, откуда исходит вся информация, которую я видел в Интернете. Так что это не просто руководство по распознаванию подделки. Это система для замедления и обдумывания информации — независимо от того, является ли эта информация правдой, ложью или чем-то средним.

Трудно быть все время бдительным, но есть несколько красных флажков, указывающих на то, что что-то может вводить в заблуждение.

Первый шаг — отточить ваше понимание того, когда данный фрагмент контента слишком хорош (или плох), чтобы быть правдой.Как только вы начнете искать, вы заметите определенные подтипы этого контента — например, ragebait, предназначенный для привлечения трафика из-за гнева людей, гиперпартийные призывы, искажающие факты, или откровенное мошенничество. Эти техники относительно распространены в разных типах историй, и их нетрудно распознать.

Вне этих конкретных случаев общая техника почти до глупости проста: если история по какой-либо причине привлекает ваше внимание, притормозите и присмотритесь.

Взгляд глубже

У вас сильная эмоциональная реакция

Хорошая журналистика должна вызывать чувства.Но плохая журналистика — такая как бульварная сенсация, гиперпартийное разжигание страха и преднамеренная дезинформация — эксплуатирует их. Его создатели пытаются убедить людей в том, что мышление и чувство противоположны друг другу, поэтому, если вы расстроены или счастливы из-за истории, вам не нужно заботиться о деталях.

Но если вы будете сильно тронуты историей, вам захочется узнать больше, а не меньше. Если новости верны, вы узнаете важные нюансы по интересующей вас проблеме.А если он ложный или вводящий в заблуждение, вы можете предупредить других людей, чтобы они не попались на него.

История кажется совершенно нелепой — или полностью подтверждает ваши убеждения

Истинно нелогичные новости появляются постоянно, потому что мир — странное место, которое никто из нас не может полностью понять. Но если что-то кажется совершенно странным или непонятным, часто за заголовком скрывается более сложная история.Это особенно верно в отношении научных статей, в которых подробные исследования могут быть сведены в заблуждение или преувеличены.

И наоборот, если история кажется интуитивно верной, будьте осторожны. Операторы дезинформации, таблоиды и другие злоумышленники искажают реальные события, чтобы они соответствовали популярным рассказам, предполагая (часто правильно), что люди будут больше интересоваться новостями, которым они хотят верить. Подобно трогательным историям, упомянутым выше, эти истории могут оказаться точными, но если это так, то углубление в них научит вас больше в том, что вас интересует, так что это все равно стоит потраченного времени.

Из-за этого ты собираешься тратить деньги

Истории, связанные с политическим сбором средств или краудфандингом, могут попасть в эту категорию. То же можно сказать и о рассказах о проблемах со здоровьем, финансовом планировании или выборе колледжа. Даже если они не влияют на вас напрямую, вы должны убедиться, что даете хорошие жизненные советы и надежные сделки людям вокруг вас.

Вы сразу захотите усилить рассказ

Когда вы делитесь историей со своими друзьями или подписчиками, ставите лайки или комментируете, вы поощряете других людей смотреть на эту информацию и повышаете профиль всего сайта или аккаунта, в котором она была опубликована. Это повышает ставки, если что-то является фальшивым или вводящим в заблуждение, поэтому, когда вы обсуждаете, подходит ли история к вышеперечисленным категориям, проявите осторожность, прежде чем расширять ее.

После того, как вы решили глубже изучить историю в Интернете, пора выяснить, откуда и когда она появилась. Интернет-новости могут работать как телефонная игра: каждый раз, когда кто-то что-то репостит или переписывает, есть шанс, что важные детали будут потеряны.

Первым шагом в этом процессе является определение даты оригинального рассказа — это одна из самых полезных сведений, которые вы можете получить.Если история публикуется в сообщении Facebook или твите, нажмите на сообщение и найдите его дату, также известную как временная метка. Вам также следует искать источник соответствующей информации. Иногда в новостном сообщении явно указываются источники, будь то указание на то, что автор провел собственное исследование и интервью, или путем ссылки на пресс-релиз или другое новостное издание. Если это последнее, просто нажмите на ссылку, чтобы увидеть, откуда поступает информация, и обязательно проверьте метку времени на ней.

Иногда, однако, неясно, откуда появились новости — в статье может быть напечатана подстрекательская цитата, не сообщая, откуда и когда она пришла, или в аккаунте Twitter может быть опубликована фотография с описанием, которое может быть неверным. В таких случаях выполните быстрый поиск, чтобы получить больше информации и исходные источники, обычно используя поисковую систему, такую ​​как Bing, DuckDuckGo или Google.

Для получения более конкретных советов по поиску, вот некоторые из стратегий, которые я использую.

Взгляд глубже

Проверить верификацию

По мере того, как в социальных сетях делается все больше объявлений, становится все легче проводить розыгрыши, выдавая себя за публичное лицо в Twitter, Instagram, YouTube или Facebook.Например, твит от @WhiteHouse является официальным заявлением правительства, но кто-то может назвать учетную запись чем-то вроде «@ WhiteH0us», настроить отображаемое имя и изображение профиля, соответствующие имени Белого дома, и опубликовать в Твиттере что-то, что почти идентично взглянуть мельком.

Основные платформы социальных сетей обычно предоставляют значки проверки крупным компаниям, знаменитостям, правительственным учреждениям и другим высокопоставленным аккаунтам. (В Твиттере это синяя галочка.)

Непроверенные учетные записи могут быть подлинными, но вам следует провести дополнительное исследование.Соответствуют ли другие сообщения аккаунта предполагаемому имени? Ссылка на него со своего веб-сайта компании или организации?

Также легко подделать скриншоты твита или публикации в Facebook. Если вы видите один из этих снимков экрана, поищите в ленте этого человека настоящую публикацию. Если его там нет, оцените, насколько заслуживает доверия человек, разместивший снимок экрана. Сообщение могло быть удалено, а могло и вовсе не существовать.

Ищите имена и ключевые слова

Google может быть отличным инструментом для поиска другого освещения конкретного события, но поиск по общей теме статьи или ее наиболее известному предмету часто дает много общих, бесполезных результатов поиска.Лучше искать уникальные ключевые слова, такие как имя неизвестного человека, цитируемого в статье, конкретный законопроект, вносимый в Конгресс, или любые другие слова, которые вряд ли будут отражены в других статьях. Например, если кто-то подает в суд на огромную корпорацию, просто набрав «Судебный процесс Apple» или «Судебный процесс Facebook», вы получите бесчисленные результаты. Добавление имени человека, подавшего иск, существенно сузит круг вопросов.

Найдите источники опросов и инфографики

В хорошей диаграмме или инфографике будет указано, откуда взяты данные, чтобы вы могли убедиться, что это место существует, и узнать больше о его исследованиях.Возьмем, к примеру, этот график того, откуда американцы получают новости:

На графике указан хорошо известный исследовательский центр Pew Research Center, а также дата сбора информации. Вы можете найти первоисточник, набрав заголовок «Телевидение как источник новостей для пожилых американцев» в поисковой системе, а затем найдя результат на pewresearch.org. В этом случае Google возвращает страницу, посвященную диаграмме, а также полную запись в блоге, более подробно объясняющую опрос.

В то же время плохая инфографика может содержать ссылку на легко управляемый онлайн-опрос или на несуществующее государственное учреждение. А в самом плохом даже не будет упоминания, откуда берутся данные. Если вы действительно хотите вникнуть в то, что делает инфографику надежной, Forbes опубликовал в 2014 году руководство, которое актуально и сегодня.

Искать цитаты

Если в истории есть прямая цитата, посмотрите, не является ли она частью более крупного высказывания.Новостным агентствам легко вырывать слова людей из контекста, и иногда сатирические цитаты случайно принимаются за настоящие.

Хорошая новость поможет легко определить источник цитаты. Если этого не произошло, вы можете скопировать часть утверждения и вставить его в поисковую систему, заключив текст в кавычки для поиска именно этой фразы. Если только несколько небольших изданий напечатали соблазнительную цитату известного человека, возможно, они ее выдумали.

Цитаты относительно легко проверить, но они являются благодатной почвой для плохих актеров, потому что они идеально подходят для игры на предубеждениях людей. Художники по дезинформации просто должны выбрать публичного деятеля, которого широко любят или ненавидят, а затем распространить фальшивую или вводящую в заблуждение цитату, подтверждающую стереотип о них — например, фальшивый твит, в котором член палаты представителей Александрия Окасио-Кортес (штат Нью-Йорк) якобы советует людям использовать электромобили во время перебоев в подаче электроэнергии, или фальшивая цитата из журнала People , в которой Трамп называет республиканцев «самой тупой группой избирателей в стране».”

И дело не только в текущих событиях — многие исторические цитаты неверно приписываются или выдумываются.

Определить фото и видео

Если новость основана на фотографии, запустите обратный поиск изображений, чтобы найти другие места, где эта фотография была размещена. Это помогает выяснить, старше ли изображение, чем кажется, а также проверить, действительно ли оно связано с историей.Видео может быть сложнее проверить, но поиск их названий на YouTube иногда может привести к обнаружению более старых версий.

А если известный человек, кажется, делает что-то действительно провокационное в старом видео, поищите фрагмент цитаты или описание события, чтобы узнать, получило ли оно освещение — или это потенциально подделка или отснятый материал вне контекста. Какими бы ни были их политические взгляды, основные средства массовой информации обычно освещают достоверные видеоролики, на которых политик или знаменитость делают что-то важное.

Подумайте, насколько важна история

Сообщение о сбежавшем преступнике или приближающемся шторме чрезвычайно чувствительно ко времени — оно важно, пока угроза активна, но после того, как подозреваемый арестован или шторм закончился, он, скорее всего, будет вводить в заблуждение и не имеет отношения к делу. В меньшей степени, многие истории о стихийных бедствиях, выпуске крупных продуктов или публичном служащем, говорящем о чем-то спорном, могут стать менее актуальными с возрастом.

Множество старых, чувствительных ко времени историй публикуются как невинные ошибки, но злоумышленники также могут использовать создаваемое ими ложное чувство срочности, используя их для легкой кампании дезинформации. В середине 2019 года компания по онлайн-мониторингу угроз под названием Recorded Future описала операцию, которую назвала Fishwrap. Fishwrap использовала сеть аккаунтов в социальных сетях для распространения сообщений о фальшивых террористических атаках. Для этого он взял точные истории о реальных атаках, произошедших несколько лет назад, а затем разместил их, как если бы они были новыми, в надежде, что читатели не заметят метки времени.

Фотографии могут быть лишены контекста еще более хитрым способом, намеренно или случайно. В одном крупном случае The New York Times записала серию знаменитостей, которые разместили то, что якобы было фотографиями пожаров в тропических лесах Амазонки в этом году, тогда как фотографиям на самом деле были годы или даже десятилетия.

Некоторые новостные агентства пытаются решить эту проблему. The Guardian начал добавлять заметные метки даты в старые статьи, в том числе в сообщения в социальных сетях.Но для большинства статей и видео в Интернете читателям придется заранее проверять даты.

Посмотрите, верна ли старая история

Рассказы о научных и технологических открытиях могут быть актуальными годами. Но они также могут быть полны фактов, которые были либо подвергнуты сомнению, либо дискредитированы.

Например, кулинар Брайан Вансинк был мастером в проведении «вирусных» экспериментов, которые взорвали бы Интернет — как эта история, утверждающая, что более дорогая еда «шведский стол» вкуснее.Затем критики обвинили его в том, что он получил эти результаты с помощью отрывочных исследований, и многие документы были исправлены или отозваны, включая отчет о буфете. Старая новость может не содержать этой важной детали.

Или возьмите браслет Cicret, который утверждает, что ваши умные часы проецируются на ваше запястье в качестве сенсорного экрана. Cicret был кошмаром для социальных сетей, но его впечатляющая видеодемонстрация оказалась макетом, и команда так и не показала работающий продукт. Несмотря на это, видео годами репостили другие пользователи, которые не признавали этого факта.

Новостные агентства будут пытаться исправить неточные истории, как вы увидите в статье 2015 года о Wansink. Но они не поймают каждую старую статью. И в менее крайних случаях информация не была ошибочной в то время, а позже была опровергнута другими исследованиями.

Некоторая дезинформация в Интернете является явно фальшивой или вводящей в заблуждение. Но другие истории более тонко ошибочны.Они могут упустить важные детали, раздуть мелкие противоречия или использовать достоверные новости для привлечения людей, прежде чем скармливать им недостоверную информацию.

Ключевым моментом здесь является поиск пробелов в рассказе или несоответствий между утверждениями рассказа и его фактическим исходным материалом. Это могут быть честные ошибки — например, аккаунты, которые делятся сатирическими новостями, не осознавая этого. Или это может быть преднамеренная попытка обмануть людей.

Нет пошагового руководства для понимания всего контекста истории.Но следует помнить о нескольких принципах.

Взгляд глубже

Это сатира?

Это базовый шаг, но его легко пропустить, особенно в социальных сетях, где статьи из разных источников выглядят более или менее одинаково. Статьи The Onion часто принимают за настоящие новости — не только рядовые читатели, но и крупные новостные агентства и политики.Также легко быть временно обманутым такими сайтами, как ClickHole (дочерняя компания Onion), The Babylon Bee или Reductress.

Все вышеперечисленные СМИ известны абсурдистскими историями, в которых четко комментируются социальные проблемы, а их статьи часто используются как преднамеренные шутки. К сожалению, существует и менее известная экосистема «сатирических» сайтов, которые ближе к таблоидам, заполненным мистификациями. Сайт обнаружения мистификаций Snopes поддерживает их длинный список.

Кроме того, если это дата 1 апреля, считайте, что все заголовки фальшивые, пока не прочитаете всю историю.

Кто предоставляет информацию?

Если вы просматриваете инфографику, диаграмму или опрос, объясняет ли источник, как они получили данные? Как написала Клэр МакНир из The Ringer , существует целый жанр необычных карт с пометками — например, карта, на которой изображены любимые штатом конфеты Америки на Хэллоуин, — которые используют причудливые и бесполезные методы для получения спорных результатов.

Если есть некоммерческая организация или группа активистов, посетите ее веб-сайт или страницы в социальных сетях, чтобы узнать, что еще она публикует. Найдите имя, чтобы узнать, не связали ли его новостные сообщения с кампанией астротурфинга — процессом, при котором компания, правительственная пропагандистская операция или другая группа искусственно создает кампанию, которая выглядит как массовое движение. С другой стороны, это могло быть определено как ложный флаг — другими словами, учетная запись, созданная для того, чтобы выставить чьих-то врагов в ужас, изображая их в карикатурном виде.

Предвзятые источники по-прежнему могут публиковать настоящие новости, но тщательно взвешивайте доказательства, которые они предлагают, и, если возможно, посмотрите, подтверждают ли их другие сообщения. И дважды подумайте о том, чтобы делиться сообщениями из учетных записей социальных сетей, которые кажутся ненадежными, даже если это единственное сообщение правдиво. Это может повысить их общий профиль и сигнализировать о том, что такие платформы, как Facebook, должны продвигать больше своего контента в целом.

Каков масштаб истории?

Будьте осторожны с историями, которые предполагают, что существует огромное культурное движение или политический скандал, основанный исключительно на людях, говорящих в Интернете.Например, если есть «петиция» или «бойкот», есть ли доказательства того, что многие реальные люди, организации или компании подписались на нее? Если в истории цитируются твиты или посты в Instagram, чтобы доказать, что что-то популярно, это из аккаунтов с большим количеством подписчиков и вовлеченности, или просто скрытые твиты от малоизвестных пользователей — кто на самом деле может быть ботами или троллями?

Дело не только в том, сколько людей задействовано. Например, если кто-то подает «иск на 2 миллиарда долларов» против компании, это может просто означать, что они попросили огромную сумму денег, а не то, что иск заслуживает доверия или что компания когда-либо заплатит такую ​​сумму.

И во многих криминальных историях максимально возможный приговор — то есть когда осужденному преступнику «грозит до 100 лет лишения свободы» по десятку различных обвинений — сильно отличается от того, сколько он, вероятно, будет отбывать наказание. Более правдоподобное число основывается на наборе правил вынесения приговора и обычно намного короче. Если вам интересно узнать больше, блогер-юрист Кен Уайт все это расскажет.

Если есть «возмущение», действительно ли люди расстроены?

Во многих историях рассказывается о группе, яростно реагирующей на предполагаемое оскорбление — либо для поддержки группы, либо для того, чтобы высмеять ее.Однако, как мы обсуждали выше, часто возникает проблема огромного масштаба: обыщите весь Интернет в поисках нескольких разгневанных людей, и вы, вероятно, их найдете.

Даже помимо этого, «возмущение» может быть просто легким раздражением или даже преднамеренной мистификацией. Если история основана на общественном протесте против чего-либо, посмотрите, какие цитаты или действия цитируются в статье. Есть ли протесты, бойкоты или призывы к извинениям? Или есть просто язвительные твиты на эту тему?

Если вы видите группу людей, которые возмущены чем-то, что вы считаете смешным, вызов их в Интернете часто ухудшает ситуацию.Упоминание оскорбительного или глупого хэштега Twitter, например, может сделать его популярным на сайте — создать впечатление, что люди действительно поддерживают идею хэштега.

Чтобы подробнее узнать, как интернет-новости могут создавать вводящие в заблуждение циклы возмущения, ознакомьтесь с руководством Паркера Моллой за 2015 год, которое она написала после того, как случайно запустила его.

Как разные новостные агентства представляют эту историю?

Если история основана на общедоступных материалах, таких как отчет полиции или пресс-релиз, как разные видео и статьи описывают то, что произошло? Предлагают ли некоторые новые детали или контекст, которые представляют историю в ином свете? Если вы читаете откровенно партийные новости — будь то второстепенные сайты, такие как Occupy Democrats и Breitbart, или более умеренные сайты с явным политическим уклоном, — то обнаружение одной и той же истории в разных изданиях может дать вам несколько точек зрения.

Самый популярный рассказ вокруг истории не всегда правильный, и пристрастные сайты не обязательно ошибаются. Но если громко звучащая история появляется только на неизвестных или гипертрофированных сайтах и ​​аккаунтах, в этой истории могут быть серьезные недостатки, которые просто не позволяют другим СМИ освещать ее. Это один из небольших примеров того, что называется «пустотой данных», которая образуется, когда поисковая тема не дает много надежных результатов, создавая пространство для распространения ложной информации.

На этом этапе вы, вероятно, хорошо понимаете историю, с которой начали.Вы готовы к последнему, самому субъективному этапу процесса: решить, что он означает. Если вас на мгновение обманули ссылкой Onion или какой-нибудь другой фальшивой историей — а если серьезно, это случилось со всеми нами — это не сложный шаг. Если это настоящая новость, все становится намного сложнее.

Очевидно, вы не хотите верить всему, что видите или читаете. А вот некритично не веря все так же плохо. Некоторые источники новостей действительно более точны, чем другие.Некоторые мнения экспертов заслуживают большего доверия, чем ваши собственные любительские исследования. Если вы верите только тому, что проверили собственными глазами, у вас будет невероятно ограниченный взгляд на мир.

Итак, цель здесь не в том, чтобы определить, почему рассказ неправильный. Это необходимо для того, чтобы определить, как работает история — какие части сложны и субъективны, какие, вероятно, точны и насколько это должно изменить ваше мнение или поведение.

Взгляд глубже

Важные факты упускаются из виду или искажаются?

Все проводят эту линию по-своему — то, что вы считаете важной деталью в статье, другой читатель может подумать, едва ли стоит упоминать.Итак, вам решать, просто ли в истории подчеркиваются и интерпретируются факты, с которыми вы не согласны, или же в ней используются откровенные манипулятивные стратегии, которые мы обсуждали выше.

Среди прочего, если в рассказе содержится важное фактическое утверждение о человеке или группе, говорится ли в нем, откуда это утверждение? Предлагает ли он интервью с людьми, которые принимали непосредственное участие? Если вы не можете понять, откуда автор статьи или сообщения в социальной сети что-то знает, возможно, упускается какой-то важный контекст.

Какое повествование больше?

Предполагает ли история, что одно нападение или ограбление является частью огромной волны преступности или что банкротство бизнеса — это часть целой отрасли, испытывающей проблемы? Эти рассказы в конечном итоге могут быть правильными, но их стоит идентифицировать и исследовать самостоятельно, чтобы увидеть, есть ли еще доказательства, подтверждающие шаблон, или эта отдельная история является исключением.

Что будет, если вы ошиблись?

Оцените последствия веры или игнорирования новости с вероятностью того, что она правдива. Например, участие в мошенничестве может быть финансово разрушительным, поэтому вам нужны очень веские (и, вероятно, несуществующие) доказательства того, что схема быстрого обогащения работает. И наоборот, игнорирование настоящего предупреждения о лесных пожарах или эпидемии болезней может быть смертельным — если вы не найдете убедительных доказательств того, что это обман или ошибка, к этому стоит отнестись серьезно.

Но что принципиально важно, это не означает верить любой страшной истории «на всякий случай». Может ли ужасающая скульптура женщины-птицы довести детей до самоубийства? Я имею ввиду, это было бы плохо. Но есть ли какие-нибудь подтвержденные сведения об этом? Насколько нам известно, нет. Предупреждение людей об этом равносильно плачущему волку в сети.

Зачем делиться этой историей?

Все приведенные выше советы имеют двойное значение, когда делитесь историей, потому что вы в основном выступаете в роли издателя новостей для своих друзей и подписчиков.Расскажет ли рассказ о мире что-то значимое и, вероятно, правдивое, будь то стихийное бедствие или интересный факт о животных? Если вы не уверены, можете ли вы объяснить эту двусмысленность или просто запутаете их? А если вы делитесь постом, потому что он вас злит, хотите ли вы, чтобы ваши друзья и подписчики что-то сделали с этой информацией?

Решить проблему дезинформации и дезинформации не так просто, как следовать контрольному списку.Слишком большое внимание к контрольному списку может даже иметь неприятные последствия. Исследователь Дана Бойд описала темную сторону обучения медиаграмотности в школах, когда просьба к ученикам мыслить критически может укрепить общее предположение о том, что новостные агентства лгут. И я не хочу перекладывать всю ответственность за устранение дезинформации на отдельных людей.

Но вот в чем дело: я думаю, что все это весело. Отслеживание пути информации в Интернете — одно из моих любимых занятий, например решение головоломки или руководство археологическими раскопками.Я хочу поделиться этим процессом с другими людьми — и объяснить, почему делать все правильно более интересно и ценно, чем просто подтвердить свои убеждения или набрать очки в Интернете.

И, прежде всего, я хочу выступить за то, чтобы рассматривать расследование как лопату, а не как нож. Критическое мышление не должно быть просто синонимом сомнений или опровержения чего-либо, и цель исследования не в том, чтобы просто выискивать бреши в истории.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *