Вычисляй и властвуй

КАК FACEBOOK И GOOGLE УПРАВЛЯЮТ НАШИМ ПОВЕДЕНИЕМ

Автор:   
12:52. 14 сентября, 2016  
  
1

Быть гражданином сегодня значит быть «проводником раздражений для своевременных коллективных психозов», заметил философ Петер СлотердайкНескончаемый поток публикаций о московской 57-й школе — яркая иллюстрация к этой мысли. Порицать фейсбучное сообщество, жаждущее все новых разоблачений, было бы жестом явно асоциальным. Да и воззвания в таких случаях ни к чему — проходит немного времени, и наступает новая волна, новая «тематическая эпидемия».

Новые медиа приучили нас к постоянной мобилизации. Идет ли речь о ловле покемонов в церквях или названии нового сайта о книгах — ты должен занять свою позицию, сплотившись с единомышленниками в очередной баталии. Вчерашние однополчане при этом то и дело оказываются по разные стороны баррикад.

Социальные сети — история не про диалог, а про разобщение. Во многом это определено самим устройством сетей, алгоритмы которых порождают эффект «эхо-камеры». Опираясь на прошлые лайки пользователя, они замыкают его в уютном информационном мирке, куда редко прорывается то, что может поколебать его убеждения. Иногда этот нарциссический комфорт нарушается, и в дело идут «расфренд» или hate speech.

О том, что не все в мире соцсетей происходит стихийно и действия пользователей можно корректировать, нам недавно напомнили откровения бывших сотрудников американского Facebook, систематически исключавших из топа новостей статьи консервативных СМИ и материалы о республиканцах.

Алгоритмы вездесущи и незаметны, как воздух. Регулярно отслеживая нашу сетевую активность, они фильтруют новостную ленту, предлагают новых друзей, книги, музыку, фильмы и петиции на подпись. Алгоритмам с некоторых пор доверяютвыбор партнера и даже выявление потенциальных рецидивистов. Все прелести такого правосудия ощутил на себе недавно американец Эрик Лумис, приговоренный к шести годам тюрьмы за вождение автомобиля, фигурировавшего в уличной стрельбе, и попытку бегства при задержании. Вынести Лумису вердикт помог судье штата Висконсин компьютерный алгоритм, разработанный частной компанией Northpointe Inc. На основе допросов подсудимого алгоритм определил, что Лумис представляет опасность для общества.

Порой кажется, что главная цель разработчиков софтов с их стремлением на все случаи жизни выдать очередное приложение — превратить общество в скопище инфантилов, готовых любое решение отдать на откуп технологиям.

В технологиях обработки больших данных медиатеоретик Лев Манович видит новую главу в истории средств коммуникации. Ей предшествовали стадии массового воспроизводства (начиная с XVI века), широкого вещания (1920 год и далее) и сети (с 1993 года). Новый этап — медиааналитики — наступил в промежутке между 1995-м, годом появления первых поисковиков, и 2010 годом, когда число пользователей Facebook достигло 500 миллионов.

К алгоритмическому анализу данных теперь прибегает любая интернет-площадка, где пользователи заказывают или делятся культурными благами и общаются друг с другом. Медиааналитика, как эти вычисления именует Манович, сегодня определяет состояние всей индустрии культуры. «Когда Адорно и Хоркхаймер писали “Диалектику Просвещения”, межличностные отношения еще не являлись частью культуриндустрии, —пишет исследователь. — Однако в “софт-культуре” и они оказались “индустриализованы” — организованы при помощи интерфейсов, соглашений и инструментов социальных сетей и мессенджеров. На них влияют и алгоритмы, обрабатывающие все данные о взаимодействиях и решающие, какие содержание, обновления и информацию показывать и когда».

Теодор Адорно и Макс Хоркхаймер ввели понятие «культуриндустрия» в 1947 году, когда казалось, что Голливуд и радиостанции окончательно превратили культуру в стандартизованный товар, а его потребителей — в аполитичных конформистов. Авторы «Диалектики Просвещения» видели в популярной культуре исключительно инструмент манипуляций, которым ее производители в интересах истеблишмента подвергали массы.

Такой же критике подвергается и продукция Кремниевой долины. Потребитель обязан чувствовать себя комфортно, и никакое сомнение не должно потревожить его анабиоз — эта установка роднит создателей новых технологий с инженерами той системы, которую так неустанно и не всегда обоснованно критиковали Адорно и Хоркхаймер. Порой кажется, что главная цель разработчиков софтов с их стремлением на все случаи жизни выдать очередное приложение — превратить общество в скопище инфантилов, готовых любое решение отдать на откуп технологиям.

Сегодня в академической литературе единственному числу — «индустрия культуры» — часто предпочитают множественное — «культурные индустрии», сбивая тем самым пессимистический пафос Франкфуртской школы и подчеркивая неоднозначный характер явления. Вот и Лев Манович справедливо замечает, что сами по себе алгоритмы нейтральны. Они позволяют «контролировать и освобождать, создавать новые знания и ограничивать их, находить любовь и предаваться потреблению».

И все же алгоритмы создаются людьми и вполне могут «унаследовать» предубеждения своих разработчиков. И возникают они не в политическом и социально-экономическом вакууме. На смену старым игрокам индустрии культуры вроде голливудских студий и книжных издательств пришли такие компании, как GoogleAmazoneBayFacebook и другие, занимающиеся не производством, а сбытом и маркетингом культурных продуктов. Компании, которые стремятся, по выражению американского исследователя Сивы Вайдьянатана, «стать операторами нашей повседневной жизни». Наивно полагать, что корпорации Кремниевой долины не осознают власти, дарованной им технологиями. И столь же наивно думать, что они лишены политических интересов.

Пару лет назад американский научный журнал Proceedings of the National Academy of Sciences (PNAS) опубликовал исследование с интригующим названием «Экспериментальное подтверждение массового эмоционального заражения через социальные сети». Автором статьи был психолог Адам Крамер, работавший в одном из подразделений Facebook. Эксперимент, о котором шла речь, состоял в том, что у пользователей соцсети тайно удаляли из новостной ленты сообщения, окрашенные у одних негативно, у других позитивно, — чтобы выяснить, как это повлияет на их эмоциональное состояние.

Публикация в PNAS вызвала бурное негодование в медиа. Facebook клеймили за то, как лихо, без предупреждения, он превратил более полумиллиона своих пользователей в подопытных крыс. И в ходе дискуссий об этической стороне эксперимента выяснилось, что едва ли не каждая крупная интернет-компания регулярно подвергает свою аудиторию подобным тестам. И чаще всего не столько в научных, сколько в корпоративных интересах.

Эксперимент над пользователями, описанный в PNAS, был далеко не первым в истории Facebook. В ноябре 2010 года, в день промежуточных выборов в Конгресс, компания разместила в лентах десятков миллионов американцев уведомления. В них были ссылка на информацию об избирательных участках, кнопка — чтобы объявить всем, что ты проголосовал, — и фотографии друзей, уже исполнивших свой гражданский долг. Как потом рапортовали задумавшие исследование политологи, испытуемые пользователи голосовали на 0,39% охотнее, чем пользователи из контрольной группы, не получившие никаких напоминаний о выборах. Всего же к избирательным урнам удалось привлечь — с учетом волны, запущенной радостными отчетами в фейсбучных лентах, — 340 тысяч человек.

Наивно полагать, что корпорации Кремниевой долины не осознают власти, дарованной им технологиями. И столь же наивно думать, что они лишены политических интересов.

Думаете, на этом Facebook прекратил свои опыты? За несколько дней до окончания регистрации на референдум о выходе Великобритании из Евросоюза компания стала публиковать в лентах пользователей напоминания. В тот же день было зарегистрировано около 186 тысяч онлайн-заявлений желающих участвовать — эта цифра превысила статистику предыдущих дней более чем вдвое. Причем заявления на регистрацию были поданы преимущественно молодежью, которая в большинстве своем выступала за сохранение членства страны в ЕС. Правда, наплыв миллениалов не спас Великобританию от «Брексита» — но все же представьте, что Марку Цукербергу всерьез вздумается привести к власти какого-нибудь кандидата или партию. Анализ пользовательских данных безо всякого труда позволит определить круг лиц с нужными политическими предпочтениями. А инструменты для их мобилизации у Фейсбука имеются.

Еще глубже, чем Facebook, в нашей повседневной жизни укоренилась продукция Google. Сколько раз в день мы «гуглим» нужную нам информацию? Многие при этом в курсе, что поисковые результаты кастомизированы. Но это не мешает считать их объективными. Как работает поисковый алгоритм, выстраивающий тысячи веб-страниц в упорядоченный список, при этом остается тайной. Мало кто заглядывает дальше первой страницы выдачи — это вынуждает некоторые компании тратить круглые суммы, чтобы оказаться в топе.

Американские психологи Роберт Эпштейн и Рональд Робертсон решили выяснить, могут ли поисковые выдачи повлиять на исход избирательной кампании. Для этого они начиная с 2013 года проводили эксперимент, в котором участвовало от сотни до двух с лишним тысяч американцев. Людям предлагали выбрать для голосования одного из двух политиков и давали 15 минут на поиск информации о них (объективности ради использовались реальные кандидаты — участники выборов премьер-министра Австралии в 2010 году). Специально созданный поисковик выдавал первой группе испытуемых такие результаты, где на первых местах были ссылки на сугубо позитивные материалы об одном из кандидатов. Второй группе доставалась положительная информация о его конкуренте. Третья, контрольная, группа получала смешанные результаты. В итоге испытуемые из первых двух групп постоянно выбирали тех кандидатов, за которых их агитировала поисковая система.

Потом опыт повторили в Индии перед выборами в нижнюю палату парламента страны. 2150 человек из 35 индийских штатов снабдили информацией о трех основных кандидатах на должность премьер-министра (им становится лидер партии большинства). И предпочтения участников эксперимента сместились на 20 процентов — а в некоторых демографических группах и на все 60 — в пользу того кандидата, за которого ратовал поисковик. При этом 99,5% даже не догадывались о манипуляциях. А тем немногим, кто о ней знал, эта информация не помешала склониться к выбору того кандидата, которого предлагал поисковик.

Обсуждая все «твиттер-революции» последнего времени и освободительный потенциал новых технологий, мы сами не заметили, как оказались во власти интернет-корпораций, выстроивших для нас цифровой Паноптикон. В этой тюрьме не обязательно находиться в одном месте, и никто не ощущает на себе взгляд тюремщика. Главное в этом новом обществе тотального контроля — постоянно пребывать в сети.

Культуриндустрия, как ее описывали Адорно и Хоркхаймер, во многом зависела от других отраслей промышленности и была заточена на сохранение статус-кво. Нынешние игроки в этом поле с их доступом к пользовательским данным обладают еще большей властью. Они могут воздействовать на умы и поведение пользователей — и это воздействие неуловимо и никак не регистрируется.

«Пока эти тактики были заметны, мы могли их оценивать, противостоять им и даже смеяться над ними. Теперь все обстоит иначе, по крайней мере, в случае с онлайн-сервисами, —пишет журналист Николас Карр. — Когда компании могут непрерывно контролировать поток частной переписки и прочей персональной или чувствительной информации, настраивая его втайне от нас, мы не в силах не то что оценить, но даже распознать манипуляцию. Мы оказываемся внутри черного ящика».

Конечно, у нынешних интернет-гигантов были предшественники. Вспомним, как крупные компании навязывали свою продукцию, используя в рекламе 25-й кадр. Это в итоге было запрещено. Но будет ли подобный запрет эффективен в случае с Google или Facebook? Научимся ли мы контролировать корпорации и алгоритмы?

Поделиться в соцсетях

Оставьте комментарий

avatar
1000
новые старые популярные
Аноним
Гость
Вообще-то “25-й кадр” с его действием – это миф. Человека не так просто зомбировать, как иногда кажется. Сколько было в свое время апокалиптических прогнозов о контролирующем влиянии телевидения, особенно в 80-е годы, на пике развития аудиовизуальных СМИ, когда большинство опрошенных утверждали, что абсолютно доверяют всему, что демонстрируется на ТВ? Однако… Читать далее »