h-main-new-slide-3.jpg

LATEST
NEWS

Search

Эксперт по искусственному интеллекту объясняет, как техгиганты манипулируют вашим сознанием

Он — один из тех серых пиджаков, которые нажимают на кнопки в «Матрице», но при этом рад устроить нам, ее пленникам, экскурсию. Так автор охарактеризовал своего собеседника, эксперта по искусственному интеллекту, который рассказал, как технологические гиганты манипулируют нашим сознанием. Кстати, по его мнению, Китай ближе всех к «адской антиутопии».


Эксперт по искусственному интеллекту и выпускник Оксфордского университета объясняет, как технологические гиганты манипулируют сознанием, распознают речь и насаждают групповое мышление.


Выпускник Оксфордского университета Джастин Лейн (Justin Lane) — эксперт по искусственному интеллекту и предприниматель. Пустого сотрясания воздуха он не терпит. Он изучает познание — как человеческое, так и искусственный интеллект — а также религию и конфликты.


Его интересы привели к любопытным полевым исследованиям в Северной Ирландии, где он изучал соперничающих экстремистов из Ирландской республиканской армии и Ассоциации обороны Ольстера. В конечном итоге он применил свои гуманитарные выводы к программированию ИИ и многоагентному компьютерному моделированию.


Он умудрился поступить в бакалавриат в Балтиморе, штат Мэриленд, либералом из Партии зеленых, а вышел из английских башен слоновой кости горячим сторонником Второй поправки (которая гарантирует право граждан на хранение и ношение оружия — прим. перев.). Теперь он считает себя умеренным, но «с либертарианским душком».


Когда мы впервые встретились, Лейн работал в Центре разума и культуры в Бостоне. Крепко испорченный капитализмом многообещающий ученый стал соучредителем международной компании по анализу данных, которая работает с известными корпоративными и академическими клиентами. Он — один из тех серых пиджаков, которые нажимают на кнопки в «Матрице», но при этом рад устроить нам, ее пленникам, экскурсию.


Мне из-за моего ноутбука наш технократический колпак кажется гигантским черным облаком, откуда извергается ливень полуправды и ядовитых фактов. Глаза роботов вглядываются в темноту, наблюдая, как растворяются наши души.

Лейн же настроен более оптимистично. Он уверяет меня, что мир технологий — всего лишь набор сложных инструментов. Главное — уметь ими пользоваться. И вот мы с добрым доктором устроили виртуальную встречу за коньяком и кофе (он из Словакии, я — из Америки, и к тому же до полудня я не пью).


Джо Аллен: что вы скажете как сетевой аналитик, как выглядят неумытые массы с точки зрения всевидящего Бога? Я просто параноик, или они действительно хотят нас прищучить?


Джастин Лейн: Компании вроде Google, Facebook или Twitter, или аналитические фирмы вроде моей собирают огромные объемы данных о пользователях. Это то, что сейчас называется «супермассивами» или «большими данными».


Большинство компаний изучают массовые данные и ищут закономерности. Как правило, конкретное содержание не интересует ни компанию, ни специалиста по обработке данных, ни их алгоритмы. Это просто инженерные системы, которые изучают закономерности, чтобы отслеживать и вовлекать отдельных пользователей.


Но должны быть и базы данных с индивидуальной степенью детализации. Может, у Твиттера, или в корпоративной базе данных, или где-нибудь в базе данных разведки. Эта личная информация может быть использована в гнусных целях. И это чревато очевидными этическими последствиями.


Вспомним, как работает слежка в Китае: ты сказал что-то плохое про режим, и твоя оценка в системе социального кредита упала. Не факт, что там вообще смотрят общую картину, тебе просто возьмут и скажут: «Нет, в такой-то день вы ругали правительство, и теперь билет на поезд вам не положен».


Я бы сказал, что Китай сегодня ближе всех к той адской антиутопии, которой мы все боимся. А большинство американских корпораций больше заинтересованы в том, чтобы получать деньги за каждый клик. Как по мне, разница принципиальная


— А разве нельзя воспользоваться этой обширной картой общественного мнения для манипуляций покруче сбора данных в штабе Барака Обамы или аферы Дональда Трампа с Cambridge Analytica?


Возможностей для манипуляции общественным мнением — масса. Среднестатистическим пользователем манипулируют одновременно активно и пассивно.


Активно манипулируют всяким, кто хотя бы единожды включал телевизор или радио. Маркетинг вообще так работает: нам внушают, что когда нам что-нибудь понадобится, это должен быть конкретный бренд. В этом гений рекламы. Он просто масштабируется до уровня, который мы и представить себе не можем — благодаря данным в социальных сетях и количеству пользователей на каждой платформе.


Наряду с этим есть и пассивная манипуляция — что конкретно та или иная компания допускает у себя на сайте, как подают или алгоритмически меняют информацию, которую мы видим.

С психологической точки зрения мы знаем, что чем чаще повторять ту или иную информацию, тем скорее ее запомнишь. Это называется «обучением». Поэтому, когда соцсети решают цензурировать ту или иную информацию, они затрудняют или перекрывают пользователям доступ к ней.


В каком-то смысле, я считаю, это этический императив: есть определенные обстоятельства — например, когда страдают дети или нападают на беспомощных, которые не могут ответить. Но «редактирование» мнений пользователей — это серая зона. Кого, спрашивается, вы защищаете, удаляя определенные политические мнения? Или скрытой блокировкой пользователей?


И в этом смысле нами открыто манипулируют. Хорошо это или плохо, во многом зависит от ваших взглядов и политической ориентации, потому что, похоже, что с консерваторами это случается чаще, чем с либералами. Эту разницу хорошо видно, когда одни говорят о «ненавистнических высказываниях», а другие спрашивают: «Ну и какие конкретно высказывания вы ненавидите?».


— То есть следить за нашей речью на этих платформах приставлен «полицейский» искусственный интеллект?


— Да, однозначно. «Фейсбук» сообщает, что свыше 90% оскорбительного контента выявляется алгоритмически благодаря системам искусственного интеллекта. И только позже эти метки проверяют живые люди. И так они по сути самообучают ИИ на основе помеченного контента.


Это всего лишь домысел, но если консерваторов цензурируют чаще, чем либералов, это может быть связано с тем, что людей определенных политических взглядов легче задеть. Тогда получает