Почему искусственный интеллект похоронит социальные сети

229

Американские либералы уже не первый год пугают друг друга историями об интернете, ставшем прибежищем всевозможных маргиналов, фриков, троллей и иностранных агентов влияния. По мысли прогрессистов, веселые завсегдатаи анонимных форумов и экстравагантные блогеры крайних взглядов в связке с «русскими хакерами» вполне могут привести к власти неправильного президента и в целом пошатнуть складывавшуюся столетиями систему политического представительства. На смену электорату традиционных политических партий приходят разрозненные группы недовольных, на смену классическим политикам правого или левого толка – политики-популисты, на смену проверенным новостям и вдумчивым экспертным комментариям – истерики в «Фейсбуке».

Тем не менее, технологии не стоят на месте, и вот на горизонте новая опасность – искусственный интеллект. Если старые боты* по преимуществу распространяли идентичные или как минимум однотипные сообщения, призванные повлиять на общественное мнение, то сегодняшние нейросети уже близки к тому, чтобы генерировать разнообразные, нюансированные тексты, похожие на высказывания реальных людей. Несколько месяцев назад два крупнейших научных центра по разработкам в области искусственного интеллекта – лаборатория OpenAI и Институт Аллена – представили новейшие программы, умеющие создавать фейковые новости на заданную тему.

«Алек Рэдфорд из OpenAI говорит, что правительства, компании и другие организации могут использовать технологию для более эффективного распространения дезинформации. Вместо того чтобы нанимать работников для подготовки и дистрибуции сообщений, они смогут делегировать эти задачи программе, что позволит существенно расширить масштабы деятельности», – пишет The New York Times.

Ученые сочли перспективу возможных злоупотреблений настолько опасной, что вопреки обыкновению даже не стали публиковать код программы в открытом доступе. Другая разработка в области ИИ принадлежит Институту Аллена по изучению искусственного интеллекта. Программа тоже пишет новости или заметки, отталкиваясь от заголовка или первого предложения, заданного пользователем. Так, искусственному

интеллекту удалось написать вполне правдоподобную, пусть и с нотками сюрреализма, историю о том, почему Дональд Трамп съедает 100 чизбургеров ежедневно. Алгоритм даже выдумал несколько милых деталей, например, конфликт президента США с английским идеологом здорового питания Джейми Оливером. При этом не менее удачной оказалась заметка о том, что Трамп каждый день делает 100 отжиманий. С одной стороны, она заканчивалась оборванной цитатой «Я делаю сто», с другой – это вполне соответствовало манере речи Трампа, который мог высказаться в таком духе на одной из пресс-конференций.

Заведующий кафедрой новых медиа и теории коммуникации факультета журналистики МГУ им. М.В. Ломоносова Иван Засурский напоминает, что «литературно-полицейский алгоритм» – герой одной из последних книг Виктора Пелевина iPhuck 10. Впрочем, по мнению Засурского, у человека в качестве автора текстов по-прежнему есть существенное преимущество перед компьютерными программами. «Это преимущество состоит в том, что человек не обязан следовать тому или иному жесткому правилу, – пояснил эксперт IP-блогу. – И в этом, среди прочего, сила нашего журналистского образования. К примеру, у нас на журфаке МГУ людей тренируют: они читают много художественной литературы разных эпох. В этом смысле их база, их кругозор гораздо шире, чем у машины. Возможность творческой переработки, использования таких приемов, как ирония, юмор, всего того, что составляет изюминку текста, – все это понятно редактору, но не всегда понятно машине».

Засурский добавил, что, до тех пор пока журналистика не сводится к биржевым сводкам, а включает значительный элемент творчества, машинам будет сложно конкурировать с человеком.

Бояться нейросетей – это примерно то же, что бояться автомобиля, считает начальник управления информационных технологий банка «Новый век» Владимир Долгов. «Настоящий источник повышенной опасности – это не сам автомобиль, а человек, который им управляет», – подчеркнул он в беседе с IP-блогом.

В то же время Долгов не отрицает, что роботы могут использоваться в пропагандистских кампаниях, информационных войнах и конкурентной борьбе. «Если речь идет о комментариях в соцсетях, то «школьников» проще вычислить, к тому же они не владеют теми журналистскими приемами, которым можно обучить ИИ», – сказал эксперт.

Долгов отметил, что с развитием информационных технологий и повсеместным распространением цифровой среды «новости» валятся на нас чуть ли не из холодильника. «Пространство интернета, блоги, разнообразные новостные агрегаторы – им можно доверять не больше, чем заголовкам таблоидов», – уверен эксперт. Единственным способом защиты от вранья в этой ситуации остается ставка на крупные, часто официальные каналы распространения информации, такие как, например, государственные информагентства. «Идея гражданской журналистики и социальных сетей как вызова старым СМИ уже похоронена, фейковые новости в симбиозе с искусственным интеллектом поставили на ней жирный крест», – резюмирует Долгов.

В самом деле, пока что нейросети не могут похвастаться литературным изяществом своих текстов. Фактически их работа напоминает старания преступника старых времен, вырезающего буквы для своего послания из газетных статей, чтобы его не выдал почерк. «Нейросеть вырезает из передовиц определенные сочетания, складывает их, и получается некий уникальный текст. ИИ не анализирует текст, не вдумывается в него, не вкладывает в него душу, он делает то, чему его обучили», – объяснила IP-блогу юрист, исполнительный директор НП «Содействие развитию корпоративного законодательства» Елена Авакян.

Однако печальный факт состоит в том, что даже откровенно аляповатые материалы вполне соответствуют запросам населения. «Фактически уровень текстов, которые создает искусственный интеллект, пока достаточно примитивен с лингвистической точки зрения. Но проблема в том, что образовательный уровень населения, к сожалению, сильно падает, и сегодня большинство граждан не могут критически проанализировать текст с точки зрения его лингвистических особенностей», – посетовала правовед.

Она отметила, что одна из причин, по которой редакции пока что повсеместно не заменили новостников, занятых рерайтом, специализированными программами, – дороговизна таких нейросетей. Это один из тех случаев, когда наемные работники обходятся дешевле передовых технологических решений.

Елена Авакян солидарна с Долговым в том, что влияние соцсетей как источника распространения информации будет неизбежно снижаться. По ее словам, уже сегодня «Одноклассники» воспринимаются в большей степени как сеть для наивных людей старшего возраста, а «ВКонтакте» – как площадка для «школьников и люмпен-пролетариата». Что же касается «Фейсбука», то он все больше используется в качестве

инструмента межличностного и профессионального общения, а не как пространство для общественно-политических высказываний. «Конечно, кто-то до сих пор по старинке добавляет всех, кто постучится. Но большинство включают в «список друзей» реальных друзей или тех, с кем общаются по рабочим вопросам», – пояснила эксперт.

Дело в том, что IT-гигантам вроде детища Марка Цукерберга совершенно не выгодно, чтобы корпорации, общественные организации или правительства вели на просторах платформы бои, производя тонны «мусорного» контента. «Любая война – это излишек. Сегодня мы вывели катюши – завтра против нас вывели минометы, мы вывели наступательное оружие – против нас вывели наступательное оружие. Вывели в социальные сети продвинутых чат-ботов одни дезинформаторы – выведут таких же их противники. Что случится? Информационное пространство переполнится дерьмом. Что сделает население? Плюнет ядовитой слюной и уйдет. Поэтому сетям это крайне невыгодно», – пояснила юрист.

Примечательно, что «Фейсбук» действительно пытается минимизировать этот риск. Так, несколько месяцев назад российские блогеры и публицисты, привыкшие использовать в качестве политической трибуны платформу для обмена фотографиями со дня рождения, возмущались решением компании переформатировать дизайн так, чтобы «лента новостей» перестала быть ключевым инструментом, а пользователи больше общались в тематических группах по интересам.

Елена Авакян полагает, что общественное мнение вообще невозможно сформировать с помощью «уток» в блогах и СМИ. В медиа одной сколь угодно массированной информационной атаке тут же противопоставляется симметричная контратака. Дезинформация работает только в том случае, когда государство техническими, силовыми, административными средствами полностью отрезает гражданам доступ к альтернативным источникам знаний об окружающем мире, как это происходит в Китае. Однако в этом случае речь идет уже не о fake news, а о пропаганде.

________________

* Боты – программные продукты, позволяющие автоматизировать рутинную работу программиста, pr-агента, журналиста, пользователя сети Интернет и т.д.

Оригинал публикации находится на сайте сетевого СМИ artmoskovia.ru | Если вы читаете её в другом месте, не исключено, что её украли.