Вряд ли кто-то из журналистов назовет человека «утратившим жизнеспособность» в заголовке. И уж тем более никто не сделает это в некрологе. Однако, когда бывший баскетболист НБА потерял сознание и умер, на новостном сайте MSN появился такой заголовок: «Брэндон Хантер утратил жизнеспособность в 42 года».
Читатели быстро смекнули, что что-то не так: анонимный автор, похоже, имеет смутное представление о том, как устроен язык. Самые проницательные догадались, что это машинный текст. «ИИ не должен составлять некрологи, — написал один возмущенный спортивный болельщик. — Черт возьми, MSN, платите авторам». Убогость алгоритма, поставившего MSN в неловкое положение, показывает, что искусственный интеллект не защищает современные СМИ от дезинформации, а делает их еще более уязвимыми.
Компьютерная программа, сгенерировавшая некролог Брэндона Хантера, скорее всего, реликт, а не самая совершенная версия. Уже более десяти лет недобросовестные разработчики сайтов используют программное обеспечение для создания материалов из украденных слов. В самом примитивном варианте эти программы маскируют плагиат активным использованием тезауруса: просто замените побольше слов на синонимы, и скорее всего, никто не обнаружит сходство с оригиналом.
В некрологе Брэндона Хантере программа переборщила.
Хотя любой редактор немедленно отправил бы такую статью в мусорную корзину, за последнюю неделю MSN опубликовал десятки подобных статей из синонимов на такие разные темы, как спорт, советы по покупке автомобилей и бизнес. Пока «утративший жизнеспособность» заголовок не вызвал возмущения, никто в MSN, похоже, не понимал, что их новостная страница заполнена всякой дребеденью.
Справедливости ради стоит сказать, что современные системы ИИ, такие как ChatGPT, настолько хорошо разбираются в грамматике и синтаксисе, что могут писать быстрее и лучше многих авторов-людей. А плагиат с использованием алгоритмов ИИ настолько изощрен, что перестает быть плагиатом в обычном понимании: они берут чужие работы и синтезируют источники таким образом, что их обычно невозможно отследить.
Тем не менее ИИ не обладает новыми знаниями, не может создать новую информацию которая еще не поступила в его электронный мозг. Однако он способен создавать чрезвычайно убедительные имитации новостей.
Например, когда я попросил ChatGPT написать некролог Хантера, стиль был грамматически безупречным. Даже стерильным. В нем не было никакой новой информации, и он был настолько насыщен клише, что даже случайно не мог никого оскорбить. «Его мастерство, упорство и харизма оставили неизгладимый след в игре и у тех, кому посчастливилось наблюдать за его игрой, — утверждал алгоритм. — Он основал благотворительную организацию Brandon Hunter Foundation, цель которой — предоставить возможности для малоимущих молодых людей через спорт и образование».
Спойлер: такого фонда не существует. Это гораздо более изощренный вид фальшивок, чем те, что творятся с помощью подбора синонимов. Но по своей сути угроза со стороны ИИ такая же, как и от «генераторов статей»: будущее, в котором дезинформация вытеснит реальность. Программы генерируют практически бесконечное количество вариаций информации, выдавая тысячи слов текста, в котором нет ничего нового. Программы могут удовлетворить желание любого новостного агентства и рекламодателей и выдать читателям огромные порции на первый взгляд свежего контента. Они могут генерировать достаточно «новостей», чтобы заполнить самую огромную ленту. И по сути, бесплатно. Это заманчиво для любого сайта, стремящегося конвертировать внимание аудитории в прибыль. И именно это делает современные медиа такими уязвимыми.
Новостные издания экспериментировали с публикацией новостей, созданных с помощью компьютерных технологий, еще до появления сложных алгоритмов машинного обучения. Однако ни один текст, даже созданный самым современным искусственным интеллектом, не является по-настоящему новым, поскольку представляет собой ремикс информации, собранной людьми. А люди, как правило, имеют наглость требовать деньги за свою работу. Хуже того, именно человек, как бы дорого ни стоил его труд, — это единственный способ отличить правдивую информацию от ложной.
Сейчас легко и дешево наводнить интернет бессодержательным контентом, имитирующим реальные новости. Это означает, что отсеивание фальшивок становится все более важным. Но по мере того как подделки становятся все более искусными, эта задача усложняется. Другими словами, перед СМИ стоит та же дилемма, что и перед платформами социальных сетей: когда вы пытаетесь объединить огромные объемы информации без качественной человеческой модерации, способной справиться с таким объемом, то вы становитесь источником информационного мусора.
Кажется, что участие в этой войне обойдется слишком дорого, а поражение заранее предрешено. У новостных изданий может возникнуть соблазн сэкономить деньги, полностью отказавшись от этой затеи и предпочтя универсальную обработку информации тщательному (человеческому) труду. Несколько лет назад сайт MSN начал использовать алгоритмы, а не журналистов для формирования своей главной страницы. Но алгоритмы, даже самый современный искусственный интеллект, не спасут ситуацию. Конечно, ChatGPT очень развит, но он не сможет обнаружить поддельные данные; нужен хороший специалист, который убедится, что фонда Брендона Хантера не существует.
Однако в сети уже есть одно упоминание об этом фонде, которое может заставить задуматься любого специалиста по проверке фактов. Оно содержится в некрологе Брэндона Хантера на одном из новостных сайтов: «Его благотворительная деятельность не ограничивалась баскетбольным полем. Он основал Фонд Брэндона Хантера, некоммерческую организацию, занимающуюся улучшением жизни детей из малообеспеченных семей через спорт, обучение и тренировки, — сообщает сайт. — Благодаря фонду он изменил жизнь многих детей к лучшему, дав им возможность стать успешными и направив их жизнь в нужное русло».
Жизнеспособность этой новости утрачена.