€ 98.90
$ 92.15
Фокус удался: зачем разработчикам воссоздавать ИИ-прототип Гитлера

Фокус удался: зачем разработчикам воссоздавать ИИ-прототип Гитлера

Новое приложение позволяет поговорить с известными историческими персонажами. Опасны ли такие «забавы в образовательных целях»?

История
Фото: TrixSigio/Flickr

В обширном списке отвратительных идей платная возможность участвовать в «интерактивных» беседах с Гитлером не стоит на первом месте. А может, и стоит…

Огромное количество людей уже попробовали это сделать с помощью чат-бота Historical Figures. Проект стал вирусным благодаря своему обширному и часто противоречивому списку профилей ИИ, включая Ганди, Эйнштейна, принцессу Диану и Чарльза Мэнсона. Несмотря на то, что приложение было заявлено как образовательное (76-е место по популярности в категории на момент написания статьи), подходящее для всех, кто старше 9 лет, критики быстро осудили идею в лучшем случае как опрометчивое и часто недостоверное трюкачество, а в худшем — как циничное использование развивающейся и уже чреватой опасностями технологии, которой является ChatGPT.

Даже Сидхант Чаддха, 25-летний инженер-разработчик программного обеспечения Amazon, создавший приложение, признался Rolling Stone, что убедительность и неточность ChatGPT — это «опасная комбинация» для пользователей. Они могут ошибочно принять, что предполагаемые факты, которые изрекает чат-бот, имеют под собой почву.

Некоторые историки решительно поддерживают это мнение, в том числе Екатерина Бабинцева, профессор, специализирующаяся на истории технологий в Университете Пердью. По ее мнению, попытка использовать ChatGPT в историческом образовании не просто лишена вкуса, но потенциально может оказаться крайне опасной.

«Когда я услышала о создании ChatGPT, то сразу подумала: “О, это действительно опасно”», — поделилась она. По мнению Бабинцевой, опасность заключается не столько в опасениях по поводу академического плагиата, сколько в более масштабном влиянии ИИ на общество и культуру: «ChatGPT — это еще один шаг на пути к тому, чтобы уничтожить способность критически воспринимать информацию и понимать, как создаются знания». Она также указывает на скрытый характер текущих крупных разработок ИИ частными компаниями, заинтересованными в сохранении жесткого и прибыльного контроля над своей интеллектуальной собственностью. «Приложение даже не поясняет, откуда берется эта информация. Они скрывают свои источники», — говорит она.

Важно отметить, что компания OpenAI, разработчик ChatGPT и, соответственно, побочных проектов разработок, таких как Historical Figures, сделала большую часть своих исследований и фундаментальных разработок доступными для всех желающих. Однако получить подробное представление об огромных хранилищах интернет-текстов, которые используются для тренировки алгоритмов ИИ, гораздо сложнее. Даже если попросить ChatGPT сослаться на свои источники, он не сможет предложить ничего более конкретного, чем «общедоступные источники», из которых он «может» черпать информацию, например, Википедию.

Таким образом, программы, подобные приложению Historical Figures Чаддха, предоставляют искаженную, а иногда и ложную информацию, не сообщая при этом, откуда она взялась. Сравните это с историческими научными статьями и обычной журналистикой, где есть ссылки на источники, сноски и документальные свидетельства. «Есть различные истории. Единого повествования не существует, — считает Бабинцева. — Единые версии существуют только в тоталитарных государствах, потому что они действительно заинтересованы в создании одной версии и в уничтожении тех, что расходятся с утвержденной линией партии».

Так было не всегда. До конца 90-х годов исследования в области искусственного интеллекта были сосредоточены на «объяснимом ИИ», при этом создатели фокусировались на том, как человеческие эксперты, например психологи, генетики и врачи, принимают решения. Однако к концу 1990-х годов разработчики ИИ начали отходить от этой философии, считая, что она в значительной степени не соответствует их реальным целям. Вместо этого они предпочли использовать нейронные сети, которые часто приходят к выводам, что не могут полностью объяснить даже их собственные разработчики.

Бабинцева и другие ученые, изучающие технологии, призывают вернуться к объяснимым моделям ИИ, по крайней мере, для систем, оказывающих реальное влияние на жизнь и поведение людей. ИИ должен помогать исследованиям и человеческому мышлению, а не заменять их, говорит она, и надеется, что такие организации, как Национальный научный фонд, будут предоставлять стипендии и грантовые программы, способствующие исследованиям в этом направлении.

До тех пор приложения, подобные Historical Figures, основанные на мутной логике и неясных источниках, скорее всего, будут продолжать появляться, рекламируя себя как инновационные образовательные альтернативы. Что еще хуже, такие программы, как ChatGPT, будут продолжать полагаться на человеческий труд для создания основы знаний, никогда не подтверждая эти источники. «Они представляют информацию в виде своего рода уникального, сверхъестественного голоса ИИ, — говорит Бабинцева. — а не как результат сложного человеческого опыта и понимания».

В итоге эксперты предупреждают, что Historical Figures — это не более чем очередной развлекательный розыгрыш в цифровой среде. Дуглас Рашкофф, известный футурист, попытался найти положительные моменты в идее этого приложения: «Нормально использовать ИИ для того, чтобы воссоздать диалог с умершими людьми. Но в данном случае выбор персонажей рассчитан на то, чтобы привлечь внимание, а не на то, чтобы дать людям реальную возможность поболтать с Гитлером. И судя по тому, что вы обратились ко мне за комментарием, фокус удался!»

Источник

Свежие материалы