
Источник: phys.org, перевод: Хроники Обухова
AI уже используется для иллюстрации научных открытий о неандертальцах, анимации эпохи мезолита в музеях и создания исторических видео на TikTok. Его даже применяли в телевизионном документальном фильме о Стоунхендже.
Однако существует ряд серьезных проблем, связанных с использованием AI в археологии. Это не только экологические последствия или вопросы авторских прав (поскольку искусственный интеллект учится на работах людей), но и риск массового распространения археологических фальсификаций.
Еще до появления искусственного интеллекта в археологии существовала проблема субъективности в визуализации прошлого.
Археолог Стефани Мозер проанализировала 550 реконструкций человеческой эволюции, опубликованных в научных и популярных изданиях. Она обнаружила, что изображения были сильно предвзятыми: мужчины изображались как охотники и творцы искусства, тогда как женщины имели исключительно пассивные роли.
Другое исследование показало, что среди 231 изображения первобытных мужчин ни один не контактировал с детьми, женщинами или пожилыми людьми, а дети никогда не изображались за полезной работой.
Это не отражает реального научного понимания прошлого. Например, генетическое исследование показало, что женщины играли центральную роль в обществах железного века.
Яркий пример спорной реконструкции - Чеддерский человек, найденный в Великобритании. На основе анализа ДНК он был воссоздан с темной кожей, что противоречило распространенному представлению о светлокожих предках современных европейцев. Это вызвало значительный резонанс и дискуссии.
Хотя такие реконструкции могут меняться с появлением новых данных, они оставляют визуальное наследие, которое сложно поддается корректировке. И если такие изображения попадают в учебные базы для AI, то риск распространения устаревших или искаженных представлений только возрастает.
Генеративный искусственный интеллект может создавать очень реалистичные, но абсолютно вымышленные археологические сцены. Это опасно, ведь в таких изображениях достоверные элементы могут быть смешаны с полностью вымышленными деталями.
Пользователям будет сложно отличить научно обоснованные детали от "галлюцинаций" AI, порождающего дезинформацию.
Археологи уже давно используют хитрости для обозначения неопределенности в реконструкциях. Например, художники стратегически размещают облака дыма или затемненные участки, чтобы избежать ложных деталей. Но AI не различает реальность и вымысел, что делает его использование еще более рискованным.
Использование AI также может усилить псевдоархеологию - теории, которые противоречат научным данным, но привлекают широкую аудиторию.
Примером является сериал "Древний апокалипсис" на Netflix, где ведущий Грэм Хэнкок продвигает идею затерянной цивилизации Атлантиды, обладавшей передовыми технологиями. Хотя археологи опровергли эти утверждения, популярные AI-изображения могут дополнительно поддерживать такие мифы.
Фальсификации станут еще легче с развитием генеративного AI, что усложнит различение научных реконструкций и вымыслов.
Несмотря на все эти риски, автор статьи подчеркивает, что вместо избегания AI, археологи должны научиться критически оценивать его возможности.
Главный вывод: искусственный интеллект может быть полезным инструментом, но только тогда, когда его использование контролируется специалистами.