
Источник: phys.org, перевод: Хроники Обухова
Антрополог Университета Мичигана Уэбб Кин объясняет, почему люди склонны приписывать искусственному интеллекту человеческие или даже божественные черты. По его мнению, это продолжение древней привычки - наделять предметы "намерением" и властью, как когда-то делали с греческими оракулами или китайской "Книгой перемен".
Кин считает, что ChatGPT и другие языковые модели лишь отражают мораль и интересы людей и корпораций, которые их создали. Проблема начинается тогда, когда общество предоставляет ИИ моральную власть - позволяет ему принимать решения, имеющие этические последствия.
"Мы должны быть осторожными, не передавая машинам больше доверия, чем они заслуживают", - говорит Кин. Ведь за любым алгоритмом стоят конкретные люди и экономические интересы.
Он предупреждает: технологический оптимизм может быть не менее опасным, чем страх перед ИИ. Каждое крупное изобретение - от самолета до ядерной энергии - имело свои нежелательные последствия.
Кин приводит пример беспилотных авто, которым приходится делать моральные выборы: сбить пешехода или врезаться в дерево. Такие ситуации доказывают, что даже самые точные алгоритмы не освобождают человека от моральной ответственности.
В своей книге "Animals, Robots, Gods" исследователь пишет, что люди создают ИИ по своему образу, а потому наделяют его той же властью, которую когда-то отдавали богам и пророкам.