
Джерело: phys.org, переклад: Хроніки Обухова
Антрополог Університету Мічигану Вебб Кін пояснює, чому люди схильні приписувати штучному інтелекту людські або навіть божественні риси. На його думку, це продовження стародавньої звички — наділяти предмети «наміром» і владою, як колись робили з грецькими оракулами чи китайською «Книгою змін».
Кін вважає, що ChatGPT та інші мовні моделі лише віддзеркалюють мораль і інтереси людей і корпорацій, які їх створили. Проблема починається тоді, коли суспільство надає ШІ моральну владу — дозволяє йому ухвалювати рішення, що мають етичні наслідки.
«Ми маємо бути обережними, не передаючи машинам більше довіри, ніж вони заслуговують», — каже Кін. Адже за будь-яким алгоритмом стоять конкретні люди й економічні інтереси.
Він попереджає: технологічний оптимізм може бути не менш небезпечним, ніж страх перед ШІ. Кожен великий винахід — від літака до ядерної енергії — мав свої небажані наслідки.
Кін наводить приклад безпілотних авто, яким доводиться робити моральні вибори: збити пішохода чи врізатися в дерево. Такі ситуації доводять, що навіть найточніші алгоритми не звільняють людину від моральної відповідальності.
У своїй книзі “Animals, Robots, Gods” дослідник пише, що люди створюють ШІ на свій образ, а тому наділяють його тією ж владою, яку колись віддавали богам і пророкам.