Осмысление проблематики искусственного интеллекта в Южной баптистской конвенции США

Московская Сретенская Духовная Семинария

Осмысление проблематики искусственного интеллекта в Южной баптистской конвенции США

Алексей Арсенов 159



Разработки в области искусственного интеллекта (ИИ) – очень молодая область науки, поэтому круг вопросов для исследования и их структура еще недостаточно определены. Создание ИИ напрямую связано с пониманием и изучением естественного (человеческого) интеллекта. Ученые, занимающиеся ИИ, до сих пор не определились, что считать собственно интеллектом, не создали парадигмы, в которой разработали бы критерии интеллектуальности, достижения машиной «разумности», а также не систематизировали свои цели. 

В 1956 году Джон Маккарти ввел термин «ИИ», обозначив его как науку и технику создания интеллектуальных машин, особенно интеллектуальных компьютерных программ. При этом важно отметить, что интеллект по Маккарти – это только «вычислительная часть способностей достигать целей в мире». Однако среди ученых в области ИИ в ответе на вопрос о возможности создания мыслящих машин можно обнаружить плюрализм взглядов от крайне оптимистических до крайне пессимистических. На сегодняшний день одновременно существует более 100 определений ИИ, причем некоторые из них противоречат друг другу. Согласно философу Т. Гоббсу, рассудочная деятельность возможна на основании заранее установленного значения слов.  Отсутствие возможности соблюсти данный принцип для понятия «ИИ» значительно затрудняет дискуссию по данному вопросу.

Необходимо понимать, что позиции исследователей ИИ относительно возможности его создания расположены на своеобразной шкале, на одном из концов которой находятся те, кто считает, что в человеческом сознании нет ничего загадочного, что оно формализуемо и воспроизводимо, а исследования лишь временно ограничены крайней сложностью организации мозга. Представители противоположной точки зрения придерживаются мнения, что нет никакой возможности формализации научными методами разума и всей совокупности интеллектуальной деятельности, но возможно обратное проектирование отдельных функций интеллекта, таких как речь, вычислительные процессы, восприятие образов, память, обучение и т.п.

Вопросы, как общефилософские, так и прикладные, возникающие в процессе создания и применения систем ИИ, уже сейчас находятся в поле зрения религиозных организаций. Так, Святейший Патриарх Кирилл поручил комиссии Межсоборного присутствия по вопросам общественной жизни, культуры, науки и информации разработать документ, дающий оценку разработкам в области ИИ. Ведутся подобные исследования и в других христианских деноминациях. Обширную и значимую деятельность в этом направлении ведет Ватикан: в начале 2020 года вышел документ «Rome Call for AI Ethics» (Римский призыв к этике ИИ). Прот. А. Абрамова в своей статье «Религиозно-этические проблемы искусственного интеллекта: экспертные оценки и позиция Ватикана» подробно разбирает деятельность и документы Римско-Католической Церкви в области оценки технологий ИИ. 

В 2019 году Южной баптистской конвенцией (крупнейшей протестантской организацией США) было опубликован документ «Искусственный интеллект: Евангельское изложение принципов». Эти принципы излагаются в декларативной форме с опорой на Священное Писание. Документ подчеркивает, что ИИ не может быть признан морально нейтральным: признается, что эти технологии могут послужить на благо человечеству, но основной упор делается на опасностях, которые возникают в связи с их внедрением. В первой статье документа утверждается, что никакой технологии не должно «присваивать уровень человеческой идентичности, ценности, достоинства». При этом важно отметить, что это не преувеличенные опасения, Европарламент уже всерьез рассматривает законопроекты о придании системам ИИ «электронной личности» с возложением на эту «личность» определенных прав и ответственности. Придание субъектности системам ИИ лоббируется на политическом уровне по экономическим причинам, чтобы компании, создающие эти системы, смогли переложить ответственность с себя на машину в случае возникновения негативных последствий. Но важно понимать, что при наделении ИИ личностными правами на законодательном уровне, учитывая «какими продвинутыми сейчас стали куклы в секс-индустрии», высока вероятность официального оформления с ними брака в ряде стран, после чего следующим шагом может стать и запрос на церковное венчание. И это лишь одно из возможных последствий придания ИИ субъектности.

Во второй статье обсуждаемого документа утверждается, что системы ИИ «недостойны человеческой надежды, поклонения или любви». Непридуманность указанной проблемы подтверждается повсеместным распространением трансгуманистических ценностей и прецедента возникновения в 2015 году в США первой «церкви» ИИ - «Way of the Future» (Путь будущего), созданной для «поклонения божеству, основанному на искусственном интеллекте». Эта организация носит достаточно сомнительный характер, и уже прекратила свою деятельность в связи с юридическими нарушениями основателя, но сам факт ее возникновения подчеркивает актуальность приведенного выше утверждения.

В третьей-пятой статьях документа рассматриваются риски передачи ответственности за принятие решений от человека к машине. Широко известны достижения технологий ИИ в экспертных медицинских системах, диагностике заболеваний и разработке новых лекарств, которые являются безусловным благом для человечества. Однако необходимо упомянуть и о сложностях, с которыми может столкнуться общество в процессе создания экспертных систем ИИ. Автоматизация юридических процессов связана с риском воспроизводства и масштабирования несправедливого устройства судебных систем. Так, в США компьютерный алгоритм уже оценивает вероятность рецидива для преступников и дает соответствующие рекомендации судьям, при этом работает подобная система не без сбоев. Также системы ИИ используются для сортировки и назначения лечения больным COVID-19. Пациенты уже столкнулись с необоснованной сегрегацией и предвзятостью по различным признакам со стороны систем ИИ, вызванными недостаточно достоверной статистической выборкой. Экспертные системы ИИ не оперируют понятиями справедливости и милосердия и не несут ответственность за свои ошибки, в то время как за каждой ошибкой стоят человеческие судьбы.

В седьмой-девятой статьях документа обсуждаются социальные риски для общества, связанные с возможной массовой утратой работы, ограничением гражданских свобод и манипулированием информацией, которые все шире используются государствами и корпорациями. Документ осуждает использование ИИ «для подавления свободы выражения мнений или других основных прав человека, дарованных Богом всем людям». Действительно, такие риски все больше и больше угрожают современному обществу, и Церковь как общественный институт должна участвовать в контроле над такими технологиями.

В десятой статье, посвященной военному применению ИИ, утверждается, что «войне необходимо основываться на любви к ближнему и принципах честной войны». Но необходимого разъяснения «принципов честной войны» к сожалению, не делается. Также утверждается, что использование в войне ИИ сможет снизить потери мирного населения, хотя для такого утверждения, к сожалению, нет никаких практических оснований. В статье последовательно продолжается нить предыдущих утверждений, вновь говорится о том, что человечество не должно делегировать ИИ моральную ответственность за принятие решений в военной области. Однако не проводится оценка моральной допустимости применения ИИ в военной области, как и возможного духовного влияния новой этики дистанционной войны на операторов таких машин.

В заключении «Евангельских принципов» признается, что в будущем ИИ может значительно превзойти некоторые из человеческих способностей. В то же время, в документе бескомпромиссно отвергается возможность возникновения ИИ, равного человеку по всей совокупности свойств, и утверждается, что ИИ никогда не достигнет того «уровня значимости, достоинства или ценности, который дан Богом Своему образу». Но не делается никакого необходимого богословского обоснования, почему это невозможно.

Рассмотренный документ, как уже указывалось, носит довольно декларативный характер. В соответствии со своим названием он является изложением принципов отношения к технологиям ИИ конкретной протестантской общины и не несет в себе дипломатической миссии, которая содержится в Римском призыве. В связи с этим, мнение данной общины, несмотря на многочисленность ее членов, может остаться лишь информацией для их «внутреннего» пользования, без влияния на более широкую общественную дискуссию в данной области, проводимую во всем мире. 

На сегодняшний день необходимо более комплексное и богословски аргументированное исследование проблематики ИИ с позиции христианского вероучения, с разработкой официальных документов, вовлекающих Церковь в самое живое взаимодействие с другими общественными структурами по данному вопросу. Изменение мира под влиянием технологий ИИ не должно оставаться на периферии богословских дискуссий, поскольку в ближайшем будущем они, во многом, будут определять развитие человеческого общества. 

Список использованной литературы:

  1. Абрамов А. прот. Религиозно-этические проблемы искусственного интеллекта: экспертные оценки и позиция Ватикана// Концепт: философия, религия, культура.2020. №4(4). –  С. 68-82.

  2. Гоббс Т. О теле// Сочинения в двух томах. Т 1. – М.: Мысль, 1989. – 82 с.

  3. Послание Священного Синода Русской Православной Церкви епископату, клиру, монашествующим и мирянам в связи с нашедшим в этом году вредоносным поветрием. 25.08.2020// URL:  http://www.patriarchia.ru/db/text/5682118.html (дата обращения 12.03.2021 года).

  4. Соменков С.А. Искусственный интеллект: от объекта к субъекту?// Вестник МГЮА.2019. №2. –  С. 83.

  5. Федоров М.В. Искусственный интеллект — это не терминатор и не сверхсущество с благими намерениями // URL:  https://russiancouncil.ru/analytics-and-comments/interview/maksim-fedorov-iskusstvennyy-intellekt-et... (дата обращения 12.03.2021 года).

  6. Федоров М.В., Цветков Ю. Этические вопросы технологий Искусственного Интеллекта – как избежать судьбы Вавилонской башни// URL:  https://cdo2day.ru/vid-sverhu/jeticheskie-voprosy-tehnologij-iskusstvennogo-intellekta-kak-izbezhat-... (дата обращения 03.02.2021 года).

  7. Angwin J., Larson J., Mattu S., Kirchner L. Machine Bias. There’s software used across the country to predict future criminals. And it’s biased against blacks// URL:  https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (дата обращения 12.03.2021 года).

  8. Artificial Intelligence: An Evangelical Statement of Principles// URL:   https://erlc.com/resource-library/statements/artificial-intelligence-an-evangelical-statement-of-pri... (дата обращения: 12.03.2021 года).

  9. Inside the First Church of Artificial Intelligence. // URL:   https://www.wired.com/story/anthony-levandowski-artificial-intelligence-religion/ (дата обращения 12.03.2021 года).