Читать книгу «Философские проблемы развития искусственного интеллекта» онлайн полностью📖 — Коллектива авторов — MyBook.
image
cover

Философские проблемы развития искусственного интеллекта

© Коллектив авторов, 2019

© Издательство «Прометей», 2019

Введение

Традиционно показателем общей успешности в области разработки систем искусственного интеллекта считается способность внешне смоделировать типичные человеческие функции, качества и свойства, тем самым превзойдя человека в типично человеческих видах деятельности. Проявления и «самореализация» разработанных образцов воспринимаются сквозь призму человеческого фактора и так называемого «эффекта ИИ» (обессмысливание и «депсихологизация» деятельности), что являет собой латентную, но, тем не менее, глобальную проблему данной сферы. Проблема особенно актуализируется в связи с отсутствием критериев интерпретирования и «понимания» того, что мы имеем в качестве результатов деятельности в области разработки искусственного интеллекта: сугубо алгоритмизированный, лишённый возможностей понимания и осмысления механизм, или же – психо-машину с потенциалом возникновения прото-психических качеств, то есть задатков психики и, возможно, интеллекта. Несмотря на терминологические особенности самого понятия «искусственный интеллект», в мировом научном сообществе принято считать, что наличие именно сознания, а не интеллекта станет необходимым и достаточным основанием для признания машины разумной [1].

Если рассмотреть динамику своеобразной оппозиции организм-механизм (человек-машина), очевидным станет всеобщее признание превосходства первого над вторым: за организмом признается безусловное наличие сознательных качеств. Механизм остается вторичным, производным от организма. И неизвестно, что должно на самом деле произойти, для того чтобы механизм заслужил признание организма. Парадигма междисциплинарности в данном случае только усложняет проблему.

Детерминантой возникновения подобного восприятия машинной деятельности является совокупность двух векторов общечеловеческого нарциссизма, один из которых не позволяет организму признавать что-либо иное, кроме себя, в качестве достойного для обладания высшими привилегиями. Данный подход существенно затрудняет интерпретирование достижений техногенеза. Другой вектор – техно-дискриминация, т. е. гипертрофированный антропный принцип в виде постулата «долженствования»: механизм «должен» служить человеку и заменять его в наиболее сложных, небезопасных, монотонных областях деятельности.

Литература:

1. Скиба И.Р. Проблема искусственного интеллекта: человек и машина [Электронный ресурс] https://neuronus. com/stat/1392-problema-iskusstvennogo-intellekta-chelovek-i-mashina.html

Глава 1
Фундаментальные проблемы создания и развития искусственного интеллекта

1.1. Философские проблемы развития искусственного интеллекта

Современный этап научно-технической революции ассоциируется с широким внедрением технологий, основанных на развитом искусственном интеллекте. Понятие искусственного интеллекта стало тривиальным для современного мира, но его контуры и фундаментальные проблемы, связанные с его созданием, очерчиваются философией искусственного интеллекта. Философия искусственного интеллекта (ИИ) охватывает широкий круг фундаментальных проблем, связанных с созданием искусственного интеллекта. В чём сущность разума? Каковы принципы его работы? И, наконец, – возможно ли создание искусственного интеллекта? Несмотря на огромные успехи в создании программ и алгоритмов, способных решать многие интеллектуальные задачи гораздо эффективнее человека, мы не можем найти ясного и однозначного ответа на эти вопросы.

Ответ на вопрос о возможности существования искусственного интеллекта определялся мировоззренческой ориентацией мыслителя: дуалистическая традиция, восходящая к Р. Декарту, постулировала невыразимость мышления через телесное, тогда как материалистическая традиция считала мышление производным от телесного. Декарт, исходя из своей дуалистической системы, считал мышление атрибутом лишь человека (даже животных он описывал как «автоматы»), тогда как материалистическая традиция теоретически оставляла возможность существования мышления не только у людей.

Что же можно считать критерием наличия разума? Обыденное сознание, как правило, воспринимает в качестве критерия разумности поведение. Мы считаем нечто разумным или неразумным, оценивая его поведение. Но какова связь между сущностью разума человека и его внешним проявлением – разумным поведением? Какое поведение будет разумным? Как по чьему-либо поведению можно определить, обладает ли это существо разумом?

Ещё в XVIII в. Дени Дидро в своих «Философских размышлениях» заявлял, что если он найдёт попугая, способного ответить на любой вопрос, то этого попугая, без сомнения, придётся считать разумным существом.

В 1936 году философ А. Айер рассмотрел вопрос касательно других разумов: как узнать, что другие люди имеют тот же сознательный опыт, что и мы? «Единственным основанием, на котором я могу утверждать, что объект, который кажется разумным, на самом деле не разумное существо, а просто машина, является то, что он не может пройти один из эмпирических тестов, согласно которым определяется наличие или отсутствие сознания» [1].

«Могут ли машины мыслить?» – такой вопрос поставил в 1950 г. британский математик и логик Алан Тьюринг. Он подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Тьюринг, однако, выбрал другой путь; вместо этого он заменил исходный вопрос другим, «который тесно связан с исходным и формулируется относительно недвусмысленно». По существу, он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?». «Компьютер можно считать разумным, если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком». Преимуществом нового вопроса, как утверждает Тьюринг, является то, что он проводит «чёткую границу между физическими и интеллектуальными возможностями человека», для чего Тьюринг предлагает эмпирический тест.

Суть теста Тьюринга в следующем. В разных комнатах находятся судья, человек и машина. Судья ведёт переписку с человеком и машиной, заранее не зная, кто из собеседников является человеком, а кто – машиной. Время ответа на вопрос является фиксированным, так что судья не может определить машину по этому признаку (во времена Тьюринга машины работали медленнее человека, а сейчас реагируют быстрее). Если судья не может определить, кто из его собеседников является машиной, то машина смогла пройти тест Тьюринга и может считаться мыслящей. Причём, машина не просто будет подобием разума человека – она будет именно разумом, т. к. у нас не будет никакой возможности отличить её поведение от поведения человека. Такая трактовка искусственного интеллекта как полноправного эквивалента естественного получила название «сильного Искусственного интеллекта».

Обратим внимание на то, что тест Тьюринга вовсе не подразумевает, что машина должна «понимать» суть тех слов и выражений, которыми она оперирует. Машина должна лишь должным образом имитировать осмысленные ответы.

В 1980 г. Дж. Сёрл предлагает мысленный эксперимент, критикующий тест Тьюринга и представление о возможности существования разума без понимания. Суть эксперимента в следующем. Сёрл пытается имитировать знание китайского языка, которого не понимает.

«…Педположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов, и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов» [2].

Таким образом, Сёрл проходит подобие теста Тьюринга на знание китайского языка, которого на самом деле не знает. Очевидно, что в данном случае Сёрл выполняет исключительно механическую работу и легко может быть заменён машиной. Сёрл показывает, что тест Тьюринга вовсе не является критерием наличия сознания, а лишь критерием способности манипулировать символами.

Суть позиции Сёрла по вопросу искусственного интеллекта сводится к следующему: разум оперирует смысловым содержанием (семантикой), тогда как компьютерная программа полностью определяется своей синтаксической структурой. Следовательно, программы не являются сущностью разума и их наличия недостаточно для наличия разума. Разум не может сводиться лишь к выполнению компьютерной программы. То, что порождает разум, должно обладать, по крайней мере, причинно-следственными свойствами, эквивалентными соответствующим свойствам мозга. Т. е. Сёрл отметает прочерченный Тьюрингом прямой путь к искусственному интеллекту.

Впрочем, против мысленного эксперимента Сёрла было приведено немало возражений. Вот основные из них.

• Для того, чтобы гарантировано пройти тест, в книге должны содержаться адекватные ответы на ВСЕ существующие вопросы, т. е. книга должна обладать всезнанием, иначе вероятность того, что необычный вопрос вгонит систему в ступор, будет ненулевой.

• На самом деле, тест на знание китайского языка проходит система, состоящая из Дж. Сёрла, книги правил и людей, которые эту книгу правил составляли. А вот люди, составлявшие книгу, несомненно, обладают знанием китайского языка. Хотя другие части системы язык не понимают.

Также, аргументом против теста Тьюринга как критерия наличия разума является то, что тест Тьюринга на самом деле является тестом на человекоподобие, а не на разумность вообще. При прохождении теста машина должна вести себя как человек – но ведь далеко не всё человеческое поведение разумно, а многие интеллектуальные задачи машина может решать гораздо эффективнее человека (например, математические вычисления). Стремление же пройти тест Тьюринга заставляет машины быть «не слишком умной». Можно привести такое сравнение: если бы инженеры начала XX в., создавая самолёт, пытались сделать его точной копией птицы, они были бы похожи на современных учёных, которые пытаются создать машину, мыслящую точно так же, как мыслит человек. Это совершенно непрактично. Самолёты летают не как птицы, тем не менее, они летают гораздо быстрее, дальше и выше птиц. Т. е. тест Тьюринга не раскрывает сущности разума, а лишь указывает на успешную имитацию его внешнего проявления, причём проявления не самого значимого. «Способность болтать – еще не признак интеллекта» – резюмируют эту позицию сценаристы фильма «Звёздные войны».

Эти теоретические рассуждения подтверждаются и практикой создания интеллектуальных программ. Например, типична история машинного перевода, возможности которого еще несколько десятилетий считались значительно превосходящими возможности переводчика-человека. Но на практике, несмотря на немыслимые объёмы информации, которые способна хранить машина, перевод в лучшем случае настолько стилистически «коряв» и уродлив, что «машинный перевод» стал своеобразной темой комедийного интернет-искусства. Любому хорошему переводчику известно, что для настоящего перевода (даже технического) мало словаря и грамматики. Тут еще нужны знания в той области, к которой относится текст – переводчик должен понимать, о чём в тексте идёт речь. Т. е. синтаксис без семантики не даёт возможности решать большую часть интеллектуальных задач, доступных разуму человека.

Поэтому, для разработчиков современных интеллектуальных программ тест Тьюринга не стал универсальным критерием их успеха. Зато получил огромное распространение «тест Тьюринга наоборот» – назойливая CAPTCHA[1].

Как мы видим, поиск возможности создания искусственного интеллекта в любом случае упирается в вопрос: что такое разум?

В 1963 г. А. Ньюэлл и Г. Саймон, основываясь на анализе языка, предположили, что сущность разума заключается в способности оперировать символами. Такой подход позволил создать программу, способную решить любую интеллектуальную задачу в том случае, если задача могла быть формализована (например, доказывать теоремы, играть в шахматы и т. п.). Способность выполнять символьные вычисления вполне достаточна для решения интеллектуальных задач, а без таких вычислений разумное поведение невозможно. Таким образом, разум может быть рассмотрен как устройство, оперирующее информацией в соответствии с формальными правилами. В рамках данного подхода искусственный интеллект создаётся по аналогии с мозгом и нервной системой человека, т. е. по принципу нейросети. Нейросети не программируются в привычном смысле этого слова, они обучаются. Возможность обучения – одно из главных преимуществ нейросетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, а также выполнять обобщение.

Этот подход подвергся критике со стороны философа Х. Дрейфуса. Суть его возражений в следующем:

• знание человека о мире состоит не только и не столько из объективных знаний о мире, сколько из нашего субьективного отношения к нему и склонности воспринимать и интерпретировать события так или иначе. Даже если мы используем символическую систему для выражения наших мыслей, мысли всё равно формируются во многом под воздействием бессознательных факторов. Следовательно, рассмотрение разума может как устройства, оперирующего информацией в соответствии с формальными правилами, недостаточно для понимания сущности разума и создания искусственного интеллекта;

• не всё знание и не все задачи могут быть формализованы. Значительная часть восприятия человека не может быть адекватно выражена в символах. Следовательно, искусственный интеллект, построенный как символическая система, сможет решать лишь небольшой круг формализуемых задач, не являясь разумом.

Практика создания искусственного интеллекта подтвердила правоту скептицизма Дрейфуса. Современные нейрокомпьютеры способны эффективно решать многие задачи, но до возможностей человеческого разума им бесконечно далеко. Таким образом, сведение разума к оперированию символами по формальным правилам не привело к пониманию его сущности.

Хотя качественного прорыва в создании сильного искусственного интеллекта не произошло, количественно вычислительные возможности ЭВМ возрастали экспоненциально, и в данный момент сложность современных ЭВМ неумолимо приближается к сложности мозга человека. Возможно ли, что количественный рост сложности вычислительных систем приведёт к их качественному скачку?

На этой странице вы можете прочитать онлайн книгу «Философские проблемы развития искусственного интеллекта», автора Коллектива авторов. Данная книга относится к жанру «Монографии». Произведение затрагивает такие темы, как «развитие цивилизации», «искусственный интеллект». Книга «Философские проблемы развития искусственного интеллекта» была написана в 2019 и издана в 2019 году. Приятного чтения!