автореферат диссертации по философии, специальность ВАК РФ 09.00.08
диссертация на тему: Философские аспекты проблем создания искусственного интеллекта
Оглавление научной работы автор диссертации — кандидата философских наук Быковский, Игорь Александрович
Введение.
Глава I. Философские и экспериментально-научные основания проблемы искусственного интеллекта
1.1. Проблемы определения понятий «интеллект» и искусственный интеллект».
1.2. Современные философско-теоретические и экспериментально-технологические проблемы создания искусственного интеллекта.
Глава 2. Философия сознания и искусственный интеллект
2.1 Проблема возможности создания искусственного интеллекта в контексте философии сознания.
2.2 Логико-математические аргументы против искусственного интеллекта (геделевский аргумент и аргумент китайской комнаты).
Введение диссертации2003 год, автореферат по философии, Быковский, Игорь Александрович
Актуальность темы исследования. Появление в конце 40-х годов XX столетия электронных цифровых вычислительных машин, обладающих универсальными возможностями и высокой производительностью - сразу же породил вопрос: могут ли машины подобного типа (при их дальнейшем совершенствовании) «мыслить» подобно человеку1? Иными словами, возможно ли создать машину, интеллектуальные возможности которой были тождественны интеллектуальным возможностям человека (или даже превосходили возможности человека). Успехи практической имитации некоторых простых интеллектуальных функций в пионерских работах 50-60 годов, а также некоторые теоретические соображения - породили у многих исследователей уверенность в том, что задача создания полноценного «искусственного разума» вполне разрешима и, более того, создание «умных машин» - дело ближайшего будущего (точнее, ближайших 20-30 лет). Однако все сроки прошли, а ожидаемый результат так и не был получен.
Современные «интеллектуальные машины» способны чисто внешним образом имитировать отдельные интеллектуальные функции человека, отдельные психические процессы (распознавание образов, решение логических задач, игра в шахматы и т.п.), но они не обладают интеллектуальностью в подлинном смысле этого слова - они не способны к самообучению, не могут осмысленно понимать человеческую речь и вступать с человеком в осмысленный диалог, не способны творчески подходить к решению проблем, не обладают той гибкостью поведения, которая характерна для человека. Собственно задача создания «машинного эквивалента» человеческого интеллекта современными разработчиками систем «искусственного интеллекта» фактически даже и не ставится, поскольку реальных путей решения этой задачи они не видят. Основные усилия направляются на решение конкретных, практически значимых задач, безотносительно к тому, приближает ли решение этих задач нас к «интегральному» искусственному интеллекту, воспроизводящему все основные интеллектуальные функции человека, или же нет.
Является ли, в таком случае исследование на тему «возможен ли искусственный интеллект, тождественный по своим возможностям человеческому», актуальным? На этот вопрос можно ответить так: хотя с точки зрения технических приложений и разработок - этот вопрос и потерял в настоящее время актуальность, он по-прежнему весьма интересен с философской точки зрения. (То, что интерес к данной проблеме сохраняется, видно хотя бы по той бурной дискуссии, которую в середине 90-х годов вызвали публикации Р. Пенроуза, в которых он, опираясь на теорему К. Геделя о неполноте формальных систем, обосновывал вывод о принципиальной невозможности создания машинных алгоритмов, способных имитировать во всем объеме интеллектуальные способности человека). Обычно отсутствие интереса к проблеме создания «интегрального» искусственного интеллекта человеческого уровня объясняют так: мы пока очень плохо понимаем природу человеческого интеллекта и, поэтому не можем ясно себе представить, каким образом можно создать его машинный аналог. При этом, однако, обычно неявно предполагают, что механизм человеческого мышления в принципе может быть прояснен и представлен в виде некоторого алгоритма, хотя решение этой задачи отодвигается на неопределенное будущее. Но это положение, как мы увидим далее, далеко не самоочевидно. Вполне возможно такое положение дел, что природа человеческого интеллекта такова, что «прояснить» его механизмы, свести
См.: Тьюринг А. Может ли машина мыслить? М., 1960. деятельность интеллекта к некоторому набору «функций» или «операций», невозможно в принципе. Тогда решение ограничиться решением частных, конкретных, практически значимых задач, вполне оправдано. В противном случае, если нет принципиальной разницы между человеческим и «машинным» умом, то, следует, видимо, вернуться к «глобалистским» подходам 50-60 годов и направить все усилия на исследование реальных механизмов мышления в надежде открыть некий «алгоритм человеческого ума». Такой подход в случае успеха позволил бы сразу решить практически неограниченное число прикладных задач - поскольку не нужно было бы каждый раз заново разрабатывать «интеллектуальные» программы для решения очередной задачи - ведь подлинно «интеллектуальная» машина была бы способна самостоятельно найти эффективный путь решения любой (или почти любой) поставленной перед ней задачи. Ведь именно эту способность - находить решения (и ставить сами задачи) самостоятельно мы, собственно, и называем интеллектом.
Таким образом, решение вопроса о принципиальной возможности машинной имитации человеческого интеллекта позволит нам оценить перспективность тех или иных направлений развития машинных «интеллектуальных систем». Но и вне этого «практического» аспекта, решение вопроса о принципиальной возможности создания машинного эквивалента человеческого «ума» имело бы огромное значение для понимания природы человеческого мышления и сознания, понимания природы психического в целом. С нашей точки зрения, накопленный к настоящему времени опыт создания различных «интеллектуальных систем», а также имеющиеся в настоящее время результаты исследования человеческого интеллекта и человеческого сознания в философии и психологии, позволяют уже сейчас дать, по крайней мере, предварительную оценку перспективы создания ал
2 См.: Psyhe, 1995, 2(2),2(4),2(6),2(8),2(9); 1996, 2(23). горитмической искусственной системы, равной по своим возможностям человеческому интеллекту. Последнее и делает актуальной тему данного диссертационного исследования.
Степень разработанности проблемы. В работе исследуется широкий круг вопросов, традиционно относящихся к философии искусственного интеллекта. Можно отметить слабую теоретическую базу для философской рефлексии по поводу искусственного интеллекта, обусловленную, с одной стороны, пониженным интересом со стороны философов к проблемам человеческой практики (субъективный фактор), с другой стороны - объективной сложностью этих проблем.
Вопрос о возможности создания полноценной искусственной (машинной) имитации человеческого интеллекта впервые был поставлен А. Тьюрингом в 1950 году в его статье «Вычислительные машины и интеллект»3. Непосредственным поводом написания данной статьи было создание в 1945 году в Пенсильванском университете первой электронной цифровой вычислительной машины ЭНИАК. (Машина была создана группой под руководством проф. Дж. У. Мокли в декабре 1945 года. В 1946 году она была рассекречена. Идея же создания этой машины принадлежит профессору колледжа штата Айова Д.В. Атанасову. Еще в 1941 году он вместе с К.Э. Берри создал прототип ЭНИАКа - машину Эй-Би-Си (Атанасов-БерриКомпьютер) - которая, по сути, и была первым в мире цифровым компьютером. Однако до 1946 года все разработки в этой области были засекречены. Поэтому отсчет «компьютерной эры» обычно начинают с 1946 года)4.
Тьюринг одним из первых попытался выяснить какими возможностями обладают электронные вычислительные машины и можно ли по
3 См.: Тьюринг А. Может ли машина мыслить? М., 1960. средством алгоритмических вычислений, осуществляемых с помощью таких машин, имитировать деятельность человеческого интеллекта. Это, в свою очередь, поставило перед ним вопрос: какова природа человеческого мышления? Поскольку ни психология, ни философия не давали четкого ответа на этот вопрос, Тьюринг заменяет его более понятным и практичным вопросом: как оценить степень сходства человеческого и машинного интеллекта? В качестве теста на «интеллектуальность Тьюринг предложил свою знаменитую «игру в имитацию», известную ныне как «тест Тьюринга». Машина, по Тьюрингу, обладает свойством «разумности», если в заочном диалоге собеседник-человек не способен будет установить, с кем он имеет дело: с человеком или с разумной машиной.
Хотя такой чисто «прагматический» подход к пониманию «разумности» вызвал резкую критику со стороны философов5 (критики подчеркивали, что сущностное определение разума здесь подменяется простой констатацией сходства), тем не менее, для практических целей критерий Тьюринга был вполне удовлетворительным, и это обстоятельство в значительной мере предопределило тот прагматический стиль исследований в области искусственного интеллекта, который сохранился и до наших дней. Суть этого стиля - игнорирование всех сколько-нибудь сложных философских вопросов и ориентация лишь на достижение практических целей.
Уже в упомянутой статье Тьюринга ставилась задача создания универсального (интегрального) искусственного интеллекта. Тьюринг писал: «Мы можем надеяться, что машины, в конце концов, будут успешно соперничать с людьми во всех чисто интеллектуальных областях6.». Далее он предлагает следующий план: «. снабдить машину хорошими органами
4 О «докомпьютерной» предыстории искусственного интеллекта см. статью: Быковский И. А. Этапы изучения искусственного интеллекта // Философия науки: идеи, проблемы, перспективы развития. Саратов. 2002.
5 См: Anderson A.R. Mind and Machines. N.Y. 1964.
6 Тьюринг А. Может ли машина мыслить? M., 1960. С. 57. чувств, а затем научить ее понимать и говорить по-английски. В этом случае машину можно будет обучать, как ребенка.»7.
Вскоре были осуществлены первые попытки реализации этого плана. В 1952 году А. Этткинд реализовал на машине программу, моделирующую условный рефлекс: реакция машины на «раздражитель» усиливалась или ослабевала в зависимости от положительного или отрицательного «подкрепления». Несколько позже он же занялся проблемой машинного перевода, надеясь на этом пути прийти к созданию «понимающей» машины. Параллельно в эти же годы велись разработки шахматных программ.
Хотя первые разработки выглядели весьма обнадеживающими, эти исследования не позволили создать машины, поведение которых хотя бы в отдаленной степени напоминало разумное поведение человека. Неудачи отчасти объяснялись тем, что ранние программы были построены на основе метода сплошного перебора вариантов, что вело к экспоненциальному росту объема вычислений при увеличении размерности задачи. Т.о., резервы быстродействия и памяти существовавших тогда ЭВМ были быстро исчерпаны. Кроме того, не удалось установить общие правила, с помощью которых любой вид мыслительной деятельности можно было бы представить в виде четкого алгоритма.
Важным шагом в развитии искусственного интеллекта была идея «эвристического программирования». Ее авторы Г. Саймон и А. Ньюэлл анализировали процессы решения логических задач людьми и обнаружили, что испытуемые часто использовали особые приемы (т.н. «эвристики») которые, не будучи универсальными, тем не менее, во многих случаях приводили к успеху (хотя и не давали полной гарантии решения задачи). Ньюэлл и Саймон попытались систематизировать эти приемы и разработали на этой основе программу, имитирующую, по их мнению, «практический интеллект» человека. Эти программы и получили название «эвристических». Впервые эвристики были применены в программе «Логик-теоретик», предназначенной для решения задач элементарной символической логики. Позже (1957 г.) найденные эвристики удалось распространить на более широкий класс задач - в результате была создана программа «Общий решатель задач» (GPS).
Именно с этих двух программ (Логик -теоретик и GPS) и начинается фактическая история «искусственного интеллекта». (Сам термин «исо кусственный интеллект» впервые появился в одной из статей Саймона и Ньюэлла, посвященной GPS, которая была опубликована в 1958 году).
Успешное применение «Логика-теоретика» , GPS и других подобных программ породили большие надежды и оптимизм и существенным образом стимулировали исследования в данной области. Масштаб этого оптимизма ясно виден из следующей цитаты из упомянутой статьи Саймона и Ньюэлла : «. в настоящее время в мире существуют машины, которые мыслят, учатся и проявляют способности к творчеству. Более того, их способности будут быстро расти вплоть до того момента в обозримом уже будущем, когда сфера их деятельности охватит круг вопросов, над которыми когда-либо размышлял человеческий разум»9. Далее они писали: «Не пройдет и десяти лет, как большинство психологических теорий примет форму программы для вычислительной машины или качественных характеристик машинных программ». Но существенного прогресса в области создания «интегрального искусственного интеллекта», равного по возможностям человеческому, ни через десять лет, ни по сей день, достигнуто не было.
8 Simon Н.А., Newell A. Heuristic Problem Solving. The next Advanse // Operation Research, vol.6. 1958.
9 Там же. С. 6.
Последующие исследования быстро дифференцировались на ряд специализированных направлений. Можно выделить следующие направления, традиционно относимые к области искусственного интеллекта:
1. Распознавание образов.
2. Доказательство теорем и решение задач.
3. Игры и принятие решений.
4. Естественные языки и их машинное понимание. Машинный перевод.
5. «Разумные роботы».
6. Экспертные системы.
7. Моделирование творческой деятельности.
8. Моделирование нейронных сетей. Моделирование поведения животных.
9. Специализированные интеллектуальные системы промышленного, военного, космического и т.п. назначения.
Первоначально предполагалось, что уже через 10 лет (т.е. к концу 60-х годов) появятся машины, которые смогут соперничать с человеком практически во всех областях интеллектуальной деятельности. Эти прогнозы не подтвердились. Только через 40 лет компьютер смог на равных сыграть в шахматы с чемпионом мира. По большинству рассмотренных позиций компьютер и сейчас существенно уступает человеку, по крайней мере, в тех случаях, когда речь идет о творческой интеллектуальной деятельности.
Подводя итог исследований в области искусственного интеллекта за последние 50 лет, мы можем сделать вывод, что при должной настойчивости любая локальная область интеллектуальной деятельности человека (по крайней мере, если она не носит ярко выраженного творческого характера) может быть представлена в виде алгоритма (совокупности четких инструкций) и передана машине. Однако конечная цель проекта «искусственный интеллект» - создание универсальной «разумной машины», которая могла бы обучаться, подобно человеку, и самостоятельно совершенствовать свое поведение, осваивая новые виды интеллектуальной деятельности и достигая при этом уровня человека средних способностей - эта цель не достигнута и появляется все больше сомнений в ее принципиальной достижимости. По крайней мере, никакого реального прогресса в создании такого самообучающегося «интегрального» интеллекта достигнуто не было.
Как, например, обстоит дело с «тестом Тьюринга»? С 1991 года проводятся турниры программ, пытающихся пройти тест Тьюринга. Пока ещё эти программы (т.н. боты) крайне малоразумны. Всё, что они делают — это применяют, более или менее удачно, заранее подсказанные человеком правила.
Осмыслить разговор боты, как правило, даже не пытаются. В основном совершают попытки «обмануть» человека. Создатели закладывают в них ответы на наиболее часто задаваемые вопросы, стараются обойти распространенные ловушки. Ясно, что при таком подходе создать действительно разумного собеседника нам никогда не удастся.
Компьютерные шахматные программы, хотя они и обыгрывают Кас-парова, магистральным путем к созданию интегрального искусственного интеллекта явно не являются. Их принцип действия - это перебор вариантов плюс использование накопленных в шахматной теории правил (теория эндшпилей, разыгрывание стандартных дебютов и т.п.). Эти правила нигде кроме шахмат, не применяются. Кроме того, шахматный компьютер не способен обучаться, не способен самостоятельно придумывать новые правила. «Шахматное творчество» для него недоступно.
Робота можно даже научить играть в футбол. Регулярно проводятся футбольные турниры роботов. Но даже самый лучший робот-футболист не сможет даже на элементарном уровне участвовать в игре в хоккей или в какой-либо другой игре, он не способен учиться, его программа основана, как правило, на очень примитивных инструкциях. Таким образом, ничего специфически «разумного» современные «интеллектуальные» программы не демонстрируют.
Параллельно с разработкой конкретных программ искусственного интеллекта появились философские работы, в которых делались попытки осмыслить данную проблематику. Сразу же нужно подчеркнуть, что философские исследования не оказывали и по сей день не оказывают сколько-нибудь существенного влияния на практические разработки в данной области. В целом можно выделить два основных направления развития «философии искусственного интеллекта».
Во-первых, многие философы позитивно восприняли идею возможности компьютерной имитации человеческой психики и попытались использовать эту идею для переосмысления традиционной проблематики философии сознания, философии интеллекта, а также психофизической проблемы. В основе этих попыток лежит т.н. «компьютерная метафора», т.е. уподобление мозга компьютеру, а психики - функции (или программе) этого компьютера. Один из представителей этого направления М. Минский прямо называет мозг «мясным компьютером», а сознание, по его мнению - «это просто то, что мозг делает».
Философское осмысление «компьютерной метафоры» породило так называемый «функциональный подход» к решению психофизической проблемы, который можно характеризовать классической формулой: «сознание есть функция мозга». (X. Патнем10, Д. Фодор11, Д.И. Дубровский12, Т. Ярвилехто13 и др). Компьютерная метафора также, видимо, существенным образом стимулировала в 50-60 годы создание различных «элиминирую
10 См.: Патнем X. Философия сознания. М., 1999.
См.: Fodor J.A. The Mind-Body Problem //Sci. Amer., 1981.№1. P.l 14-123.
12 См.: Дубровский ДИ. Психические явления и мозг. М., 1971. щих теорий», отрицающих существование сознания как особой «приватной» реальности (хотя философской основой элиминации «внутреннего мира» были относящиеся к более раннему периоду работы Л. Витгенштейна). Мы имеем здесь в виду таких авторов, как Д. Армстронг14, Дж. Смарт15, Г. Райл16, Г. Фейгл17 и др.
Воздействие «компьютерной метафоры» на психологию породило в 60-е годы весьма продуктивное направление психологических исследований -т.н. «когнитивную психологию»18. Нейрофизиологи, в свою очередь, получили компьютерные модели нейронных сетей19. Основная идея когнитивного подхода в психологии - рассмотреть психические процессы как процессы внутренней переработки сенсорной информации и выработки оптимальных поведенческих решений. Психолог- когнитивист пытается экспериментально установить, какие конкретно алгоритмы использует мозг человека, не принимая во внимание возможные нейрональные механизмы реализации данных алгоритмов.
Во-вторых, уже в 60-х -70-х годах ряд исследователей пытаются осмыслить проблематику искусственного интеллекта с позиций философии сознания. Именно представители этого направления впервые выразили сомнение в принципиальной разрешимости проблемы создания интегрального искусственного интеллекта и попытались выяснить, чем человеческий интеллект может принципиально отличаться от любых его возможных машинных имитаций.
Одна из первых работ, в которой была дана обстоятельная критика искусственного интеллекта, -это вышедшая в 1971 году (русский перевод
13См.: Ярвилехто Т. Мозг и психика. M., 1992.
14 См.: Armstrong D.M. Materialist Theory of Mind. L., 1969.
15Cm.: Smart J.J. Philosophy and Scientific Realism. L., 1963.
16 См.: Райл Г. Понятие сознания. М.,2000.
См.: Feigle Н. The "Mental" and the "Physical". Minneapolis, 1976.
18См.: Найсер У.Познание и реальность. М., 1981.
19 См.: Соколов Е.Н., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейрокомпьютеру. М.,1989.
- 1978г.) работа X. Дрейфуса «Чего не могут вычислительные машины». В этой работе X. Дрейфус тщательно проанализировал допущения, лежащие в основе веры в возможность создания машинного аналога человеческого разума. Дрейфус выделяет четыре основных допущения:
1. Биологическое (нейродинамические процессы в мозге изоморфны некоторой переключательной схеме).
2. Психологическое (мышление есть процесс переработки информации, заданной в дискретной форме, причем эта переработка подчинена конкретному алгоритму).
3. Эпистемологическое (всякое знание можно формализовать).
4. Онтологическое (все существующее представимо в терминах множества четко определенных, независимых друг от друга элементов).
Дрейфус пытался показать, что биологическое допущение не согласуется с новейшими данными нейрофизиологии, тогда как другие три допущения не являются твердо установленными истинами и могут оказаться 20 несостоятельными .
Одно из основных препятствий на пути создания адекватной машинной модели человеческого интеллекта Дрейфус видит в неосуществимости алгоритмического моделирования человеческих потребностей, мотивов и деятельности целеполагания. При этом он подчеркивает биологический, телесно детерминированный характер человеческих потребностей и важность двигательной активности организма - как средства приобретения особого телесно-моторного опыта. Машину нельзя, по мнению Дрейфуса, запрограммировать таким образом, чтобы она была способна ставить собственные цели, испытывать желания и т.д.
20 Заметим, что примерно в это же время подобные возражения независимо от Дрейфуса обсуждались и в отечественной литературе. См., например, коллективную монографию «Управление, информация, интеллект под ред. А.И. Берга М., 1976.
Этот аргумент представляется весьма спорным, особенно если учесть более поздние разработки в области компьютерного моделирования моти
Л 1 вации, эмоций и целеполагания . В целом, следует признать, что работа Дрейфуса не дала определенного ответа на вопрос: возможен ли интегральный искусственный интеллект, равный по своим возможностям интеллекту человека. Гораздо большее значение, на наш взгляд, имеет так называемый «геделевский аргумент» против искусственного интеллекта. Впервые этот аргумент сформулировал британский математик Дж. Лукас в 1961 г.22 По мнению Дж. Лукаса, из известной теоремы К. Геделя «о неполноте формальных систем» (доказанной в 1931 г.) вытекает принципиальное различие между человеческим мышлением и любыми, сколь угодно сложными алгоритмическими системами искусственного интеллекта. В 60-е годы аргументация Лукаса была встречена весьма скептически и не повлияла существенно на исследования искусственных интеллектуальных систем. Однако в 1989 году этот аргумент «воскресил» и значительно усилил известный британский физик и математик Р. Пенроуз . Вышедшие одна за другой две его обстоятельные монографии привлекли к себе внимание и вызвали обширную дискуссию, в которой приняли многие известные математики, философы, нейрофизиологи и специалисты по искусственному интеллекту24. Но и в этой новой дискуссии опять возобладало скептическое отношение к геделевскому аргументу. С нашей точки зрения, многие возражения против геделевского аргумента явно несостоятельны и поэтому дискуссию по данному вопросу не следует считать закрытой.
21 См., например, доклад У. Фота в «Трудах международной объединительной конференции по искусственному интеллекту» М., 1975.
22 См.: Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961,36, pp. 112-127.
23 См.: Пенроуз P. Новый ум короля. М., 2002, Penrose R. Shadows of the Mind. L., 1993.
24 См. материалы этой дискуссии в журнале PSYHE выпуски 1995-96 г.г.
Большое значение для оценки возможности создания интегрального искусственного интеллекта имеет, как мы полагаем, придуманный американским философом Дж. Сёрлом мысленный эксперимент, известный как «аргумент китайской комнаты ». Сёрл задался вопросом: будет ли машинный эквивалент человеческого интеллекта действительно обладать такими психическими функциями, как понимание, чувственное восприятие, мышление и убедительно показал, что на этот вопрос следует ответить однозначно отрицательно (независимо от степени совершенства предполагаемой системы машинного интеллекта). Машина в любом случае будет лишь чисто внешним образом имитировать понимание, восприя^йе и мышление, ничего на самом деле не понимая, не воспринимая и не мысля.
Геделевский аргумент» и «аргумент китайской комнаты» - $то два важных аргумента, ставящих серьезным образом под сомнение й&змож-ность полноценного машинного моделирования человеческого мышления. Но требуется философское прояснение смысла этих аргументов, которые сами по себе носят не философский, а скорее логико-математический характер.
Существенный недостаток современных дискуссий о возможности или невозможности искусственного интеллекта - в них, как правило, очень мало используется тот богатый пласт идей, который был накоплен в философии сознания и философии интеллекта. Здесь нужно выделить две важные проблемы, которые широко обсуждались философами, но пока еще не вошли в круг представлений и интересов специалистов в области искусственного интеллекта. Это, во-первых, проблема уровневого строения человеческого мышления и, во-вторых, это психофизическая проблема.
В первом случае, ключевой является идея сложного, многоуровнего устройства человеческого интеллекта, которая разрабатывалась в филосо
25См.: Сёрл Дж. Разум мозга - компьютерная программа?// В мире науки. 1990. №3. С.7-13. фии начиная с античности. Нельзя сказать, что эта идея полностью игнорируется в философской литературе, посвященной проблематике искусственного интеллекта. Существует достаточно большое число работ, в том числе монографий, посвященных сопоставлению человеческого и машинного мышления (в основном это работы 70-х годов), в которых эта идея так или иначе затрагивается26. Недостаток этих и многих других работ видится в том, что в них не используют весь спектр философских разработок в области теории интеллекта и в философии сознания. Кроме того, как правило, уже изначально в работах такого плана присутствует априорная установка на принципиальную разрешимость проблемы машинного моделирования человеческого мышления. Установка, с нашей точки зрения, весьма спорная.
Мало внимания специалисты по искусственному интеллекту уделяют также психофизической проблеме. Для оценки возможности «переноса» человеческого мышления на новую субстратную основу важно знать, каким образом «естественное» человеческое мышление (и сознание в целом) соотносится с биологическим субстратом -мозгом. К сожалению, проблема «мозг и сознание» далека от окончательного решения. Но философами выработан целый ряд подходов к решению этой проблемы. Существует связь между способом решения психофизической проблемы и оценкой возможности создания искусственного интеллекта. Однако эта связь до сих пор систематически не исследовалась.
Учитывая отмеченные пробелы в философском анализе искусственного интеллекта, мы и определили приоритетные направления нашего исследования.
26 См, например Э. Бэнерджи Теория решения задач. Подход к созданию искусственного интеллекта. М., 1972, Нильсон Н. Искусственный интеллект. Методы поиска решений. М., 1973, Виноград Т. Программа, понимающая естественный язык. М., 1976, Венценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. и др. Из современных работ отметим содержательную статью Дубинский А.Г. К определению понятия "интеллект" И Искусственный интеллект. - 2001. - №4.
Теоретические и методологические основы исследования. Многоплановость содержания искусственного интеллекта, неоднозначность его толкования влечет за собой разнообразие подходов при решении фундаментальных проблем философии искусственного интеллекта. Поэтому в основу работы положен компаративистский подход и различные методы философского анализа: логический, системный подход, элементы структурного анализа. Теоретической основой исследования являются концепция сложного, многоуровневого строения человеческого интеллекта и идея его несоизмеримости с алгоритмическими системами. Анализируя искусственный интеллект и его связь с естественным интеллектом, мы опирались на работы таких отечественных и западных философов, как И.Ю. Алексеев, B.C. Библер, Дж. Вейценбаум, Б. Геранзон, В.М. Глушков, А.Г. Дубинский, X. Дрейфус, Э.В. Ильенков, X. Патнем, Р. Пенроуз, Д.А. Поспелов, С. Прист, Г. Райл, Р. Рорти, Дж. Сёрл, М. Таубе, Дж. Чалмерс и др.
Цель и задачи исследования. Основной целью настоящего исследования является всесторонний философский анализ проблемы возможности создания «интегрального» искусственного интеллекта, т. е. создания искусственных систем, эквивалентных по своим функциональным, поведенческим возможностям человеческому интеллекту.
Для достижения этой цели необходимо решить следующие задачи:
1. Дать четкую дефиницию понятий «интеллект» и «искусственный интеллект».
2. Проанализировать историческое становление и современное состояние проблемы искусственного интеллекта.
3. Исследовать основные подходы к решению психофизической проблемы и дать в этом контексте оценку перспектив создания искусственного интеллекта.
4. Провести критический анализ основных аргументов «за» и «против» принципиальной разрешимости проблемы создания искусственного интеллекта.
Объект исследования. Объектом исследования выступает «искусственный интеллект», рассматриваемый как совокупность технических средств, моделирующих различные аспекты «естественного» интеллекта человека.
Предмет исследования. В качестве предмета исследования выступают проблема принципиальной возможности создания искусственного интеллекта, тождественного по своим функциональным возможностям естественному.
Новизна диссертационного исследования. Новизна предпринятого исследования связана с самой постановкой и решением проблемы, в особенностях подхода к ней. Диссертация является первым комплексным философским исследованием понятий "интеллект" и "искусственный интеллект", а также проблем создания "интегрального" искусственного интеллекта, в котором:
1. Впервые продемонстрировано принципиальное различие в понимании сущности интеллекта и искусственного интеллекта в философии и в компьютерных науках.
2. Дан оригинальный анализ современных концепций, рассматривающих возможность создания искусственного интеллекта и находящихся в связи с практическими разработками в этой области.
3. Показано, что функционалистский подход, исследуя естественный интеллект с позиций компьютерных наук, интерпретирует мыслительную способность человека, как реализацию алгоритмического вычисления, не принимая во внимание сложности и парадоксы, к которым ведет идея полной алгоритмизации мыслительных процессов.
4. Получен вывод, что теоретические разработки в области «интегрального» искусственного интеллекта, несмотря на многочисленные успехи в области практического создания конкретных (локальных) интеллектуальных систем, свидетельствуют о принципиальных трудностях на пути создания полноценного искусственного аналога человеческого интеллекта, отвечающего сформированным в философии представлениям о человеческой интеллектуальности.
Положения, выносимые на защиту. С учетом общих теоретических результатов, полученных в результате исследования, на защиту выносятся следующие основные положения:
1. Интеллект представляет собой целостный комплекс способностей, включающий здравый смысл, рассудок, разум и интуицию. Наличие интеллекта предполагает способность к теоретическому обобщению, к творческому мышлению, предполагает способность не только самостоятельно решать задачи, но и самостоятельно их ставить, открывать новые проблемные области исследования.
2. В современных философских и научных исследованиях по искусственному интеллекту последний понимается как способность решать интеллектуальные задачи путем приобретения, запоминания и целенаправленного преобразования знаний в процессе обучения, а также при адаптации к разнообразным обстоятельствам. Понятие интеллектуальности как способности к решению определенных задач не отражает всей многомерности и сложности человеческой интеллектуальной деятельности. Важнейшая характеристика человеческого интеллекта - способность не только решать, но и ставить принципиально новые задачи - не поддается алгоритмической имитации.
3. Практические трудности создания интегрального искусственного интеллекта определяются принципиальными качественными отличиями человеческого интеллекта от алгоритмических систем. В пользу существования таких качественных отличий свидетельствует ряд аргументов философского и логико-математического характера («геделевский аргумент», «аргумент китайской комнаты» и др.), которые показывают, что человеческий интеллект обладает способностями (ассоциируемыми с понятием «творчество»), выходящими за рамки возможностей любых, сколь угодно сложных алгоритмических систем. Сказанное, однако, не исключает возможности алгоритмического воспроизведения отдельных, не носящих явно творческого характера интеллектуальных функций или интеллектуальной деятельности человека в конкретных предметных сферах (шахматы, решение логических задач заданного уровня сложности, управление конкретным производством).
4. Натуралистические подходы к пониманию природы сознания и решению психофизической проблемы, наиболее соответствующие идее о возможности алгоритмической имитации человеческого интеллекта (элиминирующие теории и функциональный подход), неудовлетворительны в концептуальном плане, поскольку либо вообще отрицают наличие сознания, либо не способны объяснить, как явления сознания (как феномены внутреннего мира) могут возникнуть в качестве «результата мозговой деятельности». Другие (ненатуралистические) подходы к решению психофизической проблемы: двухаспектный подход (психофизический параллелизм) и дуализм (интеракционизм) явно не совместимы с идеей возможности создания искусственного интеллекта.
5. Всякая аргументация, основанная на экспериментах в области возможности создания искусственного интеллекта, должна быть подвергнута строгому анализу на теоретико-философском уровне, вне которого любые утверждения о возможности создания искусственного интеллекта или о его успешном моделировании как свершившемся факте не могут быть признаны истинными.
Теоретическая и практическая значимость исследования определяются обозначенными актуальностью и новизной работы. В результате предпринятого диссертационного исследования философия науки пополнилась новыми положениями и выводами об искусственном интеллекте. Решение основных задач работы: определение понятий интеллекта и искусственного интеллекта, анализ основных проблем, связанных с попытками разработки метода создания искусственного интеллекта - позволило получить в ходе данного исследования результаты, которые в условиях современной техногенной цивилизации могут сформировать адекватное мировоззрение и оценить сущность исследуемых феноменов. Выводы исследования могут также расширить понимание проблем сознания и сформировать положительную установку на возможность создания и применение искусственного интеллекта.
Результаты данного исследования имеют и методологическое значение для теоретических и практических разработок, относящихся к теме искусственного интеллекта. Материалы могут быть использованы при подготовке курсов: «Философия техники», «Концепции современного естествознания», лекций по отдельным разделам и специальным темам систематического курса философии.
Апробация результатов исследования. Основное содержание диссертационного исследования отражено в двух статьях и брошюре.
Главные положения, результаты и выводы, содержащиеся в диссертации докладывались и обсуждались на итоговых научных конференциях в СГУ им. Н. Г. Чернышевского:
1. Межвузовская научная конференция «Философия науки: идеи, проблемы, перспективы развития» (Саратов, май 2002).
2. Конференция молодых ученых «Философия: жизненный мир человека» (Саратов, декабрь 2002).
3. Межвузовская научная конференция «Человек в глобальном мире» (Саратов, декабрь 2003). Структура работы. Диссертация состоит из введения, двух глав, четырех параграфов, заключения и библиографического списка литературы.
Заключение научной работыдиссертация на тему "Философские аспекты проблем создания искусственного интеллекта"
ЗАКЛЮЧЕНИЕ
Анализируя основные аргументы, выдвигаемые против искусственного интеллекта, рассматривая данные о многоуровневом строении человеческого интеллекта, а также оценивая реальное положение дел в области компьютерной имитации человеческого мышления, мы пришли к выводу: полная машинная имитация человеческого интеллекта, по всей вероятности, принципиально не возможна. Здесь уместно процитировать Д.Ф. Араго, который говорил: «Тот, кто говорит «невозможно» вне чистой математики, тот не понимает своего предмета». Поэтому наше заключение и содержит оговорку «по всей видимости». История науки говорит нам о том, что любые, сколь угодно убедительные и обоснованные теоретические заключения могут быть опровергнуты новыми, неожиданными фактами. Поэтому нельзя априори исключить, что интегральный искусственный интеллект, равный по возможностям человеческому, все же когда-нибудь будет создан - вопреки всем теоретическим запретам. В этом случае нам придется существенным образом пересмотреть привычные для нас способы теоретической аргументации.
Учитывая сказанное, примем более осторожную формулировку нашего заключения: идея возможности создания машинного аналога человеческого интеллекта не представляется в настоящее время в достаточной степени теоретически и эмпирически обоснованной. Напротив, существует ряд весьма убедительных аргументов, которые указывают на существование принципиального различия между интеллектом человека и любыми, сколь угодно сложными «интеллектуальными» алгоритмическими системами.
Следует ли отсюда, что исследования в области искусственного интеллекта нужно свернуть? Нет, конечно. Мы не можем искусственно воспроизвести человеческий интеллект в целом, но вполне можем воспроизвести отдельные его функции и имитировать его действие в ограниченных предметных сферах. Исследования в этих направлениях уже сейчас дают ощутимый экономический эффект, приносят реальную пользу человечеству. Все, чего человек реально достиг, все конкретные результаты его творчества в той мере, в какой мы их способны понять и объяснить - вполне могут быть представлены в виде алгоритмов и, таким образом, могут быть «пересажены» в «машинный ум» (об этом, в частности, убедительно говорят успехи шахматных программ). Но человек всегда способен пойти дальше, придумать что-то новое, небывалое, т.е. способен к подлинному творчеству, чего никак нельзя сказать о машине.
Создать машину, способную к творчеству, т.е. такую машину, которая бы действительно создавала что-то принципиально новое, а не копировала или компилировала бы уже открытые приемы и методы работы, видимо, принципиально не возможно. Сама идея творчества противоречит алгоритмическому подходу: творить - это и значит действовать не по правшам. «Правил творчества» нет и быть не может (хотя были попытки и творчество представить в виде алгоритма).
Польза от исследований в области искусственного интеллекта не ограничивается только лишь экономической выгодой. Если верно заключение о невозможности имитации функции человеческого интеллекта каким-то альтернативным по отношению к человеческому мозгу способом, то отсюда следует, что попытки создания искусственного интеллекта, если они окажутся успешными, помогут нам в конечном итоге понять нечто важное относительно природы нашего сознания и нашего ума. Ведь эти попытки, с этой точки зрения, могут быть успешными только в том случае, если нам удастся раскрыть (или угадать) механизм человеческого мышления и воспроизвести его каким-то искусственным путем. Но здесь необходимо учитывать тот факт, что полное понимание того или иного явления предполагает возможность его алгоритмического описания. Предполагаемая «неал-горитмизируемость» сознания исключает его полное и исчерпывающее описание и, соответственно, исключает полное и исчерпывающее понимание «сущности сознания», что, однако, само по себе не исключает возможности его искусственного воспроизведения.
Неалгоритмизируемость» сознания не означает, однако, что исследование человеческого сознания и мышления принципиально не возможно. Просто никакое описание, никакая теория сознания и мышления не сможет полностью исчерпать предмет исследования, и, таким образом, задача исследования сознания или интеллекта - это бесконечная задача, поскольку сам предмет - есть нечто бесконечное.
Именно об этом, по существу, и говорит нам «геделевский» аргумент. Моделирование человеческого мышления предполагает также и моделирование математического мышления. Но согласно теореме Геделя даже математическое мышление не может быть представлено с помощью какой-либо конечной совокупности алгоритмов. При этом никакое расширение исходного списка аксиом нам не поможет. Но последнее как раз и означает, что мышление человека-математика бесконечно превосходит мышление любой сколь угодно сложной машины-математика.
Используя математическую метафору можно сказать, что естественный и искусственный интеллект соотносятся примерно так же, как бесконечные счетные множества и множества мощности континуума. И те и другие множества - бесконечны. Но это бесконечности разных порядков, бесконечности не сводимые друг к другу.
Известная теорема Левенгейма-Сколема утверждает, что всякая математическая теория, ориентированная изначально на объекты, имеющие мощность континуума, истинна, также, и для некоторой счетной модели. В нашей аналогии это означает, что всякая конкретная интеллектуальная процедура естественного ума может быть переведена на язык алгоритмов. Но, тем не менее, «полный набор» интеллектуальных способностей человека никогда не может быть переведен в форму алгоритма, поскольку континуум все же не изоморфен счетному множеству.
Отрицательный результат теоретических и практических исследований в области искусственного интеллекта, а именно - констатация нашей неспособности создать полную алгоритмическую модель человеческого интеллекта - будет иметь, помимо всего прочего, и большое позитивное философское и этическое значение. Ведь фактически, мы впервые получим опытное доказательство того, что мы не машины! Для философии сознания это будет означать, что сознание следует мыслить как нечто незамкнутое, открытое в бесконечность. В этики - этот результат даст нам эмпирическое доказательство того, что мы подлинно свободны, обладаем свободой воли, и, следовательно, полностью ответственны за свои поступки.
Список научной литературыБыковский, Игорь Александрович, диссертация по теме "Философия науки и техники"
1. Алексеева И.Ю. Знание как объект компьютерного моделирования. // Вопросы философии, 1987, №3. С. 42-49.
2. Алексеева И.Ю. Искусственный интеллект и рефлексия над знаниями. // Философия науки и техники, 1991, №9. С. 44-53.
3. Амосов A.M. Искусственный разум. Киев, 1969. С. 122.
4. Анисов A.M. ЭВМ и понимание математических доказательств // Вопросы философии, 1987, №3, С. 29-40.
5. Анохин П.К. Избранные труды: Философские аспекты теории функциональной системы. М., 1978. С.113.
6. Антипенко Л.Г. Проблема неполноты теории и ее гносеологическое значение. М., 1986. С. 167.
7. Аристотель. Метафизика. М., JI., 1934.С. 345.
8. Армер П. О возможностях кибернетических систем. // Таубе М. Вычислительные машины и здравый смысл. М., 1964. С. 275.
9. Берг А.И. Информация, управление, интеллект. М., 1976.С. 374.
10. Ю.Бергсон А. Материя и память.// Собрание сочинений.Т. 1., 1992. С.203.
11. Библер B.C. Мышление как творчество. М., 1975. С.275.
12. Бирюков Б.В. О возможностях искусственного интеллекта // Кибернетика, перспективы развития. М., 1981. С. 106.
13. Бруно Д. Диалоги. М., 1949. С.291.
14. М.Бруно Д. О героическом энтузиазме. М., 1953. С.93.
15. Будущее искусственного интеллекта. Ред.: Карл, Левитин, Поспелов, Хорошевский. М., Наука, 1991.
16. Быковский И.А. Этапы изучения искусственного интеллекта // Философия науки: идеи, проблемы, перспективы развития. Саратов. 2002.
17. П.Валиев К. А. Квантовые компьютеры: можно ли их сделать большими? УФН, 169,( 6), 691 694 (1999).
18. Вейценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. С. 340.
19. Венценбаум Дж. Возможности вычислительных машин и человеческий разум. М., 1982. С. 120.
20. Винер Н. Кибернетика и общество. М. ИЛ, 1958.С.270.
21. Виноград Т. Программа, понимающая естественный язык.М.,1976. С.230.
22. Витгенштейн Л. Философские работы. М., 1994. С. 174.
23. Гаврилов А.В., Канглер В.М. Использование искусственных нейронных сетей для анализа данных. // Сб. научн. трудов НГТУ. Новосибирск: Изд-во НГТУ, 1999. - № 3(16). С. 78- 105.
24. Геранзон Б. Практический интеллект// Вопросы философии, 1998, №6. С. 42-49.
25. Глушков В. М. Кибернетика и искусственный интеллект. Кибернетика и диалектика. М.,1978. С. 162-168.
26. Гоббс Т. Избр. Произведения: в 2 тт. М., 1965. Т.2. с. 380.
27. Гольбах П. Избранные произведения: В 2 т. М., 1963., т.1., С. 164.
28. Грановская P.M., Березкина И.Л. Интуиция и искусственный интеллект. Л., 1991. С. 242.
29. Гурова Л. Л. Психологический анализ решения задач. Воронеж, 1976, С. 112.
30. Гуссерль Э. Феноменология как строгая наука. Новочеркасск, 1994. С.429.
31. Дрейфус X. Чего не могут вычислительные машины: Критика искусственного разума. М., 1978. С.258.
32. Дубинский А.Г. К определению понятия "интеллект" // Искусственный интеллект. 2001. - №4. С. 72-79.
33. Дубровский Д. И. Информация, сознание, мозг. М., 1980. С.1 58.
34. Дубровский Д. И. Психические явления и мозг. М., 1971. С.275.
35. Дубровский Д.И. Психика и мозг результаты и перспективы исследований // Мозг и разум. М., 1994. С. 148.
36. Ефимов Е.И. Решатели интеллектуальных задач. М., 1982. С. 143. 37.3ахарченко В.М., Скроцкий Г.В. Как создать оптический «мозг»//
37. Кибернетика, дела практические. М.,1987 С. 124.
38. Иваницкий А. М. Сознание: Критерии и возможные механизмы. // Мозг и разум. М., 1994. С.113- 120.
39. Иванов Е. М. Материя и субъективность. Саратов. 1998. С.70.
40. Иванов Е.М. К вопросу о «вычислимости» функции сознания // Topos Noetos. 2000.(2). С. 45- 79.
41. Иванов Е.М. Материя и субъективность. Саратов, 1998. С.112.
42. Ильенков Э.В. Диалектическая логика. М., 1974. С. 136.
43. Кант И. Критика чистого разума. Избранные произведения. Соч. в 6 т., т. 3. М.1964. С.321.
44. Касымжанов А.Х., Кельбуганов А.Ж. О культуре мышления. М., 1981. С.46.
45. Клике Ф. Пробуждающееся мышление: У истоков человеческого интеллекта. М., 1982. С.285.
46. Кондаков Н.И. Логический словарь-справочник. М., 1975. С.203
47. Криницкий И.А. Алгоритмы вокруг нас. М., 1984. С. 136.
48. Кругликов Р.И. «П.В. Симонов. Созидающий мозг. Нейробиологические основы творчества // Вопросы философии, 1994, №3. С. 65- 79.
49. Кузин JI. Т. Основы кибернетики, т. 2., С. 415.
50. Кушнир Г. А. Системы искусственного интеллекта. Лекция., М. 2001.С.122.
51. Лекторский В.А. Субъект, объект, познание. М., 1980. С.230.
52. Литвинова А.Л. Роль интуиции в научном познании // Философия о предмете и субъекте научного познания / Под ред. Э.Ф. Караваева, Д.Н. Разеева. СПб., 2002. С. 140-143
53. Лосский И.О. Чувственная, интеллектуальная и мистическая интуиция. М., 1995. С. 476.
54. Марголис Дж. Личность и сознание. М., 1986. С. 274.
55. Милютин Ю.Е. Здравый смысл и концепция вкуса Т. Рида // Эстетика сегодня: состояние, перспективы. Материалы научной конференции. 2021 октября 1999 г. Тезисы докладов и выступлений. СПб., 1999. С. 4356.
56. Молчанов В.И. Время и сознание. Критика феноменологической философии. М., 1988. С. 138.
57. Найсер У. Познание и реальность. М., 1981. С. 178.
58. Николай Кузанский Сочинения в 2-х т. М., 1980. С. 479.
59. Нильсон Н. Искусственный интеллект. Методы поиска решений. М., 1973.С. 236.
60. Новая философская энциклопедия. В 4 томах. Т. 2, М., 2001. С. 590.61 .Новая философская энциклопедия. В 4 томах. Т. 4, М., 2001. С. 590.
61. Патнем X. Философия сознания. М., 1999.С. 425.
62. Пахомова Е. П., Сусин П. В. Устройство распознования речевых сигналов. // тез. докл. юбил. конф. ученых Кур. Политехи. Ин-та, (Курск, 1994).-Курск, 1994. С. 78.
63. Пенроуз Р. Новый ум короля М., 2003. С.183.
64. Пенроуз Р. Новый ум короля. М., 2003.С456.
65. Петров С. Подходы и теории отражения в когнитивной психологии.// Философские науки. 1991. №2. С.61-73.
66. Платон. Диалоги. М., 1986. С. 326.
67. Платон. Соч.: в 3 т. М., 1968. Т. 1. С. 219.
68. Пойа Д. Как решать задачу. М., 1959. С. 186.
69. Пойа Д. Математическое открытие. М., 1970. С143. 71 .Поппер К. Логика и рост научного знания. М.: Прогресс, 1983. С. 107.
70. Поспелов Д.А. Профессионально и проблемно ориентированные интеллектуальные системы// Кибернетика, перспективы развития. М., 1981. С.84.
71. Поспелов Д.А. Семиотические модели в управлении// Кибернетика, перспективы развития. М., 1981. С.72.
72. Поспелов Д.А. Философия или наука. На пути к искусственному интеллекту. М., Наука, 1982. С. 184.
73. Прист. С. Теории сознания. М.: Идея- Пресс. 2000. С 287.
74. Райл Г. Понятие сознания. М.,2000. С. 179.
75. Растригин Л.А. Вычислительные машины, системы, сети. М., 1982. С.223.
76. Роджерс X. Теория рекурсивных функций эффективная вычислимость. М., 1972. С. 142.
77. Рорти Р. Философия и зеркало природы. Новосибирск. 1997. С.187.
78. Сахаров Д. Неизбежность нейробиологии // Знание сила. 1984. №10. С.28.
79. Серл Дж. Разум мозга компьютерная программа?// В мире науки. 1990. №3. С.7-13.
80. Словарь современного русского языка. М., 1956. С. 736.
81. Соколов Е.Н., Вайткявичус Г.Г. Нейроинтеллект: от нейрона к нейрокомпьютеру. М.,1989. С. 147.
82. Сотник С.Л. Конспект лекций по курсу «Основы проектирования систем искусственного интеллекта» М, 2001. С. 134.
83. Сперри Р.У. Перспективы менталистской революции и возникновение нового научного мировоззрения //Мозг и разум. М., 1994. С.20-44.
84. Спиноза Б. Избранные произведения: В 2 т. М., 1957. Т.1, с. 356.
85. Тит Лукреций Кар. О природе вещей. М., 1983. С. 138.
86. Толковый словарь/ Под ред. С.И. Ожегова. М., 1972. С.232.
87. Тьюринг А. Может ли машина мыслить? М., 1960. С. 157.
88. Тюхтин B.C. Соотношение возможностей естественного и искусственного интеллектов//Указ. Соч.М., 1973. С. 193.
89. Уинстон П. Искусственный интеллект. М., 1980. С.130.
90. Урсул А.Д. Филдософия и общенаучный характер проблемы искусственного интеллекта // Кибернетика, перспективы развития. М., 1981. С.114.
91. Фогель JL, Оуэне А., Уолш М. Искусственный интеллект и эволюционное моделирование. М., 1969. С.280.
92. Фрагменты ранних греческих философов. 4.1. От эпических космогоний до возникновения атомистики. М., 1989. С.191.
93. Франк C.J1 .Предмет знания // Франк СЛ. Предмет знания. Душа человека. СПб., 1995. С. 572.
94. Хилл Т.Н. Современные теории познания. М., 1965. С. 179.
95. Шалютин С.М. Искусственный интеллект: Гносеологический аспект. М., 1985. С. 479.
96. Штумпф К. Душа и тело // Новые идеи в философии. №8.1913. С. 285.
97. Э. Бэнерджи Теория решения задач. Подход к созданию искусственного интеллекта. М., 1972. С. 289.
98. Юм Д. Сочинения: В 2 т. М., 1965. Т.1. С. 746.
99. Ярвилехто Т. Мозг и психика. М., 1992. С.256.
100. Anderson A.R. Mind and Machines. N.Y. 1964. P. 132.
101. Armstrong D.M. Materialist Theory of Mind. L., 1969. P.235.
102. Artificial intelligence as science and artificial intelligence as engineering/ Narasimhan R. // Curr. Sci. 1993. - 64, №6. - P. 361-365.
103. Baars B. In the theatre of consciousness: the workspace of the mind, NY, 1997. P.321.
104. Baars В. In the theatre of consciousness: the workspace of the mind, NY, 1997. P. 345.
105. Baars B. J. Can Physics Provide Theory of consciosness. // PSYCHE, 1995., 2(8). P. 36-57.
106. Block N. On a confusion about a function of consciousness, 1994, MS; P.223.
107. Bock J.K. Towards a cognitive psychology of syntax: Information processing contributions to sentance formulation // Psychological Review, 1982, 89, P.l-47.
108. Bostrom N. How long before superintelligence? // Int. Jour, of Future Studies, 1998, vol. 2. P. 134.
109. Chalmers D.J. Facing Up to the Problem of Consciousness // Journal of Consciousness Studies, 2 (3), 1995, P.200 219;
110. Chalmers D.J. Mind, Machines, and Mathematics // PSYCHE, 1995, 2(9).
111. Dennett D. Consciousness Explanded. Boston, 1991. P. 14-37.
112. Feigle H. The "Mental" and the "Physical". Minneapolis, 1976. P.l 68.
113. Fodor J.A. The Mind-Body Problem // Sci. Amer., 1981 .№1.
114. Gray J. A. The content of consciousness: a neuropsychological conjecture // Behavioral and Brain Sciences, 1995, 18(4), P.659-722;
115. Hameroff S, Penrose R. Orchestrated Reduction of Quantum Coherence in Brain Microtubules : A Model of Consciousness //Toward a Science of Consciousness. The First Tucson Discussions and Debates. Tucson. 1996. P.l14.
116. Holender D. Semantic activation without conscious identification in dichotic listening, parafoveal vision, and visual masking // Behavioral and Brain Sciences, 1986, 9, P. 1-66.
117. Insert- model based microrobot with elastic hinges/ Suzuki Kenji, Shimoyma Isao // J. Microelectromech. Syst.-1994.- 3, №1 .-P. 4- 9.
118. Kahneman D., Treisman A. Changing views of attention and automaticity // Varieties of Attention, 1984, Academic Press. P. 123.
119. Kosugi Makoto// Denshi joho tsushin gakkai ronbunshi. D2. Trans. Inf. And Commun. Eng. D2. 1993.- 76, №6.-P. 1132-1139.
120. La Berge D. Automatic information processing: A review // Attention and Perfomance, 1981,9, P.173-186.
121. Lewis J.L. Semantic processing of unattended messages using dichotic listening // Jornal of Experimental Psychology, 1970, 85, P.220-227.
122. Lucas J.R. Mind, Machines, and Godel // Philosophy, 1961, 36, P. 112127.
123. Maudlin T. Between the Motion and the Act // PSYCHE, 1995, 2(2)
124. McCullough D. Can Humans Escape Godel? // PSYCHE, 1995, 2(4); McDermott D. Penrose is Wrong // PSYCHE, 1995, 2 (2).
125. Mitsubishi Electronic develops high precision image processing system for face recognition// JIPDEC INF. Quart. 1994. - №96. - P.37- 38.
126. Nerual network learning control of robot manipulators using gradually increasing task difficulty/ Sanger Terence D. // IEFF Trans. Rob. And. Autom.- 1994. -10. №3.- P.323- 333.
127. Oakley A.D., Eames L.S. The plurality of consciousness // Brain and mind, 1985, Methuen,P.217-251.
128. Penrose R. Beyond the Doubting of Shadow // PSYCHE, 1996, 2 (23). P.41-63.
129. Penrose R. Shadows of the Mind. L., 1993. P.321.132. Psyche, 1996,2(23).
130. Psyhe, 1995, 2(2),2(4),2(6),2(8),2(9).
131. Schacter D.L. Implicit memory: History and current status // J. of Experimental Psychology: Learning,Memory and Cognition, 1987,13, P. 501-518.
132. Shanon В. The function of consciousness // Toward a science of consciousness. The first Tucson discussion and debates, Tucson,!996. P.376.
133. Shor P.W. Algorithms for Quantum Computation: Discrete Log and Factoring // Proceedings of the 35th annual Symposium on the Foundations of Computer Science. IEEE. Computer Society Press. 1994. P. 124.
134. Simon H.A., Newell A. Heuristic Problem Solving. The next Advanse // Operation Research, vol.6. 1958. P.423.
135. Smart J.J. Philosophy and Scientific Realism. L., 1963. P.234.
136. Some methodological aspects of machine learning/ Boticario J. G., Mira J. // Cybern. And Syst. 1994. -25, №2. - P.233- 258.
137. Stapp H.P. Why Classical Mechanics Cannot Naturally Accommodate Consciousness bat Quantum Mechanics Can // Psyche. 2 (21). 1996. P.234-264.1A1. The current approaches in pattern recognition/ Kerka Jiri I I Kybernetika. -1994.-30. №2.-P. 159-15.
138. Treisman A.M., Squire R.,& Green J. Semantic processing in dichotic listening? A replication // Memory and Cognition, 1974,2, P.641-646.
139. Velmans M. Is Human Information Processing Conscious? // Behavioral and Brain Sciences, 1991,14, P.651-726.
140. Velmans M. Is Human Information Processing Conscious? // Behavioral and Brain Sciences, 1991,14, P.651-726.