Противники сильного ИИ, конечно же, подчас выдвигали конкретные доводы против этой позиции. Наиболее известным из них мы обязаны Джону Серлу, излагающему их, в частности, в статье 1980 г. «Сознания, мозги и программы». Я отвечу на них в рамках очерченной модели.
Китайская В ходе знаменитого аргумента против сильного ИИ,
комната Серл (Searle 1980) доказывает, что любая программа может быть имплементирована без порождения ментального. Доказательство построено на демонстрации того, что он считает контрпримером для тезиса о сильном ИИ: Китайской комнаты, внутри которой субъект, манипулирующий символами, симулирует человека, понимающего китайский язык. Китайская комната задумана как иллюстрация системы, имплементирующей программу — какой бы они ни была — при отсутствии релевантного сознательного опыта.
В изначальной версии Серл направляет свой аргумент скорее против машинной интенциональности , чем против машинного сознания, доказывая, что у Китайской комнаты отсутствует «понимание». Ясно тем не менее, что, по сути, речь идет о сознании. Ядро этого аргумента, если он верен, напрямую устанавливает, что система Китайской комнаты лишена сознательных состояний, таких как сознательное переживание понимания китайского языка. Серл считает, что интенциональность предполагает сознание, так что этого достаточно для того, чтобы убедиться, что комната лишена и интенциональности. Другие, впрочем, отрицают это. В любом случае, мы можем отвлечься от вопроса о связи между сознанием и интенциональностью и сформулировать проблему исключительно в терминах сознания. При этом можно чуть лучше высветить спорные моменты.
(Иначе говоря, мы можем разделить выводы Серла на две части: (1) программы не достаточно для сознания; и (2) программы не достаточно для интенциональности. Серл полагает, что из (1) следует (2), но другие отрицают это. Яснее всего будет, если сфокусировать аргумент о сильном ИИ на (1): все стороны согласятся, что, если (1) верен, то наиболее интересная разновидность сильного ИИ обречена, и даже Серл согласился бы, что опровержение (1) показало бы, что аргумент Китайской комнаты не проходит. Связь между сознанием и интенциональностью можно выделить тогда в отдельный вопрос, не критичный для аргумента против ИИ.
Действуя подобным образом, мы избегаем ситуации, при которой оппоненты выступают против (2), не беспокоясь об опровержении (1). К примеру, возражения, сфокусированные на связи между Китайской комнатой и ее окружением (Fodor 1980; Rey 1986), и возражения, процедурно или функционально объясняющие интенциональность (Boden 1988; Thagard 1986), могут в лучшем случае прояснить вопрос об интенциональности, но они никак не повышают правдоподобность вывода о сознательности Китайской комнаты. В результате они оставляют такое чувство, будто проблема, которую ставит перед ИИ этот сценарий, так и не была рассмотрена. Максимум, что они делают, так это оспаривают вспомогательную посылку о том, что интенциональность предполагает сознание [181].)
Аргумент Китайской комнаты разворачивается следующим образом. Возьмем любую программу, которая, как предполагается, передает какой‑то из аспектов сознания, к примеру, понимание китайского языка или наличие ощущения красного. Далее эта программа может быть имплементирована англоязычным субъектом, не знающим других языков, — будем называть его демоном — в черно — белой комнате. Демон вручную следует всем правилам, специфицированным программой, ведя записи о всех релевантных внутренних состояниях и переменных на клочках бумаги, при необходимости стирая и обновляя их. Мы можем также вообразить, что демон соединен с роботизированным телом, получая цифровые данные от перцептивных датчиков, манипулируя ими согласно программным спецификациям и посылая результирующие данные на моторные эффекторы. Здесь можно говорить о совершенной имплементации программы. Тем не менее кажется очевидным, что у демона нет сознательного понимания китайского и что он лишен ощущения красного. Поэтому имплементация программы не достаточна для этих сознательных переживаний. Сознание предполагает не только имплементацию релевантной программы.
Защитники сильного ИИ обычно возражали так, что они соглашались, что демон не понимает по — китайски, но доказывали, что понимание и сознание должны быть атрибутированы системе , включающей в свой состав демона и клочки бумаги. Серл заявлял об очевиднейшей неубедительности такого возражения. Действительно, в утверждении о том, что система, состоящая из субъекта и клочков бумаги, обладает коллективным сознанием, есть нечто контринтуитивное. На этой стадии аргумент заходит в тупик. Защитники ИИ доказывают, что система обладает сознанием, оппоненты находят этот вывод нелепым, и дальнейшее продвижение кажется затруднительным. Думаю, однако, что приведенные ранее доводы дают возможность выйти из тупика к сильному ИИ.
Допустим, что программа, о которой мы говорим, в действительности является комбинаторным автоматом, отражающим на нейронном уровне организацию носителя китайского языка, смотрящего на сочное красное яблоко. Демон в комнате имплементирует этот КоА, располагая клочками бумаги для каждого элемента вектора состояния и обновляя их на каждом временном шагу в соответствии с правилами перехода от состояния к состоянию. Мы можем развернуть аргументы блекнущих и скачущих квалиа, сконструировав спектр случаев, занимающих промежуточное положение между исходным носителем китайского языка и Китайской комнатой[182]. Сделать это нетрудно. Вначале мы можем вообразить, что нейроны в голове носителя китайского языка последовательно заменяются крошечными демонами, каждый из которых дуплицирует входяще — исходящую функцию нейрона[183]. При получении стимулов со стороны соседних нейронов демон производит соответствующие вычисления и, в свою очередь, стимулирует соседние нейроны. По мере замены все большего количества нейронов демоны берут верх, пока весь череп не оказывается заполнен миллиардами демонов, реагирующих на сигналы друг друга и на входящие чувственные данные, производящих вычисления, сигнализирующих другим демонам и, в свою очередь, стимулирующих моторные окончания. (Если кто‑то будет возражать, сказав, что все эти демоны никогда не смогут поместиться в череп, то взамен можно вообразить сценарий с устройствами радиопередачи, находящимися вне черепа.)
Далее, мы постепенно уменьшаем число демонов, удваивая их работу. Сперва мы заменяем два соседних демона одним демоном, делающим их работу. Новый демон будет фиксировать внутреннее состояние обоих симулируемых им нейронов — можно представить, что эта запись будет храниться на клочке бумаги в каждой из локаций. Каждый из этих клочков бумаги будет обновляться в зависимости от сигналов, поступающих от соседних нейронов и от состояния другого клочка бумаги. Консолидация демонов будет продолжена, пока в конце концов на их месте не окажется один — единственный демон и миллиарды крошечных клочков бумаги. Можно представить, будто каждый из этих клочков находится в месте изначального расположения соответствующего ему нейрона, а демон мечется по мозгу, обновляя каждый из этих клочков в качестве функции состояний соседних клочков и, при необходимости, чувственных данных.
Несмотря на все эти изменения, итоговая система имеет ту же функциональную организацию, что и исходный мозг. Каузальные отношения между нейронами в исходном случае отражаются в каузальных отношениях между демонами в промежуточном случае и между клочками бумаги — в конечном случае. В этом конечном случае каузальные отношения опосредуются действиями демона — клочок бумаги воздействует на состояние демона, который воздействует на соседний клочок бумаги — но они тем не менее являются каузальными отношениями. Если мы посмотрим на функционирование этой системы в ускоренном режиме, то мы увидим вихрь каузальных взаимодействий, точно соответствующий нейронному вихрю.
Мы, таким образом, сможем применить аргументы от блекнущих и скачущих квалиа. Если итоговая система лишена сознательного опыта, то должна существовать промежуточная система с блеклыми сознательными переживаниями. А это неправдоподобно по уже известным нам причинам. Мы можем также вообразить, что мы поочередно подключаем то нейронную цепь, то соответствующую ей резервную цепь, имплементированную демонами или одним демоном и клочками бумаги. Как и прежде, это привело бы к скачущим квалиа при неизменной функциональной организации, так что система не смогла бы заметить разницу. И опять‑таки гораздо более правдоподобным выглядит допущение, что квалиа не будут меняться.
Оправданным, стало быть, кажется заключение, что итоговая система имеет точно такие же сознательные переживания, что и исходная система. Если нейронная система порождала переживания чего‑то ярко — красного, то их будет порождать и система демонов, равно как и сеть клочков бумаги, опосредованных демоном. Но этот итоговый случай, разумеется, всего лишь копия системы, находящейся в Китайской комнате. Мы тем самым нашли позитивное основание считать, что та система действительно обладает сознательными переживаниями, в частности, теми, которые связаны с пониманием китайского языка и переживанием красного.
Подобный взгляд на вещи проясняет два момента, которые могли бы оставаться затемненными серловским описанием Китайской комнаты. Во — первых, «клочки бумаги» в комнате — это не просто кучи формальных символов. Они образуют конкретную динамическую систему, каузальная организация которой прямо соответствует организации исходного мозга. Это обстоятельство затемняется медлительностью связываемой с ними манипуляции символами, а также присутствием демона, осуществляющего эту манипуляцию; и тем не менее сознательный опыт порождает именно конкретная динамика этих клочков бумаги. Во — вторых, демон играет сугубо второстепенную роль. Ключевая каузальная динамика связана с клочками бумаги, соответствующими нейронам в исходном случае. Демон всего лишь оказывает вспоможение этим каузальным отношениям. Образ демона, мечущегося внутри черепной коробки, делает очевидным то обстоятельство, что атрибутирование переживаний системы демону было бы серьезным смешением уровней. Факт сознательности демона может искушать на предположение, что если переживания системы вообще где‑то существуют, то они существуют именно в демоне; но в действительности сознательность демона не имеет никакого отношения к функционированию системы. Функции демона могла бы выполнить простая таблица соответствий. Ключевым аспектом системы является динамика символов.
Аргумент Серла интуитивно впечатляет нас из‑за причудливости программной имплементации, затемняющей реализацию релевантной каузальной динамики. Но при избавлении от образов, навеваемых присутствием нерелевантного демона и медлительностью перетасовки символов, мы увидим, что каузальная динамика в комнате в точности отражает каузальную динамику в черепной коробке. И тогда предположение о том, что эта система порождает опыт, уже не будет казаться столь неправдоподобным.
В одной из версий серловского аргумента демон запоминает правила вычисления и внутренним образом имплементирует программу. Конечно, на практике люди не могут запомнить даже сотню правил и символов, не говоря уже о многих миллиардах, но можно вообразить, что демон с модулем суперпамяти был бы в состоянии запомнить все правила и состояния всех символов. В этом случае опять‑таки можно ожидать, что система породит сознательные переживания, которые не будут переживаниями демона. Серл доказывает, что если кто‑то и должен иметь переживания, то им может быть только демон, так как все процессы обработки информации протекают внутри него, однако эта ситуация должна рассматриваться как пример реализации двух ментальных систем в одном и том же физическом пространстве. Устройство, порождающее китайские переживания, никак не совпадает с организацией, порождающей переживания демона. Понимающее китайский устройство состоит в каузальных отношениях миллиардов локаций модуля суперпамяти; демон же, повторю, действует лишь в качестве каузального вспоможения. Это становится очевидным при рассмотрении спектра случаев, когда демон, мечущийся в черепной коробке, постепенно запоминает правила и символы — до тех пор, пока не интернализирует все их. Соответствующая структура постепенно перемещается из черепной коробки в суперпамять демона, но опыт остается неизменным и совершенно обособленным от переживаний демона.
Можно было бы предположить, что поскольку мой аргумент предполагает дуплицирование организации мозга, он устанавливает лишь слабую разновидность сильного ИИ, тесно увязанную с биологией. (При обсуждении возражения, называемого им «Симулятором мозга», Серл выказывает удивление тем обстоятельством, что сторонник ИИ выдвигает возражение, подразумевающее детальную симуляцию человеческой биологии.) Однако в таком случае мы недооценили бы силу этого аргумента. Программа симуляции мозга — это просто тонкий край нашего клина. Узнав, что одна программа может порождать ментальное даже при ее имплементации в духе Китайской комнаты, мы полностью нейтрализуем аргумент Серла, претендующий на универсальный характер: мы знаем, что демон и бумага в Китайской комнате действительно могут фундировать независимое сознание. И тогда мы открываем шлюзы для целого спектра программ, которые могли бы оказаться кандидатами на роль программ, порождающих сознательный опыт. Границы этого спектра — это открытый вопрос, но Китайская комната не является препятствием на этом пути.
Второй аргумент, выдвинутый Серлом (Searle 1984), Синтаксис звучит так: и семантика
1. Компьютерная программа имеет синтаксический характер.
2. Синтаксис недостаточен для семантики.
3. Сознания семантичны.
4. Поэтому имплементации программы недостаточно для сознания.
Опять‑таки, это выдвигается как аргумент об интенциональности, но он может рассматриваться и как аргумент о сознании. Серл считает, что главной разновидностью интенциональности является феноменологическая интенциональность, внутренне присущая сознанию.
Этот аргумент можно интерпретировать и критиковать разными способами, но главная его проблема состоит в том, что он не придает должного значения ключевой роли имплементации. Программы — это абстрактные вычислительные объекты, и они сугубо синтаксичны. Можно быть уверенным, что ни одна программа как таковая не может претендовать на наличие в ней ментального. Но имплементации программ — это конкретные системы с каузальной динамикой, и они не есть нечто сугубо синтаксичное. Имплементация имеет каузальный вес в реальном мире, и благодаря этому весу возникает сознание и интенциональность. Синтаксична программа; имплементация же имеет семантическое содержание.
Серл мог бы попробовать доказать, что и имплементации в определенном смысле синтаксичны — возможно, потому, что динамика имплементаций детерминируется формальными принципами. Однако «синтаксичность» имплементаций имеет смысл, никак не связанный с тем, в котором можно правдоподобно утверждать, что синтаксис недостаточен для семантики. Хотя тезис о том, что статичный набор абстрактных символов лишен внутренних семантических свойств, и может быть правдоподобным, гораздо менее очевидным кажется утверждение, что формально специфицированные каузальные процессы не могут фундировать ментальное.
Мы можем следующим образом спародировать этот аргумент:
1. Рецепты синтаксичны.
2. Синтаксис недостаточен для рассыпчатости.
3. Пирожные рассыпчаты.
4. Значит, имплементации рецепта недостаточно для пирожного.
В таком виде указанный дефект бросается в глаза. Аргумент не проводит различия между рецептами, являющимися синтаксическими объектами, и имплементациями рецептов, полноценными физическими системами в реальном мире. Вся работа, опять‑таки, проделывается отношением имплементации, соотносящим области абстрактного и конкретного. Рецепт имплицитно специфицирует класс физических систем, которые могут рассматриваться как имплементации этого рецепта, и именно эти системы обладают такими характеристиками, как рассыпчатость. Аналогичным образом программа имплицитно специфицирует класс физических систем, которые могут рассматриваться в качестве ее имплементаций, и именно они порождают такие характеристики, как ментальное.
Одно из популярных возражений про — это тив искусственного интеллекта (напр., Searle всего лишь симуляция 1980; Hamad 1989) состоит в том, что симуляция феномена не тождественна его воспроизведению. К примеру, при компьютерной симуляции пищеварения никакая пища в действительности не переваривается. Симуляция урагана — это не настоящий ураган; при его симуляции на компьютере никто не промокает. При симуляции тепла реальное тепло не выделяется. Так почему же мы должны ожидать появления настоящего сознания при его симуляции? Почему мы должны ожидать, что именно в этом случае вычислительный процесс не просто симуляция, но и нечто реальное?
Нет сомнений, что для многих свойств симуляция не является воспроизведением. Симулированное тепло — это не реальное тепло. Имеются, однако, и такие свойства, для которых симуляция есть воспроизведение. К примеру, симуляция системы с каузальной петлей есть система с каузальной петлей. Так что реальный вопрос состоит здесь в том, как отличить типы X, при которых симуляция X действительно есть X, от иных?
Ответ, как я полагаю, может быть таким: симуляция X оказывается X именно в тех случаях, когда свойство быть X является организационным инвариантом. Дефиниция организационного инварианта — такая же, как и раньше: свойство есть организационный инвариант, когда оно зависит только от функциональной организации фундирующей системы, а не от каких бы то ни было иных деталей. Вычислительная симуляция физической системы может ухватывать ее абстрактную каузальную организацию и гарантировать ее воспроизводимость при любой имплементации, вне зависимости от состава имплементирующей инстанции. Подобная имплементация будет в таком случае воспроизводить любые организационные инварианты изначальной системы, однако другие свойства будет утрачены.
Свойство быть ураганом не является организационным инвариантом, так как оно отчасти зависит от таких неорганизационных свойств, как скорость, форма и физических состав фундирующей системы (система с теми же каузальными взаимодействиями, очень медленно имплементированная на большом количестве бильярдных шаров, не была бы ураганом). Пищеварение и тепло сходным образом зависят от различных аспектов фундирующих физических субстратов, не являющихся всецело организационными. Мы могли бы постепенно заменять биологические компоненты пищеварительной системы — так, чтобы реакции, основанные на действии кислоты, заменялись каузально изоморфными взаимодействиями кусочков металла, и это уже не было бы пищеварением. Так что нам не стоит ожидать, что симуляция систем с этими свойствами сама будет обладать ими.
Но феноменальные свойства не таковы. Как я доказывал в главе 7, эти свойства представляют собой организационные инварианты. И если это так, то отсюда следует, что надлежащая симуляция системы с феноменальными свойствами сама будет обладать ими — благодаря воспроизведению высокодетализированной функциональной организации изначальной системы. Организационная инвариантность принципиально отличает сознание от других упомянутых свойств и открывает путь сильному ИИ.
Внешние возражения
По большей части меня интересовали внутренние возражения против сильного искусственного интеллекта, так как они наиболее значимы в контексте этой книги, однако я хотя бы упомяну некоторые внешние возражения. Я уже отмечал, что позиции противников внешних возражений против искусственного интеллекта изначально кажутся сильными: есть все основания считать, что законы физики, по крайней мере в их нынешнем понимании, вычислимы, и что человеческое поведение определяется физическими законами. Если так, то из этого следует, что вычислительная система может симулировать человеческое поведение. Тем не менее возражения время от времени выдвигаются, так что я кратко обсужу их.
Возражения Возможно, самое давнее внешнее возражение
от следования против ИИ состоит в том, что вычислительные сиправилам стемы всегда следуют правилам и поэтому неизбежно будут лишены ряда человеческих способностей, вроде креативности или гибкости. Во многих отношениях это самое слабое из внешних возражений, в частности из‑за его явной нечеткости и неконкретности. В самом деле, на него можно легко ответить, сказав, в свою очередь, что на нейронном уровне человеческий мозг может быть вполне механичным и рефлекторным, но это никоим образом не препятствует креативности и гибкости на макроскопическом уровне. Конечно, оппонент опять‑таки всегда может не согласиться с утверждением о механичности нейронного уровня, но в любом случае не видно хорошего аргумента в пользу тезиса о том, что вычислительная динамика на базовом каузальном уровне несовместима с креативностью и гибкостью на макроскопическом уровне.
Подобное возражение может подкрепляться неявным отождествлением вычислительных систем с символьными вычислительными системами: системами, производящими символьные манипуляции с высокоуровневыми концептуальными репрезентациями — в предельном случае, с системами, жестко выводящими заключения из посылок логики предикатов. Не исключено, что в этой области указанное возражение не лишено оснований, хотя даже это не очевидно. Но в любом случае класс вычислительных систем гораздо шире. К примеру, низкоуровневая симуляция мозга представляет собой некое вычисление, но не символьное вычисление того рода. Если говорить о промежуточном уровне, то к несимвольным вычислениям обращались коннекционистские модели в когнитивной науке. В этих случаях на каком‑то уровне система может следовать правилам, но это напрямую не отражается на поведенческом уровне; и в самом деле, коннекционисты часто говорят, что их метод позволяет получить гибкость на высоком уровне из низкоуровневой механистичности. Как выразился Хофштадтер (Hofstadter 1979), уровень, на котором я мыслю, не обязательно совпадает с уровнем, на котором я существую[184].
Возражения от теоремы Геделя
Иногда утверждается, что теорема Геделя показывает, что вычислительным системам свойственны ограничения, которых нет у людей. Теорема Геделя говорит нам, что в любой непротиворечивой формальной системе, достаточно богатой для произведения арифметических операций, будет существовать некое истинное предложение — Геделевское предложение системы — которое эта система не сможет доказать. И аргумент состоит в том, что поскольку мы, однако же, можем понять, что оно истинно, мы обладаем некоей способностью, отсутствующей у этой формальной системы. Из этого следует, что никакая формальная система не может в точности передавать человеческие способности. (Подобные аргументы выдвигали среди прочих Лукас (Lucas 1961) и Пенроуз (Penrose 1989, 1994).)
Краткий ответ на эти аргументы состоит в том, что нет оснований считать, что и люди могут знать об истинности соответствующих Геделевских предложений. В лучшем случае мы можем знать, что если система непротиворечива, то ее Геделевское предложение истинно, но нет оснований полагать, что мы можем установить непротиворечивость произвольных формальных систем[185]. В особенности это справедливо в случае сложных формальных систем, таких как система, симулирующая реакции человеческого мозга: задача определения непротиворечивости подобной системы вполне может выходить за пределы наших возможностей. Так что вполне может оказаться так, что каждый из нас может симулироваться сложной формальной системой F , такой, что мы не в состоянии установить, является ли она непротиворечивой. И если это так, то мы не сможем узнать, будут ли истинными наши собственные Геделевские предложения.
Существует множество вариаций этого геделевского аргумента, с реакциями оппонентов на это предположение и ответными репликами, нацеленными на то, чтобы обойти эти возражения. Здесь я не буду обсуждать их (хотя я подробно обсуждаю их в Chalmers 1995с). Эти вопросы связаны со множеством интересных и стимулятивных моментов, но, думаю, мы вправе сказать, что тезис о том, что геделевские ограничения не применимы к людям, никогда не был убедительным образом обоснован.
Возражения от невычислимости и континуальности
Приведенные выше возражения являют собой «высокоуровневые» аргументы о невычислимости когнитивных процессов. Но можно было бы попробовать атаковать позиции ИИ и на низком уровне, доказывая невычислимость физических процессов. К примеру, Пенроуз (Penrose 1994) доказывает, что в адекватной теории квантовой гравитации мог бы быть невычислимый элемент. Единственным основанием для такого вывода, однако, оказывается у него вышеупомянутый геделевский аргумент. В самой физической теории нет ничего, что фундировало бы этот вывод; так что если отбросить геделевский аргумент, то исчезает основание верить в невычислимые физические законы. В самом деле, можно было бы попробовать показать, что если каждый элемент мозга, такой как нейрон, имеет лишь конечное множество релевантных состояний, и если существует лишь конечное множество релевантных элементов, то релевантная каузальная структура мозга должна выражаться вычислительным описанием.
Это ведет нас к последнему возражению, которое состоит в том, что процессы в мозге могут быть сущностным образом непрерывными , тогда как вычислительные процессы дискретны, и что эта континуальность может быть сущностной чертой нашей когнитивной компетентности, так что никакая дискретная симуляция не смогла бы воспроизвести эту компетентность. Быть может, создавая приблизительную копию нейрона с помощью элемента, имеющего лишь конечное множество состояний, мы утрачиваем нечто жизненно важное в плане реализации его функций. Оппонент может ссылаться, к примеру, на «чувствительную зависимость от изначальных условий» в определенных нелинейных системах, означающую, что даже небольшая округляющая ошибка на одной из стадий процесса может вести к масштабным макроскопическим различиям на более поздней стадии. Если процессы в мозге именно таковы, то любая дискретная симуляция мозга будет приводить к результатам, отличающимся от тех, которые получаются в континуальной реальности.
Имеется, однако, серьезное основание полагать, что абсолютная континуальность не может быть сущностной характеристикой нашей когнитивной компетентности. Наличие фонового шума в биологических системах означает, что никакой процесс не может зависеть от требования такого уровня точности, который выходит за определенные пределы. За пределами, скажем, 10“[186] по соответствующей шкале неконтролируемые флуктуации фонового шума будут препятствовать дальнейшему уточнению. Иначе говоря, если мы создаем приблизительную копию состояния системы с таким уровнем точности (быть может, для надежности, еще более продвинутую — к примеру, на уровне Ю-20), то ее работа будет приносить те же результаты, которые реально могли бы быть и у той системы. Конечно, вследствие нелинейных эффектов эта приблизительная копия может продуцировать поведение, отличное от поведения, продуцируемого той системой по данному поводу, — но она продуцировала бы поведение, которое могла бы продуцировать и та система при несколько ином биологическом шуме. При желании мы можем даже приблизительно смоделировать сам процесс шума[187]. В результате симулирующая система будет обладать такими же поведенческими способностями , что и изначальная система, даже если она и продуцирует иное конкретное поведение в конкретных случаях. Мораль такова, что, когда речь идет о дуплицировании наших когнитивных способностей, близкое сходство не хуже тождества.
Верно то, что система с безграничной степенью точности могла бы обладать когнитивными способностями, которые никогда не смогла бы получить в свое распоряжение какая‑либо дискретная система. Можно было бы, к примеру, закодировать аналоговую величину, соответствующую реальному числу, n — ое бинарное значение которого равно 1, если и только если n — ая машина Тьюринга останавливается при любых данных на входе. Используя эту величину, совершенная континуальная система могла бы решить проблему остановки, с которой не может справиться никакая дискретная система. Наличие шума, однако, означает, что никакие биологические процессы не смогли бы надежно имплементировать эту систему. Биологические системы предполагают лишь лимитированную точность, и поэтому человеческие и животные мозги должны ограничиваться такими способностями, которые могут быть у дискретных систем.
Заключение
Вывод таков, что, похоже, не существует принципиальных преград, которые могли бы сдержать амбиции искусственного интеллекта. Внешние возражения не выглядят очень уж сильными. Внутренние возражения могли бы доставлять большее беспокойство, но анализ аргументов, подкрепляющих эти возражения, показывает, что они не являются убедительными; более того, если аргументы, которые я приводил в предыдущих главах, верны, то у нас имеется серьезное позитивное основание считать, что имплементация надлежащего вычисления повлечет за собой появление сознательного опыта. Так что перспективы машинного сознания можно признать хорошими — пусть и не на практике, но хотя бы в принципе.
Я мало говорил о том, какого рода вычисления, скорее всего, достаточны для сознательного опыта. В большинстве аргументов я использовал для иллюстрации понейронную симуляцию мозга; но вероятно, что для этого могло бы быть достаточным и множество других видов вычислений. Могло бы, к примеру, быть так, что вычисление, отражающее каузальную организацию мозга на гораздо более грубом уровне, передавало бы тем не менее те моменты, которые релевантны для возникновения сознательного опыта. Вероятно и то, что вычисления совершенного иного вида, соответствующие совершенно другим типам каузальной организации, при их имплементации тоже могли бы порождать богатые сознательные переживания.
Эта картина в равной мере совместима как с символьным, так и с коннекционистским подходом к познанию, а также и с другими вычислительными подходами. Действительно, можно было бы попробовать доказать, что центральная роль вычисления в исследовании познания связана с тем, что вычислительные конструкции могут передавать практически любую разновидность каузальной организации. Мы можем рассматривать вычислительные формализмы в качестве источника идеального формализма для выражения паттернов каузальной организации и, более того (в сочетании с методами имплементации), в качестве идеального инструмента для их воспроизведения. Какая бы каузальная организация ни оказалась ключевой для познания и сознания, мы можем ожидать, что какая‑то вычислительная конструкция сможет точно передать ее. Можно было бы даже попытаться показать, что именно эта гибкость скрывается за часто упоминаемой универсальностью вычислительных систем. Сторонники искусственного интеллекта не обязаны подписываться под каким‑то одним видом вычисления, только и достаточным для ментальности; тезис ИИ столь правдоподобен именно из‑за широты класса вычислительных систем[188].
Так что вопрос о том, какой именно класс вычислений достаточен для воспроизведения человеческой ментальности, остается открытым; но у нас есть серьезное основание верить, что этот класс не является пустым.