Сознание и вещи. Очерк феноменалистической онтологии. - страница 51
Сёрл считал, что ничто не мешает истолковать его аргумент именно так. Но подобное толкование может быть принято, лишь если будет показано, что описанная им система могла бы проходить тест Тьюринга. В самом деле, если Китайская комната не может проходить тест Тьюринга, т. е. если ее ответы, несмотря на их осмысленность, всегда можно будет отличить от ответов человека, то нет ничего удивительного в том, что мы не сможем с необходимостью приписывать ей специфически человеческого понимания.
Между тем доказательство того, что Китайская комната в ее изначальном виде не может проходить тест Тьюринга, отыскать несложно. Для демонстрации ее неработоспособности достаточно задать человеку в Комнате какой-нибудь индексикальный вопрос, т. е. вопрос, правильный ответ на который зависит от фактуального контекста. Можно, к примеру, заранее принести какой-то предмет в эту комнату и спросить, есть ли он в ней (условия эксперимента не запрещают этого). Или можно спросить: «Сколько сейчас времени?» Ясно, что в программе, имеющейся у человека-компьютера в этой комнате, не может быть заранее прописан правильный ответ на такой вопрос. Программист не может заранее знать, когда мы зададим его. Можно, правда, предположить, что такой ответ все же мог бы быть прописан, если бы программа была составлена всезнающим программистом. Но даже в этом случае нельзя было бы говорить о прохождении устройством, на котором она инсталлирована, теста Тьюринга, так как оно не смогло бы дать правильные ответы при других вопросах, отличных от тех, которые фактически задавались. Иными словами, оно давало бы правильные ответы случайно, тогда как прохождение теста Тьюринга предполагает, что правильные ответы даются неслучайно. Если игнорировать этот критерий, то можно будет утверждать, что тест Тьюринга может, к примеру, пройти и лототрон с иероглифами.
Если отбросить ситуацию с всезнающим программистом, то остается такой вариант: в программе может быть прописан какой-то осмысленный уход от ответа. Например, там может быть прописана такая реакция на вопрос о том, сколько сейчас времени: «У меня нет часов». Но дело в том, что тогда мы зададим другой вопрос: «Какой сейчас день недели?» и т. п.[55] Постоянные уклонения от прямых ответов на подобные вопросы вскоре со всей очевидностью покажут, что мы говорим с компьютером, а не с человеком.
Итак, Китайская комната в ее изначальной конструкции не может пройти тест Тьюринга. Можно, однако, внести в ее конструкцию некоторые изменения, которые сделают прохождение ею этого теста более вероятным. Можно поместить в Китайскую комнату робота. Этот робот будет снабжен специальной программой, которая позволит ему с помощью телекамеры и других устройств распознавать предметы, узнавать, сколько сейчас времени и т. п., и переводить полученные результаты в китайские иероглифы. Увидев иероглифы, означающие: «Есть ли в комнате воздушный шарик?» — человек-компьютер узнает с помощью своей программы, что этот вопрос надо переправить через особый терминал роботу (при этом он может и не знать, что он перенаправляет их именно роботу, и может не знать о его присутствии). Робот переводит вопрос на язык операционных команд, сканирует комнату, распознает воздушный шарик и выдает иероглифический ответ. Испытуемый перенаправляет этот ответ за пределы комнаты — он справился со своей задачей, хотя по-прежнему не понимает, о чем его спрашивали.
Хотя Сёрл специально не обсуждал возможность ответа Комнаты на индексикальные вопросы, он рассматривал вариант дополнения Комнаты роботом, полагая при этом, что мысленный эксперимент с Китайской комнатой ничем принципиально не отличается от мысленного эксперимента с Китайским роботом [56] (т. е. с Китайской комнатой, в состав которой входит робот).
Между тем два этих мысленных эксперимента существенным образом отличаются друг от друга. Главное отличие состоит в том, что человек в Китайской комнате знает всю ее программу, а человек в Китайском роботе — нет. В самом деле, человек в Китайском роботе не знает той части программы Китайской комнаты, которая позволяет входящему в ее состав роботу распознавать предметы. Но почему он не может знать ее? Согласно изначальным условиям мысленного эксперимента человек в Комнате знает всю ее программу — иначе эксперимент просто не имел бы смысла (ведь идея была в том, что человек полностью заменяет собой компьютер). Если Китайская комната действительно эквивалентна Китайскому роботу, то испытуемый должен знать всю программу и в Китайском роботе. Но представим, что он действительно узнает всю эту программу. В таком случае он узнает, с какими именно предметами (представленными в своих визуальных и других сенсорных характеристиках) соотносятся те или иные иероглифы. Если в программе это не прописано, робот не сможет распознать эти предметы. Понятно, что робот распознает предметы по каким-то формальным чертам их облика. Но, в конце концов, и люди распознают предметы, ориентируясь на их внешний вид.