Тени разума. В поисках науки о сознании - страница 32
, получаемые на его выходе данные создают некоторую видимость понимания; когда же все необходимые вычисления посредством соответствующих манипуляций воспроизводит человек, какого-либо понимания в действительности не возникает. На этом основании Серл утверждает, что понимание как свойство мышления не может сводиться исключительно к вычислениям — хотя человек (не знающий китайского) и воспроизводит каждую вычислительную операцию, выполняемую компьютером, он все же совершенно не понимает смысла рассказанной истории. Серл допускает, что возможно осуществить моделирование получаемых на выходе результатов понимания (в полном соответствии с точкой зрения B), поскольку он полагает, что это вполне достижимо посредством компьютерного моделирования всей физической активности мозга (чем бы мозг при этом ни занимался) в тот момент, когда его владелец вдруг что-либо понимает. Однако главный вывод из «китайской комнаты» Джона Серла заключается в том, что сама по себе модель в принципе не способна действительно «ощутить» понимание. То есть для любой компьютерной модели подлинное понимание остается, в сущности, недостижимым.
Доказательство Серла направлено против точки зрения A (согласно которой любая «модель» понимания эквивалентна «подлинному» пониманию) и, по замыслу автора, в поддержку точки зрения B (хотя в той же мере оно поддерживает и C или D). Оно имеет дело с пассивным, обращенным внутрь, или субъективным аспектами понимания, однако при этом не отрицает возможности моделирования понимания в его активном, обращенном наружу, или объективном аспектах. Сам Серл однажды заявил: «Несомненно, мозг — это цифровой компьютер. Раз кругом одни цифровые компьютеры, значит, и мозг должен быть одним из них»>{18}. Отсюда можно заключить, что Серл готов принять возможность полного моделирования работы обладающего сознанием мозга в процессе «понимания», результатом которого оказалась бы полная тождественность внешних проявлений модели и внешних проявлений действительно мыслящего человеческого существа, что соответствует точке зрения B. Мое же исследование призвано показать, что одними лишь внешними проявлениями «понимание» отнюдь не ограничивается, в связи с чем я утверждаю, что невозможно построить достоверную компьютерную модель даже внешних проявлений понимания. Я не привожу здесь аргументацию Серла в подробностях, поскольку точку зрения C она напрямую не поддерживает (а целью всех наших дискуссий здесь является как раз поддержка C и ничто иное). Тем не менее, следует отметить, что концепция «китайской комнаты» предоставляет, на мой взгляд, достаточно убедительный аргумент против A, хоть я и не считаю этот аргумент решающим. Более подробное изложение и различные контраргументы представлены в [340], обсуждение — там же и в [203]; см. также [80] и [341]. Мою оценку можно найти в НРК, с. 17-23.
1.14. Некоторые проблемы вычислительной модели
Прежде чем перейти к вопросам, отражающим специфические отличия точки зрения C от A и B, рассмотрим некоторые другие трудности, с которыми непременно сталкивается любая попытка объяснить феномен сознания в соответствии с точкой зрения A. Согласно A, для возникновения осознания необходимо лишь простое «выполнение» или воспроизведение надлежащих алгоритмов. Что же это означает в действительности? Следует ли под «воспроизведением» понимать, что в соответствии с последовательными шагами алгоритма должны перемещаться с места на место некие физические материальные объекты? Предположим, что эти последовательные шаги записываются строка за строкой в огромную книгу>{19}. Являются ли «воспроизведением» действия, посредством которых осуществляется запись или печать этих строк? Достаточно ли для осознания одного лишь статического существования такой книги? А если просто водить пальцем от строчки к строчке — можно ли это считать «воспроизведением»? Или если водить пальцем по символам, набранным шрифтом Брайля? А если проецировать страницы книги одну за другой на экран? Является ли воспроизведением простое представление последовательных шагов алгоритма? С другой стороны, необходимо ли, чтобы кто-нибудь проверял, на самом ли деле каждая последующая линия надлежащим образом следует из предыдущей (в соответствии с правилами рассматриваемого алгоритма)? Последнее предположение способно, по крайней мере, разрешить все наши сомнения, поскольку данный процесс должен, по всей видимости, обходиться без участия (сознательного) каких бы то ни было ассистентов. И все же нет совершенно никакой ясности относительно того, какие именно физические действия следует считать действительными исполнителями алгоритма осознания. Быть может, подобные действия не требуются вовсе, и можно, не противореча точке зрения