3) 2.2 Может ли компьютер мыслить?
Выше говорилось о наличии второй линии в обсуждении вопроса: может ли машина быть субъектом интеллектуальной деятельности? Аргументы, которые мы считаем возможным отнести к этому направлению, весьма разнообразны, однако общая их черта состоит в том, что все они так или иначе фиксируют внимание на характеристиках, которыми обладает мыслящий человек и не обладает компьютерная система, но которые предполагаются необходимыми для субъекта подлинного мышления, подлинно интеллектуальной деятельности. В качестве таких характеристик иногда указываются наличие интуиции, познавательных интересов, чувств, желаний, стремлений, обусловливающих творческие способности человека.
Широкую известность приобрел мысленный эксперимент Дж.Серла, основой которого послужил критерий интенциональности (или интеллектуальности), сформулированный следующим образом: чтобы проверить некоторую теорию интеллекта, человеку достаточно спросить себя о том, что было бы, если бы его собственный интеллект работал в соответствии с теми принципами, которые, согласно проверяемой теории, являются общими для любого интеллекта. Непосредственное предназначение мысленного эксперимента Серла – послужить контраргументом для истолкования способности понимания как присущей некоторому агенту во всех тех случаях, когда от него можно получить ответы на вопросы, связанные с переданной ему (или введенной в него) информацией, хотя эти ответы не были представлены эксплицитно в формах организации передаваемой информации. Именно такая трактовка понимания позволила считать демонстрирующей подлинное понимание систему, разработанную Шенком. Эта система способна «выдавать» ответы о содержании рассказа, с которым ее предварительно «ознакомили», причем ответы таковы, что может создаться впечатление, будто их дает человек, прочитавший или услышавший данный рассказ. Серл готов признать в этом случае за машиной способность симулировать человеческое понимание. Те же, с кем он вступает в спор, полагают, что машина в этом случае в буквальном смысле слова понимает рассказ и, более того, объясняет человеческую способность понимать рассказы
и отвечать на вопросы о них. Аргумент Серла в этом споре – мысленный эксперимент, показывающий, что можно отвечать на вопросы о содержании рассказа, не понимая его. Эксперимент состоит в следующем.
Представим, что человек, совершенно незнакомый с китайским языком, но понимающий английский, заперт в комнате. Этому человеку дали папку с рукописями на китайском языке, папку со сценариями на китайском языке, а также правила, которые написаны по-английски и позволяют соотносить символы, содержащиеся в бумагах из второй папки, с символами, содержащимися в бумагах из первой папки, причем отношения устанавливаются только на основе внешних форм этих символов. Предположим далее, что этому человеку дали третью папку с китайскими символами, а также инструкции, написанные по-английски, которые дают возможность соотносить элементы из этой третьей папки с элементами из первых двух папок. Эти папки инструктируют, как от определенных форм символов из третьей папки перейти к определенным формам символов в первых папках. Не ставя этого человека в известность, давшие ему все эти бумаги с изображенными на них знаками называют одну папку «сценарий», другую – «рассказ», а третью – «вопросы». Более того, они называют символы, изображенные на бумагах, которые им возвращает человек, получивший третью папку, в соответствии с прилагаемыми к ней правилами – «ответами на вопросы», а совокупность самих правил, написанных по-английски, – «программой». Допустим, человек, запертый в комнате, хорошо выполняет инструкции и сами программы так составлены, что с точки зрения людей, находящихся вне комнаты, ответы испытуемого неотличимы от ответов человека, для которого
китайский язык – родной. Согласно трактовке понимания, против которой и возражает Серл, человек, запертый в комнате, должен считаться понимающим китайский язык. Однако считает Серл, из этого примера очевидно, что человек, о котором идет речь, не понимает ни слова по-китайски. Очевидно также, что какая-либо формальная программа иррелевантна пониманию рассказа этим человеком: в случае с китайским языком он имеет все, что может ввести в него с помощью программы, и не понимает ничего. В случае с английским языком он понимает все – и нет оснований полагать, что его понимание нуждается в какой-либо программе – т.е. в вычислительных операциях с чисто формально специфицированными элементами.
Мысленный эксперимент Серла вызвал многочисленные возражения. Дж.Мур, например, считает противоречивым сам эксперимент, поскольку количество и скорость операций с символами, которые потребуются обитателю «китайской комнаты» для того, чтобы выдавать ответы, позволяющие принять его за человека, владеющего китайским языком, было бы таково (даже при небольшом объеме текста), что субъект, успевающий выполнить все эти операции, должен обладать нечеловеческими способностями и, вообще говоря, не может считаться человеком. Так или иначе, мысленный эксперимент Серла может быть использован и как контраргумент для утверждения, что компьютер является субъектом знания. Ведь обитатель «китайской комнаты» имеет рукописи и работает с ними, однако это не значит, что он знает их. Вообще способность иметь знание неразрывно связана со способностью мыслить, понимать, решать. Тот, кто обладает одной из этих способностей, обладает и остальными. Тот, кто не обладает хотя бы одной из них, не обладает никакой другой из этих способностей. Не случайно Мак-Карти, приписывая термостату способность принимать решения, признает за ним и способность иметь взгляды (полагания) – ведь решения принимаются на основе каких-то знаний (или заблуждений). Трудно также вообразить субъекта, который бы мыслил, ничего не зная (он должен иметь хотя бы «знание, как» – т.е. знание о том, как надо мыслить), или имеющего знания, но не способного мыслить.
Обратим внимание, что многие из исследователей, чьи позиции в обсуждении вопроса «Может ли машина обладать ментальностью?» можно отнести ко «второй линии», не утверждают, что машина в принципе не может обладать ментальностью. Их аргументы направлены лишь против тезиса, что существующие машины уже обладают ментальностью, и против имеющихся упрощенных трактовок ментальности, позволяющих приписывать последнюю современным машинам. Сегодня достаточно широко распространено имеет мнение, что вопрос о том, будет ли создан «подлинный искусственный интеллект», может быть решен лишь эмпирически. Этой точки зрения придерживается и Серл. Он подчеркивает, что его мысленный эксперимент – свидетельство против тезиса «Ментальные процессы есть вычислительные процессы над формально определенными элементами», утверждая вместе с тем следующее: «Я не вижу причин, почему в принципе мы не можем сделать машину, понимающую английский или китайский язык, так как в некотором существенном смысле наше тело и мозг являются точно такими же машинами. Я вижу лишь очень сильные аргументы, чтобы утверждать, что мы можем сделать понимающую машину, если операции этой машины определены только в терминах вычислительных процессов над формально задаваемыми элементами, если эти операции определяются как подстановочный случай компьютерной программы».
Ряд исследователей, разделяющих мнение Серла о том, что вопрос о возможности создания машины, обладающей ментальностью, может быть решен лишь эмпирически, упрекают самого Серла в физикализме (связывание возможной ментальности технического устройства с физико-химическими характеристиками материала, из которого оно сделано). Эти исследователи более оптимистично настроены в отношении возможностей компьютерных программ. Так или иначе, вопрос о возможности появления машины, обладающей ментальностью не может быть сброшен со счетов ни на основе критики существующих машин, ни благодаря возможности рассматривать компьютер в качестве инструмента интеллектуальной деятельности человека.
Недооценка возможностей компьютера как автономного агента, роль которого не сводима к роли инструмента, используемого человеком, может оказаться опасной с прагматической точки зрения. Дж.Мур, например, отстаивая правомерность рассмотрения компьютера в качестве субъекта принятия решений, приводит в числе прочих следующий довод: важно рассматривать в некоторых контекстах работу компьютера как принятие решений еще и потому, что, отказываясь понимать ее таким образом, мы рискуем недооценить возможные последствия «столкновения» компьютеров с нашим обществом. «Делегировать власть в принятии решения, – пишет Дж.Мур, – значит делегировать управление (контроль). В конце концов, вопрос состоит в том, какие аспекты нашей жизни (если вообще какие-либо) могут быть управляемы (контролируемыми) компьютерами».
Аналогичные соображения могут быть связаны и с тезисом, что машина в принципе неспособна к творческой деятельности, к «новаторству». Уместно, в связи с этим, привести замечание А.Эндрю: «Нельзя уйти от того факта, что вычислительная машина действительно является послушным исполнителем программы. Но когда ЭВМ и программа становятся достаточно сложными, поведение машины может оказаться практически непредсказуемым (хотя оно и предсказуемо в принципе). Поэтому не лишено смысла рассматривать машину как устройство, принципиально способное к «новаторству».
(62.4) 3 ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ПОНЯТИЕ ЗНАНИЯ
(Философия техники: история и современность. Монография. Институт философии Российской академии наук. Ответственный редактор: В. М. Розин. — М.: 1997. // Электронная публикация: Центр гуманитарных технологий. — 10.07.2010. URL: http://gtmarket.ru/laboratory/basis/3369/3378 )
Что касается такой области, как ИИ, то не будет преувеличением сказать, что в 1980-е годы понятие знания потеснило понятия мышления и интеллекта, традиционно занимавшие почетное место в рефлексии профессионалов ИИ над своей деятельностью. Теория искусственного интеллекта стала иногда характеризоваться как «наука о знаниях, о том, как их добывать, представлять в искусственных системах, перерабатывать внутри системы и использовать для решения задач», а история искусственного интеллекта, исключая ее ранние этапы, — как история исследований методов представления знаний 6.
Расширение сферы применения ИС, переход от «мира кубиков» к таким более сложным областям, как медицина, геология и химия, потребовал интенсивных усилий по формализации соответствующих знаний. Разработчики ИС столкнулись с необходимостью выявить, упорядочить разнообразные данные, сведения эмпирического характера, теоретические положения и эвристические соображения из соответствующей области науки или иной профессиональной деятельности и задать способы их обработки с помощью компьютера таким образом, чтобы система могла успешно использоваться в решении задач, для которых она предназначается (поиск информации, постановка диагноза и так далее). Это привело к изменениям в характере данных, находящихся в памяти компьютерной системы, — они стали усложняться, появились структурированные данные — списки, документы, семантические сети, фреймы. Для элементарной обработки данных, их поиска, записи в отведенное место и ряда других операций стали использоваться специальные вспомогательные программы. Процедуры, связанные с обработкой данных, усложнялись, становились самодовлеющими. Появился такой компонент интеллектуальной системы, как база знаний.
Термин «знания» приобрел в ИИ специфический смысл, который Д. А. Поспелов характеризует следующим образом. Под знаниями понимается форма представления информации в ЭВМ, которой присущи такие особенности, как:
1. Внутренняя интерпретируемость (когда каждая информационная единица должна иметь уникальное имя, по которому система находит ее, а также отвечает на запросы, в которых это имя упомянуто).
2. Структурированность (включенность одних информационных единиц в состав других).
3. Связность (возможность задания временных, каузальных, пространственных или иного рода отношений).
4. Семантическая метрика (возможность задания отношений, характеризующих ситуационную близость).
5. Активность (выполнение программ инициируется текущим состоянием информационной базы).
Именно эти характеристики отличают знания в ИС от данных — «определяют ту грань, за которой данные превращаются в знания, а базы данных перерастают в базы знаний 8.
Пользуясь терминологией Л. Витгенштейна, можно сказать, что это понимание знаний как формы представления информации «работает» в рамках особой, характерной для ИИ, языковой игры. В ходе этой языковой игры могут появляться формулировки, способные вызвать недоумение эпистемолога, пытающегося оценить их с точки зрения привычных философских интерпретаций знания. К такого рода формулировкам относятся ставшее «общим местом» утверждение, что данные не являются знаниями, а также предложения использовать в качестве знаний тот или иной язык или выражения типа «под знаниями будем понимать такого-то вида формулы».
Вместе с тем только что приведенная характеристика знаний в ИС не является совершенно изолированной от того, что мы обычно понимаем под знанием. Такие черты, как внутренняя интерпретируемость, структурированность, связность, семантическая метрика и активность, присущи любым более или менее крупным блокам человеческих знаний и в этом смысле знания в компьютерной системе можно рассматривать как модель или образ (в широком понимании данного слова) того или иного фрагмента человеческого знания.
Однако связь знаний в специфическом для ИИ смысле со знанием в более привычном, «обычном», смысле не ограничивается лишь сходством некоторых структурных характеристик. Ведь значительная часть информации, представляемой в базе знаний ИС, есть не что иное, как знания, накопленные в той области, где должна применяться данная система. Исследование этого знания (зафиксированного в соответствующих текстах или существующего как незафиксированное в тексте и даже неартикулированное знание индивида-эксперта) под углом зрения задач построения ИС и определяет технологический подход ИИ к знанию как таковому.
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев