рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Формирование современной естественнонаучной парадигмы

Формирование современной естественнонаучной парадигмы - раздел Философия, Российская Академия Наук Институт Философии Ф...

Российская Академия Наук
Институт философии

ФИЛОСОФИЯ НАУКИ

Выпуск 7

 

 

Формирование современной естественнонаучной парадигмы

 

 

Москва
2001


УДК 15

ББК 100

Ф-56

Ответственные редакторы

доктор филос. наук Л.Б.Баженов

кандидат филос. наук С.Н.Коняев

Рецензенты

доктор физ.-мат. наук А.И.Липкин

Философия науки

Выпуск 7

Формирование современной естественнонаучной парадигмы

Утверждено к печати Ученым советом Института философии РАН   В авторской редакции

РазделI. Естественнонаучная парадигма: общие вопросы

Е.А.Мамчур

Присутствуем ли мы при кризисе эпистемологических
оснований парадигмы физического знания?

Вынесенная в заголовок статьи фраза является почти дословным повторением вопроса, которым задавался несколько лет тому назад известный отечественный физик-теоретик И.Ю.Кобзарев. Обсуждая положение дел в физике элементарных частиц, он поставил вопрос: можем ли мы говорить о том, что мы присутствуем при кризисе теоретической парадигмы в этой области знания[i]? Заметим, что Кобзарев был прекрасно осведомлен о серьезных концептуальных изменениях в физике элементарных частиц, тем не менее он полагал, что его вопрос требует специального анализа. Мне представляется, что этот вопрос актуален не только для физики элементарных частиц, но и для естествознания в целом.

Есть весьма веские основания полагать, что мы присутствуем при становлении новой научной парадигмы. На наших глазах происходят глубокие концептуальные изменения в содержании естественнонаучного знания. Этот процесс носит постепенный характер, и улавливается он далеко не всеми. Тем не менее он совершается: идет мучительный и сложный, полный драматизма, хотя и не всегда осознаваемый, процесс обновления смысла и содержания основных научных категорий, ставших привычными и приобретшими характер устоявшихся стереотипов мышления; возникают новые категории, ранее не фигурировавшие в научном языке.

Однако сами по себе эти изменения еще не достаточны для того, чтобы говорить о возникновении новой парадигмы. Парадигма это не только содержание знания, это система целей и ценностей, разделяемых научным сообществом. Для того, чтобы можно было утверждать, что мы присутствуем при становлении новой парадигмы, должны быть зафиксированы не только содержательные (онтологические) изменения в научном познании, но и смысловые сдвиги на уровне эпистемологических оснований познавательного процесса. Анализируя проблему научных революций, великий реформатор естествознания В.Гейзенберг полагал, что о революции можно говорить лишь тогда, когда изменения происходят в самих основах науки, на уровне структуры мышления[ii]. Насколько глубокие изменения произошли с основными эпистемологическими концепциями ныне господствующей парадигмы? Этот вопрос требует анализа. Начнем, тем не менее, с онтологического аспекта, ограничившись при этом физическим знанием.

Несколько слов об онтологическом аспекте физической парадигмы

Если иметь в виду содержательный аспект становящейся парадигмы физического знания, то следует отметить, что он весьма далек от завершения. В самом деле, теоретической парадигмой современной физики (физики элементарных частиц и космологии) является квантовая теория поля. Наибольшего своего успеха эта теория достигла в начале 70-х гг., когда была создана так называемая стандартная модель, способная описать фундаментальные взаимодействия природы в рамках единой теоретической структуры — неабелевой калибровочной теории. Однако после создания стандартной модели последовал длительный период застоя, когда ничего существенного в концептуальном плане не было достигнуто, кроме детализированного экспериментального подтверждения теории.

Сторонники стандартной модели отмечают высокую степень согласования теории с экспериментом в рамках этой модели и полагают, что физика может считаться завершенной. Они уверены, что все основные законы субатомного мира уже открыты и систематизированы в стандартной модели.

Другие исследователи не приемлют такой точки зрения. Они указывают на недостатки стандартной модели, которая не решила многих очень важных задач, стоящих перед физикой элементарных частиц. Речь идет о проблеме унификации всех известных взаимодействий, проблеме квантовой гравитации, проблеме расходимостей, о наличии в теории слишком большого числа произвольных параметров. Имея в виду эти и другие многочисленные нерешенные проблемы квантовой теории поля, лауреат Нобелевской премии Ш.Глэшоу (один из создателей теории электрослабых взаимодействий, объединившей электромагнитные и слабые взаимодействия), нарочито заостряя ситуацию, заявил даже, что “квантовая теория поля просто неверна!”[iii]. И уж тем более она не может претендовать на роль некоторой окончательной теории, которая, как известно, является мечтой большинства физиков. Многие исследователи мира элементарных частиц полагают, что физика стоит на пороге новой концептуальной революции, которая будет означать радикальный пересмотр основных допущений и принципов квантовой теории поля.

Часть исследователей связывают свои надежды с так называемой струнной теорией. Она может включить в себя гравитацию, в ней устраняется основной источник расходимостей —дискретность пространственно-временных точек в квантовой теории поля. Пока, однако, не удалось получить ни одного проверяемого следствия из этой теории. И такая ситуация будет существовать до тех пор, пока не будут достигнуты нужные уровни энергии. Стандартная модель справедлива лишь для достаточно низких уровней энергии.

Переход к исследованию новых, более глубоких уровней микромира, который совершается в физике элементарных частиц, вызывает глубокие изменения традиционного понимания таких универсалий нашего бытия, как время, пространство, материя, поле, волна, частица. Квантовая теория поля сделала важный шаг вперед по сравнению с квантовой механикой в плане унифицированного описания универсума. В квантовой механике полагалось, что мир состоит из полей и частиц: электроны — это частицы, а электромагнитное поле — это поле. В квантовой теории поля этот дуализм преодолен. Здесь предполагается, что базисными ингредиентами универсума являются квантовые поля, а частицы представляют собой проявления этих полей.

С другими компонентами онтологии квантовой теории поля далеко не все складывается так благополучно. Картина мира, построенная на представлениях этой теории, оставляет нерешенными такие важные вопросы, как что такое пространство, время, причинность. Пока не удается согласовать фундаментальные компоненты современной теоретической парадигмы — квантовую механику и общую теорию относительности. Физики говорят, что на сегодняшний день у нас нет непротиворечивой картины мира. Есть лишь впечатляющие куски фрагментарного знания, которым еще только предстоит быть синтезированными в единое целое.

Более подробный анализ онтологического аспекта становящейся парадигмы в физическом познании не входит, однако, в намерения автора данной статьи. Эта задача по плечу лишь сообществу физиков в целом. Цель данной статьи — проанализировать изменения в эпистемологических основаниях, которое переживает современное физическое познание, и постараться выявить, насколько серьезный вызов брошен современному способу мышления в данной области научного знания.

“Горячие” эпистемологические точки формирующейся парадигмы

Процесс глубоких эпистемологических изменений классической парадигмы физического знания начался фактически уже 70 лет тому назад, когда были заложены основания квантовой механики и была сформулирована релятивистская физика. Уже тогда стало ясно, насколько серьезные изменения претерпевает просуществовавшая более 300 лет картезианско-ньютонианская картина мира. Релятивистская физика отвергла классические представления о пространстве и времени. Но она не внесла существенных изменений в эпистемологию. Именно поэтому многие исследователи полагают, что эта теория принадлежит классической парадигме. Действительно революционные изменения в эпистемологии были сделаны квантовой механикой[iv]. Эта теория потребовала не только введения новых понятий, ее открытие означало пересмотр основополагающих эпистемологических принципов научного знания. С появлением этой теории подверглись ревизии существующие представления о детерминизме (изменились представления о законе природы), произошли изменения в содержании идеалов объективности знания.

1. (А). Прежде всего, квантовая механика подвергла сомнению убеждение в универсальном характере причинности. Согласно господствующей ныне, так называемой стандартной, интерпретации квантовой механики эта теория является индетерминистской. Она не дает предсказаний, в какой именно точке пространства и в какой момент времени обнаружится та или иная элементарная частица. На основании этой теории удается предсказать лишь вероятность попадания элементарной частицы в данную точку пространства. Квантовая механика, в ее ортодоксальной интерпретации, не объясняет, почему один из атомов, в упаковке атомов радиоактивного урана, распадается в данный момент, а другой — пролежит не распавшимся еще тысячу лет; она обеспечивает только знанием вероятности такого распада.

Вероятности присутствовали уже в классической физике. Макроскопические системы, состоящие из очень большого числа частиц, удается описать лишь статистическими закономерностями. Вхождение статистики и вероятности в классическую физику объяснялось тем, что хотя каждая отдельная частица подчиняется обычным динамическим закономерностям классической механики, в результате огромного числа ее столкновений с другими частицами ее поведение приобретает случайный характер и оказывается прогнозируемым только вероятностным образом. В квантовую механику вероятность входит (согласно стандартной интерпретации) на других основаниях. Здесь вероятностный характер поведения частиц носит принципиальный характер. Не невозможность учесть все обуславливающие поведение частиц обстоятельства, а сама специфическая природа квантового объекта — вот что лежит в основе вероятностного способа описания в квантовой теории. Согласно стандартной интерпретации квантовой механики точного значения координаты частицы, так же как и точного времени распада атома, не знает не только познающий субъект — не знает сама природа.

Б). Дальнейшее развитие научного знания только углубило те изменения, которые произошли с детерминизмом в квантовой механике. Переход к анализу сложных, самоорганизующихся систем потребовал введения в научный обиход понятий самоорганизации, когерентности, спонтанности, нелинейности, хаоса, странных аттракторов, диссипативных структур, точек бифуркации и т д. В связи с исследованием процессов самоорганизации, антропным принципом в космологии и отходом от ортодоксального дарвинизма в теоретической биологии в методологии естественнонаучного познания встал вопрос о возможности реабилитации телеологического способа объяснения.

В физику и философию Аристотеля телеологизм входил очень прочно и на вполне законных основаниях: финальная причина выступала у античного мыслителя одной из четырех типов каузальных связей. Наука Нового времени лишила легитимности любые апелляции к телеологическим связям при объяснении явлений природы. Такого типа объяснения были исключены из методологии естественнонаучного знания как имеющие антропоморфный характер. Известна борьба, которую вели Ф.Бэкон и Р.Декарт против использования телеологических представлений при объяснении природных явлений. Эта борьба была направлена против Аристотеля и схоластов, канонизировавших аристотелевскую философию.

Во второй половине XX в. наблюдается своеобразный возврат к аристотелевскому пониманию каузальности, суть которого в многозначной трактовке причинности.

Вопрос о возможности телеологического способа объяснения является спорным. Здесь можно высказать лишь предварительную и очень общую точку зрения. Если телеология предполагает существование в природе сознательно поставленных целей, то телеологическое объяснение следует по-прежнему подвергать остракизму: таких целей в природе пока не обнаружено. (И.Кант справедливо утверждал, что “телеология ни в чем не находит полного завершения своих изысканий, кроме теологии[v]”.) Можно согласиться с точкой зрения, согласно которой даже в биологии, где широко используется язык телеологии (скажем, существование того или иного органа в живом организме объясняют, используя выражения “для того, чтобы”, “потому”, “с целью”) в точном, буквальном смысле слова телеологии нет, поскольку здесь не предполагается сознательная постановка цели[vi]. При любом упоминании целей при описании природных процессов этот термин следует брать в кавычки. Телеологическое объяснение в буквальном смысле слова может применяться лишь тогда, когда речь идет о человеческой деятельности. (Вопрос о том, способны ли животные сознательно руководствоваться целью, является спорным.) При объяснении природных процессов понятие цели носит метафорический характер.

Именно так трактовал вопрос о роли телеологического объяснения в познании законов природы И.Кант, уделивший этому вопросу достаточно много места в своих работах. Кант осознавал, что некоторые материальные процессы и некоторые продукты природы не могут быть объяснены только механическими причинами. “Суждение о них требует совершенно другого закона причинности, а именно причинности по конечным причинам[vii]”. Однако он неоднократно подчеркивал, что допущение существования конечных причин есть максима только рефлектирующей, но не определяющей способности суждения, т.е. она относится только к деятельности нашего рассудка, но не к самим объектам природы. (“Целесообразность природы есть, следовательно, особое понятие a priori, которое имеет свое происхождение исключительно в рефлективной способности суждения”, — пишет Кант[viii].) Кант утверждал, что предположение о существовании телеологических связей в природе является только регулятивным, но не конститутивным принципом познания. “Понятие о вещи как цели природы в себе, не есть, следовательно, конститутивное понятие рассудка или разума, но может быть только регулятивным понятием для рефлектирующей способности суждения..”[ix].

Отказываясь объяснять целесообразность природы деятельностью Творца (поскольку он стремился остаться в своем объяснении на точке зрения ученого и философа, а не на позиции верующего), Кант утверждал, что при объяснении целесообразного устройства или поведения биологических систем их следует рассматривать так, как если бы они были спроектированы, спланированы. (Недаром Кант употреблял как синонимы понятия телеологического и технического способов объяснения.)

Процессы, в которых системы движутся к некоторому конечному состоянию, уместно называть не телеологическими, а квазителеологическими. Иногда их называют телеономическими. При этом существуют разные виды развития систем к некоторому конечному состоянию. Известный биолог Э.Майр[x] различал между теми “целе”-направленными процессами, которые можно описать как совершающиеся под действием механических причин, и теми, которые не могут быть объяснены таким действием. К первым относится, например, падение тела на землю. Оно совершается под действием силы тяжести и может быть объяснено механической причиной. Майр справедливо утверждал, что такие процессы не являются телеономическими. С позиции Майра телеономическими являются процессы, которые осуществляются по некоторой программе, в которой конечная “цель” как раз и запрограммирована. В качестве примера Майр приводит процесс развития организма согласно программе, заложенной в ДНК. Этот процесс не может быть описан, как совершающийся под действием механической причины.

Майр, конечно, прав: процесс, совершающийся согласно некоторой программе, не является каузальным, если иметь в виду механические причины. Проект моста, по которому он строится, не является причиной возникновения моста. Или если уж здесь употреблять термин причина, то следует говорить о причине в аристотелевском смысле этого слова: проект моста, так же как и программа развития организма, заложенная в ДНК, являются одним из аспектов аристотелевской причины (финальной причиной). Так что развитие организма по программе ДНК это действительно телеономический процесс.

Таким образом, в природе совершаются не телеологические, а телеономические процессы. Что касается антропного принципа в космологии, возможно, здесь речь идет о другом типе связи, аналогичном тому, который был открыт в свое время К.Г.Юнгом и который он назвал “синхронистичностью” (хотя несомненно, что существует сходство между синхронистичностью и телеономическими процессами). Исследуя явления человеческой психики, Юнг пришел к выводу, что для объяснения природных явлений недостаточно использовать лишь два типа отношений — каузальные и акаузальные. Необходимо ввести представления о третьем типе связей, который, не будучи каузальным, не является в то же время и случайным, а представляет собой полное смысла и значения повторяющееся совпадение событий[xi]. Стремясь раскрыть загадку антропного принципа в космологии, известный космолог А.Линде говорит именно о синхронистичности, имея в виду некий третий тип связи. Думается, что нечто аналогичное синхронистичности лежит и в основании “перепутанных” событий (ЭПР-парадокс) в квантовой механике (см. по этому поводу[xii]).

Выявляется перспективность использования идей К.Юнга при реконструкции взаимоотношения науки и других сфер культуры[xiii]. Идеям синергии в философии православной религии посвятил свою недавнюю книгу известный отечественный исследователь С.С.Хоружий[xiv].

Все эти вопросы требуют, конечно, дальнейшего специального анализа. Как бы то ни было, однако важно обратить внимание на весьма характерное для современного научного познания явление: среди исследователей самых разных областей знания растет убеждение, что только каузальные, в том числе и вероятностные, представления не могут охватить всего богатства существующих в природе связей. Требуется обращение к каким-то иным представлениям, способным расширить наше понимание причинности.

В). Был брошен вызов не только универсальному характеру причинности. Изменился сам характер закона науки. Закон стал не только вероятностным. Законы стали необратимыми. В них на самом легитимном основании вошла стрела времени. Необратимость входила уже в классическую термодинамику. Но там она носила вероятностный характер: в принципе, хотя и с ничтожной долей вероятности, можно было говорить, что процесс перехода тепла пойдет самопроизвольно в обратном направлении, т.е. от горячего тела к холодному. Такое направление процесса не запрещалось термодинамикой, оно полагалось только маловероятным. В современной термодинамике открытых систем необратимость становится принципиальной.

В классической физике законы считались обратимыми. Необратимость, фиксируемая вторым началом термодинамики, объяснялась макроскопическим характером наших наблюдений. Ничего не изменило в этом отношении ни создание релятивистской физики, ни формирование квантовой механики. Ситуация изменилась только тогда, когда в поле научного исследования оказались хаотические, в высокой степени неравновесные состояния. В таких состояниях системы склонны к самоорганизации, в основе которой лежат необратимые и направленные от прошлого к будущему процессы. Согласно современным представлениям[xv] утверждение о том, что законы природы обладают обратимостью, справедливо только для определенного класса систем. В общем же такое утверждение неверно.

Г). Еще одно изменение в понятии законов природы состоит в признании их исторического характера. На современном этапе развития физического знания в физику и космологию вошла история. В классической физике предполагалось, что законы существуют постоянно и носят вневременной характер. Могут меняться материальные структуры и наше понимание этих структур, но фундаментальные законы остаются неизменными и существуют вечно. Согласно современным представлениям физические законы не существуют вне времени: они возникают на определенных этапах развивающейся Вселенной. Так, если верно то, что после 10-43 сек. после Большого взрыва Вселенная могла быть описана Теорией Великого Объединения, то это означает также и то, что до этого времени законов, фиксируемых этой теорией, просто не существовало. Точно так же, если верно, что с момента после 10-35 сек. Вселенная перешла в состояние, когда она могла быть описана стандартной моделью, то это означает, что законы, фиксируемые стандартной моделью, появились именно в это время. С течением времени, когда Вселенная остывала и расширялась, она перешла в стадию, когда к ней оказались применимы законы электрослабой теории С.Вайнберга, А.Салама и Ш.Глэшоу, что по современным воззрениям опять-таки означает, что эти законы как раз и возникли на этом этапе; а затем, в результате спонтанного нарушения симметрии, появились законы электродинамики.

Признание исторического характера физических законов является серьезным сдвигом в нашем понимании законов природы. “Утверждать, что КЭД (квантовая электродинамика) — эффективная теория, являющаяся низкоэнергетическим приближением теории электрослабых взаимодействий, значит все еще оставаться в пределах традиционных представлений. Но сказать, что теория электрослабых взаимодействий является к тому же результатом эволюционного, исторического процесса — значит добавить некоторое новое измерение к существующей объяснительной схеме”, — справедливо утверждает известный историк науки С.Швебер[xvi].

Аналогичный вывод делается и относительно биологических законов. Ссылаясь на работы Р.Левонтина[xvii], Э.О.Вилсона[xviii] и др., С.Швебер пишет[xix], что, анализируя законы биологии, многие авторы приходят к выводу, что все теоретические обобщения относительно мира живого являются случайными выходами эволюции. Не существует неизменных биологических законов. Швебер приводит удачную метафору С.Гоулда, утверждавшего, что если бы лента жизни подобно магнитофонной ленте могла бы проигрываться много раз, она давала бы каждый раз различные результаты[xx].

Д). И, наконец, высказывается уже почти фантастическое предположение, что законы могут подвергаться естественному отбору[xxi].

2. Квантовая физика впервые бросила вызов не только универсальному характеру причинности. В ней были поставлены под сомнение такие регулятивные принципы классической физики, как реализм в описании квантово-механических явлений и объективность результатов измерения. В отличие от классической физики, в которой познающий субъект открывал явление, в квантовой — он некоторым образом создает его. (Недаром один из наиболее интересных зарубежных философов науки Я.Хакинг вводит в свою книгу специальную главу о “создании” явлений в лабораторном эксперименте.) Подверглась сомнению способность квантовой механики описать явления без ссылки на наблюдателя — а ведь такой способ описания был само собой разумеющимся в классической физике. На основании этой особенности квантово-механического описания микрореальности высказывается мнение, что идеал объективности знания в современной физике не работает, и наука должна отказаться от поисков истины. Мы должны признать, утверждают сторонники этой точки зрения, что “Давнее противостояние между идеалом знания, объективность которого устанавливается полным отсутствием какой бы то ни было ссылки на познающего субъекта, и чисто прагматической концепцией знания стало достоянием прошлого”[xxii]. Утверждается, что современная наука должна отказаться от поисков истины, если под истинным понимать знание, “отрезанное от собственных корней” (т.е. от самого субъекта. — Е.М.).

3. И наконец, в современном физическом знании происходит изменение в понимании еще одного основополагающего методологического принципа, лежащего в основании научной рациональности. Речь идет об унифицирующей функции научного знания. Стремление найти за видимой сложностью невидимую простоту всегда полагалось важнейшей особенностью научного познания. Это стремление приобретало название то принципа простоты, то эстетических критериев. Особенно ярко оно проявляет себя в физике элементарных частиц. Здесь требование унификации (единства) знания формулируется явно в качестве ведущего методологического принципа. Достаточно вспомнить историю этой области физического знания: с какой радостью воспринималось открытие каждой очередной симметрии в мире элементарных частиц, поскольку она давала возможность сгруппировать большое число частиц в семейства; с каким восторгом была встречена теория электрослабых взаимодействий (Глэшоу, Вайнберг, Салам), приведшая к объединению электромагнитных и слабых взаимодействий; какие усилия затрачиваются физиками на достижение Великого объединения, которое позволило бы представить по крайней мере три из существующих в природе взаимодействий (всего их, как известно, четыре) в качестве проявлений некоего единого взаимодействия; и как, наконец, огорчаются физики по поводу того, что никак не удается включить в единую физическую картину гравитационное взаимодействие. Как верно отмечает Т.Цао в статье, опубликованной в этом же сборнике, поиски квантовой теории гравитации стимулируются не столько открытием неких аномальных экспериментальных фактов, настоятельно требующих новой теории для своего объяснения, сколько именно требованием унификации (вкупе с требованием непротиворечивости) взаимодействий при создании удовлетворительной картины физического мира.

В настоящий момент универсальный характер этого требования подвергается сомнению. Теоретики синергетики пишут о нем как о мифе, который лежал у истоков науки и от которого теперь пришла пора отказаться[xxiii]. Среди исследователей субатомного мира нет единства по вопросу о том, каким будет будущее знание в плане его организации. Часть физиков являются приверженцами идеи некоей “окончательной теории” и выражают уверенность в возможности ее создания. Другие — думают иначе. Они полагают, что мир устроен неустранимо иерархическим образом. Это означает, что мир представляет собой несводимые друг к другу уровни организации материи. В этой связи утверждается, что единственной реальной стратегией для теоретической реконструкции мира элементарных частиц является программа “эффективных теорий”. Эта программа предполагает бесконечную и не сводимую к некоему конечному состоянию серию теорий, каждая из которых является справедливой лишь для одного из уровней организации материи. Предполагается, что эти уровни связаны между собой каузально и являются, таким образом, лишь квази-автономными. Тем не менее законы, управляющие поведением объектов на разных уровнях, не сводимы друг другу. Так же несводимы они и к некоему “окончательному”, “последнему” уровню.

В отличие от стратегии “окончательной” теории стратегия “эффективных” теорий является антиредукционистской. Если упоминать только очень известных физиков, то среди ее сторонников можно назвать Ш.Глэшоу. Как явствует из его недавно опубликованной статьи, он не верит в создание некоей окончательной теории, хотя и признает, что сама идея такой теории является великим стимулом в творчестве ученых, занимающихся теоретической реконструкцией мира элементарных частиц. Другой Нобелевский лауреат, разделивший премию с Глэшоу, С.Вайнберг, напротив, является убежденным сторонником идеи окончательной теории. Характерно в этом плане название одной из последних книг С.Вайнберга: “Мечта об окончательной теории”[xxiv]. Вайнберг полагает, что одним из возможных кандидатов на роль окончательной теории является теория струн[xxv].

Меняется многое, но далеко не все

Таким образом, не только содержательная, онтологическая часть современной парадигмы претерпевает изменение. Меняются и ее эпистемологические аспекты. Хотелось бы, тем не менее, обратить внимание на то, что эти изменения отнюдь не носят глобального характера, поскольку в главном, в своих основаниях, эпистемологические предпосылки остаются неизменными.

1. В самом деле, как бы ни изменялись представления о законе, остается неизменным одно: поиски законов продолжаются во всех областях знания и на всех уровнях организации материи. Они осуществляются даже при исследовании хаотических систем, где характер законов претерпевает наиболее глубокие изменения. Как определяют их Пригожин и Сенгерс, хаотические системы являются крайним случаем неустойчивых систем, для которых описание в терминах траекторий оказывается недостаточным, поскольку траектории со временем расходятся экспоненциально. Это делает невозможным сколько-нибудь определенные предсказания будущего поведения систем.

Казалось бы, ситуация почти безнадежная. Но это не так. Напротив, по свидетельству самих ученых, “... физики все более и более обращаются к природе наиболее сложных и хаотических проявлений природы, пытаясь сконструировать законы для этого хаоса”[xxvi]. Так для теоретической реконструкции поведения хаотических систем уже удалось разработать новый концептуальный аппарат, использующий вероятностное описание в терминах ансамбля траекторий[xxvii].

2. Как бы ни сдвигалась граница между субъектом и объектом познания, стремление к объективности научного знания остается неизменным. Такое утверждение может показаться неожиданным: ведь существует весьма распространенное мнение, что как раз с объективностью-то в новой парадигме далеко не так все безоблачно (см. приведенное выше мнение на этот счет И.Пригожина и И.Стенгерс). Остановимся на данном вопросе подробнее.

Вопрос об объективности квантово-механического описания реальности представляется дискуссионным и трудным для разрешения в значительной мере из-за неоднозначности самого термина объективность. В проблеме объективности квантовой механики оказываются слитыми, не расчлененными две на самом деле различных проблемы, связанные с различным пониманием самого термина “объективность” теории. Одна из них это проблема объектности описания (термин Э.Шредингера), т.е. описание реальности такой, как она существует сама по себе, без отсылки к наблюдателю. Другая — проблема объективности в смысле адекватности теоретического описания действительности. (У этого понимания объективности существует и субъектный аспект: это интерсубъективность, т.е. независимость теорий от мнений, точек зрения различных научных школ, исследовательских групп и, конечно же, отдельных ученых. Если такая объективность перестает достигаться в науке, то торжествует релятивизм.)

В методологическом сознании оба понятия часто оказываются неразличимыми, как бы “склеенными”, хотя на самом деле речь идет о разных вещах. И это порождает путаницу в аргументации и спорах. Такое смешение демонстрируют, например, Пригожин и Стенгерс, когда они рассуждают об идеале объективности в современной физике. Вчитаемся еще раз в приведенную выше цитату из их книги. “Давнее противостояние между идеалом знания, объективность которого устанавливается полным отсутствием какой бы то ни было ссылки на познающего субъекта, и чисто прагматической концепции знания стало достоянием прошлого”. Но “объективность как возможность обойтись без ссылки на познающего субъекта” и “прагматическая концепция знания”, под которой понимается отказ от поисков истины, вовсе не противостоят друг другу. Это разные характеристики знания. Первая — означает объектность описания. Это ее имели в виду Пригожин и Стенгерс, когда выражали свое несогласие с Эйнштейном, для которого идеалом было знание, описывающее реальность как она существует независимо от сознания человека. Это именно объектность имели они в виду, когда уверяли, что облик знания, “отрезанного от своих собственных корней”, является иллюзорным. Но история становления и утверждения квантовой механики показывает, что можно отказаться от объектности описания, или, если хотите, от реализма в описании, но тем не менее продолжать быть приверженцем истины в науке. (Что и произошло с большинством сторонников ортодоксальной интерпретации квантовой механики.)

Таким образом, прежде чем отвечать на вопрос, дает ли квантовая механика объективное описание и является ли работающим здесь идеал объективности, следует развести, расчленить эти два понятия.

А теперь, имея в виду существование двух разных смыслов понятия “объективность”, попытаемся ответить на вопрос, работает ли все еще идеал объективности знания в квантовой механике.

Рассмотрим вначале круг проблем, связанных с объектностью описания. Здесь имеется по крайней мере два аспекта.

Первый связан с декартовским разделением между субъектом и объектом познания. Вопрос об объективности в этом случае — это вопрос о независимости самой микрореальности или ее описания от сознания наблюдателя. Вопрос ставится так: что описывает квантовая механика — микроявления или микроявления плюс сознание наблюдателя? Он действительно не раз поднимался физиками, в том числе и творцами самой квантовой теории. Его ставили Э.Шредингер, Дж.Уилер, Ю.Вигнер, А.Шимони и др. Часть физиков при этом отрицали такую возможность (Э.Шредингер), часть относились к идее положительно. Что при этом, однако, подразумевалось под сознанием и как именно предполагалось учитывать фактор сознания в теоретической реконструкции микрореальности, осталось неясным. Дальше деклараций о необходимости такого учета дело, по-видимому, не пошло.

Вот как пишет об этом, например, А.Шимони. “Мне представляется правдоподобным, что все попытки объяснить редукцию волнового пакета чисто физическим путем окажутся несостоятельными. Тогда останется лишь один тип объяснения перехода от квантово-механической потенциальности к актуальности: включение сознания. Я думаю, что Шредингер был не прав, исключая такую возможность априорно. Возможно эмпирические данные покажут необходимость наложения новых ограничений на процедуру объективации....и выявят некоторые несовершенства на физическом уровне, некоторые, так сказать, трещины (fissures), через которые проявит себя существенно ментальный характер мира”[xxviii]. Как видим, утверждения Шимони носят гипотетический и очень осторожный характер. При этом сам А.Шимони добавляет, что для того чтобы обсуждаемый тезис перестал быть чистой спекуляцией, необходимо, чтобы были проделаны тщательные эксперименты, которые к тому же должны быть воспроизводимыми[xxix].

Впрочем, вопрос продолжает дискутироваться[xxx]. Большая часть физиков весьма критически относятся к возможности включения сознания наблюдателя в измерительную процедуру и отвергают саму эту возможность. Ссылаются, в частности, на то, что в процедуре измерения наблюдатель вполне может быть заменен компьютером, и в этом случае речь вообще не может вестись о чьем-либо сознании[xxxi] . Следует отметить также, что проблема сознания в настоящее время воспринимается представителями всех традиционно связанных с изучением этого феномена научных дисциплин, как одна из самых сложных и весьма далеких от разрешения. И пока она не будет прояснена, вряд ли вопрос об участии сознания наблюдателя в процедуре квантово-механического измерения может обсуждаться действительно серьезно. Так что мы не будем больше касаться его в данной статье.

Отметим только, что существуют достаточно серьезные попытки показать, что все концепции, авторы которых провозглашают необходимость учета сознания наблюдателя, на самом деле не выглядят обоснованно[xxxii]. На этом основании утверждается, что все заявления об исчезновении границы между субъектом и объектом познания в квантовой механике не имеют под собой достаточных оснований и что в этом отношении квантовая механика не отличается от классической. Если это и в самом деле так, тогда в этом плане никакой угрозы объективности квантовой механики не существует.

Второй аспект связан с тем, что, как уже утверждалось, в квантовой механике (по крайней мере в ее стандартной интерпретации) в отличие от классической не открывают явления, которые существуют до любого акта измерения или описания, а создают их в процессе измерения, и только их и описывают, не “добираясь” до самой реальности. И если объективность понимать как описание действительности самой по себе, то квантовая механика и в самом деле не является объективной. (Впрочем, и здесь не все так просто и однозначно, поскольку многие свойства микрообъектов, такие как спин, масса, заряд — не зависят от макроприборов и, следовательно, характеризуют объект сам по себе. Действительно зависят от прибора такие свойства микрообъекта, как его положение в пространстве и импульс[xxxiii].)

Что касается объективности в смысле истинности, то, как представляется, здесь можно смело утверждать, что квантовая теория объективна в той же мере, что и классическая физика. В данном отношении при переходе от классической парадигмы к неклассической ничего не изменилось.

Идеал объективности знания, в смысле адекватности его положению дел в мире и его интерсубъективности, является таким же важным и значимым в неклассической физике, как и в классической. И там и здесь, делая скидку на историческую ограниченность и относительность теории, обусловленных уровнем существующей системы знаний, экспериментальными возможностями данного времени и т.д., можно утверждать, что хотя бы относительная объективность описания достигается.

Правда, методы достижения такой объективности в неклассической физике отличаются от методов классической. В отличие от классической физики, где для получения информации об объекте достаточно экспериментальной установки одного типа, для получения информации о микрообъекте необходимо использование двух типов экспериментальных установок (одна из них для исследования волновых свойств микрообъекта, другая — для корпускулярных), которые обеспечивают наблюдателя двумя типами взаимоисключающей информации, которые, тем не менее, некоторым образом дополняют друг друга.

Эта картинка противоречит здравому смыслу (если, конечно, имеется в виду здравый смысл представителя классической науки). Тем не менее физики, по крайней мере те, которые придерживаются стандартной интерпретации квантовой механики, убеждены, что эта картина верна, что сколь бы странной она ни была, в ней зафиксировано, пусть относительное, знание о микрореальности. Экспериментальное подтверждение нарушения известных неравенств Белла явилось очень сильным аргументом в пользу того, что стандартная интерпретация квантовой механики является адекватной действительности[xxxiv].

Цель науки — достижение объективно истинного знания. Наука перестала бы быть наукой, если бы она отказалась от этой цели. Воспользовавшись терминологией И.Канта, можно утверждать, что достижение этой цели является потребностью самого Разума. Разум страстно стремится к этой цели и будет испытывать чувство интеллектуального дискомфорта до тех пор, пока не достигнет ее. Какие бы перепитии ни испытывала наука, она не откажется от этой цели. Потребность в истине коренится в особенностях психологии Трансцендентального Субъекта познания.

Другое дело, что рассматриваемая потребность Разума никогда не бывает удовлетворена полностью. Любая полученная картина, или лучше сказать модель реальности, оказывается верна лишь частично. Фактически объективность относительно теорий оказывается лишь кантовским регулятивным принципом познания. Тем не менее без этого регулятива сама научная деятельность потеряла бы смысл.

Наученные горьким опытом революций в науке, ученые уже не онтологизируют свои модели реальности[xxxv]. Тем не менее они считают, что в них содержится известная доля истины.

Так что в плане объективности в смысле адекватности теории действительности каноны рациональности не изменились. Изменились критерии, связанные с объектностью описания.

Присуще ли Разуму стремление к объектности в той же мере, что и стремление к объективности теорий, покажет время. Но то, что эти два стремления характеризуют два разных свойства психологии Трансцендентального Субъекта, уже очевидно. В отличие от стремления к истине стремление к объектности описания характеризует уже далеко не всех исследователей. Ведь многие из них уже приняли стандартную интерпретацию, смирившись с ее антиреалистическим (антиобъектным) характером. Возможно, что стремление к реализму является не таким глубинным свойством психологии Трансцендентального Субъекта как стремление к истине. Вполне может оказаться, что стремление к объектности описания никогда не будет реализовано и антиреалистическая интерпретация будет признана окончательно верной. Учитывая, однако, что в последнее время после довольно длительного затишья на физиков и философов науки обрушилась лавина новых интерпретаций, стремящихся преодолеть ее антиреалистический характер и разрешить ее парадоксы, вполне возможно допустить, что все сложится иначе, и идеал объектности описания вновь восторжествует в квантовой механике.

И наконец, какая бы множественность при реконструкции реальности ни открывалась, физики отнюдь не отказываются от поисков единства в многообразии. Высказывается, в частности, мнение, что даже если в физике элементарных частиц победит программа эффективных теорий, это не будет означать отказа от идеала единства знания. Характерна в этом плане полемика, развернувшаяся на конференции, посвященной концептуальным основаниям квантовой теории поля (март 1996 г., в Бостонском университете (США)). Кембриджский философ науки М.Рэдхед, обсуждая концептуальные основания квантовой теории поля и защищая идеалы единства научного знания и стратегию поисков “окончательной” теории, сетовал на то, что без такой стратегии и без такой теории вся исследовательская деятельность в области физики элементарных частиц станет значительно менее соответствующей эстетическим критериям, а значит, значительно менее волнующей в интеллектуальном отношении[xxxvi]. На что другой участник конференции Т. Ю Цао возражал, что эстетизм картины не пострадает, даже если придется отказаться от монофундаментализма и согласиться на полифундаментализм, неизбежно порождаемый программой эффективных теорий. Просто идеалы единства и красоты теоретического описания действительности также приобретут черты полифундаментализма. Исследователь каждого из уровней иерархического описания мира будет пытаться найти лежащие в основании явлений закон и порядок, наслаждаясь красотой достигнутых обобщений, даже если он и будет осознавать, что его теория имеет ограниченную область применимости. И это не должно будет обескураживать его. Ведь даже наиболее последовательный сторонник единой и окончательной теории в физике элементарных частиц понимает, что его теория имеет ограниченную область приложимости и не может быть использована, скажем, в экономике или поэтическом творчестве[xxxvii].

Остается добавить от себя, что вопреки высказываемым опасениям критерий объективности (и даже истинности) теоретического описания действительности также останется в силе, и физическое познание отнюдь не “впадет” в релятивизм. Верно, что вопрос об истинности описания реальности на том или ином иерархическом уровне будет иметь смысл только по отношению к рассматриваемому уровню. Однако это вовсе не означает, что ученые не будут задаваться вопросом об истинности картины в целом: он по-прежнему останется самым важным эпистемологическим вопросом физического познания.

Возвращаясь к вопросу, вынесенному в заголовок статьи, можно сделать следующие предварительные выводы. Прежде всего, вопрос нуждается в дальнейшем исследовании. Тем не менее даже беглый анализ дает основание отметить, что современная естественнонаучная (имеется в виду главным образом физическая) парадигма переживает период существенных изменений. Однако эти изменения не носят столь радикального характера, чтобы можно было утверждать, что мы присутствуем при кризисе самих оснований существующей парадигмы. Основания важнейших эпистемологических принципов ныне господствующей парадигмы — принципа детерминизма, объективности и единства знания — остаются неизменными. А это, как говорят, дорогого стоит. До тех пор, пока такие основания не претерпевают действительно радикальных изменений, говорить о кризисе существующей парадигмы преждевременно.

 

 

Л.А.Шелепин

СТАНОВЛЕНИЕ НОВОЙ ПАРАДИГМЫ

Рассматривается проблема становления новой научной парадигмы XXI века, включающей предысторию, память о прошлом. Обсуждаются ее следствия для различных областей знания. Выясняется роль чисел Фибоначчи и золотого сечения как индикаторов проявления процессов с памятью.

Последовательность трех парадигм

В работе[xxxviii] в качестве новой мировоззренческой парадигмы, включающей основные формы научного знания, рассматривались немарковские процессы (процессы с памятью). Было показано, что учет предыстории естественным образом обобщает существующую марковскую парадигму, основанную на процессах без последействия. Цель настоящей статьи заключается в анализе особенностей перехода к новой парадигме, процессов ее становления. Новая парадигма затрагивает в той или иной степени все области знания и для прогнозирования изменений необходимо конкретное рассмотрение с использованием фактического материала. Сейчас все более настоятельными становятся проблема выработки сценария смены парадигм, исследования областей, где уже назрела необходимость новых подходов, анализа возможных изменений в основах мировоззрения.

Предварительно следует кратко остановиться на трех основных парадигмах последних столетий. В XVIII—XIX веках система научных воззрений базировалась на механицизме, объясняющем развитие природы и общества законами механической формы движения. Они рассматривались как универсальные и распространялись на все виды материи. Возникновение этой парадигмы было связано с выдающимися достижениями классической механики, выработавшей свои представления о материи, движении, пространстве, времени, причинности. Однако достижения естествознания конца XIX — начала XX века показали, что механицизм может объяснить только некоторую часть природных явлений. Описание на его основе электромагнитных, химических, биологических, а тем более социальных явлений оказалось невозможным.

Новая общая парадигма возникла в XX веке. В ее основе лежали достижения в области физики. Физические методы и подходы проникли практически во все естественные науки, в том числе в химию и биологию, а также используются в общественных. Фактически в нашем столетии физика стала своего рода царицей наук, подобно механике в XVIII—XIX веках. Коренным образом изменилось и само ее содержание. Теория относительности, квантовая механика, теория элементарных частиц, синергетика резко расширили наше понимание закономерностей окружающего мира. Несмотря на все различия этих теорий, в них имеется единая основа — марковские процессы, или процессы без последействия, которые и составили суть мировоззренческой и научной парадигмы XX века.

Марковский процесс — это случайный процесс, для которого при известном состоянии системы в настоящий момент t0 ее дальнейшая эволюция не зависит от состояния этой системы в прошлом (при t < t0). Он был назван марковским по имени создателя основ теории русского ученого А.А.Маркова. Для марковского процесса, зная состояние системы в какой-либо момент времени t0, можно в принципе определить вероятностную картину поведения системы в будущем. Эта картина не изменяется от добавочных сведений о событиях при t < t0. Марковские процессы нашли широкое поле приложений в физике, радиотехнике, автоматике, экономике, социологии, медицине, биологии. Требование марковости лежит в основе как классической, так и квантовой физики и является мощным практическим инструментом в конкретных исследованиях.

Однако в настоящее время в существующей марковской парадигме проявляется все больше рассогласований и трудностей. Основная причина — неучет памяти в марковском подходе, а ведь в биологии и в социальных явлениях память — необходимый обязательный элемент. Поэтому они принципиально не могут быть последовательно описаны с помощью имеющейся парадигмы. Более того, для сложных социально-экономических систем установлен целый ряд интересных статистических закономерностей, выполняющихся с высокой степенью точности, природа которых до сих пор еще не вполне ясна. Отметим, что центр тяжести научных исследований постепенно смещается от физики к биологии и социуму, а именно этот круг явлений уже не может адекватно описываться в рамках старой парадигмы. Попытки ее сохранения сводятся к утверждениям о том, что если каким-либо образом найти положение всех атомов и молекул в мозгу человека, то все мысли в принципе могут быть определены и знание предыстории не нужно. В целом же ситуация в наше время аналогична той, которая была в конце XIX века, когда на основе старой механистической парадигмы оказалось невозможным последовательное описание ряда конкретных явлений. Так и сейчас, на смену парадигме марковских процессов должна прийти новая, в основе которой лежат немарковские процессы или процессы с памятью. Она должна включать в себя предыдущую как частный случай.

Немарковские процессы

Путь к адекватному описанию систем биологического, информационного и социально-экономического плана лежит через построение теории процессов с памятью, или как ее еще называют — теории немарковских процессов, описывающей изменение структур. Если в марковских процессах мерой движения служит энергия, то в немарковских важнейшей дополнительной характеристикой служит негэнтропия как мера упорядочения, мера сложности структуры. Марковские процессы локальны во времени. Зная состояние системы в какой-либо момент времени t0, можно в принципе определить вероятностную картину поведения системы в будущем; эта картина не меняется от добавочных сведений о событиях при t < t0. Немарковские процессы учитывают эти добавочные сведения, память о прошлом; и по своей природе нелокальны во времени. Поэтому в отличие от марковских процессов они описываются не дифференциальными уравнениями, а интегро-дифференциальными (именно интегрирование по времени позволяет учитывать прошлое). С помощью этих уравнений может быть определена эволюция системы. Это одно из принципиальных различий между двумя парадигмами в математическом описании явлений.

Простейшие немарковские процессы, в которых необходимо учитывать зависимость от прошлого, описываются линейными интегро-дифференциальными уравнениями типа (1,2)

 

d P / d t = 0òr L (t) P (t — t) d t, (1)

 

где P (t) — вероятность, L (t) (ядро уравнения, r может, в частности, принимать значения t и ¥. Эти уравнения нелокальны во времени. В отличие от марковских процессов, где в правой части (1) стоит произведение L (t) P (t), для немарковских проводится интегрирование по прошлому времени.

Переходя к дискретному описанию и ограничиваясь конечным числом членов, получаем конечно-разностное немарковское уравнение

 

Pt = F (Pt-1, Pt-2, …Pt-n, t). (2)

 

Если для марковских процессов вероятностная картина поведения системы в будущем определяется ее состоянием в момент времени t0

un+1 = f (un), (3)

то для немарковских она задается соотношением (2), а в простейшем случае

 

un+1 = un + un-1. (4)

 

Здесь характерная величина un зависит не только от предыдущего состояния, но и от того, что было шаг назад, т.е. от событий при t < t0. Марковский подход можно рассматривать как нулевое приближение общей немарковской теории. В рамках такой теории можно исходить из последовательных приближений. Здесь фундаментальную роль может играть положение о затухании памяти с удалением во все более далекое прошлое. В этом предположении наибольшую роль играет ближняя память и соответственно в дискретном ряду

 

un+1 = un + un-1 + un-2 + un-3 +… (5)

 

наиболее существенными, как правило, оказываются два первых члена в правой части. В природе, во многих биологических явлениях наиболее существенной оказывается ближняя память. Рекуррентное соотношение (4), определяющее ближнюю память, задает первое приближение в отклонении от марковского мира. И в этом состоит его фундаментальное значение.

Решением рекуррентного уравнения (4) являются числа Фибоначчи. Эти числа имеют почти 800-летнюю историю. В 1202 году была издана книга Леонардо из Пизы по прозвищу Фибоначчи, в которой рассматривалась задача о кроликах: “сколько пар кроликов за год от одной пары рождается”. Была получена последовательность чисел пар кроликов для каждого месяца: u1, u2, u3, u4 …. В данной числовой последовательности каждый член равен сумме двух предыдущих членов в соответствии с формулой (4). В задаче Фибоначчи первые два числа предполагались равными единице. В этом случае первыми членами ряда будут: 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377 … С помощью соотношения (4) этот ряд может бесконечно продолжаться. Отношение двух последовательных чисел ряда Фибоначчи un+1 / un с ростом n стремится к пределу q, получившему название золотого сечения (впервые этот термин ввел Леонардо да Винчи).

 

q = (un+1 / un) n®¥ = (Ö5 + 1) / 2 = a ” 1,62 (6)

 

Величина q удовлетворяет соотношению

 

q2 – q – 1 = 0. (7)

 

Числа Фибоначчи нашли обширные применения[xxxix]. Так они могут быть использованы для построения системы счисления. Подобно десятеричной или двоичной системам любое натуральное число может быть представлено в виде некоторой последовательности цифр, указывающих сколько конкретных чисел Фибоначчи, начиная с наибольшего из возможных, оно содержит. Например, число 10 может быть записано как 1´8+0´5+0´3+1´2+0´1+0´1 или 100100.

В геометрии отношение (6) соответствует делению в точке C1 отрезка AB на две части так, чтобы большая из его частей C1B была средним пропорциональным между меньшей его частью AC1 и всем отрезком: AB / AC1 = AC1 / C1B.

Отрицательному корню уравнения (7) соответствует точка C2 , лежащая на прямой вне отрезка AB. В этом случае снова имеем золотое сечение: C2B / AB = AB / C2B = a.

В восприятии человека прямоугольники золотого сечения (т.е. с соотношением сторон a) выглядят пропорциональными и приятными на вид. Поэтому многим обиходным предметам (чемоданам, книгам, коробкам) придается именно такая форма. Внешняя красота предметов, связанная с золотым сечением, часто возводилась в эстетический и философский принцип. С помощью золотого сечения пытались объяснить явления природы и общественной жизни. Многие относили все эти работы к мистике. Однако здесь не все так просто, поскольку числа Фибоначчи и золотое сечение могут служить характеристиками немарковских процессов.

Среди различных обобщений чисел Фибоначчи отметим решения немарковского уравнения:

 

un+1 = un + un-S-1. (8)

 

Здесь каждый член ряда равен сумме предыдущего и отстоящего от предыдущего на S шагов. Случаю S = 1 соответствуют числа Фибоначчи, значениям S = 2, 3, 4… — величины, получившие название S — чисел Фибоначчи. Обобщается понятие золотой пропорции. Так золотая S-пропорция является положительным корнем уравнения золотого S-сечения q2S — qS -1 = 0. Отношения соседних S — чисел Фибоначчи совпадают в пределе с золотыми S-пропорциями, подобно обычному ряду Фибоначчи. Или, другими словами, золотые S-сечения являются числовыми инвариантами S — чисел Фибоначчи. Инварианты для первых четырех значений S соответственно равны: 1,618, 1, 464, 1,380, 1,324.

Числа Фибоначчи и золотое сечение оказались также тесно связанными с немарковскими равновесными распределениями. Для марковских процессов равновесное состояние определяется больцмановским распределением по энергии Е. Например, для заселенностей энергетических уровней N оно имеет вид

 

W = W exp (-E / kT). (9)

 

Как существенный равновесный параметр в (9) входит температура Т. Для немарковских процессов равновесное распределение задается соотношением типа (9) для негэнтропии S. Как отмечалось, например в /2/, равновесные распределения такого типа возникают в биологии. Так распределение биомассы W в трофических цепях биоценоза может быть записано в виде

 

W = W0 exp (— S / q). (10)

 

Это соотношение естественным образом возникает и при других немарковских процессах. Величина q в (10) соответствует некоторой “структурной” температуре. которая определяется характерным объемом памяти о прошлом или своего рода негэнтропийным (информационным) полем. При больших q возникают сложные иерархические структуры в широком диапазоне S, при малых q — структуры в малом диапазоне, а при q ® 0, т.е. отсутствии информации о прошлом, происходит предельный переход к марковским процессам.

Обратимся к стандартному соотношению (4) и рассмотрим условия совместимости (4) и (10), что даст соответствующее этому случаю значение q. Представим экспоненту в дискретном виде как геометрическую прогрессию: 1, q, q2, q3... Чтобы она была решением (4), необходимо выполнение при любом n соотношения q n-2 + q n-1 = q n , сводящегося к (7). Корни уравнения (7), задающие искомое значение q в равновесном распределении (12), соответствуют золотому сечению a. Т.е. золотое сечение непосредственно следует из условий равновесия в немарковской системе с ближней памятью. Таким образом, числа Фибоначчи и золотое сечение являются не только характеристикой, но и своего рода индикатором наличия немарковского процесса, а также служат признаком равновесия в такой системе. С этой точки зрения золотое сечение и числа Фибоначчи существенно выделены в природе.

Золотое сечение и числа Фибоначчи в биологии

По-видимому, впервые обратил внимание на проявления золотого сечения в биологии Иоганн Кеплер, но до последнего времени они представлялись неразрешимой загадкой. Вот как говорится об этом в работе[xl]: “Непосвященные не догадываются о существовании жгучей тайны, в которой проявляется душа растения – тайны чисел Фибоначчи и золотого сечения в морфологии растения, разгадке, которой светлые головы посвящают наблюдения и исследования на протяжении уже более чем четырех веков”. Характерный пример — наличие в расположении мелких частей растений двух типов спиралей, закрученных в противоположных направлениях. Числа спиралей того и другого типа задаются соседними числами Фибоначчи. Так на многих шишках чешуйки располагаются в трех и пяти спиралях, навивающихся в противоположных направлениях. В крупных шишках удается наблюдать 5 и 8, а также 8 и 13 спиралей. На ананасе обычно наблюдается 8 и 13 спиралей. Число спиралей у многих сложноцветных (например, у ромашки) составляет 13 и 21 или 21 и 34. В подсолнухе число спиралей противоположного направления в расположении семечек может достигать значений 55 и 89. Подобные эффекты, связанные с числами Фибоначчи, наблюдаются в расположении хвоинок на сосновой ветке, расположении листьев крапивы, клена сирени, березы.

Не менее поразительны проявления чисел Фибоначчи в животном мире. Приведем примеры[xli]: черепаха (13 сросшихся роговых пластин в панцире, 5 пластин в центре, 8 по краям, 5 пальцев на лапках, 34 позвонка), скорпион (2 части – брюшко и хвост, 5 пар конечностей, 8 сегментов на брюшке, 5 на хвосте), гусеницы – мукоеды, шкуроеды (13 сегментов). Число пар зубов (21 — собака, лошадь, свинья, 14 — кролик, 34 — гиена, 233 — дельфин), число позвонков (34 гигантский олень, 55 – кит). Характеристики человека: ребра – 12 пар, позвонки – 34, запястье – 8 косточек, пальцы – 5, каждый палец – 3 фаланги, общее число костей близко к 233, железы внутренней секреции – 8, число органов пищеварения – 13, частей печени – 8, частей почки – 5, частей сердца – 13. Конечно, это только отдельные примеры, носящие иллюстративный характер. В работе[xlii], где приводятся результаты исследований ритмов мозга, говорится об определенных инвариантах, характеризующих волны электрической активности головного мозга (бета, дельта, тэта, альфа и гамма волны). Они совпадают с приведенными выше значениями золотых S-сечений, соответствующих S = 1, 2, 3, 4. В общем случае числа Фибоначчи и золотое сечение проявляются в самых разнообразных явлениях растительного и животного мира[xliii]. Они служат признаком квазиравновесных распределений для любой системы с памятью. Их наличие в самых разнообразных явлениях живой природы естественно, поскольку любой биологический объект – составная часть немарковских процессов.

Следует различать память, связанную с генотипом и фенотипом. Фенотип — совокупность признаков и свойств особи, формирующихся в процессе взаимодействия ее генетической структуры (генотипа) и внешней среды. Фенотип обусловлен как генотипом, так и внешними условиями протекания соответствующего немарковского процесса. В число его характеристик также входят числа Фибоначчи и золотое сечение.

Немарковские процессы и золотое сечение в неорганической природе

До последнего времени использование немарковского подхода в физике носило весьма ограниченный характер. В статье[xliv] показано, что к немарковским процессам относится широкий класс физических задач, но их немарковская природа присутствует неявно, скрыто, она остается на втором плане. Указано несколько областей его применения. Так для вязкоупругих жидкостей напряжение зависит не только от текущего значения скорости деформации, но и от ее предыстории. Интегро-дифференциальные уравнения типа (1) использовались для полимерных неньютоновских жидкостей. Вообще немарковский подход перспективен для реологии – совокупности методов исследования течения и деформации реальных сред. В физике твердого тела немарковские уравнения использовались при описании процессов, связанных с гистерезисом. Они также возникают в процессах, связанных со структурой дефектов. В работе[xlv] построено обобщенное немарковское уравнение Больцмана, описывающее плотный газ. Для колебательных химических реакций, в частности реакции Белоусова – Жаботинского, в ряде экспериментальных исследований[xlvi] отмечалось, что индукционный период до начала колебаний зависит от предыстории. В целом из краткого обзора[xlvii] создается впечатление, что в физике, несмотря на разнообразие явлений, связанных с немарковскими процессами, мы, образно говоря, имеем дело с локальными возмущениями существующей марковской парадигмы.

Однако ситуация представляется по-другому, если проанализировать характеристики Солнечной системы. В свое время великий немецкий астроном Иоганн Кеплер (1571—1630), установивший законы движения планет вокруг Солнца, высказал идею геометрической гармонии Солнечной системы и обратился к музыкальной аналогии (“музыке сфер”). К этим идеям последующие поколения астрономов не относились серьезно. Однако после установления связи золотого сечения с периодами обращения планет Солнечной системы идеи Кеплера приобретают глубокий физический смысл.

В работе[xlviii] представлены конкретные данные и проведено сопоставление периодов обращений планет вокруг Солнца и их биений (основные тоны) с периодом обращения Земли. В результате возникает ряд чисел, с высокой точностью совпадающих с рядом золотого сечения. Другими словами, частоты обращений планет и разности частот обращений образуют спектр с интервалом, равным золотой пропорции. Причем данная закономерность соблюдается с точностью 95%. Здесь действительно подходит название “музыка сфер”.

Не менее впечатляющие данные получены для расстояний планет от Солнца. В работе[xlix] приведены данные К.Домбровского, который показал, что расстояния планет до Солнца пропорциональны числам ряда золотого сечения. При этом средние отклонения расчетных радиусов орбит от фактических не превышают 6,7%. Аналогичные закономерности были установлены и для систем спутников Марса, Юпитера, Урана, Нептуна. Расположение спутников этих планет на орбитах также подчиняется степенному ряду золотого сечения. Для них среднее отклонение составило менее 2%.

Приведенные данные указывают на немарковский характер эволюции Солнечной системы. Она в принципе не может быть достаточно полно описана на основе существующих физических теорий. Фактически речь идет о процессах с памятью в масштабах космических времен, составляющих миллиарды лет. Генетическая память, с которой связаны биологические явления, имеет уже длительную историю (до миллиарда лет), но память в неорганической природе имеет еще большие масштабы. Таким образом, здесь речь идет о качественных изменениях в нашем мировоззрении.

В этой связи укажем также на известное в астрономии распределение Хольтцмарка, описывающее распределение интенсивности гравитационного поля звездных систем. Было показано, что это распределение имеет вид гиперболического распределения с показателем 1,5, который характерен для распределения Ципфа-Парето, непосредственно вытекающего из немарковского соотношения[l] (ср. ниже формулу (12)). Не исключено, что этот факт служит указанием на немарковский характер образования звездных систем.

Временные характеристики немарковских процессов

К качественным особенностям немарковских процессов следует отнести также наличие определенных временных циклов (ритмов). Математическое описание циклов основывается на анализе интегро-дифференциальных уравнений типа (1). В таких немарковских уравнениях возникают комплексные значения корней, которым соответствуют осцилляции, обусловленные рекуррентным характером изменения систем, зависимостью от прошлого, от памяти.

Биологические, экономические, социальные явления включают в себя громадную совокупность ритмов. Биологические ритмы наблюдаются на всех уровнях организации от внутриклеточной до биосферной. Ритмы отдельных органов, тканей, клеток, внутриклеточных компонент участвуют в создании временной упорядоченности биологических явлений и составляют основу интеграции процессов в живых организмах. Из-за наличия большого числа налагающихся структурных ритмов каждое последующее колебание несет определенные отличия от предыдущего. Ключевой момент в этой сложной картине — взаимодействие осцилляций. Внешние воздействия могут сдвигать фазу и менять амплитуду биологических ритмов, которые способны подстраиваться к изменениям цикличности внешней среды (суточные, годичные, приливные, лунные ритмы, циклы активности Солнца). Внутренние (эндогенные) компоненты ритмов дают возможность организму ориентироваться во времени (биологические часы) и заранее готовиться к изменениям окружающей среды. Нарушение установившихся ритмов жизнедеятельности оказывает негативное влияние на организм.

С определенными взаимодействиями внутренних и внешних осцилляций связана работа мозга. Ими обусловлены, в частности, биологические аспекты эстетики. В[li] показано, что временная организация стихотворного размера совпадает с временными особенностями работы слуховой системы, танец имеет аналогии с коммуникативным поведением животных, воздействие музыки соотносится с частотами ритмов, эстетическое восприятие и усвоение нового материала тесно связаны с “золотым сечением”. Оно также широко используется в архитектуре и изобразительном искусстве.

Проблема взаимодействия ритмов различных организмов нашла свое отражение в концепции Гумилева[lii] по развитию этноса, его взлета, подъема и упадка (этнос — это одно из сообществ, на которые распадается человечество, форма существования Homo Sapiens). Отмечается неизбежно формирующаяся иерархическая структура этноса. При образовании этноса меняется стереотип поведения людей. Активные личности — пассионарии создают вокруг себя своего рода поле, навязывают свои ритмы, оказывают влияние на нервно-психический настрой у окружающих. Гумилев выдвигает положение, согласно которому вне зависимости от расового состава, от культурных связей, от уровня развития существует некоторое этническое поле с определенными частотами колебаний для каждого этнического (или суперэтнического) образования.

В неорганической природе также наблюдается целая совокупность различных ритмов. Особо следует отметить периодические процессы на Солнце, оказывающие заметное влияние на процессы на Земле[liii]. Появление и исчезновение пятен (активных областей) на Солнце носит периодический характер со средним периодом около 11,2 года. Продолжительность циклов с начала систематических наблюдений изменялась от 7 до 17 лет. Период роста активности Солнца в среднем равен 4,2 года, а спада около 7 лет[liv]. Отношение периода спада к периоду роста солнечной активности всего на 3,03% отличается от золотой пропорции. Это соотношение приблизительно сохраняется почти по всем солнечным циклам. Однако до сих пор неясен механизм солнечной активности.

Числа Фибоначчи и золотое сечение играют существенную роль и в анализе временных характеристик развития немарковских систем. Как отмечалось выше, в общем случае следует решать интегро-дифференциальные уравнения. Для уравнения типа (1) имеем простое временное решение

 

P = P0 exp (— t / t) , (11)

 

где параметр t определяется с помощью подстановки (11) в (1). Из этого решения непосредственно видна нелокальность во времени, система живет не только в настоящем, но и в будущем.

Запишем соотношение для чисел Фибоначчи, отнесенное к последовательным дискретным моментам времени. Чтобы распределение (11) удовлетворяло (4), необходимо для величины q = exp(-1/t) выполнение соотношения (7), определяющего золотое сечение. При этом t. =1 / ln a ” 2,1. Под распределение (11) с указанным значением t происходит подстройка процессов в биологии и экономике. Например, распределение валового национального продукта по компонентам, соответствующим непосредственному потреблению, ближней и дальней перспективе (расходы на потребление, инвестиции, правительственные расходы), приблизительно соответствует золотому сечению[lv]. Это, по-видимому, — одна из характеристик устойчивого развития.

Инвестиции дают результаты не в тот период времени, в котором они проводятся, а в более поздние сроки. Поэтому при сравнении затрат с получаемой от них прибылью возникает задача соизмерения разновременных ценностных показателей. Как известно, она решается методом дисконтирования. Здесь, по существу, мы имеем дело с распределением (11). Для разных экономических субъектов имеется своя дисконтная ставка, соответствующая конкретному показателю t. Она задает меру предпочтения нынешней ценности будущей. Определенной ориентацией в стандартных условиях, как указывалось выше, служит величина t, соответствующая золотому сечению.

Таким образом, подход, связанный с золотым сечением, может быть с успехом использован в планировании и целом ряде других экономических проблем. Само же появление золотого сечения может служить одним из критериев идентификации конкретных процессов, как процессов с памятью.

Немарковское описание социальных процессов

При исследовании сложных систем социально–экономического, биологического и информационного плана был установлен целый ряд эмпирических закономерностей, подтверждаемых обширным статистическим материалом[lvi]. Среди найденных функциональных зависимостей особую значимость имело гиперболическое распределение или закон Ципфа—Парето. Этот закон носил общесистемный, универсальный характер, но его природа длительное время оставалась неясной. Относительно недавно была установлена его взаимосвязь с немарковским равновесным распределением (10), которое можно рассматривать как распределение набора структур по степени сложности (иерархию структур). Накопленный к настоящему времени обширный эмпирический материал по различным функциям распределения обычно представлен в форме, отличной от (10). Так для стабильных сформировавшихся экосистем (биоценозов) были получены распределения видов по числу особей, родов по числу видов, хозяев по числу паразитов. Конкретные способы построения определялись расположением (видов N) по степени убывания их численности m в выборке, а сами распределения аппроксимировались гиперболическими кривыми. Эти распределения в конечном счете сводятся к немарковским распределениям. Например, распределение видов N (m) по числу особей m может быть получено из (12), если учесть, что n = W , а для числа особей можно записать приближенное соотношение S = n m; откуда следует гиперболический закон (H — распределение или распределение Ципфа—Парето)

 

N = F m -a , A, a > 0, (12)

 

Этот закон носит весьма общий характер. Гиперболические равновесные распределения были эмпирически установлены для большой совокупности явлений в биологии, экономике, социальной сфере /10/. Типичные примеры — распределение семей по доходам, ученых по числу написанных ими статей, распределение журналов по запросам в библиотеке. Все эти распределения являются формой записи равновесного распределения (10). Аналог температуры q соответствует некоторому показателю сложности для отдельного объекта. Например, если m, число статей написанных учеными, то S(m) = ln m , образно говоря, показатель интеллекта ученых, уровень их негэнтропии.

Гиперболические распределения весьма удобны при эмпирических построениях. При этом всегда можно перейти к форме (10) и найти аналог температуры q, характеризующий систему в целом. Со временем появляются все новые и новые сферы приложений. Так в работе[lvii] было показано, что большую техническую систему можно рассматривать как сообщество изделий — аналог биоценоза, названного техноценозом. Приведенный в[lviii] фактический материал показывает, что различные виды аппаратуры (электродвигатели, кабели, трансформаторы и др.) по повторяемости образуют H — распределения, приводящиеся к (10).

Это соотношение естественным образом возникает и при других немарковских процессах. Величина q в (10) соответствует некоторой “структурной” температуре, которая определяется характерным объемом памяти о прошлом или своего рода негэнтропийным (информационным) полем.

Закон Ципфа—Парето отличается от стандартного гауссовского распределения резкой асимметрией. Для него характерен эффект концентрации. Так 5% наиболее продуктивных журналов могут содержать до 70% всех статей по данной тематике. Преобладающая часть городского населения сосредоточена в небольшом числе больших городов, 10% наиболее продуктивных авторов пишут более половины всех научных статей. Т.е. сравнительно малое число ученых несет основную информационную нагрузку. Остальная часть статей распределяется по большому числу малопродуктивных ученых, что рассматривается как проявление эффекта рассеивания. Аналогичные распределения возникают и в экономике, где, в частности, наблюдается рост размеров больших фирм и увеличение числа малых фирм. В целом немарковский подход может быть применен к анализу распределений в различных конкретных отраслях, крупных концернах, объединениях, различных коллективах.

Информация в немарковских системах

Немарковский подход в определенном смысле слова позволяет преодолеть противопоставление материального мира и информации. По своей сути память о прошлом представляет собой информацию, записанную в определенных структурах. Информация имманентно присуща немарковским процессам, связанным со структурными превращениями, в отличие от марковских, где она носит внешний характер. Если при марковском подходе общая направленность статистических процессов определяется вторым началом термодинамики, то системы с памятью обладают способностью к саморазвитию. Возникает фактор воздействия, обусловленный прошлым. Он меняет взаимодействия в системе и в принципе может доминировать над диссипацией структур. Т.е. процессами развития управляет не только внешнее воздействие, но и система памяти. Это свойственно любой конкретной немарковской системе (организму, биоценозу).

Информационные структуры, как и материальные, характеризуются негэнтропией S. Распределение количества информации I задается соотношением:

 

I = I0 exp (— I / r). (13)

 

Величина r, подобно q в уравнении (13), служит индикативным показателем состояния информационной системы. Распределение (13) может быть использовано при составлении набора проектной документации, в информационном обеспечении управления. Как показал анализ информационных потоков в системе управления[lix], в среднем для подразделений разного уровня 35% всего объема информации являются лишними и не используются. Более всего лишних показателей получают подразделения высшего уровня — 76% всего объема информации. Для эффективного информационного обеспечения управления необходимо соответствие объема информации распределению (13).

Для немарковских процессов справедлив негэнтропийный принцип информации[lx], согласно которому следует рассматривать единое уравнение для информации и негэнтропии. Для замкнутых систем приращение их суммы меньше или равно нулю. Для открытых систем необходимо учитывать обмен не только веществом и энергией, но и информацией (негэнтропией). Любой опыт, дающий информацию о физической системе, приводит в среднем к уменьшению негэнтропии системы или ее окружения, т.е. информация оплачивается негэнтропией. Подобно тому, как энергия преобразуется от одной формы в другую, негэнтропия переходит от одной структуры к другой. Если этот процесс обратим, то он происходит без потерь.

Принципиальный момент здесь заключается в том, что негэнтропийный подход должен работать для однотипных структур (например, структура инженерного механизма и информация именно об этой структуре, а не вероятность появления в соответствующем сообщении тех или иных символов). Поэтому с точки зрения немарковского подхода в качестве определения информации может служить соотношение

 

I = S2 — S1 . (14)

 

Из (14) следует, что информация I дает возможность перехода от одного уровня негэнтропии (структуры S1) к другому уровню негэнтропии (структуре S2). Наглядный пример: уровень S1 – набор деревянных деталей и крепежных изделий для шкафа, S2 — готовый шкаф, I — набор правил для построения шкафа из деталей. В рамках определения (14) равновесные распределения (12) могут быть использованы для анализа информационных массивов. Ряд из них, например наборы документации по изготовлению тех или иных изделий, по аналогии с биоценозами называют информценозами[lxi].

Для конкретного изучения информационных процессов существенен учет особенностей немарковского подхода. К ним относится отмеченный выше эффект концентрации — резкая асимметрия равновесных распределений (12). В общем случае разные части распределений существенно различны по своим свойствам. С одной стороны — достаточно эффективным для системы в целом оказывается регулирование той ее части, которая соответствует большим значениям S, с другой — не следует подвергать чрезмерной регламентации основную массу объектов с малым S. Например, с увеличением детализации информационной документации (инструкций, предписаний, проектов) происходит быстрый количественный рост информационного массива при весьма незначительном приросте структурной информации.

Весьма существенен также учет иерархической структуры информации. Среди понятий имеются высшие по иерархии (с большим S). Успех информационного воздействия обусловлен правильным выбором таких понятий и концентрацией усилий именно на них. Эффективность восприятия материала также в значительной степени определяется иерархически — структурированной подачей материала (включая заголовки, резюме, не монотонность изложения).

Качественное отличие мышления от работы компьютеров заключается в том, что в основе его функционирования лежит стохастический немарковский процесс, а не заданный алгоритм. Поэтому для анализа возможностей создания компьютеров нового типа (“мыслящих” компьютеров) необходимо проведение детальных исследований немарковских процессов. На основе большого эмпирического материала было показано, что гиперболические равновесные распределения распространяются на многие виды человеческой деятельности /10/. В естественных информационных системах равновесие по S устанавливается за счет стохастических процессов. Возникают переходы на более высокие негэнтропийные уровни, информация структурируется, создаются новые общие понятия. Здесь, в частности, можно выделить эффект поризма, характерный для работы мозга[lxii], когда утверждения, полученные из решения частной задачи, оказываются применимыми к целой совокупности казалось бы не относящихся сюда первоначально явлений. В этом плане любая немарковская модель должна включать в себя процесс структурирования информации с переходами на более высокий уровень по S.

Необходимо также изучение специфики структур информационных массивов. Как известно, живая ткань организмов обладает высокой степенью специфичности. При пересадке тканей одна из основных проблем — несовместимость структур. Для информационных структур ситуация во многом аналогична. Между тем длительное время господствовало убеждение, что свойства любой информации примерно одинаковы. Это нашло свое отражение в концепции универсальности научно-технической информации (НТИ). Фактически информация считалась бесструктурной, и ее можно было группировать независимо от ее сути. Неучет специфики информационных структур управления и их организация по несовместимой структуре НТИ обусловил ряд негативных явлений при внедрении информационных систем[lxiii]. В глобальном плане можно выделить три типа информационных структур. Одна из них, информация о внешнем мире (“картина мира” в мозгу)[lxiv], связана с прошлым, другая — внутрисистемная (управленческая) информация, регулирует процессы в настоящем, и третья — прогностическая (плановая), направлена в будущее. Несовместимость информационных структур разного типа означает, что для их построения необходима предварительная обработка поступающей информации с разбиением ее на некоторые структурные единицы. Примерами подобных единиц служат в случае биологической информации — основания ДНК, аминокислоты, составляющие белок, особи в популяции, в случае социальной информации — слова в литературных текстах, статьи по определенной тематике в журналах. Должен существовать и механизм формирования определенных единиц в мозгу, куда поступает непрерывный поток информации. Его можно уподобить своего рода процессу “разрезания файлов”, имеющего определенную функциональную аналогию с пищеварением, в результате которого происходит разделение белков, жиров и углеводов на составные части, поступающие в организм и служащие не только источником энергии, но и строительными блоками, несущими с собой негэнтропию. В этом плане тезис Шредингера о том, что организм “питается” негэнтропией, относится и к работе мозга.

Процессы с памятью включают информацию из прошлого. Т.е. немарковские структуры носят смешанный характер, они содержат и материальную, и информационную составляющие.

Заключение

Немарковская концепция объединяет воедино большое количество подходов и фактов, сводит воедино самые разнородные сведения в самых различных областях. При этом немарковская парадигма включает в себя существующую марковскую парадигму как частный предельный случай, аналогично марковским процессам, включавшим механицизм как свою составную часть. Со становлением новой парадигмы происходит изменение методологических и мировоззренческих аспектов современной теории. Выше был рассмотрен ряд направлений. Для биологических и социальных явлений полученные ранее эмпирические распределения оказались тесно связанными с немарковскими соотношениями. Выявились направления их практического использования для регулирования экономических и социальных процессов. Новая парадигма, включая в себя информацию как составную часть, выявляет определенные единые аспекты информации и материального мира.

Особо следует выделить проблему образования Солнечной системы, которая оказалась тесно связанной с немарковскими явлениями. Это затрагивает мировоззренческие основы наших воззрений на космические процессы. Можно ожидать, что анализ эволюции звезд и галактик окажется адекватным только при учете влияния предыстории, т.е. на основе немарковской парадигмы. Здесь речь идет уже не о ближней памяти, а о памяти в миллиарды лет. В работе[lxv] ставился общий мировоззренческий вопрос. Каков мир изначально? Если наш мир — немарковский, и используется бесконечно далекая память (с самого начала развития), то некая первоначальная информация в принципе может определить эволюцию. В этом плане отмечались также определенные параллели с философией Г.Гегеля, который ввел понятие абсолютной идеи — абсолютного духовного и разумного начала, лежащего в основе всех явлений природы и общества.

В заключение выражаю признательность за обсуждение проблемы Э.А.Азроянцу, А.С.Харитонову, В.А.Бунину, В.В.Горбачеву, И.М.Дмитриевскому.

 

 

Р.М.Нугаев[lxvi]

СМЕНА ПАРАДИГМ: МОДЕЛЬ КОММУНИКАТИВНОЙ РАЦИОНАЛЬНОСТИ

В статье с позиций теоретической социологии подвергнуты критическому анализу некоторые ставшие к настоящему времени классическими т.н. “исторические” теории научной рациональности. В качестве альтернативы многим из них предлагается, на основе хабермасовской концепции коммуникативного социального действия, идеальная модель смены парадигм, рассматривающая этот процесс с принципиально иных, по сравнению с принятыми подходами, теоретико-социологических и логико-методологических позиций. Новизна данного исследования состоит в том, что подход Юргена Хабермаса, апробированный в области социально-исторических, социально-политических и социокультурных феноменов, распространяется на когнитивные процессы смены естественнонаучных парадигм. Предложенная модель позволяет несколько иначе, чем это было принято до сих пор, описать взаимодействие когнитивных и социокультурных факторов в процессе смены парадигм. Ключевыми для описания процесса смены парадигм являются механизмы процесса коммуникации сторонников нескольких “старых” парадигм, приводящие к взаимодействию в трех основных измерениях социума — личностном, институциональном (научное сообщество) и культурном ( теоретическом) . Если сам Хабермас разработал свою концепцию для процесса становления всего общественного сознания Нового Времени, то автор данной работы применяет ее для описания одного из локальных эпизодов смены парадигм в истории науки — “эйнштейновской революции” в физике на рубеже XIX и XX веков. Показано, что если “модернистская” физика началась с расщепления единого натурфилософского дерева на механику, электродинамику и термодинамику, то “постмодернистская” физика коренится в эйнштейновских попытках примирить эти классические парадигмы в 1905 году в его теории фотоэффекта и в специальной теории относительности. Программа Эйнштейна вытеснила конкурентов не только потому, что в конце концов оказалась лучше их в эмпирическом отношении. Она превосходила соперниц потому, что явилась основой для согласования теоретических и эмпирических практик, обстоятельного диалога между представителями ведущих парадигм старой физики, до Эйнштейна находившихся в состоянии значительной интеллектуальной изоляции.

Проблема теоретического воспроизведения процесса смены парадигм в социологии и философии науки ни в коей мере не является новой. Тем не менее нельзя сказать, что ее исследования подошли к такому рубежу, когда по крайней мере подавляющее большинство специалистов согласно хотя бы в том, как именно, в каких направлениях надо продвигаться вперед. Несмотря на это обстоятельство, можно зафиксировать определенный блок основных проблем, которые признаются таковыми научным сообществом специалистов в области социологии и философии науки. Этот блок включает в себя такие проблемы, как взаимодействие эмпирического и теоретического, рационального и иррационального, индивидуального и общественного и, конечно же, проблему взаимодействия когнитивных и социальных факторов в процессе смены парадигм. Последняя проблема является своеобразным фокусом, в котором сначала только встречаются разные подходы, чтобы затем сойтись в ожесточенной критике друг друга. Несмотря на то, что все давным-давно уже согласны в неправомерности и односторонности логико-эмпиристской модели развития научного знания, предложенные за последние 10-15 лет подходы — особенно относящиеся к “сильной программе социологии науки” — также подвергаются ожесточенной критике. У объективного читателя не может не создаться впечатление, что, разочаровавшись в крайностях логицистского подхода, исследователи дружно обратились к столь же одностороннему и крайнему социокультурному подходу, ведущему к ничем не ограниченному и крайне уязвимому в методологическом отношении (будучи обращенным на свои собственные предпосылки) релятивизму. Последний, в частности, выражается в хорошо известном тезисе Куна-Феойерабенда о несоизмеримости сменяющих друг друга парадигм, представляющему в вызывающе иррациональном свете поведение специалистов в наиболее развитых в математическом отношении и рационально проработанных областях научного знания.

С нашей точки зрения, причина неудач предложенных к настоящему времени подходов в оценке взаимосвязи когнитивных и социокультурных факторов в процессе смены парадигм состоит в том, что все они основаны в социологическом отношении на одной и той же, весьма односторонней и, как правило, имплицитно принимаемой точке зрения. А именно: все они исходят из веберовского понимания рационализации научной ( и в общем случае — когнитивной) деятельности как необратимого процесса вытеснения целерациональным действием всех остальных видов социального действия — аффективного, традиционного и ценностно-рационального. Такая точка зрения характерна для большинства известных автору данной работы исторических “теорий научной рациональности” — для мертоновского подхода, и для методологии НИП Имре Лакатоша, и для эдинбургской “сильной” программы, и для куновского подхода, и для холтоновского “тематического” анализа.

В самом деле, если мы, вслед за предложенными к настоящему времени теориями рациональности, обратимся, например, к становлению науки Нового Времени, переходу “Аристотель — Галилей”, мы сможем убедиться, что теория движения Аристотеля может быть охарактеризована как учение, дававшее чрезвычайно связное и систематическое толкование данных здравого смысла. Переход к теории импетуса произошел “интерналистским” образом: как результат попыток элиминации некоторых аномалий физики Аристотеля чисто внутринаучными средствами. Сначала исследования Галилея также укладываются в традиционную схему: он пытается усовершенствовать теорию импетуса. Значительный разрыв с традицией начинается только с активного использования математики, математических объектов. Это потребовало переосмысления понятия материи; введение в физическую науку эксперимента оказалось следствием — эксперимент представляет собой идеализированный опыт, т.е. материализацию математической конструкции. И уже потом оказалось, что отождествление природы с материей, с конгломератом атомов в пустом пространстве, определяет инструментально-техническое отношение к природе: она — и кладовая сырья, и объект манипулирования[lxvii].

Аналогично, процесс рационализации физики XIX века также выразился во все меньшем внимании к механическим моделям и все большей математизации рассматриваемых процессов[lxviii]. Ключевыми фигурами этого периода развития науки выступают Лагранж, Максвелл, Больцман и Лоренц. Для максвелловской динамической аналогии, примененной в теории электромагнитного поля, характерен отрыв от рассмотрения конкретных механизмов взаимодействия и повышение абстрактности предлагаемой теории. Больцман упрочил этот отрыв, но отказ от использования “картинок” стал присущ в особой степени творчеству Лоренца. Идеалы классической науки — детерминистичность, обратимость, независимость пространственно-временных координат — стали постепенно терять свое значение. Кульминацией этого процесса стало, конечно же, создание специальной теории относительности с ее вытеснением наглядности (понятие одновременности) за счет геометризации пространственно-временного континуума.

Образцом, “парадигмой” рационализации любой области человеческой деятельности явился описанный Максом Вебером в “Протестантской этике и духе капитализма” процесс становления раннего индустриального западноевропейского общества. Случилось так, что несколько столетий тому назад в Западной Европе столкнулись и вступили во взаимодействие несколько социальных феноменов, каждый из которых нес в себе свое собственное рациональное начало: античная наука, рациональное римское право и рациональный способ ведения хозяйства. Социокультурным фактором, позволившим синтезировать все эти только намечавшиеся тренды, тенденции общественной жизни, явился протестантизм. Именно последний создал мировоззренческие предпосылки для использования в экономике достижений науки (и наоборот). В итоге в Европе сложился тип общества, которого раньше никогда не было — т.н. индустриальное общество, характеризуемое господством формально-рационального[FK1] [lxix] начала и именно этим и отличающееся от существовавших до него традиционных обществ.

Конечно, на становление индустриального капитализма повлиял целый комплекс факторови условий. Это — и образование масс свободных тружеников, и становление и утверждение научного мировоззрения, и развитие промышленности, и урбанизация. Но главным, доминирующим фактором, по Максу Веберу, стало появление обладающих иными ценностными ориентациями, по сравнению со средневековьем, людей. Они заложили иную аскетическую традицию. Лютеранские проповедники-реформаторы возвели труд, трудовые доблести на пьедестал религиозного поклонения. Предпринимателю, выросшему в пуританской традиции, чужды роскошь и расточительство, даже упоение властью. Богатство дает ему прежде всего чувство “хорошо исполненного долга в рамках призвания” (calling). Протестантской этикой честное и творческое добывание денег “в поте лица своего” санкционировалось как спасение души, а само предпринимательство рассматривалось как один из кратчайших путей, ведущих человека к богу.

Неслучайно, как показал последователь Вебера в области социологии науки Роберт Мертон, становление современной науки было связано с религиозной реформацией и формированием протестантизма с его жесткой внутренней дисциплиной, фанатическим монотеизмом, рассматривавшим жизненную биографию как служение Богу, воплощение в творчестве божественного первоначала. Естественные науки были одной из сфер, в которых веберовские предприниматели сублимировали свои религиозные порывы в страстных и небезосновательных надеждах на спасение.

С другой стороны, не кто иной как Томас Кун в “Структуре научных революций”, размышляя о прогрессе в истории науки, неоднократно подчеркивал, что последний возможен только как увеличение точности сменяющих друг друга парадигм — как последовательная математизация научного знания, выражающаяся в постепенном вытеснении квалитативизма (особенно в химии эпохи перехода от Шталя к Лавуазье) квантитативизмом. Действительно, с точки зрения теоретических антологий сменяющие друг друга парадигмы несоизмеримы. Ученые — сторонники различных парадигм — “живут” в разных мирах, разделяемых необратимыми “гештальт-сдвигами”. Но тем не менее их можно, по Куну, сравнивать с формальных сторон, в формальных отношениях.

Не кто иной как Имре Лакатош выдвинул в качестве главного критерия для предпочтения одной научно-исследовательской программы другой критерий эмпирически-прогрессивного сдвига решаемых проблем, возможного только при реализации более совершенной в математическом отношении программы. Одним из самых любимых его (и его ученика Эли Захара) примеров была победа программы Эйнштейна над программой Лоренца, кульминацией которой явилось создание предельно математизированной, по тем временам, общей теории относительности[lxx].

Причина ограниченности этих подходов состоит в том, что они основываются, во-первых, в теоретико-социологическом плане на крайне односторонней классификации типов социального действия — на веберовской классификации, различающей все социальные действия индивидов по степени их целерациональности, и, во-вторых, на еще в большей мере имплицитно принимаемом утверждении о том, что рационализация научной деятельности выражается только лишь в вытеснении целерациональным действием всех остальных. При этом “мертоновском” подходе все социальные действия сравниваются с определенным образцом, шаблоном — целерациональным действием, одним из наиболее наглядных примеров которого является математическое вычисление. Предполагается, что субъект социального действия прекрасно представляет себе цель своих действий и все его действия отличаются лишь по степени адекватности ей применяемых им средств.

Такое рассмотрение вполне оправдано, когда мы рассматриваем эволюцию одной программы, парадигмы или темы в истории науки. В этом случае действительно всеобщая цель действий индивидов зафиксирована в общепринятой парадигме, и смысл их поступков состоит лишь в уточнении этой парадигмы в тех или иных теориях, которые напоминают некоторые наброски определенного идеала, некоторые приближения к “совершенству”. Но подобный подход неэффективен, практически бесполезен тогда, когда нам необходимо рассматривать взаимодействие нескольких тем, научно-исследовательских программ или парадигм, неизбежное при фундаментальных сдвигах в истории науки[lxxi]. Почему?

Исходным для понимания эволюции науки, как и любого человеческого предприятия, является понятие социального действия. Социология, так же как и история, изучает поведение индивида или группы индивидов. Социология изучает поведение личности постольку, поскольку она вкладывает в свои действия определенный смысл. “Действием, — пишет один из классиков социологии Макс Вебер, — называется... человеческое поведение... В том случае и постольку, если и поскольку действующий индивид или действующие индивиды связывают с ним субъективный смысл”[lxxii]. В этом определении имеется в виду смысл, который вкладывает в действие сам индивид, т.н. “субъективный” смысл, но не “объективный” смысл теологии или метафизики. Отсюда — определение социального действия как такого, которое по самому своему смыслу, подразумеваемому действующим или действующими, отнесено к поведению других людей и этим ориентировано в своем протекании.

Мы можем классифицировать социальные действия по разным основаниям — по материальным или идеальным, рациональным или иррациональным мотивам, видам и типам достигаемых целей, и т.д. Сам Вебер классифицировал социальные действия по степеням связи между целью и средствами их достижения. Шаблоном, единицей измерения этих степеней социального действия он выбрал действие целерациональное как такое, которое направлено к достижению самим индивидом ясно осознаваемых целей и которое использует для достижения этих целей средства, признаваемые в качестве адекватных самим индивидом. Все остальные действия будут своеобразными отклонениями от целерационального действия — самого простого действия, в котором понимание действия и самого индивида совпадают. А именно^ “Для социологии существуют следующие типы действия: 1) более или менее приближенно достигнутый правильный тип; 2) (субъективно) целерационально ориентированный тип; 3) действие, более или менее сознательно и более или менее однозначно целерационально ориентированное; 4) действие, ориентированное не целерационально, но понятное по своему замыслу; 5) действие, по своему замыслу более или менее понятно мотивированное, однако нарушаемое — более или менее сильно — вторжением непонятных элементов, и, наконец, 6) действие, в котором совершенно непонятные психические или физические факты связаны “с” человеком или “в” человеке незаметными переходами”[lxxiii].

Наиболее рационально понятны, непосредственно и однозначно интеллектуально постигаемы те смысловые связи, которые выражены в математических или логических положениях. Мы совершенно отчетливо понимаем, что означает, когда кто-либо в ходе своих мыслей или аргументации использует законы арифметики, теоремы евклидовой геометрии, алгебраические формулы или строит цепь логических умозаключений в соответствии с правилами логики.

Истолкование такого социального действия обладает высшей степенью однозначности и наглядности. С другой стороны, понимание не целерационального, а ценностно-рационального социального действия, исходящего из каких-либо высших, метафизических ценностей — скажем, ценностей этических или эстетических, — часто наталкивается на трудности интерпретации, понимания. “А если это так, то что есть красота, и почему ее обожествляют люди? Сосуд она, в котором пустота, или огонь, мерцающий в сосуде?” (Н.Заболоцкий).

Важно иметь в виду, что сам Вебер отнюдь не утверждал, что всякое социальное действие целерационально, т.е. подобно выводу математической теоремы. Для него целерациональность — это шаблон, масштаб для измерения всякого социального действия. В каждом реально протекающем социальном действии содержатся элементы и целерационального, и ценностно-рационального, и аффективного, и традиционного действий, так что при оценке каждого конкретного действия мы можем говорить лишь о доминирующем, преобладающем элементе. (И против такого вывода трудно что-либо возразить. Другое дело — вывод, согласно которому все многообразие сторон всякого социального действия можно “загнать” в классификацию по целерациональному основанию.)

С другой стороны, тот же Вебер утверждал, что постепенная рационализация человеческого поведения, т.е. постепенное вытеснение целерациональным действием всех остальных — тенденция всемирно-исторического процесса.

Обратимся к науке. Очевидно, что чисто профессиональное поведение ученого как исследователя или преподавателя — это социальное действие, всегда отнесенное к поведению других людей (других членов научного сообщества или студенческой аудитории) и этим ориентированное в своем протекании. Ставит ли физик термоядерный эксперимент, доказывает ли математик теорему Ферма, набивает ли зоолог чучело животного — все эти действия имеют смысл только для научного сообщества, воспринимающего и пропускающего полученную информацию через свои особые фильтры[lxxiv]. Цель деятельности ученого — получение нового знания, изменяющего те знания, которые уже имеются. Его цель — не просто добыть новую информацию, но и вписать ее в старую, соотнести ее со старой, найти ей место в кладовой научного сообщества. Наука — существенно коллективное предприятие, в котором даже деятельность теоретика-одиночки (например, О.Хевисайда) имеет смысл только в рамках деятельности научного сообщества. (Для кого писал и где публиковал Оливер Хевисайд свои статьи?)

Как показал Томас Кун, для оценки развития научного знания, рассматриваемого как результат деятельности всего научного сообщества в целом, необходимо использовать понятие парадигмы. Это понятие многозначно и в дальнейшем мы будем обращаться к разным его аспектам. Но один из основных смыслов этого понятия — мировоззренческие основания научного знания, “совокупность наиболее общих представлений о рациональном устройстве природы”. Как часто отмечали философы и социологи науки, вообще понятие развития научного знания, описывающее переход его с низших уровней на высшие, имеет смысл только в рамках определенной парадигмы. Более того, по Куну, в рамках парадигмы развитие научного знания имеет особенно простой, кумулятивный, линейный характер. Это — процесс простого приращения знания, добавления новых крупиц к уже имеющимся. Известная наглядная черта развития в рамках парадигмы — это уточнение известных констант, получение новых знаков после запятой. Само принятие парадигмы — это молчаливое признание того, что все принципиальные, философские, мировоззренческие проблемы уже решены, и исследователю остается лишь применить все свои способности для уточнения отдельных деталей, решения задач-головоломок. Несомненно, что в области теоретической науки прогресс парадигмы — это постепенное вытеснение качественных, модельных рассуждений чисто количественными. Скажем, сэр Генри Кавендиш в XVIII веке измерил гравитационную постоянную с точностью до третьего знака после запятой, господин Лоран фон Этвеш в XIX веке — до четвертого, а товарищ Владимир Брагинский и мистер Роберт Дикке в XX веке — до пятого знака.

Но если мы хотим оценить смену парадигм, переход от одной парадигмы к другой, взаимодействие между несколькими парадигмами или исследовательскими программами, то веберовская классификация не всегда может нам помочь. То, что представляется рациональным в рамках одной парадигмы, может не быть таковым в рамках другой, и наоборот. Скажем, переход от одной парадигмы к другой не всегда связан с увеличением точности в описании и предсказании опытных данных. Первый пример, который приходит на ум, — это переход от птолемеевской астрономии к коперниканской. Простое перемещение системы отсчета с Земли на Солнце не уменьшило ни количество дифферентов, ни количество эпициклов. Только столетием позже, после трудов Тихо Браге, Кеплера и Ньютона, коперниканская программа превзошла птолемеевскую в математическом отношении.

Пример посвежее — переход от Лоренца к Эйнштейну, когда только что созданная, выдвинутая, предложенная специальная теория относительности не только не объясняла ничего нового по сравнению с теорией Лоренца, но даже противоречила (правда, опять же вместе с вышеупомянутой теорией) результатам опытов Бухерера. И опять релятивистская программа окончательно превзошла конкурентов только тогда, когда была разработана до сих пор остающаяся образцом математического совершенства общая теория относительности. Более того. Обе парадигмы могут оперировать математическими выражениями и, конечно же, подчиняться законам логики, что не мешает им интерпретировать одни и те же формулы по-разному.

Веберовское понимание социального действия, как показал Хабермас, является слишком узким, односторонним[lxxv]. Более того, когда сам Вебер пытается описать социальное действие возможно более полным образом, он прибегает к более обширной классификации социальных действий. В частности, социальные действия могут отличаться друг от друга не только по способам связи целей и средств, но и по механизмам координации субъектов социального действия. Например, по тому, основаны ли социальные действия на интересах или на нормативных соглашениях. (Именно по этим основаниям Вебер различал в своих поздних работах экономический порядок и порядок легальный.)

Другим основанием классификации социальных действий является их ориентация на успех или на достижение понимания. Мы называем ориентированное на успех действие инструментальным, если мы рассматриваем его с точки зрения соответствия техническим правилам и оцениваем эффективность вмешательства в комплекс событий и обстоятельств. С другой стороны, мы называем ориентированное на успех социальное действие стратегическим, если мы рассматриваем его с точки зрения следования правилам рационального выбора и оцениваем эффективность влияния на решения рационального оппонента. Коммуникативными действиями называются такие социальные действия, субъекты которых скоординированы не посредством эгоцентричных подсчетов успеха, но при помощи актов достижения понимания. В коммуникативных действиях акторы первоначально не ориентированы на их индивидуальные успехи. Они преследуют свои индивидуальные цели при условии, что они могут скоординировать планы своих действий на основе общих для всех определений ситуаций.

Структура и содержание коммуникативного действия могут быть лучше поняты при помощи введенных Остином понятий локационных, иллокуционных и перлокуционных актов[lxxvi]. При помощи локационных актов говорящий выражает состояние дел. Посредством иллокуционных актов говорящий производит действие, высказывая что-либо; это — обещание, команда, клятва и т.д. При помощи перлокуционных актов говорящий оказывает действие на слушателя. В итоге все три акта могут быть охарактеризованы следующим образом: говорить что-либо, действовать, говоря что-либо, привносить что-то, говоря о чем-либо. Как показал в своей работе Юрген Хабермас, коммуникативные действия — это такие лингвистически опосредованные взаимодействия, в которых все участники преследуют иллокуционные, и только иллокуционные цели[lxxvii].

Таким образом, коммуникативноедействие является более общим видом социального действия, охватывающим большее число элементов[lxxviii]. Коммуникативные действия, в свою очередь, делятся на беседы, нормативно регулируемые действия и драматургические действия. Типами знания, которые получаются в результате этих действий, являются эмпирически-теоретическое знание, формирующееся в результате теоретического дискурса, морально-практическое знание, возникающее в результате дискурса практического, и эстетически-практическое знание, формирующееся в результате эстетической критики[lxxix].

Вся история науки может быть понята как процесс увеличения сфер, регулируемых при помощи коммуникативного действия. Источником процесса смены парадигм является внутренняя логика развития естествознания, приведшая сначала к расщеплению единого натурфилософского мировоззрения на частные картины мира, относящиеся к разным фундаментальным физическим теориям. В основе социально-психологического механизма этого процесса лежит описанный еще Жаном Пиаже процесс децентрации жизненного мира субъекта, являющийся необходимым этапом познания мира объективного. Как хорошо известно, благодаря работам Пиаже, каждый новый этап познания человеком мира характеризуется не столько новым содержанием знаний, сколько своим собственным новым уровнем познавательных способностей человека. По мере развития ребенка вся представлявшаяся цельной Вселенная постепенно распадается на мир физических объектов, которые можно непосредственно воспринимать и которыми можно манипулировать, с одной стороны, — и на мир нормативно регулируемых человеческих отношений — с другой. Умственное развитие ребенка приводит к появлению системы отсчета, в которой происходит выделение объективного и социального мира из мира человеческой субъективности. Когнитивное развитие выражается в децентрации эгоцентрического понимания мира.

Аналогично, согласно Максу Веберу, в результате внутреннего, самостоятельного развития универсального и целостного средневекового религиозного мировоззрения происходит выделение, дифференциация когнитивных, эстетико-экспрессивных и морально-ценностных элементов. Каждая из этих трех ценностных сфер начинает затем развиваться по своим собственным законам, диалектически взаимодействуя с остальными[lxxx]. Каждая из выделившихся культурных сфер находит свое выражение в соответствующем образе жизни, так что конфликт между разными культурными сферами приводит к конфликту между разными образами жизни и к социальным конфликтам в частности[lxxxi].

Более того, процесс дифференциации имеет место и внутри каждой сферы. Скажем, в когнитивной сфере все познание в целом расщепляется на две независимые области — теорию и практику, каждая из которых также начинает развиваться по своим собственным законам в каждом из трех основных социетальных измерений — личностном, культурном (возникает два уровня научного знания — теоретический и эмпирический) и институциональном (возникают две профессии — теоретик и экспериментатор с соответствующими кафедрами, отделами и т.д.).

Согласно Максу Веберу, как невозможно этическое объединение всех разошедшихся в разные стороны ценностных сфер, так и невозможно объединение всех наук и областей науки в некоторой единой теории. Рационализированный, расколдованный мир становится бессмысленным, поскольку разные “боги и демоны”, относящиеся к разным ценностным сферам, находятся в состоянии вечного антагонизма друг с другом.

Если на стадии расщепления цельного религиозного мировоззрения доминирует веберовское целерациональное действие (поэтому процесс эволюции одной изолированной парадигмы хорошо описывается куновской концепцией), то затем ему на смену приходит коммуникативное действие, ставящее своей целью согласование внутренних когнитивных структур, относящихся к разным парадигмам. Согласно Хабермасу, принципиальное отличие коммуникативного действия от всех прочих видов состоит в том, что оно ориентировано не на успех, а на нахождение взаимопонимания между разными социальными субъектами. В нашем случае социальными субъектами являются разные научные сообщества физиков, относящихся к разным, но существующим одновременно, однопорядковым парадигмам. Как показал еще Т.Кун, каждая парадигма обладает по меньшей мере тремя аспектами. С одной стороны, это — наиболее общая картина рационального устройства природы, некоторое минимировоззрение. Но с другой стороны, это — дисциплинарная матрица, характеризующая совокупность убеждений, ценностей, технических средств и т.д., которые сплачивают специалистов в данное научное сообщество. И только в -третьих, парадигма — это общепризнанный образец, шаблон для решения задач-головоломок.

Поэтому конфликт парадигм — это прежде всего конфликт разных систем ценностей, разных способов решения задач-головоломок, разных способов измерения и наблюдения явлений, разных практик, а не только разных картин мира. Следовательно, согласование парадигм не может состоять только в нахождении некоторой всеохватывающей “научной картины мира”, способной отобразить, скажем, “дуализм волны-частицы” — печально известный из отечественных диаматовских учебных пособий банальный пример. Согласно Хабермасу, подлинное коммуникативное действие отличается от всех прочих тем, что оно выступает механизмом координации планов социальных действий субъектов, достигаемых в описанных еще в аналитической философии Остином и Стросоном перлокуционных актах. Коммуникативное действие — это “комплекс взаимодействий”, комплекс социальных действий субъектов социального действия. Коммуникативное действие не обязательно сводится к речевым актам. Скажем, в общем случае эволюции общества медиумом коммуникации могут выступать денежные банкноты или даже играющие роль материальных ценностей обычные вещи. Поэтому механизмами координации систем ценностей выступают описанные Хабермасом в “Структуре социального действия” социальные механизмы трех ценностных сфер общества. Эти ценностные конфликты являются неотъемлемой стороной общественной жизни — см. так красочно описанные еще Вебером конфликты между ценностями этической, эстетической и религиозной сфер. Как показал Хабермас, ценностные конфликты разных культурных сфер находят свое выражение в конфликтах интересов, в конфликтах самих социальных действий, приводя в движение мощные социальные механизмы.

Только с логико-методологической, весьма односторонней точки зрения разрешение конфликта между парадигмами может состоять в построении более общей глобальной теории, содержащей конфликтующие парадигмы в качестве своих частных случаев[lxxxii]. В самом общем случае взаимодействия нескольких парадигм их согласование должно состоять в согласовании различных систем ценностей, и далее — разных технических приемов, разных способов измерения, разных способов вычисления, разных способов наблюдения явлений — разных практик, что может быть описано только в рамках концепции коммуникативного действия.

Таким образом, излюбленный пример прогрессирующей программы в современной философии и социологии науки -релятивистская программа Эйнштейна — была лучше соперничавших с ней программ не тем, что она лучше согласовывалась с фактами или лучше их предсказывала. Как хорошо известно, на первых порах своего существования специальная теория относительности не предсказывала ничего нового по сравнению с соперницами и даже в течение года — с 1905 г. по 1906 г. — противоречила данным экспериментов Бухерера по отклонению катодных лучей в магнитных полях. Она превосходила их прежде всего потому, что являлась основой для согласования не только теоретических антологий, но и также эмпирических и теоретических исследовательских практик и ценностей разных фундаментальных физических теорий. Это объединение нельзя понимать наивно как создание некоей всеохватывающей теории, содержащей встретившиеся парадигмы в качестве своих частных случаев. В самом общем случае речь идет о запуске целого комплекса социально-психологических механизмов как на уровне индивидов, так и на уровнях культурном и социетальном.

В историко-научных работах автора показано, что “постмодернистская” физика началась с эйнштейновских попыток примирить электродинамику, механику (включая статистическую) и термодинамику в 1905 году[lxxxiii] и его объединения специальной теории относительности и ньютоновской теории гравитации в общей теории относительности. Поэтому переход от старой парадигмы к новой должен описываться не только так, как это делал Томас Кун — не в терминах вытеснения целерациональным типом социального действия всех остальных трех веберовских типов. Этот переход должен в общем случае описываться не в веберовских, а в хабермасовских терминах постепенного становления коммуникативного действия и вытеснения им остальных механизмов координации социальных действий. Программа Эйнштейна вытеснила конкурентов не только потому, что она была лучше их в эмпирическом отношении. Она превосходила соперниц потому, что явилась основой для диалога между представителями ведущих парадигм старой физики, до Эйнштейна находившихся в состоянии значительной психологической, институциональной и культурной изоляции.

М.Д.Ахундов

Социальное влияние на науку:
локальное или атрибутивное?

Во второй половине ХХ века разгорелась интересная дискуссия о природе науки: является ли она системой объективного знания или особой формой социального конструирования? На фоне кризиса неопозитивизма ярко засверкала книга Томаса Куна о структуре научных революций, которая наметила путь к не менее броским последующим концепциям социологии научного знания, например, к “Сильной программе” Дэвида Блура, в которой была сделана попытка использовать социальные причины и метафоры не только для объяснения неудач в науке, но и всех научных достижений. Стала модной идея о конце традиционной философии науки, чья роль и функции должны перейти к социологии науки или социологии научного знания.

Речь фактически шла не просто о кризисе неопозитивизма, а о крахе логико-методологического подхода к науке, вместо которого следует развивать более продуктивные социологические или археологические подходы, в которых наука может предстать как постиндустриальная форма шаманизма, к тому же перегруженная мужскими символами, что так коробит современных феминисток. Интересно отметить, что представители социологии научного знания уделяют много критического внимания стандартному логико-методологическому подходу к научной теории (К.Гемпель, Р.Карнап и др.), но стараются не замечать более продвинутые подходы в этой области, например модельно-теоретический подход, структуралистский подход, теоретико-множественный подход (Ван Фраассен, Ф.Сапп, П.Суппес, Дж.Снид, В.Штегмюллер, В.Балзер и др.), которые чересчур формальны для поиска социальных атрибутов или парадигмальных нагруженностей. В свою очередь, сами ученые и представители логики и методологии науки относятся весьма скептично к социоархеологическим изысканиям в области науки, что же касается постмодернистских изысков в этой области, то они рассматриваются как нечто анекдотическое, требующее не столько серьезной критики, сколько юмористического розыгрыша.

Наибольшую известность получил розыгрыш Алана Сокала, который опубликовал в постмодернистском журнале “Социальный текст” статью-пародию “Переход границ: к трансформативным герменевтикам квантовой гравитации”[lxxxiv]. Иногда этой статье придается слишком большое значение. Например, Лорен Грэм считает: “В результате публикации в 1996 г. известной статьи физика Нью-йоркского университета Алана Сокала многие ученые и математики считали дискредитированным тезис социальных конструктивистов — тех специалистов по исследованию науки, кто утверждает, что наука подвержена воздействию социальных и культурных факторов”[lxxxv]. После того, как статья-розыгрыш была опубликована в достаточно маргинальном журнале, Сокал немедленно опубликовал следующую статью-саморазоблачение в журнале более широкого профиля[lxxxvi]. Тем не менее я уверен, что многие ученые и математики узнали о розыгрыше Сокала лишь из статьи известного физика Стивена Вайнберга, которая была позднее опубликована в Нью-Йоркском книжном обозрении (8 августа 1996 года). Но даже подобная рекламная статья нобелевского лауреата навряд ли могла дискредитировать тезис социальных конструктивистов. Если мы не можем отдать Кесарю кесарево (нет денег), то следует хотя бы отдать Сокалу сокалово.

Для самого Сокала было очень важно разъяснить, что возможно вывести из его пародии. Во-первых, он хотел продемонстрировать, что мастера постмодернизма (деконструктивистская теория литературы, феминистская эпистемология, экстремальная социоконструктивистская философия науки и т.д.) понаписали множество бессмысленных и абсурдных предложений о науке, пытаясь отвергнуть и обесценить традиционное понимание науки как системы объективного знания и взамен развить новое видение науки как особой формы социального конструктивизма. Сокал использовал множество подобных абсурдных положений из публикаций Ж.Деррида, Ж.Лакана, Ж.-Ф.Лиотара и др., что и послужило основой для его пародии. Я не исключаю возможности, что эта пародия может вызвать восторг, но она не может ответить на вопросы или решить проблемы. Соответственно Грэм справедливо указывает, что “основной спорный вопрос остается, однако, неразрешенным. До какого предела наука и математика подвержены воздействию общества, в котором они развиваются?”[lxxxvii]. Во-вторых, Сокал преследует еще и политическую цель. Он разгневан, ибо многие из вышеупомянутых глупостей были порождены самопровозглашенными “левыми”. Сокал выступает именно как оскорбленный “левый”: “Для большей части прошедших двух веков Левое движение идентифицировалось с наукой и противостояло обскурантизму; мы верим, что рациональная мысль и бесстрашный анализ объективной реальности (как природной, так и общественной) являются острым оружием в борьбе с мистификациями… Современный поворот многих “прогрессивных” или “левых” научных гуманитариев и социальных исследователей к той или иной форме познавательного релятивизма предает это ценное наследие”[lxxxviii].

Я вынужден разочаровать Сокала, ибо здесь нет никакого “современного поворота”, а есть достаточно типичная “левая” позиция по отношению к науке. Например, Н.Бердяев писал как раз об этой проблеме в начале ХХ века: “Нужно наконец признать, что “буржуазная” наука и есть именно настоящая, объективная наука, “субъективная” же наука наших народников и “классовая” наука наших марксистов имеет больше общего с особой формой веры, чем с наукой”[lxxxix].

Народники, анархисты, марксисты,…, постмодернисты обживают “левый” угол очень красочной философской провинции Романтизма, которую так вдохновенно “обустроили” еще И.Гердер, Новалис, Фр.Шлегель и другие любители “бури и натиска”. Здесь важно подчеркнуть, что Наука и Романтизм очень часто рассматриваются как нечто антитетическое и оппозиционное (не оппозиция поэзии и прозы, но поэзии и науки). Это не совсем верно. Романтизм действительно стремится отвергнуть науку как систему объективного знания, но взамен он пытается развить новую, антимеханистическую, организмическую, телеологическую науку, да еще в единстве с социальными ценностями, религиозной верой, философскими идеями, поэтическими эмоциями и т.д. Для “левых” все эти романтические красоты были чересчур сложны и они редуцировали их к одному, но очень фундаментальному уровню — это был идеологический уровень. Они не могли поверить, что наука ХVIII — ХIХ веков могла быть свободна от социальных и культурных ценностей. Если эта наука была развита в буржуазном обществе, то она должна была быть “буржуазной” наукой и содержать буржуазные идеологические ценности. Соответственно “левые” сформировали основу для идеологической борьбы против “буржуазной” науки, дабы была развита наука “пролетарская”. Такая идеологическая борьба была очень типична для СССР в 20—50 годы[xc].

Парадоксально, но “левые” начали свою идеологическую войну против “буржуазной” науки как раз в ХIХ веке, когда была уже сформирована идея объективной науки, свободной от каких-либо ценностей. В предшествующие века наука выступала в форме тесной взаимосвязи натуральной (даже экспериментальной) философии и натуральной теологии, где научные и теологические истины были в полном соответствии, гармонии и даже идентичности. Можно говорить о начальной теологической детерминации научного знания. С одной стороны, было необходимо провести христианскую реконструкцию всех античных доктрин, концепций и моделей, которые были восприняты европейской культурой в эпоху Ренессанса (и даже ранее). С другой стороны, было необходимо использовать теологические (метафизические) предпосылки для развития натуральной философии ХVII века. Например, я могу указать на следующие трансформации: совершенный Бог — лучший из всех возможных миров — предустановленная Гармония — фундаментальные физические законы сохранения. В Европе было много различных церквей (католическая, протестантская, унитарная, англиканская и др.) и различных теологических доктрин, что повлекло к идеологической борьбе вокруг науки. Учёные-теологи пытались демонстрировать, что их оппоненты были еретиками и антихристианами (очень показательна переписка Лейбница с Кларком). В результате такой борьбы и интенсивного развития науки оказалось возможным понять, что существуют много противоречащих друг другу теологических систем, но только одна рациональная, объективная, экспериментально подтверждаемая наука.

Для западноевропейских “левых” было невозможно в ХIХ веке принять идею науки, свободной от социальных ценностей, но они имели колоритных предшественников и идеологических единомышленников в России. В этой связи совершенно прав Грэм, утверждая, что Россия представляла собой очень специфический и удобный полигон для тестирования гипотез социальных конструктивистов. Уже в России ХVIII века мы можем обнаружить “конструктивистские” идеи. Так при Петре Великом были приглашены в Россию немецкие профессиональные историки для создания российской истории. Они явились в Россию с идеалами свободной науки просвещенного Запада и были уверены, что цель науки заключена в поисках объективной истины. Однако истина, которая предстала в их исторических изысканиях, показалась ущербной для патриотического взора русского образованного общества. Соответственно немцев попытались уличить в подтасовке фактов и посягательстве на главные российские ценности, а саму науку заподозрили в наличии какой-то западной специфики, которая делает эту науку малопродуктивной на русской почве: России не нужна “немецкая” наука и необходимо развивать особую “русскую” или “славянскую” науку. Западная наука рассматривалась в России ХVIII-XIX веков как опасный идеологический “троянский конь”. Причем “латинская” наука папежников рассматривалась как нечто более опасное, чем наука “немецкая” (т.е. “протестантская”). Социалистическая революция 1917 года не принесла конец такому идеологизированному подходу к науке. Религиозные и национальные ценности были заменены на ценности классовые, то есть пролетарские. Это как раз и был триумф Левого движения: на авансцену Истории вышли Романтики… с большой дороги.

Здесь будет полезно напомнить читателю концепцию идеологизированной науки, которая была развита в конце предыдущего тысячелетия[xci]. Три важных положения (или принципа) определяют статус науки: 1) наука имеет социальную природу и может быть развита в социальном контексте особого типа; 2) наука испытывает воздействие социальных ценностей, например идеологические установки ученых и их метафизические предпосылки могут оказывать воздействие на создаваемые ими научные концепции; 3) объективный статус науки. Забвение третьего принципа, отказ от него или сомнения в нем как раз и порождают феномен идеологизированной науки, будь то “славянская” наука, “арийская” наука, “пролетарская” наука или даже нечто совсем уж постмодернистское, например “демократическая — постколониальная — неевропоцентристская — профеминистская – поликультурная” наука. Во всех таких случаях идеологические ценности не просто обусловливают поведение или склонности ученых и их мировоззренческие и методологические предпочтения, но и стремятся проникнуть во внутреннюю структуру науки.

Конечно, мы должны учитывать, что два положения — “наука как система объективного знания” и “наука как форма социального конструирования” — это всего лишь лозунги двух различных подходов к науке. Первый подход был сформирован еще во времена научно-теологического содружества. Я могу предложить, например, следующую линию трансформаций: единый совершенный Бог обладает объективным знанием реальности — объективное знание реальности существует — Природа есть великая Книга, написанная математическим языком — наука есть система объективного знания. Естественно, очень важные различия существуют между божественным объективным знанием как абсолютно истинным и абсолютно полным знанием реальности, и научным объективным знанием, которое ученые должны развивать, уточнять и аккумулировать. Ученые и философы науки также должны бороться против различных Идолов (по Ф.Бэкону), они должны элиминировать ложные гипотезы и теории, они должны разрабатывать и использовать специальные методологические и логические принципы для того, чтобы развивать более совершенные модели науки в рамках первого подхода. Я могу указать некоторые из таких моделей:

1) наука как формирование объективного знания реальности, а также теоретическая систематизация и экспериментальная проверка такого знания;

2) позитивизм и механицизм ХIХ века восприняли такую модель науки, но добавили к ней важные положения и принципы, например, что все научное знание должно базироваться на чувственном опыте и что наука должна быть развита в соответствии с принципами механицизма, унификации и редукционизма;

3) логический позитивизм ХХ века попытался объединить позитивистскую модель науки с новой формальной (символической) логикой, дабы провести, например, формальное исследование структуры науки.

Логические позитивисты, конечно же, понимали, что реальное научное мышление не подвластно строгим канонам формальной логики. Соответственно они провели различение между контекстом открытия и контекстом обоснования. Контекст открытия может быть нелогичным и даже иррациональным. Но и оставшаяся часть научной теории, которая составляет контекст обоснования, не может быть непосредственно подвергнута формальному истолкованию. Необходимо провести специальную реконструкцию научной теории, например аксиоматическую реконструкцию, а также использовать специальную верификационную теорию значения, дабы элиминировать все бессмысленные предложения и слова из контекста обоснования (например, все социальные атрибуты). Подобные строгие логические требования было очень трудно реализовать. Их скорее следует рассматривать как некий идеал. Но подобные трудности (и даже кризис) логического позитивизма и соответствующей модели науки не столь уж и важны сейчас. Более важно, что мы можем лучше понять с этих позиций суть дискуссии Сокала и Грэма, в которой они оба обращаются к двум контекстам логического позитивизма. Сокал описывает достаточно традиционную точку зрения: социальные, политические, религиозные и философские идеи могут воздействовать на контекст открытия, что же касается контекста обоснования, то общепринято, что подобные идеи “лишь ИНОГДА влияют на оценки учёными доказательств за или против конкретных теорий (описательное утверждение)” и “такие влияния вредны (нормативное утверждение)”[xcii]. Так как Сокал признаёт, что социальные факторы влияют только на контекст открытия, то Грэм определяет такой подход как “локальный”. Со своей стороны Грэм предлагает “атрибутивный” подход: “ Я не принимаю того взгляда, что определённые категории или типы научных утверждений, будь то математические уравнения или сущностные теории, не подвержены социальному влиянию. На мой взгляд, любая часть науки может быть подвержена такому влиянию…. Поэтому социальное воздействие на науку наилучшим образом описывается как “атрибут”[xciii].

Я думаю, что подобный подход можно рассматривать как более сильную программу, чем “Сильная программа” Д.Блура в социологии научного знания. К счастью, такой вывод можно считать слишком поспешным. Я пишу “к счастью”, потому что хорошо знаю Лорена Грэма и уверен, что он совсем не стремится стать представителем экстремистского крыла социальных конструктивистов. Дело в том, что Грэм фактически не рассматривает контекст открытия и контекст обоснования. Речь идет о более размытой и менее структурированной модели: “мягкие” части научных теорий, вроде их философских интерпретаций, и сущностные теории с математическими уравнениями, которые лежат в основе современной физики. Сразу хочу отметить, что философские интерпретации научных теорий не входят ни в контекст открытия, ни в контекст обоснования. Более того, они не являются “мягкими” частями научной теории и могут вообще далеко выходить за пределы науки.

Что касается сущностных (базисных) теорий и их математических уравнений, то мы можем рассмотреть достаточно традиционную модель физической теории: фундаментальные физические законы как аксиомы физической теории, которые используются для выведения множества теорем, которые связаны с наблюдаемыми величинами при помощи правил соответствия, с последующим экспериментальным подтверждением теории. Мы используем различные математические уравнения на различных уровнях физической теории: уровень аксиом, уровень теорем, уровень правил соответствия, операциональный уровень и т.д. Мы можем рассматривать как сущностное ядро физической теории только уровень аксиом и теорем (с их уравнениями), но не правила соответствия, начальные условия, эмпирические интерпретации и т.д.

Соответственно, когда Грэм пишет, что социальное воздействие на науку можно наилучшим образом охарактеризовать как атрибутивное, мы должны спросить его о сути такого атрибута. Возможно ли применять один и тот же атрибут для всех частей или уровней физической теории или различные уровни могут испытывать такое воздействие в различной степени, от абсолютно тривиальных форм в сущностных теориях (например, некоторые предрасположенности ученых к различным эквивалентным математическим описаниям) до более “конструктивистских” форм на операциональном или эмпирическом уровнях? Может имеет смысл вспомнить, что философы разработали не только представление об атрибутах, но еще и об акциденциях.

Грэм уверен, что даже математические уравнения сущностных теорий могут нести социальные атрибуты. Естественно, необходимо найти особую страну или культуру, где наука была развита достаточно плодотворно, но в очень необычной идеологической среде. Грэм считает, что советская наука может быть подходящим объектом для такого исследования. С одной стороны, марксизм был важным фактором, воздействующим на советскую науку (иногда в положительном направлении). С другой стороны, некоторые выдающиеся советские ученые восприняли марксизм, получили важные научные результаты и, что очень важно для Грэма, вывели математические уравнения. Одним из таких ученых был ведущий советский физик В.А.Фок, решительный защитник теории относительности. Грэм пишет, что “Фок был убежденным марксистом и для того, чтобы сделать теорию относительности более совместимой с его философскими взглядами, он был вынужден не только предложить изменения в терминологии Эйнштейна, но также модифицировать математическое обоснование теории относительности”[xciv].

Я хочу кратко коснуться обоих тезисов: марксизм Фока (и роль марксизма в советской науке) и его модификация уравнений Эйнштейна. Грэм пишет, что слышал от многих об искренней приверженности Фока диалектическому материализму. Более того, Грэм цитирует историка российской физики Г.Горелика: “Нет сомнений, что Фок в 1930-е годы был уже искренне привержен к диалектическому материализму”. Однако Грэм не приводит конца этого предложения, где Горелик указывает, что Фок был привержен к тому, что он называл “диалектическим материализмом”. Если у читателя возникнет вопрос, а что же это было на самом деле, то Горелик может помочь: за фоковским “диалектическим материализмом” можно обнаружить… платоновский идеализм[xcv]. С учетом подобного марксизма-платонизма я вспоминаю, что советские лидеры в 1930-е годы подозревали (а в КГБ успешно “доказывали”), что советские ученые и интеллектуалы были подобны редиске с красной кожицей и белой начинкой, то есть с марксистской фразеологией и антисоветской сутью. Конечно, я уверен, что Фок не держал за пазухой каких-либо антисоветских камней, но я также уверен, что его марксизм (как и марксизм подавляющего большинства советских ученых) имел формальный и поверхностный (как кожица) характер. Я очень сомневаюсь, что кто-либо в Советском Союзе мог развить научную теорию под воздействием марксизма. Иное дело, что очень многие пытались продемонстрировать, что научные теории их оппонентов были в противоречии с теми или иными принципами марксизма (в действительности речь шла о фантомных противоречиях с вульгаризированными принципами).

Такое агрессивное использование марксизма (или “воинствующего материализма”) изначально было типично для непрофессиональных новых “коммунистических” ученых и “красных” профессоров (благо были созданы специальные Коммунистическая Академия, Институт Красной Профессуры и прочие аналогичные кузницы аналогичных кадров) в борьбе против профессиональных ученых, которые получили образование в университетах дореволюционной России или Западной Европы. Некоторые из этих профессиональных ученых (П.Л.Капица, Л.Д.Ландау, В.А.Фок, Ю.А.Харитон и др.) стажировались в лучших научных западных центрах (Берлин, Кембридж, Копенгаген, Париж) уже в советское время. Так как этим профессиональным ученым приходилось не только вести научные исследования и преподавательскую практику, но также участвовать в идеологической борьбе, то они (часть из них) вынуждены были принять на вооружение марксизм или, по крайней мере, агрессивную марксистскую фразеологию, хлесткие обвинения и дежурные лозунги. Для этих целей было совершенно достаточно прочесть и усвоить всего лишь одну книгу В.И.Ленина “Материализм и эмпириокритицизм”, – вялотекущее изучение этой книги составляло содержание многочисленных методологических семинаров в советских научных институтах. Показательно, что Фок рассматривал эту книгу Ленина как эталон диалектического материализма.

В течении 20—50-х годов “пролетарские” ученые и философы пытались продемонстрировать, что все современные западные научные теории (теория относительности, квантовая механика, генетика, кибернетика и др.) были опасными формами идеализма и буржуазной идеологии. В этой ситуации профессиональным ученым было необходимо:

1) вскрыть безграмотность и невежество своих “пролетарских” оппонентов, причем как в науке, так и в марксизме;

2) защитить свои собственные теории и исследования от глупых, но опасных идеологических обвинений;

3) проводить научные исследования, развивать новые теории и т.д.;

4) критиковать идеологические, философские и научные ошибки ведущих западных ученых (Н.Бор, В.Гейзенберг, Дж.Джинс, П.Иордан, Э.Милн, А.Эддингтон, А.Эйнштейн и др.).

Например, Фок сумел защитить теорию относительности Эйнштейна и провести содержательные исследования в этой области, но, в то же самое время, он должен был критиковать Эйнштейна за ложные философские идеи, физические ошибки и математические несовершенства, которые необходимо было корректировать и развивать дальше на основе марксистских установок. Фок писал в письме к И.Е.Тамму, что хочет показать философские грехи Эйнштейна и дать им отпущение. Здесь встают три вопроса: 1) о каких философских грехах Эйнштейна идет речь? 2) какие инновации сделал Фок в общей теории относительности? 3) могли ли фоковские уравнения испытать воздействие со стороны марксизма?

Естественно, Эйнштейн не был святым и, возможно, имел философские (и не философские) грехи, но Фок мало что знал о таких реальных грехах Эйнштейна и вынужден был использовать то, что мог найти в нелепых публикациях невежественных “пролетарских” ученых и философов. Например, общая теория относительности рассматривалась как крайняя форма философского релятивизма, которая не только изгоняла любые элементы абсолютности из современной физики, но также настаивала на относительности Добра и Зла, истины и лжи. Подобные обвинения посылались не по адресу. Эйнштейн неоднократно отвергал любые связи своей теории с какими-либо формами философского или этического релятивизма. Я думаю, что после того, как Г.Минковский развил четырёхмерный формализм для специальной теории относительности, стало совершенно очевидно, что абсолютность играет в этой теории не менее важную роль, чем относительность. Тем не менее Грэм описывает следующее воззрение Фока: “Единственной вещью, которой теория относительности не была, настаивал Фок, так это чисто релятивистской теорией. Он был убеждён, что чисто релятивистская теория с трудом была бы воспринята диалектическими материалистами вроде него самого, с их признанием объективной реальности и оппозицией к полностью релятивистским понятиям истины”[xcvi]. Я хочу ещё раз повторить, что подобные представления были не только трудно воспринимаемы для диалектических материалистов, но и чужды самой теории относительности. Однако сейчас более важно рассмотреть представления Фока, на базе которых он пытался развить математическую основу для общей относительности. Он считал, что такая основа должна быть в согласии с теорией Эйнштейна, но определять иные философские выводы.

Фок стремился показать, что общая теория относительности была не полностью релятивистской теорией и, более того, обосновывала материализм. Для этой цели Фок пытался использовать привилегированную систему координат — гармонические координаты. Он подчёркивал, что гармонические координаты отражают важные внутренние свойства пространства-времени, а также свойства, связанные с распределением и движением весомой материи. Фок пытался развить более совершенную теорию гравитации на базе таких координат. Может сложиться впечатление, что подобные усилия Фока были безусловно успешны, ибо Грэм пишет, что многие ведущие специалисты в области общей относительности (Дж. Уилер в США, А.Лихнерович во Франции и др.) оценивали разработки Фока как оригинальные и впечатляющие. Однако ситуация была не столь однозначна, и соответственно необходимо ответить на вопрос: что оригинального и ценного было в разработках Фока, а что встретило негативную реакцию научной общественности?

В связи с этим вопросом будет полезно использовать теперь мои замечания об уровнях физической теории: 1) фундаментальные принципы, законы и их математические уравнения (дедуктивно организованное множество аксиом, определений и теорем) базисной теории, и 2) правила соответствия, начальные и граничные условия, процедуры измерения, эмпирические интерпретации, экспериментальные подтверждения. Хронологически первый реальный успех в развитии теории относительности был достигнут в ядре теории (то есть на первом уровне): Эйнштейн разработал общую теорию относительности и знаменитые гравитационные уравнения в искривлённом четырёхмерном пространстве-времени Римана. Следующим шагом явилось экспериментальное подтверждение теории: Эддингтон провёл первое наблюдение искривления световых лучей в солнечном затмении 1919 года. Это был великий триумф общей теории относительности, который заслонил другие очень важные проблемы, полностью не решённые до сегодняшнего дня. Например, мы используем координаты, чтобы описать события в четырёхмерном пространстве-времени, но эти координаты являются лишь способом нумерации точек в четырёхмерном многообразии и не совпадают с “наблюдаемыми”, которые фигурируют в физических экспериментах по измерению пространственных и временных характеристик. Определение этих характеристик в искривленном пространстве-времени является очень сложной проблемой. Соответственно в общей теории относительности было очень важно разработать переход от теоретических понятий к физическим наблюдаемым величинам. Фоковский подход на основе гармонических координат был одним из многих конструктивных подходов к наблюдаемым физическим величинам в общей теории относительности. Уилер и Лихнерович пытались найти свои собственные решения этой же самой проблемы и, естественно, для них был интересен и оригинален подход Фока на базе гармонических координат. Я думаю, что социальные ценности могут оказывать определенное влияние на этот уровень координат, начальных условий и т.д.

Фок также использовал гармонические координаты и определенные упрощения для переформулировки эйнштейновских гравитационных уравнений. В результате он развил иные уравнения, например для тензора кривизны, и был уверен в преимуществе своих уравнений. Он показал, что однородное на бесконечности пространство может быть наделено привилегированной системой координат (гармоническими координатами), которая будет проявлением абсолютности в эйнштейновском релятивистском мире. Фок считал, что речь должна идти не об общей теории относительности (или теории общей относительности), а о более совершенной теории гравитации, которая дает возможность решать многие важные проблемы. Такие претензии встретили резко отрицательную реакцию со стороны западных ученых, особенно тех, кто был близок к Эйнштейну и сотрудничал с ним. Реакция советских ученых также была весьма скептическая. Когда Леопольд Инфельд (сотрудник и соавтор Эйнштейна) был приглашен на конференцию в Москву в 1955 году, он смог наблюдать показательную картину: практически все ведущие советские физики (В.Гинзбург, Л.Ландау, И.Тамм и др.) выступили в защиту Эйнштейна. Фок пытался объяснить преимущества своей теории с физической и философской (марксистской) точек зрения, но его оппоненты заявили, что совершенно нет необходимости вводить дополнительные уравнения для определения координатной системы и что это не дает ничего нового. Фок оказался в полной изоляции[xcvii]. Таким образом, можно считать, что претензии Фока оказались необоснованными, но это не означает, в свою очередь, что оказались необоснованными и претензии Грэма. Я думаю, что случай Фока не является удачным для тестирования грэмовского подхода к социальным атрибутам.

Во-первых, уравнения Фока и его теория гравитации имеют отношение не столько с “твердым ядром” общей теории относительности, сколько со вторым уровнем физической теории, то есть со специальной формой конкретной модификации общей теории и с ее приложением к определенному идеализированному миру, где имеет место евклидовое поведение на бесконечности, где необходимо ввести конкретные начальные и граничные условия, где необходимо использовать привилегированную систему координат. Я уже указывал, что на таком уровне рассмотрения вполне возможны заметные влияния социальных факторов, но это не ядро общей теории и не ее фундаментальные уравнения. Если мы хотим рассматривать социальные атрибуты “ядра” физической теории, то необходимо анализировать такие возможные воздействия в развитии физической теории на ее теоретическом уровне, например развитие классической механики от уравнений Ньютона к уравнениям Лагранжа и уравнениям Гамильтона, а для полной уверенности можно также рассмотреть более формальные аксиоматические основания классической механики частиц[xcviii]. Аналогичный анализ можно провести для развития квантовой механики: от волнового уравнения Шредингера и матричных уравнений Гейзенберга к уравнениям Дирака и далее к уравнениям фон Неймана в бесконечномерном гильбертовом пространстве. Я думаю, что подобная теоретическая эволюция может быть рассмотрена и в случае общей теории относительности как цепь теоретических обобщений: от гравитационных уравнений Эйнштейна к геометризованной теории гравитации и электромагнетизма, далее к уравнениям единой теории поля и, наконец, к квантовой геометродинамике, где придется искать социальные атрибуты в пенообразной структуре пространства с переменной топологией (Дж.Уилер).

Вторая причина, по которой случай Фока не подходит для подтверждения тезиса социальных конструктивистов, состоит в том, что марксизм Фока носил формальный и конформистский характер. Я встречался с Фоком несколько раз (даже ездил в Ленинград для специальной встречи) и имел интересные с ним беседы о философии естествознания. Он, конечно же, был выдающимся ученым, но весь его марксизм может быть сведен к трем предложениям: 1) мир есть движущаяся материя в пространстве и времени, 2) движущаяся материя находится под действием законов диалектики, 3) мы можем получать объективное знание о реальности. Такой “марксизм” можно найти уже у досократиков, да и просто в здравом смысле.

В заключение я хочу подчеркнуть, что необходимо использовать очень специальные социальные ценности, дабы проверить тезис социальных конструктивистов. Такие ценности должны быть не только на языках ученых, но в их душах, сердцах и умах. Марксизм советских ученых мало пригоден на эту роль. Вместе с тем возможны какие-то другие социальные ценности, которые существенны для определенной части российских ученых, наприме, славофилизм, русский национализм, антисемитизм, идеология православной церкви, софиология и др., и которые могут быть продуктивны для социологии знания. Совсем не обязательно, чтобы такие социальные ценности имели общий для всего общества характер, как официальная идеология тоталитарного государства (коммунизм или фашизм). Достаточно рассмотреть одного ученого хотя бы с одной социальной ценностью в душе, который сделал одно выдающееся открытие в науке. Соответственно я могу себе представить, что скрытый еретический социанизм Ньютона мог оказать влияние на его научные идеи и даже на его математические уравнения, но я не могу себе представить, что фоковский “дежурный” марксизм мог играть какую-либо роль в его научных изысканиях.

Грэм пытается показать, что его подход не зациклен лишь только на Россию, но касается воздействия социальной среды на физику и математику везде. Он оглядывается назад на историю физики и находит там множество примеров подобных взаимодействий между математикой и философией: “Пифагорейцы и их вера во взаимосвязь математики и музыкальных гармоний, астрономы Птолемея и их приверженность к сферическому описанию небесных тел, Кеплер и его геометрическое строение солнечной системы, Максвелл и его объяснение электромагнитных полей на основе механических и гидродинамических аналогий”.[xcix] Мне импонирует точка зрения Грэма, что везде можно обнаружить воздействие социальной среды на физику и математику, но я хочу заметить, что его четыре примера не подтверждают подобное воззрение. Более того, эти примеры могут быть использованы для демонстрации противоположной точки зрения:

1) пифагорейцы действительно были уверены во взаимоотношении математики и музыкальной гармонии, но последняя была частью древнегреческой математики (арифметика, геометрия, музыкальная гармония и математическая астрономия). Таким образом, музыкальная гармония (как особая теория чисел) была истинным интеллигибельным знанием, без каких-либо мнений, чувств и ценностей;

2) в птолемеевской астрономии была приверженность к сферическому описанию небесных тел или, что более важно, было необходимо использовать равномерные круговые движения, дабы быть в согласии с принципами Аристотеля и с платоновским методологическим требованием “сохранить явления”. Тем не менее сам Птолемей вынужден был ввести в рассмотрение “эквант”, без которого было невозможно развить работающую модель, но с которым в систему пришли неравномерные вращения…. В полном противоречии с традиционными философскими ценностями. Интересно отметить, что Коперник позднее пытался элиминировать все подобные не-Аристотелевские элементы из астрономии и в результате развил гелиоцентрическую модель, которая была… в ещё большем противоречии со старыми и новыми философскими и социальными ценностями;

3) Кеплер действительно пытался использовать пифагорейские идеи о правильных многогранниках и даже построил на их основе иерархию планетных орбит солнечной системы, но очень скоро отказался от этой конструкции, ибо велики были расхождения с данными астрономических наблюдений. Дальнейшие астрономические исследования привели его к великому научному открытию, которое было в полном противоречии с наиболее фундаментальными философскими ценностями: круговые орбиты были канонизированы в течение тысячелетий, ибо только совершенные круговые орбиты могли соответствовать совершенному Космосу и его небесным объектам, но Кеплер доказал, что реальные орбиты планет имели эллиптические формы. Таким образом, можно сказать, что действительно великие научные открытия вступают в противоречие с традиционными социальными и философскими ценностями, то есть даже контекст открытия может быть без каких-либо социальных воздействий;

4) Максвелл действительно использовал множество механических моделей и аналогий (это было типично для английской науки, но не было типично, например, для французской науки), но это было в контексте открытия или в “строительных лесах” научной теории. Что же касается ядра его электродинамики, то на этом уровне он использовал математические гипотезы и развил знаменитые уравнения электромагнитного поля, которые вели к антимеханическим выводам и определили великий кризис механического мировоззрения.

В завершение я хочу отметить, что главный тезис Грэма — “вся наука демонстрирует социальные атрибуты” — напоминает мне один изначальный принцип из оруэлловской “Фермы животных” — “все животные равны”, который был позднее усовершенствован с помощью следующего дополнения — “но некоторые животные равнее”. Я думаю, что тезис о социальном воздействии на науку может быть усовершенствован в том же самом направлении: различные уровни науки и различные этапы в развитии науки испытывают социальные воздействия в различной степени, от существенных и неустранимых, до абсолютно тривиальных и легко элиминируемых.

 

Н.Ф.Овчинников

Поиски достоверности

История человеческого познания — это история удивительных прозрений, поразительных открытий и предвидений будущих событий. Но вместе с тем в этой истории мы наблюдаем скепсис, горестное осознание тщетности усилий разума что-либо достоверно знать о мире и о самом себе. Не удивительно, что для преодоления сомнений мысль с давних времен направляется на поиски убедительных оснований достигнутого знания. Попытаемся всмотреться в эти поиски. Но сначала о сомнениях в наших возможностях что-либо знать.

Вечное сомнение

Описывая общие черты античной философии, А.Ф.Лосев писал: “Мы с большим удивлением убеждаемся в том, что скептицизм пронизывает собою в Греции и Риме художественные произведения, философские трактаты и даже религиозную мысль”[c].

Пристальное всматривание в античное знание открывает нам картину напряженных и даже, как замечает Лосев, весьма чувствительных и нервозных исканий. Уже у Гомера часто встречаются скептические речения — об одном и том же предмете высказываются им весьма различные оценки. А Гераклита его современники называли “темным” за туманные и сомнительные изречения — не ясно, что же для него является основным — его вечно изменяющийся первоогонь или законосообразный Логос. Ученики делали из учения своего учителя иррационалистические выводы. Как писал Аристотель, ученик Гераклита Кратил приходил к заключению, что в одну и ту же реку нельзя войти не только дважды, но невозможно войти и один раз.

Элеаты, пишет Лосев, обращали внимание на то, что в силу непрестанной текучести чувственных ощущений “невозможно строить на них науку[ci]. Я подчеркнул здесь слово “наука” — оно появилось у Лосева не случайно. Среди различных видов знания — мифы, философия, художественная литература, теология, — так или иначе подверженных скепсису, пробивается к жизни особый вид знания, в котором мысль пытается найти твердые основания, позволяющие противостоять смущающим сомнениям в наших попытках что-либо знать о мире. Этот вид знания еще не отделим от массива других его форм, в том числе от мифа и философских построений. Лосев употребил здесь термин “наука” для обозначения именно таких попыток найти достоверное.

Не будем придавать особенного значения отдельному слову. В разных контекстах слово “наука” имеет неоднозначный смысл. “Его пример другим наука”, — говорит Пушкин о своем герое Евгении Онегине. Здесь слово “наука” можно понять как образец поведения. Нам сейчас и далее важен контекст противопоставления скепсису. В таком противопоставлении слово “наука” приобретает смысл поисков достоверного знания. Уже в античное время в обширной и плодоносной почве различных видов знания начинает прорастать зерно основательности и стремлений к несомненному. Но плоды этого роста были еще едва заметны.

Различные авторы относят начало науки к различным временам. Н.И.Кузнецова усмотрела пять мнений по этому поводу: (1) наука присуща познавательной деятельности и потому существовала всегда, (2) наука возникла в античной Греции и в связи с развитием философии наука обратилась к обоснованию своих теоретических идей, (3) наука возникла в позднее средневековье (XII—XIV вв.), (4) наука начинается с XVI—XVII вв. трудами Кеплера, Галилея, Ньютона, (5) наука начинается в первой четверти XIX в., когда научная деятельность стала институализироваться[cii].

Наверное, каждая из пяти точек зрения имеет свои обоснования в реальной истории знания и с определенными пояснениями может быть принята. Такое принятие может означать многогранность понятия науки — каждая точка зрения, указывающая на начало науки, высвечивает какую-либо ее грань. Но я хотел бы принять определенную позицию — мне ближе вторая оценка начала научного знания, согласно которой наука возникла в связи с развитием философской мысли в античные времена. Я полагаю, что существенным признаком научного знания является его теоретизация, начало которой можно усмотреть именно в указанную эпоху. Существенно, что научная мысль, зародившись в античное время, а возможно еще и ранее, живет и взрослеет во все последующие века — стремление к достоверности неустранимо.

Плоды научной мысли проявились уже в первый период ее жизни — пифагорейцы стремились развить не только абстрактную теорию чисел, но и теоретическую геометрию, Архимед открыл закон рычага, Аристарх Самосский уже знал, что Земля не в центре мира, но обращается вокруг Солнца. Но в такого рода знаниях еще нет системной теоретизации и потому сама по себе достоверность высказывания не гарантирует его принятие научным сообществом. Известно, что истинное знание относительно движения Земли, открытое Аристархом Самосским, было отвергнуто на долгие столетия в пользу модели Птолемея. И все же сам процесс научного развития уже начался, ибо уже были осознаны в их значимости первые принципы теоретического знания — симметрии, сохранения, причинности.

Обращаясь к греческому миру, мы видим вместе с тем направление мысли, противоположное усилиям найти достоверное знание. Среди разнообразия поисков знания обнаруживается впечатляющая критическая струя, в особенности заметная в философских построениях античных мыслителей. Непреходящую роль в этом отношении сыграли софисты, которые дали образцы беспокойства мысли, сомнений и споров, и Сократ с его известным изречением — “я знаю только то, что ничего не знаю”. Софист Протагор утверждал, что каждый человек имеет свое знание — то, что кому кажется, то и есть на самом деле. А Критий отрицал существование богов, “приписывая выдумку о них древним законодателям”[ciii]. И даже Демокрит не избежал скепсиса — всякое чувственное познание не достоверно, объективно существуют только атомы и пустота.

Ситуация неопределенности высказываний тревожила Платона, и он настойчиво искал критерий достоверности. Эти поиски привели его к мысли об особом мире идей, неизменность и совершенство которых обеспечивает возможность познания наблюдаемого и непрестанно изменяющегося мира. Строя свою космологию, Платон вынужден говорить о вероятностном, то есть только о правдоподобном знании. Излагая в этом отношении Платона, Лосев пишет, что его “космос, конечно, возник как подражание вечному первообразу, или, как он говорит, образцу, и постигаться он должен тоже таким же абсолютным разумом. Тем не менее наши слова об этих высоких предметах могут выражать их только приблизительно, только правдоподобно, только с той или иной степенью вероятности”[civ]. В диалоге “Тимей” Платон дает обоснование вероятностному, в смысле только правдоподобному, характеру знания о космосе. Он развивает свое учение о материи как об абсолютной неопределенности, как знание только о возможности оформления ее при помощи идей. Правда, математическое рассуждение не является чисто вероятностным, оно несет в себе необходимость вывода. Но когда мы в суждениях переходим от строго математических фигур к воплощению их в физических элементах, то логическая необходимость уже оказывается неотделимой от всего лишь правдоподобных умозаключений.

Развивая учение Платона и вместе с тем подвергая это учение критике, Аристотель расширяет и углубляет мысль о текучей и непостоянной материи. Тем самым он способствует укреплению скептического воззрения. Разрабатывая логику, Аристотель кроме аподиктических умозаключений вводит еще и такие, которые требуют привлечения посторонних для силлогизма и разнообразных посылок или инстанций, которые именуются им — “топосы” (иногда — “топы”). В обыденном языке многое опускается или предполагается, открывая простор для веера суждений. Врываясь в аподиктический силлогизм, топосы разрушают его однозначную истинность, создавая лишь правдоподобие. Аристотель посвятил этому специальный трактат “Топика”, которым завершается его знаменитый “Органон”[cv]. Предмет “Топики” — сочетание абсолютного бытия и иррациональной текучести. Современные философы и логики незаслуженно мало вспоминают об этом трактате Аристотеля, он как бы смущает их.

В эпоху греческой классики Аристотель завершает учение о правдоподобии суждений и предоставляет последующим мыслителям выбор — он создает условия для скептиков, которым остается только отказаться от аподиктичности суждений и абсолютности бытия и сосредоточиться на предположительном характере наших знаний. Приходится констатировать, что одна из форм греческого скептицизма зародилась именно в платоновской Академии.

История мало сохранила конкретных сведений из жизни и учений античных скептиков. И все же имеющихся данных достаточно, чтобы представить основной смысл учения о вечном сомнении в наших знаниях. Сомнения эти возникали и возникают спонтанно, как бы изнутри любого рода интеллектуальной активности. Самая ранняя ступень таких сомнений связывается с именем Пиррона (ок. 360—270 гг. до н.э.). Известны десять “пирроновых положений” или иначе “тропов”, которые, по словам Диогена Лаэртского, указывают на “неразрешимые трудности согласования видимого и мыслимого”[cvi].

Мы не будем излагать аргументы Пиррона, скажем только, что первые пять тропов рассматривают ненадежность знания всего видимого со стороны субъекта, а последние пять — со стороны объекта. Существенно отметить, что согласование “видимого и мыслимого” остается и ныне вечной проблемой. Совсем недавно мой молодой друг, основательный знаток философских идей ХХ в., в беседе со мною сказал, что по его мнению основным вопросом философии ныне является не отношение бытия и мышления, но отношение “чувственно воспринимаемого и выразимого мыслью”. Вскоре я прочитал уже процитированное высказывание Диогена Лаэртского о трудностях согласования видимого и слышимого и поразился факту вечности философских проблем — указанные трудности воспроизводятся как актуальный вопрос философии ХХ и, надо думать, теперь и ХХI в.

Античный скептицизм после Пиррона принимал различные формы, совершенствуя свою аргументацию. Наиболее полно дошли до нас сочинения Секста Эмпирика, хотя о нем самом мало известно. Жил он в последней четверти II в. н.э. и, возможно, в начале III в. н.э. Самое главное, подчеркивает Лосев, излагая концепцию Секста, это утверждение, что нам даны только явления, но не дана их сущность. Опора античных скептиков на явления не означает субъективизма, так как они не отрицают существование самих сущностей, т.е. вещей в себе. “Просто мы считаем, — утверждали скептики, — что подоснова явлений для нас неясна”[cvii]. Античный скептицизм предполагает только опору на явления, иначе говоря, эту концепцию можно назвать феноменологизмом. И вместе с тем у Секста отмечается сочетание двух тенденций мысли — с одной стороны, всеобщее отрицание познавательных усилий и, с другой стороны, своеобразным принципом скептической философии оказывается утверждение равнозначности утверждения и отрицания.

Для нас существенно, что античный скептицизм подверг основательному сомнению все достижения философской мысли и тем самым вынуждал искать в массиве античного и последующего знания плоды достоверности. В результате закладывалась системная основа научной мысли. В результате настойчивых усилий исторически растущей мысли определились две тенденции — одна продолжала линию скептической оценки каких-либо попыток познания мира, а другая шла по пути поддержки роста зерен научного роста, иначе говоря, на пути поисков достоверного знания. Язык не всегда поспевал, да и ныне не поспевает за стремительно текущей мыслью, хотя и содержит в себе источник нового знания. Эти два фактора языка — консервативность языковых форм и творческий характер языковой практики — образуют “эпистемологический парадокс”, удивительным образом существующий в языке. Проросшие зерна, несущие в себе стремление к достоверности, начинали осознаваться как подлинно философские знания, только в новом облачении. Наука вызревала под именем новой философии, распадаясь на отдельные области исследования, объединенные общим методом.

Стадии развития или периоды?

В истории человеческого познания можно усмотреть события, отмечающие радикальные изменения в наших усилиях что-то знать о мире. Среди множества интеллектуальных событий я имею в виду именно те события, которые действительно и, можно сказать, наглядно изменяют весь строй познающей мысли и ее результаты. Выделяя такого рода события, мы получаем возможность представить ход познания как движение от одного выделенного нами события до другого. Фиксируя наш взгляд на содержательные изменения, мы можем усмотреть своеобразные скачки в ходе истории и представить их двояким образом: либо выделяя стадии развития, в которых исчезает все предшествующее, или усматривая периоды, в которых видна преемственность достигнутого.

Осмысливая факт исторического процесса познавательных усилий, идущих от одного события к другому, многие философы стремятся ныне дать этому процессу убедительное объяснение. Упомянем лишь один пример. Анализируя исторические начала физики, связанные с таким событием, как появление системы Коперника и ее разработка в трудах Кеплера, и обращаясь к Декарту, наш коллега А.В.Ахутин стремится осмыслить не просто систему принципов, но систему наук как своеобразную форму философии, решающей свои задачи особенным способом, а именно: путем разделения “на разветвленную систему научных дисциплин”[cviii]. Указанное разделение обернулось, начиная примерно с ХVII века, впечатляющими мирами теоретических объектов — многообразными и независимыми, живущими по своим законам. Подчеркнем, что, например, Макс Планк во второй половине XIX в. обратил особенное внимание на факт расчленения научного знания на своеобразные теоретические миры, говоря проще — на независимые области исследования. Этот факт обеспокоил его творческую мысль. Пытаясь детально прописать единую картину мира, он был вынужден заметить, что, вырастая и взрослея еще в эпоху Галилея и Ньютона, отдельные науки — физика, химия, биология... — оказались “целой коллекцией картин, поскольку для каждого класса явлений природы имеется свой образ”[cix].

Можно сказать еще и так: выразительная выставка картин, представленная различными науками, поражала воображение зрителей-исследователей и тем самым в конечном счете послужила основанием для формирования особого воззрения на природу и назначение знания, получившего в ХIХ в. название позитивизма. Впечатляющие успехи отдельных областей науки застилали широкий горизонт познавательных устремлений, характерных, скажем, для философских воззрений, создавая впечатление, что все знание сводится именно к специальным наукам. Огюст Конт (1798—1857) расчленил историческое развитие познающей мысли на три стадии: религиозная, философская и научная. При этом, согласно Конту, только научная стадия заслуживает доверия в своих устремлениях к истине, в то время как предшествующие стадии представляют собою наивные заблуждения и должны быть оставлены. Он как бы с удивлением обнаружил замечательные успехи достоверного знания и приписал эти успехи лишь своему времени. Построения Конта, полные “высокомерия современности”, захватили воображение мыслящих людей XIX в. и, казалось, что эти построения находят убедительные подтверждения именно в совершающихся на их глазах успехах научного знания. Позитивистские воззрения, видоизменяясь и совершенствуя свою аргументацию, продолжали оказывать влияние на философские и методологические идеи интеллектуалов. Известно, что позитивизм Конта сменился в конце XIX в. вторым позитивизмом, связанным с идеями Маха и Авенариусом, а в ХХ в. возникло направление методологических исследований, связанное с “Венским кружком”, названное третьим позитивизмом.

Всматриваясь ныне в процесс исторического роста научного знания, мы можем представить другую схему этого роста, отличную от той, что развернул Конт. Чтобы отчетливее прояснить нашу схему, о которой будем говорить чуть подробнее далее, обратим внимание на многообразные и не всегда ясно различимые формы знания — мифы, философия, теология, — в среде которых живет наука и прорастает в качестве особенного результата на пути к достоверности, вырабатывая свой метод исследования.

В противоположность позитивизму скажем так: научное знание во все периоды своего роста может развиваться только в системе других форм познавательных усилий человечества — зерно прорастает в почве и превращается в живой организм, питаясь солнечным светом. Схематизируя исторический процесс, можно усмотреть не просто стадии, как полагает Конт, но исторически значимые периоды, в которых происходили существенные изменения в судьбе научного знания и тем не менее, вопреки концепции Конта, сохраняющие существенное из предшествующего развития.

При этом надо сказать, что в схеме, предложенной Контом, конечно же, содержится некоторое объективное содержание, а именно указание на существенное значение фактов наблюдения и экспериментальных результатов, характерных для научных построений. Эта особенность научного знания проявилась еще в античности и стала важнейшей его чертой. Мартин Хайдеггер (1889—1976) в середине двадцатых годов ХХ в., выражая менталитет времени, даже утверждал, что “во всех научных дисциплинах господствует позитивизм, стремление к позитивному, которое понимается в смысле фактов — фактов в рамках определенной интерпретации реальности; факты принимаются только как то, что можно исчислить, взвесить и измерить, что допускает определение в эксперименте, — в истории это процессы и явления, первоначально доступные в источниках. Позитивизм следует понимать не только как максиму конкретного исследования, но и как теорию познания и культуры вообще”[cx].

Успехи научного познания стали настолько значительными, что позитивизм, по словам Хайдеггера, воспринимался как убедительная теория познания, в особенности несомненная для специалистов в конкретных областях науки. В качестве влиятельной концепции научного знания позитивизм требует специального анализа для того, чтобы прояснить его роль в развитии науки. И такого рода анализу посвящено необозримое море исследований. Мы можем только согласиться с Хайдеггером, который подчеркнул, что позитивизм — это не просто “максима конкретного исследования”, но особенная теория познания.

Но вернемся к нашей схеме. Первый период, как можно допустить, начинался в эпоху античного мира и продолжался до ХVI—XVII вв. Этот период можно назвать философским. Такая оценка первого периода имеет свое основание в непреходящих корнях философствования. Философия обращается к вечным вопросам и потому ее жизнь, ее влияние сохраняется на все времена. И, конечно же, каждая эпоха стремится дать свое решение непрестанно возникающим вопросам — сотворен мир или существует вечно, каково соотношение времени и бытия, каков смысл человеческой жизни — и множество подобных вопросов.

Вот как характеризует второй период Хайдеггер: “Существо современной науки, которая в качестве европейской стала между тем планетарной, коренится в греческой мысли, со времен Платона носящей название философии”[cxi]. Пусть нас не смущает обозначение “существа науки”, названное Хайдеггером философией. Именно так осознается и так обозначается классиками науки ХVII в. новое знание о природе, которое они строили, развивая традиции античной мысли. Поясняя свое отношение к математике, Галилей говорит своему собеседнику: “Философия написана в величественной книге (я имею в виду Вселенную), которая постоянно открыта нашему взору”[cxii]. Итальянский ученый говорит здесь о механике — науке о движении тел, — которую он строит и которую он продолжает называть философией.

Не отменяя достижения первого периода, второй период охватывает, условно говоря, время от Галилея до Планка. Для второго периода характерно следование принципам механики. Хотя в конце ХIХ в. и возникают идеи сведения физического знания к принципам электродинамики, тем не менее тенденция редукции к принципам механики остается решающей и в конце этого периода. В этой тенденции явно просматривается общее для всех периодов стремление знания к построению единой картины мира. Каждый период реализует это стремление по-своему.

Третий период, сохраняя фундаментальные принципы всего предшествующего знания, начался, как мне видится, с открытия Планка и продолжается весь ХХ в., а ныне и в начале ХХI в. Характеризуя события, совершавшиеся в физической науке в этот период, В.Гейзенберг (1901—1976) писал: “Квантовая теория распространилась на структуру атома, на химию, на теорию твердых тел — повсюду приходили к убеждению, что квантовая гипотеза описывает, по всей видимости, существенную, прежде упускавшуюся из виду особенность природы”[cxiii]. Классик квантовой физики говорит в этой связи об “изменении структуры мышления”, происшедшем по меньшей мере в сфере физики[cxiv]. В начале третьего периода построена также теория относительности, обобщившая классический принцип относительности и радикально изменившая наши понятия пространства, времени, движения.

Особенность третьего периода заключается в отказе от редукции и принятии многообразия теоретических конструкций в качестве нормы развития или, как модно говорить, в качестве новой парадигмы, характеризующей этот период. Единство знания ищется теперь не на основе сведения к какой-либо одной теории, но на пути поисков единых принципов. Условность предложенной схемы исторического роста науки и радикальных сдвигов в этом росте легко усматривается в том, что внутри каждого периода, конечно, происходили существенные прорывы и повороты познающей мысли. Но основные принципы, характерные для каждого данного периода, сохраняли и сохраняют свою значимость.

Первый период, если можно так выразиться, период внутриутробного развития научного знания, продолжался свыше двадцати веков, начиная с античности и кончая XVI—XVII вв. Развитие это совершалось в основном внутри философской мысли, хотя и не без влияния других форм знания, и потому этот период можно назвать философским. Разумеется, в эти столетия существовали и испытывали то взлеты, то падения не только философская мысль, но и другие формы интеллектуальной активности. Но основная тенденция мысли в этот период была окрашена философскими устремлениями. И рост научной мысли происходил под знаком этих устремлений. Отметим несколько имен мыслителей того времени, в деятельности которых явно просматривается глубокий интерес к научным изысканиям.

Обратимся, ради краткости, к концу этого периода — к средним векам, в течение которых происходили процессы вызревания научных идей внутри философских и теологических концепций, характерных для того времени. Среди множества имен назовем наиболее значимые. Роберт Гроссетест (1168—1253), теолог и философ, разрабатывал метафизику света. Согласно его концепции мир был сотворен посредством диффузии света, распространяющегося из начальной точки, образуя сферическую форму[cxv]. Роджер Бэкон (1219—1292) — теолог и философ — настаивал на необходимости изучать природу посредством наблюдения и выявлять закономерности, принимающие форму математических вычислений[cxvi]. Вильям Оккам (1280—1349) — логик, физик и теолог — сформулировал принцип простоты, т.н. “бритву Оккама”: для объяснения явлений не следует без необходимости умножать сущности или, иначе, основания[cxvii].

Деяния выдающихся личностей первого периода в росте научного знания убедительно демонстрируют нам органическую связь философских, а также теологических концепций, с растущей в них научной мыслью. Освобождаясь от питательной среды, взрастившей мысль, стремившуюся к достоверности, взрослеющая наука обратилась к античным концепциям и среди философских прозрений обнаружила скепсис, осознала непомерную сложность задачи и необъятность мира. У истоков второго периода среди других мы упомянем два имени — Декарта (1596—1650) и Ньютона (1643—1727). Французский философ и ученый писал в своих “Началах философии”: “Некоторые опрометчивые суждения отвращают нас от истинного познания и владеют нами настолько, что освободиться от них мы, по-видимому, можем не иначе, как решившись хотя бы раз в жизни усомниться во всем том, по поводу чего обнаружим малейшие подозрения в недостоверности”[cxviii].

Английский ученый и, как он оценивал себя, теолог размышлял о необъятности природного мира и в этой связи писал: “Не знаю, чем я могу казаться миру, но сам себе я кажусь только мальчиком, играющим на морском берегу, развлекающимся тем, что от поры до времени отыскиваю камешек более цветистый, чем обыкновенно, или красную раковину, в то время как великий океан истины расстилается передо мной неисследованным”[cxix].

У начала второго периода в развитии науки мы видим поражающий мысль скепсис и поиски преодоления трудностей, открывающихся в силу осознания необъятности задачи. Если ныне оценить познавательную ситуацию того времени, то существенным оказывалось бы не обоснование знания, но его проверка на истинность. Но такая оценка научного знания придет лишь в ХХ в. Поппер введет принцип “фальсификации” — только та теоретическая система заслуживает звания науки, которая выдерживает строгие испытания при попытках ее опровержения.

В эпоху же Декарта и Ньютона мыслители были озабочены сомнением в существующем знании и настойчиво искали основания достоверности. В этих поисках особенно плодотворно сомнение, скепсис, так образно высказанный классиками науки у начала второго периода. История науки убедительно демонстрирует нам необходимость скепсиса, иначе говоря, критического анализа предшествующего знания. В ХХ в. это условие роста научного знания будет названо “критическим рационализмом”. Со скепсиса Декарта и Ньютона начинается классический период в росте научного знания. Но сам процесс роста теоретической науки в своих результатах ведет к определенности исходных основоположений, несомненных начал или твердых оснований — как бы мы ни называли эти фундаментальные элементы теоретических построений. Иногда такие основания, вместе с правилами оперирования понятиями, называют модным ныне термином “парадигма”.

Ради достоверности научное исследование требует от теоретика сочетания критического всматривания в существующее знание с поисками оснований, ведущих к достоверности. Иногда такое критическое всматривание порождает скептицизм по отношению к существующему в настоящее время знанию. Но важно осознать и другое — одно лишь следование “парадигме” приводит к догматизму. Парадоксальность этих требований — отличительная черта научной мысли в ее историческом росте.

Деятели второго периода, получившего название периода классической науки, подвергая критическому анализу существующее знание, настойчиво искали исходные основания для новых теорий. Но их скепсис не затронул проблемы источников знания. Они не отказались от поисков таких источников и трактовали эти источники, подобно своим предшественникам, как своеобразный авторитет, на который можно ссылаться как на критерий истинности. Только это были другие источники.

Наука в этот период, отвергая старые авторитеты, ищет новые. Декарт провозглашает в качестве достоверных оснований “естественный свет” разума, а Ньютон, следуя Локку и Френсису Бэкону, усматривает такие основания в авторитете наблюдений и данных опыта. С позиций современной методологии и то и другое усмотрение оснований несостоятельно просто потому, что существенным в поисках достоверности оказываются не источники знания, представленные в качестве авторитета, но принципы, положенные в основание теории. Достоверность принципов опирается на “авторитет” всего предшествующего знания с многообразием его форм. Истоки знания именно в его глубине, а не в опытном созерцании. Ссылка на опытное созерцание, характерная для феноменологических воззрений, не раскрывает нам достоверных истоков наших познавательных усилий.

Множество научных дисциплин, характерное для этого периода, беспокоит не только методологов науки, но и специалистов в конкретных областях знания. Они стремятся преодолеть возникшую мозаику различных областей научного знания стремлением к редукции — к сведению всего многообразия знания либо к механике, либо к электродинамике, а возможно и к какой-либо другой научной теории, доказавшей свою объяснительную силу. И конечно же — это только методологическая установка — сведение не удается и едва ли может когда-либо принести свои плоды. Если для первого периода характерна парадигма вечных проблем, то для характеристики второго периода можно говорить о парадигме редукции.

В третьем периоде углубляется многообразие научных дисциплин. Начиная с открытия Планка, происходит проникновение в микромир и расширение области научного познания — теория относительности охватывает просторы космоса, а открытия в области исследования элементарных частиц сталкивают мысль с необходимостью найти связи между микромиром и необъятным миром Вселенной.

Третий период в развитии научного знания можно назвать периодом поисков объединяющих принципов. Используя понятную современному методологу терминологию, можно говорить о парадигме поисков единых принципов, характерных для третьего периода, напомним, продолжающегося и поныне. Хотя надо сказать, что идея редукции продолжает владеть умами и в ХХ в. Мы и ныне наблюдаем тенденцию выразить научное знание в каком-либо одном языке, скажем языке теоретической физики. Но эта тенденция лишь рецидив менталитета второго периода.

Принципы как основание достоверности

Историк науки И.Д.Рожанский (1913—1994) обратил внимание на греческий термин arche (первоначало). Он заметил, что слово это стало приобретать теоретический смысл в трудах античных мыслителей. В историческом развитии знания этот термин стал выражать значение исходного суждения в теоретических построениях. Именно это значение имеет в виду Кант, когда пишет, характеризуя второй согласно нашей схеме период в развитии знания: “Естествоиспытатели поняли, что разум видит только то, что сам создает по собственному плану, что он с принципами своих суждений должен идти впереди согласно постоянным законам и заставлять природу отвечать на его вопросы, а не тащиться у нее словно на поводу”[cxx].

Критическое исследование принципов, или, иначе, начал, или, по-другому, оснований, на которых строится научная теория, привело некоторых методологов науки к сомнению в значимости принципов. При этом они, широко захватывая в своих исследованиях область научного исследования, перенесли критическое отношение к науке в целом на принципы теоретизации. А между тем наука многогранна и ее технические успехи необходимо отличать от теоретической компоненты, которая и составляет собственно научную мысль. Сокрушаясь по поводу практического и часто варварского использования теоретических достижений, неразумно терять здравый смысл и подвергать сомнению неповинную в преступлениях высокую теоретизацию, опирающуюся на исходные начала и составляющую ядро науки.

Сначала последователь, а затем и критик методологических идей Поппера Пол Фейерабенд (р.1924) склонен отказаться от принципов теоретизации. Он настаивает на том, что “единственным принципом, не препятствующим прогрессу, является принцип “допустимо все (anything goes)”[cxxi]. Он, конечно, видит очевидное: “Мы обязаны науке невероятными открытиями. Научные идеи проясняют наш дух и улучшают нашу жизнь”[cxxii]. И вместе с тем Фейерабенд настаивает на том, что якобы наука вытесняет положительные достижения предшествующих эпох и в силу этого обедняет нашу жизнь, лишая ее многих возможностей.

Создается впечатление, что современный методолог не видит различия между наукой с ее теоретическими идеями, с одной стороны, и социальными процессами, которые могут оказывать влияние на принятие или отвержение прежних или современных научных идей, с другой. Удивительно еще и то, что Фейерабенд утверждает нечто такое, что тут же и отрицает. Оценивая науку и ее историю, он пишет: “В этом всеобъемлющем процессе ничто не устанавливается навечно и ничто не опускается”[cxxiii]. Другими словами, по Фейерабенду, в развитии науки нет ничего постоянного (“ничто не устанавливается навечно”) и, вместе с тем, все остается постоянным (“ничего не опускается”). Как тут не вспомнить античных скептиков, которые утверждали равнозначность утверждения и отрицания.

Надо думать, что не случайно Фейерабенд упоминает софистов — родоначальников античного скептицизма. Ссылка на софистов дается им в контексте утверждений о равнозначности результатов деятельности поборников истины и лжецов и, вместе с тем, в контексте утверждений о высокой значимости истории науки: “История, — говорит он, — важна как для дальнейшего развития науки, так и для придания содержания тем теориям, которые наука включает в себя в любой отдельный момент. Специалисты и неспециалисты, профессионалы и любители, поборники истины и лжецы — все участвуют в этом соревновании и вносят свой вклад в обогащение нашей культуры. Поэтому задача ученого состоит не в том, чтобы “искать истину” или “восхвалять бога”, “систематизировать наблюдения” или “улучшать предсказания”. Все это побочные эффекты той деятельности, на которую и должно главным образом быть направлено его внимание и которая состоит в том, чтобы “делать слабое более сильным”, как говорили софисты, и благодаря этому поддерживать движение целого[cxxiv].

Мы сталкиваемся здесь с парадоксальной ситуацией -современный скептицизм, подобно античному, оказал плодотворное воздействие на процесс самосознания науки, более того, на все другие формы познания. Главное в этом воздействии — это осознание значимости того факта, что знание дело человеческое и потому неизбежно содержит в себе ошибки. Указание на неизбежность ошибок в процессе познания и вместе с тем парадоксальным образом плодотворность этого феномена была отмечена Поппером. Подчеркивая мысль своего учителя, Фейерабенд развернул эту мысль, построив своеобразную концепцию современного скептицизма. Неустранимая подверженность ошибкам ставит перед нами трудную проблему — как, на каких основаниях можно достигнуть достоверного знания.

Поиски достоверности неизбежно ведут нас к тем основоположениям, исходным принципам, на которых строится теоретическая система, или к тем, которые управляют внутринаучным движением не только отдельно взятой теории, но и существующего в данный момент множества теорий, образующих систему теоретического знания, развивающуюся в истории.

Обращаясь к искусству построения системы знания — архитектонике чистого разума, — Кант подчеркивал, что наши знания вообще должны составлять систему, так как только в системе они могут поддерживать существенные цели разума и содействовать этим целям. “То, что мы называем наукой, — писал Кант, — возникает не технически ввиду сходства многообразного или случайного применения знания in concreto к всевозможным внешним целям, а архитектонически ввиду сродства и происхождения из одной высшей и внутренней цели, которая единственно и делает возможным целое, и схема науки должна содержать в себе очертание (monogramma) и деление целого на части (Glieder) согласно идее, т.е. a priori, точно и согласно принципам отличая это целое от всех других систем”[cxxv].

Принципы позволяют реализовать стремление знания к системности. В таком стремлении существенно найти исходные суждения, иначе говоря, усмотреть в практике исследования необходимые для решения проблемы принципы строящейся теории. Всматриваясь в существующее знание, можно наблюдать действие известных принципов, которые содержат в себе скрытые возможности построения на их основе различных систем. В период работы, как говорится, на основе принятой парадигмы, обычно обращаются к известным принципам, которые в ситуации решения проблемы могут обнаружить неизвестные ранее возможности. Только в кризисных ситуациях возникает необходимость поисков новых принципов.

Решая классическую проблему теплового излучения, Макс Планк опирался на принцип непрерывности. Но ходом исследования классической проблемы он был вынужден ввести новую мировую постоянную h. Осмысление роли этой постоянной прояснило ее дискретную природу и вместе с тем продемонстрировало действие принципа инвариантности, проявившееся в данном случае в форме сохранения фундаментальной, далее неделимой величины.

Список известных принципов открыт для пополнения и вместе с тем содержит возможность классификации. В качестве предполагаемой схемы классификации можно усмотреть три класса по типу функций, которые принципы выполняют в процессе теоретизации: (1) порождающие принципы (сохранение, симметрия, дополнительность); (2) принципы связности (математизация, соответствие, единство); (3) целеполагающие принципы (объяснение, простота, наблюдаемость).

При нарастающем скепсисе относительно современного научного знания существенно усмотреть возможные условия его достоверности. Важнейшим такого рода условием оказываются принципы теоретизации, выполняющие не только методологическую функцию, но и создающие основания его истинности, преодолевающей нарастающий скепсис. Если говорить о формировании новой парадигмы, то можно утверждать, что такое формирование может совершаться на пути выявления скрытых возможностей в известных принципах, а также посредством поисков новых.

Достоверность системы научного знания коренится в особенности принципов. Принципы определяют облик теории, ее содержание, специфику логического движения мысли. Для того, чтобы сохранять структуру теории и ее достоверность, они должны быть неизменны по отношению к изменяющимся понятиям внутри теории. Это важнейшая особенность принципов — их постоянство обеспечивает передачу достоверности по всему логическому пространству растущей теории.

Три исторических периода в росте научного знания, совершающемся на протяжении всей его истории, можно кратко обозначить следующим образом. В первый период внутри разнообразных философских картин мира происходит вызревание научной мысли. Во второй период завершается формирование классической науки и реализуется стремление к редукции. В третий период, продолжающийся ныне, развертывается многообразие научных дисциплин и возникает тенденция к преодолению этого многообразия на пути объединяющих принципов, ведущих к достоверности.

 

 

Г.Б.Жданов

О необходимых и достаточных критериях достоверности естественнонаучных знаний.

Введение

Последнее десятилетие нашего XX века характеризуется, особенно в связи с освобождением средств массовой информации от гнета цензуры, диктуемой далеко не всегда четкими требованиями идеологической чистоты[cxxvi] в странах с диктаторским режимом разгулом конкуренции не только в экономической, но и в духовной сфере и ожесточенными атаками на методы и результаты созидания естественнонаучных знаний (ЕНЗ) со стороны адептов религии и так наз. паранаук, не отягощенных требованиями достаточной обоснованности своих исходных положений. Что касается роли религии и причин ее воздействия на умы людей, то много и подробно размышлял на эту тему еще Б.Спиноза[cxxvii]. Полемизируя с тезисом Фомы Аквинского, Спиноза приводит целый ряд аргументов как априорного, так и апостериорного характера. В частности, он утверждал, что только Бог должен мыслиться и существовать в качестве первопричины всех вещей и событий, предопределяя и управляя всем, включая самого себя. Современные соображения о биологических (или скорее психологических) потребностях человека в вере в высшее начало, являющееся, с одной стороны, покровителем людей, ориентированных сызмальства на родительскую опеку, и с другой — первопричиной (творцом) всего сущего из ничего, высказал недавно известный врач (кардиолог) Н.М.Амосов[cxxviii], который является в то же время откровенным атеистом.

Определенную роль здесь играют и широкие технические возможности предоставления массовому потребителю все более богатых возможностей наблюдения разнообразной виртуальной реальности, далеко превосходящей по своему ассортименту старинные представления о всякого рода нечистых силах (ведьмы, колдуны, домовые, водяные, вампиры и пр.).

Хотелось бы упомянуть здесь и серию публикаций А.Н.Троепольского[cxxix], в которых развивается концепция сверхчувственных метафизических сущностей, к которым автор, между прочим, относит и так наз. “микрочастицы”, в том числе электроны, управляемые потоки которых формируют изображения на телеэкранах, и следы в камерах Вильсона и фотоэмульсиях, и атомные ядра, составляющие основной материал для всех химических элементов в окружающей нас среде. Если же не обращать внимания на это метафизическое недоразумение с “микрочастицами”, то главное в работах Троепольского состоит в попытке доказать с помощью разного рода логических манипуляций непротиворечивость религиозного образа мысли, невзирая на обилие большого числа противоборствующих конфессий, а главное — не задумываясь над тем, что его концепция означает на самом деле попытку стереть границу между религией и наукой. А ведь эта граница состоит в том, чтобы кроме непротиворечивости той или иной концепции и при наличии противоречия всякого рода чудес в религии с законами науки решать проблему достоверности последней, без чего любая вера остается просто фантазией, а не моделью действительности.

Таким образом, автор данной концепции полностью игнорирует коренное различие таких понятий, как вера, выступающая во множестве исторически и этнически разнородных ипостасей и подкрепляемая во всех случаях лишь регулярным использованием определенного набора утешающих человека ритуалов, и достоверность, основанная на использовании обсуждаемых ниже критериев ее научного обоснования в процессе познания окружающего нас мира (включая процессы, происходящие в мозгу и нервной системе человека).

Последовательный анализ всей совокупности этих критериев достоверности ЕНЗ позволяет, по мнению автора данной статьи, провести также достаточно четкую границу между ЕНЗ и паранауками различного сорта, хотя убеждение в степени достоверности тех или иных результатов, достигнутых в ЕНЗ, и разделяемых подавляющим большинством мирового сообщества ученых в известной мере связана с опытом, субъективным мнением и интуицией наиболее авторитетных представителей ученого мира (см.: в частности[cxxx]).

Хотелось бы подчеркнуть и различие в критериях достоверности для ЕНЗ и гуманитарного, в частности исторического, знания, связанное с особой ролью принятой теми или иными социальными группами системами характерных для них духовных ценностей, (см., например[cxxxi]).

Нельзя не отметить и определенную расплывчатость в определении и использовании понятия “духовная ценность”. Значительный вклад в это понятие внес известный физик нобелевский лауреат С.Ф.Пауэлл[cxxxii], который подробно обсуждал роль фундаментальных наук в развитии мировой цивилизации, даже независимо от степени их воздействия на технический прогресс и удовлетворение материальных потребностей человека.

В порядке введения стоит остановиться еще на двух принципиальных моментах. Во-первых, это различие между исторически развивающимся и лишь относительно устойчивым научным знанием и претендующим на абсолютную истину. Во-вторых, это различие между понятиями ЕНЗ и, в частности, их частью — физической реальностью[cxxxiii] и объективной как полностью независимой от сознания человека, декларированной “ортодоксальным” диалектическим материализмом реальностью, которую, в частности, критиковал В.Гейзенберг за излишний догматизм.

Критерий наблюдения и наблюдаемости

То, что в повседневной жизни живого существа принято называть ощущением, т.е. восприятием явлений окружающего мира посредством одного или нескольких органов чувств, в науке заменяют понятием наблюдения. При этом возможности наблюдения различаются не только остротой индивидуальных восприятий (скажем, предвестников приближения атмосферных фронтов или степени поражаемости радиацией), но в значительно большей степени — диапазоном и чувствительностью создаваемых техногенной цивилизацией приборов. Именно приборы разного типа и назначения позволяют нам проникать не только в самые отдаленные уголки нашей Вселенной, но и изучать следы ее развития во времени (скажем, по концентрации наиболее представительных ядерных изотопов в глубоких колонках гренландского или антарктического льда), а также проникать сравнительно безболезненно в различные органы человеческого тела (вспомним, в частности, об ультразвуковых, электрокардиографических, эхографических и прочих средствах медицинской диагностики). Более сложно и в известной мере спорно обстоит дело с критерием наблюдаемости, если в это понятие включать средства косвенных (опосредованных) наблюдений тех или иных материальных объектов или процессов.

Начиная с физики, следует прежде всего назвать косвенные наблюдения таких субэлементарных частиц, как кварки и глюоны по структуре порождаемых ими струй явно регистрируемых частиц (пучков адронов), а особенно — косвенные, неоднозначно трактуемые наблюдения такого уникального состояния материи, как кварк-глюонная плазма, состоящая по тем или иным “рецептам” из свободных кварков и глюонов и являвшаяся, судя по всему, “на заре” возникновения нашей Вселенной, “прародительницей” всех ныне наблюдаемых частиц.

Если говорить об астрофизике, то это — косвенные, хотя и в значительной мере общепризнанные наблюдения как черных дыр (столь искривленных областей пространства, из которых не могут выходить наружу никакие сигналы), так и гравитационных волн, для прямого обнаружения которых пока что резко не хватает чувствительности создаваемых в разных лабораториях гравитационных антенн.

В области химии можно отметить проявления резонанса молекулярных структур, вокруг которых в свое время был поднят большой шум, связанный с догматическим реализмом.

Наконец, из области биологии хотелось бы упомянуть разнообразные позитивные (благоприятные) воздействия мыслей человека на его физическое состояние[cxxxiv], а также весьма спорные до сих пор явления экстрасенсорики среди выдающихся по своим способностям личностей типа Кашпировского или Давиташвили. Столь же косвенны наблюдения за аномальным поведением некоторых животных перед землетрясениями.

Все такого рода явления предвидел в свое время еще А.Эйнштейн[cxxxv], когда говорил о том, что все более углубленное проникновение человеческой логики в суть вещей должно приводить к удалению мира науки от фактов прямого опыта. Иными словами, можно говорить и о ситуациях типа “экспериментальной невесомости”[cxxxvi] и даже, весьма образно, о “театре абсурда”. В связи с обсуждением такой ситуации в физике стоит отметить высказывание Р.Фейнмана[cxxxvii] о роли математики, которая “позволяет нам выяснит следствия, анализировать ситуации и видоизменять законы, чтобы связать (логически — Г.Ж.) различные утверждения”. И он же говорил об условном характере тех идей, которые физики принимают в качестве исходных аксиом для вывода физических законов. Более того, обилие возможных теоретических “сценариев” формирования, например все той же кварк-глюонной плазмы, позволяет некоторым теоретикам уравнивать в правах понятия достоверности в мире науки и веры в сфере религиозной духовности.

Автор данной статьи считает, однако, что все перечисленные выше соображения, неизбежно связанные с развитием науки, заставляют нас проводить четкую границу между понятиями объективной (независящей от сознания человека) и научной реальности. При этом существенным отличием убедительности наблюдения от чистой веры в духовном образе является его воспроизводимость вместо традиционной (регулярной) повторяемости той или иной исторически возникшей системы ритуалов.

Эксперимент

Вторым критерием достоверности ЕНЗ является эксперимент, применяемый тогда, когда имеется реальная возможность направленного вмешательства ученого в протекание природных явлений. В его задачи входят, в частности:

а) проверка правильности понимания условий и параметров данного явления;

б) попытка выяснить причины явления[cxxxviii] и, в частности, исследовать те природные объекты, взаимодействие которых приводит к уже обнаруженному ранее процессу;

в) достаточно сильное изменение условий существования природных объектов с целью возможного открытия качественно новых явлений, как это было, в частности, при открытии совершенно непонятного долгое время явления сверхпроводимости металлов при очень сильном их охлаждении (Каммерлинг—Оннес, 1911 год) или при последовательном изучении определенных наследственных признаков растений гороха в течении нескольких поколений их размножения (Мендель, 1860-е годы).

Среди характерных примеров следует указать и на изменение состава тех прозрачных жидкостей, которые светились при помещении вблизи них радиоактивного препарата, что заставило вначале отказаться от первоначального представления о люминесцентной природе этого свечения, а затем при детальном количественном моделировании явления (называемого теперь излучением Вавилова—Черенкова) к открытию принципиально новой природы явления, возникающего, когда скорость заряженной частицы начинает превышать фазовую скорость распространения света в этой среде.

Эксперимент оказался возможным даже в такой трудно доступной области астрофизических исследований, как изучение захваченных магнитным полем Земли заряженных частиц (радиационные пояса) путем “впрыскивания” за пределами атмосферы заряженных частиц от специального источника электронов и изучения процессов их дальнейшего распространения, состоящего в дрейфе вокруг силовых линий геомагнитного поля.

Наконец, очень оригинальным оказался в свое время лазерный эксперимент, проведенный Басовым и Прохоровым в России и Таунсом в США, которым удалось в 1955 г. осуществить ситуацию со своего рода отрицательными температурами заселения определенных электронных орбит в атомах, базируясь при этом на прежней гипотезе А.Эйнштейна о когерентном характере излучения атомов под действием внешнего фотонного поля. Именно этот эксперимент в сочетании с теоретическим моделированием явления И.Е.Таммом и И.М.Франком был вознагражден (уже после смерти С.И.Вавилова) Нобелевской премией 1958 года.

Роль измерений при переходе от открытия
к гипотезе и моделированию явлений

Как было видно уже из предыдущих примеров, период перехода от первых экспериментальных открытий к возникновению гипотез (хотя бы качественных идей) и их общепризнанному принятию в ученом мире далеко не всегда происходит одинаково быстро, и он нередко требует новых “безумных” (по терминологии Н.Бора) для их качественного (в форме гипотезы), а затем и количественного (с помощью подходящего математического аппарата) моделирования. К этому добавим, что и выбор математического аппарата далеко не всегда однозначен. Так, например, группой В.И.Манько[cxxxix] были изложены недавно все основные результаты квантовой механики на языке классической статистики. А для авторитетного признания новой теории научным сообществом требуется изрядная доза интуиции. Кстати, понятие интуиции имеет своим физическим аналогом нечто вроде туннельного (подбарьерного) перехода от одной логической схемы к другой.

Значительную актуальность приобрела в последние годы высказанная впервые Б.Мандельбротом идея о новом методе анализа природных объектов со сложной пространственной структурой, получившей название фрактального анализа. Этот метод создал основания для расширения представлений об основных типах геометрических структур (точка, плоскость, многогранник) до познавания структур с дробной размерностью. Речь идет о дроблении одинаковым образом изломанных линий в пределах все более и более мелких интервалов.

Весьма обширной стала область использования еще одного математического метода анализа сложно разветвленных природных объектов, получивший название wavelet-анализ (от слова wavelet — маленькая волна). Это существенно расширило возможности хорошо известного гармонического анализа Фурье для целого ряда самых разнообразных природных явлений.

В качестве одного из последних примеров перехода от качественной идеи (гипотезы) приведем высказанную вначале Летоховым в России идею охлаждения газового облака удачно подобранными комбинациями лазерных пучков (за счет эффекта Доплера), а совсем недавно реализованную группой американских физиков программу охлаждения оптически плотного газового облака до сверхнизких температур порядка микрокельвина.

С точки зрения чувствительности измерений интересны уроки деятельности группы Н.В.Тимофеева-Ресовского[cxl], когда им удалось показать резко выраженное повышение концентрации ряда важных для живых существ элементов путем их радиоактивного облучения и подсчета количества полученных радиоактивных изотопов тех же элементов.

Большую роль в подобного рода операциях играет выбор нужного числа независимых параметров с приложением к ним (в духе синергетики) метода фазовых объемов. Особенно впечатляет в этом плане достигнутое группой Д.С.Чернавского[cxli] понимание того, как в процессе борьбы за существование живых организмов могли быть достигнуты одновременно и конвергенция, сходимость к единому генетическому коду и дивергенция — расходимость огромного числа биологических видов для успешного захвата экологических ниш.

Роль математики как экспериментальной науки и полноправной части научного знания была показана В.И.Арнольдом[cxlii], который на ряде примеров показал эффективность так наз. “мягких” методов решения задач, в которых исходные уравнения включают в себя регулируемые авторами с учетом экспериментальной ситуации значения параметров и виды функций.

Отметим еще те скрытые, но чреватые опасностями пути познания реальности, которые были использованы, в частности, А.Л.Чижевским[cxliii] при установлении корреляционными методами связей между различными проявлениями земной жизни и процессами, очень слабыми по доходящей до Земли энергии, солнечной активности. Опасность здесь состоит примерно в том же, что и ориентация на народные приметы с погодными предсказаниями в земных условиях (иногда они оправдываются, иногда — совсем нет).

Автор считает, что общими для обоих типов предсказаний являются два фактора: во-первых, значительная и далеко неоднородная степень неустойчивости подвергаемых предсказаниям состояний и, во-вторых, обилие возможных побочных факторов, влияющих на исход рассматриваемых процессов.

О неустойчивых состояниях и виртуальных объектах

В отличие от строго детерминированных законов классической механики совершенно необходимой частью почти всех областей современной ЕНЗ является анализ происхождения и развития неустойчивых (в той или иной мере) состояний. Начнем с физики элементарных частиц, где наблюдается большое разнообразие распадов частиц материи, начиная с радиоактивности атомных ядер и кончая так наз. резонансными состояниями с ничтожными временами жизни порядка 10-22 сек. Сюда же можно включить и интенсивно исследуемую теперь группу трансурановых элементов, область которых простирается вплоть до ядер с зарядом 114, причем время жизни последних, возможно, составляет многие годы в связи с квазиустойчивостью их замкнутых протонных и нейтронных оболочек. И если альфа-распад трактуется как чисто туннельный эффект проникновения этих частиц сквозь потенциальный барьер атомного ядра, то распады частиц типа мезонов или барионных резонансов рассматривается уже как взаимодействие этих частиц с вакуумом.

Важно, что и сам вакуум, трактуемый теперь как низшее энергетическое состояние того или иного физического поля, тоже неустойчив. В частности, современная космология рассматривает возникновение нашей Вселенной как Большой взрыв, проходящий через стадию избыточной флуктуации с последующим практически мгновенным расширением и перегревом (инфляцией), связанными с особым видом термодинамики вакуума, характеризуемой отрицательным значением давления. В эту же категорию неустойчивых явлений можно отнести и происходящие в нашей Галактике в среднем порядка раз в 30 лет вспышки Сверхновых звезд, являющиеся главным источником космических лучей.

Большой круг явлений неустойчивого типа породил такое философское течение, как синергетика, авторами которого оказались Пригожин, Хакен и другие на Западе, а в России — С.П.Курдюмов с сотрудниками[cxliv]. За пределами физики в сферу действия законов синергетики с характерными для них разветвлениями процессов при участии слабых внешних воздействий и втягиванием их в область того или иного центра-аттрактора можно отнести очень многие явления в природе: погодно-климатические, видообразующие в биологии, мыслительные в нейрофизиологии и т.д.

Близкие по природе процессы происходят и в сфере виртуальных объектов. Таковы, в частности, обмены виртуальными частицами между устойчивыми элементарными частицами в физике микромира вплоть до предсказанного И.Я.Померанчуком и Е.Л.Фейнбергом[cxlv] и обнаруженного вскоре на опыте явления так называемой дифракционной генерации, при котором налетающая на препятствие (атомное ядро) частица как бы заранее возбуждается настолько, что может распасться сразу на несколько частиц. В химии мы встречаемся с виртуальной реальностью иного рода, когда осуществляется своеобразный резонанс нескольких молекулярных структур. Что касается биологии, то возможно, что некоей формой виртуальной реальности можно считать, например, сновидения, в которых хаотическим образом переплетаются впечатления, полученные человеком в его реальной жизни.

Предсказание и создание новых объектов и явлений

Под новыми мы будем понимать здесь как неизвестные науке ранее, так и отсутствующие в окружающем нас мире объекты и происходящие с ними процессы. Кстати, реальность такого рода объектов позволяет коренным образом отличать их от разного рода религиозных чудес и ересей путем опытной проверки. Начнем с характерных примеров.

Оказывается[cxlvi], что при нашем Министерстве обороны уже давно работает специальная группа по предсказаниям различного рода катастроф типа землетрясений, тайфунов, терактов и крупных аварий, правда без полной достоверности и более или менее точных координат. А теперь перейдем к области ЕНЗ непосредственно. В астрофизике уже “нащупано” предсказание так называемой темной, т.е. неизлучающей и непоглощающей свет, материи на основе явного несоответствия между массами видимых частей галактик и скоростями их вращения, т.е. явного нарушения основных законов гравитации. Далее, стоит сказать о предсказанном А.Эйнштейном явлении вынужденного, строго когерентного излучения атомов, пропорционального плотности соответствующего числа фотонов в окружающем поле. Именно использование этого явления позволило создать такие могучие средства воздействия на природу и самого человека, как лазеры в оптической области и мазеры в радиофизике. Упомянем, наконец, о предсказании возможного существования такого важного для космологии объекта, как магнитный монополь.

В области химии классическим примером служит предсказание Д.И.Менделеевым неизвестных ранее химических элементов на базе периодической структуры всей их известной в то время совокупности. Лишь впоследствии с помощью квантовой механики удалось вскрыть физическую основу периодической системы и включить в нее множество не только стабильных, но и нестабильных изотопов путем введения таких важнейших квантованных характеристик как энергия электрона на атомной оболочке, его орбитальный и магнитный момент, а также собственный механический момент (спин). Вся их совокупность согласно действующей для частиц с полуцелым спином (в долях постоянной Планка h) статистике Ферми позволяет электронам занимать не более чем поодиночке каждое такое состояние.

Преодолеть это ограничение неожиданным образом удалось лишь П.Л.Капице, открывшему в 1938 году уникальное явление сверхтекучести гелия при очень низких температурах. Это открытие было блестяще объяснено группой теоретиков (Дж.Бардин, Л.Купер, Дж.Шриффер, Н.Н.Боголюбов, 1957), которые разработали теорию формирования так наз. куперовских пар электронов, образующих при невозможности разрушить их тепловым движением как бы единые частицы с целым значением спина. А для такого сорта частиц начинает работать уже другая статистика — по Бозе и Эйнштейну, при которой отпадает запрет занимать любое энергетическое состояние поодиночке.

В биологии может идти речь о предсказании процессов образования новых видов растений и животных в процессе борьбы за существование с учетом негативных экологических факторов, а также о предсказании полного вымирания определенных биологических видов по мере достижения ими некоторой критически минимальной численности особей в популяции.

Уникальные методы химического воздействия на наследственность были в свое время разработаны в лаборатории И.А.Рапопорта по химическому супермутагенезу [18].

Кстати, в экологии, описывающей и взаимодействие человеческого общества с окружающей средой, и рост народонаселения, со временем появились весьма содержательные обзоры (см., в частности[cxlvii]), которые предсказывают весьма мрачные перспективы, если не будут приняты очень решительные, хотя и непопулярные меры по ограничению и качественному изменению путей технологического прогресса.

Конечно, ничего общего с разного рода угрозами мирового апокалипсиса научные предсказания не имеют, как и с астрологическими прогнозами жизненных судеб людей только по положению звезд на небе в момент их рождения.

Эстетический фактор и его влияние
на создание гипотез и теорий

Пожалуй, больше других на роль эстетики в ЕНЗ обратил внимание А.Б.Мигдал[cxlviii], который был не только крупным физиком, но и очень увлеченным скульптором. В какой-то мере эта мысль пересекается и с образом театра абсурда у Р.А.Аронова[cxlix]. Речь пойдет здесь, прежде всего, о склонности ученого в качестве основы для гипотез и теорий природных явлений использовать те или иные симметрии для упорядочения объектов природы или основных параметров теории. Начиная с физики, напомним как Дж.Максвелл пришел к системе уравнений электромагнитного поля, постулировав симметрию уравнений для потенциалов электрического и магнитного полей. На длинном и мучительном пути формирования теории сильных взаимодействий победу одержали М.Гелл-Манн и Г.Цвейг, которые в 1964 году рискнули навести порядок в обширном “зоопарке” элементарных частиц с сильным взаимодействием за счет гипотезы о субэлементарных частицах-кварках с очень необычным, дробным электрическим зарядом (в долях заряда электрона). И получилась в итоге симметрия, кратко обозначаемая как SU(3). Наконец, уже для всех прочих частиц с их слабым и электромагнитным взаимодействием появилась так наз. стандартная модель, содержащая в себе тройку лептонов вместе с их нейтрино и тройку кварковых пар.

Из области химии отметим историю с периодами элементов по Менделееву, усовершенствованную и расширенную в последние годы И.П.Селиновым[cl].

И, наконец, о биологии. Необходимость систематики изрядного числа характеристик генетического аппарата живых организмов привела к очень изящной модели двойной спирали по Крику и Уотсону, составленной всего из четырех основных типов элементов (ДНК) и обеспечивающей при этом сочетание повторения (редупликации) с изменениями-мутациями в качестве основного механизма действия генетического аппарата.

Достаточно поучительны также рассуждения Н.В.Тимофеева-Ресовского о четырех основных уровнях биологической эволюции. Это — молекулярно-генетические структуры, клеточно-онтогенетическое развитие тканей и органов, статистические популяционные флуктуации (так наз. “волны жизни”) и биогеоценозный уровень, определяющий собой распределение всей биосферы на весьма неравномерные, относительно изолированные участки типа экологических ниш. И все это автор рассматривал в качестве основы для будущего здания всей теоретической биологии.

Развитие новых технологий на базе ЕНЗ

Последним и на этот раз достаточным критерием достоверности ЕНЗ является основанная на нем возможность и необходимость создания новых технологий не только для производства все более широкого ассортимента материальных благ и удобств, но и для улучшения здоровья самого человека. А ведь очень многие люди, целиком вверяющие свою судьбу воле Всевышнего, упорно забывают о том, что их современная жизнь была бы просто немыслима без нынешних жилищ с их отоплением, электроэнергией и холодильниками, без средств коммуникации на дальние расстояния, без многочисленных средств повышения плодородия почвы, без современных лекарств и не только хирургических вмешательств, но и с помощью лазеров в неполадки нашего организма, без книг, журналов и газет.

Но и здесь возникают три важных проблемы. Первая из них — это сомнение в достаточных темпах роста и общедоступности всех этих технологий в условиях непрерывно растущего народонаселения Земли.

Вторая проблема — ничуть не убывающая угроза массового истребления людей в ходе социальных, этнических и религиозных конфликтов.

Третья проблема — быстро нарастающее нанесение ущерба окружающей среде. Неизбежное воплощение значительной части результатов ЕНЗ в технический прогресс, как мы уже указывали по обширным данным, собранным в книге В.А.Лисичкина и др.[cli], приводит к столь мощному давлению на окружающую нас среду (включая ближний космос), что пора всерьез задуматься об экологических проблемах несмотря на обилие отвлекающих нас многих локальных социальных конфликтов.

Впрочем, эта тема волновала умы передовых ученых нашего века, начиная с В.И.Вернадского. Согласно Вернадскому, практически вся наружная оболочка Земли может рассматриваться как биогеосфера, ибо формирование не только почвы, но и огромного массива осадочных и горных пород обязано своим происхождением деятельности живых организмов, обладающих способностью избирательно накапливать целый ряд химических элементов.

Впоследствии быстрое развитие технологических процессов существенно изменило ситуацию путем резко возрастающего со временем отравления окружающей среды отходами разнообразных производств. А это означает необходимость расширения биосферных концепций до уровня осознанного (ноосферного) понимания проблем всей совокупности переплетающихся между собой геологических, биологических и технологических процессов.

Рассуждая о причинах обострения экологических проблем, П.Л.Капица отмечал[clii], что его источниками являются: во-первых, непонимание того, что возможное возникновение мировой ядерной войны означало бы фактически прекращение жизни человека на всей планете, во-вторых, темпы развития технологических и в значительной мере демографических процессов носят экспоненциальный характер, а это может привести к взрывному кризису цивилизации, в-третьих, существовавшее до сих пор в природе биологическое равновесие уже перестает сохраняться.

Существенный фактор экологической опасности связан с гонкой вооружений, в том числе — ядерных, последствия которой маскируются военными ведомствами под завесой секретности, о чем свидетельствует, в частности, известное дело А.Никитина[cliii] о ядерном загрязнении российского Севера, выступления Мирзоянова о запасах химического оружия в России, а также обращение президента США о возможности серьезных терактов с массовым распылением опасных бактерий в ряде городов США.

Примечания

 

РазделII. Формирование специальных научных парадигм

И.К.Лисеев

Становление новой парадигматики в биологических исследованиях

В наши дни, на рубеже ХХ и ХХI веков, мы живем, мыслим и действуем в условиях происшедшей в ХХ веке эпистемологической революции.

Ее результаты, еще до конца не осознанные и не освоенные научным сообществом, тем не менее последовательно ведут к переходу от классического образа науки к образу неклассическому и далее к постнеклассическому (по В.С.Степину)[6].

В классическом понимании науки господствовал образ неизменной, статической науки, абсолютно истинной, бесспорной, основанной на незыблемых критериях научности, неопровергаемых ее поступательным развитием.

Процесс познания объективной реальности предполагал полное разграничение субъекта и объекта. Считалось, что особенности субъекта никак не сказываются на результатах познания. Развитие науки рассматривалось как процесс накопления твердо установленных, доказанных раз и навсегда истин.

В этой ситуации вполне логичным было рассмотрение регулятивных методологических принципов как прямого отражения в знании характера и закономерностей реального изучаемого мира. Они понимались при этом как однозначное и к тому же единственно возможное отображение фундаментальных характеристик бытия.

Современный неклассический идеал науки формировался в процессе преодоления кризиса методологического сознания, разрушения, казалось бы, незыблемых критериев научности классической науки. Начавшись в физике в поиске выхода из кризисной ситуации на рубеже XIX и XX веков, он постепенно эксплицировался и захватывал все новые сферы научной деятельности.

Суть в формировании этого нового идеала науки состояла в отказе от классического представления о завершенном и неизменном знании как олицетворении абсолютной истины. В неклассическом идеале науки по-иному представляется проблема обоснования теоретических фундаментальных посылок науки. Их обоснование изначально не может рассматриваться как полное и окончательное, определяясь исторически достигнутым уровнем знаний и общественной практики. От представлений о безусловной истинности научных знаний, их автономности и независимости от других сфер человеческой деятельности происходит переход к пониманию социкультурной и личностной детерминации научного знания.

Становление нового неклассического естествознания оказывается органично связано с возникновением особого качества рефлексивности, обращенности на анализ средств и методов получения знания. Появление научной рефлексии, осознание оснований и специфики познавательных методов и приемов, свойственных научному исследованию, оказывается возможным только на этапе, когда в поле зрения науки попадает не только объект, но и субъект познания, не только природа, но и исследующий ее человек. При этом используемая философско-рефлексивная концепция не выступает просто как более широкое поле для видения конкретной науки. Она играет активную роль в ее познании и преобразовании. Изменения на методологическом уровне оказывают определенное влияние на характер развития знаний. Анализ канонов познавательной деятельности ведет к их осмыслению и переосмыслению, к поискам новых стандартов этой деятельности, адекватной конкретной когнитивной и социокультурной ситуации.

В этом контексте неклассического понимания рациональности переосмысливается происхождение и роль регулятивных методологических принципов. Они отныне не рассматриваются как априорные и абсолютные константы науки, а уточняются и дополняются по мере углубления познания, смене стиля мышления в науке, изменения социальных заказов, идущих к науке от общества. При этом не подвергается сомнению, что исходные основания формирования научных концепций и теорий всегда опосредованы определенным слоем онтологических схем и моделей. Вместе с тем представления о субординации фактов и теорий, достаточно ясные и однозначные в классической науке, ныне переосмысливаются. Теория рассматривается как ведущий элемент познавательного процесса. Научные факты получают свою интерпретацию лишь в контексте определенных теорий. Процесс познания осуществляется на основе конкуренции и смены различных фундаментальных теорий, которые выстраивают различные факты науки зачастую даже на одном и том же материале.

Подобное утверждение можно ярко проиллюстрировать на примере становления представлений о целостности и системности в живой природе. Ведь далеко не сразу объективно целостные и системные объекты живого воспринимались как таковые. Только с появлением методологической ориентации и регулятивных принципов целостности и системности данные представления стали развиваться в рамках подобных теоретико-методологических схем.

Таким образом, можно сказать, что регулятивные принципы носят во многом предпосылочный характер и ориентируют познание на выход за пределы существующих стандартов. Содержательно-теоретический подход в науке, отмечает В.С.Швырев, осуществляется в некоторых заданных границах моделирования мира, методологический же подход исходит из возможностей расширения и углубления предпосылок этого моделирования[8].

Подобными предпосылками, конструируемыми сложным сочетанием онтологической, гносеологической, логической, методологической, ценностной, личностной и социо-культурной детерминации и выступают регулятивные принципы, действующие в биологическом познании.

В то же время, подчеркивая порождающий характер регулятивных методологических принципов биологического познания, надо отметить, что и сами эти принципы конституируются на основе определенных предпосылочных знаний. Среди таковых находятся: специфика исследуемых объектов, ориентация на традиции, доминирующий стиль мышления данного исторического периода, конкретные социокультурные ожидания, идущие от общества к науке, и т.д. Говоря о подобных предпосылках, нельзя не обсудить той роли, которую играет в становлении методологических регулятивов наличие на каждом историческом этапе развития общества определенной познавательной ориентации, или познавательной модели, по А.П.Огурцову[3]. Этот термин является удачным методологическим конструктом, четко отражающим эволюцию исторически конкретных когнитивных ориентаций и образцов. Уровни реальности, вычленяемые с помощью познавательных моделей, — это уровни взаимодействия человека с природой. Объективная реальность не может быть определена независимо от человеческой деятельности. Она определяется лишь в контексте отношения к ней человека и лишь в той мере, в которой она вовлечена в сферу человеческой деятельности. Осмысление различных уровней реальности осуществляется на основе разных познавательных моделей, которые, с одной стороны, выражают уровень познания человеком природы и характер диалога человека и природы, а с другой — лежат в основании самого подхода человека к познанию, задают исходную систему отсчета для рассмотрения природной реальности под тем или иным углом зрения. Они определяют способ постановки проблем, средства анализа и характер вычленения исходных аналитических единиц. Можно сказать, что познавательные модели являются конкретной формой реализации научных идеалов того или иного периода истории культуры. Познавательные модели несут в себе как онтологическую, так и методологическую функции. Их онтологическая функция связана со способом задания предметной области исследований и расчленением объектов изучения, методологическая — с процедурами и методикой анализа, задающими сам объект исследования, выявляющими фундаментальные характеристики мира знания, те инвариантные структуры, которые отличают мир объективных смыслов. Признавая множественность познавательных моделей, функционировавших в истории развития человеческой цивилизации, разные авторы между тем выделяют их различное количество. При этом важно отметить, что на конкретном историческом этапе, как правило, действуют самые разные познавательные модели. Но некоторые из них образуют ядро познавательных средств эпохи, тогда как другие составляют периферию познания.

Не претендуя на всеобщность охвата, можно выделить следующие познавательные модели в истории культуры.

Организменная — мир как организм. Это первая познавательная модель, раскрывающая устройство бытия, космоса, природы по аналогии с устройством живого организма. Возникнув в античности, она затем неоднократно воспроизводилась в дальнейшем.

Семиотическая— мир как книга. Возникнув в средневековой культуре, эта модель давала возможность видеть мир, природу как текст, который надо прочесть, или шифр, смысл которого надо разгадать, расшифровать.

Механическая — мир как машина, как часы. Завоевав приоритет в культуре Нового времени, такое понимание мира требовало его описания как комплекса механически взаимодействующих частей.

Статистическая — мир как статистический ансамбль, совокупность балансов. Восходя к ХIХ веку, эта модель рассматривала мир как состояние статистического равновесия.

Организационная — в которой рассмотрение универсума проводилось на основе вычленяемых различных организационных законов. Начиная с идей “Тектологии” А.А.Богданова, исследований Р.Селларса и Г.Брауна, эти взгляды получили развитие в работах структуралистов, холистов и др. Организационные представления лежат в основе всех направлений современной экологии.

Эволюционная — представления этой познавательной модели зародились еще в античности и прошли через века. Однако парадигмой естествознания она становится в ХIХ веке, после эпохальных работ выдающихся ученых-эволюционистов Ж.Б.Ламарка, Ч.Дарвина и др., приобретая в ХХ веке устойчивую тенденцию к превращению в феномен культуры в целом. Из фундаментальной идеи биологии она трансформируется в эволюционистский способ мысли, обретая в широко утверждающейся ныне концепции глобального эволюционизма свое всеобщее универсальное значение.

Наряду с эволюционной ведущими во второй половине ХХ века становятся еще две познавательные модели — системная и самоорганизационная.

Системная познавательная модель предстает как путь реализации целостного подхода к миру в современной культуре в условиях учета сложнейшей многообразной дифференцированности знания, достигнутого в современной науке.

Самоорганизация как познавательная модель в рамках синергетики дает возможность оценить объективную реальность в терминах нелинейности, неустойчивости, неравновесности. Осознать развивающиеся процессы через многообразные флуктуации подсистем, в ходе которых возникают точки бифуркаций, когда появляется целый веер различных направлений изменений систем. Увидеть возможность спонтанного возникновения самоорганизации из беспорядка и хаоса в диссипативных структурах.

Биологические знания и представления существенно влияли на формирование многих познавательных моделей и прежде всего организменной, организационной, эволюционной, системной. Во многом именно из биологии шли в науку и культуру представления о целостности, организованности, развитии и системности.

Однако роль биологии еще более возрастает в ходе формирования новых познавательных моделей на рубеже ХХI века. Одной из таких моделей выступает диатропическая познавательная модель. Ее основные идеи изложены в трудах С.В.Мейена и Ю.В.Чайковского. В диатропике взамен учениям о приспособлении, господствовавшим у Ламарка и Дарвина, появляется не менее важный феномен — разнообразие. Пока биология имела дело только с единичными фактами, а не с их рядами, заметить это было невозможно. Представления о рядах, меронах и рефренах, разработанные С.В.Мейеном, дали возможность отметить тот факт, что законы многообразия носят универсальный характер, не зависящий прямо от материальной природы объектов, составляющих то или иное множество.

Проведенный краткий обзор основных парадигмальных методологических установок, действовавших в биологическом познании, дает возможность зафиксировать тот факт, что, несмотря на множественность всех этих установок и специфичность, автономность каждой из них, в ХХ веке основные теоретические построения в биологии ориентировались на два ведущих методологических конструкта – идеи развития и организации, которые, постепенно перерастая рамки собственно биологии, превращались в регулятивы культуры в целом.

Идея развития эксплицировалась в биологическом познании в рамках принципа эволюционизма. Эволюционизм уже более века является одним из определяющих феноменов современной культуры. Его развитие шло по двум основным направлениям, которые можно назвать интенсивным и экстенсивным. Сущность первого состоит в развитии и усовершенствовании эволюционных идей, в превращении их в систему взглядов, нацеленных на раскрытие причин эволюции, ее источников и движущих сил, на создание различных теорий эволюции и их совершенствование. Сущность второго в том, что многие проявления реальности, ранее рассматривавшейся внеисторически, осознаются в историческом, эволюционном контексте. Историзм, понятый как методологический принцип, в этом случае вел к раскрытию причин самодвижения, саморазвития объектов на основе учета объективной противоречивости реального мира. Эволюционизм развивался вширь, захватывая все новые области реальности и открывая при этом новые перспективы их познания и интегральной оценки. Характерные примеры эффективности эволюционных подходов представлены ныне в развитии почти всех сфер реальности, что свидетельствует об универсальности эволюционных процессов, ведущей к превращению идеи эволюционизма в концепцию глобального эволюционизма.

В то же время буквально на глазах ныне живущего поколения произошло становление еще одной глобальной концепции — концепции глобальной экологии. Биологическая наука экология, занимающаяся изучением взаимоотношений организмов со средой их обитания, начала стремительно расширять свой предмет. Это определялось изменением реалий нашего времени, ухудшением экологической обстановки, угрозой нарастания экологического кризиса. Возникли понятия “экология человека”, “социальная экология”, “глобальная экология” и т.д. Некоторые трактуют эти понятия и стоящее за ними содержание синонимически, употребляя их через запятую. Однако нельзя не видеть, что за этими терминами стоят достаточно определенные и отличающиеся друг от друга проблемы.

Экология как биологическая наука традиционно делится на аутэкологию — изучающую индивидуальные организмы в их взаимоотношениях со средой, синэкологию — изучающую множества организмов в их связи со средой обитания и биогеоценологию — выступающую как учение об экосистемах в их единстве и взаимосвязях. Под экологией человека понимается наука о взаимодействии, коэволюции человека и природной среды его обитания. В ней изучается две группы взаимосвязанных проблем. С одной стороны — охрана природной среды обитания человека, с другой — охрана самого человека. Экология человека формируется как дисциплина, исследующая коэволюцию деятельности человека и возможностей природных систем с учетом как влияния человека на природную среду, так и влияния природной среды на человека, и адаптацию человека к различным средовым факторам. Современная экология человека — это комплексное междисциплинарное научное направление, изучающее закономерности адаптации человека к условиям среды, воздействие на человека природных констант (климатических, температурных, высотных, атмосферных и прочих) и обратный процесс различных реакций человека на эти константы в зависимости от генетических, психологических и культурных особенностей. Социальная экология — это наука о взаимоотношениях общества и окружающей его среды, наука о законах совместимости, коэволюции общества и природы. Это отрасль экологии, исследующая отношения между человеческими сообществами и окружающей их природной и культурной средой. В социальной экологии изучается прямое и побочное влияние производственной деятельности человека на состав и свойства среды. В сферу ее внимания попадает не только природная, но и искусственно созданная человеком среда: города, заводы, вся инфраструктура производственной деятельности людей. Человечество давно уже открыло для себя многие законы природы. Выяснены и используются обществом и законы социального развития. Однако проблема вычленения основных закономерностей и законов взаимодействия общества и природы поставлена в повестку дня лишь недавно, в условиях обострившегося экологического кризиса. Раскрытие этих коэволюционных закономерностей и законов развития индустриального общества и изменяемой им природы — одна из основных задач социальной экологии. Глобальная экология изучает общие закономерности организационных отношений любых объектов реальности со средой их обитания, безотносительно к субстрату данных объектов и сред. В таком понимании в глобальной экологии формируется общая концепция коэволюционных отношений объектов и среды их обитания, рассмотренных в структурно-организационном плане. Глобальная экология выступает как идеология, общая теория возможных экологических отношений объектов друг с другом и со средой обитания.

Именно при достижении такого высокого, самого общего уровня рассмотрения проблем глобального эволюционизма и глобальной экологии становится наиболее очевидной ограниченность идей эволюционизма и экологизма, рассматриваемых изолированно, без учета их взаимодействия, их глубинной сопряженности.

Биологическая экология, возникнув как “наука о структуре и функциях природы” (Ю.Одум), традиционно интересовалась структурно-функциональными связями в мире живого, сосредоточивала внимание на проблеме структурного единства, организационной целостности органических образований. Сходная тенденция наблюдалась в развитии и других разделов экологии. В последние годы, во многом благодаря работам С.С.Шварца и других исследователей, становится все более ясным, что структурно-функциональные подходы недостаточны для построения общей теории экологии. Для решения этой задачи экология должна освоить все богатство идей эволюционной биологии, включить эволюционный подход, принцип историзма в арсенал своих теоретико-познавательных средств.

С другой стороны, и эволюционизм нуждается в дополнении структурно-организационными экологическими представлениями. Изучение экологического своеобразия популяций, выяснение их экологической структуры позволяет более точно отобразить характер и сущность эволюционного процесса, воспроизвести целостную объективную картину его этапов. Обогащение эволюционных представлений экологическими принципами, учет соразвития эволюционных и экологических идей означает более высокий уровень изучения взаимоотношений между человеческой деятельностью и экосистемами. Данный синтез становится необходимым моментом на пути создания общей теории управления эволюционным процессом.

Можно констатировать, что учет сопряженного развития идей экологии и эволюции способствует формированию нового эволюционно-экологического мышления, вносящего существенный вклад в создание новых установок культуры. Две фундаментальные идеи, берущие свое начало в биологии — идея развития (эволюция) и идея организации (экология), подтверждая свою всеобщность и универсальность для отражения различных форм природных и культурных процессов, демонстрируют при этом свою глубинную взаимозависимость, взаимосопряженность, когерентность, выражающуюся в формировании эволюционно-экологического мышления. Синтез эволюционных и экологических идей на путях контроля и сознательного регулирования био-абиотических отношений и процессов приближает решение ряда фундаментальных стратегических проблем завтрашнего дня. Среди них — задача стабилизации и воспроизводства природных ресурсов, создание управляемых высокопродуктивных биогеоценозов, адаптивно-ландшафтного землепользования, разработка и создание различных замкнутых экологических систем и т.д. Эволюционно-экологическая ориентация исследований оказывается остро необходимой в связи с бурным развитием методов генетической и клеточной инженерии. Только на основе учета эколого-эволюционной целостности природных объектов можно избежать негативных последствий волюнтаристского, несообразованного с объективными законами вмешательства в природу. Синтез идей экологии и эволюции имеет существенное значение для объединения представлений естественных и общественных наук, для понимания коэволютивных закономерностей развития природных и культурных систем как в методологической, так и в мировоззренческой областях.

Все изложенное говорит о том, что в настоящее время мы являемся свидетелями и участниками формирования в биологическом познании новой познавательной установки, дающей возможность преодолеть разрыв в развитии эволюционной и организационной биологии, реально соединить принципы организации и развития.

Эта познавательная модель, названная коэволюционной, в фундаменте своем базирующаяся на эволюционной парадигме, разделяет ряд идей, присущих организационной, системной, самоорганизационной, диатропической моделям. При этом она не сводится ни к одной из них, представляя собой устойчивый самостоятельный методологический конструкт.

Процесс коэволюции как совместного сопряженного развития систем с взаимными селективными требованиями был обнаружен и изучен в биологии уже весьма давно. Однако он рассматривался как периферийный, маргинальный процесс, призванный объяснить лишь различные виды симбиотических отношений: хищник-жертва, аменсолизм, паразитизм, комменсализм, протокооперация, мутуализм и др.

Осознание универсальности коэволюционных отношений началось как бы с “верхних этажей”, с отношений общества и природы, человека и биосферы. Через историю всей человеческой цивилизации проходят две взаимоисключающие стратегии отношений человека и природы: установка на покорение природы и установка на смирение перед ней. Катастрофическое нарастание экологического неблагополучия на Земле в наши дни способствовало осознанию ограниченностей и тупиковости обеих этих стратегий. Все яснее ныне понимание того, что нельзя делать ставку только на антропогенные или только на витальные, природные факторы. Лишь учет их органического взаимодействия, взаимосвязи, взаимозависимости, лишь четкое понимание закономерностей их сопряженности, коэволюции может стать залогом успешной разработки новой стратегии отношений человека, общества и природы. Впервые обратил внимание на эти закономерности В.И.Вернадский, сформулировавший свою концепцию перехода биосферы в ноосферу. Однако он не использовал еще термина “коэволюция”, хотя по сути развивал коэволюционные идеи в понимании взаимодействия человека и природы. С концепцией коэволюции человека и биосферы в отечественной литературе первым выступил Н.В.Тимофеев-Ресовский в 1968 г. [7]. Затем в работах Н.Н.Моисеева, Э.В.Гирусова и многих других исследователей эти идеи были всесторонне обсуждены и обоснованы. Хотя при этом еще недостаточно осознавалось, что огромный пласт коэволюционных проблем взаимодействия общества и природы есть лишь частный случай универсальной коэволюционной стратегии, приложимой ко всей реальности.

Первой работой, в которой идея коэволюции была осознана как универсальная, стала книга С.Н.Родина [5]. В ней на большом фактическом материале раскрыта универсальность коэволюционных процессов на всех уровнях — от молекулярной эволюции до эволюции биосферы и эволюции идей. Философское обоснование коэволюции как новой познавательной модели и перспективной стратегической установки цивилизационного развития дано в нашей работе [3]. Здесь показано, что идея коэволюции ныне все более осознается в своей философской глубине и становится центральной для всего эволюционистского способа мышления. Коэволюционная установка оказывается ныне и регулятивным методологическим принципом биологических наук, задающим способы введения ими своих идеальных объектов, объяснительных схем и методов исследования и одновременно новой парадигмой культуры, позволяющей осмыслить взаимоотношения человечества с природой, единство естественнонаучного и гуманитарного знания.

Коэволюционная стратегия задает новые перспективы для организации знания, ориентируя на поиск новых аналитических единиц и способов понимания сопряженности мира природы и мира культуры, осмысления путей совместной эволюции природы и человека, биосферы и ноосферы, природы, цивилизации и культуры. Эта стратегия позволяет преодолеть разрыв между эволюционистским подходом к природе и эволюционистским подходом к человеку, наметить пути синтеза между эволюционизмом в биологии и эволюционизмом в социокультурных науках. Критерием для выделения коэволюционирующих процессов в различных областях реальности выступает отнюдь не только сопряженность процессов развития, но и их направленность, автономность участвующих во взаимодействии компонентов, процессуальность, кооперативность, полифоничность взаимодействующих процессов. Непонимание полифоничности коэволюции, выравнивание разноречья и многоголосья в одноголосье и монолог, противопоставление эволюирующих рядов друг другу вновь влекут к линейному пониманию взаимодействия, к подмене полифонического подхода позицией доминирования одного ряда эволюции над другим, что так отчетливо отражалось в классическом противостоянии позиций биологизма и социологизма. Подход, отражающий коэволюционную стратегию, подчеркивает и выявляет многоплановость самостоятельных и неслиянных процессов, сопрягающихся в полифонии, синергетику их взаимодействия, открытость, толерантность, незавершенность, непредрешаемость, сосуществование и взаимосопряжение разнообразных процессов, сохраняющих свою самостоятельность и вместе с тем сочетающихся в единстве высшего порядка.

Подобный новый теоретико-познавательный взгляд на мир, отраженный в коэволюционной стратегии, дает возможность по-новому взглянуть и на действующие в культуре системы идей, их коэволюцию.

Коэволюционная познавательная модель, выступая как универсальный методологический конструкт, отражает коэволюционные процессы не только в развитии природы и культуры, но и коэволюцию идей. “Трудно не заметить сходства, — пишет С.Н.Родин, — между процессами возникновения, распространения и фиксации генетических вариаций в ходе биологической коэволюции и процессами, определяющими судьбу самих научных идей, нового знания вообще и культуры в целом. В сущности, речь идет о зарождении новой коэволюционной эпистемологии, которая закономерным образом наследует эпистемологию чисто эволюционную”[5].

Характерно, что в процессах взаимного софункционирования, соразвития или противостояния идей представлены все те параметры коэволюционной познавательной модели, о которых говорилось выше. Здесь и стохастические процессы, и конкуренция и селективный отбор, и взаимодополнительность, и, часто, взаимное отрицание на начальных этапах, в итоге приводящее к синтезу. Большинство интегральных синтетических дисциплин в современной биологии демонстрируют яркие примеры подобной коэволюции идей. На их основе сформировалась современная молекулярная биология, биология развития, получила широкое распространение новая синтетическая отрасль биологии — эволюционная биология. Эволюционная биология интегрирует идеи, методы и подходы разных, зачастую противостоящих друг другу направлений и дисциплин. Среди них — молекулярная генетика, цитогенетика, генетика популяций, биохимическая генетика, теория отбора, математическая теория эволюции, палеонтология, эмбриология, этология, биогеография и прочие [1]. История науки свидетельствует, что в процессе коэволюции идей идет, как правило, аккумуляция и трансформация не только идей и теорий, добытых сторонниками той или иной концепции, но и ее противниками. Так Л.И.Корочкин в ряде своих работ проанализировал противостоящие друг другу концепции преформизма и эпигенеза в биологии [4]. Он показал, что, несмотря на длительную взаимоисключающую борьбу этих двух фундаментальных биологических концепций, в ХХ веке произошел своеобразный синтез преформизма и эпигенеза. Осуществился обмен идеями между двумя конкурирующими парадигмами, в результате которого развитие стали рассматривать как преформированный эпигенез.

Эта же идея взаимообогащения, взаимовлияния развивающихся параллельно и сопряженно понятий прослеживается в ходе синтеза эволюционных и организационных представлений в современной биологии. Ярко проявилось это в объединении идей генетики и эволюции, приведшего к кардинальному изменению стиля мышления в современной биологии. Разработка генетики как науки о конкретных механизмах изменчивости и наследственности осуществлялась на первых этапах вне и даже в противовес эволюционной идее. Долгий путь к соединению идей теории эволюции и теории наследственности был обусловлен сменой познавательных установок в науке о жизни, попытками найти устойчивое в развитии и развивающееся в устойчивом. “Первой ласточкой” на пути проникновения идеи эволюции в генетику послужила ныне рассматриваемая как классическая работа С.С.Четверикова “О некоторых моментах эволюционной теории с точки зрения современной генетики”, опубликованная в 1926 году. В этой работе были заложены основы новой науки и нового мировоззрения, мышления, соединяющего идеи эволюции и организации — генетики популяций. За этой работой последовал ряд исследований, в которых поставленная проблема получила свою экстенсивную разработку. С этого времени начинается плодотворное развитие нового синтетического направления. Было показано, что наряду с известными факторами эволюции — наследственной изменчивостью и отбором — определенную роль играют и стохастические процессы, отражающие вероятностные изменения концентрации генов в популяциях. Загадка генетического эффекта изоляции в эволюции, вызывающего дивергенцию популяции по неадаптивным свойствам, не разрешенная Дарвиным, получила свое решение в теории дрейфа генов.

В 70—80 годах XX века, благодаря разработке новых методов в молекулярной биологии и генной инженерии, появилась возможность свободного манипулирования генетическим материалом и не опосредованная, а прямая расшифровка (секвенирование) последовательностей ДНК, РНК, структуры белков. Был подвергнут сомнению и практически опровергнут центральный постулат генетики, согласно которому гены, бесконечно редуплицируясь, поддерживают постоянство генома. Были открыты многочисленные явления, свидетельствующие о непостоянстве генома. Проблема немутационной изменчивости генома стала рассматриваться в практическом плане. Так был обнаружен горизонтальный обмен генами между неродственными организмами. Была показана наследственная изменчивость генома, основанная на перемещениях подвижных генетических элементов.

Все эти открытия свидетельствовали о том, что синтез идей эволюции и организации уже не может рассматриваться как простой линейный процесс и требует анализа на основе неклассической методологии как нелинейный тип развития. Эволюцию генов с этих позиций можно уяснить лишь через призму эволюции геноценозов, т.е. сопряженной эволюции всего множества генов в геноме. Был открыт третий фактор эволюционного изменения — молекулярный драйв, суть действия которого в изменении семейств последовательностей ДНК за счет распространения в них мутаций без явного влияния отбора на этот процесс. В результате наблюдается согласованная эволюция таких последовательностей в популяциях организмов.

Все это свидетельствует о том, что на генно-молекулярном уровне действуют не столько эволюционные механизмы развития, сколько механизмы коэволюционные, предполагающие сопряженную эволюцию и взаимные селективные требования развивающихся объектов. С этих позиций одной из наиболее обещающих современных концепций, свидетельствующих об универсальности идеи коэволюции, становится концепция молекулярной коэволюции. Согласно этой концепции геном любого организма понимается как иерархически организованный, но достаточно слаженный, интегрированный ансамбль генетических информационных единиц разного ранга, и его цельность несомненно является продуктом взаимно адаптивной коэволюции этих единиц.

Mожно констатировать, что на молекулярном уровне современных биологических исследований в ходе коэволюционного развития эволюционных и организационных идей достаточно устойчиво утверждается принципиально новый стиль мышления, дающий возможность рассмотреть любую систему как результат коэволюционных взаимодействий взаимно адаптивных, оптимально подогнанных друг к другу элементов. В то же время становится все более ясным и то, что молекулярно-генетический уровень — это лишь исходный уровень коэволюционных процессов, разворачивающихся на всех уровнях организации живого.

Сходные процессы идут и на надорганизменных уровнях жизни, на уровне экосистем. Ибо любая экосистема также является продуктом коэволюции, продуктом взаимосопряженной селекции видовых геномов. Коэволюционный смысл приобретают фундаментальные биологические понятия, такие как понятия популяции, биогеоценоза, экосистемы, биосферы в целом. Здесь также осуществляется принципиальный процесс формирования новых эволюционно-организационных представлений.

Такое изменение методологических ориентаций незамедлительно влечет за собой и изменения в понимании ценностных и деятельностных принципов.

Идея коэволюции выступает как ответ на вызов современной технократической цивилизации, ее иллюзиям о господстве над Природой, ее мировоззренческим, ценностным и деятельностным установкам, основанным на идее насилия. В развитии процесса понимания коэволюции произошло столкновение дарвиновских традиций и недарвиновских подходов к эволюции, осуществилось разрушение монополизма образа борьбы за существование и конкуренции, утвердилось осознание теоретической и общекультурной перспективности представлений о кооперации и взаимопомощи как факторах эволюции, т.е. произошла кардинальная смена ценностных установок.

Насилие и ненасилие как две альтернативные ориентации в определении стратегии и тактики человеческого поведения и деятельности представлены фактически во всех периодах истории человечества. Однако их соотношение и удельный вес разнятся в различные исторические периоды, в различных культурах, религиях, этносах.

В этой связи естественен вопрос, какая же из этих ориентаций более адекватно отвечает объективным потребностям эволюционного развития, какую из названных тенденций с большим правом можно считать фактором эволюции и двигателем прогресса. В литературе широко представлена точка зрения, согласно которой этот вопрос в науке был снят с возникновением дарвиновского учения. Известно, что Ч.Дарвин не только установил факт, но и раскрыл механизм преобразования видов в природе. Силу, вызывающую такие последствия, он определил как “the struggle for existence” — борьбу за существование.

Последователи Дарвина, констатировали, что борьба между себе подобными является объективным природным фактором и выживает в этой борьбе сильнейший, который оказывается способным победить. Не случайно и К.Маркс указывал, что дарвиновское представление о наличии объективной борьбы за существование в природе явилось естественнонаучным подтверждением его теории классовой борьбы в обществе. Насилие с подобной точки зрения — объективный фактор прогрессивного развития как в природе, так и в обществе.

Однако обращение к текстам работ Ч.Дарвина показывает, что термин “борьба за существование” он понимал не буквально, а как некоторую метафору, в самом широком смысле. “Я должен предупредить, — писал Ч.Дарвин, — что применяю этот термин в широком и метафорическом смысле, включая сюда зависимость одного существа от другого, а также включая (что еще важнее) не только жизнь особи, но и успех в оставлении потомства”.

Следовательно, Дарвин, формулируя это ключевое определение своей теории, в неявной форме объединял различные процессы и различные смыслы. При этом Дарвин и его ученики и интерпретаторы не всегда были достаточно последовательны в метафорическом понимании “борьбы за существование”, в ряде случаев трактуя это определение в его буквальном смысле.

В то же время существовала возможность иной трактовки. Так одним из первых К.Ф.Кесслер, за ним П.А.Кропоткин и др. обратили внимание на то, что наиболее приспособленными часто оказываются не те, кто физически сильнее или агрессивнее, а те, кто лучше объединяется, кооперируется, помогает друг другу. Эта позиция получили поддержку и в современной литературе (Б.Л.Астауров, В.П.Эфроимсон, Л.В.Крушинский, современные социобиологи и др.). Можно сказать, что широкое понимание термина “борьба за существование” наряду с прямой конкуренцией особей друг с другом на равных началах включает в себя и взаимопомощь, и альтруизм как эффективные инструменты борьбы за лучшее приспособление, реальные факторы эволюции.

Таким образом, конкуренция и взаимопомощь рассматриваются ныне как две ведущие деятельностные силы эволюции, проявляющие себя в непрерывно идущем процессе коэволюции.

Однако в сложившейся в обществе поведенческой парадигме, в действующих регулятивах, определяющих характер приоритетов в развитии человеческой деятельности, по-прежнему доминируют установки на господство, конкурабельность, соревновательность.

Для этих установок характерно противопоставление человека и природы, примат активно-преобразовательного отношения к природе, акцент на инновационной деятельности человека как фундаментальной ценности. В контексте подобных представлений осуществляется рационализация всего комплекса отношений “цель-средство-результат” деятельности. Монологизм становится ведущим принципом в отношениях между людьми, не допускающим автономии личности, свободы ее выбора и решений. Доминирует тяготение к силовым методам разрешения конфликтов. Широкое развитие получает технология манипулирования поведением людей с помощью различных форм пропаганды, рекламы и т.д Проявления этой ценностно-нормативной парадигмы весьма различны — от технократических утопий XX века до утилитаризма в этике, от веры в прогресс разума — до авторитаризма в педагогике. Только на этом пути, с точки зрения идеологов подобного мировоззрения, представлялось возможным осуществить центральную идею, вдохновляющую развивающуюся индустриальную цивилизацию — идею непрерывного неограниченного прогресса.

Все яснее осознавая в наши дни исчерпанность этих принципов для дальнейшего развития, мы являемся свидетелями и участниками формирования новых тенденций в доминировании регулятивов человеческой деятельности. Среди них — переход от установок на неограниченный прогресс, беспредельный экономический рост к представлениям о пределах роста, гармонизации экономической экспансии в природу с принципами экологического сдерживания и запрета. Ориентации на прогресс и инновационность сменяются установками на стабильность, равновесность, устойчивое развитие с учетом пределов роста. Постепенно, хотя и очень болезненно, а зачастую трагично, происходит трансформация доминирующих отношений людей друг с другом и с природой. От отношений господства, конкуренции, соревновательности намечается движение к идеалам сотрудничества, кооперации, сосуществования.

Очевидна связь этой ориентации с трансформацией отношений человека к природе, к другому человека, к самому себе. Новая ориентация — это парадигма единства человека и природы. Ее особенности — признание не только целостности природных экосистем, но и их самоценности; осмотрительность вторжения в природу; поиск динамичного равновесия между деятельностью человека и природными биогеоценозами.

Таким образом, формирование новой парадигматики в современных биологических исследованиях все более широко строится на основе использования коэволюционной стратегии. Процесс коэволюции, зафиксированный в лоне биологического познания, все более осознается как универсальный процесс, присущий всем уровням развития природы и общества. Критерием для его выделения является отнюдь не только сопряженность процессов развития, но и их направленность с учетом автономности взаимодействующих компонентов, процессуальность, кооперативность, полифоничность взаимодействующих сторон, в ходе которой равновесно стабилизируются противостоящие процессы и явления. Все это дает основания утверждать, что коэволюционная стратегия в познании становится одной из основных парадигмальных установок современной науки.

Литература

1. Воронцов Н.Н. Эволюционная биология – новая синтетическая отрасль биологии // Диалектика в науках о природе и человеке. Эволюция материи и ее структурные уровни. М., 1983. С. 295-302.

2. Доувер Г. и др. Динамика эволюции генома и дифференцировка видов // Эволюция генома. М., 1986. С. 329-356.

3. Карпинская Р.С., Лисеев И.К., Огурцов А.П. Философия природы: коэволюционная стратегия. М., 1995.

4. Корочкин Л.И. Преемственность идей и формирование парадигмы в биологии и генетике развития // Логика, методология и философия науки. Материалы к VII Международному конгрессу по логике, методологии и философии науки. М., 1987.

5. Родин С.Н. Идея коэволюции. Новосибирск, 1991.

6. Степин В.С. Теоретическое знание. М., 2000.

7. Тимофеев-Ресовский Н.В. Биосфера и человечество // Бюл. ЮНЕСКО. 1968. № 1.

8. Швырев В.С. научное познание как деятельность. М., 1984. С. 216.

 

А.А.Крушанов

УНИВЕРСАЛЬНАЯ ПАРАДИГМА ЭКОЛОГИИ

Рождение и развитие экологических исследований

Взаимосвязь живого организма или человека с окружающей средой, что традиционно и расценивают как предмет экологии, замечалась даже античными мыслителями, естествоиспытателями и историками. Однако достаточно зрелую научную форму изучение экологических проблем стало приобретать только в XIX веке. Уже первая треть века ознаменовалась плодотворной деятельностью Ю.Либиха, заложившего основы агрохимии. Но основная работа развернулась после появления эволюционного учения Ч.Дарвина, в котором был представлен конкретный и разносторонне обоснованный механизм согласования свойств организма со свойствами среды. Все это было настолько впечатляюще, что не мог не появиться специальный термин для обозначения нового типа исследовательской работы и области научного знания. Такой новый удачный термин “экология” и предложил в 1866 г. немецкий зоолог Э.Геккель, взявший за основу сочетание греческих слов, которые вместе читались как “наука о доме”.

Эта линия исследовательской работы развернулась весьма активно и плодотворно. Уже к концу XIX в. появились новые важные обобщения, связанные со специальным изучением не просто отдельных организмов со своей средой, но взаимосвязанной жизни целых сообществ организмом в пределах однородных по свойствам участков пространства. В этой связи очень интересными оказались работы о почвах нашего соотечественника В.В.Докучаева. Аналогичный же тип анализа активно развивался в Европе и США, причем в заметной степени связанный с моделированием динамики популяций с помощью привлечения математики (исследования Вольтерры, Лотки и др.).

Рост интенсивности и размаха экологических исследований биологов постепенно привел к тому, что появились попытки практического приложения экологических знаний к объяснению и удовлетворению нужд сельского хозяйства и лесоводства. В 1913-16 гг. создаются первые экологические общества (Великобритания, США), а чуть позже начинается выпуск первых специализированных журналов. В 1927 г. появляется труд “Экология животных”, содержащий первую систематическую попытку представить вариант теоретической экологии. Постепенно пробуждается интерес к специальному изучению экологии человека.

Успешные исследования эволюционистов, экологов и генетиков привели к тому, что в 30–40-е гг. XX в. биологам удалось выстроить целостную синтетическую теорию эволюции. Параллельно В.И.Вернадский развил свою известную концепцию геологической мощи и значимости всей совокупной массы живых организмов (идея “биосферы”) и планетарной цивилизации (идея “ноосферы”). Появляются исследования российского ученого В.Н.Сукачева, в которых формулируются представления о биогеоценозах, т.е. сложных природных комплексах. Подобного рода объекты несколько раньше, но под иным углом зрения заинтересовали английского ботаника-эколога А.Тенсли, который в связи с этим даже ввел новый специальный термин – “экосистема”.

Наряду с ростом внимания к биоэкологическим разработкам постепенно проявлялся и закреплялся интерес к взаимоотношениям природы и общества. Как известно, о том, что учет влияния конкретной среды позволяет объяснить особенности данного конкретного общества, поговаривали еще в древности. Но развернуто и целенаправленно стали размышлять и писать об этом, пожалуй, лишь “географические детерминисты” (Ш.Монтескье, А.Тюрго, Л.И.Мечников). К зачаткам социальной экологии можно отнести и изыскания Мальтуса.

И все же в XIX в. обсуждение темы взаимоотношения общества и природы пошло активнее не в намеченном ранее направлении. Появился иной доминирующий акцент: общество стали целенаправленно сопоставлять с живым развивающимся организмом, которому требуется неизменно расширяющееся “жизненное пространство”. Видимой отдачей этой установки в следующем веке, как известно, стало рождение геополитических исследований и различных геополитических идеологий.

С момента появления парадигмального образа “социального организма” и до второй половины XX в. обсуждение проблемы “природа и общество” шло в основном в одном ключе — во главе всего виделась только экономическая или научно-техническая деятельность человека, его свободное и могучее творчество. Человеку и обществу предписывалось преодолевать временные и случайные затруднения, которые создает несовершенная среда, что зачастую реализовывалось в чрезвычайно воинственных и трагичных формах.

Сложившееся бесцеремонное отношение к среде было очень рельефно явлено двумя прошедшими мировыми войнами, в которых уничтожалось все подряд — люди, достижения материальной и духовной культуры, ресурсные богатства. Драма природы усугубилась и тем, что после окончания всесокрушающих войн естественным образом началось увлеченное восстановление разрушенных хозяйств и быта. Энтузиазм и радость от наступления долгожданной мирной жизни провоцировали людей и государства на очень основательное, с размахом, обустраивание при одновременно бесшабашном продолжении уничтожения и порчи природы. Ослепленное миром человечество продолжало совершенно искренне и уверенно выступать по отношению к природе как ковбой и завоеватель.

Эта эйфория чуть позже захватила самые “периферийные” уголки планеты, особенно в связи с тем, что в 60-е годы XX в. бывшие колонии стали активно превращаться в независимые государства, разогретые естественным мощным желанием радикально улучшить качество жизни граждан, наперекор любым ограничителям, в том числе экологического порядка. В целом планетарная деятельность этого периода бурлила “под знаменами” оптимизма и особых надежд на прогресс и на жизнеспособный мир.

Резкий спад эмоционального настроя на планете стал происходить в 70-е годы XX века. Если говорить о роли науки в подобной перемене состояния умов, то оно действительно имелось. Во-первых, к этому времени появились исследования о поразительных негативных экологических последствиях от внедрения ДДТ в практику сельского хозяйства (а ведь творец ДДТ получил за него Нобелевскую премию!). Во-вторых, чрезвычайно важной оказалась инициатива ряда ученых и предпринимателей, которые в 1968 г. поставили вопрос об основательном изучении проблем глобального уровня. Проведенный ими анализ состояния общественного сознания привел к убеждению, что до сих пор глобальные проблемы не привлекают сколько-нибудь широкого внимания и не осознаются ни простыми гражданами, ни политиками, ни большей частью ученых. Так родился ставший благодаря своим инициативам очень авторитетным Римский клуб и появился подготовленный по его специальному заказу знаменитый доклад Римскому клубу “Пределы роста” супругов Медоузов, использовавших для анализа общепланетарных реалий методику имитационного моделирования (“системной динамики”) Дж.Форрестера. Далее последовали и другие важные более точные разработки глобального уровня с учетом региональной специфики жизни и деятельности цивилизации Земли.

В итоге многие интеллектуалы и даже просто достаточно образованные люди пережили шок, осознав, что в ходе повседневной жизни и деятельности проматываются сбережения природы, очень ограниченные по объему. Для ученых это в свою очередь означало, что пришло время развернуться систематическим исследованиям нового типа — глобалистике и глобальной экологии. Уже в этот ранний период в Стокгольме была проведена первая крупная международная встреча по экологическим проблемам. Наступил период выработки идеологии “экипажа космического корабля”.

Однако наметившийся поворот в сознании и деятельности был существенно замедлен новыми политическими реалиями — в мире возникла отчетливая национальная изоляция. Согласованность усилий по разрешению экологических проблем в этот период была почти потеряна, т.е. фактически борьба за сохранение природы переживала регресс. Хотя нельзя не отметить, что даже в это время было проведено несколько полезных конференций ООН (по проблемам среды, по правам человека на продовольствие, достойное жилье, чистую воду, самостоятельное определение размера семьи).

И все же постепенно взрывной рост населения и мощное развитие мирового производства, явное ухудшение среды привели к тому, что стало ясно: пора радикально менять отношение человечества к природе, т.к. уже возникла угроза не только снижения ее качества, но и быстрого подрыва принципиальных условий нашего существования.

В 80-е годы общественность и наука сконцентрировались на осмыслении конкретных важных и сложных проблем, от разрешения которых вполне отчетливо зависит ближайшее существование человечества: потепление климата, угроза озоновому слою, наступление пустынь на плодородные земли и т.п. Появились учебники с комплексным представлением основной экологической тематики, скажем, широко распространенный фундаментальный труд Ю.Одума “Экология”.

Все это в конечном счете закономерно привело к тому, что в 1992 г. в Рио-де-Жанейро была проведена крупная международная конференция по проблемам окружающей среды с участием глав государств. Если она и не завершилась принятием обязывающих глобальных решений, то, тем не менее, стала важной вехой в формировании экологического сознания человечества, поскольку ее решения, после поддержки лидерами стран – участниками конференции, фактически определили новую глобальную идеологию, выраженную в форме хорошо известной ныне концепции “устойчивого развития”.

Таким образом, целенаправленное и масштабное научное освоение экологических реалий является весьма молодым делом. На этом пути, к сожалению, действовали и мощные сдерживающие движение факторы. И все же теперь, в начале XXI в., можно смело утверждать, что экологические исследования уже добились большого общественного признания и быстро прогрессируют.

Отрадно, что имеющийся научный задел уже позволяет получать соответствующую разностороннюю позитивную практическую отдачу. Однако встречающаяся порой жесткая критика состояния и характера проводимых экологических исследований, провоцируемая реально сохраняющимися угрозами разрушения среды обитания человечества, его “естественного природного тела”, наглядно свидетельствует о том, что необходимо быстрое дальнейшее продвижение науки вперед. Важно продолжать методично наращивать экологический потенциал науки, т.е. ее способность разбираться с подобного рода трудностями человечества.

Экология в преддверии интеграции

Изучение вопроса о назревших и целесообразных следующих шагах подобного рода свидетельствует о том, что в последние годы наметилась одна интересная возможность развития экологических воззрений, которая пока еще как-то не подхвачена научным сообществом сколько-нибудь активно, но выглядит довольно обещающей. О чем идет речь?

Оценивая нынешнее положение вещей, важно констатировать, что рождение и активное разворачивание экологических исследований постепенно привело к появлению целого семейства новых дисциплин, характеризующихся заметным родством исследуемых закономерностей и свойств. В результате в последние годы стали говорить о “Большой экологии”. При этом подразумевается весь имеющийся комплекс научного знания о закономерностях и свойствах взаимоотношения разнообразных объектов с окружающей их средой. На мой взгляд, особый интерес вызывают перспективы работы именно с этим комплексом знания в целом, который до сих пор именно в варианте “Большой экологии” не получил последовательной разработки. Причем здесь присутствует интригующий момент.

Дело в том, что рождение и эволюция экологии как массива родственного знания очень напоминает становление других масштабных научных новаций второй половины XX в. Речь идет о судьбе кибернетики, системологии, синергетики, ритмологии и других систем знания[cliv], близких по универсальности приложения своих конструктов. Для каждой из них характерна постепенная кристаллизация обобщенного (“универсального”) концептуального ядра, которое описывает и объясняет то, что можно увидеть равным образом и в органических объектах, и в социальных объектах, и в объектах неорганического мира.

Так, например, можно говорить о формировании в последние годы зрелой Большой синергетики. Зрелость характеризуется появлением особых теоретических исследований, ориентированных на отражение универсальных свойств процессов самоорганизации. На практике развитие этой “универсальной синергетики” происходит в тесном взаимодействии с изучением процессов самоорганизации в различных отдельных классах активных сред, которые различаются по своему субстрату. В результате наряду с универсальной синергетикой сегодня имеются и самые разные “специальные”, например синергетика химических реакций, социальная синергетика, биосинергетика и т.п.

Похоже, что экологическое знание вплотную приблизилось к зрелому этапу, на котором становится естественным, возможным и необходимым появление своего аналогичного универсального концептуального ядра. Правда, на практике “приблизилось” не означает того, что уже делаются попытки целенаправленной работы в этом направлении. Реалии таковы, что пока в научных изданиях можно встретить лишь отдельные высказывания, так или иначе обращающие внимание на возможность обобщенного понимания экологических взаимоотношений.

Например, еще два десятилетия назад говорилось о том, что “поиск принципа, объединяющего все экологическое знание, можно связать с направленностью любых экологических исследований на решение некой единой задачи, которую в несколько абстрагированной форме можно сформулировать следующим образом: изучение взаимозависимости развивающейся системы и ее среды. Исходя из этого, исходным абстрактным элементом любой экологической теории следует выбрать, на наш взгляд, отношение система-среда, причем понятия системы и среды лишены здесь какой-либо конкретной определенности, а взаимодействующие объекты могут обладать любой природой”[clv].

Представленный в приведенном высказывании подход, к сожалению, не получил распространения и развития. Тем не менее отрадно, что настрой на интеграцию экологического знания все же не потерян совсем. Так что в более поздних изданиях можно встретить констатации вроде следующей: “В целом современная всеобщая, или “большая”, экология (глобальная экология, мегаэкология, панэкология) – научное направление, рассматривающее некую значимую для центрального члена анализа (субъекта, живого объекта) совокупность природных и отчасти социальных (для человека) явлений и предметов с точки зрения интересов (без кавычек или в кавычках) этого центрального субъекта или живого объекта”[clvi].

Обратите внимание: если в исходном варианте говорилось о целесообразности экологического взгляда на объекты любой субстратной природы, то более поздняя приведенная версия уже не предусматривает обращения к оценке экологических особенностей существования добиологических, т.е. неорганических, систем. Иначе говоря, со временем произошли даже определенные потери. О том, что сделан определенный шаг назад, можно смело судить, например, имея в виду опыт других, уже упоминавшихся ранее, масштабных по охвату изучаемых явлений дисциплин (синергетика, системология, ритмология…). Для них всех характерно обязательное обращение к объектам и социального, и органического, и неорганического миров. Мне думается, что по аналогии с этим со временем в рамках Большой экологии обязательно сформируется и выделится именно универсальная экология, а не более узкая “региональная”, ориентированная лишь на биологические и социальные объекты.

Пока же Большая экология, повторяя историческую динамику других наук, постепенно движется к описанному в моих работах состоянию “ситуации предстандарта[clvii] со всеми вытекающими последствиями.

Такие ситуации или состояния возникают в активно развивающихся исследовательских областях, в которых параллельно работают различные “когнитивные центры” (автономные авторитетные специалисты или специализированные учреждения). Подобная многопотоковость творчества вполне обычна и является нормальной формой существования научной деятельности.

Специфика этой динамики заключается в том, что постепенно неизбежно наступает этап необходимости согласования усилий отдельных исследователей или организаций. И тогда все накопленное знание стягивается в общий “концептуальный котел”. В результате со временем выясняется, что суммарная наработанная номенклатура представляет собой ужасное зрелище, т.к. оказывается крайне неряшливой. Для таких стихийно подготовленных понятийно-терминологических “когнитивных бульонов” обычен множественный параллелизм, синонимия одних важных терминов и омонимия, множественная неоднозначность других терминов. К этому же добавляется затрудняющая работу разнохарактерность фиксируемых терминами понятий. В результате сравнивать даже родственные параллельные понятия и термины становится совсем не простым делом.

Словом, ситуации предстандарта крайне неудобны тем, что в подобные периоды исследователи вынуждены, проклиная все на свете, пользоваться очень плохим по качеству научным языком, агрегированным из того, что оказалось стихийно вброшено в упомянутый “общий котел”.

И все же главная причина возникающей в таких ситуациях “головной боли” скрыта еще глубже. Дело в том, что в нормальные периоды развития науки исследователям, как правило, не приходится специально заниматься семиотическими проблемами. Они озабочены разгадыванием головоломок совсем иного плана: размышлением над фактами, идеями, концепциями, теориями, гипотезами и другими структурными единицами научного знания. Поэтому в преддверии ситуации предстандарта специалисты оказываются неготовы заниматься прежде не мешавшими им проблемами понятийно-терминологического характера и даже не понимают, что все дело в их вдруг обострившейся злободневности. Соответственно научное сообщество обычно очень не быстро осознает, что периодическая унификация сложившегося профессионального языка – это важный элемент развивающейся исследовательской деятельности, инициирующий последующее энергичное продвижение вперед.

Таким образом, довольно длительное время может продолжаться не слишком внятная и пробуксовывающая работа, скрыто утяжеленная семиотическими несогласованностями в данной области научной деятельности.

Лишь со временем наступает прозрение, и начинают рождаться варианты выстраивания удобной и добротно упорядоченной номенклатуры. Причем, как оказывается, все это возможно лишь за счет выстраивания специальной концептуальной схемы, воспроизводящей взаимосвязанное множество наиболее существенных свойств, особенностей изучаемой предметной области. Именно эти главные особенности и фиксируются с помощью приоритетной и четко определенной терминологии.

В этой связи совсем нелишне заметить, что анализ уже встречавшихся в историческом развитии естествознания ситуаций предстандарта свидетельствует — в подобный момент правило бритвы Оккама работает более сложным образом, чем обычно, потому что для упрощения общей ситуации зачастую приходится активно вводить новые термины и понятия, вплоть до замены функционирующих. Это является просто стандартным элементом работы при оперировании с массивом знания в состоянии предстандарта.

Типичный злободневный пример осознания ситуации предстандарта хорошо представляют, скажем, современные высказывания о состоянии геологии. Так замечается, что неопределенность языка свойственна “подавляющему большинству разделов геологической науки, где, как указывают многие ученые, язык является чрезвычайно “мягким”, а поэтому в тектонике (науке о земле) есть термины, обозначающие десятки различных понятий, существуют такие понятийно-терминологические системы, которые используются весьма узким кругом ученых, принадлежащих одной школе, или даже одним исследователем. Вследствие неточного, порою неправильного толкования используемой терминологии в геологии часто бывают бесплодные дискуссии. Такой терминологический “бум” сказывается на состоянии геологической науки, порождает трудности “вавилонской башни”, когда ученые говорят об одном и том же как бы на разных языках, не понимая друг друга”[clviii]. “Определение предметов и терминов в геологии делается, как правило, нелогично. П.Ляфит (...) вполне обоснованно пишет о том, что в геологической терминологии царит “отвратительный беспорядок”. По мнению Э.Вегмана (...), выработка правильных терминов в геологии — важнейшая задача геологической теории. В “Геологическом словаре” (...), предназначенном для того, чтобы фактически быть энциклопедией современной науки о земной коре, имеется более тысячи терминов, определенных нелогично (...). Имеются ошибки всех мыслимых типов — и амфиболия, и полисемия, и тавтология, и плеоназм, и абсурд, и даже сумбур, но главный его порок — некогерентность (...)”[clix].

Подобный крик души ожидает, видимо, и экологов, поскольку выход Большой экологии, как развивающегося массива научного знания, на ситуацию предстандарта неизбежен. Пока же активно закладываются и развиваются ее предпосылки. Во всяком случае, к настоящему времени появилась масса специальных экологических разработок (биологических, социальных и др.) с самостоятельно изобретенными понятийно-терминологическими аппаратами, которые и предстоит согласовать между собой, упорядочивая на основе специально сформированного универсального концептуального ядра. Еще раз подчеркну, что переход к развитию подобного теоретического ядра обусловлен не только потребностями и возможностями чисто концептуального порядка, но и тем, что это позволит задать унифицированные, единые ориентиры для выстраивания номенклатур специальных дисциплин экологического цикла.

Чтобы было понятнее, как все это связано с современной Большой экологией, приведу конкретные иллюстрации характера надвигающихся проблем на чисто экологическом материале.

Универсальная парадигма экологии: базовые элементы

Как уже отмечалось, определенная специфика преодоления ситуаций предстандарта заключается в том, что в этом случае лучше всего начинать с выдвижения некоторого пробного концептуального варианта, представляющего самые существенные особенности данной предметной области в четком и по возможности систематическом виде. А далее на основе этой базовой модели можно разобраться с имеющимися в этой исследовательской области номенклатурными проблемами, — для начала хотя бы высветить их; еще лучше методично упорядочить.

Как представляется, в основании универсальной парадигмы экологии не могут не быть представлены следующие понятийно-терминологические единицы.

Домен” – любая область бытия, для которой характерна изменяемость свойств лишь в некоторых ограниченных пределах. Очень часто домен рассматривается как устойчивая область в многомерном континууме бытия. В качестве измерений в таких случаях избираются, например, пространственно-временные координаты и характеристики, давление, влажность, температура, химический состав… Понятно, что подобного рода доменов имеется в нашем мире великое множество. Судить об этом можно хотя бы по тому, что данная особенность нашего мира уже стихийно фиксируется в языке довольно разнообразным образом, в форме упоминания о “ячейках”, “зонах”, “сферах”, “областях”, “ареалах”, “нишах”. Между тем практика разрешения ситуаций предстандарта свидетельствует, что в такого рода случаях для удобства теоретической работы лучше специально ввести или выделить из семейства близких по значению терминов приоритетный термин. По моим оценкам, в процессе работы по формированию и использованию универсальной парадигмы экологии вполне удобно оперировать такой понятийно-терминологической единицей, как “домен”, с выделенным выше смыслом. В этой связи замечу также, что “пористая” структура бытия выглядит весьма упорядоченной, так что, например, можно сделать следующее универсальное утверждение: вся доступная нам реальность структурирована как иерархическое множество ячеек – доменов. Мне представляется, что экология не может не быть озабочена изучением и теоретическим воспроизведением этой специфической упорядоченности бытия.

Эрг” – это просто некоторый различимый объект, взаимодействие которого с его средой, т.е. с внешней для него действительностью, интересует эколога. Какова у него субстратная определенность, в данном случае не имеет значения. Он может быть и неорганическим, и органическим, и социальным. Обязательным и неотъемлемым свойством эрга является его взаимодействие не вообще со всем остальным миром, но прежде всего с некоторым ближайшим окружающим слоем действительности, т.е. обитание эрга в пределах определенного домена. При этом взаимодействие происходит в форме некоторых масс-энерго-информационных обменов, которые соответственно влияют как на эрг, так и на его домен, одновременно как-то изменяя их. Тот факт, что термин “эрг” уже был использован в XIX в. в системе единиц СГС, смущать не должен, т.к. официально теперь работают термины новой международной системы единиц СИ. Использование же именно данного слова в обсуждаемом контексте удобно, т.к. его первичное значение в греческом языке (“работа”) придает вводимому термину очень дельный оттенок. Кроме того, такой термин удобен и органичен в важных словосочетаниях. В этом смысле использование вместо него, например, просто термина “система” менее удачно, т.к. тогда придется оперировать нерельефными и мешающими фразами, вроде “экосистема является экологической системой системы”. Добавлю еще, что по чисто стилистическим соображениям в рамках данного текста вместо упоминания эрга иногда буду писать просто “активный центр”.

Эргоценоз” – целостная совокупность взаимодействующих между собой объектов, которая выступает в пределах некоторого домена как своеобразный многокомпонентный эрг. Эта понятийно-терминологическая единица может быть полезной при обсуждении, описании или изучении сложных случаев экологических взаимоотношений.

Экотоп” – это домен, в пределах которого находится некоторый взаимодействующий с ним эрг. Этим подчеркивается тот факт, что домены могут встречаться как вместе с интересующими исследователя эргами, так и без оных. Понятно, что обычным делом для экологов как раз и является изучение взаимоотношений разнообразных эргов с их экотопами, хотя и незаселенные домены по-своему интересны, особенно в качестве потенциальных экотопов, но не только. В нормальном случае экотоп – это ресурсная зона, за счет которой только и способен существовать ее активный центр, и даже развиваться. Любой домен активно влияет на свой эрг. Кроме того, он опосредует и трансформирует все влияния на эрг со стороны остального, внешнего для домена мира. Кстати, замечу также, что в некоторых случаях при выстраивании понятийно-терминологического строя экологических исследований и при их описании вместо термина “экотоп” вполне допустимо использовать и более общий термин “домен”, или смысловой эквивалент “экотопа” – “экосфера”. Такая целесообразность может порождаться, например, стилистическими соображениями. Это обычное, допустимое условие упорядочения языка науки.

Экосистема” – это сложный объект, компонентами которого являются взаимодействующие между собой эрг и его экотоп (экосфера).

Метаэкотоп” (Метадомен, Метаэкосфера) – это некоторый домен, более масштабный, чем первично заинтересовавший исследователя, причем домен, для которого своеобразным эргом оказывается сама изучаемая экосистема.

Необходимо пояснить, что при выработке данной понятийно-терминологической группы в первую очередь учитывался опыт концептуального описания таких важных для экологии и теперь хорошо изученных образований, как биогеоценозы. Как известно, ими являются природные системы, состоящие из двух следующих основных компонентов: 1. “Биоценоз” (“биота”) — целостное сообщество организмов различных видов, обособленное от других биосистем и обитающее в пределах некоторой однородной области природы; 2. “Биотоп” (“местообитание”, “ареал”) – сама эта область, в пределах которой функционирует и развивается биоценоз.

В определенном смысле биогеоценоз представляет собой некоторый типичный, классический объект, требующий для своего описания и изучения специальных “экологических” когнитивных средств и подходов. Ввиду подобной значимости полезно еще раз специально рельефно представить базовую структуру этой очень знакомой теперь экосистемы:

 

 

БИОГЕОЦЕНОЗ = БИОЦЕНОЗ + БИОТОП

 

 

Так как приведенное соотношение еще потребуется далее, условно выделим его как “экологическое уравнение”. Причем сразу стоит отметить, что с помощью введенных выше универсальных когнитивных единиц оно, естественно, может быть представлено и в универсализированном виде:

 

 

ЭКОСИСТЕМА = ЭРГ + ЭКОТОП

 

 

Очевидно, что последняя запись как раз и фиксирует в предельно выжатом виде то исходное концептуальное ядро Большой экологии, которое и делает ее однородной. Но, конечно, это основание еще предстоит развить разнообразным образом.

Универсальная парадигма в специальных преломлениях

Попробуем теперь убедиться в нормальном соотнесении сформированного базового аппарата универсальной экологической парадигмы с некоторыми важными и хорошо известными случаями анализа экологических ситуаций.

Например, обратимся к биоэкологии. В этой области, на мой взгляд, дело обстоит весьма неплохо, хотя случаи синонимии важных терминов все же весьма распространены. Но они уже примелькались, поэтому исследователи не испытывают больших затруднений семиотического порядка при обсуждении самых разных проблем. В целом можно констатировать, что биоэкологами проведена такая большая и основательная работа, что на эту область экологического знания можно смело опираться для демонстрации самых разных случаев экологических взаимоотношений.

Скажем, обратимся к такому своеобразному экологическому объекту, который обычно обозначается как “биосфера”. Если говорить о современном понимании этого очень популярного в работах экологов термина, то можно констатировать, что его содержание уже вполне устоялось. Обычно оно представляется следующим образом: биосфера – это “нижняя часть атмосферы, вся гидросфера и верхняя часть литосферы Земли, населенные живыми организмами”, … Это “оболочка Земли, в которой совокупная деятельность живых организмов проявляется как геохимический фактор планетарного масштаба. Биосфера – самая крупная (глобальная) экосистема Земли – область системного взаимодействия живого и косного вещества на планете”[clx].

Соответственно экологическое уравнение для биосферы выглядит вполне рельефным и определенным (правда, сопутствуя все же с некоторыми элементами разночтения):

 

 

БИОСФЕРА = ЖИВОЕ ВЕЩЕСТВО + КОСНОЕ ВЕЩЕСТВО БИОСФЕРЫ

(Органический мир) (Среда жизни)

(Поле существования жизни)

 

В данном случае присутствие целого набора обозначений экотопа жизни (“косное вещество биосферы”, “среда жизни” или “поле существования жизни”), конечно же, наводит на мысль, что в данной области унификация используемой терминологии еще не проведена.

Интересным и показательным кажется возрастающий интерес биоэкологов к выходу на анализ среды самой биосферы, как целостного образования. В результате получается, что ныне исследуется уже не только экотоп органического мира, но и методомен живого вещества: “Выделяя понятие планетарной среды биосферы, мы не вкладываем в него какой-либо определенный физико-химический смысл, а лишь указываем на то, что биосфера как единая функционирующая система и как объект исследования развивается в среде планетного характера, тесно связана с окружающими ее геологическими оболочками Земли. Эта планетная среда выступает для биосферы как своеобразная экосфера формирования. Размеры этой среды по сравнению с таковыми биосферы огромны. Физические и химические характеристики ее во многом еще не ясны, и в настоящее время интенсивно исследуются. Поэтому для удобства рассмотрения мы разделим условно планетную среду биосферы на внешнюю, соприкасающуюся с космосом, и внутреннюю, уходящую от биосферы вниз в глубины планеты”[clxi].

Таким образом, биоэкологические исследования демонстрируют в целом весьма четкую организованность и масштабность и, кроме того, подтверждают, что введенные элементы универсальной экологической парадигмы вполне соотнесены, по крайней мере, с ними.

В этой связи можно испытать определенную озабоченность при переходе к анализу материалов социальной экологии, причем прежде всего касающихся описания ноосферы. При чтении соответствующей литературы начинаешь вполне соглашаться с тем, что “в последнее время термин “ноосфера” стал иногда употребляться слишком широко и неопределенно. Одни считают, что ноосфера уже образовалась как самостоятельная оболочка планеты помимо биосферы. Другие полагают, что ноосфера – это будущее состояние той части планеты, которая будет перестроена людьми на разумных основаниях. Третьи вообще возражают против самого употребления термина “ноосфера” ввиду его неопределенности, что создает, как они полагают, опасность путаницы в научной теории”[clxii].

Проблема видна и в том, что трудность вызывает даже попытка составления для ноосферы соответствующего экологического уравнения. Некоторое усреднение встречающихся случаев словоупотребления термина “ноосфера”, а также знание опыта преодоления сходных ситуаций предстандарта ведет к убеждению, что, во-первых, под ноосферой стоит понимать экосистему (а не некий эргоценоз или соответствующий ему экотоп). Во-вторых, для понимания функционирования и развития данной экосистемы решающее значение имеет деятельность человечества. В этом смысле в первом приближении можно даже просто сказать, что ноосфера – это экосистема человечества. При этом, как учит опыт других дисциплин, решавших вопросы сходного рода, понятие “ноосфера” не стоит нагружать еще и такими дополнительными признаками, как степень гармонии эргоценоза ноосферы с его экотопом. Практика показывает, что в качестве отправных лучше использовать термины с предельно общим смыслом. А уж на последующих стадиях анализа естественно ввести дополнительные подразделения для более тонкой идентификации встречающихся ситуаций.

Хотя приведенное понимание ноосферы встречается весьма часто, все же оно еще не настолько четко структурировано, чтобы можно было внятно записать его экологическое уравнение. Причем некоторая трудность связана и с самим обсуждаемым термином, поскольку он работает параллельно с другим достаточно распространенным и принятым термином “географическая среда”. Как было замечено по этому поводу, “в последнее время в географической (и не только в географической) литературе все чаще употребляется понятие и термин “ноосфера” со ссылкой на В.И.Вернадского. Действительно, видя, что под воздействием человеческой деятельности биосфера подвергается качественным изменениям, В.И.Вернадский назвал эту измененную и изменяемую обществом биосферу, ставшую средой общественного развития, ноосферой, т.е. сферой разума. Говоря иначе, этим понятием и термином он заменил понятие и термин “географическая среда”[clxiii]. Таким образом, получается, что тематика обсуждаемого типа в науке изучается по крайней мере под двумя разными знаменами, и, похоже, это далеко не всегда осознается исследователями, порождая возможность определенного дублирования работ.

С учетом сказанного основную структуру ноосферы для начала можно прописать с привлечением введенных универсальных понятий:

 

Ноосфера = Нооэргоценоз + Нооэкотоп

(географическая среда)

 

Анализ показывает, что в специальной литературе смысл, зафиксированный здесь с помощью термина “нооэкотоп”, часто подразумевается при упоминании словосочетания “окружающая среда”. Поэтому в этой части в принципе особых проблем с составлением экологического уравнения ноосферы не возникает. Хотя, строго говоря, в социальной экологии стоило бы четко сформулировать и зафиксировать соответствующую специальную когнитивную единицу, чтобы именно она использовалась всеми приоритетно. Пока же словосочетанию “окружающая среда” это свойственно не вполне, т.к. чаще всего оно не несет внятной смысловой нагрузки, позволяющей достаточно четко указывать на соответствующий вполне определенный экотоп.

Обратимся теперь к пониманию того, что следует числить в качестве “нооэргоценоза”. Как ни удивительно, но здесь удовлетворительной определенности, похоже, еще не достигнуто.

Дело в том, что наше концептуальное видение ядра ноосферы существенно социологично, т.е. главным образом ориентировано на изучение в первую очередь динамики тех или иных объединений, групп, масс людей. А между тем жизнедеятельность людей и общества в целом происходит отнюдь не в обстановке библейского рая с нагими Адамом и Евой, как это предстает в рамках социологического подхода. Реально живет и действует человек, нагруженный, дополненный массой вспомогательных средств, расширяющих его возможности в этом мире и “вписывающих” его в этот мир (прежде всего, в соответствующую экосферу). Этому служат одежда, компьютеры, здания, станки, автомобили, книги, домашние цветы... Поэтому фактически наряду с привычным миром людей к настоящему времени сформировался еще один очень самобытный мир искусственных систем, управляемых и направляемых человеком.

В этом очень подвижном мире “живут”, например, снующие по небу самолеты. Не спеша плывут в океанских глубинах управляемые человеком подводные аппараты. Это целостный мир повседневно и повсеместно функционирующих человеконаселенных искусственных систем. Кажется, он еще не приобрел своих зрелых форм. Но, на мой взгляд, пришла пора взглянуть на этот самобытный мир ( именно мир!) вполне трезво, осознанно и уважительно.

Выделение и признание этого мира как особой и важной реальности означает для меня как для исследователя следующее. Скажем, в рамках социальной философии появляется необходимость в специальном четком выделении особого отдела, посвященного изучению прежде всего объектов описанного типа, которые в общем случае можно выделить специальным образом как “ноосистемы”. Ноосистема — это некоторый автономный комплекс, определяющим компонентом которого является человек или некоторая совокупность людей, в то время как остальные компоненты комплекса (прежде всего искусственного происхождения) играют подчиненную роль и призваны обеспечивать этим людям (человеку) надежное и комфортное существование и развитие, достижение своих целей.

Своеобразная изначальная хитрость этих комплексов заключается в том, что все их компоненты чрезвычайно взаимосвязаны и взаимозависимы. В результате оказывается, что как определяющие компоненты ноосистемы, так и подчиненные ее компоненты на самом деле равно важны и необходимы. Это взаимоотношение проявляется повсеместно: хозяин квартиры заботится о своем жилище; автолюбитель оберегает свою машину; нормальный собственник рассматривает свою собственность как продолжение самое себя. В целом вся жизнь и деятельность подобного рода целостностей естественным образом формирует очень мощный ныне “Мир ноосистем” (“ноосистемный мир”).

Словом, обсуждаемый феномен принципиально важен и должен получить отчетливое закрепление в виде специальной понятийно-терминологической единицы или системы единиц. , именно поэтому мне пришлось ввести серию новых специальных обозначений (вроде “мир ноосистем” или “ноосистема”). Ведь пока, когда говорят о том, что я обозначаю как ноосистемный мир, используют амбивалентные и случайные обозначения, так что кто-то из исследователей говорит просто об “обществе”, кто-то о “социальной системе”, “социо-природной системе”, “цивилизации”, “культуре”, “ноосфере” и т.п. Если обратиться к словарям и специальной литературе, то выяснится, что каждый из упомянутых терминов используется в свою очередь в очень разных смыслах. Иногда просто говорят о понимании общества в “узком” и “широком” смыслах. И тогда замечают: “Мы определяли выше общество, как совокупность людей. В более широком смысле, однако, в общество входят также и вещи. Возьмите, например, теперешнее общество: все эти каменные громады городов, гигантские сооружения, железные дороги, гавани, машины, дома и прочее, и прочее, — ведь все это материально-технические органы общества[clxiv].

Конечно, такая двусмысленность важных терминов крайне плоха. Кроме того, касаясь приведенной цитаты, нельзя не заметить, что автор высказывания, при осознании важности специального обращения внимания на “материально-технические органы общества”, все же еще не замечает, что в этой связи надо специально говорить еще и об особом мире ноосистем.

На мой взгляд, сегодня стоило бы специально договориться о явном и четком самоопределении особой подсистемы социальной философии, которую можно было бы назвать “философией ноосистем”. В данном случае приходится исходить из того, что пока даже в новом поколении учебников и учебных пособий по социальной философии соответствующие наработки если и представлены, то как рассредоточенные по самым разным разделам изданий, т.е. не выделенные явным образом. Поэтому введение термина “философия ноосистем” и концентрация всего подходящего знания в форме единого массива, думается, способствовали бы нормальному закреплению в науке того уже вполне рельефного факта, что содержание “социального” весьма неоднородно. К компетенции философии ноосистем естественно было бы отнести философский анализ “ноосистем” и, даже шире, — “ноосистемной формы движения материи”…

В этой связи отдельного изучения требует вопрос и о корректности концептуального представления экологической жизни отдельного человека. Сегодня при осмыслении подобных реалий в центре внимания, как уже отмечалось, находятся отдельные люди и группы людей, фактически рассматриваемые в первобытном состоянии, т.е. вне тесной связи со своей искусственной средой (костюм, дом, телефон…). Вне такой среды, между тем, первородный “биологический человек” не способен быть именно современной личностью и реальным деятелем – “эктором”. В данном случае специальная новая когнитивная единица эктор обозначает просто ноосистему самого минимального типа, когда ее определяющим компонентом является лишь один человек, а не группа людей. Так система “человек – истребитель” – это эктор. А вот комплекс “производственный коллектив завода – оборудование завода” уже выступает ноосистемой в полном смысле этого слова.

Эктор – это биологический человек, нагруженный и усиленный множеством специальных артефактов. То есть современного деятеля нельзя числить простым подобием голого первочеловека. В его неотъемлемую ближайшую среду входит вся естественная и искусственная контролируемая человеком часть реальности (его личная, частная или временно предоставленная в пользование чужая собственность), которая, подобно адаптивной пластичной оболочке, делает человека “вписанным” в реальный мир. То есть, как представляется, развитие науки и практики связано с демонстрацией того, что более “нормальным” корректнее считать не современный знакомый образ исторически еще юного человека и человечества. Скорее это образ человека в скафандре, а также жизнь человека и сообществ людей в оболочке таких их естественных и неотъемлемых дополнений, как, скажем, мегаполис сегодня, а в будущем еще и метрополис, космополис и акваполис.

Для описания человека вместе с его “коконом” требуется развитие не только чисто антропологического, но и специального, “экторного”, подхода и своеобразной “философии человека в скафандре”. Конечно, пока такой человек груб и пугающ, но ровно настолько, насколько пугающ только что родившийся ребенок. Зримые красота и совершенство, как известно, становятся реальными позже. Но думать в этом направлении стоит уже сегодня, на что настойчиво указывают чрезвычайно прогрессирующие в последние годы “хай тек” разработки, начинающие активно влиять даже на саму биологическую природу человека.

Любопытно, что современные аналитики пока не очень-то замечают, что человек и общество вписаны органично в природу прежде всего за счет приобретения ноосистемной оформленности. Однако, судя по всему, людям и обществу только в таком виде и суждено быть включенными в космическую ткань бытия надежно, безопасно и органично, если иметь в виду долгосрочную, стратегическую перспективу. Во всяком случае, практически невозможно представить настоящее и будущее человечества без всего богатства материальной культуры, которым оно ныне обладает. Вообще, мне кажется, важно видеть, что наряду с другими привычными для нас природными типами объектов существует и такая разновидность естественных порождений Вселенной, как ноосистемы. Во всяком случае, задумываешься именно в этом направлении, когда попадают лаконичные констатации вроде недавно встреченной: “Конец эпохи “мира-экономики” и начало “естественной” истории. …Статистические данные свидетельствуют о переходе социального развития с экономических на естественнонаучные “рельсы” эволюции”[clxv].

Удивительно, но привычная земная жизнь исхитряется маскировать нашу сложную, опосредованную включенность в Большой мир. Однако это принципиальное обстоятельство становится сразу ощутимым и значимым при попытке обживания какой-то нетрадиционной для человека среды. В качестве примеров можно напомнить такие специальные “доращивания” человека для его устойчивого, “нормального” включения в окружающий мир, как скафандр для пребывания в открытом космосе или подводная лодка как средство освоения морских глубин.

Полезно иметь в виду, что ведущиеся сегодня и уже упоминавшиеся выше разработки проектов типа подводного города – “акваполиса” – или космического поселения – “космополиса” – просто позволяют сделать зримым, визуализировать то, что обычно завуалировано и не столь заметно в обычной планетарной жизни, выстроенной, тем не менее, по совершенно аналогичной схеме. Скажем, и там, и там имеются свои вполне определенные и ограниченные ресурсы, с объемом которых мы не можем не считаться. Существуют определенные оболочки, отграничивающие систему от среды. Явным образом они просматриваются, скажем, как корпус космического корабля или батискафа. Однако они существуют и в привычных для человека условиях, например в виде магнитосферы Земли, предохраняющей все живое от жесткой солнечной радиации, или в виде атмосферы, также выполняющей в том числе и защитную функцию.

Увлеченное обсуждение отмеченных терминологических “нюансов” совсем не излишество. Это лишь четкая констатация того, что для эффективной работы на наддисциплинарном уровне сегодня уже важна не просто весьма недифференцированно представляемые “социальная форма движения материи” или “общество” (что было естественно и неизбежно еще в недавнем прошлом), но прежде всего такая реалия природной жизни и космической эволюции, как мир именно ноосистем, а далее и ноосистемная форма движения материи в целом.

Соответственно с учетом высказанных соображений экологическое уравнение ноосферы принимает следующий вид:

 

Ноосфера = Ноосистемный мир + Окружающая среда

 

В развитие получившегося образа надо будет в будущем ввести детализацию. Например, понятно, что ноосистемный мир в качестве эргоценоза ноосферы содержит в себе такую особую и определяющую составляющую, как человечество. Искусственную среду человечества, в свою очередь, довольно часто называют техносферой. Однако я не думаю, что это удачное название для “кокона” человечества, поскольку собственно техника и инженерные решения, выстроенные на основе физико-химических моделей, в последние годы явно демонстрируют свою грубость в соприкосновении с реальной природой. Кроме того, сейчас все больше и больше внимания уделяют биотехнологиям, с которыми связывают очень большие ожидания. Разумеется, искусственные биопродукты представляют собой нечто, явно не вписывающееся в прокрустово ложе “техносферы”. Словом, и в этой части понятийно-терминологический инструментарий описания ноосферы также ждет определенного прояснения и закрепления.

Об экологии объектов добиологической природы

Наряду с представленными проблемами с социальной экологией исследователям, придерживающимся идеи выделения специальной универсальной экологической парадигмы, придется особо разбираться с экологией добиологических, т.е. неорганических, объектов.

Это может показаться довольно странной идеей. Однако в последние годы неорганическая природа настойчиво демонстрирует тот факт, что она обладает сложной внутренней жизнью, которую до сих пор чрезвычайно примитивизировали даже теоретики, отчего наше деятельное человечество теперь живет не в ладу со своей окружающей средой.

Общий взгляд на добиологическую природу в последние годы настолько изменился и быстро меняется, что сегодня с пониманием и терпимо встречаются даже весьма необычные заявления по поводу “неживой природы”. Если еще недавно совершенно господствовало убеждение, что природа – это лишь примитивный пассивный объект, являющийся просто средством достижения человеком своих целей, то к настоящему времени в умах довольно многих экологов произошел буквально радикальный переворот. Теперь постепенно приобретает значимость новый подход к природе, в рамках которого, например, высказывается призыв, “чтобы мы наделили правами леса, океаны, реки и другие так называемые “природные объекты” в окружающей среде и, несомненно, саму окружающую среду как целое”[clxvi]. При этом напоминается, что человечество уже неоднократно проходило этапы расширения круга объектов, наделяемых правами, которых в свое время были лишены, например, рабы, национальные меньшинства, женщины, дети.

Весьма характерны заявления и следующего типа: “Еще два десятилетия назад в геологических руководствах Земля рассматривалась вне связей с космическим пространством, которые не принимались во внимание ни при изучении электромагнитных полей, ни при изучении крупных структур. Описание земного шара проводилось по геосферным оболочкам независимо от газовых сфер, где происходили и происходят весьма существенные физико-химические процессы. Традиционное изложение материала о Земле к настоящему времени стало неприемлемым в связи с развитием научных представлений о дальнем и ближнем космосе”[clxvii].

Очевидно, что в данном случае конкретно фиксируется процесс экологизации геологии, которая теперь обращена к изучению не только своего главного объекта “Земля”, но и к анализу его взаимоотношений как со своей экосферой, так и с метадоменом.

Иначе говоря, неорганические системы в последние годы все более и более видятся как существенно сходные со всеми остальными объектами этого мира. Эта интенция очень коррелирует с тем мощным изменением в нашем понимании Вселенной, что пришло вместе с рождением упомянутого семейства универсальных дисциплин. Для них, как уже подчеркивалось, естественно сопоставление и изучение с помощью одного и того же аппарата одновременно и социальных, и органических, и неорганических систем. Тем самым они, похоже, демонстрируют одну важную и эвристичную закономерность: некоторое свойство, найденное в каких-то двух мирах, обязательно имеет аналог и в третьем мире, и поэтому может изучаться с помощью одних и тех же общих концептуальных средств.

Зная это, я вполне допускаю, что со временем мы вполне осознанно и обоснованно будем уважительно относиться ко многому тому, что пока высказывается о неорганической природе метафорически, вроде следующего: “как растущие деревья отличаются от тех, которые срублены топором, так и камни, находящиеся в рудниках, отличаются от тех, которые оттуда извлечены. Одни живут, а другие мертвы, одни полны сока, идущего из почвы, а другие лишены влаги, пусты и распадаются в прах”[clxviii]. Пока такого рода заявления чаще всего склонны воспринимать скорее как сугубо образные. Но кто знает, сколько здесь скрыто правоты. Ведь научное познание устроено так, что часто осознание новой важной проблемы сопровождается ее фиксацией именно в образном, метафорическом виде.

Словом, впереди возможна очень интересная, хотя и трудная работа. Мне кажется, что под обсуждаемым углом зрения было бы важно рассмотреть самые разные объекты неорганического мира: и планеты, и галактики, и, например, атомы. Ведь понятно же, что каждый действительный атом оказывается потому и действительным, что он обязательно как-то взаимодействует с окружающими его объектами, со своей характерной средой. А раз так, то вопрос, скажем, об “экологии атома” отнюдь не выглядит противоестественным. Кто знает, не позволит ли углубленное изучение всех этих особенностей нашего мира заодно более определенно судить и о том, что “может быть неживым мы называем просто то, в чем не умеем видеть живое?”[clxix].

Таким образом, принятие представленной в данной статье позиции способно вести к ее дальнейшим необычным и продуктивным уточнениям и развитиям. Для меня все это работает на вывод, что Большая экология и сообщество экологов вплотную приблизились к рождению и принятию какого-то варианта универсальной экологической парадигмы. Кто знает, возможно, в своем устоявшемся варианте она вберет и такие пока непривычно звучащие рабочие термины, как “эргоценоз”, “ноосистемный мир”, “человек в скафандре”…

 

Ю.В.Сачков

К СИНТЕЗУ ПАРАДИГМ (КОНЦЕПЦИЙ) ЖЕСТКОЙ ДЕТЕРМИНАЦИИ И ВЕРОЯТНОСТНОЙ ДЕТЕРМИНАЦИИ

Парадигмы в контексте истории науки

При анализе истории познания в глобальном плане отчетливо выделяется ряд основных этапов. Прежде всего рассматривается этап, олицетворяемый классической механикой. Становление механики ознаменовало собою становление научного метода, становление естествознания как основополагающего компонента науки вообще. Формулировкой Ньютоном основных законов механики завершился первоначальный и чрезвычайно длительный этап познания природы. Этот этап с его достаточно расплывчатыми, во многом неопределенными и разрозненными представлениями можно назвать описательным. На смену ему пришел этап аналитический, основанный на опыте и математике как форме выражения исходных, фундаментальных законов природы. Судьбы теоретического естествознания стали неразрывно связываться с судьбами математики и эксперимента.

Успехи классической механики в познании природы огромны и несомненны. Ее разработка оказала громадное воздействие на все последующее интеллектуальное развитие человечества. Лагранж называл Ньютона не только величайшим, но и самым счастливым гением: “Систему мира можно создать только один раз”[clxx]. На протяжении почти трех столетий механика Ньютона определяла развитие по крайней мере всех наук о природе. Механика положила начало научному обоснованию и проектированию техники, различных механизмов и машин. Другими словами, механика явилась важнейшим стимулом интеллектуального и материально-практического развития общества.

Воздействие механики на научное мышление столь велико, что на ее основе, на основе ее методов и представлений сложилась достаточно целостная базисная модель мира, сложилась вполне определенная парадигма научного мышления. Отличительной чертой этой парадигмы является то, что все закономерности природы мыслились наподобие законов механики и соответственно все они относились к одному классу, который первоначально получил название динамических закономерностей, а ныне их точнее называть закономерностями жесткой детерминации (поскольку этот класс закономерностей не обладает монополией на познание динамики реальных процессов). Этот этап развития науки был весьма длительным, охватывает период с XVII до середины XIX веков и характеризуется как классическая наука.

Со второй половины XIX и до середины XX века ведущие научные теории и направления исследований основывались на вероятностных идеях и методах, математическим выражением которых явилась теория вероятностей. На вероятностные представления практически уже опирается теория эволюции Дарвина, хотя в ходе ее становления еще не применялся аналитический аппарат теории вероятностей. Проблема эволюции органического мира чрезвычайно сложна. В учении Дарвина сформулированы лишь исходные понятия феноменологического порядка, прежде всего – изменчивости, наследственности и естественного отбора. Анализ взаимоотношений между этими понятиями немыслим вне того, что называется вероятностным образом мышления. Интенсивные применения вероятностных идей и методов в биологии связаны со становлением и развитием генетики, исходные законы которой являются вероятностными. В ходе разработки генной теории происходило не только применение, но и совершенствование методов собственно теории вероятностей как математической дисциплины.

Наибольший резонанс в методологии науки идея вероятности вызвала в процессе становления во второй половине XIX века классической статистической физики как учения о структурных свойствах вещества. На путях развития статистической физики произошло окончательное утверждение физического атомизма – были получены непосредственные доказательства реальности атомов и первые данные о параметрах их структуры. Можно сказать, что именно вероятность утвердила в науке атом, вывела его на орбиту прямых физических исследований.

Включенность вероятности в структуру научных методов привела физику в начале нашего века к новому грандиозному прорыву в глубь материи – в структуру атома и атомных процессов, а затем – и в мир элементарных частиц. Эти знания воплотились в квантовой теории, разработка которой ознаменовала раскрытие весьма необычных, диковинных свойств микромира, понимание которых восхищает и озадачивает ученых и по сей день.

Подытоживая сказанное о воздействии вероятности на развитие познания, можно сказать, что вероятность является знаменем теоретического естествознания второй половины XIX – первой половины XX веков или же, как сказал К.Поппер, что вероятность имеет “космологическое значение”[clxxi]. Фундаментальное значение вероятностных идей и представлений в развитии науки подчеркивалось многими выдающимися ее представителями. Н.Винер, связывая с именем Гиббса радикальное становление вероятности в науке и подчеркивая ее решающее значение в развитии современной физики, писал, что “именно Гиббсу, а не Альберту Эйнштейну, Вернеру Гейзенбергу или Максу Планку мы должны приписать первую великую революцию в физике XX века”[clxxii].

Не менее характерно и мнение В.Паули – выдающегося физика-теоретика середины XX века. “Я уверен, – заявлял он в письме М.Борну, – что статистический характер Y-функции (а таким образом, и законов природы)... будет определять стиль законов в течение по крайней мере нескольких столетий. Возможно, что позднее, например в связи с процессами жизни, будет найдено нечто совершенно новое, но мечтать о возвращении к прошлому, к классическому стилю Ньютона-Максвелла... – это кажется мне безнадежным, неправильным, признаком плохого вкуса”[clxxiii]. На базе идей и методов теории вероятностей выработались представления о новой базисной модели мира и его познания, о новом классе законов – о статистических закономерностях, которые в эвристическом плане рассматриваются как более действенные и значимые[clxxiv]. Вероятность олицетворяет собою этап неклассической науки. Соответственно можно говорить о великой вероятностной революции в науке, о вероятностной парадигме.

Во второй половине XX века все сильнее стала ощущаться потребность в новой базисной модели мира и его познания, в разработке новой парадигмы научного мышления. Последнее проявилось в интенсивном развитии в середине нашего века общей теории систем (системного подхода), в разработке в это же время идей кибернетики как науки об основах процессов управления в сложных динамических системах, а уже в сравнительно последнее время – в разработке идей самоорганизации и синергетики, в становлении “нелинейного мышления”. Эти концептуальные преобразования обусловлены переходом современной науки к аналитическим исследованиям сложноорганизованных систем. Вырабатываются различные методы исследования таких систем, нарабатываются базисные понятия для выражения существа нового концептуального видения мира. Соответственно стали говорить о разработке оснований постнеклассической науки. Объединяющим началом различных подходов в анализе этих оснований выступает идея нелинейности.

Постановка проблемы

Если признать, что знания развиваются последовательно и преемственно, то естественно предположить, что разработка новых концептуальных воззрений опирается на вероятностные концепции и является обобщением последних. Однако реально подобное обобщение выступает весьма своеобразно. Широко принято рассматривать концепцию жесткой детерминации и вероятностные взгляды на мир как два предельных, диаметрально противоположных подхода к анализу бытия и познания. Соответственно новая парадигма выступает как своеобразный синтез концепции жесткой детерминации и вероятностного подхода. О том, что такая постановка вопроса крайне существенна, говорят весьма многие высказывания авторитетных ученых и методологов науки. Прежде всего она встречается в работах, посвященных анализу нелинейных процессов. Связывая познание сложных систем, познание нелинейных процессов с разработкой “стохастической динамики”, известные представители нижегородской школы изучения нелинейных процессов А.В.Гапонов-Грехов и М.И.Рабинович заявляют: “В последние годы интерес физиков к “стохастической динамике” непрерывно возрастает: это связано как с появлением большого числа конкретных задач в различных областях, так и с наметившейся возможностью продвинуться в фундаментальной проблеме о связи динамических и статистических законов физики, прежде противопоставлявшихся друг другу”[clxxv]. Здесь ясно заявлено, что проблема связи динамических (жесткодетерминированных) и статистических законов физики является фундаментальной и ныне находится в процессе своего решения.

Интересно рассматриваемая проблема ставится в школе И.Пригожина, исследующей концептуальные преобразования в современном научном мышлении. “Мы должны отыскать, – пишут И.Пригожин и И.Стенгерс, – узкую тропинку, затерявшуюся где-то между двумя концепциями, каждая из которых приводит к отчуждению: концепцией мира, управляемого законами, не оставляющими места для новации и созидания, и концепцией, символизируемой Богом, играющим в кости, концепцией абсурдного, акаузального мира, в котором ничего нельзя понять”[clxxvi]. И далее: “То, что возникает буквально на наших глазах, есть описание, промежуточное между двумя противоположными картинами – детерминистическим миром и произвольным миром чистых событий. Реальный мир управляется не детерминистическими законами, равно как и не абсолютной случайностью. В промежуточном описании физические законы приводят к новой форме познаваемости, выражаемой несводимыми вероятностными представлениями”[clxxvii].

Крайне любопытно относительно рассматриваемой проблемы высказался один из самых авторитетных философов XX века – К.Поппер. Поппер уделял пристальное внимание анализу природы вероятности, выдвинул свою ее трактовку (вероятность как предрасположенность). Одну из своих лекций он озаглавил – “Об облаках и часах...”. Понятие облака у него символизирует вероятностный образ мышления, а часы – образ мышления, основывающийся на принципе жесткой детерминации. “Облака, – заявляет К.Поппер, – у меня должны представлять такие физические системы, которые, подобно газам, ведут себя в высшей степени беспорядочным, неорганизованным и более или менее непредсказуемым образом. Я буду предполагать, что у нас есть некая схема или шкала, в которой такие неорганизованные и неупорядоченные облака располагаются на левом конце. На другом же конце нашей схемы – справа – мы можем поставить очень надежные маятниковые часы, высокоточный часовой механизм, воплощающий собою физические системы, поведение которых вполне регулярно, упорядочено и точно предсказуемо”[clxxviii]. Соответственно этому – “Огромное количество различных вещей, естественных процессов и явлений природы располагается в промежутке между этими крайностями: облаками слева и часами справа”[clxxix]. Наш мир при таком подходе представляет собою “взаимосвязанную систему из облаков и часов, в котором даже самые лучшие часы в своей молекулярной структуре в определенной степени оказываются облакоподобными”[clxxx]. Добавим еще, что используя такой язык, Поппер характеризует концепцию жесткой детерминации как “все облака суть часы”, а абсолютизацию случайности (сугубо вероятностного подхода) – как “все часы суть облака”.

Приведем еще высказывание известного советского философа М.Э.Омельяновского: “Динамические и статистические законы, взятые сами по себе, не выражают достаточно полно закономерностей природы. Только рассмотрение этих законов в определенном единстве позволяет понять законы природы полнее и глубже”[clxxxi].

Как видим, проблема взаимосвязи, проблема синтеза концепций жесткой и вероятностной детерминаций ставится весьма настойчиво. Рассматривая их взаимоотношение с наиболее широких, с эволюционных позиций следует подчеркнуть, что жесткая детерминация символизирует собою неумолимо наступающие события, символизирует неизменное, сохраняющееся начало мира, а вероятностная детерминация – наличие внутренней независимости во взаимосвязях событий, наличие подвижного, изменчивого, лабильного начала мира, дающего возможность возникновения истинно нового, ранее в эволюции не имевшего места. Другими словами, исследование проблемы синтеза жесткой детерминации и вероятностной детерминации направлено на продвижение по пути раскрытия закономерностей взаимопроникновения жесткого и пластичного начал мира.

Жесткая детерминация

Проблема синтеза жесткой детерминации и вероятностной детерминации в развитии науки поставлена, она не решена, но находится в процессе своего решения. Многие направления исследований, анализирующие сложноорганизованные системы, их структуры и эволюцию, вносят свой вклад в это решение. Сюда можно отнести и теорию катастроф, и “приложения” идей и методов топологии в познании сложности. Основное русло анализа рассматриваемой проблемы представлено разработкой общей теории динамических систем, которая все в большей степени учитывает стохастический (статистический) аспект. Встает вопрос, каково же методологическое обеспечение исследований по данной проблеме. Основные возможности методологии заключаются прежде всего в раскрытии тех общих идей, на которых базируются представления о жесткой и вероятностной детерминациях и которые следует рассматривать в их сопоставлении.

Концепция жесткой детерминации представляет собою весьма развитую системувзглядов, именно – систему, что не всегда учитывается. При ее рассмотрении в качестве основной, а порою и единственной черты обычно отмечается строго однозначный характер всех без исключения связей и зависимостей, отображаемых в рамках соответствующих теорий и представлений. Если анализируются параметры некоторого отдельного объекта или системы, то все взаимосвязи между ними могут иметь лишь строгое, взаимнооднозначное соответствие. Если речь идет о количественных изменениях значений параметров, то эти изменения могут происходить также лишь строго однозначным образом. Если исследуется поведение некоторого объекта – как входящего в некоторую систему, так и вне таковой, – то оно определяется единственным образом во всех своих деталях. В негативной формулировке сказанное означает: там, где нет строгой однозначности в связях, нельзя говорить и о закономерностях. Более того, с точки зрения рассматриваемого класса закономерностей в тех случаях, когда имеет место какая-нибудь неоднозначность или неопределенность в связях, нельзя вообще говорить об истинной закономерности: в этих случаях мы имеем дело лишь с неполным выражением наших знаний об исследуемых объектах, лишь с подходом к истине, но еще не владеем самой истиной.

Подобная трактовка концепции жесткой детерминации навеяна классической механикой, абсолютизацией ее базисных идей. Соответственно представления о жесткой детерминации являются, по существу, выражением логики построения научных теорий, характеризующих классическую науку. Эти представления в процессах анализа систем исключают какую-либо автономность, самостоятельность действий элементов и подсистем в составе системы. В этом состоит их сила и их слабость: они обеспечили прогресс классической физики, а под ее воздействием – и классической науки в целом, но они оказались непригодными для отображения структуры и поведения сложноорганизованных систем.

Если положить концепцию жесткой детерминации в основу философских идей о закономерностях природы и ограничиться этим, то с неизбежностью будем утверждать, что задача научного исследования состоит в раскрытии (установлении) однозначных связей между всеми параметрами (свойствами) изучаемых объектов и систем и что только такие связи и взаимоотношения могут существовать в реальности. Последнее представляет абсолютизацию схемы простых динамических закономерностей. Соответствующая философская концепция получила название лапласовского, или классического, детерминизма и мира в целом.

Чтобы яснее осознать, что же такое жестко детерминированная структура, произведем мысленный эксперимент – представим себе некоторый коллектив индивидов, действующих по принципам жесткой детерминации. Последняя означает, что любая уловимая деталь поведения, начиная от героических актов самопожертвования и кончая шевелением мизинца, каждого из индивидов единственным образом обусловлена структурой системы. Если в таком коллективе одного из индивидов наделить инициативой, то легко заметить, что функционирование такой системы станет возможным лишь за счет лишения инициативы всех других, ибо при наличии инициативы уже у двух индивидов функционирование системы будет парализовано, поскольку инициатива предполагает определенные самостоятельные действия и решения.

Жесткость связей имеет своей оборотной стороной их качественную равноценность, что является второй существенной характеристикой концепции жесткой детерминации. Согласно такому подходу любая рассматриваемая связь, независимо от природы соответствующих свойств или параметров, в равной мере необходима. Действие, вклад каждой связи в общий результат может отличаться лишь интенсивностью, количественно, но не характером, не особенностями своей внутренней природы. На традиционном философском языке идея равноценности любых параметров, характеризующих состояние исследуемого объекта или системы, означает, что все параметры в рамках соответствующих теорий рассматриваются как одинаково необходимые. При этом абсолютизация роли и значения в развитии познания простых динамических закономерностей привела к жесткому противопоставлению необходимости и случайности, в результате чего все параметры, относящиеся к классу случайных, исключались из теории. Никакой логической (качественной) градации в самих необходимых параметрах или связях не проводилось, разве лишь в отношении величины, силы, количественного воздействия различных параметров на искомый результат.

Представления о новых видах взаимосвязей, выходящих за рамки жесткой детерминации, складывались в ходе познания сложных систем. Эти вопросы интенсивно рассматривались в ходе становления кибернетики и проявились в процессах разработки идей об уровнях кодирования информации и уровнях управления. Здесь следует отметить выдвинутые И.М.Гельфандом и М.Л.Цетлиным представления о хорошо организованных функциях[clxxxii]. Интересны также идеи Н.М.Амосова об уровнях кодирования информации[clxxxiii]. Из рассматриваемых Н.М.Амосовым положений о перекодировании информации высшими кодами отметим следующие:

1. Высший код получается при интегрировании информации, переданной низшим кодом, т.е. знаки высшего кода представляют собой характеристики определенных систем, образованных из знаков низшего кода.

2. Высший код является более емким, более абстрактным. При переходе к высшему коду большие порции информации заменяются одним знаком кода.

3. Выделение знаков высшего кода из порций информации, переданной низшими кодами, осуществляется не жестко детерминированным образом.

4. Из информации, переданной низшим кодом, можно вывести много высших кодов, если известны способы перекодирования. Обратная процедура невозможна без значительной потери информации.

5. Полнота информации о системах достигается только в том случае, когда она включает язык низшего кода.

6. Чем сложнее система, тем большее число уровней и способов кодирования информации она включает в себя.

Рассматриваемые взаимоотношения между кодами, между знаками, относящимися к различным уровням кодирования информации, по существу выражают те основные проблемы и достижения, которые встают при анализе современных процессов обобщения в развитии знаний. Знаки, относящиеся к различным уровням кодирования информации, и есть понятия различной степени общности. Общее не есть некоторое механическое объединение исходных единичных понятий. Общее выражает наличие определенной организации, определенной системы взаимосвязей в массе явлений. Характер взаимоотношений между параметрами, выражающими различные уровни кодирования информации, уже давно угадывался при анализе взаимоотношений между менее общим и более общим понятиями. В частности, эти аспекты можно обнаружить и в неоднократно рассматриваемом в истории философии ряду понятий: “яблоко” – “плод” – “органическое тело” – “материальный объект”. Суть дела раскрывается уже при анализе взаимоотношений понятий “яблоко” и “плод”: как они определяются, как перейти от одного понятия к другому (в частности, существует ли жестко определенный дедуктивный путь от понятия плода к понятию яблока?) и т.д.

Все сказанное о равноценности взаимосвязей означает, что эта идея включается в представления о жесткой детерминации, но в процессе развития познания она подвергается все более усиленному критическому анализу.

Еще одна важнейшая особенность концепции жесткой детерминации состоит в том, что здесь исходят из признания того, что любые изменения в поведении объектов и систем целиком и полностью определяются внешними воздействиями, внешними условиями. Подобный подход к анализу процессов изменения состояний исследуемых объектов и систем также навеян классической механикой, ее трактовкой. В механике любое изменение в поведении тел рассматривается как результат действия на них некоторых сил, т.е. внешнего принуждения. Ничто не может изменяться самостоятельно, но каждое изменение служит доказательством наличия действующей внешней причины, некоторого активного тела. Представления о внешней детерминации будучи распространенными на всю Вселенную приводили к представлениям о Великом часовщике или Первотолчке. Другими словами, только внешняя по отношению ко всей Вселенной сила могла привести ее в движение и производить в ней изменения.

Доктрина внешних причин фактически рассматривает материальные объекты и тела как пассивные, т.е. не имеющие активного начала в самих себе. Тела лишь воспринимают внешние воздействия, но не являются причинами изменения самих себя. Такой общий подход к раскрытию природы причинных воздействий широко просматривается в истории науки и философии. Так широко известно перипатетическое изречение: “Все, что движется, движется чем-то другим”. Картина мира, разработанная на базе классической механики, практически наследует такой взгляд на причины изменений в движении материальных тел. Вместе с тем следует отметить, что в истории науки и философии также широко представлены и иные идеи, признающие внутреннюю активность и самодвижение материи. Такие взгляды уже представлены в античном материализме, в частности в представлениях о спонтанных отклонениях атомов в своем движении. Это же направление мысли просматривается в трудах Бруно и Спинозы. Последний ввел действующую внутреннюю причинность, что получило свое развитие в представлениях Лейбница о монадах. Дальнейшую разработку эта идея получила в философии Гегеля и Маркса.

Представления о внутренних причинах изменений поведения объектов и систем получали свое обоснование в ходе познания живых систем. Наличие внутренней активности, внутренних причин, воздействующих на поведение живых систем, является одной из определяющих их особенностей. Развитие этой идеи по отношению к обществу привело к представлениям о свободе как условии развития и человека, и общества. Интересно также отметить, что при анализе практически любых материальных систем и процессов прежде всего обращают внимание и учитывают действие внешних факторов на исследуемые системы, хотя в дальнейшем познание переходит на изучение их внутренней природы.

Современные представления об изменениях в поведении и развитии объектов и систем основываются на учете и внешних, и внутренних причин, взаимопроникновения последних. Учет представлений о внешнем и внутреннем, особенно – современная разработка учения о процессах самоорганизации, и высветили то, что одной из важнейших особенностей концепции жесткой детерминации, а тем самым – и классических воззрений, является признание всевластия внешних воздействий, внешних детерминантов и обстоятельств в анализе поведения объектов и систем.

Вероятностная детерминация

Вероятностная концепция, как и парадигма жесткой детерминации, представляет собою систему взглядов, лежащих в основе применения идей и методов теории вероятностей к познанию природы. Ее становление и расцвет приходятся, повторим, на вторую половину XIX – первую половину XX веков. Однако даже во второй половине XX века вопросы концептуального осмысления вероятности, раскрытия ее природы во многом остаются открытыми. На это в 70–80 годы обращали внимание многие исследователи, например Б.В.Гнеденко[clxxxiv] и П.Суппес[clxxxv]. Современную ситуацию довольно полно обрисовал Э.Агацци: “Вероятностный образ мышления, можно сказать, проникнул почти в каждую область нашей интеллектуальной жизни. Однако было бы трудным дать подробный перечень “позитивных” характеристик, которые можно рассматривать как идентифицирующие признаки этого образа мышления. Каждый скорее скажет, что этот образ мышления характеризуется определенными “негативными” признаками, т.е. некоторым подходом, который выступает как отрицание хорошо установленных предположений, концептуальных структур, взглядов на мир и тому подобного. И именно вследствие такой оппозиции традициям вероятностный подход воспринимается как выражение “современного” интеллектуального стиля”[clxxxvi].

При характеристике вероятностного образа мышления основное внимание, действительно, уделяется тому, что же он отрицает в предшествующем познании, в ранее выработанных картине мира и стиле научного мышления, а не тому, что же нового и специфического он вносит в мышление и науку. В современных философско-методологических исследованиях широко утверждается, что вхождение вероятности в познание ведет к отрицанию концепции жесткой детерминации (как тотальной однозначности всех взаимосвязей и взаимодействий в мире), ведет к отрицанию базовой модели бытия и познания, выработанной прежде всего на основе классической науки. Но что же позитивного, более совершенного вероятность предлагает? Какая же новая базовая модель бытия и познания утверждается в науке на основе теоретико-вероятностных методов исследования? Каковы “позитивные” особенности вероятностного стиля научного мышления? Такие вопросы, судя по философско-методологической литературе, во многом остаются открытыми.

Секрет успеха вероятности – в новом видении мира, его устройства, эволюции и познания. Это новое видение мира связано прежде всего с идеей системности, с системным подходом, с языком системных исследований. Базовыми понятиями системного подхода являются понятие целостных свойств системы, понятия структуры, подсистем и элементов. Системный подход к анализу вероятности определяется уже тем, что основным, центральным понятием теории вероятностей является понятие вероятностного распределения (или просто – распределения). Теория вероятностей и представляет собою абстрактную науку об оперировании распределениями. В последнее входят способы задания и выражения распределений, анализ их свойств и специальных видов, раскрытие закономерных взаимосвязей распределений различных величин при исследовании некоторых объектов и процессов, законы изменения распределений во времени. Такая роль распределений обусловлена тем, что они представляют собою структурные характеристики определенного класса систем, описывает последние с точки зрения их внутренней дифференциации и интеграции, расчлененности и общности.

Осмыслить существо вероятностного видения мира, раскрыть его своеобразие – задача далеко не из простых. Чтобы раскрыть новизну, особенности вероятностного образа мышления, необходимо исходить из анализа предмета теории вероятностей и оснований ее многочисленных приложений. Совместный анализ абстрактных форм и их реальных “наполнений” и позволяет сделать более осязаемыми основания вероятностного видения мира. При таком подходе прежде всего необходимо исходить из того, что вероятность “породила” в науке новый класс закономерностей – статистические закономерности, которые выражают зависимости между распределениями величин, характеризующих исследуемые системы. Соответственно выработались представления о статистических системах, анализ особенностей и структуры которых раскрывает своеобразие вероятностного образа мышления. Если прообразом жесткой детерминации явилась механика Ньютона – наука о свойствах и движении отдельных макротел, то прообразом статистических систем, исходной их моделью являются газы. Газ представляет собою агрегатное состояние вещества, в котором его частицы не связаны или же весьма слабо связаны силами взаимодействия и движутся свободно, заполняя весь предоставленный им объем. Базовой является модель идеального газа. Идеальным называется газ, частицы (молекулы) которого рассматриваются как невзаимодействующие друг с другом материальные точки. Невзаимодействие здесь означает, что между частицами газа нет постоянно действующих, устойчивых взаимосвязей, что поведение частиц газа не коррелированно друг относительно друга. Эту особенность внутренней структуры газов обобщенно принято характеризовать через категорию случайности – поведение молекул в газе носит чисто случайный характер. Следует специально оговорить, что трактовка понятия случайности содержит многие трудности. Как сказал В.В.Налимов, “чтобы хоть как-то понять природу случайного, западной мысли понадобилось более двух тысяч лет”[clxxxvii]. Нередко, особенно в повседневном языке, случайность трактуют как нечто побочное, второстепенное, несущественное в отношении к исследуемым объектам и процессам. Однако случайность есть характеристика определенных структур и наиболее существенное, что заключено в этом понятии, выражается через представления о независимости.

Соответственно сказанному статистические системы суть системы, образованные из независимых или квазинезависимых сущностей. Эта независимость весьма своеобразна – она соотносится с определенной внутренней устойчивостью систем, с наличием целостных характеристик этих систем. Частицы в статистических системах характеризуются некоторым свойством, которое изменяется при переходе от одной частицы к другой случайным образом, т.е. значение рассматриваемого свойства у одной из частиц не зависит и не определяется значениями этого свойства у других частиц. Вместе с тем в массе своей число частиц с определенными значениями таких свойств достаточно устойчиво. Соответствующие величины в теории вероятностей называются случайными величинами, а устойчивость соотносится с вероятностью и распределениями вероятностей.

Встает интригующий вопрос – а как возможно образование систем из независимых сущностей? Что же “цементирует” статистические системы, благодаря чему они приобретают некоторую целостность в своих проявлениях? Системный подход обычно предполагает, что для образования систем, имеющих целостные характеристики, необходимо, чтобы между ее элементами существовали достаточно устойчивые связи, которые внутренне “цементируют” системы, придают им единство во внешних проявлениях. Если таких взаимосвязей нет, если мы имеем дело с независимыми сущностями, то что же придает этим системам целостность, наличие устойчивости? Специфика статистических систем заключается в том, что целостность, наличие внутренней устойчивости им придают внешние условия, внешнее окружение, внешние, а не внутренние силы. Недаром газ как базовая модель статистических представлений при теоретическом анализе всегда рассматривается как заключенный в некоторый сосуд, размеры которого могут быть весьма произвольными. Если нет внешних, достаточно определенных условий, то элементы системы “расползаются” по неограниченному пространству окружения. Системы в таких случаях не могут проявлять себя целостным образом по отношению к внешнему окружению. Следует добавить, что само определение вероятности всегда опирается на задание условий образования исходного массового явления.

Системы, которым придают целостность внешние обстоятельства, внешнее окружение, представляют собою простейший класс систем. Вместе с тем в реальности, в анализе материальной действительности они распространены весьма широко. Особое внимание им уделяют при рассмотрении биологических процессов, процессов в живой природе. Такие системы А.А.Малиновский называет “дискретными” или “корпускулярными”. Эти системы образуются сочетанием “в основном однотипных элементов, не связанных между собой, как правило, прямой связью, но объединенных только общим отношением к окружающей среде”. Таковы “в живой природе организмы одного вида, приспособленные, как правило, к одинаковой внешней среде, и живут поэтому в одной местности. Таковы же клетки одной ткани – эритроциты и даже, например, неподвижные специфические клетки печени. Потеря или гибель части из них компенсируются до некоторого предела оставшимися. Пока этот предел не перейден, система не нарушается... Для этого вида систем характерны свобода комбинирования, полезный отбор более устойчивых форм, взаимная компенсация, создающая сравнительно большую “непотопляемость” системы в целом”[clxxxviii].

Наличие внешних жестких условий есть необходимое, но недостаточное условие для образования статистических систем. Для последних также характерно наличие неустойчивости в состояниях элементарных сущностей, наличие определенного характера – нелинейных – взаимодействий между ними. “...Для возникновения молекулярного хаоса, – отмечает Д.С.Чернавский, – необходимым и достаточным условием является глобальная неустойчивость. Большое число частиц не является ни необходимым, ни достаточным условием; это следует подчеркнуть, поскольку до недавнего времени (да и сейчас) в солидных книгах часто утверждается обратное”[clxxxix]. Добавим, что глобальная неустойчивость есть неустойчивость (состояний, траекторий движения) каждого из элементов статистических систем.

Еще одной важнейшей идеей, характеризующей вероятностную парадигму, является идея иерархии, идея субординации. Эта идея является “сквозной” для системных исследований. Понятие “иерархического порядка”, как отмечал один из лидеров системного движения XX века Л. фон Берталанфи, является “несомненно, фундаментальным для общей теории систем... Иерархия проявляется как в “структурах”, так и в “функциях”[cxc]. Идея иерархии выражает наличие различных устойчивых уровней в строении и детерминации систем. Она проявляется уже в постановке основной задачи статистической физики, которая, говоря словами Г.Уленбека, “всегда заключается в отыскании соответствия между микроскопическим, или атомным, миром и миром макроскопическим”[cxci]. Кульминационным пунктом применения вероятностных концепций в естествознании является разработка квантовой механики – физической теории микропроцессов, процессов атомного масштаба. Для трактовки квантовой теории весьма существенно, что ее понятия делятся в своей основе на два класса: первый (исходный, первичный) класс составляют так называемые “непосредственно наблюдаемые” в опыте величины, рассматриваемые в теории как типично случайные; второй класс образуют квантовые числа (собственно квантовые понятия, типа спина). Различия между этими классами понятий заключаются прежде всего в “степени близости” к непосредственно данному в физическом опыте. Первые выражают более внешние характеристики микрообъектов, вторые – более глубокие, внутренние характеристики. Первые позволяют индивидуализировать квантовые процессы, вторые носят обобщенный характер. Первые во многом тяготеют по своему характеру к классическим понятиям, вторые прежде всего выражают специфичность квантовых явлений. Первые непрерывно и хаотически изменяются, вторые более устойчивы. Естественно, что полнота теоретического выражения квантовых процессов достигается при использовании понятий обоих классов, относящихся к различным логическим уровням. Весьма существенно, что установление взаимосвязи, синтеза в рамках единой теории этих двух классов величин с учетом их различной природы оказалось возможным на основе вероятностных представлений, и прежде всего – на основе волновых функций как особой формы характеризации вероятностных распределений.

Использование понятий различных классов в рамках единой теории представляет собою наиболее сильное изменение в логике построения научных теорий. Здесь один класс понятий как бы надстраивается над понятиями другого класса, зависимости между понятиями рассматриваются не только в плане координации, но и в плане субординации. Между понятиями, характеризующими глубинные свойства микрообъектов, зависимости носят вполне однозначный характер. На исходном, первичном уровне зависимости между параметрами элементов отсутствуют. Зависимости между понятиями, относящимися к различным уровням, таковы, что понятия “глубинного” уровня соотносятся не с конкретными значениями параметров отдельных элементов, а со структурой возможных изменений этих параметров. Аналогичным образом характеристика некоторого человека как честного и прямого не определяет собою строго его поведение в конкретных житейских ситуациях, а наличие определенной устойчивости в больших сериях его взаимодействий с другими людьми.

Весьма существенно, что признание иерархической структуры вероятностных систем подрывает один из важнейших постулатов концепции жесткой детерминации – представление о всевластии внешних причин. Независимость в поведении объектов и систем и есть независимость от внешнего по отношению к ним окружения. Поведение соответствующих объектов и систем приобретает внутренние степени свободы. Именно за это говорит ситуация в квантовой теории – поведение микрочастиц содержит внутреннюю неоднозначность и неопределенность, что невозможно выразить через внешне задаваемые скрытые параметры. Эту же особенность вероятностного стиля мышления косвенным образом подтверждает и тот факт, что весьма и весьма многие исследователи рассматривают случайность и вероятностные концепции как необходимую предпосылку анализа такой важнейшей характеристики бытия человека, как свобода[cxcii]. Уже в период становления вероятности в физике ее часто сопрягали с проблемами свободы воли, что можно проследить по работам Дж. Максвелла – одного из основателей статистической физики[cxciii]. Свобода рассматривается как высшая ценность человеческого бытия и она связана с особенностями функционирования внутреннего мира человека, выражает его динамику и активность и замыкается на проблеме принятия решений. Тем самым идея свободы продолжает ту направленность исследований, которая в “точном” естествознании порождена идеей вероятности.

Сказанное о проблеме иерархии в вероятностном образе мышления позволяет сделать вывод, что значение вероятностных методов в познании заключается прежде всего в том, что они позволяют исследовать и теоретически выражать закономерности объектов и систем, имеющих сложную, “двухуровневую” структуру. Вместе с тем сама по себе идея иерархии весьма стара и иерархия иерархии рознь. Заслуга теории вероятностей – в первом развитии математических основ “теории субординации” систем с наивысшим уровнем организации – с автономной организацией. Такую иерархию можно назвать мягкой или гибкой иерархией.

Становление базисных представлений новой парадигмы

Итак, и парадигма жесткой детерминации, и вероятностная парадигма представляют собою исторически последовательные системы взглядов, которые являются базисными в разработке и истолковании определенных классов научных теорий. Каждая из парадигм опирается на одну из фундаментальных теорий физики: парадигма жесткой детерминации – на классическую механику, вероятностная парадигма – на классическую статистическую физику. Каждой из них сопоставляется “свой” класс закономерностей и “своя” базовая модель бытия и познания. Тем самым обеспечивается успех, результативность каждой из парадигм. Такая характеристика парадигмы прямо соотносится с ее определением, данным Т.Куном, привлекшим в свое время пристальное внимание к рассматриваемой тематике: парадигма означает “признанные всеми научные достижения, которые в течение определенного времени дают модель постановки проблем и их решений научному сообществу”[cxciv].

Как выше отмечалось, и парадигма жесткой детерминации и вероятностная парадигма уже выявили свою ограниченность, что наиболее сильно сказывается при переходе современной науки к аналитическим методам исследования сложноорганизованных систем. Все настойчивее высказываются утверждения о становлении новой парадигмы, соответствующей познанию таких систем. При этом, повторим, многие видят один из путей разработки нового концептуального видения мира в осуществлении своеобразного синтеза рассмотренных выше двух парадигм. Поскольку каждая из этих парадигм представляет собою систему взглядов по коренным вопросам бытия и познания, то интересно проследить, что же может дать “встреча” этих взглядов. Парадигма жесткой детерминации опирается на признание однозначного характера всех и всяких (в большом и малом) связей и зависимостей, качественной (логической) равноценности всех параметров и на признание внешнего характера причин любых изменений, происходящих с материальными объектами и системами. Соответственно этому парадигма жесткой детерминации предполагает, что все процессы в мире (как для будущего, так и для прошлого) могут быть абсолютно строго предсказаны, если задано их некоторое начальное состояние, и следовательно, в эволюционных процессах не может возникнуть ничего принципиально нового, что не могло бы быть заранее рассчитано. Можно сказать, что парадигма жесткой детерминации выражает собою сохраняющееся, неизменное начало мира.

Вероятностная парадигма базируется на идеях системности (понятие системы как первичное понятие), на идеях независимости, случайности, неустойчивости и (мягкой) иерархии. Вхождение вероятности в познание всегда означало проникновение науки во внутреннее строение исследуемых объектов (в структуру вещества, в структуру атома и атомных процессов, в молекулярную структуру явлений наследственности живого). Специфика этой парадигмы соотносится прежде всего с идеями независимости и случайности. Тем самым вероятностная парадигма выражает лабильное, подвижное, изменчивое начало мира, что открывает дорогу для возникновения истинно нового (не выводимого из предыдущего) в процессах развития. Абсолютизация этой парадигмы приводит к представлениям о хаотическом, акаузальном мире, где все, что возникает, возникает заново и необъяснимо, где предсказаниям нет места.

Соответственно сказанному синтез жесткой детерминации и вероятностной детерминации в методологическом плане означает “встречу”, взаимопроникновение и преобразование тех идей, которые лежат в основе каждой из этих парадигм. В самом общем смысле это есть встреча, взаимопроникновение жесткого (сохраняющегося) и лабильного (неопределенно изменяющегося) начал мира. Такая встреча происходит в ходе современных исследований сложноорганизованных систем, их строения и эволюции. Она предполагает разработку некоторой единой системы понятий, выражающей и жесткое, и изменчивое начала бытия. Естественно допустить, что эта система понятий будет делиться на классы, имеющие различную логическую природу и относящиеся к различным уровням описания исследуемых объектов и систем. “Возникает” класс понятий, выражающий внутреннюю динамику этих объектов и систем. Сказанное позволяет сделать заключение, что синтез жесткой детерминации и вероятностной детерминации в методологическом плане основывается, по меньшей мере, на разработке идеи иерархии в структуре и функциях сложных систем и на раскрытии взаимопроникновения внешних и внутренних детерминант, определяющих функционирование и поведение таких систем, на раскрытии взаимодополнения внешнего принуждения и внутренней активности (самодетерминации) в описании сложных систем.

Разработка новой парадигмы науки, осуществление синтеза концепций жесткой детерминации и вероятностной детерминации не могут рассматриваться как некий разовый, единовременный акт. Становление основных идей этого синтеза просматривается в ходе тех концептуальных сдвигов и разработок, которые зафиксированы в развитии научного мышления с середины XX века. На этом пути прежде всего следует отметить зарождение и развитие системного движения (общей теории систем), кибернетики и концепции самоорганизации (синергетики).

В ходе становления системного движения обосновывался прежде всего сам статус системных представлений. Было признано коренное, базовое, первичное значение понятия системы в анализе действительности и, тем самым, понятий структуры, целостных свойств системы, подсистем и элементов. Отдельные объекты с самого начала стали рассматриваться как элементы некоторых систем, через призму базовых системных представлений. Соответственно познание отдельных объектов как элементов систем стало включать в себя вопросы, а в какие же системы могут входить те или иные объекты, какие системы могут образовывать эти объекты. Раскрытие и анализ таких системообразующих связей означает и познание более глубоких свойств самих элементов. Внешние воздействия на первичные объекты теперь стали рассматриваться как опосредованные структурой этих систем. Элемент в системе реагирует на воздействия по-иному, нежели когда он предоставлен сам себе. Системный подход вводит представления о внутренних связях и взаимодействиях и тем самым дает основания для разграничения внешних воздействий на системы и внутренних взаимодействий в самих системах. Весьма существенно также, что системный подход обусловил разработку представлений об иерархии как закономерных взаимосвязей целостных характеристик систем с характеристиками их элементов.

Становление кибернетики следует рассматривать как один из важнейших этапов развития системного подхода. В ходе ее зарождения основное внимание было обращено на вопросы поведения и функционирования сложных систем. Кибернетику определяют как науку об общей структуре процессов управления в сложных динамических системах. Сложными управляющими системами называются системы с относительно независимым, автономным поведением подсистем (элементов) при высокой внутренней активности и избирательности, целенаправленности функционирования и поведения систем в целом. Эти системы являются открытыми, находящимися в постоянном взаимодействии с окружением (средой) и принципиально способны решать весьма разнообразные классы задач (действовать при весьма различных обстоятельствах)[cxcv]. Из такого определения кибернетики ясно видно, что она наследует основные идеи вероятностной парадигмы.

Представления об автономности опираются на идеи независимости и случайности, “гражданские права” которым в науке предоставили теоретико-вероятностные методы исследования. Независимость и случайность являются важнейшими характеристиками сложных систем, а “сложность подрывает устойчивость, если не умеряется иерархической структурой”[cxcvi]. Кибернетика привела к дальнейшей разработке представлений об иерархии и о взаимопроникновении внешних и внутренних детерминантов в “жизнедеятельность” систем. Идея иерархии стала соотноситься с представлениями об управлении и на путях “борьбы” со сложностью были выработаны представления об автономности. Особенностью системно-кибернетического образа мышления является то, что здесь на уровне аналитических методов стали вырабатываться понятия и представления, характеризующие поведение сложных систем с учетом их внутренней динамики и самодетерминации.

Внутренняя динамика систем стала выражаться посредством понятий цели, обратной связи, принятия решений, управления и эффективности последнего.

Современными наследниками системного движения выступают разработки по проблемам физико-математических основ процессов самоорганизации, по проблемам синергетики. Здесь уже ставятся вопросы не только о функционировании и поведении сложных систем, но и об их преобразованиях и даже об их образовании (роль хаоса в образовании структур). В синергетике находит продолжение линия на анализ проблем внутренней детерминации, проблем самодетерминации в функционировании и поведении сложных систем. Как иногда говорят – самоорганизующиеся системы суть такие системы, которые перестают быть игрушками в действиях внешних сил, т.е. специфика поведения этих систем связана с особенностями их внутренней организации и детерминации. Для исследований по проблемам самоорганизации и синергетики весьма характерна разработка представлений о нелинейности, ее содержании и значимости. Нелинейность вносит существенные изменения в наше понимание процессов эволюции, взаимодействия, образования структур. Для нелинейных систем возможен далеко не всякий путь их устойчивого развития, т.е. внешние воздействия не всевластны в определении их поведения. Соответственно этому обогащается наше понимание процессов управления. “Управление, – пишут Е.Н.Князева и С.П.Курдюмов, – теряет характер слепого вмешательства методом проб и ошибок или же упрямого насилования реальности, опасных действий против собственных тенденций систем, и строится на основе знания того, что вообще возможно на данной среде. Управление начинает основываться на соединении вмешательства человека с существом внутренних тенденций развивающихся систем”[cxcvii]. Добавим только, что в общем случае процессы управления не обязательно связаны с деятельностью человека – последняя по отношению к функционированию систем есть выражение действий внешних сил.

Для анализа процессов самоорганизации также весьма существенны представления о неустойчивости, неравновесности и хаоса. Уже отмечалось, что неустойчивость порождает случайность. Именно в состояниях неустойчивости систем проявляется независимость, многовариантность и альтернативность, порождающие образование структур, их самоусложнение и преобразования в эволюционных процессах.

Сказанное о концептуальных сдвигах в науке с середины XX века позволяет заключить, что эти концептуальные преобразования идут по линии утверждения и обогащения системных представлений, по линии разработки общего учения о сложных системах. При становлении системного движения оформлялся сам его статус в познании, вырабатывались понятия о системе, ее структуре, целостных характеристиках, подсистемах и элементах. В ходе разработки кибернетики внимание было обращено на понятия, выражающие исходные представления о функционировании и поведении сложных систем. Такими понятиями явились понятия цели, обратной связи, управления и его эффективности. Основные идеи общего учения о самоорганизации и синергетики уже соотносятся с процессами усложнения, преобразования систем. Исходными понятиями здесь являются понятия порядка и хаоса, неустойчивости, неравновесности, бифуркаций, целенаправленности, информации.

Общая теория систем, кибернетика и синергетика - этапы большого пути, ведущего к выработке нового концептуального видения мира. Изменения происходят громадные, но они еще не воспринимаются как имеющие некоторую законченную форму. Возможно, это связано с тем, что эти концептуальные преобразования не опираются на достаточно замкнутую физическую теорию фундаментального порядка. Можно повторить, что и концепция жесткой детерминации, и вероятностная детерминация базировались на фундаментальных теориях физики своего времени – на классической механике и на классической статистической физике. Концептуальные преобразования, связанные со становлением синергетики, также берут свое начало из физических исследований – ее породили статистическая физика открытых систем, далеких от равновесия, и квантовая физика – физика лазеров. Однако “замкнутого” ядра новой теории здесь еще не сложилось.

Язык происходящих концептуальных преобразований скорее опирается на анализ базовых понятий, лежащих в основе изучения живых систем. Можно предположить, что объекты современной науки, современного естествознания настолько сложны, что меняются сами представления о научной теории, ее структуре. Тем не менее вопрос о включенности физики в разработку новой парадигмы, ее основных идей не снимается с повестки дня. Вероятностная парадигма брала свое начало “сверху” – представления о случайности и независимости формировались в ходе анализа явлений из жизни общества, но как парадигма она проявила свою силу после того, как стала опираться на модели, вырабатываемые в фундаментальных теориях физики. Что же можно сказать о включенности базовых идей физики в современную разработку нового концептуального видения мира?

Исторически точки роста в фундаментальных физических исследованиях были связаны с проникновением физики на самые глубинные уровни строения материи – на уровни атомов, элементарных частиц, полей. Соответственно этому для выработки новой “глобальной” парадигмы естественнонаучного мышления первостепенного внимания заслуживают идеи и методы, характеризующие исследования предельных структур материи, при этом существенно, что базовые объекты физических процессов с самого начала рассматриваются как нечто сложное, т.е. системным образом.

Одно из направлений, где происходит разработка новых физических идей фундаментального порядка, есть исследования по общей теории нелинейных динамических систем. Здесь достаточно широко используется язык учения о самоорганизации, язык синергетики. Такой подход позволяет взглянуть с новой точки зрения на многие уже познанные процессы, расширить их понимание. Но этот язык ведет и к новым постановкам вопросов. Существенна здесь разработка стохастической динамики. Также весьма значимо, что в системах, как сказал Б.Б.Кадомцев, “со сложно организованной внутренней структурой возможно расслоение единой системы на две тесно связанные друг с другом подсистемы. Одну из них мы по-прежнему можем называть динамической или силовой, а вторую можно назвать информационной или управляющей подсистемой”. И далее: “Те структурные элементы, которые могут сильно влиять на динамику системы сравнительно малыми возмущениями (сигналами), естественно выделяются в структуру управления”[cxcviii]. На путях развития этих идей расширяется взаимодействие физики и биологии, что чревато изменениями в базисных теоретических построениях физики. Исследования фундаментальных структур все сильнее обогащаются понятиями и представлениями, “заимствованными” из кибернетики и синергетики. К таковым относятся понятия и представления о цели, уровнях организации и детерминации, управлении, принятии решений, эффективности, информации и др. Интересно в связи с этим еще одно высказывание Б.Б.Кадомцева: “Гораздо более естественным является допущение о том, что свобода воли является имманентным, т.е. внутренне присущим свойством всего мира. Только на основе этого исходного положения можно уйти от бессмысленного, полностью детерминированного механистического мира к миру живому и развивающемуся”[cxcix]. Поиск аналога свободы воли в первичных структурах материи означает признание того, что составляющие этого мира подвержены активной внутренней динамике, проявление которой не определяется внешними условиями и воздействиями. Как резюмирующее приведем и такое высказывание Б.Б.Кадомцева: “Идеи о самоорганизации и образовании диссипативных структур в открытых системах оказались очень важными для того, чтобы перебросить мостик между физикой и биологией. Но видно, что следует идти дальше и изучать иерархизацию структур, образование структур с памятью и возможностями извлечения информации извне, накопление ее в памяти, использования информации для управления и обработки этой информации с целью оптимального управления. Нетрудно видеть, что существует много общих черт в поведении сложных систем, как органических, так и неорганических, причем неорганические системы со сложной структурой тоже не являются простыми как в структурном плане, так и по характеру их поведения”[cc].

Переход к новому языку в физике, сопряженному с идеями синергетики, обусловлен все более интенсивными исследованиями феномена нелинейности и ее проявлением на первичных (исходных) уровнях строения материи. Нелинейность выражает собою новый тип взаимодействий, который “обеспечивает” преобразование структур, их самоусложнение. Вместе с тем “синергетическое направление” в фундаментальных физических исследованиях не является единственным. К числу таких важнейших направлений относится и применение идей и методов топологии к анализу физических структур[cci]. Однако в методологическом плане анализу этого направления повезло значительно меньше, хотя оно также укладывается в рамки особого класса системных исследований.

Происходящие под воздействием синергетики концептуальные сдвиги в мышлении носят, несомненно, парадигмальный характер. Однако о становлении новой парадигмы, равносильной рассмотренным выше парадигмам жесткой детерминации и вероятностной детерминации, говорить еще не приходится. Здесь нет еще базовой и относительно замкнутой научной теории, характеризующейся “своей” системой уравнений и порождающей новый класс закономерностей. Можно, конечно, сказать, что в физике возник новый класс закономерностей – законы симметрии. Говорят также о законах управления (по отношению к сложным системам) и законах самоорганизации. Тем не менее в рамках таких закономерностей не выработана самосогласованная система уравнений, которая выражала бы собой достаточно замкнутым образом динамику процессов более глубоких, чем это отражено в квантовой теории.

Заключение. Иерархия парадигм

Выше проблема парадигмы рассматривалась в глобальном плане, наиболее укрупненном историческом плане развития познания. Но реально представления о парадигмах используются на различных уровнях познания и в разнообразных аспектах. Так уже в упоминавшейся книге Т.Куна говорится о парадигмах практически в каждой области естествознания – о парадигмах в развитии астрономии, механике, оптике, учения об электрических явлениях, в химии, генетике, геологии и в других науках. Несколько осторожнее даются высказывания по отношению к познанию социальных процессов. “В таких разделах биологии, как, например, учение о наследственности, – пишет Т.Кун, – первые парадигмы появились в самое последнее время; и остается полностью открытым вопрос, имеются ли такие парадигмы в каких-либо разделах социологии”[ccii]. Представления о парадигмах здесь соотносятся с некоторыми достижениями фундаментального порядка, которые позволяют лучше понять соответствующие материальные процессы, расширяют область проводимых исследований, в том числе – и в прикладных науках. Можно добавить, что и в рамках выше рассмотренных “исторических” парадигм естественнонаучного мышления четко выделяются свои “подпарадигмы”. На базе вероятностной парадигмы “весомо” проявляется квантовая парадигма, когда теоретические построения в ряде областей физики, химии и биологии опираются на “образцы”, порожденные квантовой теорией. В рамках парадигмы жесткой детерминации выделяется полевая парадигма, когда анализируются проблемы, выражающие непрерывный аспект строения материи и в качестве базового выступает образ волны. В наше время говорят также об экологической парадигме, информационной, парадигме глобального эволюционизма и др. Во всех подобных случаях представления о парадигмах соотносятся с некоторыми достижениями фундаментального порядка (уравнениями, идеями), которые позволяют лучше понять соответствующие материальные процессы, расширяют область своих приложений, обеспечивают устойчивое развитие данных областей знаний в некоторый период времени.

Коль скоро признается разнообразие парадигм, то встает вопрос об их упорядочивании, их классификации. Парадигма парадигме рознь – они различаются по широте и основательности своего действия. Есть парадигмы, характеризующие развитие естественнонаучного мышления в целом, и есть парадигмы, относящиеся к анализу весьма узких направлений исследования. Есть парадигмы, характеризующие разработку фундаментальных наук, и есть парадигмы, свойственные прикладным наукам. Методологию науки интересует в первую очередь вопрос о парадигмах, относящихся к развитию естественнонаучного мышления в целом. Именно такими явились парадигмы жесткой детерминации и вероятностной детерминации. Такие парадигмы вырастают из фундаментальных исследований и опираются на аналитически разработанные методы исследований. Весьма существенно, что их становление происходило на путях проникновения в глубинные уровни строения материи – парадигма жесткой детерминации разрабатывалась в процессе принятия наукой классического физического атомизма, а вероятностная парадигма – в процессе проникновения науки в структуру вещества (а затем – и в структуру атома). Исходя из этого естественно предположить, что разработка новой глобальной парадигмы как синтеза концепций жесткой и вероятностной детерминаций будет происходить в ходе дальнейшего проникновения познания в глубины строения материи и выработки образа базовых объектов бытия. Поэтому интересно проследить историческое развитие представлений об элементарных сущностях. Механика начала свое развитие с разработки представлений об атоме как простейшей, далее неразложимой структурной единице материи, первичным образом которой выступала материальная точка. Далее мир стал рассматриваться построенным из атомов и полей как исходных физических реальностей. Представления об атомах все более характеризовались образом мельчайших, твердых, упругих шариков, а представления о полях стали соотноситься с образом волны в непрерывных средах.

Дальнейшее проникновение физики в микромир обязано разработке квантовой теории, которая, по словам В.Вайскопфа, представляет такой “плод человеческой мысли, который более всякого другого научного достижения углубил и расширил наше понимание мира”[cciii]. Квантовая теория вскрыла сложную внутреннюю структуру атома, а мир стал рассматриваться как построенный из элементарных частиц. В процессе развития квантовой теории поля разрабатывались представления о фундаментальных физических взаимодействиях и была выдвинута идея о физическом вакууме как первичной реальности, порождающей сами элементарные частицы. Современная микрофизика рассматривает мир как построенный из кварков, глюонов, лептонов, а “микрофизика, – говоря словами В.Л.Гинзбурга, – вчера, сегодня и, нужно думать, завтра была, есть и будет передним краем физики и всего естествознания”[cciv].

Сказанное позволяет сделать вывод, что разработка современной глобальной естественнонаучной парадигмы лежит на путях дальнейшего проникновения физики в глубинные структуры материи. Новые структурные единицы материи весьма сложны и для своего выражения нуждаются в наработке весьма развитых теоретических представлений и образов. Именно этому отвечают все настойчивее высказываемые ныне утверждения, что мир состоит из нелинейных динамических систем. Идеи о синтезе жесткой и вероятностной парадигм обогащают разработку этого направления мысли. И как это было в прошлом, разработка новой парадигмы приведет, надо полагать, к новому взлету научной мысли.

 

 

А.А.Печенкин

Парадигма и идеология: опыт философской
реконструкции истории теории нелинейных колебаний
*

Предварительные замечания

Следуя Т.Куну, под парадигмой мы будем понимать инструментарий решения научных задач, принятый в некотором научном сообществе (scientific community) и характеризующий это сообщество (научное сообщество – это совокупность ученых, разбросанных, вообще говоря, по всему миру, но работающих в рамках одной парадигмы). Вслед за У.Куайном под идеологией мы понимаем язык (дескриптивную терминологию), принятый в том или ином “идеологическом научном сообществе”. Термин “идеологическое научное сообщество” принадлежит не Куайну, а автору настоящей статьи, он выдвинут, чтобы ввести понятие идеологии в горизонт кунианских социологизированных понятий. “Идеологическое научное сообщество” может совпадать с научным сообществом, по Куну, но может и быть более широким. Ведь, по Куну, парадигма предполагает идеологию: постановка научных задач требует обработки эмпирического материала в рамках языка, который несет данная парадигма (должны быть выделены интересные явления, “на основании сходства или путем моделирования” они должны быть отнесены “к той части научного знания, которую какое-то научное сообщество признает в качестве одного из установленных достижений”[ccv]). Однако влияние идеологии может быть более широким, и научное сообщество, скрепленное парадигмой, может оказаться окруженным диффузным идеологическим сообществом.

Чтобы показать введенные понятия “в работе”, рассмотрим ряд фрагментов истории теории нелинейных колебаний. Термин “теория нелинейных колебаний” мы используем в кунианском социологизированном смысле. Это не просто дедуктивная система (или попытка сформулировать таковую), а социальное явление – представления, развитые в конце 20-х гг. ХХ века и в 30-е гг. сообществом ученых, называемом обычно школой Л.И.Мандельштама. Рассматриваемая таким образом теория нелинейных колебаний сменила нелинейную теорию электрических колебаний голландского физика и радиоинженера Б.Ван дер Поля, над которой тот работал уже в начале 20-х гг. В 1927 г. Л.И.Мандельштам поставил перед своим аспирантом А.А.Андроновым задачу, которая вылилась в серию основополагающих работ, выполненных при участии двух других аспирантов Л.И.Мандельштама – А.А.Витта и С.Э.Хайкина. При этом Л.И.Мандельштам не только инициировал создание теории нелинейных колебаний, но вместе со своим другом и соавтором Н.Д.Папалекси внес вклад в разработку этой теории. В этой разработке участвовали также некоторые другие ученики Л.И.Мандельштама, сотрудники Н.Д.Папалекси, ученики и сотрудники А.А.Андронова, который, переехав в 1931 г. из Москвы в Горький (ныне – Нижний Новгород), основал там свою школу, которая может рассматриваться в качестве ветви школы Мандельштама.

Теория нелинейных колебаний не сразу была признана за рубежом. Ее полноценное признание приходится уже на послевоенные годы, когда Н.Минорский написал свою книгу, в которой представил основные результаты школы Л.И.Мандельштама[ccvi]. В 1949 г. вышел английский перевод книги А.А.Андронова, А.А.Витта и С.Э.Хайкина “Теория колебаний”, изданной в СССР в 1937 г. (поскольку Витт был арестован, его имя было удалено с титула этой книги), книги, представляющей основное содержание и программу теории нелинейных колебаний (так, во всяком случае, говорится в предисловии Мандельштама к этой книге)[ccvii]. В 1966 г. вышел английский перевод второго издания этой книги (1959 г.), подготовленного учеником Андронова Н.А.Железцовым. Впоследствии работы по теории нелинейных колебаний растворились в общем потоке публикаций по нелинейной динамике.

В настоящей статье планируется показать, что не только парадигма, но и идеология направляла формирование и развитие теории нелинейных колебаний, причем именно идеология привела к нетривиальным концепциям, оказавшимся в 70-е гг. в сфере интересов синергетики – теории самоорганизации. В следующем параграфе речь пойдет о той парадигме, в рамках которой формировалась теория нелинейных колебаний. В третьем параграфе мы рассмотрим эту парадигму “в работе”, т.е. обсудим ряд достижений теории нелинейных колебаний (30-е гг.), полученных на пути того, что Т.Кун называл “решение головоломок”. В четвертом параграфе будет описана идеология нелинейных колебаний и будет прослежено, как она “работала” за пределами тех задач, которые решались в рамках парадигмы.

Парадигма теории нелинейных колебаний

Как было отмечено выше, теория нелинейных колебаний пришла на смену нелинейной теории электрических колебаний ван дер Поля. Последняя в свою очередь генетически связана с разработкой теории радиотехнического устройства – лампового генератора. В этом устройстве, работающем, как и всякое реальное устройство, с “трением” (т.е. являющемся неконсервативной системой), возникают незатухающие колебания. Конечно, это значит, что система содержит источник энергии (или в систему поступает энергия извне). Однако речь не идет о вынужденных колебаниях. Ламповый генератор сам генерирует незатухающие колебания. Он является автономной системой (дифференциальные уравнения таких систем не содержат времени явно), т.е. системой с непериодическим источником энергии. Незатухающие колебания возникают за счет особой конструкции лампового генератора, включающего, кроме колебательного контура, усилитель (электронную лампу), связанный с колебательным контуром обратной связью.

Оставляя открытым вопрос о парадигме теории ван дер Поля, опишем ту парадигму, которая сложилась в работах Мандельштама, Андронова и их сотрудников в конце 20-х гг. Будем следовать “элементам дисциплинарной матрицы”, перечисленным Куном в “Дополнении 1969 г.” к его книге “Структура научных революций”.

В качестве первого элемента Кун указывает на “символические обобщения” – математические формулы, выражающие универсальные научные законы. В современной физике – это главным образом дифференциальные уравнения. “Символические обобщения” должны быть достаточно емкими, чтобы постановка конкретных задач шла путем “расшифровки” этих “обобщений”.

Ван дер Поль в основном исходил из уравнения, носящего теперь его имя и описывающего принцип действия простого лампового генератора:

d2x/dt2 -- m(1 – 2x2)dx/dt + x = 0 (1)

 

Здесь x – обобщенная координата (в случае лампового генератора – сила тока), t – время, а нелинейный элемент 2x2dx/dt выражает работу усилителя (электронной лампы).

В трудах Андронова и других представителей школы Мандельштама “символическим обобщением” становится дифференциальное уравнение, по отношению к которому уравнение ван дер Поля – частный случай. Это следующее уравнение:

d2x/dt2 + 2d dx/dt + w2x = f (x, dx/dt) (2)

 

где x и t, как и раньше, обобщенная координата и время, d – коэффициент затухания, w – собственная частота, т.е. циклическая частота того процесса, который происходил бы в отсутствии трения и внешней силы, f(x, dx/dt) – нелинейная функция, описывающая действие источника энергии, включенного в систему управления, обеспечивающую незатухающие колебания. Уравнение (2) может быть каждый раз по-своему записано для различных нелинейных задач радиотехники и механики – для описания лампового генератора, часов, фрикционного маятника (так называемого маятника Фроуда, представляющего собой обычный маятник, посаженный с трением на вращающийся с постоянной скоростью вал) и т.д.

На втором месте после “символических обобщений” у Куна стоят “общепризнанные предписания” типа “теплота представляет собой кинетическую энергию частей, составляющих тело”. У Мандельштама, Андронова, их сотрудников и учеников таким предписанием было в первую очередь следующее: “построить фазовый портрет колебательной системы – ее траекторию на фазовой плоскости (где осями координат являются х, dx/dt)”. Уравнение (2), вообще говоря, не интегрируется, не решается в элементарных функциях. Ван дер Поль, решая уравнение (1), действовал изобретенным им же приближенным методом – методом медленно меняющихся амплитуд (m трактовалось им как малый параметр). Построение фазового портрета может также рассматриваться как интегрирование. Поскольку фазовый портрет подчиняется строгим законам теории дифференциальных уравнений, построение фазового портрета обеспечивает точное решение дифференциального уравнения. Поскольку фазовый портрет сам по себе не несет количественной информации об амплитуде, фазе и частоте колебаний, то это решение качественное. Отсюда термин, популярный в окружении Андронова, – “качественное интегрирование”.

К задаче построения фазового портрета близко подошел ван дер Поль в 1926 г. Действуя методом изоклин, он наметил контуры того, что потом было названо фазовым портретом уравнения (1)[ccviii]. Но его “фазовый портрет” не был объектом качественной теории дифференциальных уравнений, заложенной А.Пуанкаре в последние десятилетия XIX века. Это была скорее картинка, графическая иллюстрация.

Фазовые портреты уравнений (1) и (2) построил Андронов в своих работах 1928–1929 гг., ставших основой его кандидатской диссертации. Андронов показал, что незатухающие колебания, имеющие место в ламповом генераторе, часах и т.д. (он назвал их автоколебаниями), изображаются на фазовой плоскости в виде предельных циклов Пуанкаре – замкнутых кривых, к которым асимптотически приближаются все близлежащие кривые. Предельный цикл окружает особую точку, символизирующую состояние равновесия[ccix]. В последующих работах Андронов рассмотрел переходные процессы – случаи “жесткого” и “мягкого” возбуждения колебаний в ламповом генераторе – и нашел их геометрические образы на фазовой плоскости.

“Качественное интегрирование” предполагает анализ устойчивости колебаний. Андронов показал, что автоколебаниям соответствуют устойчивые предельные циклы Пуанкаре. При этом существенными оказываются два вида устойчивости: устойчивость по Ляпунову и структурная устойчивость (грубость) колебательной системы. Устойчивость по Ляпунову означает устойчивость по отношению к малым изменениям начальных условий. Термин “грубость динамической системы” был введен Андроновым уже в его первых работах о предельных циклах. Однако корректное формулирование этого понятия было осуществлено им вместе с Л.С.Понтрягиным в 1937 г. Грубой называется система, фазовый портрет которой устойчив по отношению к небольшим изменениям дифференциального уравнения, описывающего эту систему. Чтобы сформулировать “грубость” более точно, надо уравнение (2) переписать в следующем виде:

d2x/dt2 + w2x = f (x, dx/dt) (3)

где нелинейная функция f(x, dx/dt) представляет уже не только непериодический источник энергии, но и фактор затухания (к тому есть свой резон, так как трение может быть нелинейным). Грубым движением будет устойчивое по отношению к малым изменениям правой части уравнения (3).

Руководствуясь теорией устойчивости, развитой А.М.Ляпуновым в начале ХХ века, Андронов вместе с А.А.Виттом показали, что при условии грубости системы по характеристическим показателям Ляпунова можно судить об устойчивости предельного цикла и, стало быть, о наличии автоколебаний.

В терминологии Т.Куна фазовый портрет – это “онтологическая модель”. Мандельштам, Андронов и их сотрудники и ученики пользовались, однако, и “эвристическими моделями” – нестрогими, оценочными “фазовыми портретами”, к которым приводят приближенные методы интегрирования дифференциальных уравнений. Дело в том, что качественная теория дифференциальных уравнений, управляющая структурой фазовых портретов, мало что говорит о том, как строить фазовый портрет, исходя из эмпирического материала. Она, например, не дает критериев существования предельных циклов, символизирующих устойчивые периодические движения (автоколебания). Кроме того, качественная теория, как следует из ее названия, не содержит формул, позволяющих рассчитать количественные параметры колебаний – их частоту, фазу и амплитуду.

Важную роль в истории теории нелинейных колебаний сыграл так называемый метод припасовывания (позднее названный методом кусочно-линейной аппроксимации). Собственно, в 1927 г. Мандельштам поставил перед своим аспирантом Андроновым задачу проанализировать устойчивость движений, получаемых по методу припасовывания. Андронов, как отмечалось выше, тогда решил другую задачу: он получил описание колебаний, имеющих место в ламповом генераторе, часах и т.д., в терминах предельных циклов Пуанкаре. Метод припасовывания, однако, продолжал использоваться в теории нелинейных колебаний. Так, например, этим методом Мандельштам в своих “Лекциях о колебаниях”, прочитанных в 1931 г., решал уравнение (2). В упоминавшейся выше книге Андронова, Витта и Хайкина (1937 г.) был подведен предварительный итог работы над методом припасовывания. Этот метод был оснащен методом точечных отображений, восходящим опять же к Пуанкаре, что расширило его возможности и позволило решать с его помощью проблему устойчивости колебательных систем. Однако систематическое применение метода припасовывания приходится на военные годы, когда Андронов с сотрудниками вплотную занялись задачами теории автоматического регулирования. Андронов писал, что именно в эти годы им была решена задача устойчивости движений, поставленная перед ним Мандельштамом в 1927 г.

Пользуясь методом припасовывания, фазовый портрет ищут путем составления решения нелинейного уравнения типа (2) из кусочков решений линейных уравнений, аппроксимирующих отдельные участки этого решения, и “сшивания” линейных решений исходя из требования непрерывности решения нелинейного уравнения. При этом константу интегрирования линейного решения, отвечающего последующему линейному кусочку, находят путем “припасовывания” этого участка к предыдущему: начальные значения, характеризующие этот участок, должны совпадать с конечными значениями, характеризующими предыдущий участок.

Тот эскиз фазового портрета, который дает метод припасовывания, сильно зависит от начальных значений, при которых получено решение первого линейного уравнения, словом, от того, при каких условиях начато “припасовывание”. При помощи метода точечных отображений этот недостаток может быть отчасти преодолен: во внимание может быть принят интервал возможных начальных значений. Так или иначе, метод припасовывания позволяет судить о характере фазового портрета решаемой задачи и оценить количественные характеристики этого портрета. Он как бы открывает дверь в фазовое пространство, находясь в котором надо уже двигаться по иным законам – не по законам эмпирических наблюдений и правил, а по законам строгой математической теории – качественной теории дифференциальных уравнений.

Выше упоминался другой приближенный метод – метод медленно меняющихся амплитуд, разработанный ван дер Полем. Этот метод тоже использовался для эвристических соображений, касающихся фазового портрета. В 1930 г. Андронов и Витт при помощи метода медленно меняющихся амплитуд рассмотрели явление “захватывания”, имеющего место в неавтономной системе (в отличие от уравнений (1) и (2), описывающих автономные системы, в уравнениях для неавтономных систем присутствует член, учитывающий периодическую внешнюю силу)*. При этом они получили образ этого явления в фазовом пространстве, т.е. проследили изменение фазового портрета автоколебательной системы с изменением частоты внешней силы[ccx].

Метод медленно меняющихся амплитуд состоит в замене уравнения (1) более простыми “укороченными” уравнениями, чье решение аппроксимирует решение исходного уравнения при малых значениях параметра m. В книге Андронова, Витта и Хайкина объясняется соотношение фазовых портретов исходного уравнения и фазового портрета “укороченных уравнений”. Система координат исходного уравнения, помещенная на фазовую плоскость “укороченных” уравнений, вращается по часовой стрелке с угловой скоростью, равной 1. Предельным циклам исходного уравнения соответствуют окружности состояний равновесия на фазовом портрете “укороченных” уравнений, спиралям, накручивающимся на предельные циклы, – прямые траектории на этом вспомогательном фазовом портрете.

Разумеется, эти соответствия ведут лишь к предположительному фазовому портрету исходного уравнения. Однако это предположение вводится в контекст строгой математической теории – качественной теории дифференциальных уравнений. Тем самым оно приобретает более высокий статус в структуре физики. Все теории физики предположительны. Однако среди них имеются замкнутые концептуальные системы, оперирующие строгими понятиями и законами. Эту строгость придает им строгий математический аппарат, в рамках которого они формулируются. Благодаря качественной теории дифференциальных уравнений такой теорией становится теория нелинейных колебаний.

Уже в первых своих работах по предельным циклам Пуанкаре Андронов применял другой асимптотический метод – метод малого параметра, введенный Пуанкаре в “Новых методах небесной механики” (этот метод называют также методом Пуанкаре). В 1930-х гг. в соавторстве с Виттом он применял этот метод в области, выходящей за пределы тех исследований, которые велись на основе качественной теории дифференциальных уравнений.

Сопоставив “онтологические” и “эвристические” модели, мы уже затронули третий элемент куновской “дисциплинарной” матрицы – ценности. Для школы Мандельштама был характерен фундаментализм – предпочтение отдавалось общим физическим теориям, а не “продуктивным” моделям. Как сам Андронов, так и Мандельштам истолковывали работу Андронова по предельным циклам Пуанкаре как основополагающую в теории нелинейных колебаний. Они считали, что благодаря этой работе теория нелинейных колебаний обрела строгий математический аппарат и тем самым приблизилась по своему статусу к фундаментальной теории (типа механики, электродинамики и т.д.). Ван дер Поль, развивший теорию электрических колебаний и публиковавший свои исследования одновременно с Мандельштамом и Андроновым, не только использовал приближенные методы, он декларировал принципиальную важность этих методов[ccxi]. Мандельштам и Андронов, отдавая должное эффективности методов ван дер Поля, отмечали, что им не было создано теории, “адекватной” рассматриваемому предмету и ведущей к далеко идущим качественным предсказаниям.

В своем предисловии к книге Андронова, Витта и Хайкина Мандельштам подчеркнул концептуальную значимость этой работы. В ней не только разбирались методы, учитывающие нелинейность в виде поправки к линейным расчетам, но и создавался специфический язык нелинейной физики. “В сложной области нелинейных колебаний, – предсказывал Мандельштам, – выкристаллизуются свои специфические общие понятия, положения и методы, которые войдут в обиход физика, сделаются привычными и наглядными, позволят ему разбираться в сложной совокупности явлений и дадут мощное эвристическое оружие для новых исследований”... Физик, интересующийся современными проблемами колебаний, должен уже теперь участвовать в продвижении по этому пути”[ccxii].

Сказанное не означает, что Мандельштам, Андронов, их сотрудники и ученики недооценивали приближенные методы. Скорее наоборот, почти все их работы 30-х гг. связаны с применением приближенных методов. Предпочтение, отдаваемое точным методам, было своего рода регулятивной идеей. Оно определяло изложение материала в учебниках и обзорных статьях. Кроме того, это предпочтение стимулировало работу по обоснованию приближенного метода медленно меняющихся амплитуд (Л.И.Мандельштам и Н.Д.Папалекси, 1935 г.). И наконец (и это, пожалуй, самое главное), поставив во главу угла качественную теорию дифференциальных уравнений, Андронов в соавторстве с рядом своих сотрудников и учеников разработал теорию эволюции фазового портрета системы, имеющей место при изменении параметра системы. Эта разработка началась с упоминавшегося выше исследования “мягкого” и “жесткого” возбуждения лампового генератора и привела к обогащению теории нелинейных колебаний концепциями “смены устойчивости” и точек бифуркации.

Интересно отношение школы Мандельштама к методу малого параметра, упоминавшемуся выше. Андронов вспоминает, что Мандельштам первоначально скептически оценивал этот метод. “Это все же какой-то асимптотический метод, какой-то корреспонденц-принцип”, – говорил Мандельштам[ccxiii]. Однако впоследствии он не только одобрил работы своих учеников, использовавших метод малого параметра, но и сам вместе с Н.Д.Папалекси применил этот метод в статье об явлении резонанса второго рода (1934–35 гг.). Андронов и Витт использовали метод малого параметра при расчете системы с двумя степенями свободы. Они сами отмечали, что эта система пока слишком сложна для рассмотрения ее с позиций качественной теории дифференциальных уравнений[ccxiv]. Тем не менее, руководствуясь той шкалой ценностей, которая была принята в школе Мандельштама, Г.С.Горелик, один из последних аспирантов Мандельштама и сотрудник Андронова, писал, что “метод малого параметра занимает в его (Андронова) работах совершенно второстепенное место. Главное в них – применение к исследованию нелинейных колебаний качественной теории дифференциальных уравнений и связанных с ней топологических методов”[ccxv].

И наконец, четвертый компонент “дисциплинарной матрицы” – примеры, на которых отрабатывается формулирование и решение задач, примеры, показывающие как конкретизировать “символические обобщения” и применять к ним “предписания”, как “эвристические модели” позволяют построить “онтологическую модель”. Как отмечалось выше, теория нелинейных колебаний первоначально складывалась как теория простого радиотехнического устройства – лампового генератора. Это устройство и служило “разделяемым примером”, на котором в учебниках объяснялось понятие автоколебаний и использование предельных циклов Пуанкаре для описания автоколебаний. В “Лекциях по колебаниям” Мандельштам приводит еще один пример – маятник Фроуда, в книге Андронова, Витта и Хайкина ламповый генератор соседствует с часами.

Парадигма “в работе”

Чтобы пояснить ту роль, которую играла парадигма в становлении теории нелинейных колебаний, рассмотрим, как были решены две задачи: задача о колебаниях в мультивибраторе Абрагама и Блоха (системе, не содержащей заметных индуктивностей) и задача о колебаниях скрипичной струны. Первая задача (1930 г.) привела к формированию учения о релаксационных колебаниях, сильно несинусоидальных колебаниях, состоящих из быстрых и медленных движений. Вторая (1936 г.) означала прорыв в область распределенных систем, непрерывных сред. В своих первых работах, инициированных андроновским применением предельных циклов Пуанкаре, Мандельштам, его сотрудники и ученики имели дело исключительно с сосредоточенными системами, колебания которых являются пространственными перемещениями – качаниями маятника, движениями электрического заряда. Хотя параметры, определяющие поведение таких систем – масса маятника, индуктивность и емкость в колебательном контуре, – практически не являются точечными, а распределены по своим пространственным областям, от этой их неточечности можно отвлечься. Сосредоточенные системы описывают обыкновенные дифференциальные уравнения, распределенные – уравнения в частных производных.

Задачей о мультивибраторе Абрагама–Блоха занялся Андронов непосредственно вслед за своими основополагающими работами по концепции автоколебаний. Руководствуясь аналогией с ламповым генератором, он описал эту систему как автоколебательную. Но перед ним встали теоретические трудности. Приняв естественную идеализацию, отбросив малые “паразитные” индуктивности, Андронов получил дифференциальные уравнения первого порядка, которые не только не давали предельного цикла, но и показывали, что такового быть не может. Чтобы решить эту задачу, Андронову пришлось обусловить свою идеализацию дополнительной гипотезой и сконструировать соответствующий аналог предельного цикла Пуанкаре. Это означало развитие понятия автоколебаний: наряду с обычными томсоновскими автоколебаниями, наблюдаемыми в простом ламповом генераторе, были описаны релаксационные автоколебания, состоящие в чередовании “быстрых” и “медленных” движений.

Андронов сам дал следующее описание этой истории:

“В 1929 г. я стою, – как дальше будет видно, в известном смысле слишком прямолинейно, на той точке зрения, что математическим образом незатухающих колебаний, или автоколебаний, является предельный цикл Пуанкаре. Я рассматриваю различные системы и ищу везде предельные циклы. Однако, я беру обычную идеализированную схему мультивибратора Абрагама – Блоха, содержащую одни только емкости, но показывающую автоколебания. Я пишу дифференциальные уравнения динамики, ищу цикл, но без результатов. Более того, я смог доказать, что рассматриваемые дифференциальные уравнения не могут иметь предельного цикла. Вместо цикла я нашел специфическую кривую, показывающую, что фазовая скорость становится бесконечной. Наличие такой кривой не позволяет однозначно установить движение изображающей точки. Получается парадокс: автоколебания означают циклы, циклов нет, а система совершает автоколебания. С этим парадоксом я пришел к Мандельштаму, который немедленно понял, в чем дело. После некоторой дискуссии он подытожил: “Если доказано, что циклов нет, это уже что-то. Поскольку система совершает колебания, то либо ваша идеализация негодна, либо Вы не знаете, как с ней работать”. Он добавил, что уезжает в Ленинград и постарается там обдумать этот парадокс. По возвращении из Ленинграда он сказал следующее: “Мы с Н.Д.Папалекси думаем, что с вашей идеализацией можно работать и найти периодическое решение, интересное с физической точки зрения. Но это решение не будет принадлежать к непрерывным решениям, которые вы ищете. Это будет разрывное решение, т.е. соответствующее движение изображающей точки будет совершать мгновенные скачки. Мы думаем, что можно найти периодическое решение, если ввести дополнительную гипотезу, что при этих изменениях энергия, запасенная в конденсаторах, изменяется непрерывно”. Вскоре я вместе с Виттом попытались реализовать эти соображения Мандельштама. Преодолев некоторые вычислительные трудности, мы нашли разрывное периодическое решение”[ccxvi].

Итак, задача о мультивибраторе Абрагама–Блоха была решена Андроновым в два этапа.

I. (1): Он исходил из двух нелинейных дифференциальных уравнений, соответствующих “символическому обобщению”; (2): для каждого из двух колебательных контуров мультивибратора – свое уравнение. При этом, исключив малые, “паразитные” индуктивности цепи, он получил два уравнения первого порядка.

Андронов строго показал, что эта система уравнений “не допускает никаких непрерывных периодических решений”. В то же время парадигмальные задачи подсказывали ему, что система является автоколебательной, т.е. совершает непрерывное периодическое движение.

II. Обсудив вопрос с Мандельштамом, Андронов в соавторстве с Виттом решил “головоломку”. Удерживая ту же идеализацию, он принял “гипотезу скачка”, подсказанную ему Мандельштамом и Папалекси. Эта гипотеза, состоящая в том, что напряжения на конденсаторах непрерывны, позволяет “достроить” фазовую траекторию уравнений мультивибратора до предельного цикла в четырехмерном фазовом пространстве. Изображающая точка, достигнув критического значения (скорость изменения напряжения на сетке обращается в бесконечность), совершает скачок в точку кривой, определенной указанными условиями непрерывности, и затем снова движется по фазовой траектории этих уравнений.

Задачу о колебаниях скрипичной струны решал Витт, который еще в 1934 г. опубликовал статью о “распределенных автоколебательных системах”. В этой работе, однако, как Витт сам оговаривает, он действовал весьма грубыми приближенными методами. Во-первых, он рассматривает нелинейные системы как слабо нелинейные, что дает ему возможность применять метод малого параметра, причем в его самом простом варианте, где учитывается только первый член ряда по степеням параметра m. Во-вторых, Витт предполагает, что теорема Ляпунова об устойчивости, справедливая для концентрированных систем, имеет силу и для распределенных систем.

В статье о колебаниях скрипичной струны Витт уже работает в рамках парадигмы теории нелинейных колебаний. Математически эта задача формулируется в виде системы дифференциальных уравнений в частных производных: волновое уравнение и уравнения, выражающие граничные условия – одно из них нелинейное. Чтобы привести задачу к виду, соответствующему “символическому обобщению” (1) – (2), Витт использует метод точечных отображений (см. выше). Иными словами, он из уравнений в частных производных получил “функциональное уравнение”, к которому в соответствии с методом точечных отображений приводятся задачи с обыкновенными дифференциальными уравнениями. “Чтобы получить универсальные соотношения, мы будем пользоваться безразмерными величинами, – пишет Витт. – Положение точки на струне мы будем измерять величиной y= x / l, где x – расстояние рассматриваемой точки струны от закрепленного конца, l – длина половины струны, время мы будем измерять отношением t = tc/l= 4t/T, где c – скорость распространения колебаний в струне, t – время, T – период основного тона свободных колебаний. Обозначим через u отношение v/l, где v – смещение струны. По Даламберу:

u= f 1 (t - y) + f 2 (t + y) (а)

 

при y = 0: u = 0 и, следовательно, ъ=0 (для t>0) (б)

 

при y=1: ¶uy= -Fut-a[ccxvii]. (для t>0) (с)

 

Нелинейная функция Ф представляет действие смычка на струну. Подставляя (а) в (б) и (с) и учитывая начальные условия, Витт приходит к функциональному уравнению, позволяющему искать предельные циклы на фазовой плоскости:

f (t + T) = y(f (t))

 

с начальными значениями f (t ) = f 0 (t) 0 < t < T.

 

Это уравнение, определяющее точечные отображения, он исследовал при помощи итераций. При этом он ввел понятие стационарной последовательности, примерами таких последовательностей служат последовательности, все члены которых одинаковы, и периодические последовательности. Он также ввел понятие последовательности, устойчивой по Кёнигсу. Аналогия с предельными циклами возникает, когда эти последовательности наносятся на диаграммы Лемерея (графики функции y(f (t)) в декартовых координатах f (t) = х и f (t + T) = y).

Витт рассматривал пример весьма простой распределенной нелинейной системы: нелинейность у него была сосредоточенной в точке соприкосновения смычка и струны. Систематическое исследование нелинейных колебаний распределенных систем началось позже – в 50-х гг. И проводилось уже не в рамках “парадигмы автоколебаний”, а “идеологии автоколебаний”.

Идеология теории нелинейных колебаний

Вслед за Куайном, сопоставлявшим онтологию и идеологию теории, мы будем понимать под последней языковые ресурсы теории, ту дескриптивную терминологию, которая приходит в науку вместе с данной теорией. Идеологию можно понимать также как множество понятий, находящих выражение на языке теории (вместе с понятиями идеологию составляют наглядные модели и иллюстрации, поясняющие понятия)[ccxviii].

Идеология теории нелинейных колебаний – это в первую очередь понятие автоколебаний, введенное, как отмечалось выше, Андроновым в статьях 1928–1929 гг. Фактически с автоколебаниями имел дело и ван дер Поль, описывая незатухающие колебания в ламповом генераторе, но он не вводил для них специального термина. Андронов же не только ввел специальный термин, он придал этому явлению теоретическую глубину, связав автоколебания с предельными циклами на фазовой плоскости. И до Андронова радиоинженеры и радиофизики знали, что для лампового генератора типичны незатухающие колебания, характеризующиеся своей специфической амплитудой, независящей от условий возбуждения этих колебаний. Андронов, однако, сделал это понятие теоретическим. Он показал, что устойчивость автоколебаний может пониматься в математическом смысле и эксплицируется как устойчивость по Ляпунову и грубость колебательной системы.

Понятие автоколебаний стало набирать авторитет после Первой Всесоюзной конференции по колебаниям (1931 г.), которую провела школа Л.И.Мандельштама[ccxix]. Автоколебания были в центре внимания этой конференции. Мы читаем в одной из статей 1936 г., что “в настоящее время существует математически строгая и физически адекватная теория обширного класса автоколебательных явлений, доказавшая свою плодотворность в большом числе исследований”[ccxx]. “Явление автоколебаний… встречается в природе на каждом шагу”, – пишет в своем учебнике Г.С.Горелик, о подходе которого к методу малого параметра шла речь выше[ccxxi]. “Советскими учеными, – говорится в одном из обзоров, – по существу была создана новая область науки о колебаниях – область автоколебаний, которая в настоящее время пополняется новыми исследованиями и результатами”[ccxxii].

В послевоенные годы появляются книги, специально посвященные автоколебаниям. В 1944 г. вышла книга К.Ф.Теодорчика, занявшего в 1939 г. пост. и.о. заведующего кафедрой колебаний, основанной Л.И.Мандельштамом. Книга называлась “Автоколебательные системы”, и она выдержала три издания. Три издания выдержала и книга крупного специалиста по проблемам автоматического регулирования А.А.Харкевича “Автоколебания”. В предисловии к этой книге, написанной “без единой математической формулы в основном тексте”, констатируется “широкое значение автоколебаний не только для техники, но и вообще для естествознания”[ccxxiii].

Идеология возникает вместе с парадигмой, можно также сказать, что парадигма несет некую идеологию. Однако идеология распространяется дальше парадигмы. Выше мы охарактеризовали четыре составные части парадигм по Куну: “символические обобщения” (обычно это – дифференциальные уравнения), “предписания” (обычно это – методы решения дифференциальных уравнений), ценности, устанавливающие иерархию среди предписаний, и разделяемые примеры, достаточно простые задачи, позволяющие объяснить, каким образом “предписания” обеспечивают применение “символических обобщений”. Как “символические обобщения”, так и “предписания” обусловлены определенными правилами (например, правилами математики). Идеология же – это слова и выражения, значения которых разъясняются на примерах (аналогиях и иллюстрациях). Применение этих слов и выражений направляется интуицией. Конечно, в каждом научном сообществе – своя интуиция. Но интуиция может идти дальше правил и даже ставить проблемы, требующие ревизии правил. Значения слов и выражений могут развиваться, образуя то, что Л.Витгенштейн называл “семейные сходства”. Например, значение слова “игра”, которое Витгенштейн берет в качестве образца, допускает такие примеры, как шахматы, пасьянс, хоровод. Значение же слова “автоколебания” может быть разработано в ряде иллюстраций, начинающихся ламповым генератором, маятником Фроуда и механическими часами и включающим скрипичную струну, возбуждаемую смычком, звезды переменной яркости (cepheids), сердце и “биологические часы”. Если же обратиться к такому предикату, как “быть обусловленным свойствами самой системы, а не начальными условиями”, то этот ряд пополнится такими объектами, как автоволны и диссипативные структуры.

Одним из важных признаков идеологического применения понятия является размывание его содержания. Понятие как бы выходит за пределы своей области применения. По сути дела это значит, что формулируются аналоги этого понятия, что возникают новые понятия под тем же самым термином, причем понятия, не определенные четко.

Первым таким порогом, который преступило понятие автоколебаний, был порог между автоколебаниями и вынужденными колебаниями. “В связи с открытием новых принципов генерации автоколебаний и развитием уже известных, понятие автоколебаний после второй мировой войны значительно расширилось. В частности, к автоколебаниям стали относить не только те незатухающие колебания, энергия которых черпается из постоянного источника, но и те колебания, которые поддерживаются за счет энергии другого достаточно сильного колебательного процесса, возбуждаемого извне... (такие колебания могут быть полностью погашены изменением какого-либо параметра системы, скажем, затухания или расстройки)”[ccxxiv].

Продолжением этого процесса размывания оказывается репликация понятия в виде лингвистических аналогов. По отношению к автоколебаниям таковой явилось появление понятий автоволны и автоструктуры. Первое ввел Р.В.Хохлов в отзыве на докторскую диссертацию А.М.Жаботинского, посвященную колебательным химическим реакциям (1972 г.). Хохлов имел в виду, что Жаботинский описал не только собственно химические автоколебания, но и похожие волновые процессы, похожие в смысле их суверенности – независимости от начальных и, до некоторых пределов, граничных условий и определимости параметрами системы.

Понятие автоструктур появляется в совместной статье двух авторов, относящих себя к школе Мандельштама, – А.В.Гапонова-Грехова (бывшего аспиранта Андронова) и М.И.Рабиновича[ccxxv]. Под автоструктурой понимается устойчивая пространственная или временная упорядоченность, возникающая в распределенной системе с явно выраженной нелинейностью и находящейся далеко от равновесного состояния. Свойством автоструктур снова являются их относительная независимость от начальных и граничных условий.

Нетрудно видеть, что при формулировании таких понятий, как автоволны и автоструктуры, используется не просто какое-либо определение автоколебаний, но языковые формы, заложенные в этих определениях. Эти языковые формы передают уже не просто интуицию предельного цикла, которую несут определения автоколебаний, но скорее интуицию аттрактора вообще.

Выше упоминалась статья Гапонова–Грехова и Рабиновича, в которой вводились “автоструктуры”. В интервью, данном автору этих строк (22.05.1992), в ответ на вопрос: “Нельзя ли сказать, что для Вас существенна некая “автоколебательная идеология”?” – М.И.Рабинович сказал: “Да, безусловно. На самом деле даже не в слове дело. Просто автоколебания, как и автоволны, которые придумал Р.В.Хохлов. Он придумал не сами волны, а слово, очень удачный оборот… Но, понимаете, очень удачное слово. Я практически всю жизнь занимаюсь нелинейными диссипативными неравновесными системами. Это могут быть среды. Я, как правило, волновыми задачами занимаюсь или турбулентностью, но там всегда есть диссипация. У меня гамильтоновы системы, системы без трения, без диссипации, всегда предельный случай. Мне интереснее всегда были системы с аттракторами, у которых при t ® ¥ всегда что-то устанавливается: хаос, так хаос, периодические колебания, так периодические колебания, стохастические структуры – ради бога. В этом смысле для меня структуры и динамический хаос – просто разные типы аттрактора, которые устанавливаются при t, стремящемся к бесконечности, в процессе эволюции поведения системы. Меня всегда интересовали системы, в которых что-то устанавливается, в которых есть нечто объективное, независимое от начальных условий”.

Итак, М.И.Рабинович увлечен не столько самой концепцией автоколебаний, сколько содержащейся в ней идеей суверенности, несущей интуицию аттрактора.

Заключение

При философской квалификации научной теории упор обычно делают либо на ее описательные возможности, либо на ее объяснительный инструментарий. В настоящей статье во внимание приняты обе эти ипостаси теоретического знания. Парадигма – это руководство по решению задач, по построению научных объяснений и предсказаний. Идеология же – это язык, аппарат научного описания, простирающегося, как правило, за пределы объяснительных ресурсов.

 

П.С.Исаев

Некоторые проблемы физики элементарных частиц в области высоких энергий

Физика элементарных частиц за вторую половину ХХ века сделала такой гигантский шаг вперед, продвинулась с такой громадной скоростью в область новых явлений и закономерностей, ввела так много новых понятий, во многом, тем не менее, не отрываясь от квантово-механических представлений, развитых в 20x – 30x годах нашего столетия, что настало время осмотреться, осмыслить пройденный за полвека путь и ответить на ряд фундаментальных вопросов: был ли пройденный путь единственным? Почему не был решен ряд важных проблем, поставленных перед учеными самой природой? Не оказалась ли физика элементарных частиц вследствие неосмотрительно быстрого (и потому не всегда должным образом обоснованного) движения вперед в идейном тупике?

В предисловии к немецкому изданию своей книги “Физика в жизни моего поколения” лауреат Нобелевской премии Макс Борн писал: “...В 1921 году я был убежден, и это убеждение разделялось большинством моих современников-физиков, что наука дает объективное знание о мире, который подчиняется детерминистическим законам. Мне тогда казалось, что научный метод предпочтительнее других, более субъективных способов формирования картины мира – философии, поэзии, религии. Я даже думал, что ясный и однозначный язык науки должен представлять собой шаг на пути к лучшему пониманию между людьми.

В 1951 году я уже ни во что не верил. Теперь грань между объектом и субъектом уже не казалась мне ясной; детерминистические законы уступили место статистическим; и хотя в своей области физики всех стран хорошо понимали друг друга, они ничего не сделали для лучшего взаимопонимания народов, а, наоборот, лишь помогли изобрести и применить самые ужасные орудия уничтожения.

Теперь я смотрю на мою прежнюю веру в превосходство науки перед другими формами человеческого мышления и действия как самообман, происходящий оттого, что молодости свойственно восхищение ясностью физического мышления, а не туманностью метафизических спекуляций”[ccxxvi].

Со дня написания этих строчек прошло более сорока лет, однако, я думаю, что точка зрения Борна на научное знание не потеряла своей актуальности и сегодня, а для меня, прежде всего, может быть потому, что я уже вышел из возраста “восхищения ясностью физического мышления” и перешел в категорию людей, задумывающихся над философской, поэтической, религиозной картиной мира.

Есть смысл взглянуть на проблемы современной физики элементарных частиц с более общих научно-методических, научно-философских, а не только чисто научных, позиций, не обращаясь за доказательствами к строгой математике.

Современное состояние физики элементарных частиц разными специалистами оценивается по-разному. Обычно его оценивают как имеющее большие успехи. И это верно. Однако с большой убедительностью его можно оценить как кризисное, ибо трудности финансовые, научно—методические и трудности стандартной модели ведут к затяжному застойному периоду.

В конце 1993 года конгресс США принял решение прекратить финансирование строительства SSC, выделив сравнительно небольшую сумму на “терминацию” проекта. Более 2000 ученых, инженеров, строителей остались без дела. Это – трагедия научная и человеческая. Если бы СССР как великая держава не распался, сверхпроводящий суперколлайдер (SSC) на энергии протонов 2х20 ТэВ был бы построен в США к 1999 г. (хотя бы из соображений конкуренции) и приглашение директора SSC проф. Швиттерса ученым мира принять участие в научной конференции в Далласе в 1999 г., посвященное первым научным результатам, полученными на SSC, осталось бы в силе.

Продвижение “в глубь материи” в связи с созданием мощных ускорителей, огромных экспериментальных установок, с участием в каждом эксперименте большого числа людей (иногда более сотни исследователей) стало весьма дорогостоящим делом.

Такие науки, как физика элементарных частиц или космология, являются науками, прикладное значение которых в наше время кажется не очень заметным (хотя бесспорно, что фундаментальные открытия Фарадея и Максвелла окупили расходы на фундаментальную науку на многие столетия вперед). “...Современное развитие науки происходит в обществе, главная концепция рационализма которого следует доктрине инструментализма: истина ценится меньше, чем полезность...”[ccxxvii]. Не этой ли доктриной объясняется тот факт, что ныне прикладные исследования в США получают все большую финансовую поддержку по сравнению с фундаментальными исследованиями?

Заметную роль в развитии кризиса фундаментальных исследований в области физики элементарных частиц может играть изменение взглядов на принцип редукционизма, согласно которому все явления природы можно свести к нескольким элементарным, первичным законам и из них путем чистой дедукции вывести строение и развитие Вселенной и, может быть, развитие жизни на Земле. Редукционистский взгляд на науку придавал физике элементарных частиц статус “самой главной”, “фундаментальной” науки среди всех других фундаментальных наук. В последней четверти ХХ в. начинает утверждаться иная точка зрения: каждый уровень науки, каждая наука (физика, химия, биология и т.д.) имеет свои собственные фундаментальные законы, не сводимые к нескольким элементарным, первичным.

Швебер пишет, что Эйнштейн выступил сторонником всеобщего единства, связанного с радикальной формой теории редукционизма. В 1918 году Эйнштейн сказал: “Наивысшей проверкой физики будет достижение тех универсальных элементарных законов, из которых космос может быть построен путем чистой дедукции”. В частности, гипотеза Большого Взрыва есть реализация эйнштейновской теории редукционизма в самом рафинированном виде. По Швеберу, всеобщее единство и редукция являются двумя принципами, которые доминировали в фундаментальной теоретической физике в течение двадцатого столетия. Один характеризовал надежду дать единое описание всех физических явлений, другой стремился уменьшить число независимых концепций, необходимых для формулировки фундаментальных законов. Огромные успехи физических наук и молекулярной биологии подтверждали подобную точку зрения. Однако вскоре стало очевидным, что описание явлений, например, в физике конденсированных сред не нуждается в знании законов взаимодействия элементарных частиц на малых расстояниях (при очень высоких энергиях). Две ветви физики – физика элементарных частиц и физика конденсированных сред – становятся в некотором смысле “разделенными”, например, в том смысле, что существование t-кварка или какой-либо новой тяжелой частицы в физике элементарных частиц не оказывало влияния на описание явлений в другой ветви физики.

В 1972 году Филипп Андерсон, известный специалист в области физики конденсированных сред, бросил вызов радикальной теории редукционизма. Он заявил: “...гипотеза редукционизма не означает ничего более, как “конструкционизм”: возможность свести все явления природы к простым фундаментальным законам не означает возможности исходя из этих законов реконструировать Вселенную. В действительности, чем больше физика элементарных частиц говорит нам о природе фундаментальных законов, тем менее отношения они, кажется, имеют к реальным проблемам остальной науки, и еще менее к самому обществу. Гипотеза конструкционизма нарушается, когда приходит в столкновение с двойными трудностями шкалы и сложности...”[ccxxviii]. Андерсон верит в существование дополнительных законов, которые не менее фундаментальны, чем в физике элементарных частиц. Исследования материи на каждом уровне ее сложности, по Андерсону, так же фундаментальны, как и в физике элементарных частиц.

Большую роль в возникновении кризиса физики элементарных частиц играет постулат о “принципиальной ненаблюдаемости кварков” в смысле принципиальной невозможности видеть кварки в свободном состоянии – тезис, неприемлемый с точки зрения научно-философской. Физики начинают изучать свойства кварков и глюонов не в результате непосредственного наблюдения взаимодействия свободных кварков и глюонов со свободными элементарными частицами и друг с другом, а опосредованно, через наши представления о возможной природе кварков и глюонов. Много ли нового и верного мы могли бы сказать сегодня о строении ядра атома, если бы Резерфорд постулировал в свое время, что ядро атома существует, но оно “принципиально не наблюдаемо” (в смысле невозможности видеть его в свободном состоянии)?

Вводя понятие материального, но принципиально не наблюдаемого объекта, физика начинает терять статус экспериментальной науки и превращается в объект теоретических спекуляций. Грань, отделяющая науку экспериментальную от спекулятивной, становится неясной. Утверждается вера в то, что физика “принципиально ненаблюдаемых” кварков и глюонов – это все еще физика реально существующих объектов. Струйность явлений воспринимается как фрагментация ненаблюдаемых, но реально существующих кварков и глюонов в адроны. “Post hoc ergo proptev hoc”. Мы имеем дело с хорошо известной нам аналогией: Бог есть, но Бог принципиально не наблюдаем. Каждый воспринимает его по-своему. Можем ли мы составить научный портрет Бога?

Физики уже на сегодняшнем этапе не имеют морального права мириться с современной теорией, научно-философские установки которой противоречат статусу экспериментальной науки.

Кварки возникли из преувеличенного внимания к симметриям, господствующим в теории элементарных частиц на протяжении всей второй половины ХХ века. В лагранжиан взаимодействия стандартной модели кварки вошли как точное следствие неточной SU(3)-симметрии, выполняющейся на эксперименте с точностью ~10% (кварки вошли как фундаментальное представление SU(3)-симметрии).

Я вполне допускаю мысль, что именно недостаточно обоснованное (физически) введение кварков в физику элементарных частиц привело к необходимости провозгласить совершенно неприемлемый постулат о “принципиальной ненаблюдаемости кварков” – в смысле принципиальной невозможности наблюдать их в свободном состоянии.

Доказательств существования кварков много. Однако и веры в то, что кварки – всего лишь способ описания экспериментальных данных (и не более того!) тоже довольно много.

Помимо неприемлемости тезиса о “принципиальной ненаблюдаемости кварков и глюонов” (с точки зрения научно-философской), стандартная модель обладает рядом других недостатков. Она содержит 18 свободных параметров: две константы связи (e и a(q2)), двенадцать масс фермионов и бозонов (массы кварков – u, d, s, c, b, t, массы лептонов – e, m, t, массы бозонов Wt±,Z°,c, (c- хиггсовский бозон)), четыре угла смешивания в матрице Кобаяши—Маскава. Если у нейтрино есть масса (а по моему глубокому убеждению масса покоя нейтрино равна нулю – об этом ниже я буду говорить), то в лагранжиан взаимодействия стандартной модели следует добавить еще 7 параметров – три массы лептонных нейтрино ne, nm, nt и еще 4 угла смешивания. Таким образом, общее число свободных параметров увеличивается до 25, что, конечно, недопустимо для хорошей теории. До сих пор не открыт хиггсовский бозон. Хиггсовский бозон является обязательно существующей частицей в стандартной модели. Если он не будет найден, то стандартную модель придется считать неверной, от нее придется отказаться. Однако до тех пор, пока нет другой общепринятой теории, мы не можем говорить о какой-либо иной реальности, кроме той, которая содержится в лагранжиане стандартной модели.

“В каждой естественной науке заключено столько истины, сколько в ней математики” (И.Кант). Однако только сама природа решает, какая математика адекватна ее закономерностям, а какая – нет. Но даже если наши представления о структуре материи, о ее составляющих – кварках и глюонах – окажутся неверными и нам придется отказаться от них в будущем, то мы не можем жалеть о пройденном пути – за это время мы успели узнать удивительно много нового о природе микромира. Кстати, Пуанкаре писал, что в физике невозможно обойтись без гипотез (верных или неверных) “...и часто ложные гипотезы оказывали больше услуг, чем верные”[ccxxix].

Усилия, потраченные на создание стандартной модели? настолько велики, сама стандартная модель настолько выстрадана и настолько глубоко пронизана всеми достижениями теоретической и экспериментальной физики элементарных частиц, что отречься от нее или как-то изменить ее простым путем невозможно. Такое кризисное состояние несоответствия теории реальному миру элементарных частиц может оказаться весьма затяжным.

Выход из создавшегося положения может быть найден на пути решения ряда проблем, могущих кардинальным образом изменить наши представления о микромире. С моей точки зрения? до сих пор не существует окончательного ответа на ряд вопросов.

Я думаю, что до сих пор не ясно, существует в природе одна L°-частица или их две? Экспериментальные данные, публикуемые Particle Data Group, допускают возможность существования двух, разных по массе L°-частиц. Я обсуждал эту возможность в работе[ccxxx].

Неясно, по какому закону кинетическая энергия сталкивающихся частиц переходит в массу покоя (например, в реакции p+L à p+ K). Соотношение Эйнштейна E = mc2 лишь постулирует эквивалентность массы и энергии, но не отвечает на поставленный вопрос. Дискретный спектр масс элементарных частиц явно указывает на существование условий, при которых энергия сталкивающихся частиц определенными квантами переходит в массу покоя. В работе[ccxxxi] я высказал положение о том, что энергия сталкивающихся частиц переходит в массу покоя в том случае, когда действие[ccxxxii] пропорционально целочисленному значению постоянной Планка.

До сих пор не было проведено целенаправленного поиска частиц со странностью S ³ 4. Может быть, теперь, когда создание SSC откладывается на неопределенный срок, экспериментаторы смогут в более спокойной творческой атмосфере, с большей статистикой определить, существуют ли две разных L°-частицы, и ответить на вопрос, существуют ли частицы со странностью S ³ 4.

Закономерности в природе существуют потому, что существует стабильность материи и повторяемость событий. Это негласно принятые нами постулаты. Однако сроки существования естественных экспериментальных наук слишком малы (всего несколько столетий), чтобы мы настаивали на неизменности форм фундаментальных составляющих материи. Русский ученый Н.И.Пирогов был ярым противником раз и навсегда данных неизменных атомов: “...Остановиться мыслью на вечно движущихся и вечно существовавших атомах я не могу теперь – вещество бесконечно делимое, движущееся и бесформенное само по себе, как-то случайно делается ограниченным и оформленным...”[ccxxxiii].

Пирогов (1810—1881 гг.) считал, что “возможно допустить образование вещества из скопления силы”..., т.е. он угадал и словами выразил то, что было позднее сформулировано Эйнштейном в его знаменитом соотношении E=mc2.

Я допускаю существование двух основных принципов развития форм материи во Вселенной.

1. Принцип рождения себе подобных видов материи. Этот принцип обеспечивает стабильность материи во Вселенной и повторяемость событий, обеспечивает существование закономерностей, а следовательно, постулируется познаваемость мира.

2. Принцип случайного отклонения от рождения себе подобных, что обеспечивает динамику развития Вселенной, поиск новых закономерностей развития Вселенной, сохраняет ту вечную тайну, которая составляет вечную сущность научно-исследовательского труда.

С точки зрения философской, здесь высказаны тезис, антитезис и синтез – знаменитая Гегелевская триада (развития Вселенной). Мы должны отказаться от принципа тождественности элементарных частиц одинакового сорта, если допускаем изменение масс во времени и пространстве.

Как понимается тождественность частиц в современной теоретической физике? Тождественные частицы невозможно различить ни по их внутренним свойствам, ни по их взаимодействию друг с другом, или с другими, отличающимися от них по внутренним свойствам, частицами. Например, все электроны имеют одинаковые значения масс, электрических зарядов, одинаковые спины, одинаковые внутренние четности, одинаковые размеры протяженности в пространстве. (Физики считают, что электроны имеют точечные размеры.) Их нельзя различить по их взаимодействиям с другими частицами (например, протонами, p-мезонами и др.).

В классической механике существует понятие траектории отдельно взятой частицы, что позволяет в принципе различать тождественные частицы в продолжении всего опыта. Даже при взаимодействии тождественных частиц друг с другом можно различать по траекториям частицы первую и вторую до и после взаимодействия. В квантовой механике невозможно различить две тождественные частицы, если волновые пакеты, описывающие эти частицы, перекрывались в процессе взаимодействия, т.е. в квантовой механике невозможно локализовать частицы, не нарушая при этом процесса взаимодействия. В результате возникают квантово-механические эффекты, не имеющие классических аналогий.

Под тождественными частицами понимаются такие частицы, при перестановке которых физическая система, в которую они входили, остается неизменной.

Труднее по сравнению с точечными электронами вообразить себе тождественность таких сложных частиц, как протоны, или мезоны. По современным представлениям протоны состоят из кварков и глюонов. Распределение кварков и глюонов, например, по импульсам в каждом протоне должно быть тождественным распределению кварков и глюонов по импульсам в любом другом протоне. Даже после взаимодействия какого-либо протона, допустим, с ядром какого-либо вещества, которое описывается с современной точки зрения как обмен глюонами или кварками, в рассеянном протоне не должно произойти какого-либо перераспределения по импульсам кварков и глюонов, отличного от невзаимодействовавшего какого-либо другого протона (с той же энергией, импульсом, массой). Вот такое “мгновенное” тождественное выравнивание внутренних распределений кварков и глюонов по импульсам у тождественных частиц кажется уже чрезмерным, непостижимым требованием современной квантовой хромодинамики даже для искушенных теоретиков. Например, в реакции рождения p-мезонов g-квантами на протонах (g + p à p + p) во вновь возникшем p-мезоне с бесконечно большим набором кварк-антикварковых пар и глюонов, их распределения по импульсам должно сразу принять вполне определенный математически строгий, тождественный с другими p-мезонами, вид. Если кварк-глюонное строение вещества признать верным, признать, что кварки и глюоны существуют реально, то с точки зрения “здравого смысла” в него трудно поверить. Если же гипотеза кварк-глюонного строения вещества есть способ математического описания структуры элементарных частиц, позволяющий объяснить все наблюдаемые явления с единой точки зрения, то такое понимание структуры частиц не должно вызывать возражений.

Таким образом, проблема тождественности элементарных частиц в наше время оказывается тесно связанной с проблемой наблюдаемости кварков и глюонов.

Допуская постоянное изменение масс во времени во всей Вселенной, можно прийти к выводам о существовании новых форм относительно стабильной материи, новым типам делимости материи, что и будет составлять сущность вечно меняющейся Вселенной. Может ли современная физика элементарных частиц уловить эти изменения на Земле и во Вселенной в наше время – это подлежит научной проверке. Вводя в теорию новые принципы развития Вселенной, мы придем к совершенно новому лагранжиану взаимодействия элементарных частиц, поймем, что дальше некоторого временного предела и назад, и вперед мы, находясь на Земле, Вселенную изучить не можем, поскольку законы ее развития менялись на разных этапах в прошлом пока не известным нам путем и будут меняться в будущем тоже пока не известным образом и только проникновение человека в космос (лично или его приборов) на дальние расстояния позволит расширить наши знания о путях развития Вселенной и приспособить род человеческий к ее эволюции. Ныне существующий довольно прямолинейный и я бы даже сказал примитивный способ использования стандартной модели для сценария развития Вселенной в виде Большого взрыва уступит место не менее захватывающему и динамичному сценарию, когда одна форма стабильности материи в одной из областей Вселенной будет в грандиозных масштабах превращаться в другую форму стабильности и когда эволюционные периоды развития материи в отдельных областях Вселенной могут сменяться фантастическими по своим размерам катаклизмами.

Отказ от принципа тождественности элементарных частиц приведет к обычному пониманию причинности, наступит эра пересмотра ряда статистических закономерностей. Разброс “тождественных” частиц по массам вместе с признанием принципа изменения масс во времени внесет в понимание развития Вселенной, да и самой жизни на Земле, тот необходимый принцип необратимости явлений во времени, который все мы признаем и испытываем на себе, но от которого сегодня отказываемся при описании явлений в физике микромира. Таким образом, P-нечетность, T-неинвариантность, ныне существующие в теории, получат естественное толкование.

В современной физике элементарных частиц предполагается, что масса элементарной частицы определяется ее взаимодействием с себе подобными или какими-либо другими частицами. Это предположение вместе с принципом тождественности элементарных частиц логически приводит к представлению об абсолютной неподвижности Вселенной. Действительно, во Вселенной существует огромное число пар электронов, тождественных по массе, спину, четности, заряду (или пар других тождественных частиц, например пар протонов и т.д.). Если скорости частиц пары будут разными, то можно найти такую систему координат, в которой они будут двигаться с одинаковыми скоростями относительно начала координат этой системы. Но тогда вся остальная часть Вселенной обязана двигаться симметрично относительно данной пары электронов, чтобы “обеспечить” тождественность их масс. Так как тождественных пар частиц во Вселенной бесконечно много, то будет бесконечно много точек, относительно которых движения всех частей Вселенной должны быть симметричными. Разумным образом удовлетворить такому представлению о движении всех частей Вселенной можно, пожалуй, только предполагая, наоборот, неподвижность всех тел во Вселенной. Очевидно, проще отказаться от принципа тождественности элементарных частиц, либо от постулата о зависимости масс частиц от взаимодействия с другими частицами, чем признать неподвижность тел во Вселенной.

Мы не знаем, изменяется ли масса частиц во Вселенной в зависимости от времени и пространства. Нам трудно предположить, как будут меняться законы физики, химии, биологии и других наук в связи с изменением масс во времени и пространстве. Следовательно, остается неизвестной и эволюция Вселенной. Можно, в частности, предположить, что красное смещение спектральных линий, наблюдаемое в астрофизике, связано не только с расширением Вселенной, но и изменением масс элементарных частиц во Вселенной в зависимости от времени и пространства.

Еще в 1932 году наблюдалась реакция g + ядро ® ядро + (e+e-), т.е. наблюдалось превращение g-кванта в пару (e+e-), без затраты энергии на создание электрического заряда. Природа более шестидесяти лет назад указала на принципиальную возможность рождения элементарной единицы электричества в соударении элементарных частиц, но у нас до сих пор нет ясного представления о динамике возникновения заряда, о природе происхождения электричества. Носителем заряда является масса, однако размер заряда не зависит от величины массы элементарной частицы – он всегда равен ±e. Современные экспериментальные данные указывают на следующие закономерности[ccxxxiv]:

1) в свободном состоянии все нейтральные частицы с массой покоя, отличной от нуля, нестабильны;

2) в свободном состоянии стабильные частицы с массой покоя, не равной нулю (протон, электрон и их античастицы), имеют электрический заряд.

Из этих закономерностей следует, что

1) если заряд нейтрино равен нулю, а его масса отлична от нуля, то нейтрино – нестабильная частица;

2) если нейтрино имеет массу покоя, отличную от нуля, и нейтрино – стабильная частица, то у нейтрино должен быть отличный от нуля электрический заряд, каким бы малым он ни был. Заряженные нейтрино тоже могут быть нестабильными. Однако после цепочки возможных распадов должны оставаться стабильные заряженные нейтрино, ибо, как мы знаем, единственным носителем заряда является масса. Естественнее всего, конечно, предположить, что у нейтрино нет электрического заряда и его масса равна нулю.

Итак, современная теория физики элементарных частиц не имеет решения ряда крупных физических проблем: происхождение массы, электрического заряда, тождественности масс частиц, изменение массы элементарных частиц во времени и некоторых других. Естественно, надо считаться с тем, что некоторые проблемы не могут быть решены на сегодняшнем этапе развития науки – для них не настало время. Можно привести исторический пример. В конце ХIХ – начале ХХ вв. теоретиками обсуждалась проблема структуры атома и электрона. Модель строения атома была дана Резерфордом. Структура электрона рассматривалась в начале ХХ в. в работах Абрагама, Лоренца, Пуанкаре. Однако до сих пор физики считают электрон точечной частицей, и у них нет необходимости отказаться от этого представления.

В цитированной мной в начале статьи книге Макс Борн пишет: “...Человек Запада, не в пример созерцательному жителю Востока, любит рискованную жизнь и физика является одним из его рискованных предприятий”[ccxxxv]. Я не знаю к человеку какого типа (западного или восточного) относит Макс Борн российских физиков, но из его высказывания видно, что чтобы стать настоящими физиками, российские физики обязаны рисковать и в том числе в области создания новой теории физики элементарных частиц. Если в основу теории были бы положены некоторые из упомянутых мною идей и выше названных закономерностей (например, отказ от тождественности элементарных частиц, изменение масс частиц во времени и пространстве, переход энергии в массу и др.), то теория элементарных частиц могла бы пойти иным путем, обогатившись новыми, вполне реальными закономерностями.

 

 

Р.А.Аронов, В.М.Шемякинский

Два подхода к проблеме взаимоотношения
геометрии и физики

Два подхода к проблеме взаимоотношения геометрии и физики – подход А.Пуанкаре и подход А.Эйнштейна; речь идет о возможностях каждого из них в формировании современной естественнонаучной парадигмы, рождающейся в процессе перехода от классической физики через посредство физики квантовой и релятивистской к предполагаемому их единству. Выполненный в статьях[ccxxxvi] анализ тех трудностей и противоречий, с которыми сталкиваются квантовая и релятивистская физика в исследовании микро- и мегамира, привел к выводу о том, что все эти трудности и противоречия так или иначе связаны с проблемой пространства и времени в физике. В ходе исследования различных сторон этой проблемы одна из них все больше и больше выступала как во многом определяющая по отношению ко всем остальным[ccxxxvii]. В конечном счете она предстала именно как вопрос о разных подходах к проблеме взаимоотношения геометрии и физики, прежде всего о подходах к этой проблеме Пуанкаре и Эйнштейна[ccxxxviii].

В современной физике господствует мнение, которое наиболее отчетливо выразил В.Гейзенберг в статье “Развитие понятий в физике ХХ столетия”: эйнштейновский подход к проблеме взаимоотношения геометрии и физики “переоценил возможности геометрической точки зрения. Гранулярная структура материи является следствием квантовой теории, а не геометрии; квантовая же теория касается очень фундаментального свойства нашего описания Природы, которое не содержалось в эйнштейновской геометризации силовых полей”[ccxxxix].

Разумеется, можно спорить о том, переоценил эйнштейновский подход возможности геометрической точки зрения или не переоценил. Но представляется бесспорным, что утверждение Гейзенберга: “гранулярная структура материи является следствием квантовой теории, а не геометрии”, – является неточным. Материя обладает структурой до, вне и независимо от какой бы то ни было теории. Что же касается геометрии, то хотя из контекста статьи Гейзенберга неясно, о чем именно идет речь – о гносеологическом аспекте проблемы (о геометрии как о фрагменте математики или же об онтологическом (о геометрии реального пространства), однако и в том, и в другом случае структура материи не является следствием геометрии. В первом – по той же причине, по какой она не является следствием квантовой теории. Во втором – потому, что сама геометрия реального пространства является одним из аспектов структуры материи[ccxl].

Верно, конечно, что квантовая теория отражает такие свойства природы, информация о которых не содержалась в эйнштейновской геометризации силовых полей. Но ведь геометрическая точка зрения и та конкретная форма, в которой она представлена в эйнштейновской попытке геометризации силовых полей, – это отнюдь не одно и то же. В конечном счете именно последнее обстоятельство обусловило то, что успешная реализация геометрической точки зрения в общей теории относительности (ОТО) стимулировала поиски физической теории, которая по метрическим и топологическим свойствам реального пространства и времени могла бы воссоздать (и тем самым объяснить) поведение и свойства элементарных частиц.

Однако ни Эйнштейну, ни его последователям так и не удалось преодолеть многочисленные трудности. В “Автобиографических набросках”, написанных Эйнштейном в марте 1955 г. (за месяц до смерти), он отмечает: “Со времени завершения теории гравитации теперь прошло уже сорок лет. Они почти исключительно были посвящены усилиям вывести путем обобщения из теории гравитационного поля единую теорию поля, которая могла бы образовать основу для всей физики. С той же целью работали многие. Некоторые обнадеживающие попытки я впоследствии отбросил. Но последние десять лет привели, наконец, к теории, которая кажется мне естественной и обнадеживающей. Я не в состоянии сказать, могу ли я считать эту теорию физически полноценной; это объясняется пока еще непреодолимыми математическими трудностями; впрочем, такие же трудности представляет применение любой нелинейной теории поля. Кроме того, вообще кажется сомнительным, может ли теория поля объяснить атомистическую структуру вещества и излучения, а также квантовые явления. Большинство физиков, несомненно, ответят убежденным “нет”, ибо они считают, что квантовая проблема должна решаться принципиально иным путем. Как бы то ни было, нам остаются в утешение слова Лессинга: “Стремление к истине ценнее, дороже уверенного обладания ею”[ccxli].

Действительно, сами по себе математические трудности не могут служить аргументом против того направления в развитии физики, которого придерживался Эйнштейн. С аналогичными трудностями сталкиваются и другие направления, поскольку (как это отметил и Эйнштейн) физика с необходимостью переходит от линейных теорий к существенно нелинейным. Главная проблема заключается в том, может ли геометризнованная полевая картина физического мира объяснить атомистическую структуру вещества и излучения, а также квантовые явления, может ли она в принципе быть достаточной основой для адекватного отражения квантовых явлений. Нам представляется, что историко-научный и философский анализ тех потенций, которые содержатся в подходах Пуанкаре и Эйнштейна, может пролить свет на некоторые аспекты этой проблемы.

Широко известна замечательная фраза П.С.Лапласа о том, что человеческий разум встречает меньше трудностей, когда он продвигается вперед, чем тогда, когда он углубляется в самого себя. Но продвижение вперед так или иначе связано с углублением разума в самого себя, с изменением оснований, стиля и методов, с пересмотром ценностно-целевых установок научного познания, с переходом от привычной парадигмы к новой, более сложной и именно в силу этого способной восстановить утраченное соответствие разума и действительности.

Одним из первых шагов на этом пути, как известно, стало внеэмпирическое обоснование неевклидовых геометрий, данное “Эрлангенской программой” Ф.Клейна, явившееся одной из предпосылок освобождения физического мышления от пут пространственной картины мира и понимания геометрического описания не как описания арены физических процессов, а как адекватного объяснения динамики физического мира. Это переосмысление роли геометрии в физическом познании привело в конечном счете к построению программы геометризации физики. Однако путь к этой программе лежал через конвенционализм Пуанкаре, распространившего инвариантно-групповой метод Клейна на физику.

В решении проблемы соотношения геометрии и физики Пуанкаре опирался на концепцию “Эрлангенской программы”, исходя из представления о геометрии как абстрактной науке, которая сама по себе не отражает законов внешнего мира: “Математические теории не имеют целью открыть нам истинную природу вещей; такая претензия была бы безрассудной. Единственная цель их – систематизировать физические законы, которые мы узнаем из опыта, но которых мы не могли бы даже и выразить без помощи математики”[ccxlii].

При таком подходе геометрия явно ускользает от опытной проверки: “Если справедлива геометрия Лобачевского, то параллакс очень удаленной звезды будет конечным; если справедлива геометрия Римана, то он будет отрицательным. Эти результаты, по-видимому, допускают опытную проверку; и можно было надеяться, что астрономические наблюдения могут решить выбор между тремя геометриями. Но то, что в астрономии называется прямой линией, есть просто траектория светового луча. Если, следовательно, сверх ожидания, удалось бы открыть отрицательные параллаксы или доказать, что все параллаксы больше известного предела, то представлялся бы выбор между двумя заключениями: мы могли бы или отказаться от евклидовой геометрии, или изменить законы оптики и допустить, что свет распространяется не в точности по прямой линии”[ccxliii].

Исходную посылку физического познания – физика изучает материальные процессы в пространстве и времени – Пуанкаре интерпретирует не как отношение вложения (пространство и время, по Ньютону, являются вместилищами материальных процессов), а как отношение между двумя классами понятий: геометрическими, которые непосредственно в опыте не проверяются, и собственно физическими, логически зависящими от геометрических, но сопоставимыми с результатами опытов. Для Пуанкаре единственным объектом физического познания являются материальные процессы, а пространство интерпретируется как абстрактное многообразие, являясь предметом математического исследования. Как геометрия сама по себе не изучает внешний мир, так физика не изучает абстрактное пространство. Но без отношения к геометрии невозможно понять физические процессы. Геометрия – это предпосылка физической теории, независимая от свойств описываемого объекта.

В эксперименте проверяются лишь совместно геометрия (Г) и физические законы (Ф), и, следовательно, возможно произвольное деление на (Г) и (Ф) в рамках одних и тех же экспериментальных фактов. Отсюда конвенционализм Пуанкаре: неопределенное отношение геометрии к опыту ведет к отрицанию онтологического статуса как геометрии, так и физических законов и интерпретации их как условных соглашений.

Выход из тупика конвенционализма был найден Эйнштейном. Широко распространенное в нашей литературе заблуждение о сходстве подходов Эйнштейна и Пуанкаре к проблеме взаимоотношения геометрии и физики может быть опровергнуто не только соответствующими цитатами из работ Эйнштейна[ccxliv], но, пожалуй, не менее убедительно это можно сделать, обращаясь к высказываниям основоположника конвенционализма. Вот одно из таких высказываний Пуанкаре по этому поводу, в котором коперниковский переворот в физике предсказывается на основе феноменологической установки конвенционализма: “Если бы мы приняли принцип относительности, то в законе тяготения и в электромагнитных законах нашли бы общую постоянную – скорость света. Точно так же мы встретили бы ее во всех других силах какого угодно происхождения, что можно объяснить только с двух точек зрения: или все, что существует в мире – электромагнитного происхождения, или же это свойство, являющееся, так сказать, общим для всех физических явлений, есть не что иное, как внешняя видимость, что-то связанное с методами наших измерений. Как же мы производим наши измерения? Прежде мы ответили бы: перенося тела, рассматриваемые как твердые и неизменные, одно на место другого; но в современной теории, принимая во внимание сокращение Лоренца, это уже неверно. Согласно этой теории двумя равными отрезками, по определению, будут такие два отрезка, которые свет проходит в одно и то же время. Может быть, достаточно толь. ко отказаться от этого определения, чтобы вся теория Лоренца была совершенно уничтожена, как это случилось с системой Птолемея после вмешательства Коперника? Во всяком случае, если последнее и произойдет, это еще не докажет, что усилия Лоренца были бесполезными, ибо и Птолемей, какого бы мнения о нем ни придерживаться, отнюдь не был бесполезен для Коперника”[ccxlv]. Таким образом, даже предвосхищая подход Эйнштейна, Пуанкаре предпочитает оставаться в рамках привычного образа мыслей, основанного на механическом представлении эфира, что приводит к трактовке релятивистских эффектов только как “внешней видимости, ...связанной с методами наших измерений”. Поэтому он сравнивает свой подход с подходом Птолемея, а не Коперника.

При построении специальной теории относительности (СТО) Эйнштейн исходил из критического отношения к классическому представлению о материи как веществе. Такой подход определил интерпретацию постоянства скорости света как атрибутивной характеристики поля. С точки зрения Эйнштейна не принцип постоянства скорости света нуждается в механическом обосновании, а он вынуждает к критическому пересмотру понятий классической механики. Такая гносеологическая постановка проблемы привела к осознанию произвольности предположений об абсолютных пространстве и времени, на которых основывается кинематика классической механики. Но если для Пуанкаре произвольность этих предположений очевидна, то для Эйнштейна она – следствие ограниченности повседневного опыта, на котором основываются эти предположения. Для Эйнштейна бессмысленно говорить о пространстве и времени безотносительно к тем физическим процессам, которые только и придают им конкретное содержание. Поэтому физические процессы, которые не могут быть объяснены на основе привычных классических представлений о пространстве и времени без дополнительных искусственных гипотез, должны вести к пересмотру этих представлений.

Таким образом, опыт участвует в решении проблемы Пуанкаре: “Как раз те обстоятельства, которые причиняли нам раньше мучительные затруднения, и выводят нас на правильный путь после того, как мы получим больше свободы действий, отказавшись от указанных произвольных предположений. Оказывается, что как раз те два, на первый взгляд, несовместимых постулата, на которые указывает нам опыт, а именно: принцип относительности и принцип постоянства скорости света, приводят к вполне определенному решению проблемы преобразований координат и времени”[ccxlvi]. Следовательно, не сведение к привычному, а критическое отношение к нему, навеянное опытом, является условием корректного решения физической проблемы. Именно такой подход дал возможность Эйнштейну придать преобразованиям Лоренца адекватный физический смысл, которого не заметили ни Лоренц, ни Пуанкаре: первому мешала гносеологическая установка метафизического материализма, основанная на некритическом отношении к физической реальности, второму – конвенционализм, совмещающий критическое отношение к пространственно-временным представлениям классической механики с некритическим отношением к ее представлению о материи.

“Эмансипация понятия поля от предположения о его связи с механическим носителем нашла отражение в психологически наиболее интересных процессах развития физической мысли”, – писал Эйнштейн в 1952 году, вспоминая процесс становления СТО[ccxlvii]. Начиная с работ М.Фарадея и Дж.К.Максвелла и кончая работами Лоренца и Пуанкаре, сознательной целью физиков было стремление укрепить механическую основу физики, хотя объективно этот процесс вел к формированию независимого представления о поле.

Построив СТО, Эйнштейн изгнал из физики покоящийся механический эфир, несовместимый со специальным принципом относительности, но на место абсолютных пространства и времени поставил абсолютное пространство-время. Это, по-прежнему, рождало иллюзорное представление, будто активную роль в природе играют не только тела и поля, но и пространство и время, физические свойства которых не зависят от тел и полей. Таким образом, если в классической механике абсолютное пространство являлось активным участником только механических процессов, то в СТО его действие распространяется и на электромагнитные процессы. С таким пониманием роли абсолютного пространства-времени с СТО даже труднее согласиться, чем с представлением об абсолютных пространстве и времени в классической механике: реальным основанием последних мыслился покоящийся эфир, тогда как реальным основанием поля в СТО мыслится пустое пространство-время.

Таким образом, сохранив “дуализм” физической теории, СТО не устранила коренной порок классической механики. Подчеркивая общий недостаток двух теорий, Эйнштейн отмечал его гносеологический характер: “Подобная теория никоим образом не является логически несостоятельной, но она мало удовлетворительна с теоретико-познавательной точки зрения. Пространство и время в ней играют в некоторой степени роль априорной реальности, в отличие от реальности тел (и полей), которые выступают как реальности, так сказать, вторичные. Это разделение физической реальности на две различные части порождает именно ту неудовлетворенность, которой в общей теории относительности удается избежать”[ccxlviii]. Неудовлетворенность, о которой пишет Эйнштейн, определяется “дуализмом” физической теории, который был естественнонаучным основанием конвенционализма Пуанкаре. Для автора теории относительности конвенционализм как гносеологическая концепция, отрицающая объективный характер научного знания, был неприемлем.

Последовательно провести свою гносеологическую установку Эйнштейн смог лишь при построении ОТО. Известно, что уже в 1908 году он осознает возможность с помощью принципа эквивалентности, учитывающего факт равенства инертной и тяжелой масс, исключить из физики понятие абсолютного пространства. Но только через семь лет удалось построить ОТО. “Главная трудность, – писал Эйнштейн, – заключается в следующем: не так легко освободиться от представления, что координаты имеют прямой метрический смысл”[ccxlix]. Ключ к разрешению этой трудности был найден в римановой концепции геометрии с переменной метрикой. Идея Римана о связи метрики с физическими причинами содержала в себе реальную возможность построения физической теории, исключающей представление о пустом пространстве, обладающем заданной метрикой и способном воздействовать на материальные процессы, не подвергаясь обратному действию.

Непосредственно воплощая в физической теории эту идею Римана, используя риманову геометрию, исключающую физический смысл координат, ОТО как раз и дает физическую интерпретацию римановой метрики: “Согласно общей теории относительности, метрические свойства пространства-времени причинно не зависят от того, чем это пространство-время наполнено, но определены этим последним”[ccl]. При таком подходе пространство как нечто физическое с заранее заданными геометрическими свойствами вообще исключается из физического представления реальности. Устранение причинной зависимости между материей и пространством и временем отнимало у “пространства и времени последний остаток физической предметности”[ccli]. Но это не означало отрицание их объективности: “Пространство и время были лишены ... не своей реальности, а своей каузальной абсолютности (влияющее, но не поддающееся влиянию)”[cclii]. ОТО доказывала объективность пространства и времени, установив однозначную связь между геометрическими характеристиками пространства и времени и физическими характеристиками гравитационных взаимодействий.

Построение ОТО существенным образом основывается на философском положении о первичности материи по отношению к пространству и времени: “В соответствии с классической механикой и согласно специальной теории относительности, пространство (пространство-время) существует независимо от материи (т.е. вещества – Р.А., В.Ш.) или поля... С другой стороны, согласно общей теории относительности, не существует отдельно пространство, как нечто противоположное “тому, что заполняет пространство”... Пустое пространство, т.е. пространство без поля, не существует. Пространство-время существует не само по себе, но только как структурное свойство поля”[ccliii]. Таким образом, отрицание пустого пространства у Эйнштейна выполняет конструктивную роль, так как связано с введением полевого представления в физическую картину мира. Поэтому Эйнштейн подчеркивает, что ход мыслей, приведший к построению ОТО, “существенно основан на понятии поля как независимом понятии”[ccliv]. Этим подход автора ОТО отличается не только от подхода Пуанкаре, но и от подхода Э.Маха, стремившегося освободиться от пустого пространства, оставаясь в рамках механической картины мира[cclv].

В решении проблемы соотношения геометрии и физики в рамках конвенционализма следует различать два аспекта. С одной стороны, язык геометрии необходим для формулировки физических законов. С другой стороны, геометрическая структура не зависит от свойств физической реальности. Для Пуанкаре неважно, какова используемая в физике геометрия; важно лишь то, что без нее невозможно выразить физические законы. Такое понимание роли геометрии в физике ведет к отрицанию ее познавательной функции, а это для Эйнштейна неприемлемо. Для него выбор геометрии при построении физической теории подчинен высшей цели физики – познанию материального мира. Переход от евклидовой геометрии к геометрии Минковского, а от последней к геометрии Римана при переходе от классической механики к СТО, а затем к ОТО был обусловлен не только и не столько осознанием тесной связи используемой геометрии в физике с проблемой физической реальности. С точки зрения Эйнштейна, геометрия в физике не только определяет структуру физической теории, но и определяется структурой физической реальности[cclvi]. Только совместное выполнение физической геометрией этих двух функций позволяет избежать конвенционализма.

“В силу естественного отбора, – писал Пуанкаре, – наш ум приспособился к условиям внешнего мира, он усвоил себе геометрию наиболее выгодную для вида, или, другими словами, наиболее удобную... Геометрия не истинна, а только выгодна”[cclvii]. Ум человека, действительно, приспособился к условиям внешнего мира, в том числе к метрическим свойствам реальных пространства и времени соответствующей области внешнего мира и поэтому усвоил себе ту геометрию, которая оказалась адекватной действительности и лишь вследствие этого более удобной[cclviii]. Другое дело геометрия как элемент теории. Она может отражать метрические свойства реальных пространства и времени, а может и не отражать их, но быть геометрией некоего абстрактного пространства, с помощью которого в теории воссоздаются свойства материальных взаимодействий. В первом случае решается вопрос о ее истинности или ложности, во втором – о ее выгодности. Абсолютизация второго решения, сведение к нему проблемы взаимоотношения геометрии и реальности – следствие неправомерного отождествления абстрактного пространства и реальных пространства и времени (одного из проявлений того, что впоследствии получило название пифагорейского синдрома – отождествления тех или иных элементов математического аппарата теории с соответствующими элементами реальности, существующими до, вне и независимо от какой бы то ни было теории)[cclix].

По существу, именно об этом пишет Эйнштейн в статье “Геометрия и опыт”, отмечая, что подход Пуанкаре к проблеме взаимоотношения геометрии и физики исходит из того, что “о поведении реальных вещей геометрия (Г) ничего не говорит”, в ней “непосредственная связь между геометрией и физической реальностью оказывается уничтоженной”[cclx]. Все остальные суждения – о том, что “это поведение описывает только геометрия вместе с совокупностью физических законов (Ф)... что только сумма (Г) + (Ф) является предметом проверки на опыте”, что “можно произвольно выбирать как (Г), так и отдельные части (Ф)”[cclxi] – как нетрудно понять, вытекают из этих исходных посылок. Однако обе они ложны. Геометрия реального пространства “говорит” о поведении реальных вещей, метрические свойства пространства и времени и свойства соответствующих материальных взаимодействий связаны друг с другом в объективной действительности. В физической теории по метрическим свойствам пространства и времени некоторой пространственно-временной области объективной действительности судят о соответствующих свойствах господствующих в этой области материальных взаимодействий, по геометрии судят о физике, по (Г) судят о (Ф).

Однако процесс воссоздания свойств материальных взаимодействий по соответствующим метрическим свойствам пространства и времени – не экспериментальная, а чисто теоретическая процедура. Как чисто теоретическая процедура она в принципе не отличается от процесса воссоздания в теории этих же свойств материальных взаимодействий с помощью метрических свойств не реальных пространства и времени, а соответствующих подходящим образом организованных абстрактных пространств. Отсюда, с одной стороны, а) иллюзия о том, что только сумма (Г) и (Ф) является предметом проверки на опыте, что теоретик может произвольно выбирать геометрию как фон для изучения материальных взаимодействий; с другой стороны, б) рациональное зерно концепции взаимоотношения геометрии и физики Пуанкаре: геометрии как компоненты теории, с помощью которых теоретик воссоздает свойства материальных взаимодействий, действительно могут быть различными, и в этом смысле теория содержит в себе элемент конвенциональности.

Однако никакого конвенционализма в этом нет. Во-первых, потому, что (Г) и Ф) не являются независимыми друг от друга не только в объективной действительности, но и в теории: мы не можем произвольно выбирать геометрию в теории, мы выбираем ее всегда таким образом, чтобы с помощью соответствующей геометрии (Г) воссоздать в теории свойства реальных взаимодействий (Ф). Во-вторых, потому, что вопрос о том, какая из геометрий, с помощью которых в теории воссоздаются свойства материальных взаимодействий, адекватно представляет в ней метрические свойства реальных пространства и времени, внутри теории решен быть не может; он выходит за пределы теории, в область эксперимента. И в этом все дело.

В последнее время подход Пуанкаре к проблеме взаимоотношения геометрии и физики получил дальнейшее развитие в ряде работ, в которых ОТО противопоставляется релятивистская теория гравитации А.А.Логунова (РТГ)[cclxii]. В основе последней лежат: а) т.н. принцип геометризации, в соответствии с которым в теории можно воссоздать свойства гравитационных взаимодействий как по свойствам искривленного пространства-времени Римана, так и с помощью плоского пространства-времени Минковского; б) тезис о том, что только плоское пространство-время Минковского адекватно представляет в теории реальные пространство и время, тогда как искривленное пространство-время Римана выступает в ней лишь как некое “эффективное” пространство. Логунов полагает, что “геометрия пространства-времени для всех физических полей является псевдоевклидовой (пространство Минковского)”[cclxiii]. Он упрекает Эйнштейна и Гильберта в том, что “эти два великих ученых покинули удивительной простоты пространство Минковского... и вошли в дебри римановой геометрии, которые затянули последующие поколения физиков”[cclxiv].

Апелляция к идее “удивительной простоты” при ближайшем рассмотрении оказывается весьма сложным аргументом. Уже Эйнштейн, критикуя принцип простоты Пуанкаре, который он использовал для обоснования выбора евклидовой геометрии при построении физической теории, отметил, что “существенно не то, что одна лишь геометрия устроена наиболее простым образом, а то, что наиболее простым образом устроена вся физика (в том числе геометрия)”[cclxv].

В статье Я.Б.Зельдовича и Л.П.Грищука “Тяготение, общая теория относительности и альтернативные теории” подчеркивается, что основной мотив, который привел Логунова к отрицанию эйнштейновского подхода к проблеме взаимоотношения геометрии и физики – независимо от субъективных намерений автора РТГ, – не столько физической, сколько психологической природы[cclxvi]. Действительно, в основе критического подхода автора РТГ к ОТО лежит стремление остаться в рамках привычного (а тем самым и простого) стиля мышления. Но ведь жесткая связь привычного и простого, обоснование простоты привычным – это идеал психологического стиля мышления.

Эволюция физики убедительно доказывает, что то, что является привычным и простым для одного поколения физиков, может быть непонятным и сложным для другого поколения. Гипотеза механического эфира – яркий пример этого. Отказ от привычного и простого – неизбежный спутник расширения опыта, освоения новых областей природы и знания. Каждому крупному продвижению науки сопутствовали утрата привычного и простого, а затем – изменение самого представления о них. Короче, привычное и простое – категории исторические[cclxvii]. Поэтому не сведение к привычному, а стремление понять реальность является высшей целью науки: “Наша постоянная цель – все лучшее и лучшее понимание реальности... Чем проще и фундаментальнее становятся наши допущения, тем сложнее математическое орудие нашего рассуждения; путь от теории к наблюдению становится длиннее, тоньше и сложнее. Хотя это и звучит парадоксально, но мы можем сказать: современная физика проще, чем старая физика, и поэтому она кажется более трудной и запутанной”[cclxviii].

Главный недостаток психологического стиля мышления связан с игнорированием гносеологического аспекта научных проблем, в рамках которого только и возможно критическое отношение к интеллектуальным привычкам, исключающим четкое разделение происхождения и сущности научных представлений. Действительно, классическая механика предшествует квантовой механике и СТО, а последняя – возникновению ОТО. Но это еще не значит, что предшествующие теории превосходят последующие в ясности и отчетливости, как это предполагается в рамках психологического стиля мышления. С гносеологической точки зрения СТО и квантовая механика проще и понятнее классической механики, а ОТО проще и понятнее СТО. Вот почему “на научных семинарах... неясное место в каком-либо классическом вопросе вдруг кем-то иллюстрируется на хорошо знакомом квантовом примере, – и вопрос становится вполне “прозрачным”[cclxix].

Вот почему и “дебри римановой геометрии” приближают нас к адекватному пониманию физической реальности, в то время как “удивительной простоты пространство Минковского” отдаляет от него. Эйнштейн и Гильберт “вошли” в эти “дебри” и “затянули” в них “последующие поколения физиков” именно потому, что их интересовало не только и не столько то, насколько просты или сложны метрические свойства абстрактного пространства, с помощью которого можно описать в теории реальные пространство и время, сколько то, каковы метрические свойства этих последних. В конечном счете именно поэтому и Логунов вынужден прибегнуть к “эффективному” пространству римановой геометрии для описания гравитационных эффектов в дополнение к используемому в РТГ пространству Минковского, ибо лишь первое из этих двух пространств адекватно представляет в РТГ (так же, как и в ОТО) реальные пространство и время[cclxx].

Гносеологические промахи РТГ при философском подходе к ней легко обнаруживаются. Логунов пишет, что “даже обнаружив опытным путем риманову геометрию, не надо спешить делать вывод о структуре геометрии, которую необходимо положить в основу теории”[cclxxi]. Это рассуждение аналогично рассуждению Пуанкаре: как основоположник конвенционализма настаивал на сохранении евклидовой геометрии независимо от результатов опытов, так и автор РТГ настаивает на сохранении заданной геометрии Минковского как основы всякой физической теории. Основанием такого подхода является в конечном счете пифагорейский синдром, онтологизация абстрактного пространства Минковского[cclxxii].

Мы уже не говорим о том, что существование пространства-времени как вместилища событий, обладающего странной способностью вызывать инерциальные эффекты в материи, не подвергаясь обратному воздействию, становится при этом неизбежным постулатом. Такое представление по своей искусственности превосходит даже гипотезу механического эфира, на что мы уже обращали внимание выше, сравнивая классическую механику и СТО. Оно в принципе противоречит ОТО, так как “одно из достижений общей теории относительности, ускользнувшее, насколько известно, от внимания физиков”, заключается в том, “что отдельное понятие пространства... становится излишним. В этой теории пространство – это не что иное как четырехмерность поля, а не что-то существующее само по себе”[cclxxiii]. Исходить при описании гравитации из геометрии Минковского и одновременно использовать риманову геометрию для Эйнштейна означает проявлять непоследовательность: “Оставаться при более узкой группе и одновременно брать более сложную структуру поля (ту же, как в общей теории относительности) означает наивную непоследовательность. Грех остается грехом, хотя бы его совершали мужи, в остальном почтенные”[cclxxiv].

ОТО, в которой по метрическим свойствам искривленного пространства-времени Римана воссоздаются свойства гравитационных взаимодействий, свободна от этих гносеологических неувязок: “Прекрасное изящество общей теории относительности... вытекает непосредственно из геометрической трактовки. Благодаря геометрическому обоснованию, теория получила определенную и нерушимую форму... Опыт либо ее подтверждает, либо опровергает... Интерпретируя гравитацию как действие силовых полей на вещество, определяют лишь весьма общую систему отсчета, а не единственную теорию. Можно построить множество общековариантных вариационных уравнений и... лишь наблюдения могут удалить такие нелепости как теорию гравитации, основанную на векторном и скалярном поле или на двух тензорных полях. В противоположность этому, в рамках геометрической трактовки Эйнштейна подобные теории оказываются абсурдными с самого начала. Они устраняются философскими аргументами, на которых основывается эта трактовка”[cclxxv]. Психологическая уверенность в истинности ОТО основывается не на ностальгии по привычному стилю мышления, а на ее монистичности, целостности, замкнутости, логической последовательности и отсутствии гносеологических промахов, характерных для РТГ[cclxxvi].

Одним из основных гносеологических промахов РТГ является, по нашему глубокому убеждению, ее исходная гносеологическая установка, согласно которой внутритеоретических критериев достаточно для решения вопроса о том, какое из абстрактных пространств теории адекватно представляет в ней реальные пространство и время. Эта гносеологическая установка, несовместимая с той, которая лежит в основе ОТО, с легкой руки Гейзенберга, приписывается... Эйнштейну, который-де в беседе с ним весной 1926 г. в Берлине сформулировал ее в еще более общем виде как утверждение о том, что не эксперимент, а теория определяет, что поддается наблюдению[cclxxvii].

Между тем, как это ни покажется парадоксальным на первый взгляд, вопреки господствующему в научном сообществе мнению (в том числе и мнению самого Гейзенберга) Эйнштейн на самом деле говорил ему тогда не об этом, а совсем о другом. Воспроизведем соответствующее место из доклада “Встречи и беседы с Альбертом Эйнштейном” (сделанного Гейзенбергом 27 июля 1974 г. в Ульме), в котором Гейзенберг вспоминал об этой беседе с Эйнштейном, в ходе которой он возражал против сформулированного Гейзенбергом принципа наблюдаемости: “Каждое наблюдение, аргументировал он, предполагает однозначно фиксируемую нами связь между рассматриваемым нами явлением и возникающим в нашем сознании чувственным ощущением. Однако мы можем уверенно говорить об этой связи лишь при условии, что известны законы природы, которыми она определяется. Если же – что явно имеет место в современной атомной физике – сами законы ставятся под сомнение, то теряет свой ясный смысл также и понятие “наблюдение”. В такой ситуации теория прежде всего должна определить, что поддается наблюдению”[cclxxviii].

Заключительные слова Эйнштейна в соответствующем контексте, действительно, могут создать впечатление, что не эксперимент, а теория определяет, что поддается наблюдению. Между тем в подлинном контексте они имеют иной смысл. Как нетрудно понять, Эйнштейн говорил Гейзенбергу, что физика столкнулась с новой ситуацией, с новой областью, в которой неизвестные нам законы природы ставятся под сомнение. В этом случае опираться на них в решении вопроса о том, что поддается наблюдению, естественно, нельзя. Помочь в его решении может теория, описывающая эту область объективной действительности, т.е. описывающая то, что поддается в ней наблюдению. Но для того, чтобы теория могла сыграть эту роль, мы должны быть уверены, что она правильно описывает эту область объективной действительности. А для этого, как неоднократно отмечал Эйнштейн, внутритеоретических критериев недостаточно, необходима “проверка экспериментом”[cclxxix]: лишь эксперимент с тем, что поддается наблюдению, может ответить на вопросы о том, истинна ли теория, адекватно или неадекватно представлено в ней то, что поддается наблюдению. “Если такое соответствие не может быть достигнуто с большой достоверностью.., – подчеркивал Эйнштейн, – то логический механизм не будет иметь никакой ценности для “познания реальности” (например, тенология)”[cclxxx].

Исходная гносеологическая установка РТГ Логунова – следствие сравнительно несложного паралогизма – отождествления необходимого условия адекватности теоретических структур объективной реальности с ее достаточным условием. Как нетрудно понять, в конечном счете именно этим объясняются логико-гносеологические ошибки, которые лежат в основе РТГ и ее противопоставления ОТО, – использование лишь внутритеоретических критериев в решении вопроса о том, какое из абстрактных пространств теории адекватно представляет в ней реальные пространство и время, и неправомерное отождествление его с ними, – по существу, те же самые логико-гносеологические ошибки, которые лежали в основе подхода Пуанкаре к проблеме взаимоотношения геометрии и физики[cclxxxi].

Что бы ни говорилось о подходе Эйнштейна к проблеме взаимоотношения геометрии и физики, выполненный нами анализ свидетельствует о том, что вопрос о возможностях этого подхода в формировании современной естественнонаучной парадигмы остается открытым. Он остается открытым до тех пор, пока не доказано существование таких свойств материальных явлений, которые никак не связаны со свойствами пространства и времени. И напротив, благоприятные перспективы подхода Эйнштейна обусловлены в конечном счете тем, что все более и более определенно обнаруживается связь метрических и топологических свойств пространства и времени с различными не пространственно-временными свойствами материальных явлений[cclxxxii]. В то же время историко-научный и философский анализ подхода Пуанкаре к проблеме взаимоотношения геометрии и физики приводит к выводу о его бесперспективности как альтернативы подходу Эйнштейна. Об этом же свидетельствует и анализ попыток его реанимации, предпринятых в работах Логунова с сотрудниками.

 

 

А.Ю.Севальников

Квант и время в современной физической парадигме

В 2000 году исполнилось 100 лет со дня рождения квантовой механики. Переход через рубеж столетий и веков – повод поговорить о времени, и в данном случае как раз в связи с юбилеем кванта.

Привязка понятия времени к идеям квантовой механики могла бы показаться искусственной и надуманной, если бы не одно обстоятельство. Мы до сих пор не понимаем смысла этой теории. “Можно с полной уверенностью говорить, что никто не понимает смысла квантовой механики”, – утверждал Ричард Фейнман. Столкнувшись с микроявлениями, мы столкнулись с некоторой тайной, которую пытаемся разгадать уже целый век. Как не вспомнить слова великого Гераклита, что “природа любит таиться”.

Квантовая механика полна парадоксов. Не отражают ли они саму суть этой теории? У нас есть совершенный математический аппарат, красивая математическая теория, выводы которой неизменно подтверждаются на опыте, и при этом отсутствуют сколь ни будь “ясные и отчетливые” представления о сути квантовых феноменов. Теория здесь выступает скорее символом, за которой скрыта иная реальность, проявляющаяся в неустранимых квантовых парадоксах. “Оракул не открывает и не скрывает, он намекает”, как говорил тот же Гераклит. Так о чем же намекает квантовая механика?

У истоков ее создания стояли М.Планк и А.Эйнштейн. В центре внимания была проблема излучения и поглощения света, т.е. проблема становления в широком философском смысле, а следовательно, и движения. Эта проблема как таковая до сих пор не становилась в центр внимания. При дискуссиях вокруг квантовой механики рассматривались прежде всего проблемы вероятности и причинности, корпускулярно-волнового дуализма, проблемы измерения, нелокальности, участия сознания и целый ряд других, тесно связанных непосредственно с философией физики. Однако рискнем утверждать, именно проблема становления, древнейшая философская проблема и является основной проблемой квантовой механики.

Эта проблема всегда была тесно связана с теорией квантов, от проблемы излучения и поглощения света в работах Планка и Эйнштейна до последних экспериментов и интерпретаций квантовой механики, но всегда неявно, имплицитно, как некий скрытый подтекст. Фактически с проблемой становления тесно связаны практически все ее дискуссионные вопросы.

Так в настоящее время активно обсуждается т.н. “проблема измерения”, которая в интерпретациях квантовой механики играет ключевую роль. Измерение резко меняет состояние квантовой системы, форму волновой функции Y(r,t). Например, если при измерении положения частицы мы получаем более или менее точное значение ее координаты, то волновой пакет, который представляла собой функция Y до измерения, “редуцируется” в менее протяженный волновой пакет, который может быть даже точечным, если измерение проведено очень точно. С этим и связано введение В.Гейзенбергом понятия “редукция пакета вероятностей”, характеризующей такого рода резкое изменение волновой функции Y(r,t).

Редукция всегда приводит к новому состоянию, которое нельзя предвидеть заранее, поскольку до измерения мы можем предсказать лишь вероятности различных возможных вариантов.

Совсем иная ситуация в классике. Здесь если измерение выполняется достаточно аккуратно, то это является констатацией лишь “наличного состояния”. Мы получаем истинное значение величины, которое объективно существует в момент измерения.

Различие классической механики и квантовой – это различие их объектов. В классике – это налично существующее состояние, в квантовом случае – это объект возникающий, становящийся, объект, принципиально изменяющий свое состояние. Более того, употребление понятия “объект” не совсем правомерно, мы имеем скорее актуализацию потенциального бытия, причем сам этот акт принципиально не описывается аппаратом квантовой механики. Редукция волновой функции всегда есть разрыв, скачок в состоянии.

Гейзенберг был одним из первых, кто стал утверждать, что квантовая механика возвращает нас к аристотелевскому понятию бытия в возможности. Такая точка зрения в квантовой теории возвращает нас к двухмодусной онтологической картине, где есть модус бытия в возможности и модус бытия действительного, т.е. мир осуществившегося.

Гейзенберг не развил последовательным образом этих идей. Это было осуществлено чуть позднее В.А.Фоком. Введенные им понятия “потенциальной возможности” и “осуществившегося” очень близки к аристотелевским понятиям “бытие в возможности” и “бытие в стадии завершения”.

По Фоку, описываемое волновой функцией состояние системы является объективным в том смысле, что представляет объективную (независимую от наблюдателя) характеристику потенциальных возможностей того или иного акта взаимодействия микрообъекта с прибором. Такое “объективное состояние не является еще действительным, в том смысле, что для объекта в данном состоянии указанные потенциальные возможности еще не осуществились, переход от потенциальных возможностей к осуществившемуся происходит на заключительной стадии эксперимента”[cclxxxiii]. Статистическое распределение вероятностей, возникающее при измерении и отражает объективно существующие при данных условиях потенциальные возможности. Актуализация, “осуществление” по Фоку – не что иное как “становление”, “изменение”, или “движение” в широком философском смысле. Актуализация потенциального вносит необратимость, что тесно связано с существованием “стрелы времени”.

Интересно, что Аристотель связывает непосредственно время с движением (см., напр., его “Физику” – “время не существует без изменения”, 222b 30ff, кн. IV особенно, а также трактаты – “О небе”, “О возникновении и уничтожении”). Не рассматривая пока подробно аристотелевское понимание времени, отметим, что у него это – прежде всего мера движения, а говоря шире – мера становления бытия.

В таком понимании время приобретает особый, выделенный статус, и если квантовая механика действительно указывает на существование бытия потенциального и его актуализацию, то в ней этот особый характер времени должен быть явным.

Как раз именно этот особый статус времени в квантовой механике хорошо известен и неоднократно отмечался разными авторами. Например, де Бройль в книге “Соотношения неопределенностей Гейзенберга и волновая интерпретация квантовой механики” пишет, что КМ “не устанавливает истинной симметрии между пространственными и временной переменной. Координаты x, y, z частицы считаются наблюдаемыми соответствующими неким операторам и имеющими в любом состоянии (описываемом волновой функцией Y) некоторое вероятностное распределение значений, тогда как время t по-прежнему считается вполне детерминированной величиной.

Это можно уточнить следующим образом. Представим себе галилеева наблюдателя, проводящего измерения. Он пользуется координатами x, y, z, t, наблюдая события в своей макроскопической системе отсчета. Переменные x, y, z, t – это числовые параметры, и именно эти числа входят в волновое уравнение и волновую функцию. Но каждой частице атомной физики соответствуют “наблюдаемые величины”, которые являются координатами частицы. Связь между наблюдаемыми величинами x, y, z и пространственными координатами x, y, z галилеева наблюдателя носит статистический характер; каждой из наблюдаемых величин x, y, z в общем случае может соответствовать целый набор значений с некоторым распределением вероятностей. Что же касается времени, то в современной волновой механике нет наблюдаемой величины t, связанной с частицей. Есть лишь переменная t, одна из пространственно-временных переменных наблюдателя, определяемая по часам (существенно макроскопическим), которые имеются у этого наблюдателя”[cclxxxiv].

То же самое утверждает и Эрвин Шредингер. “В КМ время выделено по сравнению с координатами. В отличие от всех остальных физических величин ему соответствует не оператор, не статистика, а лишь значение, точно считываемое, как в доброй старой классической механике, по привычным надежным часам. Выделенный характер времени делает квантовую механику в ее современной интерпретации от начала и до конца нерелятивистской теорией. Эта особенность КМ не устраняется при установлении чисто внешнего “равноправия” времени и координат, т.е. формальной инвариантности относительно преобразований Лоренца, с помощью надлежащих изменений математического аппарата.

Все утверждения КМ имеют следующий вид: если теперь, в момент времени t, провести некое измерение, то с вероятностью p его результат окажется равным a. Все статистики квантовая механика описывает как функции одного точного временного параметра… В КМ бессмысленно спрашивать, с какой вероятностью измерение будет произведено в интервал времени (t. t+ dt), т.к. время измерения я всегда могу выбрать по своему произволу”[cclxxxv].

Существуют и другие аргументы, показывающие выделенный характер времени, они известны и я не буду здесь на этом останавливаться. Существуют и попытки преодоления такой выделенности вплоть до такой, когда Дирак, Фок и Подольский предложили для обеспечения ковариантности уравнений т.н. “многовременную” теорию, когда каждой частице приписывается не только своя координата, но и свое время.

В упоминаемой выше книге де Бройль показывает, что и такая теория не может избежать особого статуса времени, и весьма характерно, что книгу он заканчивает следующей фразой: “Таким образом, мне представляется невозможным устранить особую роль, которую в квантовой теории играет времени подобная переменная”[cclxxxvi].

На основе подобных рассуждений можно с уверенностью утверждать, что квантовая механика заставляет нас говорить о выделенности времени, о его особом статусе.

Существует и еще один аспект квантовой механики, никем до сих пор не рассматриваемый.

На мой взгляд, правомерно говорить о двух “временах”. Одно из них это наше обычное время – конечное, однонаправленное, оно тесно связано с актуализацией и принадлежит миру осуществившегося. Другое – это существующее для модуса бытия в возможности. Его трудно охарактеризовать в наших обычных понятиях, так как на этом уровне нет понятий “позже” или “раньше”. Принцип суперпозиций как раз показывает, что в потенции все возможности существуют одновременно. На этом уровне бытия невозможно введение пространственных понятий “здесь”, “там”, так как они появляются только после “развертывания” мира, в процессе которого время играет ключевую роль.

Проиллюстрировать такое утверждение легко на знаменитом мысленном двухщелевом эксперименте, который, по словам Ричарда Фейнмана, содержит всю тайну квантовой механики.

Направим луч света на пластину с двумя узкими щелями. Через них свет попадает на экран, помещенный за пластиной. Если бы свет состоял из обычных “классических” частиц, то на экране мы бы получили две светлые полосы. Вместо этого, как известно, наблюдается серия линий – интерференционная картина. Интерференция объясняется тем, что свет распространяется не просто как поток частиц-фотонов, а в виде волн.

Если же мы попытаемся проследить путь фотонов и разместим возле щелей детекторы, то в этом случае фотоны начинают проходить только через какую-либо одну щель и интерференционная картина при этом исчезает. “Создается впечатление, будто фотоны ведут себя как волны до тех пор, пока им “разрешают” вести себя подобно волнам, т.е. распространяться через пространство, не занимая какого-либо определенного положения. Однако в тот момент, когда кто-нибудь “спрашивает”, где именно фотоны находятся – либо путем определения щели, через которую они прошли, либо заставляя их попадать на экран только через одну щель, – они мгновенно становятся частицами…

В экспериментах с двухщелевой пластиной выбор физиком измерительного прибора заставляет фотон “выбирать” между прохождением через обе щели одновременно подобно волне, либо только через одну щель подобно частице. Однако, что случилось бы, спросил Уилер, если экспериментатор, прежде чем выбрать способ наблюдения, мог бы как-нибудь подождать до тех пор, пока свет не пройдет через щели?”[cclxxxvii].

Более ярко такой эксперимент с “отложенным выбором” можно продемонстрировать на излучении квазаров. Вместо пластины с двумя щелями “в таком эксперименте должна использоваться гравитационная линза – галактика или другой массивный объект, который может расщепить излучение квазара и затем сфокусировать его в направлении отдаленного наблюдателя, создавая два или более изображений квазара…

Выбор астронома – каким способом наблюдать фотоны от квазара в настоящее время – определяется тем, прошел ли каждый фотон по обоим путям или только по одному пути около гравитационной линзы миллиарды лет назад. В момент, когда фотоны долетали до “галактического светоделителя”, они как бы должны были иметь нечто вроде предчувствия, указывающего им, каким образом себя вести, чтобы отвечать выбору, который будет сделан неродившимися существами на еще не существующей планете”[cclxxxviii].

Как верно замечает Уилер, такие умозрительные построения возникают вследствие ошибочного предположения о том, что фотоны имеют какую-ту форму еще до того, как произведено измерение. На самом деле “квантовые явления сами по себе не имеют ни корпускулярного, ни волнового характера; их природа не определена вплоть до того момента, когда их начинают измерять”[cclxxxix].

Эксперименты, проведенные в 90-х годах, подтверждают такие “странные” выводы из квантовой теории. Квантовый объект действительно “не существует” до момента измерения, когда он получает актуальное бытие.

Один из аспектов таких экспериментов до сих пор практически не обсуждался исследователями, а именно – временной аспект. Ведь квантовые объекты получают свое существование не только в смысле своей пространственной локализации, но и начинают “быть” во времени. Допустив существование бытия потенциального, необходимо сделать вывод и о качественно ином характере существования на этом уровне бытия, в том числе и временном.

Как следует из принципа суперпозиции, различные квантовые состояния существуют “одновременно”, т.е. квантовый объект изначально, до актуализации своего состояния, существует сразу во всех допустимых состояниях. При редукции волновой функции от “суперпонированного” состояния остается лишь одно из них. Наше обычное время тесно связано с такого рода “событиями”, с процессом актуализации потенциального. Суть “стрелы времени” в таком понимании и состоит в том, что объекты приходят к бытию, “во-существляются”, и именно с этим процессом и связана однонаправленность времени и его необратимость. Квантовая механика, уравнение Шредингера описывает грань между уровнем бытия возможного и бытия действительного, точнее, дает динамику, вероятность осуществления потенциального. Само же потенциальное нам не дано, квантовая механика лишь указывает на него. Наше знание пока принципиально неполно. Мы имеем аппарат, описывающий классический мир, то есть мир актуальный, явленный – это аппарат классической физики, включая теорию относительности. И у нас есть математический формализм квантовой механики, описывающий становление. Сам же формализм “угадан” (здесь стоит вспомнить, как было открыто уравнение Шредингера), он ниоткуда не выводится, что дает повод поставить вопрос о более полной теории. По нашему мнению, квантовая механика лишь подводит нас к грани бытия явленного, дает возможность приоткрытия тайны бытия и времени, не раскрывая и не имея такой возможности раскрыть ее полностью. Мы можем лишь сделать вывод о более сложной структуре времени, о его особом статусе.

Обоснованию такой точки зрения поможет и обращение к философской традиции. Как известно, еще Платон дает различение двух времен – собственно времени и вечности. Время и вечность у него несоизмеримы[ccxc], время есть только движущееся подобие вечности. При сотворении демиургом Вселенной, как рассказывается об этом в “Тимее”, демиург “замыслил сотворить некое движущееся подобие вечности; устрояя небо, он вместе с ним творит для вечности, пребывающей в едином, вечный же образ, движущийся от числа к числу, который мы назвали временем”[ccxci].

Платоновская концепция – это первая попытка преодоления, синтеза двух подходов ко времени и миру. Одна их них – это парменидовская линия, дух школы элеатов, где отрицалось всякое движение, изменение, где истинно сущим признавалось лишь вечное бытие, другая – связанная с философией Гераклита, утверждавшего, что мир есть непрерывный процесс, своего рода горение или безостановочное течение.

Другой попыткой преодоления такой двойственности явилась философия Аристотеля. Введя понятие бытия потенциального, ему удалось впервые описать движение, учение о котором он излагает в тесной связи с учением о природе.

Опираясь на платоновскую дуалистическую схему “бытие-небытие”, оказывается невозможным описать движение, необходимо “найти “лежащее в основе” третье, которое было бы посредником между противоположностями”[ccxcii].

Введение Аристотелем понятия dynamis – “бытие в возможности” вызвано его неприятием метода Платона, исходившего из противоположностей “сущее-несущее”. В результате такого подхода, пишет Аристотель, Платон отрезал себе путь к постижению изменения, составляющего главную черту природных явлений. “…Если взять тех, кто приписывает вещам бытие-небытие вместе, из их слов скорее получается, что все вещи находятся в покое, а не в движении: в самом деле, изменению уже не во что произойти, ибо все свойства имеются <уже> у всех вещей”. [Метафизика, IV ,5].

“Итак, противоположность бытие-небытие, говорит Аристотель, нужно опосредовать чем-то третьим: таким посредником между ними выступает у Аристотеля понятие “бытия в возможности”. Понятие возможности Аристотель вводит, таким образом, для того, чтобы можно было бы объяснить изменение, возникновение и гибель всего природного и тем самым избежать такой ситуации, которая сложилась в системе платоновского мышления: возникновение из не сущего – это случайное возникновение. И действительно, все в мире преходящих вещей для Платона непознаваемо, ибо носит случайный характер. Такой упрек по отношению к великому диалектику античности может показаться странным: ведь, как известно, именно диалектика рассматривает предметы с точки зрения изменения и развития, чего никак нельзя сказать о формально-логическом методе, создателем которого справедливо считают Аристотеля”[ccxciii].

Однако этот упрек Аристотеля вполне оправдан. Действительно, парадоксальным образом в поле зрения Платона не попадает то изменение, которое происходит с чувственными вещами. Его диалектика рассматривает предмет в его изменении, но это, как справедливо замечает П.П.Гайденко, особый предмет – логический. У Аристотеля же субъект изменения из сферы логической переместился в сферу сущего, а сами логические формы перестали быть субъектом изменения. Сущее у Стагирита имеет двоякий характер: сущее в действительности и сущее в возможности, и поскольку оно имеет “двоякий характер, то все изменяется из существующего в возможности в существующее в действительности... А потому возникновение может совершаться не только – привходящим образом – из несуществующего, но также <можно сказать, что> все возникает из существующего, именно из того, что существует в возможности, но не существует в действительности” (Метафизика, XII, 2). Понятие dynamis имеет несколько различных значений, которые Аристотель выявляет в V книге “Метафизики”. Два главных значения впоследствии получили и терминологическое различение в латинском языке – potentia и possibilitas, которые часто переводят как “способность” и “возможность” (ср.нем. способность – Vermцgen, и возможность – Mцglichkeit). “Названием возможности (dynamis) прежде всего обозначается начало движения или изменения, которое находится в другом или поскольку оно – другое, как, например, строительное искусство есть способность, которая не находится в том, что строится; а врачебное искусство, будучи некоторою способностью, может находиться в том, кто лечится, но не поскольку он лечится” (Метафизика, V, 12).

Время для Аристотеля тесно связано с движением (в самом широком смысле). “Невозможно, чтобы время существовало без движения”[ccxciv]. По Аристотелю, это очевидно, так как “если имеется время, очевидно, должно и существовать и движение, раз время есть некоторое свойство движения”[ccxcv]. Это означает, что не существует движения самого по себе, а только изменяющееся, становящееся бытие, и “время есть мера движения и нахождения [тела] в состоянии движения“[ccxcvi]. Отсюда становится ясно, что время с этим становится и мерой бытия, ведь “и для всего прочего нахождение во времени означает измерение его бытия временем”[ccxcvii].

Имеется существенное отличие между подходами Платона и Аристотеля в понимании времени. У Платона время и вечность несоизмеримы, они качественно различны. Время у него только движущееся подобие вечности (Тимей, 38а), ибо все возникшее не причастно вечности, имея начало, а следовательно, и конец, т.е. оно было и будет, тогда как вечность только есть.

Аристотель отрицает вечное существование вещей, и хотя он и вводит понятие вечности, это понятие является для него скорее бесконечной длительностью, вечного существования мира. Его логический анализ, сколь бы он гениальным ни являлся, не способен схватить существование качественно иного. Платоновский подход, хотя и не описывает движение в чувственном мире, оказывается в отношении времени более дальновидным. В дальнейшем концепции времени разрабатывались в рамках неоплатоновской школы и христианской метафизики. Не имея возможности входить в анализ этих учений, отметим только то общее, что их объединяет. Все они говорят о существовании двух времен – обычного времени, связанного с нашим миром, и вечности, эона (aiwn), связанного с бытием сверхчувственным[ccxcviii].

Возвращаясь к анализу квантовой механики, заметим, что волновая функция определяется на конфигурационном пространстве системы, а сама функция Y является вектором бесконечномерного гильбертова пространства. Если волновая функция не просто абстрактный математический конструкт, а имеет некоторый референт в бытии, то необходимо сделать вывод о ее “инобытийности”, непринадлежности к актуальному четырехмерному пространству-времени. Этот же тезис демонстрирует и хорошо известная “ненаблюдаемость” волновой функции, и ее вполне ощутимая реальность, например в эффекте Ааронова-Бома.

Одновременно с аристотелевским заключением, что время есть мера бытия, можно сделать вывод, что квантовая механика позволяет, по крайней мере, поставить вопрос о множественности времени. Здесь современная наука, по образному выражению В.П.Визгина, “вступает в плодотворную “идейную перекличку” с античным наследием”[ccxcix]. Действительно, уже “теория относительности Эйнштейна ближе к представлениям древних о пространстве и времени как свойств бытия, неотделимых от порядка вещей и порядка их движений, чем к ньютоновским представлениям об абсолютных пространстве и времени, мыслимых как совершенно индифферентные к вещам и их движениям, как не зависимые от них”[ccc].

Время тесно связано с “событием”. “В мире, где есть одна “действительность”, где “возможности” не существует, не существует и времени, время есть трудно предсказуемое создание и исчезновение, переоформление “пакета возможностей” того или иного существования”[ccci]. Но сам “пакет возможностей” бытийствует, как мы хотели показать, в условиях иного времени. Данное утверждение является некой “метафизической гипотезой”, однако, если принять во внимание, что квантовая механика становится в последнее время “экспериментальной метафизикой”, то можно поставить вопрос об опытном обнаружении таких “надвременных” структур, связанных с волновой функцией системы. На наличие таких иновременных структур уже косвенно указывают эксперименты “с отложенным выбором” и мысленный эксперимент Уилера с “галактической линзой”[cccii], где демонстрируется возможная “отсрочка” эксперимента во времени. Насколько же такая гипотеза является верной, покажет само время.

 

Тьян Ю Цао[1]

Предпосылки создания непротиворечивой
теории квантовой гравитации
[ccciii]

Введение

Современный интерес в построении надежной квантовой теории гравитации имел свои истоки не в экспериментальных открытиях аномалий, требующих для своего объяснения создания некоей новой теории, но скорее в серьезном учете нормативных требований унификации (объединения) и непротиворечивости при формулировании удовлетворительной картины физического мира.

Мне представляется, однако, что вопреки весьма распространенным утверждениям некоторых теоретиков, разрабатывающих теорию струн, значение требования объединения для поисков теории квантовой гравитации является преувеличенным. Можно иметь теорию квантовой гравитации, которая способна быть основанием для описания других фундаментальных взаимодействий некоторым объединяющим способом, но способность к объединению еще отнюдь не обеспечивает надежности такого основания. Если у нас есть хорошая квантовая теория сильных взаимодействий, квантовая хромодинамика или КЭД, которые не объединены с квантовой теорией электрослабых взаимодействий каким-либо физически или математически осмысленным способом[ccciv], за исключением их структурного сходства (обе являются калибровочными теориями), ясно, что можно также иметь надежную теорию квантовой гравитации, которая не объединена ни с КЭД, ни с теорией электрослабых взаимодействий.

Но непротиворечивость – это совершенно другое дело. Хотя некоторые версии глобальной математической согласованности, такие как конечность и перенормируемость в квантовой теории поля (КТП), не являются необходимыми для того, чтобы физическая теория считалась надежной[cccv], концептуальная несогласованность является совершенно неприемлемой. Фактически непротиворечивость и внутренняя согласованность являются фокусом современных поисков в этой области исследований, где успехи и поражения оцениваются почти исключительно в этих терминах[cccvi].

Сам проект квантования гравитации исторически и концептуально начался с желания расширить наше понимание гравитации от режима низких энергий до режима высоких энергий[cccvii]. Ожидается, что при высоких энергиях гравитация будет вести себя подобно другим фундаментальным взаимодействиям, описываемым КТП. Это расширение тесно связано с другим, касающимся нашего понимания пространства-времени. Поскольку общая теория относительности Эйнштейна (ОТО) выявила глубокую связь между гравитацией, с одной стороны, и природой и структурой пространства-времени, с другой, естественно ожидать, что квантовое поведение гравитации выявит некоторые новые черты пространства-времени на тех масштабах длин (или тех уровнях энергии), где понятие кванта оказывается релевантным для гравитации. Это ожидание стимулировало физиков-теоретиков и метафизиков исследовать возможные модификации и развить новое понимание старых метафизических понятий пространства, времени, локализуемости, каузальности, идентичности, кажимости и реальности, так же как и многих других на основе физического исследования квантовой гравитации. Именно поэтому квантовая гравитация в настоящее время оказывается наиболее многообещающей областью, где физика встречается с метафизикой.

Исследуя эту область, физики разрабатывают различные подходы: гравитонный подход, основанный на теории возмущений (Feynman et. al., 1995; DeWitt, 1967a, b, c), петлевое (loop) квантование, базирующееся на перегруппировке (rearrangement) динамических степеней свободы (Ashtekar, 1986, 1987, Rovelli and Smolin, 1990); струнный подход, основывающийся на допущении некоторого нового способа возбуждения субстрата (Polchinski, 1998), и многие другие. Каждый из подходов имеет свои успехи и свои поражения.

Наблюдая за предпринимаемыми попытками, я испытываю смешанные чувства. Меня очень интересуют смелые метафизические выводы, которые делаются физиками. Однако у меня возникает чувство неудовлетворенности в связи с тем, что концептуальные предпосылки этой деятельности недостаточно артикулированы, и при построении теории не уделяется должного внимания требованию непротиворечивости.

Если мы смотрим на построение квантовой теории гравитации не как на революцию, радикально порывающую с принятыми идеями и принципами, но скорее как на последовательное расширение существующих теорий на новый уровень или новую область (либо как на расширение Эйнштейновского понимания гравитации до режима высоких энергий, либо как на приложение квантовых принципов к гравитации, либо как на синтез ОТО и КТП), нам приходится принимать во внимание жесткие ограничения на представления и принципы, которые накладываются существующими теориями, от которых начинается расширение[cccviii]. Однако ограничения, накладываемые начальными теориями, явно противоречат друг другу. Этот недостаток четкости в прояснении предпосылок и в достижении согласованности вызывает законную тревогу.

Можно ли сформулировать последовательную теорию без тщательного концептуального анализа, если задача состоит в том, чтобы примирить две теории, которые накладывают по видимости или по существу несовместимые ограничения? Отсутствие решительного прорыва в поисках квантовой теории гравитации, несмотря на значительные усилия, предпринятые несколькими группами очень талантливых физиков и математиков в течение последних трех или четырех десятилетий, дает основание предполагать, что ответ должен быть отрицательным. Мне представляется, что в данном случае весьма полезной могла бы оказаться работа философа, направленная на прояснение тех условий, которые необходимы для создания согласованной рабочей рамы, на основе которой можно было бы делать дальнейшие разработки. Попытке прояснения таких условий и посвящена данная статья.

Центральный вопрос состоит в том, что такое квантовая гравитация, или какой тип реальности (причинно эффективные гравитационные поля или пространство-время как арена совершения физических явлений) с физической точки зрения должен быть взят в качестве фундаментального[cccix]. Если этот онтологический вопрос, являющийся, как правило, центральным при анализе оснований физической теории, не поставлен соответствующим образом, в создании теории вновь и вновь будут возникать трудности, и согласованная картина физического мира может навсегда оказаться нам недоступной.

Оставшаяся часть статьи организована следующим образом: раздел 2 дает представление об онтологическом подходе к анализу концептуальных рамок, которые будут затем применены к случаю квантовой гравитации; разделы 3 и 4 посвящаются прояснению теоретических ограничений, накладываемых соответственно ОТО и КТП на спецификацию базисной онтологии и на создание последовательной теории квантовой гравитации. Заключительные замечания, касающиеся главным образом понятия онтологического синтеза, будут даны в разделе 5.

Онтологический подход

Как я уже показал в моей работе, анализирующей полевые теории XX века (Cao, 1997), концептуальная структура физической теории (и ее эволюция) может быть наилучшим образом проанализирована при реализации подхода, который базируется на понятии теоретической онтологии. Поскольку этот подход будет использован ниже при конструировании подходящей рабочей структуры для создания теории квантовой гравитации, вполне уместно дать вначале краткое описание наиболее важных основных допущений и аспектов этого подхода.

В моем рассмотрении онтологических аспектов физической теории, исходящем из допущения, что предполагаемая каузально иерархическая структура некоторой физической области может быть представлена концептуальной структурой соответствующей физической теории, понятие онтологии относится только к тем структурам, которые постулируются в теории как первичные, лежащие в основании теории автономные основные сущности, из которых все другие сущности и их свойства и отношения могут быть выведены. В данном случае вопрос об онтологии теории должен быть отделен от вопроса о реальности, которой эта теоретическая онтология может обладать, а может и не обладать (т.е. от вопроса об отношении между теорией и миром, который она описывает). Рассматривая современное положение дел в области исследования возможных вариантов теории квантовой гравитации, оправдано сконцентрировать внимание на вопросе об онтологии, оставив пока в стороне вопрос о ее реальном существовании.

Выбор онтологии является ответственным моментом в построении теории. Этот выбор не только определяет те базисные сущности, которые должны быть исследованы теорией, но и диктует теоретическую структуру и ее дальнейшее развитие в рамках некоторой исследовательской программы (cм. Cao, 1999b). В связи с этим понятие онтологии нужно признать наиболее важным для понимания концептуальной структуры той или иной научной теории и ее эволюции, что, к сожалению, не всегда осознается.

Очевидно, что в любом обсуждении онтологии присутствует редукционистский момент. Если серьезно рассматривать феномен появления новых онтологических сущностей, сильная версия редукционизма должна быть отброшена. Тем не менее в границах некоторой специфической области научного исследования наличие редукционистского момента всегда желательно и продуктивно, поскольку он связан с идеями упрощения, объединения и объяснения. В этом отношении онтологические допущения играют решающую роль, поскольку без них не может обойтись ни одна теоретическая наука. Интересно отметить, что приведенные выше соображения работают и в обратном направлении, так как они накладывают перечисленные ниже следующие строгие ограничения на формулирование онтологических допущений.

Объяснительная функция и причинная эффективность базисной онтологии

Формально объяснение некоторого явления на более высоком уровне научной теории может определяться его сведением к более низкому уровню (или выведением из него), т.е. уровню, который описывается посредством базисной онтологии теории. С физической точки зрения, однако, объяснительная функция базисной онтологии требует, чтобы на роль базисной онтологии могли претендовать только те сущности, которые являются достаточно причинно эффективными для продуцирования явлений. Используя физические термины, можно утверждать, что это требует, чтобы сущность, претендующая на статус элемента базисной онтологии, находилась в причинной связи с подобными ей или с другими сущностями, т.е., другими словами, она должна иметь динамический характер.

Фактическое же выдвижение онтологических допущений в каждой конкретной ситуации всегда ограничивается и многими другими соображениями. Наиболее общими являются следующие четыре.

Теоретическая и уровневая зависимость онтологического статуса теоретических сущностей

Приписывание онтологического статуса некоторой теоретической сущности (т.е. определение того, является ли она первичной и реальной, или производной и феноменологической) может быть сделано вполне легитимно только в пределах определенного теоретического контекста. Никакого суждения об онтологическом статусе той или иной теоретической сущности не может быть сделано на основе соединения нескольких разных теоретических контекстов. Например, являются ли пространственно-временные точки первичными сущностями или они конструируются из других сущностей? На этот вопрос не может быть дан ответ в общих терминах, его следует решать в определенном теоретическом контексте. В условной КТП, которая основана на СТО, пространственно-временные точки являются первичными, в ОТО они не являются таковыми. Никакие аргументы вроде знаменитого аргумента, основанного на вырезании полости (hole argument), не могут служить оправданием для выхода за границы, разделяющие теоретические контексты[cccx].

Близко связанной с контекстовой, но не идентичной ей теоретической зависимостью, является зависимость теоретической сущности от уровня онтологического статуса. Реальная сущность может рассматриваться как феноменальная, когда рассмотрение движется от данного уровня к более глубокому. Это справедливо и для сущностей классических систем, которые активно квантуются и существуют только как классический предел этой квантованной системы. Таким образом, вопрос о том, что именно является реальной или первичной сущностью, зависит от уровня рассмотрения. Подходящий уровень выбирается согласно нашему теоретическому и практическому интересу, которые кристаллизуются обозначением базисной онтологии. Осознание того, что существует движение от верхнего уровня к нижнему и наоборот, помогает нам избежать смешивания эпистемической приемлемости с онтологической приоритетностью при анализе оснований теоретических структур. (Более подробно об этом будет сказано ниже, в части 3 при рассмотрении взглядов И.Канта).

Межтеоретическая (межуровневая) связь онтологий

Комбинирование зависимости онтологии от теории (или уровня) с объяснительной функцией онтологии накладывает строгое ограничение на расширение онтологических допущений от одного уровня (или теории) к другому: онтологии, существующие до расширения и после него, должны быть каузально связанными. При переходе границ между уровнями могут появляться новые сущности, но они должны быть каузально объясняемы. Черты онтологии более узкой теории (или принадлежащей более высокому уровню иерархии) должны быть выводимы из онтологии более широкой теории (онтологии, принадлежащей более низкому уровню). Как мы увидим, это ограничение является очень мощным теоретическим ресурсом для формирования онтологического основания теории квантовой гравитации. Но его мощь не может быть использована в полной мере без верного понимания онтологической структуры теоретической сущности и физической теории.

Онтологическая структура сущности

Хотя иногда ситуация бывает проще, все же лучше помнить, что идентичность той или иной теоретической сущности образуется индивидуатором[cccxi], определяемом на субстрате или носителе (либо материей, либо просто “держателями места”). Возьмем в качестве примера реляционную сущность пространства-времени в ОТО. Идентичность пространства-времени задается метрическим тензором, который определяется на многообразии и изменяющиеся общие черты которого представляются дифференциальными и топологическими структурами на этом многообразии. Любое изменение, включающее более чем только изменение квалификатора в конфигурации субстрат-индивидуатор-квалификатор теоретической сущности неизбежно ведет к изменению идентичности этой сущности. Или, если сущность относится к базисной онтологии теории, результатом является онтологический сдвиг, который является или онтологическим базисом для новой теоретической перспективы, либо концептуальной революцией в науке.

Онтологическая структура физической теории

Хотя многие важные черты физической теории (ее основные теоретические сущности, главные характерные черты ее теоретической структуры и перспективы ее развития) могут быть схвачены базисной онтологией (которая должна быть динамической сущностью, для того, чтобы быть причинно эффективной), ее онтологическое основание не исчерпывается единственной динамической сущностью. Скорее это онтологическое основание демонстрирует свою сложную структуру, в которой другие компоненты также играют независимую и необходимую роль. Возьмем в качестве примера КТП. В добавление к ее базисной онтологии (динамическому глобальному полю (имеется в виду, что оно определено на глобальном пространственно-временном многообразии), которое всегда является флуктуирующим, локально возбудимым и квантовым по своей природе (имеется в виду, что его локальное возбуждение подчиняется квантовым правилам, таким как каноническая коммутативность и отношение неопределенности), структура оснований этой теории имеет еще один компонент, а именно четырехмерное пространственно-временное многообразие Минковского. Это многообразие имеет фиксированную хроно-геометрическую структуру, которая лежит в основе представления о бесконечности степеней свободы, локализуемости и глобального вакуумного состояния, без которых невозможно никакое понимание концептуальной структуры теории (как, например, в системах Wightman’ а или Haag’ а )[cccxii].

Таким образом, правильно понятый онтологический подход представляет собой не столько фиксирование базисной онтологии как отдельной сущности, сколько детализированный анализ онтологической структуры этой сущности в контексте онтологической структуры концептуального основания теории.

Ограничения, накладываемые ОТО

Теперь мы готовы к тому, чтобы использовать онтологический подход для анализа тех ограничений, которые накладываются ОТО и КТП на структуру будущей теории квантовой гравитации (КТГ). Эти ограничения, если мы серьезно отнесемся к требованию межтеоретической связности, помогут нам определить необходимые предпосылки для такой конструкции.

При расширении нашего макроскопического знания гравитации и пространства-времени, которое нам дает ОТО, до микроскопической области, которая будет рассматриваться в КГ, межуровневая связность антологий требует, чтобы онтологическая структура ОТО была выводима из структуры КГ. Таким образом, существенные черты этой структуры и принципы и идеи, которые ведут к ее построению, накладывают жесткие ограничения на построение концептуальной структуры КГ. Если некоторые из них должны быть модифицированы в процессе этого построения, для такой модификации должны быть приведены веские основания и найдены такие пути ее реализации, чтобы выводимость не могла быть подвергнута сомнению.

С самого своего возникновения в 1907 г., когда был введен принцип эквивалентности, ОТО воспринималась как теория поля[cccxiii], а именно теория гравитационного поля и его взаимоотношения со структурой пространства-времени (и его инерциально-гравитационной и хроногеометрической структурами). До появления ОТО все полевые теории предполагали существование некоего лежащего в основании пространства (пространства Ньютона или пространства-времени Минковского), которое считалось независимым от происходящих в нем динамических процессов и, следовательно, онтологически предшествующим этим процессам. Фактически эта определяющая черта полевой теории, обладающей бесконечным числом степеней свободы, была тесно связана с возможностью приписывать значения величин поля каждой точке независимо от существующего пространственно-временного континуума.

Одно из следствий ОТО состоит в том, что онтологический статус пространства-времени, по крайней мере в терминах его связи с гравитационным полем, должен пониматься совершенно иначе. Это изменение было привнесено проведенным Эйнштейном тщательным исследованием отношений между динамикой гравитационного поля и кинематическими структурами пространства-времени. Это исследование направлялось практическими взглядами Эйнштейна на геометрию, которые, в отличие от аксиоматических и конвенционалистских взглядов, стремились установить прямую связь между геометрией и поведением реальных объектов.

Традиционно любая динамическая теория должна предполагать некоторую геометрию пространства для формулировки ее законов и интерпретации. Фактически выбор геометрии предопределяет основания (причинные и метрические структуры) ее динамики. Например, в Ньютоновской динамике евклидова геометрия с ее аффинной структурой, которая определяется кинематической симметрией Галилеевой группы как математическим описанием кинематической структуры пространства, определяет динамический закон инерции. В такой теории кинематические структуры не имеют отношения к динамике. В результате динамические законы являются инвариантными при трансформациях, относящихся к кинематической группе симметрии. Это означает, что кинематические симметрии накладывают некоторые ограничения на форму динамических законов.

В ОТО предполагалось, что динамические законы остаются справедливыми для каждого мыслимого пространственно-временного многообразия. Таким образом, существование фиксированных кинематических структур пространства-времени и соответствующей кинематической симметрии с ее ограничениями на форму динамических законов должно было быть отвергнуто. Как мы увидим в кратком обзоре, приведенном ниже, этот и некоторые другие выводы, оказывающие глубокое влияние на наше понимание природы пространства-времени, были достигнуты в результате сложного интеллектуального усилия, совершенного под эгидой трех принципов: принципа эквивалентности (ПЭ), принципа Маха (ПМ) и общей ковариантности (ОК).

Апеллируя к ПЭ, Эйнштейн смог ввести понятие гравитационного поля в дискуссию об инерции, с тем чтобы установить нераздельность гравитации и инерции (которые могли быть совместно представлены аффинными связями) и совместить инерциально-гравитационные и хроно-геометрические структуры пространства-времени. Онтологически результаты этого совмещения могут быть интерпретированы двумя различными способами. Либо гравитация может интерпретироваться как проявление структуры пространства-времени (а не как особая сила в пространстве-времени), либо инерциально-гравитационная структура может быть интерпретирована как образованная причинно-эффективным физическим полем, а именно гравитационным полем (аффинная связь), а хроно-геометрическая структура (как образованная метрическим тензором. На данной стадии развития эту интерпретативную двусмысленность устранить не удалось[cccxiv].

Хотя Эйнштейн ввел выражение “Принцип Маха” (ПМ) только в 1918 г., его работа по разработке ОТО была с самого начала мотивирована критикой Махом абсолютного пространства Ньютона и его релятивистскими взглядами (которые следовали из его предположения о том, что инерция или инерциальные системы должны быть выводимы из причинных взаимодействий материальных тел). Фактически Эйнштейн утверждал, что его уравнение поля является воплощением принципа Маха. Это означает, что ПМ не только ввел в рассмотрение материю (и таким образом обогатил исследование природы пространства-времени) и поддержал релятивистские взгляды, но также позволил окончательно устранить упомянутую выше интерпретативную двусмысленность в полевой или геометрической интерпретации гравитации посредством использования метафизических следствий – общей ковариантности (ОК).

Какой бы ни была интерпретация, полевое уравнение отчетливо установило динамическую природу кинематических структур пространства-времени и таким образом отвергло его фиксированный характер и независимое существование. Быть динамическим обычно означает быть субъектом временной эволюции. Учитывая, что в ОТО временные отношения сами определяются метрическим тензором, было бы бессмысленно утверждать, что метрический тензор является динамическим в смысле подверженности временным изменениям. Таким образом, быть динамическим для метрического тензора означает прежде всего быть субъектом каузального взаимодействия с материей или другими физическими сущностями (включая электромагнитные или другие поля, включая себя самого)[cccxv].

Но тогда мы сталкиваемся со сложной ситуацией в связи с открытием вакуумных решений Эйнштейновского полевого уравнения. Это могло быть интерпретировано (и на самом деле интерпретировалось) в том смысле, что ПМ является неверным и что геометрические структуры пространства-времени, или даже само пространство-время, могут иметь некоторое независимое от материи существование. Однако это может быть интерпретировано и по-другому.

Во-первых, существование вакуумных решений может быть использовано для того, чтобы показать, что гравитационное поле, как такое же физическое поле как и электромагнитное, является автономной и онтологически первичной сущностью: его существование не выводится из материальных тел, как могла бы предполагать одна из интерпретаций ПМ, или из других физических сущностей, таких как другие поля. Во-вторых, возможность исключения взаимодействий гравитационного поля с другими физическими сущностями не означает, что гравитационное поле не взаимодействует с другими физическими сущностями, когда они присутствуют. То есть существование вакуумных решений не изменяет динамической природы гравитационного поля. В-третьих, если условие совместимости удовлетворяется, то сказанное о гравитационном поле может быть сказано и о метрическом тензоре, который образует кинематическую структуру пространства-времени. Это означает, что и гравитационное поле, и другие поля (из которых в соответствии с КТП могут быть выведены материальные тела) являются причинно эффективными в образовании кинематической структуры пространства-времени, хотя их причинная эффективность должна быть опосредована метрическим тензором через полевые уравнения и условие совместимости.

Таким образом, существование вакуумных решений не обязательно означает, что ПМ является ложным и что пространство-время может иметь независимое существование.

Напротив, это могло бы означать, что первоначальная версия ПМ должна быть обобщена путем замены Маховских материальных тел более общими полями, включая гравитационное. Интерпретированный таким способом ПМ подразумевает, что пространство-время и его инерциально-гравитационная и хроно-геометрическая структура образованы непосредственно гравитационным полем и соответствующим метрическим полем, которые причинно взаимодействуют со всеми физическими полями, включая самих себя.

Интерпретативная двусмысленность, связанная с ПЭ и ПМ, была в конце концов устранена Эйнштейном в процессе его размышлений над ОК при окончательной формулировке ОТО. Идея проста. Если уравнения поля должны быть общековариантными, тогда точки четырехмерного многообразия не имеют идентичности, а функционируют только как места для структуры отношений, соединяющей их в единое целое. В данном случае структура отношений относится к хроно-геометрической структуре, приписываемой метрическим тензором, являющимся решением уравнений поля.

Из того факта, что пространственно-временные отношения специфицируются отсылкой не к точкам многообразия, а скорее к метрическому тензору, следует, что точки многообразия сами по себе не имеют пространственно-временного смысла. Они могут иметь такой смысл, только когда им приписывается некий метрический тензор. Следовательно, состояния метрического тензора не могут быть обозначены точками многообразия, они должны быть обозначены свойствами его внутренней структуры, связанными с первой и второй фундаментальными формами, определяющими скалярную и внешнюю кривизну (см. Wald, 1984). Кроме того, динамическая природа метрического тензора предполагает динамическую структуру пространственно-временных отношений.

Таким образом, нельзя сказать, что многообразие, наделенное некоторыми дифференциальными и топологическими структурами, представляет собой пространство-время. Скорее пространство-время как реляционная сущность образуется или индивидуализируется метрическим тензором. Это означает, что только метрический тензор ответствен за определение пространственно-временных отношений. В отличие от пространства-(времени) Ньютона, которое можно считать существующим независимо и не взаимодействующим физически с другими сущностями и в противоположность также представлениям Лейбница о пространственно-временных отношениях, которые вообще не являются физическими сущностями (существующими независимо), метрический тензор является динамической сущностью, которая взаимодействует со всеми другими физическими сущностями, включая самого себя. Именно это универсальное взаимодействие (coupling), включая самовзаимодействие, определяющее относительное движение объектов, мы стремимся использовать в качестве стержней и часов, что позволяет нам дать ему метрическую интерпретацию, которая, в свою очередь, подтверждает его определяющую роль в образовании пространственно-временных отношений[cccxvi].

Нередко метрический тензор смешивают с пространством-временем или с его хроногеометрией. Это неверно, потому что тогда становится незаметным важное различие между конституирующим агентом (метрическим тензором) и конституируемой реляционной сущностью (пространством-временем), которые располагаются на двух разных онтологических уровнях[cccxvii]. Это различие является важным, потому что оно помогает нам выяснить, какая теоретическая сущность должна быть взята в качестве физически первичной и фундаментальной в дискурсах о гравитации и пространстве-времени и на этом основании должна стать предметом квантово-теоретического рассмотрения. В этом отношении уместно сделать два замечания.

Во-первых, хотя пространство-время как теоретическая сущность представляет собой только отношения, эти отношения образуются индивидуальной физической сущностью (метрическим тензором). Во-вторых, если мы будем считать динамический характер определяющей чертой всего дискурса, т.е. будем рассматривать гравитационные взаимодействия в качестве основного фактора в нашем понимании гравитации и пространства-времени, тогда мы сможем понять метрический тензор в качестве замаскированного варианта аффинной связи или даже в качестве некоторой сущности, которая существует благодаря этой связи. По крайней мере ее формы и характерные черты обуславливаются этой связью через условие совместимости. Все это поддерживает точку зрения, согласно которой метрический тензор может рассматриваться в качестве моста, соединяющего базисную онтологию (связь) с явлениями (пространственно-временные отношения), и таким образом наше рассмотрение должно быть сосредоточено скорее на этой связи, чем на метрическом тензоре[cccxviii].

Остается еще вопрос об онтологическом статусе многообразия. После того, как аргумент о совпадении точек нейтрализовал hole аргумент против ОТО, некоторые философы стали защищать точку зрения, получившую название “субстанциализма относительно многообразия”, чтобы дать новую жизнь субстанциалистскому пониманию пространства-времени[cccxix]. Однако этот взгляд связан со многими трудностями. Во-первых, как мы уже замечали выше, без метрического тензора точки многообразия сами по себе не представляют пространственно-временных событий. Во-вторых, благодаря общей ковариантности эти точки неидентифицируемы и, следовательно, не являются локализуемыми динамическими степенями свободы (то есть не могут взаимодействовать с другими физическими сущностями)[cccxx]. На самом деле, самое важное свойство многообразия, которое имеет отношение к дискуссии о пространстве-времени, а именно его размерность и явно и неявно предположенные дифференциальные и топологические структуры, могут рассматриваться только в качестве математического описания самых общих свойств метрического тензора. Поэтому эти свойства являются только квалификаторами, но не индивидуаторами реляционной сущности “пространство-время”.

Однако, если мы ограничим дискуссию реляционной сущностью пространства-времени и не будем спускаться до уровня гравитации, тогда мы должны будем принять во внимание другой очень интересный аспект многообразия. Необходимость говорить о многообразии в пространственно-временном дискурсе наводит на мысль понять его как голый субстрат[cccxxi] пространства-времени, который для того, чтобы обладать определенной пространственно-временной структурой, должен быть индивидуирован метрическим тензором. С эпистемологической точки зрения этот взгляд обладает определенными достоинствами, поскольку он помогает нам придать смысл некоторым математическим манипуляциям с многообразием еще до того, как метрический тензор определяется и приписывается многообразию в качестве решения уравнения поля (например, определению дивергенции и регуляризации (в случае, если речь идет о квантовой теории поля). Чтобы проводить эти манипуляции, без которых невозможно начать такого рода исследования, необходимо придать хотя бы самый общий смысл пространству-времени. Этот взгляд может быть также подкреплен методологической идеей самосогласованного подхода (бутстрепа). Прежде чем обсуждать саму эту идею, позвольте остановиться еще на двух обстоятельствах, к которым эта идея имеет отношение.

Во-первых, некоторые физики, склонные к реляционизму, акцентируют то обстоятельство, что гравитационное поле не находится в пространстве-времени, но что положение вещей определяется по отношению к этому полю[cccxxii]. Это правильное соображение: пространственно-временные отношения (и следовательно, положения) можно определить только для данного метрического тензора, который тесно связан с гравитационным полем. И все же гравитационное поле как физическая сущность (система с бесконечным числом степеней свободы) также существует в пространстве-времени, то есть состоит в пространственно-временных отношениях с другими физическими сущностями или по крайней мере с самим собой[cccxxiii]. В противном случае мы бы не могли определять события взаимодействия поля с другими сущностями, а это единственный способ, с помощью которого мы можем удостовериться в его существовании.

Во-вторых, реляционистский отказ от абсолютного пространства-времени (и его фиксированной хроногеометрии) влечет за собой отказ от локализуемости. Но локализуемость необходима для того, чтобы определить локальные степени свободы и построить некоторую теорию поля (которая характеризуется тем, что имеет дело с бесконечным числом степеней свободы), поскольку без этого потеряла бы смысл вся дискуссия, в контексте которой возникает реляционистская точка зрения. Конечно, в этом смысле может помочь понятие относительного положения. Но чтобы определить это глубокое понятие (что можно сделать только если получены решения уравнений поля), мы должны начать с некоторой “параметрической локализации”, которая определяется на точках голого многообразия[cccxxiv].

Философский аспект этой проблемы был наиболее остро сформулирован Кантом. Согласно Канту, без пространства и времени невозможны никакие физические опыты и никакие знания о физическом мире. Поэтому в метафизике Канта пространство и время – это первоначальные понятия, которые нельзя объяснить с помощью других понятий.

Однако Кант говорит только об эпистемологической необходимости, а не об онтологическом приоритете. Аргумент Канта не исключает возможности того, что пространству-времени может быть дано онтологическое объяснение. С точки зрения Канта, пространство и время необходимы для того, чтобы иметь доступ к миру явлений. Согласно Маху, Эйнштейну, и в частности ОТО, эта реляционная сущность допускает онтологическое объяснение в терминах взаимодействующих тел, или метрических тензоров, или (в окончательном смысле) в терминах гравитационного поля или аффинных связей.

Однако такое объяснение возможно, только если у нас уже есть хорошая физическая теория, а хорошая физическая теория, как и вообще любая физическая теория, предполагает существование пространства-времени (в этом Кант прав). Дело не только в том, что пространство-время предполагается эмпирическим базисом теории (взаимодействия гравитационного поля и других полей необходимо считать пространственно-временными событиями), но и в том, что даже самые абстрактные концептуальные построения в квантовой теории гравитации (КТГ) предполагают некоторую параметрическую локализацию голого пространства-времени. Явный круг в рассуждении[cccxxv] грозит оказаться порочным и неизбежным, а такое объяснение – ничего не объясняющим.

С методологической точки зрения, чтобы спасти онтологический приоритет (и следовательно, объяснительную силу) гравитационного поля по отношению к пространству-времени, несмотря на эпистемологическую необходимость последнего для объяснения, можно обратиться к идее бутстрепа.

Возьмем для примера теорию перенормировки. Прежде всего мы должны ввести голые параметры (массу и заряд), а затем различные инструменты для регуляризации. Все эти понятия не имеют физического смысла, и поэтому они сами по себе неприемлемы. Но если конечные результаты не зависят от этих понятий[cccxxvi], такая процедура является обоснованным способом изучения физических свойств и взаимодействий элементарных частиц.

Подобным образом мы можем начать с не имеющего физического смысла голого многообразия, на котором предварительно определяется параметрическая локализация. Однако это предполагает существование физического пространства-времени, и этому многообразию должен быть придан физический смысл. Таким способом удовлетворяется Кантовское требование эпистемологической необходимости пространства-времени. Если окончательные результаты в диффеоморфно ковариантной теории не зависят от параметров локализации, не считая некоторых самых общих свойств гравитационного поля (что неизбежно при всяком эффективном самосогласованном бутстрепе), тогда вся эта процедура является обоснованным способом изучения физического пространства-времени и его онтологических предпосылок. В этом случае круг оказывается не порочным; можно сказать, что он представляет самосогласованный бутстреп. Кроме того, в этом случае не приходится поступаться объяснительной силой (можно сказать, что в этом случае объяснение основывается на физической теории, а не на чистых метафизических спекуляциях[cccxxvii].

Суммируя, можно сказать, что ОТО накладывает на любую возможную КТГ следующие ограничения. Во-первых, искомая теория должна воспроизводить все существенные черты ОТО. А именно: это должна быть новая теория поля (то есть теория, имеющая дело с бесконечным числом степеней свободы, не предполагающая заранее заданного автономного пространства-времени с жесткими структурами[cccxxviii]. Скорее пространство-время формируется как реляционная сущность динамическими гравитационными полями (аффинными связями и метрическими тензорами их вариаций) и таким образом является динамическим по своей природе[cccxxix]. Во-вторых, такая теория обязательно должна использовать идею бутстрепа, ключевым моментом которой является установление диффеоморфной ковариантности теории, поскольку в противном случае эта существенная черта ОТО была бы утеряна.

Ограничения, накладываемые Квантовой Теорией Поля

Чтобы применить квантовые принципы к гравитации, естественно работать в рамках квантовой теории поля (сокращенно КТП)[cccxxx]. В качестве наиболее удачной общей рамки для разработки специальных квантовых теорий с бесконечным числом степеней свободы в различных областях явлений, включая все физические взаимодействия кроме гравитации, КТП дает нам знания о квантовых принципах и о применении этих принципов к полевым системам. Поскольку ОТО также имеет дело с полевой системой, кажется естественным и в то же время очень соблазнительным попытаться построить квантовую теорию гравитации, применяя КТП к гравитационному полю ОТО. К сожалению, все попытки такого рода до сих пор не увенчались успехом, причем это произошло скорее не из-за технических проблем, а из-за проблем с основаниями. Поэтому если мы хотим понять, какого рода ограничения, накладываемые КТП на искомую непротиворечивую КТГ, нужно принять всерьез и каким образом нужно модифицировать основания КТП так, чтобы иметь возможность применить ее к гравитации, нам совершенно необходимо внимательно исследовать концептуальные основания КТП.

Первый вопрос, который необходимо поставить в таком исследовании, является онтологическим: что подлежит квантованию? В наше время среди специалистов по КТГ стало признаком хорошего тона говорить о квантовании геометрии, топологии, пространства-времени и даже многообразия. Мне не ясно, что понимают в этих случаях под квантованием. В КТП под квантованием всегда понимается квантование некоторой динамической системы, степени свободы которой должны быть локализуемы (хотя не обязаны существовать постоянно и лежать в основании теории)[cccxxxi]. Процедура квантования открывает нам некоторые специальные свойства и образцы поведения данной динамической системы на микроскопическом уровне или в высокоэнергетическом режиме: некоторые особые дискретные значения некоторых полевых величин, некоторые особые вероятности перехода от одного состояния поля в другое и т.д. Необходимо подчеркнуть, что хотя квантование свойств и образцов поведения динамической системы может давать дискретную картину (дискретные значения некоторых полевых переменных и скачки из одного состояния в другое), сама полевая система остается непрерывной. Это значит, что полевая система остается определенной в каждой точке непрерывного четырехмерного пространственно-временного многообразия.

Это приводит нас на более глубокий уровень оснований КТП. КТП требует и предполагает заранее заданное пространственно-временное многообразие (а именно многообразие Минковского), в котором каждая точка обладает идентичностью и может индексировать динамические степени свободы полевой системы. Определяемые таким образом локальные поля обеспечивают онтологический базис для различного рода локальных взаимодействий, каждое из которых за исключением гравитации успешно описывается в рамках КТП. Если мы посмотрим более внимательно на концептуальную структуру КТП, как она сформулирована в аксиоматической системе Вайтмана и Хаагса, мы увидим, что пространственно-временное многообразие Минковского дает онтологические основания для основных предположений КТП, таких как инвариантность Пуанкаре, спектральное условие (вакуумное состояние и скачок массы), локализуемость и канонические соотношения коммутативности. Поскольку одним из самых глубоких метафизических следствий ОТО является как раз отказ от такого предзаданного и фиксированного пространственно-временного многообразия как онтологического обоснования полевой системы, между КТП и ОТО возникает серьезное напряжение.

Однако внимательный читатель может обратить внимание на то, что все сделанные выше утверждения о том, что КТП онтологически требует предзаданного пространства-времени, имеют отношение только к полевой системе. Мы еще не касались понятия кванта. Возможно, что предзаданное пространство-время Минковского не существенно для самой идеи кванта, и, таким образом, напряжение между основаниями КТП и ОТО на самом деле не такое серьезное и не может привести к открытому конфликту между этими теориями.

К сожалению, как мы увидим, это все же не так. Поэтому, чтобы построить непротиворечивую рамку для КТГ (в качестве расширения или синтеза существующих теорий), необходимо что-то изменить в основаниях. Однако, прежде всего, давайте пристальнее посмотрим на роль понятия пространства-времени в определении кванта.

Будет удобнее разделить обсуждение сложных отношений между понятием кванта и предзаданного пространства-времени на две части. Сначала мы проанализируем эти отношения в терминах внутренней физики и метафизики любой квантовой теории. Потом мы перейдем к обсуждению одного необычного аспекта концептуального базиса квантовой теории, который был сформулирован Нильсом Бором, а именно Копенгагенской интерпретации.

Внутренняя физика и метафизика квантовой теории: В начале своей истории (Планк, Эйнштейн и Бор) термин “квант” относился к определению и измерению свойств микроскопических объектов, и в особенности к их дискретному характеру. Условие, гарантирующее дискретный характер измеряемых свойств, было названо Бором и Зоммерфельдом “условием квантуемости”. В контексте матричной механики условие квантуемости Бора-Зоммерфельда превратилось в канонические соотношения коммутативности (или антикоммутативности) (сокращенно КСК)[cccxxxii]. Однако КСК и его аналоги нельзя определить без метрики и связанной с ней каузальной структурой предзаданного пространства-времени.

Более глубокое следствие идеи кванта, которое наложило ограничение на одновременное измерение некоторых пар свойств, было осознано вскоре после формулировки КСК. Наиболее глубоким следствием было, конечно, соотношение неопределенности Гейзенберга. На первый взгляд соотношения неопределенности имеют отношение только к эпистемологической проблеме измерения. Однако чтобы обосновать или даже понять эти соотношения, которые надежно установлены экспериментально, необходимо сделать онтологическое предположение: мы должны допустить существование внутренних (возможно, примитивных) флуктуаций в микроскопическом мире, которые численно описываются соотношениями неопределенности[cccxxxiii]. Как хорошо известно, принцип неопределенности дает мощные теоретические средства для объяснения многих физических понятий: наиболее релевантным в этом контексте является понятие сингулярности светового конуса, которое вместе с понятием перенормировки составляет концептуальную основу КТП.

Однако и сам принцип неопределенности (сформулированный в терминах вариации измеряемых свойств по отношению к пространственно-временной области), и его метафизическая предпосылка (флуктуации физических свойств определяемых в пространственно-временной области) привязаны к предзаданному пространственно-временному многообразию с фиксированной хроногеометрической структурой. В противном случае нельзя ни сформулировать принцип неопределенности, ни даже определить понятие флуктуации. Конечно, можно сказать, что принцип неопределенности сам делает невозможным точную локализацию в пространстве-времени. Однако понятие неопределенной локализации само определяется только посредством понятия точной локализации и таким образом зависит от многообразия с определенной на нем хроногеометрической структурой (cf. Teller, 1999).

Измерение и пространство-время: согласно Нильсу Бору или Копенгагенской интерпретации, квантовая теория не имеет смысла без измерений. Бор рассматривал квантовую теорию по сути как исчисление вероятностей того, что различные свойства и процессы имеют место в определенных областях пространства-времени. По отношению к любой физической системе можно утверждать, что никакое знание о системе не может быть получено без измерений. Однако особенностью квантовой теории является то, что до измерений нельзя предполагать даже само существование измеряемых свойств. Предположив противное, согласно Копенгагенской интерпретации мы приходим к противоречию с экспериментальными свидетельствами[cccxxxiv]. Однако измерение Бор всегда понимает в классическом смысле (как измерение наблюдаемых свойств, локализуемых в пространственно-временном многообразии с фиксированной хроногеометрической структурой. Если эта структура имеет динамическую природу и состоит в причинном взаимодействии с измерительным прибором так же как и измеряемая система, невозможно никакое контролируемое измерение[cccxxxv]. Здесь, в квантовой области, Бор очень эффективно повторил и даже усилил тезис Канта о том, что опыт и знание невозможны без априорных форм пространства и времени.

Давайте опять обратимся к онтологическому аспекту квантовой физики, но подойдем к нему с другой стороны. Кажется привлекательной идея объяснить классические макроскопические явления с помощью квантовых микроскопических процессов. Существует два подхода к пониманию отношений между квантовой и классической физикой: активное квантование и квантовый реализм[cccxxxvi].

Сторонники активного квантования считают, что квантовая система может и должна быть получена путем активного квантования некоторой классической системы. Тогда классическую систему можно будет объяснить через квантовую как ее предельный случай. Если бы переход с одного уровня на другой был гладким, отношения между классической и квантовой физикой были бы ясными.

Проблема, возникающая при таком подходе, состоит в том, что в некоторых случаях классическая система (в частности, гравитационное поле ОТО), которой мы хотим дать причинное объяснение конститутивного типа (то есть микроскопическое или квантовое объяснение)[cccxxxvii], не может быть квантована в рамках обычной КТП[cccxxxviii]. Обратная проблема такого же рода возникает, когда некоторая квантовая система, например фермионное поле, не имеет классического предела[cccxxxix]. В таких проблематичных случаях переход между классическим и квантовым уровнями оказывается непростым, и объяснение классических свойств посредством сведения их к квантовым в рамках метода активного квантования представляется невозможным.

Однако такое объяснение может оказаться возможным, если мы примем точку зрения квантового реализма. Согласно квантовому реализму у нас нет оснований надеяться правильно понять отношения между квантовым и классическим уровнями, просто исследуя поведение одних и тех же сущностей на различных масштабах длин[cccxl], заданных в фиксированном пространственно-временном многообразии. Если переход от одного масштаба к другому необратим, такой подход, очевидно, не работает. Это особенно важно в случае гравитации, где само понятие масштаба длины подлежит исследованию и реконструкции на надежном понятийном основании. Однако, если мы допустим, что реальность имеет квантовую природу, будет лучше, если мы примем квантовую онтологию с самого начала. Тогда мы можем попытаться вывести классические явления некоторым разумным (хотя, возможно, и сложным) способом. Следовательно, явления могут быть не классическими пределами тех же сущностей, которые только ведут себя по-другому на другом масштабе длины, а действительно новыми сущностями, которые появляются в новом контексте.

Теперь мы можем следующим образом суммировать ограничения, которые КТП налагает на любую возможную теорию КТГ. Во-первых, необходимость связи между антологиями различных теорий требует, чтобы КТГ в качестве базовой онтологии принимала глобальное динамическое поле, которое постоянно флуктуирует, является локально возбудимым и квантовым по природе (в том смысле, что локальные возбуждения поля подчиняются квантовым принципам, таким как канонические соотношения коммутативности [или антикоммутативности] и соотношения неопределенности). Во-вторых, теория КТГ должна обладать достаточными теоретическими ресурсами, чтобы обосновать базовые понятия концептуальной структуры КТП, такие как бесконечность числа степеней свободы, локализуемость и глобальное состояние вакуума, которые в обычном варианте КТП обосновываются с помощью 4-хмерного пространственно-временного многообразия Минковского с фиксированной хроногеометрической структурой.

Онтологический синтез: возможное решение

Пытаясь распространить наши знания о гравитации с макроскопического режима на микроскопический, мы выяснили, что это не может быть сделано путем простого приложения квантовых принципов к ОТО (активное квантование). Вместо этого мы должны строить нашу теорию сразу на квантовом уровне, и уже потом искать разумный способ связать ее с ОТО (квантовый реализм). Это не означает, однако, отказа от проекта расширения теории. Скорее это означает, что такое расширение должно быть жестко ограничено как имеющимися знаниями о гравитации, так и существующей квантовой теорией, которые лучше всего выражены соответственно в ОТО и КТП.

Такой анализ попыток построить непротиворечивую теорию КТГ делает главную концептуальную трудность кристально ясной: глубокое напряжение между ограничениями, накладываемыми ОТО и КТП (как мы их сформулировали выше) делает почти невозможной непротиворечивую теорию, которая находилась бы в гармонии с ограничениями этих двух видов сразу.

Глубокое напряжение: во-первых, универсальное взаимодействие динамического метрического тензора, принятое в ОТО, означает отказ от любой фиксированной кинематической структуры пространства-времени и, таким образом, делает бессмысленным понятие абсолютного положения, тогда как КТП предполагает фиксированную хроногеометрическую структуру Минковского в качестве онтологического базиса своей концептуальной структуры. Это означает, что никакое понятие гравитации, совместимое с ОТО, не может быть введено в рамки КТП так, чтобы концептуальная структура КТП (определимость канонических соотношений коммутативности, соотношения неопределенности, измеряемость и само понятие квантовой флуктуации) не была бы разрушена.

Во-вторых, согласно ОТО непрерывный метрический тензор, определенный на дифференцируемом многообразии, предполагает понятие окрестности точки, что исключает возможность включить в рамки ОТО понятие произвольной флуктуации, тогда как произвольные флуктуации в непосредственной окрестности точки характеризуют квантовое поведение. Это означает, что невозможно ввести понятие кванта в рамках ОТО, не разрушив структуру, лежащую в основании этой теории. Джон Уиллер (1973) понял это уже в 1964 году.

Стратегия ослабления этого напряжения: чтобы найти способ облегчить это напряжение, необходимо пристальнее взглянуть на ситуацию. Начнем с ОТО. Поскольку ОТО является полевой теорией гравитации или динамической теорией пространства-времени, на онтологическом уровне для ОТО существенно предположение о гравитационном поле (связи), взаимодействующем с любыми физическими сущностями (универсальное взаимодействие). Однако при более внимательном рассмотрении обнаруживается, что это универсальное взаимодействие не требует, чтобы метрический тензор был непрерывным или определенным на гладком многообразии. В любом случае квантовый реалист сказал бы, что непрерывная структура пространства-времени, какой мы наблюдаем ее в макроскопическом режиме, могла бы быть получена путем “огрубления” успешной микроскопической теории гравитации, не предполагающей непрерывного поля и даже непрерывного многообразия[cccxli] . Иначе говоря, отказываясь от предположения о непрерывности, можно включить идею произвольных флуктуаций в концептуальные рамки непротиворечивой теории гравитации, хотя это радикально изменило бы наше понимание природы гравитационного поля и пространства-времени, и таким образом радикально изменило бы концептуальные основания ОТО.

Что касается КТП, то необходимость в фиксированной пространственно-временной структуре Минковского заключается только в ее функции определения локализованных состояний. Поэтому при более внимательном рассмотрении мы обнаруживаем, что от предположения о предзаданном пространстве-времени Минковского можно будет отказаться, если мы найдем другой способ локализовать квантовые состояния. Таким образом, реляционист[cccxlii]сказал бы, что статическая предзаданная пространственно-временная структура будет не нужна для определения локализованных состояний, если мы сможем успешно развить диффеоморфно ковариантную квантовую теорию поля, в которой квантовые состояния могли бы быть локализованы скорее относительным способом (то есть относительно друг друга), а не абсолютным способом (то есть посредством индексации по точкам пространства-времени). Другими словами, принимая реляционный взгляд на пространство-время (локализацию), можно ввести в концептуальную схему непротиворечивой теории квантовых полей динамическое понятие пространства-времени (посредством введения гравитационного поля с универсальным взаимодействием в полевую систему). Я должен подчеркнуть, однако, что это радикально изменило бы концептуальную схему КТП: исчезла бы ее предзаданная кинематическая структура пространства-времени, и все понятия и процессы, затрагивающие пространственно-временные отношения, нужно было бы понимать динамически, то есть путем обращения к действию динамического гравитационного поля.

Онтологический синтез: в нашей стратегии ключевую роль играли два понятия: “универсальное взаимодействие” и “флуктуация”. Эти понятия действуют как индивидуаторы. Мы можем использовать понятие универсального взаимодействия для того, чтобы охарактеризовать гравитационное поле и понятие произвольной флуктуации, чтобы охарактеризовать квантовую сущность. В некотором смысле на нашу стратегию можно посмотреть как на онтологический синтез: требуя, чтобы сочетание двух индивидуаторов (один из которых характеризует гравитационное поле, а другой квантовую сущность) характеризовало единственную сущность, а именно квантовое гравитационное поле, которое произвольно флуктуирует и в то же время универсально взаимодействует с любой физической сущностью (и таким образом, его динамика определяет хроногеометрическую структуру прежде всего в микроскопическом режиме, но также, посредством огрубления, и в макроскопическом режиме).

Эта новая онтология дает не только новые основания для концептуальной структуры КТГ, но также и новую картину мира, в которой единственной реальностью является гравитационное поле, взаимодействующее со всеми остальными квантовыми полями; все остальное, включая гладкие или фиксированные метрические тензоры, это вторичные явления. Конечно, эта новая онтология дает радикально новое понимание природы пространства, времени и причинности.

Онтологические аспекты редукции: в предшествующем обсуждении мы понимали переход от КТГ к ОТО не как простой предельный переход, но скорее как огрубление, при котором появляется новая сущность (непрерывный метрический тензор). Подобным образом переход от КТГ к КТП также дает жизнь новой физической сущности (нединамическому пространству-времени Минковского). При этом гравитация исключается из дискурса (или физического мира), что означает радикальное изменение онтологической структуры теории (или мира). Такой гетерогенный характер этого перехода делает невозможным подход активного квантования и требует квантового реализма, хотя, чтобы выполнить требование связности, должны быть приняты во внимание ограничения, накладываемые ОТО и КТП.

Благодарности: я признателен All Souls College, Oxford за предоставленную мне стипендию, позволившую закончить эту статью. Я хочу поблагодарить Dr. Jeremy Butterfield of All Souls College за гостеприимство и его полезные замечания и предложения. Я также хочу выразить свою признательность John Stachel и Harvey Brown за то, что они делились со мной своими идеями и указывали на ценные источники.


Литература

Adler, S. and Horwitz, L. (2000) 'Structure and properties and Hughston's stochastic extension of the Schroedinger equation', Journal of Mathematical Physics 41,2485.

Ashtekar, A. (1986) 'New variables for classical and quantum gravity', Physical Review Letter 57, 2244-47.

Ashtekar, A. (1987) 'New Hamiltonian formulation of general relativity', Physical Review D36, 1587-1602.

Ashtekar, A. and Lewandowski (1997a) 'Quantum theory of geometry I: Area operators', Classical and Quantum Gravity A14, 55-81.

Ashtekar, A. and Lewandowski (1997b) ''Quantum theory of geometry II: Volume operators', gr-qc/9711031.

Ashtekar, A. and Lewandowski (1999) 'Quantum field theory of geometry', in Conceptual Foundations of Quantum Field Theory (edited by T. Y. Cao; Cambridge, Cambridge University Press), 187-206.

Belot, G. and Earman, J. (1999) 'From metaphysics to physics', in From physics to Philosophy (edited by J. Butterfield and C. Pagonis; New York, Cambridge University Press), 166-186.

Belot, G. and Earman, J. (2000) 'Pre-Socratic quantum gravity' (manuscript).

Brown, H. R.(1997) 'On the role of spacial relativity in general relativity', International Studies in the Philosophy of Science 11, 67-81.

Brown, H. R. and Pooley, O. (2000) 'The origin of the spacetime metric: Bell's "Lorentzian pedagogy" and its significance in general relativity', to appear in Physics meets Philosophy at the Planck Scale (edited by C. Callender and N. Huggett; Cambridge University Press).

Brunetti, R., Fredenhagen, K., and Koehler, M. (1995).'The microlocal spectrum condition and Wick polynomials of free fields on curved spacetimes', DESY (1995), 95-196.

Butterfield, J. and Isham, C. (1999a) 'On the emergence of time in quantum gravity', in The Arguments of Time (edited by Jeremy Butterfield; Oxford University Press) 111‑168; gr-qc/9901024.

Butterfield, J. and Isham, C. (1999b) 'spacetime and the philosophical challenge of quantum gravity', to appear in Physics Meets Philosophy at the Planck Scale (edited by C. Callender and N. Huggett; Cambridge University Press, 2000); gr-qc/9903072.

Cao, T. Y. and Schweber, S. S. (1993) 'The conceptual foundations and the philosophical aspects of renormalization theory', Synthese 97, 33-108.

Cao, T. Y. (1997) Conceptual Development of 20th Century Field Theories (Cambridge, Cambridge University Press).

Cao, T. Y. (1998) 'Objectivity and progress in science', (manuscripts).

Cao, T. Y. (1999a) 'Introduction: Conceptual issues in quantum field theory', in Conceptual Foundations of Quantum Field Theory (edited by T. Y. Cao; Cambridge, Cambridge University Press), 1-27.

Cao, T. Y. (1999b) 'Structural realism and the interpretation of quantum field theory', forthcoming in Synthese..

DeWitt, B. S. (1967a, b, c) 'Quantum theory of gravity, I, II, III ', Physical Review 160, 1113-1148; 162, 1195-1239, 1239-1256.

Earman, J. and Norton, J. (1987) 'What price space-time substantivalism? The hole story,' British Journal for the Philosophy of Science 38, 515-525.

Earman, J. (1989) World Enough and Spacetime (Cambridge, Mass. MIT Press).

Feynman, R. P., Morinigo, F. B. and Wagner, W. G. (1995) Feynman Lectures on Gravitation (edited by B. Hatfield and foreword by J. Preskill and K. S. Thorne; Reading, Mass, Perseus Books).

Field, H. (1980) Science without Numbers (Princeton University Press).

Grunbaum A. (1977) 'Absolute and relational theories of pace and space-time' in Foundations of Space-Time Theories (edited by J. Earman, C. Glymore and J. Stachel; University of Minnesota Press), 303-373.

Hawking, S. and Israel, W. (eds.) (1979) General Relativity: An Einstein Centenary Survey (Cambridge, Cambridge University Press).

Isham, C. T., Penrose, R., and Sciama, D. W. (eds.) (1975) Quantum Gravity (Oxford, Clarendon).

Isham, C. J. (1997) 'Structural issues in quantum gravity', in General Relativity and Gravitation (Singapore, World Scientific): GR14, 167-209.

Kay, B. S. (1996) 'Quantum fields in Curved spacetime: non-global hyperbolicity and locality', Proceedings of the Conference on Operator Algebras and Quantum Field Theory (edited by S. Doplicher, R. Longo, J. Roberts, and L. Zsido; Rome, Accademia Nationale dei Lincei).

Monk, N. (1997) 'Conceptions of space-time problems and possible solutions ', Studies in History and Philosophy of Modern Physics 28B, 1-34

Polchinski, J. G. (1998) String Theory (Cambridge University Press).

Redhead, M. (1987) Incompleteness, Nonlocality and Realism (Oxford University Press).

Redhead, M. (1999) 'Quantum field theory and the philosopher', in Conceptual Foundations of Quantum Field Theory (edited by T. Y. Cao; Cambridge, Cambridge University Press), 34-40.

Rovelli, C. and Smolin, L. (1990) ' Loop representation of quantum general relativity', Nuclear Physics B331, 80-152

Rovelli, C. (1998) 'Strings, loops and others: a critical survey of the present approaches to quantum gravity', gr-qc/9803024.

Rovelli, C. (1999) ' "Localization " in quantum field theory: how much of QFT is compatible with what we know about space-time?' in Conceptual Foundations of Quantum Field Theory (edited by T. Y. Cao; Cambridge, Cambridge University Press), 207-232.

Salmon, W.C. (1984) Scientific Explanation and the causal structure of the World (Princeton, princeton University Press).

Sorkin, R. D. (1997) 'Forks in the road, on the way to quantum gravity', International Journal of Theoretical Physics, 36 (12), 2759-81.

Stachel, J. (1980) 'Einstein's search for general covariance, 1912–1915,' a paper presented to the 9th International Conference on General Relativity and Gravitation, Jena, 1980; later it is printed in Einstein and the History of General Relativity (edited by d. Howard and J. Stachel; Boston, Birkhauser), 63-100.

Stachel, J. (1994) 'Changes in the concepts of space and time brought about by relativity,' in Artifacts, Representations, and Social Practice (edited by C. C. Gould and R. S. Cohen; Dordrecht/Boston, Kluwer), 141-162.

Stachel, J. (1999a) 'The story of Newstein or: Is gravity just another pretty force?' (Manuscript).

Stachel, J. (1999b) 'The story of Newstein or: Is gravity just another pretty force?' (Manuscript).

Teller, P. (1999) 'The ineliminable classical face of quantum field theory', in Conceptual Foundations of Quantum Field Theory (edited by T. Y. Cao; Cambridge, Cambridge University Press), 314-323.

'T. Hooft, G. (2000) 'Obstacles on the way towards the quantization of space, time and matter – and possible solutions'.

Wald, R. (1984) General Relativity (Chicago, University of Chicago Press).

Wald, R. (1994) Quantum Field Theory in Curved Spacetime and Black Hole Thermodynamics (Chicago, University of Chicago Press).

Wheeler, J. (1973) 'From relativity to mutability', in The Physicist's Conception of Nature (edited by J. Mehra; Dordrecht, Reidel), 202-247.


Естественнонаучная парадигма: общие вопросы

 

Е.А.Мамчур

Присутствуем ли мы при кризисе эпистемологических
оснований парадигмы физического знания?

Л.А.Шелепин

Становление новой парадигмы

Р.М.Нугаев

Смена парадигм: модель коммуникативной рациональности

М.Д.Ахундов

Социальное влияние на науку: локальное или атрибутивное?

Н.Ф.Овчинников

Поиски достоверности

Г.Б.Жданов

О необходимых и достаточных критериях
достоверности естественнонаучных знаний

Формирование специальных научных парадигм

И.К.Лисеев

Становление новой парадигматики
в биологических исследованиях

А.А.Крушанов

Универсальная парадигма экологии

Ю.В.Сачков

К синтезу парадигм (концепций) жесткой
детерминации и вероятностной детерминации

А.А.Печенкин

Парадигма и идеология: опыт философской реконструкции
истории теории нелинейных колебаний

П.С.Исаев

Некоторые проблемы физики элементарных
частиц в области высоких энергий

Р.А.Аронов, В.М.Шемякинский

Два подхода к проблеме взаимоотношения геометрии и физики

А.Ю. Севальников

Квант и время в современной физической парадигме

Тьян Ю Цао

Предпосылки создания непротиворечивой теории квантовой гравитации

 


Научное издание

Философия науки

Выпуск 7

Формирование современной естественнонаучной парадигмы

Утверждено к печати Ученым советом Института философии РАН   В авторской редакции

– Конец работы –

Используемые теги: формирование, современной, естественнонаучной, парадигмы0.043

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Формирование современной естественнонаучной парадигмы

Что будем делать с полученным материалом:

Если этот материал оказался полезным для Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Еще рефераты, курсовые, дипломные работы на эту тему:

Современная естественнонаучная картина мира
Сегодня это должно быть ясно каждому образованному уму. Точно также и целое постижимо лишь в органическом единстве с его частями, а часть может… Нет такой науки, предметом которой было бы исключительно всеобщее без познания… Без понимания принципа всеобщей связи не может быть истинного знания.Осознание универсальной идеи единства всего…

Анализ возможностей современных педагогических технологий по формированию практических навыков профессиональной деятельности слушателей на групповых упражнениях по специальным учебным дисциплинам
Им стали силы воздушного нападения, активно поддерживаемые и обеспечиваемые из космоса. Основной сферой вооруженной борьбы стало воздушно-космическое пространство. … Сегодня уже недостаточно иметь профессионалов, владеющих оружием противовоздушной обороны на тактическом уровне.

Влияние рекламы на формирование имиджа современного политика
Санаев А. Выборы в России: Как это делается: Монография М.: Ось-89, 2005 С. 82 Тем не менее, отметим, что непосредственно политическая реклама со… Еще десятилетие назад в России практически не было политической рекламы,… Актуальность темы формирования имиджа политика средствами политической рекламы в современных условиях несомненна -…

Культура толерантности в современной парадигме образования
Проанализируем мировоззренческие основания личности советского и постсоветсткого периода. Советский человек должен был быть коллективистом,… Наряду с позитивными чертами коллективизма: взаимопомощью, поддержкой, следует… Но, заметим при всей парадоксальности ситуации, «труд» и «образование» воспринимались как ценность.Хотя преподаватель…

РЕФЕРАТ ПО ДИСЦИПЛИНЕ НА ТЕМУ: СОВРЕМЕННОЕ СОСТОЯНИЕ МИРОВОГО РЫНКА НЕФТИ И ПРОГНОЗЫ РАЗВИТИЯ. 2. Анализ современного состояния нефти в россии
РОССИЙСКОЙ ФЕДЕРАЦИИ... ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ... ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ...

Высшие чувства личности, их формирование в современных условиях
Данная работа состоит из введения, основной части, включающей 2 вопроса и заключения. В первом вопросе раскрывается понятие чувства и дается… Эстетическое воспитание развивает вкус, умение замечать прекрасное и… При нравтсвенном воспитании развиваются такие чувства как любовь, уважение, жалость к окружающим, так необходимые для…

Формирование России как Евразийского государства и её роль в современном цивилизационном процессе
Особенно размышления о судьбе России обостряются в переходные периоды, когда рушатся старые устои и появляется необходимость в новых идеях. Современный период, когда произошло крушение большевистского режима, особенно… Сейчас теория евразийства приобретает новых сторонников и представляет собою более современную теорию, которая…

Формирование современной территории России
К Московскому княжеству отошли огромные просторы Севера от Финляндии до Оби. Московия вышла за границы национального ареала - в состав государства… Если в 1460-х гг. площадь государства составляла 430 тыс км2, то к 1530-м гг.… К концу XVI в. территория страны достигает 5,5 млн км2. XVII в. начался для России неудачно - сначала трехлетний…

Коммуникативная парадигма в современной социологии
Их значимость находится не в отношении к объективируемой действительности, а в отношении к другим информационным средствам.Исследование общественных… С понятием «неформальных» коммуникаций тесно связана коннотация с теневой,… Т. Шибутани рассматривает возникновение и функционирование слухов по большей части как следствие неэффективной…

Формирование России как евразийского государства и ее роль в современном цивилизационном процессе
Особенно размышления о судьбе России обостряются в переходные периоды, когда рушатся старые устои и появляется необходимость в новых идеях. Современный период, когда произошло крушение большевистского режима, особенно… Как писали основоположники евразийства, «русские люди и люди народов «Российского мира» не суть ни европейцы, ни…

0.028
Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • По категориям
  • По работам