рефераты конспекты курсовые дипломные лекции шпоры

Реферат Курсовая Конспект

Философские вопросы информационной реальности

Философские вопросы информационной реальности - раздел Компьютеры, Природа компьютера и философские вопросы информационной реальности     В Статье Рассматриваются Философские Вопро...

 

 

В статье рассматриваются философские вопросы, касающиеся осмысления воздействия компьютеризации и всё возрастающего значения информационного аспекта реальности. На основе анализа результатов, полученных в области информатики и физики, формулируются философско-научные положения и общефилософские положения.

 

I

«Информатика» [informatique франц.] и «наука о компьютерах» [computer science англ.] - два названия (в разных языках) одной и той же области, - области, к предмету которой и относится «информационная реальность», упоминаемая в названии данной работы.

Наука о компьютерах и их применениях, или информатика, - дисциплина двадцатого столетия. Напомним, что один из создателей кибернетики, английский учёный Уильям Росс Эшби ещё (или уже!) около пятидесяти лет тому назад охарактеризовал компьютеры как «усилители наших мыслительных способностей», - по аналогии с достаточно многочисленными усилителями физических способностей, каким является, например, рычажный механизм.[1] И, в самом деле, уже сейчас компьютеры существенно усиливают наши мыслительные способности. Они позволяют производить громоздкие расчёты, решать сложные системы уравнений, выполнять поиск логического вывода, доказывать теоремы[2] и, - может быть, самое впечатляющее, - строить и изучать модели в виде компьютерных программ для объектов, являющихся предметами, фактически, любых областей науки и любых областей практической деятельности.

Создавать «усилители мыслительных способностей» люди пробовали давно. Так, в XIII веке Раймундом Луллием было построено механическое логическое устройство, получившее название «луллиевой машины» и позволявшее осуществлять силлогистические умозаключения.[3]

Ни в коем случае не пренебрегая природой используемого материального носителя информационных процессов, как и природой энергетических преобразований, делающих эти процессы существующими, мы, очевидно, уясняем природу «усилителей мыслительных процессов», только в том случае, если сосредотачиваемся, в первую очередь, на том, что происходит с информацией. При этом важно принимать во внимание то, до какой глубины мы различаем информационные процессы. С этой точки зрения, от «луллиевой машины», продуманной до уровня субъектно-предикатной структуры суждения, до современных компьютеров, продуманных на уровне элементарных символов («0» и «1»), - «дистанция огромного размера».

Практические разработки и теоретические исследования в области информатики ведутся взаимосвязано и влияют друг на друга. Конечно же, здесь нет «равномерности», «синхронности» и т.п. Например, «вдруг» усилиями Джорджа Буля появляется мощнейший аппарат («булева алгебра»), который и делает возможным развитие логических основ информационного моделирования. Машина Чарльза Бэббеджа, по своим практическим возможностям в роли «усилителя мыслительных способностей», не идёт ни в какое сравнение с современными компьютерами. Но, располагая такой машиной, Ада Лавлейс построила язык программирования. И, всё-таки, - повторим, - наука о компьютерах, или информатика, - дисциплина нашего времени.

Природа компьютера представлена в машине Тьюринга,[4] причём

 

показательно, что этот аппарат является одновременно и предметом теоретического исследования и методом обращения с символическими конструкциями (знаковыми моделями).

Машина Тьюринга полностью удовлетворяет требованиям к машинам, выполняющим алгоритмы:

(а) она является полностью детерминированной и действует строго в

соответствие с заданной системой правил;

(б) она допускает ввод различных «начальных данных»

(соответствующих задаче из заданного класса задач);

(в) система правил и класс решаемых задач так согласованы друг с

другом, что всегда можно «прочитать» результаты работы машины.

Кратко напомним описание архитектуры машины Тьюринга.

(1) Имеется неограниченно длинная одномерная лента, которая разбита на ячейки. В каждой ячейке может быть записан только один символ х из некоторого конечного алфавита Х; при этом в алфавит входит и пустой символ.

(2) В каждый момент времени на ленте имеется только конечное (хотя и как угодно большое) количество непустых ячеек.

(3) Имеется специальная считывающая и записывающая головка, которая может либо перемещаться вдоль ленты вправо или влево на одну ячейку за один такт работы, либо оставаться на месте.

(4) Имеется некоторый конечный автомат А; у него конечное число внутренних состояний Q = {q0, q1, q2….qn-1}, и он работает в дискретном времени t = 0, 1, 2, …..

Входом машины является элемент из множества X; выходом – элемент из множества {( Х Ä Мстоп}, где Х Ä М – декартово произведение множеств Х и М; М = {Л, П, Н}, Л – сдвиг головки влево, П – сдвиг головки вправо, Н – головка остаётся на месте; если выходом является стоп, то машина останавливается.

Функция переходов автомата a: если автомат находился в состоянии qjи воспринимал входxi, то он переходит в состояние qk = a (qj, xi).

Функция выходов автомата d: для той же пары áqj,xi ñв ячейку, напротив которой находилась головка, записывается символ xk = a (qj, xi); при этом xiи xk могут совпадать; а в зависимости от того, чему равно mиз множестваМ, головка сдвинется влево, или вправо, или останется на месте. При выходе стоп, машина останавливается, и такие состояния (их может быть несколько) называются «состояниями покоя».

К.Э.Шенноном было показано, что мы можем ограничиться алфавитом, состоящим всего из двух символов: «0» и «1». Можно показать также, что можно использовать ленту, неограниченно продолжающуюся только в одном направлении. Сам Тьюринг делал это так: лента складывается вдвое, а затем ячейки с нечётными номерами отождествляются с правой ветвью, а ячейки с чётными номерами – с левой ветвью.

Имеются средства для композиции машин Тьюринга: умножение, возведение в степень, итерация. Они позволяют из одних машин Тьюринга (более простых) строить другие.

Знаменитый тезис Тьюринга, или тезис Тьюринга-Чёрча можно сформулировать так:

«Неформальное (интуитивное) понятие эффективной процедуры над последовательностью символов совпадает с точным (формальным) определением понятия процедуры над (этой же) последовательностью символов, которая может быть выполнена на машине Тьюринга».[5]

Этот тезис является, так сказать «вечной гипотезой». Его нельзя доказать строго формально, потому что для этого, очевидно, пришлось бы дать строго формальное определение «интуитивного» (!). Можно было бы опровергнуть этот тезис, если бы удалось указать такую процедуру, которая была бы признана эффективной в интуитивном смысле, а затем доказать, что эта процедура не может быть выполнена ни на какой машине Тьюринга. Уверенность в справедливости этого тезиса основана на том, что до сих пор дело обстоит так: если удаётся установить существование некоторой эффективной, в интуитивном смысле, процедуры, то удаётся также построить и такую машину Тьюринга, которая в точности воспроизводит эту процедуру.

Доказано, что существуют универсальные машины Тьюринга: они позволяют моделировать работу любой машины Тьюринга.

 

II

Очевидно, мы лучше представим себе природу компьютера и содержание информатики, если обратим внимание на некоторые ещё существующие заблуждения и скажем о том, чем компьютер и информатика не являются.

Прежде всего, необязательно компьютеры обрабатывают числа, т.е. усиливают только наши вычислительные способности. В действительности, когда мы используем компьютеры, мы имеем дело с преобразованием символов и знаковых конструкций.[6] А эти символы могут представлять собой не только числа, но и буквы, а также и геометрические формы, а ещё и людей, - вообще любые объекты, вещи и процессы, которые нас интересуют в качестве цели исследования или проектирования, а также и сугубо практических действий.

Информационные процессы, протекающие в компьютере, как уже мы говорили, связаны и с природой материальных носителей и с природой соответствующих энергетических преобразований. Более того, как мы знаем сейчас, - об этом мы будем говорить далее подробнее, - существуют определённые количественные соотношения между тремя компонентами: материальным, энергетическим и информационным – в любом объекте.[7]

Случилось так, что в настоящее время в компьютерах носителями информационных процессов являются, в основном, электромагнитные процессы.[8] Но мы уже знаем, что такую роль могут выполнять шестерёнки и рычаги. Носители информационных процессов в поколении компьютеров, предшествующем нынешнему поколению, были электромеханическими.[9] Были и есть проекты использовать в той же роли лазерные процессы, сложные химические соединения вроде молекул ДНК. Природа используемого носителя, естественно, влияет на форму информационных процессов, или на их «внешние характеристики»: скорость выполнения операций, объём запоминающих устройств и др. В той мере, в какой форма любого объекта связана с его содержанием, такого рода характеристики носителя информации влияют на

содержание информационных процессов. [10]

Размышления о возможностях компьютеров и о том, что же является тем материалом, с которым имеет дело наука о компьютерах, начались с построения машины Тьюринга. В настоящее время учёные, фактически, пользуются гипотезой, что такого рода материалом являются (динамические) знаковые структуры. При таком подходе не столь важным оказывается то, с каким именно материальным воплощением информационных процессов мы имеем дело: прежде всего, важным является тот факт, что эти процессы в компьютерах происходят в соответствии с определёнными правилами.

Говорить более определённо о влиянии материального воплощения на информационные процессы сейчас не приходится. Вряд ли можно согласиться с Джоном Сёрлем, который считает, что мыслительная деятельность, подобная человеческой, может иметь место только при использовании носителей информации определённого рода. Но и гипотезы вроде «мыслящей плесени» и «разумных облаков» не представляются интересными для науки. Представляется также, что нельзя согласиться и с утверждением, что вообще не имеет значения, каково материальное воплощение информационных процессов в компьютере.[11]

III

«Информационной реальностью» мы называем определённые материальные образования искусственного происхождения, «артефакты», и те технологии, т.е. явления и процессы, которые имеют в них место. Сущность названных процессов и явлений состоит в создании, переработке, хранении и передаче информации, предназначенной для управления и регулирования человеческой деятельностью самого разнообразного характера – как той, которую мы называем «физической деятельностью», так и той, которую мы называем «умственной деятельностью».[12]

Как известно, научное понятие информации начало разрабатываться не так давно – в конце первой половины ушедшего столетия: в 1948 г. К.Э. Шеннон опубликовал работу (это была статья из двух частей), в которой были изложены основные положения теории информации.[13] Величайшая научная заслуга Шеннона состоит в том, что он сформулировал критерий, который позволяет сравнить количества информации, содержащиеся в сообщениях. Иначе говоря, он предложил способ измерения информации. При этом следует отметить, что разработанная им теория оперирует только вероятностями сообщений (или исходов рассматриваемых опытов) и полностью отвлекается от собственно содержания этих сообщений (исходов). В самом деле, мера количества информации, содержащейся в сообщении x, определяется так:

I(x) = - log2P(x),

где x – сообщение, Р(x) – его вероятность.[14]

Концепция Шеннона имеет дело только с техническими (технологическими) проблемами без учёта смысла и ценности содержания сообщений, без анализа семантических и многих прагматических проблем. Однако, очевидно, достаточно помнить, что изучение технической стороны информационных процессов является только первым, начальным, этапом, который, будучи совершенно необходимым, разумеется, не является последним. Никто и ничто не обязывает нас им ограничиваться. Вместе с тем, ясно же, что мы не можем передавать наши мысли с должной точностью по системе, которая передаёт символические (языковые) конструкции, представляющие наши мысли, не точно. Следовательно, овладеть сначала технической стороной информационных процессов – это вполне рациональный шаг, - шаг на пути нашего познания информационной реальности, - так сказать, определённого «среза» всей реальности и, прежде всего, «артефактизированной» реальности.[15]

Итак, Шенноном заложены основы теории информации, и всякие последующие разработки будут включать в себя то, что он сделал, в качестве необходимой части.

IV

Алгоритмическая теория информации[16] была разработана А.Н.Колмогоровым и американскими учёными Р.Дж.Соломоновым и Г.Чейтиным в конце 1960-х годов. Центральным понятием теории является «колмогоровская сложность».[17]

Первоначально Колмогоров имел целью уточнить в теории вероятностей

понятие случайной последовательности символов. Соломонов занимался разработкой вычислительного подхода к индуктивному выводу с учётом знаменитого принципа, называемого «бритвой Оккама».[18] Чейтин изучал программную сложность машин Тьюринга. Колмогоров, продвигаясь в своих исследованиях, пришёл к уточнению понятия информационного содержания последовательности символов. Чейтин последовал за ним и принял такое понимание. Появилась алгоритмическая теория информации.[19]

Неформально, колмогоровскую сложность данной последовательности из нулей и единиц можно определить как длину самой короткой программы,

 

которая может породить эту последовательность.[20]

Длины всех знаковых последовательностей, - они, естественно, могут описывать любые объекты, - измеряются в битах. Описание бинарной последовательности s — это просто программа, написанная как строка из определённого количества битов, которая производит последовательность sкак результат. Принимая во внимание все возможные программы, которые генерируют данную последовательность s и выбирая самую короткую, мы получим минимальное описание последовательности s, обозначаемое как d(s). Если существует более одной программы одинаковой длины, то в качестве d(s) выбирается первая из множества таких программ, упорядоченного лексикографическим образом. Итак, колмогоровская сложность последовательности двоичных символов sесть длина минимального описания K(s), и K(s) = | d(s) |.[21]

Информационное содержание последовательности двоичных символов x определяется как её колмогоровская сложность I(x). Суммарная информация I(x, y)двух последовательностей x и y определяется, соответственно, как самая короткая программа, которая позволяет получить их обеих. Условная, или соотносительная информацияI(x/y)последовательности x, вычисленная при условии, что определена информация последовательности y, определяется как длина самой короткой программы, которая позволяет вычислить x из y.

Последовательности, которые могут выводиться короткими программами, рассматриваются, как не очень сложные. Оказалось, что данный подход эффективен и может быть использован для постановки и доказательства невозможности некоторых результатов, - таких, например, как аналог теоремы Гёделя о неполноте и проблема останова («зависания») машины Тьюринга.[22] Кроме того, оказывается, что не имеет принципиального значения выбор языка программирования.

В 1968 г. К.Уоллесом и Д.М.Болтоном был разработан «принцип минимальной длины сообщения статистического и индуктивного вывода», - вероятность, корректируемая в соответствии с методом Байеса и учитывающая предыдущие мнения. В 1999 г. была установлена связь между алгоритмической теорией информации и принципом минимальной длины сообщения.

 

V

К концу ушедшего столетия весьма основательно были выясненыфизические ограничения, налагаемые на информационные процессы.[23]Зададимся вопросом: каким количеством информации двое участников могут обменяться через данный канал связи при условии, что заданы определённые энергетические ресурсы? С одной стороны, квантовая механика ограничивает физические ресурсы любой системы в отношении её способности хранить, передавать и обрабатывать информацию.[24] С другой стороны, общая теория относительности ограничивает количество информации, которая может храниться в конечном объёме пространства в соответствии с термодинамикой «чёрных дыр».[25]

Чтобы линия связи действовала, энергия не должна рассеиваться.[26] Однако на кодирование информации в той или иной физической среде требуется энергия, - даже и в том идеализированном случае, когда мы считаем, что шумы отсутствуют. Посредством увеличения количества привлекаемой энергии можно получить более высокую скорость передачи информации. Но существуют ограничения на пропускную способность канала R. В самом деле, будем предполагать, что информация кодируется и «укладывается» в некоторые «порции» материала с массой покоя r, которые посылаются со скоростью v. Пусть «порции» настолько плотно заполнены, что используются все имеющиеся в нашем распоряжении степени свободы для хранения информации. При передаче, - в соответствии со специальной теорией относительности, - «порция» длиной покоя L будет сжиматься в продольном направлении в соответствии с известным преобразованием Лоренца g. Время между двумя последовательными «порциями» равняется τ = L / (g×v). Скорость передачи информации задаётся посредством: R = I/τ, где I – информация (т.е. энтропия для того случая отсутствия шумов, который мы рассматриваем), содержащаяся в «порции».

Чтобы определить максимально возможную величину I, используется «предел Бекенштейна», который ограничивает информацию, которая может храниться в сферическом объёме пространства с определённым радиусом на объекте с заданной энергией покоя.[27] В соответствии с уточнением, внесённым Герардом ут Хофтом[28], эта величина составляет:

S £ A / 4,

где S - энтропия, A – планковская площадь, т.е. площадь двухмерной области, имеющей радиус, равный планковской длине.

При её расчёте предполагается, что количество физических полей ограничено и что имеет место линейность определённого рода, - в смысле отсутствия взаимодействия между различными видами полей. Кроме того, приведённые соображения, - как на это указывают сами учёные[29], - не применимы к гравитационному полю. Они не применимы также к неупорядоченным системам, в которых движение является диффузионным, а не баллистическим. Однако, - остроумно замечают учёные, было бы крайне удивительным, если бы беспорядок позволял более эффективный способ передачи информации.

VI

Голографический принцип представляет собой теоретическое (умозрительное) предположение, касающееся теорий квантовой гравитации. Он был предложен ут Хофтом, а затем разработан американским учёным Леонардом Сасскиндом.

Согласно этому принципу, вся информация, которая содержится в некотором объёме пространства, может быть представлена теорией, в которой во внимание принимается поверхность, которая ограничивает это пространство. То есть подобно тому, как, используя специальным образом изготовленную двухмерную плёнку, на голограмме можно воспроизводить трёхмерные изображения, так все реальные физические (трёхмерные) явления можно полностью описать с помощью уравнений, определённых в пространстве с меньшим числом измерений. Например, все события, происходящие внутри какой-то комнаты, мы можем моделировать с помощью теории, в которой во внимание принимается только то, что происходит на её стенах.[30]

При условии, что задана конечная заполненная область пространства (например, сфера), эта область будет содержать внутри себя материю и энергию. И если энергия превысит некоторую критическую плотность, то данная область коллапсирует в чёрную дыру. Поверхность в пространстве-времени, так называемый «горизонт событий» черной дыры, имеет ключевое значение. В простейшем случае горизонт событий черной дыры представляет собой сферу, поверхность которой больше для более массивной черной дыры.

Теоретически предполагается, что сфера, заполненная материей и энергией, имеет величину максимальной энтропии, прямо пропорциональной площади поверхности данной области пространства. Дело в том, что объектами с максимальной энтропией являются чёрные дыры; так что энтропия, характеризующая какую-либо заданную область пространства, не может быть больше, чем энтропия самой большой черной дыры, которая может поместиться в такой объём. При этом самая массивная чёрная дыра, которая может поместиться в данный объём, является такой, что её горизонт событий в точности совпадает с поверхностью данной области пространства.

Итак, чем больше масса чёрной дыры, тем больше её энтропия, и максимальный предел энтропии для любой обычной области пространства прямо пропорционален площади её поверхности, а не её объёму. А, вместе с этим, оказывается, что хранимая в такой чёрной дыре информация закодирована двухмерными данными, относящимися к её поверхности. То есть всё происходит так, как если бы горизонт чёрной дыры играл роль голограммы, в содержании которой представлена вся информация, содержащаяся внутри трёхмерной области.

Далее, по-видимому, в некотором объёме имеется верхний предел плотности информации, касающейся местонахождения всех частиц, которые составляют материю, заполняющую этот объём. Это связано с предположением, что материю невозможно делить бесконечно большое число раз.[31] Скорее должен существовать некоторый предельный уровень фундаментальных частиц. Ведь если бы существовала частица какого-либо рода, состоящая из «подчастиц», то число степеней свободы этой частицы равнялось бы произведению всех степеней свободы её «подчастиц»; а если бы эти подчастицы тоже делились на «под-под-частицы» и так далее до бесконечности, то число степеней свободы исходной частицы должно было быть бесконечным, что нарушило бы максимальный предел плотности энтропии. В соответствии с голографическим принципом, возможность последовательного деления должна на некотором уровне пропасть, а соответствующая фундаментальная частица представляет собой бит («1» или «0») информации.

Различают две формулировки голографического принципа. Согласно сильному голографическому принципу, то количество информации, которое внешний наблюдатель может снять с поверхности чёрной дыры, прямо пропорционально площади поверхности горизонта событий. Наблюдатель извлекает информацию через посредство поверхности, которая оказывается своего рода «экраном». Однако есть ещё и частица за экраном, проецирующая информацию, которую она содержит, на «экран», или поверхность.

А согласно слабому голографическому принципу, вся информация, попадающая в горизонт событий чёрной дыры, кодируется на поверхности горизонта событий этой чёрной дыры и является пропорциональной площади поверхности горизонта событий. В отличие сильного, слабый голографический принцип устанавливает, что нет никакой частицы за «экраном» и что физические процессы, происходящие во Вселенной, могут быть полностью описаны посредством таких «экранов», или поверхностей, через которые информация отслеживается.

Наиболее правдоподобной и, вместе с тем, строгой реализацией голографического принципа является так называемое «соответствие АдС/КФП»[32], полученное работающим в США аргентинским физиком-теоретиком Хуаном Малдасеной и устанавливающее взаимосвязь между теорией струн и калибровочной теорией Янга-Миллса.

Работы Малдасены, а также работы Э.Витена, С.Губсера, И.Клебанова и А.Полякова показали, что (по крайней мере, в ряде конкретных случаев) в теорию струн заложен голографический принцип. В настоящее время исследуется построение, в котором управляемые теорией струн физические законы Вселенной имеют эквивалентные описания в рамках законов, относящихся только к граничной поверхности, размерность которой с необходимостью меньше, чем размерность пространства внутри. Некоторые теоретики даже считают, что полное понимание смысла голографического принципа и его роли в теории струн сделает возможной очередную революцию в теории суперструн.[33] Сасскинд и ут Хофт обобщают изложенные идеи и распространяют голографический принцип на всю Вселенную: они предполагают, что все события, происходящие «внутри» Вселенной, являются просто отражениями данных и уравнений, относящихся к далёкой поверхности её границы.

VII

Итак, совершенно закономерно мы подошли к теме «Информация в голографической Вселенной».[34] В том, что мы называем «научной картиной мира», информация, в сопоставлении с материей и энергией, играет вполне равноправную роль. Робот на автомобильном заводе, даже при достаточном количестве материалов (металла, пластика и др.) не может произвести ничего полезного без многочисленных инструкций, говорящих о том, например, какую часть и чем приварить и так далее. Рибосома в клетке нашего организма может иметь необходимые аминокислоты и достаточную энергию, высвобождающуюся при превращении АТФ в АДФ, но она не сможет синтезировать белки без информации, которая предоставляется ей через ДНК в ядре клетки.

Информационная ёмкость жёстких дисков компьютеров стремительно возрастает. Специалисты уже задумываются над вопросом: какова максимально возможная ёмкость устройства весом 1 грамм и объёмом 1 кубический сантиметр. А сколько всего информации понадобится, чтобы описать всю Вселенную? И уместится ли эта информация в памяти компьютера? Недавние результаты, полученные в теоретической физике, как мы видели выше, отвечают на некоторые подобные вопросы.

До работ Шеннона, о которых говорилось в начале нашего рассмотрения, понятие энтропии было центральным в термодинамике, - разделе физики, который изучает тепловые явления. Термодинамическая энтропия является мерой беспорядка в физической системе. В 1877 г. Л.Больцман уточнил это понятие, и оно стало обозначать разные микроскопические состояния частиц, составляющих кусок вещества, при которых этот кусок всё ещё выглядит как один и тот же макроскопический кусок вещества. Например, для воздуха в комнате вокруг вас, надо посчитать, сколькими способами могут быть распределены индивидуальные молекулы газа в комнате и всевозможные пути их движения. Энтропия Шеннона для сообщения равна числу двоичных знаков, или битов, нужных для кодировки этого сообщения. Термодинамическая энтропия и энтропия Шеннона концептуально эквивалентны: число разных комбинаций в энтропии Больцмана отражает количество информации Шеннона, которое бы понадобилась для обеспечения возможности осуществить любую из этих комбинаций. Однако у этих двух понятий имеются и важные различия. Прежде всего, термодинамическая энтропия, используемая химиком или инженером холодильной техники, выражается в единицах энергии, делённой на температуру, тогда как энтропия Шеннона, используемая инженером коммуникационных сетей, выражаясь в битах, по существу безразмерна.

Далее, даже выраженные в одинаковых единицах, типичные значения двух энтропий отличаются многократно по величине. Кремниевая микросхема, несущая гигабайт данных, например, имеет энтропию Шеннона порядка 1010 байтов (один байт равен восьми битам). Это во много раз меньше термодинамической энтропии микросхемы, которая, при комнатной температуре, равна примерно 1023 битов. Это различие возникает потому, что две энтропии вычисляются для разных степеней свободы. Степень свободы - это любая величина, которая может изменяться, подобно координате, характеризующей положение частицы, или одной из компонент ее скорости. Для энтропии Шеннона важно только общее состояние каждого миниатюрного транзистора, вытравленного в кремниевом кристалле. Транзистор или открыт или нет, что соответствует или 1 или 0 - простая двоичная степень свободы. Термодинамическая энтропия, наоборот, зависит от состояний всех миллиардов атомов (и электронов парящих около них), составляющих каждый из транзисторов. Миниатюризация приближает день, когда каждый атом будет хранить один бит информации. В такой «микросхеме» энтропия Шеннона приблизится по величине к термодинамической энтропии материала микросхемы.

Нельзя вычислить максимальную информационную емкость некоторого количества вещества, или, что эквивалентно, его настоящую термодинамическую энтропию, без знания природы самых фундаментальных составляющих материи или самого глубокого уровня структуры, который можно назвать, скажем, уровнем X. Это незнание не создает проблем для практической термодинамики, например, автомобильных двигателей, так как при этом кварки внутри атомов могут быть игнорированы - они не меняют своего состояния под действием сравнительно мягких условий в двигателе. Но, наблюдая удивительный прогресс в миниатюризации, можно играючи представить день, когда кварки будут использованы для хранения информации, возможно, один бит на кварк. Сколько информации можно тогда вместить в наш одно-сантиметровый куб? И сколько, если мы «обуздаем» суперструны или даже более глубокий, пока еще невообразимый уровень? Как ни удивительно, результаты развития физики гравитации за последнее три десятилетия предоставляют некоторые ясные ответы на эти казалось бы сумбурные вопросы.

Второй закон термодинамики, как не трудно видеть, обобщает «обычные» наблюдения: чайная чашка падает со стола и разбивается, но никто никогда не наблюдал, чтобы осколки сами притянулись на стол и снова объединились в чайную чашку. Второй закон термодинамики запрещает такой обратный процесс. Он говорит, что энтропия изолированной физической системы никогда не уменьшается. Самое большее - энтропия не будет меняться, а обычно она растет. Этот закон является центральным в физической химии и в инженерном деле. Можно утверждать, что он является физическим законом с наибольшим влиянием вне физики.

Как впервые подчеркнул Дж.Уилер, когда вещество исчезает в черной дыре, его энтропия пропадает навсегда, и, следовательно, второй закон термодинамики как бы нарушается. Ключ к разгадке этой загадки появился в 1970 г., когда Д.Христодулу, в то время аспирант Уилера в Принстонском университете, и Ст.Хокинг в Кембридже, - независимо друг от друга, - обнаружили, что в различных явлениях, таких как, например, слияние двух черных дыр, суммарная площадь горизонта событий никогда не уменьшается. Аналогия с законом возрастания энтропии подсказала Бекенштейну в 1972 г. идею, что черная дыра имеет энтропию, пропорциональную площади поверхности ее горизонта событии. Его гипотеза состояла в том, что когда материя падает в черную дыру, увеличение энтропии черной дыры всегда компенсирует или превосходит по величине "потерянную" энтропию материи. Более обобщённо, сумма энтропии черных дыр и обычной энтропии вне черных дыр никогда не уменьшается. Это и есть обобщённый второй закон - ОВЗ, для краткости.

ОВЗ выдержал множество проверок, правда, чисто теоретического характера. Когда звезда коллапсирует и образует черную дыру, энтропия черной дыры во много раз превосходит энтропию звезды. В 1974 г. Хокинг показал, что из-за квантовых процессов черная дыра спонтанно излучает тепловую радиацию, известную теперь как «излучение Хокинга». Теорема Христодулу-Хокинга нарушается в этом случае (масса черной дыры и, следовательно, площадь ее горизонта уменьшается), но ОВЗ оказывается справедливым и в этом случае: энтропия возникающей радиации более чем компенсирует уменьшение энтропии черной дыры.

Именно учёт «излучения Хокинга» позволяет вычислить коэффициент пропорциональности между энтропией черной дыры и площадью ее горизонта: как уже мы напоминали выше, энтропия черной дыры в точности равна одной четверти площади горизонта событий, измеренной в единицах планковской площади. Даже в термодинамическом контексте, это - огромная энтропия. Энтропия черной дыры диаметром 1 см будет примерно 1066 бит, что приблизительно равно термодинамической энтропии куба воды со стороной 10 миллиардов километров.

ОВЗ позволяет вычислить верхний предел на информационную вместительность для любой изолированной физической системы. В 1980 г. Бекенштейн стал изучать первый такой предел, названный универсальным энтропийным пределом. Он ограничивает энтропию, которую может иметь некоторая масса определенных размеров. Реализующий сходную идею голографический предел был получен в 1995 г. Сасскиндом: он ограничивает максимальную энтропию, которую могут содержать вещество и энергия, заключенные в определенном объеме пространства.

Учёным удаётся ответить на вопросы о максимальном количестве хранимой информации.[35] Устройство, имеющее размер 1 кубический см, может хранить до 1066 битов информации! Видимая Вселенная содержит, по крайней мере, 10100 битов энтропии, которую в принципе можно поместить в сфере радиусом в одну десятую светового года.

Но другой аспект голографического предела является ещё более удивительным. В самом деле, максимальное количество энтропии зависит от окружающей поверхности, а не от объема. Представим, что мы собираем микросхемы памяти компьютера в большую кучу. Число транзисторов и, следовательно, информационная емкость растут с объемом кучи. То же самое происходит с полной термодинамической энтропией всех микросхем. Однако теоретическая максимальная информационная емкость области пространства, занятой микросхемами, растет, заметьте, только с увеличением поверхности. Так как объем растет быстрее, чем площадь поверхности, наступит момент, когда энтропия всех микросхем превысит голографический предел. Кажется, тогда или ОВЗ должен нарушиться или наши представления об информационной и энтропийной ёмкости окажутся неправильными. На самом деле, «фиаско» терпит само собрание микросхем: под действием собственной гравитации оно коллапсирует и превращается в черную дыру до того, как голографический предел будет превзойден. После этого каждая дополнительная микросхема будет увеличивать массу и площадь поверхности черной дыры в полном согласии с ОВЗ.

Очень симметричная и пустая 5-мерная вселенная анти- де Ситтера вряд ли похожа на нашу 4-мерную Вселенную, заполненную веществом и излучением. Даже если мы приблизительно заменим нашу реальную Вселенную той, в которой вещество и излучение распределены однородно, то получим не анти - де Ситтеровскую вселенную, а так называемую вселенную Фридмана-Робертсона-Уокера. Многие космологи сегодня сходятся во мнении, что наша Вселенная именно такая: она является бесконечной, не имеет границ и будет расширяться и расширяться.

Подтверждает ли такая вселенная голографический принцип или существование голографического предела? Аргумент Сасскинда, основанный на коллапсе в черную дыру, здесь не помогает. Действительно, голографический предел, выведенный на основе коллапса в черную дыру, должен нарушиться в однородной расширяющейся вселенной. Энтропия области, равномерно заполненной материей и излучением, действительно пропорциональна её объему. Следовательно, достаточно большая область такой вселенной нарушила бы голографический предел.

В 1999 г. Рафаель Боуссо, работавший в Стэнфордском университете, предложил модифицированный голографический предел, и впоследствии оказалось, что он работает даже в тех ситуациях, в которых пределы, ранее рассмотренные, не применимы. Формулировка Боуссо начинается некоей подходящей двухмерной поверхностью. Она может быть замкнута, как сфера, или открыта, как листок бумаги. Теперь вообразим, что лучи от короткой вспышки света исходят одновременно и перпендикулярно из каждой точки одной из сторон упомянутой поверхности. Единственное требование состоит в том, чтобы эти воображаемые лучи сходились. Например, свет, излучаемый внутренней поверхностью сферической оболочки, удовлетворяет этому требованию. Рассмотрим энтропию вещества и излучения, пронизываемых этими воображаемыми лучами света, до точек, где лучи начинают пересекаться. Боуссо предположил, что эта энтропия не может превышать предельную энтропию, связанную с первоначальной поверхностью - одной четвертой ее площади в единицах планковской площади. Это другой способ подсчета энтропии, отличный от того, который использовался в первоначальном голографическом пределе. Предел Боуссо имеет дело не с энтропией некоторого объема в один и тот же момент времени, а с суммой энтропий разных областей в разные моменты времени: когда они «освещены» вспышкой света от поверхности.

Исследователями было предложено много других «энтропийных пределов». Что касается голографического подхода, то он вполне может оказаться плодотворным.

VIII

Итак, рассмотренные нами выше результаты, полученные в области информатики и в области физики и относящиеся к исследованию особенностей информационной реальности, дают нам возможность сформулировать определённые философские утверждения. Некоторые из них, - касающиеся собственно информатики, - были высказаны в ходе изложения выше. Теперь остановимся на философских заключениях общего характера.

Во-первых, в настоящее время мы лучше представляем себе единство материи, энергии и информации, а, следовательно, и содержание принципа единства мира. Во-вторых, в научной картине мира более отчётливо очерчена объективная сторона информации, и стало более ясно, что информация и сведения не являются одним и тем же.

Далее, мы останавливаемся ещё на некоторых философских вопросах, связанных с категориями «закон» и «случайность» и с экспликацией понятия «теория», основанной на использовании алгоритмической теории информации.

В «Рассуждении о метафизике» Лейбница можно прочесть:

– Конец работы –

Эта тема принадлежит разделу:

Природа компьютера и философские вопросы информационной реальности

На сайте allrefs.net читайте: "Природа компьютера и философские вопросы информационной реальности"

Если Вам нужно дополнительный материал на эту тему, или Вы не нашли то, что искали, рекомендуем воспользоваться поиском по нашей базе работ: Философские вопросы информационной реальности

Что будем делать с полученным материалом:

Если этот материал оказался полезным ля Вас, Вы можете сохранить его на свою страничку в социальных сетях:

Все темы данного раздела:

См.: Bekenstein J. D. Op. cit.
  [36] Лейбниц Г.-В. Рассуждение о метафизике // Лейбниц Г.В. Соч.: В 4-х т. Т.1. М.: Мысль, 1982.С.129-130. [37] Chaitin G. The limits of reason // Scientific American. 2006

Хотите получать на электронную почту самые свежие новости?
Education Insider Sample
Подпишитесь на Нашу рассылку
Наша политика приватности обеспечивает 100% безопасность и анонимность Ваших E-Mail
Реклама
Соответствующий теме материал
  • Похожее
  • Популярное
  • Облако тегов
  • Здесь
  • Временно
  • Пусто
Теги