Характеризация химических структур с помощью теории информации и теории графов тема автореферата и диссертации по химии, 02.00.03 ВАК РФ

Вончев, Данаил Георгиев АВТОР
доктора химических наук УЧЕНАЯ СТЕПЕНЬ
Бургас МЕСТО ЗАЩИТЫ
1983 ГОД ЗАЩИТЫ
   
02.00.03 КОД ВАК РФ
Диссертация по химии на тему «Характеризация химических структур с помощью теории информации и теории графов»
 
 
Содержание диссертации автор исследовательской работы: доктора химических наук, Вончев, Данаил Георгиев

Полвека тому назадь Поль Дирак высказал мнение, что в принципе вся химия содержится в законах квантовой механики, но в действительности при практических вычислениях возникают неодолимые математические затруднения. Электронно-вычислительная техника помогла сократить дистанцию между возможностями и реализацией квантово-механического подхода. Все же вычисления молекул с большим числом электронов являются сложными и недостаточно точными и пока лишь немного молекулярных свойств могут быть вычислены таким образом . С другой стороны, в органической химии существуют нерешенные до конца важные структурные проблемы и прежде всего - это проблема о связи между структурой и свойствами молекул. В теоретической химии стоит вопрос о количественной оценке- основных структурных характеристик, молекул - их разветвленности и цикличности. Этот вопрос является существенным, так как количественный анализ общих закономерностей в структуре разветвленных и циклических молекул может в большой степени быть перенесенным ина их свойства. Таким образом можно было бы предсказать упорядочивание группы изомерных соединений по значениям таких свойств, как стабильность, реакционная способность, спектральные и термодинамические, свойства и др. Это могло бы облегчить предсказание свойств еще несинтезированных классов соединений и поиск структур 'с заранее заданными свойствами. Несмотря на значительные усилия все еще остается открытым и вопрос о рациональном кодировании химической информации с целью ее эффективного хранения и использования с помощью ЭВМ. Оптимальное решение этого вопроса оказало бы влияние и на усовершенствование классификации и номенклатуры как органических соединений, так и механизмов химических реакций. Перед теорией Периодической сис-4 теш химических элементов также стоит вопрос о целостной и количественной интерпретации периодичности свойств химических элементов на основе величин, отражающих электронное строение лучше, чем порядковый номер элемента.

Вследствии этого, в течение последних десятилетий, было стимулировано развитие новых теоретических методов в химии, объединенных под названием математической химии. Основное место в ней занимают топологические методы, которые отражают наиболее общие структурные и геометрические свойства молекул. Одна из ветвей топологии, теория графов, предлагает удобный для химика математический язык для описания молекулы так как структурные формулы являются по существу химическими графами. Преимущества, которые предлагает теория графов в химических исследованиях,основаны на возможности прямого применения ее математического аппарата без использования ЭВМ, что является важным для химиков-экспериментаторов. Теория графов позволяет вникнуть довольно просто в структурные характеристики молекул. Полученные результаты являются общими и могут быть сформулированы в виде теорем или правил и таким образом могут найти применение для любых схожих химических (и нехимических) объектов.

После опубликования фундаментальных трудов Шеннона и Винера по теории информации и кибернетики непрерывно усиливается интерес и к теopeтико-информационным методам исследования. Первоначальный смысл термина "информация" связан со сведениями, сообщениями и их передачей. Уто понятие быстро вышло из пределов теории связи и кибернетики и проникло в раз,личные науки о живой и неживой природе, обществе и познании. Процесс развития теоретико-информационного подхода в науке сложнее, чем формальный перенос кибернетической категории информации в другие области знания. Информационный подход - это не просто перевод с менее общих языков на метаязык. Он предлагает иной взгляд на системы и явления и позволяет получить новые результаты. Расширяя связи меж,ну различными научными дисциплинами, этот метод дает возможность найти полезные аналогии и общие закономерности между ниш. Развиваясь, современная наука стремится к все большей степени обобщения, к единству. В этом плане теория информации является одним из наиболее перспективных направлений

Важное место в этом процессе занимает применение теории информации в химии и других науках о природе, - физике, биологии и др. В этих науках методы теории информации используются при изучении и описании тех свойств объектов и процессов, которые связаны со структурой, упорядоченностью, с организацией систем« Полезность информационного подхода в химии состоит прежде всего в том, что предлагаются новые возможности количеетвеного анализа различных аспектов химических структур - атомов, молекул, кристаллов и др. В этих случаях оказываются полезными представления о "структурной" информации и "информационном содержании" атомов и молекул.

В связи с вышеизложенным основная цель диссертационного труда состоит в том, чтоба показать плодотворность теоретико-графового и теоретико-информационного подхода к структурным проблемам в . химии, от атомов и молекул до полимеров и кристаллов, достижение этой цели предполагает в качестве отдельных этапов:

1. Определение системы величин (информационных и топологических индексов; для количественной характеризации атомов, молекул, полимеров и кристаллов.

2. Развитие на этой основе нового, более общего подхода к вопросу о корреляции между их свойствами, геометрической и электронной структурой. Предсказание свойств некоторых органических соединений, полимеров и не синтезированных трансактиниднМх элементов.

Создание методов моделирования роста кристаллов и кристаллических вакансий.

3. Обобщенная топологическая характеризация молекул посредством выражения сущности их разветвленности и цикличности в серии математических доказанных структурных правил, и исследование отображения этих правил различными молекулярными свойствами.

4. Создание новых, эффективных методов кодирования химических соединений и механизмов химических реакций в связи с усовершенствованием их классификации и номенклатуры и особо в связи с использованием ЭВМ для обработки химической информации.

ГЛАВА 2. МЕТОД ИССЛЕДОВАНИЯ 2Л. ТЁОРЕЖО-ИНШРМАЦИОННШ МЕТОД 2.1.1» Введение

Информация является одним из самых фундаментальных понятий в современной науке, поняти«не менее общим,чем понятия вещество и Энергия. Этот взгляд находит обоснование в самих определениях информации. По Винеру^ "информация - это не материя и не энергия".

Эшби рассматривает информацию в качестве "меры разнообразия в данной системе". По Глушкову х "информация - это мера негомогенности в распределении пространства и времени". На этой основе сегодня все более осознается тот факт, что кроме вещественной и энергетической природы объекты и явления в природе и технике обладают также информационными свойствами. Некоторые прогнозы идут дальше,предсказывая, что центр научных исследований будет все более смещаться в сторону информационной природЫ процессов, которая, составит главный объект исследования в XXI веке . Эти прогнозы существенным образом основываются на возможности оптимального управления систем и процессов посредством информации, что,собственно ? является главной функцией информации в кибернетике. В перспективе эти идеи могут привести к созданию технологий, в которых каждый атом и молекула будет управляем информацией,"" возможность^ нашедшая реализацию пока только в живой природе.

Возникновение теории информации обычно относится к 1948 году, когда Клод Шеннон опубликовал свой фундаментальный труд . Идея об информации, однако, как о величине,связанной с энтропией, является значительно старше. Еще в 1894 году Больцман установил, что любая информация, полученная о данной системе, является связанной с уменьшением числа ее возможных состояний и следовательно .увеличение энтропии означает "потерю информации". В 1929 году

Сциллард развил эту идею на общий случай информации в физике. ее кп

Позднее, Вриллюэн » обобщил представления о связи между энтропией и информацией в своем негентропийном принципе в форме, охватывающей также информационную сторону явлений. Вопросы о связи между теорией информации и термодинамикой, и, в частности, о соотношении между энтропией и информацией, являются и до сих пор предметом большого внимания (подробный списк публикаций в этой области дан в обзоре 58). Из новейшего развития вопроса следует особо отметить работы Кобозева по термодинамике мышления, в которых обосновывается тезис об антиэнтропийном характере процессов мышления.

Возникшая как "специальная теорияобщения" теория информации быстро перерослаои первоначальные пределы и нашла применение в разнообразных областях науки и техники: в химии, биологии, медицине, лингвистике, психологии, естетике и др. Раньше всего была осознана роль информации в биологии. Выли решены важные вопросыязанные хранением, обработкой и передачей информации в живых организмах, в том числе, кодирование генетической информации 60-7? оценка возможности спонтанного самозарождения жизни на Земле^, формулировка основных законов биологической термодинамики^, анализ вопросов биоэнергетики и др. Информационное содержание объектов было использовано в качестве количественного критерия

А А А эволюции '. Выл поставлен вопрос об информационном характере процессов питания^®^^.

Теория информации проникает все еще медленно в химию и физику, хотя за последнее годы в этой области достигнут определенный прогресс .Выл поставлен вопрос о возможном существовании информационного баланса химических реакций . Была сделана оценка информационного капацитета биоорганических молекул и на этой основе предложена новая классификация этих соединений, а также оценена специфичность химических реакций

Левин, Бернстейн и др. применили теорию информации в молекулярной динамике для описания поведения молекулярных систем, которые находятся далеко от равновесного состояния. Сущность этого подхода состоит в концепции "сюрприза", отклонения от ожидаемого на основе микроканонического распределения. Были предложены различные применения, в том числе исследование рабочих характеристик лазеров, определение отношения разветвления конкурирующих путей реакций (принимая в качестве наиболее вероятного тот путь, который отвечает максимуму шенноновской функции) и т.д.

77-ЯП

Додель с сотрудниками предложили распределить пространство, занимаемое молекулярной системой, на некотором числе взаимно исключающихся подпространств, названных ложами. Лучшие ложи, содержащие локализованные группы электронов, находятся путем минимизации информационной функции. Сиэрс и др.^ нашли связь между квантовомеханической кинетической энергиями информационными величинами. В качестве следствия этого результата вариационный принцип квантовой механики может быть сформулирован как принцип минимальной информации. ор ос

Кобозев с сотрудниками связали селективность и активность катализаторов с их информационным содержанием. Они также сформулировали оптимальные информационные условия характеризации и предсказания каталитических свойств. Формирование и рост крис

Ой. рп оо таллов были рассмотрены как информационный процесс ». Раков подвергнул информационному анализу обработку, катализаторных поверхностей различными химическими агентами.

В современной аналитической химии все более пробивает себе дорогу тенденция оптимального проведения экспериментов с целью получения максимальной информации из минимального числа опытов.

Эти новые идеи основываются на теории информации, теории игр и теории систем . Другие авторы применили теорию информации для минимизации ошибки и времени анализа, для достижения более высокой селективности, для оценки эффективности аналитических методов и т.д. Исследования этого рода включают также физические методы в аналитической химии, в том числе газовую хроматографию^»^, атомный эмиссионный спектральный анализ^ и др.

Теоретико-информационные методы оказались полезными и в геохимии для характеризования честот распределения химических соединении в геохимических системах170» , для оценки степени сложности и для классификации этих систем

В инженерной химии путем информационного анализа могут быть решены такие проблемы химико-технологических систем, как выбор оптимальных рабочих условий, установление требований к управлению и др.101.

Примеры успешного применения теории информации в химии указывают еще раз на то, что системы в природе и технике обладают также информационной природой. Это также показывает, что информационный подход выступает в роли универсального языка для описания систем, и, в частности, химических структур любого типа, которым он сопоставляет определенную информационную функцию и числовую меру. Это расширяет . поле возможных применений теории информации в химии.

Полезность информационного подхода в химии прежде всего в том, что он предлагает возможности количественного анализа различных аспектов химических структур. Степень сложности этих структур, их организация и специфичность могут быть сравнены в единой количественной шкале. Это позволяет исследовать некоторые самые общие свойства химических структур, такие, как их разветвленность и цикличность, исследовать и сравнивать степень организации в различных классах химических соединений, специфичность биологически активных веществ и катализаторов, позволяет подойти к вопросу о степени сходства и различия двух химических объектов.

Информационный подход является весьма подходящим для решения саз-личных классификационных задач. В этих случаях возможно вывести общие информационные уравнения для основных групировок объектов классификации (групп и периодов в Периодической системе химических элементов, гомологических рядов химических соединений, рядов изомерных соединений и др.)*

Большая различающая способность информационных методов по отношению сложных структур (изомеров, изотопов и др.) может найти применение в комг|отерной обработке и хранения химической информации. Эти методы приносят пользу не только при выборе между различными структурами, но и между альтернативными гипотезами и приближениями, что представляется интересным для квантовой химии. Возможности выдвижения новых гипотез на основе теории информации, однако, более ограничены, так как эта теория описывает взаимную связь между переменными, но не описывает поведение любой из них.

Проблема . связи, существующей между структурой и свойствами является другой областью успешного применения теоретико-информационного подхода в химии. Эффективность этого подхода будет показана в диссертационном труде для качественно различных структурных уровней в химии- электронных оболочек атомов, молекул, полимеров, кристаллов и даже атомных ядер^»^. Он может быть реализован как в качественном, так и в количественном аспекте. В первом случае на информационной основе могут быть дефинированы различные структурные правила, отражающие взаимное влияние двух и более структурных факторов. Возможно также получение количественных корреляций между информационными индексами и свойства?®. При этом в- принципе информационные индексы обеспечивают лучшие корреляции по сравнению с другими индексами, так как они отражают полнее осо-бености химических структур. Успешные корреляции возможны не только с величинами, прямо связанных с энтропией, но и с такими величинами, как энергия связи, чья связь с информацией далеко не очевидна. Здесь включаются свойства как отдельной молекула' или атома, но и их больших агрегатов, т.е. свойства, зависимые от взаимодействия между молекулами и атомами, а не только от их внутренной структуры. В дополнение., процессы в химии тоже могут быть предметом информационного анализа на основе изменения информационных индексов при взаимодействий.

Следует также иметь ввиду и некоторые ограничения информационного подхода. Хотя они и.тонну, количественные меры информации являются относительными, а не абсолютными. Они являются также статистическими характеристиками и относятся к совокупностям, но не к отдельным элементам из них. Информационные индексы могут быть дефинированы для различных свойств атомов и молекул, но связь между ними часто является сложной и выраженной в неявной форме.

С другой стороны, наличие множества информационных индексов для одной структуры может вызвать смешанные чувства. Следует однако помнить, что любой из этих индексов является законным. Верный вопрос здесь состоит в том, какие из этих величин являются полезными и до какой степени.

В этой главе введены впервые теоретико-информационные индексы:,/ характеризующие электронную структуру атомов, а также новые информационные индексы о симметрии, топологии и электронной структуре молекул. Применение этих структурных характеристик рассмотрено в главе III, разделы IV.2 и V 1.

2.1.2. Необходимые сведения из теории информации

Теория информации предлагает количественные методы для исследования получения, сохранения, передачи, преобразования и использования информации. Основное место в этих методах занимает количественное измерение информации Определение понятия количество информации требует откас от широко распространивнных, но неясных представлений об информации как совокупности, фактов, сведений, знаний.

Понятие количества информации тесно связано с понятием энтропии в качестве меры неопределенности. В 1923 г. Хартли характеризовал неопределенность опыта с П различными исходами числом ¿од п. В статистической теории информации Шеннона^, опубликованной в 1948 г., количество информации определяется через понятие вероятности. Известно, что это понятие используется для описания ситуации, в которой существует неопределенность, связанная с выбором одного или нескольких элементов (исходов) из некоторого множества. Следуя Шеннону, мера неопределенности исхода X/ опыта X с вероятностью р(Х¡) -¿Оу(Х}) . Мера средней неопределенности полного опытаХ с Хц ,Х2, • • ♦ возможными исходами, с вероятностями^ соответственно, р(Х4), р(Х2),. чр(Хп), является величина

Н(х) = - рсх,) Log p(Xi) сгл>

В статистической теории информации Н(Х)называется энтропией распределения вероятностей. Последние, в случае /7 различных исходов, образуют конечную вероятностную схемму, т.е.

X р(Х-,1 = /

Понятие вероятности может быть - определено более общим путем с точки зрения теории множеств. Пустьконечное множество, является разбиением А на /Т)класса в котором /\ непересекающиеся множества; по некоторому отношению эквивалентности X * Множество классов эквивалентности

R/X = (2.2; называется фактор-множеством R по X •

Вероятностная функция Колмогорова (вероятностное соответствие) р подчиняется трем условиям:

1. Р(Ф) =о

2. P(R) ч

Числовой ряд PfXf) , Р(Х2) , ., Р(ХГГ)) называется распределением разбиения Л , а функция Шеннона Н(X) из уравнения (2.1) выражает энтропию разбиения X •

Следует иметь ввиду, что понятие энтропии в теории информации является более общим» чем термодинамическая энтропия. Последняя, рассматриваемая в качестве меры беспорядка в атомно-молекулярных движениях, является частным случаем более общего понятия об энтро-! пии - мере любого беспорядка или неопределенности, или разнообразия.

Количество информации X выражается величиной отстранённой неопределенности. Тогда средняя энтропия данного события со множеством возможных исходов равна среднему количеству информации, необходимому для выбора любого события X из множества ^ ,Х^,. и определяется формулой Шеннона (у-е 2.1):

I(x) = -K$Lp(x,-)logp(K) = Hw

Здесь К - положительная постоянная, определяющая единицы 'измерения информации. Полагая К= 4 , энтропию (соответственно, информацию) измеряют в десятичных единицах. Наиболее удобная сис -тема измерения основывается на двоичных единицах (битах). В этом случае К ~ Щ2 и логарифм вур-и(2.4) берется при основании два и \-! обозначается для краткости через . Одна двоичная единица информации (или 1 бит) это количество информации, которое получается, когда станет известен результат выбора между двумя равновероятными возможностями, а единицах энтропии,¿.дгасГ\ переводным множителем является постоянная Вольцмана (1.38.10 yj.gra.d~разделенная на /а?Ю.

Доказано, что выбор логарифмической функции для количества информации не является случайным, а это единственная функция, которая удовлетворяет условия активности и неотрицательности информации

Как единичная, так и средняя информация всегда положительны. Это свойство связано с фактом, что вероятность всегда меньше единицы, а постоянная в уравнении (2.4) берется всегда положительной. Е|&кольку ^ У , то

-13 р(х,-) = Н(х,о с2.5) и неравенство это сохраняется и после усреднения.

Среднее количество информации для данного события (опыта) X достигает максимум при равномерном распределении вероятностей р(Х,) -р(Х2)= . . .=р(Хп)* т.е. при р(Х}) для любого П :

I^JX) -13 П

Для пары случайных зависимых событий X и у среднее количество информации тоже выражается формулой Шеннона:

1(ху> = - р(х, ,yj) № pix,, yj) (2.7)

Уравнение (2.7) можно обобщить для любого конечного множества, независимо от природы его элементов:

1(ху) = -Z Z. P(X,nYj) 16P(X-,nYj) (2.8) являются двумя фактормножествами Р по двум различным реляциям эквивалентности х и у , а К/ху - фактором-множеством сечений X; и :

Записав совместную вероятностьв уравнении (2.7) в виде произведения безусловной и условной вероятности р(х;,у^ = p(><¡)'P(Уj/x¡) , и представив логарифм в виде сумш»получается уравнение:

1(Ху) = 1(Х) ч- 1(у/Х) (2.9) в котором Т(х/у) это среднее количество условной информации, содержащейся в у относительно х, и дается выражением:

1(у/Х) = -У р(Х,,у1) 1В р(У;/Х-,) (2.10)

Определяя функцию:

1(Х,у.! = 1(У> - 1(у/Х) (2-Ш и замещая ее в уравнении (2.9):

1(ху) - 1(Х) + 1(у) -1(х,у) (2.12) становится ясным, чтоТ(Х,у) выражает отклонение информации о сложном событии (Х,у') от аддитивности информации об индивидуальных событиях (исходах): х и у . Поэтому Г(Х,У) является мерою степени статистической зависимости (связи) между X и у .В силе также равенство: • 1(Х,У) - 1(ух) (2.13) которое характеризует связь между X и у3 симметричном виде.

В общем случае дл^ статистической связи между х и у и средним количеством безусловной информации относительно X или у в силе следующие неравенства: т !1(х>

Равенство в силе, когда второй член в уравнении (2.11) ноль, т.е. когда каждому / соответствует I , для которого р(у. ¡Х})=</ , или случайная величина X однозначно определяет у . В этом случае количество информации I(Х,У) является функцией распределения р(у,У, р(Уг), . .,р(ут).

Если величины X ж у независимы, т.е. если в уравнении (2.12) Т(Х,у) =0 , то

1(ху) =1(Х) <2Л5>

Это уравнение выражает свойство аддитивности количества информации и обобщенным для независимых случайных величин . приходит к виду:

1(х„х2,.,хп) = 11 1(х/) (2.16)

Известны также и невероятностные подходы к количественному определению информации. Ингарден и Урбаникх предложили ак-сиоштичеснов/сизвдэдение- шеьйновской информации без вероятностей, в виде функции конечных булевых колец. Значительный интерес составляет предложенная Колмогоровым^^ эпсилон-энтропия (комбинаторный подход) и особенно алгоритмическое определение количества информации. По Колмогорову количество информации, содержащееся в одном объекте (множестве) относительно другого объекта (множества) , рассматривается в качестве "минимальной длины" программ, записанной в виде последовательности нолей и единиц, и позволяющей однозначног преобразование; первого объекта во второй:: = Н(Х/у) = Ш 'Ш I (Р) (2-17)

Алгоритмический подход Колмогорова предлагает новые

- 17 логические основы теории информации на основе понятий сложность и последовательность,такча&Йн-понятия "энтропия" и "количество информации" оказались применимыми к индивидуальным объектам.

Невероятностные методы в теории информации расширяют содержание понятия количества информации от количества уменьшенной неопределенности к количеству уменьшенного однообразия или к количеству разнообразия в согласии с трактовкой Эшби . Любое множество вероятностей, нормированное к единице, можно рассматривать соответным некоторому множеству элементов, азбладающеш^разнообразием. Под разнообразием подразумевается характеристика элементов множества, заключающаяся в их различии, несовпадении по отношению к некоторой реляции эквивалентности. Эт@ может быть совокупность' различных элементов, связей, отношений, свойств объектов. Наименьшая единица информации, бит, при этом подходе выражает минимальное различие, т.е. различие двух объектов, которые нетождественны, различаются по некоторым свойством.

В этом аспекте теоретико-информационные методы применимы к определению т.н. структурной информации« количества информации, которое содержится в структуре данной системы. Под структурой здесь подразумевается любое конечно® множество, элементы которого распределены по подмножествам (классам эквивалентности) в зависимости от определенной реляции эквивалентности.

Пусть в данной структуре содержатся А/ элементов и они распределены по некоторому критерию эквивалентности в подмножествах эквивалентных элементов: . Этому распределению соответствует конечная вероятностная схема подмножества вероятности ^ рп р2> . . • ?Рп элементы

2.18) где ¿Г -Л/'и является вероятностью одного; случайно) выбранного элемента попасть в / - тое подмножество, у которого А/,-элементов. Энтропию Н распределения вероятностей элементов этой структуры, определенную по уравнению (2.4), можно рассматривать/ в качестве меры среднего количества информации, I, которое содержится в одном элементе структуры: — п

1и Р/ , бит на элемент (2.19)

Общее информационное содержание структуры дается уравнением^ производным (2.19):

1-М1-А//0/ч-хнмм, <*.»>

В литературе нет единого мнения о том, как называть величины, определенные посредством у-ий (2.19) и (2.20). Некоторые авторы предпочитают называть их соответственно средним и общим информационным содержанием. Так, согласно Моушовитцу^, I не является мерой энтропии в смысле, в котором она используется в теории информации, как как не выражает среднюю неопределенность структуры, состоящей из/\/ элементов, в ансамбле всех возможных структур, обладающих;:тем же самым:числом элементов. I является скорее информационным содержанием рассматриваемой структуры по отношению к системе трансформаций, оставляющих систему инвариантной. Согласно Решг из уравнения (2.4) измеряет количество информации после эксперимента, а до него Н(х) мера энтропии, связанной с неопределенностью эксперимента. По нашему мнению, "эксперимент", уменьшающий неопределенность химических структур (атомов, молекул и т.д.), это сам' процесс формирования этих структур из их несвязанных элементов. Информация находится здесь в связанной форме, она содержится в структуре, и поэтому часто используется термин "информационное содержание" структуры.

Концепция структурной информации, основанной на приведенной интерпретации1 уравнений (2.19) и (2.20), согласуется хорошо с идеями Эшби о количестве информации как количестве разнообразия. Когда система состоит из одинаковых элементов, в ней нет никакого разнообразия. В ©том случае в у-ях (2.19) и (2.20)/='/

При максимальном разнообразии элементов в структуре Л£ = / и информационное содержание структуры максимальное:

4«* -N16 и, Т^^вИ

2.1.3. Теоретико-информационные индексы для характериэацж электронной структуры атомов химических элементов