Семантическая информация

Семантическая информация — смысловой аспект информации, отражающий отношение между формой сообщения и его смысловым содержанием.

Начиная с работ Клода Шеннона, принято считать[1], что понятие информации складывается из трёх аспектов: синтаксического, семантического и прагматического. Синтаксический связан с техническими проблемами хранения и передачи информации, семантический имеет отношение к смыслу и значению истинности сообщений, прагматический затрагивает вопросы влияния информации на поведение людей. Теория семантической информации исследует область человеческих знаний и является составной частью разработки искусственного интеллекта[2].

История править

Формирование понятия семантической информации править

Возникновение семиотики в 19 веке создало предпосылки для появления понятия семантической информации[3]. Окончательно оно сложилось после появления Математической теории связи, созданной Клодом Шенноном в 1948 году[4]. Теория Шеннона, рассматриваемая сейчас как теория синтаксической информации, полностью игнорирует смысл сообщения. Именно тогда была осознана необходимость создания теории семантической информации.

Теория Бар-Хиллела и Карнапа править

В 1952 году Йегошуа Бар-Хиллелом и Рудольфом Карнапом была предложена теория семантической информации, основанная на понятии логических вероятностей[5]. Семантическая информация трактуется авторами как синоним смыслового содержания, которым обладают как истинные, так и ложные выражения. Рассматриваются две основные меры количества семантической информации в предложении  . Первая   определяется так:

 ,

где   — абсолютная логическая вероятность предложения  . Вторая мера   является нелинейной функцией первой:

 .

Она интересна тем, что для двух логически независимых предложений   и   имеем неравенство:  , где « » — знак логической связки «И», тогда как:

 , (*)

что больше подходит для меры количества информации.

Для определения величин логических вероятностей предложений Бар-Хиллел и Карнап конструируют формальный язык и составляют с его помощью описания всевозможных состояний универсума (так называемое «множество возможных миров»). Приведём пример простого языка, в котором имеется одна константа   (под ней мы будем подразумевать девушку Алису) и два предиката:   и  , обозначающие свойства «красива» и «умна». Тогда выражение   означает предложение «Алиса красива», а выражение   — «Алиса умна». Теперь используем логическую связку «НЕ», которую обозначим символом: « ». Тогда выражение   будет означать предложение «Алиса не красива», а выражение   — «Алиса не умна». Теперь мы можем составить все возможные описания состояний универсума для нашего скромного языка. Всего их будет четыре.

 
 
 
 

Как можно видеть, каждый мир универсума состоит из логически независимых атомарных предложений (и их отрицаний), называемых базисными. Обычно в формальных языках используется множество констант и множество предикатов, причём, не обязательно одноместных. Так что количество миров может быть очень большим.

Если не заданы предварительные условия, то логические вероятности всех миров одинаковы. В этом случае величина абсолютной логической вероятности предложения   равна отношению числа миров, в которых   истинно, к общему числу миров в универсуме. В теории Бар-Хиллела и Карнапа величины логических вероятностей аналитических выражений одинаковы и равны единице (поскольку они истинны во всех мирах), а логическая вероятность противоречия равна нулю. Величины логических вероятностей синтетических выражений заключены в интервале от нуля до единицы.

Чем больше миров в универсуме, тем выше неопределённость (относительно того, какой мир является истинным). После получения сообщения   неопределённость уменьшается, поскольку те миры, в которых   ложно, можно исключить из рассмотрения. Семантическая информация в предложении   понимается как множество исключённых миров (оно обозначается символом  ). По поводу этого определения авторы пишут, что оно согласуется с древним философским принципом «omnis determinatio est negatio» («всякое определение является исключением»). Теперь для меры   можем записать:

 ,

где   — мощность множества  ,   — мощность множества всех миров универсума  .

Количество семантической информации в сообщении   относительно знаний получателя   определяется следующим образом:

 ,

где   — относительная (условная) логическая вероятность истинности высказывания   при условии истинности выражения  .

Замечательно, что чисто внешне формулы теории Бар-Хиллела и Карнапа похожи на формулы теории Шеннона. И там, и здесь мы имеем логарифмы и вероятности. Только у Шеннона все вероятности — статистические (то есть эмпирические), а не логические.

Если логическая вероятность выражения   меньше логической вероятности выражения  , то сообщение   несёт новую информацию получателю, обогащая, таким образом, его знания. Если   имплицирует  , то   эквивалентно   и сообщение   не несёт информации адресату (поскольку в нём для него нет ничего нового). Если выражение   является противоречием, то  . Количество семантической информации в противоречии по Бар-Хиллелу и Карнапу равно бесконечности. Этот парадоксальный результат впоследствии послужил поводом для критики со стороны Лучано Флориди.

Альтернативные идеи править

Хотя теория Бар-Хиллела и Карнапа до сих пор пользуется вниманием исследователей, она вызвала поток новых идей. Александр Харкевич предложил измерять ценность информации по изменению вероятности достижения определённой цели, возникающему под воздействием данного сообщения[6]. Юлий Шрейдер полагал, что количество семантической информации в послании любой природы можно оценивать как степень изменения системы знаний адресата в результате восприятия сообщения[7]. Идея о семантическом аспекте связи информации и энтропии была впервые предложена в 1966 советским философом и логиком Евгением Казимировичем Войшвилло в работе «Попытка семантической интерпретации статистических понятий информации и энтропии».

Современные теории семантической информации править

Теория Флориди править

В своей работе 2004 года Лучано Флориди с первой строки обрушивается на теорию Бар Хиллела и Карнапа: «„Треугольник имеет четыре стороны“: согласно классической теории семантической информации в этом противоречии заключено больше смыслового содержания, чем в условно истинном утверждении „Земля имеет только одну Луну“»[8]. Флориди назвал это «парадоксом Бар-Хиллела-Карнапа». Решение этого парадокса он видит в том, что количество семантической информации в сообщениях должно зависеть не только от заключённого в них смыслового содержания, но и от значения истинности этих сообщений. Флориди ввёл понятие условно ложного предложения (contingently false sentence), представляющего собой конъюнкцию двух его составных частей, одна из которых истинная, а вторая — ложная. Примером такого предложения может служить высказывание: «Луна вращается вокруг Земли и внутри она полая». Такое предложение одновременно несёт информацию (тем, кто не знает, что Луна вращается вокруг Земли) и дезинформацию (в обычной жизни часто приходится встречаться с подобным — дезинформацию легче продвигать, если она дополняется некоторой долей информации).

С точки зрения классической логики условно ложное предложение является просто ложным и несёт только дезинформацию. Однако приведённый пример показывает, что на самом деле это не так. Первоначальная теория Бар-Хиллела и Карнапа не в состоянии решить эту антиномию. Поэтому Флориди отверг её (как «слабую» теорию) и создал свою собственную — «сильную». Он отказался от использования логических вероятностей и заявил, что теория семантической информации не должна быть похожей на теорию Шеннона[9]. В его собственной интерпретации количество семантической информации в сообщении определяется степенью соответствия этого сообщения ситуации (то есть тому, что происходит в данном месте и в данное время). Несоответствие возникает либо в результате бессодержательности сообщения, либо в результате его неточности. В своей теории Флориди непосредственно не использует понятие дезинформации, вместо этого он вводит понятие степени неточности условно ложных предложений. Степень неточности в условно ложном предложении   равна:

 ,

где   — число ложных атомарных выражений в  ;   — общее число атомарных предложений в  . Для определения истинности атомарных предложений требуется принять принцип априорного всезнания. Степень бессодержательности истинного предложения   рассчитывается по формуле:

 ,

где   — число миров универсума, в которых   истинно;   — общее число миров универсума (заметим, что, согласно этому определению, величина   в точности равна величине логической вероятности  ). Далее Флориди вводит понятие функции степени информативности:

 .

Количество семантической информации   в сообщении   равно определённому интегралу от функции степени информативности  :

 .

Несмотря на все отличия между классической теорией и теорией Флориди, в них есть нечто общее. Если   является истинным предложением, то величина   равна величине логической вероятности  . Мера   подобна мере  , но в отличие от последней, является нелинейной функцией  . К сожалению, в теории Флориди нет ничего похожего на меру  , обладающую замечательным свойством (*) для логически независимых предложений.

Теория семантической информации и дезинформации править

Поднятая Флориди проблема может быть решена в рамках теории, основанной на логических вероятностях. Необходимо отметить, что к началу текущего века у некоторых учёных сформировалось скептическое отношение к индуктивной логике Карнапа[10]. Однако современные математики смогли изменить ситуацию, модифицировав эту теорию[11][12][13]. Благодаря этому интерес к логическим вероятностям вновь возродился.

В работе[14] предлагается модифицировать классическую теорию семантической информации, включив в неё понятие дезинформации, которую несёт ложное сообщение. В новой теории, как и в теории Флориди, рассматривается множество различных ситуаций (точек пространства-времени). Одно и то же предложение языка может быть истинным в одной ситуации и ложным в другой. Поскольку получатель сообщений не может быть застрахован от ошибок при оценке их истинности, количество семантической информации оценивается отдельно с точки зрения получателя и с точки зрения всезнающего эксперта.

В каждой конкретной ситуации истинное сообщение несёт только информацию, а абсолютно ложное — одну только дезинформацию. Условно ложное предложение   рассматривается как конъюнкция:  , где   — истинная часть сообщения,   — ложная часть сообщения. При этом требуется, чтобы   и   были логически независимыми (это нужно, в частности, для того, чтобы противоречие не оказалось условно ложным предложением). Тогда ненормализованные меры количества информации   и количества дезинформации   в условно ложном предложении   с точки зрения эксперта определяются следующим образом:

 ,
 .

Индекс « », которым помечены символы « » и « » в формулах, указывает на то, что рассматриваются количества информации и дезинформации с точки зрения эксперта. Нормализованные меры количества семантической информации   и дезинформации   в условно ложном предложении   с точки зрения эксперта:

 ,
 .

Противоречие с точки зрения эксперта несёт нулевое количество информации и бесконечное количество дезинформации. Таким образом решается парадокс Бар-Хиллела-Карнапа. Бесконечное количество дезинформации объясняется тем, что, если бы противоречие вдруг кому-то показалось истиной, то мир изменился бы для него до неузнаваемости. Двумя словами это не описать. Предположим, что получатель информации имеет условно ложные знания  , эквивалентные конъюнкции:  , где   — истинная часть его знаний,   — заблуждения. Тогда с точки зрения эксперта, получив условно ложное сообщение  , адресат реально имеет семантическую информацию и дезинформацию в следующих количествах:

 ,
 .

Если получатель воспринимает   как истинное предложение и конъюнкция   не является противоречием, то с его точки зрения он получил следующее количество информации:

 .

Индекс « » обозначает оценку адресата. Очевидно, что точное количество информации (и дезинформации) в пришедшем сообщении может определить только эксперт, а получатель способен лишь на более-менее точные оценки.

Теория универсальной семантической информации править

Формальное описание семантической информации, применимое для всех видов физических систем (живых и неживых) дано математиком Дэвидом Волпертом (David Wolpert) в его работе "Semantic information, agency, and nonequilibrium statistical physics": синтаксическая информация, которой обладает физическая система об окружающей среде, и которая казуально необходима системе для поддержания собственного существования в состоянии низкой энтропии.

Казуальная необходимость определяется в терминах гипотетических вмешательств (counter-factual interventions), которые рандомизируют корреляции между системой и внешней средой. Критерием степени автономности физической системы является объём имеющейся семантической информации.

Примечания править

  1. Shannon C.E., Weaver W., (1949), The Mathematical Theory of Communication, Urbana: University of Illinois Press. Foreword by Richard E. Blahut and Bruce Hajek; reprinted in 1998.
  2. Люгер Д.Ф. Искусственный интеллект: стратегии и методы решения сложных проблем. – М.: Издательский дом «Вильямс», 2005. – 864 с. ISBN 5-8459-0437-4 (рус.)
  3. Дмитриев В.И. Прикладная теория информации. – М.: Высшая школа, 1989. – 320 с. ISBN 5-06-000038-9
  4. Shannon C.E., (1948), A Mathematical Theory of Communication. Bell Syst. Tech. J., 27: 379-423, 623-656.
  5. Bar-Hillel Y., Carnap R., (1952), «An Outline of a Theory of Semantic Information», Technical Report No. 247, October 27, Research Laboratory of Electronics. – 49. [1] Архивировано 12 июля 2013 года.
  6. Харкевич А. А. О ценности информации, «Проблемы кибернетики», 1960, в. 4. – с. 54.
  7. Шрейдер Ю. А., (1965), Об одной модели семантической теории информации, «Проблемы кибернетики», в. 13. – с. 233-240.
  8. Floridi L. (2004), «Outline of a Theory of Strongly Semantic Information», Minds and Machines, 14(2), 197-222. [2] Архивная копия от 2 августа 2014 на Wayback Machine
  9. Floridi L. (2011), Semantic Conception of Information, In The Stanford Encyclopedia of Philosophy, ed. Edward N. Zalta, [3] Архивная копия от 5 сентября 2015 на Wayback Machine
  10. Hajek Alan. (2007). Interpretation of probability. In The Stanford Encyclopedia of Philosophy, ed. Edward N. Zalta, [4] (недоступная ссылка)
  11. Maher Patrick, (2010). Explication of Inductive Probability. Journal of Philosophical Logic 39 (6): 593-616.
  12. Zabell S. I. (2004). Carnap and the Logic of Inductive Inference. In Dov M. Gabbay, John Woods & Akihiro Kanamori (eds.), Handbook of the History of Logic. Elsevier 265-309.
  13. Ruurik Holm (2013). Non-Zero Probabilities for Universal Generalizations. Synthese 190 (18): 4001-4007.
  14. Погорелов О. А. (2015). Семантическая информация и дезинформация //Сборник научных статей по итогам V Международной научно-практической конференции «Информатика, Математическое моделирование, Экономика» (г. Смоленск, 11-15 мая 2015 г.), с. 132-143. [5]