Логическая вероятность — логическое отношение между двумя предложениями, степень подтверждения гипотезы H свидетельством E.

Понятие логической вероятности является одной из интерпретаций понятия вероятности наряду с частотной вероятностью и субъективной вероятностью[1]. Формально логическая вероятность является функцией предложений какого-либо языка. Аналитическим предложениям (тавтологиям) приписывается единичное значение этой функции; противоречиям — нулевое; синтетическим предложениям — любое действительное число из интервала (0, 1)[2][3][4][5][6][7]. Конкретные значения логической вероятности для каждого её синтетического аргумента H зависят от другого предложения E, которое можно интерпретировать как описание знаний некоторого субъекта[7][8][9][10][11]. По этой причине логическую вероятность называют эпистемологической (зависящей от знаний) вероятностью. В некотором смысле её также можно трактовать и как разновидность субъективной вероятности. Однако значения логической вероятности однозначно определяются заданной системой знаний и, в этом смысле, имеют объективный характер[2]. В научной литературе принято различать логическую и субъективную вероятности[1].

Поскольку предложения языка описывают некоторые события или состояния, то логическую вероятность также можно рассматривать как функцию этих событий или состояний[12][13][14].

История править

Понятие логической вероятности возникло и развивалось в работах Кейнса, Джонсона и Джеффри[2][3][4][5][6]. Наиболее систематическое изучение данного понятия было проведено Карнапом[7][8][9][10][11]. Его формулирование логической вероятности началась с конструирования формального языка. В 1950 году он рассмотрел класс очень простых языков, состоящих из конечного числа логически независимых одноместных предикатов, именуемых свойствами, и счетного количества констант. Для получения более сложных предложений использовались логические связки. Далее Карнап составил описания всех возможных состояний универсума.

Рассмотрим следующий пример, взятый из работы[1]. Пусть формальный язык содержит три индивидуальные константы a, b, c и предикат F. Для определенности примем, что константы обозначают конкретных людей: Алису, Боба и Цезаря, а предикату соответствует свойство: «быть молодым». Существуют восемь возможных описаний состояний для этого случая, которые представлены в табл. 1.

Таблица 1

N Описания состояний Вероятности 1 Вероятности 2
1      
2      
3      
4      
5      
6      
7      
8      

Символ « » обозначает логическую связку «И», а символ « » — логическую связку «НЕ». Первое предложение можно прочитать следующим образом: «Алиса, Боб и Цезарь — все молодые», второе — «Алиса и Боб — молодые, а Цезарь — нет», третье «Алиса и Цезарь — молодые, а Боб — нет» и т. д.

Карнап обозначал абсолютную логическую вероятность предложения A символом m(A). Её значение определяется как сумма вероятностей состояний, в которых предложение A является истинным. Предположим, что субъект не располагает фактическими знаниями и априори считает, что все состояния универсума одинаково вероятны. Тогда значения абсолютных логических вероятностей каждого состояния равны 1/8 (см. табл. 1). Следовательно, вероятности атомарных предложений равны 1/2, вероятность конъюнкции двух атомарных предложений — 1/4, вероятность дизъюнкции двух атомарных предложений — 3/4.

Карнап определяет функцию подтверждения c(H, E) предложения H предложением E следующим образом:

 .

С точки зрения обычной теории вероятностей функция подтверждения является условной вероятностью. Когда описания состояний универсума равновероятны, как в данном случае, мы не можем использовать полученный опыт для предсказания дальнейших событий. Например, функция подтверждения гипотезы "Цезарь молодой" при отсутствии всякого свидетельства, при наличии свидетельства "Алиса молодая" и при наличии свидетельства "Алиса молодая и Боб молодой" принимает одинаковое значение, равное 1/2.

Карнапа интересовал вопрос индуктивного вывода. Он считал, что индуктивная логика — это вероятностная логика, и новые свидетельства в пользу гипотезы должны увеличивать степень её подтверждения[11]. В попытке согласовать свою модель с ожидаемыми результатами он обратился к структурным описаниям, которые можно получить, если все константы в языке считать неразличимыми (взаимозаменяемыми)[7]. В нашем примере имеем четыре структурных описания.

1). «три молодых человека»,

2). «два молодых человека и один старый»,

3). «один молодой и два старых»,

4). «трое стариков».

Первому структурному описанию соответствует состояние 1 (см. табл. 1); второму — состояния 2, 3 и 5; третьему — состояния 4, 6, 7; четвертому — состояние 8. Каждому структурному описанию назначают одинаковое значение вероятности (равное 1/4 в нашем примере). Поскольку второму структурному описанию соответствуют три описания состояний 2, 3 и 5, то значения вероятностей этих состояний будут в три раза меньше значения вероятности структурного описания (то есть 1/12). Такие же значения вероятностей будут иметь и состояния 4, 6 и 7. Теперь имеем новое распределение вероятностей состояний, в котором значения вероятностей различаются (см. последний столбец табл. 1).

Для этого случая Карнап использует специальные обозначения логических функций m* и c*. Их численные значения для разных предложений языка в общем случае отличаются от значений функций m и c. Теперь появляется возможность обучения на опыте. Предположим, мы идем по улице. Значение функции подтверждения c* гипотезы "нам встретится молодой человек" при отсутствии всякого свидетельства равно 1/2. После того как мы увидели молодую девушку (Алису), оно повысится до величины 2/3. А после новой встречи с молодым человеком (Бобом) увеличивается до величины 3/4. Наши наблюдения могут наводить на мысль, что где-то поблизости расположен университет и студенты спешат на занятия. Поэтому нам и встречаются одни только молодые люди.

Необходимо заметить, что значения логической вероятности зависят от свидетельства (то есть от предложения), а не от фактов реального мира. Гипотеза «Цезарь окажется молодым» в отношении свидетельства «Алиса оказалась молодой и Боб тоже оказался молодым» имеет вероятность 3/4, независимо от того, видели ли мы Алису и Боба в реальной жизни или только вообразили себе их.

Обратимся к другому примеру. Допустим, некий человек увидел однажды черную ворону и ожидает, что и следующая увиденная им ворона окажется черной. Если это подтвердилось, то ожидания снова встретить ворону черного цвета у него будут выше, чем прежде. Впрочем, это не значит, что ситуация не может измениться (бывают ведь и белые вороны). Европейцы привыкли видеть белых лебедей и были несказанно удивлены (и очарованы), когда в Австралии обнаружили черного лебедя.

Предположим, что мы встретили юную девушку Алису, а затем немолодого Боба (возможно, что это профессор нашего гипотетического университета). Какова вероятность того, что в дальнейшем нам встретится молодой Цезарь? Говоря формальным языком, нам нужно найти значение функции подтверждения c* для этого случая. Оно будет равно 1/2. Вполне ожидаемый результат. Любопытно, что при новом распределении вероятностей состояний универсума атомарные предложения начинают зависеть друг от друга. Однако это уже не логическая, а физическая зависимость. Изменения в распределении вероятностей состояний приводят к получению новой информации (изменению знаний субъекта). В нашем случае — это представление о взаимозаменяемости индивидуальных констант. Другой пример: предложения «идет дождь» и «земля мокрая» являются логически независимыми. Однако физически они зависят друг от друга, это можно проверить опытным путём.

Классификация логических вероятностей править

Согласно Карнапу[7], логические вероятности делятся на два класса: дедуктивные и индуктивные. Дедуктивными являются функции m и c. Примером индуктивных вероятностей могут служить функции m* и c*. Последние имеют особое значение, поскольку с их помощью можно построить логику индуктивного вывода)[11][12][13][14][15].

Правило последовательности править

Задолго до Карнапа Лаплас вывел формулу, позволяющую рассчитывать предсказывающую (индуктивную) вероятность. Рассмотрим последовательность случайных исходов некоторого эксперимента, каждый принимает одно значение из двух возможных: либо 1, либо 0 (единица означает успех, а ноль — неудачу). Пусть E обозначает предложение «в n испытаниях было k успехов», а H обозначает предложение «следующее испытание закончится успехом». Тогда вероятность того, что следующее испытание завершится успехом, равна:

 ,

Это знаменитое правило последовательности Лапласа.

Вернемся к нашему примеру. Пусть успех эксперимента заключается в том, что, двигаясь по улице, мы встречаем молодого человека, а неуспех — в том, что встречаем немолодого. Пока мы никого не встретили,   и  . Поэтому  . После встречи с Алисой ( ), которая является юной девушкой ( ), предсказывающая вероятность увеличивается  . А после встречи с Бобом ( ), который также имеет юный возраст ( ), она еще более увеличивается  .

Карнап пошел дальше Лапласа. Он обобщил его формулу на случай   исходов ( ) различных типов. Пусть в результате   испытаний   из них закончились исходом  -го типа. Тогда вероятность того, что следующее   испытание завершится исходом  -го типа, равна[7][14]:

 

В дальнейшем Карнап получил еще более общую формулу.

Континуум Джонсона — Карнапа править

Ранний Карнап излагал свою теорию скорее как философ, а не как математик[14]. Позднее стиль его работ изменился, он стал использовать аксиомы и формальные доказательства[11]. Современный подход к определению индуктивной вероятности заключается в следующем. Индуктивная вероятность рассматривается в виде  , где предложения   и   входят в некоторую алгебру предложений, а   является фиксированным предложением, называемом «фоновым свидетельством»[15].

В нашем примере предложениями алгебры являются атомарные предложения  ,   и   и их отрицания, а также молекулярные предложения, составленные из данных атомов с помощью логических связок. Фоновым свидетельством является утверждение о том, что все структурные описания имеют одинаковые вероятности. Предположим, что алгебра содержит предложения  ,  ,   и  . Следующие пять аксиом гарантируют, что   удовлетворяет законам вероятности.

Аксиома 1.  .

Аксиома 2.  .

Аксиома 3.  .

Аксиома 4.  .

Аксиома 5. Если   и  , то  .

Здесь символ « » означает логическую эквивалентность. К этим пяти аксиомам следует добавить еще четыре аксиомы Карнапа[10].

Аксиома 6. (Регулярности)  .

Аксиома 7. (Симметрии)   не изменяется при перестановке индивидуальных констант.

Аксиома 8. (Текущей релевантности (англ. instantial relevance))  , где свидетельство   содержит всю информацию, которая содержится в  , плюс новые подтверждения гипотезы  .

Аксиома 9. (Постулат достаточности) Индуктивная вероятность является функцией   и  .

На основании этих аксиом Карнап доказал следующую теорему[10]. Если имеется   различных исходов испытаний, то существуют положительные действительные константы   ,…,  , такие что

 

где  .

Позднее выяснилось, что задолго до Карнапа этот результат был получен Джонсоном[3][4], однако вследствие его ранней смерти оказался неизвестен широкой научной общественности[14]. Полученную формулу можно представить в виде:

 

Выражения в квадратных скобках имеют очевидную интерпретацию. Первое   представляет собой эмпирическую частоту, а второе   — априорную вероятность исхода  -го типа, полученную на основе анализа пространства возможных состояний. Выражения в круглых скобках — это относительные веса, которыми представлены эмпирические наблюдения и априорная информация в значении логической вероятности. При фиксированном  , чем больше  , тем большую роль играет априорная информация (и наоборот). При малых  , когда выборка наблюдений является недостаточно представительной, логично отдавать предпочтение априорной вероятности; при большом числе наблюдений, напротив — эмпирической частоте. При   значение индуктивной вероятности асимптотически стремится к значению частотной (независимо от конечной величины  ).

Универсальное обобщение править

Пусть объектом наблюдения являются   ворон, и все они оказались черными ( ). На основании данного опыта можно выдвинуть гипотезу о том, что вороны — черные вообще. Какова вероятность такого утверждения? На этот вопрос теория Джонсона — Карнапа дает парадоксальный ответ — она равна нулю[1][14][15].

Сэнди Забелл решил этот парадокс, заменив постулат достаточности новым постулатом[13]. Пусть   означает число исходов разных типов, наблюдаемых в серии из   опытов. Новый постулат формулируется так: для всех   предсказывающая вероятность   является функцией   и  , за исключением случаев, когда   и  . В результате Забелл получил следующие формулы для индуктивной вероятности[13]:

  для  ,

  для   и  .

  для  ,   и  .

где  ,

 ,

 .

Здесь   — априорная и   — апостериорная вероятности того, что исход  -го типа в данном эксперименте будет наблюдаться всегда.

Место логической вероятности в ряду вероятностей других типов править

Согласно классическому определению, вероятность есть отношение числа избранных исходов некоторого эксперимента к числу всех мыслимых его исходов. При этом все они полагаются равновозможными. Как известно [1], критика недостатков этого определения привела к появлению понятия частотной вероятности. Логические теории возвращают нас к идее о том, что вероятность может быть определена априори путём исследования пространства возможностей, хотя теперь возможности могут быть заданы и с неравным весом.

Логическая вероятность имеет отношение к доступному свидетельству и не зависит от неизвестных фактов о мире, а частотная — является фактом о мире и не имеет отношения к доступному свидетельству[16]. Тем не менее, различие между этими вероятностями достаточно тонкое. Например, если известно, что при бросании игральной кости величина частотной вероятности выпадения шестерки равна q=0,18, то логическая вероятность гипотезы «выпадет шестерка» относительно свидетельства «брошена кость с заданной q» равна 0,18.

Существует мнение[1][14][15], что если знания субъекта можно представить в виде некого сложного предложения (total evidence), то логическая вероятность способна служить разумным обоснованием субъективной вероятности. Однако в работе[16] утверждается, что, субъективная вероятность — это смесь мистики, прагматизма и высокомерия, в которой лишь немного индуктивной вероятности.

Примечания править

  1. 1 2 3 4 5 6 Hajek Alan. (2007). Interpretation of probability. In The Stanford Encyclopedia of Philosophy, ed. Edward N. Zalta, https://plato.stanford.edu/entries/probability-interpret/ Архивная копия от 17 февраля 2021 на Wayback Machine.
  2. 1 2 3 Keynes J.M. A Treatise on Probability. Macmillan, London, 1921.
  3. 1 2 3 Jonnson W.E. Logic, Part III: Logical Foundation of Science. Cambridge University Press, 1924.
  4. 1 2 3 Johnson W.E. Probability: The deductive and inductive problems. Mind, 41: 409-423, 1932.
  5. 1 2 Jeffrey R.C. Theory of Probability. Clarendon Press, Oxford, 3rd edition, 1961.
  6. 1 2 Jeffrey R.C. Subjective Probability: The Real Thing. Cambridge University Press, Cambridge, 2004.
  7. 1 2 3 4 5 6 Carnap R. Logical Foundation of Probability. University of Chicago Press, Chicago, 1950, Second edition, 1962.
  8. 1 2 Carnap R. The two concepts of probability. Phylosophy and Phenomeno logical Research, 5:513-532, 1945.
  9. 1 2 Carnap R. On inductive logic. Philosophy of Science, 12:72-97, 1945.
  10. 1 2 3 4 Carnap R. The Continuum of Inductive Methods. University of Chicago Press, Chicago, 1952.
  11. 1 2 3 4 5 Carnap R., Jeffrey R.C. Studies in Inductive Logic and Probability, volume I. University of California Press, Berkeley and Los Angeles, 1971.
  12. 1 2 Гастев Ю.А. Вероятностная логика/ Большая Советская Энциклопедия, 1971, Т. 4, с. 543.
  13. 1 2 3 4 Zabell S.L. (1996) Confirming universal generalizations. Erkenntnis, 45: 267-283.
  14. 1 2 3 4 5 6 7 Zabell S.L. (2004). Carnap and the Logic of Inductive Inference. In Dov M. Gabbay, John Woods & Akihiro Kanamori (eds.), Handbook of the History of Logic. Elsevier 265-309.
  15. 1 2 3 4 Maher Patrick, (2010). Explication of Inductive Probability. Journal of Philosophical Logic 39 (6): 593-616.
  16. 1 2 Maher Patrick, (2006) The Concept of Inductive Probability. Erkenntnis, 65: 185-206.