Обсуждение:Скрытая марковская модель
Последнее сообщение: 15 лет назад от 195.131.125.162 в теме «Сomputing likelihood using Baum-Welch (forward-backward) algorithm ???»
Больше не сирота
правитьЕсть ссылка на эту страницу с английской статьи по Hidden Markov Model
Чего-то вообще не в тему
правитьМарковская модель это конечный автомат, каждое состояние которого выдается в результат. Скрытая - не все состояния выдаются, можно по ним поблуждать и только попадя на открытое снова выдаем "текущее" состояние. NOwiking
- Ну, это частный случай того, что описано в статье — для наблюдаемых состояний положим (результат наблюдения) равным состоянию, а для ненаблюдаемых пусть будет специальным объектом-маркером «ненаблюдаемое состояние». -- X7q 02:56, 18 августа 2009 (UTC)
- Если так рассуждать каждый шпион должен носить табличку "я не шпион", а все потерянные вещи должны каким-то чудом оказываться в специальном ящичке в подвале с маркером "Потерянные вещи". В том-то и дело что этот маркер не на что вешать. Изнутри системы конечно все состояния видны, а снаружи не должно быть никакого "невидимого состояния", должно быть тоже видны все состояния, но изнутри их больше. По-английски зачем-то нарисовали число y больше чем x. Это вообще недетерминированный автомат, который может быть одновременно в двух состояниях, вообще третий вид. Вторая картинка там правильнее. Но тоже уже с Байесом скрестили, вполне отделяемую постороннюю функцию зачем-то замешали в основную. NOwiking 00:48, 19 августа 2009 (UTC)
- Хорошо, если вам не нравится получать в выходной последовательности этот маркер «ненаблюдаемое состояние», то от них можно легко избавиться — построим марковскую цепь, в которой оставим только наблюдаемые состояния, с вероятностью перехода из i-го в j-е состояние равной вероятности того, что начав с i-го состояния в исходной модели и, "поколесив" по ненаблюдаемым состояниям, в конце окажемся в j-м состоянии. С точки зрения наблюдателя эти две модели будут эквивалентны. X7q 02:13, 19 августа 2009 (UTC)
- >По-английски зачем-то нарисовали число y больше чем x.
Так это потому, что каждому состоянию, вообще говоря, может соответствовать не один результат наблюдения, а несколько, выдаваемых с определёнными вероятностями. И множества возможных результатов наблюдения могут пересекаться для разных состояний. Это часть стандартного определения скрытых марковских цепей, см. Rabiner's Tutorial on Hidden Markov Models. X7q 02:13, 19 августа 2009 (UTC)
- >По-английски зачем-то нарисовали число y больше чем x.
Сomputing likelihood using Baum-Welch (forward-backward) algorithm ???
правитьРазве для оценки правдоподобия цепочки наблюдений используется forward-backward алгоритм? Алгоритм Баума-Уэлча предназначен для обучения HMM, для оценки правдоподобия используется forward алгоритм.
195.131.125.162 14:40, 11 сентября 2009 (UTC)