Рефераты. Применение Байесовых сетей
В
байесовой сети возможны три типа отношений между переменными:
1.
последовательные соединения
(рис. 2a);
2.
дивергентные соединения (рис.
2b),;
3.
конвергентные соединения
(рис. 2c).
Ситуация
на рис. 2c требует, по-видимому, дополнительных пояснений—как возникает зависимость
между предками конвергентного узла, когда становится известным значение
потомка. Для простоты рассмотрим пример, когда узел A имеет всего двух предков
–B и C. Пусть эти две переменные отвечают за выпадение орла и решки при
независимом бросании двух разных монет, а переменная A — логический индикатор,
который «загорается», когда обе монеты оказались в одинаковом состоянии (например,
обе - решки). Теперь легко понять, что если значение индикаторной переменной
стало известным, то значения B и C стали зависимыми — знание одного из них
полностью определяет оставшееся.
Общее
свойство (условной) независимости переменных — узлов в байесовой сети получило
название d-разделения (d-separation).
Две
переменные A и B в байесовой сети являются d-разделенными, если на каждом пути,
соединяющем эти две вершины на графе, найдется промежуточная переменная V,
такая что:
1.
соединение с V
последовательное или дивергентное и значение V известно, либо
2.
соединение конвергентное и
нет свидетельств ни о значении V, ни о каждом из ее потомков.
Так,
в сети задачи Шерлока Холмса (рис. 1) переменные «Полив?» и «Трава у дома
Ватсона?» являются d-разделенными. Граф содержит на пути между этими
переменными конвергентное соединение с переменной «Трава у дома Холмса?».
(a)
(b)
(c)
Рисунок 2 Три
типа отношений между переменными
(a)
Последовательное соединение. Влияние информации может распространяться от A к
C и обратно, пока значение B не конкретизировано. (b) Дивергентное соединение.
Влияние может распространяться между потомками узла A, пока его значение не
конкретизировано. (c) Конвергентное соединение. Если об A ничего не известно,
кроме того, что может быть выведено из информации о его предках B,C,... ,E, то
эти переменные предки являются разделенными. При уточнении A открывается канал
взаимного влияния между его предками.
Свойство
d-разделимости соответствует особенностям логики эксперта-человека, поэтому
крайне желательно, чтобы в рассуждениях машин относительно двух d-разделенных
переменных новая информация об одной из них не изменяла степень
детерминированности второй переменной. Формально, для переменных A и C,
независимых при условии B, имеет место соотношение P(A | B) = P(A | B, C).
Отметим,
что интуитивное восприятие условной зависимости и независимости иногда, даже в
простых случаях, оказывается затрудненным, так как сложно из всех исходов
событий мысленно выделить только те события, в которых значение обусловливающей
переменной определено, и далее в рассуждения оперировать только ими.
Вот
простой пример, поясняющий эту трудность: в некотором сообществе мужчины
среднего возраста и молодые женщины оказались материально более обеспеченными,
чем остальные люди. Тогда при условии фиксированного повышенного уровня
обеспеченности пол и возраст человека оказываются условно зависимыми друг от
друга!
Еще
один классический пример, связанный с особенностями условных вероятностей.
Рассмотрим некоторый колледж, охотно принимающий на обучение сообразительных и
спортивных молодых людей (и тех, кто обладает обоими замечательными
качествами!). Разумно считать, что среди всех молодых людей студенческого
возраста спортивные и интеллектуальные показатели независимы. Теперь если
вернуться к множеству зачисленных в колледж, то легко видеть, что высокая
сообразительность эффективно понижает вероятность спортивности и наоборот, так
как каждого из этих свойств по-отдельности достаточно для приема в колледж.
Таким образом, спортивность и умственные показатели оказались зависимыми при
условии обучения в колледже.
На практике нам необходимы распределения интересующих нас
переменных, взятые по отдельности. Они могут быть получены из соотношения для
полной вероятности при помощи маргинализации — суммирования по реализациям всех
переменных, кроме, выбранных.
Приведем пример точных вычислений в простой байесовой
сети, моделирующей задачу Шерлока Холмса. Обозначения и смысл переменных в
сети : R —был ли дождь, S — включена ли поливальная установка, C — влажная ли
трава у дома Холмса, и W — влажная ли трава у дома Ватсона.
Все четыре переменные принимают булевы значения 0 — ложь,
(f) или 1 — истина (t). Совместная вероятность P(R, S, C, W), таким образом, дается
совокупной таблицей из 16 чисел. Таблица вероятностей нормирована, так что
Зная совместное распределение, легко найти любые
интересующие нас условные и частичные распределения. Например, вероятность
того, что ночью не было дождя при условии, что трава у дома Ватсона — влажная,
дается простым вычислением:
Из теоремы об умножении вероятностей полная вероятность
представляется цепочкой условных вероятностей:
P(R, S, C, W) = P(R) * P(S | R) * P(C |R,S)*P(W | R, S,
C).
В описанной ранее байесовой сети ориентированные ребра
графа отражают суть вероятностей, которые реально имеют место в задаче.
Поэтому формула для полной вероятности существенно упрощается:
P(R, S, C, W) = P(R) *P(S) * P(C |R,S)*P(W | R).
Порядок следования переменных в соотношении для полной
вероятности, вообще говоря, может быть любым. Однако на практике целесообразно
выбирать такой порядок, при котором условные вероятности максимально редуцируются.
Это происходит, если начинать с переменных-«причин», постепенно переходя к
«следствиям». При этом полезно представлять себе некоторую «историю», согласно
которой причины влияют на следствия.
Рассматриваем
небольшую яблочную плантацию «яблочного Джека». Однажды Джек обнаружил, что его
прекрасное яблочное дерево лишилось листвы. Теперь он хочет выяснить, почему
это случилось. Он знает, что листва часто опадает, если:
дерево
засыхает в результате недостатка влаги; или дерево болеет.
Данная
ситуация может быть смоделирована байесовской сетью доверия, содержащей 3
вершины: «Болеет», «Засохло» и «Облетело».
Рис.1.
Пример байесовской сети доверия с тремя событиями.
В
данном простейшем случае рассмотрим ситуацию, при которой каждая вершина может
принимать всего лишь два возможных состояний и, как следствие находится в одном
из них, а именно:
Вершина (событие) БСД
Состояние 1
Состояние 2
“Болеет”
«болеет»
«нет»
“Засохло”
«засохло»
«нет»
“Облетело”
«да»
«нет»