AdaBoost (сокращение от англ. adaptive boosting) — алгоритм машинного обучения, предложенный Йоавом Фройндом[en] и Робертом Шапире[en]. Может использоваться в сочетании с несколькими алгоритмами классификации для улучшения их эффективности. Алгоритм усиливает классификаторы, объединяя их в ансамбль. Является адаптивным в том смысле, что каждый следующий ансамбль классификаторов строится по объектам, неверно классифицированным предыдущими комитетами. AdaBoost чувствителен к шуму в данных и выбросам. Однако он менее подвержен переобучению по сравнению с другими алгоритмами машинного обучения.

AdaBoost вызывает слабые классификаторы в цикле . После каждого вызова обновляется распределение весов , которые отвечают важности каждого из объектов обучающего множества для классификации. На каждой итерации веса каждого неверно классифицированного объекта возрастают, таким образом новый комитет классификаторов «фокусирует своё внимание» на этих объектах.

Алгоритм для задачи построения бинарного классификатора править

Дано:   где  

Инициализируем  

Для каждого  :

  • Находим классификатор   который минимизирует взвешенную ошибку классификации:  , где  
  • Если величина  , то останавливаемся.
  • Выбираем  , обычно   где   взвешенная ошибка классификатора  .
  • Обновляем:
 
где   является нормализующим параметром (выбранным так, чтобы   являлось распределением вероятностей, то есть  ).

Строим результирующий классификатор:

 

Выражение для обновления распределения   должно быть сконструировано таким образом, чтобы выполнялось условие:

 

Таким образом, после выбора оптимального классификатора   для распределения  , объекты  , которые классификатор   идентифицирует корректно, имеют веса меньшие, чем те, которые идентифицируются некорректно. Следовательно, когда алгоритм тестирует классификаторы на распределении  , он будет выбирать классификатор, который лучше идентифицирует объекты неверно распознаваемые предыдущим классификатором.

Ссылки править