Метод опорных векторов: различия между версиями

[непроверенная версия][отпатрулированная версия]
Содержимое удалено Содержимое добавлено
м стилевые правки
Нет описания правки
Строка 3:
'''Метод опорных векторов''' ({{lang-en|SVM, support vector machine}}) — набор схожих алгоритмов [[обучение с учителем|обучения с учителем]], использующихся для [[Задача классификации|задач классификации]] и [[регрессионный анализ|регрессионного анализа]]. Принадлежит семейству [[Линейный классификатор|линейных классификаторов]] и может также рассматриваться как частный случай [[Регуляризация Тихонова|регуляризации по Тихонову]]. Особым свойством метода опорных векторов является непрерывное уменьшение эмпирической ошибки классификации и увеличение зазора, поэтому метод также известен как '''''метод классификатора с максимальным зазором'''''.
 
Основная идея метода — перевод исходных векторов в пространство более высокой размерности и поиск разделяющей гиперплоскости с максимальнымнаибольшим зазором в этом пространстве. Две параллельных гиперплоскости строятся по обеим сторонам гиперплоскости, разделяющей классы. ''Разделяющей гиперплоскостью'' будет гиперплоскость, максимизирующаясоздающая наибольшее расстояние до двух параллельных гиперплоскостей. Алгоритм работаетоснован вна предположениидопущении, что чем больше разница или расстояние между этими параллельными гиперплоскостями, тем меньше будет средняя ошибка классификатора.
 
== Постановка задачи ==