Дилемма смещения–дисперсии: различия между версиями

[отпатрулированная версия][отпатрулированная версия]
Содержимое удалено Содержимое добавлено
Добавьте 1 книгу для Википедия:Проверяемость (20210223)) #IABot (v2.0.8) (GreenC bot
Нет описания правки
Строка 7:
 
'''Компромисс отклонение-дисперсия''' в [[Статистика|статистике]] и в [[Машинное обучение|машинном обучении]] — это свойство набора моделей предсказания, когда модели с меньшим отклонением от имеющихся данных имеют более высокую [[Дисперсия случайной величины|дисперсию]] на новых данных (то есть подвержены [[Переобучение|переобучению]]), и наоборот. '''Компромисс''' '''отклонение-дисперсия''' — конфликт при попытке одновременно минимизировать эти два источника {{не переведено 5|ошибки и невязки в статистике|ошибки||Errors and residuals in statistics}}, которые мешают алгоритмам [[Обучение с учителем|обучения с учителем]] делать обобщение за пределами {{не переведено 5|Тренировочные, тестовые и контрольные наборы|тренировочного набора||training set}}.
* ''[[Несмещённая оценка|Смещение]]'' — это ошибкапогрешность оценки, возникающая в результате ошибочного предположения в [[алгоритм]]е обучения. В результате большого смещения алгоритм может пропустить связь между признаками и выводом (недообучение).
* ''[[Дисперсия случайной величины|Дисперсия]]'' — это ошибка чувствительности к малым отклонениям в тренировочном наборе. При высокой дисперсии алгоритм может как-то трактовать случайный {{не переведено 5|Шум (обработка сигналов)|шум||Noise (signal processing)}} в тренировочном наборе, а не желаемый результат ([[переобучение]]).