Дилемма смещения–дисперсии: различия между версиями
[отпатрулированная версия] | [отпатрулированная версия] |
Содержимое удалено Содержимое добавлено
Добавьте 1 книгу для Википедия:Проверяемость (20210223)) #IABot (v2.0.8) (GreenC bot |
Sputnik13 (обсуждение | вклад) Нет описания правки |
||
Строка 7:
'''Компромисс отклонение-дисперсия''' в [[Статистика|статистике]] и в [[Машинное обучение|машинном обучении]] — это свойство набора моделей предсказания, когда модели с меньшим отклонением от имеющихся данных имеют более высокую [[Дисперсия случайной величины|дисперсию]] на новых данных (то есть подвержены [[Переобучение|переобучению]]), и наоборот. '''Компромисс''' '''отклонение-дисперсия''' — конфликт при попытке одновременно минимизировать эти два источника {{не переведено 5|ошибки и невязки в статистике|ошибки||Errors and residuals in statistics}}, которые мешают алгоритмам [[Обучение с учителем|обучения с учителем]] делать обобщение за пределами {{не переведено 5|Тренировочные, тестовые и контрольные наборы|тренировочного набора||training set}}.
* ''[[Несмещённая оценка|Смещение]]'' — это
* ''[[Дисперсия случайной величины|Дисперсия]]'' — это ошибка чувствительности к малым отклонениям в тренировочном наборе. При высокой дисперсии алгоритм может как-то трактовать случайный {{не переведено 5|Шум (обработка сигналов)|шум||Noise (signal processing)}} в тренировочном наборе, а не желаемый результат ([[переобучение]]).
|