Стохастический градиентный спуск: различия между версиями
[отпатрулированная версия] | [непроверенная версия] |
Содержимое удалено Содержимое добавлено
Jumpow (обсуждение | вклад) отмена правки 113584685 участника VCarik (обс.) Пожалуйста, сделайте нормальные правки. То, что вы поправили никуда не годится. Метка: отмена |
→Преамбула: метод решения СЛАУ не имеет никакого отношения к итеративному методу оптимизации |
||
Строка 1:
'''Стохастический градиентный спуск''' ({{lang-en|Stochastic gradient descent}}, '''SGD''') — это [[
Хотя базовую идею стохастической аппроксимации можно отследить назад к {{не переведено 5|Алгоритм Роббинса — Монро|алгоритму Роббинса — Монро||Robbins–Monro algorithm}} 1950-х годов{{sfn|Mei|2018|с=E7665–E7671}}, стохастический градиентный спуск стал важным оптимизационным методом в [[Машинное обучение|машинном обучении]]{{sfn|Taddy|2019|с=303–307}}.
|