Стохастический градиентный спуск: различия между версиями

[отпатрулированная версия][непроверенная версия]
Содержимое удалено Содержимое добавлено
отмена правки 113584685 участника VCarik (обс.) Пожалуйста, сделайте нормальные правки. То, что вы поправили никуда не годится.
Метка: отмена
→‎Преамбула: метод решения СЛАУ не имеет никакого отношения к итеративному методу оптимизации
Строка 1:
'''Стохастический градиентный спуск''' ({{lang-en|Stochastic gradient descent}}, '''SGD''') — это [[методИтерация итерации(математика)|итерационный]] метод для [[Оптимизация (математика)|оптимизации]] [[Функция потерь|целевой функции]] с подходящими свойствами [[Гладкая функция|гладкости]] (например, [[Дифференцируемая функция|дифференцируемость]] или [[Субдифференциал|субдифференцируемость]]). Его можно расценивать как [[Стохастическая аппроксимация|стохастическую аппроксимацию]] оптимизации методом [[Градиентный спуск|градиентного спуска]], поскольку он заменяет реальный градиент (вычисленный из полного {{не переведено 5|Набор данных|набора данных||data set}}) путём оценки такового (вычисленного из случайно выбранного подмножества данных){{sfn|Taddy|2019|с=303–307}}. Особенно в приложениях обработки [[Большие данные|больших данных]] это сокращает [[Вычислительная сложность|вычислительные ресурсы]], достигая более быстрые итерации в обмен на более низкую скорость сходимости{{sfn|Bottou, Bousquet|2012|с=351–368}}.
 
Хотя базовую идею стохастической аппроксимации можно отследить назад к {{не переведено 5|Алгоритм Роббинса — Монро|алгоритму Роббинса — Монро||Robbins–Monro algorithm}} 1950-х годов{{sfn|Mei|2018|с=E7665–E7671}}, стохастический градиентный спуск стал важным оптимизационным методом в [[Машинное обучение|машинном обучении]]{{sfn|Taddy|2019|с=303–307}}.