Глубокое обучение. Погружение в технологию. Артем Демиденко
Чтение книги онлайн.

Читать онлайн книгу Глубокое обучение. Погружение в технологию - Артем Демиденко страница 6

СКАЧАТЬ параметрам модели. Градиент показывает, какие изменения параметров нужно сделать, чтобы уменьшить потери.

      4. Обновление параметров: Параметры модели обновляются в направлении, противоположном градиенту, с учетом скорости обучения. Это шаг оптимизации.

      5. Повторение итераций: Шаги 2-4 повторяются до тех пор, пока не будет выполнено условие остановки, например, достижение определенного числа итераций или достижение требуемой точности.

       Преимущества SGD:

      1. Скорость обучения: SGD способен быстро сходиться, особенно на больших наборах данных, так как он обновляет параметры часто и использует небольшие мини-батчи.

      2. Память: Использование мини-батчей позволяет эффективно использовать память, так как не требуется хранить все данные в оперативной памяти.

       Недостатки SGD:

      1. Шум: Из-за стохастичности выбора мини-батчей, SGD может иметь шумные обновления параметров, что может замедлить сходимость.

      2. Выбор скорости обучения: Выбор оптимальной скорости обучения – это сложная задача. Слишком большая скорость обучения может вызвать расходимость, а слишком маленькая – сильно замедлить обучение.

      SGD – это мощный инструмент обучения нейронных сетей и других моделей машинного обучения, и он часто используется в сочетании с различными вариациями и улучшениями, такими как мини-батчи с моментами и адаптивными скоростями обучения. Этот метод позволяет моделям обучаться на больших объемах данных и достигать впечатляющих результатов в ряде задач.

       Метод адаптивного скользящего среднего (Adam)

      Adam – это один из наиболее эффективных и популярных методов оптимизации в глубоком обучении. Он был разработан для учета нюансов различных методов оптимизации и предоставляет хорошую сходимость на практике. Назван этот метод в честь "Adaptive Moment Estimation" (Адаптивной Оценки Момента), что отражает его способность адаптироваться к изменяющейся структуре функции потерь.

       Как работает Adam:

      1. Инициализация параметров: Adam начинается с инициализации параметров модели, как и другие методы оптимизации.

      2. Вычисление градиента: На каждой итерации Adam вычисляет градиент функции потерь по параметрам модели.

      3. Моменты: Adam поддерживает два момента (первый и второй) для каждого параметра. Первый момент представляет собой скользящее среднее градиента, а второй момент – скользящее среднее квадрата градиента. Эти моменты обновляются на каждой итерации следующим образом:

      • Первый момент (средний градиент): Этот момент учитывает, как изменяются градиенты параметров со временем. Он вычисляется как взвешенное скользящее среднее градиента, с весами, которые ближе к 1 в начале обучения и ближе к 0 по мере увеличения числа итераций.

      • Второй момент (средний квадрат градиента): Этот момент отслеживает, как изменяется величина градиента со временем. Он вычисляется аналогичным образом, но для квадратов СКАЧАТЬ