Сверточные нейросети. Джейд Картер
Чтение книги онлайн.

Читать онлайн книгу Сверточные нейросети - Джейд Картер страница 15

Название: Сверточные нейросети

Автор: Джейд Картер

Издательство: Автор

Жанр:

Серия:

isbn:

isbn:

СКАЧАТЬ активные признаки.

      Вместе свертка и пулинг образуют основу сверточных нейронных сетей, обеспечивая эффективное извлечение и агрегацию признаков из входных данных.

      Глава 3. Функции активации

      – Основные функции: ReLU, Sigmoid, Tanh

      – Современные функции активации: Leaky ReLU, ELU, Swish

      – Влияние функций активации на обучение сети

Основные функции активации

      ReLU (Rectified Linear Unit)

      ReLU, или выпрямленный линейный элемент, является одной из наиболее часто используемых функций активации в современных нейронных сетях. Главной особенностью ReLU является его простота: он передает входное значение, если оно положительно, и устанавливает его в ноль, если оно отрицательно. Такая простота в вычислениях делает ReLU чрезвычайно эффективной и быстрой по сравнению с другими функциями активации, такими как Sigmoid или Tanh.

      Основным преимуществом ReLU является его способность устранять проблему затухающих градиентов. Проблема затухающих градиентов возникает, когда производные активационной функции становятся очень маленькими, что замедляет обновление весов во время обратного распространения ошибки и делает обучение сети затруднительным. ReLU, благодаря своей линейной природе для положительных входов, сохраняет большие градиенты и, следовательно, способствует более быстрой сходимости модели.

      Однако у ReLU есть и недостатки. Один из основных – это проблема "умирающих ReLU". Эта проблема возникает, когда большое количество нейронов в сети перестает реагировать на изменения входных данных. Это происходит потому, что для отрицательных входных значений ReLU возвращает ноль, и если нейрон часто получает отрицательные значения, он может навсегда перестать обновлять свои веса, фактически "умирая". В результате сеть может терять значительное количество нейронов, что снижает её способность к обучению и обобщению.

      Несмотря на этот недостаток, ReLU остается популярным выбором благодаря своим преимуществам и простоте. Для решения проблемы "умирающих ReLU" были разработаны модификации, такие как Leaky ReLU и ELU, которые сохраняют преимущества ReLU, добавляя при этом возможность обработки отрицательных значений.

      Пример использования ReLU

      Рассмотрим пример использования функции активации ReLU в нейронной сети, реализованной с помощью библиотеки Keras на Python. В этом примере мы создадим простую полносвязную нейронную сеть для классификации рукописных цифр из набора данных MNIST.

      ```python

      import keras

      from keras.models import Sequential

      from keras.layers import Dense, Flatten

      from keras.datasets import mnist

      from keras.utils import np_utils

      # Загрузка данных MNIST

      (X_train, y_train), (X_test, y_test) = mnist.load_data()

      # Нормализация входных данных

      X_train = X_train.astype('float32') / 255

      X_test = X_test.astype('float32') / 255

      # Преобразование меток в one-hot encoding

      y_train = np_utils.to_categorical(y_train, 10)

      y_test = np_utils.to_categorical(y_test, 10)

      # Создание модели

      model = Sequential()

      # Добавление слоев с функцией активации ReLU

      model.add(Flatten(input_shape=(28, 28))) # Преобразование входных данных в вектор

      model.add(Dense(512, activation='relu')) СКАЧАТЬ