Отрывок: Обучающие выборки для каждого набора данных были разбиты на подвыбор- ки для обучения и контроля на основе 5-fold CV. Обучение сети выполнялось при nитераций = 1 000 и nпакетов = 25 для реализации метода стохастического градиента, оптимизация гиперпараметров – с помо- щью случайного поиска [22] со случайным выбором 15 % возможных сочетаний...
Название : Снижение вычислительных затрат в глубоком обучении при почти идеальной линейной разделимости обучающей выборки
Другие названия : Reducing computational costs in deep learning on almost linearly separable training data
Авторы/Редакторы : Куликовских, И.М.
Ключевые слова : неявная регуляризация
градиентный метод
скорость сходимости
линейная разделимость
классификация изображений
Дата публикации : Апр-2020
Издательство : Самарский национальный исследовательский университет
Библиографическое описание : Куликовских, И.М. Снижение вычислительных затрат в глубоком обучении при почти идеальной линейной разделимости обучающей выборки / И.М. Куликовских // Компьютерная оптика. – 2020. – Т. 44, № 2. – С. 282-289. – DOI: 10.18287/2412-6179-CO-645.
Серия/номер : 44;2
Аннотация : Последние исследования в области глубокого обучения показали, что метод градиентного спуска при условии почти идеальной разделимости обучающей выборки сходится к оптимальному решению, обеспечивающему максимальный зазор между классами. Даже без введения явной регуляризации положение разделяющей гиперплоскости продолжает изменяться, несмотря на то, что ошибка классификации на обучении стремится к нулю. Данное свойство так называемой «неявной» регуляризации позволяет использовать градиентный метод с более агрессивным шагом обучения, что гарантирует более низкие вычислительные затраты. Однако, хотя метод градиентного спуска обеспечивает хорошую обобщающую способность при стремлении к оптимальному решению, скорость сходимости к данному решению в условиях почти идеальной линейной разделимости значительно ниже, чем скорость сходимости, определяемая самой функцей потерь с заданным шагом обучения. В данной работе предлагается расширенная логарифмическая функция потерь, оптимизация параметров которой повышает скорость сходимости, обеспечивая границу погрешности, эквивалентную границе метода градиентного спуска. Результаты вычислительных экспериментов при классификации изображений на эталонных наборах MNIST и Fashion MNIST подтвердили эффективность предложенного подхода к снижению вычислительных затрат в условиях почти идеальной линейной разделимости обучающей выборки и обозначили направления дальнейших исследований.
URI (Унифицированный идентификатор ресурса) : https://dx.doi.org/10.18287/2412-6179-CO-645
http://repo.ssau.ru/handle/Zhurnal-Komputernaya-optika/Snizhenie-vychislitelnyh-zatrat-v-glubokom-obuchenii-pri-pochti-idealnoi-lineinoi-razdelimosti-obuchaushei-vyborki-83073
Другие идентификаторы : Dspace\SGAU\20200429\83073
ГРНТИ: 28.23.25
Располагается в коллекциях: Журнал "Компьютерная оптика"

Файлы этого ресурса:
Файл Описание Размер Формат  
440219.pdfОсновная статья1.29 MBAdobe PDFПросмотреть/Открыть



Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.