Отрывок: А., Абрамова Е.С. Компьютерная оптика, 2023, том 47, №3 DOI: 10.18287/2412-6179-CO-1203 495 V*, W*: = Backpropagation [V*, W*]. (5) Шаг 2.5. Переход во вторую фазу состояния сна. Полученные значения весовых коэффициентов W являются малыми. Однако данная нейронная сеть, обученная методом обратного распространения ошибки, не допускает инкрементного обучения. Шаг 3. Обучение нейронной с...
Полная запись метаданных
Поле DC Значение Язык
dc.contributor.authorОрлов, А.А.-
dc.contributor.authorАбрамова, Е.С.-
dc.date.accessioned2023-04-26 14:45:42-
dc.date.available2023-04-26 14:45:42-
dc.date.issued2023-06-
dc.identifierDspace\SGAU\20230424\103223ru
dc.identifier.citationОрлов, А.А. Разработка и исследование алгоритма посменного инкрементного обучения нейронной сети / А.А. Орлов, Е.С. Абрамова // Компьютерная оптика. – 2023. – Т. 47, № 3. – С. 491-498. – DOI: 10.18287/2412-6179-CO-1203.ru
dc.identifier.urihttps://dx.doi.org/10.18287/2412-6179-CO-1203-
dc.identifier.urihttp://repo.ssau.ru/handle/Zhurnal-Komputernaya-optika/Razrabotka-i-issledovanie-algoritma-posmennogo-inkrementnogo-obucheniya-neironnoi-seti-103223-
dc.description.abstractВ работе показывается актуальность разработки инкрементных методов и алгоритмов обучения нейронной сети. Представлены семейства техник инкрементного обучения. Проведена оценка возможности применения машины экстремального обучения как инкрементного обучения. Эксперименты показывают возможность использования машины экстремального обучения как инкрементного обучения, однако при увеличении числа обучающих примеров нейронная сеть становится непригодна для дальнейшего обучения. Для решения данной проблемы предложен алгоритм инкрементного обучения нейронной сети, основанный на поочередном применении машины экстремального обучения для корректировки весов только выходного слоя сети (состояние функционирования) и метода обратного распространения ошибки (глубокого обучения) для корректировки всех весов сети (состояние сна). Полагается, что в ходе состояния функционирования нейронная сеть выдает результаты или учится на новых задачах, а в состоянии сна оптимизирует свои весовые коэффициенты. Особенностью предложенного алгоритма является его возможность адаптироваться в реальном масштабе времени под изменение внешних условий на этапе функционирования. На примере решения задачи аппроксимации показана эффективность предложенного алгоритма. Представлены результаты аппроксимации после выполнения каждого шага алгоритма. Приведено сравнение значений среднеквадратической ошибки при использовании машины экстремального обучения как инкрементного обучения и разработанного алгоритма посменного инкрементного обучения нейронной сети.ru
dc.language.isorusru
dc.publisherСамарский национальный исследовательский университетru
dc.relation.ispartofseries47;3-
dc.subjectметоды инкрементного обученияru
dc.subjectискусственные нейронные сетиru
dc.subjectмашина экстремального обученияru
dc.subjectсостояния функционирования и снаru
dc.titleРазработка и исследование алгоритма посменного инкрементного обучения нейронной сетиru
dc.title.alternativeDevelopment and research of a neural network alternate incremental learning algorithmru
dc.typeArticleru
dc.textpartА., Абрамова Е.С. Компьютерная оптика, 2023, том 47, №3 DOI: 10.18287/2412-6179-CO-1203 495 V*, W*: = Backpropagation [V*, W*]. (5) Шаг 2.5. Переход во вторую фазу состояния сна. Полученные значения весовых коэффициентов W являются малыми. Однако данная нейронная сеть, обученная методом обратного распространения ошибки, не допускает инкрементного обучения. Шаг 3. Обучение нейронной с...-
dc.classindex.scsti28.23.37-
Располагается в коллекциях: Журнал "Компьютерная оптика"

Файлы этого ресурса:
Файл Описание Размер Формат  
2412-6179_2023_47_3_491-498.pdfОсновная статья1.39 MBAdobe PDFПросмотреть/Открыть



Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.