Отрывок: Примером такой функции может выступить натуральный логарифм. Умножив коэффициент масштаба перекрестной энтропии на натуральный логарифм получим: 𝑑𝑄𝐶𝐸 𝑑𝑝 = log(𝑝) 𝑝 Минус в данной формуле отсутствует, поскольку значения логарифма уже являются отрицательными. Проинтегрировав данное выражение получим формулу для новой функции потерь: Секция: Науки о данных Градиент ...
Название : Градиент как основа для построения функции потерь
Другие названия : Gradient as a foundation for building a loss function
Авторы/Редакторы : Килбаc, И.А.
Парингер, Р.А.
Дата публикации : 2020
Библиографическое описание : Килбас И.А. Градиент как основа для построения функции потерь / И.А. Килбас, Р.А. Парингер // Информационные технологии и нанотехнологии (ИТНТ-2020). Сборник трудов по материалам VI Международной конференции и молодежной школы (г. Самара, 26-29 мая): в 4 т. / Самар. нац.-исслед. ун-т им. С. П. Королева (Самар. ун-т), Ин-т систем. обраб. изобр. РАН-фил. ФНИЦ "Кристаллография и фотоника" РАН; [под ред. В. А. Фурсова]. – Самара: Изд-во Самар. ун-та, 2020. – Том 4. Науки о данных. – 2020. – С. 406-413.
Аннотация : Глубокие нейронные сети достигли большого успеха в различных областях, но их обучение всё еще представляет трудность. Точность нейронной сети зависит не только от её архитектуры, но также от выбора функции потерь. Перекрестная энтропия является наиболее частым выбором для решения задач классификации. Данная функция потерь имеет недостаток – она плохо работает с несбалансированными данными. Для того, чтобы решить данную проблему, была предложена функция потерь Focal Loss. В данной работе мы исследуем причины хорошей работы данной функции потерь в условиях несбалансированных данных. Мы находим ряд свойств градиента Focal Loss, которые могут быть использованы для построения новых функций потерь, а также предлагаем некоторые из них. Состоятельность предложенных функций потерь показана экспериментально. Deep neural networks have achieved a tremendous success in a variety of applications across many disciplines. Yet, training a neural network comes with several challenges that have to be solved. The performance of a deep learning models rely not only on the network architecture but also on the choice of a loss function. Cross-entropy loss found to be the most common choice for the classification problem. But its main downside is that it can't handle data with huge class imbalance. In order to tackle this problem, the Focal loss has been proposed. In this paper we investigate the reasons behind its good performance. We find several properties of the Focal loss' gradient that can be applied for building new loss functions and propose a few of them. We also show an experimental evidence of the validity of the proposed functions.
URI (Унифицированный идентификатор ресурса) : http://repo.ssau.ru/handle/Informacionnye-tehnologii-i-nanotehnologii/Gradient-kak-osnova-dlya-postroeniya-funkcii-poter-84908
Другие идентификаторы : Dspace\SGAU\20200731\84908
Располагается в коллекциях: Информационные технологии и нанотехнологии

Файлы этого ресурса:
Файл Описание Размер Формат  
ИТНТ-2020_том 4-406-413.pdf416.48 kBAdobe PDFПросмотреть/Открыть



Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.