Full metadata record
| DC Field | Value | Language |
|---|---|---|
| dc.contributor.author | Ильясова, Н.Ю. | |
| dc.contributor.author | Широканёв, А.С. | |
| dc.contributor.author | Климов, И.А. | |
| dc.date | 2019-05 | |
| dc.date.accessioned | 2025-08-22T12:18:17Z | - |
| dc.date.available | 2025-08-22T12:18:17Z | - |
| dc.date.issued | 2019-05 | |
| dc.identifier.identifier | Dspace\SGAU\20190417\75229 | |
| dc.identifier.citation | Ильясова Н.Ю. Применение свёрточных нейронных сетей для анализа изображений глазного дна / Ильясова Н.Ю., Широканёв А.С., Климов И.А. // Сборник трудов ИТНТ-2019 [Текст]: V междунар. конф. и молодеж. шк. "Информ. технологии и нанотехнологии": 21-24 мая: в 4 т. / Самар. нац.-исслед. ун-т им. С. П. Королева (Самар. ун-т), Ин-т систем. обраб. изобр. РАН-фил. ФНИЦ "Кристаллография и фотоника" РАН; [под ред. В.А. Фурсова]. - Самара: Новая техника, 2019. – Т. 4: Науки о данных. - 2019. - С. 111-118. | |
| dc.identifier.uri | http://repo.ssau.ru/jspui/handle/123456789/11595 | - |
| dc.description.abstract | В настоящей работе предложена технология анализа изображений глазного дна, основанная на применении свёрточной нейронной сети (CNN). Подобрана архитектура CNN, обучение которое производилось на сбалансированной выборке, состоящей из 4 классов изображений: толстые, тонкие сосуды, здоровые участки и область экссудатов. Обучение проводилось на изображениях размерности 12×12, поскольку данная размерность является наиболее оптимальной, как было установлено в ходе экспериментальных исследований. Ошибка тестирования на выборках всех размерностей не превышала 4%. Была проведена сегментация изображения глазного дна с использованием CNN. Ошибка сегментации рассчитана на классе экссудатов, поскольку данный класс является ключевым при проведении операции лазерной коагуляции, и составила 5%. В ходе данной работы был выявлен наиболее информативный канал цветового пространства HSL, с использованием которого удалось уменьшить ошибку сегментации до 3%. The article proposes a technology for analyzing fundus images. The technology is based on the convolutional neural network (CNN). The CNN architecture was selected and trained on a sample consisting of 4 image classes: bold, thin vessels, healthy areas, and exudate area. The training was carried out on images of dimension 12 × 12, on which the best CNN test result was achieved, amounting to no more than 4%. The fundus image was segmented. The segmentation error was calculated on the class of exudates, since this class is the key when conducting laser coagulation and was 5%. In the course of this work, the most informative channel from the HSL color space was identified, using which it was possible to reduce the segmentation estimate to 3%. | |
| dc.description.sponsorship | Работа выполнена при финансовой поддержке Российского фонда фундаментальных исследований (гранты № 16-41-630761, № 17-01-00972, № 18-37-00418), государственного задания 3.3025.2017/4.6 и Министерства науки и высшего образования Российской Федерации, в рамках выполнения работ по государственному заданию ФНИЦ «Кристаллография и фотоника» РАН (соглашение №007-ГЗ/Ч3363/26). | |
| dc.language | rus | |
| dc.publisher | Новая техника | |
| dc.title | Применение свёрточных нейронных сетей для анализа изображений глазного дна | |
| dc.title.alternative | Convolutional neural network application for analysis of fundus images | |
| dc.type | Article | |
| local.identifier.olduri | http://repo.ssau.ru/handle/Informacionnye-tehnologii-i-nanotehnologii/Primenenie-svertochnyh-neironnyh-setei-dlya-analiza-izobrazhenii-glaznogo-dna-75229 | |
| local.identifier.olduri | http://repo.ssau.ru/handle/Informacionnye-tehnologii-i-nanotehnologii/Primenenie-svertochnyh-neironnyh-setei-dlya-analiza-izobrazhenii-glaznogo-dna-75229 | |
| Appears in Collections: | Информационные технологии и нанотехнологии | |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| paper15_new.pdf | 452.86 kB | Adobe PDF | View/Open |
Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.