Full metadata record
DC FieldValueLanguage
dc.contributor.authorПушкарева, М.М.
dc.contributor.authorХайров, Э.М.
dc.contributor.authorКарандашев, Я.М.
dc.date2020
dc.date.accessioned2025-08-22T12:18:10Z-
dc.date.available2025-08-22T12:18:10Z-
dc.date.issued2020
dc.identifier.identifierDspace\SGAU\20200806\85110
dc.identifier.citationПушкарева М.М. Квантизация весов обученной нейронной сети методом максимизации корреляции / М.М. Пушкарева, Э.М. Хайров, Я.М. Карандашев // Информационные технологии и нанотехнологии (ИТНТ-2020). Сборник трудов по материалам VI Международной конференции и молодежной школы (г. Самара, 26-29 мая): в 4 т. / Самар. нац.-исслед. ун-т им. С. П. Королева (Самар. ун-т), Ин-т систем. обраб. изобр. РАН-фил. ФНИЦ "Кристаллография и фотоника" РАН; [под ред. В. А. Фурсова]. – Самара: Изд-во Самар. ун-та, 2020. – Том 4. Науки о данных. – 2020. – С. 1077-1080.
dc.identifier.urihttp://repo.ssau.ru/jspui/handle/123456789/12998-
dc.description.abstractДля уменьшения требуемой памяти для хранения весов нейронной сети были применены различные методы квантизации, основанные на максимизации корреляции между исходными и дискретизованными значениями весов. Квантизация проводилась на предварительно обученных сетях (post learning). Первый метод предполагает разбиение распределений весов на линейные и экспоненциальные (экспоненциально- возрастающие) отрезки, второй — определение отрезков разбиений с помощью аппроксимации нормальным и лапласовым распределением и градиентного спуска. Было проведено сравнение двух предлагаемых методов на предварительно обученных сетях, таких как VGG-16, MobileNet-v2, ResNet50 и Inception-v3. To reduce random access memory (RAM) requirements we apply different quantization methods for post-learning networks based on correlation maximization between initial and discrete weight values. First method assumes division of the weight distribution interval into linear and exponential segments. Second technique determines this segments using approximations by the normal and Laplace distributions and gradient descent. We provide the comparison of our implementations on different post-training networks: VGG-16, ResNet50, MobileNet-v2, Inception-v3, etc.
dc.languagerus
dc.titleКвантизация весов обученной нейронной сети методом максимизации корреляции
dc.title.alternativePost-training quantization of neural network through correlation maximization
dc.typeArticle
local.identifier.oldurihttp://repo.ssau.ru/handle/Informacionnye-tehnologii-i-nanotehnologii/Kvantizaciya-vesov-obuchennoi-neironnoi-seti-metodom-maksimizacii-korrelyacii-85110
local.identifier.oldurihttp://repo.ssau.ru/handle/Informacionnye-tehnologii-i-nanotehnologii/Kvantizaciya-vesov-obuchennoi-neironnoi-seti-metodom-maksimizacii-korrelyacii-85110
Appears in Collections:Информационные технологии и нанотехнологии

Files in This Item:
File Description SizeFormat 
ИТНТ-2020_том 4-1077-1080.pdf856.46 kBAdobe PDFView/Open


Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.