Отрывок: 49212 0.7075 0.33928 0.73672 0.89876 0.57624 6bit 0.70674 0.72922 0.53656 0.89644 0.90994 0.78336 7bit 0.74006 0.74578 0.55042 0.91578 0.91904 0.79208 8bit 0.74622 0.7472 0.55382 0.91932 0.91964 0.79528 Таблица 2. Accuracy Top-1 и Top-5 для различного числа градаций для сети MobileNet-v2. Top-1 Top-5 Linear Exponential Gauss Linear Exponential Gauss 2bit 0.00112 0.00112 0.00136 0.00492 0.00492 0.00546 3bit 0.00116 0.00244 0.00134 0.00528 0.00818 0.00504 4bit 0.0021 0.06408 0.04086 0.007...
Полная запись метаданных
Поле DC Значение Язык
dc.contributor.authorПушкарева, М.М.-
dc.contributor.authorХайров, Э.М.-
dc.contributor.authorКарандашев, Я.М.-
dc.date.accessioned2020-08-06 14:21:43-
dc.date.available2020-08-06 14:21:43-
dc.date.issued2020-
dc.identifierDspace\SGAU\20200806\85110ru
dc.identifier.citationПушкарева М.М. Квантизация весов обученной нейронной сети методом максимизации корреляции / М.М. Пушкарева, Э.М. Хайров, Я.М. Карандашев // Информационные технологии и нанотехнологии (ИТНТ-2020). Сборник трудов по материалам VI Международной конференции и молодежной школы (г. Самара, 26-29 мая): в 4 т. / Самар. нац.-исслед. ун-т им. С. П. Королева (Самар. ун-т), Ин-т систем. обраб. изобр. РАН-фил. ФНИЦ "Кристаллография и фотоника" РАН; [под ред. В. А. Фурсова]. – Самара: Изд-во Самар. ун-та, 2020. – Том 4. Науки о данных. – 2020. – С. 1077-1080.ru
dc.identifier.urihttp://repo.ssau.ru/handle/Informacionnye-tehnologii-i-nanotehnologii/Kvantizaciya-vesov-obuchennoi-neironnoi-seti-metodom-maksimizacii-korrelyacii-85110-
dc.description.abstractДля уменьшения требуемой памяти для хранения весов нейронной сети были применены различные методы квантизации, основанные на максимизации корреляции между исходными и дискретизованными значениями весов. Квантизация проводилась на предварительно обученных сетях (post learning). Первый метод предполагает разбиение распределений весов на линейные и экспоненциальные (экспоненциально- возрастающие) отрезки, второй — определение отрезков разбиений с помощью аппроксимации нормальным и лапласовым распределением и градиентного спуска. Было проведено сравнение двух предлагаемых методов на предварительно обученных сетях, таких как VGG-16, MobileNet-v2, ResNet50 и Inception-v3. To reduce random access memory (RAM) requirements we apply different quantization methods for post-learning networks based on correlation maximization between initial and discrete weight values. First method assumes division of the weight distribution interval into linear and exponential segments. Second technique determines this segments using approximations by the normal and Laplace distributions and gradient descent. We provide the comparison of our implementations on different post-training networks: VGG-16, ResNet50, MobileNet-v2, Inception-v3, etc.ru
dc.language.isorusru
dc.titleКвантизация весов обученной нейронной сети методом максимизации корреляцииru
dc.title.alternativePost-training quantization of neural network through correlation maximizationru
dc.typeArticleru
dc.textpart49212 0.7075 0.33928 0.73672 0.89876 0.57624 6bit 0.70674 0.72922 0.53656 0.89644 0.90994 0.78336 7bit 0.74006 0.74578 0.55042 0.91578 0.91904 0.79208 8bit 0.74622 0.7472 0.55382 0.91932 0.91964 0.79528 Таблица 2. Accuracy Top-1 и Top-5 для различного числа градаций для сети MobileNet-v2. Top-1 Top-5 Linear Exponential Gauss Linear Exponential Gauss 2bit 0.00112 0.00112 0.00136 0.00492 0.00492 0.00546 3bit 0.00116 0.00244 0.00134 0.00528 0.00818 0.00504 4bit 0.0021 0.06408 0.04086 0.007...-
Располагается в коллекциях: Информационные технологии и нанотехнологии

Файлы этого ресурса:
Файл Описание Размер Формат  
ИТНТ-2020_том 4-1077-1080.pdf856.46 kBAdobe PDFПросмотреть/Открыть



Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.