Please use this identifier to cite or link to this item: http://earchive.tpu.ru/handle/11683/41028
Title: Сравнение эффективности архитектур нейронных сетей для решения задачи распознавания изображений
Authors: Раднаев, Чингис Батоцыренович
metadata.dc.contributor.advisor: Гергет, Ольга Михайловна
Keywords: нейронные сети; сверточные сети; гиперпараметры; машинное обучение; многослойный перспетрон; neural networks; hyperparameters; convolutional networks; machine learning; multilayered perceptron
Issue Date: 2017
Citation: Раднаев Ч. Б. Сравнение эффективности архитектур нейронных сетей для решения задачи распознавания изображений : бакалаврская работа / Ч. Б. Раднаев ; Национальный исследовательский Томский политехнический университет (ТПУ), Институт кибернетики (ИК), Кафедра программной инженерии (ПИ) ; науч. рук. О. М. Гергет. — Томск, 2017.
Abstract: Задача оптимизации гиперпараметров является актуальной в области машинного обучения. Для проведения вычислительных экспериментов рассматривались такие архитектуры нейронных сетей, как многослойный персептрон и сверточная нейронная сеть. Объектом исследования является архитектуры нейронных сетей для распознавания изображений. Целью данной работы является исследование эффективности нейросетевых архитектур для распознавания рукописных символов. В ходе выполнения работы вычислительный эксперимент по нахождению гиперпараметров с применением языка Python и библиотек Keras и Theano.
The problem of hyperparameter optymization is actual in machine learning. Providing computer experiment, considered following neural network architectures: multilayered perceptron and convolutional neural network. Software implementation of calculatings is written on Python language using Keras and Theano libraries.
URI: http://earchive.tpu.ru/handle/11683/41028
Appears in Collections:Выпускные квалификационные работы (ВКР)

Files in This Item:
File Description SizeFormat 
TPU414783.pdf2,77 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.