Тип публикации: статья из журнала
Год издания: 2021
Идентификатор DOI: 10.24411/2413-046X-2021-10082
Ключевые слова: neural network, network, neurons, structure, process, нейросеть, модифицировать, нейроны, структура, процесс
Аннотация: Искусственные нейронные сети (ИНС), навеянные вычислительными и коммуникативными способностями мозга человека, являются значительной парадигмой в машинном обучении. Как таковые они послужили основой для множества мощных алгоритмов с применением в распознавании образов, запоминании, отображении и др. С точки зрения структуры, ИНС моПоказать полностьюгут быть разделены на две основные категории: сети прямой передачи, в которых вычисления выполняются послойно, уровень за уровнем от входных параметров сети к выходным; и рекуррентные сети, в которых имеется обратная связь- от логически более удалённого элемента, к менее удалённому. Основные операции большинства ИНС затрагивают стадию обучения и стадию отзыва (воспоминания). На этапе обучения весов, сети корректируются так, чтобы соответствовать так называемому подручному применению. В случае с перцептроном, это связано с использованием обратного распространения алгоритма на классифицированной обучающей выборке; в случае ассоциативной памяти, это включает в себя настройку весов для обеспечения действий желаемых отзывов в качестве местных аттракторов (возбудителей). На стадии отзыва, вводятся новые входные данные и сеть остается уравновешиваться (однопроходная прямая подача персептрона и эволюция к равновесию ассоциативной памяти, например). Artificial neural networks (INS), inspired by the computational and communication abilities of the human brain, are a significant paradigm in machine learning. As such, they have served as the basis for many powerful algorithms with applications in pattern recognition, memory, display, etc. In terms of structure, INS can be divided into two main categories: direct transmission networks, in which calculations are performed in layers, level by level from the input parameters of the network to the output parameters; and recurrent networks in which there is feedback-from a logically more remote element to a less remote one. The main operations of most INS involve the learning stage and the recall stage (memories). During the training phase of the scales, the networks are adjusted to fit the so-called improvised application. In the case of the perceptron, this is due to the use of a back propagation algorithm on a classified training sample; in the case of associative memory, this involves setting up weights to ensure that the desired feedback acts as local attractors (exciters). At the recall stage, new input data is introduced and the network remains balanced (single-pass direct perceptron feed and evolution to associative memory equilibrium, for example).
Журнал: Московский экономический журнал
Выпуск журнала: № 2
ISSN журнала: 2413046X
Место издания: Москва
Издатель: Фомин Александр Анатольевич