Все выпуски
- 2025 Том 35
- 2024 Том 34
- 2023 Том 33
- 2022 Том 32
- 2021 Том 31
- 2020 Том 30
- 2019 Том 29
- 2018 Том 28
- 2017 Том 27
- 2016 Том 26
- 2015 Том 25
- 2014
- 2013
- 2012
- 2011
- 2010
- 2009
- 2008
-
Рассматриваются искусственные нейроны, чьи весовые коэффициенты будут изменяться по специальному закону, основанному на интегрированном в их модели обратном распространении. Для этого коэффициенты погрешности обратного распространения вводятся в явном виде во все модели нейронов и осуществляется передача их значений вдоль межнейронных связей. В дополнение к этому вводится специальный тип нейронов с эталонными входами, которые будут выступать в качестве основного источника первичной оценки погрешности для всей нейронной сети. В последнюю очередь вводится контрольный сигнал для запуска обучения, который будет управлять процессом передачи коэффициентов погрешности и корректировкой весов нейронов. Для рекуррентных нейронных сетей демонстрируется как провести интеграцию обратного распространения во времени в их формализм с помощью стековой памяти для внешних входов нейронов. Дополнительно к этому рассматриваются примеры как формализовать в рамках данного подхода такие популярные нейронные сети, как сети долгой кратковременной памяти, сети радиально-базисных функций, многослойные перцептроны и сверточные нейронные сети. Основным практическим следствием данного подхода является возможность описания нейронных сетей с перестраиваемыми связями на основе интегрированного алгоритма обратного распространения.
Журнал индексируется в Web of Science (Emerging Sources Citation Index)
Журнал входит в базы данных zbMATH, MathSciNet
Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science
Журнал входит в систему Российского индекса научного цитирования.
Журнал включен в перечень ВАК.
Электронная версия журнала на Общероссийском математическом портале Math-Net.Ru.