Текущий выпуск Выпуск 1, 2026 Том 36
Результыты поиска по 'multilayer perceptron':
Найдено статей: 2
  1. В настоящей работе рассматривается обратная задача механики деформируемого твердого тела, связанная с поиском граничных условий при известной информации о напряженно-деформируемом состоянии. Конкретный вариант обратной задачи заключается в поиске на поверхности тела точки приложения сосредоточенной нагрузки при известных в конечном числе точек значениях деформаций. В качестве примера рассматривается тонкая прямоугольная пластина, жестко закрепленная по двум противоположным сторонам. Для построения алгоритма решения рассматриваемой задачи используется сеть прямого распространения. Необходимая информация о деформациях находится на основе метода конечных элементов. Результатом выполненного исследования является комплексный анализ факторов, определяющих точность решения рассматриваемой задачи: конфигурации системы мониторинга, объема обучающих данных и фазы инициализации.

    In this paper, we consider an inverse problem of deformable solid mechanics related to the search for boundary conditions with known information about the stress-strain state. A specific version of the inverse problem consists in finding the point of application of a concentrated load on the surface of the body with deformation values known at a finite number of points. As an example, we consider a thin rectangular plate rigidly fixed on two opposite sides. A feedforward neural network is used to build an algorithm for solving the problem under consideration. The necessary information about deformations is based on the finite element method. The result of the performed research is a comprehensive analysis of the factors determining the accuracy of solving the problem under consideration: the configurations of the monitoring system, the amount of training data and the initialization phase.

  2. Рассматриваются искусственные нейроны, чьи весовые коэффициенты будут изменяться по специальному закону, основанному на интегрированном в их модели обратном распространении. Для этого коэффициенты погрешности обратного распространения вводятся в явном виде во все модели нейронов и осуществляется передача их значений вдоль межнейронных связей. В дополнение к этому вводится специальный тип нейронов с эталонными входами, которые будут выступать в качестве основного источника первичной оценки погрешности для всей нейронной сети. В последнюю очередь вводится контрольный сигнал для запуска обучения, который будет управлять процессом передачи коэффициентов погрешности и корректировкой весов нейронов. Для рекуррентных нейронных сетей демонстрируется как провести интеграцию обратного распространения во времени в их формализм с помощью стековой памяти для внешних входов нейронов. Дополнительно к этому рассматриваются примеры как формализовать в рамках данного подхода такие популярные нейронные сети, как сети долгой кратковременной памяти, сети радиально-базисных функций, многослойные перцептроны и сверточные нейронные сети. Основным практическим следствием данного подхода является возможность описания нейронных сетей с перестраиваемыми связями на основе интегрированного алгоритма обратного распространения.

    We consider artificial neurons which will update their weight coefficients with an internal rule based on backpropagation, rather than using it as an external training procedure. To achieve this we include the backpropagation error estimate as a separate entity in all the neuron models and perform its exchange along the synaptic connections. In addition to this we add some special type of neurons with reference inputs, which will serve as a base source of error estimates for the whole network. Finally, we introduce a training control signal for all the neurons, which can enable the correction of weights and the exchange of error estimates. For recurrent neural networks we also demonstrate how to integrate backpropagation through time into their formalism with the help of some stack memory for reference inputs and external data inputs of neurons. Also, for widely used neural networks, such as long short-term memory, radial basis function networks, multilayer perceptrons and convolutional neural networks, we demonstrate their alternative description within the framework of our new formalism. As a useful consequence, our approach enables us to introduce neural networks with the adjustment of synaptic connections, tied to the integrated backpropagation.

Журнал индексируется в Web of Science (Emerging Sources Citation Index)

Журнал индексируется в Scopus

Журнал входит в базы данных zbMATH, MathSciNet

Журнал включен в базу данных Russian Science Citation Index (RSCI) на платформе Web of Science

Журнал включен в перечень ВАК.

Электронная версия журнала на Общероссийском математическом портале Math-Net.Ru.

Журнал включен в Crossref