1. Metaheuristic optimization algorithm based on the two-step Adams-Bashforth method in training multi-layer perceptrons
- Author
-
Hisham M. Khudhur and Kais I. Ibraheem
- Subjects
багатошаровий ,Energy Engineering and Power Technology ,metaheuristic ,перцептрон ,Industrial and Manufacturing Engineering ,perceptron ,Management of Technology and Innovation ,апроксимація ,класифікація ,оптимізація ,Electrical and Electronic Engineering ,approximation ,метаевристика ,algorithm ,training ,multilayer ,Applied Mathematics ,Mechanical Engineering ,навчання ,глобальний ,global ,Computer Science Applications ,classification ,Control and Systems Engineering ,алгоритм ,метод Адамса-Башфорта ,Adams-Bashforth method ,optimization - Abstract
The proposed metaheuristic optimization algorithm based on the two-step Adams-Bashforth scheme (MOABT) was first used in this paper for Multilayer Perceptron Training (MLP). In computer science and mathematical examples, metaheuristic is high-level procedures or guidelines designed to find, devise, or select algorithmic research methods to obtain high-quality solutions to an example problem, especially if the information is insufficient or incomplete, or if computational capacity is limited. Many metaheuristic methods include some stochastic example operations, which means that the resulting solution is dependent on the random variables that are generated during the search. The use of higher evidence can frequently find good solutions with less computational effort than iterative methods and algorithms because it searches a broad range of feasible solutions at the same time. Therefore, metaheuristic is a useful approach to solving example problems. There are several characteristics that distinguish metaheuristic strategies for the research process. The goal is to efficiently explore the search perimeter to find the best and closest solution. The techniques that make up metaheuristic algorithms range from simple searches to complex learning processes. Eight model data sets are used to calculate the proposed approach, and there are five classification data sets and three proximate job data sets included in this set. The numerical results were compared with those of the well-known evolutionary trainer Gray Wolf Optimizer (GWO). The statistical study revealed that the MOABT algorithm can outperform other algorithms in terms of avoiding local optimum and speed of convergence to global optimum. The results also show that the proposed problems can be classified and approximated with high accuracy, Метаевристичний алгоритм оптимізації на основі двокрокового методу Адамса-Башфорта при навчанні багатошарових перцептронів (c. 1–2) Hisham M. Khudhur, Kais I. Ibraheem Для навчання багатошарових перцептронів (MLP) у даній роботі було вперше використано запропонований метаевристичний алгоритм оптимізації на основі двокрокового методу Адамса-Башфорта (MOABT). В інформатиці та математиці метаевристика є високорівневими процедурами або рекомендаціями з пошуку, розробки або вибору алгоритмічних методів дослідження для отримання якісних рішень задач, особливо при недостатній або неповній інформації, або обмежених обчислювальних можливостях. Багато метаевристичних методів включають деякі стохастичні операції, що означає залежність отриманого рішення від випадкових величин, що генеруються під час пошуку. Вищевикладене часто дозволяє знаходити хороші рішення з меншими обчислювальними витратами, ніж ітеративні методи та алгоритми, оскільки одночасно виконується пошук широкого спектру можливих рішень. Таким чином, метаевристика є ефективним методом вирішення задач. Існує кілька характеристик, що відрізняють метаевристичні стратегії дослідницького процесу. Мета полягає в тому, щоб ефективно досліджувати периметр пошуку для знаходження найкращого та найближчого рішення. Методи, що складають метаевристичні алгоритми, варіюються від простого пошуку до складних процесів навчання. Для розрахунку запропонованого підходу використовуються вісім наборів даних моделювання, включаючи п’ять наборів даних класифікації і три набори даних апроксимації. Численні результати були зіставлені з результатами відомого еволюційного методу навчання Алгоритм зграї сірих вовків (GWO). Статистичне дослідження показало, що алгоритм MOABT може перевершувати інші алгоритми з точки зору уникнення локального оптимуму та швидкості збіжності до глобального оптимуму. Результати також показують можливість високоточної класифікації та апроксимації запропонованих задач
- Published
- 2022
- Full Text
- View/download PDF