Preview

Доклады Национальной академии наук Беларуси

Расширенный поиск

Классификация займа c использованием алгоритма случайного леса и сравнительный анализ с другими классификаторами

https://doi.org/10.29235/1561-8323-2025-69-2-101-108

Аннотация

Целью исследования является анализ использования алгоритма случайного леса для решения задачи классификации займа и проведение сравнительного анализа с результатами, полученными при использовании логистической регрессии, нейронной сети прямого распространения и глубокой нейронной сети прямого распространения. В результате исследований определены лучшее максимальное количество входных показателей и лучшее количество деревьев в ансамбле при использовании алгоритма случайного леса, исследовано воздействие альтернативного разбиения данных на тренировочный и тестовый наборы на точность прогнозирования модели при использовании алгоритма случайного леса. В заключение предложена стратегия решения задачи классификации займа на основе исследованных ранее классификаторов.

Об авторах

В. И. Бегунков
Объединенный институт проблем информатики Национальной академии наук Беларуси
Беларусь

Бегунков Владимир Иванович – магистр технических наук

ул. Сурганова, 6, 220012, Минск



М. Я. Ковалёв
Объединенный институт проблем информатики Национальной академии наук Беларуси
Беларусь

Ковалёв Михаил Яковлевич – член-корреспондент, д-р физ.-мат. наук, профессор

ул. Сурганова, 6, 220012, Минск



Список литературы

1. Бегунков, В. И. Классификация займов c использованием логистической регрессии / В. И. Бегунков, М. Я. Ковалев // Информатика. – 2023. − Т. 20, № 1. – С. 55–74. https://doi.org/10.37661/1816-0301-2023-20-1-55-74

2. Бегунков, В. И. Классификация займа с использованием нейронной сети прямого распространения / В. И. Бегунков // Информатика. – 2024. − Т. 21, № 1. – С. 83–104. https://doi.org/10.37661/1816-0301-2024-21-1-83-104

3. Benchmarking state-of-the-art classification algorithms for credit scoring: an update of research / S. Lessmann, B. Baesens, H.-V. Seow, L. C. Thomas // European Journal of Operational Research. – 2015. – Vol. 247, N 1. – P. 124–136. https://doi.org/10.1016/j.ejor.2015.05.030

4. Quinlan, J. R. Induction of Decision Trees / J. R. Quinlan // Machine Learning. – 1986. – Vol. 1, N 1. – P. 81–106. https://doi.org/10.1007/bf00116251

5. Classification and Regression Trees / L. Breiman, J. H. Friedman, R. A. Olshen, C. J. Stone. – New York, 1984. – 368 p. https://doi.org/10.1201/9781315139470

6. Hastie, T. The elements of statistical learning: Data mining, inference, and prediction / T. Hastie, R. Tibshirani, J. Friedman. – New York, 2009. – 3d ed. – P. 308–310. https://doi.org/10.1007/978-0-387-84858-7

7. Breiman L. Random Forests / L. Breiman // Machine Learning. – 2001. – Vol. 45. – P. 5–32. https://doi.org/10.1023/a:101093340432


Рецензия

Просмотров: 242


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1561-8323 (Print)
ISSN 2524-2431 (Online)