Будь ласка, використовуйте цей ідентифікатор, щоб цитувати або посилатися на цей матеріал: https://er.knutd.edu.ua/handle/123456789/33633
Повний запис метаданих
Поле DCЗначенняМова
dc.contributor.authorKyrychek, M.en
dc.date.accessioned2026-04-09T23:26:44Z-
dc.date.available2026-04-09T23:26:44Z-
dc.date.issued2025
dc.identifier.citationKyrychek M. Gradient boosting as a tool for solving classification problems in data-constrained environments = Градієнтний бустінг як інструмент для вирішення задач класифікації в умовах обмежених даних [Текст] / M. Kyrychek // Технології та інжиніринг. - 2025. - № 2 (26). - С. 37-47.uk
dc.identifier.issn2786-538X
dc.identifier.urihttps://er.knutd.edu.ua/handle/123456789/33633-
dc.description.abstractУ сучасному машинному навчанні поставало питання ефективної побудови класифікаційних моделей при недостатньому обсязі навчальної інформації. Мета дослідження – проаналізувати можливості використання градієнтного бустінгу для розв’язання задач класифікації в умовах обмежених даних. Методологія дослідження базувалася на комплексному аналізі провідних реалізацій градієнтного бустінгу: XGBoost, LightGBM та HistGradientBoosting. Основну увагу було зосереджено на вивченні механізмів регуляризації, стратегій оптимізації гіперпараметрів та адаптивних технік навчання в умовах малих вибірок. Дослідження спрямовувалося на виявлення архітектурних особливостей алгоритмів, здатних забезпечити високу точність класифікації при мінімальному обсязі даних. Встановлено, що запропоновані алгоритми продемонстрували значний потенціал для ефективного розв’язання класифікаційних задач. Виявлено, що механізми shrinkage та subsampling дозволили суттєво підвищити узагальнюючу здатність моделей. Результати дослідження розширили теоретичні уявлення про ансамблеві методи машинного навчання та окреслили перспективні напрямки адаптації алгоритмів до специфічних умов обмежених інформаційних ресурсів. Досліджено, що XGBoost, LightGBM та HistGradientBoosting мають унікальні архітектурні особливості, які дозволяють ефективно працювати з різними типами даних. Встановлено, що механізми внутрішньої регуляризації цих алгоритмів забезпечили стійкість до перенавчання та високу точність прогнозування. Показано потенціал градієнтного бустінгу для вирішення складних класифікаційних задач у медицині, фінансах та інших галузях з обмеженими інформаційними ресурсами. Практичне значення роботи полягало в розробці методологічних рекомендацій щодо вибору та налаштування алгоритмів градієнтного бустінгу для різних типів класифікаційних задач. Отримані результати будуть корисні для подальшого розвитку методів машинного навчання.uk
dc.description.abstractIn machine learning, the question of effective construction of classification models with insufficient amount of educational information has arisen. The purpose of the study was to analyse the possibilities of using gradient boosting to solve classification problems in data-constrained environments. The research methodology was based on a comprehensive analysis of the leading gradient boosting implementations: XGBoost, LightGBM, and HistGradientBoosting. The main focus was on investigating regularisation mechanisms, hyperparameter optimisation strategies, and adaptive learning techniques under small sample conditions. The research was aimed at identifying the architectural features of algorithms that can provide high classification accuracy with a minimum amount of data. It was established that the proposed algorithms have demonstrated a significant potential for effectively solving classification problems. It was found that the mechanisms of shrinkage and subsampling significantly increased the generalising ability of models. The results of the study expanded the theoretical understanding of ensemble machine learning methods and outlined promising areas for adapting algorithms to specific conditions of limited information resources. XGBoost, LightGBM, and HistGradientBoosting have been shown to have unique architectural features that allow working efficiently with different types of data. It was found that the internal regularisation mechanisms of these algorithms provided resistance to retraining and high prediction accuracy. The potential of gradient boosting for solving complex classification problems in medicine, finance, and other industries with limited information resources is shown. The practical significance of the study was to develop methodological recommendations for selecting and configuring gradient boosting algorithms for various types of classification problems. The results obtained will be useful for further development of machine learning methods.en
dc.languageen
dc.subjectмашинне навчанняuk
dc.subjectадаптивні алгоритмиuk
dc.subjectоптимізація моделейuk
dc.subjectXGBoostuk
dc.subjectгіперпараметризаціяuk
dc.subjectmachine learningen
dc.subjectadaptive algorithmsen
dc.subjectmodel optimisationen
dc.subjectXGBoosten
dc.subjecthyperparameterisationen
dc.titleGradient boosting as a tool for solving classification problems in data-constrained environmentsen
dc.title.alternativeГрадієнтний бустінг як інструмент для вирішення задач класифікації в умовах обмежених даних
dc.typeArticle
local.contributor.altauthorКиричек, М.uk
local.sourceТехнології та інжинірингuk
local.source.number№ 2 (26)uk
local.identifier.doi10.30857/2786-5371.2025.2.3
local.subject.method0
Розташовується у зібраннях:Наукові публікації (статті)
Технології та інжиніринг

Файли цього матеріалу:
Файл РозмірФормат 
TI_2025_N2(26)_P037-047.pdf1,3 MBAdobe PDFПереглянути/Відкрити


Усі матеріали в архіві електронних ресурсів захищені авторським правом, всі права збережені.