ПРИМЕНЕНИЕ АНСАМБЛЯ РЕШАЮЩИХ ДЕРЕВЬЕВ ДЛЯ ИССЛЕДОВАНИЯ ИННОВАЦИОННОГО РАЗВИТИЯ РАДИОЭЛЕКТРОННОЙ ПРОМЫШЛЕННОСТИ В РЕГИОНАХ |
| научная статья | 332.142.2 | ||
| 90-100 |
| Целью исследования является оценка перспектив инновационного развития радиоэлектронной промышленности (РЭП) в регионах страны. Для этого применяется алгоритм ансамбля решающих деревьев, который включает в себя несколько этапов: 1) предварительная разведка данных, 2) машинное обучение модели различными методами, 3) применение ансамбля решающих деревьев, 4) верификация ансамбля решающих деревьев, 5) выбор регионов-лидеров и оценка перспектив регионов, претендующих на лидерство. Получено, что регионы, лидирующие в отрасли РЭП в России в 2023 г., - это г. Москва, г. Санкт-Петербург и Республика Татарстан. Но наиболее важные выводы получаются по обученной модели по данным прогнозов в 2023 г. для целей 1-3. При этом учитывается, что ошибка MAPE для исследуемых регионов должна быть меньше 0.5 для того, чтобы делать адекватные выводы. Так, в планируемые сегменты регионов-лидеров по прогнозу для цели 3 «Сальдированный финансовый результат (информатизация и связь)» попадают Нижегородская, Свердловская и Новосибирская области. Следовательно, эти регионы имеют перспективы инновационного развития отрасли РЭП настолько, что они, действительно, могут претендовать на лидерство в данной отрасли в ближайшем будущем. Полученные результаты могут быть полезны государственным структурам и производственным компаниям для планирования инновационного развития отрасли радиоэлектронной промышленности. |
| |
| 1 . Kecun B., Yaqi C., Xieguo X., Yongzhi W. Research on the General Architecture of Intelligent Manufacturing in the Military Electronic Industry // 2020 International Conference on Artificial Intelligence and Electromechanical Automation (AIEA). Tianjin, China, 2020. — P.?206–210. URL: https://doi.org/10.1109/AIEA51086.2020.00051 2 . Thao T.V., Huyen V., Nguyen M., Ly P. Factors Affecting The Development Of The Supporting Industry For The Electronics Industry In Vietnam // Journal of Positive School Psychology. — 2022. — Vol.?6(11). — P.?2394–2408. 3 . Ranjan M., Singh S.K. What is Future Scope of PCB Fabrication & Manufacturing in Industries // IJEDR — International Journal of Engineering Development and Research. — 2020. — Vol.?8(2). — P.?499–505. 4 . Alnuaimi A., Albaldawi T. An Overview of Machine Learning Classification Techniques // BIO Web of Conferences. — 2024. — Vol.?97(4). URL: https://doi.org/10.1051/bioconf/20249700133 5 . Sarker I.H. Machine Learning: Algorithms, Real-World Applications and Research Directions // SN COMPUT. SCI. — 2021. — Vol.?2. — P.?160. URL: https://doi.org/10.1007/s42979-021-00592-x 6 . Yoosefzadeh-Najafabadi M., Earl Hugh J., Tulpan D., Sulik J., Eskandari M. Application of Machine Learning Algorithms in Plant Breeding: Predicting Yield from Hyperspectral Reflectance in Soybean // Frontiers in Plant Science. — 2021. — Vol.?11. URL: https://doi.org/10.3389/fpls.2020.624273 7 . Ramezanpour A., Beam A.L., Chen J.H., Mashaghi A. Statistical Physics for Medical Diagnostics: Learning, Inference, and Optimization Algorithms // Diagnostics. — 2020. — Vol.?10(11). — P.?972. URL: https://doi.org/10.3390/diagnostics10110972 8 . Okolie J.A., Savage Sh., Ogbaga C.C., Gunes B. Assessing the Potential of Machine Learning Methods to Study the Removal of Pharmaceuticals from Wastewater using Biochar or Activated Carbon // Total Environment Research Themes. — 2022. — Vol.?1–2. URL: https://doi.org/10.1016/j.totert.2022.100001 9 . Jaiswal A., Babu A.R., Zadeh M.Z., Banerjee D., Makedon F. A Survey on Contrastive Self-supervised Learning // Technologies. — 2021. — Vol.?9(1). — P.?2. URL: https://doi.org/10.3390/technologies9010002 10 . Fleer S., Moringen A., Klatzky R.L., Ritter H. Correction: Learning Efficient Haptic Shape Exploration with a Rigid Tactile Sensor Array // PLoS ONE. — 2020. — Vol.?15(2). URL: https://doi.org/10.1371/journal.pone.0230054 11 . Piryonesi S.M., El-Diraby T.E. Role of Data Analytics in Infrastructure Asset Management: Overcoming Data Size and Quality Problems // Journal of Transportation Engineering, Part B: Pavements. — 2020. — Vol.?146(2). URL: https://doi.org/10.1061/JPEODX.0000175 12 . Uddin S., Haque I., Lu H., Moni M.A., Gide E. Comparative Performance Analysis of K-nearest Neighbour (KNN) Algorithm and its Different Variants for Disease Prediction // Sci Rep. — 2022. — Vol.?12(6256). URL: https://doi.org/10.1038/s41598-022-10358-x 13 . Halder R.K., Uddin M.N., Uddin M.A., Aryal S., Khraisat A. Enhancing K-nearest Neighbor Algorithm: A Comprehensive Review and Performance Analysis of Modifications // J Big Data. — 2024. — Vol.?11(113). URL: https://doi.org/10.1186/s40537-024-00973-y 14 . Xiong L., Yao Y. Study on an Adaptive Thermal Comfort Model with K-nearest-neighbors (KNN) Algorithm // Building and Environment. — 2021. — Vol.?202. URL: https://doi.org/10.1016/j.buildenv.2021.108026 15 . Patchanok S., Korn S. Random Kernel k-nearest Neighbors Regression // Frontiers in Big Data. — 2024. — Vol.?7. URL: https://doi.org/10.3389/fdata.2024.1402384 16 . Zardini E., Blanzieri E., Pastorello D. A Quantum k-nearest Neighbors Algorithm Based on the Euclidean Distance Estimation // Quantum Mach. Intell. — 2024. — Vol.?6(23). URL: https://doi.org/10.1007/s42484-024-00155-2 17 . Boateng E., Otoo J., Abaye D. Basic Tenets of Classification Algorithms K-nearest-neighbor, Support Vector Machine, Random Forest and Neural Network: A Review // Journal of Data Analysis and Information Processing. — 2020. — Vol.?8. — P.?341–357. URL: https://doi.org/10.4236/jdaip.2020.84020 18 . Genuer R., Poggi J.-M., Tuleau-Malot Ch., Villa-Vialanei N. Random Forests for Big Data // Big Data Research. — 2017. — Vol.?9. — P.?28–46. URL: https://doi.org/10.1016/j.bdr.2017.07.003 19 . Poornachandra S. Ensemble: Bagging and Boosting: Improving Decision Tree Performance by Ensemble Methods // In: Thinking Data Science. — 2023. — P.?97–129. URL: https://doi.org/10.1007/978-3-031-02363-7_5 20 . Plaia A., Buscem S., F?rnkranz J., Menc?a E.L. Comparing Boosting and Bagging for Decision Trees of Rankings // J Classif. — 2022. — Vol.?39. — P.?78–99. URL: https://doi.org/10.1007/s00357-021-09397-2 21 . Carreira-Perpi??n M.?., Zharmagambetov A. Ensembles of Bagged TAO Trees Consistently Improve over Random Forests, AdaBoost and Gradient Boosting // In: Proceedings of the 2020 ACM-IMS on Foundations of Data Science Conference (FODS ‘20). — New York, NY, USA: Association for Computing Machinery, 2020. — P.?35–46. URL: https://doi.org/10.1145/3412815.3416882 22 . Ibarguren I., P?rez J.M., Muguerza J., Arbelaitz O., Yera A. PCTBagging: From Inner Ensembles to Ensembles. A Trade-off Between Discriminating Capacity and Interpretability // Information Sciences. — 2022. — Vol.?583. — P.?219–238. URL: https://doi.org/10.1016/j.ins.2021.11.010 23 . Lee S., Kc B., Choeh J.Y. Comparing Performance of Ensemble Methods in Predicting Movie Box Office Revenue // Heliyon. — 2020. — Vol.?6(6). URL: https://doi.org/10.1016/j.heliyon.2020.e04260 24 . Jafarzadeh H., Mahdianpari M., Gill E., Mohammadimanesh F., Homayouni S. Bagging and Boosting Ensemble Classifiers for Classification of Multispectral, Hyperspectral and PolSAR Data: A Comparative Evaluation // Remote Sensing. — 2021. — Vol.?13(21). URL: https://doi.org/10.3390/rs13214405 25 . Gavrylenko S., Chelak V., Hornostal O. Ensemble Approach Based on Bagging and Boosting for Identification the Computer System State // 2021 XXXI International Scientific Symposium Metrology and Metrology Assurance (MMA), Sozopol, Bulgaria, 2021. — P.?1–7. URL: https://doi.org/10.1109/MMA52675.2021.9610949 26 . Ngo G., Beard R., Chandra R. Evolutionary Bagging for Ensemble Learning // Neurocomputing. — 2022. — Vol.?510. — P.?1–14. URL: https://doi.org/10.1016/j.neucom.2022.08.055 |


