ORIGINAL PAPER
Research on incremental semi-supervised ore particle size prediction algorithm
More details
Hide details
1
Jiangxi University of Science and Technology
2
Jiangxi Mining and Metallurgy Electromechanical Engineering Technology Research Center
Submission date: 2024-11-24
Final revision date: 2025-01-09
Acceptance date: 2025-09-07
Publication date: 2025-12-16
Corresponding author
Ao Chen
Jiangxi University of Science and Technology
Gospodarka Surowcami Mineralnymi – Mineral Resources Management 2025;41(4):175-192
KEYWORDS
TOPICS
ABSTRACT
Aiming to improve ore particle size prediction accuracy in the beneficiation process, depending on the number of labeled samples and the fact that the traditional prediction model does not have continuous learning ability, the incremental semi-supervised ore size prediction algorithm is proposed. Taking the actual ore particle size data as the research object, we use semi-supervised learning and integrated learning to obtain high-quality pseudo-labeled samples, expand the limited number of labeled samples as incremental data for incremental training, and dynamically update the parameters of the prediction model to maintain good prediction ability. The incremental semi-supervised ore particle size prediction algorithm is validated using the ore particle size dataset obtained by the sieving method. The results show that the model coefficient of determination of the incremental semi-supervised ore particle size prediction algorithm reaches 0.9934. The root mean square error and the average absolute error are 0.00354 and 0.00086, the evaluation indexes after training on five different numbers of data sets are higher than the traditional prediction model, compared with the traditional prediction model prediction accuracy and generalization ability is significantly improved, in the face of the sample distribution changes in the face of the problem with the ability to dynamically learn new knowledge, to the intelligent management of the mining industry production field provides a good solution to improve the accuracy of the detection of the particle size of the ore to provide a strong technical support.
FUNDING
This research was supported by the National Natural Science Foundation of China (52364025) and the National Natural Science Foundation of China (51464017).
CONFLICT OF INTEREST
The Authors have no conflict of interest to declare.
METADATA IN OTHER LANGUAGES:
Polish
Badania nad algorytmem stopniowego, częściowo nadzorowanego przewidywania wielkości cząstek rudy
rudy, uczenie przyrostowe, półnadzorowane, badanie wielkości cząstek, uczenie maszynowe
W celu poprawy dokładności przewidywania wielkości cząstek rudy w procesie wzbogacania, w zależności od liczby oznaczonych próbek i faktu, że tradycyjny model przewidywania nie ma zdolności ciągłego uczenia się, proponuje się algorytm przyrostowego półnadzorowanego przewi- dywania wielkości rudy. Biorąc za przedmiot badań rzeczywiste dane dotyczące wielkości cząstek rudy, wykorzystujemy uczenie półnadzorowane i uczenie zintegrowane w celu uzyskania wysokiej jakości próbek z etykietami pseudonimowymi, rozszerzamy ograniczoną liczbę próbek oznaczonych etykietami jako dane przyrostowe do szkolenia przyrostowego oraz dynamicznie aktualizujemy parametry modelu prognozowania, aby utrzymać dobrą zdolność prognozowania. Algorytm przyrostowego półnadzorowanego przewidywania wielkości cząstek rudy jest weryfikowany przy użyciu zbioru danych dotyczących wielkości cząstek rudy uzyskanych metodą przesiewania. Wyniki pokazują, że współczynnik determinacji modelu algorytmu przyrostowego półnadzorowanego przewidywania wielkości cząstek rudy osiąga 0,9934. Średni błąd kwadratowy i średni błąd bez- względny wynoszą odpowiednio 0,00354 i 0,00086. Wskaźniki oceny po szkoleniu na pięciu różnych zestawach danych są wyższe niż w przypadku tradycyjnego modelu prognozowania, a w porównaniu z tradycyjnym modelem prognozowania znacznie poprawiono dokładność prognozowania i zdolność uogólniania. W obliczu zmian w rozkładzie próbek model ten wykazuje zdolność do dynamicznego uczenia się nowej wiedzy, co stanowi dobre rozwiązanie dla inteligentnego zarządzania w dziedzinie produkcji przemysłu wydobywczego, poprawiając dokładność wykrywania wielkości cząstek rudy i zapewniając silne wsparcie techniczne.
REFERENCES (24)
1.
Aamir et al. 2024 – Aamir, S., Muhammad, A.,Walid, E. and Muhammad, F. 2024. New ridge parameter estimators for the quasi-Poisson ridge regression model. Scientific Reports 14(1), pp. 8489–8489, DOI: 10.1038/s41598-023-50085-5.
2.
Bhadely, A.F. and İnan, A. 2024. An Innovative Approach for Enhancing Relay Coordination in Distribution Systems Through Online Adaptive Strategies Utilizing DNN Machine Learning and a Hybrid GA-SQP Framework.Arabian Journal for Science and Engineering 49(12), DOI: 10.1007/s13369-024-09291-0.
3.
Chen et al. 2024 – Chen, L., Xiong, M., Ming, J. and He, X. 2024. Efficient mini-batch stochastic gradient descent with Centroidal Voronoi Tessellation for PDE-constrained optimization under uncertainty. Physica D: Nonlinear Phenomena 467, DOI: 10.1016/j.physd.2024.134216.
4.
Deng, Y. and Lumley, T. 2024. Multiple Imputation Through XGBoost. Journal of Computational and Graphical Statistics 33(2), DOI: 10.1080/10618600.2023.2252501.
5.
El Bilaliet al. 2023 – El Bilali, A., Abdeslam, T., Ayoub, N., Lamane, H., Ezzaouini, M.A. and Elbeltagi, A. 2023. An interpretable machine learning approach based on DNN, SVR, Extra Tree, and XGBoost models for predicting daily pan evaporation. Journal of Environmental Management 327, DOI: 10.1016/j.jenvman.2022.116890.
6.
Fu et al. 2024 – Fu, R., Cheng, C., Yan, S., Wang, X. and Chen, H. 2024. Consistency-based semi-supervised learning for oriented object detection. Knowledge-Based Systems 304(9), DOI: 10.1016/j.knosys.2024.112534.
7.
Gama et al. 2014 – Gama, J., Žliobaitė, I., Bifet, A., Pechenizkiy, M. and Bouchachia, H. 2014. A survey on concept drift adaptation. ACM Computing Surveys (CSUR) 46(4), DOI: 10.1145/2523813.
8.
Gavin et al. 2022 – Gavin, C., Devin, F. and Kellin, R. 2022. Bayesian projection pursuit regression. Statistics and Computing 34(1), DOI: 10.48550/arXiv.2210.09181.
9.
Hu et al. 2022 – Hu, S., Miao, D. and Pedrycz, W. 2022. Multi granularity based label propagation with active learning for semi-supervised classification. Expert Systems With Applications 192, DOI: 10.1016/j.eswa.2021.116276.
10.
Jiang, Z. and Chen, A. 2024. Semi-supervised Ore Granularity Prediction Algorithm Incorporating Fully Supervised Learning. Gold Science and Technology 32(3), DOI: 10.11872/j.issn.1005-2518.2024.03.040.
11.
Jiang et al. 2022 – Jiang, W., Zhang, T., Qiu, H., Li, H. and Xu, G. 2022. Incremental Learning, Incremental Backdoor Threats. IEEE Transactions on Dependable and Secure Computing 99, DOI: 10.1109/TDSC.2022.3201234.
12.
Kang et al. 2016 – Kang, P., Kim, D. and Cho, S. 2016. Semi-supervised support vector regression based on self-training with label uncertainty: An application to virtual metrology in semiconductor manufacturing. Expert Systems with Applications 51, DOI: 10.1016/j.eswa.2015.12.027.
13.
Liao et al. 2024 – Liao, Z., Dai, S. and Kuosmanen, T. 2024. Convex support vector regression. European Journal of Operational Research 313(3), DOI: 10.48550/arXiv.2209.12538.
14.
Mao et al. 2022 – Mao, G., Tu, Y., Cui, W, et al. 2022. Hyperspectral inversion of soil heavy metal mass concentration based on semi-supervised regression. Journal of Applied Sciences – Electronics and Information Engineering 40(6).
15.
Schenk et al. 2024 – Schenk, A., Berger, M. and Schmid, M. 2024. Pseudo-value regression trees. Lifetime data analysis 30(2), DOI: 10.1007/s10985-024-09618-x.
16.
Sclocchi, A. and Wyart, M. 2024. On the different regimes of stochastic gradient descent. Proceedings of the National Academy of Sciences of the United States of America 121(9), DOI: 10.1073/pnas.2316301121.
17.
Si-si et al. 2021 – Si-si, Z., Jian-wei, L. and Xin, Z. 2021. Adaptive online incremental learning for evolving data streams. Applied Soft Computing Journal 105(10), DOI: 10.1016/j.asoc.2021.107255.
18.
Venkatesh et al. 2024 – Venkatesh, N.S., Sripada, D., Sugumaran, V. and Aghaei, M. 2024. Detection of visual faults in photovoltaic modules using a stacking ensemble approach. Heliyon 10(6), DOI: 10.1016/j.heliyon.2024.e27894.
19.
Wang et al. 2024 – Wang, H., Li, Y., Li, S., Li, G., Sun, S., Sun, B., Cao, Y. and Shi, J. 2024. Tri-training algorithm based nuclear power systems semi-supervised fault diagnosis under multiple restricted data conditions. Applied Soft Computing 167(1), DOI: 10.1016/j.asoc.2024.112345.
20.
Xu et al. 2024 – Xu, M.C., Zhou, Y., Jin, C., de Groot, M., Alexander, D.C., Oxtoby, N.P., Hu, Y. and Jacob, J. 2024. Expectation maximisation pseudo labels. Medical image analysis 94(3), DOI: 10.1016/j.media.2024.103125.
21.
Yang et al. 2024 – Yang, D., Liu, H., Xu, B., Tang, C. and Cheng, T. 2024. A hybrid network with DNN and WGAN for supercontinum prediction. Optical Fiber Technology, DOI: 10.1016/j.yofte.2024.103816.
22.
Zeng et al. 2020 – Zeng, L.,Wenchao, H., Yan, X., et al. 2020. Incremental learning imbalanced data streams with concept drift: The dynamic updated ensemble algorithm. Knowledge-Based Systems 195 (prepublish).
23.
Zhu et al. 2018 – Zhu, L., Ikeda, K., Pang, S., Ban, T. and Sarrafzadeh, A. 2028. Merging weighted SVMs for parallel incremental learning. Neural Networks 100, DOI: 10.1016/j.neunet.2018.01.001.
24.
Zhu et al. 2024 – Zhu, L., Lu, W., Luo, C., Xu, Y. and Wang, Z. 2024. An ensemble optimizer with a stacking ensemble surrogate model for identification of groundwater contamination source. Journal of contaminant hydrology 267(9), DOI: 10.1016/j.jconhyd.2024.104437.