2023, випуск 3, c. 23-43

Одержано 12.09.2023; Виправлено 23.09.2023; Прийнято 26.09.2023

Надруковано 29.09.2023; Вперше Online 19.10.2023

https://doi.org/10.34229/2707-451X.23.3.3

Попередня  |  ПОВНИЙ ТЕКСТ  |  Наступна

 

УДК 519.85, 51–76

Використання методу еліпсоїдів для вивчення зв’язків у медичних даних

П.І. Стецюк * ORCID ID favicon Big,   M.M. Будник ORCID ID favicon Big,   І.О. Сенько ORCID ID favicon Big,   В.О. Стовба ORCID ID favicon Big,   I.A. Чайковський

Інститут кібернетики імені В.М. Глушкова НАН України, Київ

* Листування: Ця електронна адреса захищена від спам-ботів. Вам потрібно увімкнути JavaScript, щоб побачити її.

 

Погіршення морально–психологічного стану на фоні повномасштабної війни спостерігається у багатьох верств населення. Своєчасне виявлення різного роду переддепресійних станів і відповідна терапія є критично важливим завданням у теперішній час. Окрім цього, не менш важливою задачею є виявлення зв’язків між фізичними та психологічними показниками здоров’я. Встановлення таких закономірностей дозволить виявляти тривожні стани, уникаючи безпосереднього профільного тестування пацієнта.

Стаття присвячена побудові математичного апарата для прогнозування психологічних висновків на основі кардіологічних даних. Для цього використовується лінійна регресійна модель та метод еліпсоїдів для визначення її параметрів з критерієм на основі методу найменших модулів (МНМ), процедура відбору ознак та метрика для оцінки узгодженості масиву даних.

Матеріал статті викладено в 5 розділах. У розділі 1 наведено опис методу еліпсоїдів для знаходження параметрів лінійної регресії з критерієм найменших модулів у степені p. Вказано розмірності задач, які можна успішно розв’язувати за допомогою методу еліпсоїдів на сучасних комп’ютерах.

Другий розділ присвячено Octave–програмі emlmp, яка реалізує метод еліпсоїдів, та результатам двох обчислювальних експериментів з її використанням. Отримані результати демонструють робастність отриманих розв’язків при використанні значень параметра p, близьких до одиниці.

У третьому розділі описується механізм відбору змінних для найкращого прогнозування психологічного стану пацієнтів на основі кардіологічних даних. Проведено відбір змінних за допомогою Python–процедури Sequential Feature Selector для прогнозування двох психологічних індикаторів – шкали тривоги Бека та формалізованого висновку психолога.

Четвертий розділ містить результати обчислювального експерименту з використанням програми emlmp з критеріями МНМ та методу найменших квадратів (МНК) для прогнозування формалізованого висновку психолога на основі 84 відібраних пацієнтів та 22-х показників. Наведено отримані розв’язки та прогнози для порівняння критеріїв на основі МНМ та МНК.

У п’ятому розділі запропоновано метрику для оцінки узгодженості масиву даних, яка дозволяє оцінити узгодженість для кожного параметра окремо. Знайдено лінійний зв’язок між 4-ма психологічними параметрами та максимальною точністю регресійних моделей при оптимальній кількості параметрів у зазначених моделях.

 

Ключові слова: лінійна регресія, опукла функція, метод еліпсоїдів, метод найменших модулів, прогнозування даних, GNU Octave.

 

Цитувати так: Стецюк П.І., Будник M.M., Сенько І.О., Стовба В.О., Чайковський I.A. Використання методу еліпсоїдів для вивчення зв’язків у медичних даних. Cybernetics and Computer Technologies. 2023. 3. С. 23–43. https://doi.org/10.34229/2707-451X.23.3.3

 

Список літератури

           1.     Чайковський І., Прімін М., Казмірчук А. Розроблення та впровадження в медичну практику нових інформаційних технологій і метрик для аналізу малих змін в електромагнітному полі серця людини. Вісник НАН України. 2021. Т. 2. С. 33–43.

           2.     Chaikovsky I. Electrocardiogram scoring beyond the routine analysis: subtle changes matters. Expert Review of Medical Devices. 2020. Vol. 17, N 5. P. 379–382.

           3.     Хьюбер Дж.П. Робастность в статистике. М.: Мир, 1984. 304 с.

           4.     Стецюк П.И., Колесник Ю.С., Лейбович М.М. О робастности метода наименьших модулей. Компьютерная математика. 2002. С. 114–123.

           5.     Мудров В.И., Кушко В.Л. Метод наименьших модулей. М.: Издательство «Знание». 1971. 64 с.

           6.     Стецюк П.І., Стецюк М.Г., Брагін Д.О., Молодик М.О. Використання r-алгоритму Шора в лінійних задачах робастної оптимізації. Cybernetics and Computer Technologies. 2021. Т. 1. С. 29–42. https://doi.org/10.34229/2707–451X.21.1.3

           7.     Шор Н.З. Метод отсечения с растяжением пространства для решения задач выпуклого программирования. Кибернетика. 1977. Т. 1. С. 94–95.

           8.     Стовба В.О. Метод еліпсоїдів для знаходження параметрів лінійної регресії. Cybernetics and Computer Technologies. 2020. Т. 3. С. 14–24. https://doi.org/10.34229/2707–451X.20.3.2

           9.     Fischer A., Khomyak O., Stetsyuk P. The ellipsoid method and computational aspects. Commun. Optim. Theory. Vol. 21. 2023. P. 1–14.

       10.     James G., Witten D., Hastie T., Tibshirani R., Taylor J. An Introduction to Statistical Learning with Applications in Python. New York: Springer. 2023. 613 p.

       11.     Жарінова В.Ю., Табакович-Вацеба В.О., Сенько І.О. Діагностичні та прогностичні можливості кардіотропних аутоантитіл у пацієнтів похилого віку з ішемічною хворобою серця з різною скоротливою здатністю міокарда. Український кардіологічний журнал. 2015. Т. 4. С. 8186. https://ucardioj.com.ua/index.php/UJC/issue/view/29

       12.     Kumar V., Minz S. Feature selection: a literature review. SmartCR. 2014. 4 (3). P. 211229. https://faculty.cc.gatech.edu/~hic/CS7616/Papers/Kumar–Minz–2014.pdf

       13.     Ferria F. J., Pudilb P., Hatefc M., Kittlerca J. Comparative Study of Techniques for Large–Scale Feature Selection. Machine Intelligence and Pattern Recognition. 1994. Vol. 16. P. 403413. https://doi.org/10.1016/B978–0–444–81892–8.50040–7

       14.     Rossum G.V., Drake F.L. Python 3 Reference Manual. Scotts Valley, CA: CreateSpace. 2009.

       15.     Harris C.R., Millman K.J., van der Walt S.J. et al. Array programming with NumPy. Nature. 2020. Vol. 585. P. 357–362. https://doi.org/10.1038/s41586–020–2649–2

       16.     McKinney W. Data structures for statistical computing in python. Proceedings of the 9th Python in Science Conference. 2010. Vol. 445. P. 5661. https://doi.org/10.25080/Majora–92bf1922–00a

       17.     Pedregosa F., Varoquaux G., Gramfort A., Michel V., Thirion B., Grisel O., Blondel M., Prettenhofer P., Weiss R., Dubourg V., Vanderplas J., Passos A., Cournapeau D., Brucher M., Perrot M., Duchesnay, E. Scikit–learn: Machine Learning in Python. Journal of Machine Learning Research. 2011. Vol. 12. P. 28252830. https://doi.org/10.5555/1953048.2078195

       18.     Google Colaboratory. https://colab.research.google.com/ (звернення: 02.10.2023)

       19.     Scikit–Learn: Sequential Feature Selection. https://scikit–learn.org/1.2/modules/feature_selection.html#sequential–feature–selection (звернення: 02.10.2023)

       20.     Liu F.T., Ting K.M., Zhou Z.-H. Isolation Forest. Eighth IEEE International Conference on Data Mining, Pisa, Italy, 2008. P. 413422. https://doi.org/10.1109/ICDM.2008.17

       21.     Liu F.T., Ting K.M., Zhou Z.–H. Isolation–Based Anomaly Detection. ACM Transactions on Knowledge Discovery from Data. 2012. Vol. 6, N 1. P. 1–39. https://doi.org/10.1145/2133360.2133363

       22.     Scikit-Learn: Isolation Forest. https://scikit–learn.org/1.2/modules/outlier_detection.html#isolation–forest (звернення: 02.10.2023)

       23.     Akoglu H. User's guide to correlation coefficients. Turk J Emerg Med. 2018. 18 (3). P. 9193. https://doi.org/10.1016/j.tjem.2018.08.001

       24.     Fuller W. A. Measurement Error Models. New York: Wiley. 1987.

       25.     Sen’ko I.O. Consistency of an adjusted least–squares estimator in a vector linear model with measurement errors. Ukrainian mathematical journal. 2013. Vol. 64, N 11. P. 17391751. https://doi.org/10.1007/s11253–013–0748–z

       26.     Sen’ko I. The asymptotic normality of an adjusted least squares estimator in a multivariate vector errors–in–variables regression model. Theory of Probability and Mathematical Statistics. 2014. Vol. 88. P. 175190. https://doi.org/10.1090/S0094–9000–2014–00929–1

       27.     Snedecor G.W., Cochran W.G. Statistical Methods. Eighth Edition. Iowa State University Press. 1989.

       28.     Грабовецький Б.Є. Економічне прогнозування і планування: навчальний посібник. Вінниця: ВДТУ. 2000. 163 с.

       29.     Knopov P.S., Korkhin A.S. Regression Analysis Under A Priori Parameter Restrictions. Springer Optimization and Its Applications. 2013. Vol. 54. 234 p.

 

 

ISSN 2707-451X (Online)

ISSN 2707-4501 (Print)

Попередня  |  ПОВНИЙ ТЕКСТ  |  Наступна

 

 

            Випуски

 

© Вебсайт та оформлення. 2019-2024,

Інститут кібернетики імені В.М. Глушкова НАН України,

Національна академія наук України.