Підвищення точності визначення кардіоторакального індексу за допомогою ансамблю нейронних мереж

image_print
DOI
Журнал Проблеми машинобудування
Видавець Інститут проблем машинобудування ім. А. М. Підгорного Національної академії наук України
ISSN 2709-2984 (print), 2709-2992 (online)
Випуск Том 27, № 2, 2024 (червень)
Сторінки 54–60

 

Автори

В. Д. Конюхов, Інститут проблем машинобудування ім. А. М. Підгорного НАН України (61046, Україна, м. Харків, вул. Комунальників, 2/10), e-mail: riggelllll@gmail.com, ORCID: 0009-0007-0256-1388

С. В. Угрімов, Інститут проблем машинобудування ім. А. М. Підгорного НАН України (61046, Україна, м. Харків, вул. Комунальників, 2/10), e-mail: sugrimov@ipmach.kharkov.ua, ORCID: 0000-0002-0846-4067

 

Анотація

Кардіоторакальний індекс є одним із основних засобів скринінгу здоров’я серця. Зазвичай вимірювання кардіоторакального індексу виконується вручну лікарем-кардіологом або радіологом. В епоху нейронних мереж, які зараз дуже стрімко розвиваються, ми можемо допомогти лікарям автоматизувати й покращити цей процес. Використання глибокого навчання для сегментації зображень зарекомендувало себе як засіб, який може значно прискорити і вдосконалити процес медичної автоматизації. У даній роботі проведено порівняльний аналіз використання декількох нейронних мереж для сегментації легень і серця на рентгенівських знімках для подальшого вдосконалення автоматичного розрахунку кардіоторакального індексу. Застосовуючи вибірку із 10 тестових знімків, було проведено ручні вимірювання кардіоторакального індексу і 7 варіантів автоматичного вимірювання. Середня точність виміру кардіоторакального індексу найкращої з двох нейронних мереж дорівнює 93,80%, а за допомогою методу, який використовував ансамбль мереж, отримано результат 97,15%, тобто вдалося покращити визначення індексу на 3,35%. Отже, отримані результати вказують на те, що завдяки ансамблю нейронних мереж вдалося покращити результат автоматичного вимірювання, а також свідчать про ефективність і перспективність використання даного методу в медичній сфері.

 

Ключові слова: машинне навчання, нейронні мережі, глибоке навчання, сегментація зображення, аналіз медичного зображення.

 

Повний текст: завантажити PDF

 

Література

  1. Truszkiewicz K, Poręba R, Gać P. Radiological cardiothoracic ratio in evidence-based medicine. Journal of Clinical Medicine. 2021. Vol. 10. No. 9. Article 2016. https://doi.org/10.3390/jcm10092016.
  2. Hada Y. Cardiothoracic ratio. Journal of Cardiology. 1995. Vol. 26. Iss. 1. P. 51–54.
  3. Li W., Jia F., Hu Q. Automatic segmentation of liver tumor in CT images with deep convolutional neural networks. Journal of Computer and Communications. 2015. Vol. 3. No. 11. P. 146–151. http://dx.doi.org/10.4236/jcc.2015.311023.
  4. Jaeger S, Candemir S, Antani S, Wáng Y.-X. J., Lu P.-X., Thoma G. Two public chest X-ray datasets for computer-aided screening of pulmonary diseases. Quantitative Imaging in Medicine and Surgery. 2014. Vol. 4. No. 6. P. 475–477. http://doi.org/10.3978/j.issn.2223-4292.2014.11.20.
  5. Ronneberger O., Fischer P., Brox T. U-Net: Convolutional networks for biomedical image segmentation. In: Navab N., Hornegger J., Wells W., Frangi A. (eds). Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015. Lecture Notes in Computer Science. Cham: Springer, 2015. Vol. 9351. P. 234–241. https://doi.org/10.1007/978-3-319-24574-4_28.
  6. Badrinarayanan V., Kendall A., Cipolla R. SegNet: A Deep convolutional encoder-decoder architecture for image segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017. Vol. 39. No. 12. P. 2481–2495. https://doi.org/10.1109/TPAMI.2016.2644615.
  7. Kingma D. P., Ba J. Adam: A method for stochastic optimization. Proceedings of the 3rd International Conference on Learning Representations (ICLR 2015). (May 7–9, 2015, San Diego). 2015. 13 p.
  8. Fletcher S., Islam M. Z. Comparing sets of patterns with the Jaccard index. Australasian Journal of Information Systems. 2018. Vol. 22. 17 p. https://doi.org/10.3127/ajis.v22i0.1538.

 

Надійшла до редакції 22.04.2024