COVID-19 dünya çapında milyonlarca insanı enfekte etmiştir ve önemli hastalık ve ölümlere neden olmuştur. Akciğer röntgeni (CXR), COVID-19 hastalığını izlemek için hızlı ve etkili bir yöntemdir. CXR taramasından COVID-19 teşhisi zor olabilir ve deneyimli radyologlar bile her durumda kesin bir teşhis koyamayabilir. Bu çalışmada, çeşitli CNN tabanlı modellerin performansını değerlendirmek için COVID-19, akciğer opaklığı ve viral pnömonisi olan hastaların X-ışını görüntülerinden oluşan bir veri seti kullanıldı. Değiştirilmiş bir ConvNext’le, 4 yönlü sınıflandırmada COVID-19 görüntülerinde %98,1 doğruluk ve %97,8 kesinlik elde edildi. ConvNext, COVID-19 teşhisi için kullanılan en son tekniklere göre iyi bir performans sergilemektedir. Bu çalışmada ortaya konulan yöntem, klinisyenleri COVID-19 hastalarını taramada destekleyebilir. Böylece bu hastalar için daha hızlı tedavi ve daha iyi sağlık sonuçları mümkün olabilir.
COVID-19 has infected millions of people worldwide and caused significant illness and death. Chest X-rays are a quick and efficient method for monitoring COVID-19 disease. The diagnosis of COVID-19 from a CXR scan can be challenging, and even experienced radiologists may not be able to make a definitive diagnosis in all cases. In this study, we used a dataset of X-ray images of COVID-19, lung opacity, viral pneumonia, and healthy patients to evaluate the performance of several CNN-based models. A modified ConvNext has achieved 98.1% accuracy and 97.8% precision on COVID-19 images in a 4-way classification effort. Our results compare well with state-of-the-art techniques for COVID-19 diagnosis. Our approach could support clinicians in screening patients for COVID-19, thus facilitating faster treatment and better health outcomes for COVID-19 patients.
Primary Language | Turkish |
---|---|
Subjects | Deep Learning, Modelling and Simulation |
Journal Section | Electrical and Electronics Engineering |
Authors | |
Publication Date | June 3, 2024 |
Submission Date | November 24, 2023 |
Acceptance Date | November 30, 2023 |
Published in Issue | Year 2024 |