СЕМАНТИЧНА СЕГМЕНТАЦІЯ УЛЬТРАЗВУКОВИХ ЗОБРАЖЕНЬ МОЗКУ ПЛОДА НА ОСНОВІ ЗАГАЛЬНОГО ПОВНІСТЮ ЗГОРТКОВОГО ДИСКРИМІНАТОРА

Автор(и)

  • Ніколаєнко Дмитро Володимирович Національний університет біоресурсів і природокористування України image/svg+xml
  • Лі Юйлун Національний університет біоресурсів і природокористування України image/svg+xml

Ключові слова:

центральна нервова система плода, генеративні змагальні мережі, Deeplab_v2, Attention U-net

Анотація

Ураження центральної нервової системи (ЦНС) плода є одним з найпоширеніших вроджених захворювань плода у світі. Використання методів глибокого навчання має велике значення для забезпечення лікарів надійними допоміжними методами діагностики. Область за межами ореолу черепа на ультразвукових зображеннях головного мозку плода містить багато нерелевантної інформації та має нечіткі межі, що не сприяє вирішенню задач класифікації або розпізнавання ультразвукових зображень. Метою роботи є дослідження впливу генеративних змагальних мереж на основі універсальних повністю згорткових дискримінаторів на результати автоматичної сегментації ореолу черепа на ультразвукових зображеннях головного мозку плода. У статті запропоновано метод автоматичної сегментації ореолу черепа на ультразвукових зображеннях головного мозку плода з використанням генеративної змагальної мережі на основі універсального повністю згорнутого дискримінатора. На основі концепції генеративних змагальних мереж побудовано нову семантичну мережу сегментації на основі універсального дискримінатора. Для перевірки універсальності дискримінатора мережа семантичної сегментації використовуються мережі Deeplab_v2 та Attention U-net як генератори для генерації карт ймовірностей результатів сегментації. Універсальний повністю згортковий дискримінатор також розроблено для того, щоб він міг навчитися розрізняти, чи є карта ймовірностей на вході мережі дискримінатора реальними даними або результатами сегментації. Експериментальні результати на наборі даних автоматичного вимірювання окружності голівки плода при ультразвуковому дослідженні демонструють ефективність алгоритму. Порівняно з базовою лінією Deeplab_v2, точність сегментації значно покращилася, і Attention U-net також має аналогічне покращення. Генеративна змагальна мережа на основі універсального повністю згорткового дискримінатора може ефективно підвищити точність автоматичної сегментації ореолу черепа на ультразвукових зображеннях мозку плода.

Посилання

1. Long, J., Shelhamer, E., & Darrell, T. (2015). Fully convolutional networks for semantic segmentation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 3431–3440). https://doi.org/10.48550/arXiv.1411.4038.

2. Litjens, G., Kooi, T., Bejnordi, B. E., Setio, A. A. A., Ciompi, F., Ghafoorian, M., van der Laak, J. A. W. M., van Ginneken, B., & Sánchez, C. I. (2017). A survey on deep learning in medical image analysis. Medical Image Analysis, 42, 60–88. https://doi.org/10.1016/j.media.2017.07.005.

3. Yu, Z., Ni, D., Chen, S., et al. (2016). Fetal facial standard plane recognition via very deep convolutional networks. In 2016 38th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC) (pp. 1–4). IEEE. https://doi.org/10.1109/EMBC.2016.7590780.

4. Baumgartner, C. F., Kamnitsas, K., Matthew, J., Fletcher, T. P., Smith, S., Koch, L. M., Kainz, B., Rueckert, D., & Glocker, B. (2017). SonoNet: Real-time detection and localization of fetal standard scan planes in freehand ultrasound. IEEE Transactions on Medical Imaging, 36(11), 2204–2215. https://doi.org/10.1109/TMI.2017.2712367.

5. Ye, H., Feng, K.-P., & Xie, H.-N. (2019). Fetal brain ultrasonic image segmentation algorithm based on fully convolution network. Modern Computer, (27), 43–47.

6. Cerrolaza, J. J., Sinclair, M., Matthew, J., et al. (2018). Deep learning with ultrasound physics for fetal skull segmentation. In 2018 IEEE 15th International Symposium on Biomedical Imaging (ISBI 2018) (pp. 564–567). IEEE. https://doi.org/10.1109/ISBI.2018.8363639.

7. Sobhaninia, Z., Rafiei, S., Emami, A., Karimi, N., Najarian, K., & Samavi, S. (2019). Fetal ultrasound image segmentation for measuring biometric parameters using multi-task deep learning. In 2019 41st Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC) (pp. 6545–6548). IEEE. https://doi.org/10.1109/embc.2019.8856981.

8. Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A., & Bengio, Y. (2014). Generative adversarial nets. In Z. Ghahramani, M. Welling, C. Cortes, N. D. Lawrence, & K. Q. Weinberger (Eds.), Advances in Neural Information Processing Systems (Vol. 27). https://proceedings.neurips.cc/paper/2014/hash/f033ed80deb0234979a61f95710dbe25-Abstract.html.

9. Chen, L.-C., Papandreou, G., Kokkinos, I., Murphy, K., & Yuille, A. L. (2018). DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs. IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(4), 834–848. https://doi.org/10.48550/arXiv.1606.00915.

10. Oktay, O., Schlemper, J., Folgoc, L. L., Lee, M. C. H., Heinrich, M., Misawa, K., Mori, K., McDonagh, S., Hammerla, N. Y., Kainz, B., Glocker, B., & Rueckert, D. (2018). Attention U-Net: Learning where to look for the pancreas [Preprint]. arXiv. https://doi.org/10.48550/arXiv.1804.03999.

11. He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (pp. 770–778). https://doi.org/10.48550/arXiv.1512.03385.

12. Lin, T.-Y., Maire, M., Belongie, S., Hays, J., Perona, P., Ramanan, D., Dollár, P., & Zitnick, C. L. (2014). Microsoft COCO: Common objects in context. In D. Fleet, T. Pajdla, B. Schiele, & T. Tuytelaars (Eds.), Computer Vision – ECCV 2014 (pp. 740–755). Springer. https://doi.org/10.1007/978-3-319-10602-1_48.

13. Ronneberger, O., Fischer, P., & Brox, T. (2015). U-Net: Convolutional networks for biomedical image segmentation. In N. Navab, J. Hornegger, W. M. Wells, & A. Frangi (Eds.), Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015 (pp. 234–241). Springer. https://doi.org/10.1007/978-3-319-24574-4_28.

14. Maas, A. L., Hannun, A. Y., & Ng, A. Y. (2013). Rectifier nonlinearities improve neural network acoustic models. In Proceedings of the 30th International Conference on Machine Learning, Deep Learning Workshop. https://ai.stanford.edu/~amaas/papers/relu_hybrid_icml2013_final.pdf.

Завантаження

Опубліковано

2026-02-02

Номер

Розділ

Усі статті з випуску