Том 37, номер 01, статья № 6

Абрамова И. А., Демчев Д. М., Харюткина Е. В., Савенкова Е. Н., Судаков И. А. Применение сверточной нейронной сети U-Net и ее модификаций для сегментации тундровых озер на спутниковых оптических изображениях. // Оптика атмосферы и океана. 2024. Т. 37. № 01. С. 48–53. DOI: 10.15372/AOO20240106.
Скопировать ссылку в буфер обмена
Аннотация:

Тундровые озера – важный индикатор изменений климата, поэтому анализ динамики их размеров представляет особый интерес. В работе представлены результаты применения сверточной нейронной сети U-Net для сегментации тундровых озер по спутниковым оптическим изображениям на примере данных Landsat. Выполнена сравнительная оценка точности сегментации с помощью оригинальной архитектуры U-Net и ее модификаций: U-Net++, Attention U-Net и R2 U-Net, в том числе с использованием весов, полученных на основе предварительно обученной сети VGG16. Точность сегментации оценивается путем сравнения с результатами ручного картирования тундровых озер в северных районах Сибири. Обучение сетей производилось на основе 500 изображений Landsat; 250 изображений использовались в качестве тестовых. Показано, что более современные модификации U-Net не дают практически значимого выигрыша в точности сегментации, но увеличивают вычислительные затраты. Наилучший результат показывает конфигурация на основе классической реализации U-Net (средний коэффициент Жаккара IoU = 0,88). Предложенный метод и полученные оценки могут использоваться при изучении тенденций современного климата Земли.

Ключевые слова:

тундровые озера, U-Net, Арктика, дистанционное зондирование, вечная мерзлота

Список литературы:

1. Sudakov I., Essa A., Mander L., Gong M., Kariyawasam T. The geometry of large tundra lakes observed in historical maps and satellite images // Remote Sens. 2017. V. 9, N 10. P. 1072.
2. Sobiech J., Dierking W. Observing lake- and river-ice decay with SAR: advantages and limitations of the unsupervised k-means classification approach // Ann. Glaciol. 2013. V. 54, N 62. P. 65–72.
3. Demchev D., Sudakow I., Khodos A., Abramova I., Lyakhov D., Michels D. Recognizing the Shape and Size of Tundra Lakes in Synthetic Aperture Radar (SAR) Images Using Deep Learning Segmentation // Remote Sens. 2023. V. 15, N 5. P. 1298.
4. Ronneberger O., Fischer P., Brox T. U-net: Convolutional networks for biomedical image segmentation // Medical Image Computing and Computer-Assisted Intervention-MICCAI 2015: 18th International Conference, Munich, Germany, October 5–9, 2015. P. 234–241.
5. Sudakow I., Asari V.K., Liu R., Demchev D. MeltPondNet: A Swin Transformer U-Net for Detection of Melt Ponds on Arctic Sea Ice // IEEE J. Sel. Top. Appl. Earth Obs. Remote Sens. IEEE, 2022. V. 15. P. 8776–8784.
6. Wang Y.-R., Li X.-M. Arctic sea ice cover data from spaceborne synthetic aperture radar by deep learning // Earth Syst. Sci. Data. 2021. V. 13, N 6. P. 2723–2742.
7. Zhou Z., Rahman Siddiquee M.M., Tajbakhsh N., Liang J. U-Net++: A nested U-Net architecture for medical image segmentation // Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support: 4th International Workshop, DLMIA 2018, and 8th International Workshop, ML-CDS 2018, Held in Conjunction with MICCAI 2018, Granada, Spain, September 20, 2018. V. 11045. P. 3–11.
8. Oktay O., Schlemper J., Folgoc L. Le, Lee M., Heinrich M., Misawa K., Mori K., McDonagh S., Hammerla N.Y., Kainz B., Cilocker B., Rueckert D. Attention U-Net: Learning where to look for the pancreas // Arxiv: Computer Vision and Pattern Recognition. DOI: 10.48550/arXiv1804.03999.
9. Alom M.Z., Hasan M., Yakopcic C., Taha T.M., Asari V.K. Recurrent residual convolutional neural network based on U-Net (R2 U-Net) for medical image segmentation // Arxiv: Computer Vision and Pattern Recognition. DOI: 10.48550/arXiv1802.06955.
10. Deng J., Dong W., Socher R., Li L.-J., Li K., Fei-Fei L. Imagenet: A large-scale hierarchical image database // IEEE Conf. Comp. Vision and Patt. Recog. 2009. P. 248–255.
11. Kingma D.P., Ba J. Adam: A method for stochastic optimization // Arxivi Machine Learning. DOI: 10.48550/arXiv1412.6980.