Kullanım Kılavuzu
Neden sadece 3 sonuç görüntüleyebiliyorum?
Sadece üye olan kurumların ağından bağlandığınız da tüm sonuçları görüntüleyebilirsiniz. Üye olmayan kurumlar için kurum yetkililerinin başvurması durumunda 1 aylık ücretsiz deneme sürümü açmaktayız.
Benim olmayan çok sonuç geliyor?
Birçok kaynakça da atıflar "Soyad, İ" olarak gösterildiği için özellikle Soyad ve isminin baş harfi aynı olan akademisyenlerin atıfları zaman zaman karışabilmektedir. Bu sorun tüm dünyadaki atıf dizinlerinin sıkça karşılaştığı bir sorundur.
Sadece ilgili makaleme yapılan atıfları nasıl görebilirim?
Makalenizin ismini arattıktan sonra detaylar kısmına bastığınız anda seçtiğiniz makaleye yapılan atıfları görebilirsiniz.
 Görüntüleme 7
Meme Ultrason Görüntülerinde Kanser Hücre Segmentasyonu için Yeni Bir FCN Modeli
2023
Dergi:  
Afyon Kocatepe Üniversitesi Fen Ve Mühendislik Bilimleri Dergisi
Yazar:  
Özet:

Meme kanseri kadınlar arasında yaygın bir hastalıktır. Zamanında teşhis ve uygun müdahale, iyileşme beklentilerini önemli ölçüde artırır ve hastalığın ilerlemesini engeller. Meme kanserinin görsel görüntüleri, meme dokusunu kötü huylu ve kötü huylu olmayan alanlara ayırmaya hizmet ederek, kötü huylu hücrelerin ayırt edilmesi, tümör boyutlarının değerlendirilmesi ve neoplazmın evrelendirilmesi dahil olmak üzere çok önemli bilgiler sağlar. Meme kanseri taramaları, özellikle genç ve hamile kadınlar grubundaki hassasiyetleri iyileştirmek için yürürlüğe konmuştur. Bununla birlikte, radyografik tasvirlerin incelenmesinin yanlışlıkla bazı incelikleri gözden kaçırabileceği durumlar da vardır. Gelişmiş yapay zeka paradigmaları, sofistike hesaplama metodolojileri ile birleştiğinde, daha yüksek hassasiyette sonuçlar elde etmek için kullanılmaktadır. Bu bağlamda, ultrason teknolojisi tarafından kolaylaştırılan segmentasyon metodolojisi çok önemli bir müdahale olarak ortaya çıkmaktadır. Mevcut araştırmada, sapmaların tanımlanması ve kanserojen bölgelerin belirlenmesi için U-Net ve yenilikçi bir Fully Convolutional Network mimarisinden yararlanılmıştır. Bu çalışma kapsamında önerilen Fully Convolutional Network mimarisi, test görüntülerinde %77,2 MeanIoU, %71,6 precision, %77,7 recall ve %74,5 F1 skoru elde edilmiştir. U-Net modeli ile %76,4 MeanIoU, %67,6 precision, %80,4 recall ve %73 F1 skoru elde edilmiştir. Bulgular, önerilen Fully Convolutional Network mimarisinin U-Net modeline göre daha iyi performans sergilediğini ortaya koymuştur. Bu sonuçlar, meme kanseri teşhisi ve tedavisi için segmentasyon işleminin önemini vurgulamakta ve önerilen Fully Convolutional Network mimarisinin U-Net mimarisinden daha başarılı olduğunu ortaya koymaktadır.

Anahtar Kelimeler:

A New Fcn Model For Cancer Cell Segmentation In Breast Ultrasound Images
2023
Yazar:  
Özet:

Breast cancer stands as a widespread ailment among women. Timely diagnosis and appropriate intervention significantly enhance prospects of recovery and thwart disease progression. Visual representations of breast cancer serve to delineate breast tissue into malignant and non-malignant regions, offering crucial insights, including the discernment of malignant cells, assessment of tumor dimensions, and staging of the neoplasm. Breast cancer screenings are implemented to ameliorate sensitivities, especially within the cohort of young and pregnant women. However, instances exist wherein the examination of radiographic portrayals may inadvertently overlook certain intricacies. Advanced artificial intelligence paradigms, coupled with sophisticated computational methodologies, are harnessed to attain outcomes of heightened precision. In this context, the segmentation methodology facilitated by ultrasound technology emerges as a pivotal intervention. In the present study, U-Net and an innovative Fully Convolutional Network architecture are utilized to identify deviations and demarcate carcinogenic zones. Within the scope of this research, the proposed Fully Convolutional Network architecture achieves a MeanIoU of 77.2%, precision rates of 71.6%, recall rates of 77.7%, and an F1 score of 74.5% in testing images. Conversely, the U-Net model yields comparable performance metrics, manifesting a MeanIoU of 76.4%, precision of 67.6%, recall of 80.4%, and an F1 score of 73%. Notably, the findings underscore the superiority of the proposed Fully Convolutional Network paradigm over the U-Net architecture. These results accentuate the significance of segmentation methodologies in the realm of breast cancer diagnosis and treatment, thus affirming the superior efficacy of the suggested Fully Convolutional Network architecture relative to the U-Net architecture.

Atıf Yapanlar
Bilgi: Bu yayına herhangi bir atıf yapılmamıştır.
Benzer Makaleler






Afyon Kocatepe Üniversitesi Fen Ve Mühendislik Bilimleri Dergisi

Alan :   Fen Bilimleri ve Matematik; Mühendislik

Dergi Türü :   Ulusal

Metrikler
Makale : 1.428
Atıf : 2.854
2023 Impact/Etki : 0.161
Afyon Kocatepe Üniversitesi Fen Ve Mühendislik Bilimleri Dergisi