User Guide
Why can I only view 3 results?
You can also view all results when you are connected from the network of member institutions only. For non-member institutions, we are opening a 1-month free trial version if institution officials apply.
So many results that aren't mine?
References in many bibliographies are sometimes referred to as "Surname, I", so the citations of academics whose Surname and initials are the same may occasionally interfere. This problem is often the case with citation indexes all over the world.
How can I see only citations to my article?
After searching the name of your article, you can see the references to the article you selected as soon as you click on the details section.
 Views 6
Meme Ultrason Görüntülerinde Kanser Hücre Segmentasyonu için Yeni Bir FCN Modeli
2023
Journal:  
Afyon Kocatepe Üniversitesi Fen Ve Mühendislik Bilimleri Dergisi
Author:  
Abstract:

Meme kanseri kadınlar arasında yaygın bir hastalıktır. Zamanında teşhis ve uygun müdahale, iyileşme beklentilerini önemli ölçüde artırır ve hastalığın ilerlemesini engeller. Meme kanserinin görsel görüntüleri, meme dokusunu kötü huylu ve kötü huylu olmayan alanlara ayırmaya hizmet ederek, kötü huylu hücrelerin ayırt edilmesi, tümör boyutlarının değerlendirilmesi ve neoplazmın evrelendirilmesi dahil olmak üzere çok önemli bilgiler sağlar. Meme kanseri taramaları, özellikle genç ve hamile kadınlar grubundaki hassasiyetleri iyileştirmek için yürürlüğe konmuştur. Bununla birlikte, radyografik tasvirlerin incelenmesinin yanlışlıkla bazı incelikleri gözden kaçırabileceği durumlar da vardır. Gelişmiş yapay zeka paradigmaları, sofistike hesaplama metodolojileri ile birleştiğinde, daha yüksek hassasiyette sonuçlar elde etmek için kullanılmaktadır. Bu bağlamda, ultrason teknolojisi tarafından kolaylaştırılan segmentasyon metodolojisi çok önemli bir müdahale olarak ortaya çıkmaktadır. Mevcut araştırmada, sapmaların tanımlanması ve kanserojen bölgelerin belirlenmesi için U-Net ve yenilikçi bir Fully Convolutional Network mimarisinden yararlanılmıştır. Bu çalışma kapsamında önerilen Fully Convolutional Network mimarisi, test görüntülerinde %77,2 MeanIoU, %71,6 precision, %77,7 recall ve %74,5 F1 skoru elde edilmiştir. U-Net modeli ile %76,4 MeanIoU, %67,6 precision, %80,4 recall ve %73 F1 skoru elde edilmiştir. Bulgular, önerilen Fully Convolutional Network mimarisinin U-Net modeline göre daha iyi performans sergilediğini ortaya koymuştur. Bu sonuçlar, meme kanseri teşhisi ve tedavisi için segmentasyon işleminin önemini vurgulamakta ve önerilen Fully Convolutional Network mimarisinin U-Net mimarisinden daha başarılı olduğunu ortaya koymaktadır.

Keywords:

A New Fcn Model For Cancer Cell Segmentation In Breast Ultrasound Images
2023
Author:  
Abstract:

Breast cancer stands as a widespread ailment among women. Timely diagnosis and appropriate intervention significantly enhance prospects of recovery and thwart disease progression. Visual representations of breast cancer serve to delineate breast tissue into malignant and non-malignant regions, offering crucial insights, including the discernment of malignant cells, assessment of tumor dimensions, and staging of the neoplasm. Breast cancer screenings are implemented to ameliorate sensitivities, especially within the cohort of young and pregnant women. However, instances exist wherein the examination of radiographic portrayals may inadvertently overlook certain intricacies. Advanced artificial intelligence paradigms, coupled with sophisticated computational methodologies, are harnessed to attain outcomes of heightened precision. In this context, the segmentation methodology facilitated by ultrasound technology emerges as a pivotal intervention. In the present study, U-Net and an innovative Fully Convolutional Network architecture are utilized to identify deviations and demarcate carcinogenic zones. Within the scope of this research, the proposed Fully Convolutional Network architecture achieves a MeanIoU of 77.2%, precision rates of 71.6%, recall rates of 77.7%, and an F1 score of 74.5% in testing images. Conversely, the U-Net model yields comparable performance metrics, manifesting a MeanIoU of 76.4%, precision of 67.6%, recall of 80.4%, and an F1 score of 73%. Notably, the findings underscore the superiority of the proposed Fully Convolutional Network paradigm over the U-Net architecture. These results accentuate the significance of segmentation methodologies in the realm of breast cancer diagnosis and treatment, thus affirming the superior efficacy of the suggested Fully Convolutional Network architecture relative to the U-Net architecture.

Citation Owners
Information: There is no ciation to this publication.
Similar Articles










Afyon Kocatepe Üniversitesi Fen Ve Mühendislik Bilimleri Dergisi

Field :   Fen Bilimleri ve Matematik; Mühendislik

Journal Type :   Ulusal

Metrics
Article : 1.428
Cite : 2.542
Afyon Kocatepe Üniversitesi Fen Ve Mühendislik Bilimleri Dergisi