Kullanım Kılavuzu
Neden sadece 3 sonuç görüntüleyebiliyorum?
Sadece üye olan kurumların ağından bağlandığınız da tüm sonuçları görüntüleyebilirsiniz. Üye olmayan kurumlar için kurum yetkililerinin başvurması durumunda 1 aylık ücretsiz deneme sürümü açmaktayız.
Benim olmayan çok sonuç geliyor?
Birçok kaynakça da atıflar "Soyad, İ" olarak gösterildiği için özellikle Soyad ve isminin baş harfi aynı olan akademisyenlerin atıfları zaman zaman karışabilmektedir. Bu sorun tüm dünyadaki atıf dizinlerinin sıkça karşılaştığı bir sorundur.
Sadece ilgili makaleme yapılan atıfları nasıl görebilirim?
Makalenizin ismini arattıktan sonra detaylar kısmına bastığınız anda seçtiğiniz makaleye yapılan atıfları görebilirsiniz.
  Atıf Sayısı 4
 Görüntüleme 11
D-CNN: A New model for Generating Image Captions with Text Extraction Using Deep Learning for Visually Challenged Individuals
2022
Dergi:  
Engineering, Technology & Applied Science Research
Yazar:  
Özet:

Abstract Automatically describing the information of an image using properly constructed sentences is a tricky task in any language. However, it has the potential to have a significant effect by enabling visually challenged individuals to better understand their surroundings. This paper proposes an image captioning system that generates detailed captions and extracts text from an image, if any, and uses it as a part of the caption to provide a more precise description of the image. To extract the image features, the proposed model uses Convolutional Neural Networks (CNNs) followed by Long Short-Term Memory (LSTM) that generates corresponding sentences based on the learned image features. Further, using the text extraction module, the extracted text (if any) is included in the image description and the captions are presented in audio form. Publicly available benchmark datasets for image captioning like MS COCO, Flickr-8k, Flickr-30k have a variety of images, but they hardly have images that contain textual information. These datasets are not sufficient for the proposed model and this has resulted in the creation of a new image caption dataset that contains images with textual content. With the newly created dataset, comparative analysis of the experimental results is performed on the proposed model and the existing pre-trained model. The obtained experimental results show that the proposed model is equally effective as the existing one in subtitle image captioning models and provides more insights about the image by performing text extraction.

Anahtar Kelimeler:

Atıf Yapanlar
Dikkat!
Yayınların atıflarını görmek için Sobiad'a Üye Bir Üniversite Ağından erişim sağlamalısınız. Kurumuzun Sobiad'a üye olması için Kütüphane ve Dokümantasyon Daire Başkanlığı ile iletişim kurabilirsiniz.
Kampüs Dışı Erişim
Eğer Sobiad Abonesi bir kuruma bağlıysanız kurum dışı erişim için Giriş Yap Panelini kullanabilirsiniz. Kurumsal E-Mail adresiniz ile kolayca üye olup giriş yapabilirsiniz.
Benzer Makaleler










Engineering, Technology & Applied Science Research

Dergi Türü :   Uluslararası

Metrikler
Makale : 1.845
Atıf : 2.898
2023 Impact/Etki : 0.733
Engineering, Technology & Applied Science Research