Kullanım Kılavuzu
Neden sadece 3 sonuç görüntüleyebiliyorum?
Sadece üye olan kurumların ağından bağlandığınız da tüm sonuçları görüntüleyebilirsiniz. Üye olmayan kurumlar için kurum yetkililerinin başvurması durumunda 1 aylık ücretsiz deneme sürümü açmaktayız.
Benim olmayan çok sonuç geliyor?
Birçok kaynakça da atıflar "Soyad, İ" olarak gösterildiği için özellikle Soyad ve isminin baş harfi aynı olan akademisyenlerin atıfları zaman zaman karışabilmektedir. Bu sorun tüm dünyadaki atıf dizinlerinin sıkça karşılaştığı bir sorundur.
Sadece ilgili makaleme yapılan atıfları nasıl görebilirim?
Makalenizin ismini arattıktan sonra detaylar kısmına bastığınız anda seçtiğiniz makaleye yapılan atıfları görebilirsiniz.
  Atıf Sayısı 9
 Görüntüleme 12
 İndirme 1
Sign2Text: Konvolüsyonel Sinir Ağları Kullanarak Türk İşaret Dili Tanıma
2020
Dergi:  
Avrupa Bilim ve Teknoloji Dergisi
Yazar:  
Özet:

İşaret dili, işitme engellilerin kendi aralarında iletişim kurarken, el hareketlerini ve yüz mimiklerini kullanarak oluşturdukları görsel bir dildir. İşitme engelliler kendi aralarında işaret dili yardımıyla rahatlıkla iletişim kurabilmelerine rağmen hastane gibi kamu kurumlarında, hizmet almaya gidenlerin kendilerini ifade etmekte ve karşılarındakileri anlamakta büyük zorluklar çekmektedirler. İşitme engelli okuma yazma oranı düşüktür. Okuma yazması olanların ise Türk İşaret Dili dilbigisinin farklı olması ve dar kelime dağarcığından dolayı okuduklarını anlamada zorluk yaşamaktadır. Dünya sağlık örgütünün raporlarına göre 2018 yılında Avrupa’da 34 milyon işitme engelli bulunmakta, bu sayının 2050 yılına kadar 46 milyon olması beklenmektedir. Video içerisindeki hareketlerin algılanıp işaret diline çevirme işleminde. Bu çalışmada herhangi bir sensör kullanılmadan işitme engelli bireyler tarafından kamerası karşısında yapılan hareketlerin algılanıp işaret diline çevirme işleminde Konvolüsyonel Yapay Ağlar (CNN: Convolutıion Neural Network) ve Uzun Kısa Süreli Bellek (LSTM: Long Short Term Memory) derin öğrenme teknikleri kullanılmıştır. Öncelikle, kamera aracılığıyla elde edilen veri üzerinde baş bölgesinin tespiti ve eğitime uygun hale getirilmesi, ellerin tespiti ve hareketlerinin takip edilmesi ve kırpma gibi video ön işleme adımları uygulanmıştır. Hazırlanan videoların Konvolüsyonel Yapay Ağlar eğitim modeli için frameler ile eğitimi amaçlanmıştır. Veri seti videoların eğitim aşamasında kullanılması için framelere parçalanmıştır. İşaret dili hareketlerinde öncelikli olarak el ve parmak hareketlerinin tahminlemesi gerçekleştirilir. Sadece el hareketleri için eğitim modeli besleneceği için ten renginin bulunduğu kafa bölgesi tespiti çalışması gerçekleştirilmiştir. Kamera karşısında yapılan 10 rakam ve 29 harfin işaret dili hareketleri ile eğitilen CNN + LSTM modellerinde tahminlemesinde %97 başarı oranı elde edilmiştir. Bu sonuçlar, işitme engelli bireylerin kamera karşısında yaptığı hareketlerin algılanıp metne dönüştürmesinde derin öğrenme yöntemlerinin kullanılabileceğini göstermiştir.

Anahtar Kelimeler:

Sign2Text: Recognize the Turkish Sign Language using Convolutionary Neural Networks
2020
Yazar:  
Özet:

Sign language is a visual language that hearing disabled people communicate with each other, using their hand movements and face mimics. Although hearing disabled people can communicate easily with each other with the help of the sign language, in public institutions such as hospitals, those who go to the service have great difficulties in expressing themselves and understanding what they face. Listening and reading is low. Those who read and write are difficult to understand that the Turkish Sign Language is different and they read because of the narrow word spread. According to the World Health Organization (WHO), there are 34 million hearing disorders in Europe in 2018, which is expected to be 46 million by 2050. Movements in the video are perceived and translated into sign language. In this study, hearing disabilities have used the deep learning techniques of Convolutıion Neural Network (CNN) and Long Short Term Memory (LSTM) in the process of detecting and translating the movements carried out in front of the camera. First of all, video pre-processing steps have been applied, such as the detection and training of the head area on the data obtained through the camera, the detection and tracking of the movements of the hands and the cutting. The prepared videos are designed to be trained with frames for the Convolutionary Artificial Networks training model. The data set is divided into frames for the use of videos in the training stage. In the sign language movements, the prediction of the hand and finger movements is primarily performed. The study was conducted to identify the head area where the skin color is located because the training model for hand movements will be fed. CNN + LSTM models trained with 10 numbers and 29 letter sign language movements in front of the camera, with an estimated 97% success rate. These findings have shown that deep learning methods can be used to perceive and convert the movements of people with hearing disabilities in front of the camera.

Anahtar Kelimeler:

Sign2text: Turkish Sign Language Recognition Using Convolutional Neural Networks
2020
Yazar:  
Özet:

Sign language is a visual language created by the hearing impaired by using hand gestures and facial expressions while communicating among themselves. Although the hearing impaired can easily communicate with each other with the help of sign language, they have great difficulties in expressing themselves and understanding others in public institutions such as hospitals. The literacy rate for the hearing impaired is low. Those who are literate have difficulty in understanding what they read due to the different grammar of Turkish Sign Language and their narrow vocabulary. According to the reports of the World Health Organization, there are 34 million hearing impaired in Europe in 2018, and this number is expected to be 46 million by 2050. In the process of detecting the movements in the video and converting it into sign language. In this study, Convolutional Artificial Networks (CNN: Convolution Neural Network) and Long Short Term Memory (LSTM: Long Short Term Memory) deep learning techniques were used in the process of detecting the movements made by the hearing impaired individuals against their cameras and converting them into sign language without using any sensors. First of all, video pre-processing steps such as determining the head area and making it suitable for training, detecting and tracking the movements of the hands and cropping were applied on the data obtained through the camera. It is aimed to train the videos prepared with frames for the Convolutional Artificial Networks training model. The data set is divided into frames for the use of videos in the training phase. In sign language movements, hand and finger movements are primarily predicted. Since the training model will be fed only for hand movements, the head region where the skin color is found was determined. A 97% success rate was achieved in the estimation of the CNN + LSTM models, which were trained with the sign language movements of 10 numbers and 29 letters made in front of the camera. These results showed that deep learning methods can be used to perceive the camera movements of hearing impaired individuals and convert them into text.

Anahtar Kelimeler:

Atıf Yapanlar
Dikkat!
Yayınların atıflarını görmek için Sobiad'a Üye Bir Üniversite Ağından erişim sağlamalısınız. Kurumuzun Sobiad'a üye olması için Kütüphane ve Dokümantasyon Daire Başkanlığı ile iletişim kurabilirsiniz.
Kampüs Dışı Erişim
Eğer Sobiad Abonesi bir kuruma bağlıysanız kurum dışı erişim için Giriş Yap Panelini kullanabilirsiniz. Kurumsal E-Mail adresiniz ile kolayca üye olup giriş yapabilirsiniz.
Benzer Makaleler










Avrupa Bilim ve Teknoloji Dergisi

Alan :   Fen Bilimleri ve Matematik; Mühendislik

Dergi Türü :   Uluslararası

Metrikler
Makale : 3.175
Atıf : 5.600
2023 Impact/Etki : 0.178
Avrupa Bilim ve Teknoloji Dergisi