Show simple item record

dc.contributor.authorYalçinkaya, O.en_US
dc.contributor.authorAtvar, A.en_US
dc.contributor.authorDuygulu, P.en_US
dc.date.accessioned2018-04-12T11:48:43Z
dc.date.available2018-04-12T11:48:43Z
dc.date.issued2016en_US
dc.identifier.isbn9781509016792
dc.identifier.urihttp://hdl.handle.net/11693/37710
dc.description.abstractİşitme ve konuşma engelli bireylerin toplum içerisinde diger bireylerle sağlıklı şekilde iletişim kurabilmeleri açısından işaret dili çok önemli bir role sahiptir. Ne yazık ki işaret dilinin toplumda sadece duyarlı insanlar tarafından bilindiği ve bu sayının da azlıgı dikkat çekmektedir. Yaptığımız çalışma kapsamındaki amaç, geliştirdiğimiz sistem sayesinde işitme veya konuşma engeli mevcut olan bireylerin diğer bireylerle olan iletişiminde iyileşme sağlamaktır. Bu amaç doğrultusunda kameradan alınan işaret diline ait hareket bilgisi tanınabilmekte ve o hareketin ne anlama geldiği daha önceden eğitilen işaret diline ait hareket bilgileri ile karşılaştırılarak bulunabilmektedir. Hareket bilgilerinin kameradan alınan görüntülerden çıkarılması aşamasında "Hareket Geçmişi Görüntüsü" yöntemi kullanılmıştır. Bu bağlamdaki sınıflandırma işlemi için de "En Yakın Komşuluk" algoritması kullanılmıştır. Sonuç olarak geliştirilen sistem, eğitim kümesini kullanarak işaret dili hareketi için bir metin tahmin etmektedir. Toplamdaki sınıflandırma başarısı %95 olarak hesaplanmıştır.en_US
dc.description.abstractRecognizing sign language is an important interest area since there are many speech and hearing impaired people in the world. They need to be understood by other people and understand them as well. Unfortunately, the number of people who have the knowledge of sign language is not many. In order to communicate with handicapped people, existence of some automatized systems may be helpful. Therefore, in this work, we aimed to implement a system that recognizes the sign language and converts it to text to help people while communicating with each other where the input scene is taken from camera. We produced a training data which includes eight different sign language videos. After that, we used Motion History Images(MHI) to extract the motion information from them. A classification is done by using nearest neighbor approach after extracting the features from MHI of videos. As a result, by using training data, our system predicts the text for given sign language. The overall classification accuracy is computed as 95%. © 2016 IEEE.en_US
dc.language.isoTurkishen_US
dc.source.title2016 24th Signal Processing and Communication Application Conference, SIU 2016 - Proceedingsen_US
dc.relation.isversionofhttp://dx.doi.org/10.1109/SIU.2016.7495861en_US
dc.subjectMotion history image(MHI)en_US
dc.subjectNearest neighboren_US
dc.subjectSign languageen_US
dc.subjectAuditionen_US
dc.subjectCharacter recognitionen_US
dc.subjectComputational linguisticsen_US
dc.subjectGermaniumen_US
dc.subjectMotion analysisen_US
dc.subjectMotion estimationen_US
dc.subjectClassification accuracyen_US
dc.subjectMotion history imagesen_US
dc.subjectMotion informationen_US
dc.subjectMotion recognitionen_US
dc.subjectNearest neighborsen_US
dc.subjectNearest-neighbor approachesen_US
dc.subjectSign languageen_US
dc.subjectSign language recognitionen_US
dc.subjectSignal processingen_US
dc.titleHareket geçmişi görüntüsü yöntemi ile Türkçe işaret dilini tanima uygulamasıen_US
dc.title.alternativeTurkish sign language recognition application using motion history imageen_US
dc.typeConference Paperen_US
dc.departmentDepartment of Computer Engineering
dc.citation.spage801en_US
dc.citation.epage804en_US
dc.identifier.doi10.1109/SIU.2016.7495861en_US
dc.publisherInstitute of Electrical and Electronics Engineers Inc.en_US


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record