Öztürk, Ceyhun EmreÖzçelik, Şemsi BarışKoç, Aykut2024-03-222024-03-222023-08-2897983503435642165-0608https://hdl.handle.net/11693/115089Date of Conference: 05-08 July 2023Conference Name: 31st IEEE Conference on Signal Processing and Communications Applications, SIU 2023In this work, BERTurk-Legal, a transformer-based language model, is introduced to retrieve prior legal cases. BERTurk-Legal is pre-trained on a dataset from the Turkish legal domain. This dataset does not contain any labels related to the prior court case retrieval task. Masked language modeling is used to train BERTurk-Legal in a self-supervised manner. With zero-shot classification, BERTurk-Legal provides state-of-the-art results on the dataset consisting of legal cases of the Court of Cassation of Turkey. The results of the experiments show the necessity of developing language models specific to the Turkish law domain.Bu çalışmada BERTurk-Legal isimli dönüştürücü tabanlı model emsal karar bulma görevinde kullanılmak üzere önerilmektedir. BERTurk-Legal’in ön eğitimi Türkçe hukuk alanında bir veri kümesi ile yapılmıştır. Bu veri kümesi emsal kararlar ile ilgili herhangi bir etiket bulundurmamaktadır. BERTurk-Legal maskeli dil modelleme kullanılarak kendiliğinden denetimli bir şekilde eğitilmiştir. BERTurk-Legal sınıflandırma görevi üzerinde eğitilmeksizin Yargıtay davalarından oluşan bir veri kümesinde literatürdeki en iyi sonuçları vermiştir. Deney sonuçları Türkçe hukuk alanına özel dil modelleri geliştirme gerekliliğini göstermektedir.TurkishNatural language processingLegal techDeep learningPrior legal case retrievalLegal NLPTurkish NLPDoğal dil işlemeHukuk teknolojileriDerin öğrenmeEmsal karar bulmaHukukta NLPTürkçe NLPA transformer-based prior legal case retrieval methodDönüştürücü tabanlı emsal karar bulma yöntemiConference Paper10.1109/SIU59756.2023.102239389798350343557