A transformer-based prior legal case retrieval method

Date
2023-08-28
Editor(s)
Advisor
Supervisor
Co-Advisor
Co-Supervisor
Instructor
Source Title
2023 31st Signal Processing and Communications Applications Conference (SIU 2023)
Print ISSN
2165-0608
Electronic ISSN
Publisher
IEEE - Institute of Electrical and Electronics Engineers
Volume
Issue
Pages
1 - 4
Language
Turkish
Journal Title
Journal ISSN
Volume Title
Series
Abstract

In this work, BERTurk-Legal, a transformer-based language model, is introduced to retrieve prior legal cases. BERTurk-Legal is pre-trained on a dataset from the Turkish legal domain. This dataset does not contain any labels related to the prior court case retrieval task. Masked language modeling is used to train BERTurk-Legal in a self-supervised manner. With zero-shot classification, BERTurk-Legal provides state-of-the-art results on the dataset consisting of legal cases of the Court of Cassation of Turkey. The results of the experiments show the necessity of developing language models specific to the Turkish law domain.


Bu çalışmada BERTurk-Legal isimli dönüştürücü tabanlı model emsal karar bulma görevinde kullanılmak üzere önerilmektedir. BERTurk-Legal’in ön eğitimi Türkçe hukuk alanında bir veri kümesi ile yapılmıştır. Bu veri kümesi emsal kararlar ile ilgili herhangi bir etiket bulundurmamaktadır. BERTurk-Legal maskeli dil modelleme kullanılarak kendiliğinden denetimli bir şekilde eğitilmiştir. BERTurk-Legal sınıflandırma görevi üzerinde eğitilmeksizin Yargıtay davalarından oluşan bir veri kümesinde literatürdeki en iyi sonuçları vermiştir. Deney sonuçları Türkçe hukuk alanına özel dil modelleri geliştirme gerekliliğini göstermektedir.

Course
Other identifiers
Book Title
Citation
Published Version (Please cite this version)