2025
Tailored Fine-Tuning For The Comma Insertion In Czech
MACHURA, Jakub; Hana ŽIŽKOVÁ; Patrik STANO; Tereza VRABCOVÁ; Dana HLAVÁČKOVÁ et al.Základní údaje
Originální název
Tailored Fine-Tuning For The Comma Insertion In Czech
Autoři
Vydání
Jazykovedný časopis, Bratislava, Jazykovedný ústav Ľudovíta Štúra Slovenskej akadémie vied, 2025, 0021-5597
Další údaje
Jazyk
angličtina
Typ výsledku
Článek v odborném periodiku
Obor
60203 Linguistics
Stát vydavatele
Slovensko
Utajení
není předmětem státního či obchodního tajemství
Odkazy
Označené pro přenos do RIV
Ano
Organizační jednotka
Filozofická fakulta
EID Scopus
Klíčová slova anglicky
comma; Czech language; Fine-tuning; Large Language Model (LLM)
Štítky
Změněno: 19. 2. 2026 08:53, Mgr. et Mgr. Stanislav Hasil, Ph.D.
Anotace
V originále
Transfer learning techniques, particularly the use of pre-trained Transformers, can be trained on vast amounts of text in a particular language and can be tailored to specific grammar correction tasks, such as automatic punctuation correction. The Czech pre-trained RoBERTa model demonstrates outstanding performance in this task (Machura et al. 2022); however, previous attempts to improve the model have so far led to a slight degradation (Machura et al. 2023). In this paper, we present a more targeted fine-tuning of this model, addressing linguistic phenomena that the base model overlooked. Additionally, we provide a comparison with other models trained on a more diverse dataset beyond just web texts.
Návaznosti
| OSCARS-01-247, interní kód MU |
|