J 2025

Tailored Fine-Tuning For The Comma Insertion In Czech

MACHURA, Jakub; Hana ŽIŽKOVÁ; Patrik STANO; Tereza VRABCOVÁ; Dana HLAVÁČKOVÁ et al.

Základní údaje

Originální název

Tailored Fine-Tuning For The Comma Insertion In Czech

Vydání

Jazykovedný časopis, Bratislava, Jazykovedný ústav Ľudovíta Štúra Slovenskej akadémie vied, 2025, 0021-5597

Další údaje

Jazyk

angličtina

Typ výsledku

Článek v odborném periodiku

Obor

60203 Linguistics

Stát vydavatele

Slovensko

Utajení

není předmětem státního či obchodního tajemství

Odkazy

Označené pro přenos do RIV

Ano

Organizační jednotka

Filozofická fakulta

EID Scopus

Klíčová slova anglicky

comma; Czech language; Fine-tuning; Large Language Model (LLM)

Štítky

Změněno: 19. 2. 2026 08:53, Mgr. et Mgr. Stanislav Hasil, Ph.D.

Anotace

V originále

Transfer learning techniques, particularly the use of pre-trained Transformers, can be trained on vast amounts of text in a particular language and can be tailored to specific grammar correction tasks, such as automatic punctuation correction. The Czech pre-trained RoBERTa model demonstrates outstanding performance in this task (Machura et al. 2022); however, previous attempts to improve the model have so far led to a slight degradation (Machura et al. 2023). In this paper, we present a more targeted fine-tuning of this model, addressing linguistic phenomena that the base model overlooked. Additionally, we provide a comparison with other models trained on a more diverse dataset beyond just web texts.

Návaznosti

OSCARS-01-247, interní kód MU
Název: Oscars - Opravidlo 2.0 – Public Online Proofreading Service
Investor: Evropská unie, Oscars - Opravidlo 2.0 – Public Online Proofreading Service, Výzkumné infrastruktury