2024
Towards Hybrid Evaluation Methodologies for Large Language Models in the Legal Domain
SANCHI, Marco a Tereza NOVOTNÁZákladní údaje
Originální název
Towards Hybrid Evaluation Methodologies for Large Language Models in the Legal Domain
Autoři
SANCHI, Marco a Tereza NOVOTNÁ
Vydání
Amsterdam, Berlin, Washington DC, Frontiers in Artificial Intelligence and Applications, Vol. 395 Legal Knowledge and Information Systems. Proceedings of JURIX 2024. od s. 389-392, 4 s. 2024
Nakladatel
IOS Press BV
Další údaje
Jazyk
angličtina
Typ výsledku
Stať ve sborníku
Obor
50501 Law
Stát vydavatele
Nizozemské království
Utajení
není předmětem státního či obchodního tajemství
Forma vydání
elektronická verze "online"
Odkazy
Označené pro přenos do RIV
Ano
Kód RIV
RIV/00216224:14220/24:00138299
Organizační jednotka
Právnická fakulta
ISBN
978-1-64368-562-5
ISSN
EID Scopus
Klíčová slova anglicky
Large Language Models; Thematic Analysis; Performance Evaluation
Štítky
Příznaky
Mezinárodní význam, Recenzováno
Změněno: 4. 4. 2025 13:29, Mgr. Petra Georgala
Anotace
V originále
This paper analyses automated and human-driven evaluation approaches for Large Language Models (LLMs) performance in the legal domain, stressing the need to combine both into hybrid evaluation frameworks. This conclusion is reinforced by a qualitative case study that uncovers assessment factors considered by lawyers when using LLMs. The diverse nature of these factors, requiring distinct evaluation approaches, underscores the need for adopting a hybrid methodology.