D 2024

Towards Hybrid Evaluation Methodologies for Large Language Models in the Legal Domain

SANCHI, Marco a Tereza NOVOTNÁ

Základní údaje

Originální název

Towards Hybrid Evaluation Methodologies for Large Language Models in the Legal Domain

Autoři

SANCHI, Marco a Tereza NOVOTNÁ

Vydání

Amsterdam, Berlin, Washington DC, Frontiers in Artificial Intelligence and Applications, Vol. 395 Legal Knowledge and Information Systems. Proceedings of JURIX 2024. od s. 389-392, 4 s. 2024

Nakladatel

IOS Press BV

Další údaje

Jazyk

angličtina

Typ výsledku

Stať ve sborníku

Obor

50501 Law

Stát vydavatele

Nizozemské království

Utajení

není předmětem státního či obchodního tajemství

Forma vydání

elektronická verze "online"

Označené pro přenos do RIV

Ano

Kód RIV

RIV/00216224:14220/24:00138299

Organizační jednotka

Právnická fakulta

ISBN

978-1-64368-562-5

ISSN

EID Scopus

Klíčová slova anglicky

Large Language Models; Thematic Analysis; Performance Evaluation

Štítky

Příznaky

Mezinárodní význam, Recenzováno
Změněno: 4. 4. 2025 13:29, Mgr. Petra Georgala

Anotace

V originále

This paper analyses automated and human-driven evaluation approaches for Large Language Models (LLMs) performance in the legal domain, stressing the need to combine both into hybrid evaluation frameworks. This conclusion is reinforced by a qualitative case study that uncovers assessment factors considered by lawyers when using LLMs. The diverse nature of these factors, requiring distinct evaluation approaches, underscores the need for adopting a hybrid methodology.