VANŽURA, Marek. Artificial moral experts? In Philosophy of risk, 4. 11. 2017, Eindhoven. 2017.
Další formáty:   BibTeX LaTeX RIS
Základní údaje
Originální název Artificial moral experts?
Název česky Umělí morální experti?
Autoři VANŽURA, Marek (203 Česká republika, garant, domácí).
Vydání Philosophy of risk, 4. 11. 2017, Eindhoven, 2017.
Další údaje
Originální jazyk angličtina
Typ výsledku Vyžádané přednášky
Obor 60300 6.3 Philosophy, Ethics and Religion
Stát vydavatele Nizozemské království
Utajení není předmětem státního či obchodního tajemství
Kód RIV RIV/00216224:14210/17:00098170
Organizační jednotka Filozofická fakulta
Klíčová slova česky umělá inteligence; fenomenologie; morální rozhodování
Klíčová slova anglicky artificial intelligence; phenomenology; moral decision making
Štítky rivok
Příznaky Mezinárodní význam
Změnil Změnil: Mgr. Marek Vanžura, Ph.D., učo 342586. Změněno: 5. 11. 2017 11:36.
Anotace
In his paper 'Artificial intelligence as a means to moral enhancement', Michał Klincewicz presents a form of human moral enhancement through proposed advisory systems based on artificial intelligence (AI). In this talk, I argue against potential usefulness of such systems. My argument is based on the principal difference in phenomenology of human mind and potential artificial mind. I claim that there might be no common ground for those two kinds of minds to agree upon when it comes to the new and complex moral decisions. Therefore, relying on such systems could lead to the solutions proposed by AI-based moral advisory systems that might not be acceptable or on a par with our preferences and/or values.
Anotace česky
V článku nazvaném „Umělá inteligence jako prostředek k morálnímu vylepšení" předkládá Michał Klincewicz návrh expertních systémů založených na umělé inteligenci, jež by mohly lidem pomáhat v řešení a rozhodování v morálně složitých situacích. Ve svém příspěvku argumentuji proti tomuto návrhu a zpochybňuji potenciální užitečnost takových systémů. Můj argument je postavený na principiálních rozdílech ve fenomenologii lidské mysli a potenciální mysli umělé inteligence. Tato odlišnost totiž může být příčinou nemožnosti shody na řešení nových či komplexních morálních situací. Využívání takových zařízení by proto mohlo vést k rozporu mezi lidskými hodnotami a preferencemi a řešeními navrhovanými poradními systémy založenými na umělé inteligenci.
Návaznosti
MUNI/A/0837/2016, interní kód MUNázev: Výzvy současné filozofie
Investor: Masarykova univerzita, Výzvy současné filozofie, DO R. 2020_Kategorie A - Specifický výzkum - Studentské výzkumné projekty
VytisknoutZobrazeno: 16. 8. 2024 08:26