VANŽURA, Marek. Artificial moral experts? In Philosophy of risk, 4. 11. 2017, Eindhoven. 2017. |
Další formáty:
BibTeX
LaTeX
RIS
|
Základní údaje | |
---|---|
Originální název | Artificial moral experts? |
Název česky | Umělí morální experti? |
Autoři | VANŽURA, Marek (203 Česká republika, garant, domácí). |
Vydání | Philosophy of risk, 4. 11. 2017, Eindhoven, 2017. |
Další údaje | |
---|---|
Originální jazyk | angličtina |
Typ výsledku | Vyžádané přednášky |
Obor | 60300 6.3 Philosophy, Ethics and Religion |
Stát vydavatele | Nizozemské království |
Utajení | není předmětem státního či obchodního tajemství |
Kód RIV | RIV/00216224:14210/17:00098170 |
Organizační jednotka | Filozofická fakulta |
Klíčová slova česky | umělá inteligence; fenomenologie; morální rozhodování |
Klíčová slova anglicky | artificial intelligence; phenomenology; moral decision making |
Štítky | rivok |
Příznaky | Mezinárodní význam |
Změnil | Změnil: Mgr. Marek Vanžura, Ph.D., učo 342586. Změněno: 5. 11. 2017 11:36. |
Anotace |
---|
In his paper 'Artificial intelligence as a means to moral enhancement', Michał Klincewicz presents a form of human moral enhancement through proposed advisory systems based on artificial intelligence (AI). In this talk, I argue against potential usefulness of such systems. My argument is based on the principal difference in phenomenology of human mind and potential artificial mind. I claim that there might be no common ground for those two kinds of minds to agree upon when it comes to the new and complex moral decisions. Therefore, relying on such systems could lead to the solutions proposed by AI-based moral advisory systems that might not be acceptable or on a par with our preferences and/or values. |
Anotace česky |
---|
V článku nazvaném „Umělá inteligence jako prostředek k morálnímu vylepšení" předkládá Michał Klincewicz návrh expertních systémů založených na umělé inteligenci, jež by mohly lidem pomáhat v řešení a rozhodování v morálně složitých situacích. Ve svém příspěvku argumentuji proti tomuto návrhu a zpochybňuji potenciální užitečnost takových systémů. Můj argument je postavený na principiálních rozdílech ve fenomenologii lidské mysli a potenciální mysli umělé inteligence. Tato odlišnost totiž může být příčinou nemožnosti shody na řešení nových či komplexních morálních situací. Využívání takových zařízení by proto mohlo vést k rozporu mezi lidskými hodnotami a preferencemi a řešeními navrhovanými poradními systémy založenými na umělé inteligenci. |
Návaznosti | |
---|---|
MUNI/A/0837/2016, interní kód MU | Název: Výzvy současné filozofie |
Investor: Masarykova univerzita, Výzvy současné filozofie, DO R. 2020_Kategorie A - Specifický výzkum - Studentské výzkumné projekty |
VytisknoutZobrazeno: 14. 10. 2024 19:07