Morálne aspekty v rámci rozhodovania umelej inteligencie
![]() |
Trenčianska Univerzita Alexandra Dubčeka v Trenčíne
Fakulta Mechatroniky |
![]() |
Morálne aspekty v rámci rozhodovania umelej inteligencie
Esej |
Autor: | Bc. Marián Kluvanec
|
Pedagogický vedúci: | Ing. Andrea Julény |
Študijný odbor: | Manažérstvo kvality produkcie
|
Akademický rok | 2010 / 2011
|
Abstrakt
|
Abstract
|
Obsah
Úvod
Niektoré živočíšne druhy sú schopné efektívne reagovať na zložité prejavy prostredia a využívať ich vo svoj prospech a k svojmu cieľu. Najefektívnejšie zo všetkých organizmov to dokáže človek. Postupom s rozvojom techniky ľudia bližšie špecifikovali využívanie svojich poznatkov, chovania a nazvali tento súbor činností slovom inteligencia.
Prirodzeným vývinom vznikla otázka, či je možné aby sa prejavila inteligencia u neživých predmetov za pomoci človeka. Vednou disciplínou, ktorá tento odbor skúma je umelá inteligencia. Čo rozumieme pod pojmom umelá inteligencia? Je to vedná disciplína, ktorá za pomoci počítačov, alebo systémov rieši určité úlohy využívaním takého postupu, ktorý keby to robil človek, považovali by sme tento prejav za inteligenciu.
Ľudstvo dospelo do bodu, že na definíciu umelej inteligencie neexistuje jednotná teória, nakoľko má veľmi široký rozsah poznania. Základom umelej inteligencie je vytváranie, vnímanie a uchovávanie vedomostí racionálneho myslenia, pričom sa riadi zákonitosťami vedecky poznateľnými tak, aby sa mohli realizovať pomocou počítačov [1].
Rozhodovanie umelej inteligencie
Systémy so zabudovanými prvkami umelej inteligencie sa využívajú na podporu riešenia rôznych druhov problémov. Mnohé z nich majú charakter rozhodovania. Často ide o veľmi náročné a zodpovedné rozhodovanie. A keďže práve pri rozhodovaní vznikajú mnohé morálne problémy, budem sa v nasledujúcich častiach venovať práve jemu. Rozhodovanie môžeme v podstate definovať ako heuristické hľadanie medzi alternatívami v problémovom priestore možných smerov konania s cieľom dosiahnuť preferovanú množinu následkov. Najúspešnejšie programy v umelej inteligencii, ako STRIPS alebo SHRDLU, boli založené na tomto princípe. Reprezentatívnym príkladom rozhodovania v dobre definovanom problémovom priestore je šachová hra.
Avšak reálne životné situácie sa vyznačujú tým, že problémový priestor nie je definovaný jasne. Väčšina, ak nie všetky kľúčové rozhodnutia, s ktorými sú konfrontovaní manažéri, majú hmlisté problémy, ktorým celkom dobre nerozumejú ani oni sami, ani ich organizácia, a pri rozhodnutí sa stáva podstatný ich osobný úsudok. Podstatou inteligencie je schopnosť konať primerane práve keď nie je daná žiadna jednoduchá preddefinícia problému alebo priestorových stavov, v ktorom by sme vyhľadali riešenie.
Inteligentný subjekt teda musí v záplave zmyslových vnemov rozpoznať to podstatné. Musí najprv štruktúrovať prostredie do objektov, uvedomiť si ich podstatné vlastnosti a odhaliť zákonitosti, ktoré medzi nimi platia. Kontinuum bohatej reality možno rozčleniť viacerými spôsobmi. Spôsob vyčlenenia podstatných prvkov a rozčlenenia problémového priestoru potom zásadne ovplyvní aj výsledok, ktorý nakoniec dostaneme [2].
Rozhodovanie umelej inteligencie v praxi
Je známych niekoľko prípadov používania systémov na podporu rozhodovania napríklad v zdravotníctve. Môžem spomenúť systém APACHE 10, ktorý vyvinuli na Uni¬verzite G. Washingtona. Slúži na odhadovanie pravdepodobnosti, že vážne chorý pacient v nemocnici zomrie. Ukázalo sa, že v tomto predpovedaní je oveľa lepší ako lekári. Z 850 skúmaných pacientov ležiacich na jednotkách intenzívnej sta¬rostlivosti, lekári predpovedali, že 25,5 % zomrie, systém predpovedal 19,7 %. V skutočnosti zomrelo 20,7 % pacientov.
Ďalej napríklad lekári označili 46 pacientov, že majú 90 % pravdepodobnosť úmrtia. Z nich zomrelo iba 62 %. Systém označil 19 pacientov, že majú 90 % pravdepodobnosť úmrtia, z nich zomrelo všetkých 19. Práve tu je vhodné položiť si otázku: aká je vôbec výhoda použitia takéhoto systému? Odpoveď je jednoduchá: zdrojov je skoro vždy nedostatok. Je výhodnejšie, ak slúžia prednostne tým, ktorí majú lepšiu nádej na prežitie.
Môže to pomôcť tomu, aby sa predišlo poskytovaniu drahých liečebných procedúr pacientom, ktorí aj tak zomrú. Môže to pomôcť rozhodnúť, ktorý pacient už nepotrebuje intenzívnu starostlivosť. Len na skrátení pobytov pacientov, ktorým sa už stav zlepšoval, na jednotke intenzívnej starostlivosti, kde je cena za deň pobytu vysoká, by sa ušetrili ročne milióny.
Na druhej strane, ak sa pacientovi s veľmi vysokou pravdepodobnosťou predpovedá, že zomrie, uľahčuje to príbuzným rozhodnutie odpojiť pacienta od prístrojov. Uvediem prípad 77-ročnej ženy, ktorej sa predpovedalo sedem dní po sebe s pravdepodobnosťou 99 %, že zomrie. Jej manžel sa preto rozhodol, aby ju odpojili od prístrojov, no čoskoro sama zomrela. Ako ďalšia výhoda sa uvádza, že výrazná zmena odhadu pravdepodobnosti úmrtia je významným signálom pre lekára, aby zvažo¬val zmenu liečby [3].
Morálne aspekty rozhodovania umelej inteligencie
Aké morálne aspekty prichádzajú napríklad pri spomínanej počítačovej pod¬pore rozhodovania v zdravotníctve s využitím umelej inteligencie, do úvahy? Možno sformulovať hneď niekoľko otázok. Majú sa vôbec počítače používať pri rozhodnutiach týkajúcich sa bezprostredne života alebo smrti? Vážnym rizikom je, že systém môže robiť odporúčanie pre rozhodnutie v situácii, v ktorej jeho správnosť netestovali.
Situácia môže zahŕňať predpoklady, o ktorých sa pri navrhovaní systému neuvažovalo. Jeden príklad na to je americký softvér na riadenie leteckej premávky, ktorý sa nedal použiť na londýnskom letisku, pretože nedokázal riadiť lietadlá, ktoré prekračovali nultý poludník. Iným rizikom môžu byť samotné pôvodne uvažované predpoklady, ktoré sa časom môžu zmeniť, ale v systéme zostávajú nezmenené.
Možnou výhodou použitia takého systému naopak je, že vôbec nediskriminuje ani podľa veku, ani podľa pôvodu a ani podľa schopnosti platiť. Vraví sa, že mnoho lekárov zvykne pripisovať veku pacienta väčší význam pre pravdepodob¬nosť jeho prežitia, než v skutočnosti má. Vážny problém vznikne, ak systém odporučí nesprávne rozhodnutie. Lekár, ktorý nebude rešpektovať také odporúčanie na základe vlastnej intuície alebo skúsenosti, sa vystavuje v prípade, že pacient predsa len zomrie, riziku právneho postihu. Prakticky sa stane nasadením takého systému lékarovi ťažším používať vlastný úsudok.
Oblastí, v ktorých systémy na podporu rozhodovania využívajú, je viacero. Použitie takýchto systémov v armáde si vynucuje potreba čo najrýchlejšej odpovede na útok. Príkladom by mohol byť systém, ktorý odporúča rozhodnutie, kedy začať útok. Odporúčanie robí na základe pravidiel, ktoré sa uvažovali v čase jeho navrhovania. Odvtedy sa však celkové podmienky mohli zmeniť a odporúčanie systému im nemusí adekvátne zodpovedať. Ide však o odporúčanie, ktoré môže mať za následok vojnu alebo mier [3].
Etické aspekty rozhodovania umelej inteligencie
Zrejme nie každá oblasť, v ktorej sa má použiť inteligentný systém, je rovnako citlivá na etické a spoločenské súvislosti. Ako postupovať v prípade eticky citli¬vých oblastí?
Počítače by nikdy nemali robiť rozhodnutia, ktoré chcú robiť ľudia. Predpokladajme, že naozaj dokáže systém robiť lepšie rozhodnutia než lekár. Ak bude robiť rozhodnutia stále systém, časom stratia lekári túto schopnosť. To však nechceme. Chceme, aby si lekári nielen zachovali schopnosť liečiť, ale ju dokonca zlepšovali a učili sa nové znalosti (možno aj preto, aby ich mohli odovzdať novým znalostným systémom).
Pokušenie je v tom, že ak nejaký systém robí niečo veľmi dobre, ľudia si môžu povedať, že takú zručnosť už viac nepotrebujú. Nie je napríklad jasné, nakoľko potrebujú študenti vedieť všetky prípady a postu¬py integrovania. Veď to môžu prenechať matematikom a tí môžu ukázať programátorom, ako sa to má robiť. Programátori môžu napísať program na symbolické integrovanie. Nakoniec sa na výpočty potrebné pri navrho¬vaní nového mostu bude používať systém ako je Mathematica, lebo je to spoľahlivejšie.
Počítače by nikdy nemali robiť rozhodnutia, ktoré nemôžu ľudia zrušiť. Ide tu o otázku, či by človek nemal mať vždy možnosť zastaviť vykonanie rozhodnutia, ktoré urobil systém. Jeden druh rizika je v tom, že systém, keď človek zmení jeho rozhodnutie, by sa mohol začať správať nespráv¬nym spôsobom. Naopak uvažujme systém, ktorého rozhodnutia nemôže človek zmeniť. Napríklad niektoré typy lietadiel sú vybavené takým riadiacim systémom, ktorý môže zmeniť príkazy pilota tak, že zmeny nemôže pilot zrušiť [3].
Existujú aj iné etické otázky, ktoré prináša rozvoj umelej inteligencie a expertných systémov. Jednou z nich je aj financovanie výskumu umelej inteligencie z vojenských zdrojov. Dnes ešte riadia zbrojné systémy ľudia, ktorí majú emócie a svedomie a dokážu si predstaviť výsledok toho, čo by sa stalo, keby použili napríklad nukleárne zbrane hromadného ničenia, a chápu morálne a etické záväzky. Práve toto všetko počítače, presne sa riadiace danými inštrukciami, nevedia a dlho alebo možno ani nikdy vedieť nebudú [4].
Morálna zodpovednosť za rozhodnutia
Jednou z najdôležitejších otázok je: aká je morálna zodpovednosť za rozhodnutia, ktoré urobí systém? Ten, kto robí rozhodnutia v súlade s morálkou, by mal nielen po¬znať všetky relevantné fakty a mať relevantné znalosti, ale nemal by sa jedno¬stranne prikláňať k jednému druhu rozhodnutí, nemal by byť zaslepený a mal by si dokázať predstaviť pocity a okolnosti účastníkov, ktorých sa rozhodnutie môže dotýkať. Ak ide o systém, dá sa uvažovať o splnení prvých troch atribútov, avšak posledný je asi nedosiahnuteľný.
Môže systém poznať všetky relevantné fakty a mať relevantné znalosti? Systém môže síce obsahovať veľké množstvo poznatkov, ale určite nie všetko, čo vie expert. Obzvlášť ak sa jedná o expertove znalosti, teda schopnosť reťazením poznatkov riešiť problémy. Okrem toho bude rozsah poznatkov systému užší aj preto, že znalostný systém sa má sústrediť len na určitú vymedzenú oblasť. Systémy nemajú predsudky. Systém by však mohol byť s nejakým predsudkom navrhnutý. Znalostný inžinier mohol doňho zahrnúť svoju zaujatosť v otázke rozhodovania, či vstúpiť do vojny [3].
Právna zodpovednosť za rozhodnutia
Inou rovinou problematiky, ktorá veľmi úzko súvisí s morálkou v rámci umelej inteligencie, a ktorú som si nemohol dovoliť opomenúť, je právna zodpovednosť za rozhodnutia, ktoré urobí systém. Kto je zodpovedný, ak odporučí znalostný systém zlé rozhodnutie, ktoré spôsobí vážnu ujmu na zdraví alebo majetku? Zodpovedá za to expert? Znalostný inžinier? Dodávateľ systému? Koncový pou¬žívateľ? V niektorých prípadoch je odpoveď jednoduchá, v iných prípadoch je veľmi obtiažne nájsť odpoveď.
Ľahko sa prisúdi zodpovednosť znalostnému inžinierovi v prípade, že do návrhu systému voviedol chyby v dôsledku toho, že neporozumel expertovi. Ľahko zostane zodpovednosť na koncovom používateľovi, ak si zle vyložil výstupy systému. Ťažšie sa hľadá zodpovednosť, ak existujú v danej oblasti medzi expertami rôz¬ne názory a s niektorými poznatkami formulovanými expertom časť príslušnej odbornej pospolitosti nesúhlasí. Nejakú časť zodpovednosti musí na seba prevziať aj dodávateľ v prípadoch, keď je chyba na strane experta alebo znalostného inžiniera [3].
Ako príklad právnej zodpovednosti za rozhodnutia systémov uvediem prípad, ktorý sa odohral v roku 1986 v USA, kde podstúpila Julie Engle rutinnú operáciu, ktorá prebehla bez komplikácií. Nanešťastie jej po nej prístroj v nemocnici omylom do tela vpravil väčšie množstvo liekov proti bolesti, následkom čoho upadla do kómy, z ktorej sa už neprebrala. Zhodou okolností bola sekretárkou Vilberta Keslera, právnika, ktorý okamžite zažaloval nemocnicu o náhradu škody za nezodpovedné použitie medicínskeho systému.
Ak takáto jednoduchá aplikácia umelej inteligencie môže spôsobiť tragédiu, predstavme si, čo by sa mohlo stať v prípade zložitejších systémov, vyvíjanými americkými spoločnosťami, ktoré vlastnia databázy osobných či finančných dát, a vyvíjajú systémy pre odhaľovanie pašerákov a potenciálnych teroristov, systémy pre analýzu násilnej trestnej činnosti alebo vyhľadávanie bánk, ktoré perú špinavé peniaze. V prípade armádnych obranných a útočných systémov riadených počítačmi by mohli byť následky zlyhania fatálne [4].
Záver
V závere môžem konštatovať, že pozitívnym dôsledkom fenoménu stále väčšieho využívania umelej inteligencie môže byť, že sa človek prestane zaujímať o fyzickú stránku bytia a upriami svoju pozornosť viac na svoju duchovnú stránku, ktorá rozhodne zaostáva za technickou vybavenosťou ľudstva. Pravdepodobný negatívny dôsledok je však vznik ďalších problémov v oblasti nezamestnanosti a straty tvorivosti.
Je nutné si tiež povedať, že pokiaľ je človek schopný a ochotný predať svoje návyky, zvyky a znalosti strojom, je nutné aby sa mu to nevymklo z rúk. Istým spôsobom je to hranie sa na Boha a momentálne nie sme pripravení po duševnej a ani psychickej stránke zvládnuť otázku morálky a podstaty samotného bytia. Môžeme len dúfať, že to nedopadne ako vo filme A.I. - Umelá inteligencia, kde prežil jeden jediný stroj, ktorý bol ľudskejší ako ľudia, pretože ľudia pod obrovským rozmachom vedy a techniky začali menej vnímať svoju duchovnú časť a vymreli. Vždy záleží od nás ľudí ako dokážeme so svojimi poznatkami naložiť.
To, čo som v rámci tejto práce uviedol, zďaleka nemôže pokryť celú problematiku morálnych aspektov v rámci umelej inteligencie. Mojou snahou bolo upozorniť na niektoré otázky a prispieť tak k uvedomeniu si ich dôležitosti. Ich pochopenie a rešpektovanie je nevyhnutné aj pri vytváraní inteligentných systémov. Na mieste je skôr opatrnosť: nevypláca sa zavádzať inteligentné systémy bez toho, aby sme dobre porozumeli, aké sú možné dopady.
Použitá literatúra
[1] http://sk.wikipedia.org/wiki/Umel%C3%A1_inteligencia
[2] www.bdelost.sk/casopis/pdf/LB0504_4.pdf
[3] Pavol Návrat a kolektív: UMELÁ INTELIGENCIA
[4] www.perchta.fit.vutbr.cz/vyuka-aps/uploads/6/Umela%20inteligence.doc