Juraj sa venuje témam etiky digitálnych technológií a hodnotovo orientovaného dizajnu. V minulosti pôsobil na Filozofickom ústave SAV, kde sa zaoberal analytickou filozofiou a sémantikou. Aktuálne vedie oddelenie Customer Success v technologickej spoločnosti Pygmalios. Juraj je člen pracovnej skupiny slovak.AI pre reguláciu a etiku, a príležitostný básnik a hudobník.
Prečo si sa začal zaoberať témou etiky digitálnych technológií?
Bude to tak trocha dedičstvo, ktoré si ako bývalý profesionálny filozof nesiem so sebou pri všetkom, čo robím. Vo svojom filozofickom výskume som sa pôvodne špecializoval na iné ako etické témy, konkrétne na logiku a sémantiku. Ale to, čo som neskôr počas pôsobenia v rôznych IT firmách videl a zažil, vo mne vyvolalo mnohé otázky aj pochybnosti.
Pýtal som sa samého seba, či nie je možné robiť niektoré veci inak. Tieto otázky mali do veľkej miery etickú povahu a ja som pre ne chcel nájsť odpovede, ktoré by ma ako filozofa, ale aj ako človeka uspokojili. V etike digitálnych technológií potrebujete mať okrem znalostí z IT prostredia aj dobrý filozofický základ, takže mi moje predchádzajúce skúsenosti prišli celkom vhod.
Rovnako si však naplno uvedomujem, že poctivejší výskum v tejto oblasti si aj na Slovensku bude vyžadovať sústredené úsilie mnohých profesionálov, či už na strane filozofov alebo itéčkárov. Preto budem veľmi rád, ak sa nám podarí prilákať k etike digitálnych technológií ďalších záujemcov
Pri slove etika si spomeniem na povinný semester filozofie a mená ako Platón a Sokrates. Títo veľkí myslitelia ale nemali internet. Ako teda môžu byť ich myšlienky pre nás dnes v týchto oblastiach relevantné?
Sokrates, Platón a Aristoteles predstavujú základ našej európskej intelektuálnej tradície. Otvorili množstvo tém, ktorými sa zaoberáme dodnes. Vážne, skúste si prečítať takú Obranu Sokratovu alebo Aristotelovu Etiku.
Pre nás je nanajvýš aktuálne, že už veľkí grécki myslitelia sa veľmi zaujímali o miesto človeka v spoločnosti. Chápali, aké je dôležité, aby sme si všímali a aktívne formovali priestor, v ktorom žijeme a pracujeme. Zamýšľali sa nad ideálnym spôsobom riadenia svojich mestských štátov.
Aj keď nepovažovali demokraciu za ideálnu formu riadenia, centrálnou pre nich bola myšlienka, že dobré usporiadanie vecí verejných vychádza zo správneho usporiadania našich vlastných túžob a postojov. Že dobre spravované mesto alebo štát tvorí spoločenstvo ľudí s pevným morálnym kompasom. A že technológie nie sú hodnotou samou o sebe ale prostriedkom pre to, aby sme prežili dobrý život. To je podľa mňa silné a stále aktuálne posolstvo.
Čo presne znamená pojem etika digitálnych technológií?
Vďaka rýchlo sa rozvíjajúcim digitálnym technológiám dokážeme dnes veľmi veľa. Otázka je, čo z toho, čo je technicky možné, je aj morálne správne alebo dobré.
Preto sa snažíme v rámci etiky informačných alebo digitálnych technológií všímať si morálne problémy, ktoré súvisia s dizajnom, vývojom a používaním už existujúcich, ale aj ešte sa len rodiacich sa technologických služieb a produktov.
Kde na nás všade číha AI (umelá inteligencia) v bežnom živote už teraz?
Umelá inteligencia je nástroj, ktorý nám pomáha zefektívniť rôzne ľudské činnosti, a to tak, že spracováva a vyhodnocuje podnety zo svojho okolia a potom navrhuje kroky, ktoré slúžia na dosiahnutie stanoveného cieľa. Filtruje spam v doručených e-mailoch, posudzuje nahlásené poistné udalosti, vytvára predikcie o správaní na finančných trhoch, komunikuje s vami cez chat internetových poradní alebo riadi autonómne vozidlá a stroje.
Toto všetko sú príklady takzvanej úzkej AI, ktorá je vždy prispôsobená iba na plnenie úzko vymedzeného okruhu úloh. Niektoré výskumné tímy sa preto snažia o tzv. všeobecnú AI, ktorá dokáže univerzálne vykonávať rôzne racionálne činnosti na úrovni človeka, resp. ho ako superinteligencia aj prekonať. Tak ďaleko však podľa všetkého ešte nie sme. Preto ak sa rozprávame o umelej inteligencii, budeme mať na mysli predovšetkým tú úzku špecializovanú umelú inteligenciu.
Je v poriadku, že umelá inteligencia v tak veľkej miere zasahuje do nášho súkromia? Napríklad, ak ideme do obchodu, už nás niekto “sleduje”.
To je dobrá otázka. Pri vývoji a nasadzovaní týchto technológií vznikajú rôzne dilemy. Máme si ctiť ľudské hodnoty, ako je napríklad súkromie, alebo je sloboda nad materiálnymi hodnotami, akým je generovanie zisku pre akcionárov?
Firma, pre ktorú aktuálne pracujem, sa napríklad venuje tzv. in-store analytike. To znamená, že pomocou rôznych senzorov zbierame a analyzujeme dáta o správaní zákazníkov vo fyzickom priestore, napríklad v obchode. Dokonca vytvárame predikcie o budúcom správaní zákazníkov predajne. Vďaka tomu môžeme pomôcť napríklad upraviť otváracie hodiny podľa reálneho záujmu zákazníkov, nastaviť zmeny zamestnancov na predajni podľa frekvencie návštevnosti, overiť dizajn obchodu, jeho prehľadnosť a uloženie produktových zón či pomôcť skrátiť čakanie v rade na pokladniach.
To na jednej strane umožňuje obchodníkovi pochopiť správanie a potreby svojich zákazníkov, na druhej strane pomáhame aj zákazníkom prispôsobiť obchodný priestor ich potrebám tak, aby sa v ňom cítili prirodzene a radi sa do neho vracali.
Je to vôbec v súlade s GDPR (Všeobecné nariadenie o ochrane osobných údajov, pozn. red.)?
Ak pri tom nezbierate osobné dáta, podľa ktorých sa dá identifikovať konkrétny človek, je to, zjednodušene povedané, v súlade s GDPR. Ale aj keď splníte všetky zákonné obmedzenia, stále sa môžete ako človek zamýšľať nad otázkou, kde je hranica, po ktorú ako majiteľ firmy alebo jej zamestnanec chcete ísť.
U nás je to napríklad úroveň agregácie dát, takže sa snažíme neanalyzovať správanie jednotlivca, ale sústrediť sa na vzorce správania celej skupiny.
Extrémnym príkladom používania takýchto technológií za hranicu je sociálny kreditný systém, ktorý používa napr. Čína. Ten zbiera a vyhodnocuje veľmi detailné údaje o jednotlivých občanoch s cieľom klasifikovať ich do tried s rôznymi právami, ale aj obmedzeniami, napr. pri cestovaní alebo žiadosti o úver.
Čo napríklad deti a technológie. Máme deťom dovoliť sa hrať počítačové hry?
Možno je to skôr otázka pre psychológa. Pojem videohra je navyše široký. Obsahuje všetko od šachu na mobile až po simulácie vojnových konfliktov či erotiky vo virtuálnej realite.
Osobne stále hrám videohry, hrávam ich s manželkou aj so svojim päťročným synom. Najradšej má exploratívne hry a simulátory. Aj z tohto hľadiska chápem videohry ako nadstavbu spoločenských hier v tom, že hlbšie prekračujú hranice medzi fyzickým a virtuálnym priestorom.
Keďže virtuálny priestor začína byť vo videohrách čoraz viac realistický, najneskôr v momente, keď začneme virtuálny priestor pokladať za reálny, budeme nútení oprášiť diskusiu o morálke určite aj tam.
Dovtedy by sme si mohli vystačiť s princípmi, s ktorými narába už etika masmediálneho priestoru. Ja sa ako rodič vyhýbam zobrazovaniu násilia, ale aj iného nemorálneho správania pred svojimi deťmi. Ale nielen vo videohrách. To isté pre mňa platí aj pre filmy, divadlo či knihy.
Ide o to, čo prezentujeme svojim deťom ako bežnú normu spoločenského správania. V tomto ohľade hry nie sú iné ako ostatné formy nášho sebavyjadrenia a medziľudskej komunikácie.
Ak hrajú deti online hru, záleží na tom, keď si tam postavy navzájom ubližujú, napríklad po sebe strieľajú? Môžeme si predsa myslieť, že sú to len virtuálne postavy vo vymyslenom svete, ktorý nemá presah do toho nášho reálneho.
Je to iné, ako keď sa hráči zabíjajú v spoločenskej alebo doskovej hre? Je to iné, ako keď sme ako deti po sebe mierili atrapami zbraní pri hre na vojakov?
Podľa mňa môže byť rozdiel v miere privykania si na to, čo je vlastne normálne a v uvedomovaní si, kedy sa nachádzame vo virtuálnom priestore hry, ktorá môže mať iné pravidlá a kedy tento priestor opúšťame.
Veľmi malé deti majú problém rozlišovať virtuálny priestor od reálneho. Prečo by sme potom mali dovoliť týmto deťom sledovať, prípadne sa zúčastňovať na násilnom konaní? Ja to vnímam ako problém akceptovania nemorálneho konania ako normy a následnej neschopnosti odlíšiť, že už nie sme vo virtuálnom, ale v reálnom priestore.
Stáva sa už dnes, že o nás počítače rozhodujú?
Áno, aj keď to závisí od toho, čo myslíme ako “rozhodovanie o nás”. Umelá inteligencia je v súčasnosti tak trochu obeťou svojej mediálnej slávy. V skutočnosti dokáže omnoho menej, ako by sa niekedy mohlo zdať, ale na druhej strane je prítomná v našich životoch omnoho viac, ako si uvedomujeme.
Každopádne, ešte stále nežijeme v područí Skynetu či Matrixu. Úzka umelá inteligencia je nástroj, ktorý optimalizuje ľudskú prácu a pomáha nám pri rozhodovaní. A áno, toto rozhodovanie sa môže týkať aj iných ľudí.
Je to tak správne? Kedy by nemali?
To je v súčasnosti jedna z najčastejšie diskutovaných tém v rámci etiky umelej inteligencie. Dôležitá je tu miera, do akej dovolíme stroju rozhodovať aj bez nášho vedomia. Musíme sa naučiť riadiť toto riziko a všímať si, aký je dopad prípadného zlého rozhodnutia a aká je jeho pravdepodobnosť. Toto poznanie nám potom poslúži aj pri návrhu miery ľudskej autonómie, resp. autonómie stroja.
Napríklad skladbu akciového letáka, ktorý vám príde do mailu, asi môžeme vo väčšine prípadov zveriť umelej inteligencii, ak sa zhodneme na tom, že dopad na ľudí nie je závažný. Na druhej strane diagnostiku onkologických ochorení by sme sa asi nemali ponechať len strojom, ale mali by sme vedieť zabezpečiť nejakú formu ľudského dohľadu.
Keď niekomu ublíži robotická kosačka, kto nesie zodpovednosť? Výrobca, predajca či majiteľ?
Otázky zodpovednosti a súkromia sú v rámci etiky AI absolútne zásadné a pri ich zodpovedaní sa naplno odhaľuje potreba dôkladnej etickej diskusie.
Ak máme robota vybaveného umelou inteligenciou, čo sme to vlastne stvorili? Neživý artefakt, ktorý vykonáva natrénované činnosti s istou mierou adaptácie? Alebo niečo viac?
Otázka sa skôr týka toho, o akej forme zodpovednosti hovoríme. Teda či nás zaujíma len to, kto je bezprostredne zodpovedný za nejaký negatívny jav (responsibility), kto je braný na zodpovednosť, keď sa niečo stane (accountability) alebo kto má na starosti napravenie negatívnych dopadov (liability).
Pri každej z týchto foriem je navyše situácia skomplikovaná minimálne dvoma vecami. Tou prvou je určenie zodpovednosti za tímovú alebo kolektívnu prácu. Budú zodpovední všetci členovia tímu alebo len niektorí a ktorí z nich presne?
Tou druhou je vystopovateľnosť a vysvetliteľnosť rozhodnutí umelej inteligencie. Čo môže byť pri algoritmoch umelej inteligencie, ktorá používa napríklad neurónové siete, veľmi náročné.
V prípade autonómnych automobilov sa uvažuje nad zavedením povinného poistenia, do ktorého by prispievali všetci pasažieri autonómnych áut. V prípade nehody by sa potom obete a ich rodiny odškodnili z toto fondu.
Ale tým pádom sa tu primárne rieši tá tretia, remediačná zodpovednosť a ostatné dve sa zanedbávajú, s čím ja osobne veľmi nesúhlasím. Aj tu sa ukazuje, aká dôležitá je etická alebo filozofická debata ešte predtým, ako pustíme k slovu právnikov alebo politikov.
Vieš si raz predstaviť, že by zodpovednosť niesla samotná kosačka, ak je inteligentná?
Ak sa bavíme o tej prvej forme zodpovednosti (reliability), potom si povedzme, čo to znamená byť za niečo zodpovedný.
Pokojne vychádzajme z aristotelovskej definície zodpovednosti. Zodpovednosť podľa nej pochádza okrem iného aj z našej schopnosti konať slobodne. To znamená, že na jednej strane musí ísť o vnútorné rozhodnutie, nie rozhodnutie nanútené zvonka. Za druhé by sme si mali byť vedomí toho, čo konáme, alebo si byť vedomí dôsledkov svojej činnosti.
Potrebujeme automaticky predpokladať u takéhoto stroja vedomie alebo ďalšie ľudské kvality, ktoré by nás podľa tejto definície viedli k priradeniu zodpovednosti? A aké dôvody by nás mali k tomu viesť? Alebo prisúdime vedomie každému stroju, ktoré prejde slávnym Turingovým testom?
To by bolo určite na dlhšiu diskusiu. Nazdávam sa však, že stále sme a ešte istý čas aj budeme na technologickej úrovni, keď je pripisovanie vedomia umelej inteligencie nadbytočné, dokonca kontraproduktívne.
Som za chápanie umelej inteligencie ako nástroja, ktorý vytvorili ľudia a za ktorý ako tvorcovia aj musíme brať zodpovednosť. Pomyselný Rubikon prekročíme v momente, keď umelej inteligencii pripíšeme vedomie. Od toho už bude na skok nielen k priradeniu zodpovednosti, ale aj k otázke priradeniu jej práv.
Bohužiaľ, v tomto ohľade politika a mediálny tlak trocha zbytočne predbehli odbornú diskusiu, keďže už viac ako rok máme prvého robota, ktorý bol prijatý za občana nejakého štátu.
Vo voľnom čase si členom skupiny slovak.AI pre reguláciu a etiku umelej inteligencie. Je v tejto oblasti dôležitá legislatíva?
V skupine pre reguláciu a etiku sa nám celkom prirodzene vytvorili dve krídla. Jedno, ktoré zastáva myšlienku, že umelá inteligencia je nový fenomén a ako všetky novo vzniknuté situácie by mali byť pokryté novou legislatívou a reguláciami.
To druhé sa nazdáva, že ešte predtým, ako sa pustíme do regulácie, mali by sme zistiť, či je takáto regulácia vôbec potrebná. Sám som zástanca skôr toho druhého tábora. V súčasnosti má EÚ k dispozícii celkom bohatý legislatívny rámec. Navyše sa obávam, že ak pristúpime k regulačným opatreniam príliš skoro, zabrzdíme inovačný potenciál ľudí, ktorí sa podieľajú na vývoji nových technológií.
Preto som rád, že EÚ v tejto chvíli zvolila skôr cestu vytvárania etického kompasu, ktorý pomôže tvorcom AI pri zodpovedaní si tých najzásadnejších otázok.
Čo v tomto kompase vieme nájsť?
Veľa materiálov a dokumentov. Jedným z nich je aj Ethics Guidelines for Trustworthy AI (Etické usmernenia pre dôveryhodnú umelú inteligenciu, pozn. red.). Tento dokument zahŕňa okrem zoznamu základných etických princípov dôveryhodnej a etickej umelej inteligencie aj iniciatívu naučiť firmy citlivejšie vnímať etické problémy, ktoré vývoj a nasadenie AI prináša.
Do tejto iniciatívy by sa určite mali čím skôr zapojiť aj naše firmy, keďže aj na základe spätnej väzby z podnikateľského prostredia sa bude ďalej upravovať smer, ktorým sa vydá práca s umelou inteligenciou v EÚ a na Slovensku.
Mojím cieľom je snažiť sa usmerňovať diskusiu v rámci tejto platformy tak, aby sme mali k dispozícii nielen komplexný etický rámec, podľa ktorého sa vie firma orientovať (ak by mala dostatok času a zdrojov), ale aj agilný nástroj, ktorý bude viac zodpovedať myšlienkovým a finančným kapacitám malých a začínajúcich firiem (tzv. hodnotovo orientovaný dizajn).
Máme sa báť technológií?
Nebojme sa technológií, obávajme sa samých seba. Všímajme si, kedy prekračujeme hranice toho, čo sme ochotní ako spoločnosť alebo ako jednotlivci akceptovať. Berme to ako svoju spoločenskú, ale aj osobnú výzvu.
Disruptívne digitálne technológie, ako je napríklad AI, nám dávajú skvelú príležitosť pochopiť a otestovať svoje morálne intuície. Aby však v tomto snažení uspeli, musíme byť pripravení aj po odbornej stránke. Mali by sme požadovať, aby IT špecialisti, či už existujúci, ale aj budúci, vedeli pracovať s etickými pojmami, narábať s morálnymi argumentami.
Aj preto od budúceho roka spúšťame s kolegom Adam Greifom pre študentov FIIT STU kurz etiky IT. Dúfame, že časom pribudne aj nejaký kurz pre ľudí, ktorí už v IT pracujú a majú záujem lepšie sa pripraviť na etické výzvy, ktorým v práci čelia.