Část lidí má z umělé inteligence až euforické nadšení, část zase existenční krizi spočívající v tom, že AI je nahradí. Naději spousta lidí vidí v její regulaci. „Neupínejme se k legislativě týkající se AI jako k návodu, který nás spasí a odpoví nám na všechny naše problémy. Je třeba ji vykládat spolu s ostatními legislativami,“ upozornil na sympoziu České justice a Zdravotnického deníku Právo a digitalizace – umělá inteligence ve zdravotnictví Chief Information Officer AK Císař, Češka, Smutný Martin Vlasta.
Vzdělání, HR, přístup ke službám a sociálním dávkám, hodnocení a monitoring lidí v oblasti vězeňství a recidivy, provozování kritické infratsruktury – to jsou jen některé oblasti, do kterých bude umělá inteligence promlouvat.
Evropský parlament ve středu odhlasoval svou pozici pro jednání s členskými státy ohledně regulace umělé inteligence, tedy Akt o umělé inteligenci. Finální verzi regulace dohodne parlament s členskými zeměmi EU.
Návrh Aktu zavádí základní pravidla pro umělou inteligenci, vymezuje zákazy jeho použití a nastavuje podmínky pro vysoce rizikové oblasti. Pozice Evropského parlamentu reaguje i na dynamický vývoj tzv. generativních systémů umělé inteligence. Návrh bude nyní diskutován mezi Evropským parlamentem, Radou EU zastupující členské státy a Evropskou komisí.
AI není v oblasti legislativy zcela nové téma. Už v roce 2018 Evropská komise ustanovila pracovní skupinu „High-level expert group on artificial intelligence“. Šlo o asi 30 expertů, kteří dali dohromady několik bodů týkající se AI a to zejména z lidskoprávního hlediska. Skupina se následně rozšířila a legislativní práce vyústily v současné návrhy směrnic o AI. Podle Martina Vlasty bude snaha normy schválit do voleb do Evropského parlamentu, které se uskuteční v příštím roce.
Problematické podle něj je, že mezitím se AI opět rozvine a není jasné jak rychle a jakým způsobem. „Proto je úprava legislativy v procesní rovině a je spíše hodnotová, protože ta je věčná. Naopak kdyby byla hmotně právní, tak by se nám mohlo stát, že bychom se někde mohli posunout špatným směrem. Je to nařízení o lidech, je to nařízení o inteligenci, je to nařízení o rozhodování a o delegaci rozhodování,“ vysvětlil advokát. V tomto směru upozornil, že nesouhlasí s názorem soudce Romana Fialy, podle kterého v některých oborech už zkušenosti starších lidí nejsou užitečné. Podle Vlasty je nutné, aby změny ohledně AI nebyly jen v režii mladých, ale aby šlo o celospolečenský diskurs.
Návrh směrnice říká, že AI je téměř vše co je strojové učení a všechno, co jsou expertní systémy. „Je to v zásadě všechno, co běží na počítačích, protože všechno používá statistiku. Ale to neznamená, že nařízení bude regulovat všechny tyhle věci,“ vysvětlil Martin Vlasta.
Regulace už probíhá
Určitý typ zboží je považován za nástroj AI. A již jsou regulované nějakou existující legislativou. Jde např. o zdravotnické diagnostické stroje, obecně stroje, výtahy, tlakové senzory, vozidla, letadla a další. Tak to nepochybně spadá do této první skupiny. „A pak je tady druhá skupina věcí, které nejsou definovány produkčně, ale jsou definované účelově. Sledují nějaký záměr, nějaký cíl. „Je to například biometrická identifikace a kategorizace fyzických osob. Tu chce EU povolit pouze pokud to bude ve veřejném zájmu, ale parlament se k tomu staví velmi negativně z hlediska svobody a ochrany soukromí. Nejsme Čína,“ uvedl advokát.
Podle něj Evropský parlament třeba řeší to, jak by se posuzovala výpověď z práce, která by vzešla z hodnocení AI. Systémy by totiž mohly na základě statistických dat určit, že daný zaměstnanec není pro firmu přínosem. „To jsou přesně ty citlivé věci, kam parlament cílí a chce, aby byly jednoznačně přezkoumatelné,“ dodává Martin Vlasta. Parlament se také staví proti tomu, aby bylo povoleno, že nám AI bude vnucovat zboží na základě naší životní, například tíživé situace. Zakázáno bude i hodnotit důvěryhodnost osob. To, co se v EU zakazuje, se naopak v Číně podporuje, uvedl advokát na několika příkladech.
Předvoj směrnice regulující AI je směrnice NIS2. Ta přináší zpřísněná pravidla pro analýzu a řízení rizik, to celé v zájmu zajištění kybernetické bezpečnosti. Podle Vlasty bude ideální v praxi povinnosti ze směrnic implementovat najednou. „Důležitá bude dokumentace. Všechny závěry, ke kterým dojdete, musíte dát do jednoho PDF, které můžete na výzvu okamžitě předložit dozorujícímu orgánu,“ upozornil. Důležitý je také lidský dohled a to, že každý nástroj využívající AI musí být snadno vypnutelný. Kvůli tomu dojde podle Vlasty k významnému rozšíření školení o bezpečnosti práce.
Kritika toho, že AI je nesrozumitelná, je podle advokáta nefér. „Protože ona jen kopíruje to, co jsme my dělali doteď. Akorát to dělá rychleji. Takže pokud kritizujeme AI, kritizujeme vlastně sebe,“ uvedl. AI je jen dalším logickým provedením snahy nás ochránit před sebou samými. Kromě citu a empatie umělé inteligenci chybí zdravý selský rozum. „Tedy umět si poradit v situacích zcela bezprecedentních, kde potřebujeme určitou dávku iracionality. Máte před sebou zeď a člověk se rozhodne, že nezdolatelnou překážku stejně zkusí. Má víru, že to zvládne. Stroj, když před sebou vidí zeď, tak řekne: Já se raději zastavím, protože nenarazím do zdi. Ale tímto stylem bychom se nikdy nikam neposunuli,“ uzavřel advokát svoji přednášku.
Na sympoziu dále vystoupili soudce Nejvyššího soudu Roman Fiala, prorektor Masarykovy univerzity Radim Polčák, egyptolog Miroslav Bárta, náměstek ministra spravedlnosti Antonín Stanislav, ředitel divize Medical Solutions OR-CZ Michal Mačát, ředitel Asociace pro aplikovaný výzkum v IT Jaromír Hanzal, spoluzakladatel Carebot s.r.o. Matěj Misař a manažer Aireen a.s Matěj Adam.
Článek vyšel na zpravodajském portálu Česká justice, který stejně jako Zdravotnický deník patří do vydavatelství Media Network.
Eva Paseková
Foto: Radek Čepelák
Konference se uskutečnila za laskavé podpory společností OR-CZ a Carebot.