fb
IT Systems 12/2023 IT právo AI a Business Intelligence 2. 2. 2024 9:36

Strastiplná cesta Aktu o umělé inteligenci

Druhý prosincový víkend jsme se ze sociálních sítí dověděli radostnou zprávu – evropské instituce po 36 hodinách intenzivního jednání nalezly shodu nad podobou první komplexní právní regulace umělé inteligence na světě. Pouť umělé inteligence legislativním procesem EU tak dosáhla milníku, který je příležitostí ke stručné rekapitulaci.

Již v dubnu 2021 představila Evropská komise původní návrh Aktu o umělé inteligenci, jehož cílem bylo harmonizovat pravidla pro její vývoj a užívání. Text obsahoval skvostně technicistní definici umělé inteligence, jakožto software pro generování výstupů vyvinutý prostřednictvím technik strojového učení, včetně učení s učitelem, bez učitele a posilovaného učení, používající celou řadu metod, včetně hlubokého učení, přístupů založených na logice a znalostech, včetně reprezentace znalostí, induktivního (logického) programová­ní, znalostních základen, inferenčních a deduktivních mechanismů, (symbolického) uvažování a expertních systémů a statistických přístupů, bayesovské odhadování, metody vyhledávání a optimalizace.

Předbíhali bychom, ale pozdější diskuse tuto složitou definici opustily a umělá inteligence byla definována jako strojový systém navržený tak, aby více či méně autonomně a pro výslovné či nevyřčené cíle generoval výstupy, jako jsou předpovědi, doporučení nebo rozhodnutí.

Návrh rovněž definoval dvě klíčové role, a to poskytovatele (tj. společnost stojící za vývojem umělé inteligence) a jejího uživatele. Původní definice umělé inteligence byla komplikovaná, ale neutrální. Podstatné bylo, jakým způsobem je umělá inteligence užívána a co v objektivním světě „dělá“.

Evropa současně definovala projevy umělé inteligence, kterou jsou nežádoucí a zakázané. Zakázáno mělo být podprahové, manipulativní nebo klamavé využívání umělé inteligence. Totéž platilo pro systémy využívající zranitelná místa osob, nástroje pro sociální skóring prováděný veřejnými institucemi nebo biometrická identifikace v reálném čase na veřejně přístupných místech.

Dále byly definovány vysoce rizikové systémy pokrývající širokou oblast činností od vzdělávání a školství, přes zaměstnanost a personalistiku až po základní soukromé a veřejné služby, migraci a soudnictví. Do této kategorie spadala též biometrická identifikace a umělá inteligence v kritické infrastruktuře.

Původní návrh obsahoval celou řadu povinností pro poskytovatele. Povinnost zavést systém řízení rizik, systém řízení kvality a systém pro kvalitu a správu dat, na kterých se systémy umělé inteligence učí. Povinnost vést technickou dokumentaci a záznamy. Povinnost být transparentní a poskytovat uživatelům celou řadu informací. Povinnost zajistit lidský dohled. Povinnost zajistit přesnost, spolehlivost a kybernetickou bezpečnost systémů umělé inteligence. Automaticky generovat protokoly. Zajistit posouzení shody, zaregistrovat se u nově vzniklého úřadu a spolupracovat s úřady.

Pro uživatele si tehdejší návrh připravil lakonickou povinnost užívat systém v souladu s návodem k použití doplněnou o povinnost užívat relevantní a reprezentativní vstupní data a uchovávat generované protokoly.

V tomto čase byl svět umělé inteligence stále relativně jednoduchý a přehledný. To se změnilo v listopadu 2022, kdy společnost OpenAI představila chatbot ChatGPT, který navždy změnil způsob, jakým lidé komunikují se svými počítači, tablety a mobilními telefony. Revoluce si všimli i poslanci Evropského parlamentu, kteří v červnu roku 2023 přišli s celou řadou pozměňovacích návrhů. Do legislativního textu promítli novou paletu obecně platných zásad: lidské působení a dohled, technická robustnost a bezpečnost, ochrana soukromí a dat, transparentnost, diverzita, spravedlnost a zákaz diskriminace, dobré sociální a enviromentální podmínky.

Navrhli rozšíření zakázaných systémů. Na blacklist byly doplněny biometrické kategorizační systémy, databáze pro rozpoznávání obličejů, biometrická identifikace na dálku na veřejně přístupných místech v reálném čase i zpětně či systémy pro rozpoznávání emocí. Sociální skóring byl prohlášen za nežádoucí nejen pro veřejný, ale i soukromý sektor.

Podstatně byly rozšířeny povinnosti uživatelů umělé inteligence, kteří měli zavést technická a organizační opatření pro užívání umělé inteligence dle návodu, zajistit kvalifikovaný a proškolený lidský dohled a průběžný monitoring či provést posouzení vlivu v případě, že jsou zpracovávány osobní údaje. A řada dalších.

Kolik regulace je potřeba k zabití umělé inteligence v Evropě?

Předně ale poslanci do původního schématu „systém zakázaný – vysoce rizikový – nerizikový“ začlenili nový pojem základního modelu (tzv. foundation system), který je trénován na širokém množství dat, je navržen pro obecnou povahu výstupů a lze jej přizpůsobit nejrůznějším úkolům, přičemž jejich poskytovatelům přichystali novou paletu povinností: systematicky identifikovat, omezovat a zmírňovat rizika, pracovat pouze s relevantními daty, která snižují možnost zkreslení, navrhnout a vyvinout základní model tak, aby bylo po celou dobu jeho životního cyklu dosaženo odpovídajících úrovní výkonnosti, předvídatelnosti, interpretovatelnosti, napravitelnosti, zabezpečení a kybernetické bezpečnosti, nebo vypracovat rozsáhlou technickou dokumentaci a srozumitelný návod k použití.

Poslanci definovali také generativní umělou inteligenci, která vytváří složitý text, „dechberoucí“ obrázky a audiovizuální obsah, jejíž poskytovatelé musí dodržovat zásadu transparentnosti (tj. jsem-li v kontaktu s umělou inteligencí, musím o tom vědět), musí své systémy navrhovat tak, aby nevytvářely nezákonný obsah, a musí zveřejňovat, na jakých autorských dílech své systémy trénovali.

V listopadu 2023 přišlo španělské předsednictví Rady EU s návrhem ještě většího zohlednění rizik a pro tzv. velmi schopné základní modely byla připravena přísnější sada povinností od povinného penetračního testování, přes nezávislé audity až po povinnost trénovat systémy na licenčně vypořádaných datech. Podobně přísná pravidla měla platit i pro systémy umělé inteligence pro všeobecné účely (GPAI) užívané ve velkém měřítku. Následoval odpor velkých států v čele s Francií a Německem a titulky o konci Aktu o umělé inteligenci. Debata se zredukovala do zásadní otázky: Kolik regulace je potřeba k zabití umělé inteligence v Evropě?

Pravidla pro umělou inteligenci budou vycházet z přístupu založeného na rizicích. Klíčovým pojmem bude transparentnost.

Jak ale bylo uvedeno na počátku textu, nakonec evropské instituce přece jen nalezly shodu nad podobou první komplexní právní regulace umělé inteligence. Můžeme tedy říct Konec dobrý, všechno dobré? Finální podobu textu zatím neznáme, bude se však bezesporu jednat o kompilát všech výše uvedených přístupů a povinností.

Základní rámec dohody lze z veřejných prohlášení popsat následov­ně: Pravidla pro umělou inteligenci budou vycházet z přístupu založeného na rizicích. Většina nástrojů bude spadat do kategorie „nízké riziko“, s níž nebudou spojeny žádné povinnosti. Vysoce rizikové systémy přinesou jejich poskytovatelům a uživatelům celou řadu nových povinností. Jste-li jako systém umělé inteligence hrozbou pro lidská práva, míříte do týmu zakázaný systém.

Samotná kategorizace vychází z velké části z návrhů Evropského parlamentu. Obecně bude zakázáno jakékoliv biometrické sledování v reálném čase. Kontroverzní výjimka pro biometrické sledování na veřejných místech pro účely vymáhání práva však ve finálním textu bude. Bojovat bude proti terorismu, využije se při pátrání po obětech závažných trestných činů nebo jejich pachatelích. Předchozí povolení soudu má představovat dostatečnou záruku. Zakázány budou biometrické kategorizační systémy využívající citlivé osobnostní charakteristiky. Dohodnuta byla široká výjimka pro umělou inteligenci pro vojenské a obranné účely. Veřejné orgány i soukromý sektor poskytující základní služby, jako jsou nemocnice, školy, banky či pojišťování, využívající vysoce rizikové systémy, budou muset provést posouzení dopadu na základní práva.

Klíčovým pojmem bude transparentnost. Evropa nám garantuje nové základní právo. Právo být informován o tom, že jednáme s umělou inteligencí nebo posloucháme, čteme či sledujeme její syntetické výtvory. Princip transparentnosti má být zdůrazněn u systémů umělé inteligence pro všeobecné účely a systémů představujících systémová rizika. Pro ně bude platit řada dalších povinností, od systémů řízení rizik, přes průběžné vyhodnocování a testování až po povinný monitoring. To vše v souladu s kodexy, které mají vzniknout kooperací Komise, vědecké obce a občanské společnosti. Nařízení začne v plném rozsahu platit do 2 let od jeho vstupu v platnost.

Máme tedy politickou shodu, nyní už je údajně potřeba vyřešit jen „celou řadu technických detailů“. Teď už si jen musíme počkat, v jakém detailu bude „zakopán onen pověstný pes“.

Michal Nohel Mgr. Michal Nohel
Autor působí jako seniorní advokát v advokátní kanceláři ROWAN LEGAL. Specializuje se na oblast duševního vlastnictví, médií a digitálních služeb. Zkušenosti má rovněž s problematikou regulace online platforem včetně GDPR, ePrivacy a regulací reklamy.

Kalendář akcí
Konference - Semináře - Školení
Časopis IT Systems/Speciál
Aktuální číslo časopisu IT Systems Aktuální číslo časopisu příloha #1
Archív časopisu IT Systems
IT Systems 1-2 IT Systems 12 IT Systems 11 IT Systems 10
Archív časopisu IT Systems Special
Aktuální číslo časopisu příloha #1 Aktuální číslo časopisu příloha #1 Aktuální číslo časopisu příloha #1 Aktuální číslo časopisu příloha #1