IT Systems 7-8/2025
AI a Business Intelligence
IT právo
24. 9. 2025 10:00
Když chatbot poradí špatně, kdo za to nese odpovědnost?
Právní aspekty nasazení AI v zákaznické podpoře
Chatboti využívající umělou inteligenci (AI) se rychle stali běžnou součástí zákaznické podpory. Firmy je nasazují kvůli jejich dostupnosti 24/7, schopnosti rychle reagovat a výraznému snížení provozních nákladů. Zákazníci si zvykli na okamžité odpovědi, ať už jde o reklamace, dotazy k produktům nebo technickou pomoc. S rostoucím využitím těchto systémů však vyvstává zásadní otázka: kdo nese odpovědnost, pokud chatbot poskytne chybnou informaci?
Představme si situaci, kdy chatbot zamítne oprávněnou reklamaci, nesprávně informuje o vlastnostech výrobku nebo uvede zákazníka v omyl ohledně podmínek služby. V takovém případě může vzniknout škoda – finanční, reputační nebo jiná. Kdo ji má nést? Vývojář systému? Provozovatel? Nebo snad samotný chatbot?
Odpovědnost za škodu v českém právním prostředí upravuje občanský zákoník (zákon č. 89/2012 Sb.). Ten stanovuje obecné principy odpovědnosti, jako je porušení zákonné nebo smluvní povinnosti. V kontextu AI však narážíme na nové výzvy – chatbot není právní subjekt, ale nástroj. Česká justice se touto problematikou zatím výslovně nezabývala, a tak by případné spory závisely na konkrétních okolnostech.
Porušení zákonné povinnosti (§ 2910 OZ)
Pokud chatbot poskytne radu v rozporu s právními předpisy, může jít o porušení povinnosti odborné péče. To platí zejména tehdy, pokud je systém prezentován jako nástroj schopný kvalifikované pomoci. Otázkou zůstává, kdo je v takovém případě „škůdcem“ – provozovatel, vývojář, nebo jiný subjekt? Nejčastěji to bude právě provozovatel systému.
V praxi je však nutné prokázat zavinění, což je u autonomních systémů komplikované. Provozovatel se může bránit tím, že chyba vznikla bez jeho vědomí a že systém jednal na základě dat, která byla správně nastavena. Navíc chatbot není právním subjektem, nelze mu tedy přičítat úmysl ani nedbalost jako člověku. Otázkou zůstává, zda je reálné a spravedlivé požadovat, aby provozovatel dohlížel na každou jednotlivou odpověď systému.
Porušení smluvní povinnosti (§ 2913 OZ)
Tento typ odpovědnosti by mohl být relevantní zejména ve vztahu mezi vývojářem systému a jeho provozovatelem. Výhodou je, že zde není nutné prokazovat zavinění – postačí samotné porušení smluvní povinnosti. Pokud tedy vývojář dodá systém, který neodpovídá sjednaným parametrům nebo selže v klíčových funkcích, může nést odpovědnost za vzniklou škodu.
Škoda způsobená pomocníkem (§ 2914 OZ)
Teoreticky by bylo možné považovat chatbota za „pomocníka“ ve smyslu zákona. Problémem je, že zákon s takovou situací nepočítá – pomocník by měl být právní subjekt, což chatbot není. Aplikace tohoto ustanovení je tedy sporná, přesto by mohla být v budoucnu předmětem právního výkladu.
Odpovědnost za škodu způsobenou věcí (§ 2936 OZ)
Pokud bychom chatbot považovali za „věc“ v právním smyslu, odpovědnost by mohla vzniknout v případě, že systém selže kvůli vadné konstrukci, nastavení nebo algoritmu. Klíčové je, zda osoba odpovědná za dohled nad systémem (např. provozovatel) tuto povinnost nezanedbala. V praxi by se zkoumalo, zda byla AI správně nastavena, testována a monitorována.
Odpovědnost za škodu způsobenou informací nebo radou (§ 2950 OZ)
Tento režim by mohl být uplatněn v případech, kdy chatbot vystupuje jménem podnikatele (např. banky nebo operátora) a poskytne zavádějící informaci, která zákazníkovi způsobí škodu. Problémem však zůstává, že chatbot není právní subjekt, což komplikuje přičitatelnost jeho výstupů provozovateli. Přesto by mohl být provozovatel odpovědný, pokud chatbot jednal v rámci jeho podnikatelské činnosti.
Evropský kontext: Nařízení o umělé inteligenci
Nařízení (EU) 2024/1689 o umělé inteligenci (tzv. AI Act), které již vstoupilo v platnost, představuje první komplexní právní rámec pro využívání AI v EU. Chatboti zákaznické podpory jsou v něm zařazeni mezi systémy s omezeným rizikem. Pokud dojde k chybě, odpovědnost zpravidla nese provozovatel systému – tedy podnikatel, který AI nasadil a využívá ji při své činnosti. Ten by měl zajistit odpovídající dohled nad jejím fungováním, včetně pravidelného testování, dokumentace a transparentnosti.
 |
Jaroslav Tajbr
Autor článku je partner v advokátní kanceláři Eversheds Sutherland a vedoucí její IP/IT praxe. Specializuje se na právo elektronických komunikací, ochranu osobních údajů, kybernetickou bezpečnost, M&A, pracovní právo či litigace. |
 |
Debora Cibulková
Spoluautorka článku je advokátní koncipientka v advokátní kanceláři Eversheds Sutherland, kde působí v týmu pracovního práva. Ve své praxi se zajímá o právní aspekty technologických inovací a dopady automatizace a digitalizace na oblast práva. |