fb
IT Systems 3/2026 Banky a finanční organizace 30. 4. 2026 9:00

Když data nedávají smysl, nedává smysl ani byznys

Jak se nedůvěryhodná data projevují a jak je řešit?

Problémy s datovou kvalitou poznáte třeba ve chvíli, kdy nahlásíte bance změnu adresy, ale při další návštěvě pobočky zjistíte, že jeden ze systémů stále pracuje s tou starou. To, co je pro klienta nepříjemností, je pro instituci varovný signál – stejný typ nesouladu se totiž dokáže promítnout do KYC, AML, skórování, likvidace škod i regulatorních výkazů. Nedostatky v datech navíc nejsou vždy vidět hned. Bez proaktivního měření kvality a  přehledu o datových tocích se pak problém často řeší až ve chvíli, kdy se promítne do provozu a klíčových rozhodnutí. Problémy s AI jsou už pak jen špičkou ledovce. 

Finanční sektor čelí největšímu tlaku na kvalitu dat

Finanční instituce dnes běžně fungují v prostředí stovek až tisíců aplikací a datových zdrojů, které vznikaly postupně – organickým růstem, akvizicemi i regulatorními požadavky. Tyto systémy často pracují s rozdílnými definicemi klíčových entit, obsahují chybějící nebo duplicitní data a jen omezeně spolu komunikují. Výsledkem je složité datové prostředí, ve kterém je integrace dat, spolehlivý reporting i kvalitní rozhodování dlouhodobě náročné.
Ve finančním sektoru je navíc práce s daty komplikovaná vysokými nároky na bezpečnost, přesnost a soulad s legislativou. Instituce pracují s citlivými informacemi napříč historickými i moderními systémy, a data management zde proto neřeší jen technickou stránku, ale i schopnost udržet provoz a řízení organizace v souladu s realitou, kterou mají data popisovat.

Pět nejčastějších provozních problémů spojených s kvalitou dat

Prvním a nejčastějším problémem je zákaznická identita. Nedůvěryhodná data vznikají, když se začnou objevovat duplicitní klienti, různé zápisy téhož zákazníka nebo nejednoznačné vazby na produkty a smlouvy. Když se k tomu přidají neúplné, zastaralé, či dokonce zcela odlišné kontaktní údaje, je v prostředí, které využívá více digitálních kanálů, fyzických poboček a dalších systémů, velmi obtížné udržet jednotný pohled na zákazníka v celém jeho životním cyklu. To vše pak ovlivňuje schopnost organizace obsluhovat klienty konzistentně a zákazníka jednoznačně identifikovat.
 
Druhou problematickou oblastí jsou nekvalitní data v klíčových rozhodovacích procesech. V tzv. underwritingových modelech mohou neaktuální nebo neúplné údaje vést k podhodnocení či nadhodnocení rizika. Ve scoringu se pak odrážejí v nepřesném posouzení bonity klienta. A u detekce podvodu mohou způsobit, že systém přehlédne skutečně rizikové chování, nebo naopak vygeneruje falešné poplachy. V takovém případě navíc chyba nevzniká v jednom místě, ale kumuluje se napříč datovým tokem. 
 
Třetím problémem je nekonzistence definic napříč organizací. Lidé používají odlišné definice pojmů, jako je aktivní klient, riziko, škoda nebo expozice, případně pracují s rozdílnými číselníky a klasifikacemi. Na první pohled se může zdát, že data existují a jsou dostupná, ve skutečnosti ale chybí společný význam. Jednotlivé týmy sice pracují se stejnými názvy polí nebo metrik, ale rozumí jimi něco jiného. Bez sdílených definic pak není možné data spolehlivě porovnávat, agregovat ani nad nimi nastavit jednotnou kontrolu kvality.
 
Čtvrtou oblast tvoří regulace a reporting, ať už jde o FINREP, COREP, IFRS 9, Solvency II nebo AML, které kladou extrémní nároky na konzistenci, úplnost a dohledatelnost dat pod hrozbou vysokých sankcí. Až 28 % institucí podle Ataccama reportu přitom přiznává, že má problém současným standardům dlouhodobě vyhovět. Pokud kvalita dat není pod kontrolou, organizace často sahá ke krajním řešením, jako jsou manuální úpravy před odevzdáním výkazů, snaha ručně sladit data mezi systémy nebo ad-hoc opravy na poslední chvíli. Tento přístup je nákladný, zvyšuje operační riziko a s rostoucím objemem dat přestává být udržitelný. 
 
Pátý problém je pak už jen důsledkem předchozích – problém s nasazováním AI ve větším provozním měřítku. Když organizace pracuje se špatnými daty, získává zkreslený obraz reality a dělá špatná rozhodnutí – ať už jde o analytiku, nebo AI. Rozdíl je v tom, že AI tyto nedostatky v datech odhaluje rychleji, a to nejen v analytických týmech. V Ataccama reportu uvedlo až 30 % lídrů, že se obává, že jejich data neumožňují využívat AI spolehlivě.

Jak zlepšit kontrolu kvality dat? 

Univerzální řešení neexistuje. To, co selhává nejčastěji, není technologie, ale odpovědnost. Ve funkčních řešeních často najdeme opakující se motivy, pro jednoduchost si je můžeme představit jako určité vrstvy kontroly kvality dat.
 
První vrstva datového řízení se snaží chybám předcházet už při vzniku dat, ale zároveň respektuje realitu finančního provozu – tedy že transakce nelze zastavit. Proto je nutné chyby v datech řešit automaticky a bezpečně bez dopadu na chod systému, typicky pomocí povinných polí, formátových kontrol a validačních vazeb na referenční registry, například u identifikátorů nebo platebních údajů.
 
Druhá vrstva je průběžný monitoring datových toků – ideálně v reálném čase, nebo v jasně definovaných intervalech. Ten musíme provádět ve vhodně zvolených místech, abychom dokázali co nejpřesněji lokalizovat, kde k chybám dochází. Kontrola se soustředí na detekci anomálií v datech, změny v jejich distribuci a validuje splňování pravidel pro datovou kvalitu a obchodní pravidla, například že fakturace klienta odpovídá službě, kterou odebírá.
 
Třetí vrstva se zaměřuje na sledovatelnost datových toků a jejich dokumentaci. Umožňuje průběžně ověřovat, že se data systémem pohybují očekávaným způsobem, sledovat jejich původ, přenosy a změny struktury. Díky tomu lze rychle vyhodnotit dopad chyb, například při selhání dat pro reporting, zkrátit dobu nápravy a usnadnit audit.
 
Čtvrtá vrstva se zaměřuje na samotnou nápravu. Opírá se o jasnou odpovědnost za data, srozumitelný postup řešení a informace z předchozích vrstev, které umožňují najít skutečnou příčinu problému. Kde je to možné, je třeba nastavit automatickou nápravu, například u sjednocení formátů nebo doplnění chybějících údajů.
 
Celý systém si můžeme ilustrovat na vodovodním potrubí. První vrstva jsou filtry na začátku potrubí, aby se nezaneslo nečistotami. Druhá vrstva kontroluje, jestli je složení vody v pořádku. Třetí vrstva sleduje tok vody a správný tlak v trubkách. A čtvrtá vrstva nám říká, jak spravit prasklou trubku nebo kam volat opravářovi.
Aby tohle všechno fungovalo, musíme splnit nejdříve identifikovat ty správné problémy k řešení. Díky tomu lze vybudovat solidní proces kontrol v rozumném čase, s rozumnými náklady a s největší přidanou hodnotou. Ve finančním sektoru má smysl začít tam, kde mají chyby v datech největší dopad na riziko, výnosy nebo plnění regulatorních požadavků. Když tento projekt uspěje, je pak možné ho začít rozšiřovat na další oblasti a problémy.

Začněte u vlastníků

Kvalita dat ve finančních institucích úzce souvisí s tím, jak je nastavené jejich vlastnictví a způsob řízení. Aby měla náprava skutečný dopad, musí mít každá kritická datová doména jasného vlastníka se skutečnou pravomocí problém vyhodnotit, rozhodnout o řešení a zajistit, že se nebude opakovat. Bez jasného vlastnictví kvalita dat dlouhodobě fungovat nemůže.
V praxi se proto osvědčuje federovaný model správy dat, ve kterém centrální tým definuje rámec, standardy a nástroje, zatímco odpovědnost za kvalitu konkrétních dat nesou doménové týmy. Jakmile organizace naroste, čistě centralizovaný přístup přestává fungovat a federace se stává nutností.
Pro lepší kvalitu dat je naprosto klíčová automatizace. Ta pokrývá rutinní kontroly, validace a nápravná opatření podle jasných pravidel, přičemž rozhodování u citlivých situací, jako je výklad regulace či řešení závažných incidentů by mělo zůstat na člověku s osobní odpovědností. Smyslem není, aby datový tým ručně posuzoval každý jednotlivý případ, ale aby nastavoval mantinely, podle nichž se data zpracovávají.

Když si toho všimne CEO, obvykle už je pozdě

Nízká kvalita dat má reálný a měřitelný dopad na firemní výnosy, nebo naopak viditelně zvyšuje náklady. Pokud se problémy projeví až v nákladech celé firmy nebo v dysfunkčních pilotech AI modelů, je téměř jisté, že se organizace bude muset k nedůvěryhodným datům postavit čelem. Jinak budou brzdit nejen další rozvoj, ale i bezpečnost a stabilitu podnikání.
Řešením ale málokdy bývá masivní transformační projekt – u nich je velké nebezpečí selhání kvůli své komplexitě, rozsahu a nákladům. Musí se jít postupně: vyberte jeden kritický proces, stanovte jedno konkrétní měřítko úspěchu a předejte odpovědnost jednomu doménovému týmu. Teprve když se ukáže reálný dopad této změny, dává smysl řešení postupně rozšiřovat. Právě tak se z kvality dat stává řízená disciplína, nikoli až krizové téma ve chvíli, kdy začne brzdit byznys, regulaci nebo využití AI.
 
Petr Žáček
Autor článku je Director of Product Management společnosti Ataccama.

Kalendář akcí
Konference - Semináře - Školení
Časopis IT Systems/Speciál
Aktuální číslo časopisu IT Systems Aktuální číslo časopisu příloha #1
Archív časopisu IT Systems
IT Systems 3 IT Systems 1-2 IT Systems 12 IT Systems 11
Archív časopisu IT Systems Special
Aktuální číslo časopisu příloha #1 Aktuální číslo časopisu příloha #1 Aktuální číslo časopisu příloha #1 Aktuální číslo časopisu příloha #1