MALONI
Explainable AI Credit Scoring Regulace ČNB

AI credit scoring transparentně

Jak implementovat explainable AI pro credit scoring, který splní požadavky ČNB, EBA a připravovaného AI Act. Praktický průvodce pro české banky a NBFC.

Rostislav Sikora
12 min čtení

TL;DR – Hlavní body

  • Regulatorní tlak roste: GDPR čl. 22, EBA guidelines a AI Act vyžadují vysvětlitelné AI rozhodování
  • SHAP vs LIME: SHAP pro regulatorní reporting, LIME pro rychlá ad-hoc vysvětlení
  • Fairness je povinnost: Kontinuální monitoring bias metrik je nutností, ne nice-to-have
  • Human-in-the-loop: AI scoring akceleruje, lidský úsudek rozhoduje hraniční případy
  • ROI: 35% rychlejší schvalování, 25% nižší default rate, 40% méně stížností na rozhodnutí

„Proč mi banka neschválila úvěr?" – otázka, na kterou musí mít každá finanční instituce jasnou odpověď. S nástupem AI credit scoringu přichází nová výzva: jak zachovat prediktivní sílu machine learning modelů a zároveň splnit regulatorní požadavky na transparentnost?

V tomto průvodci vám ukážeme, jak implementovat explainable AI (XAI) pro credit scoring, který uspokojí jak business potřeby (rychlejší schvalování, nižší default rate), tak regulátory (ČNB, EBA, budoucí AI Act). Vycházíme z reálných implementací pro české banky a nebankovní finanční společnosti (NBFC).

1. Regulatorní požadavky na transparentní AI scoring

Než se pustíme do technických detailů, musíme pochopit regulatorní rámec. V České republice se na AI credit scoring vztahuje několik vrstev regulace:

GDPR článek 22: Právo na vysvětlení

GDPR dává subjektům údajů „právo na smysluplné informace o použité logice" u automatizovaného rozhodování. Pro credit scoring to znamená:

  • Informační povinnost: Klient musí být informován, že jeho žádost zpracovává AI
  • Vysvětlení rozhodnutí: Na žádost musíte poskytnout srozumitelné vysvětlení, proč byl úvěr schválen/zamítnut
  • Lidský přezkum: Klient má právo požadovat přezkum rozhodnutí člověkem

EBA Guidelines on Loan Origination and Monitoring

EBA guidelines z roku 2020 explicitně adresují ML modely v úvěrovém procesu:

„Instituce by měly zajistit, že rozhodování založené na ML modelech je vysvětlitelné, auditovatelné a že nedochází k diskriminaci chráněných skupin."

AI Act: High-risk AI systémy

Od srpna 2025 klasifikuje EU AI Act credit scoring jako high-risk AI systém. To přináší:

  • Povinnou dokumentaci a logging všech rozhodnutí
  • Požadavek na human oversight
  • Testování na bias a diskriminaci
  • Certifikaci před nasazením do produkce

⚠️ ČNB perspektiva

ČNB v rámci dohledové praxe již nyní vyžaduje dokumentaci ML modelů používaných pro credit scoring. Při on-site inspekcích kontrolují model governance, validaci a schopnost vysvětlit individuální rozhodnutí. Připravte se na audit – viz náš průvodce DORA compliance.

2. Interpretable vs Black-box modely

Klíčové rozhodnutí: zvolit model, který je interpretable by design, nebo použít výkonnější black-box model s post-hoc explainability?

Interpretable-by-design modely

Modely, které jsou ze své podstaty srozumitelné:

  • Logistická regrese: Klasika credit scoringu. Koeficienty přímo interpretovatelné.
  • GAM (Generalized Additive Models): Zachycuje nelinearity, ale zůstává interpretabilní.
  • EBM (Explainable Boosting Machine): Microsoft Research model kombinující výkon gradient boostingu s interpretabilitou GAM.
  • Rozhodovací stromy: Vizuálně srozumitelné, ale omezená prediktivní síla.

Black-box modely s post-hoc explainability

Výkonnější modely vyžadující dodatečnou vrstvu vysvětlení:

  • XGBoost / LightGBM: Gradient boosting s SHAP vysvětleními
  • Neural Networks: Deep learning s LIME nebo attention mechanismy
  • Ensemble modely: Kombinace modelů se společnou explainability vrstvou

Doporučení pro české banky

Na základě našich implementací doporučujeme hybridní přístup:

  1. EBM/GAM jako primární model – interpretable by design, výkon srovnatelný s XGBoost
  2. XGBoost jako challenger model – validace, že interpretable model neztrácí prediktivní sílu
  3. SHAP vysvětlení pro oba modely – konzistentní formát pro regulátory

3. Implementace SHAP vysvětlení

SHAP (SHapley Additive exPlanations) je dnes de facto standard pro explainability v credit scoringu. Vychází z teorie her – Shapleyho hodnota měří příspěvek každého hráče (features) k celkovému výsledku (predikce).

Proč SHAP pro regulátory?

  • Konzistence: SHAP hodnoty se přesně sečtou na celkovou predikci
  • Globální i lokální: Vysvětlení jednotlivých rozhodnutí i celkového chování modelu
  • Model-agnostic: Funguje s libovolným ML modelem
  • Auditovatelnost: Deterministický algoritmus, reprodukovatelné výsledky

Příklad SHAP vysvětlení zamítnuté žádosti

// SHAP vysvětlení pro zamítnutou žádost o spotřebitelský úvěr

Výsledný score: 0.23 (threshold pro schválení: 0.45)

Faktory SNIŽUJÍCÍ score:
- Vysoké využití kreditních karet: -0.15
- Krátká historie zaměstnání: -0.08
- Nedávná žádost o jiný úvěr: -0.05

Faktory ZVYŠUJÍCÍ score:
- Pravidelný příjem: +0.12
- Bez záznamu v registru dlužníků: +0.08
- Věk (stabilita): +0.03

Vysvětlení pro klienta:
„Vaše žádost byla zamítnuta primárně kvůli vysokému 
využití stávajících kreditních limitů (85% z celkového 
limitu). Doporučujeme snížit zůstatek na kreditních 
kartách a podat žádost znovu za 3-6 měsíců."
              

SHAP pro ČNB audit

Pro regulatorní reporting generujeme:

  • Global feature importance: Které faktory model používá nejvíce
  • Dependence plots: Jak jednotlivé features ovlivňují score
  • Interaction effects: Kombinace features (např. příjem × věk)
  • Cohort analysis: Rozložení SHAP hodnot pro schválené vs zamítnuté

4. Fairness a bias testování

Explainability bez fairness testování nestačí. AI Act explicitně zakazuje diskriminaci a vyžaduje proaktivní testování bias.

Chráněné atributy v credit scoringu

  • Pohlaví: Model nesmí používat přímo ani proxy proměnné
  • Věk: Legitimní faktor, ale pozor na diskriminaci seniorů
  • Národnost/etnická příslušnost: Zakázáno, včetně proxy (PSČ v segregovaných oblastech)
  • Zdravotní stav: Nesmí ovlivňovat scoring

Fairness metriky pro monitoring

Metrika Popis Threshold
Demographic Parity Approval rate stejný napříč skupinami ±5%
Equal Opportunity True positive rate stejný napříč skupinami ±5%
Predictive Parity Precision stejná napříč skupinami ±5%
Disparate Impact Poměr approval rates (80% rule) ≥0.8

Continuous fairness monitoring

Fairness není jednorázová kontrola. Implementujeme:

  • Real-time dashboards: Fairness metriky aktualizované denně
  • Alerting: Automatické notifikace při překročení thresholdů
  • Drift detection: Monitoring změn v distribucích chráněných skupin
  • Quarterly audity: Hloubková analýza pro ČNB reporting

5. Auditní trail pro regulátory

Každé rozhodnutí AI credit scoringu musí být plně auditovatelné. To znamená zachytit:

Co logovat

  • Input data: Všechny features použité pro predikci (hashované pro GDPR)
  • Model verze: Přesná verze modelu včetně hyperparametrů
  • Predikce: Score, threshold, rozhodnutí
  • SHAP hodnoty: Kompletní vysvětlení pro každou feature
  • Timestamp: Přesný čas rozhodnutí
  • Human override: Pokud analytik změnil rozhodnutí, důvod a identifikace

Struktura audit logu

{
  "decision_id": "uuid-v4",
  "timestamp": "2025-11-27T10:30:00Z",
  "model_version": "credit-score-v2.3.1",
  "application_id": "APP-2025-123456",
  "input_features_hash": "sha256:abc123...",
  "score": 0.67,
  "threshold": 0.45,
  "decision": "APPROVED",
  "shap_values": {
    "income": 0.12,
    "credit_utilization": -0.08,
    "employment_length": 0.05,
    ...
  },
  "human_override": null,
  "explanation_text": "Schváleno na základě stabilního příjmu..."
}
              

Retence a přístup

Pro splnění regulatorních požadavků:

  • Retence: Minimálně 5 let (dle AML požadavků delší)
  • Immutability: Write-once storage, žádné úpravy post-factum
  • Přístup: Role-based, logování každého přístupu k audit datům
  • Export: Možnost exportu pro ČNB inspekci do 24 hodin

Více o auditních požadavcích najdete v naší case study AML/KYC automatizace, kde implementujeme podobný auditní framework.

6. Human-in-the-loop workflow

Ani nejlepší AI model nenahradí lidský úsudek v komplexních případech. Human-in-the-loop (HITL) je regulatorní požadavek i best practice.

Kdy eskalovat na člověka

  • Hraniční score: Score v rozmezí ±10% od threshold
  • Nekonzistentní signály: SHAP hodnoty výrazně protichůdné
  • High-value rozhodnutí: Úvěry nad definovanou částku
  • Stížnost klienta: Automatická eskalace při odvolání
  • Anomálie: Neobvyklé kombinace features

Dashboard pro credit analytiky

Navrhujeme dashboard, který analytikovi poskytne:

  1. AI doporučení se score a confidence interval
  2. Top 5 SHAP faktorů – co model „vidí"
  3. Historická data klienta – předchozí žádosti, platební historie
  4. Peer comparison – jak podobní žadatelé dopadli
  5. Override možnost s povinným zdůvodněním

Override governance

Když analytik přepíše AI rozhodnutí:

  • Povinné strukturované zdůvodnění (dropdown + free text)
  • Automatický logging do audit trailu
  • Měsíční review override patterns – jsou konzistentní?
  • Feedback loop do modelu – retraining na override datech

Výsledky: ROI transparentního AI scoringu

Z našich implementací pro české banky a NBFC:

35%
rychlejší schvalování
Automatické rozhodnutí pro 70% žádostí
25%
nižší default rate
Lepší predikce než tradiční scorekarty
40%
méně stížností
Srozumitelná vysvětlení pro klienty
100%
audit compliance
Úspěšné ČNB inspekce

Závěr: Transparentnost jako konkurenční výhoda

Explainable AI credit scoring není jen regulatorní povinnost – je to konkurenční výhoda. Banky a NBFC, které dokáží klientům srozumitelně vysvětlit svá rozhodnutí, budují důvěru a snižují churning.

Klíčové takeaways:

  1. Regulace zpřísňuje: AI Act od 2025 klasifikuje credit scoring jako high-risk
  2. SHAP je standard: Pro regulatorní reporting i interní governance
  3. Fairness kontinuálně: Ne jednorázová kontrola, ale ongoing monitoring
  4. Human-in-the-loop: AI doporučuje, člověk rozhoduje hraniční případy
  5. Audit trail kompletní: Každé rozhodnutí zpětně rekonstruovatelné

Chcete implementovat transparentní AI credit scoring? Nabízíme discovery sprint, kde zmapujeme vaše požadavky, regulatorní omezení a navrhneme architekturu na míru.

Potřebujete transparentní AI credit scoring?

Nabízíme discovery sprint (2 týdny), kde zmapujeme vaše regulatorní požadavky a navrhneme architekturu explainable AI scoringu.