AI bezpečnost a GDPR: Jak chránit firemní data při využívání umělé inteligence

Umělá inteligence dnes proniká do podpory zákazníků, financí, HR i výroby. S rychlým nasazením ale roste i zodpovědnost. AI bezpečnost a GDPR nejsou překážky. Jsou to mantinely, které chrání firmu před únikem dat, sankcemi a ztrátou důvěry. V tomhle článku najdete srozumitelný návod, jak AI řešení navrhovat, nasazovat a provozovat tak, aby byla bezpečná, auditovatelná a v souladu s regulacemi. Cílem je praktický postup. Minimum teorie, hodně konkrétních kroků, které můžete udělat už dnes. Nejde o právní radu. Je to průvodce pro manažery, IT a bezpečnostní týmy.


Kdo je správce a kdo zpracovatel. Co je osobní údaj v AI projektech

Správce určuje účel a prostředky zpracování dat. Ve firmách je to obvykle sama společnost. Zpracovatel zpracovává data pro správce na základě smlouvy. Typicky dodavatel AI služeb nebo cloud. V AI projektech míváme více zpracovatelů i subdodavatelů, proto je důležité mít DPA se všemi a znát řetězec zpracování.

Osobní údaj je všechno, co se týká identifikované nebo identifikovatelné osoby. V AI světě se snadno přehlédne, že osobní údaje jsou i:

  • e-mailové podpisy, ID uživatelů v CRM a ticketingu, IP adresy, hlas a fotografie
  • texty e-mailů, chatů a poznámek v CRM
  • logy, kde je jméno operátora, zákaznické číslo, obsah objednávky

U generativní AI navíc řešíme dvě situace. Trénink a učení modelu a použití modelu. GDPR se týká obou. I když model jen používáte a netrénujete, může při použití docházet ke zpracování osobních údajů v promtech, konverzaci a výsledcích.

Právní základy zpracování a kdy který dává smysl

GDPR uznává několik právních základů. Pro AI projekty se nejčastěji uplatní tyto:

  • Plnění smlouvy. Když je zpracování nutné pro poskytování služby zákazníkovi. Například odpověď na reklamační požadavek.
  • Oprávněný zájem. Typicky pro zlepšení podpory, prevenci podvodů, interní reporting. Vždy je potřeba balancing test a možnost námitky.
  • Souhlas. Vhodný pro volitelné funkce. Musí být informovaný a odvolatelný stejně snadno, jako byl dán.
  • Právní povinnost. Uchování účetních dokladů, AML, bezpečnostní logy vyžadované předpisy.

Tip. Nesnažte se všechno řešit souhlasem. V zákaznické podpoře často stačí smlouva. U marketingu je naopak souhlas obvyklý.

Principy GDPR na AI: minimizace, účel, přesnost, retence, bezpečnost, odpovědnost

  • Minimizace. Do AI neposílejte víc dat, než je nutné. Pomáhá redakční vrstva, která automaticky odstraňuje citlivé části v promtech a dokumentech.
  • Účel. Vymezte, proč data zpracováváte. V ROPA zapište účel pro každý AI use case. Například vyřízení dotazů, vytěžování dokladů, predikce poptávky.
  • Přesnost. Pravidelně ověřujte správnost dat. U RAG uveďte citace zdrojů a zapojte kontrolu u citlivých výstupů.
  • Retence. Nastavte dobu uchování. Prompty a odpovědi není nutné držet věčně. Většině firem stačí 30 až 90 dní, výjimky archivujte zvlášť.
  • Integrita a důvěrnost. Šifrování, řízení přístupů, logování, oddělená prostředí, správa klíčů. Bez toho je AI riziko.
  • Odpovědnost. Mějte dokumentaci. Záznamy o rozhodnutích, výsledky testů, záznamy o školení uživatelů a pravidla používání.

DPIA v praxi. Kdy ji dělat a jak ji projít krok za krokem

Posouzení vlivu na ochranu osobních údajů je nutné, pokud zpracování představuje vysoké riziko. U AI to nastává často. Typicky když:

  • dochází k rozsáhlému zpracování osobních údajů nebo citlivých údajů
  • výstupy AI mohou mít podstatný dopad na práva osob, například scoring, automatizované odmítnutí
  • sdílíte data mimo EU nebo do cloudu, kde se dále zpracovávají

Jak na DPIA krok za krokem

  1. Popište účel a tok dat. Odkud data přichází, jak se mění a kam se ukládají.
  2. Zhodnoťte rizika. Únik, neautorizovaný přístup, chybné rozhodnutí, profilování.
  3. Navrhněte opatření. Redakce osobních údajů, lidské schválení, audit, retence, šifrování, geografická omezení.
  4. Odhadněte zbytkové riziko. Pokud je stále vysoké, zvažte konzultaci s dozorovým úřadem.
  5. Schvalte a udržujte. DPIA je živý dokument. Aktualizuje se při změně účelu, modelu nebo dodavatele.

AI Act a další rámce. Co sledovat a jak sladit s GDPR

Evropská regulace AI zavádí rizikové kategorie a nové povinnosti. I když detaily a termíny nabíhají postupně, dobrá praxe je jasná už dnes:

  • Identifikujte riziko. Většina firemních AI asistentů spadá do omezeného nebo středního rizika. Náborové a zdravotnické systémy mohou být vysoce rizikové.
  • Technická dokumentace. Popište účel, data, testy, metriky, omezení a pokyny k použití. Hodí se i pro GDPR a audity.
  • Transparentnost. Uživatel má vědět, že mluví s AI. U generování obsahu zvažte označení syntetického výstupu.

Pro praxi platí jednoduché pravidlo. Když stavíte řešení v souladu s GDPR a bezpečnostními standardy, většinu požadavků AI Actu máte pokrytou.

Specifická rizika LLM a generativní AI a jak je řídit

  • Prompt injection. Útočník vloží instrukce do dokumentu nebo webu, které přimějí AI porušit pravidla. Opatření. Bezpečné procházení, filtrování vstupů, sandbox pro akce, allowlist nástrojů a schvalování.
  • Únik citlivých dat. Uživatel pošle osobní údaje nebo tajné informace. Opatření. Redakční vrstva, detekce PII, školení, politiky použití, maskování.
  • Model inversion a membership inference. Snahy odhalit, zda byla konkrétní data v tréninku modelu. Opatření. Nepoužívat neveřejná data pro trénink bez smluvních záruk, oddělit inferenci od tréninku, sledovat poskytovatele.
  • Halucinace. Model si vymyslí fakt. Opatření. RAG s citacemi, skóre jistoty, lidská kontrola u citlivých výstupů.
  • Řetězení nástrojů. AI volá API, posílá e-maily, zakládá záznamy. Opatření. Role, práva, limity, schvalování, suché běhy a testy.
  • Security drift. Postupné uvolňování pravidel a výjimek. Opatření. Change management, revize oprávnění a pravidelný audit promptů a nástrojů.

Bezpečná architektura AI: brána, RAG, redakce, oprávnění, logy

Bezpečné AI řešení má několik vrstev, které dohromady tvoří obranu do hloubky.

  • AI brána. Centralizuje přístup k modelům, aplikuje politiky, loguje a směruje dotazy na správný model. Umožní rychle měnit poskytovatele a hlídat cenu.
  • Redakční vrstva. Automaticky detekuje a maskuje osobní a citlivé údaje ve vstupech i výstupech. Přidává varování a blokuje rizikové prompty.
  • RAG. Odpovědi se opírají o firemní dokumenty a databáze. Každá odpověď má citace zdrojů a odkaz na verzi dokumentu.
  • Role a oprávnění. RBAC nebo ABAC. AI účet má nejnižší možná práva. Citlivé akce vyžadují schválení člověkem.
  • Šifrování a správa klíčů. Data v klidu i přenosu šifrovaná. Klíče mimo aplikační logiku. Rotace klíčů a řízení přístupu.
  • Logy a auditní stopy. Zapisujte prompty, odpovědi, použitá data a provedené akce. Přidejte metriky jistoty a náklady. Chraňte logy, protože obsahují citlivé informace.
  • Oddělená prostředí. Vývoj, test, pilot a produkce. Všechno s vlastními účty, klíči a limity.

Governance a provoz: ROPA, DPA, přenosy dat, role v týmu

  • ROPA. Vedení záznamů o činnostech zpracování. Uveďte účel, kategorie dat, právní základ, retenci, zpracovatele a přenosy.
  • DPA se zpracovateli. Jasně upravte odpovědnost, bezpečnostní opatření, subdodavatele, audit a povinnost informovat při incidentu.
  • Mezinárodní přenosy. Pokud data opouští EU, řešte právní mechanismus a technická opatření. Preferujte regionální varianty služeb.
  • Role v týmu. Vlastník procesu, IT, bezpečnost, DPO a produktový manažer AI. Každý má jasné povinnosti.
  • Politiky použití AI. Co je povoleno, co zakázáno, jak hlásit incident, jak se pracuje s citlivými daty.

Práva subjektů údajů v AI. Jak je obsloužit bez chaosu

Osoby mají právo na přístup, opravu, výmaz, omezení, námitku a přenositelnost. V AI to řešíme takto:

  • Přístup. Zajistěte export relevantních záznamů. Pokud AI používá RAG, vyhledejte citované zdroje.
  • Oprava a výmaz. Upravte nebo smažte data ve zdrojových systémech a reindexujte. Logy držte jen po nezbytnou dobu.
  • Námitka proti oprávněnému zájmu. Připravte snadný způsob, jak zpracování zastavit pro konkrétní osobu.
  • Automatizované rozhodování. Pokud má významné účinky, zapojte lidskou kontrolu a vysvětlení.

Anonymizace, pseudonymizace, syntetická data a rozdíly mezi nimi

  • Pseudonymizace. Identifikátor se nahradí kódem. Stále jde o osobní údaj. Je to vhodný standard pro provozní logy a testování.
  • Anonymizace. Odstranění vazby na osobu tak, aby nešla obnovit. V praxi je náročná. Hodí se pro analýzy a veřejné sdílení.
  • Syntetická data. Uměle vytvořená data se stejnou statistikou. Užitečná pro vývoj a testy, ale hlídejte riziko zpětné identifikace.
  • Differential privacy. Techniky, které přidávají šum a brání odhalení jednotlivce v souboru.

Audit, red teaming, měření kvality a bias

Bez měření není řízení. Nastavte pravidelné testy a metriky.

  • Red teaming. Simulace útoků a zneužití. Testy na prompt injection, únik dat a obcházení politik.
  • Evaly. Testovací sady dotazů a očekávaných odpovědí. Měřte přesnost, pokrytí, latenci a náklady.
  • Bias. Sledujte spravedlnost a nepředpojatost. U HR a podpory dbejte na vyvážené vzorky.
  • Standardy. Inspirujte se ISO 27001 pro bezpečnost a ISO 27701 pro ochranu dat. U AI aplikací pomůže i seznam rizik OWASP pro LLM.

Incident response pro AI. Jak postupovat při úniku nebo chybě

  1. Detekce. Alerty z logů a gateway. Hlásicí kanál pro uživatele.
  2. Omezení škod. Vypněte problematický konektor, zrušte klíče, omezte oprávnění.
  3. Analýza. Co se stalo, jaká data, kdo byl dotčen, jak dlouho.
  4. Oznámení. Podle závažnosti informujte DPO, vedení a případně dozorový úřad a dotčené osoby.
  5. Náprava. Aktualizace pravidel, trénink uživatelů, technická opatření.
  6. Dokumentace. Záznam incidentu, lessons learned a změny v procesech.

Praktické scénáře a doporučené kontrolní body

Zákaznický chatbot nad CRM a znalostmi

  • Transparentně informujte uživatele, že odpovídá AI. Poskytněte možnost eskalace na člověka.
  • RAG s citacemi. Odkaz na články a pravidla. Při nízké jistotě povinná eskalace.
  • Maskování osobních údajů v promtech. Logy držte maximálně 90 dní.

Vytěžování faktur do ERP

  • OCR a extrakce v sandboxu. U chybových okrajů lidské schválení.
  • Idempotentní zápisy do ERP. Auditní stopy s hash hodnotou dokumentu.
  • Retence obrazových dat minimální. Textová metadata dle zákonných lhůt.

Asistent pro zaměstnance v intranetu

  • Role založené na oddělení. Uživatel vidí jen to, na co má práva v DMS a HR systémech.
  • Vypněte volné webové procházení. Zdroj je jen interní znalostní báze.
  • Školení zaměstnanců a jednoduché zásady. Co do chatu nepatří a jak označit citlivý obsah.

Dvanáctikrokový plán nasazení bezpečné AI

  1. Vyberte use case s vysokým objemem a jasným dopadem.
  2. Proveďte rychlé mapování dat. Kde jsou, kdo k nim přistupuje, jaká jsou rizika.
  3. Definujte právní základ a aktualizujte ROPA.
  4. Uzavřete DPA s dodavateli a zkontrolujte přenosy dat.
  5. Navrhněte architekturu. AI brána, redakce PII, RAG, logy, oprávnění.
  6. Proveďte DPIA. Dokumentujte rizika a opatření.
  7. Postavte prototyp v sandboxu. Měřte kvalitu, náklady a latenci.
  8. Nastavte schvalování u citlivých kroků a metriky jistoty.
  9. Ověřte bezpečnost. Šifrování, klíče, limity, red teaming.
  10. Připravte politiku použití a krátké školení uživatelů.
  11. Spusťte pilot s omezenou skupinou a sbírejte zpětnou vazbu.
  12. Vyhodnoťte KPI a ROI. Rozhodněte o rozšíření a nastavte pravidelný audit.

Checklist připravenosti pro vedení

  • Máme určený účel, právní základ a dobu uchování pro každý AI use case.
  • Máme DPA se všemi zpracovateli a víme, kde data fyzicky jsou.
  • Máme AI bránu, redakční vrstvu PII a logování promptů i akcí.
  • Máme role, nejnižší nutná oprávnění a schvalování citlivých operací.
  • Máme DPIA a pravidelný audit bezpečnosti a kvality.
  • Máme politiku použití AI a školení pro zaměstnance.
  • Máme připravený postup pro incidenty a požadavky subjektů údajů.

FAQ: časté otázky a stručné odpovědi

Můžeme posílat osobní údaje do cloudu modelu

Pokud je k tomu právní základ, smluvní záruky a technická opatření včetně šifrování a geografického omezení, pak ano. Citlivé údaje raději maskujte nebo používejte on-premise varianty.

Potřebujeme souhlas na každé použití AI

Ne. Záleží na účelu. Pro vyřízení požadavku zákazníka typicky stačí plnění smlouvy. Pro marketing a analýzu chování se často používá souhlas.

Co když AI odpoví špatně

U citlivých témat nastavte nízkou hranici jistoty pro předání člověku. Používejte RAG s citacemi. Logy slouží pro nápravu a školení modelu.

Jak dlouho uchovávat prompty a odpovědi

Co nejkratší dobu. Praktická volba je 30 až 90 dní. Pro obchodní a účetní agendu platí zákonné lhůty, držte je mimo konverzační logy.

Musíme dělat DPIA vždy

Ne vždy. U AI s osobními údaji je to ale časté. Doporučujeme alespoň rychlý screening rizik pro každý nový use case.

Závěr a další krok

Bezpečná a na GDPR připravená AI není o stovkách stránek dokumentace. Je to kombinace jasného účelu, rozumné architektury a průběžného provozního řádu. Kdo zvládne AI bránu, redakci osobních údajů, RAG s citacemi, nejnižší nutná oprávnění, logování a pravidelný audit, ten má 80 procent práce hotovo. Zbytek je disciplína. Malé iterace, měření a průběžné vylepšování.

Chcete mít AI bezpečnou a v souladu s GDPR

Připravíme rychlý audit, návrh opatření a pilot s měřitelnými výsledky. Od redakce PII přes RAG s citacemi až po logování a DPIA. Vše včetně školení týmu.

Domluvit konzultaci zdarma

Další interní odkazy

Přejít nahoru