Bezpečnost u AI není jen „zapnout šifrování“. Nejčastější problémy vznikají v přístupech, logování a v tom, že AI pracuje s textem (a text je snadno kopírovatelný).
1) Role a přístupy (RBAC)
- kdo může zadávat dotazy,
- kdo může vidět jaké dokumenty (u RAG zásadní),
- kdo může schvalovat výjimky.
Pokud řešíte asistenta nad interními dokumenty, navazuje to přímo na Firemní chatbot / AI asistent (RAG).
2) Audit trail: co, kdo, kdy
V produkci potřebujete dohledat:
- kdo se ptal,
- na jaká data systém sáhl,
- jaké bylo rozhodnutí (a proč),
- jak se řešily výjimky.
Tohle je klíčové i pro management reporting a řízení rizik.
3) Retence a minimalizace dat
Z pohledu rizika často vyhrává jednoduché pravidlo: uchovávat méně.
- definujte retenční dobu logů,
- anonymizujte, pokud to dává smysl,
- oddělte prostředí (dev/test/prod).
4) Prompt leak a „nechtěné znalosti“
AI může omylem:
- zopakovat citlivý text,
- použít neveřejný dokument v odpovědi,
- vygenerovat výstup, který porušuje interní pravidla.
Mitigace je kombinace přístupů, citlivostních štítků a testování. Prakticky to řešíme jako součást AI implementace.
5) Jak začít bezpečně
Doporučený postup:
- vybrat use‑case,
- nastavit role a datové limity,
- udělat pilot s měřením,
- teprve pak škálovat.
Kontejner pro rozhodnutí managementu popisuje AI governance pro CEO.
Ukázky z praxe najdete v referencích (např. MyZenCheck nebo Credizen).
Chcete rychlý sanity-check bezpečnosti pro váš use‑case? Domluvte si kontakt.