24. 12. 2025

Bezpečnost AI ve firmě: role, přístupy, logy a práce s citlivými daty

Praktické minimum pro AI v produkci: RBAC, audit trail, retenční pravidla, citlivá data a jak se vyhnout úniku informací přes prompt.

Bezpečnost u AI není jen „zapnout šifrování“. Nejčastější problémy vznikají v přístupech, logování a v tom, že AI pracuje s textem (a text je snadno kopírovatelný).

1) Role a přístupy (RBAC)

  • kdo může zadávat dotazy,
  • kdo může vidět jaké dokumenty (u RAG zásadní),
  • kdo může schvalovat výjimky.

Pokud řešíte asistenta nad interními dokumenty, navazuje to přímo na Firemní chatbot / AI asistent (RAG).

2) Audit trail: co, kdo, kdy

V produkci potřebujete dohledat:

  • kdo se ptal,
  • na jaká data systém sáhl,
  • jaké bylo rozhodnutí (a proč),
  • jak se řešily výjimky.

Tohle je klíčové i pro management reporting a řízení rizik.

3) Retence a minimalizace dat

Z pohledu rizika často vyhrává jednoduché pravidlo: uchovávat méně.

  • definujte retenční dobu logů,
  • anonymizujte, pokud to dává smysl,
  • oddělte prostředí (dev/test/prod).

4) Prompt leak a „nechtěné znalosti“

AI může omylem:

  • zopakovat citlivý text,
  • použít neveřejný dokument v odpovědi,
  • vygenerovat výstup, který porušuje interní pravidla.

Mitigace je kombinace přístupů, citlivostních štítků a testování. Prakticky to řešíme jako součást AI implementace.

5) Jak začít bezpečně

Doporučený postup:

  1. vybrat use‑case,
  2. nastavit role a datové limity,
  3. udělat pilot s měřením,
  4. teprve pak škálovat.

Kontejner pro rozhodnutí managementu popisuje AI governance pro CEO.

Ukázky z praxe najdete v referencích (např. MyZenCheck nebo Credizen).

Chcete rychlý sanity-check bezpečnosti pro váš use‑case? Domluvte si kontakt.

Autor
Rostislav Sikora
Founder · AI delivery & governance

Pomáhám CEO a managementu dostat AI do reálných procesů: audit → pilot → produkce, s měřením dopadu, bezpečností a auditovatelností.

Zpět na blog Domluvit konzultaci