Každý manažer chce AI. Každý IT ředitel se bojí úniku dat. A každý zaměstnanec už dávno používá ChatGPT — jen o tom nikdo neví. Tenhle článek vám pomůže najít rovnováhu mezi inovací a bezpečností. Žádné strašení, jen fakta a praktický návod, jak AI ve firmě nasadit bezpečně.
Představte si, že váš obchodník vloží do ChatGPT kompletní cenovou nabídku pro klíčového klienta. Nebo že HR manažerka pošle Claude seznam zaměstnanců s platy, aby jí pomohl s benchmarkingem. Případně vývojář zkopíruje do AI nástroje zdrojový kód s API klíči. Každý z nich to udělal v dobré víře — chtěl být efektivnější. Ale kam ta data vlastně putují?
Tohle je zásadní otázka, kterou si musí položit každá firma, která chce AI používat. A odpověď není jednoduchá, protože záleží na tom, jaký nástroj používáte, v jaké verzi a za jakých podmínek.
68 %
zaměstnanců v ČR přiznalo, že už AI nástroje v práci použilo — většina bez vědomí IT oddělení
Pojďme si projít, co se s vašimi daty děje u tří nejpoužívanějších AI nástrojů. Situace se rychle mění, ale následující platí k březnu 2026.
Free verze: Ve výchozím nastavení OpenAI může použít vaše konverzace k trénování modelů. Můžete to vypnout v nastavení (Settings → Data controls → Improve the model), ale výchozí stav je „zapnuto". To znamená, že cokoliv napíšete, se teoreticky může stát součástí trénovacích dat.
ChatGPT Plus/Team: Data z chatu se nepoužívají k trénování. OpenAI si ale ponechává právo data uchovávat po dobu 30 dnů pro účely monitoringu bezpečnosti (abuse detection).
ChatGPT Enterprise/API: Žádné trénování na vašich datech. Data nejsou sdílena mezi zákazníky. Podepsání DPA (Data Processing Agreement) kompatibilního s GDPR. Data hostovaná v regionech dle výběru.
Free verze: Anthropic ve výchozím nastavení nepoužívá konverzace z bezplatné verze k trénování modelů — ale může je použít pro bezpečnostní výzkum a detekci zneužití.
Claude Pro/Team: Data nejsou používána k trénování. Silné záruky ohledně přístupu zaměstnanců k datům.
Claude Enterprise/API: Plná izolace dat, DPA, možnost nastavení data residency v EU.
Free verze: Google používá konverzace s Gemini k vylepšování služeb. Data mohou být revidována lidskými hodnotiteli. Google to explicitně uvádí v podmínkách.
Gemini Advanced / Workspace: V rámci Google Workspace platí firemní podmínky — data nejsou používána k trénování. Google poskytuje DPA pro Workspace zákazníky.
Klíčové pravidlo: Free verze AI nástrojů NIKDY nepoužívejte pro firemní data. Rozdíl mezi free a placenou verzí není jen ve výkonu — je v tom, co se děje s vašimi daty.
Mnoho firem dělá fatální chybu — řeknou zaměstnancům „používejte AI" a nedají jim k tomu placený nástroj. Zaměstnanci si proto vytvoří vlastní bezplatný účet a pracují s ním. Výsledek? Firemní data tečou do trénovacích datasetů.
Free verze
Data mohou být použita k trénování modelů. Žádný DPA. Žádná kontrola nad tím, kde jsou data uložena. Žádný audit log. Žádná správa uživatelů. Jeden osobní účet = nula firemní kontroly.
Enterprise verze
Data nejsou použita k trénování. DPA kompatibilní s GDPR. Volba regionu uložení dat. Audit log přístupů. Centrální správa uživatelů a oprávnění. SSO/SAML integrace. Šifrování v klidu i při přenosu.
Konkrétní příklad: Microsoft Copilot pro Microsoft 365 (placená firemní verze) pracuje výhradně v rámci vašeho Microsoft 365 tenanta. Data nikdy neopouštějí vaše firemní prostředí a nejsou dostupná jiným zákazníkům ani Microsoftu pro trénování. Naproti tomu free Copilot na copilot.microsoft.com funguje jako běžný chatbot — s podmínkami spotřebitelské verze.
500 Kč
měsíčně za placenou verzi AI nástroje na zaměstnance — zlomek nákladů na řešení úniku dat
I s placenou verzí existují data, která by do AI nástrojů neměla putovat. Vytvořte si ve firmě jasný seznam „zakázaných dat" a pravidelně ho komunikujte.
Prompt ke zkopírování
Na druhou stranu — existuje obrovské množství úkolů, kde AI můžete používat bezpečně a bez rizika. Zaměstnanci by měli vědět nejen co je zakázáno, ale hlavně co je povoleno.
Nebezpečné
„Analyzuj tuto tabulku s platy všech zaměstnanců a navrhni úpravy." — obsahuje osobní údaje, jména, mzdy. Porušení GDPR a interních předpisů i v placené verzi.
Bezpečné
„Analyzuj tyto anonymizované mzdové údaje (pozice + výše platu bez jmen) a porovnej je s mediánem trhu." — žádné osobní údaje, jen agregovaná data pro benchmarking.
Pro firmy v České republice a EU platí specifická pravidla, která se přímo dotýkají používání AI nástrojů. Ignorování těchto pravidel není jen etický problém — je to právní riziko.
Pokud AI nástroj zpracovává osobní údaje vašich zákazníků nebo zaměstnanců, potřebujete s poskytovatelem uzavřít DPA. Bez něj jste v rozporu s článkem 28 GDPR. Enterprise verze ChatGPT, Claude i Google Workspace DPA nabízejí. Free verze ne.
GDPR nevyžaduje, aby data zůstala v EU (existují mechanismy pro přenos do USA — Data Privacy Framework), ale pro mnohé firmy je EU hosting preferovaný. Azure OpenAI umožňuje zvolit EU region. Claude Enterprise nabízí EU hosting. Google Workspace má data centers v EU.
Musíte mít právní základ pro to, že data do AI nástroje vůbec vkládáte. Typicky to bude „oprávněný zájem" (čl. 6 odst. 1 písm. f GDPR) nebo „souhlas" — záleží na typu dat a účelu zpracování. Pro zaměstnanecká data to může být „plnění smlouvy" nebo „zákonná povinnost".
Před nasazením AI ve firmě aktualizujte vaše záznamy o zpracování osobních údajů (ROPA). AI nástroje jsou nový typ zpracovatele a musí být v evidenci. Poraďte se s vaším DPO (Data Protection Officer).
20 mil. EUR
maximální pokuta za porušení GDPR — nebo 4 % celosvětového ročního obratu firmy
Každá firma, která chce AI používat odpovědně, potřebuje interní směrnici. Nemusí to být 50stránkový dokument — stačí jasná, srozumitelná pravidla na 2–3 stránky. Tady je šablona, kterou můžete použít jako základ.
Prompt ke zkopírování
Důležité body, které ve směrnici nesmí chybět:
„Shadow AI" je moderní verze „Shadow IT" — zaměstnanci používají AI nástroje bez vědomí a schválení IT oddělení. A ne je to jeden nebo dva lidé. Průzkumy ukazují, že většina zaměstnanců v kancelářských pozicích už AI vyzkoušela.
Problém není v tom, že zaměstnanci AI používají — to je naopak dobré znamení. Problém je, že to dělají bez jakýchkoliv pravidel. Používají free verze, vkládají citlivá data, nikdo neví jaká data odtekla a nikdo to nemonitoruje.
78 %
firem v ČR nemá žádnou interní směrnici pro používání AI nástrojů zaměstnanci
Řešení není zákaz — to nikdy nefungovalo a nikdy fungovat nebude. Zaměstnanci si najdou cestu. Řešením je:
Udělejte jednoduchý průzkum: anonymní dotazník „Kdo z vás používá AI nástroje v práci a jaké?" Výsledky vás pravděpodobně překvapí — a dají vám reálný obraz o tom, kde začít.
Pokud chcete maximální kontrolu nad daty, existuje několik úrovní zabezpečení. Od nejjednoduššího po nejpřísnější:
Nejrychlejší a nejlevnější cesta. ChatGPT Team, Claude Team nebo Google Workspace s Gemini. Data nejsou používána k trénování, máte DPA, centrální správu účtů. Vhodné pro většinu firem.
ChatGPT Enterprise, Claude Enterprise, Microsoft Copilot pro Microsoft 365. Navíc oproti Team verzím: SSO/SAML, audit logy, admin console, pokročilé řízení přístupu, dedikovaná podpora, SLA. Vhodné pro firmy s přísnějšími compliance požadavky.
AI modely běží ve vašem vlastním cloudovém prostředí (Azure tenant, AWS účet). Plná kontrola nad networking, šifrováním a přístupem. Data nikdy neopouštějí váš cloud. Můžete nastavit Private Endpoints, Virtual Networks a vlastní klíče šifrování (CMK). Vhodné pro regulované odvětví (finance, zdravotnictví).
AI model běží přímo na vašem hardware. Žádná data neopouštějí vaši síť. Open-source modely jako Llama, Mistral nebo Qwen lze provozovat na vlastních GPU serverech. Nevýhoda: vysoké počáteční náklady (GPU hardware) a modely jsou méně výkonné než komerční varianty. Vhodné pro vojenský průmysl, státní správu nebo extrémně citlivá data.
Prompt ke zkopírování
Než začnete AI ve firmě oficiálně používat, projděte si tento seznam. Není to žádná byrokratická formalita — je to ochrana vaší firmy, vašich zákazníků a vašich zaměstnanců.
Prompt ke zkopírování
Firmy, které AI zakážou, nebudou bezpečnější. Budou jen pomalejší. Jejich zaměstnanci budou AI stejně používat — jen tajně a bez jakýchkoliv pravidel. A to je ten nejhorší scénář.
Naopak firmy, které AI nasadí chytře a bezpečně, získají dvojnásobnou výhodu: zvýšenou produktivitu a kontrolu nad daty. Není to buď/nebo — je to obojí zároveň.
Začněte jednoduše: vyberte jeden schválený nástroj v placené verzi, vytvořte základní směrnici, proškolte zaměstnance a postupně rozšiřujte. Za měsíc budete na tom lépe než 90 % českých firem.
Bezpečnost není překážka inovace. Je to její předpoklad. Firma, která AI nasadí bezpečně, ji bude moci používat odvážněji a ve větším rozsahu než ta, která to „nějak" řeší za pochodu.
3×
rychlejší adopce AI u firem s jasnou bezpečnostní politikou oproti firmám bez pravidel