zpět

DeepSeek AI rizika

20.3.2025

DeepSeek je nový hráč na poli umělé inteligence, který si rychle si získal velkou pozornost. Co to ale znamená pro firmy? Tento bezplatný model AI s neomezeným přístupem s sebou přináší nejen nové příležitosti, ale také nevídaná bezpečnostní rizika, která se mohou projevit dříve, než si to organizace vůbec uvědomí. Proč by měla každá firma, zejména malé a střední podniky, zpozornět?

Na první pohled vypadá vše lákavě – bezplatný a výkonný AI model, který zvládá širokou škálu úloh. Jenže DeepSeek jde daleko za hranice běžného sběru dat. Veškeré interakce uživatele jsou přenášeny na externí servery, včetně promptů, souborů, historie chatu, hlasových vstupů, obrázků a dokonce i vzorců stisknutých kláves. A to je teprve začátek.

Jakmile jakýkoliv zaměstnanec vloží do DeepSeek jakoukoliv citlivou informaci – třeba smlouvu s klientem nebo specifikaci nového produktu – existuje reálná šance, že tato data už nejsou pod kontrolou společnosti. DeepSeek si totiž vyhrazuje právo kontrolovat veškerý obsah a potenciálně jej sdílet s třetími stranami, včetně svých firemních poboček. Pro organizace, které musejí dodržovat přísné regulační předpisy jako GDPR, HIPAA nebo CCPA, jde o závažný problém, který může vést nejen k úniku dat, ale i k vysokým pokutám za nedodržení předpisů.

Malé a střední podniky (SME) jsou často vnímány jako méně atraktivní cíl pro kyberzločince, ale realita je jiná. Právě SME bývají nejzranitelnější, protože nemají robustní bezpečnostní opatření a týmy odborníků na kybernetickou bezpečnost. DeepSeek přitom otevírá nové dveře pro možné bezpečnostní incidenty.

Pokud zaměstnanec například požádá DeepSeek o analýzu datové sady, mohou se mezi daty nacházet i citlivé firemní údaje. Ty mohou být následně uloženy a využity pro trénování modelu. Firma tak nejenže ztrácí kontrolu nad daty, ale potenciálně je zpřístupňuje i jiným uživatelům AI modelu.

Další hrozbou je možnost cenzury a manipulace s informacemi. DeepSeek využívá určitá omezení obsahu a může filtrovat témata, což může mít nepřímý dopad na obchodní strategie a provoz firem. Například některé modely AI už dnes blokují generování textů souvisejících s konkurencí nebo citlivými právními záležitostmi.

Řešení existuje. Podniky by měly přistupovat k používání DeepSeek s maximální obezřetností a zavést jasné interní směrnice pro práci s AI. Ne každý zaměstnanec by měl mít možnost používat AI modely ke zpracování citlivých firemních dat. IT oddělení by mělo zablokovat přístup nebo vytvořit specifická pravidla.

Zaměstnanci by měli být jasně informováni o rizicích, která s sebou DeepSeek nese. Stačí jedno neuvážené vložení citlivých dat a firma může čelit nevratným škodám.

K dispozici jsou technologie, které pomáhají detekovat a minimalizovat úniky dat. Například bezpečnostní řešení umožňují analyzovat interakce zaměstnanců s AI v reálném čase a zabránit odesílání citlivých informací.

Každá firma by měla konzultovat právní aspekty používání DeepSeek s odborníky na ochranu dat. Je důležité vědět, zda a jakým způsobem lze vůbec AI modely využívat v souladu s legislativou.

DeepSeek představuje obrovský skok v přístupnosti umělé inteligence, ale zároveň i významnou bezpečnostní hrozbu. Firmy, zejména SME, by měly být maximálně obezřetné, než tuto technologii začnou využívat. Přestože láká nulovými náklady a vysokým výkonem, jeho přístup k datům a potenciální bezpečnostní rizika jsou natolik zásadní, že se bez pečlivé analýzy a preventivních opatření neobejdou. A v době, kdy je ochrana dat stále přísnější, je důležité neztratit kontrolu nad tím nejcennějším – informacemi, které drží podnikání nad vodou.