
Zakázané praktiky umělé inteligence
V posledních letech se stále častěji setkáváme s tématem umělé inteligence (AI), která neustále mění náš každodenní život. Od osobních asistentů až po složité algoritmy používané k analýze dat, AI může být velmi užitečná, ale její zneužití může přinést závažné právní a etické problémy. Evropská unie se rozhodla tuto problematiku řešit komplexně a stanovila směrnice pro regulaci využívání AI. Jedním z klíčových dokumentů je Nařízení (EU) 2024/1689, známé jako AI Akt, který stanoví seznam zakázaných praktik a přísné sankce za jejich porušení. To má zásadní důsledky pro všechny firmy, které používají nebo plánují nasadit AI v rámci EU, neboť hrozí pokuty až do výše 35 milionů EUR nebo 7 % ročního obratu.
V návaznosti na tento akt Komise 4. února 2025 zveřejnila Pokyny k zakázaným praktikám AI, které podrobně rozvádějí, jakým způsobem se bude nařízení aplikovat. Přestože tyto pokyny nejsou právně závazné, slouží jako užitečný nástroj pro správnou aplikaci AI Aktu a pro určení, jaké praktiky jsou považovány za nelegální. Pokyny vycházejí zejména z rizik, která AI představuje pro základní práva, jako je lidská důstojnost, soukromí nebo zákaz diskriminace. Přinášejí specifikace a příklady, které podnikům pomohou orientovat se v tom, jaké konkrétní praktiky jsou zakázané a jak mohou předejít právním problémům.
Jednou z hlavních oblastí, které Pokyny upravují, jsou systémy AI, které jsou označeny jako nepřijatelné riziko podle AI Aktu. Tento typ AI představuje vážná nebezpečí pro jednotlivce i společnost a jeho využívání je od 2. února 2025 zakázáno.
Jednou z nejzávažnějších zakázaných praktik jsou podprahové manipulační techniky, které využívají AI k ovlivnění chování jednotlivců tak, že naruší jejich schopnost učinit informované rozhodnutí. Typickým příkladem mohou být systémy AI, které na sociálních sítích uměle prodlužují čas strávený uživatelem na platformě pomocí psychologických triků. Takové praktiky mohou vést k závislosti nebo psychickým problémům, přičemž samotný uživatel si může být vědom pouze minimálního vlivu. Dalším příkladem může být AI chatbot, který napodobuje hlas blízké osoby, aby přesvědčil člověka k finančně nevýhodnému rozhodnutí, jako je převod peněz. Tato forma podvodu, byť nezamýšlená, představuje vysoké riziko a spadá pod zakázané praktiky, protože výrazně zhoršuje schopnost člověka učinit rozumné rozhodnutí. Pokyny zdůrazňují, že se nevyžaduje úmysl klamat. Pokud AI systém používá podprahové nebo manipulativní techniky, už se dostává do nelegální sféry bez ohledu na úmysl.
Další oblastí, která podléhá přísnému zákazu, je využívání zranitelností uživatelů. To zahrnuje záměrné cílení na jednotlivce na základě jejich věku, zdravotního stavu nebo socioekonomické situace. AI systémy, které využívají tyto zranitelnosti k tomu, aby přesvědčily jednotlivce k neuváženým rozhodnutím, jsou přísně zakázány. Příkladem je situace, kdy je starší člověk ovlivněn klamavou reklamou na "lék na všechny nemoci" nebo pokud jsou mladí lidé cíleni na nákupy nezdravých produktů prostřednictvím AI algoritmů, které předpokládají jejich emocionální nebo kognitivní zranitelnost. Takové cílení je neetické a nelegální, protože zneužívá slabosti a důvěry těchto skupin. Pokyny vysvětlují, že zranitelnost se netýká pouze tělesného stavu, ale také mentálních a emocionálních aspektů. Firmy by měly zkontrolovat, zda jejich AI systémy nevyužívají těchto slabin, a v případě pochybností provést potřebné úpravy.
Sociální bodování, známé také jako social scoring, je dalším příkladem praktiky, která je zakázána. Tento systém hodnotí osoby na základě jejich chování nebo osobních vlastností, což může vést k diskriminaci. Příkladem může být použití AI k hodnocení zdravotního stavu občanů a následnému poskytování různých výhod nebo nevýhod na základě toho, jak splňují „ideální“ profil. Pokud by například zdravotní pojišťovna používala AI k tomu, aby podle stravovacích návyků klienta upravila nabídku pojištění, mohl by tento systém diskriminovat určité skupiny. Stejně tak je nepřípustné použití AI, které predikuje pravděpodobnost spáchání trestného činu na základě profilování jednotlivců. Tato predikce, zejména pokud je založena na diskriminačních vzorcích nebo osobních datech, je zakázaná, protože může vést k nespravedlivému zacházení.
Predikce kriminality je nebezpečnou oblastí, která zahrnuje AI systémy, jež analyzují osobnostní rysy a minulost jednotlivců a na základě toho předpovídají pravděpodobnost spáchání trestného činu. Tato praxe je považována za diskriminační, protože často používá stereotypy, například na základě etnického původu nebo pohlaví. Představte si policejní systém, který označuje určité skupiny lidí za pravděpodobnější pachatele na základě jejich minulosti nebo etnického původu. Tato forma profilování je v EU přísně zakázána, protože porušuje základní principy rovnosti a právní jistoty.
Regulace AI je v současnosti dynamickým a rychle se vyvíjejícím tématem. S nástupem AI Aktu a Pokynů Komise bude muset každý subjekt, který využívá AI, být obezřetný, aby neporušil zakázané praktiky, které mohou mít závažné právní a finanční důsledky. Firmy musí důsledně kontrolovat své AI systémy a vyhnout se praktickému zneužívání zranitelností, manipulacím a diskriminaci. Pokud se některé z těchto oblastí týkají vašeho podnikání, je nezbytné provést audity a přehodnotit existující algoritmy, aby nevyvolávaly právní problémy. S ohledem na přechodné období do 2. srpna 2025 je čas na implementaci správných postupů a zajištění souladu s právními normami. Pro společnosti, které se touto problematikou zabývají, se stanou Pokyny a AI Akt klíčovým nástrojem pro správné nasazení umělé inteligence v souladu s evropskými hodnotami a zákony.