Nástroje a systémy umělé inteligence jsou dnes v hledáčku snad každé větší firmy jako součást její inovační agendy. Ať už firma technologie vyvíjí, zavádí je svým zákazníkům, připravuje strategii jejich adopce nebo se je jen sama chystá využívat, vždy se vyplatí záměry probrat s právními experty. Ti s téměř nekonečným výčtem příležitostí, které umělá inteligence přináší, řeší řadu právních témat. Pojďme se podívat na ty nejčastější.
Interní předpisy
Pokud Vaše organizace umožňuje pracovníkům používat AI nástroje, je častým požadavkem příprava nebo revize interních pravidel jejich používání. Pokud nemáte striktně zablokovaný přístup pracovních zařízení k vybraným webovým stránkám, je velice pravděpodobné, že Vaši pracovníci pro svou práci nástroje AI používají. Může jít o asistenty podporované generativní umělou inteligencí (např. ChatGPT, Claude či Copilot), nástroje sloužící k překladu či editaci textů (např. DeepL, Grammarly či QuillBot) nebo grafické tvorbě (např. Midjourney, Canva či DALL-E).
Zejména v zahraničí je interní AI Policy jeden z prvních dokumentů, který organizace vytváří v rámci své inovační agendy, a to s cílem využívat AI udržitelně a kontrolovaně. Organizace se snaží chránit zejména své obchodní tajemství či jí kontrolované osobní údaje a dávat svým pracovníkům spolu s přístupem k těmto nástrojům i dostatečnou míru edukace. V případě porušení těchto povinností pracovníkem pak AI Policy představuje stěžejní podkladový dokument.
Dodavatelská ujednání
Větší společnosti mívají při sledování dodavatelského řetězce relativně striktní pravidla pro sdílení informací a dokumentů se svými dodavateli a velmi omezují možnosti, jak mohou dodavatelé poskytnuté dokumenty a informace využívat.
Zejména v západních zemích je proto stále častější, že se takové společnosti snaží předvídatelně nastavit pravidla používání AI u svých dodavatelů (typicky v obchodních podmínkách anebo přílohách smlouvy). Ta vychází z očekávání, že Vaši dodavatelé AI nástroje a systémy využívají nebo plánují využívat stejně jako vy. Setkali jsme se už s požadavkem na přípravu a následné začlenění takového ujednání do smlouvy o poskytování právních služeb s významným klientem. Dodavatelská ujednání ohledně užívání AI bývají taktéž standardně předmětem předtransakčních právních prověrek.
Úprava „GDPR“ dokumentace
S využíváním AI nástrojů se přirozeně pojí i ochrana osobních údajů. V této souvislosti by si každá organizace měla položit následující otázky:
- Informujeme řádně subjekty údajů o zpracování s využitím AI (naše zákazníky, uživatele či zaměstnance)?
- Nevzniká nám povinnost provést posouzení vlivu na ochranu osobních údajů či jmenovat pověřence pro ochranu osobních údajů?
- Na základě jakých právních titulů osobní údaje zpracováváme a nedochází k jejich předání do třetích zemí?
- Využívají systémy a nástroje AI ke svému „učení“ námi vedené osobní údaje a pokud ano, máme to možnost zakázat?
- Máme kontrolu nad tím, zda, jak dlouho a v jaké podobě jsou data v systémech AI uložena?
Při zavádění nového AI nástroje či systému je potřeba vždy vyhodnotit, jaké budou dopady do stávajících procesů zpracování (jaké osobní údaje budou prostřednictvím AI zpracovávány, po jakou dobu, komu budou předávány apod.) a následně to zohlednit ve stávající „GDPR“ dokumentaci – zejména záznamech o činnostech zpracování či zásadách zpracování osobních údajů.
Současně je s poskytovatelem nástroje zpravidla zapotřebí uzavřít zpracovatelskou smlouvu, a v případě předávání osobních údajů do třetích zemí toto adekvátně ošetřit – např. prostřednictvím standardních smluvních doložek. U rozsáhlejšího zpracování je na místě také vyhodnotit nutnost vypracování posouzení vlivu na ochranu osobních údajů (DPIA), které se v souvislosti s využíváním AI zpravidla doporučuje, a taktéž zvážit jmenování pověřence pro ochranu osobních údajů.
Dopady Aktu o umělé inteligenci
Drtivá většina organizací zaregistrovala přijetí takzvaného Aktu o umělé inteligenci,[1] který má za cíl regulovat používání umělé inteligence, a to zejména v oblastech s vysokým rizikem pro lidská práva, bezpečnost a základní svobody.
Organizace využívající AI nástroje a systémy, se stále častěji (a oprávněně) ptají, zda se nemůže jednat o vysoce rizikový systém, jaké povinnosti na ně z výše uvedeného nařízení dopadnou, jakým způsobem je provést a nastavit související procesy v praxi. Odpovědi na tyto otázky zpravidla vyžadují kombinaci právních a technických znalostí a postupů, jejichž implementace v rámci každodenní činnosti organizace může být často zdlouhavá – proto se compliance s touto regulací vyplatí řešit s dostatečným časovým předstihem.
Tréninková data
Jedním z klíčových právních aspektů spojených s využíváním AI je práce s tréninkovými daty. Organizace, které pracují s daty z různých zdrojů, často investují značné prostředky do jejich nákupu či licencování, přičemž otázka, zda je možné tato data využít pro trénování vlastních AI modelů, se stává stále palčivější.
I když firmy transparentně uvádí, že při vývoji svých AI nástrojů používají konkrétní zdroje a zdůrazňují, že jde o asistované řešení, je nutné postupovat obezřetně, neboť právní rámec se liší podle typu dat a jejich využití. Je proto zásadní, aby organizace zvážily právní omezení a licenční podmínky (smluvní i zákonné) spojené s použitím dat, obzvláště pokud jde o jejich další využití v rámci trénování AI modelů – nedodržení těchto pravidel by mohlo mít vážné právní důsledky (což ostatně dosvědčuje i stále narůstající množství žalob ze strany nositelů práv vůči poskytovatelům nástrojů AI, které pozorujeme zejména v USA).
Implementace nového systému nebo řešení
AI se dnes stále častěji využívá v rámci vysoce specializovaných systémů, jako je například vyhodnocování dat z kamerových systémů nebo dokonce k nahrazování lidské pracovní síly. I když tato řešení mohou být pro firmy atraktivní z hlediska úspor a zvýšení efektivity, nesmí podceňovat právní a etické aspekty jejich nasazení.
Klíčové je, aby organizace vždy pečlivě zohlednily právní rámec, zejména smluvní závazky a technická opatření, která minimalizují riziko zneužití nebo chybného použití těchto technologií. Stejně důležité je zajistit transparentní dokumentaci pro zákazníky, která vyvrací pochybnosti o bezpečnosti a funkčnosti nasazeného AI řešení – nedostatečná péče v této oblasti by mohla vést k právním komplikacím s negativním dopadem na provoz a pověst organizace.
Důležité je nepodceňovat rovněž oblast veřejnoprávní regulace, ať už jde o zmíněnou ochranu osobních údajů (např. v případě kamerových systémů s rozpoznáváním obličejů se jedná o zpracování biometrických dat jako zvláštních kategorií osobních údajů), regulace AI (podle Aktu o umělé inteligenci spadají v drtivé většině případů systémy biometrické identifikace na dálku i systémy AI určené k použití za účelem rozpoznávání emocí mezi vysoce rizikové) či pravidel kybernetické bezpečnosti.
Právní odpovědnost
S větším využitím AI při programování a řízení strojů (např. dronů), vyvstává celá řada právních otázek, které je třeba důkladně zvážit. Klíčová je zejména odpovědnost za škody způsobené chybou systému, což představuje jednu z nejpalčivějších výzev pro vývojáře AI nástrojů. Kromě náhrady škody je nutné pečlivě nastavit i smluvní podmínky se zákazníky, včetně zajištění toho, že systémy budou splňovat potřebné bezpečnostní standardy a budou odolné vůči kybernetickým útokům.
Tyto oblasti si vyžadují jasná pravidla a důsledné procesy, které minimalizují právní rizika a zajistí, že využívání AI v technologiích bude v souladu s právními a technickými požadavky. Samotné prokazování původce chyby (vývojář, výrobce, uživatel, integrátor a další osoby) je v řadě případů dosti komplikované.
Závěr
Umělá inteligence, stejně jako jakákoli inovativní technologie v poslední době, přináší pro organizace řadu příležitostí, jak získat konkurenční výhodu, ať již inovací produktů, optimalizací procesů či snížením nákladů, ale také řadu právních výzev.
Pokud ve svém podnikání AI nástroje využíváte a nejste si jisti, zda máte vše nezbytné pokryto, velmi rádi s Vámi vše probereme. Díky našim zkušenostem Vám pomůžeme najít efektivní řešení všech otázek spojených s AI.
- [1] – Nařízení Evropského parlamentu a Rady (EU) 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci).