Proces přijetí Aktu o umělé inteligenci jde do finále. Předpis, který tolik rezonuje technologickým a právním světem, přijme Evropský parlament na zítřejším plenárním zasedání a účinnosti nabyde v roce 2026. Panuje poměrně mylná představa, že jde pouze o regulaci technické povahy AI modelů a systémů. Naopak, na základě podzimního trialogu institucí Evropské unie (EU) byl do Aktu doplněn zásadní autorskoprávní aspekt,[1] který může mít dalekosáhlé negativní důsledky pro vývoj a distribuci AI systémů v EU.
Boom okolo generativní AI v průběhu minulého roku přinesl do tvorby Aktu o umělé inteligenci („Akt“) doplnění několika ustanovení, která zamíchala kartami a vnesla do dokumentu více otázek, než jich vyřešila. Konkrétně skupina populárních nástrojů generativní AI, jako jsou ChatGPT, Midjourney a další, byla terminologicky vymezena jako tzv. obecně použitelné AI modely (general-purpose AI models – GPAI).[2]
Mezi řadu povinností, které by Akt pro poskytovatele GPAI měl zavádět, patří i povinnost stanovit politiku, která bude respektovat unijní autorské právo, zejména pak identifikovat a zohledňovat, a to i prostřednictvím nejmodernějších technologií, výhrady práv vyjádřené podle čl. 4 odst. 3 (ustanovení regulující problematiku vytěžování dat, tzv. data mining) směrnice (EU) 2019/790 o autorském právu a právech s ním souvisejících na jednotném digitálním trhu („Směrnice“).
Podmínky data miningu a přeshraniční použitelnost
Akt aktuálně explicitně uvádí, že kompilování datasetů a trénování AI modelů na těchto datasetech představuje data mining ve smyslu Směrnice a podléhá podmínkám a omezením v ní vyjádřeným. Obecně je data mining bez souhlasů autorů vytěžovaných děl zakázán s výjimkou vytěžování pro vědecké účely nebo pro komerční účely dle podmínek článku 4 Směrnice. O ty jde, má-li vytěžující subjekt „zákonný přístup“ k vytěžovaným datům (například, když jsou předmětná data veřejně přístupná) a nositelé příslušných práv nezakázali použití svých děl (dat) pro data mining ve strojově čitelném formátu (např. prostřednictvím robots.txt či příslušných podmínek užívání).
Jinými slovy, pokud nositelé práv provedou relevantní data mingový „opt-out“, nesmí předmětná data nikdo vytěžovat ani použít k natrénovaní AI, neboť tímto by porušoval výhradní práva třetích osob.
Dle aktuálního návrhu Aktu to vypadá, že EU volí cestu poměrně přísné regulace. Například již v preambuli Aktu se uvádí, že každý poskytovatel, který uvádí AI systém na jednotný trh, by měl dodržovat unijní autorské právo bez ohledu na jurisdikci, v níž se odehrávají úkony související s trénováním AI modelů.
Cílem má být zajištění „rovných podmínek“ mezi poskytovateli, aby neexistovala možnost získat konkurenční výhodu tím, že dojde k natrénování AI modelu mimo EU v jurisdikci, kde jsou právní předpisy regulující data mining méně restriktivní. Takový koncept však může narazit na zásadu teritoriality autorského práva (tj. právní řád každé země upravuje podmínky vzniku a obsahu autorského práva, jakož i zásahů do něj, autonomně), a proto je jeho uplatnitelnost a vymahatelnost v praxi zatím značně nejasná.
Přístupy v zahraničí
Zatímco si EU zvolila přístup chránící spíše nositele práv k obsahu, naopak třeba v Japonsku se legislativa zdá být pro vývojáře AI řešení podstatně přívětivější. Podle stávajícího autorskoprávního režimu je totiž pravděpodobné, že ve většině případů nebudou autoři oprávněni žalovat vývojáře, kteří používají jejich autorská díla k sestavování AI datasetů, za porušení autorských práv,[3] což bylo mimo jiné nedávno potvrzeno i na vládní úrovni.[4]
V USA by pak data mining mohl spadat pod tzv. „fair use“ doktrínu, která opravňuje v některých případech (řeší se případ od případu – nejčastěji v souvislosti s parodií)[5] užití díla bez souhlasu autora.[6] V tomto směru by mohlo přijít bližší upřesnění pravidel na základě nedávno podané žaloby ze strany The New York Times proti OpenAI a Microsoftu za porušení autorských práv, v níž newyorkský deník tvrdí, že „miliony článků z The New York Times byly použity k tréninku chatbotů, kteří mu nyní konkurují“.[7] OpenAI v tomto ohledu argumentuje, že trénování AI modelů s využitím veřejně dostupných internetových materiálů představuje „fair use“, což „podporují dlouhodobé a široce uznávané precedenty“ a což společnost považuje za „spravedlivé vůči tvůrcům, nezbytné pro inovátory a rozhodující pro konkurenci schopnost Spojených států“.[8] S ohledem na potenciálně precedenční povahu tohoto sporu bude zajímavé sledovat, který z těchto názorů u soudu převáží.
Možné dopady
V kontrastu s výše uvedenými pravidly v jiných jurisdikcích je plánovaný přístup EU pro vývojáře poměrně restriktivní a může představovat další důvod,[9] proč se klíčoví technologičtí hráči rozhodnou vyvíjet svá AI řešení mimo území EU, anebo je v EU distribuovat ve značně omezené podobě. Investice Microsoftu do francouzského AI startupu Mistral AI[10] by mohla být první vlaštovkou tohoto trendu, signalizující potenciální širší implikace přeregulovanosti AI trhu v EU.
Přísné evropské regulatorní podmínky totiž pro většinu subjektů pravděpodobně nebudou, vzhledem k obrovské kvantitě tréninkových dat a způsobu jejich sběru (tj. automatizovaným stahováním napříč internetem), splnitelné.
Se stávajícím nastavením Aktu je navíc spojeno mnoho dalších dílčích otázek. Například jak postupovat v situaci, kdy už jsou AI modely natrénovány a stalo se tak před plánovanou účinností Aktu?[11] Znamená to, že modely bude potřeba „odtrénovat“ nebo zásadně filtrovat (což bude buď technicky nemožné, nebo přinejmenším značně nákladné)? Bude samotný data mining v rozporu se Směrnicí bez dalšího považován za porušení autorského práva, přičemž ani případný filtrační mechanismus v AI modelu, který zabrání generování „porušujícího“ obsahu, takové porušení dodatečně nezhojí?
Jak je zřejmé, z výše popsaného propojení Aktu a unijní autorskoprávní perspektivy vyvolává skutečně mnoho nejasností a vyvstává otázka, zda než se v pravidlech složitě orientovat anebo poskytovat pouze omezené služby, technologické společnosti jednoduše nezvolí cestu regionálního „opt-outu“ a své služby zaměří na rozvojové regiony s volnější regulací nebo rozvinuté země s přístupem shovívavějším vůči vývojářům.
Závěr
Stávající znění Aktu má z hlediska autorského práva mnoho nejasností. Mimo jiné i proto se domníváme, že vyváženější a inovativnější přístup k řešení výše uvedených problémů by mohl spočívat v implementaci mechanismu bezpečného přístavu podobného tomu, který mohou využít společnosti v souvislosti s odpovědností za cizí obsah v online prostoru.[12]
Mechanismus bezpečného přístavu pro vývojáře AI by dle našeho názoru zajistil jasný a srozumitelný právní rámec, který by zohledňoval náročnost a realitu vývoje AI řešení, zejména co do vytěžování dat a využívání autorských děl pro účely jejich tréninku. Díky strukturované a flexibilní právní úpravě by pak vývojáři AI měli větší právní jistotu ohledně svých povinností, jejichž případné porušení by vedlo ke vzniku odpovědnosti vůči příslušným nositelům práv.
Uvidíme, kam se budoucí znění Aktu bude ubírat. Bude-li EU neustále přitvrzovat a vývojáře AI sankcionovat objektivní odpovědností, i když vynaloží veškeré přiměřené úsilí, aby zabránili porušování práv třetích osob, odbaví tím velmi rychle pomyslný AI vlak do Japonska či podobně smýšlejících zemí.
- [1] – Oficiální konsolidované znění Aktu ještě nebylo zveřejněno, tato verze však unikla prostřednictvím řady dobře informovaných zdrojů v této věci, např. zde: https://drive.google.com/file/d/1xfN5T8VChK8fSh3wUiYtRVOKIi9oIcAF/view.
- [2] – Akt definuje GPAI následovně: „AI systém, který – bez ohledu na způsob uvedení na trh nebo do provozu, včetně open source softwaru – je poskytovatelem určen k provádění obecně použitelných funkcí, jako je rozpoznávání obrazu a řeči, generování zvuku a videa, detekce vzorů, zodpovídání otázek, překlad a další, který může být použit v mnoha kontextech a může být integrován do mnoha jiných AI systémů“, tj. je zřejmé, že primárně je kladen důraz právě na generativní AI nástroje, přestože širší pojetí této definice by mohlo vést poměrně nesystematicky k mnohem rozsáhlejší interpretaci.
- [3] – Každý případ však bude nutné posuzovat individuálně a nelze paušálně říci, že tomu tak bude vždy. Pro více informací zde: https://www.lexology.com/library/detail.aspx?g=d6358d5b-b020-430e-84b9-dd3497822c9b.
- [4] – Pro více informací zde: https://finance.yahoo.com/news/ai-art-wars-japan-says-185350499.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAAFkUn6iqpeHvUzkO2ZbRV4qwubB07C5QwpZ7su0nTErrUAPu56B0e_8NUqKlI9d1JkmMc-fJ8WeCZUJXjJGam2EHcNiMo4soUg5oFyg_lz4zaSPBKMqK7H0Hl5eJve6b7pGDLozqxQ5WjkrsaGfV9p4uHd3--5IwasQkGughEPGn.
- [5] – Často na tuto doktrínu odkazují tvůrci seriálu South Park, kde jsou velmi často k vidění hraniční parodické prvky. Pro více informací: https://reason.com/2016/03/20/how-south-park-saved-fair-use/.
- [6] – Mnoho amerických odborníků na fair use a autorské právo se domnívá, že silným precedentem pro uplatnění fair use doktríny ve prospěch vývojářů AI řešení by mohl být případ Authors Guild, Inc. v. Google, Inc. V tomto soudy rozhodly, že se digitalizační projekt Google Books, v rámci něhož Google skenoval velké množství knih do vlastní digitální knihovny, pohybuje v mantinelech fair use, protože je transformativní, přičemž zdůraznil společenský přínos projektu, aniž by přímo konkuroval trhu s původními díly. Pro více informaci např.: https://www.lupa.cz/clanky/google-skenovani-knih-rozsudek/.
- [7] – Pro více informací: https://www.nytimes.com/2023/12/27/business/media/new-york-times-open-ai-microsoft-lawsuit.html.
- [8] – Pro více informací: https://openai.com/blog/openai-and-journalism.
- [9] – Vedle obecně poměrně přísné regulace v rámci Aktu, ale i plánované regulace odpovědnosti za škodu způsobenou AI systémy. Pro více informací si můžete přečíst náš předchozí článek na toto téma: https://www.havelpartners.blog/odpovednost-za-vadne-vyrobky-a-umelou-inteligenci-v-digitalni-ere-cast-druha.
- [10] – Pro více informací: https://www.novinky.cz/clanek/ekonomika-microsoft-investuje-do-evropskeho-mistralu-zabyva-se-ai-40462251.
- [11] – Aktuálně Akt předpokládá, že poskytovatelé GPAI, jejichž AI modely byly na trh uvedeny před datem účinnosti Aktu, přijmou nezbytná opatření, aby splnili povinnosti v něm stanovené do 2 let ode dne nabytí účinnosti. Není však vyjasněno, jak mají být některé z těchto povinností splněny po technické stránce.
- [12] – Japonská autorskoprávní úprava dokonce dovoluje vývojářům AI autorská díla užívat, pokud dané užití nebude činěno s úmyslem zneužít nebo napodobit původní dílo (například vytvořit odvozené dílo), ale za účelem vývoje komplexního nástroje, jehož výstupem je v konečném důsledku vytvoření „nového“ díla, které není totožné nebo obdobné s prvky užitého autorského díla. Pro více informací viz. poznámka pod čarou č. 4.