Dekorativní pozadí stránky

Přitvrdilo se příliš? Podmínky pro trénink AI modelů dle předpisů EU bude složité splnit

Přitvrdilo se příliš? Podmínky pro trénink AI modelů dle předpisů EU bude složité splnit

Proces přijetí Aktu o umělé inteligenci jde do finále. Předpis, který tolik rezonuje technologickým a právním světem, přijme Evropský parlament na zítřejším plenárním zasedání a účinnosti nabyde v roce 2026. Panuje poměrně mylná představa, že jde pouze o regulaci technické povahy AI modelů a systémů. Naopak, na základě podzimního trialogu institucí Evropské unie (EU) byl do Aktu doplněn zásadní autorskoprávní aspekt,[1] který může mít dalekosáhlé negativní důsledky pro vývoj a distribuci AI systémů v EU.

Boom okolo generativní AI v průběhu minulého roku přinesl do tvorby Aktu o umělé inteligenci („Akt“) doplnění několika ustanovení, která zamíchala kartami a vnesla do dokumentu více otázek, než jich vyřešila. Konkrétně skupina populárních nástrojů generativní AI, jako jsou ChatGPT, Midjourney a další, byla terminologicky vymezena jako tzv. obecně použitelné AI modely (general-purpose AI models – GPAI).[2]

Mezi řadu povinností, které by Akt pro poskytovatele GPAI měl zavádět, patří i povinnost stanovit politiku, která bude respektovat unijní autorské právo, zejména pak identifikovat a zohledňovat, a to i prostřednictvím nejmodernějších technologií, výhrady práv vyjádřené podle čl. 4 odst. 3 (ustanovení regulující problematiku vytěžování dat, tzv. data mining) směrnice (EU) 2019/790 o autorském právu a právech s ním souvisejících na jednotném digitálním trhu („Směrnice“).

Podmínky data miningu a přeshraniční použitelnost

Akt aktuálně explicitně uvádí, že kompilování datasetů a trénování AI modelů na těchto datasetech představuje data mining ve smyslu Směrnice a podléhá podmínkám a omezením v ní vyjádřeným. Obecně je data mining bez souhlasů autorů vytěžovaných děl zakázán s výjimkou vytěžování pro vědecké účely nebo pro komerční účely dle podmínek článku 4 Směrnice. O ty jde, má-li vytěžující subjekt „zákonný přístup“ k vytěžovaným datům (například, když jsou předmětná data veřejně přístupná) a nositelé příslušných práv nezakázali použití svých děl (dat) pro data mining ve strojově čitelném formátu (např. prostřednictvím robots.txt či příslušných podmínek užívání).

Jinými slovy, pokud nositelé práv provedou relevantní data mingový „opt-out“, nesmí předmětná data nikdo vytěžovat ani použít k natrénovaní AI, neboť tímto by porušoval výhradní práva třetích osob.

Dle aktuálního návrhu Aktu to vypadá, že EU volí cestu poměrně přísné regulace. Například již v preambuli Aktu se uvádí, že každý poskytovatel, který uvádí AI systém na jednotný trh, by měl dodržovat unijní autorské právo bez ohledu na jurisdikci, v níž se odehrávají úkony související s trénováním AI modelů. 

Cílem má být zajištění „rovných podmínek“ mezi poskytovateli, aby neexistovala možnost získat konkurenční výhodu tím, že dojde k natrénování AI modelu mimo EU v jurisdikci, kde jsou právní předpisy regulující data mining méně restriktivní. Takový koncept však může narazit na zásadu teritoriality autorského práva (tj. právní řád každé země upravuje podmínky vzniku a obsahu autorského práva, jakož i zásahů do něj, autonomně), a proto je jeho uplatnitelnost a vymahatelnost v praxi zatím značně nejasná.

Přístupy v zahraničí

Zatímco si EU zvolila přístup chránící spíše nositele práv k obsahu, naopak třeba v Japonsku se legislativa zdá být pro vývojáře AI řešení podstatně přívětivější. Podle stávajícího autorskoprávního režimu je totiž pravděpodobné, že ve většině případů nebudou autoři oprávněni žalovat vývojáře, kteří používají jejich autorská díla k sestavování AI datasetů, za porušení autorských práv,[3] což bylo mimo jiné nedávno potvrzeno i na vládní úrovni.[4]

V USA by pak data mining mohl spadat pod tzv. „fair use“ doktrínu, která opravňuje v některých případech (řeší se případ od případu – nejčastěji v souvislosti s parodií)[5] užití díla bez souhlasu autora.[6] V tomto směru by mohlo přijít bližší upřesnění pravidel na základě nedávno podané žaloby ze strany The New York Times proti OpenAI a Microsoftu za porušení autorských práv, v níž newyorkský deník tvrdí, že „miliony článků z The New York Times byly použity k tréninku chatbotů, kteří mu nyní konkurují.[7] OpenAI v tomto ohledu argumentuje, že trénování AI modelů s využitím veřejně dostupných internetových materiálů představuje „fair use“, což „podporují dlouhodobé a široce uznávané precedenty“ a což společnost považuje za „spravedlivé vůči tvůrcům, nezbytné pro inovátory a rozhodující pro konkurenci schopnost Spojených států.[8] S ohledem na potenciálně precedenční povahu tohoto sporu bude zajímavé sledovat, který z těchto názorů u soudu převáží. 

Možné dopady

V kontrastu s výše uvedenými pravidly v jiných jurisdikcích je plánovaný přístup EU pro vývojáře poměrně restriktivní a může představovat další důvod,[9] proč se klíčoví technologičtí hráči rozhodnou vyvíjet svá AI řešení mimo území EU, anebo je v EU distribuovat ve značně omezené podobě. Investice Microsoftu do francouzského AI startupu Mistral AI[10] by mohla být první vlaštovkou tohoto trendu, signalizující potenciální širší implikace přeregulovanosti AI trhu v EU.

Přísné evropské regulatorní podmínky totiž pro většinu subjektů pravděpodobně nebudou, vzhledem k obrovské kvantitě tréninkových dat a způsobu jejich sběru (tj. automatizovaným stahováním napříč internetem), splnitelné. 

Se stávajícím nastavením Aktu je navíc spojeno mnoho dalších dílčích otázek. Například jak postupovat v situaci, kdy už jsou AI modely natrénovány a stalo se tak před plánovanou účinností Aktu?[11] Znamená to, že modely bude potřeba „odtrénovat“ nebo zásadně filtrovat (což bude buď technicky nemožné, nebo přinejmenším značně nákladné)? Bude samotný data mining v rozporu se Směrnicí bez dalšího považován za porušení autorského práva, přičemž ani případný filtrační mechanismus v AI modelu, který zabrání generování „porušujícího“ obsahu, takové porušení dodatečně nezhojí?

Jak je zřejmé, z výše popsaného propojení Aktu a unijní autorskoprávní perspektivy vyvolává skutečně mnoho nejasností a vyvstává otázka, zda než se v pravidlech složitě orientovat anebo poskytovat pouze omezené služby, technologické společnosti jednoduše nezvolí cestu regionálního „opt-outu“ a své služby zaměří na rozvojové regiony s volnější regulací nebo rozvinuté země s přístupem shovívavějším vůči vývojářům.

Závěr

Stávající znění Aktu má z hlediska autorského práva mnoho nejasností. Mimo jiné i proto se domníváme, že vyváženější a inovativnější přístup k řešení výše uvedených problémů by mohl spočívat v implementaci mechanismu bezpečného přístavu podobného tomu, který mohou využít společnosti v souvislosti s odpovědností za cizí obsah v online prostoru.[12] 

Mechanismus bezpečného přístavu pro vývojáře AI by dle našeho názoru zajistil jasný a srozumitelný právní rámec, který by zohledňoval náročnost a realitu vývoje AI řešení, zejména co do vytěžování dat a využívání autorských děl pro účely jejich tréninku. Díky strukturované a flexibilní právní úpravě by pak vývojáři AI měli větší právní jistotu ohledně svých povinností, jejichž případné porušení by vedlo ke vzniku odpovědnosti vůči příslušným nositelům práv.

Uvidíme, kam se budoucí znění Aktu bude ubírat. Bude-li EU neustále přitvrzovat a vývojáře AI sankcionovat objektivní odpovědností, i když vynaloží veškeré přiměřené úsilí, aby zabránili porušování práv třetích osob, odbaví tím velmi rychle pomyslný AI vlak do Japonska či podobně smýšlejících zemí.

Související články