Publikacje

Garrigues

ELIGE TU PAÍS / ESCOLHA O SEU PAÍS / CHOOSE YOUR COUNTRY / WYBIERZ SWÓJ KRAJ / 选择您的国家

Unia Europejska na drodze do uregulowania sztucznej inteligencji

Polska - 

Przy faktycznym braku innych podobnych projektów legislacyjnych w poszczególnych państwach członkowskich Unia Europejska wprowadza pierwszą kompleksową regulację sztucznej inteligencji („AI”).

W kwestii Artificial Intelligence Act (w skrócie „AIA”, pełna nazwa to: „Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji”) porozumiały się już Parlament Europejski oraz państwa członkowskie UE, a sam akt może wejść w życie w pierwszej połowie 2024 roku.

O AIA mówi się, że jest to pierwsza na świecie kompleksowa regulacja sztucznej inteligencji. U jej podstaw leżą podobne założenia jak we wcześniejszych aktach prawnych Unii Europejskiej dotyczących wprowadzania potencjalnie niebezpiecznych produktów na rynek. Obowiązki wynikające z przepisów odpowiadają zatem ryzyku, jakie stwarzają one dla zdrowia, bezpieczeństwa i praw człowieka. Systemy AI mają być podzielone na trzy kategorie ryzyka: niedopuszczalne oraz o wysokim i ograniczonym ryzyku. Systemy niedopuszczalne takie jak programy oceny obywateli (social scoring), systemy wykorzystujące manipulację poznawczo-behawioralną wobec ludzi należących do grup wrażliwych oraz systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym (w szczególności rozpoznawania twarzy), zostaną zakazane. Policja wyjątkowo będzie mogła korzystać z tych ostatnich w przypadku nieprzewidywalnego zagrożenia atakiem terrorystycznym, w poszukiwaniu ofiar i w ściganiu niektórych poważnych przestępstw, AIA nie będzie mieć również zastosowania do celów wojskowych.

Systemy wysokiego ryzyka będą oceniane przed dopuszczeniem ich na rynek i przez cały okres swojego funkcjonowania. Co więcej, muszą one być zaprojektowane w sposób pozwalający zrozumieć, dlaczego podejmują dane decyzje i być szkolone wyłącznie na zestawach danych spełniających określone standardy.

Pomimo obaw rządów Francji i Niemiec co do zakresu regulacji i jej możliwego wpływu na dalszy rozwój branży (co łączono z troską o interesy firm IT rozwijających technologie AI i zlokalizowanych w tych krajach, w szczególności Mistral i Aleph Alpha) po grudniowym 37-godzinnym maratonie negocjacji, rozmowy w sprawie AIA zakończyły się sukcesem. Rozporządzenie musi jeszcze zostać przyjęte przez Parlament Europejski. Jednocześnie niektóre państwa członkowskie już planują zostać pionierami rozwiązań wprowadzanych przez AIA, wprowadzając, zgodnie z proponowanymi normami, pierwsze agencje oraz narzędzia regulacyjne. Hiszpania zamierza odgrywać wiodącą rolę w promowaniu innowacji w zakresie sztucznej inteligencji w UE. Hiszpański dekret królewski zapewnia już ramy regulacyjne dla narzędzi, które mają pomóc w opracowaniu nowych wytycznych technicznych.

Podczas ostatnich trzech lat, kiedy AIA powoli przechodziła ścieżkę legislacyjną UE, w świecie sztucznej inteligencji nastąpiły gwałtowne zmiany. Wobec gwałtownego rozwoju generatywnej sztucznej inteligencji, w szczególności dużych modeli językowych, takich jak Chat GPT konieczne było wprowadzenie nowych zapisów w projekcie rozporządzenia. Twórcy zostali zobowiązani do właściwego oznaczania treści kreowanych przez AI, projektowania modeli w taki sposób, by niemożliwe było generowanie treści sprzecznych z prawem, a także publikowania zestawień danych wykorzystywanych do szkolenia. Wiele pytań, w szczególności dotyczących praw autorskich, pozostaje jednak bez odpowiedzi.

Wraz z szybkim rozwojem generatywnej sztucznej inteligencji pytanie komu przysługują prawa autorskie do powstałych w ten sposób dzieł, szybko przestaje być przedmiotem teoretycznych dywagacji prawno-filozoficznych, a staje się realnym problemem. Powszechny dostęp do modeli opartych na języku naturalnym pozwala praktycznie każdemu, niezależnie od biegłości w posługiwaniu się technologią, generować cyfrową sztukę lub teksty, często z przeznaczeniem na cele komercyjne. Zjawisko to może zmienić wiele branży, przykładowo ważną częścią negocjacji między frakcją scenarzystów a hollywoodzkimi producentami była kwestia sztucznej inteligencji i jej możliwego wpływu na ich pracę. Kolejne sektory gospodarki już korzystają z nowych technologii i będą potrzebować jasnych wytycznych dotyczących ich stosowania.

Obecnie rozważane rozwiązania tej kwestii to: przyznanie praw autorskich autorowi kodu lub osobie dostarczającej dane wejściowe, przyznanie praw autorskich programowi albo, być może najbardziej powszechne, uznanie, że wytwory sztucznej inteligencji w ogóle nie powinny być chronione prawem własności intelektualnej.

Żadne z proponowanych rozwiązań nie jest pozbawione wad. Przyznanie praw autorskich właścicielowi programu może wydawać się dobrym pomysłem, jednak programiści w większości przypadków mają niewielką lub żadną wiedzę na temat projektów zrealizowanych przy użyciu ich technologii, co praktycznie uniemożliwiłoby ochronę ich praw autorskich. Nie mają tego szczególnego rodzaju więzi ze sztuką generowaną przez „swoje” AI, jakiego zwykliśmy oczekiwać od twórców. Uznając użytkownika za autora napotykamy na podobne problemy - użytkownicy zwykle również nie mają zbyt dużej kontroli nad ostateczną formą sztuki, którą tworzą za pomocą AI.

Pogląd o tym, że prawa autorskie mogłyby przysługiwać istotom innym niż ludzie, znacznie wyprzedza pojawienie się Dall-e czy Chatu GPT. W 2014 roku United States Copyright Office zaopiniowało, że prawo autorskie nie obejmuje swoją ochroną maszyn, roślin ani zwierząt – na kanwie sprawy, która przeszła do historii jako „Spór o selfie małpy”. W 2019 r. złożono i opublikowano międzynarodowy wniosek patentowy, w którym jako twórcę wskazano system sztucznej inteligencji DABUS. Los tego wniosku różnił się pomiędzy krajami. Jednak na dużą skalę przyznanie praw autorskich programowi AI jest niemożliwe w obecnym systemie prawnym, ponieważ nie przyznaje mu się osobowości prawnej.

Komisja Europejska opracowała czteroetapowy test, który ma pomóc w ustaleniu, czy rezultat wspomagany przez AI kwalifikuje się do ochrony jako utwór i jasno wskazuje, że prawa autorskie mogą być przyznawane wyłącznie dziełom w przeważającej części stworzonych przez człowieka. Pierwszym krokiem jest ustalenie czy wynik pracy AI należy do dziedziny literackiej, naukowej lub artystycznej. Po drugie, rezultat pracy wspomaganej przez AI musi być wynikiem ludzkiego wysiłku intelektualnego, rozumianego co najmniej jako interwencja człowieka. Trzeci krok nakłada wymóg oryginalności i indywidualności, który jest spełniony wtedy, gdy proces tworzenia wspomagany przez sztuczną inteligencję obejmuje kreatywne wybory dokonywane przez ludzi, i jest to odzwierciedlone ostatecznym rezultacie. Wreszcie, rezultat pracy musi być ustalony, z wystarczającą precyzją i obiektywnością.

Większość już działających narzędzi rozwiązuje tę kwestię umownie. Warunki korzystania z produktów OpenAI (ChatGPT i DALL-E) rozróżniają dane wejściowe i wyjściowe. Zakłada się, że użytkownik posiada prawa do wszystkich danych wejściowych. OpenAI przenosi wszystkie swoje prawa, tytuły i udziały w danych wyjściowych na użytkownika, umożliwiając mu korzystanie z nich w dowolnym celu, w tym komercyjnym (z zastrzeżeniem przestrzegania przez użytkownika warunków korzystania z usługi). Midjourney (inna usługa do tworzenia grafiki na podstawie opisu w języku naturalnym) przewiduje w swoich warunkach korzystania, że użytkownik udziela licencji na korzystanie z treści wejściowych, utworów pochodnych i dzieł wytworzonych w ramach usługi. Użytkownik jest uprawniony do korzystania z dzieł wytworzonych w ramach usługi, jednak użytkownicy nie będący subskrybentami, otrzymują jedynie licencję niekomercyjną.

Pojawiają się też opinie, że należy na nowo zdefiniować koncepcje autorstwa i własności intelektualnej, poszukiwać nowych rozwiązań, lepiej dostosowanych do szybko zmieniającej się rzeczywistości. Jedną z koncepcji, która zyskuje na popularności w kontekście własności intelektualnej i sztucznej inteligencji, jest zastosowanie do AI tzw. podejścia "works made for hire" (prace tworzone na zlecenie). Rozwiązanie to jest obecnie stosowane w USA do regulowania stosunków między pracodawcami a pracownikami lub innymi wykonawcami. Gdy utwór jest tworzony w ramach stosunku pracy lub podobnego, przyjmujemy fikcję prawną, że autorem (i właścicielem praw autorskich) nie jest twórca, a zlecający pracę. Niektórzy prawnicy opowiadają się za analogicznym podejściem do twórczości AI - uznaniem osoby dostarczającej dane wejściowe za pracodawcę "zatrudniającego" system AI (w pewnym sensie omijając problem przyznania praw autorskich samemu AI).

Wreszcie, kwestią, której nie można pominąć w tym kontekście, jest ochrona własności intelektualnej twórców, których dzieła są wprowadzane do systemu jako część zestawów treningowych dla programu opartego na AI. Przeciwko firmom zajmującym się sztuczną inteligencją złożono już liczne pozwy wskazujące na możliwe naruszenia praw autorskich. Twórcy twierdzą, że ich prace są wykorzystywane bez ich wiedzy i zgody, a firmy AI czerpią z nich zyski. Sądy muszą teraz zadecydować, czy szkolenie programu na treściach chronionych prawem autorskim mieści się w ramach "dozwolonego użytku" (jak chcieliby twórcy AI), czy też jest to naruszenie praw autorskich. W Unii Europejskiej AIA zobowiąże firmy zajmujące się generatywną sztuczną inteligencją do publikowania podsumowań danych chronionych prawem autorskim wykorzystywanych do szkolenia, ponieważ w wielu przypadkach twórcy w żaden sposób nie są w stanie zweryfikować czy ich prace są częścią takiego zestawu danych.