Reklama 3 tysiące złotych na miesiąc.
fot. Unsplash
Izba Wydawców Prasy oraz Stowarzyszenie Dziennikarzy i Wydawców Repropol przyznały, że projekt „Polityki rozwoju sztucznej inteligencji w Polsce do 2030 r.” stanowi ważny krok w kierunku kształtowania przyszłości cyfrowej Polski. Dokument w sposób kompleksowy omawia szanse i wyzwania związane z rozwojem AI, odwołując się do standardów międzynarodowych i europejskich.
Zwrócono jednak uwagę, że projekt nie dostrzega w wystarczającym stopniu jednego z kluczowych wyzwań współczesnej polityki innowacyjności, czyli potrzeby zapewnienia symetrycznego, sprawiedliwego i zrównoważonego rozwoju AI. Rzecz w tym, żeby finalne ustalenia nie prowadziły do koncentracji korzyści w rękach “technologicznie uprzywilejowanych podmiotów" kosztem twórców czy producentów dóbr kultury.
Wśród uwag pojawił się postulat, aby rozwój AI szedł w parze z ochroną i wsparciem dla ludzkiej kreatywności oraz poszanowaniem podmiotowości twórców jako równoprawnych uczestników procesu transformacji cyfrowej.
AI jako narzędzie wspierające człowieka
Izba Wydawców Prasy i Repropol uważają, że sztuczna inteligencja powinna być narzędziem wspierającym człowieka, nigdy zaś jego substytutem. Systemy AI muszą pozostawać pod nadzorem i kontrolą człowieka, zwłaszcza w obszarach wymagających odpowiedzialności oraz zgodności z podstawowymi zasadami etycznymi. W ich ocenie wszelkie systemy AI wdrażane w Polsce powinny funkcjonować wyłącznie dla dobra człowieka i podlegać jego skutecznej kontroli.
Odniesiono się także do jednego z rozdziałów projektu, który mówi, że treści generowane przez AI nie podlegają ochronie prawa autorskiego z uwagi na brak wkładu człowieka.
Newsletter WirtualneMedia.pl w Twojej skrzynce mailowej
“Podzielamy tę ocenę i opowiadamy się za jej utrzymaniem. Zwracamy jednocześnie uwagę, że masowa produkcja syntetycznych treści rodzi szereg ryzyk zarówno dla pozycji ekonomicznej twórców, jak i jakości informacji oraz zaufania do przekazów funkcjonujących w przestrzeni publicznej. Warto, by projekt polityki wyraźniej uwzględniał te wyzwania i wzmacniał ochronę utworów ludzkich oraz pozycję” – czytamy w stanowisku.
Poszanowanie twórczości
Jako najistotniejsze zagadnienie wskazano kwestię wykorzystania utworów do trenowania modeli AI: “Pozostaje poza sporem, że dziejąca się na naszych oczach rewolucja nie byłaby możliwa bez wykorzystania ogromnych zasobów cudzych utworów (dziennikarskich, literackich, artystycznych, audiowizualnych, etc.) które są masowo kopiowane bez zgody czy wiedzy twórców. Taka sytuacja jest nadzwyczaj alarmująca: twórcy obawiają się, że ich praca stała się zwykłym paliwem dla modeli AI – bez ich kontroli, bez jakiegokolwiek wynagrodzenia”.
Podkreślono, że obecny porządek prawny niestety nie gwarantuje ochrony twórczości.
Co prawda dyrektywa CDSM wprowadziła wyjątki od ochrony prawnoautorskiej w postaci eksploracji tekstów i danych (text and data mining, TDM), które zezwalają na zwielokrotnianie utworów do trenowania algorytmów AI, jednak ma to zastosowanie wyłącznie w określonych sytuacjach. W praktyce autorzy nie mają często nawet świadomości, że ich dzieła zostały wykorzystane w treningu AI, gdyż korporacje tworzące modele AI po prostu nie ujawniają źródeł danych treningowych. W efekcie autorzy dowiadują się już po fakcie, że ich dzieła zasilały systemy AI.
“Rodzi o gigantyczne poczucie niesprawiedliwości wynikające ze świadomości budowania mechanizmu biznesowego w oparciu o cudzy dorobek intelektualny (free-riding). Proces pozyskiwania utworów z sieci internetowej trwa od wielu lat. Środowisko twórców oraz producentów dóbr kultury oczekuje zatem nie tylko ustanowienia efektywnego mechanizmu wynagrodzenia zorientowanego na przyszłość, ale także rzetelnego rozliczenia szkody wynikłej w przeszłości z powodu bezumownego korzystania z cudzej twórczości” – postulują podmioty.
I tutaj zaproponowano “odwrócenie ciężaru dowodu”, które to miałoby mieć miejsce gdy wygenerowany output AI jest identyczny lub podobny do utworu określonego twórcy. Wtedy to na dostawcy narzędzia miałby spoczywać obowiązek wykazania, że jego produkt nie był trenowany na utworze danego autora.
Padła także propozycja zapewnienia przejrzystości - zarówno na etapie trenowania modeli, jak i na etapie generowania treści. Miałoby to oznaczać m,in. obowiązek ujawniania wykorzystywanych zbiorów danych treningowych (w szczególności źródeł pochodzenia treści). Oznaczanie treści syntetycznych miałoby odbywać się w sposób umożliwiający ich odróżnienie od materiałów pochodzących od ludzi.