Jakie przepisy regulują wykorzystanie sztucznej inteligencji (AI) stanowi jedno z najistotniejszych zagadnień w obszarze regulacje technologicznego rozwoju i odpowiedzialności.
Międzynarodowe ramy prawne
Na poziomie globalnym inicjatywy dotyczące sztucznej inteligencji wynikają głównie z potrzeb zapewnienia etyka i transparentności działań podejmowanych przez podmioty tworzące oprogramowanie AI. Kluczowe dokumenty międzynarodowe wskazują zarówno na obowiązek minimalizowania ryzyko związanego z wykorzystaniem zaawansowanych systemów, jak i na konieczność ochrony użytkowników przed negatywnymi skutkami działań algorytmów.
Rekomendacje UNESCO
Pod auspicjami UNESCO opracowano wytyczne dotyczące etycznego rozwoju oraz stosowania AI. Dokument ten podkreśla cztery podstawowe zasady:
- Dobro człowieka ponad algorytm.
- Zapewnienie transparentności mechanizmów podejmowania decyzji.
- Poszanowanie równości i niedyskryminacji.
- Odpowiedzialność twórców i użytkowników systemów AI.
Rekomendacje nie mają bezpośredniej mocy prawny, ale stanowią fundament przy tworzeniu krajowych i regionalnych aktów prawnych.
Zasady OECD
Organizacja Współpracy Gospodarczej i Rozwoju (OECD) przyjęła w 2019 roku komplet zasad dla sztucznej inteligencji. Dokument zaleca:
- Stworzenie mechanizmów nadzoru i raportowania potencjalnych zagrożeń.
- Promowanie otwartości i współpracy międzynarodowej.
- Wzmacnianie kapitału społecznego poprzez edukację i dostęp do informacji.
Zasady OECD są wdrażane poprzez rekomendacje dla państw członkowskich, które dopasowują je do własnych systemów odpowiedzialność regulacyjnych.
Prawo Unii Europejskiej
Unia Europejska podejmuje szczegółowe kroki w celu ukształtowania spójnego zestawu przepisów, których celem jest zarówno ochrona obywateli, jak i wspieranie konkurencyjności przedsiębiorstw w branży AI. Najważniejsze akty to:
- Projekt rozporządzenia o sztucznej inteligencji (AI Act).
- Ogólne rozporządzenie o ochronie danych (GDPR).
- Rozporządzenie eIDAS dotyczące usług zaufania.
Wszystkie te instrumenty łączą się w mechanizmy zapewniające wysokie standardy bezpieczeństwa i ochrona danych.
Akt o sztucznej inteligencji (AI Act)
AI Act to pierwszy tego typu projekt na świecie, który wprowadza systemy klasyfikacji ryzyka:
- Systemy zakazane – np. narzędzia do masowego profilowania.
- Wysokiego ryzyka – podlegają ocenie zgodności przed wprowadzeniem na rynek.
- Niskiego i minimalnego ryzyka – podlegają jedynie obowiązkom informacyjnym.
Projekt nakłada m.in. wymóg przeprowadzania projekt oceny wpływu na prawa podstawowe oraz ustanowienia rejestrów danych użytych do trenowania modeli.
Ochrona danych osobowych i cyberbezpieczeństwo
GDPR wprowadza obowiązki informacyjne dla podmiotów przetwarzających dane używane w systemach AI. Konieczne jest:
- Uzyskanie świadomej zgody od osoby, której dane dotyczą.
- Przeprowadzanie oceny skutków dla ochrony danych (DPIA) przy nowych wdrożeniach.
- Zapewnienie prawa do wyjaśnienia decyzji automatycznych.
Rozporządzenie eIDAS reguluje natomiast kwestie elektronicznej identyfikacji i usług zaufania, co ma znaczenie przy certyfikowaniu komponentów oprogramowania AI.
Prawo krajowe i implementacje
Państwa członkowskie UE muszą implementować unijne akty w sposób spójny, jednocześnie mogą wprowadzać własne regulacje uzupełniające. W Polsce kwestie związane z AI są rozproszone w kilku ustawach i rozporządzeniach.
Polskie regulacje dotyczące AI
W polskim porządku prawnym brak jest odrębnej ustawy o sztucznej inteligencji. Elementy dotyczące AI pojawiają się m.in. w:
- Ustawie o ochronie danych osobowych;
- Ustawie o krajowym systemie cyberbezpieczeństwa;
- Ustawie o usługach zaufania oraz identyfikacji elektronicznej.
Ministerstwo Rozwoju i Technologii opracowało również Krajową strategię rozwoju sztucznej inteligencji, która wskazuje priorytety badawcze i edukacyjne.
Odpowiedzialność i sankcje
Brak dedykowanej ustawy zmusza organy ścigania i sądy do stosowania ogólnych przepisów prawa odpowiedzialność cywilnej i karnej. W praktyce kluczowe zagadnienia to:
- Odpowiedzialność producenta za wady algorytmu;
- Odpowiedzialność użytkownika za nieprawidłowe wykorzystanie systemu;
- Sankcje administracyjne za naruszenie przepisów o ochronie danych osobowych.
Sytuację komplikuje brak powszechnego mechanizmu certyfikacji modeli AI, co wpływa na poziom zaufanie społecznego.
Standardy etyczne i wytyczne branżowe
Oprócz regulacji miękkich tworzonych przez instytucje międzynarodowe i organizacje pozarządowe, branża IT wprowadza własne kodeksy postępowania. Celem jest uwzględnienie użytkowników oraz potencjalnych ofiar wadliwie działających systemów AI.
Inicjatywy międzynarodowe
W gronie globalnych gigantów technologicznych powstały platformy wymiany najlepszych praktyk. Przykładem jest partnerstwo AI4People inicjowane przez European Think Tank, które promuje pięć wartości:
- Dobrostan;
- Autonomia;
- Sprawiedliwość;
- Demokratyczna kontrola;
- Transparentność.
Podmioty przyjmujące te zasady zobowiązują się do regularnych audytów i raportów na temat funkcjonowania swoich systemów.
Rola organizacji branżowych
Stowarzyszenia takie jak IEEE czy ISO opracowują międzynarodowe normy techniczne. Dokument ISO/IEC TR 24028:2020 poświęcony jest ocenie ryzyko związanego z AI, natomiast ISO/IEC JTC 1/SC 42 zajmuje się standardami dotyczącymi architektury i procesów wytwarzania algorytmów. Dążeniem jest stworzenie jednolitego podejścia do certyfikacji i kontrola jakości rozwiązań AI.