Jakie przepisy regulują wykorzystanie sztucznej inteligencji (AI).

Jakie przepisy regulują wykorzystanie sztucznej inteligencji (AI) stanowi jedno z najistotniejszych zagadnień w obszarze regulacje technologicznego rozwoju i odpowiedzialności.

Międzynarodowe ramy prawne

Na poziomie globalnym inicjatywy dotyczące sztucznej inteligencji wynikają głównie z potrzeb zapewnienia etyka i transparentności działań podejmowanych przez podmioty tworzące oprogramowanie AI. Kluczowe dokumenty międzynarodowe wskazują zarówno na obowiązek minimalizowania ryzyko związanego z wykorzystaniem zaawansowanych systemów, jak i na konieczność ochrony użytkowników przed negatywnymi skutkami działań algorytmów.

Rekomendacje UNESCO

Pod auspicjami UNESCO opracowano wytyczne dotyczące etycznego rozwoju oraz stosowania AI. Dokument ten podkreśla cztery podstawowe zasady:

  • Dobro człowieka ponad algorytm.
  • Zapewnienie transparentności mechanizmów podejmowania decyzji.
  • Poszanowanie równości i niedyskryminacji.
  • Odpowiedzialność twórców i użytkowników systemów AI.

Rekomendacje nie mają bezpośredniej mocy prawny, ale stanowią fundament przy tworzeniu krajowych i regionalnych aktów prawnych.

Zasady OECD

Organizacja Współpracy Gospodarczej i Rozwoju (OECD) przyjęła w 2019 roku komplet zasad dla sztucznej inteligencji. Dokument zaleca:

  • Stworzenie mechanizmów nadzoru i raportowania potencjalnych zagrożeń.
  • Promowanie otwartości i współpracy międzynarodowej.
  • Wzmacnianie kapitału społecznego poprzez edukację i dostęp do informacji.

Zasady OECD są wdrażane poprzez rekomendacje dla państw członkowskich, które dopasowują je do własnych systemów odpowiedzialność regulacyjnych.

Prawo Unii Europejskiej

Unia Europejska podejmuje szczegółowe kroki w celu ukształtowania spójnego zestawu przepisów, których celem jest zarówno ochrona obywateli, jak i wspieranie konkurencyjności przedsiębiorstw w branży AI. Najważniejsze akty to:

  • Projekt rozporządzenia o sztucznej inteligencji (AI Act).
  • Ogólne rozporządzenie o ochronie danych (GDPR).
  • Rozporządzenie eIDAS dotyczące usług zaufania.

Wszystkie te instrumenty łączą się w mechanizmy zapewniające wysokie standardy bezpieczeństwa i ochrona danych.

Akt o sztucznej inteligencji (AI Act)

AI Act to pierwszy tego typu projekt na świecie, który wprowadza systemy klasyfikacji ryzyka:

  • Systemy zakazane – np. narzędzia do masowego profilowania.
  • Wysokiego ryzyka – podlegają ocenie zgodności przed wprowadzeniem na rynek.
  • Niskiego i minimalnego ryzyka – podlegają jedynie obowiązkom informacyjnym.

Projekt nakłada m.in. wymóg przeprowadzania projekt oceny wpływu na prawa podstawowe oraz ustanowienia rejestrów danych użytych do trenowania modeli.

Ochrona danych osobowych i cyberbezpieczeństwo

GDPR wprowadza obowiązki informacyjne dla podmiotów przetwarzających dane używane w systemach AI. Konieczne jest:

  • Uzyskanie świadomej zgody od osoby, której dane dotyczą.
  • Przeprowadzanie oceny skutków dla ochrony danych (DPIA) przy nowych wdrożeniach.
  • Zapewnienie prawa do wyjaśnienia decyzji automatycznych.

Rozporządzenie eIDAS reguluje natomiast kwestie elektronicznej identyfikacji i usług zaufania, co ma znaczenie przy certyfikowaniu komponentów oprogramowania AI.

Prawo krajowe i implementacje

Państwa członkowskie UE muszą implementować unijne akty w sposób spójny, jednocześnie mogą wprowadzać własne regulacje uzupełniające. W Polsce kwestie związane z AI są rozproszone w kilku ustawach i rozporządzeniach.

Polskie regulacje dotyczące AI

W polskim porządku prawnym brak jest odrębnej ustawy o sztucznej inteligencji. Elementy dotyczące AI pojawiają się m.in. w:

  • Ustawie o ochronie danych osobowych;
  • Ustawie o krajowym systemie cyberbezpieczeństwa;
  • Ustawie o usługach zaufania oraz identyfikacji elektronicznej.

Ministerstwo Rozwoju i Technologii opracowało również Krajową strategię rozwoju sztucznej inteligencji, która wskazuje priorytety badawcze i edukacyjne.

Odpowiedzialność i sankcje

Brak dedykowanej ustawy zmusza organy ścigania i sądy do stosowania ogólnych przepisów prawa odpowiedzialność cywilnej i karnej. W praktyce kluczowe zagadnienia to:

  • Odpowiedzialność producenta za wady algorytmu;
  • Odpowiedzialność użytkownika za nieprawidłowe wykorzystanie systemu;
  • Sankcje administracyjne za naruszenie przepisów o ochronie danych osobowych.

Sytuację komplikuje brak powszechnego mechanizmu certyfikacji modeli AI, co wpływa na poziom zaufanie społecznego.

Standardy etyczne i wytyczne branżowe

Oprócz regulacji miękkich tworzonych przez instytucje międzynarodowe i organizacje pozarządowe, branża IT wprowadza własne kodeksy postępowania. Celem jest uwzględnienie użytkowników oraz potencjalnych ofiar wadliwie działających systemów AI.

Inicjatywy międzynarodowe

W gronie globalnych gigantów technologicznych powstały platformy wymiany najlepszych praktyk. Przykładem jest partnerstwo AI4People inicjowane przez European Think Tank, które promuje pięć wartości:

  • Dobrostan;
  • Autonomia;
  • Sprawiedliwość;
  • Demokratyczna kontrola;
  • Transparentność.

Podmioty przyjmujące te zasady zobowiązują się do regularnych audytów i raportów na temat funkcjonowania swoich systemów.

Rola organizacji branżowych

Stowarzyszenia takie jak IEEE czy ISO opracowują międzynarodowe normy techniczne. Dokument ISO/IEC TR 24028:2020 poświęcony jest ocenie ryzyko związanego z AI, natomiast ISO/IEC JTC 1/SC 42 zajmuje się standardami dotyczącymi architektury i procesów wytwarzania algorytmów. Dążeniem jest stworzenie jednolitego podejścia do certyfikacji i kontrola jakości rozwiązań AI.

Back To Top