05.07.2023

Bartosz Łabęcki dla serwisu prawo.pl. Ekspert KWKR przedstawia komentarz na temat AI ACT

Adrian Hulbój

Powracamy do tematu tzw. aktu AI ACT przyjętego w połowie czerwca przez Parlament Europejski. Obecnie trwają pracę. których celem jest implementacja przepisów w krajach członkowskich UE, co może nastąpić już pod koniec tego roku. Zgodnie z założeniem autorów projektu, pierwszy kompleksowy akt prawny regulujący działanie AI ma opierać się na stworzeniu czterech kategorii poziomów ryzyka sztucznej inteligencji. Duża część środowiska prawnego wskazuje jednak, że przyjęte przez Parlament Europejski kryteria mogą prowadzić do nadużyć ze strony władz państw członkowskich, w efekcie których zagrożona będzie prywatność obywateli. Swoje zdanie w tej materii przedstawił również adwokat Bartosz Łabęcki z kancelarii KWKR. 

Ryzyko wykorzystania sztucznej inteligencji

Unijne przepisy zakładają stworzenie czterech kategorii poziomów ryzyka  sztucznej inteligencji:

  • niedopuszczalnego,
  • wysokiego,
  • ograniczonego,
  • minimalnego,

Zgodnie z założeniem ustawodawcy unijnego, pierwsza kategoria dotyczy działań sztucznej inteligencji wykorzystywanych do pozyskiwania danych wyjątkowo wrażliwych (np. pozyskiwanie danych biometrycznych w czasie rzeczywistym w przestrzeni publicznej). Użycie tego typu systemów ma być całkowicie zakazane, z wyjątkiem sytuacji, w których zostaną one wykorzystane przez organy ścigania do i poszukiwania sprawców poważnych przestępstw (zgodnie z założeniem AI ACT, tego typu działanie każdorazowo będzie wymagało zgody sądu).

W komentarzu udzielonym dla serwisu prawo.pl, adwokat Bartosz Łabęcki zaznacza, że wykorzystanie tego typu systemów może znaleźć zastosowanie np.  w przypadku poszukiwania ofiar przestępstw lub zapobieganiu atakom terrorystycznym. Specjalista KWKR ostrzega również, że obecna forma przepisów może godzić w prywatność obywateli.

Przyczyną zagrożenia społecznego może być niedostatecznie precyzyjne rozróżnienie identyfikacji biometrycznej w czasie rzeczywistym, polegającej na zbieraniu i gromadzeniu danych „na żywo” od tej „post factum”, czyli ze znacznym opóźnieniem. Zdaniem Bartosza Łabęckiego, AI ACT w swoim obecnym brzmieniu koncentruje się głównie na systemach identyfikacji biometrycznej w czasie rzeczywistym, pomijając na mechanizmach opierający się na działaniach „post factum”. Zdaniem sporej części środowiska prawniczego wspomniana luka w przepisach może stanowić poważne zagrożenie dla prywatności i podstawowych praw obywateli.

Więcej informacji na ten temat znajdą Państwo tutaj. Gorąco zachęcamy do zapoznania się z całym materiałem, w tym także kompletnym komentarzem eksperta KWKR. Zapewniamy Państwa, że do tematu AI ACT będziemy jeszcze powracać.

[FM_form id="2"]

Kontakt

KWKR Konieczny Wierzbicki i Partnerzy S.K.A.

    Strona jest chroniona przez Google reCAPTCHA v3. Więcej informacji o Google reCAPTCHA znajduje się w polityce prywatności i warunkach świadczenia usług.

    Administratorem Twoich danych osobowych jest
    KWKR Konieczny Wierzbicki i Partnerzy S.K.A. z siedzibą w Krakowie, ul. Kącik 4, 30-549 Kraków. NIP: 9452181482 REGON: 123240424
    Przetwarzamy Twoje dane wyłącznie w celu udzielenia odpowiedzi na wiadomość przesłaną przez formularz kontaktowy i dalszej komunikacji (co stanowi nasz prawnie uzasadniony interes) – przez czas nie dłuższy niż konieczny do udzielenia Ci odpowiedzi, a potem przez okres przedawnienia ewentualnych roszczeń. Masz prawo do żądania dostępu do swoich danych osobowych, ich kopii, sprostowania, usunięcia lub ograniczenia przetwarzania, a także prawo wniesienia sprzeciwu wobec przetwarzania oraz wniesienia skargi do organu nadzorczego. Więcej szczegółów znajdziesz w naszej Polityce Prywatności.
    Warszawa

    Rondo ONZ 1,

    00-124 Warszawa,

    +48 12 3957161

    kontakt@kwkr.pl