05.07.2021

Sztuczna inteligencja a finanse – nowe zasady korzystania z algorytmów

Monika Macura

Opublikowano zasady związane z wykorzystaniem AI i Big Data (BDAI) przez podmioty rynku finansowego. Tekst stanowi istotny wkład w ustalenie europejskich ram prawnych dla wykorzystywania sztucznej inteligencji w branży Fintech.

 

15 czerwca niemiecki organ nadzoru finansowego – BaFin – opublikował zasady nadzorcze dotyczące wykorzystania przez instytucje finansowe algorytmów w procesach decyzyjnych. Ma to stanowić odpowiedź na coraz powszechniejsze wykorzystywanie rozwiązań z zakresu zarówno Big Data jak i AI. Dodatkowym celem jest promocja odpowiedzialnego stosowania zaawansowanych technologii przez instytucje finansowe w Niemczech. Opracowanie może mieć również pośredni wpływ na kształt unijnych regulacji. Zapewne także stanie się źródłem do stworzenia zasad i wytycznych przyjętych przez innych regulatorów rynku finansowego.

Sztuczna inteligencja jako połączenie technologii uczenia maszynowego z Big Data

Opublikowane przez BaFin zasady nie odnoszą się jedynie do zagadnień powiązanych z tematyką sztucznej inteligencji. Obejmują one szerszy kontekst stosowania rozwiązań AI i Big Data jako ściśle powiązanych technologii. W ocenie BaFin rozwiązania sztucznej inteligencji oparte są bowiem de facto na kombinacji techniki machine learningu i Big Data. BaFin zwrócił zatem szczególną uwagę na szeroko komentowany problem jakości danych wykorzystywanych do zasilenia rozwiązań opartych na sztucznej inteligencji.

Jest to również zagadnienie podnoszone w projekcie rozporządzenia w sprawie AI opracowanego przez Komisję Europejską. Jakość wyników generowanych przez sztuczną inteligencję w przeważającej mierze zależy od jakości danych, z jakich ona korzysta. Nie dziwi zatem pojawienie się trendu regulacyjnego odnoszącego się w jednym kontekście zarówno do AI, jak i Big Data. Dlatego że istnienie jednego jest zależne od drugiego. A biorąc pod uwagę, jak bardzo aktualnie polegamy na tego typu danych, zjawisko to stanowi zagrożenie dla naszego postrzegania danych. W dodatku ten zaburzony obraz przekazujemy naszym algorytmom.

W kontekście AI możemy spodziewać się coraz częstszych odniesień także do tematyki ochrony danych osobowych oraz przetwarzania danych w chmurze.

Definicja sztucznej inteligencji

Publikacja BaFin zwraca również uwagę na kolejne problemy, z którymi to musimy się zmierzyć, chcąc uregulować kwestie stosowania AI. W szczególności porusza temat rozróżniania w przypadku wykorzystywania sztucznej inteligencji, a stosowania jedynie konwencjonalnej statystyki i „zwykłych” algorytmów. W ocenie BaFin nie jesteśmy dzisiaj w stanie stworzyć w pełni precyzyjnej definicji sztucznej inteligencji. Niemniej potrafimy wyszczególnić pewne cechy pozwalające nam wyróżnić technologie i metody oparte na AI. Dzięki temu też można znaleźć te zagadnienia, które ze względu na zagrożenia powinny podlegać szczególnym regulacjom. W tym zakresie BaFin wyróżnia trzy kluczowe cechy:

  • skomplikowanie algorytmu – algorytmy oparte na technologii machine learning wykazują się znacznie wyższym poziomem szczegółowości od tradycyjnych algorytmów. To z kolei czyni je trudnymi do zrozumienia przez człowieka,
  • szybkie cykle rekalibracji algorytmu – algorytmy, które dzięki samodzielnej nauce i wykorzystywaniu masowych danych mają możliwość szybkiej rekalibracji modelu i stosowanych rozwiązań. W konsekwencji granice pomiędzy kalibracją algorytmu, a jego walidacją ulegają zatarciu,
  • wysoki stopień automatyzacji – w zakresie niestandardowych procesów pozwalający na podejmowanie przez algorytm szybkich decyzji na dużą skalę.

Z tożsamym problem mierzy się również unijny prawodawca. Kwestia ogólnej definicji – różnie interpretowanej – sztucznej inteligencji budzi wiele emocji i kontrowersji. Należy przy tym zwrócić uwagę, że wyjaśnienie przedstawione przez BaFin jest bardziej złożone i jest definicją węższą od tej przedstawionej przez Komisję Europejską.

Algorytmy tradycyjne a sztuczna inteligencja

W ocenie BaFin rozróżnienie tradycyjnych algorytmów od algorytmów sztucznej inteligencji nie sprowadza się jedynie do oceny wykorzystywanych technik (w szczególności technologii machine learning-u). Wymaga także oceny pozostałych cech algorytmu. W przypadku zaś projektu rozporządzenia unijnego samo wykorzystywanie technologii machine learningu automatycznie kwalifikuje dane rozwiązanie jako sztuczną inteligencję.

Jeszcze nie do końca wiadomo, jaka definicja AI zostanie ostatecznie przyjęta przez unijnego prawodawcę i organy nadzoru. Jednak niezależnie od jej finalnego kształtu, zagadnienie to wciąż będzie budziło wiele wątpliwości i kontrowersji. Stworzenie jednolitej definicji sztucznej inteligencji na potrzeby regulacyjne jest bowiem trudne i zapewne w tym zakresie toczyć się będzie zacięta dyskusja. W szczególności podczas prac na projektem unijnego rozporządzenia w sprawie AI.

Kompleksowe podejście do regulacji AI oparte na ocenie ryzyka

BaFin w celu opracowania precyzyjnych zasad i wytycznych nadzorczych podzielił proces podejmowania decyzji z wykorzystywaniem algorytmu na dwie fazy: rozwojową i aplikacyjną. I w tym przypadku podobne podejście do sztucznej inteligencji przedstawiono w propozycji unijnego rozporządzenia w sprawie AI. Projekt rozporządzenia także widzi wykorzystywanie sztucznej inteligencji jako proces. A ten obejmuje swym zakresem zarówno fazę projektowania rozwiązania, jak również jego stosowania i dalszego nadzoru nad jego funkcjonowaniem.

Opracowanie BaFin zwraca uwagę na często podnoszone zagadnienia proporcjonalności podejmowanych działań nadzorczych, neutralności technologicznej regulacji oraz konieczności przeciwdziałania nierównościom, jakie mogą się wiązać z wykorzystaniem sztucznej inteligencji. Także i w powyższym zakresie w mniejszym lub większym stopniu zagadnienia te uwzględniono w projekcie unijnego rozporządzenia w sprawie AI.

Dalsze prace regulatorów rynków w kontekście AI i Big Data oraz wpływ opracowania BaFin na proces uregulowania kwestii AI w Unii Europejskiej

Powyższe zasady nadzorcze stanowić mają jedynie jeden z elementów opracowania ram prawno- regulacyjnych w Niemczech dla stosowania rozwiązań BDAI w sektorze finansowym. BaFin już zapowiedział, że w połowie lipca zamierza opublikować kolejne opracowanie. Tym razem skupi się na modelach działalności, które wymagają zatwierdzenia ze strony organów regulacyjnych w kontekście nadzoru ostrożnościowego.

Zasady nadzorcze wydane przez BaFin nie mają bezpośredniej mocy wiążącej dla podmiotów działających na terenie innych państw członkowskich. Mimo to nie ma wątpliwości, że stanowią one znaczący wkład w dyskusję nad przyszłymi regulacjami branży finansowej w zakresie AI. Powyższe opracowanie ma stanowić wkład we wspólną pracę europejskich organów nadzoru i Komisji Europejskiej w zakresie przyszłych regulacji AI na terenie Unii Europejskiej. Poruszana przez niemiecki nadzór problematyka i przedstawiony punkt widzenia stanowią przy tym wartościowy materiał do dyskusji nad przyszłym kształtem tych regulacji.

Można również spodziewać się, że inni regulatorzy rynku finansowego zainteresują się wydaniem własnych wytycznych lub opinii w zakresie wykorzystywania technologii BDAI. Zasady BaFinu stanowią zatem inspirację. Dzięki publikacji także pozostałe organy nadzorcze  państw europejskich (w tym Komisja Nadzoru Finansowego) pochylą się nad problemem.

Przypomnieć należy, że Urząd Komisji Nadzoru Finansowego udostępnił ankietę dotyczącą AI w sektorze finansowym. Stanowi to pierwszy krok w kierunku wydania przez UKNF ewentualnych wyjaśnień i zasad wykorzystywania AI/ML w procesach instytucji finansowych. Należy zatem spodziewać się zmian. Być może w przyszłości także polski regulator wyda odpowiednie wytyczne, opinie lub komunikaty w przedmiocie wykorzystywania technologii AI (i być może Big Data) przez podmioty rynku finansowego.

Artykuł został przygotowany we współpracy z Fundacją Prawo dla technologii

Chcesz być na bieżąco? Zapisz się do naszego newslettera

Zapisując się do naszego newslettera wyrażasz zgodę na przesyłanie drogą e-mail informacji na temat istotnych wydarzeń z dziedziny prawa, zmian legislacyjnych oraz działalności Kancelarii.

czytaj więcej

Administratorem Twoich danych osobowych jest KWKR Konieczny Wierzbicki i Partnerzy S.K.A. z siedzibą w Krakowie, ul. Kącik 4, 30-549 Kraków. Twoje dane będą przetwarzane w celu wysyłki naszego newslettera. Masz prawo do żądania dostępu do swoich danych osobowych, ich kopii, sprostowania, usunięcia lub ograniczenia przetwarzania, a także prawo wniesienia sprzeciwu wobec przetwarzania oraz wniesienia skargi do organu nadzorczego. Więcej szczegółów znajdziesz w naszej Polityce Prywatności.

Kontakt

KWKR Konieczny Wierzbicki i Partnerzy S.K.A.

    Strona jest chroniona przez Google reCAPTCHA v3. Więcej informacji o Google reCAPTCHA znajduje się w polityce prywatności i warunkach świadczenia usług.

    Administratorem Twoich danych osobowych jest
    KWKR Konieczny Wierzbicki i Partnerzy S.K.A. z siedzibą w Krakowie, ul. Kącik 4, 30-549 Kraków. NIP: 9452181482 REGON: 123240424
    Przetwarzamy Twoje dane wyłącznie w celu udzielenia odpowiedzi na wiadomość przesłaną przez formularz kontaktowy i dalszej komunikacji (co stanowi nasz prawnie uzasadniony interes) – przez czas nie dłuższy niż konieczny do udzielenia Ci odpowiedzi, a potem przez okres przedawnienia ewentualnych roszczeń. Masz prawo do żądania dostępu do swoich danych osobowych, ich kopii, sprostowania, usunięcia lub ograniczenia przetwarzania, a także prawo wniesienia sprzeciwu wobec przetwarzania oraz wniesienia skargi do organu nadzorczego. Więcej szczegółów znajdziesz w naszej Polityce Prywatności.
    Warszawa

    Rondo ONZ 1,

    00-124 Warszawa,

    +48 12 3957161

    kontakt@kwkr.pl

    Chcesz być na bieżąco? Zapisz się do naszego newslettera

    Zapisując się do naszego newslettera wyrażasz zgodę na przesyłanie drogą e-mail informacji na temat istotnych wydarzeń z dziedziny prawa, zmian legislacyjnych oraz działalności Kancelarii.

    czytaj więcej

    Administratorem Twoich danych osobowych jest KWKR Konieczny Wierzbicki i Partnerzy S.K.A. z siedzibą w Krakowie, ul. Kącik 4, 30-549 Kraków. Twoje dane będą przetwarzane w celu wysyłki naszego newslettera. Masz prawo do żądania dostępu do swoich danych osobowych, ich kopii, sprostowania, usunięcia lub ograniczenia przetwarzania, a także prawo wniesienia sprzeciwu wobec przetwarzania oraz wniesienia skargi do organu nadzorczego. Więcej szczegółów znajdziesz w naszej Polityce Prywatności.

     

    Do you want to be up to date? Sign up for our newsletter

    By subscribing to our newsletter, you consent to the sending of information by e-mail on important events in the field of law, legislative changes and the activities of the Law Firm.

    read more

    The administrator of your personal data is KWKR Konieczny Wierzbicki i Partnerzy S.K.A. with headquarters in Krakow, ul. Kącik 4, 30-549 Krakow. Your data will be processed for the purpose of sending our newsletter. You have the right to request access to your personal data, their copies, rectification, deletion or limitation of processing, as well as the right to object to the processing and to lodge a complaint with the supervisory authority. More details can be found in our Privacy Policy.