ANALITYKA SZTUCZNA INTELIGENCJA

Stosowanie algorytmów powinno być odpowiedzialne, ale czy powinno być regulowane?

Rosnąca automatyzacja różnych aspektów działalności sektorów prywatnego i publicznego z wykorzystaniem narzędzi sztucznej inteligencji (AI) oferuje możliwość rozwiązywania coraz bardziej złożonych problemów przy poziomie wydajności i skuteczności przewyższającym poziom osiągany przez decydenta ludzkiego jednocześnie generując znaczne korzyści społeczne i oszczędności procesowe. Należy jednak zachować czujność i unikać bezrefleksyjnego stosowania algorytmów, które doprowadzić może w konsekwencji do zaostrzenia istniejących uprzedzeń i nierówności.

Wśród pomysłów przedstawianych przez ekspertów można znaleźć propozycje ustanowienia niezależnej komisji regulującej stosowanie algorytmów czy regulacji narzucających na autorów algorytmów publicznego ujawnienia zasad, na jakich algorytmy podejmują decyzje. Zdaniem amerykańskiej instytucji Center for Data Innovation – CDI (Fundacja Information Technology and Innovation), która opublikowała raport w tej sprawie, propozycje te doprowadziłyby do zmniejszenia skali zastosowań sztucznej inteligencji, spowalniając w ten sposób postęp społeczny i ekonomiczny.

Odpowiedzialność algorytmiczna

Algorytmy są coraz częściej wykorzystywane w procesach decyzyjnych w różnych branżach tak w sektorze publicznym jak i prywatnym, chociaż zanotowano przypadki wyników wykazujących stronniczość (bias). Chociaż zaproponowano już pewne metody zarządzania algorytmami, nowy raport z CDI argumentuje, że poprzednie propozycje są niewystarczające i proponuje metodę “odpowiedzialności algorytmicznej”, która ma chronić przed niepożądanymi skutkami. Wcześniejsze wysiłki na rzecz zwalczania niewłaściwego działania algorytmów można wg CDI podzielić na cztery kategorie: zapewnienie przejrzystości i/lub możliwości wyjaśnienia, utworzenie organu regulacyjnego do nadzorowania działania algorytmów, ustanowienia ogólnych regulacji oraz pozostawienia działania algorytmów poza jakimkolwiek wpływem.

Wg autorów raportu każda z omawianych propozycji ma wady. Dla przykładu wymaganie od algorytmów pełnej możliwości wyjaśnienia (działania, sposobu podejmowania decyzji) nakłada na technologię de facto wyższy standard niż na decyzje podejmowanie przez ludzi w tej samej dziedzinie, często w przypadku niepełnej bądź nieprecyzyjnej informacji podejmowane na podstawie doświadczenia, niekiedy intuicyjnie. Poza tym nie wszystkie zastosowania algorytmów wymagają regulacji, jak np. aplikacje randkowe.

Prezentowana przez CDI odpowiedzialność algorytmiczna ma trzy cele: promowanie rozwiązań dających pożądane lub korzystne wyniki; ochrona przed niepożądanymi lub szkodliwymi skutkami; oraz zapewnienie, że zasady, które mają zastosowanie w przypadku decyzji podejmowanych przez ludzi mogą być skutecznie stosowane do decyzji algorytmicznych. Dlatego też, wg autorów, ramy zarządzania powinny wykorzystywać różnorodne mechanizmy kontrolne, aby zapewnić operatorom: weryfikację działania algorytmu zgodnie z intencjami operatora oraz identyfikację i korygowanie szkodliwych skutków. Transparentność jest jednym ze sposobów zapewnienia odpowiedzialności algorytmicznej. W ogólności w relacji do algorytmu powinna być preferowana dokładności / precyzja ponad przejrzystość, wg ekspertów CDI. Dokładny mechanizm procesu decyzyjnego w niektórych przypadkach uczenia maszynowego może być trudny do określenia nawet przez samych deweloperów, co jednak nie przeszkadza osiągać zadowalających rezultatów. Jednak z drugiej strony w niektórych przypadkach użycia zwłaszcza w administracji publicznej, takich jak algorytmy oceny ryzyka, zapewnienie przejrzystości jest niezbędne.

Nad zagadnieniem regulacji wykorzystania algorytmów pracuje również KE i kraje członkowskie, w tym Polska, w ramach inicjatywy związanej z podniesieniem poziomu inwestycji w rozwój sztucznej inteligencji w ramach UE, aby uczynić gospodarkę europejską bardziej konkurencyjną w stosunku do USA i Chin. Obecnie trwa przygotowywanie propozycji działań dla KE przez kraje członkowskie, następnie Komisja wraz z państwami członkowskimi do końca roku opracuje skoordynowany plan w dziedzinie AI. Jednym z głównych wątków są właśnie zagadnienia regulacyjne zarówno w kontekście niezbędnego dla postępu w tej dziedzinie dostępu do wielkich zbiorów danych jak i regulacji dopuszczających automatyzację procesów decyzyjnych z wykorzystaniem uczenia maszynowego / AI.

Narzędzia do prześwietlania

Polski sektor finansowy należy do najbardziej rozwiniętych, stąd też jest naturalnym miejscem powstawania nowatorskich rozwiązań wykorzystujących dostępność danych, algorytmy uczenia maszynowego i potrzebę biznesową w postaci automatyzacji procesów. Przykładem instytucji umiejętnie zarządzającej gromadzonymi danymi i wykorzystującej analitykę danych jest Biuro Informacji Kredytowej (BIK) gromadzące informacje o niespłaconych zobowiązaniach. W przypadku zawierania nowej umowy na usługi telekomunikacyjne czy umowy kredytowej wiarygodność kredytobiorcy jest weryfikowana m.in. w BIK. Scoring kredytowy to jeden z typowych przypadków użycia dla automatyzacji procesu w oparciu o algorytm(-y). Startup FinAI oferuje usługę idącą dalej niż tylko scoring, dale możliwość uzyskania kredytu bankowego bez konieczności wychodzenia z domu i wizyty w banku, m.in. dzięki danym z BIK i zastosowaniu algorytmów. Czy próba regulacji nie byłaby zabójcza dla innowacyjności i modelu biznesowego tego rodzaju przedsięwzięć?

Wiedza o stanie zadłużenia obywateli wraz z jego szczegółowym rozbiciem (np. na źródło zadłużenia czy miejsce zamieszkania, jak dzielnice Warszawy) sama z siebie jest bardzo wartościowa. Znaczenie dostępności takich danych jest nie do przecenieni dla instytucji finansowych, ubezpieczeniowych, firm telekomunikacyjnych w celu zapobiegania nadużyciom. Równolegle jednak kreuje się przestrzeń do potencjalnych nadużyć w innym kierunku, choć z pozoru mogą one wcale nie sprawiać takiego wrażenia. Przykład – jeśli mieszkańcy danej dzielnicy wypadają gorzej pod względem zadłużenia z tytułu abonamentu telefonicznego to czy fakt zamieszkiwania przeze mnie tej samej dzielnicy powinien mieć jakieś znaczenie do oceny prawdopodobieństwa, że mogę też mieć problemy ze spłatą? To oczywiście duże uproszczenie ale ilustruje jeden z podstawowych błędów w analityce – mylenie pojęć korelacji ze związkiem przyczynowo skutkowym. Transparentność i weryfikowalność przez strony trzecie to propozycje m.in. chroniące w swoim założeniu przed tego rodzaju stronniczością i błędami w rozumowaniu.

Jednak czy regulacja tej sfery w ogóle jest możliwa biorąc pod uwagę własność intelektualną i przewagę konkurencyjną? To unikalny i skuteczny model biznesowy wraz z chronioną własnością intelektualna stanowi o sukcesie startupów w tej dziedzinie.

Ciemną stronę stosowania algorytmów i wykorzystania wielkich zbiorów danych przedstawia Cathy O’Neil w książce Broń matematycznej zagłady. Cathy O’Neil, matematyczka z doktoratem z Harvardu, z doświadczeniem z jednego z najbardziej prestiżowych funduszy hedgingowych D.E.Shaw & Co., jest rzeczniczką świadomego i odpowiedzialnego wykorzystywania danych i stosowania algorytmów, ukazując jednocześnie przypadki negatywne i ich konsekwencje. Na bieżąco publikuje na swoim blogu mathbabe.org

Rozważ wyłączenia AdBlockera

Cloud Forum rozwija działalność m.in. dzięki wyświetlaniu reklam online dla naszych Czytelników. Prosimy o rozważenie wsparcia nas poprzez wyłączenie blokera reklam.
Obserwuj nas: