INNOWACJE SZTUCZNA INTELIGENCJA

AI: kontrolować czy nie kontrolować? Wywiad z Pawłem Rzeszucińskim

Dr Paweł Rzeszuciński w grudniu ub. r. występował w Parlamencie Europejskim w ramach spotkania European Internet Forum, na którym ostrzegał przed zagrożeniami dla demokracji mogącymi wynikać z wykorzystania AI w mediach społecznościowych, przedtem na AI & Big Data Congress podejmował kwestie miękkie związane z AI, zwłaszcza w kontekście problemu uprzedzeń (bias).

Jest autorem ponad 30 publikacji w międzynarodowych czasopismach i na konferencjach, jak data.sphere.it. Pełni rolę Chief Data Scientist w Codewise oraz jest członkiem European AI Alliance. Redakcji Cloud Forum opowiedział m.in. o walce z fake news, regulacjach dotyczących wykorzystania algorytmów i niebezpieczeństwach cenzury.

Jak jest rola European AI Alliance?

Dr Paweł Rzeszuciński, CDS Codewise: – 10 kwietnia zeszłego roku 25 krajów europejskich podpisało deklarację współpracy w zakresie sztucznej inteligencji (AI). Podczas gdy wiele państw członkowskich ogłosiło już wcześniej własne, krajowe inicjatywy dotyczące sztucznej inteligencji, podpisaniem deklaracji pokazały silną wolę łączenia sił i angażowania się w europejskie sny o potędze na globalnej arenie. European AI AIlliance jest jednym z owoców podpisania w/w deklaracji. Tą inicjatywę należy rozumieć jako otwarte forum stworzone z myślą o szerokiej i otwartej dyskusji na temat wszystkich aspektów rozwoju sztucznej inteligencji i jej wpływu na gospodarkę i społeczeństwo w Europie. O ile sama inicjatywa kierowany jest przez grupę ekspertów wysokiego szczebla ds. AI, która składa się z 52 ekspertów, wybranych przez Komisję Europejską, o tyle członkiem forum może zostać niemal każda osoba chcąca mieć możliwość wypowiedzi i kształtowania przyszłości rozwoju AI w Europie.

Takie aspekty technologii jak stronnicze algorytmy czy fake news skłaniają nas ku regulacjom. Mówi się, że dobra regulacja nie jest zła. Ale jak zapewnić np. odpowiedni poziom „objaśnialności” algorytmów? Jakie jest Pana zdanie?

– Faktycznie, niezmiernie istotnym aspektem dyskusji nt. wprowadzenia AI do naszego społeczeństwa jest uświadomienie sobie faktu, iż najbardziej zaawansowane, a przez to najefektywniejsze algorytmy, działają w chwili obecnej w sposób, który określany jest mianem `czarnej skrzynki`. Oznacza to tyle, że o ile wiadomo dokładnie jakie dane są analizowane przez algorytm, i jakie informacje są na bazie tych danych generowane, o tyle wiele operacji odbywających się pomiędzy przyjęciem informacji a generacją wiedzy są dla nas niedostępne. Systemy te są na tyle skomplikowane, że dokładne prześledzenie każdego punktu decyzyjnego algorytmu, jest w wielu przypadkach niemożliwe. Naturalnie często informacja taka nie jest nam szczególnie przydatna, gdyż w gruncie rzeczy interesuje nas tylko nowa wiedza jaką algorytm wywnioskował z naszych danych – np. optymalizując nasz łańcuch dostaw czy robiąc predykcje stanu naszego konta na koniec miesiąca. Natomiast w sytuacji, kiedy algorytmy zaczynają mieć realny wpływ na życie obywateli, np. przy określaniu ich zdolności kredytowej, przy udziale we wczesnych etapach procesów rekrutacyjnych, czy pomagając sędziom w podejmowaniu decyzji co do wysokości wyroków sądowych, przejrzystość algorytmów na każdym poziomie decyzyjnym staje się niesamowicie ważna. Ponieważ problem nieprzejrzystości algorytmów AI staje się coraz bardziej poważny, obecne wiele z najmocniejszych ośrodków badawczych koncentruje część swych sił na tworzeniu sposobów, które pomagały by tłumaczyć kroki podążając którymi algorytmy podejmują swoje decyzje. Należy pamiętać jednak, że w chwili obecnej mamy dużo więcej wdrożeń systemów, których decyzji nie jesteśmy w stanie wytłumaczyć, niż mieściłoby się to ramach odpowiedzialnego podejścia do AI. Wiele szokujących przykładów podobnych wdrożeń podaje Cathy O’Neill w swojej świetnej książce “Weapons of math destruction”. Osobiście bardzo bliski jest mi apel wystosowany przez AI Now Initiative – szanowany instytut badawczy badający społeczne implikacje sztucznej inteligencji, który ogłosił wprost, iż jeśli instytucja publiczna nie może wyjaśnić swojego algorytmu, nie powinna go używać.

Czy może Pan przytoczyć przykłady regulacji prawnych bądź działań o charakterze etycznym jakie miały miejsce w różnych krajach i jakie są ich rezultaty, bądź wnioski?

– Znajdujemy się w chwili obecnej w momencie, w którym kilkadziesiąt krajów stara się nakreślić własną strategię rozwoju AI w taki sposób, aby rozpocząć swą pogoń za globalną czołówką z poziomu wysokiego C. Od początku roku 2017 własne strategie ogłosiły, poczynając od USA, Chin, Francji czy Kanady, poprzez Wielką Brytanię, Niemcy, Japonię i Indie, kończąc na krajach jak Kenia czy Nowa Zelandia.  Najczęściej podjęcie podobnych działań jest równoważne szukaniu sposobów nadania jak największego rozmachu wahadłu pod tytułem rozwój, bez konkretnych sposobów zapewnienia, że łożyska wahadła są przygotowane na czekające je obciążenia. Innymi słowy, każdy chce gonić Stany Zjednoczone i Chiny w kwestii zaawansowania systemów AI, nie do końca licząc się z aspektami etycznymi masowych wdrożeń realizowanych naprędce. Jest to poniekąd zrozumiałe, zwyczajowo regulacje spowalniają rozwój, a jeśli nie widać konkretnych sygnałów co do potrzeby pracy nad społecznymi implikacjami wprowadzania systemów AI ze strony peletonu, dlaczego wkładać sobie patyki w szprychy? Natomiast to nie jest tak, że świat zapomniał znaczeniu słów ‘odpowiedzialność’ czy ‘etyka’. Coraz śmielej mówi się o wadze potencjalnych zaniechań i jest to bardzo dobry sygnał. Wielu obserwatorów uważa wręcz rok 2018 jako przełomowy w kwestii otwarcia debaty na pozatechniczne aspekty AI. Cały świat zazdrości Europie podejścia do kwestii prywatności i bezpieczeństwa danych obywateli, i mam nadzieję, iż solidne opracowania będące jednym z efektów pracy European AI Alliance, w chwili obecnej będących w fazie konsultacji społecznych, staną się po raz kolejny standardem, za którym podąży reszta świata.

Czy z fałszywymi wiadomościami można walczyć opierając się tylko na technologii, metodach sztucznej inteligencji, uczeniu maszynowym – czy może bez czynnika ludzkiego nie jesteśmy w stanie osiągnąć wymaganej precyzji?

– Rok 2016 otworzył nam oczy na to, jak łatwo jest wejść w posiadanie danych, który mogą być wykorzystane do bardzo dokładnego opisu jednostek pod względem psychologicznym. Jedną z ciekawszych statystyk jest ta, że wystarczy, aby użytkownik Facebooka zrobił 50 polubień, aby algorytm profilowania był w stanie opisać nas lepiej od naszych przyjaciół, 150 polubień pozostawia naszych rodziców w tyle, a 300 naszych długoletnich, życiowych partnerów. Czym jest 300 polubień dla średnio zaangażowanych użytkowników Facebooka? Pół miesiąca aktywności? Czas ten diametralnie maleje dla bardziej zapalonych użytkowników mediów społecznościowych. Model osobowości OCEAN, który wykorzystał Cambridge Analytica do sprofilowania dziesiątek milionów amerykanów, był znany już w latach 70 zeszłego stulecia, natomiast od zawsze w masowym jego wykorzystaniu problemem był dostęp do danych. W dzisiejszych czasach, każda interakcja z telefonem na mediach społecznościowych jest swoistym wypełnianiem kwestionariuszy osobowości i wysyłaniem ich w czasie rzeczywistym na serwery prywatnych firm. Model osobowości pozwala na znalezienie słabości psychologicznych respondentów, a w rękach tzw. złych aktorów stanowi bardzo niebezpieczne narzędzie manipulacji. Trzeba być niezwykle wyczulonym, aby zorientować się, iż ktoś stara się zmanipulować naszym światopoglądem, gdy robi to uderzając w nasze psychologiczne luki. Jednym z kanałów tej manipulacji są wspomniane fake news. Najwięksi gracze zdają się coraz poważniej podchodzić do rangi problemu aktywnie szukając sposobów zwalczania dezinformacji – sam Facebook ogłosił w 2018 roku plany zatrudnienia dodatkowych kilku tysięcy osób do walki z szeroko pojętą dezinformacją i bezpieczeństwem informacji na platformie. O ile modele głębokiego uczenia maszynowego są tu bardzo przydatne i radzą sobie świetnie z klasyfikacją zdjęć (zdjęcie o treści tylko dla dorosłych czy nie) oraz przetwarzaniem języka naturalnego (słowniki językowe) o tyle nadal jestesmy bardzo daleko od automatyzacji rozumienia kontekstu i np. satyry. Na domiar złego dezinformacja pochodzić może nie tylko ze słowa pisanego, ale i z filmów czy wykresów. Firmy otwarcie mówią, iż na chwilę obecną podejście stricte algorytmiczne nie wystarcza i udział człowieka w procesie weryfikacji jest niezbędny.

Co z obawami, że skuteczne narzędzia zwalczania fake news mogą stać się narzędziami cenzury w rękach gigantów internetowych jak Facebook czy Google bądź wydawców?

– Oczywiście, teoretycznie nie możemy wykluczyć takiej sytuacji. Należy pamiętać jednak o dwóch rzeczach. Po pierwsze walka z dezinformacją w Internecie nie jest niczym nowym i najwięksi gracze nie od dziś są w posiadaniu bardzo zaawansowanych rozwiązań służących do wspomagania weryfikowania internetowych treści. Z powodów oczywistych nie są bardzo chętni, aby dzielić się z innymi szczegółami swoich rozwiązań, chroniąc swoja własność intelektualną i przewagę konkurencyjną co niestety spowalnia globalny rozwój w tym kierunku. Po drugie nie można pominąć elementu ludzkiego, czyli natury użytkowników Internetu. Skandal Cambridge Analityca była ogromnym nadszarpnięciem zaufania do platformy Facebook, co odczuły nie tylko notowania tej firmy na giełdzie (spadek wartości o 15%) ale liczba aktywnych użytkowników, usuwających swe konta w ramach akcji #deleteFacebook. Musimy również pamiętać, że każda z tych firm znajduje się w rękach prywatnych, celem której z natury jest generowanie zysku – 98% przychodów Facebooka pochodziło w 2017 roku z wyświetlanych reklam, więc spadające zaufanie do platform stoi w absolutnej sprzeczności z ich podstawowy modelem biznesowym i zagraża ich istnieniu.

Czy sądzi Pan, że firmy AI powinny wziąć odpowiedzialność za dostarczane na rynek oprogramowanie, w tym open source, aby ograniczyć możliwości generowania fałszywych obrazów czy filmów?

– Jako inżynier nie uważam, aby narzucanie odpowiedzialności było dobrym rozwiązaniem. Byłby to kolejny element hamujący tempo rozwoju technologicznego ludzkości. Z punktu widzenia czysto algorytmicznego, Deepfakes dają niesamowite rezultaty, a przecież opierają się o open source’owe rozwiązania i nie zostały stworzone przez żadnego z technologicznych gigantów. Pomijając przerażające aplikacje tej technologii do manipulowania obrazem, najpewniej nigdy nie doszłoby do powstania tak oszałamiających wyników, gdyby dostęp do czynników składowych był wcześniej w jakiś sposób regulowany. Analogicznie można by zapytać, czy sensownym byłoby wymaganie odpowiedzialności od producenta wiertarek za potencjalne szkody spowodowane nieodpowiednim użytkowaniem ich produktu przez konsumentów? Należy zaakceptować fakt, że zawsze będą istnieli źli gracze i zamiast kierować uwagę na ograniczanie rozwoju technologii, powinniśmy raczej skoncentrować swoja energię na zwiększaniu świadomości potencjalnych odbiorców na temat tego jak wykrywać próby manipulacji. Musimy wyczulać użytkowników sieci, iż ilość prób wpływania na nasza percepcje rzeczywistości będzie tylko rosła, ale zachowanie zdrowego rozsądku i poskromienie impulsywnego użytkowania funkcjonalności typu ‘podaj dalej’ wystarczają, aby dostatecznie bronić zarówno siebie jak i społeczność przed nadużyciami. Najczęściej podpowiadane sposoby radzenia sobie z fake newsami to nie wyciąganie pochopnych wniosków, zwracanie uwagi na źródło informacji – jeśli widzimy newsa przekierowanego od kogoś znajomego, zainteresujmy się skąd informacja przyszła oryginalnie. Jeśli znajdziemy gdzieś źródło sprawdźmy, czy są też inne podające tę samą treść, czy któreś z nich jest ogólnie uważane za godne zaufania źródło informacji. Jeśli coś brzmi zbyt niewiarygodnie, najpewniej takim jest. Przekazując informacje dalej, miejmy na uwadze odpowiedzialność za nasz czyn – ktoś kto nam ufa, jest dużo bardziej skłonny uwierzyć w to co przekazaliśmy, nie zastanawiając się nad źródłem.

Panie Pawle, dziękuję za rozmowę.

 

Dr Paweł Rzeszuciński uzyskał tytuł magistra inżyniera informatyki na Uniwersytecie Cranfield po czym przeniósł się na Uniwersytet w Manchesterze, gdzie uzyskał stopień doktora za projekt dla QinetiQ pracując nad rozwiązaniami analitycznymi na potrzeby diagnostyki skrzyni biegów helikopterów. Po powrocie do Polski rozwijał się jako Senior Scientist w ABB Corporate Research Center oraz Senior Risk Modeler w HSBC Strategic Analytics. Obecnie pracuje jako Chief Data Scientist w Codewise. Po godzinach członek Forbes Technology Council oraz European AI Alliance – forum ustanowionego przez Komisję Europejską w celu otwartej dyskusji interesariuszy na tematy związane z rozwojem sztucznej inteligencji w UE.

 

Zapraszamy na Kongres AI & Big Data już 12-13 marca 2019 roku w Warszawie