INNOWACJE SZTUCZNA INTELIGENCJA

Walka z fake news w toku, Facebook zrobił kolejny krok

Jesteśmy dopiero na początku drogi. Na sukcesy przyjdzie zapewne jeszcze poczekać, ale zarówno aktywność badawczo-rozwojowa i akademicka w obszarze detekcji fałszywych treści (fake news lub false news) znacznie przyspieszyła jak i startupy zaczęły proponować zaawansowane, oparte na uczeniu maszynowym, rozwiązania. Jeden z nich znalazł się w orbicie zainteresowań Facebook’a.

Zgadzamy się co do tego, że fake news stały się ogromnym problemem epoki cyfrowej. Media społecznościowe i Internet doprowadziły do rozpowszechnienia się tego trendu polegającego na propagowaniu nieprawdziwych, czasami wręcz absurdalnych historii, które mimo wszystko gromadzą sporą widownię przekonaną o ich prawdziwości. „Niektóre z tych historii rozpowszechniane są celowo, w celu wywierania wpływu na sposób myślenia, często z powodów politycznych, a niektóre z nich są robione dla zabawy. Wszystkie te artykuły, zdjęcia, filmy i memy mogą być jednak zdemaskowane przez renomowane, dobrze znane i niezależne organizacje zajmujące się sprawdzaniem faktów, takie jak Snopes lub PolitiFact” – mówi Soroush Vosoughi z Massachusetts Institute of Technology (MIT), Media Lab.

Próby manipulowania myśleniem zbiorowości poprzez propagandę i inne techniki dezinformacji są tak stare jak ludzkość. Jednak metody, dzięki którym fałszywe wiadomości są generowane, udostępniane i konsumowane, szybko się rozwijają. Boty, sztuczna inteligencja (AI) i techniki tworzenia filmów nowej generacji, umożliwiające „podmianę twarzy” dopuszczają fałszerstwa na masową skalę. Sondaż Buzzfeed News z 2016 roku przeprowadzony wśród dorosłych wykazał, że fałszywe doniesienia prasowe potrafią oszukać nawet 75% Amerykanów. Zasada konstrukcji fake news jest prosta – musi zawierać wystarczającą ilość prawdy, aby sprawiać wrażenie prawdziwego.

Fake news 2.0

Nie ma jednaj sprawdzonej, skutecznej metody zwalczania fake news. Co więcej, nadchodzi era fałszerstw kolejnej generacji – jednym z jego najbardziej niepokojących aspektów jest możliwość tworzenia realistycznych filmów wideo przedstawiających ludzi mówiących i wykonujących czynności, których nigdy nie powiedzieli i nie zrobili. Tzw. filmy „deepfake” mogą przedstawiać polityków składających nieprawdziwe oświadczenia, umieszczać celebrytów w filmach pornograficznych w których nie grali, czy pokazywać ludzi popełniających zbrodnie, których nie popełnili. Jednym z najlepszych przykładów deepfake jest wideo stworzone przez komika Jordana Peele, który wykorzystał technologię wymiany twarzy w celu podszycia się pod postać byłego prezydenta Baracka Obamy.

Na konferencji MIT EmTech w listopadzie 2017 r. Ian Goodfellow, naukowiec z zespołu Google Brain pokazał, że metody uczenia maszynowego jak Generative Adversarial Networks (GAN), jedna z metod głębokiego uczenia, do której opracowania się przyczynił, jest w stanie nie tylko szybko tworzyć fałszywe obrazy i filmy, ale również uczyć się jak sprawić, aby były bardziej wiarygodne. „Można powiedzieć, że historycznie to był trochę szczęśliwy traf, że mogliśmy polegać na filmach jako dowodzie, że coś naprawdę się wydarzyło„, stwierdził na konferencji.

Wspomniany już wcześniej Soroush Vosoughi z MIT mówi, że rozwój sztucznej inteligencji może doprowadzić do bitwy algorytmów w propagowaniu i zwalczaniu fałszywych wiadomości w mediach społecznościowych i innych. Uważa też, że jednym z podejść jest doprowadzenie do sytuacji, by zaufane strony analizowały treści i dostarczały metryki jakości informacji, które nadadzą treści ocenę za jakość wysoką, średnią lub niską. Inną możliwością, szczególnie w przypadku filmów, jest osadzenie cyfrowego znaku wodnego, wykorzystanie zapisu w blockchain lub innego rodzaju uwierzytelnienia, aby potwierdzić, że obrazy są autentyczne. Może to być szczególnie cenne w przypadku oświadczeń przywódców politycznych lub w procesie dowodowym w sądzie. Jeszcze innym pomysłem jest wykorzystanie sztucznej inteligencji do wykrywania nietypowych sygnatur i wzorców wskazujących na podejrzane konta i grupy.

Facebook dostrzega problem i działa

Firma od dłuższego czasu intensyfikuje prace nad zastosowaniem AI do zwalczania fake news. W tym tygodniu ogłosiła przejęcie Bloomsbury AI, startupu, który opracował technologię przetwarzania języka naturalnego (NLP) nakierowaną na automatyzację odpowiedzi na zadane pytania, na podstawie informacji zebranych z dokumentów. Według TechCrunch, Facebook planuje zaangażować zespół i technologię firmy do swoich projektów związanych z NLP, zwłaszcza zwalczaniem dystrybucji fake news oraz do rozwiązywania innych problemów związanych z treścią na portalu.

Biorąc pod uwagę kwotę transakcji (32-30 mln USD, nie potwierdzona) oraz etap rozwoju firmy Bloomsbury AI, przejęcie ma bardziej charakter rekrutacji zespołu i pozyskania wiodących ekspertów NLP do pracy w Facebooku. Szczególnie cennymi osobami na pokładzie będą Guillaume Bouchard, CEO i do 2016 roku senior researcher na UCL, a także Sebastian Riedel,  szef ds. badań w Bloomsbury AI, który jest uważany za czołowego eksperta w dziedzinie NLP i jest również profesorem UCL. Był również współzałożycielem i doradcą Factmata, amerykańskiego startupu opracowującego narzędzia pomagające zwalczać fake news firmom w kontekście ochrony ich marek. Jedynym produktem firmy jest API o nazwie Cape, pozwalające deweloperom dodawać funkcjonalność Q&A do stron internetowych, wykorzystujące opracowaną technologię NLP. Stąd wniosek, że prawdziwym celem przejęcia jest bardzo silny merytorycznie zespół badawczy. Kiedy zatem Yann LeCunn w swoim poście na Facebooku przywitał zespół na pokładzie Facebook AI, pojawiły się przypuszczenia, że gigant społecznościowy planuje włączyć zespół do intensywnych prac mających na celu opracowanie technologii wspierającej zwalczanie fake news na największej platformie społecznościowej.

It's official! Bloomsbury AI joins Facebook.Welcome Guillaume Bouchard, Sebastian Riedel, and the team!

Gepostet von Yann LeCun am Dienstag, 3. Juli 2018