Sztuczna inteligencja to przekształcanie świata, który znamy na codzień.``Ale skoro ufamy, że będzie dokonywał coraz większych wyborów, co jeśli nie spodobają nam się podejmowane decyzje? Co się stanie, gdy AI nam czegoś odmówi i poprosimy o wyjaśnienie?

Przecież firmy muszą wyjaśnić swoje rozumowanie lub logikę, a użycie SI nie omija ich od tego faktu. W większości przypadków klienci są zadowoleni, gdy otrzymują pożądane wyniki, ale co się dzieje, gdy wnioski są odrzucane - a ci sami klienci proszą o wyjaśnienie?

Stan SI

AI otwiera możliwości zwiększenia wydajności, innowacji i transformacji modeli operacyjnych w różnych branżach. Już dziś ma ona znaczący wpływ na takie branże jak finanse, opieka zdrowotna, produkcja i autonomiczny napęd (ten ostatni to cała branża, która nie byłaby możliwa bez SI), by wymienić tylko kilka z nich.

Jednym z takich przykładów destrukcyjnej ekspansji SI jest handel. Według Art Hogana, Głównego Stratega Marketingu B. Riley FBR, roboty wykonują od 50% do 60% zleceń kupna i sprzedaży z Wall Street.

Prognozy na przyszłość dla SI też wyglądają imponująco:

  • Ponad 70% menedżerów biorących udział w badaniu PwC w 2017 roku uważało, że SI będzie miała wpływ na każdy aspekt działalności.
  • Podobnie Gartner szacuje, że wartość biznesowa sztucznej inteligencji osiągnie 3,9 biliona dolarów (3 miliardy funtów), z czego około 44% zostanie wydane na sprawy związane ze wspieraniem decyzji/uzupełnianiem wdrożeń.
  • McKinsey przewiduje również, że Sztuczna Inteligencja ma potencjał, aby do 2030 roku zapewnić globalną działalność gospodarczą na poziomie około 13 bilionów dolarów (10 miliardów funtów).

Jest oczywiste, że SI ma ogromny potencjał dla biznesu i nic dziwnego, że to właśnie dlatego; Deep Learning i moc obliczeniowa umożliwiają automatyzację złożonych zadań, takich jak wykrywanie obiektów, klasyfikacja obiektów, analiza wideo i głosu, nie wspominając o rosnącym sektorze naturalnego przetwarzania nauki.

Ale tu właśnie pojawiają się kwestie odpowiedzialności i możliwości wyjaśnienia. Przedsiębiorstwa są odpowiedzialne za swoje działania. Kiedy te działania są określane przez zautomatyzowane procesy, przedsiębiorstwa muszą być w stanie wyjaśnić ten proces.

Problem z czarną skrzynką

W kręgach SI, ten problem z możliwością jego wyjaśnienia jest znany jako problem "czarnej skrzynki". Najlepszy przykład tego zjawiska można znaleźć w modelach Deep Learning, które mogą wykorzystywać miliony parametrów i tworzyć niezwykle złożone reprezentacje przetwarzanych przez nie zbiorów danych.

Wiemy, że dane wejściowe, takie jak dane, trafiają do takiego rozwiązania i wiemy, że pojawia się odpowiedź lub decyzja. Środek jest często nieznany. Takie problemy występują bardzo często w sieciach neuronowych, które ze względu na swoją złożoność są często nazywane technikami czarnej skrzynki. Mogą one zapewnić bardzo dokładne przewidywania po przeszkoleniu z dużych zbiorów danych, ale niemożliwe jest zrozumienie przez człowieka wewnętrznej struktury, cech i reprezentacji danych, które model wykorzystuje do wykonania określonego zadania.

Rozwiązywanie tego problemu i wprowadzanie zrozumienia jest tym, na czym skupia się zdolność wyjaśniania SI.

Dlaczego wyjaśnienia mają znaczenie?

Przede wszystkim powiedzmy jasno, że istnieją sytuacje, w których takie rozwiązania czarnej skrzynki mogą działać.

Ten rodzaj grypy AI jest dopuszczalny w przypadkach podejmowania decyzji na dużą skalę - jeżeli konsekwencje niepowodzenia są stosunkowo łagodne - takich jak zalecenia on-line (Netflix, Amazon, reklamy on-line itp.). W tym przypadku zrozumienie, jak działają wewnętrzne algorytmy, nie ma znaczenia, o ile zapewniają one oczekiwane wyniki (na przykład w przypadku reklam internetowych byłby to większy przychód).

Ponieważ SI otacza nas wszędzie, od inteligentnych urządzeń noszonych na ciele i urządzeń gospodarstwa domowego po internetowe silniki rekomendacyjne, od dawna akceptujemy fakt, że SI podejmuje decyzje o nas i nie wiemy dokładnie, jak te decyzje zostały podjęte - nawet jeśli są one nieuczciwe. Nie obchodzi nas, że Netflix's Machine Learning polecił nam straszny film, ponieważ wpływ na nasze życie jest w końcu minimalny.

To właśnie tam, gdzie to ryzyko nie jest minimalne, mamy problemy z tym brakiem możliwości jego wytłumaczenia. Nieumiejętność wytłumaczenia rozumowania przez SI ludzkim użytkownikom jest ogromną barierą dla przyjęcia SI w takich scenariuszach, gdzie konsekwencje awarii są poważne. Dotyczy to m.in. oceny ryzyka kredytowego lub diagnostyki medycznej, w przypadku których istnieje duże ryzyko.

W rzeczywistości powinno to być oczywiste (ale i tak to powiemy): im wyższe są koszty niewłaściwego podejmowania decyzji, tym większa jest potrzeba wytłumaczenia SI. 

Źródło: https://www.accenture.com/_acnmedia/pdf-85/accenture-understanding-machines-explainable-ai.pdf

Zaufanie, działalność gospodarcza i organy regulacyjne

Te kwestie związane z zaufaniem są również ważne w różnych branżach i organizacjach. W badaniu Global CEO przeprowadzonym przez PwC w 2017 r. 67% respondentów uznało, że SI i automatyzacja będą miały negatywny wpływ na zaufanie, jakim obdarzają branżę inwestorzy.

Nie tylko przedsiębiorstwa również zauważyły te obawy. Unia Europejska wprowadziła prawo do wyjaśnień w ogólnych przepisach dotyczących ochrony danych (GDPR), próbując rozwiązać potencjalne problemy wynikające z rosnącego wykorzystania i znaczenia tych algorytmów SI. 

Zajmiemy się konkretnymi regulatorami i ich ustawodawstwem w późniejszym terminie. Na razie wystarczy wiedzieć, że nie tylko przedsiębiorstwa zajmują się tą kwestią, ale także organy regulacyjne, które ustanawiają jasne, prawne wymagania od firm. Do tego dochodzi jeszcze klient lub klient końcowy.

Przedstawienie możliwości wyjaśnienia AI

Pewne jest, że lepsze zrozumienie decyzji dotyczących grypy ptaków jest konieczne, aby można było kontynuować ich dalsze stosowanie i integrację. Wyjaśnialna SI (XAI) odnosi się zbiorowo do metod i technologii opracowanych w celu uczynienia uczenia się maszyn na tyle zrozumiałymi, że użytkownicy ludzcy mogą zrozumieć rezultaty konkretnego rozwiązania.

XAI może na przykład przybrać formę wyjaśnienia na poziomie danych, skoncentrowanego na rozumowaniu stojącym za konkretną decyzją. Odpowiednim przykładem może być wyjaśnienie odrzuconego wniosku o zaliczenie, ponieważ "wniosek został odrzucony, ponieważ sprawa jest podobna do 92% przypadków odrzuconych".

Alternatywnie, XAI może również dostarczać wyjaśnień na poziomie modelu, koncentrując się na stronie algorytmicznej rozwiązania. W tych przyczynach XAI naśladuje model poprzez jego abstrakcję i dodanie wiedzy z dziedziny. Na przykładzie wniosku kredytowego, ponownie, podejście to może określić, że "wniosek jest odrzucony, ponieważ odrzucony jest każdy wniosek, który ma mniej niż 2000 funtów na koncie oszczędnościowym i którego aktualne zatrudnienie jest krótsze niż rok". Pokazuje to jasną logikę modelu.

Kto potrzebuje wyjaśnienia AI - I dlaczego?

Pomimo powyższych przykładów, ważne jest, aby wiedzieć, że XAI jest wymagane przez prawie wszystkie strony, a nie tylko przez klienta końcowego. Co więcej, perspektywy i wymagania na poziomie możliwości interpretacji SI różnią się w zależności od grupy użytkowników, o których mowa.

Na przykład:

  • Kadra kierownicza potrzebuje odpowiednich środków do ochrony firmy przed niezamierzonymi konsekwencjami i utratą reputacji.
  • Kierownictwo potrzebuje XAI, aby czuć się na tyle pewnie, aby wdrożyć rozwiązania z zakresu AI do zastosowań komercyjnych.
  • Użytkownicy potrzebują pewności, że dane rozwiązanie AI podejmuje właściwą decyzję.
  • Zarówno organy regulacyjne, jak i klienci chcą mieć pewność, że technologia ta działa zgodnie z normami etycznymi.

Jeśli już nie jest to jasne: każdy ma swój udział w XAI.

Podobnie, oto kilka rzeczywistych sytuacji, w których znajduje się AI i jak XAI może pomóc.

Czytelność ludzka

W tych przypadkach SI jest wykorzystywana do wspierania decyzji. Użytkownicy tych systemów nie szukają AI, aby automatycznie gromadzić wszystkie dane i formułować konkretne zalecenia. Zależy im na przyczynach wydania rekomendacji i tym, co mogą z tym zrobić.

Tutaj podejście do czarnej skrzynki nie działa; XAI jest niezbędne. Wdrożenie go zwiększy zarówno przejrzystość, jak i zrozumienie biznesu w zakresie własnych usług AI.

Uzasadnienie decyzji

Istnieje również wiele sytuacji, w których przedsiębiorstwa muszą przedstawić uzasadnienie decyzji. Najlepszym tego przykładem jest zwolnienie (lub nawet zatrudnienie) pracownika. Dzięki GDPR, pracownicy mają prawo do jasnego uzasadnienia każdej decyzji, która ich dotyczy. Jeśli firma wykorzystała w tym procesie Machine Learning, ale nie rozumie, w jaki sposób algorytm doszedł do swoich wniosków, może to podlegać konsekwencjom prawnym.

Unikanie niezamierzonej dyskryminacji

Ponieważ uczenie się SI ma duży wpływ na zbiory danych, którymi się ona zasila, możliwe jest, że te modele uczenia maszynowego mogą wychwytywać stronniczość w danych - prowadząc do stronniczych lub dyskryminujących wyników.

Rola etyki w uczeniu się maszynowym staje się coraz ważniejsza i widzieliśmy już przykłady niezamierzonej dyskryminacji w świecie rzeczywistym. Na przykład badania przeprowadzone w 2015 r. wykazały, że poszukiwanie "CEO" w Google Images pokazało kobiety tylko w 11% przypadków - podczas gdy rzeczywista reprezentacja w świecie rzeczywistym (przynajmniej w USA) wynosiła 27%. W kontaktach, poszukiwanie "telemarketera" faworyzowało zdjęcia kobiet (64%), mimo że takie zawody są równo podzielone.

Takie kwestie nie są świadomą decyzją SI - to coś wpisanego w istniejące dane. Można by więc argumentować, że jedną z ról XAI jest usunięcie z tego procesu ludzkiego uprzedzenia. Potrzebujemy Machine Learning, aby być lepszymi od nas.

Ułatwianie doskonalenia

W różnych sytuacjach, Machine Learning może wskazywać lub przewidywać zachowanie, ale nie dostarcza wystarczających informacji dla firmy, aby lepiej na nie reagować.

Na przykład, w przewidywaniu rezygnacji, ML może łatwo oznaczyć klientów, którzy odejdą z bardzo dokładnym wskaźnikiem predykcji. Jednak nawet jeśli firma może być pewna, że wyjedzie, nie ma pojęcia dlaczego - ani co firma może zrobić, aby ich zatrzymać. Nie mają oni żadnych użytecznych informacji na temat każdego konkretnego klienta, aby rozwiązać tę sytuację.

XAI może zapewnić lepszy wgląd w ten proces decyzyjny i, miejmy nadzieję, dać odpowiedź na pytanie "dlaczego". Ta wiedza jest doskonałym początkiem dla organizacji, które chcą lepiej zrozumieć klientów - mogą wtedy podjąć pewne zdecydowane działania, aby zapewnić, że więcej klientów zostanie.

W innych sytuacjach, takich jak nasze własne Mesh Twin Learning, możemy z łatwością wdrożyć ML, aby poprawić wydajność i dokonać wielu mikro-optymalizacji, ale co zrobić, jeśli inżynierowie chcą wykorzystać te ustalenia do rozwoju? Tak jak w sektorze finansowym, XAI jest odpowiedzią.

Podsumowanie - Jaki jest obecny stan XAI?

Jeśli uważasz, że XAI jest teraz ważny, po prostu czekaj. To oczywiste, że AI nigdzie się nie wybiera, a firmy, które go nie wprowadzą, mają duże ryzyko pozostania w tyle. Tak długo, jak AI będzie się rozwijać i podejmować bardziej istotne decyzje, tak długo krytyczne znaczenie XAI będzie się tylko zwiększać.

Obok kwestii zdolności do wytłumaczenia chodzi również o odpowiedzialność. Kiedy firmy wykorzystują SI, zawsze pojawia się pytanie, kto w organizacji jest za nią odpowiedzialny. Jeśli SI jest wykorzystywana przez działy, które nie są zorientowane technologicznie, kadra kierownicza najwyższego szczebla musi pogłębiać własną wiedzę na temat SI. W końcu muszą mieć pewność, że żadna sztuczna inteligencja opublikowana w ich dziale nie wróci, aby zaszkodzić samej firmie.

Jeśli chodzi o samą możliwość wytłumaczenia SI, wiele opcji jest już dostępnych. Jeśli używasz drzew decyzyjnych lub usprawnionego uczenia maszynowego, dość łatwo jest pokazać, jak podejmowane są decyzje. Jeśli chodzi o sieci neuronowe, to już otwieramy tę czarną skrzynkę i widzimy, jakie kluczowe czynniki decydują o podjęciu decyzji.

Komentarze (0)

Zostaw komentarz