Sztuczna inteligencja i uczenie maszynowe

Sztuczna inteligencja i uczenie maszynowe z jednej strony fascynują i budzą nadzieje na lepsze jutro, z drugiej – rodzą mnóstwo obaw o kryzys prywatności czy dyskryminację. Profesor Anindya Ghose z NYU Stern w wywiadzie dla Cornerstore Research podzielił się swoją opinią na temat tego, jakie szanse i zagrożenia niesie szerokie wykorzystanie technologii opartych o AI w obrębie modelowania zachowań konsumenckich, zarządzania opieką zdrowotną czy w ramach funkcjonowania sądownictwa.

Dużo słyszymy o sztucznej inteligencji i uczeniu maszynowym. Czym one są?

Sztuczna inteligencja to replikacja ludzkiej inteligencji w maszynach, która umożliwia urządzeniom naśladowanie ludzkich zachowań i wykonywanie charakterystycznych dla ludzi czynności, takich jak rozpoznawanie mowy czy podejmowanie decyzji. Uczenie maszynowe, które jest formą zastosowania AI, oznacza zdolność komputera do uczenia się, rozwijania i dostosowywania do nowych danych, bez potrzeby programowania przez człowieka.

Czy te technologie są czymś nowym?

Nie do końca. Prace nad fundamentami trwały już od jakiegoś czasu, lecz dopiero dzięki dostępowi do „big data” technologie te znalazły zastosowanie. Wykorzystują one algorytmy, które są głodne danych. Oczywiście, nie chodzi tylko o ich ilość, ale także różnorodność. Preferencje konsumentów, ich postawy i cele wyrażane są na wiele rozmaitych sposobów na platformach społecznościowych, poprzez recenzje produktów oraz wyszukiwane treści. Różnorodność dostępnych danych poszerzyła wachlarz zastosowań dla AI i uczenia maszynowego: modele stały się dokładniejsze i bardziej wartościowe, dzięki budowaniu ich w oparciu o szersze i bardziej zróżnicowane zbiory danych.

Jakie zastosowania ma AI i uczenie maszynowe?

AI ma niezwykle szerokie zastosowanie w cyfrowym i mobilnym marketingu. Reklamodawcy mogą wykorzystywać ścieżki danych generowane przez użytkowników telefonów komórkowych, aby polepszać ich doświadczenia konsumenckie. Robią to dostosowując reklamy online bądź oferując rabaty klientom, fizycznie znajdującym się w pobliżu określonych sklepów. Oparte o technologię AI urządzenia do zakupów głosowych oraz aktywowani głosowo asystenci zakupowi także zmieniają zachowania konsumenckie w trakcie dokonywania zakupów. Sprawiają, że klienci częściej poszukują produktów z nowych kategorii, pogłębiają poszukiwania w obrębie tej samej kategorii produktowej oraz w inny sposób wydają pieniądze. Największym motorem tych zmian, według moich doświadczeń, jest wygoda jaką zapewniają te urządzenia. Możemy także zaobserwować ciekawe implikacje AI w kontekście ochrony zdrowia. Algorytmy sztucznej inteligencji mogą wesprzeć nas w przewidywaniu pandemii, identyfikowaniu osób z grupy wysokiego ryzyka oraz w rozwoju metod leczenia. Przykładowo niewielki start-up specjalizujący się w technologii AI, podobno zidentyfikował wczesne przypadki zachorowań na COVID-19, zanim jeszcze Światowa Organizacja Zdrowia wydała pierwsze oficjalne oświadczenie. W miarę gromadzenia szczegółowych danych, modele uczenia maszynowego mogą zostać przygotowane do wspierania indywidualnych osób w mierzeniu i aktualizowaniu informacji na temat ryzyka zakażenia, biorąc pod uwagę historię leczenia danej osoby, jej miejsce zamieszkania czy ścieżki przemieszczania się. Postępowania sądowe także generują ogromną ilość danych. W naturalny sposób stwarza to możliwość zastosowania AI i uczenia maszynowego w tym zakresie. Przykładowo algorytmy mogą zostać użyte do przeanalizowania ogromnej ilości komentarzy użytkowników online w celu określenia, czy na decyzję konsumenta mogło wpłynąć rzekomo wprowadzające w błąd oświadczenie producenta. Podobnie, można użyć takich algorytmów w celu przeanalizowania, czy wzorce wyłaniające się z ogromu danych generowanych przez operacje finansowe są zgodne z domniemanym bezprawnym postępowaniem.

Wspomniał Pan, że technologie AI oraz uczenia maszynowego, potrzebują ogromnej ilości danych osobowych, aby być skutecznymi. Czy istnieje tu ryzyko dla naszej prywatności?

Chociaż wydaje się, że klienci na ogół chętnie dzielą się swoimi danymi z firmami w zamian za pewne udogodnienia (np. narzędzia do rozpoznawania głosu, unikanie nachalnych bądź nieadekwatnych reklam) lub korzyści materialne (np. Spersonalizowane rabaty), oczekują także, że ich dane wykorzystywane będą w sposób odpowiedzialny. Niezależnie od tego, czy jest to uzasadnione, czy nie, ostatnio mieliśmy do czynienia z ostrym sprzeciwem wobec firm, które rzekomo nie dotrzymały swojej strony zobowiązań. Na przykład w 2017 roku rząd oskarżył producenta telewizorów o sprzedanie zbioru danych na temat zwyczajów związanych z oglądaniem telewizji, bez uprzedniego uzyskania zgody użytkowników produktu. Kolejny przykład to pozew zbiorowy z 2019 roku, w którym zarzucono kilku operatorom bezprzewodowym naruszenie prawa do prywatności poprzez sprzedaż danych geolokalizacyjnych osobom trzecim. Technologia blockchain może złagodzić niektóre z tych obaw. W głównej mierze blockchain to zaszyfrowany, stały cyfrowy rejestr, zapisujący transakcje (finansowe lub wymianę danych) pomiędzy stronami. Dane te mogą być udostępniane, lecz niemożliwe jest ich skopiowanie. Przechowywanie ich w ten sposób umożliwia konsumentowi śledzenie i kontrolowanie tego, w jaki sposób i przez kogo ich dane są wykorzystywane. Taki sposób operowania danymi promuje zaufanie i transparentność.

Jakie inne obawy budzi rozwój zaawansowania sztucznej inteligencji i uczenia maszynowego?

Niektóre zgłaszane obawy dotyczą dyskryminacji i działania w zmowie. Jak donoszą media, niektórzy obawiają się, że różnice rasowe w korzystaniu z opieki zdrowotnej i związanych z nią wydatkach, mogą doprowadzić do rozwoju algorytmów, które zdeterminują, iż biali pacjenci są bardziej narażeni na problemy zdrowotne w przyszłości, a tym samym, pomimo identycznej diagnozy, wymagają priorytetowej interwencji. Obawy narastają także wokół z pozoru neutralnych decyzji podejmowanych przez algorytmy. Przykładowo, próba znalezienia kandydatów, którzy prawdopodobnie będą w danej pracy szczęśliwsi może zbiegać się z dokonanym przez AI wyborem tych osób, które krócej dojeżdżają do miejsca pracy. Konsekwencją tego może być stronniczość wobec mieszkańców poszczególnych dzielnic. Z drugiej strony zmowa algorytmiczna odnosi się do obawy, że autonomiczne algorytmy cenowe (które mogą ustalać ceny towarów online) mogą „nauczyć się” jak unikać konkurowania z innymi, nawet jeśli nie zostały do tego zaprogramowane. Toczy się jednak dyskusja na temat tego, czy zmowa algorytmiczna może rzeczywiście zaistnieć w praktyce. Podobnie jak w przypadku wielu przełomowych technologii, sztuczna inteligencja i uczenie maszynowe zmieniają sposób działania. Mogą również rodzić złożone i nieoczywiste pytania, jak wspomniane powyżej. Musimy uważnie ocenić zmiany, jakie te technologie powodują, zbadać, czy zostały wyrządzone szkody, a także, co ważne, ustalić, czy dana technologia była odpowiedzialna za rzekome straty. Wymaga to dokładnych badań.

Profesor Ghose pracuje w Stern School of Business na Uniwersytecie Nowojorskim, jest ekspertem od ilościowych badań marketingowych, analityki biznesowej i systemów informatycznych. Zaangażowany jest w pionierską pracę nad zagadnieniami ekonomicznymi i zachowaniami konsumentów związanymi ze sztuczną inteligencją, gospodarką internetową, marketingiem cyfrowym, internetem rzeczy (z ang. IoT), mediami społecznościowymi, big data oraz analizami biznesowymi. Pofesor jest także ekspertem Digital University.

AboutDigital University
Social media & sharing icons powered by UltimatelySocial