Świat technologii przynosi równie wielkie szanse jak wyzwania. W dynamicznej rzeczywistości kluczowe staje się zrozumienie, jak technologie wpływają na nasze życie i jak możemy je kształtować, aby służyły dobru wspólnemu. Z Edytą Sadowską, wykładowczynią akademicką, futurolożką i ekspertką Digital University, rozmawiamy o ewolucji podejścia do technologii – od bezkrytycznego technooptymizmu do bardziej zrównoważonego i odpowiedzialnego korzystania z nowych narzędzi, o potrzebie urzeczywistniania protopii Kevina Kelly’ego oraz o future literacy jako podstawowej kompetencji przyszłości.
Digital University: Do której grupy Ci bliżej: technooptymistów czy technosceptyków? Jak ostatnie lata intensywnego rozwoju technologicznego, szczególnie w obszarze sztucznej inteligencji, wpływają na Twoje postrzeganie roli technologii w budowaniu lepszego świata?
Edyta Sadowska: Myślę, że przeszłam podobną zmianę czy proces jak wiele osób zajmujących się technologiami. Od totalnego technooptymizmu, karmionego jeszcze wtedy transhumanizmem, do powolnego wyhamowania – pozwalającego na zatrzymanie się i zadanie pytań – o odpowiedzialność, o społeczne przygotowanie, o długoterminową perspektywę. Społecznie brakuje nam czasu na adaptację do zmieniającego się świata, nie jesteśmy w stanie nadążyć za technologią, co tylko pogłębia lukę wykładniczą pomiędzy innowacjami technologicznymi i społecznymi. Dlatego tak bardzo potrzebujemy tych drugich –innowacji społecznych, których impact często odwleka się w czasie, ale ta perspektywa społeczna jest nam dziś pilnie potrzebna.
W swoich wystąpieniach mówisz o szkodliwości skrajnych narracji technoutopii i techdystopii. Jakie widzisz tu zagrożenia?
Myślę, że obie te narracje wyrządzają bardzo dużą szkodę, bo są budowane i bazują na emocjach – przede wszystkim na strachu, bezsilności, beznadziei – nie pozostawiając praktycznie żadnego miejsca na działanie. Dodatkowo są to narracje skrajne – w techdystopii wszystko jest skończone, nie ma już na nic miejsca – bo nic nie ma i nic nie jest zależne od naszych decyzji. Podobnie w technoutopii – wszystko zrobione jest za nas, świat jest idealny – nam pozostaje tylko wielbić taki scenariusz Popkultura zostawiła nam całą masę dystopii, w których sztuczna inteligencja najczęściej w postaci humanoidalnych robotów – co jest jeszcze bardziej przerażające – najpierw zabiera nam pracę, czyniąc z nas gatunek niepotrzebny, a w efekcie prowadzi do naszej eliminacji. Przez chwilę funkcjonowaliśmy też w narracji, że technologia zbawi nam świat – sama – bez nas, bez naszego działania. W obu narracjach nie mamy wpływu. Dlatego tak mocno potrzebna i wciąż aktualna jest protopia Kevina Kelly’ego w której dzień po dniu możemy budować świat, który jest lepszy. Protopia, która nie jest przeznaczeniem, ale która jest kierunkiem działania.
Protopia wspiera naszą sprawczość: mamy szukać nowych rozwiązań i zmieniać świat na lepsze małymi krokami. Wydawać by się to mogło bardzo kuszącą perspektywą, jednak z jakiegoś powodu, częściej sięgamy po te skrajne wizje.
Budujemy te dwie narracje: utopię i dystopię, bo one są proste, tłumaczą świat zerojedynkowo – bez naszego wysiłku. Tam nie ma naszego działania, bo zrzucamy z siebie odpowiedzialność za jutro. W dystopii nic już nie ma sensu, a w utopii niczego się od nas nie wymaga. Społecznie idziemy w takie narracje z braku świadomości wpływu na przyszłość. Gdybyśmy mieli rzeczywiście tę świadomość, widzielibyśmy swoją sprawczość, ona byłaby przez nas pożądana, wręcz warunkująca nasz byt jako gatunku. Dlatego warto mówić o przyszłości i future thinking jako podstawowej kompetencji przyszłości wymienianej w nierozłącznej parze z future action. Tylko tak możemy zmaterializować nasze myślenie o przyszłości i odejść od narracji, w których niewiele jest do zrobienia. Potrzebujemy myślenia długoterminowego, szerszej perspektywy. Na SXSW w 2023 Amy Webb użyła metody „magicznego oka” żeby wskazać jak bardzo potrzebny jest nam szeroki horyzont, żeby zobaczyć we właściwy sposób rzeczywistość. Pierwszym etapem jest focus – przyłożenie rozmazanego obrazka do nosa – mocne skupienie oczu i dopiero wtedy powolne odsuwanie obrazka. Wraz z każdym centymetrem obraz staje się ostrzejszy, aż staje się tak wyraźny, że możemy przeczytać co jest na nim napisane. Rola technologii w naszym życiu też wyostrza się wraz z poszerzającą się perspektywą. Nasz wąski horyzont w kontekście technologii ma związek z tym, że większość społeczeństwa nie posiada pewnej świadomości i faktycznie może uważać niektóre rozwiązania technologiczne za lek na wszystkie problemy dnia dzisiejszego. Jeżeli popatrzymy tylko i wyłącznie przez pryzmat rozwiązań, które dana technologia może zbudować i nie spojrzymy na to szerzej, to będziemy tkwić w przekonaniu, że rzeczywiście świat będzie utopijnym marzeniem. Tylko nie zastanawiamy się na przykład nad tym, jakie to będzie miało konsekwencje społeczne, środowiskowe, polityczne. Technologia jest narzędziem, ale to ludzie są sprawczy wobec technologii – zarówno w zakresie jej budowania, jak i używania. Podstawowe pytanie to co tak naprawdę trzeba zrobić, żeby zmienić narrację społeczną? Co zrobić, żeby protopia Kevina Kelly’ego zaczęła nam wchodzić w krew, stała się sposobem myślenia i budowania naszego jutra?
Jakie zatem konkretne mechanizmy kryjące się za technologiami powinny być bardziej uświadamiane użytkownikom?
Technologia jest narzędziem, a my jesteśmy jej użytkownikami. I ten oczywisty statement powinien pojawiać się nam przed oczami za każdym razem kiedy sięgamy po technologie. To, że ślepo czasem podążamy za technologicznymi nowinkami, to wina braku naszej świadomości – chociażby o pewnych mechanizmach, jakie kryją się za danym narzędziem. Mieliśmy doskonałą lekcję tych mechanizmów w kontekście social mediów – i dziś z opóźnieniem odrabiamy tę lekcję. Naszym usprawiedliwieniem może być oczywiście czas, a właściwie jego brak, prowadzący do pogłębiającej się luki pomiędzy innowacjami technologicznymi a innowacjami społecznymi. Dobrze jest mieć jego świadomość, ale też dobrze jest mieć świadomość ogromnej potrzeby innowacji społecznych, które pomogłyby nam poradzić sobie w permanentnej technologicznej zadyszce w jakiej funkcjonujemy.
Nie nadążamy też z regulacjami prawnymi. W marcu tego roku Rada Unii Europejskiej przyjęła ustawę o sztucznej inteligencji, tzw. AI Act. I chociaż Europa jako pierwsza na świecie zajęła się regulacjami w tym obszarze, to minie jeszcze minimum dwa lata gdy ustawa wejdzie w życie. A co z resztą świata? Jakie widzisz wyzwania w tym obszarze?
Mocno frapują mnie wszystkie kwestie regulacyjne, bo jest tu wiele pytań na które trzeba odpowiedzieć. Wiele pytań także o to jaką moralność globalną powinniśmy przyjąć – zachęcam tu do odwiedzenia platformy The Moral Machine (MIT) służącej do zgromadzenia ludzkiego puntu widzenia na decyzje moralne jakie podejmowane są przez AI w autonomicznych pojazdach. Platforma oferuje szereg scenariuszy generujących różne dylematy moralne, w których samochód bez kierowcy musi wybrać mniejsze zło, takie jak zabicie dwóch pasażerów lub pięciu pieszych. Jako zewnętrzny obserwator, ludzie oceniają, który wynik jest ich zdaniem bardziej akceptowalny. Następnie mogą zobaczyć, jak ich reakcje wypadają na tle innych osób. Zachęcam do podjęcia tego eksperymentu po to, by zobaczyć jak bardzo te kwestie są złożone – ale i jak kulturowo w wielu kwestiach możemy się różnić. Regulacje są potrzebne, ale tylko wtedy kiedy nie są pustosłowiem, kiedy zwracają uwagę na konkretne wyzwania i dają rozwiązanie. My absolutnie i pilnie potrzebujemy jakiejś umowy społecznej na której będziemy się mogli oprzeć.
Na koniec chcemy zapytać jeszcze o temat, który nie schodzi z nagłówków gazet i portali informacyjnych od wielu miesięcy. Narracja o zabierającej nam pracę technologii jest nam znana od wielu lat, ale to w ostatnich miesiącach przybrała na sile w związku z rozwojem AI. Chcemy wierzyć, że technologia będzie nas wspierać, a nie zastępować. Jakie Ty widzisz przyszłość w tym kontekście?
Zawsze powtarzam, że pierwsze pytanie, które zadaje nam Chat GPT jest kluczowe. GPT pyta: “W czym mogę ci dzisiaj pomóc?”. Pomóc – nie zastąpić, nie wesprzeć, nie wyprzeć. My technologię często upodmiotowiamy – ma to związek chociażby z tym, że możemy dziś komunikować się z technologią używając języka naturalnego – co powoduje, że w pewien sposób mylimy narzędzie z podmiotem. Technologia to jest narzędzie! Myśląc o przyszłości myślę często o kooperacji, w której my rzeczywiście współpracujemy z technologią i dzięki temu zyskujemy czas. A czas to dziś największa wartość – zyskując czas możemy wrócić do kreacji, działań artystycznych, możemy się rozwijać – to niezliczone szanse na dalszą ewolucję. Przygotowując wystawę na temat roli technologii w przyszłości edukacji zapytałam GPT jak on ją widzi i w żadnej z odpowiedzi nie uzyskałam wskazówki prowadzącej do idei o zastąpieniu ludzi, zrobieniu czegoś za nas. A co najważniejsze w wypowiedziach przygotowanych przez model czat używał czasowników wskazujących na współpracę. Kluczowe było sformułowanie „my” – nie „ja technologia”. W żadnej odpowiedzi nie udzielił mi wskazówki, że może zrobić coś za mnie. Żyjemy w czasach niewyobrażalnego wcześniej postępu, który prowadzi nas do luki kompetencyjnej i to odbija nam się w narracjach dotyczących naszej przyszłości z technologią. Jeśli nie rozumiemy technologii to nie zobaczymy w prawidłowy sposób obszarów współpracy – bo jak współpracować z czymś co wzbudza w nas strach? Poświęćmy chociaż 10 minut na to, żeby poszerzyć naszą wiedzę na temat technologii, po to by móc wyjść poza bańkę informacyjną w której funkcjonujemy. Jeżeli klikamy cały czas w dystopijną narrację, to taka narracja będzie nam podsuwana. Dlatego wiedza i otwartość na to, żeby próbować różnych rozwiązań, jeżeli chodzi o technologię, jest kluczowe. Zawsze pamiętajmy o pierwszym pytaniu Chatu GPT: w czym mogę ci dzisiaj pomóc?