Gościnią rozmowy miesiąca jest Anna Connor-Łakomy – trenerka, badaczka i doktorantka na Uniwersytecie Complutense w Madrycie. Specjalizuje się w neuronauce społecznej i wdraża jej osiągnięcia do organizacji oraz rozwoju osobistego. Rozmawiamy o przeciążeniu poznawczym, pracy w środowisku AI, kosztach automatyzacji i o tym, jak projektować organizacje bardziej przyjazne ludzkiemu układowi nerwowemu.
Jakub Rusak, Digital University: Zacznijmy od kontekstu biologicznego. Co się dzieje z naszymi mózgami w środowisku pracy pełnym technologii, bodźców i nieustannego przepływu informacji?
Anna Connor-Łakomy: Często zaczynam właśnie od tego wątku, żeby pokazać, jak bardzo jest nam dziś trudno – i że naprawdę mamy powody, by czuć się gorzej. Już w 1994 roku pojawiła się hipoteza mówiąca o tym, że nasz mózg jest ewolucyjnie niedopasowany do środowiska, w którym funkcjonujemy. Przez około 2 miliony lat mózg człowieka rozwijał się w rzeczywistości, w której zagrożenia były przede wszystkim fizyczne i krótkotrwałe. Żyliśmy bardziej w sprintach niż w maratonie. Nasze społeczności liczyły zwykle od 50 do 150 osób – czyli tyle, ile mózg jest w stanie zorganizować, zapamiętać i objąć relacjami.
Dziś żyjemy w globalnej wiosce. Spotykamy znacznie więcej osób – nie tylko fizycznie, ale też w internecie, w mediach społecznościowych. Do tego dochodzi informacja, która kiedyś przychodziła z prędkością kroków drugiego człowieka i odchodziła w tym samym tempie. Teraz atakuje nas z każdej strony. Mówi się dużo o ekonomii uwagi, bo uwaga stała się jednym z najcenniejszych zasobów. Nie walczy się już tylko o pieniądze konsumentów, ale właśnie o ich uwagę. I ta kradzież uwagi jest realnym problemem.
Szacuje się, że dziennie przyswajamy około 70–74 GB danych, czyli odpowiednik mniej więcej 16 filmów. W pracy przerywa się nam nawet kilkadziesiąt razy dziennie. Do tego dochodzi chroniczna niepewność. Dzisiejsze zagrożenia nie są już krótkotrwałe i fizyczne – są nieustanne, rozciągnięte w czasie i trudne do uchwycenia.
Co to robi nam w praktyce?
Przede wszystkim wpływa na funkcje wykonawcze. To obszar, o którym kiedyś mówiło się głównie w kontekście diagnoz klinicznych, na przykład zaburzeń neurorozwojowych, demencji czy choroby Alzheimera. Dziś widzimy, że funkcje poznawcze „siadają” u bardzo wielu osób. Dotyczy to nie tylko pamięci roboczej, ale też planowania, organizowania, regulowania emocji czy podejmowania decyzji. Bardzo często ludzie nie pamiętają, co robili dzień wcześniej, co jedli rano, mają trudność z utrzymaniem koncentracji. I to nie jest kwestia słabej woli, tylko efekt środowiska, które bardzo mocno obciąża nasz mózg. Dlatego patrzę na to także z perspektywy kultury organizacyjnej. Sposób, w jaki organizujemy spotkania, podejmujemy decyzje, automatyzujemy zadania, wdrażamy AI – to wszystko powinno mieć konkretną strategię. A rzadko kiedy tak jest.
Kojarzy mi się to ze zdaniem, które przeczytałem w jednym z opisów twoich szkoleń: „Automatyzacja usuwa widoczny wysiłek, ale nie eliminuje emocjonalnych i poznawczych kosztów pracy”.
Tu ważna jest rola zmysłów. To właśnie one są jedną z najważniejszych różnic między nami a sztuczną inteligencją. AI, którą dziś znamy, nie ma ciała, układu nerwowego, reakcji stresowej ani sieci zmysłów. A my mamy bardzo rozwinięty system sensoryczny. Zmysły pozwalają nam błyskawicznie zbierać informacje z otoczenia i reagować. Czasem nawet dwustukrotnie szybciej niż wtedy, gdy analizujemy coś świadomie. Nazywamy to intuicją, po angielsku mówi się o gut feeling. I to określenie jest bardzo trafne, bo często pierwsze sygnały płyną właśnie z ciała.
Problem polega na tym, że środowisko, które sobie dziś tworzymy, coraz bardziej odcina nas od tej części naszej inteligencji. Zamykamy się w biurach, przed ekranami, w klimatyzowanych pomieszczeniach, przy sztucznym świetle i temperaturze, na którą nie mamy wpływu. Z perspektywy zmysłów to są bardzo silne stresory. A jednocześnie próbujemy funkcjonować tak, jakby ciało nie miało znaczenia. Jakby najważniejsze było tylko przetwarzanie informacji. To ogromny błąd.
Czyli problemem nie jest wyłącznie technologia, ale też środowisko, w którym pracujemy?
Tak. Bardzo często słyszymy: „Proszę się mniej stresować”. Ale to nie wystarczy. Nie chodzi tylko o afirmacje czy techniki relaksacyjne. Jeśli środowisko jest niedopasowane do człowieka, to samo „pozytywne myślenie” nie rozwiąże problemu. Jesteśmy organizmami żywymi. Potrzebujemy bodźców naturalnych, zmienności, kontaktu z rzeczywistym środowiskiem. Tymczasem większość naszego czasu to: samochód, dom, biuro, komputer, smartfon. Wyjście do lasu staje się wyprawą, a wyjazd nad morze trzeba planować z dużym wyprzedzeniem. To wszystko wpływa na zdrowie psychiczne, poziom lęku i przeciążenie systemu nerwowego.
Wróćmy do AI. Jakie są poznawcze koszty pracy ze sztuczną inteligencją?
Po pierwsze, musimy pamiętać, że naukowo wciąż wiemy o tym stosunkowo mało. Jest dużo mitów, przekonań i opinii, ale rzetelne badania wymagają czasu. Czasem pokazuję w organizacjach badanie z 2024 roku i słyszę, że to już „archeologia”. Z perspektywy technologii może częściowo tak, ale z perspektywy człowieka – nie. Ludzka neurobiologia nie zmienia się tak szybko jak technologia. Dlatego nie powinniśmy wyrzucać do kosza badań tylko dlatego, że nie powstały wczoraj.
Najlepiej przebadanym problemem jest dziś spadek umiejętności krytycznego myślenia. Kiedy korzystamy z AI, często wydaje nam się, że przyspieszamy pracę, bo zadajemy pytanie i dostajemy odpowiedź. Ale w rzeczywistości delegujemy myślenie. A to uruchamia kilka kosztów. Po pierwsze, musimy stale monitorować proces – porównywać odpowiedź AI z własnymi założeniami i wiedzą. Po drugie, musimy umieć bardzo precyzyjnie formułować prompty. W końcu – musimy weryfikować to, co dostajemy. To jest ogromne obciążenie pamięci roboczej.
Czyli używanie AI może być bardziej męczące niż samodzielna praca?
Tak, szczególnie wtedy, gdy mamy do czynienia z półautomatyzacją. Z jednej strony coś delegujemy, ale z drugiej nadal musimy to kontrolować, sprawdzać i poprawiać. To może być nawet większy koszt niż wykonanie zadania samodzielnie. Mówi się o paradoksie offloadingu – czyli delegowania. Coś pozornie przyspiesza, ale poznawczo i emocjonalnie może obciążać nas bardziej. Czujemy się zmęczeni, mimo że „przecież AI zrobiło za nas robotę”.
Dochodzi też kwestia interakcji z narzędziem, które udaje rozmówcę. AI potrafi przytakiwać, przepraszać, okazywać pozorną empatię. To może uruchamiać w nas mechanizmy społeczne, bo mózg zaczyna traktować tę interakcję jak relację. A przecież to nadal narzędzie. Nie powinniśmy psychologizować AI ani go uczłowieczać. To narzędzie – tak jak młotek. Może być bardzo sprawne, ale nie ma prawdziwej kompetencji społecznej.
Jak więc korzystać z AI, żeby obniżyć ten koszt energetyczny?
Nie szłabym w absolutyzm: ani „wszystko z AI”, ani „wyrzućmy AI”. Kluczowe jest to, co delegujemy. Nie delegowałabym najważniejszych decyzji, strategii ani zadań kreatywnych. To są obszary, które budują nasze poczucie sprawczości i flow. Delegujmy raczej zadania proste, powtarzalne, uciążliwe albo takie, które są poza naszym zestawem kompetencji. Na przykład ja nie jestem graficzką i nie chcę nią być. Ale kiedy wykonam swoją właściwą pracę – przeczytam badania, połączę wątki, zbuduję koncepcję – mogę poprosić AI, żeby zrobiło z tego workbook. I wtedy to ma sens, bo deleguję część, która mnie obciąża, a nie część, która jest istotą mojej pracy.
Bardzo polecam też pytać AI nie o odpowiedzi, ale o pytania. Na przykład: „Pracuję nad tym zadaniem. Zadaj mi pytania, które sprawdzą, czy dobrze myślę”. Albo: „Sprawdź, czy w tym tekście nie ma stereotypów, uprzedzeń albo pytań z tezą”. Wtedy AI może być użytecznym narzędziem do krytycznego spojrzenia, a nie zastępstwem dla myślenia.
Wielu programistów mówi dziś, że nie po to szli na studia i nie po to chcieli kodować, żeby teraz głównie czytać i sprawdzać kod wygenerowany przez AI. To zupełnie inny typ pracy i zupełnie inne obciążenie poznawcze. Podobnie jest z dziennikarzami czy redaktorami. AI może produkować proste treści, ale to nie znaczy, że zastępuje prawdziwą pracę dziennikarską. Najmocniejsi jesteśmy tam, gdzie trzeba wyjść poza ekran: zadzwonić, sprawdzić informację, porozmawiać z człowiekiem, zweryfikować, czy ktoś naprawdę istnieje i był tam, gdzie twierdzi, że był. Natomiast AI świetnie nadaje się do zadań żmudnych, takich jak transkrypcja wywiadów. I to jest dobry kierunek: używać technologii tam, gdzie rzeczywiście odciąża, a nie tam, gdzie odbiera sens pracy.
Na koniec porozmawiajmy o Invisible – startupie, który tworzysz. Opowiedz o nim więcej.
Ten pomysł był ze mną od dawna. Dużo pracuję z biznesem, liderami i zespołami, więc mam dostęp do wielu osób, które budują organizacje i gospodarkę. Słyszę ich wyzwania i widzę, z czym się mierzą. Bardzo mocno uderzyło mnie to podczas Web Summit w Lizbonie. Prawie wszystkie rozmowy oficjalne dotyczyły AI. A jednocześnie rozmowy kuluarowe były zupełnie inne. Ludzie mówili o tym, że nie radzą sobie ze stresem, przeciążeniem, własną głową. Mamy więc dwie prędkości: systemową i ludzką. System mówi o transformacji, wdrożeniach, automatyzacji i przebudowie gospodarki. A ludzie często są już na granicy przeciążenia.
Widzę cztery problematyczne obszary. Pierwszy to funkcje poznawcze, o których już mówiliśmy. Drugi to sensoryka – światło, dźwięk, temperatura, przestrzeń. Wiele osób nie zdaje sobie sprawy, jak bardzo te czynniki są dla nich stresujące. Trzeci obszar to praca emocjonalna: na ile moje emocje są adekwatne, czy mogę być sobą w pracy, czy zakładam maskę, jak funkcjonuję w relacji z technologią i ludźmi. Czwarty to regeneracja i praca w cyklach – czyli rozumienie, kiedy jestem przeciążona, kiedy potrzebuję przerwy i kiedy zaczynam zaciągać dług poznawczy. To są obszary niewidoczne, o których ludzie często nie mówią, a które będą coraz bardziej obciążone wraz z rozwojem technologii.
Jak odpowiada na to Invisible?
Chodzi o diagnozę tego, jak środowisko pracy wpływa na człowieka – zarówno z perspektywy subiektywnej, czyli tego, jak dana osoba to odczuwa, jak i bardziej obiektywnej. Wiele z tych obszarów trudno samodzielnie ocenić, dlatego zależało mi na połączeniu dwóch perspektyw. Celem jest pokazanie profilu funkcjonowania: co nas obciąża, co nam sprzyja, jakie bariery występują w środowisku pracy. A potem zaproponowanie rozwiązań – zarówno indywidualnych, jak i organizacyjnych. Organizacje mogą dzięki temu lepiej projektować pracę hybrydową, procesy decyzyjne, wdrażanie AI, przestrzeń biurową czy system spotkań. Nie po to, żeby dodatkowo obciążać ludzi, ale żeby usuwać bariery i wydobywać potencjał, który już w nich jest.
Młodsze pokolenia bardzo mocno oczekują indywidualizacji, ale widzimy też, że uniwersalne systemy po prostu nie działają. Jesteśmy bardzo różni i nie da się nas skutecznie zarządzać jednym szablonem. Inspiruje mnie tutaj Universal Design, czyli projektowanie uniwersalne wywodzące się z architektury. Chodzi o takie tworzenie rozwiązań, które nikogo nie wykluczają, a jednocześnie włączają szerszą grupę osób.
Prosty przykład: jeśli zaprojektujemy tylko schody, wejdą po nich wyłącznie osoby, które mogą z nich skorzystać. Jeśli zaprojektujemy rampę, skorzysta więcej osób. Podobnie jest w organizacjach. Mądre planowanie decyzyjności, pracy hybrydowej czy wdrożeń AI często nie wymaga ogromnych kosztów, ale może radykalnie zmienić jakość pracy. To już nie jest moment, w którym testy kompetencji wystarczają do zarządzania świadomością i efektywnością ludzi. Potrzebujemy głębiej rozumieć, co naprawdę dzieje się z człowiekiem w środowisku pracy.



