W dniach 10–13 listopada 2025 roku Lizbona znów stała się stolicą światowej technologii. Na Web Summit 2025 było ponad 71 tysięcy osób ze 157 krajów i aż 1 857 inwestorów – to największa jak dotąd obecność kapitału na tym wydarzeniu. Wśród ponad 2,7 tys. startupów z ponad 100 państw zdecydowanie dominowały projekty z obszaru sztucznej inteligencji i uczenia maszynowego.
Skala konferencji jest ważna, ale w tym roku ciekawsze było coś innego: zmiana tonu. AI przestała być traktowana jak efektowny dodatek do prezentacji. Zaczęła być opisywana nie jak zabawka, ale jak system operacyjny współczesnego biznesu – z całą odpowiedzialnością, jaką niesie infrastruktura. Centralnym motywem byli agenci AI i przyszłość pracy. W różnych odmianach wracało też pytanie nie o to, co AI potrafi, ale o to, „co jesteśmy gotowi jej powierzyć – i na jakich warunkach?”.
Agenci AI – nowa warstwa między człowiekiem a organizacją
Podczas otwarcia i kolejnych keynote’ów organizatorzy wprost zapowiadali: czas modeli-gadżetów się kończy, wchodzimy w erę „AI agents” – systemów, które potrafią samodzielnie wykonywać sekwencje zadań, korzystać z narzędzi, przeszukiwać dane i wracać z wynikiem.
W sesji Rethinking AI: How agents will impact marketing, business and humanity Daniel Hulme, Chief AI Officer w WPP, mówił o AI nie jako o pojedynczej aplikacji, lecz o „operating system of life” – warstwie, która wchodzi pomiędzy nas a dane, procesy, organizacje. Z jego wizji wyłonił się obraz świata, w którym nie logujemy się do dziesiątek aplikacji, tylko rozmawiamy z jednym lub kilkoma agentami, a oni – w tle – wykonują za nas pracę w systemach firmowych, narzędziach chmurowych, CRM-ach i wewnętrznych bazach.
W panelach dotyczących kreatywności wielokrotnie podkreślano, że agent = asystent, nie zastępca. AI może dziś generować całe kampanie, koncepty i skrypty, ale dopiero ludzki wybór, gust i odpowiedzialność nadają temu sens. To człowiek definiuje kierunek, cel i kontekst – agent skraca odległość między intencją a wykonaniem.
Co mówią pierwsi duzi użytkownicy agentów
Ten obraz dobrze potwierdza to, co płynie z newslettera This Week in AI Agents i z dyskusji na Reddicie, gdzie użytkownicy podsumowywali wątki z Lizbony i własne wdrożenia:
- Chime obniżyło koszty obsługi klienta o ok. 60%, jednocześnie podnosząc NPS – większość pierwszej linii to dziś agenci.
- Oura rozwiązuje większość zgłoszeń klientów całkowicie przez agentów, a do człowieka trafiają tylko sprawy nietypowe.
- Decagon mówi wprost, że agenci stają się głównym interfejsem między markami a klientami – to z nimi rozmawiamy, a nie z aplikacją.
- Intercom przewiduje schyłek klasycznego SaaS-u: aplikacje z interfejsem „do klikania” będą stopniowo wypierane przez agenty działające bezpośrednio na warstwie danych i API.
- Replit podkreśla, że największym problemem nie jest już sam model, ale kontekst, halucynacje i brudne dane – czyli to, w jakim świecie agent faktycznie operuje.
Najmocniejsza teza, która przewijała się przez kilka sesji i komentarzy:
„Największym wyzwaniem nie jest model, tylko zmiana ról, KPI i procesów, kiedy ludzie przestają wykonywać zadania, a zaczynają zarządzać agentami”.
W panelach produktowo-marketingowych sugerowano, żeby myśleć o agentach jak o członkach zespołu: mieć osobnego agenta do insightów, osobnego do eksperymentów, osobnego do podróży klienta i osobnego do raportowania.
Kluczowe pytanie przestaje brzmieć „Jakie mamy AI?”, a zaczyna: „Które decyzje chcemy oddawać agentom – i pod jakim nadzorem?”. To jest zasadnicza zmiana filozofii: technologia nie jest już dodatkiem, tylko współpracownikiem, którego trzeba mądrze zatrudnić, rozliczać i kontrolować.
Przyszłość pracy: od vibe-codingu do „AI supervisorów”
Dyskusje o rynku pracy miały wyraźnie podwójny charakter: z jednej strony entuzjazm dla nowych modeli, z drugiej – bardzo trzeźwe spojrzenie na ryzyka.
Vibe-coding, czyli programowanie za pomocą intencji
Mocno wybrzmiał wątek tzw. „vibe-codingu” – sytuacji, w której zamiast pisać kod linijka po linijce, człowiek opisuje zamiar („chcę prostą aplikację, która robi X i Y”), a system generuje potrzebny kod i iteruje na podstawie feedbacku. To nie abstrakcja, ale realny trend, wokół którego w Portugalii powstają już kursy i warsztaty.
Konsekwencja? Rola programisty zmienia się:
- mniej ręcznego „klepania” kodu,
- więcej roli architekta i recenzenta rozwiązań generowanych przez AI,
- nowe kompetencje: umiejętność precyzyjnego opisywania wymagań, krytyczne czytanie kodu generowanego przez system, bezpieczeństwo i optymalizacja.
„AI at the checkout” – automatyzacja realnej pracy
W panelu „AI at the checkout: promise, perils, and the path forward” pokazywano, jak głęboko AI wchodzi w handel i usługi: od inteligentnych kas samoobsługowych po kontekstowe rekomendacje, dynamiczne ceny i personalizację ofert w czasie rzeczywistym.
Najważniejsze wnioski:
AI może radykalnie zmniejszyć kolejki, błędy i koszty obsługi, ale wprowadza też nowe ryzyka: dyskryminację cenową, nadużycia danych, „niewidzialne” manipulacje przy wirtualnej półce. Konieczne staje się projektowanie systemów, w których człowiek zawsze ma możliwość zrozumienia i zakwestionowania decyzji AI.
Nowe role: AI supervisor, AI operations, workflow designer
Na tle tych przykładów coraz bardziej realnie brzmią wątki z newsletterów o agentach:
- firmy zaczynają zatrudniać „AI supervisorów” – osoby, które nie muszą kodować, ale projektują zasady działania agentów, monitorują ich pracę i ustawiają progi eskalacji,
- agenci okazują się szczególnie pomocni dla osób z ADHD, autyzmem czy dysleksją – przejmują obciążające zadania organizacyjne i administracyjne, pozwalając skupić się na pracy merytorycznej,
- Microsoft wprowadza do Teams i pakietu Microsoft 365 koncepcję „Agentic Users” – użytkowników, którzy mają swoje agentowe „awantary” wykonujące za nich część zadań w tle.
Kluczowa, nieoczywista zmiana: podstawową kompetencją nie będzie „umiejętność obsługi narzędzia X”, tylko umiejętność projektowania pracy z agentem: definiowania zadań, ustawiania granic, rozumienia metryk i szybkiego poprawiania systemu, gdy robi coś nie tak.
Dla działów HR i liderów oznacza to konieczność przemyślenia:
- nowych KPI (np. wartość wygenerowana wspólnie przez zespół + agentów, a nie tylko indywidualne outputy),
- nowych ról („AI operations”, „AI workflow designer”),
- nowej edukacji – uczenia ludzi, jak współpracować z automatycznymi systemami zamiast z nimi konkurować.
KształtAI wychodzi z ekranu: roboty, fotonika i „fleet learning”
Drugi silny wątek Web Summit 2025 to AI, która opuszcza ekran i wchodzi w świat fizyczny – od fotonicznych chipów po roboty w fabrykach i szpitalach.
Spot, humanoidy i milion robotów Amazona
Jednym z medialnych bohaterów konferencji był Spot – czworonożny robot Boston Dynamics, który wszedł na scenę po schodach jak gwiazda rocka. CEO firmy, Robert Playter, pokazywał, jak Spot już dziś wykonuje inspekcje w miejscach niedostępnych dla ludzi – m.in. w Fukushimie, gdzie otwierał drzwi nieotwierane od czasu katastrofy w 2011 roku.
Równolegle Boston Dynamics rozwija humanoida do zastosowań przemysłowych, o parametrach, które brzmią jak science-fiction, ale są już prototypowo dostępne:
- elektryczny napęd,
- stawy obracające się w 360°,
- udźwig do 30 kg,
- ok. 3 godziny pracy na baterii i możliwość samodzielnej wymiany akumulatora przez robota.
Na konferencji mocno wybrzmiał kontrapunkt w postaci wypowiedzi Tye’a Brady’ego, CTO Amazon Robotics. Amazon używa już ponad miliona robotów, ale – jak podkreśla – większość z nich działa w ściśle kontrolowanych, przewidywalnych scenariuszach. Świat rzeczywisty, z setkami tysięcy różnych przedmiotów, nieregularnymi kształtami i chaosem magazynu, wciąż jest wielkim wyzwaniem.
Wniosek dla rynku pracy jest trzeźwy: roboty i AI już dziś przejmują najbardziej powtarzalne, fizycznie trudne i ryzykowne zadania – ale skala „terminatora na hali” jest jeszcze bardzo daleko. To daje kilka lat na realne przebudowanie ról: techników, operatorów flot robotów, projektantów procesów i „nadzorców” modeli.
Embodied intelligence: „flota jest modelem”
W panelach poświęconych robotyce pojawiła się ciekawa metafora: przyszły „moment GPT” w robotyce nie będzie jednym genialnym robotem, tylko flotą urządzeń uczących się wspólnie.
Paneliści wskazywali dwa kluczowe klocki:
- Foundation models dla świata fizycznego – jeden „mózg” dla wielu ciał (humanoidy, roboty kołowe, czworonożne), działający bez GPS i wcześniej mapowanych tras.
- Dane z rzeczywistości – np. egzoszkielety rehabilitacyjne z dziesiątkami czujników generującymi ponad milion punktów danych na sekundę. Najmocniejsze dane nie pochodzą z laboratoriów, lecz z użycia domowego, gdzie wszystko jest nieidealne i nieprzewidywalne.
Zdanie, które dobrze to podsumowuje, brzmiało mniej więcej tak: „Dodajesz robota numer 1000 i nie dokładasz tylko jednego pracownika – dokładane jest 999 dodatkowych połączeń uczących cały system”.
To jest właśnie embodied intelligence: inteligencja wcielona w setki i tysiące urządzeń, które uczą się razem.
Fotonika, halucynacje i inżynieria prawdy
Trzeci, bardziej „podmaskowy” wątek dotyczył fotoniki – wykorzystania światła do komunikacji w chipach AI. Eksperci mówili o rzędach wielkości lepszej przepustowości między pamięcią a obliczeniami oraz niższym zużyciu energii na operację. Problemem pozostaje dziś:
- opakowanie układów,
- uzyski (yield) w produkcji,
- brak dojrzałych narzędzi programistycznych,
- przepustowość fabryk.
Dla biznesu ważna jest prosta konkluzja: obecne koszty uczenia dużych modeli nie są docelowe. Niskoenergetyczne, fotoniczne „współprocesory” najpierw trafią do inferencji i sieci, a potem – wraz z dojrzewaniem narzędzi – także do treningu.
Drugi inżynierski wątek to halucynacje modeli. Zamiast utyskiwać, zespoły pokazywały „przepis produkcyjny” na ograniczenie problemu:
- zawężony zakres zadań,
- domyślna integracja z wyszukiwarką, bazami danych i kalkulatorem (RAG + tool use),
- zespoły modeli i mechanizmy self-check,
- wbudowane cytowanie źródeł i eleganckie „nie wiem”,
- metryki: nie tylko accuracy, ale też answerable rate i evidence coverage.
To bardzo praktyczna checklista, którą można niemal wprost przepisać do enterprise’owych wdrożeń AI.
Co Web Summit 2025 mówi o rynku pracy w horyzoncie 3-5 lat?
Patrząc całościowo na wątki z Lizbony, można naszkicować kilka scenariuszy:
- Powstaną całkiem nowe zawody. Trener modeli, etyk AI, kurator danych, specjalista ds. interfejsu człowiek–agent, menedżer hybrydowych zespołów człowiek–AI – to nie futurystyka, tylko odpowiedź na realne potrzeby firm, które zaczynają zarządzać agentami jak ludźmi.
- Wiele istniejących zawodów przesunie się w stronę nadzoru i projektowania. W marketingu, obsłudze klienta, HR, finansach coraz większą część operacji wykonają agenci. Ludzie zostaną przy wyborze strategii, priorytetyzacji, pracy z emocjami i przy „zamykania pętli” tam, gdzie trzeba ponieść odpowiedzialność.
- Zawody powtarzalne znajdą się pod największą presją. Prace rutynowe – w logistyce, prostym kodowaniu, retailu – będą automatyzowane w pierwszej kolejności. Bez świadomego przekwalifikowania ta grupa zawodowa najmocniej odczuje wstrząs.
- Europa może wygrać jakością, nie skalą. Jeśli konsekwentnie postawi na zaufanie, przejrzystość, suwerenność danych i infrastrukturę (AI Factories), ma szansę stworzyć alternatywny, bardziej „ludzki” model rozwoju AI – i to może być jej przewaga konkurencyjna.
- Najważniejszą kompetencją przyszłości będzie odpowiedzialne korzystanie z mocy, jaką daje AI. Nie tylko „jak z tego korzystać”, ale: kiedy nie korzystać, gdzie postawić granice, jak projektować systemy, które są nie tylko efektywne, ale również sprawiedliwe, zrozumiałe i akceptowalne społecznie.
Zamiast zakończenia: AI jako lustro
Web Summit 2025 pokazał coś ważnego: era zachwytu nad samymi modelami się skończyła. Zaczyna się era trudnych pytań o to, jak wbudować AI w tkankę pracy, gospodarki i życia tak, żebyśmy w tym procesie nie zgubili człowieka. Agenci AI stają się lustrem: pokazują, jak bardzo jesteśmy gotowi oddać część kontroli – i jak bardzo boimy się konsekwencji. Roboty przypominają, że świat fizyczny wciąż opiera się na oporze materiału i tarciu, a nie tylko na slajdach w PowerPoincie. To od nas zależy, czy tę moc wykorzystamy do budowania mądrzejszych, bardziej ludzkich organizacji, czy tylko do wyciskania z ludzi jeszcze większej produktywności. AI – jak każda technologia – nie ma w tym własnego interesu. My go mamy.



