Digital University

Stay updated​

Web Summit 2025. Rok, w którym AI przestała być gadżetem, a stała się infrastrukturą pracy

Web Summit 2025 - podsumowanie

W dniach 10–13 listopada 2025 roku Lizbona znów stała się stolicą światowej technologii. Na Web Summit 2025 było ponad 71 tysięcy osób ze 157 krajów i aż 1 857 inwestorów – to największa jak dotąd obecność kapitału na tym wydarzeniu. Wśród ponad 2,7 tys. startupów z ponad 100 państw zdecydowanie dominowały projekty z obszaru sztucznej inteligencji i uczenia maszynowego.

Skala konferencji jest ważna, ale w tym roku ciekawsze było coś innego: zmiana tonu. AI przestała być traktowana jak efektowny dodatek do prezentacji. Zaczęła być opisywana nie jak zabawka, ale jak system operacyjny współczesnego biznesu – z całą odpowiedzialnością, jaką niesie infrastruktura. Centralnym motywem byli agenci AI i przyszłość pracy. W różnych odmianach wracało też pytanie nie o to, co AI potrafi, ale o to, „co jesteśmy gotowi jej powierzyć – i na jakich warunkach?”.

 

Agenci AI – nowa warstwa między człowiekiem a organizacją

Podczas otwarcia i kolejnych keynote’ów organizatorzy wprost zapowiadali: czas modeli-gadżetów się kończy, wchodzimy w erę „AI agents” – systemów, które potrafią samodzielnie wykonywać sekwencje zadań, korzystać z narzędzi, przeszukiwać dane i wracać z wynikiem.

W sesji Rethinking AI: How agents will impact marketing, business and humanity Daniel Hulme, Chief AI Officer w WPP, mówił o AI nie jako o pojedynczej aplikacji, lecz o „operating system of life” – warstwie, która wchodzi pomiędzy nas a dane, procesy, organizacje. Z jego wizji wyłonił się obraz świata, w którym nie logujemy się do dziesiątek aplikacji, tylko rozmawiamy z jednym lub kilkoma agentami, a oni – w tle – wykonują za nas pracę w systemach firmowych, narzędziach chmurowych, CRM-ach i wewnętrznych bazach.

W panelach dotyczących kreatywności wielokrotnie podkreślano, że agent = asystent, nie zastępca. AI może dziś generować całe kampanie, koncepty i skrypty, ale dopiero ludzki wybór, gust i odpowiedzialność nadają temu sens. To człowiek definiuje kierunek, cel i kontekst – agent skraca odległość między intencją a wykonaniem.

 

Co mówią pierwsi duzi użytkownicy agentów

Ten obraz dobrze potwierdza to, co płynie z newslettera This Week in AI Agents i z dyskusji na Reddicie, gdzie użytkownicy podsumowywali wątki z Lizbony i własne wdrożenia:

  • Chime obniżyło koszty obsługi klienta o ok. 60%, jednocześnie podnosząc NPS – większość pierwszej linii to dziś agenci.
  • Oura rozwiązuje większość zgłoszeń klientów całkowicie przez agentów, a do człowieka trafiają tylko sprawy nietypowe.
  • Decagon mówi wprost, że agenci stają się głównym interfejsem między markami a klientami – to z nimi rozmawiamy, a nie z aplikacją.
  • Intercom przewiduje schyłek klasycznego SaaS-u: aplikacje z interfejsem „do klikania” będą stopniowo wypierane przez agenty działające bezpośrednio na warstwie danych i API.
  • Replit podkreśla, że największym problemem nie jest już sam model, ale kontekst, halucynacje i brudne dane – czyli to, w jakim świecie agent faktycznie operuje.

Najmocniejsza teza, która przewijała się przez kilka sesji i komentarzy:

„Największym wyzwaniem nie jest model, tylko zmiana ról, KPI i procesów, kiedy ludzie przestają wykonywać zadania, a zaczynają zarządzać agentami”.

W panelach produktowo-marketingowych sugerowano, żeby myśleć o agentach jak o członkach zespołu: mieć osobnego agenta do insightów, osobnego do eksperymentów, osobnego do podróży klienta i osobnego do raportowania.

Kluczowe pytanie przestaje brzmieć „Jakie mamy AI?”, a zaczyna: „Które decyzje chcemy oddawać agentom – i pod jakim nadzorem?”. To jest zasadnicza zmiana filozofii: technologia nie jest już dodatkiem, tylko współpracownikiem, którego trzeba mądrze zatrudnić, rozliczać i kontrolować.

 

Przyszłość pracy: od vibe-codingu do „AI supervisorów”

Dyskusje o rynku pracy miały wyraźnie podwójny charakter: z jednej strony entuzjazm dla nowych modeli, z drugiej – bardzo trzeźwe spojrzenie na ryzyka.

 

Vibe-coding, czyli programowanie za pomocą intencji

Mocno wybrzmiał wątek tzw. „vibe-codingu” – sytuacji, w której zamiast pisać kod linijka po linijce, człowiek opisuje zamiar („chcę prostą aplikację, która robi X i Y”), a system generuje potrzebny kod i iteruje na podstawie feedbacku. To nie abstrakcja, ale realny trend, wokół którego w Portugalii powstają już kursy i warsztaty.

Konsekwencja? Rola programisty zmienia się:

  • mniej ręcznego „klepania” kodu,
  • więcej roli architekta i recenzenta rozwiązań generowanych przez AI,
  • nowe kompetencje: umiejętność precyzyjnego opisywania wymagań, krytyczne czytanie kodu generowanego przez system, bezpieczeństwo i optymalizacja.

 

„AI at the checkout” – automatyzacja realnej pracy

W panelu „AI at the checkout: promise, perils, and the path forward” pokazywano, jak głęboko AI wchodzi w handel i usługi: od inteligentnych kas samoobsługowych po kontekstowe rekomendacje, dynamiczne ceny i personalizację ofert w czasie rzeczywistym.

Najważniejsze wnioski:

AI może radykalnie zmniejszyć kolejki, błędy i koszty obsługi, ale wprowadza też nowe ryzyka: dyskryminację cenową, nadużycia danych, „niewidzialne” manipulacje przy wirtualnej półce. Konieczne staje się projektowanie systemów, w których człowiek zawsze ma możliwość zrozumienia i zakwestionowania decyzji AI.

Nowe role: AI supervisor, AI operations, workflow designer

Na tle tych przykładów coraz bardziej realnie brzmią wątki z newsletterów o agentach:

  • firmy zaczynają zatrudniać „AI supervisorów” – osoby, które nie muszą kodować, ale projektują zasady działania agentów, monitorują ich pracę i ustawiają progi eskalacji,
  • agenci okazują się szczególnie pomocni dla osób z ADHD, autyzmem czy dysleksją – przejmują obciążające zadania organizacyjne i administracyjne, pozwalając skupić się na pracy merytorycznej,
  • Microsoft wprowadza do Teams i pakietu Microsoft 365 koncepcję „Agentic Users” – użytkowników, którzy mają swoje agentowe „awantary” wykonujące za nich część zadań w tle.

Kluczowa, nieoczywista zmiana: podstawową kompetencją nie będzie „umiejętność obsługi narzędzia X”, tylko umiejętność projektowania pracy z agentem: definiowania zadań, ustawiania granic, rozumienia metryk i szybkiego poprawiania systemu, gdy robi coś nie tak.

Dla działów HR i liderów oznacza to konieczność przemyślenia:

  • nowych KPI (np. wartość wygenerowana wspólnie przez zespół + agentów, a nie tylko indywidualne outputy),
  • nowych ról („AI operations”, „AI workflow designer”),
  • nowej edukacji – uczenia ludzi, jak współpracować z automatycznymi systemami zamiast z nimi konkurować.

 

KształtAI wychodzi z ekranu: roboty, fotonika i „fleet learning”

Drugi silny wątek Web Summit 2025 to AI, która opuszcza ekran i wchodzi w świat fizyczny – od fotonicznych chipów po roboty w fabrykach i szpitalach.

 

Spot, humanoidy i milion robotów Amazona

Jednym z medialnych bohaterów konferencji był Spot – czworonożny robot Boston Dynamics, który wszedł na scenę po schodach jak gwiazda rocka. CEO firmy, Robert Playter, pokazywał, jak Spot już dziś wykonuje inspekcje w miejscach niedostępnych dla ludzi – m.in. w Fukushimie, gdzie otwierał drzwi nieotwierane od czasu katastrofy w 2011 roku.

Równolegle Boston Dynamics rozwija humanoida do zastosowań przemysłowych, o parametrach, które brzmią jak science-fiction, ale są już prototypowo dostępne:

  • elektryczny napęd,
  • stawy obracające się w 360°,
  • udźwig do 30 kg,
  • ok. 3 godziny pracy na baterii i możliwość samodzielnej wymiany akumulatora przez robota.

Na konferencji mocno wybrzmiał kontrapunkt w postaci wypowiedzi Tye’a Brady’ego, CTO Amazon Robotics. Amazon używa już ponad miliona robotów, ale – jak podkreśla – większość z nich działa w ściśle kontrolowanych, przewidywalnych scenariuszach. Świat rzeczywisty, z setkami tysięcy różnych przedmiotów, nieregularnymi kształtami i chaosem magazynu, wciąż jest wielkim wyzwaniem.

Wniosek dla rynku pracy jest trzeźwy: roboty i AI już dziś przejmują najbardziej powtarzalne, fizycznie trudne i ryzykowne zadania – ale skala „terminatora na hali” jest jeszcze bardzo daleko. To daje kilka lat na realne przebudowanie ról: techników, operatorów flot robotów, projektantów procesów i „nadzorców” modeli.

 

Embodied intelligence: „flota jest modelem”

W panelach poświęconych robotyce pojawiła się ciekawa metafora: przyszły „moment GPT” w robotyce nie będzie jednym genialnym robotem, tylko flotą urządzeń uczących się wspólnie.

Paneliści wskazywali dwa kluczowe klocki:

  • Foundation models dla świata fizycznego – jeden „mózg” dla wielu ciał (humanoidy, roboty kołowe, czworonożne), działający bez GPS i wcześniej mapowanych tras.
  • Dane z rzeczywistości – np. egzoszkielety rehabilitacyjne z dziesiątkami czujników generującymi ponad milion punktów danych na sekundę. Najmocniejsze dane nie pochodzą z laboratoriów, lecz z użycia domowego, gdzie wszystko jest nieidealne i nieprzewidywalne.

Zdanie, które dobrze to podsumowuje, brzmiało mniej więcej tak: „Dodajesz robota numer 1000 i nie dokładasz tylko jednego pracownika – dokładane jest 999 dodatkowych połączeń uczących cały system”.

To jest właśnie embodied intelligence: inteligencja wcielona w setki i tysiące urządzeń, które uczą się razem.

 

Fotonika, halucynacje i inżynieria prawdy

Trzeci, bardziej „podmaskowy” wątek dotyczył fotoniki – wykorzystania światła do komunikacji w chipach AI. Eksperci mówili o rzędach wielkości lepszej przepustowości między pamięcią a obliczeniami oraz niższym zużyciu energii na operację. Problemem pozostaje dziś:

  • opakowanie układów,
  • uzyski (yield) w produkcji,
  • brak dojrzałych narzędzi programistycznych,
  • przepustowość fabryk.

Dla biznesu ważna jest prosta konkluzja: obecne koszty uczenia dużych modeli nie są docelowe. Niskoenergetyczne, fotoniczne „współprocesory” najpierw trafią do inferencji i sieci, a potem – wraz z dojrzewaniem narzędzi – także do treningu.

Drugi inżynierski wątek to halucynacje modeli. Zamiast utyskiwać, zespoły pokazywały „przepis produkcyjny” na ograniczenie problemu:

  • zawężony zakres zadań,
  • domyślna integracja z wyszukiwarką, bazami danych i kalkulatorem (RAG + tool use),
  • zespoły modeli i mechanizmy self-check,
  • wbudowane cytowanie źródeł i eleganckie „nie wiem”,
  • metryki: nie tylko accuracy, ale też answerable rate i evidence coverage.

To bardzo praktyczna checklista, którą można niemal wprost przepisać do enterprise’owych wdrożeń AI.

 

Co Web Summit 2025 mówi o rynku pracy w horyzoncie 3-5 lat?

Patrząc całościowo na wątki z Lizbony, można naszkicować kilka scenariuszy:

  1. Powstaną całkiem nowe zawody. Trener modeli, etyk AI, kurator danych, specjalista ds. interfejsu człowiek–agent, menedżer hybrydowych zespołów człowiek–AI – to nie futurystyka, tylko odpowiedź na realne potrzeby firm, które zaczynają zarządzać agentami jak ludźmi.
  2. Wiele istniejących zawodów przesunie się w stronę nadzoru i projektowania. W marketingu, obsłudze klienta, HR, finansach coraz większą część operacji wykonają agenci. Ludzie zostaną przy wyborze strategii, priorytetyzacji, pracy z emocjami i przy „zamykania pętli” tam, gdzie trzeba ponieść odpowiedzialność.
  3. Zawody powtarzalne znajdą się pod największą presją. Prace rutynowe – w logistyce, prostym kodowaniu, retailu – będą automatyzowane w pierwszej kolejności. Bez świadomego przekwalifikowania ta grupa zawodowa najmocniej odczuje wstrząs.
  4. Europa może wygrać jakością, nie skalą. Jeśli konsekwentnie postawi na zaufanie, przejrzystość, suwerenność danych i infrastrukturę (AI Factories), ma szansę stworzyć alternatywny, bardziej „ludzki” model rozwoju AI – i to może być jej przewaga konkurencyjna.
  5. Najważniejszą kompetencją przyszłości będzie odpowiedzialne korzystanie z mocy, jaką daje AI. Nie tylko „jak z tego korzystać”, ale: kiedy nie korzystać, gdzie postawić granice, jak projektować systemy, które są nie tylko efektywne, ale również sprawiedliwe, zrozumiałe i akceptowalne społecznie.

 

Zamiast zakończenia: AI jako lustro

Web Summit 2025 pokazał coś ważnego: era zachwytu nad samymi modelami się skończyła. Zaczyna się era trudnych pytań o to, jak wbudować AI w tkankę pracy, gospodarki i życia tak, żebyśmy w tym procesie nie zgubili człowieka. Agenci AI stają się lustrem: pokazują, jak bardzo jesteśmy gotowi oddać część kontroli – i jak bardzo boimy się konsekwencji. Roboty przypominają, że świat fizyczny wciąż opiera się na oporze materiału i tarciu, a nie tylko na slajdach w PowerPoincie. To od nas zależy, czy tę moc wykorzystamy do budowania mądrzejszych, bardziej ludzkich organizacji, czy tylko do wyciskania z ludzi jeszcze większej produktywności. AI – jak każda technologia – nie ma w tym własnego interesu. My go mamy.

Let's complete your application: