Paula
Quinon
Absolwentka wydziału Administracji i Nauk Społecznych, Politechnika Warszawska
Bio
Paula jest międzynarodową ekspertką w dziedzinie teoretycznych, psychologicznych i społecznych aspektów infromatyki, cyfryzacji i AI. Wykłada na znanych uniwersytetach i konferencjach, np. na Kongresie Logiki, Metodologii i Filozofii Nauki i Technologii, który w 2023 w Buenos Aires zgromadził setki profesjonalistów. Paula ma również bogate doświadczenie w korporacyjnym R&D.
Posiada trzy tytuły magistra z logiki, modelowania kognitywnego i sztuk pięknych, PhD z filozofii nauki na Sorbonie oraz ponad 20-letnie doświadczenie akademickie w ENS Paris, UC Irvine, Munich Centre for Philosophy of Mathematics, Israel Institute of Advanced Studies czy uniwersytetach w Lund i Göteborgu. Publikowała w najważniejszych czasopismach branżowych. Jej artykuł o wykorzystaniu AI w nauce Rektor Politechniki Warszawskiej uznał za Best Paper 2023.
Jako spikerka biznesowa omawia błędy poznawcze, krytyczne myślenie i odpowiedzialne AI, pomagając firmom w przestrzeganiu przepisów europejskich, zrównoważonym rozwoju i zwiększaniu przychodów.
Abstrakty
Rosnąca autonomia systemów sztucznej inteligencji (AI) budzi obawy, że człowiek straci kontrolę nad ważnymi decyzjami. Dotyczy to zarówno jednostek, społeczeństw, czy ekosystemów, a także biznesu. Jednym z głównych problemów jest brak zrozumienia, jak działają te systemy. Celem mojego wystąpienia jest wyjaśnienie podstaw oraz pomoc w zrozumieniu działania AI.
Wraz z rosnącym wykorzystaniem AI w biznesie pojawiły się nowe pytania dotyczące wartości, które regulują relacje między firmą a jej klientami, partnerami, pracownikami i konkurentami. Te relacje muszą być zgodne z prawem i normami społecznymi. Etyczne zachowanie firmy ma bezpośredni wpływ na jej wizerunek, codzienne funkcjonowanie i dochody. Firmy działające etycznie mogą przyciągać lojalnych klientów, zatrudniać najlepsze talenty, unikać kar i zdobywać nagrody.
Problemy związane z autonomicznością systemów AI są inne niż te, z którymi firmy spotykały się dotąd. Jednym z kluczowych obszarów jest odpowiedzialność prawna za działania autonomicznych systemów AI. Przykładem mogą być samo-prowadzące się samochody. Gdy AI popełni błąd lub wyrządzi szkodę, ustalenie, kto jest za to odpowiedzialny – deweloperzy, operatorzy czy użytkownicy – staje się trudne. To prowadzi do luk w przepisach i braku ochrony osób poszkodowanych przez decyzje AI.
Jednak odpowiedzialne i etyczne wdrażanie AI ma nie tylko znaczenie moralne, ale także praktyczne. Może przynieść realne korzyści finansowe. Na przykład, wiele modeli AI, w tym duże modele językowe (LLM), jest szkolonych na stronniczych danych. Może to prowadzić do faworyzowania lub dyskryminacji grup społecznych ze względu na rasę, płeć, wiek lub inne cechy. Takie uprzedzenia mogą skutkować dyskryminacją w rekrutacji, wymiarze sprawiedliwości, pożyczkach lub opiece zdrowotnej, co nie tylko utrwala nierówności społeczne, ale może również spowodować przeoczenie ważnych klientów. Kluczowe jest testowanie modeli AI pod kątem uprzedzeń i ich ponowne trenowanie, aby te uprzedzenia wyeliminować.
W mojej prezentacji przedstawię studia przypadków, w których przestrzeganie standardów etycznych i odpowiedzialności przyczyniło się do wzrostu biznesu. Opowiem także o narzędziach, które są obecnie opracowywane, aby wykrywać uprzedzenia i pomagać w ponownym szkoleniu systemów AI, by były bardziej sprawiedliwe i odpowiedzialne.
Systemy sztucznej inteligencji przejmują coraz więcej przyziemnych i powtarzalnych przyziemnych zadań takich jak odpowiadanie na nudne emaile, wymyślanie planu dnia czy porządkowanie notatek z zebrań. Dzięki temu rola człowieka w sferze zawodowej może ewoluować w kierunku działań ciekawszych, ale wymagających wyższego poziomu intelektualnego zaangażowania i zaawansowanego myślenia. Taką koncepcję rozwija francuski kognitywista i ekspert HR Jeremy Lamri. W swojej książce Kompetencje XXI wieku formułuje teorię 4K. Wskazuje krytyczne myślenie, kreatywność, kooperację i komunikację jako niezbędne umiejętności przyszłości. W moim wystąpieniu skupię się na krytycznym myśleniu i opowiem, jak je wykorzystać do efektywnego i twórczego dialogu z systemami sztucznej inteligencji. Pokażę, jak formułować prompty, by AI wspierała nas w rozwijaniu trudnych do zwerbalizowania pomysłów, asystowała przy pisaniu elokwentnych tekstów i generowaniu pięknych obrazów. Opanowanie zasad krytycznego myślenia nie tylko zwiększy efektywność pracy i poprawi jakość rezultatów, ale również zagwarantuje, że efekty interakcji z AI będą społecznie bezstronne, etyczne i zgodne z zasadami odpowiedzialnej sztucznej inteligencji.
Jeremy Lamri w swojej koncepcji kompetencji XXI wieku wskazuje na krytyczne myślenie, kreatywność, kooperację i komunikację jako kluczowe umiejętności w erze AI. Na pierwszy rzut oka może się wydawać, że krytyczne myślenie, oparte na sformalizowanych zasadach, oraz kreatywność znajdują się na przeciwnych biegunach ludzkiego myślenia. W rzeczywistości jednak te dwie kompetencje mogą się wzajemnie wzmacniać. Przede wszystkim, krytyczne myślenie pozwala na wyjście poza ramy utartych schematów. W moim wystąpieniu opowiem o naturalnych ograniczeniach ludzkiego umysłu oraz limitach języka, pokażę, jak używać krytycznego myślenia, aby je omijać, oraz jak stosować metaforę teorii światów możliwych do nawigowania w kierunku kreatywności.