Category: Przyszłość

Female,Research,Scientist,Looks,At,Biological,Samples,Under,Microscope.,She

Embrion z komórki ludzkiej. Czy technologia przerośnie lub wyprze naturę?

Badanie złożoności ludzkiego organizmu i procesów jakie w nim zachodzą są od wieków przedmiotem fascynacji uczonych i badaczy. Chociaż istnieje wiele teorii na temat skąd wzięło się życie na ziemi, to wszyscy wiemy, skąd biorą się dzieci. Męskie nasienie łączy się z żeńskim jajeczkiem, jajeczko przekształca się w ludzki embrion, który staje się płodem, a finalnie dzieckiem. A co, jeśli to nie jedyna metoda do stworzenia nowego życia? Czy już wkrótce możliwe będzie sklonowanie człowieka lub wyhodowanie ludzkiego płodu w laboratorium? A jeśli tak, czy jest coś czego powinniśmy się obawiać? W dzisiejszym artykule omówimy wyniki najnowszych przełomowych badań oraz tego jak mogą wpłynąć na medycynę w przyszłości.  
 

W marcu bieżącego roku na łamach magazynu Nature Portfolio opublikowano badania, które zakwestionowały klasyczną narrację o początkach życia. Dlaczego? Dwa niezależne zespoły zmusiły zwykłe komórki skóry do utworzenia żywej gromady, która przypominała zapłodnione ludzkie jajeczko – pierwsze stadium rozwoju embrionu. Nie był on jednak zdolny do przekształcenia się w żywe dziecko. Badacze używając komórek skóry powtórzyli proces, jaki zachodzi w ciągu pierwszych czterech dni po zapłodnieniu. W warunkach laboratoryjnych doprowadzili do powstania blastocysty, czyli ściśle połączonych ze sobą komórek.   
 

Chociaż naukowcy nie wyszli poza stadium blastocysty, to oba eksperymenty są jak dotąd najbardziej kompletnymi kopiami wczesnego ludzkiego embrionu. Po 10 dniach przechowywania ich w inkubatorze, sztuczne zarodki zaczęły generować komórki tworzące łożysko, co ma kluczowe znaczenie dla zarodka. Doktor Jianping Fu z Uniwersytetu w Michigan, powiedział: „To pierwszy kompletny model wczesnego embrionu człowieka”. Badania te są cennym źródłem informacji, ponieważ dają jeszcze lepszy podgląd na pierwsze dni ciąży i stanowią podstawę do wyjaśnienia niewytłumaczalnej wcześniej niepłodności lub skłonności do poronień. Z drugiej strony mogą również budzić pewne obawy i kontrowersje. Chociaż sztuczne embriony różnią się od naturalnych i nie mają zdolności przekształcenia się w pełne embriony, to w miarę dalszego udoskonalania technologii i nauki, sztuczne wyhodowanie embrionów ludzkich może stać się możliwe. Pojawiają się również kwestie etyczne i konflikt z tradycyjną teorią początków życia. Czy technologia przerośnie lub wyprze naturę? Czy powinna?  
 

Wielka tajemnica  

Pierwsze 14 dni rozwoju człowieka wciąż pozostaje wielką tajemnicą. Naukowcy wiedzą, że około czwartego dnia ciąży zapłodnione jajeczko przekształca się w blastocystę, a około ósmego dnia zagnieżdża się w macicy. W tym czasie w blastocystach dzieje się coś „magicznego” – w niesamowity sposób namnażają się komórki, aby stworzyć łożysko, z którego formuje się płód. Dlaczego ten początkowy etap jest trudny do zbadania? Ponieważ brakuje materiału do badań. Jak dotąd naukowcy eksperymentowali w laboratoriach na odrzuconych embrionach ludzkich – często pochodzących z nieudanych prób zapłodnień in vitro. Wcześniej naukowcy próbowali odtworzyć pierwsze dni rozwoju płodu przy użyciu embrionów pochodzących od myszy. W 2018 roku zespół wyhodował blastocysty z mysich komórek macierzystych. Eksperyment ten nie okazał się dostatecznie satysfakcjonujący, ponieważ ludzie i myszy posiadają różne trajektorie rozwoju.   
 

Jak więc udało się wyhodować blastocystę z ludzkich komórek skóry?  

W pierwszym badaniu doktor Jose Polo z Uniwersytetu Monash w Australii wraz z zespołem powtórzył znany już wcześniej proces. Dorosłe komórki skóry poddane zostały kąpieli w chemicznych substancjach, która przywróciła je do stanu przypominającego komórki macierzyste. Mają one zdolność do wytwarzania innych typów komórek oraz do przekształcania się w dowolny ludzki organ. Następnie pseudo-komórki macierzyste (zwane iPSC – z angielskiego induced pluripotent stem cells) zostały wykąpane w pożywnej cieczy i pozostawione do dalszej transformacji. Ku zaskoczeniu naukowców, po pewnym czasie rozmnożyły się i stopniowo zaczęły przekształcać się w trzy inne typy komórek, które są obecne we wczesnych embrionach ludzkich. W celu wsparcia i dalszych obserwacji zostały one przeniesione do specjalnego systemu hodowli, przypominającego galaretkę 3D. Najbardziej zadziwiającym faktem było to, że komórki zaczęły gromadzić się samodzielnie. Polo powiedział: „Całkowicie zaskakujące jest to, że kiedy je łączysz, organizują się samoczynnie”.  

To zaskakujące zjawisko skłoniło badaczy do przeanalizowania ich genetyki. Te wczesne struktury podobne do embrionów, zwane „iBlastoidami” (z angielskiego iBlastoids), miały podobną organizację i komponent komórkowy do ich naturalnego odpowiednika. Jedna warstwa była wypełniona komórkami z sygnaturą genetyczną, która oznaczała, że są częścią łożyska, inne wyglądały niezwykle podobnie do komórek, które ostatecznie przekształciły by się w płód. Po wszczepieniu iBlastoidu do macicy wyglądałby prawie jak normalna blastocysta. W innym badaniu zespół wykorzystał mieszankę ludzkich komórek skóry, jak i komórek macierzystych, aby stworzyć coś, co nazwali „ludzkim blastoidem”. Podobnie jak w poprzedniej próbie, sztuczne zarodki miały podobny rozmiar i kształt do swoich naturalnych odpowiedników oraz porównywalny profil genetyczny, a także skłonność do zagnieżdżenia się w macicy.  
 

Dzieci z próbówki – co to oznacza dla naszej przyszłości?   
 

Mimo tak zaskakujących i jednocześnie obiecujących wyników, to żaden z tych laboratoryjnie wyhodowanych embrionów nie jest prawdziwy. Jednak są to pierwsze modele embrionów ludzkich, posiadające wszystkie komórki założycielskie płodu. Dzięki temu odkryciu możliwa będzie jednoczesna analiza i obserwacja setek struktur iBlastoidów, co pomoże poszerzyć wiedzę na temat rozwoju płodu, a co za tym idzie lepsze zbadanie potencjalnych przyczyn niepłodności i utraty ciąży.  
 

Odrębne badanie wykazało, że w sztucznym łonie możliwe jest pełne wyhodowanie płodu myszy w połowę czasu normalnej ciąży, co stanowi obecny rekord dla ssaków. Czy możemy pewnego dnia sklonować ludzkie dziecko przy użyciu czyichś komórek skóry, a następnie wyhodować je w sztucznym łonie bez naturalnej reprodukcji?   
 

A co z kwestiami etyki? Ponieważ technologia ta jest dalej optymalizowana, powoli pojawia się pytanie o tożsamość blastoidu. Biorąc pod uwagę, że jest on podobny do tego prawdziwego, to w którym momencie należy go traktować jako sklonowany ludzki embrion? I czy jego niszczenie jest etyczne? Według zaleceń Międzynarodowego Towarzystwa Badań nad Komórkami Macierzystymi (ISSCR) obecnie ludzkie embriony mogą rosnąć w laboratorium przez okres nieprzekraczający 14 dni. Ma to na celu zagwarantowanie, że eksperymenty na embrionie zakończą się przed momentem, w którym komórki stworzą już zróżnicowane struktury. Czy te zasady będą nadal egzekwowane?   

Możemy być pewni, że dalsze badania i rozwój nauki będą przybliżać nas do wydłużenia i poprawy życia, a także wyleczenia chorób z którymi się borykamy. Wyniki opisanego powyżej eksperymentu niosą nadzieję dla par, które pragną posiadać potomstwo, ale borykają się z niepłodnością lub poronieniami. Jednak co będzie dalej i w jakim kierunku pójdzie medycyna? Już teraz warto zadać sobie te pytania.  

Dziewczyny rządzą w IT

Kobiety programują, testują, kodują, odważnie stąpają w branży IT. Nie wszyscy wiedzą, że to właśnie kobiety były pierwszymi programistkami ale na hasło programista myślimy: mężczyzna, gdyż świat w większości postrzegamy przez pryzmat stereotypów i uprzedzeń.

Przez długi czas programowanie było dziedziną kobiet, a „computer girl” synonimem komputerowego geeka. Dziś świat programowania zdominowany został przez mężczyzn.

Jak pokazują badania, w krajach Unii Europejskiej brakuje 600 000 pracowników IT lecz kobiety stanowią jedynie 17% specjalistek tej branży. Jak sytuacja wygląda w Polsce? W największych firmach kobiety stanowią 6% prezesów, 13% to członkinie zarządów, 63% firm nie ma w zarządzie żadnej kobiety (wg McKinsey’a). Kobiety pełniące funkcję IT Managera, stanowią jedynie 5,5% ogółu. W całej branży IT kobiety najczęściej zajmują stanowisko Software Developera (22%). 68% kobiet w zespołach IT w Polsce pracuje zarówno z kobietami, jak i z mężczyznami, ale 32% kobiet w tych zespołach pracuje już wyłącznie z mężczyznami (badanie Hays).

W ostatnim czasie firmy aktywniej starają się o zwiększenie zatrudnienia kobiet, jednak mimo braku specjalistów, kobiety w IT zarabiają 18% mniej niż mężczyźni. Fakty nieco zasmucające, gdyż kobiety zmagają się z takimi samymi wyzwaniamijak mężczyźni,posiadają te same, a często wyższe kompetencje. W dalszym ciągu pracodawcy obawiają się kobiet na stanowiskach ze względu na macierzyństwo  i związane z posiadaniem rodziny częste niedyspozycje. Na szczęście młode pokolenia mniej kierują się stereotypami, potrafią docenić człowieka bez podziału na płeć, narodowość, czy kolor skóry. Są wrażliwe na wszelkie stereotypy. 

Obecny czas – pandemia i izolacja wymusiła korzystanie z narzędzi cyfrowych. Dziewczynki i chłopcy otoczeni są technologią tak samo, a komputer to dziś codzienność (nauka zdalna, komunikacja).

Badania dowodzą, że praca w IT jest satysfakcjonująca dla większego odsetka kobiet   (72%) niż tych pracujących poza IT (55 %). Kobiety w IT mają łatwość podnoszenia swoich kwalifikacji, pracodawcy finansują szkolenia specjalistyczne, kursy online, zachęcają pracowników do udziału w konferencjach branżowych. 

Wychodząc na przeciw zapotrzebowaniom rynku i aby zachęcić młode kobiety do inwestowania w swoją przyszłość zawodową, Fundacja Digital University wraz z partnerem – firmą Amazon  Development Center Poland proponuje uczennicom szkół średnich z Trójmiasta bezpłatny udział w projekcie Girls do engineering. Warsztaty z programowania i szereg spotkań z ekspertami mają oswoić dziewczyny z dziedziną IT i pracą w wysoce cenionym zawodzie.

IT to wciąż sektor z zapotrzebowaniem na pracownika. Firmy, aby pozyskać i utrzymać specjalistę, zachęcają zarobkami, organizacją pracy przyjazną dla kobiet. Według prognoz do roku 2030 największe zapotrzebowanie będzie na pracowników z ponadpodstawowymi umiejętnościami informatycznymi i programistycznymi. 

Biorąc pod uwagę powyższe, powinniśmy zrobić wszystko, aby jak najwięcej kobiet zachęcić do wejścia w świat IT. To świetne miejsce pracy.

Dowiedz się więcej o programie http://girlsdoengineering.digitaluniversity.pl/

Czy już wkrótce zabraknie nam wody?

Ocieplenie klimatu, wzrost liczby ludności, zmiany demograficzne, urbanizacja oraz słabe zarządzanie zasobami powodują rosnący niedobór wody. Według Światowej Organizacji zdrowia do 2025 r. połowa światowej populacji będzie mieszkać na obszarach dotkniętych niedostatkiem wody. Czy kiedykolwiek zastanawiałeś się, ile dni człowiek może przeżyć bez wody pitnej? W zależności od stanu zdrowia, wieku, płci oraz innych indywidualnych predyspozycji, czas ten wynosi od 4 do 7 dni. Bez wątpienia dostęp do czystej wody jest kluczowy do życia na Ziemi. W dzisiejszym artykule Peter Diamandis założyciel i prezes Fundacji X Prize oraz Singularity University, jak również autor bestsellerów, takich jak „The Future Is Faster Than You Think”, porusza problem światowego niedoboru wody oraz opisuje jak nowe technologie pomogą nam w walce o ten drogocenny zasób w nadchodzącej dekadzie. 

Stoimy przed największym kryzysem wodnym w historii. Problem ten pogarszają zanieczyszczenia wód gruntowych i oceanów. Każdego dnia na całym świecie do wody trafiają 2 miliony ton ścieków oraz odpadów rolniczych i przemysłowych. Obecnie 2,2 miliarda ludzi nie ma dostępu do bezpiecznie zarządzanej wody pitnej. A choroby przenoszone przez brudną wodę, takie jak biegunka, cholera, czerwonka, dur brzuszny i polio powodują śmierć 830 000 ludzi rocznie, w tym większości u dzieci do 5 roku życia. Co roku więcej osób umiera z powodu skażonej wody niż z powodu wojen i innych form przemocy. Według raportu Światowego Forum Ekonomicznego – „Największe zagrożenia dla świata w 2021 roku” opublikowanego 25 stycznia 2021 roku za największe ryzyko dla uznano choroby zakaźne, zmiany klimatyczne i kwestie środowiskowe. Dokładnie są to „niepowodzenia w działaniach na rzecz klimatu, użycie broni masowego rażenia, utrata różnorodności biologicznej, kryzys zasobów naturalnych, zniszczenie przez ludzi środowiska naturalnego, problemy związane z brakiem środków do życia, ekstremalne zdarzenia pogodowe, zadłużenia i awarie infrastruktury IT.” Co robić w obliczu tak pesymistycznej wizji przyszłości? Czy już wkrótce zabraknie nam wody pitnej? Poznajmy trzy innowacyjne technologie, które już teraz pomagają zapewnić czystą wodę dla terenach, gdzie mieszkają najbardziej potrzebujący. 

Slingshot 

Wyobraź sobie szalonego naukowca, który stworzył urządzenie, które jest w stanie przerobić każdą substancję w wodę pitną. Brzmi jak scena z filmu science fiction? Otóż nie. Dean Kamen to amerykański wynalazca, przedsiębiorca i multimilioner. Mieszka w zaprojektowanym przez siebie domu – fortecy o sześciokątnym kształcie na obrzeżach Manchesteru w stanie New Hampshire. Wewnątrz posiadłości znajdują się ukryte pokoje, wyrzutnia rakiet, lotnisko dla helikopterów, boisko do softballu, turbina wiatrowa, która pomaga dostarczać energię, oraz wiele innowacyjnych gadżetów. W piwnicy znajduje się odlewnia, warsztat mechaniczny i sala komputerowa, w której często pracuje. Kamen jest fizykiem-samoukiem, który stworzył ponad 1000 różnych patentów, w tym pompy insulinowe, protezy robotów, terenowe wózki inwalidzkie oraz jeden z najpopularniejszych wynalazków – Segway. W 2000 r. za swoje osiągnięcia prezydent Bill Clinton przyznał mu najwyższe odznaczenie dla wynalazców – Narodowy Medal Technologii. 

Aby zaradzić problemowi niedoboru wody, Kamen zaprojektował Slingshot – inteligentny system destylacji sprężoną parą zasilany silnikiem Stirlinga, czyli oczyszczacz wody wielkości małej lodówki, zasilany dowolnym źródłem paliwa, w tym nawet odchodami zwierzęcymi. Urządzenie zużywa mniej prądu niż jest to wymagane do zasilania suszarki do włosów i może oczyścić wodę z dowolnego źródła: od wody gruntowej i morskiej po ścieki. Jedna maszyna zapewnia czystą wodę pitną dla trzystu osób dziennie. Misją Kamena jest dotarcie do najbardziej potrzebujących. Jednak na początku napotkał problem związany z dystrybucją urządzenia na oddalonych terenach. Kamen zwrócił się po wsparcie do Coca-Coli. W zamian za skonstruowanie urządzenia Coca-Cola Freestyle, czyli dozownika napojów z fontanną, który wykorzystuje „technologię mikro-dawek” do mieszania ponad 150 różnych napojów na żądanie, Coca-Cola zgodziła się wykorzystać globalną sieć swojej dystrybucji, aby dostarczyć Slingshot do krajów Afryki i Ameryki Łacińskiej. Następnie Coca-Cola połączyła siły z dziesięcioma innymi organizacjami międzynarodowymi i w 2013 roku rozpoczęła dystrybucję Slingshot’a, będącego głównym urządzeniem w kioskach „Ekocenter”. 

Ekocentera to kontenery transportowe zasilane energią słoneczną, które zapewniają oddalonym społecznościom o niskich dochodach bezpieczną wodę pitną, dostęp do Internetu, produkty nietrwałe (takie jak środki odstraszające komary), artykuły pierwszej pomocy oraz produkty Coca-Coli. Kioski pełnią funkcję sklepu ogólnospożywczego, jak i centrum społecznościowego. Do 2017 r. W ośmiu krajach działało 150 Ekocentrów, a większość z nich prowadzona była przez kobiety, dystrybuujące 78,1 miliona litrów wody pitnej rocznie. Konkurencją dla Slingshot’a jest Omni Processor Billa Gatesa, który zamienia ludzkie odchody w wodę pitną, jednocześnie wytwarzając energię elektryczną i popiół do nawozów. 

Odsalanie wody 

Zapotrzebowanie na wodę pitną ciągle rośnie, a globalny kryzys związany z jej brakiem nasila się nie tylko z powodu zmian klimatu. Dlatego coraz więcej technologii koncentruje się na pozyskiwaniu wody pitnej z wody słonej. Na rynku istnieją zaawansowane instalacje technologicznie do odsalania oparte na nanotechnologii, a jedną z najpowszechniejszych metod odsalania wody słonej jest proces odwróconej osmozy. Niedaleko Dubaju znajduje się gigantyczny park – Mohammed bin Rashid Al Maktoum Solar Park – obiekt zasilany jest szeregiem paneli słonecznych i akumulatorów, który jest w stanie wyprodukować około 49 967 litrów wody pitnej dziennie. Odsalanie wody przy zastosowaniu energii słonecznej wydaje się idealnym rozwiązaniem w obliczu problemu związanego ze spalaniem paliw kopalnych i globalnym ociepleniem, jednak to rozwiązanie jest wciąż mało opłacalne. 

Skysource 

Architekt David Hertz wraz z żoną Laura Doss-Hertz są autorami specjalnej platformy, która może wytwarzać świeżą wodę z czystego powietrza. W 2018 roku zespół Skysource Alliance wygrał prestiżową nagrodę Water Abundance XPRIZE w wysokości 1,5 miliona dolarów, sponsorowaną przez indyjską grupę Tata i Australian Aid. Platforma spełniła parametry konkursowe polegające na wydobyciu z atmosfery minimum 2000 litrów wody dziennie, czyli ilości wystarczającej dla dwustu osób przy 100% udziale energii odnawialnych za nie więcej niż dwa centy za litr”. Skysource połączyło technologię Atmospheric Water Generator, która wykorzystuje opatentowaną metodę kondensacji wilgoci w powietrzu – gdy spotyka się ciepłe i zimne powietrze. Ich zwycięski system, zwany WEDEW (Wood-To-Energy Deployable Emergency Water) połączył istniejącą technologię Skywater, z gazowym generatorem biomasy, którego dodatkową zaletą jest tworzenie bio-węgla. System może być również zasilany energią słoneczną oraz za pomocą baterii. Rozwiązanie to spotkało się z ogromnym zainteresowaniem instytucji rządowych, jednostek edukacyjnych i inwestorów, którzy chcą zastosować technologię Skysource / Skywater, dając społecznościom na całym świecie dostęp źródła czystej wody pitnej. 

Przewiduje się, że problem niedoboru czystej wody będzie się dalej pogłębiać. Przyrost populacji ludzkiej, a także rozwój przemysłu i rolnictwa powoduje wzrost konsumpcji. Już wkrótce połowa populacji może zostać bez wody zdatnej do picia. W związku z tym musimy zjednoczyć swoje wysiłki i nauczyć się bardziej efektywnie ją wykorzystywać. Urządzenia takie jak Slingshot, Skysource oraz zawansowane technologie wodne już teraz pomagają walczyć z niedoborem wody na najbardziej suchych terenach, jednak cały czas są mało wydajne i opłacalne. Musimy pamiętać, że im więcej wody pobieramy, tym większy wpływ wywieramy na środowisko naturalne. Na przykład do wyprodukowania bochenka chleba trzeba zużyć 462 litrów wody, jednej pary jeansów – 10 000 l wody, a żeby uzyskać 1 kg wołowiny potrzeba nawet 15 000 l wody. Wiele państw podjęło liczne działania polegające na ochronie zasobów wody oraz poprawie jej jakości, jednak to każdy z nas ma wpływ na poziom jej konsumpcji. Warto dokonywać przemyślanych wyborów– kupować mniej i mądrzej. 

Ciesz się życiem i zapomnij o Alzheimerze 

Szacuje się, że w Polsce ponad 300 tysięcy osób jest chorych na Alzheimera, a z powodu starzenia się społeczeństwa i zanieczyszczonego środowiska za 20 – 25 lat liczba chorych może ulec podwojeniu. Co to oznacza dla nas?  Czy ten przykry scenariusz jest nam również pisany? W dzisiejszym artykule przyjrzymy się historii choroby oraz omówimy nowy innowacyjny projekt, który już wkrótce zrewolucjonizuje świat medycyny. 

Choroba Alzheimera jest nieuleczalną chorobą neurodegeneracyjną tkanki mózgowej powodującą postępującą i nieodwracalną utratę funkcji umysłowych, w tym pamięci. Rozwija się przez wiele lat, stopniowo uszkadzając mózg i powodując, że chory nie jest w stanie samodzielnie funkcjonować.  Jest bardzo ciężka do wykrycia, ponieważ na początkowym etapie objawy nie są jednoznaczne – przecież każdemu z nas zdarza się czasem coś zapomnieć. W miarę rozwijania się choroby następuje znaczne pogorszenie pamięci. Osoby chore mogą nie pamiętać imion swoich krewnych, ani że w ogóle znają te osoby. Chorzy potrafią włożyć portfel do lodówki, a klucze wyrzucić do śmieci, zupełnie nie zdając sobie z tego sprawy. Zdarzają się kłopoty z mową, orientacją w terenie i ciągłym powtarzaniem tych samych fraz i opowieści. W zaawansowanym stadium u chorych mogą wystąpić halucynacje, słyszenie głosów i otępienie. Niestety, pomimo licznych odkryć z obszaru medycyny i rozwoju technologii, nauka nadal nie znalazła skutecznego lekarstwa.  

Historia Alzheimera 

Pierwszą osobą, u której zdiagnozowano chorobę była Auguste Deter. W 1901r. mając niespełna 51 lat została przyjęta do szpitala dla umysłowo chorych we Frankfurcie. Była zdezorientowana, otępiała i miała urojenia. Po 5 latach zmarła w wyniku utraty zdolności umysłowych i pogłębiających się zmian behawioralnych. Po śmierci przeprowadzono sekcję jej mózgu, w którym odkryto duże nagromadzenie amyloidu, czyli szkodliwego białka powstającego w wyniku wyniszczających chorób, powodującego ucisk i uniemożliwienie wymiany substancji między krwią i komórkami. Dodatkowo w jej mózgu znajdowały się splątki neurofibrylarne (NFTs), czyli patologiczne, wewnątrzkomórkowe agregacje białek. Te dwa elementy – określane później blaszkami amyloidowymi (starczymi) i splątanymi białkami tau – stały się znakiem rozpoznawczym choroby neurodegeneracyjnej – Alzheimera. Zjawisko to ponad 100 lat temu zbadał i opisał niemiecki lekarz Alois Alzheimer. 

Projekt NIH 

Najnowszy projekt National Institutes of Health (NIH) ma na celu zrzeszenie najbardziej ambitnych profesorów biologii oraz naukowców zajmujących się badaniami nad chorobą i komórkami macierzystymi, aby wspólnie zjednoczyć siły w największym projekcie edycji genomu, jaki kiedykolwiek powstał. Trwające latami badania wyróżniły wiele rodzajów genów, które zwiększają ryzyko wystąpienia choroby Alzheimera i demencji starczej. Ustalenie, jak mają wpływ lub też jak się ze sobą łączą wymagałoby wielu lat badań laboratoryjnych. A co jeśli naukowcy zjednoczyliby się, by wspólnie wykorzystać swoją wiedze i zasoby do walki z tym „cichym mordercą”? 

Biotechnologia rozwija się obecnie w dynamicznym tempie. Przełomem w walce z chorobą już w „zalążku” są indukowane pluripotencjalne komórki macierzyste – iPSC (ang. induced pluripotent stem cells), wyhodowane w laboratorium i mogące tworzyć każdy rodzaj komórki w organizmie jak również zdolne do przekształcania się. Potrafią odrodzić się ze zwykłych dorosłych komórek na przykład skóry i przekształcić się w komórkę mózgową niosącą ze sobą oryginalne geny dawcy, co oznacza, że ​​przechowują dziedzictwo genetyczne pierwotnej osoby – na przykład jej szansę na zachorowanie na chorobę Alzheimera. Badając te zależności i komórki iPSC możemy wskazać, co prowadzi do genetycznych przyczyn choroby Alzheimera i innych demencji, tym samym torując drogę dla terapii genowych. Inicjatywa iPSC Neurodegenerative Disease Initiative (iNDI) wspiera badania, które doprowadzą do opracowania ulepszonych metod leczenia i profilaktyki. Wszystkie wynikowe zbiory danych będą udostępnione online, tak aby każdy zainteresowany mógł je przeanalizować, a następnie rozbudować. 

CRISPR 

Przez dziesięciolecia naukowcy uważali, że najlepszym sposobem na pokonanie choroby jest pozbycie się tych toksycznych białek z mózgu. Niestety, teoria ta okazała się błędna. Jednym z najnowszych odkryć medycyny jest CRISPR (ang. Clustered Regularly-Interspaced Short Palindromic Repeats), czyli metoda pozwalająca na manipulację genomem danego organizmu, dzięki której można wycinać, wstawiać lub wymieniać geny. Korzystając z CRISPR, naukowcy w warunkach klinicznych mogą łatwo wstawić geny związane z chorobą Alzheimera do komórek iPSC – pochodzących od zdrowego dawcy lub osoby z wysokim ryzykiem demencji i obserwować, co się stanie – a to wszystko w próbówce. Podczas trwania projektu badacze mają podać ponad 100 różnych genów związanych z chorobą Alzheimera i demencjami starczymi do komórek iPSC pochodzących od zdrowych dawców. Zamiast badać komórki ludzi z chorobą Alzheimera, wstrzyknijmy normalnym zdrowym komórkom geny, które mogą przyczyniać się do tej choroby i obserwujmy jak zachowają się neurony. Liderem projektu jest dyrektor inżynierii komórkowej i doktor Bill Skarnes. Składa się on z dwóch faz. Pierwsza skupia się na komórkach inżynierii masowej edytowanych za pomocą CRISPR. Drugi to dokładna analiza powstałych komórek: na przykład ich genetyka, sposób aktywacji genów, rodzaje białek, które niosą i jak oddziałują. Badanie nie generuje tylko pojedynczych komórek. Wykorzystuje CRISPR do tworzenia całych linii komórkowych z genem Alzheimera, które mogą zostać przekazane następnemu pokoleniu, a następnie można je udostępniać laboratoriom na całym świecie, aby dalej doskonalić geny, które mogą mieć największy wpływ na zaburzenia. Faza druga iNDI jest jeszcze bardziej zawansowana, ponieważ zagłębia się w wewnętrzne funkcjonowanie tych komórek, aby wygenerować „kod” opisujący zachowanie ich genów i białek 

Zaledwie dwie dekady temu inżynieria setek komórek związanych z chorobą Alzheimera i udostępnienie ich naukowcom z całego świata były mrzonką. Teraz dzięki rozwojowi biotechnologii jest to możliwe. Uczestnicy projektu wykonują ciężką pracę polegającą na zbudowaniu wszechświata komórek związanych z chorobą Alzheimera, z których każda jest wyposażona w gen, który może mieć wpływ na demencję.  Autorzy badania twierdzą, że „tego typu analizy integracyjne mogą prowadzić do interesujących i wykonalnych odkryć”. Daje to szansę na prawdziwe zrozumienie choroby Alzheimera oraz obiecujące możliwości leczenia. Jest to niewątpliwie ogromny projekt inżynieryjny genomu, prowadzący do powstania całej biblioteki sklonowanych komórek niosących mutacje, które mogą prowadzić do choroby, a także ogromne źródło informacji do przyszłej profilaktyki i leczenia. 

Podsumowując artykuł, Alzheimer jest jedną z najbardziej podstępnych i okrutnych chorób. Pomimo postępu technologicznego, dziesięcioleci badań i licznych odkryć naukowych, nadal nie znaleziono żadnego lekarstwa. Choroba wkrada się w niektóre starzejące się mózgi, stopniowo niszcząc ich zdolność do myślenia i rozumowania, zacierając wspomnienia i postrzeganie rzeczywistości.  Alzheimer dopada coraz więcej osób. Szacuje się że w Europie liczba chorych przekroczyła już 6 milionów, a w ciągu następnych 20 lat jeszcze się podwoi. Problem starzenia się społeczeństwa powoduje rosnącą potrzebą zapewnienia wszechstronnego systemu diagnozowania chorób, metod leczenia i kompleksowej opieki medycznej. Projekt NIH ma na celu wprowadzenie genów odpowiedzialnych za chorobę do komórek macierzystych iPSC, a następnie obserwacji i analizy tego co się stanie. Ma to na celu stworzenie wielkich zbiorów ogólnodostępnych danych, które będą pomocne dla naukowców i lekarzy przy wdrażaniu odpowiedniego leczenia. Inicjatywy takie jak NIH napawają optymizmem. Miejmy nadzieje, że już niedługo Alzheimer odejdzie w zapomnienie. 

Transformacja cyfrowa a ludzie

Transformacja cyfrowa w wielu firm i struktur państwowych została w ostatnim czasie przyspieszona w wyniku pandemii. Akceleracja rozwoju nowych technologii, która nastąpiła głównie w obszarach takich jak: ochrona zdrowia, praca zdalna, bezpieczeństwo, czy e-commerce, unaoczniła też jak istotną rolę w tym procesie odgrywają ludzie, ich wiedza i sposób myślenia oraz jak gigantyczne wyzwania czekają zarówno polski, jak i środkowoeuropejski rynek.  

Dziś transformacja cyfrowa, wykorzystywanie nowych technologii oraz innowacyjny sposób myślenia są siłą w działaniach naprawczych oraz budowaniu przewagi konkurencyjnej. Zadbanie o jej sprawne przeprowadzenie przez kompetentnych ludzi to absolutny „mus”. Badania i raporty większości firm konsultingowych pokazują spójnie, że około 75% pracowników firm z Europy, Chin czy USA popiera proces transformacji [1], jednak nadal wiele pozostaje do zrobienia nie tylko w obszarze związanym z rozwojem technologii, ale przede wszystkich z rozwojem i przygotowaniem ludzi.  

Rola lidera w transformacji cyfrowej 

Menedżerowie i pracownicy często czują się niekomfortowo ze zmianami związanymi z transformacją cyfrową. Tempo zmian w ich firmach mogłoby być większe, a pracownicy mogliby być mocniej zaangażowani w proces, gdyby byli bardziej świadomi zmian i lepiej na nie przygotowani. Dotyczy to zarówno zrozumienia technologii, samego procesu zmiany, jak i kompetencji związanych z zarządzaniem ludźmi w cyfrowym, rozproszonym środowisku, radzenia sobie ze stresem, czy emocjami własnymi i zespołu.  

Organizacje muszą zadbać o rozwój pracowników, ze szczególnym uwzględnieniem liderów, niemniej niż o rozwój technologii. A dobrej jakości programy rozwojowe, powinny iść w parze z certyfikowaniem kompetencji i budowaniem kultury „life long learning”, w której pracownicy uczą się, jak się rozwijać, by móc mądrze zmieniać zarówno siebie, jak i swoją firmę. Jak zauważył dyrektor generalny Microsoft, Satya Nadella „Rola technologicznych ekspertów stała się teraz ważniejsza niż kiedykolwiek, ponieważ 2 lata transformacji cyfrowej wydarzyły się w 2 miesiące” [2]. 

Dysrupcja na uniwersytetach  

Podnoszenie kwalifikacji zawodowych to jednak obszar mocno niestabilny, szczególnie w czasach kryzysu. Wymaga rozumienia sytuacji i okoliczności, aktualnych potrzeb w zakresie formy i treści, a także umiejętności spojrzenia w przyszłość. Pandemia zmusiła tradycyjne uczelnie na całym świecie do przedefiniowania swojej działalności i odnalezienia się w nowej rzeczywistości zdalnej nauki. Uniwersytet Harvarda, który wydawał się być niejako odporny na większość rynkowych dysrupcji w 2020 roku ogłosił deficyt budżetowy w wysokości 10 milionów dolarów [3].  

W Polsce tradycyjne ośrodki edukacji, oparte o dziewiętnastowieczne założenia czekają fundamentalne zmiany. Część ich dotychczasowych ról przejmują firmy technologiczne oraz zwinne i rozumiejące digitalizujący się świat organizacje edukacyjne. Finansowanie start-upów z tej branży w 2020 roku osiągnęło już rekordowy poziom ponad 8,9 mld USD [4]. Dobra edukacja biznesowa często kojarzona jest z zagranicznymi instytucjami, jednak ceny tamtejszych programów nie pozwalają na rozwój wielu polskim pracownikom. Oferują za to dostęp do szerokiego doświadczenia ekspertów w obszarze takim jak transformacja cyfrowa, których u nas – ze względu na początkową fazę tego procesu – nadal jest niewielu.  

Wartość jaką niosą kursy i studia na prestiżowych uczelniach to, poza wiedzą na najwyższym poziomie, także dostęp do wybitnych ekspertów, publikacji i case studies, a także cieszący się uznaniem dyplom i certyfikacja. Nie bez znaczenia są również „wartości dodane” w postaci pośrednictwa pracy czy dostępu do sieci kontaktów. Dziś powoli konkurencyjność renomowanych uczelni zawęża się do certyfikacji i networkingu, w tym do innych studentów, absolwentów, profesorów, ekspertów z biznesu. Sama wiedza powoli ulega demokratyzacji, co oznacza, że jest ona dostępna online a jej źródła są coraz mocniej rozproszone i łatwiej dostępne. Wyzwaniem jest dziś umiejętność oceny źródła. 

Tradycyjne studia magisterskie także wkraczają w okres istotnych zmian, wypływających z przyśpieszenia cywilizacyjnego. Pięć lat w rozwoju technologii to dziś wieki. Zaczynamy i kończymy studnia w dwóch różnych światach. Rozwój nowych technologii i wypływające z tego implikacje biznesowe, społeczne i psychologiczne nie mogą dłużej być tematem omawianym w wąskich gronach ekspertów na MIT czy Singularity University. Powinny być immanentnym elementem każdego programu edukacyjnego.  

Edukacja online obroniła się  

Dysrupcja na rynku tradycyjnych form i instytucji edukacyjnych zmienia także paradygmat myślenia o jakościowej edukacji, która do niedawna kojarzyła się z renomowanymi uczelniami i dzienną edukacją stacjonarną. Nowe DNA systemu edukacji opiera się na założeniu, że nauka i rozwój musi trwać dziś całe życie (tzw. Life-long learning) oraz na holistycznym podejściu do edukacji ludzi i kształtowania w nich tzw. „digital mindset” (zorientowania i otwartości na technologię) oraz nowego sposobu myślenia o świecie. Według raportów WEF i Digital University mamy coraz większe zaufanie do biznesowej edukacji online. W 2020 czterokrotnie wzrosła liczba osób poszukujących możliwości uczenia się online z własnej inicjatywy, a pięciokrotnie z inicjatywy pracodawcy [5].  

Pracodawca głównym edukatorem 

Edukacja biznesowa, a w tym wszelkie inicjatywy mające na celu przekwalifikowanie (upskilling i reskilling) pracowników oraz ich rozwój osobisty, przechodzi w ręce pracodawców. 73% procent respondentów badania przeprowadzonego przed Deloitte określiło organizacje jako główne podmioty w społeczeństwie odpowiedzialne za rozwój siły roboczej, co przewyższyło odpowiedzialność samych pracowników oraz domniemaną odpowiedzialność tradycyjnych instytucji edukacyjnych [6]. Trend jest tożsamy z opinią kadry zarządzającej. Zmiany, które zaszły na rynku pracy w 2020 roku zmieniły jej podejście do sposobu rozwoju nowych kompetencji. W stosunku do roku 2018 o 30% wzrosła liczba liderów, którzy uważają, że reskilling pracowników powinien odbywać się na stanowisku pracy.  

Kompetencje przyszłości 

Kompetencje przyszłości to nie synonim kompetencji cyfrowych, które często rozumiemy jako umiejętności bezpośrednio związane z wykorzystaniem nowych technologii. Kompetencje przyszłości to zestaw cech, umiejętności i sposobu myślenia, dzięki którym człowiek doskonale odnajduje się w cyfrowym ekosystemie. Coraz szybciej postępująca digitalizacja nie tylko świata biznesu, ale także naszego codziennego życia, z jednej strony niesie za sobą nieskończone wręcz możliwości poprawy jakości naszego życia, z drugiej strony wywołuje szereg problemów natury psychologicznej, a także groźbę wykluczenia zawodowego i społecznego. 

Kompetencje cyfrowe, co prawda stają się pewnym fundamentem, w coraz mocniej zdigitalizowanym świecie, jednak dla pełnego ich wykorzystania potrzebne są nowe kompetencje społeczne, poznawcze czy psychologiczne. Gospodarki przechodzą z epoki produkcji do wieku wyobraźni. Obecnie sukces w coraz większym stopniu zależy od innowacji, przedsiębiorczości i innych form kreatywności, które opierają się nie tylko na umiejętnościach, ale także na mniej wymiernych zdolnościach, takich jak krytyczne myślenie, inteligencja emocjonalna i współpraca. Według raportu World Economic Forum (WEF) to właśnie krytyczne myślenie, myślenie analityczne, umiejętność rozwiązywanie problemów i aktywne uczenie się oraz odporność psychiczna czy elastyczność należą do najważniejszy umiejętności [7]. 

Kompetencje cyfrowe a psychologiczne 

Pandemia przyspieszyła tempo oraz skalę digitalizacji przekształcając cyfrowe inicjatywy w cyfrowe imperatywy. Ogromna presja i odpowiedzialność nałożone zostały na liderów HR, aby współpracowali z prezesami i zarządami w celu przedefiniowania potrzeb rozwojowych w czasach, gdy modele biznesowe zmieniają się niemal z prędkością światła. Większość organizacji powinno zapewnić swoim pracownikom rozwój w dwóch obszarach.  

Pierwszy to kompetencje związane bezpośrednio z nowymi technologiami i cyfrową rzeczywistością. Ludzie potrzebują konkretnych umiejętności wdrażania cyfrowych rozwiązań, korzystania z możliwości jakie daję Cloud, AI, Big Data, a także rozumienia zarówno procesu transformacji cyfrowej (wraz z jej zewnętrznymi i wewnętrznymi driverami), jak i zjawiska dysrupcji oraz budowania silnej strategii w czasach ciągłych zmian. Drugi obszar to rozwój osobisty i doraźna pomoc w zakresie radzenia sobie ze stresem, czy emocjami własnymi i zespołu w niepewnych czasach, rozproszonym środowisku pracy. Oznacza to konieczność zbudowania nowych nawyków, długofalowego utrzymywania motywacji, na postpandemicznym leadershipie kończąc.  

Co ciekawe, badania WEF pokazują, że osoby zatrudnione kładą większy nacisk na kursy rozwoju osobistego, których popularność wzrosła o 88%. Osoby bezrobotne za to częściej wybierają naukę umiejętności cyfrowych. To pokazuje, że do rozwoju pracowników trzeba podejść holistycznie. Welbeing w cyfrowej rzeczywistości, jest absolutnie kluczowy, ale nie wystarczy do zapewnienia ludziom możliwości pozostania konkurencyjnym na nowym rynku pracy, a firmom do przejścia przez proces transformacji.  

Połowa pracowników do reskillingu 

Dziś liczba nowych zawodów przyszłości pojawia się na rynku znacznie wolniej niż szacowane było to w raportach sprzed pandemii. Jednak analizy nadal zakładają, że choć w ciągu najbliższych 4 lat zniknie 85 milionów miejsc pracy, to możemy się spodziewać 97 milionów nowych ról [8]. Nowe role będą zdefiniowane zgodnie z potrzebami i wyzwaniami cyfrowej rzeczywistości. Zapewne będą też współdzielić przestrzeń i obowiązki ze sztuczną inteligencją. Dla organizacji, dla których transformacja cyfrowa to dziś jedynie „buzzword” czy aspiracja, wybił właśnie ostatni dzwonek. Te firmy, które chcą nie tylko przetrwać, ale tez rozwijać się, powinny przygotować się na permanentną implementację nowych rozwiązań technologicznych, automatyzację wielu zadań i procesów, ale przede wszystkim na edukację pracowników.  

Umiejętności cyfrowe niezbędne niezależnie od roli 

Zgodnie z raportem WEF z 2020 roku tempo wdrażania technologii w najbliższych latach znacznie przyśpieszy. Firmy będą przechodzić kolejne transformacje, począwszy od zmiany lokalizacji, łańcuchów wartości aż do przekształcenia struktury personelu. I nie chodzi tu tylko o restrukturyzacje i zwolnienia. Do 2025 roku ludzie będą spędzać na wykonywaniu bieżących zadań w pracy tyle samo czasu, co maszyny. Dynamiczne zmiany spowodowane z jednej strony automatyzacją, a z drugiej pogłębiającą się postpandemiczną recesją to swoiste double-disruption na rynku pracy. 

Brak odpowiednich kompetencji oraz mocnej strategii pozyskiwania talentów, potrzebnej wiedzy i umiejętności nie tylko osłabia pozycję firm, ale może mocno zagrozić ich przyszłości. Firmy potrzebują strategii w obszarze takim jak transformacja cyfrowa, która obejmie absolutnie całe organizacje, nie zaś tylko obszar IT. A to nieodzownie wiąże się z szeroką edukacją we wszystkich obszarach organizacji.  

Czego powinniśmy się uczyć 

Pracownicy muszą dziś znać trendy w rozwoju nowych technologii i rozumieć ich potencjał, powinni też być świadomi zagrożeń cyfrowego świata i znać mechanizmy obrony. Wykształcić w sobie wspomniany wcześniej „digital mindset” i wykorzystywać go do radzenia sobie z różnymi wyzwaniami.  

Ogromna odpowiedzialność w procesie transformacji cyfrowej spoczywa na managerach średniego szczebla balansujących pomiędzy wizją i oczekiwaniami zarządów, a codziennym zarządzaniem swoimi pracownikami. Ta funkcja wymaga nie tylko dogłębnego zrozumienia technologii i biznesu, ale też silnego fundamentu psychologicznego.  

Kadra kierownicza powinna nie tylko znać trendy i rozumieć technologie i jej potencjał, ale także znać i rozumieć nowoczesne modele biznesowe, paradygmaty zmian w organizacji. Liderzy liniowi powinni również umieć planować zarówno pojedyncze zmiany, jak i widzieć cały obraz procesu transformacji oraz wiedzieć jak wykorzystać dane w procesie decyzyjnym, a także mądrze budować kulturę organizacyjną i wzmacniać siebie jako lidera. 

Transformacja cyfrowa – potrzeba certyfikowania kompetencji  

Transformacja cyfrowa biznesów w Polsce, nie wspominając już o strukturach państwowych, jest nadal w początkowej fazie. Sami Polacy zostali sklasyfikowani do grupy narodów o najniższych kompetencjach cyfrowych wśród unijnych społeczeństw. W związku z tym nadal niewiele mamy dobrych case studies, sprawdzonych rozwiązań, praktycznych rad. Ale cyfryzacja jest transgraniczna, co daje nam możliwość pozyskiwania tej wiedzy z bardziej zaawansowanych rynków. Doświadczenie podmiotów oraz samych ekspertów technologicznych, którzy przeszli przed ten proces jest niezwykle cenne. Ono też pozwala nie tylko zbudować mądrą strategię, zdobyć kluczowe kompetencje, ale przede wszystkim zdefiniować czego i na jakim poziomie tak naprawdę powinniśmy się nauczyć.  

Wiedza na temat transformacji w wielu firmach jest niepełna i niezwykle rozproszona. Dodatkowo, jej poziom i zrozumienie w różnych organizacjach rzadko kiedy jest jednolite. Usystematyzowanie jej jest fundamentalnym elementem ukierunkowanego i ustandaryzowanego planu rozwoju. Certyfikacja wiedzy i kompetencji w obszarze transformacji cyfrowej może ułatwić reskilling i upskilling, pozyskiwanie odpowiednich talentów, a przede wszystkim potwierdzać poziom zrozumienia cyfrowego ekosystemu i kompetencji potrzebnych do mądrego nim zarządzania i jak najefektywniejszego przechodzenia przed proces digitalizacji.  

[1] [2] [3, 4] [5, 5] [6] [7, 8]

3 medyczne innowacje, które przyśpieszyła pandemia

COVID-19 z dnia na dzień wywrócił nasze życie „do góry nogami”. Zostaliśmy zmuszeni pozostać w domach, przejść na pracę i naukę zdalną, a wiele osób straciło zdrowie oraz życie. Czy pomimo tych wszystkich negatywów możemy znaleźć jakieś pozytywy? Czy pandemia przyniosła coś dobrego? W poniższym artykule opowiadamy o trzech medycznych innowacjach, które rozwinęły się dzięki pandemii oraz o tym, jak wpłyną na przyszłość medycyny. 

Szczepionki genetyczne 

Pierwszą innowacją, którą napędziła pandemia było wynalezienie szczepionki. Podczas pierwszej fali koronawirusa niemal cały świat szukał skutecznego lekarstwa. Deborah Fuller – profesor mikrobiologii na Uniwersytecie w Waszyngtonie zajmująca się wirusologią, bionanotechnologią oraz badaniami dotyczącymi szczepionek między innymi na HIV i grypę zauważyła, że minęło już trzydzieści lat od momentu, w którym to naukowcy po raz pierwszy wstrzyknęli myszom geny obcego patogenu, aby wywołać odpowiedź immunologiczną. Pierwsze szczepionki oparte na genach miały swoje wzloty i upadki. Zarówno mRNA oraz DNA były przede wszystkim trudne do przechowywania i nie dawały oczekiwanej odporności. Badacze przez lata udoskonalali badania mając na celu wywołanie bardziej efektywnej odpowiedzi immunologicznej u pacjentów. Do 2019 roku wiele laboratoriów akademickich i firm biotechnologicznych posiadało dziesiątki potencjalnie obiecujących szczepionek mRNA i DNA na choroby zakaźne, jak również na raka w 1 i 2 fazie rozwoju. Gdy wirus zaczął się rozwijać, szczepionki mRNA były gotowe do przetestowania w praktyce. Naukowcy byli zdumieni ich olbrzymią, bo aż 94-procentową skutecznością. Nasuwa się pytanie, w czym szczepionki genetyczne są lepsze od tych tradycyjnych i czy są bezpieczne? Aby na to odpowiedzieć, przyjrzyjmy się w jaki sposób działają. 

Szczepionki starszej generacji, czyli te na świnkę, odrę czy grypę zawierają fragment lub całość wirusa, który został poddany procesowi osłabienia, tak aby nie być zdolnym to wywołania faktycznej choroby. Opracowanie szczepionek tego typu jest bardzo pracochłonne i często trwa latami. Najpierw należy wyhodować patogen, z którego będzie można wyizolować dany fragment, który następnie zostanie osłabiony. Potem opracować skład, wymyślić sposób wytwarzania, dystrybucji i przechowywania. Szczepionki mRNA znane są już od lat 90. XX wieku i miały zastosowanie w leczeniu wścieklizny czy wirusa Zika. Zawierają one samo mRNA wirusa, czyli przekaźnikowy rodzaj kwasu rybonukleinowego, który potocznie można nazwać „notatką”, „instrukcją”, pochodzącą z DNA zawartego w jądrze komórkowym, a nie z całego osłabionego wirusa. Po jej podaniu, organizm człowieka wysyła sygnał do produkcji przeciwciał oraz wywołuje silną odpowiedź limfocytów T, która może usunąć infekcję, jeśli taka wystąpi. W praktyce oznacza to, że ​​te szczepionki lepiej reagują na mutacje i że ​​mogą być w stanie wyeliminować przewlekłe infekcje lub komórki rakowe. Po uzyskaniu sekwencji genetycznej nowego patogenu, zaprojektowanie szczepionki DNA lub mRNA trwa kilka dni. Profesor Deborah mówi: „Jako ktoś, kto pracuje nad tymi szczepionkami od dziesięcioleci, wierzę, że ich udowodniona skuteczność przeciwko COVID-19 zapoczątkuje nową erę wakcynologii ze szczepionkami genetycznymi na czele”. Obecnie wiele szczepionek genetycznych jest już na zaawansowanych etapach badań klinicznych.  

Technologia noszona na ciele i wczesne wykrywanie chorób 

Starzenie się społeczeństwa, zanieczyszczenie środowiska, zła dieta i niewłaściwy styl życia sprawiają, że częściej niż kiedykolwiek myślimy o stanie naszego zdrowia. Z pomocą przychodzi nam  technologia noszona na ciele (z ang. wearable tech) obejmująca urządzenia noszone na nadgarstku, inteligentne ubrania i biżuterię, okulary VR oraz aplikacje na co dzień monitorujące nasze organizmy. Jej użycie jeszcze bardziej upowszechniło się podczas pandemii. Naukowcy badają praktyczne zastosowanie inteligentnych zegarków, pierścieni i innych urządzeń nadających się do noszenia na ciele, które potrafią mierzyć temperaturę, tętno, poziom aktywności i inne dane biometryczne danej osoby. Dzięki tym informacjom są w stanie wykrywać infekcje COVID-19, zanim ludzie zauważą jakiekolwiek objawy. Albert H. Titus – profesor inżynierii biomedycznej na Uniwersytecie w Buffalo zauważa, że pandemia skupiła jeszcze większą uwagę wielu badaczy na nowe technologie. Duża liczbia osób potencjalnie zakażonych koronawirusem dała naukowcom dużą populację, z której mogli czerpać i testować hipotezy oraz wykrywać objawy zakażenia lub innych chorób, zanim staną się zauważalne. Obecnie szybciej niż kiedykolwiek rozwija się infrastruktura IoMT (Internet of Medical Things) tak aby w bardzo szybkim czasie dane, wraz z analizą mogły docierać do gabinetu lekarza bezpośrednio poprzez aplikację na telefonie, czy komputerze. Na przykład urządzenie Medilync Insulync, składające się z glukometru i czytnika poziomu insuliny, może niemal w czasie rzeczywistym analizować dane na temat poziomu cukru we krwi, dawki insuliny, pulsu i ciśnienia krwi. Dodatkowo istnieje możliwość połączenia go z planem posiłków i ćwiczeń od partnerów takich jak MyFitness Pal, po to aby zapewnić najbardziej optymalne opcje dla pacjenta. Urządzenie to jest niezwykle przydatne dla diabetyków. Innym przykładem technologii noszonej na ciele jest WristOx2, czyli inteligentny pulsoksymetr noszony na nadgarstku, który monitoruje i mierzy tętno oraz poziom natlenienia krwi. Może on być używamy zarówno w szpitalu, jak i w warunkach domowych, aby zdalnie monitorować tętno i natlenienie krwi. Technologia noszona może również odbierać i gromadzić dane biometryczne, takie jak tętno (EKG i HRV), fale mózgowe (EEG) i bio-sygnały mięśniowe (EMG) i wiele innych. 

Odkrywanie leków na nowo 

Jak to się dzieje że chorujemy? Istnieją dwa główne rodzaje chorób: zakaźne i niezakaźne. Poniżej przyjrzymy się tym zakaźnym, które wywoływane są przez patogeny, takie jak bakterie, wirusy, grzyby i pasożyty. Mogą się one dostać do organizmu przez powietrze, którym oddychamy, żywność i napoje, które spożywamy lub przez otwory w skórze, takie jak skaleczenia i rany. Jednak dzięki naszemu układowi immunologicznemu nie każdy patogen, który dostanie się do organizmu, powoduje chorobę. Niestety, patogeny mają zdolność do dostosowywania się i ewolucji znacznie szybciej niż układ odpornościowy, co oznacza, że ​​czasami mają przewagę, zwłaszcza jeśli nasz układ odpornościowy jest osłabiony. Nevan Krogan – profesor farmakologii komórkowej i molekularnej oraz dyrektor Quantitative Biosciences Institute na Uniwersytecie w Kalifornii wyjaśnia mechanizm zakażenia. Białka w naszym organizmie pełnią rolę molekularnych maszyn, które sprawiają, że komórki działają prawidłowo. Kiedy białka źle funkcjonują lub są zajmowane przez patogen, wtedy wzrasta ryzyko zapadnięcia na chorobę. Większość leków działa poprzez zakłócanie działania jednego lub kilku nieprawidłowo działających, czy porwanych białek. Tworząc nowe leki do leczenia określonej choroby naukowcy badają geny i białka, na które choroba ma bezpośredni wpływ, na przykład gen BRCA, który chroni ludzkie DNA przed uszkodzeniem jest ściśle powiązany z rozwojem raka piersi i jajnika. Chcąc wynaleźć leki na raka badacze analizują funkcję białka BRCA mając na uwadze, że pojedyncze białka nie działają w izolacji i nie są wyłącznie odpowiedzialne za chorobę. Są one częścią skomplikowanych sieci połączeń między innymi białkami, odpowiedzialnymi za prawidłowe funkcjonowanie organizmu. Profesor Korgan mówi: „od kilku lat moi koledzy i ja badamy potencjał tych sieci, aby znaleźć więcej sposobów, w jakie leki mogą złagodzić chorobę. Kiedy wybuchła pandemia koronawirusa, wiedzieliśmy, że musimy wypróbować to podejście i sprawdzić, czy można je wykorzystać, aby szybko znaleźć lekarstwo na to pojawiające się zagrożenie. Natychmiast rozpoczęliśmy mapowanie rozległej sieci ludzkich białek, które przechwytuje SARS-CoV-2, aby mógł się replikować. Kiedy stworzyliśmy tę mapę, zlokalizowaliśmy ludzkie białka w sieci, do których leki mogłyby z łatwością celować. Znaleźliśmy 69 związków, które wpływają na białka w sieci koronawirusa. 29 z nich zostało już zatwierdzonych przez FDA do leczenia innych chorób. 25 stycznia opublikowaliśmy artykuł pokazujący, że jeden z leków, Aplidin (Plitidepsin), obecnie stosowany w leczeniu raka, jest 27,5 razy silniejszy niż Remdesivir w leczeniu COVID-19, w tym jeden z nowych wariantów leku został zatwierdzony do badań klinicznych fazy 3 w 12 krajach jako leczenie nowej mutacji koronawirusa. Pomysł mapowania interakcji białek chorób w celu poszukiwania nowych leków nie dotyczy tylko koronawirusa. Teraz zastosowaliśmy to podejście w przypadku innych patogenów, a także innych chorób, w tym raka, zaburzeń neurodegeneracyjnych i psychiatrycznych. Mapy te pozwalają nam połączyć kropki między wieloma pozornie odmiennymi aspektami pojedynczych chorób i odkryć nowe sposoby ich leczenia przez leki. Mamy nadzieję, że to podejście pozwoli nam i badaczom z innych dziedzin medycyny odkryć nowe strategie terapeutyczne, a także sprawdzić, czy jakiekolwiek stare leki można zastosować w leczeniu innych schorzeń. Możemy być przekonani, że wraz z rozwojem medycyny będziemy świadkami nowych genialnych odkryć zastosowania dotychczas znanych substancji i leków do leczenia chorób, które nękają obecnie ludzkość. 

W artykule tym omówiliśmy trzy innowacje na jakich rozwój wpłynęła pandemią, czyli szczepionki genetyczne, technologia noszona na ciele oraz produkcja nowych leków. Szczepionki DNA i mRNA, w porównaniu z tradycyjnymi typami szczepionek są znacznie bardziej efektywne i skuteczne, ponieważ wykorzystują jedynie kod genetyczny patogenu, a nie całego wirusa czy bakterię. Opracowanie tradycyjnych szczepionek zajmuje miesiące, jeśli nie lata, a zaprojektowanie szczepionki DNA lub mRNA trwa kilka dni. W post-pandemicznym świecie jeszcze więcej osób będzie korzystać z technologii noszonej na ciele, a urządzenia te będą jeszcze bardziej zaawansowane. Pandemia przyśpieszyła również badania nad chorobami cywilizacyjnymi i obecnie wykorzystywanymi lekami. Daje to zielone światło do wyleczenia wielu schorzeń nękających ludzi. Wiedza, którą zdobyli naukowcy pozwoli radzić sobie z przyszłymi epidemiami, zatruciami pokarmowymi, czy sezonową grypą. Pandemia była niezwykle istotnym impulsem dla rozwoju rynku technologii medycznych, e-recepty, e-skierowania i e-porady, pozwoliły na zachowanie ciągłości leczenia. To tylko trzy innowacje, które napędziła pandemia, ale zapewne jest ich więcej. Możemy być pewni, że w przyszłości będziemy świadkami kolejnych fantastycznych odkryć naukowych. 

Czym są kompetencje cyfrowe i dlaczego warto je rozwijać? Cz. 2

Technologie towarzyszą nam niemal na każdym kroku, dlatego warto zdobywać kompetencje cyfrowe, by je rozumieć i jak najlepiej wykorzystywać ich możliwości. Warto również wiedzieć, jak dzięki nim zapewnić sobie maksymalne bezpieczeństwo w sieci.

Przejdź do pierwszej części artykułu

Rozumienie nowych technologii

Czym różni się AI od AR? 

Czy wirtualna rzeczywistość to to samo co rzeczywistość rozszerzona? 

Gdzie dokładnie znajduje się chmura obliczeniowa?

Czy naprawdę można już wydrukować dom?

Rozwój technologii roztacza przed ludzkością niezwykłe, niespotykane dotąd możliwości. Mnogość rozwiązań technologicznych i sposób, w jaki przenikają one do naszego codziennego życia sprawia, że konieczne jest rozumienie ich zastosowań.

Dziś każdy musi być technologiem! Oczywiście, nie oznacza to, że musisz biec na politechnikę i zapisywać się na studia inżynierskie. Konieczne jest jednak zaprzyjaźnienie się z technologią i zaakceptowanie, że jest ona nieodłącznym elementem naszej pracy oraz życia codziennego. 

Rozumienie, w jaki sposób działają poszczególne technologie oraz jakie mają zastosowanie to niezbędna kompetencja przyszłości.

Jakie pojęcia z obszaru nowych technologii MUSISZ znać? 

  • Sztuczna inteligencja (AI)
  • Uczenie maszynowe 
  • Big Data
  • Internet rzeczy (IoT)
  • Cloud Computing
  • Blockchain
  • Druk 3D
  • Rzeczywistość wirtualna (VR)
  • Rzeczywistość poszerzona (AR)

Cyberbezpieczeństwo

Doookoła tematu bezpieczeństwa w sieci pojawia się mnóstwo mitów. Kilka z nich jest naprawdę poważnych, dlatego rozprawiamy się z nimi:

MIT 1. O bezpieczeństwo danych w sieci dba wyłącznie dział IT

W dzisiejszej rzeczywistości, a już w szczególności w sytuacji pracy zdalnej bądź hybrydowej, dbanie o cyberbezpieczeństwo jest obowiązkiem każdego z nas! Rozumienie, przed czym i w jaki sposób należy się chronić, to kolejna niezbędna kompetencja cyfrowa. 

MIT 2. Oprogramowanie antywirusowe zapewni mi bezpieczeństwo w sieci

Takie oprogramowanie to absolutne minimum zabezpieczające dane na Twoim urządzeniu przed nieuprawnionym dostępem. Nie jest ono jednak wystarczającą ochroną. Oprócz zainstalowania takiego programu, musisz rozumieć podstawowe zasady zarządzania bezpieczeństwem danych

w sieci. 

MIT 3. Przecież nikomu nie podaję swoich danych! Nic mi nie grozi 

Cyberprzestępcy mają swoje metody nawet na najbardziej ostrożne osoby. Phishing to określenie metody wyłudzania danych poprzez podszywanie się pod zaufane instytucje bądź portale. Nieświadomy niczego użytkownik sieci w rezultacie sam podaje nieuprawnionym osobom dane umożliwiające dostęp do swoich kont bankowych czy poczty elektronicznej. 

Podstawowe zasady cyberbezpieczeństwa: 

  • To może brzmieć banalnie, ale wciąż mnóstwo osób jako haseł czy kodów bezpieczeństwa używa oczywistych fragmentów danych, np. imienia i daty urodzenia. Zdecydowanie bezpieczniej jest użyć przypadkowego ciągu mieszanych znaków.
  • Porządki są ważne. Regularnie czyść dane ze swojej przeglądarki, usuwając pliki cookies (tzw. „ciasteczka”).
  • Jeśli masz wątpliwości co do źródła, z jakiego pochodzi dana wiadomość bądź link, skontaktuj się bezpośrednia z instytucją, która podaje się jako nadawca (np. bezpośrednio ze swoim bankiem).
  • Jeśli niespodziewanie otrzymasz link od znajomego w komunikatorze, upewnij się, że wysłał go do Ciebie celowo. Złośliwe oprogramowanie często rozsyłane jest przez osoby podszywające się pod profile osób z naszej sieci kontaktów. 

Mój przyjaciel robot

Czym jest przyjaźń? Czy możliwe jest nawiązanie takiej relacji z robotami? Czy już wkrótce roboty zastąpią nam ludzkich przyjaciół?  

Nasz mózg potrzebuje więzi społecznych, aby należycie funkcjonować, rozwijać się i utrzymać dobre zdrowie. Jako ludzie należymy do istot stadnych. Aby przetrwać potrzebujemy silnych więzi, opierających się na stabilnych podstawach, z osobami podobnymi do nas. W dzisiejszym artykule bliżej przyjrzymy się, jednej z najbardziej fascynujących więzi jaka nas łączy – przyjaźni. 

W 2012 roku do kin wszedł amerykański film pt. „Robot & Frank” opowiadający historię emerytowanego włamywacza i złodzieja – Franka, cierpiącego na wczesne objawy demencji starczej. Zaniepokojony o stan zdrowia swojego ojca syn, kupił mu „domowego robota”, który potrafił mówić oraz wykonywać prace domowe, takie jak gotowanie, sprzątanie, pranie, a także przypominać, by wziął lekarstwa. Chociaż na początku główny bohater nie był zadowolony z pomysłu życia z robotem, to z czasem zaczął dostrzegać coraz większe pozytywy. Film zakończył się nawiązaniem widocznej więzi pomiędzy człowiekiem a maszyną, o czym świadczył fakt, że główny bohater ochronił robota, gdy para wpada w tarapaty. To oczywiście fikcyjna historia, ale życie z robotami-opiekunami w prawdziwym świecie jest coraz bliższe. Stawia to przed nami wyzwanie, aby spróbować zdefiniować i nazwać ten nowy rodzaj relacji. 

Tony Prescott – profesor neuronauki kognitywnej na Uniwersytecie w Sheffield i dyrektor Sheffield Robotics od lat analizuje oraz stara się zrozumieć naturalną inteligencję ludzi i zwierząt, po to, aby stworzyć inteligentne roboty przypominające żywe istoty. Jego badania nad relacjami pomiędzy człowiekiem, a robotem szczegółowo analizują temat przyjaźni. Czy jest ona możliwa? Według jego badań, towarzystwo robotów może konstruktywnie wpłynąć na poprawę naszego życia i przerodzić się w przyjaźń, która jest porównywalna do relacji międzyludzkich. Jednak niesie to również potencjalne zagrożenia, takie jak na przykład porzucenie ludzkich przyjaciół na rzecz robotów. 

Filozofia przyjaźni 

Filozof robotyki badający przyszłość ludzkości – John Danaher stwierdza, że najlepsza definicja „prawdziwej” przyjaźni została opisana przez greckiego filozofa Arystotelesa. Uważał on, że idealna przyjaźń opiera się na „wzajemnej dobrej woli, podziwie i wspólnych wartościach”. Patrząc w tych kategoriach przyjaźń to partnerstwo równych sobie. Roboty, takie jak Sophia firmy Hanson Robotics, opierają swoje zachowanie na zbiorze wcześniej przygotowanych odpowiedzi – humanoidalnym chatbocie, dlatego nie są równym partnerem w konwersacji. Każdy, kto testował Alexa lub Siri wie, że sztuczna inteligencja wciąż ma wiele do nadrobienia. 

Według Arystotelesa przyjaźń można podzielić na trzy główne rodzaje: przyjaźń interesowną – kiedy oczekujemy korzyści wynikających ze znajomości z daną osobą. Przyjaźń skupioną na szukaniu przyjemności (hedonistyczną) – w której potrzebujemy towarzystwa innych ludzi tylko po to, by spędzić miło czas i dobrze się bawić oraz przyjaźń doskonałą – taka w której druga osoba bezinteresownie chce dzielić się z nami dobrymi i złymi momentami, być wsparciem i towarzyszyć nam w życiu. Możemy z tego wywnioskować, że sex-roboty oraz roboty-zwierzęta już spełniają pewną formę „niedoskonałej” przyjaźni. 

Sztuczni przyjaciele  

Wiele osób postrzega roboty domowe tak jak traktuje pozostałe elementy wyposażenia mieszkania czy zwierzęta domowe i odnosi się do nich z sympatią. Inni sceptycznie podchodzą do możliwości rozwinięcia przyjaźni z robotami. Dla wpływowej grupy brytyjskich naukowców, którzy opracowali zestaw „etycznych zasad robotyki”, towarzystwo człowieka z robotem jest oksymoronem. Uważają, że reklamowanie robotów jako posiadających zdolności społecznie jest nieuczciwe i należy je traktować ostrożnie. Wierzą, że marnowanie energii emocjonalnej na rzeczy, które mogą jedynie symulować emocje, jest mniej satysfakcjonujące niż tworzenie więzi międzyludzkich. Jednak ludzie już rozwijają więzi z robotami. Odkurzacze, kosiarki, urządzenia kuchenne, konsole do gier i samochody. Wiele osób nadaje im imiona, tak jak pupilom domowym. Niektórzy nawet zabierają swoje roboty sprzątające na wakacje. 

Inne dowody świadczące o tym, że możliwe jest zbudowanie więzi emocjonalnej z urządzeniem to chociażby przykład robotów-psów AIBO wyprodukowanych w Japonii w 1999 roku, które potrafiły mówić, uczyć się komend i machać ogonem. Z czasem ich właściciele tak się do nich przywiązali, że nie mogli znieść myśli o wycofaniu ich z produkcji. Doprowadziło to do zorganizowania oficjalnej ceremonii pogrzebowej Shinto w świątyni, co w praktyce oznaczało rozbiór robotów na części.  Według Głównego kapłana odprawiającego ceremonię, honorowanie przedmiotów nieożywionych jest zgodne z myślą buddyjską: „chociaż AIBO jest maszyną i nie ma uczuć, działa jak lustro ludzkich emocji”. AIBO i podobne roboty są szczególnie popularne wśród osób starszych. Badania wskazują, że roboty mogą potencjalnie zachowywać się jak zwierzęta terapeutyczne – chociaż przywiązanie do maszyn może być również objawem samotności, która jest coraz większym problemem w Japonii. Innym przykładem może być oddanie 21 salut z dział przez żołnierzy, na cześć przenoszącego bomby robota Boomera, który zginął podczas jednej z akcji. Żołnierze często traktują swoje roboty podobnie jak innych żołnierzy. Te przykłady jasno pokazują, że możemy przenosić więzi emocjonalne na rzeczy, które są dla nas ważne, nawet jeśli wiemy, że zostały wcześniej wyprodukowane i zaprogramowane. Ale czy tą więź możemy traktować na równi z naszą międzyludzką? 

Prawdziwa przyjaźń? 

Prescott zauważa, że w praktyce wiele przyjaźni między ludźmi nie odpowiada ideałowi Arystotelesa. Nie można ich jednoznacznie określić, nie są sobie równe i mogą ewaluować w czasie. Dlatego nie możemy określać tymi samymi standardami przyjaźni między nami, a robotami.  

Podsumowując nasze rozważania jest wysoce prawdopodobne, że relacje z robotami mogą nam pomóc w zaspokojeniu głęboko zakorzenionego pragnienia – posiadania więzi społecznych, zapewniając nam wsparcie emocjonalne, podobne do tego zapewnianego przez innych, jednak nie zastąpi to interakcji z ludźmi. Liczne przykłady dowodzą, że roboty pomagają ludziom w komunikacji, poprawiając ich umiejętności społeczne lub zwiększając ich poczucie własnej wartości. W miarę upływu czasu i rozwoju technologii wielu z nas może powielić zachowanie filmowego Franka: na początku wyśmiewać się i szydzić, by potem przyznać, że roboty mogą być zaskakująco dobrymi towarzyszami. Badania pokazują, że to już się dzieje – choć być może nie w sposób, który aprobowałby Arystoteles. 

Dieta skrojona „na miarę” przyszłości

Jaki wpływ sztuczna inteligencja będzie miała na naszą dietę? Czy będzie w stanie ustrzec nas przed chorobami cywilizacyjnymi? Jak będzie wyglądała przyszłość dietetyki? 

Obecnie często możemy spotkać się z określeniem „jesteś tym, co jesz”. Sposób odżywiania jest niezwykle ważny zwłaszcza dla osób pragnących prowadzić zdrowy tryb życia lub zgubić zbędne kilogramy. Nie ma jednego, uniwersalnego planu żywieniowego, ponieważ wszyscy mamy różne organizmy, gusta i przekonania. To, co działa u jednej osoby, może nie działać u innej. Niektórzy codziennie zjadają tysiące kalorii bez przybierania na wadze, a inni tyją od samego spojrzenia się na jedzenie. Dodatkowo wielu z nas posiada liczne alergie i nietolerancje pokarmowe. Dlatego tak ważne jest, aby znaleźć dietę, która będzie dla nas odpowiednia, skrojoną „na miarę” naszych potrzeb. W dzisiejszym artykule omówiona zostanie przyszłość jaka czeka dziedzinę dietetyki i nauki o odżywianiu oraz jej wpływ na nasze życie i zdrowie. 

Sztuczne zamieszanie  

Trendy dietetyczne, zmieniają się niemal tak szybko jak trendy w modzie. Od paradygmatu „tłuszcz jest zły” z lat 80 do dzisiejszego trendu „cukier jest zły”, raz jeden składnik jest pożądany, a innym razem nam szkodzi. Jak zachować zdrowy rozsądek, jeśli chodzi o właściwe dla nas odżywanie? Prawda jest taka, że ​​diety dobrze się „sprzedają” – wiele ludzi regularnie próbuje kolejnych trendów dietetycznych, które mają przynieść im oczekiwane rezultaty. Zasady i ograniczenia sprawiają, że czują się bezpiecznie. Myślą o diecie w kategoriach dotarcia do mety, często przechodząc z jednej skrajności w drugą. Albo są na restrykcyjnej diecie, albo jedzą wszystko co znajdą w lodówce. Media i marketing oddziaływają na emocje konsumentów, kusząc nas obietnicami świetnego wyglądu, samopoczucia czy zdrowia po zakupie danego produktu. W prasie co jakiś czas możemy natknąć się na nagłówek „Dany celebryta schudł aż 30 kilogramów stosując tą jedną prostą zasadę…” co jeszcze bardziej nakręca sprzedaż. 

Obecnie dziedzina dietetyki stoi przed dwoma poważnymi wyzwaniami: po pierwsze, dostępne wyniki są średnią z całej badanej populacji, a po drugie, ludzie nie lubią trzymać się ścisłej diety przez wystarczająco długi okres czasu, tak aby uzyskać spójne wyniki. Czy kiedykolwiek próbowałeś 14-dniowej diety? Teraz wyobraź sobie, że robisz to przez pięć lat. Paul Coates, wiceprezes American Society of Nutrition, powiedział, że „wszyscy jesteśmy zjadaczami z wolnego wybiegu”, co utrudnia uzyskanie wiarygodnych danych. 

W 1984 roku rozpoczęło się badanie Framingham Heart Study, które miało na celu lepsze zrozumienie stanu serca i naczyń krwionośnych oraz powiązania diety z chorobami układu krążenia, które do dziś pozostają jednym z naszych głównych zabójców. Dyrektor NIH, dr. Francis Collins, stwierdził: „najwyższy czas, aby wprowadzić naukę o żywieniu w XXI wiek”. W maju 2020 roku agencja opublikowała dziesięcioletni plan zagłębiania się w tajniki odżywiania, zajmujący się kwestią „co, kiedy, dlaczego i jak jeść”, aby zoptymalizować zdrowie i zmniejszyć zapadalność na przewlekłe choroby, takie jak cukrzyca, otyłość i choroby serca. Dodatkowo plan ten obejmuje również neurobiologię, połączenie mózgowo-jelitowe, zbadanie powiązania długowieczności z dietą oraz używania żywności jako leku. 

Program Nutrition for Precision Health 

Nauka o żywieniu opiera się na uproszczonych modelach, schematach i średnich przy formułowaniu zaleceń dietetycznych, co sprawia, że zakładany rezultat jest często mało precyzyjny. Obecnie trwają prace nad projektem Nutrition for Precision Health, prowadzonym przez National Institutes of Health (NIH), który ma na celu opracowanie algorytmów przewidujących indywidualne reakcje na wzorce żywieniowe. Program NPH będzie opierał się na ostatnich postępach w naukach biomedycznych, w tym sztucznej inteligencji (AI), badaniach mikrobiomów, a także na infrastrukturze i dużej, zróżnicowanej grupie uczestników. Przez pięć lat analizowany będzie styl żywienia różnych grup Amerykanów. Każda osoba otrzyma ściśle kontrolowaną dietę. Następnie będą oni dokładnie monitorowani pod kątem zdrowotnym, od poziomu cukru we krwi po ich geny, białka i skład mikrobiomu jelitowego. Korzystając z ogromnego zbioru danych, program będzie mógł opracować algorytmy oparte na sztucznej inteligencji do przewidywania indywidualnych reakcji na żywność i diety. Jeśli projekt się powiedzie, już wkrótce możemy mieć naukowo udowodniony sposób optymalizacji naszej diety i zdrowia w oparciu o nasze geny i mikroby jelitowe. Jest to istotna informacja zwłaszcza dla osób z zaburzeniami metabolicznymi lub nietolerancjami pokarmowymi. Algorytmy są potężnym narzędziem pomagającym dietetykom w ustalaniu diety. Program będzie realizowany w ramach flagowego projektu zdrowotnego NIH All of Us, który ma na celu rekrutację miliona ludzi do stworzenia bazy danych w stylu Google Earth na temat biologii, zdrowia, stylu życia i chorób. Najważniejszymi aspektami jest indywidualność i personalizacja.  Dr Griffin Rodgers, dyrektor National Institute of Diabetes and Digestive and Kidney Diseases (NIDKK), powiedział „zaczynamy rozumieć, jak mikrobiom wpływa na zdrowie. Możemy szybko przeprowadzić badania multomiczne – to znaczy przyjrzeć się całemu systemowi genów, białek i metabolizmowi człowieka. Sztuczna inteligencja i uczenie maszynowe ułatwiają analizę tych ogromnych zbiorów danych. Wreszcie, cyfrowa technologia zdrowotna, oferowana za pośrednictwem smartfonów lub smartwatchów, sprawia, że ​​codzienne monitorowanie stanu zdrowia jest proste i niedrogie. Projekt ten planowany jest w trzech etapach. W pierwszym koło 10 000 ochotników z All of Us będzie nosić na sobie różne monitory śledzące ich codzienną dietę, aktywność fizyczną i poziom cukru we krwi, tworząc punkty odniesienia. W drugim etapie grupa uczestników będzie regularnie odwiedzać klinikę, w której dostaną określony posiłek i będą monitorowani pod kątem szeregu biomarkerów, takich jak zmiany poziomu cukru we krwi. Inna podgrupa ochotników otrzyma trzy różne rodzaje diet. Przygotowane do badania potrawy będą spożywane w domu, aby uczestnicy mogli zająć się swoimi codziennymi sprawami i żyć normalnym życiem. Wreszcie około 1000 wolontariuszy będzie przebywać w klinice trzy razy przez okres dwóch tygodni. Tutaj ich posiłki będą ściśle kontrolowane, a jedzenie na zewnątrz nie będzie dozwolone, służy to eliminacji wpływu innych zmiennych. Podczas badania wszystkie trzy grupy zostaną poddane serii testów klinicznych, od genetyki i składu mikrobiomu po poziom cukru we krwi, metabolizm i mocz. Ocenie poddane zostaną również środki psychologiczne i behawioralne. Chodzi o uzyskanie możliwie jak najbardziej precyzyjnych wyników badań. 

W miarę gromadzenia danych w ramach badania inżynierowie oprogramowania zaczną budować infrastrukturę do przechowywania, organizowania i wyszukiwania zbiorów danych. Ta biblioteka danych jest następnie przekazywana naukowcom zajmującym się sztuczną inteligencją w celu stworzenia modeli i algorytmów, które przewidują indywidualną reakcję danej osoby na dietę. Następnie kolejny pięcioletni okres umożliwi walidację tych modeli w badaniach klinicznych. 

Nie jest to pierwszy program łączący odżywanie ze sztuczną inteligencją. W 2015 roku w Izraelu przeprowadzono badanie, w którym u 800 osób monitorowno poziom cukru we krwi i mikrobiom, aby przeanalizować, jak ludzie reagują na różne rodzaje spożycia cukru. Wykorzystując uczenie maszynowe, w ramach badania stworzono oprogramowanie do przewidywania diety jak najlepiej dopasowanej dla osób z cukrzycą lub dla tych, które chcą schudnąć. 

Podsumowując powyższy artykuł odżywianie odgrywa integralną rolę w rozwoju człowieka oraz w zapobieganiu i leczeniu chorób. Już wkrótce dziedzinę dietetyki oraz nauki o żywieniu czekają zmiany. Program Nutrition for Precision Health ma na celu lepsze zrozumienie, tego w jaki sposób indywidualna biologia człowieka i ścieżki molekularne wpływają na relacje między dietą a czynnikami środowiskowymi, społecznymi i behawioralnymi wpływającymi na zdrowie. Pomoże to dietetykom i pracownikom służby zdrowia w tworzeniu precyzyjnych i skutecznych planów żywieniowych. Program Nutrition for Precision Health jest nadal na etapie planowania, a jego start przewidywany jest na początek 2023 r.  Możemy być pewni, że już wkrótce dzięki sztucznej inteligencji oraz uczeniu maszynowemu możliwa będzie całkowita personalizacja naszego sposobu odżywiania, po to, aby zapewnić nam dobre zdrowie i długie życie. 

Czym są kompetencje cyfrowe i dlaczego warto je rozwijać? Cz. 1

Obecnie kompetencje cyfrowe, obok czytania, pisania, umiejętności matematycznych i językowych, stanowią zespół fundamentalnych umiejętności współczesnego człowieka.

Kompetencje cyfrowe obejmują szeroki wachlarz umiejętności – od sprawnego posługiwania się i dobierania odpowiednich narzędzi cyfrowych, przez zdolność do innowacyjnego myślenia, aż po układanie procesów i strategii transformacji cyfrowej w organizacji.

Kompetencje cyfrowe to wiedza, umiejętności i postawy pozwalające w sposób efektywny, poprawny, bezpieczny, krytyczny, kreatywny i etyczny wykonywać zadania, rozwiązywać problemy, komunikować się, zarządzać informacją, współpracować, tworzyć i dzielić się treściami.

Kompetencje cyfrowe są ważne. Należy je rozwijać, jednocześnie dostosowując się do zmian zachodzących w środowisku, w jakim funkcjonuje społeczeństwo. Rozwój kompetencji cyfrowych jest niezbędny, aby sprawnie odnajdywać się w dynamicznie zmieniającej się rzeczywistości.

Digital Mindset jako jeden z elementów kompetencji

Digital Mindset to zbiór postaw i przekonań, które umożliwiają rozumienie technologii, sprawne poruszanie się w stale ewoluującym świecie, nastawienie na innowację oraz zdolność do błyskawicznej adaptacji. To otwartość na wchodzenie w interakcję z cyfrowym światem i efektywne wykorzystywanie narzędzi cyfrowych w życiu zawodowym i osobistym.

Osoba, którą cechuje Digital Mindset:

  • Nie czeka na to, aż zajdą jakieś zmiany. Proaktywnie uczestniczy w tworzeniu innowacji i chętnie wdraża nowatorskie rozwiązania
  • Rozumie, że nowe technologie są nieodłącznym elementem naszej codzienności i wie, jak ich rozwój kształtuje wszystkie obszary życia na poziomie społecznym i jednostkowym
  • Akceptuje to, że w ciągle zmieniającym się świecie stale musi oduczać się tego, co już wie i rozwijać swoje kompetencje oraz wiedzę
  • Nie obawia się, że technologia w czymś ją zastąpi. Wie, że połączenie potencjału ludzkiego z tym, czego jest w stanie dokonać technologia, rodzi nowe, niespotykane dotąd możliwości
  • Jest głodna wiedzy i otwarta na ciągłe eksperymentowanie

Dążenie do rozwoju

Dążenie do rozwoju i ustawiczna nauka (lifelong learning) to kluczowa kompetencja cyfrowa. 

Gwałtowany i nieprzewidywalny charakter zmian zachodzących w świecie oraz wykładnicze tempo rozwoju w technologii wymagają od nas gotowości do ciągłej nauki ( Future of Learning), aktualizacji wiedzy i poszerzania wachlarza umiejętności.

Reskilling polega na zdobyciu zupełnie nowych umiejętności, kompetencji i wiedzy w celu przygotowania się do zupełnie nowej roli. Reskilling konieczny jest, kiedy wykonywane dotąd zadania i obwiązki stają się zbędne w organizacji. Często dzieje się tak w wyniku postępu technologicznego.

Upskilling polega na modyfikacji dostosowaniu posiadanych już umiejętności i wiedzy do zmian zachodzących w danym obszarze. Na fundamencie tego, co już wiemy i potrafimy, budujemy pogłębione, bardziej zaawansowane i lepiej dostosowane do realiów kompetencje.

Lifelong learning. W rzeczywistości, która ewoluuje i przekształca się w zawrotnym tempie, wiedza staje się płynna. To oznacza, że musimy zachować czujność i otwartość, aby stale weryfikować czy to, czego nauczyliśmy się wczoraj, dziś wciąż jest aktualne. Osoba, która stale dąży do rozwoju rozumie, że zobligowana jest do ciągłego oduczania się i uczenia pewnych rzeczy na nowo.

Jakie korzyści zapewnia ciągłe dążenie do rozwoju? 

  • Zapewnia szerszy wachlarz umiejętności, a tym samym wyższą efektywność 
  • Szersze horyzonty i większy zasób wiedzy podnoszą kreatywność 
  • Daje pełniejsze zrozumienie zachodzących zmian i możliwość szybkiego dostosowania się do nich
  • Zapewnia szersze możliwości na rynku pracy i zwiększa naszą przewagę konkurencyjną 
  • Buduje pewność siebie i ułatwia podejmowanie decyzji w nowych sytuacjach

Kompetencje cyfrowe – dobór narzędzi i platform

Złożoność dzisiejszego świata wymaga od nas sprawnego posługiwania się narzędziami, które łączą w sobie rozmaite funkcje. Platformy zwykle są miejscem, w którym następuje wymiana informacji, dóbr lub usług pomiędzy użytkownikami. Istotnym elementem platform są także zachodzące w ich obrębie interakcje społeczne.

Rodzaje platform cyfrowych 

Platformy cyfrowe przybierają różne formy w zależności od modelu biznesowego oraz funkcjonalności, jakie mają zapewniać. Możemy wyróżnić następujące typu platform:

  • Społecznościowe (np. Facebook lub LinkedIn)
  • Platformy wymiany wiedzy (np. Wikipedia, Yahoo Answers)
  • Platformy mediowe (np. YouTube, Spotify)
  • Platformy zorientowane na usługi (np. Uber, Airbnb)

Umiejętność doboru platform cyfrowych to ważna kompetencja! Dlaczego?

  • Pozwala w sprawny i efektywny sposób dzielić się informacjami oraz pozyskiwać wartościową wiedzę
  • Umożliwia nawiązywanie relacji i budowanie sieci kontaktów 
  • Usprawnia proces współpracy i zarządzanie zadaniami
  • Pozwala na zautomatyzowane korzystanie z szerokiego wachlarza usług

Social media & sharing icons powered by UltimatelySocial