Czas krzemowych skalpeli

Nie ma chyba bardziej obiecującej dziedziny informatyzacji życia niż medycyna i ochrona zdrowia. Od obiegu informacji, poprzez diagnostykę, aż po komputerowe wspomaganie przy zabiegach i cyfrowe protezy – informatyka w medycynie zdobywa szturmem kolejne bastiony.

Informatyka pierwszej generacji

Z informatyką zetkniemy się dzisiaj w każdym szpitalu i w każdej przychodni – i to już na wstępie. „Informatyka pierwszej generacji” zagościła już w polskiej służbie zdrowia kilkanaście lat temu. Od momentu elektronizacji rozliczeń, jednostki służby zdrowia zostały zmuszone do skomputeryzowania obiegu informacji o pacjentach. Wraz z wprowadzeniem kontraktów i koszyka usług z NFZ – także o świadczonych usługach i zabiegach. Dokumentacja medyczna w postaci elektronicznej to już dzisiaj codzienność, a tylko starsi i bardziej konserwatywni lekarze wypisują karty i recepty ręcznie. I to tylko o ile pozwala im na to macierzysta jednostka, która potem ma dodatkową pracę z rozliczeniem procedur.

„Informatyka pierwszej generacji” nie jest może szczególnie imponująca, bo w gruncie rzeczy powtarza te same procesy cyfryzacji, które w przedsiębiorstwach miały miejsce w latach 90. Ale trzeba pamiętać, że sporo jest jeszcze do zrobienia. Dzisiaj dokumenty elektorniczne w dużej mierze dublują tradycyjne. W większości przychodni i szpitali nadal rządzi papier – komputery służą do wytworzenia go, a potem w postaci fizycznej wędruje na kolejny oddział albo do kolejnej jednostki, aby tam podlegać od nowa analizie i elektronizacji. Brakuje standardów interoperacyjności, bazy danych są zdecentralizowane, w efekcie czego potencjał „informatyki pierwszej generacji” pozostaje wykorzystany jedynie częściowo i lokalnie.

Lepsza diagnoza

Jeśli można wskazać obszar medycyny, gdzie informatyka zmienia teraz najwięcej, byłaby to diagnostyka. Roman Cedrych, chirurg z Katowic, mówi krótko: „Trafna diagnoza to więcej niż połowa sukcesu zabiegu”.

Dzięki uzupełnieniu znanych już od dawna urządzeń – aparatu rentgenowskiego i ultrasonografu – o techniki komputerowe, radykalnie poprawiła się jakość rozpoznania. Lekarz, zanim otworzy skalpelem ciało chorego albo nawet zapisze odpowiednie leki – korzysta dzisiaj z przestrzennych obrazów tworzonych przez tomografy rentgenowskie (CT), rezonans magnetyczny (MRI) czy pozytonową tomografię emisyjną (PET). Działanie tych urządzeń nie byłoby możliwe, gdyby nie komputery stosunkowo dużej mocy gromadzące dane i dostarczające trójwymiarowe wizualizacje, które lekarz może następnie przeglądać na swoim laptopie za pomocą specjalistycznego oprogramowania.

Do tego dochodzi potencjał sieci teleinformatycznych. Już dzisiaj radiolodzy w niektórych szpitalach pełnią dyżury w domu. W nagłym przypadku – np. ofiary wypadku – specjalista nie musi przyjeżdżać do szpitala, tylko podłączyć się do internetu. Zdjęcie rentgenowskie, albo ultrasonograficzne przesyłane jest na jego komputer. Tam następuje analiza, a opis wędruje z powrotem do szpitala, dzięki czemu np. chirurg wie czy podjąć akcję i jaką.

Powszechne jeszcze niedawno cyfrowe nośniki – przede wszystkim płyta CD – powoli są zastępowane składowaniem danych w chmurze. Nie bez obaw ze strony lekarzy i pacjentów, dodajmy. Wszyscy zdają sobie sprawę, że dane na temat zdrowia należą do najbardziej wrażliwych i ich niekontrolowana dystrybucja (np. przekazanie firmom ubezpieczeniowym) może przynieść konkretne szkody pajcentowi.

Komputerowa diagnostyka to także błyskawiczne i bardzo tanie badania standardowe: badanie krwi i moczu, oznaczanie grupy krwi, badanie poziomu cholesterolu, itd.Przy natychmiastowych interwencjach lekarskich, kiedy nie ma czasu na pobranie próbki, wysłanie jej do laboratorium, takie błyskawiczne, wspomagane komputerowo badanie może ratować życie albo bardzo uprościć leczenie i przyspieszyć powrót do zdrowia.

Na pytanie, czy w użyciu są systemy eksperckie, które analizę zdjęć przejmują na siebie – przynajmniej sugerując lekarzowi anomalie na obrazie rentgenowskim – polscy lekarze odpowiadają raczej przecząco. Diagnostyka wspomagana komputerowo (CADx) w literaturze budzi duże kontrowersje. O ile w przypadku raka piersi i płuc daje efekty statystycznie obserwowalne, to nie pozwala na wykrycie wczesnych stadiów choroby, co bardzo utrudnia stosowanie tej metody w badaniach przesiewowych.

Jednocześnie wiele ośrodków naukowych i firm pracuje nad automatyczną analizą obrazów i postęp na tym polu jest bardzo szybki. Współczesne ultrasonografy podczas badania ciąży są w stanie samodzielnie oznaczyć i obliczyć wielkość płodu i jego organów (np. długość kości), wyliczając pewne syntetyczne parametry świadczące o tym, że ciąża przebiega prawidłowo.

Elektroniczne wspomaganie

Standardem podczas opieki medycznej, zwłaszcza podczas zabiegu i bezpośrednio po nim, jest dzisiaj monitorowanie stanu chorego. O ile same urządzenia pozornie nie zmieniły się przez ostatnie 10 lat (badają oddech, tętno, ciśnienie krwi, itd.), to poziom ich naszpikowania algorytmami zdecydowanie się zmienił. O ile łatwo wykryć przerwanie akcji serca, to trzeba mieć świadomośc, że w takiej sytuacji działać trzeba bardzo szybko, a każda sekunda ma znaczenie. Mało kto wie, że przed utratą tętna mogą pojawiać się anomalie przebiegu, niejako „wyprzedzające” zatrzymanie akcji serca. Wykrycie ich pozwala zadziałać wyprzedzająco albo podać leki, które ryzyko zapaści zmniejszą. Część współczesnych urządzeń „uczy się chorego” aby być w stanie łatwo odróżnić stan normalny, charakterystyczny dla danej osoby, od nienormalnego, zwiastującego poważne problemy.

Potęgę informatyki w medycynie pokazuje głośna historia z grudnia 2014 roku. Dwuletni Adaś wyszedł z domu w Racławicach lunatykując – wprost w noc, na trzaskający mróz. Gdy o 8:30 znalazł go policjant temperatura jego ciała spadła do 12,7 stopnia Celsjusza. Błyskawicznie został przewieziony do krakowskiego szpitala, gdzie poddano go procedurom przywracania do życia po głębokim obniżeniu temperatury ciała. Kontrolując prędkość przepływu, poziom nasycenia tlenem, temperaturę płynów ustrojowych oraz samego ciała, udało się Adasia ogrzać, a potem wybudzić – praktycznie bez trwałych szkód w korze mózgowej i organach wewnętrznych. Media popularne mówią o „cudzie”, ale za sukcesem stoi wiedza zebrana i opracowana przez Centrum Leczenia Hipotermii Głębokiej oraz zaawansowane urządzenia, stosowane na co dzień przy zabiegach na sercu, m.in. pozwalające na zastąpienie krwi płynem przenoszącym tlen i substancje odżywcze. Co ciekawe, Centrum udostępnia swoje procedury na stronie internetowej. W tym również procedurę teletransmisji z urządzeń diagnostycznych – dzięki czemu specjaliści od hipotermii mogą na bieżąco obserwować reanimację wychłodzonego pacjenta i nawet z bardzo daleka udzielać wskazówek zespołowi pracującemu na miejscu.

Przyszłością jest obrazowanie podczas samej operacji. Stosunkowo powszechnie stosowana jest laparoskopia. Metoda, w której przez dwa lub trzy otwory w ciele wprowadza się niewielkie rurki, zyskała popularność przede wszystkim w rutynowych zabiegach jak wycięcie woreczka żółciowego czy leczenie przepukliny. Przez jeden otwór wprowadza się tor wizyjny, przez drugi – narzędzia chirurgiczne, przez trzeci można włożyć drugi tor wizyjny i użyć komputera do trójwymiarowego obrazowania pola operacji. Powoli pojawia się połączenie laparoskopii z robotyką: narzędzia nie są połączone już linkami i przekładniami, a łączami elektronicznymi i mikrosilniczkami. Lekarz zaś operuje zestawem dżojstików na panelu.

W wrześniu tego roku znane z wielu wynalazków Laboratoria Napędu Odrzutowego (JPL) we współpracy z kalifornijskim Instytutem Czaszki stworzyły mikroskopijną kamerę pozwalającą na trójwymiarowe obrazowanie szczegółów mózgu. Neurochirurgia jest szczególnie wymagająca, jeśli chodzi o endoskopię (czyli oglądanie ciała „od środka”) – mózg jest wyjątkowo wrażliwym organem, a pole operacyjne potrafi mieć rozmiar milimetrów kwadratowych. Kamera MARVEL ma 15 mm długości i zaledwie 4 mm grubości. Tak daleko posunięta miniaturyzacja była możliwa dzięki zastosowaniu tylko jednego – zamiast dwóch – obiektywów. Obraz steroskopowy uzyskuje się poprzez naprzemienne oświetlanie pola wiązkami różnej długości światła i komputerowemu składaniu obrazów w obraz 3D. Taka kamera pozwala z jednej strony bardzo precyzyjnie wykonać operację, z drugiej – zminimalizować szkody w sąsiadujących obszarach mózgu.

Bionika

Na koniec przedstawmy najmłodsze dziecko małżeństwa informatyki z medycyną: bionikę. Ratunkiem dla osób po wylewach, amputacjach lub wypadkach, są sztuczne kończyny oraz egzoszkielety. Postęp w tej dziedzinie jest nieprawdopodobnie szybki. Już w 2014 roku Federalna Agencja Leków (FDA) zaakceptowała bioniczny szkielet ReWalk, który osobom całkowicie sparalizowanym od pasa w dół pozwala przemieszczać się tak, jakby miały nogi. Ruchem bionicznych nóg sterują ręce, a egzkoszkielet umożliwia nawet lekki trucht.

Bioniczna kończyna firmy SynTouch nie tylko zastępuje palce, ale także przenosi odczucia związane z dotykiem. Powierzchnia protezy pokryta jest delikatnym płynem, który naciska na sensory. Komputer przenosi odczucia związane z dotykiem bezpośrednio do ręki nerwów. Osoba nie tylko porusza protezą, ale także „odczuwa” – wie więc, kiedy nacisk jest odpowiedni i należy go zwolnić. Czucie nieistniejących kończyn to jedna z ostatnich barier do pokonania w protetyce – po sterowaniu myślą, co już powoli udaje się osiągać.

Bioniczne podudzia i stopy dla osób po amputacjach nóg pozwalają dzisiaj nawet biegać po nierównym terenie. Możliwe jest to dzięki precyzyjnemu łączeniu ruchomej „stopy” z podudziem, z zestawem sensorów, silników i łożysk, dzięki którym dolna część protezy możne „pracować” względem podudzia tak jak kostka i staw skokowy.

W lipcu ubiegłego roku znana dobrze informatykom agencja DARPA na konferecji „Wait? What!” pokazała połączenie pomiędzy mózgiem a elektroniczną kończyną. Dr Justin Sanchez zaprezentował, jak całkowicie sparaliżowana osoba kontroluje bioniczną rękę za pomocą siły woli. Film video, który pozostawia widza z rodziawionymi ustami, można łatwo znaleźć w serwisie YouTube.

Cyfrowe tsunami

To wszystko bardzo nieliczne przykłady zastosowań informatyki medycznej, którą można by porównać do fali tsunami, która przetacza się przez ochronę zdrowia. Trzeba mieć świadomość, że prawdziwa rewolucja w informatyzacji medycyny (czy raczej medycynie komputerowej) dopiero przed nami. Zabiegi dokonywane przez roboty, nanocząstki wprowadzane do krwiobiegu, wirtualna rzeczywistość jako wspomaganie lekarza w diagnostyce – to dzisiaj brzmi jak science fiction, ale jutro może stać się rzeczywistościa dostępną w przychodniach i szpitalach.

Zapoznając się z materiałami z dziedziny nie sposób nie odnieść wrażenia, że ograniczenia w tej dziedzinie są głównie poza biologią i informatyką. Są głównie w prawie i kulturze lekarskiej, które nakazują daleko idącą ostrożność w postępowaniu z nowinkami. Lekarz nie ma możliwości „debugowania” stanu pacjenta, a w przypadku popełnienia błędu nie ma miejsce na „restart systemu” – ulubione narzędzie pracy informatyków. Pierwsza zasada leczenia brzmi: „nie szkodzić”. Dlatego informatyka w medycynie stosunkowo łatwo opanowuje obszar diagnostyki i doradztwa, ale stosunkowo nieliczni decydują się na wdrożenie technologii tam, gdzie mogą one prowadzić do szkód w organizmie.

Jedno jest pewne – na pytanie „jaki będzie następny krok w ewolucji człowieka”, już dzisiaj można odpowiedzieć zdecydowanie: „cyfrowy”. Świadome naprawianie i poprawianie ciała za pomocą technologii informatycznych to przyszłość naszego gatunku. Być może cyborgizacja to jedyna droga, która pozwoli nam się obronić przed dominacją sztucznej inteligencji.

Tak czy inaczej, mariaż medycyny i informatyki to przyszłość jednej i drugiej nauki.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200