Od momentu powstania platformy IBM Watson w 2007 roku, ludzie nieustannie dążą do rozwoju medycznej sztucznej inteligencji (AI). Użyteczny i wydajny system medycznej AI ma ogromny potencjał, by przekształcić wszystkie aspekty współczesnej medycyny, umożliwiając inteligentniejszą, dokładniejszą, wydajniejszą i bardziej inkluzywną opiekę, zapewniając pracownikom medycznym i pacjentom dobre samopoczucie, a tym samym znacząco poprawiając zdrowie ludzi. Chociaż w ciągu ostatnich 16 lat badacze zajmujący się medyczną AI zgromadzili się w różnych, niewielkich dziedzinach, na obecnym etapie nie udało im się jeszcze przełożyć odkryć science fiction na rzeczywistość.
W tym roku, wraz z rewolucyjnym rozwojem technologii AI, takiej jak ChatGPT, medyczna AI poczyniła ogromne postępy w wielu aspektach. Bezprecedensowy przełom w możliwościach medycznej AI: czasopismo Nature stale inicjuje badania nad medycznym modelem dużego języka i podstawowym modelem obrazów medycznych; Google publikuje Med-PaLM i jego następcę, osiągając poziom ekspercki w pytaniach egzaminacyjnych dla lekarzy w USA. Główne czasopisma naukowe skupią się na medycznej AI: Nature publikuje perspektywy dotyczące podstawowego modelu ogólnej medycznej AI; Po serii przeglądów AI w medycynie na początku tego roku, New England Journal of Medicine (NEJM) opublikował 30 listopada swój pierwszy przegląd zdrowia cyfrowego i 12 grudnia wydał pierwszy numer podczasopisma NEJM NEJM AI. Grunt pod lądowanie medycznej AI jest bardziej dojrzały: podczasopismo JAMA opublikowało globalną inicjatywę udostępniania danych obrazów medycznych; Amerykańska Agencja ds. Żywności i Leków (FDA) opracowuje projekt wytycznych dotyczących regulacji medycznej AI.
Poniżej przedstawiamy przegląd znaczących postępów, jakie poczynili badacze na całym świecie w kierunku użytecznej medycznej sztucznej inteligencji w 2023 r.
Podstawowy model sztucznej inteligencji medycznej
Budowa podstawowego modelu sztucznej inteligencji w medycynie to niewątpliwie najgorętszy temat badań w tym roku. Czasopisma „Nature” opublikowały w tym roku artykuły przeglądowe dotyczące uniwersalnego modelu podstawowego w ochronie zdrowia oraz modelu wielojęzykowego w ochronie zdrowia. „Medical Image Analysis”, wiodące czasopismo w branży, przeanalizowało i z entuzjazmem przyjrzało się wyzwaniom i możliwościom badań nad modelami podstawowymi w analizie obrazów medycznych, a także zaproponowało koncepcję „rodowodu modelu podstawowego”, aby podsumować i ukierunkować rozwój badań nad modelami podstawowymi w medycznej sztucznej inteligencji. Przyszłość podstawowych modeli sztucznej inteligencji w opiece zdrowotnej staje się coraz bardziej oczywista. Opierając się na udanych przykładach dużych modeli językowych, takich jak ChatGPT, wykorzystując bardziej zaawansowane metody samonadzorowanego wstępnego treningu i ogromne zasoby danych treningowych, naukowcy z dziedziny medycznej sztucznej inteligencji starają się zbudować: 1) modele bazowe specyficzne dla danej choroby, 2) ogólne modele bazowe oraz 3) multimodalne duże modele, które integrują szeroki zakres trybów o ogromnych parametrach i zaawansowanych możliwościach.
Model sztucznej inteligencji do pozyskiwania danych medycznych
Oprócz rozbudowanych modeli AI, które odgrywają istotną rolę w zadaniach analizy danych klinicznych w dół strumienia, w procesie akwizycji danych klinicznych w górę strumienia pojawiła się również technologia reprezentowana przez generatywne modele AI. Algorytmy AI mogą znacząco poprawić proces, szybkość i jakość akwizycji danych.
Na początku tego roku czasopismo Nature Biomedical Engineering opublikowało badanie przeprowadzone przez turecki Uniwersytet Cieśniny, które koncentrowało się na wykorzystaniu generatywnej sztucznej inteligencji (AI) do rozwiązania problemu diagnostyki patologicznej wspomaganej obrazowaniem w zastosowaniach klinicznych. Artefakty w tkankach zamrożonych podczas operacji stanowią przeszkodę w szybkiej ocenie diagnostycznej. Chociaż tkanka zatopiona w formalinie i parafinie (FFPE) zapewnia wyższą jakość próbki, proces jej produkcji jest czasochłonny i często trwa 12–48 godzin, co czyni ją nieodpowiednią do zastosowania w chirurgii. Zespół badawczy zaproponował zatem algorytm o nazwie AI-FFPE, który może upodobnić wygląd tkanki w zamrożonym skrawku do FFPE. Algorytm skutecznie korygował artefakty w zamrożonych skrawkach, poprawiał jakość obrazu i jednocześnie zachowywał klinicznie istotne cechy. W walidacji klinicznej algorytm AI-FFPE znacząco poprawia dokładność diagnostyczną patologów w zakresie podtypów nowotworów, jednocześnie znacznie skracając czas diagnozy klinicznej.
Cell Reports Medicine donosi o pracy badawczej zespołu z Trzeciego Kolegium Klinicznego Uniwersytetu Jilin, Wydziału Radiologii, Szpitala Zhongshan afiliowanego przy Uniwersytecie Fudan oraz Uniwersytetu Nauki i Technologii w Szanghaju [25]. W badaniu tym zaproponowano uniwersalny, oparty na uczeniu głębokim i iteracyjnej rekonstrukcji framework fuzji (Hybrid DL-IR) o wysokiej wszechstronności i elastyczności, wykazujący doskonałą wydajność rekonstrukcji obrazu w szybkim MRI, tomografii komputerowej o niskiej dawce i szybkim PET. Algorytm może osiągnąć skanowanie MR pojedynczego narządu w ciągu 100 sekund, zmniejszyć dawkę promieniowania do zaledwie 10% obrazu CT, wyeliminować szum i może rekonstruować małe zmiany z akwizycji PET z przyspieszeniem 2 do 4 razy, jednocześnie redukując wpływ artefaktów ruchu.
Medyczna sztuczna inteligencja we współpracy z pracownikami służby zdrowia
Szybki rozwój medycznej sztucznej inteligencji sprawił, że lekarze zaczęli poważnie rozważać i badać możliwości współpracy ze sztuczną inteligencją w celu usprawnienia procesów klinicznych. W lipcu tego roku DeepMind i wieloośrodkowy zespół badawczy wspólnie zaproponowali system sztucznej inteligencji o nazwie Complementary Driven Clinical Workflow Delay (CoDoC). Proces diagnostyczny jest najpierw diagnozowany przez predykcyjny system sztucznej inteligencji, następnie oceniany przez inny system sztucznej inteligencji na podstawie poprzedniego wyniku, a jeśli istnieją wątpliwości, diagnozę ostatecznie stawia klinicysta, co poprawia dokładność diagnostyczną i równoważy wydajność. Jeśli chodzi o badania przesiewowe w kierunku raka piersi, CoDoC zmniejszyło wskaźniki wyników fałszywie dodatnich o 25% przy takim samym wskaźniku wyników fałszywie ujemnych, jednocześnie zmniejszając obciążenie pracą klinicystów o 66% w porównaniu z obecnym procesem „podwójnego odczytu arbitrażu” w Wielkiej Brytanii. Jeśli chodzi o klasyfikację gruźlicy, wskaźniki wyników fałszywie dodatnich zostały zmniejszone o 5 do 15 procent przy takim samym wskaźniku wyników fałszywie ujemnych w porównaniu z niezależnymi przepływami pracy opartymi na sztucznej inteligencji i klinicznej inteligencji.
Podobnie, Annie Y. Ng i wsp. z Kheiron Company w Londynie, Wielka Brytania, wprowadzili dodatkowych czytelników AI (we współpracy z ludzkimi badaczami), aby ponownie przeanalizować wyniki, gdy nie było wyników odwołania w procesie arbitrażu podwójnego odczytu, co poprawiło problem pominiętego wykrycia we wczesnych badaniach przesiewowych raka piersi, a proces prawie nie miał wyników fałszywie dodatnich. W innym badaniu, prowadzonym przez zespół z University of Texas McGovern Medical School i przeprowadzonym w czterech ośrodkach udarowych, zastosowano technologię AI opartą na angiografii tomografii komputerowej (CTA) w celu zautomatyzowania wykrywania dużego niedokrwiennego udaru niedokrwiennego (LVO). Klinicyści i radiolodzy otrzymują powiadomienia w czasie rzeczywistym na swoje telefony komórkowe w ciągu kilku minut od zakończenia obrazowania TK, informujące ich o możliwej obecności LVO. Ten proces AI usprawnia wewnątrzszpitalne przepływy pracy w przypadku ostrego udaru niedokrwiennego, skracając czas od przyjęcia do pachwiny do leczenia i zapewniając możliwości skutecznej akcji ratunkowej. Odkrycia opublikowano w JAMA Neurology.
Model opieki zdrowotnej oparty na sztucznej inteligencji zapewniający powszechne korzyści
Rok 2023 przyniesie również wiele udanych prac wykorzystujących medyczną sztuczną inteligencję do wyszukiwania cech niewidocznych dla ludzkiego oka w łatwiej dostępnych danych, umożliwiając powszechną diagnostykę i wczesne badania przesiewowe na dużą skalę. Na początku roku czasopismo Nature Medicine opublikowało badania przeprowadzone przez Zhongshan Eye Center Uniwersytetu Sun Yat-sena oraz Drugi Szpital Filadelfijski Uniwersytetu Medycznego w Fujianie. Wykorzystując smartfony jako terminale aplikacji, naukowcy wykorzystali obrazy wideo przypominające kreskówki, aby wywołać u dzieci ruchy gałek ocznych i zarejestrować ich ruchy gałek ocznych oraz rysy twarzy. Następnie przeanalizowali nieprawidłowe modele za pomocą modeli głębokiego uczenia, aby skutecznie zidentyfikować 16 chorób oczu, w tym zaćmę wrodzoną, opadanie powieki i jaskrę wrodzoną, ze średnią dokładnością badań przesiewowych przekraczającą 85%. Zapewnia to skuteczne i łatwe do upowszechnienia środki techniczne do wczesnego badania przesiewowego na dużą skalę upośledzenia funkcji wzrokowych u niemowląt i powiązanych z nimi chorób oczu.
Pod koniec roku czasopismo Nature Medicine opublikowało wyniki badań ponad 10 instytucji medycznych i badawczych na całym świecie, w tym Szanghajskiego Instytutu Chorób Trzustki i Pierwszego Szpitala Afiliowanego Uniwersytetu Zhejiang. Autor zastosował sztuczną inteligencję do badań przesiewowych raka trzustki u osób bezobjawowych w ośrodkach badań fizykalnych, szpitalach itp., aby wykryć cechy zmian na obrazach tomografii komputerowej, które są trudne do wykrycia gołym okiem, co pozwoliło na skuteczne i nieinwazyjne wczesne wykrywanie raka trzustki. Analizując dane ponad 20 000 pacjentów, model zidentyfikował również 31 przypadków klinicznie pominiętych zmian, co znacząco poprawiło wyniki leczenia.
Udostępnianie danych medycznych
W 2023 roku na całym świecie pojawiło się wiele udoskonalonych mechanizmów udostępniania danych i udanych przypadków ich wykorzystania, które zapewniają współpracę wielu ośrodków i otwartość danych w oparciu o zasadę ochrony prywatności i bezpieczeństwa danych.
Po pierwsze, dzięki samej technologii sztucznej inteligencji (AI), badacze AI przyczynili się do udostępniania danych medycznych. Qi Chang i inni naukowcy z Uniwersytetu Rutgersa w Stanach Zjednoczonych opublikowali artykuł w czasopiśmie „Nature Communications”, proponując federalną platformę uczenia się DSL opartą na rozproszonych syntetycznych sieciach adwersaryjnych, która wykorzystuje generatywną sztuczną inteligencję do trenowania konkretnych danych generowanych przez wiele ośrodków, a następnie zastępuje nimi rzeczywiste dane z wielu ośrodków. Zapewnienie trenowania sztucznej inteligencji w oparciu o wieloośrodkowe duże zbiory danych przy jednoczesnej ochronie prywatności danych. Ten sam zespół udostępnił również publicznie zbiór danych wygenerowanych obrazów patologicznych i odpowiadających im adnotacji. Model segmentacji trenowany na wygenerowanym zbiorze danych może osiągnąć podobne rezultaty jak w przypadku danych rzeczywistych.
Zespół Dai Qionghai z Uniwersytetu Tsinghua opublikował artykuł na temat npj Digital Health, proponując technologię Relay Learning, która wykorzystuje wieloośrodkowe dane big data do trenowania modeli AI, przy założeniu lokalnej suwerenności danych i braku połączeń sieciowych między lokalizacjami. Technologia ta równoważy kwestie bezpieczeństwa danych i prywatności z dążeniem do wydajności AI. Ten sam zespół następnie wspólnie opracował i zwalidował CAIMEN, system diagnostyki pan-TK klatki piersiowej w zakresie guzów śródpiersia, oparty na uczeniu się federalnym, we współpracy z Pierwszym Szpitalem Afiliowanym Uniwersytetu Medycznego w Kantonie i 24 szpitalami w całym kraju. System, który można zastosować do 12 typowych guzów śródpiersia, osiągnął o 44,9% lepszą dokładność, gdy był używany samodzielnie, niż gdy był obsługiwany wyłącznie przez ekspertów, oraz o 19% lepszą dokładność diagnozy, gdy eksperci byli wspierani przez niego.
Z drugiej strony, realizowanych jest kilka inicjatyw mających na celu budowę bezpiecznych, globalnych, wielkoskalowych zbiorów danych medycznych. W listopadzie 2023 roku Agustina Saenz i inni naukowcy z Wydziału Informatyki Biomedycznej Harvard Medical School opublikowali w Lancet Digital Health globalny framework do udostępniania danych obrazowania medycznego, zwany „Dane sztucznej inteligencji dla całej opieki zdrowotnej” (MAIDA). Współpracują z organizacjami opieki zdrowotnej na całym świecie, aby zapewnić kompleksowe wytyczne dotyczące gromadzenia danych i anonimizacji, wykorzystując szablon amerykańskiego Federalnego Partnera Demonstracyjnego (FDP) do standaryzacji udostępniania danych. Planują stopniowo udostępniać zbiory danych gromadzone w różnych regionach i placówkach klinicznych na całym świecie. Pierwszy zbiór danych ma zostać udostępniony na początku 2024 roku, a kolejne będą pojawiać się wraz z rozwojem partnerstwa. Projekt ten stanowi ważną próbę zbudowania globalnego, wielkoskalowego i zróżnicowanego zbioru publicznie dostępnych danych dotyczących sztucznej inteligencji.
W ślad za tą propozycją, brytyjski Biobank dał przykład. 30 listopada brytyjski Biobank opublikował nowe dane z sekwencjonowania całego genomu 500 000 swoich uczestników. Baza danych, która publikuje pełną sekwencję genomu każdego z 500 000 brytyjskich wolontariuszy, jest największą na świecie bazą danych kompletnego genomu ludzkiego. Naukowcy z całego świata mogą ubiegać się o dostęp do tych zanonimizowanych danych i wykorzystywać je do badania genetycznych podstaw zdrowia i chorób. Dane genetyczne zawsze były w przeszłości wysoce wrażliwe na weryfikację, a to historyczne osiągnięcie brytyjskiego Biobanku dowodzi, że możliwe jest zbudowanie otwartej, wolnej od prywatności, globalnej bazy danych o dużej skali. Dzięki tej technologii i bazie danych, medyczna sztuczna inteligencja z pewnością zapoczątkuje kolejny krok naprzód.
Weryfikacja i ocena sztucznej inteligencji medycznej
W porównaniu z szybkim rozwojem samej technologii medycznej sztucznej inteligencji, proces weryfikacji i oceny medycznej sztucznej inteligencji przebiega nieco wolniej. Walidacja i ocena w ogólnym obszarze sztucznej inteligencji często ignorują rzeczywiste potrzeby klinicystów i pacjentów w zakresie sztucznej inteligencji. Tradycyjne, randomizowane, kontrolowane badania kliniczne są zbyt pracochłonne, aby dorównać szybkiemu rozwojowi narzędzi sztucznej inteligencji. Jak najszybsze udoskonalenie systemu weryfikacji i oceny odpowiedniego dla medycznych narzędzi sztucznej inteligencji jest najważniejsze, aby umożliwić im prawdziwy skok z etapu badań i rozwoju do etapu klinicznego.
W artykule badawczym Google'a na temat Med-PaLM, opublikowanym w czasopiśmie Nature, zespół opublikował również test porównawczy MultiMedQA, który służy do oceny zdolności dużych modeli językowych do zdobywania wiedzy klinicznej. Test ten łączy sześć istniejących profesjonalnych zestawów danych pytań i odpowiedzi medycznych, obejmujących profesjonalną wiedzę medyczną, badania i inne aspekty, a także bazę danych z wyszukiwarką internetową pytań medycznych, uwzględniającą internetowe pytania i odpowiedzi lekarz-pacjent, starając się wyszkolić sztuczną inteligencję w kierunku wykwalifikowanego lekarza pod kątem wielu aspektów. Ponadto zespół proponuje ramy oparte na ocenie ludzkiej, uwzględniające wiele wymiarów faktów, zrozumienia, rozumowania i możliwych błędów. Jest to jedno z najbardziej reprezentatywnych badań nad oceną sztucznej inteligencji w opiece zdrowotnej opublikowanych w tym roku.
Czy jednak fakt, że duże modele językowe wykazują wysoki poziom kodowania wiedzy klinicznej, oznacza, że duże modele językowe są kompetentne w rzeczywistych zadaniach klinicznych? Tak jak student medycyny, który zda egzamin na lekarza z najwyższą oceną, wciąż jest daleki od zostania samodzielnym lekarzem naczelnym, tak kryteria oceny zaproponowane przez Google mogą nie być idealną odpowiedzią na temat oceny medycznych modeli AI. Już w 2021 i 2022 roku naukowcy zaproponowali wytyczne dotyczące raportowania, takie jak Decid-AI, SPIRIT-AI i INTRPRT, mając nadzieję na ukierunkowanie wczesnego rozwoju i walidacji medycznych modeli AI pod warunkiem uwzględnienia takich czynników, jak praktyczność kliniczna, bezpieczeństwo, czynniki ludzkie oraz przejrzystość/interpretowalność. Niedawno czasopismo Nature Medicine opublikowało badanie przeprowadzone przez naukowców z Uniwersytetu Oksfordzkiego i Uniwersytetu Stanforda na temat tego, czy stosować „walidację zewnętrzną”, czy „cykliczną walidację lokalną”. „Do walidacji narzędzi AI.
Bezstronność narzędzi AI to również ważny kierunek ewaluacji, który w tym roku przyciągnął uwagę zarówno w artykułach Science, jak i NEJM. AI często wykazuje stronniczość, ponieważ ogranicza się do danych treningowych. To stronniczość może odzwierciedlać nierówności społeczne, które z kolei przeradzają się w dyskryminację algorytmiczną. Narodowe Instytuty Zdrowia (NIH) niedawno uruchomiły inicjatywę Bridge2AI, której koszt szacowany jest na 130 milionów dolarów, mającą na celu zbudowanie zróżnicowanych zestawów danych (zgodnie z celami wspomnianej powyżej inicjatywy MAIDA), które mogą posłużyć do walidacji bezstronności medycznych narzędzi AI. Aspekty te nie są uwzględniane w MultiMedQA. Kwestia pomiaru i walidacji medycznych modeli AI nadal wymaga obszernej i dogłębnej dyskusji.
W styczniu czasopismo „Nature Medicine” opublikowało artykuł zatytułowany „Następna generacja medycyny opartej na dowodach” autorstwa Viveka Subbiaha z Centrum Onkologicznego MD Anderson na Uniwersytecie Teksańskim, w którym przeanalizowano ograniczenia badań klinicznych ujawnione w kontekście pandemii COVID-19 i wskazano na sprzeczność między innowacyjnością a przestrzeganiem procedur badań klinicznych. Na koniec wskazano na przyszłość restrukturyzacji badań klinicznych – kolejną generację badań klinicznych z wykorzystaniem sztucznej inteligencji, czyli wykorzystanie sztucznej inteligencji w oparciu o dużą liczbę historycznych danych badawczych, danych ze świata rzeczywistego, multimodalnych danych klinicznych oraz danych z urządzeń przenośnych w celu znalezienia kluczowych dowodów. Czy to oznacza, że technologia sztucznej inteligencji i procesy walidacji klinicznej z wykorzystaniem sztucznej inteligencji mogą się wzajemnie wzmacniać i ewoluować w przyszłości? To otwarte i skłaniające do refleksji pytanie na rok 2023.
Regulacja sztucznej inteligencji medycznej
Rozwój technologii AI stwarza również wyzwania dla regulacji AI, a decydenci na całym świecie reagują na nie z ostrożnością i ostrożnością. W 2019 roku FDA po raz pierwszy opublikowała Proponowane Ramy Regulacyjne dla Zmian Oprogramowania w Wyrobach Medycznych ze Sztuczną Inteligencją (Projekt Dyskusyjny), szczegółowo opisując potencjalne podejście do przeglądu przed wprowadzeniem na rynek modyfikacji oprogramowania opartych na AI i uczeniu maszynowym. W 2021 roku FDA zaproponowała „Plan Działania w zakresie Oprogramowania opartego na Sztucznej Inteligencji/Uczeniu Maszynowym jako Wyrobu Medycznego”, który doprecyzował pięć konkretnych środków regulacyjnych dotyczących AI w medycynie. W tym roku FDA ponownie opublikowała Zgłoszenie Przed Wprowadzeniem na Rynek dla Funkcji Oprogramowania Urządzeń, aby dostarczyć informacji na temat zaleceń przed wprowadzeniem na rynek w celu oceny przez FDA bezpieczeństwa i skuteczności funkcji oprogramowania urządzeń, w tym niektórych funkcji oprogramowania urządzeń, które wykorzystują modele uczenia maszynowego trenowane za pomocą metod uczenia maszynowego. Polityka regulacyjna FDA ewoluowała od wstępnej propozycji do praktycznych wytycznych.
Po opublikowaniu w lipcu ubiegłego roku Europejskiej Przestrzeni Danych Zdrowotnych (European Health Data Space), UE ponownie uchwaliła ustawę o sztucznej inteligencji (Artificial Intelligence Act). Pierwszy z nich ma na celu jak najlepsze wykorzystanie danych medycznych w celu zapewnienia wysokiej jakości opieki zdrowotnej, zmniejszenia nierówności oraz wsparcia danych na potrzeby profilaktyki, diagnostyki, leczenia, innowacji naukowych, podejmowania decyzji i prawodawstwa, przy jednoczesnym zapewnieniu obywatelom UE większej kontroli nad ich danymi osobowymi dotyczącymi zdrowia. Drugi z nich jasno wskazuje, że system diagnostyki medycznej jest systemem sztucznej inteligencji wysokiego ryzyka i wymaga ukierunkowanego, ścisłego nadzoru, nadzoru w całym cyklu życia produktu oraz nadzoru przed oceną. Europejska Agencja Leków (EMA) opublikowała projekt dokumentu analitycznego w sprawie wykorzystania sztucznej inteligencji (AI) do wspierania rozwoju, regulacji i stosowania leków, kładąc nacisk na poprawę wiarygodności AI w celu zapewnienia bezpieczeństwa pacjentów i integralności wyników badań klinicznych. Ogólnie rzecz biorąc, unijne podejście regulacyjne stopniowo nabiera kształtu, a ostateczne szczegóły wdrożenia mogą być bardziej szczegółowe i rygorystyczne. W całkowitym przeciwieństwie do rygorystycznych przepisów UE, brytyjski plan regulacyjny dotyczący sztucznej inteligencji jasno pokazuje, że rząd zamierza przyjąć łagodne podejście i na razie nie uchwalać nowych ustaw ani nie powoływać nowych organów regulacyjnych.
W Chinach Centrum Przeglądu Technicznego Urządzeń Medycznych (NMPA) Narodowej Administracji Produktów Medycznych opublikowało już dokumenty takie jak „Punkty przeglądu oprogramowania wspomagającego podejmowanie decyzji z wykorzystaniem głębokiego uczenia”, „Zasady przewodnie przeglądu rejestracji wyrobów medycznych ze sztuczną inteligencją (projekt do konsultacji)” oraz „Okólnik w sprawie zasad przewodnich klasyfikacji i definicji produktów oprogramowania medycznego ze sztuczną inteligencją (nr 47 z 2021 r.)”. W tym roku ponownie opublikowano „Podsumowanie pierwszych wyników klasyfikacji wyrobów medycznych w 2023 r.” Ta seria dokumentów sprawia, że definicja, klasyfikacja i regulacje dotyczące oprogramowania medycznego opartego na sztucznej inteligencji są bardziej przejrzyste i łatwiejsze w obsłudze, a także dostarcza jasnych wskazówek dotyczących pozycjonowania produktów i strategii rejestracyjnych różnych przedsiębiorstw w branży. Dokumenty te stanowią ramy i decyzje zarządcze dla naukowych regulacji wyrobów medycznych opartych na sztucznej inteligencji. Warto oczekiwać, że program Chińskiej Konferencji Sztucznej Inteligencji Medycznej, która odbyła się w Hangzhou w dniach 21-23 grudnia, obejmował specjalne forum poświęcone cyfrowemu zarządzaniu medycznemu i wysokiej jakości rozwojowi szpitali publicznych oraz forum rozwoju branży standaryzacji technologii testowania i oceny wyrobów medycznych opartych na sztucznej inteligencji. W spotkaniu wezmą udział przedstawiciele Narodowej Komisji Rozwoju i Reform oraz NMPA, którzy mogą ujawnić nowe informacje.
Wniosek
W 2023 roku medyczna sztuczna inteligencja (AI) zaczęła integrować się z całym procesem medycznym, zarówno w górę, jak i w dół, obejmując gromadzenie danych szpitalnych, ich fuzję, analizę, diagnostykę i leczenie oraz badania przesiewowe w społecznościach, a także organicznie współpracując z pracownikami służby zdrowia/kontroli chorób, co wskazuje na potencjał w zakresie poprawy zdrowia ludzi. Rozpoczynają się badania nad użyteczną medyczną AI. W przyszłości postęp w dziedzinie AI zależy nie tylko od samego rozwoju technologicznego, ale także od pełnej współpracy przemysłu, uniwersytetów i badań medycznych oraz wsparcia decydentów i organów regulacyjnych. Ta międzydomenowa współpraca jest kluczem do osiągnięcia zintegrowanych z AI usług medycznych i z pewnością przyczyni się do rozwoju zdrowia ludzi.
Czas publikacji: 30 grudnia 2023 r.




