Market insights
Wpływ AI Act na rozwój technologii medycznych
- Regulacje
Na przestrzeni ostatnich tygodni jesteśmy wręcz bombardowani doniesieniami dotyczącymi negocjacji AI Act. Temat budzi uzasadnione emocje, ponieważ od treści i skuteczności egzekwowania zapisów nowego prawa zależeć będzie zakres możliwości wykorzystywania Sztucznej Inteligencji (SI) w gospodarce, w tym w branży medycznej. Pojawiają się pytania o potencjalne ograniczanie prac B+R nad technologiami medycznymi wspieranymi przez Sztuczną Inteligencję, a także miejscem AI Act w kontekście obowiązującego prawodawstwa m. in. regulacji MDR/IVDR.
Można zidentyfikować obszary, w których medyczne zastosowanie SI teoretycznie nie powinno budzić większych kontrowersji. Wykorzystanie narzędzi opartych na SI do analizy obrazów radiologicznych i ultrasonograficznych czy tkanek patologicznych może niebawem wejść do standardowej praktyki lekarskiej, zwiększając jej efektywność. Niemniej jednak zakładamy, że będzie to narzędzie pozbawione autonomii działania, jedynie wspierające personel medyczny w diagnozie lub procesie leczenia.
Liczba pytań związanych ze stosowaniem Sztucznej Inteligencji w medycynie rośnie lawinowo wraz ze zmniejszaniem roli człowieka. Pojawiają się m. in. kwestie etyczne, związane z odpowiedzialnością. Jak wskazuje prof. Marek Krawczyk z Kliniki Chirurgii Ogólnej, Transplantacyjnej i Wątroby, dziekan Wydziału Medycznego PAN: „Mam na myśli sytuację, w której robot na podstawie rozpoznania wykonuje operację. Ten robot prawdopodobnie bardzo dobrze zdiagnozuje pacjenta i wykona operację.
Jest jednak jedno „ale”. Co robić, gdy pojawi się problem albo powikłanie? Kto ma to naprawić? Czy pojawi się kolejny robot? I gdzie jest etyka? Kto odpowiada wobec tego pacjenta?”. Innym, potencjalnie problematycznym zagadnieniem, może być wykorzystywanie SI w procesie badawczo-rozwojowym. Jak podchodzić do tematu regulacji leków czy wyrobów medycznych, opracowanych przez Sztuczna Inteligencję? Czy zdolności predykcyjne zaawansowanych algorytmów symulujących warunki rzeczywiste, pozwolą na wyeliminowanie prowadzenia badań przedklinicznych? Te pytania mogą okazać się niebawem jednymi z najbardziej aktualnych i skomplikowanych kwestii w rozwoju medycyny, a to dopiero „wierzchołek góry lodowej” jaką jest Sztuczna Inteligencja w technologiach medycznych.
Technologie medyczne w klasyfikacji zaproponowanej przez AI Act
Podstawą klasyfikacji systemów wykorzystujących Sztuczną Inteligencję w proponowanej treści AI Act jest poziom generowanego ryzyka. Wyodrębniono jego cztery poziomy:
- Niedopuszczalne ryzyko
- Wysokie ryzyko
- Ograniczone ryzyko
- Minimalne lub żadne ryzyko
Im wyższy poziom ryzyka będzie generowany przez dany system, tym bardziej restrykcyjne regulacje będą go obejmowały, przykładowo: systemy generujące niedopuszczalne ryzyko będą zabronione.
Zgodnie z informacjami publikowanymi przez Parlament Europejski i Komisję Europejską, należy spodziewać się, że technologie medyczne wykorzystujące SI, w istotnej większości klasyfikowane będą jako systemy wysokiego ryzyka. Poziom ten obejmuje kilka kategorii systemów Sztucznej Inteligencji, w tym:
- systemy SI stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów (https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A02001L0095-20100101) m. in. są to wyroby medyczne;
- systemy SI wykorzystywane w komponentach bezpieczeństwa produktów, m. in. wspomniane powyżej zastosowanie SI w chirurgii wspomaganej robotem.
Ponadto, wprowadzane przepisy prawa mają zagwarantować, że systemy SI będą nadzorowane przez ludzi, a nie w pełni autonomiczne. Wszystkie systemy SI spełniające przesłanki do generowania wysokiego ryzyka mają być oceniane przed wprowadzeniem ich na rynek, a także przez cały cykl ich życia. W efekcie, firmy działające w sektorze technologii medycznych będą zobligowane do udoskonalenia wdrażanych systemów zarządzania jakością i ryzykiem, tak by uwzględniały one zapisy AI Act.
Zależności pomiędzy proponowanym AI Act a regulacjami MDR/IVDR
Głównym celem AI Act jest zdefiniowanie ogólnych ram dla stosowania systemów SI w taki sposób, by były one bezpieczne, przejrzyste, identyfikowalne i niedyskryminujące. Nie definiuje jednak wprost metod służących osiągnięciu tego celu ani nie koncentruje się na żadnym konkretnym sektorze – w przeciwieństwie do regulacji MDR/IVDR.
Kluczowym wnioskiem, który płynie z analizy obowiązujących regulacji i zapowiedzi dotyczących AI Act jest rozbieżność w definicjach pojęcia „wysokiego ryzyka”. Większość wyrobów medycznych i wyrobów do diagnostyki in vitro, które wchodzą w zakres AI Act, zostanie sklasyfikowana jako produkty wysokiego ryzyka, nawet jeśli nie są to produkty wysokiego ryzyka w rozumieniu przepisów MDR/IVDR.
Jeżeli AI Act zostanie przyjęty w obecnym brzmieniu, wszystkie objęte nim wyroby medyczne oraz wyroby do diagnostyki in vitro, zostaną sklasyfikowane jako produkty wysokiego ryzyka. W tym miejscu zaznaczyć należy, że AI Act najprawdopodobniej nie będzie obejmował jedynie produktów niewymagających przeprowadzenia oceny zgodności przez jednostkę notyfikowaną. Oznacza to, że klasyfikacja wysokiego ryzyka może stać się w branży medycznej powszechna.
Podsumowanie
Korzyści płynące z wprowadzania systemów SI w technologiach medycznych mogą być spektakularne, jednak nie powinny przysłonić nam towarzyszących im ryzyk. Zagadnienie to zostało już dostrzeżone przez European Innovation Council – w dokumentacji konkursu EIC Accelerator mamy serię pytań odnoszących się do wykorzystywania Sztucznej Inteligencji w projektach i związanych z nią aspektów etycznych.
Kwestią czasu jest pojawienie się podobnych zagadnień w krajowych konkursach dotacyjnych, organizowanych przez NCBR czy PARP. Uważna analiza AI Act, a także innych regulacji, ustaw czy standardów, które z pewnością będą w najbliższych miesiącach i latach publikowane, stanowi bazę dla rozwoju innowacji wykorzystujących algorytmy Sztucznej Inteligencji.