GenAI i duże modele językowe w medycynie — czy regulacje nadążają za innowacjami?
Generatywna sztuczna inteligencja (GenAI) oraz duże modele językowe (LLM) – takie jak GPT, Claude czy MedPaLM – zaczynają coraz szerzej wchodzić do systemów ochrony zdrowia. Wykorzystywane są do analizy dokumentacji medycznej, wsparcia decyzji klinicznych, interpretacji obrazów diagnostycznych, tworzenia podsumowań historii chorób czy wspierania komunikacji z pacjentem.
Potencjał tych narzędzi jest ogromny: mogą przyspieszyć diagnostykę, zmniejszyć koszty i odciążyć lekarzy. Ale wraz z ich gwałtownym rozwojem pojawia się kluczowe pytanie — czy obecne regulacje prawne i standardy nadzoru są wystarczające, by chronić pacjentów i zapewnić bezpieczeństwo?
Dlaczego GenAI wymaga nowych ram regulacyjnych
Tradycyjne podejście do certyfikacji i dopuszczania wyrobów medycznych opiera się na ich statycznym charakterze. AI — a w szczególności GenAI i LLM — działa zupełnie inaczej:
- Uczenie się w czasie rzeczywistym – modele mogą zmieniać swoje działanie po wdrożeniu, co utrudnia klasyczną walidację.
- Brak przejrzystości działania – modele są często „czarnymi skrzynkami”, co utrudnia ocenę, jak powstają wyniki.
- Ryzyko halucynacji i błędów – GenAI potrafi tworzyć błędne lub nieistniejące informacje z dużym przekonaniem.
- Problemy z ochroną danych – konieczność przetwarzania ogromnych zbiorów danych medycznych rodzi ryzyko naruszeń prywatności.
- Trudności w przypisaniu odpowiedzialności prawnej – w razie błędu trudno ustalić, kto ponosi winę: lekarz, producent, szpital, a może sam system AI?
Z tych powodów wiele ekspertów wskazuje, że potrzebne są nowe, dedykowane ramy regulacyjne dla GenAI w ochronie zdrowia.
Jak wygląda sytuacja w Europie i w Polsce
W Unii Europejskiej trwają intensywne prace nad regulacją sztucznej inteligencji w medycynie:
- AI Act – unijne rozporządzenie dotyczące sztucznej inteligencji (wchodzi w życie etapami od 2025) klasyfikuje systemy AI używane w ochronie zdrowia jako „wysokiego ryzyka”. Będą wymagały rygorystycznej oceny zgodności, dokumentacji i monitoringu po wdrożeniu.
- Rozporządzenie MDR (Medical Device Regulation) – już obecnie obejmuje część systemów AI traktując je jako wyroby medyczne oprogramowania (Software as a Medical Device, SaMD).
- Polska – nie ma jeszcze własnych dedykowanych przepisów dotyczących AI w medycynie, ale stosuje przepisy unijne. Ministerstwo Zdrowia i Urząd Rejestracji Produktów Leczniczych dopiero zaczynają tworzyć procedury oceny systemów AI.
Brakuje jednak szczegółowych wytycznych dotyczących oceny jakości i bezpieczeństwa LLM oraz mechanizmów ciągłego nadzoru nad ich działaniem w środowisku klinicznym.
Co rekomendują eksperci
Najnowszy raport międzynarodowego zespołu badaczy pt. Regulatory Science Innovation for Generative AI and Large Language Models in Health and Medicine wskazuje, że potrzebne są następujące działania:
- stworzenie regulacyjnych piaskownic (regulatory sandboxes), gdzie nowe modele mogą być testowane w warunkach klinicznych pod nadzorem,
- wprowadzenie obowiązkowych audytów algorytmów i danych treningowych,
- opracowanie standardów jakości i wskaźników wydajności dla modeli GenAI,
- zapewnienie transparentności działania modeli i publikowanie informacji o ich ograniczeniach,
- rozwijanie szkoleń i certyfikacji dla lekarzy oraz twórców AI,
- ustanowienie mechanizmów odpowiedzialności prawnej i etycznej dla błędów systemów AI.
Dlaczego Polska musi działać szybko
Polska ma dynamicznie rozwijający się sektor nowych technologii medycznych, w tym wiele start-upów AI i projekty akademickie. Jednak brak jasnych regulacji może:
- zniechęcać inwestorów i partnerów zagranicznych,
- utrudniać dopuszczanie nowych rozwiązań do użytku klinicznego,
- narażać pacjentów na ryzyko wynikające z braku walidacji,
- powodować niepewność prawną i etyczną wśród lekarzy.
Wprowadzenie jasnych zasad certyfikacji, nadzoru i odpowiedzialności pozwoliłoby Polsce wykorzystać potencjał AI w medycynie bez zwiększania ryzyka dla bezpieczeństwa pacjentów.
Podsumowanie
Generatywna sztuczna inteligencja i duże modele językowe to przyszłość medycyny — ale ich potencjał nie może być realizowany kosztem bezpieczeństwa pacjentów. Obecne ramy prawne są niewystarczające, a Polska i Unia Europejska stoją przed wyzwaniem stworzenia nowych zasad, które nadążą za tempem innowacji.
To moment, by połączyć innowacje z odpowiedzialnością i zbudować bezpieczne ramy dla medycznej sztucznej inteligencji.
Bibliografia
- Liang H., Tsui B.Y., Ni H. et al. Regulatory Science Innovation for Generative AI and Large Language Models in Health and Medicine: A Global Call for Action. arXiv. 2025.
- European Union. Artificial Intelligence Act (AI Act). Official Journal of the European Union. 2024.
- European Commission. Medical Device Regulation (MDR) — Regulation (EU) 2017/745.
- Topol E. High-performance medicine: the convergence of human and artificial intelligence. Nature Medicine. 2019.
- WHO. Ethics and governance of artificial intelligence for health: WHO guidance. Geneva, 2023.
To też może Cię zainteresować:

Odnośnik zwrotny: Zmiany w rozporządzeniu w sprawie standardu organizacyjnego opieki okołoporodowej