Prywatność danych pacjenta a komercyjne narzędzia AI — ryzyka prawne i kliniczne
Wklejanie notatek z sesji do ChatGPT, prośba o streszczenie historii klinicznej, używanie asystentów AI do formułowania zaleceń lub pism do NFZ — te praktyki stały się powszechne w gabinetach psychologicznych i psychiatrycznych. Problem nie polega wyłącznie na tym, że model może wygenerować błędną odpowiedź. Problem polega na tym, że dane pacjenta w rozumieniu prawa przestają być danymi pacjenta, gdy trafią do infrastruktury komercyjnego dostawcy bez spełnienia warunków wymaganych przez RODO. Skala tego ryzyka — prawnego, etycznego i klinicznego — pozostaje w Polsce niedostatecznie omawiana.
Dane medyczne jako kategoria szczególna — co mówi RODO
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (RODO) wyodrębnia dane dotyczące zdrowia jako szczególną kategorię danych osobowych (art. 9). Ich przetwarzanie jest co do zasady zakazane, chyba że spełniony jest jeden z warunków wyliczonych w art. 9 ust. 2 — najczęściej cel diagnostyczny lub terapeutyczny (ust. 2 lit. h) albo wyraźna zgoda osoby (ust. 2 lit. a). Obie podstawy są ściśle interpretowane: zgoda musi być dobrowolna, konkretna i świadoma — a zgoda na leczenie nie obejmuje automatycznie zgody na przekazanie danych do systemu AI obsługiwanego przez podmiot trzeci.
Kluczowe pytanie, które klinicysta powinien postawić przed użyciem zewnętrznego narzędzia AI z danymi pacjenta, brzmi: czy istnieje zawarta umowa powierzenia przetwarzania danych (art. 28 RODO) z dostawcą tego narzędzia? Żaden standardowy regulamin ChatGPT, Claude ani Gemini dostępny przez interfejs webowy nie stanowi takiej umowy. Oznacza to, że przekazanie danych identyfikujących pacjenta tym narzędziom jest — przy braku odrębnych ustaleń kontraktowych — niezgodne z RODO, niezależnie od intencji klinicysty.
Europejska Rada Ochrony Danych (EDPB) zajęła się tym problemem bezpośrednio. W maju 2024 roku opublikowała raport ChatGPT Task Force, który oceniał OpenAI pod kątem zgodności z RODO w kilku krajowych postępowaniach nadzorczych. W grudniu 2024 roku EDPB wydała Opinię 28/2024 w sprawie modeli AI i ochrony danych osobowych — precyzując m.in., że podmioty wdrażające modele AI (a więc w kontekście klinicznym: sam klinicysta lub placówka) ponoszą własne obowiązki due diligence: muszą zbadać, skąd pochodzą dane treningowe modelu i czy jego tworzenie odbyło się zgodnie z prawem. Obowiązek ten spoczywa na wdrażającym, nie tylko na dostawcy modelu.
Nową warstwą regulacyjną dla danych zdrowotnych jest Rozporządzenie (UE) 2025/327 w sprawie Europejskiej Przestrzeni Danych Dotyczących Zdrowia (European Health Data Space, EHDS), przyjęte w lutym 2025 roku i obowiązujące od marca 2025 roku. EHDS ustanawia dodatkowe ramy dla pierwotnego i wtórnego przetwarzania elektronicznych danych zdrowotnych — obejmujące prawa pacjentów do dostępu do własnych danych oraz zasady udostępniania danych do badań i innowacji. Kluczowe przepisy dotyczące stosowania EHDS w praktyce wejdą w życie dopiero od marca 2029 roku, niemniej EHDS już teraz sygnalizuje, że UE buduje kolejną, specyficzną warstwę zgodności dla danych zdrowotnych — nakładającą się na RODO, nie zastępującą go.
Jak komercyjne narzędzia AI przetwarzają dane użytkowników
Modele dostępne przez interfejsy webowe i modele dostępne przez API różnią się warunkami przetwarzania danych. W trybie domyślnym większość konsumenckich chatbotów:
- przechowuje historię konwersacji przez okresy określone w polityce prywatności dostawcy — które mogą wynosić od kilku miesięcy do nieokreślonego czasu;
- może wykorzystywać konwersacje do doskonalenia modelu (fine-tuning, reinforcement learning from human feedback), chyba że użytkownik aktywnie wyłączył tę opcję;
- przetwarza dane na infrastrukturze dostawcy — co oznacza, że dane opuszczają urządzenie klinicysty, nawet jeśli nie są archiwizowane do treningu.
Warstwa enterprise lub dostęp przez API wielu dostawców (np. OpenAI Enterprise, API Anthropic) oferuje formalniejsze warunki: zobowiązania dotyczące braku trenowania na danych klienta, standardowe klauzule umowne (SCC) dla transferów do USA, okresy retencji ograniczone do dni. Nie oznacza to jednak automatycznej zgodności z RODO w kontekście danych zdrowotnych — taki dostęp nadal wymaga wdrożenia oceny skutków dla ochrony danych (Data Protection Impact Assessment, DPIA) i formalnej umowy powierzenia po stronie organizacji.
Transfer danych do państw trzecich
Większość komercyjnych dostawców AI to firmy zarejestrowane w Stanach Zjednoczonych. Transfer danych osobowych z UE do USA wymaga odrębnej podstawy prawnej z rozdziału V RODO — niezależnie od podstawy przetwarzania samych danych. Po unieważnieniu Tarczy Prywatności przez Trybunał Sprawiedliwości UE (Schrems II, 2020) ramy prawne były przez lata niestabilne.
Od lipca 2023 roku obowiązuje decyzja adekwatności Komisji Europejskiej dla Ram Ochrony Danych UE-USA (EU-US Data Privacy Framework, DPF). Firmy certyfikowane w ramach DPF mogą legalnie przyjmować dane osobowe z UE. Część czołowych dostawców AI posiada takie certyfikacje. Ważność DPF pozostaje jednak przedmiotem aktywnego postępowania sądowego: we wrześniu 2025 roku Sąd Ogólny UE oddalił skargę posła Latombe, ale od października 2025 sprawa jest rozpatrywana w odwołaniu przez Trybunał Sprawiedliwości UE (C-703/25 P) — dokładnie na tym samym szczeblu sądowym, na którym upadły Safe Harbor i Privacy Shield. Dodatkowym czynnikiem niepewności jest to, że kluczowy mechanizm nadzorczy DPF po stronie USA — Sąd ds. Przeglądu Ochrony Danych (Data Protection Review Court) — istnieje wyłącznie na podstawie rozporządzenia wykonawczego prezydenta, bez podstawy ustawowej, i może zostać odwołany w każdej chwili.
Istotne jest też to, że transfer danych zdrowotnych wymaga spełnienia dwóch niezależnych warunków jednocześnie: podstawy prawnej dla transferu do państwa trzeciego oraz podstawy prawnej dla przetwarzania szczególnej kategorii danych z art. 9 ust. 2 RODO. Spełnienie wymagań DPF w żaden sposób nie zastępuje tego drugiego warunku.
Ryzyko reidentyfikacji — gdy „zanonimizowane" dane takie nie są
Powszechnym kontrargumentem jest: „Nie podaję nazwiska pacjenta ani peselu, zmieniam kilka szczegółów". Badania nad reidentyfikacją danych pozornie zanonimizowanych konsekwentnie pokazują, że poziom ochrony osiągnięty przez usunięcie oczywistych identyfikatorów jest znacznie niższy, niż intuicja podpowiada.
W kontekście psychiatrycznym i psychologicznym dane narracyjne — opisy objawów, historia życia, informacje o relacjach, traumach i wydarzeniach — są wyjątkowo bogate w quasi-identyfikatory, których zestawienie umożliwia identyfikację konkretnej osoby w zbiorach rejestrowych lub rejestrach instytucjonalnych. Kombinacja takich elementów jak wiek przybliżony, płeć, lokalizacja (nawet miasto), diagnoza, sytuacja zawodowa i aktualny kryzys może być wystarczająca do reidentyfikacji — szczególnie w mniejszych środowiskach lub przy dostępie do dokumentacji medycznej instytucji. Warto przy tym pamiętać, że pojęcie „danych dotyczących zdrowia" z art. 4 pkt 15 RODO jest interpretowane szeroko: obejmuje nie tylko dane jednoznacznie medyczne, lecz każdą informację, z której stan zdrowia osoby może zostać wywnioskowany — w tym opisy zachowań, funkcjonowania czy trudności życiowych.
Anonimizacja spełniająca wymogi RODO to pojęcie prawne o wysokim progu: dane są zanonimizowane dopiero wtedy, gdy nie można zidentyfikować osoby przy użyciu wszelkich rozsądnych środków — zarówno przez administratora, jak i przez kogokolwiek innego. Rzetelne osiągnięcie tego progu dla narracji klinicznych wymagałoby systematycznego procesu de-identyfikacji, który w praktyce nie jest przeprowadzany „w locie" przed wklejeniem tekstu do chatbota.
EU AI Act a systemy stosowane w ochronie zdrowia
Rozporządzenie w sprawie sztucznej inteligencji (Rozporządzenie (UE) 2024/1689, tzw. AI Act) weszło w życie w sierpniu 2024 roku i jest stosowane etapami. Klasyfikacja AI jako systemu wysokiego ryzyka w kontekście medycznym przebiega dwoma torami. Pierwszy obejmuje systemy AI będące komponentami wyrobów medycznych regulowanych unijnym rozporządzeniem MDR (2017/745) lub IVDR (2017/746) — takie systemy są wysokiego ryzyka z mocy art. 6 ust. 1 AI Act w związku z Załącznikiem I, niezależnie od Załącznika III. Drugi tor, wynikający z Załącznika III, dotyczy węższych przypadków, m.in. systemów AI do oceny i klasyfikacji wezwań alarmowych (w tym ratunkowego triażu pacjentów) oraz systemów do wyceny ryzyka w ubezpieczeniach zdrowotnych. Ogólne narzędzia wspomagające diagnostykę kliniczną, które nie kwalifikują się jako wyrób medyczny w rozumieniu MDR, nie są automatycznie objęte Załącznikiem III.
Dostawcy systemów wysokiego ryzyka będą podlegać wymogom dotyczącym zarządzania ryzykiem, przejrzystości, jakości danych, dokumentacji technicznej i nadzoru ludzkiego — jednak obowiązki te dla systemów z Załącznika III nie weszły jeszcze w pełni w życie. Pierwotny termin to 2 sierpnia 2026 roku, ale w maju 2026 roku osiągnięto wstępne porozumienie w ramach tzw. Digital Omnibus, które — po formalnym przyjęciu — przesuwa ten termin do 2 grudnia 2027 roku dla samodzielnych systemów wysokiego ryzyka z Załącznika III oraz 2 sierpnia 2028 roku dla systemów wbudowanych w produkty z Załącznika I. Niezależnie od ostatecznej daty: komercyjne chatboty ogólnego przeznaczenia nie są i nie będą certyfikowane jako systemy wysokiego ryzyka w zastosowaniach klinicznych. Klinicysta stosujący ChatGPT lub Gemini do wspomagania diagnostyki działa poza ramą regulacyjną, którą AI Act przeznaczył dla tej klasy zastosowań.
Co z pytaniami klinicznymi bez danych pacjenta
Warto wyraźnie rozdzielić dwa typy użycia. Pytania kliniczne sformułowane ogólnie — bez jakichkolwiek danych identyfikujących ani opisowych dotyczących konkretnego pacjenta — nie stwarzają ryzyka ochrony danych osobowych. Pytanie „jakie są dowody na skuteczność terapii dialektyczno-behawioralnej w zaburzeniu borderline?" nie jest czynnością przetwarzania danych pacjenta i może być kierowane do narzędzi ogólnych, z zastrzeżeniem innych ryzyk (jak halucynacje cytatów, omówione w osobnym wpisie).
Problem powstaje wtedy, gdy do zapytania trafiają informacje umożliwiające — bezpośrednio lub pośrednio — identyfikację osoby: wiek, płeć, diagnoza, historia, opis sytuacji życiowej, cytaty z sesji, fragmenty dokumentacji. Im bogatszy kontekst kliniczny, tym wyższe ryzyko reidentyfikacji i tym bardziej jednoznaczne naruszenie RODO.
Praktyczne wnioski dla klinicysty
Na podstawie powyższego można sformułować kilka zasad:
- Nie wprowadzaj do komercyjnych chatbotów danych identyfikujących pacjenta ani narracji klinicznych wystarczająco szczegółowych, by umożliwić reidentyfikację — bez uprzednio zawartej umowy powierzenia i przeprowadzonej DPIA.
- Pytania kliniczne sformułowane ogólnie są bezpieczne pod względem ochrony danych — ale niezależnie wymagają weryfikacji odpowiedzi pod kątem rzetelności cytowań.
- Wyłączenie historii konwersacji w interfejsie chatbota zmniejsza retencję, ale nie eliminuje przetwarzania danych przez infrastrukturę dostawcy w trakcie sesji.
- Przy planowanym wdrożeniu AI z dostępem do dokumentacji pacjentów w organizacji konieczna jest DPIA, umowa powierzenia przetwarzania (art. 28 RODO), weryfikacja certyfikacji dostawcy w ramach DPF (lub alternatywnej podstawy transferu) oraz ocena zgodności narzędzia z wymogami AI Act dla systemów wysokiego ryzyka.
- Narzędzia dedykowane klinicystom powinny jasno określać podstawę prawną przetwarzania danych, lokalizację serwerów, politykę retencji i procedury zgodności z RODO — i udostępniać te informacje w sposób weryfikowalny.
Artykuł ma charakter informacyjny i nie stanowi porady prawnej. W sprawach wdrożenia AI w placówce klinicznej skonsultuj się z inspektorem ochrony danych lub radcą prawnym.
Jeśli pracujesz klinicznie z osobami neuroatypowymi — Diagwise to narzędzie, które budujemy z myślą o Tobie. Oparte na RAG, z literaturą, którą możesz zweryfikować.