Di­gi­ta­li­sie­rung vor­an­trei­ben

Die Di­gi­ta­li­sie­rung er­öff­net auch im Ge­sund­heits­be­reich ganz neue Mög­lich­kei­ten: vom In­for­ma­ti­ons- bzw. Er­kennt­nis­ge­winn über ei­ne Da­ten­er­fas­sung, -spei­che­rung und -ver­ar­bei­tung in Echt­zeit ein­schließ­lich der Kom­mu­ni­ka­ti­on für Fra­gen zur Dia­gno­se und The­ra­pie (u. a. über­grei­fen­de The­ra­pie­an­sät­ze, Ver­mei­dung all­er­gi­scher Re­ak­tio­nen etc.) bis hin zu neu­en For­schungs­an­sät­zen mit Big-Da­ta-Me­tho­den oder KI-Sys­te­men in un­ter­stüt­zen­de Funk­ti­on bei Dia­gno­se, Ent­schei­dungs­fin­dung (z. B. Ana­ly­se/In­ter­pre­ta­ti­on der Da­ten aus bild­ge­ben­den Ver­fah­ren) und The­ra­pie (Bei­spiel: rech­ner­ge­stütz­te Chir­ur­gie).

 

Auch für ad­mi­nis­tra­ti­ve Pro­zes­se kön­nen sich durch ei­ne in­tel­li­gen­te Da­ten­aus­wer­tung neue Mög­lich­kei­ten er­ge­ben: Bis­her ist z. B. die Plan­bar­keit von Arzt­ter­mi­nen im Hin­blick auf den Zeit­be­darf nur ein­ge­schränkt ge­ge­ben. Wäh­rend das beim Ra­dio­lo­gen noch ver­gleichs­wei­se ein­fach mög­lich ist, ist beim Or­tho­pä­den nur ab­seh­bar, dass Erst­kon­tak­te län­ger dau­ern als Fol­ge­kon­tak­te. Der Ein­satz von Big-Da­ta-Me­tho­den könn­te die Tria­ge maß­geb­lich ver­bes­sern und da­mit auch ei­nen Bei­trag zur schnel­le­ren Ter­min­ver­ga­be bzw. bes­se­ren Ter­mi­nal­lo­ka­ti­on zur Ver­rin­ge­rung der War­te­zei­ten leis­ten.

 

Die­se Ge­bie­te, in de­nen der Ein­satz di­gi­ta­ler Tech­ni­ken im Ge­sund­heits­we­sen wirkt, sind nicht un­ab­hän­gig von­ein­an­der, son­dern be­ein­flus­sen sich ge­gen­sei­tig, wie es dem We­sen der Di­gi­ta­li­sie­rung ent­spricht (vgl. auch die Gra­fik un­ten bei Syn­er­gi­en he­ben).

Tech­ni­sche Vor­keh­run­gen ge­gen An­grif­fe von au­ßen und Miss­brauch von in­nen müs­sen ei­ne Selbst­ver­ständ­lich­keit sein. Die ge­setz­li­chen Vor­ga­ben se­hen in­so­weit ei­nen ein­deu­ti­gen Rah­men und er­heb­li­che Sank­tio­nen vor. Die Ein­hal­tung muss – ins­be­son­de­re auch bei staat­li­chen An­ge­bo­ten – kon­se­quent ge­währ­leis­tet wer­den, um kein Ver­trau­en zu ver­spie­len.

Es muss ein ge­stuf­tes Klas­si­fi­zie­rungs­ver­fah­ren für E-Health-Apps vor­ge­se­hen wer­den, das die Er­for­der­nis ei­ner for­ma­len Markt­zu­las­sung vom Ri­si­ko der An­wen­dung für den Nut­zer ab­hän­gig macht: von der Zu­las­sungs­frei­heit für Pro­duk­te, die nur in­for­mie­ren oder dem Nut­zer ei­ne Da­ten­samm­lung im Sin­ne ei­nes elek­tro­ni­schen Ta­ge­buchs er­mög­li­chen bis hin zur Zu­las­sungs­pflicht mit Nach­wei­sen zur Si­cher­heit bei der Ver­wen­dung für Dia­gno­se- und The­ra­pie­zwe­cke bzw. als Er­satz für ärzt­li­che Leis­tun­gen.

 

Zum Be­leg der me­di­zi­ni­schen Wirk­sam­keit neu­er, di­gi­tal ge­stütz­ter Ver­sor­gungs­kon­zep­te müs­sen kli­ni­sche Stu­di­en durch­ge­führt und ge­för­dert wer­den. Auch der mo­dell­haf­te Ein­satz di­gi­ta­ler In­no­va­tio­nen in der Ver­sor­gung (am­bu­lant, sta­tio­när und in­ter­sek­to­ral) soll­te wei­ter un­ter­stützt wer­den, um den ge­sund­heits­öko­no­mi­schen Nut­zen neu­ar­ti­ger in­te­grier­ter Ver­sor­gungs­pro­zes­se zu be­le­gen.

Wenn wir nicht ler­nen, den Roh­stoff Da­ten zu nut­zen, wer­den wir in­ter­na­tio­nal ab­ge­hängt.

 

Der Ein­satz von Big Da­ta bzw. künst­li­cher In­tel­li­genz ver­spricht zu­sätz­li­che Er­kennt­nis­se bei ei­ner we­ni­ger auf­wen­di­gen Ge­win­nung als mit kli­ni­schen Stu­di­en bzw. ei­ne Op­ti­mie­rung der kli­ni­schen For­schung und Stu­di­en. Bei­spie­le sind neue The­ra­pie­an­sät­zen (z. B. Ge­nom­se­quen­zie­rung, Stoff­wech­sel­pro­zes­se in der Krebs­the­ra­pie) und die Un­ter­stüt­zung durch di­gi­ta­le As­sis­tenz­sys­te­me.

 

Die Da­ten­aus­wer­tung wird erst mit den Pri­mär­da­ten des Pa­ti­en­ten wirk­lich wert­voll. Ge­gen­wär­tig sind al­ler­dings Ab­rech­nungs­da­ten die ein­zi­ge struk­tu­rier­te und stan­dar­di­sier­te Da­ten­quel­le. Ide­al ist ei­ne Kom­bi­na­ti­on von kli­ni­schen In­for­ma­tio­nen mit ge­ne­ti­schen so­wie sons­ti­gen In­for­ma­tio­nen (z. B. aus Weara­bles).

 

An­for­de­run­gen an die An­ony­mi­sie­rung (Pro­blem der Re-Iden­ti­fi­zie­rung) dür­fen nicht über­spannt wer­den. Da­ten­schutz und Da­ten­si­cher­heit sind im­mer (Ri­si­ko-)Ab­wä­gungs­pro­zes­se, die nicht los­ge­löst von der Fra­ge der Nütz­lich­keit ent­schie­den wer­den kön­nen. Wo das Da­ten­schutz­recht in die­sem Sin­ne zu en­ge Gren­zen setzt, muss nach­ge­steu­ert wer­den.

 

Ein wei­te­res wich­ti­ges Ein­satz­ge­biet ist die Be­trugs­be­kämp­fung im Ge­sund­heits­we­sen (Scha­den­sum­me bun­des­weit: ca. 14 Mil­li­ar­den Eu­ro p. a., wo­von nur ein Bruch­teil an­ge­zeigt wird; auch in­ter­ne Kon­trol­len der Leis­tungs­trä­ger de­cken nur ca. 0,25 Pro­zent der Fäl­le auf). Hier kann ein Ein­satz von Big-Da­ta-Me­tho­den, kom­bi­niert mit ei­nem Er­fah­rungs­aus­tausch mit Ver­si­che­run­gen und Ban­ken zu Me­tho­den der au­to­ma­ti­sier­ten Er­fas­sung von Be­trugs­ver­dachts­fäl­len, ei­nen re­le­van­ten Bei­trag zur fai­ren und nach­hal­ti­gen Fi­nan­zie­rung des Ge­sund­heits­sys­tems leis­ten.

Künst­li­che In­tel­li­genz (KI) kann bei­spiels­wei­se beim Ein­satz in As­sis­tenz­sys­te­men ei­nen we­sent­li­chen Fort­schritt in der Me­di­zin brin­gen.

Ge­gen­über her­kömm­li­chen Ver­fah­ren zeich­nen KI-Sys­te­me vor al­lem fol­gen­de Merk­ma­le aus:

 

  • Sie wer­den bes­ser, je mehr In­for­ma­tio­nen sie ver­ar­bei­ten (Lern­fä­hig­keit).
  • Sie ver­ste­hen na­tür­li­che Spra­che.
  • Sie ver­ar­bei­ten un­struk­tu­rier­te Da­ten, al­so die ein­zi­ge welt­weit wach­sen­de Res­sour­ce.
  • Sie er­zeu­gen neue Er­kennt­nis­se.

 

KI / Vor­be­hal­te und Ängs­te ab­bau­en

Ge­nau die­se Ei­gen­schaf­ten ma­chen KI so wert­voll beim Ein­satz in Dia­gno­se und The­ra­pie. Trotz­dem sto­ßen KI-Sys­te­me in der öf­fent­li­chen Wahr­neh­mung teil­wei­se auf Miss­trau­en. Mit ein Grund da­für ist das durch die Me­di­en ge­präg­te Bild von in­tel­li­gen­ten Ma­schi­nen, das ei­nen Aus­prä­gungs­grad künst­li­cher In­tel­li­genz („star­ke KI“) – teil­wei­se so­gar mit ei­ge­nem Be­wusst­sein – trans­por­tiert, der auf ab­seh­ba­re Zeit nur Sci­ence-Fic­tion blei­ben wird. Für die Dis­kus­si­on muss klar­ge­stellt wer­den, dass es hier nicht dar­um geht, son­dern um ei­ne KI, die die mensch­li­che In­tel­li­genz in be­stimm­ten Teil­be­rei­chen er­gänzt und er­wei­tert („aug­men­ted in­tel­li­gence“). Es geht al­so nicht um Mensch ge­gen Ma­schi­ne bzw. Ma­schi­ne statt Mensch, son­dern Mensch und Ma­schi­ne ge­mein­sam ge­gen das Pro­blem, hier die Krank­heit.

 

Rechts­rah­men an­pas­sen

Ge­gen­wär­tig wird auf deut­scher und eu­ro­päi­scher Ebe­ne in­ten­siv dar­über dis­ku­tiert, neue Re­ge­lun­gen für den Ein­satz von künst­li­cher In­tel­li­genz zu er­las­sen, wo­bei die Un­ter­schei­dung zu „klas­si­schen“ Al­go­rith­men teil­wei­se un­scharf ist. So­lan­ge klar ist, dass KI-Sys­te­me nur un­ter­stüt­zen­de Funk­ti­on ha­ben und letzt­lich im­mer der Mensch die Ent­schei­dung trifft, gilt für den Ein­satz von „nor­ma­ler“ un­ter­stüt­zen­der Ana­ly­se­soft­ware und künst­li­cher In­tel­li­genz glei­cher­ma­ßen, dass das gel­ten­de Recht im Grund­satz gut ge­eig­net ist, den heu­ti­gen Stand der Tech­nik ab­zu­bil­den. Bei der Pro­dukt­haf­tung un­ter­schei­den sich nor­ma­le und ler­nen­de Al­go­rith­men in­so­fern von­ein­an­der, als bei Ers­te­ren der Pro­gram­mie­rer die ent­schei­den­den Wei­chen­stel­lun­gen da­für trifft, dass das ge­fun­de­ne Er­geb­nis kor­rekt ist, wäh­rend es bei ei­nem ler­nen­den Sys­tem ent­schei­dend dar­auf an­kommt, dass es nicht nur den rich­ti­gen In­put er­hält, son­dern auch das rich­ti­ge Feed­back zu sei­nen Er­geb­nis­sen. Am En­de ist das aber we­nig mehr als ei­ne Be­weis­fra­ge.

Ei­ne Fra­ge, die sich al­ler­dings mit­tel­fris­tig – näm­lich dann, wenn KI-Sys­te­me bei be­stimm­ten Auf­ga­ben dem Men­schen klar über­le­gen sind – stel­len könn­te, ist, ob der Mensch nicht schon al­lei­ne des­we­gen haf­tet, weil er an­ders ent­schei­det, als es das As­sis­tenz­sys­tem vor­schlägt, und da­bei irrt. Die­se Fra­ge soll­te tat­säch­lich be­reits jetzt in­ter­dis­zi­pli­när dis­ku­tiert wer­den

Bei al­len gro­ßen Vor­tei­len durch den Ein­satz di­gi­ta­ler Tech­ni­ken muss es ins­ge­samt bei der evi­denz­ba­sier­ten Me­di­zin blei­ben, und Kor­re­la­ti­on darf die Kau­sa­li­tät nicht er­set­zen. Di­gi­tal ge­won­ne­ne Er­kennt­nis­se müs­sen an den­sel­ben wis­sen­schaft­li­chen Qua­li­täts­an­sprü­chen ge­mes­sen wer­den wie die­je­ni­gen aus her­kömm­li­chen Stu­di­en. Blo­ße Kor­re­la­tio­nen kön­nen wert­vol­le Hin­wei­se für die wei­te­re Er­for­schung lie­fern (z. B. mit­tels Vi­su­al Ana­lytics auf­ge­zeig­te auf­fäl­li­ge Mus­ter), müs­sen aber bei der Fra­ge der Nut­zen­be­wer­tung und Er­stat­tungs­fä­hig­keit von Nach­wei­sen klar un­ter­schie­den wer­den. Wenn et­wa der Be­such bei ei­nem Heil­prak­ti­ker sta­tis­tisch be­leg­bar zu ei­nem „Be­hand­lungs­er­folg“ führt, ob­wohl es für das frag­li­che Ver­fah­ren kei­ne wis­sen­schaft­li­che Evi­denz gibt, kön­nen die Da­ten Hin­wei­se auf neue zu über­prü­fen­de Er­klä­rungs­an­sät­ze lie­fern, die­se aber nicht er­set­zen.

Viel­fach dis­ku­tiert wird der­zeit ein An­spruch auf Trans­pa­renz, al­so auf Of­fen­le­gung von Al­go­rith­men. Auf der ei­nen Sei­te gibt es ein nach­voll­zieh­ba­res In­ter­es­se dar­an, wie ein Er­geb­nis zu­stan­de ge­kom­men ist, aber dem ste­hen auf der an­de­ren Sei­te nicht nur Ge­schäfts­ge­heim­nis­se ge­gen­über: Bei Me­tho­den aus dem Be­reich des ma­schi­nel­len Ler­nens oder et­wa des Ein­sat­zes neu­ro­na­ler Net­ze ist selbst bei Kennt­nis des Al­go­rith­mus der Weg zum Er­geb­nis schlicht nicht ex­akt nach­voll­zieh­bar („Black Box“). Zu Recht wird da­her an Ver­fah­ren ge­ar­bei­tet, die es er­mög­li­chen sol­len, auch et­was über den „Lö­sungs­weg“ zu ler­nen („Grey Box“). Die­se For­schung zu un­ter­stüt­zen, ist, im Ver­gleich zu – teil­wei­se un­er­füll­ba­ren – Of­fen­le­gungs­pflich­ten, der sinn­vol­le­re Weg.

Auch für den Ge­sund­heits­be­reich sind die ak­tu­el­len Be­stre­bun­gen auf EU-Ebe­ne zur Re­gu­lie­rung von Da­ten als ver­trag­li­che Ge­gen­leis­tung („Zah­len mit Da­ten“) von Re­le­vanz, ins­be­son­de­re na­tür­lich für den Be­reich mHe­alth bzw. den zwei­ten Ge­sund­heits­markt. Der ei­gent­li­che Wert sol­cher Re­ge­lun­gen liegt bei rich­ti­gem Ver­ständ­nis dar­in, sach­ge­rech­te Son­der­re­ge­lun­gen zum (EU-)Da­ten­schutz­recht zu nor­mie­ren bzw. das Ver­hält­nis von Ver­trags- und Da­ten­schutz­recht zu­guns­ten der Pri­vat­au­to­no­mie zu klä­ren, was zum ge­gen­wär­ti­gen Er­ar­bei­tungs­stand noch nicht der Fall ist. Wich­tig ist auch, dass we­der auf na­tio­na­ler noch auf EU-Ebe­ne neue Aus­schließ­lich­keits­rech­te an Da­ten („Da­ten­ei­gen­tum“) ge­schaf­fen wer­den.