Ethi­sche Re­geln für Tech­no­lo­gi­en auf zen­tra­le As­pek­te fo­kus­sie­ren

Ethi­sche Be­wer­tun­gen müs­sen dif­fe­ren­ziert vor­ge­nom­men wer­den. Es muss da­bei stets be­ach­tet wer­den, dass es im Kern um ei­ne Ver­bes­se­rung des Sta­tus quo durch neue Tech­no­lo­gi­en geht. Bei dem in Ka­chel 04.5. ge­nann­ten Bei­spiel des au­to­no­men Fah­rens ist im Er­geb­nis mit ei­ner deut­li­chen Re­duk­ti­on von Ver­kehrs­to­ten und schwe­ren Un­fäl­len zu rech­nen. An die Neue­run­gen dür­fen da­her kei­ne stren­ge­ren Maß­stä­be an­ge­legt wer­den als an die be­stehen­den An­wen­dun­gen.

 

Es ist rich­tig, neue Tech­no­lo­gi­en und An­wen­dun­gen an ethi­schen Grund­sät­zen zu mes­sen. Der­zeit wirkt es al­ler­dings so, als wür­den an ei­ne künst­li­che In­tel­li­genz oder ein au­to­no­mes Sys­tem deut­lich hö­he­re An­for­de­run­gen ge­stellt, als es in der phy­si­schen Welt der Fall ist. Es ist da­bei wich­tig, bei ethi­schen Fra­gen nicht zu ge­ne­ra­li­sie­ren, son­dern die – in der Re­gel we­ni­gen – zen­tra­len As­pek­te her­aus­zu­grei­fen und zu dis­ku­tie­ren, wäh­rend man gleich­zei­tig an­de­re Be­rei­che von vorn­her­ein als ethisch un­kri­tisch de­fi­niert.

 

Im Zu­sam­men­hang mit Bots wird bei­spiels­wei­se dis­ku­tiert, ob es ei­nen An­spruch auf Of­fen­le­gung des KI-Ein­sat­zes ge­ben soll. Bots sind Com­pu­ter­pro­gram­me, die je nach Ziel­set­zung et­wa ei­gen­stän­dig Da­ten sam­meln, In­for­ma­tio­nen ver­brei­ten, mit an­de­ren Nut­zern kom­mu­ni­zie­ren und in­ter­agie­ren kön­nen. Ein be­kann­tes Bei­spiel sind Chat­bots, die z. B. im Rah­men ei­nes Kun­den­dia­logs auf der In­ter­net­sei­te ei­nes Her­stel­lers / Händ­lers oder in so­zia­len Netz­wer­ken ein­ge­setzt wer­den. Ge­gen­wär­tig be­steht kei­ne all­ge­mei­ne Pflicht für den Ver­wen­der, den künst­li­chen Ur­sprung zu kenn­zeich­nen, wäh­rend die so­zia­len Netz­wer­ke je­weils ih­re ei­ge­nen Stra­te­gi­en zum Um­gang mit Bots bzw. de­ren Ver­hin­de­rung ha­ben. Im je­wei­li­gen Kon­text wird es zu­neh­mend schwie­ri­ger, ei­nen Bot in der Kom­mu­ni­ka­ti­on si­cher als sol­chen zu er­ken­nen, al­so von ei­nem mensch­li­chen Ge­gen­über zu un­ter­schei­den. Um­ge­kehrt wün­schen sich vie­le Men­schen im Um­gang mit ih­ren di­gi­ta­len As­sis­ten­ten wie Ale­xa und Si­ri, dass sie tat­säch­lich nur mit ei­ner Ma­schi­ne spre­chen. Die Fra­ge, ob ein Mensch mit­hört, ge­hört zu den meist­ge­stell­ten an die di­gi­ta­len As­sis­ten­ten. Die Art und Wei­se, wie das The­ma dis­ku­tiert wird, zeigt, dass es ei­ne Sor­ge und kei­ne Hoff­nung ist. Auch jen­seits von Chat-Si­tua­tio­nen wird viel dar­über dis­ku­tiert, ob ei­ne KI-Ver­wen­dung „de­kla­riert“ wer­den muss – schon, um dar­an wei­te­re Pflich­ten knüp­fen zu kön­nen, et­wa im Hin­blick auf die Trans­pa­renz von Al­go­rith­men (vgl. Ka­chel 02.4.3, Aus­klap­per 4).

 

Die grü­ne Gen­tech­nik ist so stark von Ethik über­la­gert, dass es schwer­fällt, ei­nen Be­reich zu fin­den, in dem kei­ne Dis­kus­sio­nen statt­fin­den. Die Be­den­ken ha­ben letzt­lich da­zu ge­führt, dass der An­bau gen­tech­nisch ver­än­der­ter Pflan­zen in Eu­ro­pa prak­tisch kei­ne Rol­le spielt. In der ro­ten Gen­tech­nik ruft der Ein­satz gen­tech­nisch ver­än­der­ter Or­ga­nis­men in der Me­di­zin, z. B. der Arz­nei­mit­tel­pro­duk­ti­on, kei­nen nen­nens­wer­ten Wi­der­stand her­vor. Kon­tro­vers dis­ku­tiert wer­den hier prak­tisch nur die Ein­grif­fe am Men­schen selbst; es wird sich zei­gen, ob mit den neu­en Mög­lich­kei­ten durch CRIS­PR / Cas9 hier wie­der ei­ne in­ten­si­ve­re Dis­kus­si­on auf­flammt.

 

In der­ar­ti­gen Zwei­fels­fäl­len, die ei­ne er­heb­li­che Be­deu­tung für die Ge­sell­schaft ha­ben, muss die fak­ten­ba­sier­te Dis­kus­si­on ge­sucht und ein ethi­scher Kon­sens ge­fun­den wer­den.

 

Ins­be­son­de­re, wenn die Vor­be­hal­te gan­ze Tech­no­lo­gi­en be­tref­fen, ist es sinn­voll, die Dis­kus­si­on von vorn­her­ein par­ti­zi­pa­tiv aus­zu­ge­stal­ten und die Ge­sell­schaft von An­fang an mit in die Ver­ant­wor­tung für den Dis­kus­si­ons­pro­zess zu neh­men. Ein Bei­spiel ist das Na­no­po­di­um in den Nie­der­lan­den, das die Re­gie­rung 2008 in­iti­iert hat, um ethi­sche, so­zia­le, recht­li­che und wirt­schaft­li­che As­pek­te der Na­no­tech­no­lo­gi­en zu dis­ku­tie­ren und zu ver­ste­hen, wel­che Be­rei­che der Tech­no­lo­gie für die Bür­ger be­son­ders kri­tisch bzw. wich­tig sind. Die kon­kre­ten Ak­ti­vi­tä­ten wur­den da­bei in ei­nem Bot­tom-up-Pro­zess von den Bür­gern selbst or­ga­ni­siert. Der Er­folg des Na­no­po­di­um, mit dem mehr als ei­ne Mil­li­on Bür­ger er­reicht wur­de, liegt dar­in, dass es die Bür­ger da­zu ge­bracht hat, sich di­rekt mit der Tech­no­lo­gie aus­ein­an­der­zu­set­zen und In­for­ma­tio­nen auf­zu­neh­men und zu ver­ar­bei­ten, et­wa in De­bat­ten und künst­le­ri­schen Pro­jek­ten. Ei­ne be­glei­ten­de Um­fra­ge zeigt, dass das Wis­sen der Be­frag­ten zur Na­no­tech­no­lo­gie deut­lich er­höht wer­den konn­te.

 

Bei an­de­ren Fra­gen wird Ethik zu klein­tei­lig aus­ge­legt: Es geht nicht um ei­ne Spe­zi­al­re­ge­lung für je­den An­wen­dungs­fall, und es kann auch nicht al­les ver­bo­ten sein, was nicht durch ei­ne Kom­mis­si­on ab­ge­seg­net ist. Hier muss von vorn­her­ein stär­ker dif­fe­ren­ziert und her­aus­ge­ar­bei­tet wer­den, was wirk­lich die Ge­sell­schaft bzw. den Men­schen in sei­nem Kern be­rührt, und wo­ge­gen sich die Vor­be­hal­te rich­ten. Die Gren­ze ist si­cher er­reicht, wenn es um den Ein­satz von Al­go­rith­men zur ef­fi­zi­en­te­ren Aus­steue­rung von Pro­duk­ti­ons­ma­schi­nen geht: Für die Öl­pum­pen­über­wa­chung braucht man kei­ne Ethik-Re­geln.