Me­tho­den und Ver­fah­ren  

Vi­su­al Ana­lytics 

Hier­bei han­delt es sich um ei­nen in­ter­dis­zi­pli­nä­re­ren An­satz, der die Me­tho­den der Vi­sua­li­sie­rung und der Mensch-Ma­schi­ne-In­ter­ak­ti­on mit Da­ten­ana­ly­sen ver­bin­det. Ziel ist es, Er­kennt­nis­se aus ex­trem gro­ßen Da­ten­men­gen zu ge­win­nen, in­dem die­se vi­su­ell auf­be­rei­tet wer­den, und so­mit Schluss­fol­ge­run­gen durch den mensch­li­chen Be­trach­ter mög­lich zu ma­chen.

Ma­schi­nel­les Ler­nen 

Dies ist ei­ne Fach­dis­zi­plin der künst­li­chen In­tel­li­genz. Es um­fasst ei­ne Rei­he von Me­tho­den, die zum Ziel ha­ben, ei­ne Ma­schi­ne in die La­ge zu ver­set­zen, mit der Zeit ei­gen­stän­dig Ob­jek­te zu klas­si­fi­zie­ren, Mus­ter und Zu­sam­men­hän­ge zu er­ken­nen so­wie Pro­zes­se zu op­ti­mie­ren. In der Re­gel wer­den Bei­spiel­da­ten ver­wen­det, um die Ma­schi­ne zu trai­nie­ren und die Gü­te des ge­lern­ten Mo­dells zu va­li­die­ren.

(Künst­li­che) Neu­ro­na­le Netz­wer­ke 

Es han­delt sich da­bei um ei­ne Me­tho­de für ma­schi­nel­les Ler­nen. Die­se Al­go­rith­men bil­den die Ver­net­zungs­struk­tu­ren des mensch­li­chen Ge­hirns (bio­lo­gi­sche Neu­ro­nen) und des­sen Lern­pro­zes­se in abs­trak­ter Wei­se nach : Künst­li­che neu­ro­na­le Netz­wer­ke be­stehen aus ei­ner Viel­zahl so­ge­nann­ter künst­li­cher Neu­ro­nen, die mit ma­the­ma­tisch be­schrie­be­nen Ge­wich­tungs­stär­ken mit­ein­an­der ver­bun­den sind. Wäh­rend des Lern­pro­zes­ses ver­än­dern sich die­se Ge­wich­tun­gen mit dem Ziel, ei­nen mög­lichst feh­ler­frei­en Out­put zu ge­ne­rie­ren.

De­duk­ti­on und cons­traint-ba­sier­tes Schlie­ßen durch In­duk­ti­on und Ab­duk­ti­on 

Die­se Me­tho­den kön­nen auf ver­schie­de­ne Wei­se im Be­reich Big Da­ta zur An­wen­dung kom­men. De­duk­ti­ves Schlie­ßen wird in In­fe­renz­sys­te­men (das heißt Sys­te­men, die Re­geln und Fak­ten über ein Fach­ge­biet ent­hal­ten, an de­nen ein­ge­ge­be­ne In­for­ma­tio­nen ge­mes­sen wer­den) ein­ge­setzt, um se­man­ti­sche Zu­sam­men­hän­ge in gro­ßen Da­ten­men­gen zu er­ken­nen. In cons­traint-ba­sier­ten An­sät­zen wird dar­auf ab­ge­zielt, neue Hy­po­the­sen für gro­ße Da­ten­men­gen zu fin­den. Hier­bei kann man ent­we­der Hy­po­the­sen auf­stel­len und die­se in den vor­han­de­nen Da­ten nach­zu­wei­sen ver­su­chen oder um­ge­kehrt, von Be­ob­ach­tun­gen aus­ge­hend ge­ne­ra­li­sie­ren.

In­for­ma­ti­on­s­ex­trak­ti­on und Text Mi­ning 

Sie um­fas­sen Tech­ni­ken, die sich mit der Vor­ver­ar­bei­tung gro­ßer Da­ten­men­gen be­schäf­ti­gen. Ins­be­son­de­re bei der se­man­ti­schen (be­deu­tungs­mä­ßi­gen) Ana­ly­se von mensch­li­cher Spra­che oder groß­vo­lu­mi­gen Textin­hal­ten kom­men sol­che Me­tho­den zum Ein­satz. Ziel ist es, Ter­mi­no­lo­gi­en und On­to­lo­gi­en (Dar­stel­lun­gen von Men­gen an Da­ten und zwi­schen ih­nen be­stehen­den Be­zie­hun­gen) zu fin­den und für wei­ter­füh­ren­de Ana­ly­sen nutz­bar zu ma­chen.

Ana­ly­ti­sche Ar­chi­tek­tu­ren 

Sie sind ein we­sent­li­cher Be­stand­teil von Big-Da­ta-Tech­no­lo­gi­en, da sie die Grund­la­ge für das Ver­ar­bei­ten der Da­ten bil­den. Ana­ly­ti­sche Ar­chi­tek­tu­ren sind Platt­for­men, mit de­nen das Ent­ge­gen­neh­men, die Spei­che­rung und Aus­ga­be von gro­ßen Da­ten­men­gen über­haupt erst er­mög­licht wer­den.

 

Über­sicht zu Me­tho­den und mög­li­chen Ein­satz­be­rei­chen

Big Da­ta Me­tho­de

Ein­satz­be­reich / Nut­zen

Vi­su­al Ana­lytics

Be­son­ders ge­eig­net, wenn ein Ge­samt­bild ge­zeich­net wer­den soll (z. B. von Pro­zes­sen im Un­ter­neh­men) ; ein­fa­che / in­tui­ti­ve, in­ter­ak­ti­ve Dar­stel­lung der Er­geb­nis­se

Ma­schi­nel­les Ler­nen

Mus­ter­er­ken­nung – zum Bei­spiel für vor­aus­schau­en­de War­tung oder Ana­ly­se von mensch­li­cher Kom­mu­ni­ka­ti­on für die Op­ti­mie­rung der Kun­den­schnitt­stel­le

Neu­ro­na­le Netz­wer­ke

Au­to­ma­ti­sier­te Mus­ter­er­ken­nung in Da­ten und Ab­lei­tung bis­her nicht er­schließ­ba­rer Mus­ter aus der Struk­tur der Da­ten; der Ein­satz ist auch mög­lich, wenn im Vor­feld kei­ne fes­ten Ge­setz­mä­ßig­kei­ten in den Da­ten­sät­zen be­kannt sind – et­wa bei der Ge­sichts­er­ken­nung

De­duk­ti­on, In­duk­ti­on, Ab­duk­ti­on

Auf­de­cken von Re­geln, Auf­stel­len und Tes­ten von Hy­po­the­sen

In­for­ma­ti­on­s­ex­trak­ti­on, Text Mi­ning

Rück­schlüs­se aus Da­ten zie­hen, ge­mein­sa­me Ei­gen­schaf­ten und Wi­der­sprü­che er­ken­nen, feh­len­des Wis­sen selbst­stän­dig aus dem vor­han­de­nen er­gän­zen

Ana­ly­ti­sche Ar­chi­tek­tu­ren

Par­al­le­le Be­ar­bei­tung enor­mer, auch un­struk­tu­rier­ter Da­ten­men­gen – un­ter an­de­rem für die Be­wäl­ti­gung zahl­rei­cher gleich­zei­ti­ger Le­se- und Schreib­an­fra­gen

Ei­ge­ne Dar­stel­lung, ba­sie­rend auf Pro­gnos / Heck­mann, 2016

 

Die mit dem Be­griff Big Da­ta ver­bun­de­nen Tech­no­lo­gi­en und An­wen­dun­gen bie­ten Grund­la­gen für ei­nen er­heb­li­chen wis­sen­schaft­li­chen und tech­no­lo­gi­schen Fort­schritt. Sie er­mög­li­chen es, aus der Ana­ly­se und Zu­sam­men­füh­rung ei­ner Viel­zahl von he­te­ro­ge­nen, um­fang­rei­chen und teil­wei­se un­struk­tu­rier­ten Da­ten­be­stän­den neue In­for­ma­tio­nen, Struk­tu­ren, Zu­sam­men­hän­ge, Mo­del­le und Ein­sich­ten zu ge­ne­rie­ren.