Skip to content Skip to footer
Lese­dau­er 3 Minu­ten

Deepf­akes sind Fotos, Vide­os oder Audio­da­tei­en, wel­che mit­hil­fe von KI ver­än­dert sind. Zusam­men­ge­setzt aus den Begrif­fen „Deep Lear­ning“ (eine Metho­de, durch die eine KI lernt) und bedeu­tet so viel wie „fake“, also Fäl­schung bzw. Ver­fäl­schung. Deepf­akes ver­steht sich als Über­be­griff für ver­schie­de­ne For­men von audio­vi­su­el­ler (media­ler) Mani­pu­la­ti­on und deren Echt­heit bzw. Mani­pu­la­ti­on ist mit dem blo­ßen Auge nicht mehr bzw. nur schwer feststellbar.

Umfang­rei­che Datensätze

Dazu nut­zen Deepf­ake-Tech­no­lo­gien umfang­rei­che Daten­sät­ze ech­ter audio­vi­su­el­ler Mate­ria­li­en, um ein neu­ro­na­les Netz zu trai­nie­ren, das fähig ist, bestimm­te Aspek­te die­ser Mate­ria­li­en wie Gesichts­zü­ge, Stimm­mus­ter oder spe­zi­fi­sche Bewe­gungs­ab­läu­fe zu imi­tie­ren oder voll­stän­dig neue Inhal­te zu gene­rie­ren. Die­se sind meis­tens bestimm­ten rea­len Per­so­nen nach­emp­fun­den. Durch Ver­fah­ren wie Face Swap­ping (Gesich­ter­tausch), Lip Syn­cing (Lip­pen­syn­chro­ni­sa­ti­on) und Voice Clo­ning (Stimm­klo­nung) las­sen sich Per­so­nen in Situa­tio­nen dar­stel­len oder Aus­sa­gen tref­fen, wel­che nie stattfanden. 

Die­se Tech­no­lo­gie hat bedeu­ten­de recht­li­che und sicher­heits­tech­ni­sche Fra­gen, ins­be­son­de­re im Hin­blick auf Daten­schutz und den Schutz der Inte­gri­tät von Indi­vi­du­en. Die poten­zi­el­le Nut­zung von Deepf­akes reicht von harm­lo­ser Unter­hal­tung bis hin zur Fäl­schung von Beweis­ma­te­ri­al in juris­ti­schen Aus­ein­an­der­set­zun­gen und Durch­füh­rung geziel­ter Phishing-Angriffe.

Rasan­te Entwicklung

Ange­sichts der rasan­ten Ent­wick­lung und Ver­fei­ne­rung die­ser Tech­no­lo­gien ist es zuneh­mend schwie­ri­ger, gefälsch­te Inhal­te von authen­ti­schen zu unter­schei­den. Daher sind robus­ten Detek­ti­ons­me­tho­den, recht­li­chen Rah­men­be­din­gun­gen und eine brei­te Auf­klä­rung über die Risi­ken und Impli­ka­tio­nen die­ser Tech­no­lo­gie erfor­der­lich. In einer Zeit wach­sen­der digi­ta­ler Bedro­hun­gen las­sen sich mit Deepf­akes über­zeu­gen­de audio­vi­su­el­le Fäl­schun­gen erstel­len und somit die tra­di­tio­nel­len Sicher­heits­maß­nah­men unter­gra­ben. So las­sen sich bio­me­tri­sche Sicher­heits­sys­te­me, wel­che auf Gesichts- oder Stimm­erken­nung basie­ren, täu­schen. Indem die­se in der Lage sind, das Aus­se­hen oder die Stim­me einer berech­tig­ten Per­son mit hoher Genau­ig­keit nach­zu­ah­men und Angrei­fer erhal­ten so Zugang zu gesi­cher­ten Sys­te­men. Eine direk­te Bedro­hung für die Sicher­heit ver­trau­li­cher Informationen.

Phis­hing in neu­er Dimension

Auch Phis­hing erhält eine neue Dimen­si­on, indem es ermög­licht, äußerst authen­tisch wir­ken­de, gefälsch­te Kom­mu­ni­ka­ti­ons­mit­tel zu erschaf­fen. Die­se rei­chen von E‑Mails, die mit mani­pu­lier­ten Video- oder Audio­an­la­gen ver­se­hen sind, über künst­lich gene­rier­te Sprach­nach­rich­ten bis hin zu kom­plett insze­nier­ten Videoanrufen.

Wenn Mit­ar­bei­ter einem sol­chen Betrug zum Opfer fal­len, ent­ste­hen kom­ple­xe Fra­gen bezüg­lich der poten­zi­el­len recht­li­chen Kon­se­quen­zen. Die Arbeit­neh­mer­haf­tung bedarf in die­sem Fall einer detail­lier­ten und ein­zel­fall­be­zo­ge­nen Betrach­tung. Dabei spie­len das Maß der Fahr­läs­sig­keit, die Umstän­de des Betrugs­falls und die im Unter­neh­men eta­blier­ten prä­ven­ti­ven Maß­nah­men sowie die tech­ni­schen orga­ni­sa­to­ri­schen Maß­nah­men eine wesent­li­che Rolle.

Maß­nah­men

Die Ver­hin­de­rung von Betrug durch Deepf­akes im Unter­neh­men erfor­dert ein mehr­schich­ti­ges prä­ven­ti­ves Vor­ge­hen, das sowohl tech­no­lo­gi­sche Lösun­gen als auch orga­ni­sa­to­ri­sche Maß­nah­men und die Sen­si­bi­li­sie­rung der Mit­ar­bei­ter umfasst. 

Zunächst ist die Auf­klä­rung und Schu­lung von Mit­ar­bei­tern von ent­schei­den­der Bedeu­tung, um ein Bewusst­sein für die Exis­tenz und die poten­zi­el­len Gefah­ren von Deepf­akes zu schaf­fen. Mit­ar­bei­ter soll­ten kri­tisch hin­ter­fra­gen und veri­fi­zie­ren kön­nen, bevor sie auf Anfra­gen reagie­ren, die über digi­ta­le Kom­mu­ni­ka­ti­ons­ka­nä­le ein­ge­hen, ins­be­son­de­re wenn die­se Auf­for­de­run­gen zur Wei­ter­ga­be sen­si­bler Infor­ma­tio­nen oder zur Durch­füh­rung finan­zi­el­ler Trans­ak­tio­nen beinhal­ten. Mit­ar­bei­ten­de sind daher zu ermu­ti­gen, auf eine ent­spre­chen­de Auf­for­de­rung – etwa per (Deepfake-)Anruf oder Video­call – mit einem Rück­ruf unter den ihnen bekann­ten Wegen zu reagie­ren, um die Auf­ga­be bestä­ti­gen zu las­sen. Auf tech­ni­scher Ebe­ne könn­ten Unter­neh­men eben­falls Maß­nah­men ein­füh­ren, um Deepf­akes ent­ge­gen­zu­wir­ken. So kommt Deepf­ake-Detek­ti­ons­soft­ware zum Ein­satz, die dar­auf spe­zia­li­siert ist, Mani­pu­la­tio­nen in audio­vi­su­el­len Mate­ria­li­en zu iden­ti­fi­zie­ren, um gefälsch­te Inhal­te pro­ak­tiv zu erken­nen und zu blockieren.

Stra­te­gie

Die effek­ti­ve Prä­ven­ti­on von Betrug durch Deepf­akes erfor­dert eine dyna­mi­sche Stra­te­gie, die fort­lau­fen­de Schu­lun­gen, die Kom­mu­ni­ka­ti­on kla­rer Richt­li­ni­en und eine kon­ti­nu­ier­li­che Anpas­sung an neue Bedro­hungs­sze­na­ri­en umfasst. Die­se Maß­nah­men, initi­iert durch den Arbeit­ge­ber, bil­den das Fun­da­ment für den Schutz vor der­ar­ti­gen Angriffen.

Also las­sen Sie sich gut beraten.

Kommentar

Nach oben