Dop­pel­rolle Künst­li­cher Intelligenz

Im Kampf gegen Des­in­for­ma­tion kann KI nüt­zen, aber auch schaden

Neu­lich erreichte mich ein besorg­nis­er­re­gen­der Brief: Ein poli­tisch inter­es­sier­ter Bür­ger schrieb mir, er habe im Inter­net gele­sen, Ukrai­ne­rin­nen und Ukrai­ner könn­ten in Deutsch­land frü­her in Rente gehen – Frauen mit 57,5 und Män­ner mit 60 Jah­ren. Für deut­sche Staats­bür­ge­rin­nen und Staats­bür­ger werde dahin­ge­gen ein Ren­ten­al­ter von 70 Jah­ren dis­ku­tiert, beklagte er sich. Zwi­schen den Zei­len schwebte der Wunsch, ich möge das ändern. Doch nie­mand kann in die­ser Sache etwas ändern – denn es ist nicht wahr.

Die Deut­sche Ren­ten­ver­si­che­rung hält auf ihrer Web­site fest: „Immer wie­der wird in sozia­len Netz­wer­ken fälsch­li­cher­weise behaup­tet, dass geflüch­tete Men­schen aus der Ukraine in Deutsch­land bereits mit Mitte 50 in Rente gehen könn­ten. Dies trifft nicht zu.“ Für geflüch­tete Men­schen aus der Ukraine gel­ten die­sel­ben Rege­lun­gen wie für deut­sche Staats­bür­ger. Das ist die gute Nach­richt für jenen Brief­schrei­ber. Die schlechte ist: Er ist auf Fake News her­ein­ge­fal­len. Das ist es, was Sorge berei­ten muss. Des­in­for­ma­tio­nen wie diese haben das Poten­zial, unse­ren gesell­schaft­li­chen Zusam­men­halt zu schwä­chen – und das nicht nur in Deutschland.

Fast die Hälfte der Welt­be­völ­ke­rung ist in die­sem Jahr bereits zur Wahl auf­ge­ru­fen gewe­sen oder hat noch die Mög­lich­keit zu wäh­len. In Indien, Groß­bri­tan­nien, Frank­reich bei­spiels­weise haben die Men­schen schon gewählt. Auch für das Euro­pa­par­la­ment haben wir bereits unsere Stim­men abge­ge­ben. In Deutsch­land ste­hen Land­tags­wah­len in Sach­sen, Thü­rin­gen und Bran­den­burg an. Und auch die Prä­si­dent­schafts­wah­len in den USA sind für uns von gro­ßem Inter­esse. 2024 ist ein ech­tes Superwahljahr.

Auf wel­cher Grund­lage tref­fen die Men­schen ihre Wahl­ent­schei­dung? Wie und wo infor­mie­ren sie sich, wem ver­trauen sie? Das Inter­net und die sozia­len Medien sind dabei – neben vie­len wich­ti­gen Infor­ma­tio­nen – auch immer wie­der eine Quelle für Des­in­for­ma­tio­nen. Und die Mit­tel der Des­in­for­ma­tion befin­den sich in einem schnel­len Wan­del. Es geht nicht mehr nur um Fake News oder mani­pu­lierte Bil­der. Die Künst­li­che Intel­li­genz (KI) eröff­net ganz neue Mög­lich­kei­ten. Noch nie war es so ein­fach, soge­nannte Deep-Fakes – also authen­tisch wir­kende Videos oder Audio­da­teien etwa von Poli­ti­ke­rin­nen und Poli­ti­kern – zu erstel­len. Völ­lig auto­ma­ti­siert wer­den diese Fäl­schun­gen dann in unvor­stell­ba­rer Menge und unglaub­li­cher Geschwin­dig­keit über die sozia­len Netz­werke verbreitet.

Wäh­rend sich die Werk­zeuge der Des­in­for­ma­tion ste­tig wei­ter­ent­wi­ckeln, ist deren Ziel das­selbe geblie­ben: Unsi­cher­heit soll sich breit machen. Meist durch The­men, die in einer Gesell­schaft emo­tio­nal debat­tiert wer­den. Wer bei sei­nen Gefüh­len gepackt wird, denkt weni­ger nach – und schal­tet schnel­ler um auf Hass oder gar Gewalt.

Kaum ver­wun­der­lich also, dass der anfangs erwähnte Brief­schrei­ber gerade auf diese Fake News her­ein­ge­fal­len war: Es ging um schein­bare ren­ten­recht­li­che Unge­rech­tig­kei­ten. Die finan­zi­elle Absi­che­rung im Alter ist ein Thema, das viele Men­schen besorgt. Kein Zufall ist auch, dass die Fake News sich gegen Men­schen rich­ten, die aus der Ukraine zu uns geflo­hen sind. Dahin­ter steckt offen­sicht­lich die Absicht, in Deutsch­land Res­sen­ti­ments gegen Ukrai­ne­rin­nen und Ukrai­ner zu schü­ren und unsere Unter­stüt­zung für ihren Ver­tei­di­gungs­krieg gegen Russ­land zu schwächen.

Das gibt einen Hin­weis dar­auf, wer ein Inter­esse daran haben könnte, sol­che fal­schen Nach­rich­ten bewusst zu ver­brei­ten. Häu­fig sind es Hacker­grup­pen, die im Auf­trag aus­län­di­scher Staa­ten han­deln. Sie wol­len west­li­che Gesell­schaf­ten erschüt­tern, Angst und Zwie­tracht säen und die Bür­ge­rin­nen und Bür­ger am Staat und sei­nen Insti­tu­tio­nen zwei­feln lassen.

Vie­len ist diese Bedro­hung durch Des­in­for­ma­tion bereits bewusst. Laut einer aktu­el­len Stu­die der Ber­tels­mann-Stif­tung mei­nen 84 Pro­zent der Men­schen in Deutsch­land, dass absicht­lich ver­brei­tete Falsch­in­for­ma­tio­nen im Inter­net ein „gro­ßes oder sogar sehr gro­ßes Pro­blem für unsere Gesell­schaft“ bedeu­ten. 81 Pro­zent der Men­schen sehen darin eine Gefahr für die Demo­kra­tie und den Zusam­men­halt der Gesell­schaft. Auch die Exper­ten des Welt­wirt­schafts­fo­rums schät­zen in ihrem Bericht über glo­bale Risi­ken Fehl- und Des­in­for­ma­tio­nen als das größte kurz­fris­tige Risiko ein. Sie sehen einen Zusam­men­hang zwi­schen Des­in­for­ma­tion und gesell­schaft­li­chen Unru­hen bei Wahlen.

Tat­säch­lich haben Nicht-Regie­rungs­or­ga­ni­sa­tio­nen bei­spiels­weise den Ein­satz von rus­si­schen Hacker­grup­pen bei Wah­len in ganz Europa fest­ge­stellt. Noch hält sich ihr Ein­fluss in Gren­zen: „Die Schlacht gegen Des­in­for­ma­tion wurde gewon­nen“, urteilte das Euro­pean Digi­tal Media Obser­va­tory (EDMO) über die Euro­pa­wahl in die­sem Jahr.

Doch der Kampf gegen Des­in­for­ma­tion geht wei­ter. Das zeigt ein Bei­spiel aus der Slo­wa­kei. Kurz vor den dor­ti­gen Wah­len im Okto­ber 2023 tauch­ten auf Face­book Audio­da­teien auf. Dar­auf zu hören war schein­bar der libe­rale Kan­di­dat Michal Šimečka im Gespräch mit einer Jour­na­lis­tin. Sie unter­hiel­ten sich angeb­lich dar­über, wie die Wah­len gefälscht wer­den könn­ten. Es war das Werk einer KI, die im Auf­trag von Unbe­kann­ten die Stim­men imi­tierte. Diese Fäl­schung ver­brei­tete sich rasend schnell, auch weil in der Slo­wa­kei 48 Stun­den vor dem Beginn einer Wahl Wahl­kampf­stille gilt und eine Rich­tig­stel­lung somit kaum mög­lich war. Am Ende gewann der Kon­kur­rent von Šimečka, der pro­rus­si­sche Kan­di­dat, die Wahl.

Nun sind man­che sicher ver­sucht, Künst­li­che Intel­li­genz zu ver­teu­feln. KI an sich ist aber nicht böse oder mani­pu­la­tiv. „Jede Tech­no­lo­gie kann miss­braucht wer­den“, bringt es Mozilla-Chef Mark Sur­man auf den Punkt. Wie bei jedem Werk­zeug ist die ent­schei­dende Frage, wel­che Absich­ten die­je­ni­gen haben, die es ver­wen­den. Bereits jetzt wird KI auch dafür ein­ge­setzt, Des­in­for­ma­tio­nen zu entlarven.

Künst­li­che Intel­li­genz unter­stützt Men­schen, Infor­ma­tio­nen ein­zu­schät­zen. Sie ist in der Lage, große Daten­men­gen in kür­zes­ter Zeit zu ver­ar­bei­ten und zu ana­ly­sie­ren – sie kann etwa Unre­gel­mä­ßig­kei­ten in Mus­tern erken­nen oder die Meta­da­ten von Auf­nah­men aus­wer­ten. Am For­schungs­zen­trum Infor­ma­tik in Karls­ruhe zum Bei­spiel wird das Pro­jekt „DeFaktS“ ent­wi­ckelt. Dabei lernt eine KI, cha­rak­te­ris­ti­sche Aspekte und Stil­mit­tel von Fake News und Des­in­for­ma­tion zu erken­nen. Am Ende des Pro­jekts soll die KI in eine App inte­griert wer­den, die Use­rin­nen und User vor Fake News in sozia­len Medien oder Mes­sen­ger-Diens­ten wie Whats­app oder Tele­gram warnt.

Des­in­for­ma­tion, Fake News und Ver­schwö­rungs­theo­rien wer­den sich nicht ver­hin­dern las­sen – auch nicht mit­hilfe von KI. Wir müs­sen uns also dage­gen wapp­nen. Zum einen, indem wir neue Regeln ein­füh­ren. Auf EU-Ebene sind die Anfänge gemacht: mit dem Gesetz über digi­tale Dienste, das große Platt­for­men und Such­ma­schi­nen ver­pflich­tet, gegen ille­gale Inhalte vor­zu­ge­hen und Grund­rechte zu schüt­zen. Und mit dem AI-Act, dem welt­weit ers­ten Gesetz zur Regu­lie­rung von künst­li­cher Intel­li­genz. Es schreibt vor, dass KI-Anwen­dun­gen etwa nicht zur Mani­pu­la­tion von Bür­ge­rin­nen und Bür­gern miss­braucht wer­den dür­fen. Zudem ver­pflich­tet es, künst­lich erzeugte Inhalte wie Audio­da­teien, Videos oder Bil­der trans­pa­rent zu kennzeichnen.

Zum ande­ren müs­sen wir die Kul­tur unse­rer poli­ti­schen Debat­ten noch stär­ker in den Blick neh­men. Wis­sen­schaft und Qua­li­täts­jour­na­lis­mus haben klare Stan­dards. Dazu gehört es etwa, Quel­len für Infor­ma­tio­nen trans­pa­rent zu benen­nen. Das ist wich­tig für das Gespräch im Freun­des­kreis genauso wie für die Debatte im Par­la­ment: Wer­den diese Kri­te­rien nicht ein­ge­hal­ten, müs­sen wir das thematisieren.

Hin und wie­der werde ich in Brie­fen gebe­ten, eine Art Fak­ten­check für Bun­des­tags­re­den ein­zu­füh­ren – viel­leicht per KI. Doch KI allein wäre nicht in der Lage, diese Auf­gabe zu über­neh­men. Wir Par­la­men­ta­rie­rin­nen und Par­la­men­ta­rier müs­sen in der Debatte dage­gen­hal­ten kön­nen und dann auch wirk­lich dage­gen­hal­ten, wenn Des­in­for­ma­tio­nen ver­brei­tet wer­den. Die Rolle der Medien ist es, Reden im Nach­hin­ein auf Feh­ler und Des­in­for­ma­tio­nen abzuklopfen.

Selbst das beste Gesetz kann aber nicht erset­zen, dass wir unse­ren eige­nen Ver­stand nut­zen. Jede und jeder von uns ist Mul­ti­pli­ka­tor – vor allem im Netz. Bevor wir eine Nach­richt tei­len, müs­sen wir kon­trol­lie­ren: Ist diese Nach­richt wirk­lich glaub­wür­dig? Dafür ist digi­tale All­ge­mein­bil­dung wichtig.

Nur wer um die Gefahr von Des­in­for­ma­tion weiß, wer echte Nach­rich­ten erkennt und im Zwei­fel Nach­rich­ten über­prü­fen kann – etwa per Quel­len-Check – ist gegen Des­in­for­ma­tion gewapp­net. Des­halb ist klar: Wir alle müs­sen uns inner­lich rüs­ten. KI birgt Gefah­ren, kann aber auch eine Chance sein im Kampf gegen Des­in­for­ma­tio­nen. Wir müs­sen auf ver­schie­de­nen Ebe­nen anset­zen, um das Ver­trauen von Wäh­le­rin­nen und Wäh­lern zu erhal­ten und die Inte­gri­tät von Wahl­pro­zes­sen zu schützen.

Die­ser Text ist zuerst erschie­nen in Poli­tik & Kul­tur 9/2024.

Von |2024-09-13T15:04:12+02:00September 13th, 2024|Medien|Kommentare deaktiviert für

Dop­pel­rolle Künst­li­cher Intelligenz

Im Kampf gegen Des­in­for­ma­tion kann KI nüt­zen, aber auch schaden

Bärbel Bas ist Präsidentin des Deutschen Bundestags.