Ein Kommentar von Wolfgang Kurz, Geschäftsführer indevis
Künstliche Intelligenz (KI) ist zweifelsfrei eine bahnbrechende Erfindung, die vielen sogar Angst macht. Doch Angst ist selten ein guter Berater. Besser ist, man beschäftigt sich frühzeitig mit den Risiken – und das sind andere als im ersten Moment vielleicht offensichtlich.
Angst vor Fremdbestimmung durch etwas, das sich nicht wirklich greifen lässt und der menschlichen Intelligenz überlegen ist – das ist nur allzu nachvollziehbar. Wird bald eine Superintelligenz die Weltherrschaft an sich reißen und über Leben und Tod bestimmen? Das ist im aktuellen Stadium der Entwicklung doch eher unwahrscheinlich. Weitaus realistischer sind ganz andere Gefahren, die jedoch im Moment in der Diskussion rund um KI noch kaum Beachtung finden. Die Rede ist von böswilligen Manipulationen der KI-Algorithmen und KI-Lerndaten.
Fest steht: KI wird uns eine essenzielle Hilfe sein, um die wirklich großen Probleme der Menschheit anzugehen. Experten gehen davon aus, dass etwa die Ernährung der Weltbevölkerung oder die Dekarbonisierung nur mit Hilfe von KI lösbar ist. Aber die Technologie ist eben auch manipulierbar – durch die Daten, mit denen sie versorgt und die Art und Weise, wie sie trainiert wird. Gerade hier gibt es für Cyberkriminelle zahlreiche Anknüpfungspunkte, um Entscheidungen einer KI zu beeinflussen. Denn KI urteilt rein algorithmisch, ohne die dadurch entstehenden Konsequenzen ethisch zu reflektieren.
Schritt 1: Bewusstsein entwickeln
Ein manipulierter KI-Algorithmus lenkt einen Gefahrgut-Transporter in eine Schule, eine getäuschte Flugsicherungs-KI lässt Flugzeuge abstürzen. Kriminelle Ideen, katastrophale Szenarien, aber durchaus realistisch. Leider stehen wir ihnen, Stand heute, weitgehend ungeschützt gegenüber. Eine große Gefahr der KI lauert darin, die eigentliche Bedrohung, nämlich ihre Schutzlosigkeit, entweder zu ignorieren oder zu bagatellisieren. Es ist nur noch eine Frage der Zeit, bis KI unser Leben aktiv beeinflusst und bis dahin müssen wir uns mit den Schwächen, insbesondere der Manipulierbarkeit, beschäftigen und Schutzmöglichkeiten entwickeln.
Doch der Mensch ist ein Gewohnheitstier. Mit Neuem konfrontiert, tut er sich schwer, Probleme sitzt er gerne aus oder schiebt sie in die nächste Kalenderwoche. Deswegen lagern wir auch alte Brennstäbe, die noch Millionen Jahre weiterstrahlen, fürs Erste in einem ausrangierten Salzstock ein. Auch wenn dieses Problem der Atommüll-Entsorgung bereits von Anfang an bekannt war.
Wir sollten uns fragen: Steht in Zukunft der Kommerz oder das Wohl der Menschheit im Vordergrund? Kann ich Trainingsdaten zurückverfolgen? Wer hat die KI entwickelt und warum? Wer entwickelt sie weiter? Und vor allem: Wie ist sie geschützt und wer beschützt sie?
Schritt 2: Regulative bestimmen
Wetterphänomene, Klimawandel, globale Ernährung – KI hat das Potenzial, entscheidend zur Lösung dieser Herausforderungen beizutragen. Doch es fehlt an unabhängigen Instanzen, die sie kontrollieren. Der Markt selbst ist dafür ungeeignet. Wer die maximale Leistung eines Algorithmus anstrebt, wird ihn nicht gleichzeitig in die Schranken weisen. Sportwagen-Konstrukteure denken auch nicht ans Drosseln ihrer Fahrzeuge, sondern an die maximale Höchstgeschwindigkeit, auch wenn das Opfer zur Folge hat.
Und die Politik? Ist mit der Situation überfordert. Das soll kein Vorwurf sein, in einer Demokratie kann das eben dauern. Trotzdem sollten unsere Politiker jetzt aufwachen und in Sachen Cybersecurity insbesondere bei KI regulierend eingreifen. Denn es ist nicht fünf vor, sondern eigentlich schon weit nach zwölf. Eine Kontrollinstanz, am besten eine staatliche, ist dringend erforderlich. Diesen Prozess initiieren können nur politische Entscheidungen. Die EU hat zwar mit dem sogenannten AI Act bereits einen ersten Gesetzesentwurf zur Regulierung von künstlicher Intelligenz auf den Weg gebracht. Doch dieser adressiert lediglich konkrete risikoreiche Anwendungsfälle von KI – eine Überwachung mithilfe von Gesichtserkennung, wie es in China längst Alltag ist, wird in Europa etwa nicht erlaubt sein. Die Gefahren, die von Manipulationen ausgehen, berücksichtig der AI Act hingegen nicht.
Fazit: KI ist manipulierbar und muss geschützt werden
KI wird in naher Zukunft sicher nicht die Menschheit dominieren, doch es droht trotzdem Gefahr. Der Fokus auf Superintelligenzen darf uns nicht von etwas viel Näherliegendem ablenken: dem Missbrauch durch Hacker. Dieser Umstand sollte ein zentraler Gegenstand öffentlicher Sorge in Zusammenhang mit künstlicher Intelligenz sein.
Wenn KI schon bald zu unserem Alltag gehört, werden wir ihr irgendwann vertrauen müssen – und damit einem Werkzeug, mit dem sich durch Manipulation alternative Realitäten schaffen lassen, die unter Umständen willig akzeptiert werden. In welcher Weise die menschliche Psyche dabei als Komplize dienen kann, zeigt sich jeden Tag eindrucksvoll in den sozialen Medien.
Über solche konkreten Risiken wird ungern gesprochen, lieber über Weltherrschafts-Szenarien fabuliert. Aber für Angriffe auf unsere freiheitliche Demokratie reichen schon aktuell verfügbare Systeme. Es wäre naiv zu glauben, dass sich mit deren Missbrauch niemand beschäftigt.
Weitere Informationen zu indevis sind im Lösungskatalog verfügbar.