Digitale Verteidigung Gerrit Hohmann Wie Künstliche Intelligenz die Sicherheit und Verteidigung verändert
www.walhalla.de WISSEN FÜR DIE PRAXIS • AKTUELL • PRAXISGERECHT • VERSTÄNDLICH Künstliche Intelligenz im Sicherheitskontext Künstliche Intelligenz (KI) verändert nicht nur Wirtschaft und Gesellschaft, sondern auch die Grundlagen staatlicher und militärischer Sicherheitsarchitektur. Das Fachbuch analysiert Chancen und Risiken des KI-Einsatzes in den Bereichen: • Bundeswehr und NATO • Polizei und innere Sicherheit • Cyberabwehr und Informationssicherheit • Gesellschaftliche Resilienz Aktuelle Fallbeispiele – von Deepfakes im Ukrainekrieg über Predictive Policing bis hin zu autonomen Drohnensystemen – zeigen die Möglichkeiten und Gefahren des Einsatzes von KI auf und verdeutlichen, wie KI schon heute Entscheidungsprozesse im Bereich der Sicherheit und Verteidigung beeinflusst. Aus dem Inhalt: • Überblick über technische Grundlagen der KI • Analyse aktueller Anwendungsfelder bei der Bundeswehr, Polizei und NATO • Darstellung von Chancen und Gefahren für Sicherheit und Gesellschaft • Bewertung regulatorischer Rahmenbedingungen • Ethische und rechtliche Fragestellungen im Einsatz von KI • Orientierung für verantwortungsbewusste Gestaltung und Nutzung Der Titel richtet sich an alle, die KI nicht nur verstehen, sondern auch verantwortungs- voll gestalten wollen – ob in Uniform, Verwaltung oder Gesellschaft. Gerrit Hohmann ist Pressestabsoffizier bei der Bundeswehr und NATO, mit dem Schwerpunkt Social Media. Ursprünglich stammt er aus dem wirtschaftlichen Bereich. Während seines gesamten beruflichen Werdegangs konnte er Erfahrungen mit KI in ziviler und militärischer Hinsicht sammeln.
11 10 9 8 7 6 5 4 3 2 1 Abkürzungsverzeichnis 7 Einleitung 13 Grundlagen der Künstlichen Intelligenz 21 Rechtliche Rahmenbedingungen national 51 Politisch-gesellschaftliche Auswirkungen der KI 79 KI im Einsatz bei der Polizei und Strafverfolgung 89 Schutz kritischer Infrastrukturen durch KI 123 KI in der Terrorismusbekämpfung und Extremismusprävention 139 KI-Technologien in der Bundeswehr und NATO 175 Autonome Waffensysteme und ethische Herausforderungen 207 Cyberkrieg und hybride Kriegsführung mit KI 221 Schnellübersicht
15 14 13 12 KI in Mobilität, Wirtschaft, Gesellschaft und Alltag 251 KI und soziale Folgen 295 Internationale KI-Regulierung und geopolitische Implikationen 323 Zukunftsszenarien und Fazit 343
Einleitung 14 www.WALHALLA.de 1 1.1 Warum dieses Buch? Eine persönliche Motivation Im Jahr 2017 war ich Manager für Produkt-PR bei Jaguar Land Rover. Zu diesem Zeitpunkt berichteten Medien häufig über vollautonome Fahrzeuge, Elektroantriebe und KI-gestützte Fahrsysteme – so, als stünden diese unmittelbar vor der Tür. Diese Aufbruchstimmung beflügelte viele Projekte, warf jedoch auch kritische Fragen auf: Was passiert mit traditionellen Arbeitsplätzen, wenn Autos keine Fahrer mehr benötigen? Wer haftet im Fall eines Unfalls? Und wie lassen sich die enormen Datenmengen kontrollieren, die ein autonomes Fahrzeug erzeugt? Diese Spannungen zwischen visionären Ideen und konkreter Verantwortung haben mich seither begleitet und schließlich zur Idee dieses Buchs geführt. Künstliche Intelligenz (KI) ist weit mehr als ein kurzlebiger Trend. Sie verändert nahezu alle Lebens- und Arbeitsbereiche – vom Verkehr über die Medizin bis hin zur Verteidigung – und Sicherheitspolitik, wie der Angriff der Ukraine mit KI-gestützten Drohnen auf die russischen Flughäfen im Juni 2025 vermutlich gezeigt hat. Mein Ziel ist es, Sie in diese faszinierende, häufig aber unterschätzte Welt der KI mitzunehmen und zu zeigen, dass technologische Euphorie nur im Verbund mit gesellschaftlichen und sicherheitspolitischen Aspekten betrachtet werden sollte. 1.2 Willkommen in der faszinierenden Welt der KI Vielleicht haben Sie heute schon mit einem Sprachassistenten geplaudert, der Ihren Lieblingssong gespielt hat, noch bevor der erste Kaffee fertig war. Oder Sie lesen diese Zeilen gerade auf einem Smartphone, das mithilfe von KI bereits Ihre Termine sortiert, Ihre E-Mails priorisiert oder Ihnen von allein die beste Route zum nächsten Termin vorschlägt. Und nicht zuletzt sind Chatbots wie ChatGPT inzwischen in zahlreichen Büros und Homeoffices Alltag geworden und verblüffen uns mit ihrer erstaunlich menschlichen Ausdrucksweise. So praktisch und komfortabel diese Anwendungen auch sind – sie bringen subtile Risiken mit sich. KI-Systeme übernehmen zunehmend Entscheidungen, die bisher menschliche Erfahrung und Intuition erforderten. Aktuelle sicherheitspolitische Herausforderungen verdeutlichen dies etwa im Umgang mit Deepfakevideos und KI-generierter Desinformation, die im Kontext des russischen
1.2 Willkommen in der faszinierenden Welt der KI 15 www.WALHALLA.de 1 Angriffskriegs gegen die Ukraine zu einer ernsthaften Bedrohung demokratischer Gesellschaften geworden sind. Genau hier setzt dieses Buch an: Es geht nicht um die bloße Begeisterung für digitale Innovationen, sondern um eine kritische und realistische Betrachtung der Risiken, die entstehen, wenn wir immer mehr Verantwortung an Algorithmen abgeben. Gerade im Bereich der Verteidigungs- und Sicherheitspolitik stehen große Herausforderungen bevor. Für die Bundeswehr kann KI einen erheblichen Fortschritt bedeuten – etwa durch präzisere Auswertung komplexer Lagebilder, effizientere Wartungsprozesse von Militärfahrzeugen oder intelligente Frühwarnsysteme, die Bedrohungen schneller erkennen und neutralisieren. Solche Chancen bringen jedoch gleichzeitig neue und schwerwiegende Risiken mit sich, etwa das Entstehen unkontrollierbarer autonomer Waffensysteme oder die Gefahr hoch entwickelter KI-basierter Cyberangriffe, die kritische Infrastrukturen (KRITIS) innerhalb von Sekunden lahmlegen könnten. Gerade weil das technologische Potenzial so verführerisch ist, darf die Begeisterung für Innovationen nicht den Blick auf ethische, rechtliche und sicherheitspolitische Grenzen verstellen. Nur wenn wir diese Grenzen bewusst definieren und konsequent wahren, lässt sich Künstliche Intelligenz verantwortungsvoll einsetzen – zum Wohl der Gesellschaft und ihrer Sicherheit. Künstliche Intelligenz hat sich längst in unseren Alltag eingeschlichen – oft so unauffällig, dass wir kaum bemerken, wie tief sie unsere Abläufe durchdringt. Das Smartphone entsperrt sich per Gesichtserkennung, Streamingdienste schlagen uns Filme vor und Navigationsapps warnen vor Staus, die wir noch nicht einmal sehen können. Im Beruf helfen Datenmodelle bei der Fehlersuche, planen Personal oder prognostizieren Wartungsintervalle. Genau diese „Unsichtbarkeit“ kann trügerisch sein. Häufig wissen wir nicht, welche Daten gesammelt werden, wie die Algorithmen arbeiten oder wer sie in Auftrag gibt. In sicherheitsrelevanten Bereichen kann mangelnde Transparenz gefährlich sein: Fehlerhafte KI-Prognosen oder Manipulationen könnten im Extremfall Leben kosten. Wer in Streitkräften oder Sicherheitsbehörden Verantwortung trägt, muss deshalb die Potenziale ebenso verstehen wie die Grenzen KI-gestützter Technologien.
Einleitung 16 www.WALHALLA.de 1 Ein Beispiel aus dem Sommer 2025 verdeutlicht diese Risiken: Im Rahmen des russischen Angriffskriegs gegen die Ukraine wurden Deepfakevideos eingesetzt, um Desinformation zu verbreiten und das Vertrauen in staatliche Institutionen zu untergraben. So kursierten manipulierte Videos, in denen ukrainische Offiziere angeblich zum Aufgeben aufriefen oder politische Führungspersonen kompromittierende Aussagen machten. Diese Täuschungen wurden gezielt eingesetzt, um Verwirrung zu stiften und die Moral der Bevölkerung sowie der Streitkräfte zu schwächen. Solche Vorfälle zeigen, wie KI-basierte Technologien nicht nur zur Effizienzsteigerung, sondern auch als Werkzeuge der Informationskriegsführung genutzt werden können. Sie unterstreichen die Notwendigkeit, ethische und rechtliche Rahmenbedingungen zu schaffen, um den verantwortungsvollen Einsatz von KI sicherzustellen. Manche Menschen träumen von einer KI, die uns ein Zeitalter ungeahnter Möglichkeiten eröffnet. Andere wiederum fürchten eine übermächtige „Superintelligenz“, die unsere Kontrolle übersteigt. Die Wirklichkeit liegt meist zwischen diesen beiden Polen: KI beschleunigt schon heute Arbeitsprozesse enorm und verringert Fehlerquoten, zugleich stellt sie uns jedoch vor tiefgreifende gesellschaftliche, ethische und sicherheitspolitische Herausforderungen. Dieses Buch möchte weder Ängste schüren noch unrealistische Versprechen geben. Vielmehr analysiert es anhand konkreter Praxisbeispiele, wo KI aktuell echten Mehrwert schafft, wo sie auf Grenzen stößt und wie diese Entwicklungen insbesondere aus Sicht deutscher Sicherheits- und Verteidigungsinteressen einzuordnen sind. Denn nur wer Risiken frühzeitig erkennt, transparent benennt und strategisch handelt, der kann langfristig von KI profitieren – ohne dabei zu hohe gesellschaftliche oder sicherheitspolitische Kosten in Kauf zu nehmen. Wir stehen vor einem tiefgreifenden Strukturwandel: Während ITFachkräfte hervorragende Chancen haben, werden andere Berufsfelder durch Automatisierung verändert oder verdrängt. Besonders betroffen sind Tätigkeiten mit standardisierbaren, repetitiven Abläufen wie etwa in der Buchhaltung, im Kundenservice oder in der Datenverarbeitung. Gleichzeitig entstehen neue Anforderungen an Arbeitskräfte, die sich stärker auf kreative, strategische und soziale Fähigkeiten konzentrieren müssen.
1.2 Willkommen in der faszinierenden Welt der KI 17 www.WALHALLA.de 1 Auch die Bundeswehr sucht vermehrt Menschen mit Fähigkeiten in der Datenauswertung, KI-Entwicklung oder Cybersicherheit. Der Cyber- und Informationsraum der Bundeswehr spielt dabei eine zentrale Rolle, indem er Daten auf verschiedenen Ebenen aufklärt, von strategischer bis taktischer Aufklärung. Aber was bedeutet das für diejenigen, deren Routineaufgaben künftig von Algorithmen übernommen werden? Wie können wir Soldatinnen, Soldaten und zivile Mitarbeitende qualifizieren, damit sie im zunehmend digitalisierten Umfeld ihre Stärken einbringen? Ein Beispiel verdeutlicht die Bedeutung ethischer Standards im Umgang mit KI: Mit dem Inkrafttreten der KI-Verordnung der EU 2024 müssen Unternehmen strenge Vorschriften für den ethischen Einsatz von KI einhalten. Dazu gehören Risikobewertungen, Transparenzpflichten und die Anpassung an Compliance-Standards. Unternehmen, die in der EU tätig sind, müssen ihre KI-Governance dokumentieren, um Sanktionen zu vermeiden. Auch Wertefragen rücken in den Fokus: Darf KI beim Personaleinsatz oder gar bei Einsatzzielen entscheiden? Und wie vermeiden wir eine schleichende Bevormundung, wenn Algorithmen selbst alltägliche Empfehlungen liefern? Wer die technologische Entwicklung aktiv mitgestalten will, der muss sich diesen Fragen stellen – ob als Institution oder als Einzelperson. Trotz aller Bedenken bleibt das Potenzial der Künstlichen Intelligenz enorm. Im zivilen und militärischen Kontext kann KI dabei helfen, menschliche Fehler zu minimieren, Prozesse deutlich zu beschleunigen und Ressourcen effizienter zu nutzen. Selbst humanitäre Einsätze profitieren zunehmend von KI-Systemen, die Risiken frühzeitig erkennen, bevor sie eskalieren – etwa bei Katastrophenhilfe oder Logistikplanung. Die Software des US-Unternehmens Palantir Technologies ist ein Paradebeispiel. Während die Bundeswehr derzeit keine Lösungen von Palantir einsetzt, vertrauen deutsche Polizeibehörden wie jene in Hessen, Nordrhein-Westfalen und Bayern auf Palantirs Plattformen, um komplexe Datenbestände in Echtzeit auszuwerten und kriminelle Netzwerke besser zu erkennen. Auch die NATO nutzt seit April 2025 Palantirs KI-gestütztes „Maven Smart System“, um Gefechtsfelder in Echtzeit zu analysieren und militärische Entscheidungen gezielt zu unterstützen.
Einleitung 18 www.WALHALLA.de 1 Doch hier wird auch deutlich, welche Risiken mit derartigen Systemen verbunden sein können. Obwohl KI-basierte Lösungen Prozesse verbessern und Effizienz steigern, bergen sie Gefahren wie die Abhängigkeit von undurchsichtigen Algorithmen oder potenzielle Fehlentscheidungen aufgrund unklarer Datenverarbeitung. Gerade im sicherheitsrelevanten Bereich muss daher klar definiert sein, welche Entscheidungen immer in menschlicher Hand bleiben müssen. Um sicherzustellen, dass aus Chancen keine unkontrollierbaren Risiken entstehen, sind klare regulatorische und ethische Rahmenbedingungen erforderlich. Eine entscheidende Rolle spielt dabei die EU-Verordnung für Künstliche Intelligenz, die seit Sommer 2025 verbindliche Standards für Transparenz, Datenverantwortung und den menschlichen Anteil am Entscheidungsprozess vorgibt. Denn letztlich bleibt die entscheidende Kernfrage: Welche Bereiche sollten wir niemals komplett an Algorithmen delegieren, um Verantwortung, Kontrolle und Sicherheit dauerhaft zu gewährleisten? 1.3 Eine Einladung zum Mitdenken Dieses Buch bietet nicht nur Einblicke in die technischen Grundlagen Künstlicher Intelligenz, sondern beleuchtet auch ihre gesellschaftlichen und sicherheitspolitischen Auswirkungen. KI ist weder Allheilmittel noch Schreckgespenst, sondern vielmehr ein mächtiges Werkzeug, dessen Einsatz Umsicht und Verantwortung verlangt. Gerade für die Bundeswehr und ihre Angehörigen kann ein fundiertes Verständnis von KI entscheidend sein – von ethischen Überlegungen bis hin zu konkreten Einsatzplanungen. Ich lade Sie ein, sich auf diese Reise einzulassen. Sie werden erkennen, welche Fragen wir uns als Gesellschaft stellen müssen und wie wir sicherstellen können, dass KI weder unsere Kontrolle noch unsere demokratischen Prinzipien gefährdet. Die folgenden Kapitel spannen einen Bogen von den Grundlagen der KI über konkrete Anwendungen in der inneren und äußeren Sicherheit bis hin zu realistischen Zukunftsszenarien. Ziel dieses Buchs ist es, Orientierung in einer Welt zu geben, in der Künstliche Intelligenz immer mehr zu einem prägenden Faktor unseres Lebens und Handelns wird.
1.3 Eine Einladung zum Mitdenken 19 www.WALHALLA.de 1 Ich wünsche Ihnen eine anregende Lektüre und danke Ihnen für Ihr Interesse und Engagement! Möge dieses Buch dazu beitragen, KI als strategisches Instrument zu verstehen – stets begleitet von dem Bewusstsein, dass wir alle Verantwortung für den klugen und ethisch vertretbaren Umgang mit dieser Technologie tragen.1 Gerrit Hohmann 1 Hinweis zur Aktualität: Die Inhalte dieses Buchs spiegeln den Stand der Informationen zum Zeitpunkt des Redaktionsschlusses wider. Aufgrund der fortlaufenden Entwicklungen in den behandelten Themenfeldern kann es vorkommen, dass sich einzelne Sachverhalte seither geändert haben .
7.3 Risiken und Grenzen: Fallstricke des KI-Einsatzes 149 www.WALHALLA.de 7 päischen Studie identifizieren aktuelle Überwachungsalgorithmen zwar rund 85 % extremistischer Inhalte korrekt, aber in etwa 15 % der Fälle kommt es zu Fehlalarmen, bei denen harmlose Posts als extremistisch markiert wurden. Das birgt das Risiko, Ressourcen zu verschwenden und Vertrauen der Bevölkerung zu verspielen. Umgekehrt sind False Negatives besonders tragisch: Dabei übersieht die KI eine echte Gefahr – etwa, weil Terroristen ihre Sprache leicht anpassen oder die Datenlage unvollständig ist. Ein übertriebener Glaube an die Technik könnte dazu führen, dass menschliche Wachsamkeit nachlässt und Warnzeichen ignoriert werden, wenn die KI sie nicht meldet. Die traurige Wahrheit ist: Jede Sicherheitsmaßnahme, die glaubt, einen Anschlag verhindern zu können, muss nur einmal irren, und die Konsequenzen können verheerend sein. Daher müssen KI-Systeme ständig geprüft, verbessert und mit realistischer Skepsis betrachtet werden. Fehlalarme lassen sich durch bessere Datengrundlagen und Feinjustierung reduzieren, aber nie völlig eliminieren. Ein verantwortungsvoller Umgang bedeutet, die Fehlerquote der KI offen zu kommunizieren und stets eine menschliche Überprüfung einzubauen. Diskriminierung durch Bias in den Daten KI ist nur so fair wie die Daten, auf denen sie trainiert wird. Wenn diese Daten Verzerrungen oder Vorurteile (Bias) enthalten, besteht die Gefahr, dass die KI bestimmte Gruppen systematisch benachteiligt. Im Kontext von Terrorismus und Extremismus ist das hochsensibel: Daten könnten überrepräsentativ Personen bestimmter Herkunft oder Religionszugehörigkeit als Verdächtige aufführen (etwa, weil nach 2001 vor allem muslimische Namen in Terrorismusdatenbanken landeten). Eine KI, die daraus lernt, könnte unbewusst jeden „Ali“ oder „Ahmed“ stärker verdächtigen als einen „Max“ – selbst bei identischem Verhalten. So etwas wäre ein eklatanter Verstoß gegen Gleichheitsgrundsätze und würde Minderheiten stigmatisieren. Beispiel: Wenn Gesichtserkennungssysteme überwiegend mit Bildern hellhäutiger Männer trainiert wurden (was oft der Fall ist), erkennen sie dunkelhäutige oder weibliche Gesichter wesentlich ungenauer. In der Praxis führte dies bereits dazu, dass unschuldige Schwarze fälschlich als gesuchte Kriminelle identifiziert wurden, weil der Algorithmus sie verwechselt hat.
KI in der Terrorismusbekämpfung und Extremismusprävention 150 www.WALHALLA.de 7 Übertragen auf Terrorabwehr könnte das bedeuten, dass ethnische Minderheiten häufiger als „verdächtig“ von Kameras markiert werden. Solche algorithmischen Vorurteile unterminieren nicht nur die Effektivität (weil sie zu vielen Fehlfahndungen führen), sondern vor allem die Legitimität der Sicherheitsbehörden. Bürger würden – zurecht – massive Kritik üben, wenn KI-Systeme diskriminierende Tendenzen zeigen. Das Vertrauen in die gesamte Terrorbekämpfung könnte erschüttert werden. Es ist also zwingend nötig, KI-Modelle auf Bias zu testen und Trainingsdaten divers und repräsentativ zu halten. Zudem sollten Entscheidungen nie aufgrund eines KIScores blind automatisiert getroffen werden, insbesondere wenn Grundrechte auf dem Spiel stehen. Die Gefahr unbewusster Diskriminierung mahnt zur Vorsicht: KI ist kein neutraler Richter, sondern spiegelt (verzerrt) die Realität der Daten wider. Datenschutz und Grundrechtsverletzungen In kaum einem Feld prallen Sicherheit und Freiheit so frontal aufeinander wie bei präventiver Überwachung durch KI. Um KI-Systeme mit genügend Informationen zu füttern, neigen Behörden dazu, möglichst viele Daten zu sammeln und zu verknüpfen – Bewegungsprofile, Kommunikationsdaten, Kameraaufnahmen, Social-MediaPosts etc. Doch das kollidiert schnell mit Datenschutzgesetzen und grundrechtlich geschützten Freiheiten. Ein prominenter deutscher Fall ist die Software Hessendata (Palantir), die der Polizei erlaubt, über verschiedene Datenbanken hinweg automatisierte Analysen durchzuführen. Das Bundesverfassungsgericht entschied 2023, dass die gesetzlichen Grundlagen für diesen KI-gestützten „Blick in die Glaskugel“ in Hessen und Hamburg zu weit gefasst und teils verfassungswidrig sind.20 Die Richter verlangten strenge Vorgaben, damit nicht praktisch jeder Bürger ohne konkreten Anlass ins Fadenkreuz solch einer Datenanalyse geraten kann. Hier zeigt sich ein Kernproblem: KI macht eine Massenüberwachung technisch einfacher – aber rechtlich bleibt diese in Demokratien stark begrenzt. In Frankreich warnen Kritiker, dass neue Antiterrorgesetze mit KI-Algorithmen die Privatsphäre aushöhlen könnten. Und Palästinenser bezeichneten Israels prädiktive Überwachung (die bereits Verdächtige vor einer Tat festnimmt) als „horrific“ und als einen klaren Verstoß gegen das Recht auf Privatsphäre. Grundrechte wie das Recht auf 20 Bundesverfassungsgericht (2023): Urteil zum Einsatz von „Hessendata/Palantir“ in der Polizeiarbeit. Az. 1 BvR 1547/19 (Entscheidung vom 16. 02. 2023).
7.3 Risiken und Grenzen: Fallstricke des KI-Einsatzes 151 www.WALHALLA.de 7 informationelle Selbstbestimmung oder die Unschuldsvermutung dürfen nicht unter die Räder kommen, nur weil eine KI es möglich macht, theoretisch alles über jeden zu wissen. Selbst wenn Gesetzgeber Ausnahmen für Terrorabwehr schaffen – wie etwa in der KI-Verordnung Ausnahmen für biometrische Echtzeitüberwachung bei Terrorgefahr vorgesehen sind –, müssen diese eng begrenzt und transparent kontrolliert sein. Die Spannung zwischen Sicherheitsinteresse und Bürgerrechten ist ein zentrales ethisches Dilemma. Unkontrollierter KI-Einsatz könnte zu einem Überwachungsstaat führen, in dem das Verhalten aller präventiv gescannt wird – eine Vorstellung, die dem freiheitlichen Rechtsstaat diametral entgegensteht. Daher sind Datenschutzfolgenabschätzungen, unabhängige Aufsicht und klare Grenzen essenziell, bevor KI-Tools in Betrieb gehen. Sonst drohen neben juristischen Konsequenzen (Beweisverwertungsverbote, Klagen) vor allem Vertrauensverluste in die Sicherheitsbehörden. Technologische Angreifbarkeit und Manipulation Ironischerweise können die Hightechsysteme selbst zum Angriffsziel oder zur Achillesferse werden. Gegenspieler– seien es Terroristen oder staatliche Akteure – könnten versuchen, die KI-Systeme gezielt zu täuschen oder zu sabotieren. In der Forschung spricht man von „Adversarial Attacks“: Durch minimale, für Menschen oft kaum erkennbare Veränderungen an Eingangsdaten lassen sich KI-Modelle in die Irre führen. Ein einfaches Beispiel: Speziell bedruckte Muster auf einem T-Shirt oder einer Brille könnten eine Gesichtserkennungs-KI aushebeln, sodass der Träger von der Kamera nicht mehr als Person erkannt wird. Tatsächlich ist es Forschern gelungen, mit präparierten Brillengestellen Face-ID-Systeme zu überlisten. Man kann sich vorstellen, dass Terroristen solche Tricks nutzen, um unter dem Radar zu bleiben – quasi ein Tarnumhang gegen KI. Ebenso könnten Angreifer Schadprogramme einschleusen, um die KI von innen heraus zu manipulieren. Wenn jemand die Trainingsdaten eines Systems fälscht, dann könnte er erreichen, dass gewisse Muster absichtlich nicht mehr als verdächtig eingestuft werden. Terroristen könnten gezielt falsche Spuren legen, um KI-Warnsysteme auszulö
RkJQdWJsaXNoZXIy MTM5MDIz