Artificial Intelligence and Digital Trust | DigiCert Insights

Künstliche intelligenz
und digitales vertrauen

Die neuesten Erkenntnisse zum Zusammenspiel von KI
und Cybersicherheit

Generative KI birgt neue Bedrohungen – und neue Chancen.

Künstliche Intelligenz ist in vielen Aspekten unseres Lebens anzutreffen, und zwar seit Jahrzehnten. Ein Ende ist nicht abzusehen, ob uns das gefällt oder nicht. Da künstliche Intelligenz immer leistungsfähiger und in weiten Teilen unseres täglichen Lebens akzeptierter Bestandteil wird, müssen sich Unternehmen und andere Organisationen unvoreingenommen mit den damit verbundenen Vor- und Nachteilen auseinandersetzen.

Generative AI | DigiCert Insights

Auf einen blick: „gute KI“ und „böse KI“

  • Mit KI können sowohl gute als auch schlechte Absichten schneller und in größerem Maßstab umgesetzt werden.

  • Das in der Wirtschaft weit verbreitete maschinelle Lernen ist Hilfsmittel und Zielscheibe zugleich.

  • Der Hype um KI kann Risiken in den Hintergrund treten lassen.

  • Das Spektrum neuer Bedrohungen ist sehr groß und vielfältig.

  • Zur Abwehr KI-basierter Bedrohungen sind KI-gestützte Sicherheitskonzepte erforderlich.  

AI vs. AI | DigiCert Insights

1952

Arthur Samuel entwickelt das erste selbstlernende Computerprogramm, ein Damespiel.

97 %

der Unternehmen halten ChatGPT für vorteilhaft für das Geschäft.   

Quelle: Forbes Advisor, 2024

75 %

der Verbraucher sehen die KI-Nutzung von Unternehmen kritisch.  

Quelle: Forbes Advisor, 2024

3/4

der von CSO Online befragten Organisationen bestätigen einen Anstieg der Cyberangriffe über einen Zeitraum von 12 Monaten. Die meisten führen dies auf den Einsatz generativer KI zurück.

Quelle: CSO Online, 2023

46 %

der Organisationen befürchten, durch generative KI angreifbarer zu sein.  

Quelle: CSO Online, 2023

407 Mrd. USD

wird als Marktvolumen für KI im Jahr 2027 prognostiziert (Vgl.: 86,9 Mrd. USD im Jahr 2022).

Buzzword-bingo

Leider ist eine nüchterne Prognose der Auswirkungen von generativer KI kaum möglich. Schuld daran ist der aufgeregte Hype, der sie umgibt. „KI“ ist ein Schlagwort, dessen Inhalt völlig zu verschwimmen droht. Wollen Veranstalter von Tech-Konferenzen ihre Säle füllen, genügt das Wort „KI“ im Vortragstitel. Soll eine Softwarefunktion beworben werden, die auf maschinellem Lernen basiert, heißt sie plötzlich „KI“. Das Problem ist, dass dieser Hype die Realität verschleiert. Vorteile und Risiken dieser Technologie werden überspitzt dargestellt, sodass die einen alarmiert sind und die anderen dem Thema gegenüber abstumpfen.

Erschwerend kommt hinzu, dass viele – vor allem Techniklaien – gar nicht genau wissen, was KI eigentlich ist. 

AI Chip | DigiCert Insights

Künstliche Intelligenz – denkende Maschinen

Einfach gesagt, ist künstliche Intelligenz ebendies: Computersysteme, die die Abläufe menschlicher Intelligenz imitieren.

Beispiele: Verarbeitung von Sprache, Spracherkennung, Expertensysteme und Computer Vision.

Machine Learning | DigiCert Insights

Maschinelles Lernen – selbstdenkende Maschinen

Von Algorithmen gesteuerte Computersysteme werden mit einem Datensatz trainiert und sind dann in der Lage, automatisch daraus zu lernen und sich anzupassen.

Beispiele: Algorithmen für Inhaltsempfehlungen, prädiktive Analysen, Bilderkennung.

Deep Learning | DigiCert Insights

Deep Learning – Maschinen, die denken wie wir

Dieser Begriff bezeichnet eine Methode des maschinellen Lernens, bei der mehrschichtige Algorithmen und Recheneinheiten ein neuronales Netzwerk simulieren, wie Menschen es auch besitzen: das Gehirn.

Beispiele: Large Language Models (große Sprachmodelle), Übersetzung, Gesichtserkennung

Intelligente angriffe

Content authenticity

Identity manipulation

Phishing with dynamite

Prompt injection

Machine Hallucinations

Attack sophistication

Custom malware

Poisoned data

Privacy leaks

Authentisch wirkende Inhalte

Generative KI kann Originalinhalte äußerst realistisch kopieren. Wenn KI in guter Absicht zur Inhaltserstellung eingesetzt wird, drohen dadurch eventuell Urheberrechtsverletzungen. Nutzern mit schlechten Absichten bietet sich die Chance, mit gestohlenen Daten überzeugende Kopien der Inhalte als Eigenkreationen auszugeben oder weitere Angriffe einzuleiten. 

Identitätsmanipulation

In Sekundenschnelle kann generative KI ultrarealistische Bilder und Videos erstellen und sogar Videos während der Aufnahme verändern. Das kann das Vertrauen in eine Reihe kritischer Systeme – wie Gesichtserkennungssoftware, juristische Videobeweise und politische Informationskanäle – und praktisch jede Form des visuellen Identitätsnachweises erschüttern. 

Dynamit-Phishing

Mit generativer KI lassen sich Gesichter, Stimmen und Schreibstile, aber auch Unternehmens- und Markenidentitäten so gut simulieren, dass sie in äußerst effektiven, schwer aufzudeckenden Phishing-Angriffen eingesetzt werden können. 

Prompts als Einfallstore

Viele Unternehmen nutzen GenAI-Modelle „von der Stange“ und laufen bei deren Training oder praktischen Verwendung Gefahr, Opfer von Prompt Injection zu werden. Damit bringen böswillige Akteure die beliebten Tools dazu, vertrauliche Informationen preiszugeben. Unternehmen müssen ihre Modelle streng absichern und regelmäßig aktualisieren, um Exploits zu entgehen, die auf das jeweilige Basismodell abgestimmt sind.  

Halluzinationen

Die von KI so schnell generierten Erwiderungen oder Texte sind in der Regel überzeugend, aber inhaltlich nicht immer korrekt. Dies stellt gerade für Organisationen ein Problem dar, die mittels KI Informations- oder Hilfetexte für Nutzer erstellen oder die für die Bedrohungserkennung maschinelles Lernen einsetzen. An solchen Stellen können Fehler besonders teuer werden. 

Raffiniertere Angriffe

KI erstellt blitzschnell einsatzbereiten Code, der für breitgefächerte Angriffe von bisher unerreichter Geschwindigkeit und Komplexität genutzt werden kann. Gleichzeitig kann KI Schwachstellen in einer kompromittierten Codebase ausmachen, Angreifern den Zugang erleichtern und die Angriffsfläche dadurch vergrößern.  

Individuelle Malware

Beliebte Large Language Models (LLM) sind in gewissem Maß gegen Nutzer geschützt, die damit Schadcode erstellen wollen. Ein Angreifer muss allerdings nur ein wenig raffinierter vorgehen, dann bröckelt die Abwehr. Diese Sicherheitsvorkehrungen lassen sich aus gestohlenen oder kopierten Modellen entfernen, sodass Bedrohungsakteure schnell sehr gut verschleierte, äußerst flexible Exploits entwickeln können. 

Manipulierte Daten

Angriffe müssen nicht unbedingt auf die KI selbst abzielen. Mit der Absicht, den Output zu verfälschen, können es Angreifer auch auf die Daten abgesehen haben, mit denen Modelle des maschinellen Lernens trainiert werden. Dieses Einfallstor wird dann genutzt, um Exploits im Modell selbst zu platzieren (z. B. gefälschte DNA-Sequenzen im Strafregister) oder für das betroffene Unternehmen schädliche Ergebnisse zu erzeugen.  

Datenlecks

KI, die mithilfe von sensiblen Daten trainiert wird oder solche Daten nutzt, kann diese Daten preisgeben, sei es durch einen Fehler – so geschehen bei mehreren der bekannten kommerziellen Modelle – oder durch eine gezielte Attacke. 

Das sagt die KI

Wir baten ChatGPT, die größten Bedrohungen aufzulisten, die generative KI mit sich bringt. Das ist die Antwort: 

Generative KI birgt ein beträchtliches Potenzial für Innovationen und Kreativität, doch sie ist auch von besonderen Herausforderungen und Bedrohungen im Bereich der Cybersicherheit begleitet. Hier sind einige davon:

  1. Erstellung täuschend echter Inhalte
  2. Automatisierte Cyberangriffe
  3. Umgehung herkömmlicher Sicherheitsmaßnahmen
  4. Gesetzeswidriger Einsatz von KI
  5. Bedenken rund um den Datenschutz
  6. Manipulation digitaler Beweise
  7. Aufkommen KI-gestützter Bedrohungsakteure im Cyberraum
ChatGPT Reply | DigiCert Insights

Intelligente scherheit

Dieselben Funktionen, die KI so nützlich für Angreifer machen, können bzw. müssen zur Verstärkung der Cybersicherheitsmaßnahmen genutzt werden. Dadurch gelingt es Unternehmen, effektivere und agilere Cybersicherheitstechnologien zu entwickeln und besser mit der „Schwachstelle“ Mensch umzugehen.

Artificial Intelligence and Digital Trust 

Schnellere, präzisere Erkennung

KI ist in der Lage, zuverlässiger als Menschen Muster zu erkennen. Wird einem Algorithmus für maschinelles Lernen eine detaillierte, umfassende Norm für das Verhalten von Systemen und Menschen präsentiert, kann er auch kleinste Abweichungen feststellen.

Artificial Intelligence and Digital Trust

Schnelle Beurteilung und Anpassung

Mit KI lassen sich äußerst zuverlässige, sich selbst verbessernde Sicherheitsrichtlinien erstellen. Hierfür werden Informationen von außen genutzt, zum Beispiel zu entdeckten Bedrohungen, und die Sicherheitsvorkehrungen angepasst – all dies viel schneller, als es Menschen können.

Artificial Intelligence and Digital Trust

Vermeiden menschlichen Versagens

In jedem Cybersicherheitsprogramm ist wahrscheinlich der Mensch das schwächste Glied der Kette. Das Risiko menschlichen Versagens minimiert die KI, indem sie bestimmte Aufgaben automatisiert und dann präziser und schneller ausführt als die vorher dafür Verantwortlichen. Diese haben somit mehr Zeit für kritische Aufgaben, die nur sie erledigen können.

Artificial Intelligence and Digital Trust 

Schulung und Effizienzsteigerung

Mit KI-Tools lassen sich Simulationen und Schulungen realistischer gestalten. Sie helfen Teams, sich schneller mit fortschrittlichen Cybersicherheitsmethoden und -technologien vertraut zu machen, und Experten, effizienter zu arbeiten. Sie fördern die Innovationskraft und beschleunigen die Entwicklung neuer Cybersicherheitstools.

Artificial Intelligence and Digital Trust

Netzwerksicherheit

Erkennt die KI ein neues Muster, kann sie automatisch darauf reagieren, indem sie den Datenverkehr um anfällige Server herumleitet. Außerdem kann sie enorme Mengen an Geräten schneller und häufiger überprüfen, Infektionen vor der Ausbreitung isolieren und die ungewünschte Bereitstellung sensibler Daten minimieren. 

Artificial Intelligence and Digital Trust

Reaktion auf Bedrohungen

Da KI umgehend in den unterschiedlichsten Systemen und Netzen aktiv werden und dabei noch riesige Datenmengen verarbeiten kann, haben Organisationen die Chance, auch besonders raffinierte Angriffe abzuwehren – teilweise lange bevor ein herkömmliches Tool sie entdeckt hätte.

Artificial Intelligence and Digital Trust

Automatisierte Verwaltung

Ob Zertifikatserneuerungen oder Patchmanagement – KI kann mühselige Aufgaben übernehmen und Unternehmen so dabei helfen, auf dem neuesten Stand der Sicherheit zu bleiben. 

Artificial Intelligence and Digital Trust

Umfang und Geschwindigkeit

KI kann Richtlinien und Lösungen global und um ein Vielfaches schneller als der Mensch bereitstellen und aktualisieren. 

Artificial Intelligence and Digital Trust

Phishing, Identitätsprüfung und Schutz geistigen Eigentums

Wird KI auf die Erkennung von KI-generiertem Content trainiert, können schädliche, irreführende oder betrügerische Inhalte so schnell gekennzeichnet und entfernt werden, dass sich Nutzern keine Gelegenheit bietet, darauf hereinzufallen. Dies steigert nicht nur die Zuverlässigkeit von Anti-Phishing-Programmen, sondern verhindert auch andere Formen der Identitätsfälschung und schützt originäre Inhalte sowie geistiges Eigentum.  

Ähnliche ressourcen

WEBINAR

Vorbereitung auf das Post-Quanten-Zeitalter

Post Quantum Computing Insights
Blog

Identifizieren kryptografischer Ressourcen in Vorbereitung auf das Quantenzeitalter

Preparing for the Quantum World with Crypto-Agility
Bericht

Gartner-Bericht 2022 zu Post-Quanten-Kryptografie