KI birgt große Probleme in der Cybersecurity
In ihrem jüngsten Bericht warnt die europäische Behörde für IT-Sicherheit, Enisa, drastisch vor den Herausforderungen von künstlicher Intelligenz in Bereichen wie Gesundheit, Verkehr, Produktion und Finanzen.
„Artificial Intelligence Cybersecurity Challenges“, so heißt einer der neuesten Berichte der EU-Agentur Enisa (European Union Agency for Cybersecurity). Zwar sieht die Behörde darin Potenziale der künstlichen Intelligenz für die Sicherheit von IT-Systemen und beim Kampf gegen Cyberkriminalität. Doch auch die Warnungen sind deutlich.
Die aufstrebende Technologie berge auch große Probleme für die IT-Security, heißt es da. Ihre Anwendung könne gerade bei sicherheitskritischen, auf automatisierte Entscheidungsfindung setzenden Anwendungen wie autonomen Fahrzeugen, intelligenter Fertigung und E-Health Individuen und Organisationen teils „unvorhersehbaren Risiken aussetzen“, so lauten die Befürchtungen der Enisa, die die EU und ihre Mitgliedstaaten in Sachen Netzsicherheit berät.
Sicherheit für die gesamt Lieferkette
Künstliche Intelligenz durchläuft laut der Analyse viele Schritte in der Lieferkette und benötigt große Datenmengen, um effizient zu funktionieren. Die EU müsse daher „gezieltere und angemessenere Sicherheitsmaßnahmen“ treffen, um die identifizierten Bedrohungen abzuschwächen, das berichtet Heise Online. Es sei vor allem nötig, den Einsatz der Technik in Sektoren wie Gesundheit, Automobil und Finanzen vorab genau zu prüfen. Die Komplexität der Herausforderungen erfordere ein spezielles europäisches Ökosystem für sichere und vertrauenswürdige KI. Das wiederum müsse alle Elemente der Lieferkette umfassen.
Wie Heise berichtet, spricht die Enisa von einem „Wettlauf“, der für die EU angesichts ihrer langfristigen strategischen Ziele für KI von besonderer Bedeutung sei. Gefragt sei neben einem gemeinsamen Verständnis für die Risiken eine „KI-Toolbox mit konkreten Abhilfemaßnahmen“ für verschiedene Akteure.
Angreifer unterwandern Transparenz
Im Bereich IT-Sicherheit könne die Technik etwa die Integrität, Vertraulichkeit und Authentizität gefährden, erklärt der Bericht. Angreifer dürften es auch darauf anlegen, die Transparenz von KI-Lösungen zu unterwandern. Schon eine schlechte Datenqualität könne zu algorithmischen Entscheidungen führen, „die Personen fälschlicherweise klassifizieren und von bestimmten Diensten ausschließen oder ihnen ihre Rechte vorenthalten“.
Laut den Autoren sind KI-Systeme und -Anwendungen, so der Onlinedienst, imstande, die menschliche Kontrolle über personenbezogene Daten erheblich einzuschränken und so zu Rückschlüssen auf Personen zu führen, die sich direkt auf deren Grundfreiheiten auswirkten.
Drastische Bedrohungsszenarien
Die im Enisa-Bericht ausgearbeiteten Bedrohungsszenarien beginnen bei schadhaften Aktivitäten über die Qualitätsminderung von Diensten und gehen bis hin zu gezieltem Missbrauch. Solche Praktiken könnten es u. a. darauf angelegen, die der Technik zugrunde liegenden IT-Systeme, Infrastrukturen und Netzwerke zu verändern oder zu zerstören. Die Übernahme von Prozessen, physische Angriffe auf Hardware und unbeabsichtigte Beschädigungen von Anlagen hat die Analyse im Visier. Wen wunderts, dass die Enisa-Experten, laut Heise online, sogar mit einem Unfall oder einer Naturkatastrophe rechnen, „die großen Schaden oder den Verlust von Menschenleben verursacht“.
Qualitätssiegel „KI made in Europe“
Die Enisa empfiehlt nach ihrer Analyse, rasch bestehende Lücken rund um KI und IT-Sicherheit auszumachen. Schon ersichtlich sei, dass weitere Arbeiten im Bereich der automatischen formalen Verifikation und Validierung, der Erklärbarkeit und neuartiger Sicherheitstechniken zur Abwehr aufkommender KI-Bedrohungen nötig seien. Nur so könnten in Europa vertrauenswürdige KI-Algorithmen und -Lösungen entstehen. Sie seien wichtig, um industrielle und sicherheitstechnische Abläufe sowie die Wettbewerbsfähigkeit des Binnenmarkts zu verbessern. „KI made in Europe“ müsse als Gütesiegel für ethische, sichere und hochmoderne Systeme stehen.