Prognosen
KI als Zeitenwende für die IT-Sicherheit
In zwei Vorhersagen sind sich alle Experten ein: Künstliche Intelligenz wird 2024 ein maßgeblicher Faktor für die Cybersecurity sein und sowohl die Angreifer wie die Verteidiger werden davon profitieren. Offen ist nur, wer mehr davon hat.
Im Folgenden haben wir eine Reihe von Einschätzungen zu den Folgen des KI-Siegeszugs zusammengestellt. Vertreten sind Artic Wolf, Cloudflare, Exeon, Informatica, Kaspersky, KnowBe4, Sophos und VIPRE. Weitere Einschätzungen anderer Sicherheitsunternehmen zur KI finden Sie in den Artikeln mit „Security-Prognosen“ –eingebettet in Einschätzungen zu anderen Themen.
Arctic Wolf: Human-AI-Partnership
Arctic Wolf, ein Anbieter von Security Operations Services, hat einem kürzlich publizierten Bericht den Titel „The Human-AI Partnership“ gegeben. Dafür befragt wurden von der CyberRisk Alliance 800 IT- und Cybersecurity-Verantwortlichen in Großunternehmen, in den USA und Großbritannien sowie bei 100 Führungskräfte in Deutschland.
Die Kernaussagen der Studie lauten:
- Trotz Branchenhype steckt die Investition in KI-gestützte Cybersicherheitslösungen in Deutschland noch in den Kinderschuhen
- Threat Detection und Automatisierung sind die wichtigsten Anwendungsfälle für KI
- Cybersecurity-Verantwortliche sehen den Menschen als wesentlichen Faktor bei der Realisierung von Effizienzgewinnen durch KI
- Führungskräfte sind skeptisch bei kurzfristigen Vorteilen großer Sprachmodelle (Large Language Models, LLMs) in der Cybersicherheit
Dan Schiappa, Chief Product Officer bei Arctic Wolf, und Daniel Thomas, Researcher der CyberRisk Alliance, erwarten, dass der Einsatz Künstlicher Intelligenz in der Cyberabwehr menschliche Security-Experten nicht etwa überflüssig macht. „Die Umfrage zeigt, dass die Rolle der künstlichen Intelligenz bei der Verbesserung von Threat Detection and Response unbestreitbar ist. Es ist aber auch wichtig zu erkennen, dass Technologie allein Unternehmen nicht vor modernen Bedrohungen schützen kann“, erläutert Dan Schiappa, Chief Product Officer bei Arctic Wolf, diese These.
„Da die Bedrohungsakteure immer fortschrittlicher werden und KI-Tools einsetzen, werden Menschen eine wesentliche Rolle bei der Untersuchung neuartiger Angriffe spielen. Sie werden weiterhin deren Kontext für ihr Unternehmens aufzeigen und – was am wichtigsten ist – ihr Wissen und ihre Erfahrung nutzen, um genau die KI- und maschinellen Lernmodelle zu trainieren, die tief in die Cybersicherheitslösungen der nächsten Generation eingebettet sein werden,“ so Schiappa.
Daniel Thomas, Researcher der CyberRisk Alliance, erwartet ebenfalls eine Aufwertung der Arbeit der Analysten in den Security Operations Center: „Kurzfristig werden wir Wachstumsschmerzen erleben, die mit der Einführung jeder neuen Technologie einhergehen, aber langfristig wird KI – wenn sie um menschliches Fachwissen ergänzt wird – unter fast allen Umständen schnellere und bessere Sicherheitsergebnisse liefern.“
„Technologie allein kann Unternehmen nicht vor modernen Bedrohungen schützen.
Für Deutschland lauten die Zahlen der Arctic-Wolf-Befragung im Einzelnen so:
- Lediglich 15 Prozent der Unternehmen haben den Großteil ihres Cybersicherheitsbudgets für KI-gestützte Lösungen vorgesehen. Im Durchschnitt werden nur 11 Prozent für derartige Sicherheitslösungen bereitgestellt
- 73 Prozent der Unternehmen planen, mindestens eine KI-zentrierte Lösung einzusetzen, um ihre Cybersicherheitsbereitschaft zu verbessern. In den USA und UK sind es nur 64 Prozent. Allerdings planen die Unternehmen in diesen Regionen den Einsatz bereits innerhalb des nächsten Jahres
- 67 Prozent der Befragten glauben, dass KI den Menschen bei der Aufspürung von Bedrohungen übertreffen wird
- 79 Prozent der Sicherheits-Verantwortlichen glauben, dass der Hauptnutzen von KI in der Automatisierung von Reaktionsmaßnahmen oder sich wiederholender Aufgaben wie der Alarmtriage liegen wird. In den USA sind das nur 46 Prozent
- 41 Prozent geben an, dass sie nicht über genügend qualifizierte Tech-Mitarbeitende für das Management von KI-Lösungen verfügen
- 52 Prozent glauben, dass die durch KI-Tools ermöglichten Ergebnisse kosteneffizienter sind als solche, die nur durch menschliches Personal erzielt werden
- 33 Prozent sind der Meinung, dass LLMs und andere KI-Technologien dem Menschen überlegen sind, wenn es darum geht, den Kontext von Bedrohungen zu erklären
- 6 Prozent bewerten die Nutzung großer Sprachmodelle zur Kontextualisierung vorhandener Daten als einen Kern-Vorteil von KI in ihren Cybersicherheitstools
Cloudflare: Ein großartiges Jahr für Bedrohungsakteure
Cloudflare bezeichnet sich als einen der führenden Anbieter im Bereich Connectivity Cloud und nimmt für sich in Anspruch, die umfassendste Plattform für cloudnative Produkte und Entwicklertools am Markt zu bieten. Mit den Folgen der KI-Fortschritte für die IT-Security hat sich CSO Grant Bourzikas beschäftigt.
Bourzikas vertritt die folgenden vier Thesen für 2024:
- Die Wissenslücke zwischen Sicherheitsexperten, die KI verstehen, und denen, die sie nicht verstehen, wird der wichtigste Grund dafür sein, dass sich das Kräfteverhältnis zugunsten der Bedrohungsakteure verschiebt
- Das KI-Wettrüsten wird offiziell beginnen. Zudem wird es zum ersten Datenverstoß bei einem KI-Modell kommen
- KI kann man nur mit KI bekämpfen...sofern man die Grundlagen der KI bereits beherrscht
- 2024 kommt eine bahnbrechende Sicherheitstechnologie auf den Markt – mit der Fähigkeit, den Einsatz von Deep Fakes in sozialen Netzwerken und modernen Medien zu erkennen und zu unterbinden
- 2024 steht für Kunden die Ausfallsicherheit ganz oben auf der Agenda
Bourzikas empfiehlt, sich nicht auf die Frage zu versteifen, ob der Einsatz von KI den Angreifern oder den Verteidigern einen Vorteil verschafft oder nicht. Viel wichtiger ist seiner Meinung nach die Frage, ob die Sicherheitsverantwortlichen über die erforderlichen Fähigkeiten verfügen oder ob sie die Zeit investieren, um sich weiterzubilden und zu lernen, wie sie mit den Potenzialen und Gefahren „der größten technologischen Revolution aller Zeiten“ umgehen: „Nur wer das Konzeptionelle mit dem Konkreten verbinden kann, wird in der Lage sein, sich die Potenziale dieser Technologie zunutze zu machen und sich auch gegen sie zu verteidigen“, lautet die These von Bourzikas. Er prognostiziert: „Wenn es der Sicherheitsbranche nicht gelingt, die KI und ihre potenziellen bösartigen Anwendungsfälle einfach darzulegen, wird 2024 ein großartiges Jahr für Bedrohungsakteure werden.“
Für Bourzikas ist nicht überraschend, dass KI wie jede für den Unternehmenserfolg maßgebliche Technologie zunehmend zum Ziel von Bedrohungsakteuren wird. Er warnt deshalb: „Organisationen, die sich der KI-Revolution verschreiben, ohne ausreichende Vorsichtsmaßnahmen zu implementieren, werden leicht anfällig für Manipulationen und Datenverstößen bei KI-Modellen, die sich auf alle Bereiche und Branchen auswirken können: von der Notfallversorgung in Krankenhäusern über Bankensysteme bis hin zu Stromnetzen und essenziellen Funktionen weiterer Betreiber kritischer Infrastruktur.“
„Ein übermäßiger Einsatz von KI wird die neuen, komplexeren Sicherheitsprobleme also auch kaum lösen können.“
Im Übrigen hält Bourzikas wenig davon, zur Cyberabwehr einfach nur möglichst viel KI einzusetzen, und begründet das mit folgender Einsicht: „Sich gegen KI zu verteidigen, bedeutet letztlich, sich gegen das gesamte indexierte menschliche Wissen zu verteidigen.“ Informationen würden heute um ein Vielfaches schneller und effizienter als je zuvor ausgetauscht. Sicherheitsexperten stünden deshalb heutzutage vor nie dagewesenen Herausforderungen. „Dabei konnte die Branche schon bisher selbst die einfachen Aufgaben nur mit Mühe lösen. Ein übermäßiger Einsatz von KI wird die neuen, komplexeren Sicherheitsprobleme also auch kaum lösen können. Manchmal kann man Angriffe eben am besten abwehren, indem man sich auf die grundlegenden Prinzipien der Erkennung und Abwehr besinnt“, so Bourzikas.
„Ausfallsicherheit wird 2024 das wichtigste Anliegen unserer Kunden sein.“
Das Internet ist Bourzikas zufolge zu einer Säule der kritischen Infrastruktur geworden und werde in diesem Jahr gefährdeter sein als je zuvor. Darum werde Ausfallsicherheit das wichtigste Anliegen der Cloudflare-Kunden im Jahr 2024 sein. Angesichts der zunehmenden Anzahl von Zero-Days-Angriffen, Schwachstellen in gängiger Software, Problemen in der Supply Chain und neuen Taktiken von Bedrohungsakteuren würden Unternehmen 2024 sehr genau darauf achten, mit welchen Schritten sie sich schützen könnten, erklärt Bourzikas.
Eine wichtige Voraussetzung, um die Ausfallsicherheit zu gewährleisten, ist für Bourzikas die verantwortungsvolle Offenlegung von Informationen – unabhängig davon, welche Prioritäten oder welchen Stil ein CISO habe: „Vorfälle wie Zero-Days lassen sich nicht einfach nach dem Motto „Patch einspielen, fertig“ abhandeln. 2024 werden die Sicherheitsverantwortlichen dazu übergehen, das Management von Vorfällen, Patches und die Weiterentwicklung des Sicherheitsschutzes als kontinuierliche Prozesse zu sehen. Abwehrmaßnahmen wie einzelne Patches für jede Variante einer Schwachstelle können das Risiko zwar verringern, aber niemals vollständig beseitigen“, konstatiert Bourzikas.
VIPRE: Wendepunkt in der IT-Sicherheit
VIPRE Security ist Anbieter von Internet-Sicherheitslösungen für Unternehmen und Privatanwender. Usman Choudhary, CPO & General Manager, geht bei seinen Prognosen von der sicheren Erwartung aus, das generative KI 2024 noch weit mehr in den Geschäftsbetrieb eingebettet wird als schon 2023. Und folgert, dass auch Cyberkriminelle ihre Angriffe damit auf das nächste Level heben werden.
Konkret formuliert er die folgenden fünf Vorhersagen:
- Generative KI wird Self-Service-Sicherheit vorantreiben und dazu beitragen, den Mangel an Fachkräften im Bereich Cybersicherheit zu beheben
- Fachwissen im Bereich Security Governance wird auf Vorstandsebene zur Priorität
- Die Entwicklung quantenresistenter Kryptographie gewinnt an Dynamik
- Die Investitionen in den Bereich Sicherheit werden steigen - schon um der generativen KI Rechnung zu tragen
Choudhary sieht voraus, dass sich das Konzept von IT-Sicherheit als hochspezialisierter technischer Profession wandeln und eine Entwicklung hin zu Self-Service-Cybersecurity einsetzen wird. Ermöglichen soll das die generative KI: „Die Technologie wird Sicherheit kommodifizieren und demokratisieren“, so Choudhary. Generative KI werde zum Beispiel Tools bereitstellen, die auf natürlicher Sprachverarbeitung basieren und es einem Mitarbeiter erlauben, betrügerische Aktivitäten selbstständig und präzise zu erkennen und gegebenenfalls an das Sicherheitsteam zu eskalieren. Zudem würden den verantwortlichen Teams Funktionen zur Verfügung stehen, die zeit- und ressourcenintensive Prozesse im gesamten Spektrum der Cybersicherheit automatisieren. Zusammengenommen werde das dazu beitragen, den weltweiten Mangel an Fachkräften im Bereich Cybersicherheit zu beheben.
„Die Technologie wird Sicherheit kommodifizieren und demokratisieren.“
Für Choudhary ist die Welt ist „an einem Wendepunkt angelangt. Die kontinuierliche Abstimmung von Cybersicherheit, Geschäftsstrategie und Betrieb ist unabdingbar geworden.“ Mit generativer KI als einem vielfältig genutzten geschäftlichen Instrument steige neben der schieren Zahl von Cyberangriffen auch das Risiko für den Verlust von geistigem Eigentum und Geschäftsdaten exponentiell. Zudem wachse die Gefahr, gegen Branchenvorschriften wie HIPPA, DSGVO oder eine Vielzahl ähnlich gelagerter länderspezifischer Datenschutzgesetze zu verstoßen.
„Ausgewiesene Fachkompetenz und Verantwortung für eine aktive Steuerung von Sicherheitsinitiativen werden auf Vorstandsebene zu einer strategischen Priorität.“
Die baldige Entwicklung quantenresistenter kryptografischer Algorithmen hält Choudhary für notwendig, um sich gegen Angriffe mit Hilfe von Quantencomputern zu wappnen. Das brauche zwar einiges an Planungsaufwand und Zeit, und darüber werde auch schon lange diskutiert, nun aber gelte: „2024 wird das Jahr sein, in dem dieser Prozess ernsthaft Fahrt aufnimmt.“ Choudhary berichtet, dass Organisationen wie NIST und ENISA bereits entsprechende Initiativen eingeleitet haben. Entwickler im Bereich Sicherheit sollten deshalb aktiv dafür sorgen, dass ihre Software die neuesten kryptografischen Bibliotheken enthält. Bei der Aktualisierung von Lösungen in Rückstand zu geraten, habe zwangsläufig schwerwiegende Folgen.
„Die Welt ist an einem Wendepunkt angelangt. Die kontinuierliche Abstimmung von Cybersicherheit, Geschäftsstrategie und Betrieb ist unabdingbar geworden.“
Sophos: Die dunkle Seite der Macht
Sophos, ein britischer Anbieter von Sicherheitssoftware, beschäftigt sich in gleich zwei aktuellen Reports mit dem Einsatz von KI für Cyberangriffe und der Einstellung von Cyberkriminellen zur Künstlichen Intelligenz. Die Studie „The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI“ untersucht anhand eines konkreten Fallbeispiels, wie Betrüger Technologien wie ChatGPT nutzen könnten, um mit minimalen technischen Fähigkeiten Betrugsattacken in großem Umfang durchzuführen. Und der Bericht „Cybercriminals Can’t Agree on GPTs“ hat sich die Posts zu generativen KI in verschiedenen Dark-Web-Foren angeschaut.
Die beiden zentralen Aussagen der Sophos-Studien lauten:
- Betrüger können Technologien wie ChatGPT tatsächlich heute schon nutzen, um mit minimalen technischen Fähigkeiten Betrugsattacken in großem Umfang durchzuführen
- Cyberkriminelle sehen das Potenzial der neuen Technologie für ihre Zwecke, sind aber noch skeptisch gegenüber ihrem aktuellen Einsatz, auch sogar wegen der gesellschaftlichen Folgen
Sophos berichtet, dass es seinen Forschern für „The Dark Side of AI“ gelungen sei, mittels einer einfachen E-Commerce-Vorlage und großen Sprachmodell-Tools wie GPT-4 eine voll funktionsfähige Website mit KI-generierten Bildern, Audio- und Produktbeschreibungen sowie eine gefälschte Facebook-Anmeldeseite und eine gefälschte Checkout-Seite zu erstellen, um Anmelde- und Kreditkartendaten abzuschöpfen. Für das Erstellen und den Betrieb der Website seien nur minimale technische Kenntnisse erforderlich gewesen. Mit demselben Tool konnten die Forscher zudem binnen Minuten auf Knopfdruck Hunderte ähnlicher Websites zu erschaffen.
Ben Gelman, Senior Data Scientist bei Sophos, ordnet diesen Befund historisch ein: „Die ursprüngliche Erstellung von Spam-E-Mails war ein entscheidender Schritt in der Betrugshistorie, da er das Ausmaß des kriminellen Spielfelds maßgeblich veränderte. Die aktuelle Entwicklung in Sachen Künstlicher Intelligenz hat ein ähnliches Potential: Sobald es eine KI-Technologie gibt, die vollständige, automatisierte Bedrohungen erzeugen kann, wird sie zum Einsatz kommen. Die aktuell zu beobachtende Integration generativer KI-Elemente in klassische Betrügereien, etwa durch KI-generierte Texte oder Fotos, um Opfer anzulocken, bildet nur den Anfang.“
„Sobald es eine KI-Technologie gibt, die vollständige, automatisierte Bedrohungen erzeugen kann, wird sie zum Einsatz kommen.“
Im zweiten Teil seiner KI-Forschung untersuchte Sophos X-Ops die Einstellung von Angreifern gegenüber dem Einsatz von KI-Technologien und analysierte dazu vier prominente Dark-Web-Foren. Ergebnis: Während der praktische Einsatz von KI durch Cyberkriminelle derzeit noch in den Kinderschuhen steckt, diskutieren Bedrohungsakteure bereits intensiv über das Potenzial für Social Engineering. Ein Beispiel dafür ist laut Sophos die aktuelle „Pig Buchtering“-Welle mit Romance Scams.
Darüber hinaus stellt Sophos fest, dass sich die meisten Beiträge auf zum Verkauf stehende kompromittierte ChatGPT-Konten und „Jailbreaks“ bezogen – Möglichkeiten also zur Umgehung der in LLMs integrierten Schutzmaßnahmen. Das Forscherteam fand zehn ChatGPT-Anwendungen, von denen die Entwickler behaupteten, dass sie für Cyberangriffe und die Entwicklung von Malware verwendet werden könnten. Allerdings wurde die Effektivität solcher Tools von Teilen der Dark-Web-Gemeinde stark angezweifelt und zum Teil sogar als Versuch gewertet, mit nutzlosen Programmen zu betrügen.
„Wir haben zwar einige Cyberkriminelle gesehen, die versuchten, mithilfe von LLMs Malware zu erstellen oder Tools anzugreifen, aber die Ergebnisse waren rudimentär und stießen bei anderen Benutzern oft auf Skepsis. Wir haben sogar zahlreiche Posts über die möglichen negativen Auswirkungen von KI auf die Gesellschaft und die ethischen Implikationen ihres Einsatzes gefunden. Mit anderen Worten: Zumindest im Moment scheint es, dass Cyberkriminelle die gleichen Debatten in Sachen Künstliche Intelligenz führen wie der Rest von uns“, so Christopher Budd, Direktor X-Ops-Forschung bei Sophos.
„Cyberkriminelle führen im Moment die gleichen Debatten in Sachen Künstliche Intelligenz wie der Rest von uns.“
Kaspersky: Story of the Year
Das britisch-russische Sicherheitsunternehmen Kaspersky hat für seine „Story of the Year“ die Auswirkungen von Künstlicher Intelligenz (KI) auf die Cybersicherheitslandschaft erforscht. Die Analyse ist Teil des Kaspersky Security Bulletin, einer jährlichen Reihe von Vorhersagen und Reports zur Cybersicherheit.
Das Fazit von Vladislav Tushkanov, Sicherheitsexperte bei Kaspersky, lautet: „Künstliche Intelligenz in der Cybersicherheit ist ein zweischneidiges Schwert. Ihre Anpassungsfähigkeit stärkt zwar die Cyberabwehr und bietet einen proaktiven Schutz gegen sich weiterentwickelnde Bedrohungen. Allerdings birgt dieselbe Dynamik auch Risiken, denn Cyberkriminelle nutzen sie für raffiniertere Angriffe.“ Dennoch: Eine grundlegende Veränderung der Bedrohungslandschaft sieht Kaspersky für die nahe Zukunft noch nicht.
„Künstliche Intelligenz in der Cybersicherheit ist ein zweischneidiges Schwert.“
Die KI-bezogenen Security-Prognosen der Experten von Kaspersky für 2024 lauten:
- Komplexere Schwachstellen: Textbefehlen folgende LLMs werden zunehmend in Verbraucherprodukte integriert. Hierdurch werden neue komplexe Schwachstellen an der Schnittstelle von (probabilistischer) generativer KI und traditioneller (deterministischer) Technologie entstehen. Infolgedessen wird die Angriffsfläche größer. Entwickler müssen daher neue Sicherheitsmaßnahmen schaffen, indem sie beispielsweise Nutzer-Zustimmungen zu von LLM-Agenten eingeleiteten Aktionen fordern.
- KI-Assistenten für Sicherheitsexperten: Red-Team-Mitglieder und Sicherheitsexperten setzen das Potenzial generativer KI zunehmend für innovative Cybersicherheitstools ein. Dies könnte zur Entwicklung von Assistenten führen, die Red-Team-Aufgaben automatisieren.
- Neurale Netzwerke zur Bildgenerierung für Scams: In diesem Jahr könnten Betrüger ihre Taktiken ausweiten, indem sie neurale Netzwerke und KI-Tools nutzen, um überzeugendere Betrugsinhalte zu erstellen.
- Mehr Initiativen und Regularien: Synthetische (künstlich erzeugte) Inhalte werden gekennzeichnet werden müssen, so dass weitere Regulierungen und Investitionen in Erkennungstechnologien notwendig sind. Entwickler und Wissenschaftler werden Methoden entwickeln, um synthetische Medien durch Wasserzeichen leichter identifizierbar und rückverfolgbar zu machen.
- KI wird die Cybersicherheitswelt nicht grundlegend verändern: Trotz des KI-Trends erwarten die Kaspersky-Experten keine grundlegende Veränderung der Bedrohungslandschaft in naher Zukunft. Genauso wie Cyberkriminelle werden auch IT-Sicherheitsverantwortliche dieselben oder fortschrittlichere generative KI-Tools einsetzen, um die Sicherheit von Software und Netzwerken zu verbessern.
Informatica: Die Integrität der Daten
Informatica ist ein führendes Unternehmen im Bereich Enterprise Cloud Data Management. Ausgangspunkt seiner KI-Prognose ist für Christian Geckeis, General Manager DACH, ein Abkommen, das auf den Schutz vor dem Missbrauch Künstlicher Intelligenz abzielt, und das von den USA und 16 weiteren Staaten kürzlich präsentiert worden ist. Geckeis stellt die Sicherheit der Daten, die für Künstliche Intelligenz verwendet werden, ins Zentrum seiner Überlegungen.
„Die neue internationale Verpflichtung erkennt die kritische Überschneidung zwischen KI und Datensicherheit an und unterstreicht die Notwendigkeit eines umfassenden und verantwortungsvollen Ansatzes sowohl für technologische Innovationen als auch für den Schutz sensibler Daten. Es ist ermutigend zu sehen, dass weltweit anerkannt wird, wie wichtig es ist, Sicherheitsmaßnahmen in den Mittelpunkt der KI-Entwicklung zu stellen, um eine sichere digitale Umgebung für Unternehmen und Privatpersonen gleichermaßen zu fördern,“ freut sich Geckeis.
Die von Geckeis angesprochene Vereinbarung ist das erste internationale Übereinkommen dieser Art. Auf 20 Seiten legen sich die beteiligten Länder darauf fest, dass Firmen, die KI-Technologien entwickeln und anwenden, diese auf eine Weise gestalten und nutzen sollen, die den Schutz der Konsumenten und der allgemeinen Bevölkerung vor missbräuchlichen Praktiken gewährleistet.
„Die neue internationale Verpflichtung erkennt die kritische Überschneidung zwischen KI und Datensicherheit an.“
Allerdings: Die Übereinkunft ist noch nicht bindend und besteht größtenteils aus generellen Empfehlungen. Dazu gehören Maßnahmen wie die Überwachung von KI-Systemen auf potenziellen Missbrauch, die Sicherung von Daten gegen Manipulation und die Einbindung von „Secure by Design“-Konzepten. Dennoch sieht Christian Geckeis darin einen wichtigen Schritt: „Die jüngste Entscheidung der 18 Länder, dem Grundsatz „Secure by Design“ bei der Entwicklung von Künstlicher Intelligenz Vorrang einzuräumen, ist ein wichtiger Schritt zur Bewältigung der Herausforderungen im Bereich der Cybersicherheit (...) Die Integration von Sicherheitsmaßnahmen in KI-Systeme von Anfang an steht in engem Zusammenhang mit den Grundsätzen der sicheren Datenverwaltung.“
Geckeis fordert: „Da Unternehmen die Möglichkeiten der KI zunehmend nutzen, muss unbedingt sichergestellt werden, dass die diesen Systemen zugrunde liegenden Daten mit größtmöglicher Sicherheit und Integrität behandelt werden.“ Noch seien trotz des KI-Hypes nur wenige Unternehmen in der Lage, die damit verbundenen Risiken zu bewältigen. Die Einführung von risikobasierten Richtlinien zur Regelung von KI-Fähigkeiten werde ihnen einen Anstoß geben, die Integrität der KI zu schützen.
Geckeis betont nachdrücklich: „Es ist von entscheidender Bedeutung, dass alle Richtlinien die Rolle einer qualitativ hochwertigen Datengrundlage berücksichtigen. Da KI ein neuartiger Datenkonsument ist, birgt die Datengrundlage der KI-Modelle die größten Risiken für deren Funktionalität. Denn wenn die Daten, mit denen die KI-Modelle gespeist werden, ungenau sind, dann besteht ein reales Risiko, dass die Ergebnisse ungenau oder sogar gefährlich sind.“
„Da KI ein neuartiger Datenkonsument ist, birgt die Datengrundlage der KI-Modelle die größten Risiken für deren Funktionalität.“