Merentis veranstaltete Workshop zum Thema „EU AI ACT“

Am 13. August lud die MERENTIS DataSec, unser externes Datenschutzunternehmen, zum Kunden-Workshop „EU AI ACT“ in den Hauptsitz der Firma in die Kurfürstenallee nach Bremen ein.  Nach Inkrafttreten der EU-Verordnung ist die Unsicherheit bei dem rechtskonformen Einsatz von künstlicher Intelligenz (KI) immer noch groß bzw. viele Unternehmen kennen die gesetzlichen Rahmenbedingungen gar nicht. Zu viel ist in der jüngsten Vergangenheit von der EU verabschiedet worden. Von daher kam der Workshop zur rechten Zeit und wurde durch einen Impulsbeitrag über KI-gestützte Cyberangriffserkennung von Prof. Dr. Kai-Oliver Detken, dem Geschäftsführer der DECOIT® GmbH & Co. KG, bereichert.

Die Verordnung EU AI ACT reguliert erstmals ausdrücklich den Umgang mit künstlicher Intelligenz (KI) im europäischen Markt. Zentrales Instrument des AI-Acts ist dabei die Risikobewertung. Die Betreiber von KI-Systemen sind verpflichtet, eigenständig und vor Inbetriebnahme eine Risikoabschätzung durchzuführen. Dies stellt viele Unternehmen vor neue Herausforderungen.

Im Einführungsvortrag von Merentis wurde zuerst mit KI-Beispielen im Alltag begonnen. Man findet diese in Online-Shops, in der Werbung, beim autonomen Fahren, der Websuche oder der Cybersicherheit. Mit KI ist dabei ein maschinengestütztes System gemeint, das für den autonomen Betrieb ausgelegt ist. Unter den neuen AI-Act fällt daher Software (z.B. Amazon Alexa), eingebettete KI (z.B. KI Delta Learning) und generative KI (z.B. DeepL, OpenAI). Eine KI-Compliance-Richtlinie ist deshalb aus Sicht der EU notwendig geworden, um die Nutzung rechtlich abzusichern. Die neue Regelung gilt ab dem 02. August 2024, wird aber Übergangsfristen mit sich bringen. Ab dem 02.08.25 kann daher frühestens erst mit Sanktionen gerechnet werden. Ab dem 02.08.26 gilt der AI-Act dann aber verbindlich für alle Unternehmen. Darunter fallen Anbieter von KI-Systemen, gewerblicher Nutzer von KI-Systemen, Anbieter und Nutzer von KI-Systemen und Betreiber von KI-Systemen. Grundaufbau des AI-Acts ist die Einteilung der KI-Systeme in vier Risikoklassen: inakzeptables, hohes, mittleres und niedriges Risiko.

Danach gab Prof. Dr. Kai-Oliver Detken eine Einführung wie man KI zur Angriffserkennung bei Anomalie-Erkennungssystemen verwendet. Da auch die Angreifer auf KI-Tools zurückgreifen, ähnelt dies einem Hase-und-Igel-Spiel. Mittels sog. Advanced Persistent Threat (APT) spät der Angreifer seine potentiellen Opfer erst einmal aus, um dann gefundene Schwachstellen gezielt ausnutzen zu können. So entstehen erst einmal keine unmittelbaren Alarme in den verwendeten Sicherheitssystemen und Daten sowie Informationen können unerkannt abgezogen werden. Daher braucht es sog. SIEM-Systeme, die alle Log- und Netzwerkdaten sammeln und diese ganzheitlich analysieren. Die gesammelten Daten werden bewertet, priorisiert und Anomalien als Alarme ausgegeben. KI-Algorithmen können dabei helfen Verhaltensanalysen durchzuführen und ggf. automatischen Gegenreaktionen auszulösen. Auch bisher unbekannte Bedrohungen lassen sich so erkennen. Die DECOIT® hat mit ihrem ScanBox®-System (www.scanbox-product.de) ein solches SIEM-System selbst entwickelt und bietet es in der Version 2.0 aktuell für Firmen an. Damit lassen sich dann auch neue Regularien wie NIS2 (zweite EU-Richtlinie zur Netzwerk- und Informationssicherheit) erfüllen, die ab Oktober auf die Unternehmen zukommen.

Im zweiten Vortrag von Merentis wurde dann mehr auf die Praxis eingegangen. Laut Bill Gates wird KI die größte Revolution seit dem Smartphone werden. Allerdings hatte er sich in der Vergangenheit auch schon des Öfteren grundlegend geirrt, weshalb man mit solchen Voraussagen vorsichtig umgehen sollte. Allerdings ist KI bereits heute überall im Alltag wahrnehmbar: in Buchhaltungssystemen (25%), in der IT-Sicherheit (24%), in Produktions- und Dienstleistungsprozessen (22%) sowie in Verwaltungsprozessen (20%) sind bereits KI-Merkmale zu erkennen. Unternehmen sollten zukünftig daher intensiv prüfen, wie und wo sie KI einsetzen, wenn nicht empfindliche Strafen folgen sollen. So sind bestimmte KI-Verfahren nicht erlaubt, wie das Social Scoring am Beispiel Chinas, biometrische Echtzeitidentifikation zu Strafverfolgungszwecken, Manipulationen von Personen oder die Ausnutzung von Schwächen vulnerabler Gruppen. Ein begrenztes Risiko stellen hingegen eher KI-Systeme wie Chatbots oder Emotionserkennungssysteme dar. Auf jeden Fall müssen Unternehmen offenlegen, welche Inhalte künstlich erzeugt oder manipuliert wurden. Das ist heute oftmals nicht der Fall. Minimales Risiko stellen hingegen KI-gestützte Spamfilter dar.

Es ist daher zuallererst immer eine Risikoeinschätzung vorzunehmen. Die Blackbox der KI-Systeme macht gerade dies allerdings schwer. Verstöße gegen den AI-Act können in den nächsten Jahren jedenfalls eine teure Angelegenheit werden: 15 Mio. Euro oder 3% des Umsatzes bei Verstößen gegen Anforderungen und Pflichten bzw. 35 Mio. Euro oder 7% des Umsatzes bei Einsatz verbotener KI-Systeme (z.B. zur Mitarbeiterüberwachung) wurden definiert. Aktuell gibt es allerdings noch keine Gerichtsurteile. Auch eine entsprechende Audit-Infrastruktur zur Überwachung der Einhaltung gibt es auf nationaler Ebene noch nicht. Das heißt aber nicht, dass man das Thema nicht weiterverfolgen oder angehen sollte. Von daher war es schön, dass Merentis DataSec ausreichend vorab informierte.

Bildquellen: https://www.merentis.com/eu-ai-act-rueckblick-i-was-unternehmen-jetzt-wissen-sollten/

Zurück