AI-Act: Fünf Empfehlungen, wie Firmen jetzt reagieren sollten

Das erste Gesetz für KI ist abgesegnet und gibt Herstellern von KI-Anwendungen zwischen sechs Monaten und drei Jahren Zeit, sich den neuen Regeln anzupassen. Wer KI in sensiblen Bereichen einsetzen will, wird die KI-Daten und ihre Qualität streng kontrollieren und Transparenz schaffen müssen.

Das neue EU Gesetz Gesetz regelt den Umgang mit künstlicher Intelligenz (KI). (Bild: www.depositphotos.com)

Die EU hat mit dem AI-Act den aktuell dynamischsten und bedeutendsten Zweig der Datenindustrie reglementiert, so wie sie es mit der DSGVO im April 2016 und dem Digital Operational Resilience (DORA) im Januar dieses Jahres tat. Viele der neuen Aufgaben aus dem AI-Act dürften Datenschutzbeauftragten und jedem Compliance-Officer aus der DSGVO bekannt vorkommen.

Das Gesetz legt eine Definition für KI fest und definiert mit minimal, hoch und inakzeptabel drei Sicherheitsstufen. KI-Anwendungen, die Firmen im Gesundheitswesen, Bildungsbereich und kritischen Infrastrukturen einsetzen wollen, fallen unter die höchste Sicherheitskategorie „hochriskant“. Diejenigen in der Kategorie „inakzeptabel“ werden verboten, weil sie beispielsweise die Sicherheit, den Lebensunterhalt und die Rechte der Menschen bedrohen könnten.

Diese KI-Systeme müssen per Definition vertrauenswürdig, transparent und rechenschaftspflichtig sein. Die Betreiber müssen Risikobewertungen durchführen, qualitativ hochwertige Daten verwenden sowie ihre technischen und ethischen Entscheidungen dokumentieren. Zudem müssen sie aufzeichnen, wie die Leistung ihrer Systeme sich entwickelt und die Benutzer über die Art und den Zweck ihrer Systeme informieren. Ausserdem sollen die KI-Systeme von Menschen beaufsichtigt werden und Eingriffe ermöglichen. Sie müssen hochrobust arbeiten und ein hohes Niveau bei der Cybersicherheit erreichen.

Firmen brauchen jetzt klare Orientierung. Auch Schweizer Firmen sind derzeit unsicher über die konkreten Auswirkungen des neuen Gesetzes auf sie. Denn sie wollen das grosse Potenzial dieser Technik nutzen und zugleich zukunftssicher aufgestellt sein, um die kommenden Details der Verordnung umsetzen zu können. Es gibt fünf klare Empfehlungen, wie Firmen dies angehen können, ohne rechtliche Risiken zu verursachen und trotzdem den Usern nicht im Weg zu stehen. Und zugleich so aufgestellt zu sein, dass man den AI-Act voll umsetzen kann, ohne die IT auf den Kopf zu stellen:

  • KI vertrauensvoll agieren lassen: Wer das erreichen will, muss die KI vollständig zähmen. Der einzige Weg dahin ist, die Daten und Datenströme in die KI und aus der KI heraus genau zu kontrollieren. Diese enge Kontrolle ist ähnlich mit den Vorgaben aus der DSGVO für personenbezogene Daten. Diese Compliance sollten Firmen immer mitdenken, wenn sie KI einsetzen und selbst entwickeln. Wer KI DSGVO und AI-Act-konform einsetzen will, sollte vor Einführung den Rat eines Datenschutzexperten einholen.
  • Daten genau kennen: Ein Grossteil des Gesetzes konzentriert sich auf die Berichterstattung über Inhalte, die zum Trainieren der KI verwendet werden, also auf die Datensätze, die ihr das Wissen für ihre Leistung verliehen haben. Unternehmen und ihre Mitarbeiter müssen genau wissen, mit welchen Daten sie die KI füttern und welchen Wert diese Daten für die Firma besitzen. Einige KI -Anbieter übertragen diese Entscheidung bewusst an die Daten-Owner, weil sie die Daten am besten kennen. Diese müssen die KI verantwortungsbewusst trainieren, Ausserdem sollte der Datenzugriff nur für autorisierte Personen aktiviert sein.
  • Die Frage der Copyrights: Frühere Modelle der KI haben verfügbare Internet- und Bücher-Crawler genutzt, um ihre KI zu trainieren. Dabei handelte es sich um Inhalte, die geschützte Elemente enthielten – einer der Bereiche, die der AI-Act bereinigen will. Wenn Firmen solche Datensätze verwendet haben, ohne diese genau gekennzeichnet zu haben, müssen sie möglicherweise noch einmal von vorne beginnen.
  • Inhalte der Daten verstehen: Das ist eine essenzielle Aufgabe. Damit die Daten-Owner richtig entscheiden können, muss der Wert und Inhalt der Daten klar sein. Im Alltag ist diese Aufgabe gigantisch und die meisten Firmen haben Berge von Informationen angehäuft, von denen sie überhaupt nichts wissen. Auf diesem Gebiet kann KI und Machine Learning massiv helfen und eine der komplexesten Probleme entschärfen, indem sie die Daten von Firmen nach ihrer eigenen Relevant Record-Strategie automatisiert identifiziert und klassifiziert. Vordefinierte Filter fischen Compliance-relevante Daten wie Kreditkarten, Hypothekendaten, oder Baupläne sofort aus dem Datenteich und markieren sie. Bei dieser Analyse liessen sich auch einige Sicherheitsparameter abklären und beispielsweise ungesicherte Daten aufzuspüren. Sobald diese KI die Firmendaten untersucht, entwickelt sie eine unternehmensspezifische Sprache. Und je länger sie arbeitet und je mehr Firmendaten sie untersucht, desto genauer werden ihre Ergebnisse. Der Charme dieser KI-getriebenen Klassifizierung zeigt sich vor allem, wenn neue Vorgaben einzuhalten sind. Was auch immer der AI-Act auf lange Sicht neu aufbringt, die ML und KI getriebene Klassifizierung wird diese zusätzlichen Attribute suchen können und der Firma ein Stück Zukunftssicherheit verschaffen.​​​​​​​
  • Datenflüsse steuern: Sind die Daten mit den richtigen Merkmalen eingestuft und klassifiziert, lassen sich von der darunter liegenden Datenmanagement-Plattform automatisch Regeln durchsetzen, ohne dass der Data Owner eingreifen muss. Dadurch sinken die Chancen für menschliche Fehler und Risiken. So könnte eine Firma durchsetzen, dass bestimmte Daten wie Intellectual Property oder Finanzdaten niemals an andere Speicherorte oder externe KI-Module weitergegeben werden dürfen. Moderne Datenmanagement-Plattformen steuern den Zugriff auf diese Daten, indem sie diese automatisch verschlüsseln und sich Anwender per Access Controls und Multifaktor-Authentifizierung autorisieren müssen.

Schweizer Firmen verunsichert

Der AI-Act wird auch Auswirkungen auf die Schweiz haben, da die Verordnung anwendbar ist, wenn ein AI-System innerhalb der EU eingesetzt wird oder dessen Output in der EU „verwendet“ wird. Dies bedeutet beispielsweise, dass Schweizer Unternehmen betroffen sein können, wenn sie ihre Systeme anderen Unternehmen, öffentlichen Stellen oder Personen innerhalb der EU zugänglich machen. Ebenso können Prognosen, Empfehlungen oder Entscheidungen, die von AI-basierten Systemen in der Schweiz getroffen wurden, Auswirkungen haben, wenn sie innerhalb der EU „verwendet“ werden.

Das neue EU-Gesetz betrifft Unternehmen, die beispielsweise Software für Bildungseinrichtungen entwickeln, die automatisierte Prüfungen korrigieren oder über Stipendien entscheiden. Experten zufolge fallen auch Unternehmen unter das Gesetz, die EU-Gesundheitsdaten mithilfe von KI analysieren. Ebenso Schweizer Banken, die mithilfe von KI die Kreditwürdigkeit einer EU-Bürgerin prüfen.

Schweizer Unternehmen sind derzeit unsicher. Insbesondere kleinere und mittlere Unternehmen sowie Start-ups verfügen oft nicht über die personellen und finanziellen Ressourcen, um umfangreiche regulatorische Abklärungen zu treffen.

Welche Sanktionen sind möglich?

Die EU hat eine weitere Ähnlichkeit mit der DSGVO und DORA. Einmal in Kraft getreten, werden Sanktionen für Non-Compliance durchgesetzt. Wer gegen wichtige Vorgaben aus dem AI-Act verstösst, muss mit Strafen von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Umsatzes rechnen. Das KI-Gesetz wird wahrscheinlich diesen Sommer veröffentlicht und tritt dann 20 Tage nach Veröffentlichung im Amtsblatt der EU in Kraft. Die meisten seiner Bestimmungen gelten nach 24 Monaten. Die Regeln für verbotene KI-Systeme gelten nach sechs Monaten, die Regeln für GPAI nach zwölf und die Regeln für Hochrisiko-KI-Systeme nach 36 Monaten.

Quelle: www.cohesity.com / www.srf.ch / www.infosec.ch

(Visited 441 times, 1 visits today)

Weitere Beiträge zum Thema