Das KI-Gesetz in Italien: Auswirkungen und Möglichkeiten. Wie kann man sich vorbereiten?

PrintMailRate-it

​​​​​​​​​​​​​​​​​veröffentlicht am 11. Oktober 2024 | Lesedauer ca. 6 Minuten


Künstliche Intelligenz („KI“) ist eine schnell wachsende Familie von Technologien, die die empfangenen Eingaben nutzen, um Ergebnisse wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen zu erzeugen, und so zur Erzielung eines breiten Spektrums wirtschaftlicher, ökologischer und gesellschaftlicher Vorteile im gesamten Spektrum industrieller und sozialer Aktivitäten beitragen.
 
  
​Mit KI meint man die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planung und Kreativität nachzuahmen. Oder besser noch, eine Reihe hochentwickelter Technologien, die es Systemen ermöglichen, ihre Umgebung anhand von Daten zu „lesen“, sich auf das zu beziehen, was sie wahrnehmen, Probleme zu lösen und auf ein bestimmtes Ziel hin zu handeln. All dies erfolgt  auf der Grundlage bestimmter Algorithmen.

KI wurde kürzlich auf europäischer Ebene durch die EU-Verordnung Nr. 2024/1689 vom 13. Juni 2024 („KI-Gesetz“) geregelt, die am 1. August 2024 in Kraft trat und die weltweit erste Verordnung über den verantwortungsvollen und sicheren Einsatz von künstlicher Intelligenz darstellt.

Mit dieser Verordnung wollte die Europäische Union („EU“) diese komplexe Kategorie von Technologien regulieren, um das Funktionieren des Binnenmarktes durch die Schaffung eines einheitlichen Rechtsrahmens für die Entwicklung, das Inverkehrbringen, die Inbetriebnahme und die Nutzung von KI-Systemen zu verbessern, den Einsatz von menschenbezogener, zuverlässiger und wohlfahrtssteigernder KI zu fördern und ein hohes Schutzniveau für Gesundheit, Sicherheit und Grundrechte und damit für den Einzelnen, die Unternehmen, die Demokratie und den Rechtsstaat sowie für die Umwelt zu gewährleisten.

All dies, um einerseits die Innovation zu fördern und die EU zu einem Vorreiter bei der Einführung zuverlässiger KI zu machen, andererseits aber auch, um die damit verbundenen Risiken und Auswirkungen besser zu bewältigen.

Mit dem KI-Gesetz schafft die EU den weltweit ersten umfassenden Rechtsrahmen, um die wirtschaftlichen Vorteile der KI zu nutzen und die mit ihr verbundenen Risiken zu mindern. Wobei die generative KI, d. h. die für allgemeine Zwecke eingesetzten KI-Systeme, die in der Lage sind, Audio-, Bild-, Video- oder synthetische Textinhalte zu erzeugen, miteingeschlossen sind.

In dieser Hinsicht bietet die künstliche Intelligenz zweifelsohne große Chancen. Denken Sie zum Beispiel an die Vorteile in Bezug auf Vorhersagbarkeit (Verbesserung von Prognosen), Optimierung (Optimierung von Abläufen, Produktivität und Ressourcenzuweisung), Maßschneiderei (Anpassung der digitalen Lösungen für Einzelpersonen und Organisationen) und Wettbewerbsfähigkeit (sie kann Unternehmen und Organisationen entscheidende Wettbewerbsvorteile verschaffen. Zum Beispiel in den Bereichen Gesundheitswesen, Landwirtschaft, Lebensmittelsicherheit, allgemeine und berufliche Bildung, Medien, Sport, Kultur, Infrastrukturmanagement, Energie, Verkehr und Logistik, öffentliche Dienstleistungen, Sicherheit, Justiz, Energie- und Ressourceneffizienz, Umweltüberwachung, Erhaltung und Wiederherstellung der biologischen Vielfalt und der Ökosysteme, Eindämmung des Klimawandels und Anpassung an den Klimawandel.

Andererseits stellt KI aber auch neue umzugehende Herausforderungen für unsere Organisationen und Gesellschaften dar. 

Der zunehmende Einsatz von KI-Systemen kann öffentliche Interessen und durch das Unionsrecht geschützte Grundrechte beeinträchtigen. Ein solcher Schaden kann sowohl materiell als auch immateriell sein, einschließlich physischer, psychologischer, sozialer oder wirtschaftlicher Schäden. Beispiele sind Missbrauchsprobleme, Haftungsfragen, Produktschäden, Bedrohungen für Demokratie, Sicherheit und  Beschäftigung.

Die EU empfiehlt diese Aspekte mit einem risikobasierten Ansatz zu untersuchen, d. h. einem Risikomanagementansatz, der mit der Abbildung von Modellen und Systemen beginnt, mit der Klassifizierung dieser auf der Grundlage von Risiken (inakzeptabel, hoch, begrenzt, minimal und systemisch) und der Bewertung dieser Risiken fortfährt und mit regelmäßigen Abhilfe- und Überwachungsmaßnahmen abschließt.

Unter den Abhilfemaßnahmen ist die KI-Vereinabarung hervorzuheben, die es Unternehmen, die ihm freiwillig beitreten, ermöglicht, die Verpflichtungen der Verordnung im Voraus umzusetzen, noch bevor sie formell anwendbar werden.  Zu den vielen Vorteilen, die mit dem frühzeitigen Beitritt zum Pakt verbunden sind, gehören die Erhöhung der Sichtbarkeit und Glaubwürdigkeit des Unternehmens sowie die Garantien, die zum Nachweis der Zuverlässigkeit seiner KI-Systeme gegeben werden.

Doch wann gedenkt die Europäische Union diese wichtigen Ziele zu erreichen? Einem schrittweisen Ansatz folgend. 

Die Anwendbarkeit der in der Verordnung festgelegten Verpflichtungen folgt einem bestimmten Zeitplan, der in der Vorschrift selbst festgelegt ist:
  • Die Vorschriften, die Verbote für verbotene Verwendungen von KI-Systemen und Verpflichtungen zur Alphabetisierung vorsehen, gelten ab dem 1. Februar 2025;
  • die Vorschriften über KI-Modelle für allgemeine Zwecke (sogenannte GPAI-Modelle) gelten ab dem 1. August 2025;
  • alle anderen Verpflichtungen im Rahmen der Verordnung, wie z. B. Verpflichtungen für KI-Systeme mit hohem Risiko, die nicht bereits den Rechtsvorschriften über die Produktsicherheit unterliegen, gelten ab dem 1. August 2026 (z. B. KI, die für die Personalbeschaffung oder die Bonitätsbewertung eingesetzt wird);
  • schließlich gelten ab dem 1. August 2027 Verpflichtungen für KI-Systeme, die in Produkte eingebettet sind, die bereits der Konformitätsbewertung unterliegen (z. B. in medizinischen Geräten oder Industriemaschinen).
  • Im Falle einer Nichteinhaltung können die Strafen sehr hoch sein und bis zu 7 Prozent des weltweiten Jahresumsatzes eines Unternehmens betragen.

Die Normierung der KI ist jedoch noch nicht abgeschlossen.

In dieser Hinsicht hat sich auch der nationale Gesetzgeber bewegt: die italienische Regierung hat sich für die Einführung eines gemeinsamen Rechtsrahmens für künstliche Intelligenz ausgesprochen und betont, wie wichtig es ist, dass die neue Regelung die Grundrechte schützt und Verpflichtungen und Sanktionen vorsieht, die dem Risiko angemessen sind. Im Einklang mit der europäischen Gesetzgebung hat der Ministerrat daher kürzlich einen Gesetzesentwurf gebilligt, der die Leitprinzipien für den Einsatz von künstlicher Intelligenz in Italien festlegen wird und zu den noch weiteren Einzelheiten erwartet werden. 

Um die Regierung bei der Festlegung nationaler Rechtsvorschriften und Strategien im Zusammenhang mit dieser Technologie zu unterstützen, hat ein Expertenausschuss am 22. Juli 2024 die italienische Strategie für künstliche Intelligenz 2024-2026 ausgearbeitet. Die italienische Strategie für künstliche Intelligenz ist ein entscheidender Schritt für Italien, das eine führende Rolle im Bereich der KI und des technologischen Wandels anstrebt, auch dank der wichtigen Rolle, die es beim Vorsitz der G7 spielt. Das Dokument spiegelt das Engagement der Regierung wider, ein Umfeld zu schaffen, in dem sich KI auf sichere, ethische und integrative Weise entwickeln kann, wobei die Vorteile maximiert und die potenziellen negativen Auswirkungen minimiert werden.

Was müssen also Unternehmen und Organisationen, die diese Technologien implementiert, genutzt, eingesetzt oder importiert haben - oder dies beabsichtigen - tun, um die Anforderungen des KI-Gesetzes zu erfüllen?
Sie müssen notwendigerweise und in einem ersten Schritt eine Risikomanagementmethode anwenden, die darauf abzielt, zunächst das mit den einzelnen Systemen und Modellen verbundene Risikoniveau zu bewerten und dann die erforderlichen Abhilfe- und Überwachungsmaßnahmen abzuschätzen.

Dies geschieht durch die Entwicklung der ersten Phase der Methodik, d. h. der Risikobewertungsinstrumente, die auf die Klassifizierung von Systemrisiken, die Bewertung der Robustheit, die Risikobewertung für Fundamental Rights Impact Assessment (FRIA), die Bewertung ethischer Risiken (Umwelt und ESG) sowie die interdisziplinäre Folgenabschätzung abzielen, die eine ganze Reihe von Interessenbereichen umfassen kann (z. B. geistiges Eigentum, Arbeitsrecht, Gesundheitsrecht, Zivil-, Straf- und Produkthaftung, 231 Compliance, Lebensmittel und Pharmazeutika, Steuern).

Entweder durch die Planung des Starts der zweiten Phase der Methode, nämlich Remediation, die darauf abzielt, die am besten geeigneten technischen und organisatorischen Maßnahmen zur Minderung der identifizierten Risiken zu identifizieren, und die letzte Phase, nämlich die regelmäßige Überwachung der umgesetzten Maßnahmen (z.B. durch die Ernennung - auch durch Outsourcing - eines Chief AI Officer).

Deutschland Weltweit Search Menu