Zum Inhalt springen
Historische Schaltfläche eines Comuterspiels
Material

No Risk, no KI

KI-Einsatzfelder kennenlernen und Risiken von KI-Systemen bewerten

KI-Systeme haben unterschiedliche Auswirkungen auf Menschen und Gesellschaft. Sie unterscheiden sich auch hinsichtlich ihrer Komplexität und Kontrollierbarkeit. Die Art und Weise, wie sie eingegrenzt und kontrolliert werden sollen, hängt insbesondere von dem potenziellen Schaden ab, den sie verursachen können (Risiko). Die Teilnehmenden sollen verschiedene KI-Systeme entlang einer Skala einstufen.

Zum Download1 Datei | Lizenz: CC BY SA

Benötigte Zeit

45-60 Minuten

Gruppengröße

5-25

Benötigtes Material

Vorlage

Lernziele:

  • Kennenlernen der sozialen und politischen Auswirkungen verschiedener KI-Anwendungen
  • Anwendung von Risikobewertungskriterien
  • Vertrautmachen mit den vielfältigen Anwendungsmöglichkeiten von KI in der Gesellschaft

Lerninhalte

  • KI-Systeme
  • KI-Gesetzgebung
  • Risikobewertung
Ablauf

Vorbereitung

Wenn die Vorlage verwendet wird: Diese ausdrucken und die verschiedenen Anwendungen ausschneiden. Jede Gruppe erhält einen Satz.

1. Einführung

Da Autos gefährlicher sind als Fahrräder, gibt es mehr Vorschriften für ihre Herstellung, ihren Verkauf oder ihren Betrieb als für Fahrräder. Je riskanter und komplexer ein System ist, desto genauer müssen wir es untersuchen und zu verstehen lernen. In diesem Sinne können wir KI-Systeme auf einer Skala zwischen geringer Komplexität/geringem Risiko und hohem Risiko einordnen.

Die Aufgabe besteht darin, verschiedene Anwendungsbereiche von KI in Wirtschaft, Staat, Gesellschaft und Privatleben zu identifizieren und sie entsprechend dieser Skala zu sortieren.

2. Sammlung

Option A: Im Plenum tragen die Teilnehmenden die ihnen bekannten Anwendungsbereiche von KI in Staat, Gesellschaft, Wirtschaft und Haushalten zusammen. Die Moderation hält jede einzeln auf einer Karte/einem Post-it fest.

Option B: Moderation teilt die Beispiele aus der Vorlage und bittet die Teilnehmenden, weitere Beispiele für KI-Anwendungen und -systeme zu nennen.

Die Moderation ermutigt die Teilnehmenden, nicht nur über ChatGPT oder andere aktuelle KI-Lösungen nachzudenken, sondern auch über solche, die nicht so breit diskutiert werden.

3. Cluster

Entweder im Plenum oder in kleineren Gruppen sollen die Teilnehmenden nun die Anwendungen nach ihrem Risikograd gruppieren und erklären, wie sie diese bewerten würden.

  • Auf welches Risiko bezieht ihr euch? Was empfindet ihr als Risiko? Warum?

Nach der vorherigen Clusterbildung (möglicherweise auch in kleineren Gruppen, die sich dann auf bestimmte Fälle konzentrieren könnten):

  • Entwickelt nun Ideen zur Risikominderung.

Was müsste geschehen, damit das von euch identifizierte Risiko/die Gefahr geringer wird? Zum Beispiel die Einschränkung technischer Funktionen, die Stärkung der Nutzer:innenrechte, strengere Gesetze und Vorschriften oder bestimmte Anwendungsfälle?

Risikobereich: Datenschutz, Vertraulichkeit, Betrug, kein Zugang zu Rechten, ungerechte Behandlung, körperliche Schäden etc.

Risikominderung durch Richtlinien und Regeln: Risikobewertung, Sicherheitsmaßnahmen, Transparenz der gesammelten Daten für Nutzer:innen, Löschrichtlinien etc.

Beispiel: Der selbstbestimmte biometrische Zugriff auf das eigene Smartphone ist in Ordnung, aber es ist nicht in Ordnung, sich mit Irisfotos Fremder Zugriff auf ihre Smartphones zu verschaffen. Auch die Verfolgung einer Person anhand biometrischer Merkmale und die Analyse ihrer Bewegungen und Handlungen in Echtzeit durch Systeme ist problematisch.

Das Ergebnis könnte am Ende ungefähr so aussehen, wobei die Bewertung je nach Diskussion und Kriterien sehr unterschiedliche ausfallen kann!

4. Transfer

Moderator:in erklärt, dass die Gesetzgeber:innen in der EU auch die mit KI-Systemen verbundenen Risiken und Probleme berücksichtigt haben. Beispielsweise sind Anbieter:innen von KI-Anwendungen mit hohem Risiko verpflichtet, gründlichere Risikobewertungen durchzuführen und genauer zu berichten. Einige Anwendungen sind verboten, während andere nur unter bestimmten Bedingungen zulässig sind.

Man kann zur Erläuterung die Übersicht aus dem EU-KI-Gesetz weitergeben oder präsentieren:

  • Artikel 5 des KI-Gesetzes beschreibt verbotene Anwendungsfälle
  • Annex III zu Artikel 6 (2) beschreibt Hochrisikosysteme
  • KI-Gesetz der EU: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689 
Risikosysteme im KI-Gesetz

Im KI-Gesetz verbotene KI-Anwendungen

  • Einsatz von unterschwelligen Techniken, die außerhalb des Bewusstseins einer Person wirken, oder von bewusst manipulativen oder irreführenden Techniken, die die Entscheidungsfindung und das Verhalten beeinflussen.
  • Ausnutzung der Schwächen einer Person oder einer bestimmten Gruppe aufgrund ihres Alters, einer Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation, um ihr Verhalten zu verzerren und ihr Schaden zuzufügen.
  • Social Scoring: Bewertung oder Klassifizierung von Personen oder Personengruppen auf der Grundlage ihres sozialen Verhaltens oder ihrer Persönlichkeitsmerkmale und Diskriminierung dieser Personen oder Personengruppen.
  • Bewertung oder Vorhersage des Risikos einer Person, eine Straftat zu begehen, ausschließlich auf der Grundlage der Profilerstellung einer Person oder der Bewertung ihrer Persönlichkeitsmerkmale und Eigenschaften (zulässig: Unterstützung der menschlichen Beurteilung durch Daten, die in direktem Zusammenhang mit einer kriminellen Aktivität stehen).
  • Erstellung oder Erweiterung von Gesichtserkennungsdatenbanken durch das gezielte Scraping von Gesichtsbildern aus dem Internet oder CCTV-Aufnahmen.
  • Rückschlüsse auf die Emotionen einer Person am Arbeitsplatz oder in Bildungseinrichtungen (zulässig: aus medizinischen oder Sicherheitsgründen).
  • Biometrische Kategorisierung betrifft sensible Daten, um Rückschlüsse auf die ethnische Zugehörigkeit, politische Meinungen, Gewerkschaftszugehörigkeit, religiöse oder philosophische Überzeugungen, Sexualleben oder sexuelle Orientierung zu ziehen (zulässig: „rechtmäßig erworbene biometrische Datensätze” im Bereich der Strafverfolgung).
  • Biometrische Fernidentifizierung in öffentlich zugänglichen Räumen zur Strafverfolgung (eventuell zulässig: gezielte Suche nach bestimmten Opfern, Verhinderung einer Bedrohung, Lokalisierung oder Identifizierung bestimmter mutmaßlicher Straftäter:innen).
  • Echtzeit-Fernidentifizierung anhand biometrischer Daten für andere Zwecke und über die Bestätigung der Identität einer bestimmten Zielperson hinaus.

AI Act Artikel 5

- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - 

Im KI-Gesetz definierte risikoreiche KI-Anwendungen

Biometrie
Biometrische Fernidentifizierungssysteme (nicht solche, deren einziger Zweck darin besteht, zu bestätigen, dass eine bestimmte natürliche Person die Person ist, für die sie sich ausgibt); Biometrische Kategorisierungssysteme, die auf der Grundlage der Ableitung sensibler oder geschützter Attribute oder Merkmale arbeiten;

Bildung
Emotionserkennung; Zugang, Zulassung oder Zuweisung; Bewertung von Lernergebnissen, einschließlich der Fälle, in denen diese Ergebnisse zur Steuerung des Lernprozesses natürlicher Personen verwendet werden; Bewertung des Bildungsniveaus; Überwachung und Erkennung verbotener Verhaltensweisen von Schülern während Prüfungen.

Arbeit und Beschäftigung
Rekrutierung oder Auswahl von natürlichen Personen (gezielte Werbung, Filterung von Bewerbungen, Bewertung von Kandidaten); Entscheidungen, die sich auf die Bedingungen von Arbeitsverhältnissen, Arbeitsverträge, die Zuweisung von Aufgaben auf der Grundlage des individuellen Verhaltens oder persönlicher Merkmale oder Eigenschaften, die Überwachung und Bewertung der Leistung und des Verhaltens von Mitarbeiter:innen auswirken.

Migration
Bewertung eines Risikos, einschließlich eines Sicherheitsrisikos, eines Risikos der irregulären Migration oder eines Gesundheitsrisikos, das von Personen während der Migration in die EU ausgeht; Prüfung von Anträgen auf Asyl, Visa oder Aufenthaltsgenehmigungen; Aufdeckung, Erkennung oder Identifizierung natürlicher Personen (zulässig: Überprüfung von Reisedokumenten).

Strafverfolgung
Bewertung des Risikos, dass eine natürliche Person Opfer einer Straftat wird; Verwendung von Polygraphen oder ähnlichen Instrumenten; Bewertung der Zuverlässigkeit von Beweisen im Laufe der Ermittlungen oder der Strafverfolgung; Bewertung des Risikos, dass eine natürliche Person eine Straftat begeht oder rückfällig wird, Bewertung von Persönlichkeitsmerkmalen und -eigenschaften oder früheren kriminellen Verhaltensweisen von natürlichen Personen oder Gruppen; Profilerstellung natürlicher Personen;

Justiz
Recherchieren und Auslegen von Tatsachen und Gesetzen und Anwenden von Gesetzen auf einen konkreten Sachverhalt oder ähnliche Verwendung bei der alternativen Streitbeilegung; Beeinflussen des Ausgangs einer Wahl oder eines Referendums oder des Wahlverhaltens natürlicher Personen bei der Ausübung ihres Wahlrechts bei Wahlen oder Referenden (zulässig: KI-Systeme wie Instrumente zur Organisation, Optimierung oder Strukturierung politischer Kampagnen aus administrativer oder logistischer Sicht).

  • Quelle: Anhang III zu Artikel 6 Absatz 2

 

Reflexion
  • Wie einfach war die Aufgabe? Wo musstet ihr länger nachdenken oder seid zu keinem Ergebnis gekommen?
  • Wie sehen verschiedene Bevölkerungsgruppen die jeweilige Anwendung? Welche Rechte sollten die Betroffenen haben?
  • Ist es besser, sehr risikobewusst zu sein und vorbeugende Maßnahmen zu ergreifen, oder schnell zu reagieren, wenn etwas passiert?
  • Was lösen die beschriebenen Anwendungsmöglichkeiten in dir aus? Hast du bereits Erfahrungen damit gesammelt?
  • Was kannst du zur Risikominimierung beitragen, wer ist noch beteiligt? Wer sollte an der Steuerung/Kontrolle dieser KI-Anwendungen beteiligt sein?

 

Foto: © politischbilden.de im Computerspielemuseum Berlin

Digital Youth Work - Rights-Sensitive, Open, Accessible, Democratic (DIYW-ROAD)

Veröffentlicht im Rahmen des Projekts DIYW-ROAD, einer europäischen Partnerschaft koordiniert vom Arbeitskreis deutscher Bildungsstätten.   

Die englischsprachige Originalversion dieser Methode ist unter einer CC-BY-SA 4.0 International Lizenz auf der Plattform Competendo erschienen:
➔ No Risk, no AI

Downloads

PDF Dokument - 0,1 MBAnsicht
CC BY SA Lizenz

Autor*innen / Organisationen

Module

Etwas beitragen?

Material einreichen