KI nutzen
Der Fortschritt von künstlicher Intelligenz eröffnet uns praktische alltagsnahe Anwendungsbereiche. Aber auch zum Spielen sind KI-gesteuerte Systeme interessante Partner. Gleichzeitig müssen wir uns mit ethischen Fragen und der Verantwortung auseinandersetzen, die mit dem Einsatz von KI einhergehen.
Beispiele von KIs
In den letzten Jahrzehnten hat die KI-Forschung erhebliche Fortschritte gemacht. Heute gibt es im modernen Alltag zahlreiche Beispiele für den Einsatz von künstlicher Intelligenz.








Die KI kann in vielen Bereichen sinnvoll eingesetzt werden. Sie wird aber auch verwendet, um Internetnutzerinnen und -nutzer durch maßgeschneiderte Werbung zum Kaufen zu verführen oder ihre Meinung zu Themen zu beeinflussen oder sogar zu manipulieren.
Mit KI spielen
Spiele sind besonders gut geeignet, um zu sehen, wie eine KI lernt. Sie bieten nämlich immer eine Möglichkeit zu erkennen, ob man sich im Spiel verbessert oder nicht. Diese Information nutzen Menschen und KI-Programme, um sinnvoll zu üben.
Lese dir den Text zur Geschichte des Spielens mit KI durch und mache die Übungen!
KI-Chatbots
Auch KI-Chatbots (wie

Bitte beachten: Während der Verwendung von KI-Chatbots niemals persönliche oder sensible Daten preisgeben!
Mit KI-Chatbots ist es auch möglich, ein Text-Adventure zu erleben. Probiert es aus, indem ihr einem KI-Chatbot einen der folgenden Arbeitsaufträge stellt oder euch selbst einen überlegt:
Ich will ein Text-Adventure mit dir spielen. Führe mich durch ein Abenteuer, in dem ich versuche,
- aus dem Gefängnis auszubrechen.
- ein Dorf von der Herrschaft eines mächtigen Zyklopen zu befreien.
Kritik
KI-Chatbots haben zweifellos faszinierende Möglichkeiten eröffnet. Dennoch sind inmitten der Begeisterung auch kritische Aspekte zu beachten, die weitreichende Auswirkungen auf die Gesellschaft haben können. Beispielsweise führt die zunehmende Abhängigkeit von KI bei der Entscheidungsfindung dazu, dass Menschen die Fähigkeit verlieren, eigenständig zu denken und kritisch zu hinterfragen. Denn auch KI-Chatbots sollte man niemals blind vertrauen. Immerhin basieren ihre Textdatensätze auf einer Vielzahl von ungeprüften Quellen. Weil ihr Lernalgorithmus auf Daten aus dem Internet basiert, liefern KI-Chatots häufig falsche oder irreführende Informationen.
Besprecht gemeinsam in der Klasse!
- Warum sollte ein KI-Chatbot nicht als Ersatz für das Feedback von Lehrkräften oder anderen Schülerinnen und Schülern verwendet werden?
- Inwiefern könnte sich die zu häufige Nutzung von KI-Chatbots negativ auf eure eigenen Fähigkeiten auswirken?
Warum macht eine KI Fehler?
KI-ara hat nach ihrem Training die Dreiecke meist nur erkannt, wenn die Spitze nach oben zeigte.
Das ist ein häufiges Problem beim maschinellen Lernen:
Die KI erkennt Muster, die für die Entscheidung gar nicht relevant sind.
Im Fall der Dreiecke bedeutet dies, dass KI-ara das Muster „Spitze zeigt nach oben“ als eine wichtige Eigenschaft für Dreiecke erkennt, weil die Trainingsdaten nur Dreiecke mit der Spitze nach oben enthalten.
Auch bei den vier Fällen im Quiz ist beim Training der KI etwas schief gelaufen. Kannst du erkennen, was?
Beim maschinellen Lernen werden Objekte wie Bilder, Videos, Text- oder Musikdateien einer Kategorie (oder auch mehreren) zugeordnet. Zuordnungen zu Kategorien sind immer das Ergebnis von bestimmten Unterscheidungen bzw. Mustern, die sich aus den Daten ergeben.
Schaut euch noch einmal die vier Beispiele im Quiz Falsche Zuordnungen an und besprecht dann in Kleingruppen folgende Fragen:
- Welche Merkmale sind für euch wichtig, um Hunde von Katzen oder Menschen von Pferden zu unterscheiden?
- Kann eine Maschine diese Merkmale auch nutzen? Warum bzw. warum nicht?
- Wie müssten die Trainingsdaten der vier Beispiele verändert werden, damit die KI sich richtig entscheidet?

Oft ist eine Zuordnung von Gegenständen oder Lebewesen zu Kategorien gar nicht so eindeutig. Die Unterscheidung zwischen Hunden und Katzen fällt uns Menschen meist leicht. Eine Maschine erkennt auf einem Bild aber keine Katze, sondern „berechnet” ihre Entscheidung mathematisch aufgrund der Bildpixel. Wie auch immer der Prozess des „Erkennens“ abläuft, am Ende steht (hoffentlich) ein für Menschen nachvollziehbares Ergebnis.
Wenn das nicht der Fall ist, liegt das auch an den Trainingsdaten. Diese führen bei der KI zu einer falschen Mustererkennung. Man spricht dann in Fachkreisen von dem Phänomen Garbage in – Garbage out (dt. Müll hinein – Müll heraus). Das bedeutet, dass die Qualität der Ergebnisse einer KI nur so gut sein kann wie die Qualität der Trainingsdaten. Wenn die Trainingsdaten ungenau oder fehlerhaft sind, werden auch die Ergebnisse ungenau oder fehlerhaft sein. Man spricht dann von einem bias.
Vom Fehler zur Diskriminierung
Vorurteile sind für Menschen heute ebenso überlebenswichtig wie zu früheren Zeiten. Sie ermöglichen es, sich in einer hochkomplexen und gefährlichen Umwelt zurechtzufinden. Allerdings führen sie auch zu ungerechtfertigten Benachteiligungen, denn sie verhindern es, faktenbasierte Entscheidungen zu treffen.
Daten basieren immer auf Entscheidungen, die Menschen zu einem früheren Zeitpunkt getroffen haben und Menschen haben Vorurteile. Künstliche Intelligenz tut damit das, was WIR ihr beibringen. Deshalb reklamieren Chatbots rassistische Parolen, bekommen Frauen niedrigere Kredite als Männer oder werden Gesichter dunkelhäutiger Personen seltener von der Gesichtserkennungssoftware erkannt als hellhäutige.
Ein KI-System übernimmt menschliche Fehler und es gibt zahlreiche Beispiele, wie maschinelles Lernen bestehende gesellschaftliche Verhältnisse verstärkt und diskriminierte Gruppen deshalb weiterhin systematisch benachteiligt werden.
Welches Problem kann entstehen, wenn die KI dein Gesicht nicht erkennt? Finde ein Beispiel dafür!
Fehler im Code oder in den Trainingsdaten von KI-Systemen können zu diskriminierenden Entscheidungen führen, die schwerwiegende Folgen für einzelne Personen und gesellschaftliche Gruppen haben. Es gibt aber auch Möglichkeiten, diese Fehler im System zu beheben oder zumindest zu reduzieren.

Fehler von KI Systemen beheben
Es ist sehr wichtig zu wissen, welche Auswirkungen die Auswahl der Trainingsdaten haben kann. Je vielfältiger und umfangreicher die Daten sind, desto besser kann sichergestellt werden, dass KI-Systeme fair und zuverlässig funktionieren und niemand benachteiligt wird. Im Fall der Gesichtserkennung sollten die Bilddatenbanken, mit deren Fotos die KI trainiert wird, viele unterschiedlich aussehende Gesichter enthalten, sodass die KI viele mögliche Gesichter „kennt” und damit auch erkennen kann.
Verbessere die Trainingsdaten von KI-ara so, dass sich die Erkennungsrate von verschiedenen Dreiecken, Kreisen und Vierecken verbessert!
Ist es dir gelungen, die Entscheidungen von KI-ara zu verbessern? Dann ist der Beruf des Data Scientist vielleicht genau der richtige für dich, denn als Datenwissenschaftlerin und Datenwissenschaftler (dt. Übersetzung) ist man auch für die Qualität der Trainingsdaten zuständig.
Ebenso wie eigene Entscheidungen müssen auch die Entscheidungen von KI-Systemen kritisch betrachtet werden, da letztlich immer Menschen für deren Einsatz und damit auch für die möglichen Folgen verantwortlich sind.

Ethik und Verantwortung
Entscheidungen von KI-Systemen sind oft auch ethisch fragwürdig. Wann dürfen KI-gesteuerte Waffensysteme das Feuer eröffnen? Wer übernimmt die Verantwortung, wenn ein selbstfahrendes Auto einen Menschen verletzt? Kann ein Pflegeroboter die Arbeit des Menschen komplett übernehmen? Diese Fragen werden in Ethikkommissionen und politischen Gremien heiß diskutiert. Viele Expertinnen und Experten sind sich einig, dass bestimmte Entscheidungen besser ausschließlich von Menschen getroffen werden sollten, weil diese dann auch die Verantwortung dafür übernehmen können und müssen.
Überlegt euch gemeinsam eine weitere Frage, welche die Ethikkommission diskutieren soll!

Um den Umgang mit KI zu regeln, müssen nationale und internationale Regeln und Gesetze festgelegt werden. Nur so können bestimmte Formen von KI eingeschränkt oder sogar verboten werden. Der AI Act der EU ist ein solches Regelwerk, das von der Europäischen Union geschaffen wurde, um den Einsatz von Künstlicher Intelligenz zu regulieren. Es enthält Regeln, die sicherstellen sollen, dass KI sicher, vertrauenswürdig und fair ist und den Menschen nützt.

Hacks und Tricks
- KI-generiertes Rollenspiel
- Wortspiel von Google