zufo.Datenkompetenz meets KI: Prognosen und Biases

KI / Zukunftsforum
Lesedauer: 4 Minuten

Unser erstes Community Meetup in 2025 hat als gemeinsame Veranstaltung der zedita.zufo Communities für Datenkompetenz und Künstlicher Intelligenz (KI) im zedita stattgefunden. Thema war, dass Künstliche Intelligenz (KI) sich zwar als Werkzeug zur Erstellung von Vorhersagen in verschiedenen Bereichen etabliert hat, eines der wichtigsten Merkmale von Prognosen aber ist, dass sie immer mit Unsicherheit behaftet sind.

Auch wenn KI-Modelle auf Basis umfangreicher Datenmengen trainiert werden, können sie niemals die Zukunft mit absoluter Sicherheit vorhersagen. Es gibt immer eine gewisse Wahrscheinlichkeit, dass die Prognose falsch liegt, sei es aufgrund unvollständiger Daten, unvorhergesehener Ereignisse oder einfach der Tatsache, dass sich die Realität in den allermeisten Fällen nicht 1:1 in den Daten abbilden lässt.

Doch wie genau funktionieren diese Prognosen, und welche Rolle spielen Verzerrungen in diesem Prozess? Künstliche Intelligenz nutzt Daten, um Muster zu erkennen und Vorhersagen zu treffen. Dabei kommen Algorithmen des maschinellen Lernens zum Einsatz, die aus historischen Daten lernen und diese Erkenntnisse auf zukünftige Ereignisse anwenden. Ein Beispiel hierfür sind Wettermodelle, die auf Basis vergangener Wetterdaten zukünftige Wetterlagen prognostizieren können. Der Prozess der Vorhersage mit KI lässt sich grob in drei Schritte unterteilen:

  • Datenaufbereitung: Hierbei werden historische Daten gesammelt und aufbereitet. Besonders wichtig dabei ist, dass die Daten die Realität möglichst gut widerspiegeln und zur Frage- bzw. Zielstellung passen.
  • Modelltraining: In diesem Schritt wird das KI-Modell mithilfe der aufbereiteten Daten trainiert. Das Modell lernt dabei, Muster und Zusammenhänge in den Daten zu erkennen.
  • Vorhersage: Schließlich wird das trainierte Modell verwendet, um Vorhersagen auf Grundlage neuer Daten zu treffen.

Im Meetup haben wir uns am Beispiel der linearen Regression angesehen, wie eine statistische Prognose überhaupt zustande kommt, und in welchem Zusammenhang künstliche neuronale Netze damit stehen.

Abbild der Realität

In einem Datenprojekt wird  immer ein Modell der Realität erstellt.  Dieses wird analysiert und die Erkenntnisse sollen dann wieder in die Realität übertragen werden. Aber ein vereinfachtes Abbild der Realität fordert Annahmen, die getroffen werden müssen. Vieles wird vereinfacht, einiges ignoriert, manches betont. Ein klassisches Beispiel sind Landkarten, die jeweils für einen spezifischen Verwendungszweck erstellt werden.  Mit einer Landkarte, die für den Autoverkehr erstellt wurde, wird es schwierig eine passende Bahnverbindung herauszusuchen. Das Abbild der Realität spiegelt dementsprechend das Weltbild derer Personen wider, die für die Modellierung verantwortlich sind. Und so kann es auch mal vorkommen, dass selbst eine künstliche Intelligenz bei unliebsamen Gesprächen das Thema wechseln möchte:

Wie entstehen Verzerrungen in KI-Prognosen?

Verzerrungen (Bias) in KI-Prognosen können auf verschiedene Weisen entstehen und die Genauigkeit der Vorhersagen erheblich beeinträchtigen. Einige der häufigsten Ursachen für Verzerrungen sind nicht repräsentative Daten, Algorithmische Verzerrungen und menschliche Fehlbarkeit. Wenn die Daten, die zum Training des Modells verwendet werden, nicht repräsentativ sind, kann dies zu Verzerrungen führen. Ein Beispiel hierfür ist, wenn bestimmte Bevölkerungsgruppen in den Daten unterrepräsentiert sind, was zu voreingenommenen Vorhersagen führen kann. Manchmal sind die Algorithmen selbst fehlerhaft oder nicht optimal für die spezifische Aufgabe geeignet. Dies kann dazu führen, dass bestimmte Muster über- oder unterbewertet werden. Man spricht dann von algorithmischen Verzerrungen. Wie bereits angesprochen, wird bei einem Datenprojekt ein Modell der Realität erstellt. Menschen, die Daten sammeln, bereinigen und das Modell trainieren, können unbeabsichtigt ihre eigenen Vorurteile in den Prozess einfließen lassen.

Live Training einer Künstlichen Intelligenz

Dann wurde es bei unserem Meetup praktisch. Meik hat die KI Teachable Machine von Google kurz vorgestellt und einen eigenen Trainingsdatensatz erstellt. Dafür hat er sowohl von einer Limo-Flasche als auch von einer Kola-Flasche jeweils um die 60 Fotos aus verschiedenen Blickwinkeln aufgenommen und gelabelt. So hat die KI eine Reihe Beispielbilder von beiden Flaschen und weiß auch, was eine Kola- und was eine Limo-Flasche ist. In solch einem Fall spricht man von überwachtem Lernen.

Auf Basis dieses Trainingsdatensatzes wird das KI-Modell trainiert, dass hinterher vorhersagen soll, ob es sich bei einer neu aus dem Kühlschrank genommenen Flasche um Kola oder Limo handelt. Woran genau die KI das festmacht, kann auch Meik als Entwickler der KI nur erahnen. Der Entscheidungsprozess ist nicht nachvollziehbar, weswegen man im Zusammenhang mit KI auch von Black-Box-Algorithmen spricht.

Um es kurz zu halten: „Eine Prognose kann idiotische sein und trotzdem eintreten. Oder sie kann großartig sein, aber nicht zutreffen“ formuliert Andreas Beck zwar eigentlich in Bezug auf Finanzmärkte, aber der Zusammenhang gilt für jede Art von Prognose. So wohl auch auf Vorhersage unserer KI, dass es sich bei Meik zu 93% um eine Kola-Flasche handelt.

Wer das jetzt auch gerne mal ausprobieren möchte, hier der Link zu teachable machine. Die webbasierte KI ist von Google und kann kostenlos verwendet werden.

Wir freuen uns schon auf das nächste gemeinsame Meetup!

Viele Grüße

Meik und Carina


Das „zedita.zukunftsforum“ ist ein Projekt der Hochschule Weserbergland und wird gefördert durch die Zukunftsregion Weserbergland+ mit Mitteln der Europäischen Union und des Landkreises Hameln-Pyrmont.