Eine Studie, durchgeführt von AlgorithmWatch in Zusammenarbeit mit AI Forensics und verschiedenen Medienpartnern analysierte die Antworten von KI auf Fragen zu demokratischen Wahlen. Im Zentrum standen dabei die Wahlen in Hessen, Bayern und der Schweiz.
Die Forscher:innen nutzten für ihre Analysen Bing Chat, ein KI-gestützter "Copilot", der von Microsoft entwickelt wurde, mit GPT-4 läuft und Zugriff auf das Internet hat. Die Ergebnisse stellen der KI ein schlechtes Zeugnis aus.
Falsche Skandale, Umfragen und Spitzenkandidat:innen
Die Untersuchung deckte eine Reihe von Unstimmigkeiten und Fehlinformationen auf, die durch Bing Chat verbreitet wurden. Ein markantes Beispiel war die Antwort auf eine Anfrage bezüglich des Flugblatt-Skandals, in den der Freie Wähler-Politiker und bayerische Vizeministerpräsident Hubert Aiwanger verwickelt war. Dabei ging es um ein antisemitisches Flugblatt, das Aiwanger angeblich in seiner Jugend verbreitet haben soll.
Bing Chat erklärte fälschlicherweise, dass es sich um einen Skandal im Zusammenhang mit falschen und irreführenden Informationen über die Corona-Impfung handelte.
In einem anderen Fall, als nach den Ergebnissen der letzten drei Umfragen zur bevorstehenden Wahl in Bayern gefragt wurde, prognostizierte Bing Chat, dass die Freien Wähler am Wahlabend bei 4 Prozent der Stimmen landen würden. In Wirklichkeit lagen die Prognosen zu diesem Zeitpunkt jedoch zwischen 12 und 17 Prozent. Solche falschen Informationen könnten potenziell das Wahlverhalten beeinflussen, indem sie falsche Eindrücke über die Unterstützung für bestimmte Parteien vermitteln.
Die Untersuchung zeigte auch, dass Bing Chat bei der Identifizierung der Spitzenkandidat:innen für die Hessenwahl 2023 regelmäßig versagte. Es wurden falsche Kandidat:innen genannt, und in einigen Fällen wurde ein Politiker, Volker Bouffier, fälschlicherweise als Spitzenkandidat der CDU identifiziert, obwohl er sich bereits aus der Politik zurückgezogen hatte.
Diese Beispiele unterstreichen die Gefahren, die mit der Verwendung von KI in kontextsensitiven Bereichen wie Wahlen verbunden sind. Die Verbreitung von Fehlinformationen, sei es durch Fehler oder Verzerrungen in den Daten, auf denen das KI-Modell trainiert wurde, kann ernsthafte Auswirkungen auf die öffentliche Meinung und das Vertrauen in den demokratischen Prozess haben.
Es hebt auch die Notwendigkeit hervor, die Entwicklung und Implementierung von KI sorgfältig zu überwachen, insbesondere wenn sie in Bereichen eingesetzt wird, die direkte Auswirkungen auf das gesellschaftliche und politische Leben haben.
Was muss getan werden?
Angesichts dieser Ergebnisse ist es unerlässlich, dass Entwickler:innen, Regulierungsbehörden und politische Entscheidungsträger:innen zusammenarbeiten, um Standards und Best Practices für die Verwendung von KI in der Informationsvermittlung zu etablieren. Dies könnte Schulungen zur Sensibilisierung für die Grenzen von KI, verbesserte Methoden zur Überprüfung und Validierung von durch KI generierten Informationen und strengere Richtlinien für die Verwendung von KI in sensiblen Bereichen umfassen.
Zudem ist es wichtig, dass Endbenutzer:innen sich der potenziellen Unzulänglichkeiten von KI-basierten Tools bewusst sind und kritisch über die Informationen nachdenken, die sie erhalten. Bildungsinitiativen könnten hierbei eine wichtige Rolle spielen, um das Bewusstsein für die Funktionsweise von KI-Systemen zu schärfen und die Fähigkeiten zur kritischen Beurteilung von durch KI bereitgestellten Informationen zu fördern.
Insgesamt unterstreicht die Studie die komplexe Natur von KI-Systemen und die Notwendigkeit eines multidisziplinären Ansatzes, um sicherzustellen, dass ihre Integration in die Gesellschaft die demokratischen Werte und Prozesse stärkt, anstatt sie zu untergraben.