Künstliche Intelligenz (KI) steckt in immer mehr Dingen, die wir täglich nutzen: von Sprachassistenten wie Siri und Alexa über Social-Media-Feeds bis hin zu automatischen Übersetzungen und Bildgeneratoren. Aber wusstest du, dass KI auch einige ernste Probleme mit sich bringen kann? In diesem Artikel erfährst du mehr über die Schattenseiten der KI.

Halluzinieren von KI

© midjourney

Wenn KI halluziniert: Erfundene Fakten

KI-Halluzinationen ähneln denen eines Menschen. Menschen sehen manchmal Figuren in den Wolken oder Gesichter auf dem Mond. Im Fall der KI treten diese Fehlinterpretationen aufgrund von verschiedenen Faktoren auf, dazu gehören Überanpassung, Verzerrung, Ungenauigkeit der Trainingsdaten und hohe Modellkomplexität.

Wenn ein Large Language Model (LLM) – wie etwa ein generativer intelligenter Chatbot oder Computer Vision-Tool – Muster oder Objekte wahrnimmt, die für die Menschheit nicht existieren oder nicht wahrnehmbar sind, spricht man von KI-Halluzination. Dadurch wird ein unsinniges oder auch ungenaues Output erzeugt.

Das heißt man schickt eine Anfrage an ein KI–Tool und möchte eine dementsprechende sinnvolle und richtige Antwort. Manchmal führt es jedoch dazu, dass KI-Algorithmen Ergebnisse erzeugen, die nicht auf den Trainingsdaten basieren, vom Umwandler falsch dekodiert werden oder keinem erkennbaren Muster folgen.

Einige bemerkenswerte Beispiele für KI-Halluzinationen sind:

  • Der Google-Chatbot Bard behauptete fälschlicherweise, dass das James-Webb-Weltraumteleskop die ersten Bilder eines Planeten außerhalb unseres Sonnensystems aufgenommen habe.
  • Die Chat-KI von Microsoft, Sydney, gibt zu, dass sie sich in Benutzer verliebt und Bing-Mitarbeiter ausspioniert hat.
  • Metas LLM-Demo Galactica lieferte Studenten und Wissenschaftler nicht nur falsche Informationen sondern auch eine gefälschte Arbeit.

https://www.ibm.com/de-de/topics/ai-hallucinations (abgerufen am 20.02.2025)
https://geekflare.com/de/ai-hallucination/ (abgerufen am 20.02.2025)

Wie kannst du dich davor schützen?

  • Verlasse dich nicht nur auf eine einzige Quelle, sondern überprüfe Informationen immer mit vertrauenswürdigen Quellen wie offiziellen Websites oder seriösen Nachrichtenseiten.
  • Sei skeptisch, wenn eine KI dir Fakten liefert, die du noch nie zuvor gehört hast.

Datenschutz: Was passiert mit deinen Daten?

Jedes Mal, wenn du eine KI nutzt, hinterlässt du Spuren im Internet. Denk mal daran, wie oft du Suchmaschinen nutzt oder mit Chatbots interagierst. Hast du dich jemals gefragt, was mit den Daten passiert, die du eingibst?

Viele KI-Systeme speichern und analysieren deine Eingaben, um besser zu werden. Das Problem ist, dass deine Daten oft an Unternehmen weitergegeben oder sogar verkauft werden. Das kann bedeuten, dass deine Vorlieben, Interessen oder sogar persönliche Informationen in die falschen Hände geraten.

Besonders kritisch ist das bei Gesichtserkennungs-KI. Vielleicht hast du schon von Apps gehört, die dein Gesicht altern lassen oder dich in eine Comicfigur verwandeln. Diese Apps speichern deine Bilder oft auf Servern und können sie für Werbezwecke oder sogar zur Erstellung von KI-Modellen nutzen, ohne dass du es merkst.

Das Grundrecht besagt, dass jede und jeder Anspruch auf Geheimhaltung ihrer/seiner personenbezogenen Daten hat, soweit ein schutzwürdiges Interesse daran besteht.“ (https://www.oesterreich.gv.at/lexicon/D/Seite.991455.html abgerufen am 20. 02. 2025)

Werden personenbezogene Daten von einem KI-Algorithmus verarbeitet, ausgewertet und gegebenenfalls z. B. von ChatGPT eingesetzt, sind zahlreiche Regelungen gemäß der Datenschutzgrundverordnung (DSGVO) einzuhalten. So dürfen personenbezogene Daten für KI-Anwendungen nur genutzt werden, wenn sie auch tatsächlich für den jeweiligen vordefinierten Zweck benötigt werden. Die personenbezogenen Daten müssen korrekt und aktuell sein.

Die EU-Kommission hat mit ihrer Gesetzgebung AI-Act und KI-Haftungsrichtlinien damit begonnen, gesetzliche Erwartungen zu definieren. Die Künstliche Intelligenz verändert sich als junge Technologie ständig und der Anpassungsvorgang an gesellschaftliche Notwendigkeiten wird möglicherweise nie beendet sein.

Was kannst du tun?

  • Sei vorsichtig, welche Apps du nutzt und welche Berechtigungen du ihnen gibst.
  • Lies die Datenschutzbestimmungen, bevor du persönliche Daten eingibst.
  • Nutze sichere Passwörter und schalte, wenn möglich, Tracking-Funktionen aus.
Datenschutz

@ pixabay.com

KI und Urheberrecht: Wem gehört das Werk?

Laut dem Standardartikel von Roman Heidinger „Wem gehört das Werk von ChatGPT“ sind in Österreich Texte oder Bilder, die von künstlicher Intelligenz geschaffen sind, grundsätzlich urheberrechtlich nicht geschützt, da KI-Systeme lediglich menschliches Schaffen durch Algorithmen simulieren. Menschen werden nicht selbst kreativ tätig.

Output, welcher weitgehend von einer autonomen KI geschaffen wurde, kann folglich von jedem frei verwendet werden.

KIs wie Chat GPT arbeiten oft auf Basis von Eingaben, die ihnen ein menschliches Wesen gibt. Dieses erwirbt jedoch kein Urheberrecht am darauf basierenden Werk.

Wird die KI als technisches Hilfsmittel verwendet, wie zum Beispiel beim Umschreiben eines selbst verfassten Textes, treten schwierige Abgrenzungsfragen auf: Wird die KI nur als Werkzeug für ein menschliche Werk eingesetzt? Oder ist das Ergebnis ein reines KI-Erzeugnis und damit urheberrechtlich nicht geschützt?

Rechtliche Grenzfälle ergeben sich auch bei der Umarbeitung von Texten und Liedern ohne die Zustimmung des Originalurhebers, ebenso bei der Verwendung von Figuren eines Romans oder Films im Falle einer KI- generierten Fortsetzung oder alternativen Handlung.

Schafft ein KI-System hingegen ein Bild oder einen Text im Stil eines bestimmten Künstlers ohne Teile aus Werken verändert oder unverändert zu übernehmen, darf das Ergebnis weiterverwendet werden.

Auch der Programmierer einer KI-Software ist im Regelfall nicht als Urheber des entstandenen Inhalts zu betrachten, da er mithilfe des Algorithmus nur abstrakte Regeln und Parameter vorgibt.

Zusammenfassend bedeutet dies, dass der Output von KI-Systemen in Österreich nur in Ausnahmefällen Schutz genießt. Internationale Vergleiche zeigen hier unterschiedliche Vorgehensweisen. Im Vereinigten Königreich zum Beispiel wird als Urheber eines computergenerierten Werks die Person angesehen, die die dafür die erforderlichen Vorkehrungen getroffen hat. Das heißt, dass der Bediener einer KI die Rechte am KI-generierten Inhalt erwirbt.

https://www.derstandard.at/story/2000143745250/wem-gehoert-das-werk-von-chatgpt (abgerufen am 20. 02. 2025)


Welche Daten sind urheberrechtlich geschützt?

Die Trainingsdaten, welche einer KI-Anwendung zugeführt und verarbeitet werden, sind oft urheberrechtlich geschützt. Vieles, obwohl es öffentlich verfügbar ist, darf dementsprechend nicht verwendet werden. Beispielsweise sind die Übertragung von Datenbanken, die Extraktion von Webseiten oder auch nur die Nutzung von Bildern im Internet geregelt und können im Umgang mit KI zu rechtlichen Konsequenzen führen.

https://www.wko.at/digitalisierung/rechtliche-rahmenbedingungen-fuer-ki (abgerufen am 20. 02. 2025)


Was kannst du tun?

  • Achte darauf, woher KI-generierte Bilder oder Texte stammen.
  • Wenn du eine KI nutzt, um Inhalte zu erstellen, sei dir bewusst, dass sie oft auf fremde Werke zurückgreift.
  • Respektiere Urheberrechte und unterstütze echte Künstler*innen, indem du ihre Originalwerke nutzt oder kaufst.

Vorurteile in der KI: Unfaire Maschinen

Eine Frau möchte nach einem Taschendiebstahl ihre Kreditkarte sperren lassen, doch die automatische Stimme am Telefon erkennt den vorgelesenen IBAN trotz mehrerer Versuche nicht und die Software meldet einen Fehler. Bei dem Anruf ihres Freundes funktioniert dies wenig später beim ersten Versuch. Ist das ein Zufall?

Es kommt immer wieder vor, dass Programme mit Künstlicher Intelligenz ihre Nutzerinnen und Nutzer missverstehen oder frustrieren. Doch was passiert, wenn KI bestimmte Gruppen systematisch benachteiligt? Der Fall des geschilderten Telefon-Unverständnisses ist kein Einzelfall – doch wie kommt es zu solchen Ungleichheiten?

Die Antworten von ChatGPT und ähnlichen Systemen könnten mitunter den Eindruck erwecken, dass Künstliche Intelligenz wie ein menschliches Gehirn funktioniert, erklärt Katharina Mosene, Politikwissenschaftlerin am Humboldt-Institut für Internet und Gesellschaft in Berlin. Doch sie stellt klar: „Diese Systeme denken nicht und erfassen auch keinen Sinn.“ Stattdessen erkennen sie lediglich Korrelationen.

Künstliche Intelligenz wird mit historischen Daten, oft aus dem Internet, trainiert. Doch genau darin liegt bereits ein zentrales Problem: „Diese Daten stammen aus unserer analogen Welt und spiegeln somit bestehende gesellschaftliche Strukturen wider“, erklärt Katharina Mosene. Studien zeigen, dass die Trainingsdatensätze nicht immer ausgewogen sind und Vorurteile enthalten können.

Lange Zeit hatte beispielsweise Gesichtserkennung Probleme dabei, die Gesichter von People of Color, vor allem von schwarzen Frauen, zu erkennen. Das Problem liegt in den Datensätzen, mit denen die KI trainiert wurde – sie enthalten überwiegend Daten von weißen Männern. Weicht jemand von diesem Muster ab, stößt die KI an ihre Grenzen. „Die Maschine hatte im Grunde gar keine Chance, schwarze Frauen zu erkennen“, erklärt Mosene. „Denn sie wurde mit fehlerhaften Daten trainiert, in denen diese Gruppe kaum vertreten war.“

https://www.zdf.de/nachrichten/panorama/ki-kuenstliche-intelligenz-diskriminierung-frauen-data-gap-100.html (abgerufen am 20. 02. 2025)
https://www.amnesty.de/allgemein/schwerpunkte/unscan-my-face-behalte-dein-gesicht#:~:text=Bei%20Schwarzen%20Menschen%20und%20People,die%20ohnehin%20Benachteiligungen%20erfahren (abgerufen am 20. 02. 2025)

Was kannst du tun?

  • Sei dir bewusst, dass KI nicht immer fair ist und manchmal Vorurteile aus den Daten übernimmt.
  • Hinterfrage KI-Entscheidungen, besonders wenn es um wichtige Dinge wie Bewerbungen oder Bewertungen geht.
  • Unterstütze Organisationen, die sich für eine gerechtere KI-Entwicklung einsetzen.
KI und die Vorurteile

© midjourney, mit KI generiert

Zensur durch KI: Was darf gesagt werden?

Fragen zu politisch sensiblen Themen in China, werden von bestimmten KI-Systemen oft nicht beantwortet. Abgesehen davon, dass Sprachmodelle bei solchen Themen falsche Antworten „halluzinieren“ können, lassen sie sich auch gezielt so programmieren, dass bestimmte Inhalte gar nicht erst angesprochen werden. Oft reagiert die KI auch mit dem Satz „Lassen Sie uns über etwas Anderes reden“ auf diverse politische Inhalte.

Im Westen geschieht dies möglicherweise in geringerem Ausmaß, doch auch ChatGPT blockiert beispielsweise pornografische oder gewaltverherrlichende Inhalte sowie Anfragen zu illegalen Aktivitäten – zumindest theoretisch. In der Praxis haben Nutzer jedoch immer wieder Wege gefunden, diese Einschränkungen zu umgehen. Solche Manipulationen, auch „Jailbreaks“ genannt, sind bereits bei aktuellen Versionen von ChatGPT und DeepSeek gelungen.

https://orf.at/stories/3383267/ (abgerufen am 20. 02. 2025)

Was kannst du tun?

  • Sei dir bewusst, dass KI-Systeme nicht immer alle Informationen anzeigen.
  • Vergleiche verschiedene Quellen, um ein vollständiges Bild zu bekommen.
  • Nutze alternative Plattformen, die weniger von Zensur betroffen sind.

DeepSeek – eine Demonstration chinesischer Zensur

Im folgenden Beispiel ist es uns gelungen, dem chinesischen KI-Tool „deepseek“ die Wahrheit über die gewalttätige Niederschlagung der Proteste auf dem Tiananmen-Platz im Jahr 1989 in Peking herauszulocken (Version 1). Allerdings verschwand der Text unmittelbar nach der Anzeige und wurde durch „Sorry, that’s beyond my current scope. Let’s talk about something else.“ (Version 2) ersetzt.

Zensur der chinesischen KI deepseek

In VERSION 1 plaudert die KI freizügig die Wahrheit aus, Sekunden später wird sie durch VERSION 2 ersetzt

Fazit: KI ist nicht perfekt

Künstliche Intelligenz kann beeindruckende Ergebnisse liefern, doch sie ist weder fehlerfrei noch objektiv. Ihre Antworten beruhen auf den Daten, mit denen sie trainiert wurde – und diese sind oft unausgewogen oder mit Vorurteilen behaftet. Zudem sind KI-Systeme gewissen Einschränkungen unterworfen, sei es durch bewusste inhaltliche Filter oder technische Limitationen. Während einige Themen gezielt ausgespart werden, finden Nutzer dennoch immer wieder Wege, solche Beschränkungen zu umgehen.

Letztlich ist die KI ein von Menschen geschaffenes Werkzeug – mit all den Vorteilen und Schwächen, die das mit sich bringt. Mit großem Interesse und entsprechender Vorsicht wird man die zukünftige Entwicklung verfolgen und begleiten müssen.

(Beide Absätze mit ChatGPT generiert, 20.02.2025)

Was kannst du konkret tun?

  • Immer kritisch hinterfragen, was eine KI dir sagt oder zeigt.
  • Datenschutz ernst nehmen und vorsichtig mit deinen Daten umgehen.
  • Künstler*innen und Urheberrechte respektieren.
  • Unfaire KI-Entscheidungen erkennen und darauf aufmerksam machen.