8.4.2 Die Kehrseite der künstlichen Intelligenz

Für viele der befragten jungen Menschen ist die Faszination für die praktischen Vorteile künstlicher Intelligenz von einer tiefgreifenden Ambivalenz begleitet: Potenziale werden gegen Risiken abgewogen.

Ein zentrales Thema betrifft den Verlust von Lernprozessen sowie Integritäts- und Authentizitätsprobleme. Noah (20 Jahre), welcher im Jugendparlament tätig ist, berichtet im Interview: „Ich finde es für uns Jugendliche jetzt nicht so lernhilfreich […], wenn uns jemand alles vorschreibt. Dann kann man ja auch einen Roboter anschalten, der von zu Hause arbeitet.“ Der 18-jährige Liam teilt diese Meinung und nennt ChatGPT „die vereinfachte Version, um Dokumentfälschung zu machen […]. Schlauer davon wird man dadurch nicht. […] Man verhält sich nichts.“ Ähnlich äußert sich auch Carmen. Die 24-Jährige gibt zwei konkrete Beispiele, die sie als „unehrlich“ empfindet: „The thing I don’t like is for example seeing how people hand in some essays that are not made by them. It is not … don’t put your name on it, you didn’t write it.“87 Für sie ist es also wichtig, dass immer klar dokumentiert wird, zu welchen Zwecken KI benutzt wird und was der daraus resultierende Output war. Dieser sollte mit dem Endresultat der Arbeit verglichen werden können. Ihre kritische Haltung ergibt sich daher, dass sie bei einigen ihrer Kommilitonen identifizieren kann, wann das Geschriebene von ChatGPT kommt, auch wenn die Professoren das scheinbar nicht können:

We have sometimes to post some comments on some readings and I can see that it is made by ChatGPT because the vocabulary is so academic and so … it says everything and nothing at the same time. So, it is a bit empty, the message.88

Hierin liegt für sie ein Integritäts- und Authentizitätsproblem, da die Quelle nicht nachvollziehbar ist und die produzierten Texte inhaltlich entkoppelt wirken können: formal korrekt, aber ohne persönliche Positionierung oder Substanz.

Die Sorge vor der Aushöhlung von Leistungsnachweisen wird von mehreren Studierenden geteilt, wobei das Thema des Plagiats zentral ist. Anastasia erzählt zum Beispiel, dass sie KI-Nutzung in universitären Arbeiten konsequent als Quelle zitiert, da dies für sie eine Frage der ethischen Redlichkeit ist.

Das Thema Fälschungen im Sinne von Fake News oder Deepfakes wird im Rahmen der Interviews zwar auch angesprochen, scheint insgesamt jedoch eher weniger reflektiert zu werden. Julien (21 Jahre) beschreibt seine Angst davor, wie KI die Nachrichten beeinflussen könnte: „Wat ass, wann een dann, keng Anung, Politiker mat falsche Statements an den Internet setzt oder wat weess ech? Dat sinn dann sou riseg Fake News, déi sech sou krass géife verbreeden.“89 Diese Aussage bezieht sich speziell auf die Idee, eine durch KI generierte Stimme in ein Video zu integrieren, in dem ein Politiker spricht, insbesondere, weil KI mittlerweile auch in der Lage ist, Mundbewegungen zu verfälschen. Er berichtet, dass solche Funktionalitäten bereits für positive Zwecke eingesetzt werden können, zum Beispiel, um Zusatzeffekte in Musikvideos zu generieren.

Im Kontext von Fälschungen findet das Thema sogenannter „Halluzinationen“ Resonanz. Gemeint sind verfälschte Informationen, die von KI in einem überzeugenden Stil oder Tonfall wiedergegeben werden, obwohl der Inhalt teilweise oder komplett erfunden ist beziehungsweise nicht der Realität entspricht. Semantisch betrachtet ist es interessant, dass in den Interviews wiederholt das Wort „Halluzination“ gewählt wurde, da es der KI eine Eigenschaft zuschreibt, obwohl das System nicht versteht, sondern lediglich statistisch plausible Textfortsetzungen erzeugt (Bender et al., 2021). Einige begegnen diesem Problem mit einer pragmatischen Skepsis. Aarav (28 Jahre) berichtet: „Whenever I don’t understand now you have ChatGPT, I can just type the quote, and see what is the meaning of it. And so yeah, it’s quite a useful tool.“90 Auf Nachfrage, ob ChatGPT ihm wiederholt Fehlinformationen geben würde, fügt er dann hinzu: ChatGPT gives you a lot of wrong answers. I mean especially fake literature, bibliography. […] It gave a very neat citation. Then when I was just copying and going into Google Scholar to check it, it’s bullshit.“91

Bei einigen jungen Menschen ist der Blick in die Zukunft mit Misstrauen verbunden, wenn sie über die Kehrseite von KI sprechen. Alexander (28 Jahre) zum Beispiel erzählt: „Also Sora92 ist auf jeden Fall … fand ich richtig geil. Ist ja, wenn das irgendwann public wird the world will never be the same. Das Internet Digga dann. Das wird ganz wild, das wird ganz wild.“ Diese Aussage wurde getroffen, als Sora noch nicht fürs Publikum weltweit verfügbar war. Andere Angebote wie Veo, Kling oder Runway sind ebenfalls verfügbar. Über Verfälschungen durch KI informiert zu sein, ist wichtiger als je zuvor, da Sprachmodelle mittlerweile stark darin sind, menschliche Interaktionen zu imitieren. Dies reicht so weit, dass mehrere Sprachmodelle einen empirischen Turing-Test93 bestehen und in der Interaktion mit Psychologie-Studierenden teilweise als menschlicher wahrgenommen werden als echte Menschen (C. Jones & Bergen, 2025).

Eng verbunden mit Bedenken im Hinblick auf Fälschungen und die Frage des Misstrauens ist eine weitere Kehrseite der KI: Datenschutz und unregulierte Datennutzung. Zu diesen Themen äußern junge Menschen sich aktiver und kritischer – insbesondere, wenn es um ihre persönlichen Daten geht. Der 20-jährige Noah, der der digitalen Entwicklung generell skeptisch gegenübersteht und aus persönlichen Gründen und Erfahrungen so wenig wie möglich von sich preisgeben will, fragt etwa: „Wer weiß, was mit meinen Daten gemacht wird?“ Im Kontext von KI baut diese Skepsis auch auf Google und andere Großkonzerne auf. Die 29-jährige Anastasia ist Studentin mit Informatik-Hintergrund. Im Interview beschreibt sie, dass sie nie persönliche Informationen an ChatGPT preisgibt: „It has to be regulated more, I don’t think in the most jobs should be allowed to use ChatGPT, even for like data protection, you should not be allowed to feed it even more information, making it even better.”94

Ihre ausgeprägte Sensibilität für Datenschutz und regulatorische Fragen ist angesichts ihres Studienfachs plausibel. Zudem sorgt sie sich um Künstler und betont, dass sie zum Beispiel nie ein Videospiel kaufen würde, was KI-generierte Bilder benutzt, weil diese KI-Modelle anhand der Werke von Künstlern trainiert wurden, ohne dass diese dafür Kompensation erhalten haben. Ashley (24 Jahre, amerikanische Studentin), die gefragt wurde, welche Verbesserungen in der für Laien zugänglichen Bilder- und Audiogeneration künstlicher Intelligenz nötig seien, und generative KI als „scary“ im Kontext von Kunst und Kreativität beschreibt, sieht hier auch die Gefahr, dass die Kreativität verloren gehen könnte und nicht nur die Langeweile beseitigt wird. Ihre Sichtweise, KI als Chance für praktische Zwecke, aber als Risiko für menschliche Kreativität einzuordnen, zeigt eine differenzierte Auseinandersetzung. Ihre Sorgen spiegeln sich in aktuellen Studien wider, die zeigen, dass generative KI zwar individuelle Kreativität fördern kann, jedoch zu einer kollektiven Vereinheitlichung von Inhalten führt (Doshi & Hauser, 2024); diese ist bedingt durch gewaltige Mengen an oft homogenen und synthetischen Trainingsdaten.

Während die Zeitersparnis durch KI von vielen Jugendlichen und jungen Erwachsenen als positive Eigenschaft genannt wird, berichten andere davon, dass KI – im Gegenteil – mit Zeitverlust verbunden sei: Marc (21 Jahre) erzählt davon, dass ChatGPT beispielsweise für Coding im wissenschaftlichen Kontext nützlich sein kann, man aber mitunter mehr Zeit mit der Korrektur von Fehlern verbringe als ohne die KI. Anastasia (29 Jahre) erwähnt, dass sie mit Azure Tools arbeitet, für die es wenig Dokumentation gibt: „So I just ask ChatGPT: can I do this, can I do that? But it is not always correct.“95 Nach Barr (2017) und Eyal (2019) lässt sich dieses Verhalten als Managed Trust begreifen: ein bewusst gesteuertes, situationsabhängiges Vertrauen, das nicht aus Technikgläubigkeit entsteht, sondern aus Erfahrung, Prüfkompetenz und strategischem Umgang mit Unsicherheit.


  • 87

    „Was ich nicht mag, ist zum Beispiel zu sehen, wie Leute Essays abgeben, die nicht von ihnen sind. Es ist nicht … setz deinen Namen nicht drunter, du hast es nicht geschrieben.“

  • 88

    „Wir müssen manchmal Kommentare zu einigen Texten posten, und ich kann sehen, dass sie von ChatGPT gemacht sind, weil das Vokabular so akademisch ist und so … es sagt alles und nichts zugleich. Also, die Botschaft ist ein bisschen leer.“

  • 89

    „Was ist, wenn jemand dann, keine Ahnung, Politiker mit falschen Aussagen ins Internet setzt oder was weiß ich. Das wären dann so riesige Fake News, die sich so krass verbreiten würden.“

  • 90

    „Immer wenn ich jetzt etwas nicht verstehe, gibt es ChatGPT, ich kann einfach das Zitat eintippen und sehen, was es bedeutet. Und ja, es ist ein ziemlich nützliches Tool.“

  • 91

    ChatGPT gibt dir viele falsche Antworten. Ich meine besonders falsche Literatur, Bibliografie. […] Es hat ein sehr ordentliches Zitat geliefert. Dann, als ich es einfach kopiert habe und bei Google Scholar nachgeschaut habe, war es Bullshit.“

  • 92

    https://openai.com/index/sora/.

  • 93

    Eine experimentell durchgeführte Umsetzung des Turing-Tests, bei der Menschen in realen Chats beurteilen, ob ihr Gegenüber Mensch oder KI ist; „bestanden“, wenn die KI nicht zuverlässig vom Menschen unterscheidbar ist (siehe Jones & Bergen, 2025).

  • 94

    „Es muss mehr reguliert werden, ich finde nicht, dass es in den meisten Jobs erlaubt sein sollte, ChatGPT zu benutzen. Schon allein wegen des Datenschutzes sollte es dir nicht erlaubt sein, ihm noch mehr Informationen zu geben und es dadurch noch besser zu machen.“

  • 95

    „Also frage ich einfach ChatGPT: Kann ich das machen, kann ich das machen? Aber es ist nicht immer korrekt.“