Pour de nombreux jeunes interrogés, la fascination pour les avantages pratiques de l’intelligence artificielle s’accompagne d’une profonde ambivalence : les possibilités sont soigneusement évaluées au regard des risques.
Des préoccupations clés concernent la perte des processus d’apprentissage ainsi que les problèmes d’intégrité et d’authenticité. Noah (20 ans), membre du Parlement des jeunes, déplore dans son entretien : « Ich finde es für uns Jugendliche jetzt nicht so lernhilfreich […], wenn uns jemand alles vorschreibt. Dann kann man ja auch einen Roboter anschalten, der von zu Hause arbeitet. »118 Liam, 18 ans, partage cet avis et qualifie ChatGPT de « die vereinfachte Version, um Dokumentfälschung zu machen […]. Schlauer davon wird man dadurch nicht. […] Man verhält sich nichts. »119 Carmen exprime un point de vue similaire. La jeune femme de 24 ans donne deux exemples de comportements concrets qu’elle considère comme « malhonnêtes » : « The thing I don’t like is for example seeing how people hand in some essays that are not made by them. It is not … don’t put your name on it, you didn’t write it. »120 À ses yeux, il est donc essentiel que les raisons de l’utilisation de l’IA et les résultats qui en ont découlé soient toujours clairement précisés. Ces derniers devraient pouvoir être comparés au produit final. Son attitude critique résulte de sa capacité à reconnaître lorsque les textes de certains de ses camarades proviennent de ChatGPT, une compétence qui semble faire défaut à ses professeurs :
We have sometimes to post some comments on some readings and I can see that it is made by ChatGPT because the vocabulary is so academic and so … it says everything and nothing at the same time. So, it is a bit empty, the message.[121]
Elle voit ici un problème d’intégrité et d’authenticité, dans la mesure où la source ne peut être retracée et où les textes produits peuvent sembler déconnectés de tout fond : ceux-ci sont corrects au niveau de la forme, mais exempts de positionnement personnel ou de substance.
Plusieurs étudiants et étudiantes partagent cette crainte d’une perte de valeur des certificats de réussite, le thème du plagiat occupant ici une place centrale. Anastasia explique par exemple citer systématiquement l’utilisation de l’IA dans ses travaux universitaires, cela relevant pour elle d’une question d’intégrité éthique.
Le sujet des falsifications, telles que les fausses informations ou les deepfakes, bien que mentionné au cours des entretiens, semble globalement susciter moins de questionnements. Julien (21 ans) exprime néanmoins son inquiétude face à l’influence que l’IA pourrait avoir sur les actualités : « Wat ass, wann een dann, keng Anung, Politiker mat falsche Statements an den Internet setzt oder wat weess ech? Dat sinn dann sou riseg Fake News, déi sech sou krass géife verbreeden. »122 Ce témoignage fait spécifiquement référence à la possibilité d’intégrer une voix générée par l’IA dans une vidéo qui présente un politicien en train de s’exprimer. Cette préoccupation est en outre exacerbée par le fait que l’IA est désormais capable de falsifier les mouvements de la bouche. Il indique également que de telles fonctionnalités peuvent déjà être utilisées à des fins positives, par exemple pour créer des effets supplémentaires dans des clips musicaux.
Dans le contexte des falsifications, la notion dite des « hallucinations » de l’IA trouve un écho particulier. Celle-ci fait référence à des informations falsifiées qui sont reprises par l’IA dans un style ou un ton convaincant, alors que leur contenu est partiellement ou totalement inventé, c’est-à-dire qu’il ne correspond pas à la réalité. D’un point de vue sémantique, il est intéressant de noter que le mot « hallucination » a été employé à plusieurs reprises au cours des entretiens, en cela qu’il attribue une faculté à l’IA alors que le système ne comprend pas, mais génère simplement des suites de texte statistiquement plausibles (Bender et al., 2021). Certains abordent ce problème avec un scepticisme pragmatique. Aarav (28 ans) témoigne : « Whenever I don’t understand now you have ChatGPT, I can just type the quote, and see what is the meaning of it. And so yeah, it’s quite a useful tool. »123 En réponse à la question de savoir si ChatGPT lui fournit régulièrement des informations erronées, il ajoute : « ChatGPT gives you a lot of wrong answers. I mean especially fake literature, bibliography. […] It gave a very neat citation. Then when I was just copying and going into Google Scholar to check it, it’s bullshit. »124
Certains jeunes voient l’avenir avec méfiance lorsqu’ils évoquent les revers de l’IA. Alexander (28 ans) déclare par exemple : « Also Sora125 ist auf jeden Fall … fand ich richtig geil. Ist ja, wenn das irgendwann public wird the world will never be the same. Das Internet Digga dann. Das wird ganz wild, das wird ganz wild. »126 Cette remarque a été formulée alors que Sora n’était pas encore accessible au grand public. D’autres solutions telles que Veo, Kling ou Runway sont aujourd’hui également disponibles. Il devient plus que jamais important de se préoccuper des falsifications générées à l’IA, les modèles linguistiques étant désormais extrêmement performants pour imiter les interactions humaines. En effet, plusieurs modèles linguistiques ont déjà passé avec succès le test empirique de Turing127 et sont parfois perçus comme plus humains que de véritables personnes par des étudiants et étudiantes en psychologie (C. Jones & Bergen, 2025).
Un autre aspect problématique de l’IA, qui est intimement lié à ces préoccupations concernant la falsification et la question de la méfiance, réside dans la protection des données et l’utilisation non réglementée des données. Ces sujets ont fait l’objet d’un plus grand nombre de réactions et de critiques de la part des jeunes, en particulier au regard de leurs données personnelles. Noah, 20 ans, qui se montre plutôt sceptique à l’égard du développement numérique en général et qui, pour des raisons personnelles et en raison de ses antécédents, souhaite divulguer le moins d’informations possible à son sujet, s’interroge : « Wer weiß, was mit meinen Daten gemacht wird ? »128 Ce scepticisme qui entoure l’IA s’étend également à Google et à d’autres grandes entreprises. Anastasia, 29 ans, est étudiante et a suivi un cursus en informatique. Lors de son entretien, la jeune femme explique qu’elle ne divulgue jamais d’informations personnelles à ChatGPT : « It has to be regulated more, I don’t think in the most jobs should be allowed to use ChatGPT, even for like data protection, you should not be allowed to feed it even more information, making it even better. »129
Sa forte préoccupation pour les questions de protection des données et de réglementation n’est pas surprenante compte tenu de son cursus universitaire. Elle se montre par ailleurs préoccupée par le sort des artistes et affirme qu’elle n’achèterait jamais, par exemple, un jeu vidéo utilisant des images générées par l’IA, étant donné que ces modèles d’IA ont été entraînés à partir du travail d’artistes sans que ceux-ci aient reçu de compensation. Ashley (24 ans, étudiante américaine), qui a été questionnée sur les améliorations à apporter à la génération d’images et de fichiers audio par intelligence artificielle accessible au grand public, a décrit l’IA générative comme « effrayante » en matière d’art et de créativité. Elle y voit également le danger de provoquer la disparition de toute créativité, et pas uniquement celle de l’ennui. Son point de vue, qui considère l’IA à la fois comme une source de possibilités pratiques et comme un risque pour la créativité humaine, témoigne d’une réflexion nuancée. Ses craintes font écho à des études récentes qui indiquent que si l’IA générative peut favoriser la créativité individuelle, celle-ci conduit également à une uniformisation collective des contenus (Doshi & Hauser, 2024) causée par les volumes considérables de données d’entraînement souvent homogènes et synthétiques.
Tandis que de nombreux adolescents et jeunes adultes mentionnent le gain de temps comme l’un des principaux avantages de l’IA, d’autres rapportent au contraire que l’IA leur fait perdre du temps : Marc (21 ans) explique par exemple que ChatGPT peut être utile pour le codage dans un contexte scientifique, mais qu’il faut parfois passer plus de temps à corriger les erreurs que si l’IA n’avait pas été utilisée dès le départ. Anastasia (29 ans) indique quant à elle travailler avec des outils Azure pour lesquels il n’existe que peu de documentation : « So I just ask ChatGPT : can I do this, can I do that? But it is not always correct. »130 D’après les travaux de Barr (2017) et Eyal (2019), cette démarche peut être assimilée à une confiance gérée (Managed Trust) : une confiance délibérément contrôlée, adaptée à la situation, qui s’éloigne d’une croyance aveugle dans la technologie, et qui prend racine dans l’expérience, des capacités de vérification et une gestion stratégique de l’incertitude.
- 118
« Je trouve pas que ça soit vraiment utile pour nous les jeunes, pour notre apprentissage […] si quelqu’un nous dit tout ce qu’on doit savoir. Autant embaucher un robot qui bosse depuis chez soi. »
- 119
« méthode simplifiée pour falsifier des documents […]. Ça rend pas plus intelligent. […] C’est pas un comportement correct. »
- 120
« Ce que je n’aime pas, c’est quand les gens rendent des rédactions qu’ils n’ont pas écrites eux-mêmes. Ça n’a pas de… Ne mets pas ton nom dessus, tu ne l’as pas écrite. »
- 121
« On doit parfois poster des commentaires à propos de certains textes, et je vois tout de suite que ça a été fait par ChatGPT parce que le vocabulaire est super académique et… ça dit tout et rien à la fois. Du coup, le message est un peu vide. »
- 122
« Que se passe-t-il si quelqu’un publie sur internet, je sais pas, de fausses déclarations de politiciens ou peu importe. Ça donnerait de gigantesques fausses nouvelles qui se répandraient comme une traînée de poudre. »
- 123
« Maintenant, dès que je comprends pas quelque chose, j’ai ChatGPT, je peux tout simplement taper le texte et voir ce que ça veut dire. Donc ouais, c’est un outil super pratique. »
- 124
« ChatGPT te donne plein de fausses informations. Je parle surtout de fausse littérature, de fausses références bibliographiques. […] Il m’a donné une citation super pertinente. Puis, quand je l’ai copiée-collée dans Google Scholar pour la vérifier, je me suis rendu compte que c’était n’importe quoi. »
- 125
https://openai.com/index/sora/.
- 126
« En tout cas, Sora c’est vraiment… J’ai trouvé ça incroyable. Ouais, nan, quand ça deviendra public, le monde sera plus jamais pareil. Internet après, mec. Ça va être fou, ça va être complètement fou. »
- 127
Une mise en œuvre expérimentale du test de Turing, au cours de laquelle des personnes évaluent si leur interlocuteur sur un chat en situation réelle est un être humain ou une IA. Le test est déclaré « réussi » si l’IA ne peut être distinguée de manière fiable d’un être humain (voir Jones & Bergen, 2025).
- 128
« Qui sait ce qu’ils font de mes données ? »
- 129
« Il faut que ça soit plus réglementé, je trouve qu’on ne devrait pas pouvoir utiliser ChatGPT dans la plupart des emplois. On ne devrait pas avoir le droit de lui donner encore plus d’informations qui le rendront encore plus performant. »
- 130
« Alors je demande juste à ChatGPT : est-ce que je peux faire ci, est-ce que je peux faire ça ? Mais c’est pas toujours correct. »