Rapport de recherche sur l'état de la recherche sur site dans l'enseignement supérieur avec The Chronicle of Higher Education | Télécharger le rapport
Rapport de recherche sur l'état de la recherche sur site dans l'enseignement supérieur avec The Chronicle of Higher Education | Télécharger le rapport
AI slop is damaging trust and reliability in digital content

27 novembre 2024

Jeff Dillon

|

5 min de lecture

Le contenu créé à grande échelle par l’intelligence artificielle – également connu sous le nom de « slop AI » – inonde Internet, ébranlant la confiance des utilisateurs et la possibilité de découvrir des informations.

La confiance et la fiabilité du contenu numérique sont mises à mal par les erreurs de l'IA

Internet a toujours été un mélange de qualité. Pour chaque article bien documenté ou source crédible, on trouve d'innombrables contenus de faible valeur, de désinformation ou de spam. Récemment, un nouveau type de contenu, le « slop IA », a fait son apparition, brouillant encore davantage les pistes et rendant plus difficile que jamais la recherche d'informations fiables en ligne.

ChatGPT est devenu viral en 2024 pour ne pas avoir pu déterminer avec précision combien de « R » il y avait dans le mot « fraise »

Le « slop » de l'IA désigne le flot de médias de mauvaise qualité – allant des écrits aux images – générés par les technologies d'intelligence artificielle. Ce problème est devenu si répandu qu'il commence à perturber des services essentiels, des mises à jour sur les réseaux sociaux aux informations vitales en temps de crise.

Et le problème ne fait qu’empirer, surtout en période d’urgence, comme lors des récentes catastrophes naturelles.

Défaillance de l'IA pendant les ouragans : une crise révélée

Début octobre 2024, une série d'ouragans puissants a frappé le sud-est des États-Unis, semant la destruction et une forte augmentation de l'activité en ligne. Les internautes se sont rués en masse sur Internet pour obtenir des informations en temps réel sur les conditions météorologiques, l'emplacement des abris et les opérations de secours. Cependant, au lieu de recevoir des informations claires et utiles, beaucoup se sont retrouvés à patauger dans un océan d'articles bidon générés par l'IA, de publications sur les réseaux sociaux hâtivement compilées et d'images de mauvaise qualité, ce qui a ajouté à la confusion.

Par exemple, les flux Twitter et Facebook étaient inondés de contenus apparemment factuels, mais contenant des informations erronées ou des avertissements ambigus. Les sites web assemblaient des résumés de données météorologiques générés par l'IA, omettant des détails cruciaux ou rendant les trajectoires des tempêtes confuses.

False AI image of child with dog stranded in flood that went viral during Hurricane Helene
Cette image est devenue virale pendant l'ouragan Helene et s'est avérée plus tard être générée par l'IA, laissant les citoyens touchés par la tempête avec le sentiment d'être manipulés et incertains des informations auxquelles ils pouvaient se fier.

Le problème était aggravé par le fait que les erreurs d'IA pouvaient facilement dominer les classements des moteurs de recherche et les algorithmes des réseaux sociaux. Par conséquent, lorsque les internautes cherchaient « abris anti-ouragan à Miami », les premiers résultats étaient souvent des listes peu fiables générées par l'IA, qui induisaient les utilisateurs en erreur ou leur faisaient perdre du temps.

Cette vague de négligence de l'IA n'est pas un simple désagrément. Dans des situations de vie ou de mort comme les catastrophes naturelles, l'accès à des informations précises est crucial, et la désinformation peut avoir de graves conséquences. La crise des ouragans a révélé la rapidité avec laquelle le contenu généré par l'IA peut déraper, occultant les informations plus précises et pertinentes dont les populations ont besoin en temps de crise.

Le problème est partout : l'omniprésence des erreurs d'IA

Malheureusement, les erreurs d'IA ne se limitent pas aux temps de crise. Elles ont envahi presque tous les recoins du web. Que vous cherchiez des avis sur des produits, une matière scolaire ou que vous essayiez de suivre l'actualité, vous avez probablement déjà rencontré du contenu généré par l'IA sans grande valeur ajoutée. Les plateformes de réseaux sociaux comme Instagram et TikTok connaissent également une forte augmentation des visuels générés par l'IA, allant des fausses publicités de célébrités aux infographies mal conçues qui diffusent de fausses informations ou vendent des produits de mauvaise qualité.

Ce contenu de bas niveau est répandu non seulement sur les principales plateformes, mais aussi dans des domaines plus spécialisés, notamment l'enseignement supérieur. Les universités et les établissements d'enseignement supérieur doivent déjà gérer des environnements complexes. environnements dotés de vastes quantités de connaissances institutionnelles, des besoins variés du public et des archives approfondies de contenu académique. Lorsque des données d'IA s'infiltrent dans ces espaces académiques, les conséquences peuvent être particulièrement dommageables.

L'impact sur l'enseignement supérieur : une crise de confiance

L'enseignement supérieur repose fortement sur la confiance, tant dans la crédibilité de l'établissement que dans les contenus qu'il dispense. Les universités sont des organisations intrinsèquement complexes qui doivent gérer un large éventail de compétences. données dans leur expérience de site Web— des catalogues de cours et des documents de recherche aux formulaires d'inscription et aux services aux étudiants. Aujourd'hui, les lacunes de l'IA compliquent encore davantage les choses. La désinformation, les ressources mal conçues générées par l'IA et le contenu web indésirable s'infiltrent de plus en plus dans les espaces éducatifs, diluant la qualité des informations que les étudiants, le personnel et les candidats potentiels trouvent en ligne.

Par exemple, un étudiant effectuant des recherches sur les conditions d'admission dans une université donnée pourrait tomber sur un article mal rédigé, généré par l'IA, contenant des informations obsolètes ou inexactes. Cela engendre non seulement de la confusion, mais érode également la confiance envers l'établissement lui-même. Si les établissements d'enseignement supérieur sont perçus comme diffusant des informations de mauvaise qualité ou un contenu désorganisé, ils risquent de perdre leur réputation de sources de connaissances fiables. L'ajout de ces imprécisions à ce système déjà complexe rend la navigation en toute confiance quasiment impossible.

La nécessité d'une approche pratique : équilibrer l'IA avec les principes fondamentaux de la recherche

Pour lutter contre ce problème croissant, nous devons repenser notre approche de la recherche d'informations sur le web. Remplacer simplement le contenu sélectionné par des humains par des alternatives générées par l'IA n'est pas la solution. Au contraire, cela pourrait aggraver les problèmes de confiance et de pertinence auxquels nous sommes confrontés aujourd'hui. Une approche pragmatique est nécessaire, qui préserve les principes fondamentaux de la recherche (confiance, pertinence et transparence) tout en utilisant des outils de recherche performants. L'IA comme outil d'augmentation, pas de remplacement.

La recherche est une question de confiance. Lorsque vous saisissez une requête dans Google ou un autre moteur de recherche, vous vous attendez à ce que les premiers résultats soient fiables et pertinents. Pourtant, les erreurs générées par l'IA peuvent perturber le classement des résultats de recherche et propulser le contenu de mauvaise qualité au premier plan. La solution réside dans une meilleure sélection des résultats, grâce à l'IA pour faciliter l'analyse de vastes ensembles de données, tout en garantissant une supervision humaine et un contrôle éditorial primordial.

Dans l'enseignement supérieur en particulier, une approche pratique consiste à exploiter l'IA pour rationaliser la création et la gestion de contenu, tout en l'associant à des contrôles et des contrepoids humains. Par exemple, l'IA peut être utilisée pour organiser d'importantes bibliothèques de contenu ou contribuer à la rédaction de contenus web de base. Cependant, les établissements universitaires doivent s'assurer que des experts humains examinent et peaufinent ce contenu afin d'en préserver l'exactitude et la fiabilité.

Rétablir la confiance dans la découverte d'informations

L'essor de l'IA rend plus difficile que jamais la recherche d'informations fiables et de qualité sur le web. Ce problème touche tout le monde, des personnes en quête d'informations essentielles pendant un ouragan aux étudiants en quête des conditions d'admission à l'université. Dans l'enseignement supérieur, les enjeux sont particulièrement importants, car la confiance dans les institutions est un élément fondamental de leur valeur.

Pour relever ce défi, nous devons revenir aux principes fondamentaux de recherche et découverte de contenu—confiance, pertinence et transparence—tout en utilisant l'IA comme assistant, et non un remplacement. En adoptant une approche pratique qui exploite les atouts de l'IA tout en maintenant la surveillance humaine, nous pouvons commencer à nettoyer le désordre créé par les erreurs de l'IA et rétablir la confiance dans les informations que nous trouvons en ligne.

Par Jeff Dillon

Stratège numérique, enseignement supérieur

« Si les établissements d’enseignement supérieur sont perçus comme ayant une information médiocre ou un contenu désorganisé, ils risquent de perdre leur réputation de sources de connaissances crédibles. »

Vous aimerez peut-être aussi :

fr_CAFrançais du Canada