Rapport de recherche sur l'état de la recherche sur site dans l'enseignement supérieur avec The Chronicle of Higher Education | Télécharger le rapport
La solution SearchStax Site Search offre aux spécialistes du marketing l'agilité dont ils ont besoin pour optimiser les résultats du site Web.
Présentation du produitSearchStax Managed Search décharge la gestion de Solr, offrant aux équipes informatiques une agilité opérationnelle accrue.
Présentation du produit27 novembre 2024
Jeff Dillon
|
Le contenu créé à grande échelle par l’intelligence artificielle – également connu sous le nom de « slop AI » – inonde Internet, ébranlant la confiance des utilisateurs et la possibilité de découvrir des informations.
Internet a toujours été un mélange de qualité. Pour chaque article bien documenté ou source crédible, on trouve d'innombrables contenus de faible valeur, de désinformation ou de spam. Récemment, un nouveau type de contenu, le « slop IA », a fait son apparition, brouillant encore davantage les pistes et rendant plus difficile que jamais la recherche d'informations fiables en ligne.
Le « slop » de l'IA désigne le flot de médias de mauvaise qualité – allant des écrits aux images – générés par les technologies d'intelligence artificielle. Ce problème est devenu si répandu qu'il commence à perturber des services essentiels, des mises à jour sur les réseaux sociaux aux informations vitales en temps de crise.
Et le problème ne fait qu’empirer, surtout en période d’urgence, comme lors des récentes catastrophes naturelles.
Début octobre 2024, une série d'ouragans puissants a frappé le sud-est des États-Unis, semant la destruction et une forte augmentation de l'activité en ligne. Les internautes se sont rués en masse sur Internet pour obtenir des informations en temps réel sur les conditions météorologiques, l'emplacement des abris et les opérations de secours. Cependant, au lieu de recevoir des informations claires et utiles, beaucoup se sont retrouvés à patauger dans un océan d'articles bidon générés par l'IA, de publications sur les réseaux sociaux hâtivement compilées et d'images de mauvaise qualité, ce qui a ajouté à la confusion.
Par exemple, les flux Twitter et Facebook étaient inondés de contenus apparemment factuels, mais contenant des informations erronées ou des avertissements ambigus. Les sites web assemblaient des résumés de données météorologiques générés par l'IA, omettant des détails cruciaux ou rendant les trajectoires des tempêtes confuses.
Le problème était aggravé par le fait que les erreurs d'IA pouvaient facilement dominer les classements des moteurs de recherche et les algorithmes des réseaux sociaux. Par conséquent, lorsque les internautes cherchaient « abris anti-ouragan à Miami », les premiers résultats étaient souvent des listes peu fiables générées par l'IA, qui induisaient les utilisateurs en erreur ou leur faisaient perdre du temps.
Cette vague de négligence de l'IA n'est pas un simple désagrément. Dans des situations de vie ou de mort comme les catastrophes naturelles, l'accès à des informations précises est crucial, et la désinformation peut avoir de graves conséquences. La crise des ouragans a révélé la rapidité avec laquelle le contenu généré par l'IA peut déraper, occultant les informations plus précises et pertinentes dont les populations ont besoin en temps de crise.
Malheureusement, les erreurs d'IA ne se limitent pas aux temps de crise. Elles ont envahi presque tous les recoins du web. Que vous cherchiez des avis sur des produits, une matière scolaire ou que vous essayiez de suivre l'actualité, vous avez probablement déjà rencontré du contenu généré par l'IA sans grande valeur ajoutée. Les plateformes de réseaux sociaux comme Instagram et TikTok connaissent également une forte augmentation des visuels générés par l'IA, allant des fausses publicités de célébrités aux infographies mal conçues qui diffusent de fausses informations ou vendent des produits de mauvaise qualité.
Ce contenu de bas niveau est répandu non seulement sur les principales plateformes, mais aussi dans des domaines plus spécialisés, notamment l'enseignement supérieur. Les universités et les établissements d'enseignement supérieur doivent déjà gérer des environnements complexes. environnements dotés de vastes quantités de connaissances institutionnelles, des besoins variés du public et des archives approfondies de contenu académique. Lorsque des données d'IA s'infiltrent dans ces espaces académiques, les conséquences peuvent être particulièrement dommageables.
L'enseignement supérieur repose fortement sur la confiance, tant dans la crédibilité de l'établissement que dans les contenus qu'il dispense. Les universités sont des organisations intrinsèquement complexes qui doivent gérer un large éventail de compétences. données dans leur expérience de site Web— des catalogues de cours et des documents de recherche aux formulaires d'inscription et aux services aux étudiants. Aujourd'hui, les lacunes de l'IA compliquent encore davantage les choses. La désinformation, les ressources mal conçues générées par l'IA et le contenu web indésirable s'infiltrent de plus en plus dans les espaces éducatifs, diluant la qualité des informations que les étudiants, le personnel et les candidats potentiels trouvent en ligne.
Par exemple, un étudiant effectuant des recherches sur les conditions d'admission dans une université donnée pourrait tomber sur un article mal rédigé, généré par l'IA, contenant des informations obsolètes ou inexactes. Cela engendre non seulement de la confusion, mais érode également la confiance envers l'établissement lui-même. Si les établissements d'enseignement supérieur sont perçus comme diffusant des informations de mauvaise qualité ou un contenu désorganisé, ils risquent de perdre leur réputation de sources de connaissances fiables. L'ajout de ces imprécisions à ce système déjà complexe rend la navigation en toute confiance quasiment impossible.
Pour lutter contre ce problème croissant, nous devons repenser notre approche de la recherche d'informations sur le web. Remplacer simplement le contenu sélectionné par des humains par des alternatives générées par l'IA n'est pas la solution. Au contraire, cela pourrait aggraver les problèmes de confiance et de pertinence auxquels nous sommes confrontés aujourd'hui. Une approche pragmatique est nécessaire, qui préserve les principes fondamentaux de la recherche (confiance, pertinence et transparence) tout en utilisant des outils de recherche performants. L'IA comme outil d'augmentation, pas de remplacement.
La recherche est une question de confiance. Lorsque vous saisissez une requête dans Google ou un autre moteur de recherche, vous vous attendez à ce que les premiers résultats soient fiables et pertinents. Pourtant, les erreurs générées par l'IA peuvent perturber le classement des résultats de recherche et propulser le contenu de mauvaise qualité au premier plan. La solution réside dans une meilleure sélection des résultats, grâce à l'IA pour faciliter l'analyse de vastes ensembles de données, tout en garantissant une supervision humaine et un contrôle éditorial primordial.
Dans l'enseignement supérieur en particulier, une approche pratique consiste à exploiter l'IA pour rationaliser la création et la gestion de contenu, tout en l'associant à des contrôles et des contrepoids humains. Par exemple, l'IA peut être utilisée pour organiser d'importantes bibliothèques de contenu ou contribuer à la rédaction de contenus web de base. Cependant, les établissements universitaires doivent s'assurer que des experts humains examinent et peaufinent ce contenu afin d'en préserver l'exactitude et la fiabilité.
L'essor de l'IA rend plus difficile que jamais la recherche d'informations fiables et de qualité sur le web. Ce problème touche tout le monde, des personnes en quête d'informations essentielles pendant un ouragan aux étudiants en quête des conditions d'admission à l'université. Dans l'enseignement supérieur, les enjeux sont particulièrement importants, car la confiance dans les institutions est un élément fondamental de leur valeur.
Pour relever ce défi, nous devons revenir aux principes fondamentaux de recherche et découverte de contenu—confiance, pertinence et transparence—tout en utilisant l'IA comme assistant, et non un remplacement. En adoptant une approche pratique qui exploite les atouts de l'IA tout en maintenant la surveillance humaine, nous pouvons commencer à nettoyer le désordre créé par les erreurs de l'IA et rétablir la confiance dans les informations que nous trouvons en ligne.
The Stack est livré tous les deux mois avec des tendances du secteur, des informations, des produits et plus encore