<img alt="" src="https://secure.moat4shot.com/222772.png" style="display:none;">
Skip to content

Les effets négatifs de l’intelligence artificielle dans l’éducation

 

negative effects of artifical intelligence in education-3

L’intelligence artificielle (IA) n’a pas toujours une bonne réputation, en particulier dans l’éducation, ce qui laisse de nombreuses personnes réfléchir à l’impact négatif de l’IA sur l’éducation. 

Lorsque l'IA a été lancée sous une forme tangible que le citoyen moyen (et l'étudiant désireux de travailler moins) pouvait utiliser, les enseignants ont rapidement exprimé leurs inquiétudes. ChatGPT était la bête noire des enseignants car, comme on pouvait s'y attendre, les étudiants utilisaient la technologie pour terminer leurs études et, dans certains cas, leurs travaux finaux.

Et pourtant, aujourd’hui, une étude du Trinity College de Londres révèle qu’un tiers des enseignants pensent que l’IA devrait être interdite en classe – mais qu’un quart d’entre eux l’utilisent – ​​et 74 % d’entre eux pensent que l’utilisation abusive de l’IA par les étudiants restera un problème permanent.

Les statistiques dressent un tableau contradictoire, mais tout n'est pas forcément pessimiste. L'IA présente certains avantages dans le domaine de l'éducation ; il s'agit de trouver un équilibre essentiel.

Nous sommes néanmoins ici pour nous concentrer sur les aspects négatifs de l'utilisation de l'IA dans l'éducation. Lisez la suite pour en savoir plus.

Négatif #1: les étudiants utilisent l'IA pour tricher

Une nouvelle étude de Study.com présente des statistiques intéressantes sur les étudiants qui utilisent l’IA pour tricher – et oui, désolé, étudiants, demander à l’IA d’écrire un article à votre place est une tricherie.

  • 48% des étudiants utilisent ChatGPT pour un test ou un questionnaire à domicile.
  • 53% ont fait rédiger un essai par ChatGPT
  • 22% lui ont fait rédiger un plan pour un article (ce qui n'est pas techniquement de la triche).

Le résultat est du plagiat, de la tricherie et un retard d’apprentissage.

Et c'est plus effrayant que vous ne le pensez. Un rapport d'INSIDER a parlé de chercheurs qui ont demandé à ChatGPT de réussir l'examen d'autorisation d'exercer aux États-Unis, et il a presque réussi. Et c'était probablement sans l'avoir formé précisément sur ce qu'il devait faire - nous garantissons que l'IA pourrait réussir.

Le seul Saint Graal est que, désormais, la plupart des systèmes en ligne de type Turnitin disposent de vérificateurs d'IA intégrés. Pourtant, certains étudiants sont suffisamment intelligents pour comprendre comment tromper le système.

Négatif #2: Biais et résultats contraires à l’éthique

Les biais de l'IA et les résultats contraires à l'éthique ont toujours été un problème majeur qui pourrait affecter l'apprentissage. Une méta-analyse a révélé que sur 555 modèles d'IA, 83,1 % d'entre eux présentaient un risque élevé de biais, ce qui en fait l'un des principaux inconvénients de l'IA dans l'éducation.

Qu'est-ce que cela signifie ? Les biais de l'IA signifient essentiellement que vous pouvez amener le système à être biaisé vers ce que vous voulez qu'il soit, produisant des résultats favorisant injustement des groupes de personnes ou les désavantageant. Ces résultats déformés et potentiellement dommageables ne sont pas appropriés pour l'éducation.

Le lancement de Google AI Overviews en est un exemple. Ce lancement a été un véritable échec et a mis en évidence la facilité avec laquelle il est possible de manipuler et de déformer les données d’entraînement originales pour obtenir de faux résultats. Un exemple de résultat de recherche d’IA Overview a été le moteur indiquant aux utilisateurs qu’il était acceptable de faire une pizza avec de la colle. Il est contraire à l’éthique d’apprendre aux gens à faire une pizza avec de la colle.

Négatif #3: Manque d'engagement humain

Où est l’implication humaine dans l’IA ? Si vous vous demandez comment l’IA affecte négativement l’éducation ? C’est l’un des principaux moyens.

Malgré tous ses efforts, l’IA ne parvient toujours pas à comprendre et à reproduire les émotions humaines comme le font les humains.

Nous dirons qu’utiliser l’IA pour élaborer des plans d’enseignement ou des plans de devoirs est acceptable, tant que les plans ne sont que des sous-titres. Si les enseignants ou les étudiants demandent à l’IA de faire tout le travail à leur place, cela supprime l’élément humain de l’apprentissage et le lien que les professionnels de l’enseignement supérieur entretiennent avec leurs étudiants.

La réduction des interactions en face à face peut avoir un impact négatif sur l’apprentissage, ce qui rend difficile pour les étudiants de saisir les concepts et de comprendre ce qu’ils apprennent.

Négatif #4: L'IA n'a pas toujours raison

Les gens font l'erreur de penser que l'IA sait tout. Et oui, elle sait beaucoup de choses, mais elle en sait autant qu'elle en sait si cela a du sens, et ce qu'elle sait n'est pas toujours correct. Même au bas d'une conversation ChatGPT, il est écrit : « ChatGPT peut faire des erreurs. Vérifiez les informations importantes. »

Une étude récente publiée par Defense One a révélé que les outils d'IA sont erronés un quart du temps, ce qui est un nombre assez élevé pour qu'on puisse penser qu'il est acceptable de s'y fier à des fins pédagogiques. Et encore une fois, les aperçus de l'IA de Google sont un exemple de la façon dont l'IA peut être erronée.

Les professionnels de l’enseignement supérieur et les étudiants ne peuvent tout simplement pas faire confiance à toutes les réponses fournies par l’IA, ce qui est en soi tout simplement inacceptable pour l’apprentissage.

Négatif #5: Problèmes de confidentialité

Le rapport sur la sécurité et la gouvernance de l'IA contient des statistiques intéressantes sur les problèmes de confidentialité liés à l'IA.

80% des experts en données pensent que l'IA augmente les problèmes de sécurité des données. 55% des experts pensent également que l'IA pourrait éventuellement exposer par inadvertance des informations sensibles, ce qui constitue l'une de leurs plus grandes préoccupations, et 57% ont signalé des attaques menées par l'IA au cours des 12 derniers mois.

Pour les professionnels de l'éducation et les étudiants vulnérables, c'est une interdiction absolue. La sécurité en ligne des étudiants et la sécurité des données devraient être de la plus haute importance pour les professionnels de l'enseignement supérieur.

Vous ne pouvez tout simplement pas, pour l'instant, faire confiance au fait que l'IA n'accède pas à des données auxquelles elle ne devrait pas accéder.

Négatif #6: Désengagement dans l’apprentissage

Les étudiants qui comptent sur l'IA s'insensibilisent en fait au concept d'apprentissage. Lorsque vous pouvez demander à l'IA de faire n'importe quoi pour vous, les étudiants peuvent simplement s'asseoir et se rendre sur le TikTok, à leur avis beaucoup plus intéressant.

Il n'y a pas de réflexion critique, d'analyse ou d'évaluation. Et selon Psych4Schools, 25 % des étudiants se sentent déjà désengagés dans leur apprentissage ; il n'y a pas besoin d'une raison pour que ce chiffre augmente. Les étudiants doivent être impliqués dans des expériences d'apprentissage et des simulations réelles pour que l'apprentissage ait un impact.

Trouver l'équilibre

Vous vous demandez toujours « Pourquoi l'IA est-elle mauvaise pour l'éducation ? » Nous ne pensons pas nécessairement que l'IA en classe est négative, mais les effets négatifs de l'intelligence artificielle dans l'éducation parlent d'eux-mêmes.

C'est la façon dont les étudiants et les enseignants de l'enseignement supérieur l'utilisent et trouvent un équilibre positif dans son utilisation dans l'éducation. Il faut toujours de la créativité, de l'émotion et un véritable engagement enseignant-étudiant pour que l'éducation ait un impact.

Une étude de 2019 publiée sur la plateforme en ligne Taylor and Francis sur la connexion enseignant-étudiant a révélé que les étudiants qui se sentent connectés à leurs enseignants sont plus engagés, ont de meilleurs résultats et sont plus susceptibles d'assister à leurs études.

Plus que cela, les étudiants de l'enseignement supérieur ont besoin d'expériences réelles que l'IA ne peut et ne veut tout simplement pas offrir. C'est là qu'il est essentiel de trouver un équilibre. Les enseignants et les professionnels de l'enseignement supérieur peuvent toujours tirer parti de la technologie pour créer des interactions humaines significatives.

Un exemple est l'utilisation d'outils d'apprentissage interactifs axés sur des applications concrètes, comme les simulations d'entreprise proposées par StratX Simulations ou les expériences de travail dans un domaine connexe.

Sans cette interactivité avec le monde réel et le lien humain, les étudiants ne peuvent pas appliquer ce qu'ils apprennent.

Quelle est votre opinion sur l'IA en classe ? Les inconvénients de l'IA ne signifient pas nécessairement que les enseignants et les étudiants ne peuvent pas l'utiliser efficacement, mais elle ne peut pas remplacer un enseignement réel et humanisé et des expériences du monde réel.