• checkmark Intelligence Artificielle (IA)

Intelligence Artificielle (IA)

jumping-icon base

Intelligence Artificielle (IA)

Les organismes de financement, les revues scientifiques et d’autres parties prenantes accordent une attention croissante aux aspects éthiques de l’intelligence artificielle. Plusieurs organisations ont élaboré des lignes directrices afin de préciser ce que l’on entend par « intelligence artificielle responsable ».

En Europe, les Lignes directrices en matière d’éthique pour une IA digne de confiance ont été reconnues comme le cadre de référence en matière de principes éthiques relatifs à l’IA. Ces lignes directrices stipulent que, lors du développement ou du déploiement de l’IA, les exigences suivantes doivent être respectées :

  1. Action et supervision humaines
  2. Robustesse technique et sécurité
  3. Protection de la vie privée et gouvernance des données
  4. Transparence
  5. Diversité, non-discrimination et équité
  6. Bien-être sociétal et environnemental
  7. Responsabilité
mindthegap

Un outil utile pour garantir que votre projet de recherche respecte ces lignes directrices européennes est la Assessment List for Trustworthy Artificial Intelligence (ALTAI) (liste d’évaluation pour une IA digne de confiance), également développée par l’UE. N’oubliez pas de vous référer aux lignes directrices de l’UE et à l’ALTAI lors de demandes de financement, en particulier auprès de programmes européens.

Par ailleurs, en décembre 2023, un cadre juridique européen est entré en vigueur pour encadrer l’intelligence artificielle : l’Artificial Intelligence Act (règlement sur l’intelligence artificielle). Ce texte repose sur une approche fondée sur le risque, dans laquelle les applications d’IA sont classées en trois catégories de risque.

Défis spécifiques liés à l’IA générative (GenAI)

Bien que les outils d’IA générative puissent sans conteste assister les chercheurs à différentes étapes du cycle de recherche, leur utilisation doit rester critique et responsable. Parmi les principales considérations liées à l’intégrité scientifique figurent :

  • Les textes générés par IA ne comportent pas toujours de citations appropriées ou peuvent contenir des références inventées ou inexactes. Cela compromet l’attribution correcte aux auteurs originaux et crée un risque de plagiat et de violation des droits de propriété intellectuelle.
  • Les informations produites ne sont pas systématiquement correctes ou à jour.
  • L’IA générative n’est pas exempte de biais et peut même générer des contenus nuisibles.
  • L’utilisation de vastes ensembles de données, parfois contenant des informations personnelles et/ou sensibles, pose également des enjeux de protection de la vie privée et de conformité au RGPD. Ces aspects doivent être pris en compte lors de la saisie de données ou de la formulation de prompts.
  • Enfin, les chercheurs utilisant l’IA doivent réfléchir à la manière d’indiquer et de reconnaître son usage dans leurs publications, présentations et/ou demandes de projets.
mindthegap

Code ALLEA :

Bonnes pratiques académiques :

  • Les chercheurs font connaître leurs résultats et leurs méthodes, y compris l’utilisation de services externes, d’outils d’intelligence artificielle ou automatisés, sous une forme qui respecte les normes faisant consensus de la discipline, et qui facilite, le cas échéant, la vérification et la reproductibilité.

Pratique inacceptable :

  • Masquer l’utilisation d’outils d’intelligence artificielle ou d’outils automatisés dans la création de contenu ou la rédaction de publications.