Projet:Observatoire des IA/Règlementation

Définition de tâches concrètes à réaliser pour la gestion des usages sur Wikipédia.

Essais de règlementation

modifier

Textes générés

modifier

Essai : Contrôle des textes générés par IA

modifier

L'essai Contrôle des textes générés par IA reprend des éléments de l'essai anglophone Large language models avec un rôle similaire par rapport au projet en:Wikipedia:WikiProject AI Cleanup : informer sur les risques d'infractions aux règles, indiquer des mesures à prendre (modèles, signalements etc.), faire des recommandations pour qui voudrait malgré tout utiliser ces technologies.

Essai : Intelligence artificielle

modifier

Moins orienté sur le contrôle des IA, l'essai donne des descriptions d'usage possibles d'IA notamment au niveau technique : débogage, génération d'infobox, synthèse de sources etc.

Images générés

modifier

Essai : Illustrations générées par une intelligence artificielle

modifier

L'essai présente quelques questions de base pour l'illustration d'article : pertinence de l'image, neutralité, risque de plagiat, droit à l'image, acceptabilité par la communauté. Il demande l'usage du modèle {{Image générée par IA}} en légende de l'image, modèle qui catégorise dans Page comportant une illustration générée par une IA ou au moins cette catégorisation manuelle de l'article.

Section sur la restauration d'images par une intelligence artificielle

modifier

Pour la restauration d'images par une intelligence artificielle, il est demandé l'usage du modèle {{TIA}} en légende de l'image, modèle qui catégorise dans Catégorie:Page comportant une illustration modifiée par une IA ou au moins cette catégorisation manuelle de l'article.

État des lieux des positions

modifier

La synthèse ci-dessous s'appuie sur la liste d'échanges et initiatives sur les IA disponible en article détaillé.

Synthèse

modifier

L'essentiel des questions concerne l'arrivée sur Wikipédia de productions d'IA génératives au niveau graphique et textes[1], parfois en lien avec d'autres outils comme celui de traduction[2] mais pouvant aussi toucher les échanges communautaires par le biais d'agents conversationnels[3].

Sur les principes, cela interroge la hiérarchie des valeurs wikipédiennes entre humain et technologie : « La technologie est importante. L'humain est essentiel » dit la WMF[4]. L'avenir même de Wikipédia est interrogé, ces évolutions pourraient in fine conduire à une « industrialisation » prise en charge par des entreprises plutôt que par un projet libre et bénévole[5],[6].

On résumera en trois positions la tension humain/technologie[Interprétation personnelle ?] :

  • pôle « humaniste » : critique les IA en défense du projet humain serait-ce pour une question de principe[7],[8] ;
  • pôle « technologiste » : valorise leur vertu pour l'objectif de production jusqu'à des expérimentations de création complète d'article[9] y compris au niveau de la Wikimedia Foundation en dépit du caractère insatisfaisant des productions actuelles[10] ;
  • entre-deux conséquentialiste : critique ou valorise en fonction de ce qui est perçu des avantages ou dommages que donneraient les usages[7].

Une autre approche pourrait être d'utiliser l'IA pour vérifier la qualité des travaux produits/l'adéquation des sources utilisées[réf. nécessaire].

Génération de texte

modifier

Des objections portent sur des questions de principe comme le respect du droit d'auteur[11],[12] ou l'aspect communautaire de la rédaction[8] et sur la contestation d'améliorations qualitatives[2],[1] avec l'inquiétude d'une dégradation accélérée par la facilité d'usage et l’apparence de fiabilité donnée aux textes[13],[14].

Génération d'images

modifier

Le sondage de janvier 2024 montrait une opposition assez marquée à l'usage d'images générées par IA. Une discussion dédiée en novembre 2024 conclut à une gestion au cas par cas.

Sujets connexes

modifier
  • Traductions : la question reste ouverte de savoir si les IA génératives posent des problèmes spécifiques par rapport à la traduction ou si ils sont communs aux traducteurs automatiques « standards » d'autant plus que ceux-ci commencent à intégrer nativement ces technologie[15],[16]
  • Autres bots générateurs de contenus : la question de l'usage de générateurs de contenu sans IA déjà utilisés[17] a aussi été soulevée.[18]
  • Sources : la question s'étend au-delà de Wikipédia même avec le problème de sources concernées au niveau universitaire, dans l'édition[19] ou la presse[20]. Les sources générées par LLM ne sont pas considérées comme des sources fiables à utiliser[21].

Propositions d'usages acceptables

modifier

Des contributeurs proposent des usages qui seraient acceptables tels que débogage[22], Synthèse des sources[pertinence contestée][23],[24], création de plan d'article[25], contrôle d'orthographe[26], Création d'infobox[27], bots[28] ou génération de tableaux ou graphiques à partir de sources[réf. nécessaire].

Notes et références

modifier
  1. a et b Discussion sur des générations de RI qui seront annulées
  2. a et b Discussion sur des créations d'articles problématiques à partir de traduction
  3. RA contre Living Atom, compte bloqué
  4. (en) « Knowledge is human. Technology is important. Humanity is essential. » - version archivée du 7 octobre 2024 évoquant les IA - « passing knowledge from generation to generation is an essential part of what makes us human »
  5. discussion Wikipéd'IA
  6. (en) Selena Deckelmann, « Wikipedia’s value in the age of generative AI »,
  7. a et b Par Pa2chant.bis : les outils sont au service des humains, qui n'ont pas à passer leur temps à vérifier et corriger des écrits générés par une machine; d'ailleurs le faible nombre de bénévoles n'est pas en mesure d'absorber une production qui serait facilement accrue
  8. a et b Argument de vote au sondage - « si ce ne sont pas des humains qui contribuent, à quoi bon être ici ? »
  9. Bistro 2-10-2024, Softenpoche - « Je teste depuis un mois une encyclo expérimentale entièrement basée sur 2IA fonctionnant en tandem [...] le créateur de l'article n'est pas son auteur, mais son organisateur. »
  10. STORM: AI agents role-play as "Wikipedia editors" and "experts" to create Wikipedia-like articles, Wikipedia type Articles Generated by LLM (Not for Publication on Wikipedia)
  11. (en) Dan Milmo, « ‘Impossible’ to create AI tools like ChatGPT without copyrighted material, OpenAI says », The Guardian,‎ (lire en ligne)
  12. (en) Audrey Pope, « NYT v. OpenAI: The Times’s About-Face », sur harwardlawreview, (consulté le )
  13. Cas mentionné sur le bistro
  14. (en) Michael Townsen Hicks, James Humphries et Joe Slater, « ChatGPT is bullshit », Ethics and Information Technology, vol. 26, no 38,‎ (DOI 10.1007/s10676-024-09775-5, lire en ligne)
  15. [[Discussion_Projet:Observatoire_des_IA#Idée_pour_les_traductions_assistées_par_l'IA|Idée pour les traductions assistées par l'IA
  16. Mathilde Rochefort, « DeepL, le cauchemar de Google Translate, poursuit sa folle ascension », sur presse-citron.net, (consulté le )
  17. Roland45-Bot automatisant notamment l'écriture de sections « climat » depuis 2021, a priori sans IA générative
  18. Ici et Discussion_Projet:Observatoire_des_IA#c-Fabius_Lector-20241011191700-Madelgarius-20241011170600
  19. « Sur Amazon, des milliers de livres seraient rédigées par intelligence artificielle sous de faux noms », Ouest-France,‎ (lire en ligne)
  20. Claudia Cohen, « Claire Léost, présidente de Prisma Media : « Voici a publié sur son site ses premiers articles avec l’aide de l’IA » », Le Figaro,‎ (lire en ligne)
  21. Essai anglophone Large language models
  22. Wikipédia:Intelligence_artificielle#Débogage
  23. Wikipédia:Intelligence_artificielle#Synthèse_des_sources
  24. La synthèse de sources consiste à utiliser un LLM pour synthétiser un ensemble de sources (pdf, urls, docs..), dans un texte résumant les points importants de l'ensemble, sourcé par les sources données. Un exemple de tel LLM est NotebookLM. Cette approche pourrait modérer, voire annuler, les inconvénients évoqués pour la génération de texte, même si aucun exemple probant n'a été apporté :
    • « hallucinations » et travaux inédits : le LLM ne résume que les documents présentés
    • contenus non-sourcés ou invérifiables : le LMM source sa génération avec les documents présentée, et surligne même l'endroit exploité.
    • biais algorithmiques et non-neutralité : c'est l'utilisateur qui sélectionne les sources à utiliser. L'utilisateur peut (et doit) vérifier si le LLM a bien sélectionné les points importants des documents.
    • violation du droit d'auteur : le LLM est moins "créatif" que dans la génération, et a moins de droits propres. Le degré de paraphrase est à vérifier, comme pour une contribution humaine.
  25. Wikipédia:Intelligence_artificielle#Plan_d'un_article
  26. Wikipédia:Intelligence_artificielle#Orthographe
  27. Wikipédia:Intelligence_artificielle#Création_d'infobox
  28. Wikipédia:Intelligence_artificielle#Bots