Ajouter un commentaire

Des projets open source se révoltent contre les codes "non humains" et veulent fixer des règles et des limites

Par:
francoistonic

lun, 23/02/2026 - 10:06

Plusieurs projets open source ne veulent plus voir de code généré par des agents et autres pratiques de « vibe coding ». Par exemple, Widelands, un jeu open source de stratégie en temps réel, a annoncé le 24 février le blocage des contenus générés par une IA, un agent ou tout autre outil d’IA.

"L'équipe de développement de Widelands rédige une résolution visant à refuser les contributions de contenu généré par l'IA (code, graphismes, musique, etc.) au code source et aux dépôts du jeu. Nous estimons que le contenu généré par l'IA est généralement problématique sur les plans éthique et juridique, car il viole les droits d'auteur des créateurs dont les œuvres ont été utilisées pour l'entraînement de l'IA sans leur autorisation et sans mention de leur nom. De plus, nous constatons qu'il est souvent de faible qualité et/ou trop générique, et qu'il ne répond pas aux exigences spécifiques de Widelands. Les demandes de fusion générées par l'IA pourront être fermées sans examen. Widelands est créé par des humains, pour des humains."

Le projet fixe donc des limites sur ce qui est autorisé ou non. Ainsi, les extensions et la documentation sont exclues de cette résolution anti-IA.

L’Electronic Frontier Foundation n'est pas opposée au code généré ni à l'IA en général, mais la fondation veut des règles claires et fixer des limites. Ainsi, dans ses nouvelles politiques, les contributions générées par une IA (au sens global du terme) doivent respecter plusieurs principes :

  • Veuillez vous abstenir de soumettre des contributions que vous n’avez pas parfaitement comprises, examinées et testées.

  • Veuillez indiquer si votre contribution a été générée par une IA.

  • Les descriptions et commentaires doivent être rédigés par vos soins.

  • Les responsables du projet peuvent déterminer si les contributions ne sont pas raisonnablement examinables.

Il est intéressant de noter qu'ici, l'EFF veut imposer de bonnes pratiques. Le développeur doit comprendre le code généré et ne pas lui faire une confiance absolue, ni le soumettre sans aucune revue. Pour obliger le développeur à lire le code généré, l'EFF veut que les commentaires soient rédigés par le développeur lui-même.

Le moteur Godot est dans la même situation et avertit que les PR déposées sont de plus en plus générées par une IA et, à force, cela épuise les mainteneurs. L'alerte est venue de Rémi Verschelde. Un autre développeur, Adriaan, va plus loin et critique même le sens de nombreuses requêtes : "Le dépôt GitHub de Godot est saturé de demandes de fusion générées par des développeurs débutants, ce qui représente une perte de temps considérable pour les relecteurs – surtout si cela n'est pas signalé. Les modifications sont souvent incompréhensibles, les descriptions sont excessivement verbeuses et les utilisateurs eux-mêmes ne comprennent pas leurs propres modifications… C'est un véritable désastre."

Dans la communauté Blender, le problème est identique et une réglementation sur les contributions IA est discutée :

"On observe une augmentation des demandes de fusion générées par l'IA, sans que cela soit clairement indiqué, et dont l'auteur ne comprend pas toujours pleinement la contribution. La revue de code et la maintenance ont toujours constitué un goulot d'étranglement majeur. Lorsque les contributions de l'IA ne sont pas entièrement comprises par le contributeur lui-même, la charge de travail des relecteurs s'en trouve encore alourdie. Dans le pire des cas, les relecteurs communiquent avec l'IA par un jeu du téléphone arabe.

Il est important de former les nouveaux développeurs pour faire évoluer le projet, même lorsqu'il aurait été plus rapide pour le relecteur d'effectuer lui-même les modifications (avec ou sans IA). C'est pourquoi les relecteurs devraient savoir s'ils collaborent avec un humain, afin de pouvoir décider du moment opportun pour fournir cet effort.

Par ailleurs, la revue de code assistée par l'IA et les vérifications basées sur nos directives peuvent potentiellement alléger la charge de travail des relecteurs, contribuer à la correction des bogues et à l'amélioration de la stabilité."

Le projet open source Coolify dit exactement la même chose : trop de PR de mauvaise qualité ou incompréhensibles. Le mainteneur a mis en place une GitHub Action pour détecter une PR trop mauvaise ou générée par une IA. Résultat : 98 % des PR pourraient être fermées automatiquement...

Notre avis : trop d'IA tue l'IA ? Pas exactement, mais on constate depuis quelques semaines une volonté croissante de projets open source d'agir pour préserver la qualité du code et surtout éviter les requêtes inutiles générées par une IA, sans que la personne comprenne réellement le sens de la demande ni le code soumis. Et c'est là le véritable problème. L'objectif n'est pas de bannir l'IA, mais d'encadrer son usage et de responsabiliser les développeurs.

Filtered HTML

Plain text

CAPTCHA
Cette question permet de vérifier que vous n'êtes pas un robot spammeur :-)
  GGG   U   U  RRRR   III  ZZZZZ 
G U U R R I Z
G GG U U RRRR I Z
G G U U R R I Z
GGG UUU R RR III ZZZZZ