#IA

🧠 IA gĂ©niale ou fatale : une boussole pour garder le cap. Contribution ouverte jusqu’au 21 fĂ©vrier.

Trouver des idĂ©es d’angle, pimper des titres, structurer un SWOT, rĂ©sumer un document, retravailler voire gĂ©nĂ©rer un visuel, le tout en quelques secondes. Voici des exemples de tĂąches qu’un communicant peut utilement confier Ă  une IA. Depuis maintenant 2 ans et notamment l’arrivĂ©e de la version gratuite de ChatGPT, l’intelligence artificielle gĂ©nĂ©rative s’est dĂ©mocratisĂ©e et connaĂźt un essor exponentiel. Outil incontestablement rĂ©volutionnaire, l’IA pose nĂ©anmoins bon nombre de questions Ă©thiques, environnementales... L’IA : gĂ©niale ou fatale ? On vous propose de contribuer Ă  une boussole pour naviguer dans cet ocĂ©an de technologie et essayer de garder le cap vers une communication publique inspirĂ©e, responsable et exemplaire.

, Mis Ă  jour le  â€”  Lecture 5 minutes

Boussole dessinée par Apolline Lemire De Abreu D.R.
Boussole dessinée par Apolline Lemire De Abreu D.R.

Au fil des rencontres et publications professionnelles du secteur public, nous avons pu constater que les communicants publics ont largement investi le sujet. Ils sont chaque jour plus nombreux à prompter, la pratique individuelle en mode « shadow IT » cédant progressivement la place à une pratique organisée et accompagnée.

Les Ă©changes professionnels, spontanĂ©s ou dans un cadre organisĂ©, s’articulent gĂ©nĂ©ralement autour des utilisations concrĂštes de l’IA, dĂ©battent sur sa nature mĂȘme et interrogent sur les limites que nous devrions nous fixer. Mais lesquelles, dans quel but, dans quel cadre ?

Les mĂ©dias Ă  travers le monde ont Ă©tĂ© parmi les premiers Ă  publier des chartes d’utilisation de l’IA en vue d’exposer leur position et de rassurer leurs audiences. Des usages dans le sillage d’un numĂ©rique responsable. En janvier 2024, la Revue des mĂ©dias de l’Institut national de l’audiovisuel (INA) a passĂ© au crible une vingtaine de ces chartes pour dĂ©gager 10 grands principes communs. Nous nous en sommes inspirĂ©s pour vous pousser Ă  rĂ©flĂ©chir sur ce sujet 

Un bon usage de l’IA est-il possible ?

DĂ©jĂ  quelques points peuvent poser question. Jusqu’oĂč doit aller la transparence lorsque par exemple l’IA est utilisĂ©e pour corriger un texte ou retoucher une image comme nous le faisons dĂ©jĂ  depuis des dĂ©cennies sans pour autant l’indiquer ? Existe-t-il vraiment des outils IA « Ă©thiques » tenant compte Ă  la fois de l’impact carbone et de la souverainetĂ© numĂ©rique ?

Loin de constituer une charte au sens strict du terme, nous proposons d’en faire une « boussole » qui donne des orientations aux communicants. Elle se veut Ă©volutive pour trois raisons :

  • Émanant d’un petit groupe de communicants, elle appelle Ă  un enrichissement de points de vue diversifiĂ©s ;
  • Elle devra s’adapter Ă  des usages qui peuvent diffĂ©rer en fonction des contextes ;
  • L’IA, son impact, ses outils, son cadre lĂ©gal vont Ă  coup sĂ»r largement Ă©voluer dans les prochains mois.

Nous invitons donc les communicants publics Ă  rĂ©agir en faisant part de leurs commentaires  via le formulaire en bas de page. 

Sept grands principes à débattre

1. Donner la prioritĂ© Ă  l’humain, son expĂ©rience, sa capacitĂ© de jugement, et sa subjectivitĂ©

Ne pas substituer l’intelligence artificielle aux communicants publics pour faire Ă  leur place. L’intelligence artificielle est et doit rester un outil au service de l’humain, pas Ă  son dĂ©triment. La dĂ©cision humaine reste prĂ©pondĂ©rante et centrale.
Les outils d’intelligence artificielle seront utilisĂ©s de maniĂšre mesurĂ©e pour optimiser le travail du communicant : gagner du temps sur certaines tĂąches, stimuler le processus crĂ©atif, etc.
L’usage de documents authentiques doit ĂȘtre privilĂ©giĂ© pour traiter de sujets ou Ă©vĂ©nements rĂ©els.

2. Assurer un contrĂŽle des contenus

Les communicants publics doivent toujours pouvoir contrĂŽler les contenus produits avec l’aide de l’IA, avant leur diffusion auprĂšs des publics, dans un souci de maĂźtrise et de qualitĂ© de l’information publiĂ©e.
Ils doivent pouvoir Ă  tout moment intervenir sur un outil d’IA pour le dĂ©sactiver.

3. Se former pour choisir les bons outils et ĂȘtre efficace

L’intelligence artificielle peut ĂȘtre redoutablement efficace, Ă  condition de pouvoir et de savoir s’en servir. Le droit Ă  l’expĂ©rimentation doit ĂȘtre encouragĂ©.
Une offre de formation de rĂ©fĂ©rence pourra ĂȘtre proposĂ©e, en lien avec la DSI, et dans l’idĂ©al avec l’ensemble des services concernĂ©s de la collectivitĂ©, et permettre ainsi aux communicants publics d’ĂȘtre en capacitĂ© de choisir les bons outils, adaptĂ©s Ă  leurs besoins et les plus Ă©thiques possibles.

4. Utiliser des outils d’intelligence artificielle Ă©thiques

Les communicants sont invitĂ©s Ă  privilĂ©gier des outils Ă©thiques, les plus respectueux possibles de la sĂ©curitĂ©, de l’environnement et des valeurs du service public.
Les communicants publics porteront une attention particuliÚre aux biais des algorithmes, de maniÚre à les éviter ou les rectifier pour délivrer une information de la meilleure objectivité possible.

5. Respecter les droits d’auteur

Dans la mesure du possible, les droits de la propriĂ©tĂ© intellectuelle doivent ĂȘtre rĂ©affirmĂ©s dans l’usage des outils d’intelligence artificielle.
Les Ɠuvres protĂ©gĂ©es par le droit d’auteur ne pourront faire l’objet d’une reprise ou d’une modification par un outil d’IA sans le consentement de son auteur ou de ses ayants droit.

6. Respecter la confidentialité et la protection des données sensibles

Soumises au RGPD et garantes de la protection des donnĂ©es, les structures publiques pour lesquelles nous travaillons se doivent d’assurer le respect de la confidentialitĂ© et la protection des donnĂ©es, notamment sensibles : ne pas fournir Ă  l’IA des donnĂ©es sensibles ou non conformes au RGPD, s’assurer qu’elles ne viennent pas entraĂźner l’IA sans en connaĂźtre le cadre d’usages, bien avoir accĂšs aux CGU, savoir les dĂ©coder et les comprendre.
Ces impĂ©ratifs ont un impact sur le choix et l’usage des outils d’IA, qui ne doivent en aucun cas mettre ces principes en pĂ©ril.

7. Être transparent dans l’utilisation de l’intelligence artificielle

Dans un souci de transparence vis-Ă -vis de nos publics, les communicants publics sont invitĂ©s Ă  prĂ©ciser lorsque le recours Ă  l’intelligence artificielle a un impact significatif sur le contenu produit, en indiquant l’usage opĂ©rĂ© et la partie du document ou visuel concernĂ©e.

Construire collectivement une boussole de l’IA pour la communication publique

Le processus proposé est le suivant :

  1. Collecter les rĂ©actions des communicants publics ici https://bit.ly/boussole-IA jusqu’au 21 fĂ©vrier 2025
  2. Elaborer une synthÚse avec un groupe de travail en de volontaires courant février-mars 2025
  3. Diffuser une premiĂšre version en mars-avril 2025

Nous vous invitons donc à réagir et partager avec vos collÚgues communicantes et communicants.

Caroline Brunot
Pierre Bergmiller
Marc Cervennansky


NB : cet article est en accĂšs libre pendant une semaine puis rĂ©servĂ© aux membres de l’Observatoire (inscription gratuite ici).

⭐ Retrouvez tous les articles de notre blog collaboratif. Une idĂ©e de sujet ? Contactez-nous pour rejoindre le club des auteurs !