Syntec - Conseil en relations publics

fren

Espace adhérents

Mot de passe oublié
Menu

PORTRAIT DU MOIS : STANISLAS BARNETT & THIBAULT PEULEN

Mai 2024 | Interview de Stanislas Barnett et Thibault Peulen, membres de la commission IA, pour discuter des enjeux déontologiques autour des usages des IA génératives en agence RP.

  1. L’émergence des IA génératives ouvre des perspectives nouvelles de productivité, de créativité et de collaboration. Comment les agences conseil en relations publics intègrent-elles les IA génératives dans leurs pratiques ?

Thibault PEULEN : Dès 2023, avec l’apparition de ChatGPT, les agences se sont emparées du sujet, a minima « pour tester », au maximum pour l’intégrer progressivement dans leur quotidien. Chaque agence est différente et les approches de la technologie varient donc également. Ce qui est certain, c’est que l’avènement de l’IA générative aura provoqué un débat réel entre ceux qui l’embrassent sans réserve et ceux qui peuvent y voir une menace de déshumanisation de nos métiers ! En tant que représentant de la profession (et dirigeant une agence avec une coloration Tech assez forte), j’ai très tôt encouragé l’utilisation de l’IA, tout en gardant à l’esprit les limites qu’elle comporte (biais, confidentialité des données, risques de désinformation…). Elle est aujourd’hui intégrée dans certains processus créatifs comme les brainstormings, les recherches de titres, la rédaction ou la déclinaison de contenus sous plusieurs formats en parallèle (communiqué, tribune et posts LinkedIn, par ex.). Certains vont plus loin, d’autres moins. L’essentiel est surtout que chacun prenne conscience des opportunités autant que des risques afin de garantir que le secteur reste fidèle à une éthique robuste.
x

Stanislas BARNETT : Comme devant toute technologie innovante, on observe les comportements habituels : les « early adopters » qui ont fait de l’IA générative un assistant quotidien, les réfractaires qui n’en perçoivent encore que les risques, et la grande majorité qui s’essaye doucement aux LLMs pour raccourcir ou reformuler des textes. Ce qui est certain, c’est que globalement en RP la révolution annoncée n’a pas encore eu lieu. Pour au moins une raison : l’IA générative promet beaucoup, paraît très simple d’utilisation, mais malgré tout requiert une vraie expertise pour en exploiter tout le potentiel. Ceux qui ont tenté de produire un communiqué ou un discours avec ChatGTP l’ont bien compris, la rédaction itérative du prompt et la phase de relecture demandent (pour l’heure) à peu près autant de temps et d’intelligence que sans IA. A mon avis le véritable saut dans nos pratiques arrivera quand des solutions ou interfaces dédiées seront développées pour nos métiers.

x

  1. Conscients de leurs responsabilités dans le processus démocratique et la fabrique de l’information, les professionnels des relations publics se sont dotés très tôt de codes éthiques et déontologiques. Pourquoi l’usage des IAG mérite-t-il une vigilance particulière d’un point de vue déontologique ?

S.B. :Les déviances associées à l’IA générative ont malheureusement précédé ChatGPT. Depuis plusieurs années déjà, nous sommes tous témoins des tentatives de manipulation en ligne, notamment lors des grands rendez-vous électoraux ou sur des sujets cruciaux comme la guerre en Ukraine. Grâce à l’IA générative, l’astroturfing est devenu un procédé omniprésent car beaucoup moins onéreux. Des Etats, des corporations, et peut-être demain des PME pourront s’offrir une campagne clé en main avec des bots plus vrais que nature. Face à ce risque, les professionnels de la communication doivent non seulement s’interdire ces pratiques, mais former un rempart pour protéger l’information et le débat démocratique.
x

T.P. : L’usage des IAG nécessite une vigilance accrue en raison des risques de manipulation, de biais et de désinformation. Conformément aux principes de transparence et de communication honnête avec les publics, les professionnels de RP doivent s’assurer que les informations diffusées sont véridiques et vérifiées pour éviter la propagation de fake news. En garantissant l’authenticité des contenus, les agences protègent la qualité de l’information et maintiennent la confiance de leurs publics. C’est une démarche cruciale pour un secteur qui repose essentiellement sur sa capacité à créer de la confiance entre les parties prenantes !
x

  1. Pensez-vous qu’un usage systématique des IAG en agence de communication puisse porter atteinte à la créativité et à l’originalité des campagnes produites ?

T.P. : Un usage systématique des IAG pourrait potentiellement uniformiser les contenus, mais en s’appuyant systématiquement sur un principe de supervision humaine, les agences peuvent également utiliser ces outils pour augmenter la créativité humaine. Les IAG sont des outils complémentaires qui enrichissent l’expertise et le jugement des professionnels mais ne pourront certainement pas remplacer un élément central de l’humanité : sa capacité à créer de la relation et à faire preuve d’empathie face à ses semblables. La clé est de maintenir cet équilibre où l’humain reste le pilier et la technologie, une aide.
x

S.B. : Une IA peut utilement contribuer à un brainstorming. Mais comme tout ce qui relève du jugement (vrai, faux, bon, mauvais…), l’IA ne sait pas elle-même ce qui est original ou ne l’est pas. Le seul maître reste l’humain, qui continuera de tester l’originalité d’une idée ou d’un concept comme nous le faisons aujourd’hui (benchmark, sondage, expérience…). La question peut évidemment se poser pour les contenus plus courants, typiquement un post LinkedIn. Mais reconnaissons que les communicants n’ont pas attendu l’IA pour faire preuve d’un grand mimétisme !

x

  1. Faut-il tout dire à son client ? On parle souvent d’une nécessité de transparence autour des intégrations des technologies dans les pratiques. Quel est selon vous le degré de transparence attendu ?

S.B. : Pour n’importe quel acteur, la transparence sur les coulisses a son importance dès lors qu’elle concerne la protection des données et la probité de l’information. Si j’insère un chiffre dans un communiqué, mon client aura raison de m’interroger sur sa source. Si je mets en illustration une image générée par IA, nous aurons intérêt à le mentionner proactivement. Pour le reste, le client ne sera pas plus intéressé de savoir que j’ai utilisé Mistral pour trouver une accroche qu’utilisé Excel pour faire un camembert.
x
T.P. : On ne dit pas systématiquement à nos clients que nous utilisons tel logiciel ou tel autre ! Et d’ailleurs, ce n’est pas tellement le propos de nos métiers. Nos clients attendent surtout que l’on réponde à un besoin, dans un délai et avec un budget donné. Néanmoins, nous préconisons la transparence (a minima dans les contrats) lorsque l’utilisation est courante afin que nos clients puissent également être rassurés sur le fait que nous en avons un usage contrôlé et responsable. La mention ne paraît pas utile si l’utilisation est rare ou sur un projet spécifique. Mais, au-delà des préconisations, l’important est que les agences établissent des politiques claires sur la divulgation, garantissant une communication honnête et la confiance des clients.

x

  1. Quels sont les enjeux internes liés à la mise en place des IAG ?

T.P. : Les enjeux internes pour les agences comprennent la formation et la sensibilisation des équipes à l’utilisation éthique des IA génératives, ainsi que la protection des données. Il est essentiel de former nos collaborateurs pour qu’ils comprennent les risques et les opportunités de ces technologies. En outre, la gestion de la sécurité des données est primordiale pour protéger les informations sensibles et respecter les réglementations en vigueur. Les agences doivent également s’engager dans une amélioration continue pour adapter l’utilisation des IA génératives en fonction des évolutions technologiques et réglementaires.

S.B. : Comme avec les réseaux sociaux depuis 15 ans, le partage de connaissances doit s’organiser dans les deux sens : aux seniors de transmettre les méthodes, savoir-faire, exigences du métier ; aux plus juniors (et dans quelques années « IA natives ») d’irriguer nos agences en idées et pratiques digitales nouvelles. Pour faciliter et accélérer cet échange, il est important de rapidement poser un cadre pour mieux laisser s’exprimer la curiosité et l’inventivité de chacun.

x

  1. Vous travaillez actuellement, avec François Gobillot (Axicom), sur une charte d’utilisation des IAG en agence RP qui s’appliquera très prochainement aux membres du SCRP. Quels en sont les principes ? Faut-il craindre un usage restreint de ces outils ?

T.P. : La charte repose sur des principes tels que responsabilité, transparence, authenticité, supervision humaine, protection des données, respect de la propriété intellectuelle, communication honnête et transparente, formation et sensibilisation, amélioration continue, et dialogue avec les parties prenantes. Ces principes visent à encadrer l’usage des IAG pour qu’ils soient utilisés de manière éthique et responsable. Il ne s’agit surtout pas d’en restreindre l’usage, mais bien de s’assurer qu’elles soient utilisées pour enrichir l’expertise et la créativité des professionnels, sans remplacer leur rôle crucial. En embrassant cette évolution avec vigilance, les agences peuvent maximiser les bénéfices des IAG tout en rassurant sur la gestion des risques potentiels.

S.B. : Cette charte concrétise l’engagement de nos agences à protéger la fabrique et l’échange d’information dans un cadre démocratique. Elle pose plusieurs principes dont certains peuvent paraitre évidents dans la pratique actuelle de notre métier (vérification de l’information, protection des données, propriété intellectuelle…) mais vont devenir cruciaux avec la multiplication des émetteurs (tout le monde peut désormais produire du contenu) et des outils d’IA générative qui sont globalement des boîtes noires. Cette charte ne vise donc pas à restreindre l’usage des IA, mais à l’aligner sur les impératifs de notre profession, et rappeler à tous nos publics la différence entre une ferme à trolls et une agence sérieuse.