Le copywriter professionnel, (dernier) rempart contre les hallucinations de l'IA ?

Le copywriter professionnel, (dernier) rempart contre les hallucinations de l'IA ?
Et si vous vérifiiez les contenus offerts sur un plateau par l'IA ?

Difficile aujourd’hui de ne pas parler de cette intelligence artificielle générative qui est capable de rédiger tous les textes du monde d’un simple clic de souris. Sauf que, face à cette espèce d’hystérie technologique, rares sont celles et ceux qui prennent la peine de mettre les résultats obtenus en perspective. Tout impressionnante qu’elle est, l’intelligence artificielle n’est pas sans risque. Faisons un point non exhaustif…

Petite définition de l’intelligence artificielle générative

Pour bien comprendre, l’intelligence artificielle générative est cette catégorie d’IA qui permet de créer du contenu et plus particulièrement, en ce qui nous concerne, du contenu « original ». Il faut entendre par « original » que le contenu produit ne l’a jamais été auparavant. Pour ce faire, cette intelligence artificielle utilise des modèles d’apprentissage automatique qui puisent leurs données de base dans les milliards d’informations actuellement en ligne. Faisons l’économie ici des technologies faisant appel aux neurones artificiels : elles sont terriblement compliquées. Il faut donc en retenir que des logiciels tels que ChatGPT et Bard sont en mesure de produire des textes de qualité somme toute assez honorable. Mais est-ce suffisant quand il s’agit de produire du contenu dans le cadre de votre activité professionnelle ? Rien n’est moins sûr…

L’intelligence artificielle hallucine… Mais ça veut dire quoi ?

Les hallucinations de l’IA sont les erreurs que cette même IA peut commettre lors de la création de contenus. Ces erreurs proviennent, en règle générale, d’une mauvaise compréhension des données sources de l’IA, mais aussi d’une mauvaise interprétation des demandes rédigées par l’humain pour que l’IA génère différents contenus sur un sujet donné. On parle ici des prompts qui nécessitent un travail précis pour diminuer les risques d’hallucinations. Pour bien comprendre ce phénomène, il faut se souvenir que l’intelligence artificielle générative se base sur des données existantes pour les combiner et offrir un texte original. Rien n’indique que les données de base ne sont pas, elles aussi, sources d’erreurs. Le copywriter professionnel, quant à lui, mettra son expertise pour rédiger des prompts plus précis, obtenant des réponses qui le seront tout autant, mais effectuera aussi les vérifications nécessaires pour s’assurer que le contenu produit par l’IA ne manquera pas cruellement de pertinence.

L’intelligence artificielle autorise les deepfakes

Les deepfakes sont ces contenus produits par l’intelligence artificielle qui tentent de tromper leurs destinataires. Si de nombreux deepfakes sous forme de photos ou de vidéos ont déjà été produits (la photo du Pape dans une doudoune luxueuse et surdimensionnée « volée » dans les images d’un défilé de mode en est un exemple), les deepfakes peuvent aussi concerner le contenu rédactionnel. L’intelligence artificielle est en mesure d’apprendre le style d’écriture d’une personne et de reproduire des textes dont on confirmera l’origine. Ajoutez-y la capacité de l’intelligence artificielle à produire des enregistrements vocaux imitant à la perfection la voix des personnes et vous comprendrez le risque qui existe à faire dire des choses à des personnes qui ne l’ont même pas pensé.

L’intelligence artificielle n’a cure de la confidentialité des données

Une des craintes majeures des analystes actuels est de voir l’intelligence artificielle révéler des données sensibles lors de la création de différents contenus. Les données personnelles des utilisateurs de tel ou tel site sont le plus souvent stockées pour permettre aux modèles de générer un contenu adapté. On parle ici, et ce n’est qu’un exemple, des publicités sur les réseaux sociaux qui répondent à vos préoccupations liées à l’âge, au sexe… Lorsque l’intelligence artificielle est utilisée pour créer de nouveaux modèles, il n’est pas exclu qu’elle fasse fi du nécessaire respect de la confidentialité des données et permette à de « mauvaises mains » de s’emparer de celles-ci pour en tirer profit. En d’autres termes, l’intelligence artificielle nous imposera très vite de mettre en doute bon nombre des contenus qui nous sont transmis, et ce, même si ces contenus contiennent des informations personnelles que l’on croyait protégées.

L’intelligence artificielle met la cybersécurité à mal

L’intelligence artificielle générative permet de créer des modèles de plus en plus précis, et ce, d’autant plus si la confidentialité des données n’est pas respectée. La capacité pour les cybercriminels de produire des phishings ou des ransomwares à la fois qualitatifs et de masse à l’aide de l’intelligence artificielle leur permet de compter sur la fatigue de l’humain assailli de demandes diverses et variées. Plongés dans une forme de routine, on ne prend plus la peine de vérifier l’authenticité de certaines demandes, ouvrant de la sorte des boulevards aux cybercriminels cherchant tantôt à vider des comptes en banque tantôt à bloquer des systèmes informatiques…

L’intelligence artificielle génère des biais

Les biais font partie de ces autres termes devenus à la mode lorsqu’on parle d’intelligence artificielle générative. Il s’agit de la capacité de cette même intelligence artificielle à produire du contenu dont le sens est biaisé en raison des sources utilisées. Le phénomène est déjà apparu dans la sphère géopolitique où des contenus spécifiques permettent de diffuser une fausse information, mais surtout de modifier la perception qu’un grand nombre de personnes a d’une situation donnée. Les analystes craignent ainsi que les biais de l’intelligence artificielle  ne produisent des discriminations (raciales, sociales et/ou religieuses), voire des prises de position stigmatisantes.

Certes, cet article de blog est à charge de l’intelligence artificielle et il serait malhonnête d’affirmer que l’intelligence artificielle n’est que ça. Toutefois, il est souvent important de rappeler les risques inhérents à une technologie pour éviter que celle-ci ne devienne source d’inquiétude. En Italie, ChatGPT a purement et simplement été interdit par le gouvernement actuel pour éviter que des contenus subversifs (aux yeux du gouvernement en place, bien sûr) ne viennent trop facilement inonder la toile.

Une chose est certaine : on ne peut pas se mettre des œillères. L’intelligence artificielle fait d’ores et déjà partie de notre quotidien. Toutefois, comme le nutritionniste vous mettra en garde contre les produits ultra transformés néfastes à votre santé, le copywriter professionnel se doit de vous mettre en garde contre des contenus d’apparence trompeuse et dont l’intention est la manipulation ou la désinformation.

Retour en haut de la page