L’intelligence artificielle ouvre de nouvelles perspectives pour générer, diffuser et manipuler l’information. Cette évolution entraîne des conséquences profondes, notamment sur la faculté de prendre une décision éclairée et le bon déroulement des élections démocratiques.
Dans le cadre du projet transfrontalier « Media and Me – Backstage bei Medienberufen », onze jeunes participant·e·s ont eu l’occasion de découvrir les coulisses du travail à l’ALIA et de réfléchir aux enjeux liés à cette évolution.
Des deepfakes bluffants, capables de faire dire n’importe quoi à des responsables politiques, aux cheapfakes plus simples, fondés sur des extraits d’images trompeurs ou des sous-titres manipulés, l’IA offre un large éventail de moyens pour influencer les opinions ou semer le doute.
Des bots automatisés et de faux comptes diffusent ces contenus à grande échelle, renforcent les discours extrémistes ou donnent l’illusion que certaines opinions sont davantage partagées qu’elles ne le sont vraiment.
Par ailleurs, les algorithmes de recommandation des réseaux sociaux déterminent quels les contenus qui sont mis en avant, en favorisant surtout ceux qui suscitent de fortes émotions ou qui polarisent les débats.
S’ajoutent à cela les influenceurs virtuels : des personnages générés artificiellement, conçus pour susciter la sympathie et diffuser en douceur des messages politiques, souvent dissimulés dans du contenu de divertissement.
L’ensemble de ces phénomènes représente un défi majeur pour la formation d’une opinion éclairée, pilier fondamental de toute société démocratique. Si les citoyen·ne·s ne peuvent plus faire confiance à la véracité des informations, il devient difficile de débattre sereinement sur une base commune de faits.
Dans ce contexte, plusieurs questions se posent : comment garantir à l’avenir la pluralité des points de vue dans l’information ? Quelles règles de transparence sont nécessaires ? Et quelles responsabilités doivent assumer les développeurs d’IA ainsi que les utilisateurs ?