Aller au contenu principal

Media & Me

Media & Me

"Backstage bei Medienberufen"

L’intelligence artificielle ouvre de nouvelles perspectives pour générer, diffuser et manipuler l’information. Cette évolution entraîne des conséquences profondes, notamment sur la faculté de prendre une décision éclairée et le bon déroulement des élections démocratiques.

Dans le cadre du projet transfrontalier « Media and Me – Backstage bei Medienberufen », onze jeunes participant·e·s ont eu l’occasion de découvrir les coulisses du travail à l’ALIA et de réfléchir aux enjeux liés à cette évolution.

Des deepfakes bluffants, capables de faire dire n’importe quoi à des responsables politiques, aux cheapfakes plus simples, fondés sur des extraits d’images trompeurs ou des sous-titres manipulés, l’IA offre un large éventail de moyens pour influencer les opinions ou semer le doute.

Des bots automatisés et de faux comptes diffusent ces contenus à grande échelle, renforcent les discours extrémistes ou donnent l’illusion que certaines opinions sont davantage partagées qu’elles ne le sont vraiment.

Par ailleurs, les algorithmes de recommandation des réseaux sociaux déterminent quels les contenus qui sont mis en avant, en favorisant surtout ceux qui suscitent de fortes émotions ou qui polarisent les débats.

S’ajoutent à cela les influenceurs virtuels : des personnages générés artificiellement, conçus pour susciter la sympathie et diffuser en douceur des messages politiques, souvent dissimulés dans du contenu de divertissement.

L’ensemble de ces phénomènes représente un défi majeur pour la formation d’une opinion éclairée, pilier fondamental de toute société démocratique. Si les citoyen·ne·s ne peuvent plus faire confiance à la véracité des informations, il devient difficile de débattre sereinement sur une base commune de faits.

Dans ce contexte, plusieurs questions se posent : comment garantir à l’avenir la pluralité des points de vue dans l’information ? Quelles règles de transparence sont nécessaires ? Et quelles responsabilités doivent assumer les développeurs d’IA ainsi que les utilisateurs ?

Participants du projet Media and Me Participants du projet Media and Me

Künstliche Intelligenz eröffnet neue Möglichkeiten, um Informationen zu erstellen, zu verbreiten und gezielt zu steuern. Dies hat tiefgreifenden Folgen, unter anderem auch für die politische Meinungsbildung und demokratische Wahlen.

Im Rahmen des länderübergreifenden Projektes « Media and Me – Backstage bei Medienberufen » konnten die elf jungen Teilnehmer:innen einen Einblick in die Arbeit hinter den Kulissen bei der ALIA bekommen und sich mit dieser spannenden Entwicklung auseinander setzen:

Von täuschend echten Deepfakes, die Politiker:innen falsche Aussagen in den Mund legen, bis hin zu einfachen Cheapfakes, die durch irreführende Bildausschnitte oder manipulierte Untertitel wirken, bieten KI-Ansätze weitreichende Möglichkeiten, etwa um Stimmungen zu beeinflussen oder Vertrauen zu untergraben.

Automatisierte Bots und gefälschte Accounts verbreiten solche Inhalte teils millionenfach, verstärken radikale Narrative oder erwecken den falschen Eindruck, bestimmte Positionen seien besonders populär.

Gleichzeitig steuern die algorithmischen Empfehlungssysteme sozialer Plattformen, welche Inhalte sich durchsetzen, und begünstigen dabei vor allem emotionalisierte und polarisierende Inhalte.

Hinzu kommen KI-Influencer: künstlich erschaffene Figuren, die gezielt Sympathien wecken und politische Botschaften subtil in scheinbar harmlose Unterhaltung einbetten können.
All das stellt die für eine demokratische Gesellschaft notwendige kollektive Willensbildung vor eine zentrale Herausforderung: Wenn Bürger:innen nicht mehr sicher sein können, ob Informationen echt sind, wird es zunehmend schwieriger, auf einer gemeinsamen Faktenbasis zu diskutieren.

Vor diesem Hintergrund stellt sich die Frage, wie die Perspektivenvielfalt von Informationen in Zukunft sichergestellt werden kann, welche Transparenzregeln notwendig sind und welchen Verpflichtungen sowohl die KI-Hersteller als auch die Nutzer nachkommen müssen.