Arnaques publicitaires : Google les modère avec l’IA

Alors que la régulation de l’espace numérique continue d’animer les débats politiques, Google présente son rapport annuel sur la sécurité publicitaire. Au-delà des chiffres, l’entreprise met en avant une stratégie axée sur la détection automatisée, le blocage préventif et la mise à jour continue de ses règles internes. Le tout dans un contexte où les annonces mensongères sur la santé, les produits financiers et les discours d’influence politique deviennent des vecteurs de désinformation à part entière.

Jade Blachier
By Jade Blachier Published on 18 avril 2025 12h00
arnaques-publicitaires-google-les-modere-avec-lia
Arnaques publicitaires : Google les modère avec l’IA © Shutterstock

Le 16 avril 2025, Google a publié son rapport annuel de sécurité publicitaire, document qui fait état des actions entreprises en 2024 pour lutter contre la diffusion de publicités non conformes sur ses plateformes. Ce rapport s’inscrit dans un climat de préoccupation croissante autour des risques que fait peser le numérique sur l’intégrité du débat public et sur la protection des citoyens face à certaines pratiques commerciales abusives. L’entreprise met en avant l’usage massif de l’intelligence artificielle dans la détection des fraudes, mais aussi une volonté de mieux encadrer les contenus publicitaires à forte portée sociale, notamment ceux relatifs à la santé, à la politique ou aux services financiers.

Une stratégie technologique assumée pour enrayer les abus systémiques

Selon les données présentées, Google a bloqué 5,1 milliards d’annonces jugées non conformes et restreint la diffusion de 9,1 milliards d’autres. Ce volume exceptionnel est le résultat d’un recentrage sur l’analyse automatisée, rendue possible par plus d’une cinquantaine d’améliorations apportées aux systèmes de détection. L’objectif est clair : empêcher la mise en ligne de contenus problématiques avant qu’ils n’atteignent les utilisateurs.

Ce renforcement technique a permis de repérer plus rapidement les tentatives d’abus, en croisant différents signaux : informations de paiement douteuses, incohérences de géolocalisation, schémas de comportement anormaux dans la création de comptes. L’automatisation, qui assure désormais une part écrasante des contrôles de conformité, libère les équipes humaines pour les cas les plus complexes ou litigieux.

Soins miracles, remèdes fictifs et promesses mensongères : la santé en ligne sous surveillance

Parmi les secteurs les plus touchés par ces contenus illicites figure celui de la santé. Google signale avoir renforcé ses mécanismes de blocage contre les publicités promouvant des traitements non validés, des produits « miracles » ou des cures prétendument capables de guérir des pathologies graves. Ces contenus ciblent souvent des publics vulnérables et exploitent la détresse ou l’espoir de malades à des fins purement commerciales.

Ces campagnes, largement diffusées dans certains pays où le contrôle réglementaire est plus faible, peuvent avoir des conséquences concrètes sur la santé publique, en incitant des personnes à abandonner des traitements efficaces ou à acheter des substances inefficaces, voire dangereuses. Dans ce contexte, Google a modifié ses politiques internes pour interdire explicitement toute allégation non fondée ou trompeuse en matière médicale.

Ce volet fait écho aux critiques régulièrement adressées aux plateformes concernant leur responsabilité dans la diffusion de fausses informations en matière de santé, particulièrement lors de périodes de crise comme celle du Covid-19. L’encadrement de ce type de contenu devient ainsi un enjeu de santé publique autant qu’un impératif commercial.

Encadrement électoral : une nouvelle architecture de la transparence

L’année 2024 ayant été marquée par de nombreuses échéances électorales dans plusieurs régions du monde, Google a également mis l’accent sur la régulation des campagnes politiques diffusées via ses régies. Le rapport indique que les annonceurs à visée électorale doivent désormais fournir une identification vérifiée, indiquer clairement le financement des contenus, et signaler la présence éventuelle d’éléments générés par intelligence artificielle.

L’entreprise affirme avoir supprimé plus de dix millions d’annonces électorales pour non-respect de ces exigences. Cette évolution vise à limiter les risques de manipulation du débat démocratique par des acteurs anonymes ou extérieurs, dans un contexte où l’utilisation d’images et de voix synthétiques s’est fortement développée.

Il s’agit là d’un sujet sensible : si la volonté d’assurer une certaine transparence est saluée, elle pose aussi la question de la responsabilité des plateformes dans l’arbitrage du débat politique. En agissant en amont de la diffusion, sans décision judiciaire préalable, Google affirme un rôle de régulateur privé, ce qui interroge sur les garanties de procédure, en particulier pour les acteurs politiques ou associatifs disposant de peu de moyens.

Une doctrine de l’anticipation face aux dérives informationnelles

L’approche défendue par Google repose sur une logique préventive, presque doctrinale : mieux vaut empêcher la publication que corriger les effets. Cette philosophie a conduit à la suspension de plus de 39 millions de comptes annonceurs sur la seule année 2024, chiffre sans précédent. Pour encadrer cette action, Google a également constitué une équipe interne de plus de 100 spécialistes chargés de suivre les évolutions des pratiques frauduleuses, en particulier dans les domaines les plus sensibles.

Les campagnes de désinformation à caractère financier, religieux ou médical, mais aussi les discours manipulateurs à visée géopolitique ou idéologique, sont désormais traités comme des menaces structurelles pour l’intégrité de l’espace numérique. L’entreprise affirme avoir réduit de 90 % le volume de signalements relatifs à certains types d’annonces frauduleuses grâce à ces mécanismes de détection avancée.

Une gouvernance privée aux implications politiques croissantes

Au-delà de l’aspect technique, le rapport 2024 de Google soulève une problématique de fond : celle de la gouvernance des plateformes. En renforçant ses capacités de filtrage, l’entreprise prend des décisions qui ont un impact direct sur les flux d’information dans l’espace public. Cela lui confère un pouvoir d’influence considérable, même s’il s’exerce par le biais de règles internes et de protocoles techniques.

L’entreprise a par ailleurs intégré plusieurs initiatives de coordination sectorielle, comme l’Alliance globale anti-scam et la plateforme Global Scam Signals Exchange, qui visent à mutualiser les données et les alertes entre acteurs du numérique. Ces dispositifs, encore peu connus du grand public, permettent une réaction plus rapide aux menaces identifiées, sans passer par une régulation étatique.

Pour les acteurs politiques, cette situation appelle à une réflexion sur l’équilibre à trouver entre la nécessité de préserver un espace numérique sûr, et celle de garantir un contrôle démocratique des règles qui s’y appliquent. Le renforcement des capacités d’auto-régulation des plateformes, bien qu’efficace sur le plan opérationnel, ne doit pas exclure un cadre de responsabilité partagé, dans lequel les institutions publiques jouent un rôle de surveillance, de dialogue et, si nécessaire, de correction.

Jade Blachier

Diplômée en Information Communication, journaliste alternante chez Economie Matin.

No comment on «Arnaques publicitaires : Google les modère avec l’IA»

Leave a comment

* Required fields