Close

Buster.AI : nouvelle arme de lutte contre la désinformation

Entretien avec Julien Mardas, CEO et cofondateur de Buster.AI.

 

 

Présentation

Buster.AI est une jeune entreprise innovante de la Deep Tech française, cofondée à Paris en 2019 par Aurélien Cluzeau et Julien Mardas.

Forts de leurs expériences dans le domaine de l’intelligence artificielle (IA) et face à de nombreux scandales comme celui de Cambridge Analytica, ils font le constat que l’information est aujourd’hui un puissant outil de manipulation. Ils développent alors un algorithme capable de lutter contre la désinformation sur les différents canaux (médias) et formats (vidéo, texte, photo) de communication, dans le but de vérifier la véracité des contenus et ainsi lutter contre les cybermenaces liées aux fake news et deep fake.

Leur solution, souveraine et indépendante, est principalement destinée aux agences de presse, médias, marchés financiers et réseaux sociaux – Buster.AI travaille par exemple avec TF1[1] sur un outil de fact checking –, mais s‘adresse aussi au monde de la finance et aux instances gouvernementales.

La solution

La solution, développée à partir de standards open source, se présente sous la forme d’une API intégrée à une application Web et à un plug-in pour navigateur. Via une approche holistique et journalistique, Buster.AI appréhende la fausse information comme un virus et soumet, pour chaque contenu, une analyse détaillée permettant d’expliquer les décisions de ses algorithmes d’IA en trouvant les sources officielles qui supportent ou s’opposent au contenu.

Pour le grand public, la solution a pour objectif de protéger les profils utilisateurs des fake news présentes sur les réseaux sociaux et les mettre en confiance sur les contenus qu’ils diffusent à leur propre communauté. Elle propose plusieurs versions selon le nombre de sources d’information et d’analyses couvertes. Pour les RSSI et les DSI, elle se présente sous la forme d’un tableau de bord qui les accompagne dans la maîtrise des risques d’atteinte à l’image de leur marque et aux tentatives de manipulation des salariés en entreprise.

Quel qu’en soit l’usage, l’objectif de Buster.AI n’est pas de prendre la décision à la place de ses clients mais de les aider à aller plus loin dans le décryptage de l’information en répondant par exemple aux questions suivantes : quelles sont les véritables intentions derrière cette communication ? La vidéo est-elle vraie mais le texte falsifié ? etc…

L’exemple des élections législatives indiennes de février 2020[2] est particulièrement frappant et met en lumière l’approche multimodale de la solution (« mélanger l’image, la vidéo, le texte et remettre les choses en corrélation pour aider à une décision finale »[3]). L’étude de vidéos de campagne diffusées par l’un des partis politiques impliqués par les algorithmes de Buster.AI a révélé que seules 2 images sur 18 pouvaient être considérées comme « vraies ».

Interface Buster.AI d’analyse des vidéos du candidat Manoj Tiwari

Les technologies

Les algorithmes de Buster.AI analysent des informations en temps réel et interviennent là où le traitement humain ne suffit plus, quantitativement et qualitativement, à détecter les manipulations. La solution se positionne comme un soutien à toute forme d’analyse et de décryptage des contenus, grâce à des outils capables d’empêcher que la désinformation ne surpasse l’information.

Pour se faire, la jeune pousse utilise des outils et des technologies différents :

  • Le langage de programmation Python pour ses algorithmes ;
  • Les frameworks de Deep Learning PyTorch (principalement développé par Facebook AI Research – FAIR) ou TensorFlow (mis en place par Google Brain) ;
  • Des solutions Cloud ou des serveurs dédiés pour tout ce qui est relatif au Big Data (données non critiques).

Par ailleurs, la société s’assure que les modèles de Machine Learning puissent s’adapter à des volumes de données significatifs et pour un nombre important de requêtes.

Enfin, afin de répondre aux nombreux défis technologiques, elle travaille en étroite coopération avec des centres de recherche tels que l’INRIA et participe à des challenges, dont le CLEF[4] qu’elle a récemment gagné.

Perspectives

Incubés par ESSEC Ventures, et plus spécifiquement au sein du programme Media House[5], Buster.AI a déjà réalisé un premier tour de table auprès de business angels, a remporté le Challenge MINDS des agences de presse mondiales et fait partie des 100 start-up où investir en 2020 selon Challenges[6]. Son ambition : devenir l’antivirus de l’information.

L’entreprise cherche aujourd’hui à s’étendre sur le marché B2C via son application mobile et le plug-in et à développer ses liens avec les agences gouvernementales. Elle va également se concentrer sur les agences de presse, les grands médias ainsi que les directions communication des grands comptes, principalement dans le secteur des marchés financiers.

 

[1] Buster.AI est incubée par TF1 dans le cadre du Media Lab de Station F.

[2] https://medium.com/buster-ai/deepfake-videos-to-enter-politics-3a42a90c79c2

[3] Définition de l’approche multimodale donnée par Julien Mardas durant l’entretien.

[4] https://www.linkedin.com/feed/update/urn:li:activity:6727919580825571329

[5] Media House est le fruit d’un partenariat entre ESSEC Ventures, la Chaire Média & Digital de l’ESSEC et Media Maker, soutenu par le ministère de la Communication et de la Culture.

[6] https://www.challenges.fr/classements/start-up/2020/