Wednesday , October 21 2020
Home / ARTIFICIAL INTELLIGENCE / TikTok évoque une « attaque coordonnée » visant à diffuser une vidéo de suicide

TikTok évoque une « attaque coordonnée » visant à diffuser une vidéo de suicide

Sur la vidéo, on voit un homme d’une trentaine d’années parler au téléphone, avant de se suicider avec une arme à feu. Début septembre, l’application TikTok, très prisée des adolescents, avait eu des difficultés à se débarrasser de ce contenu, le voyant réapparaître sous différentes formes. Mardi 22 septembre, le directeur européen des politiques publiques de TikTok, Theo Bertram, a affirmé qu’il s’agissait, en fait, d’une « attaque coordonnée ». Entendu par une commission de parlementaires britanniques, il a dit en avoir des « preuves » :

« Au fil de notre enquête, nous avons découvert que des groupes opérant dans le dark Web ont planifié des raids sur les réseaux sociaux comme TikTok afin de diffuser la vidéo partout sur Internet. Nous avons pu constater qu’un groupe d’utilisateurs a tenté de façon répétée de publier la vidéo sur notre plate-forme. »

La vidéo avait initialement été publiée sur Facebook en août, avant d’apparaître sur d’autres plates-formes comme TikTok ou YouTube. Si TikTok a eu autant de difficulté à la supprimer, malgré les algorithmes capables de détecter si une même vidéo est publiée plusieurs fois, c’est parce que les personnes souhaitant la diffuser l’ont coupée, montée ou lui ont ajouté des filtres, a constaté TikTok, des manipulations qui rendent la détection de la vidéo plus complexe. Theo Bertram n’a pas donné d’information sur l’identité de ces personnes ni sur leurs intentions.

Les utilisateurs s’étaient prévenus

Les utilisateurs de TikTok avaient été nombreux à réagir, se prévenant mutuellement de l’existence de la vidéo afin d’éviter que quelqu’un ne la voie par hasard. TikTok propose en effet de courtes vidéos qui se lancent automatiquement et s’enchaînent à l’infini. Des utilisateurs avaient alors décrit le début de la séquence afin que les utilisateurs soient en mesure de la reconnaître et de la couper immédiatement avant d’assister au suicide.

Lors de son audience devant les parlementaires britanniques, Theo Bertram a déclaré que TikTok avait écrit à neuf autres grandes plates-formes (Facebook, Instagram, Google, YouTube, Twitter, Twitch, Snapchat, Pinterest et Reddit) afin qu’elles coopèrent pour identifier rapidement les images ultra-violentes.

Pour l’instant, chaque plate-forme possède, en effet, sa propre politique pour arrêter la diffusion de contenus problématiques. Mais « nos efforts individuels pour protéger nos utilisateurs seraient considérablement renforcés par une approche collaborative pour identifier tôt les contenus extrêmement violents, comme le suicide, et notifier les autres représentants du secteur », a écrit Vanessa Pappas, directrice générale par intérim de TikTok, dans une lettre envoyée à ces entreprises.

104 millions de vidéos supprimées en six mois

Mardi 22 septembre, TikTok a publié son « rapport de transparence » concernant les six premiers mois de l’année : on y apprend qu’elle a supprimé 104 millions de vidéos sur cette période, contre 49 millions lors des six mois précédents. Un bond qui s’explique notamment par l’énorme gain en popularité du réseau social ces derniers mois, boosté par le confinement.

Les questions de modération, délicates pour chacune de ces plates-formes, le sont particulièrement en ce moment pour TikTok, scruté de très près par les autorités américaines, qui la soupçonnent d’être au service du renseignement chinois. TikTok appartient à l’entreprise chinoise ByteDance et est en train de finaliser un accord avec les groupes américains Oracle et Walmart afin d’échapper à la sanction promise par Donald Trump si la transaction échoue : l’interdiction pure et simple de l’application aux Etats-Unis.

Lire aussi Qu’est-ce qu’Oracle, le géant de l’informatique qui lorgne le réseau social TikTok ?

Le Monde avec AFP et AP

Leave a Reply

Your email address will not be published. Required fields are marked *