Sign in / Join

Le tournage YouTube montre comment les fausses nouvelles sur les médias sociaux

Ⓒ AFP/File – STAFF – | Le tournage au siège de YouTube était le dernier événement d’actualité pour susciter un tourbillon de reportages sur les «fausses nouvelles» largement diffusées sur les réseaux sociaux.

Quelques minutes après le tournage dans les bureaux de YouTube en Californie, les médias sociaux étaient inondés de théories de conspiration et d’images du supposé «tireur» portant un foulard musulman.

Certaines vidéos de Facebook ont ​​rapidement prétendu qu’il s’agissait d’une attaque «fausse marque», menée pour discréditer le puissant lobby américain des armes à feu à la suite du massacre de l’école secondaire Parkland en Floride.

Avec des comptes exagérément exagérés du nombre de morts circulant, plusieurs photos de l’attaquant présumé et certaines des « victimes » postées sur Twitter se sont révélées être des YouTubers bien connus.

D’autres posts largement partagés ont émis l’hypothèse que l’attaquant avait été provoqué par YouTube censurant le contenu politique, et un utilisateur de Twitter a posté une photo du suspect sous le nom de Hillary Clinton dans un foulard.

Son compte a été plus tard suspendu.

Hoaxers a également profité de la situation pour afficher plusieurs photos de la bande dessinée américaine Sam Hyde, qui est connu pour les blagues sur Internet.

Rien de tout cela n’a surpris les chercheurs du Massachusetts Institute of Technology, dont le rapport du mois dernier a révélé que les fausses nouvelles se propageaient beaucoup plus vite sur Twitter que sur les vraies nouvelles – et de manière substantielle.

« Nous avons découvert que le mensonge diffuse significativement plus loin, plus vite, plus profondément et plus largement que la vérité, dans toutes les catégories d’information », a déclaré Sinan Aral, professeur à la MIT Sloan School of Management.

Ils ont découvert que les fausses nouvelles politiques atteignaient plus de gens plus rapidement et pénétraient plus profondément dans leurs réseaux sociaux que n’importe quelle autre catégorie de fausses informations.

– Les mauvaises nouvelles se propagent plus vite –

Alors que les usines trolls russes ont largement blâmé le discours politique dans les campagnes électorales à travers les Etats-Unis et l’Europe, l’équipe du MIT Media Lab a découvert que les fausses nouvelles ne se propageaient pas à cause des bots mais des gens qui retweetaient des reportages inexacts.

Les chercheurs ont constaté que «les fausses nouvelles sont 70% plus susceptibles d’être retweetées que les vraies histoires, et les histoires vraies six fois plus longues pour atteindre 1 500 personnes que les histoires fausses».

Alors que de véritables histoires de nouvelles sont rarement retweetées par plus d’un millier de personnes, les fausses nouvelles les plus populaires sont régulièrement partagées jusqu’à 100 000 personnes.

Emma Gonzalez, l’une des étudiantes de Parkland qui est devenue une dirigeante du mouvement #NeverAgain en faveur d’un contrôle plus strict des armes à feu, est devenue une cible particulière des attaques de désinformation au cours des dernières semaines.

Une photo trafiquée d’elle déchirant la constitution des États-Unis s’est tournée la semaine dernière, l’exposant au vitriol en ligne vicieux. Elle avait en fait déchiré une cible de pistolet dans une séance photo pour le magazine Teen Vogue.

– ‘Les théoriciens de la conspiration du week-end’ –

Un autre faux mème est devenu viral: Gonzalez aurait attaqué le camion d’un partisan, alors qu’il s’agissait en fait d’une image de la pop star Britney Spears dans une tristement célèbre fusion de 2007.

Rudy Reichstadt, du site Conspiracy Watch, a déclaré que la désinformation se nourrit du « choc et de la stupeur » que les événements traumatisants créent.

« Nous avons maintenant des entrepreneurs de théorie du complot qui réagissent instantanément à ces événements et réécrivent des récits qui se déroulent pour correspondre à leur scénario alternatif conspirateur. »

Il a déclaré que le choc américain et le fondateur d’Infowars, Alex Jones, un éminent activiste pro-armes, avaient établi le modèle pour générer de fausses nouvelles pour répondre à un ordre du jour particulier.

Il joue des « théories de la conspiration chaque fois qu’il y a une nouvelle fusillade », a déclaré Reichstadt à l’AFP. « Il est prisonnier de ses propres théories et essaie constamment de faire avancer l’histoire (avec de nouveaux éléments) pour maintenir la conspiration en vie. »

Le chercheur basé en France a dit qu’il y avait maintenant tout un écosystème de faux fabricants de nouvelles, de ceux qui « utilisent le sensationnalisme clickbait pour augmenter leurs revenus publicitaires aux professionnels de la désinformation et aux théoriciens du complot du week-end qui sonnent sur YouTube ».

L’étude du MIT, inspirée par les rumeurs en ligne qui ont circulé après l’attaque du marathon de Boston en 2013, se concentrait sur ce qu’elle appelait des «cascades de rumeurs» – des chaînes ininterrompues de retweets après qu’un utilisateur de Twitter ait fait une fausse déclaration.

Aral a dit qu’ils ont conclu que les gens sont plus susceptibles de partager de fausses nouvelles parce que « les fausses nouvelles sont plus romanesque, et les gens sont plus susceptibles de partager de nouvelles informations.

CGV