Notre-dame : « youtube a montré les limites du fact checking automatisé »
Notre-dame : « youtube a montré les limites du fact checking automatisé »"
- Select a language for the TTS:
- French Female
- French Male
- French Canadian Female
- French Canadian Male
- Language selected: (auto detect) - FR
Play all audios:
© Crédits photo : DR. ENTRETIEN AVEC JÉRÉMIE NICEY Le 15 avril, Notre-Dame s’est embrasée. Sur Youtube, un outil de _fact checking_ déployé aux États-Unis et en Corée du Sud a associé les
images de la cathédrale en feu aux événements du 11 septembre. Nous avons essayé de comprendre pourquoi avec le chercheur Jérémie Nicey. propos recueillis par Vincent Bresson Publié le 29
avril 2019 _JÉRÉMIE NICEY EST MAÎTRE DE CONFÉRENCES ET RESPONSABLE DE LA LICENCE PROFESSIONNELLE JOURNALISME DE L’ÉCOLE PUBLIQUE DE JOURNALISME DE TOURS. IL EST ÉGALEMENT RESPONSABLE
SCIENTIFIQUE DU PROJET DE RECHERCHE ANR VIJIE (VÉRIFICATION DE L'INFORMATION DANS LE JOURNALISME, SUR INTERNET ET DANS L'ESPACE PUBLIC), AU SEIN DU LABORATOIRE PRIM DE L’UNIVERSITÉ
DE TOURS._ _POUVEZ-VOUS EXPLIQUER CE QU’IL S’EST PASSÉ SUR LES VIDÉOS MONTRANT L’INCENDIE DE NOTRE-DAME SUR YOUTUBE ?_ JÉRÉMIE NICEY : YouTube a mis en place un dispositif qui associe une
image avec un bandeau d’alerte et renvoie sur Wikipédia et d’autres organismes associés. Dans les deux pays dans lesquels il est actif, à savoir les États-Unis et la Corée du Sud, ce
dispositif a associé les images de Notre-Dame de Paris en train de brûler aux événements du 11 septembre 2001, puisque, semble-t-il, les algorithmes ont détecté une similarité d'images.
Le problème, évidemment, est que cela ne correspondait pas au bon événement. Ce dispositif d'alerte a été instauré récemment pour pouvoir parer aux contenus douteux qui circulent sur
la plateforme en donnant des éléments de contexte. L'idée, ici est de contrer le complotisme puisque l'on sait que les vidéos qui circulent le plus sur le Net sont celles qui
remettent en cause l’origine de ce type d’événements. _CAPTURE D'ÉCRAN D'UN TWEET DU JOURNALISTE JOSHUA BENTON. CRÉDITS : JOSHUA BENTON / TWITTER._ Pour autant, cela peut être
contre-productif. Si vous êtes conspirationniste et pensez que Notre-Dame a été brûlée intentionnellement, par exemple pour pouvoir détourner l’attention des problèmes politiques, vous vous
dites que Google voit le complot partout et que c’est suspicieux. Je pense que lire en dessous d’une vidéo un message mentionnant "attention au complot" nourrit le complot
lui-même. Auprès de certaines populations, l'élément de contexte n'est pas suffisant. Énormément de jeunes s'informent via Youtube par exemple. Un adolescent de 13 ans qui
regarde la vidéo aura peut-être entendu parler des attentats de 2001, souvent vaguement car il n’était pas encore né. Il voit sur la vidéo que le bâtiment brûle et que le bandeau mentionne
que ce sont les attentats de 2001. Cette situation peut attiser une curiosité et le pousser à aller voir des vidéos conspirationnistes et d’autres vidéos qu’il n’aurait peut-être jamais
vues. Dans certains cas, cela peut donc renforcer le complotisme ; mais cette hypothèse reste à valider et cet impact à mesurer, ce que l’on ne parvient pas réellement à faire aujourd’hui.
On ignore par ailleurs pourquoi seuls les États-Unis et la Corée du Sud sont concernés. Est-ce parce que ce sont les deux pays sur lesquels la plateforme cherche le plus à se mettre en
valeur ? Est-ce que l'algorithme détecte que ce serait là-bas que les contenus complotistes vont le plus circuler ? Pourquoi le bandeau n’a-t-il pas été ajouté aux vidéos en France ?
Pour l'instant, ça n'a pas été totalement questionné et de la part de Google, ça n'a pas été énoncé ou explicité. Je peux entendre que Google n’ait pas envie de le déployer
mondialement d'un coup. Mais dans ce cas-là, autant aller chercher des pays plus petits de moindre envergure, sur lesquels cela sera moins visible, non ? > « Les filtres sont
toujours un peu dangereux. » Si l'algorithme devient performant à l’avenir et qu’il décide de faire apparaître ce type de bandeau de contextualisation dans certains pays plutôt que
d'autres, je veux que l’on nous explique pour quelles raisons dans certains pays il n'apparaîtra pas. Parce que l'algorithme pensera que les gens sont moins bêtes dans une
partie du monde et qu'ils n'ont pas besoin du contexte ? Par exemple, si le bandeau ne s’affiche pas en Suède mais qu’il s’affiche dans un autre pays, cela laisserait penser que
100 % des Suédois auraient tout compris ou qu’aucun Suédois n’est complotiste. Or cela n’est évidemment pas le cas. Il faut donc le déployer mondialement, ou alors que Google explique ses
choix, avec davantage de transparence. _COMMENT ARRIVE-T-ON À CETTE SITUATION DANS LAQUELLE UN GÉANT DU NET ENTRAÎNE LA PROPAGATION D’UNE FAUSSE INFORMATION ALORS QU'IL ESSAIE DE LUTTER
CONTRE LA DÉSINFORMATION ? _ JÉRÉMIE NICEY : Ce n’est pas à proprement parler la diffusion d’une fausse information dans la mesure où il s'agit simplement d'un bandeau de
contextualisation. Effectivement, cela pose problème car on a l'impression lorsque l’on ouvre la vidéo qu’elle concerne les attentats du 11 septembre. Mais je pense qu’il faut minimiser
son impact car il s’agit d’un petit bandeau de bas d’écran alors que dans la fenêtre de visionnage, les titres et le descriptif de l'image expliquent bien qu’il s’agit de Notre-Dame de
Paris. Donc, ce n'est pas une diffusion de fausse information en tant que telle. En revanche, même s’il existe une volonté de lutter contre la circulation de désinformation, cette
faille prouve que ces plateformes ne s'y prennent pas assez bien car leurs investissements sont sans doute insuffisants. Google se retrouve ici dans la position de l'arroseur
arrosé, c'est-à-dire que le groupe veut lutter contre ce qui est douteux, imprécis et faux, mais finit par l’alimenter. Si Google s’implique dans la lutte contre les fausses
informations, c’est dans son intérêt. Le moteur de recherche cherche à obtenir une meilleure image et à rassurer les annonceurs. Le nettoyage numérique des fausses informations débute, mais
ne rencontre pas la même viralité que les contenus dénoncés. D’une certaine façon, les plateformes s’y retrouvent car elles gagnent de l'argent grâce aux annonceurs, quelle que soit la
nature des contenus. Les contenus douteux et malveillants, sont souvent ceux qui circulent le plus ou qui sont les plus partagés et les plus vus, ils sont donc très rentables. > « Il faut
nuancer l’impact des fausses informations. » D’autre part, il faut nuancer l’impact des fausses informations. Si, certes, ce sont des contenus qui circulent beaucoup, certaines études
montrent qu’il n'est pas dit que les gens y croient, de la même manière qu’il est possible d’énoncer des choses sans forcément y croire dans les cercles familiaux, professionnels ou
privés. Si impact il y a un, il faut le considérer du côté des personnes qui adhéraient à ces théories et vont être renforcées dans leur croyance. En matière de vote, des études démontrent
un faible impact, il faut donc relativiser. Si l’on observe le nombre de partages, on peut prendre peur, car ce sont parfois des données élevées, et pour les journalistes, cela représente
une forme de concurrence. Il y a des raisons de s’en alarmer à cause du temps d'attention consacré. Mais il faut parier sur l'intelligence collective et individuelle, tout en
renforçant l'esprit critique, en formant encore davantage et pas seulement au sein des écoles. Il faut des espaces de paroles pour que les gens, à un moment ou un autre, puissent
s'armer et peut-être même, un jour, trouver cela complètement bidon ou rire de ce que sont les fausses informations. _FAUT-IL DOUTER DE L'APPORT DES ALGORITHMES, ET PLUS
GÉNÉRALEMENT DE LA TECHNOLOGIE, EN MATIÈRE DE FACT CHECKING ? _ JÉRÉMIE NICEY : La puissance des algorithmes est vérifiée, à la fois dans la façon dont ils exploitent les traces, les liens
entre les membres d'une communauté pour se conseiller tel ou tel contenu ou pour y associer des envois de publicités ciblées, selon l'historique de navigation. Donc, les
algorithmes sont puissants, ils sont même au cœur de l’économie de ces géants du numérique. Dans le cas présent, cette puissance se transforme en nuisance. Ce qui semblait être une chose
plus efficace que l’humain s’avère s’être trompé. Alors que 95 % de la population mondiale ne se serait pas faite avoir, l’algorithme a failli. Ce qui pose souvent problème avec les
algorithmes ce sont les failles liées au contexte. Un algorithme n'arrive pas bien à repérer l'ironie par exemple. Il faut que les géants du Net travaillent encore beaucoup. > «
Les robots ne peuvent pas tout, il faut qu’ils soient > guidés. » L’erreur de Youtube montre les limites du _fact checking _automatisé. Mais, quelque part, cela met aussi en évidence le
fait que l'esprit critique humain, l'intelligence non artificielle a encore toute son utilité, et que ce qui est intéressant, c'est de la coupler avec cette technologie. Les
robots ne peuvent pas tout, il faut qu’ils soient guidés. D’ailleurs il ne faut pas oublier que derrière chaque robot, chaque intelligence artificielle, chaque algorithme, chaque
paramétrage, il y a un humain. > « Ce qui est artificiel n’est pas forcément raisonné. » Quand on évoque l’intelligence artificielle, il faut savoir à quoi l’on se réfère. Ce qui est
intéressant, c'est que le terme « artificiel » lui-même dit déjà qu'on est un peu dans l'erreur : ce qui est artificiel, c'est ce qui est factice, stéréotypé, arbitraire…
Toute la littérature actuelle sur l'IA montre que les usagers et les professionnels qui y travaillent font preuve d’un grand enthousiasme, mais aussi d’une grande prudence. Dans le cas
présent, l’IA n'aide pas du tout, y compris parce que ce qui est artificiel n'est pas forcément raisonné. _SI, PAR EXEMPLE, LES ALGORITHMES DES PLATEFORMES RECOMMANDENT DES VIDÉOS
COMPLOTISTES, N’ONT-ELLES PAS UNE RESPONSABILITÉ DANS LE DÉVELOPPEMENT DE LA DÉSINFORMATION ? _ JÉRÉMIE NICEY : Cette responsabilité est évidente parce que ce sont des espaces de dialogue
qui ont été longtemps non modérés. Même si au départ l’intention n’est pas de diffuser ce type de message, la nature humaine fait que certains y trouvent un intérêt. Sur l'année 2016
les réseaux sociaux ont pu avoir un impact sur la circulation des messages électoraux concernant le Brexit au Royaume-Uni et la présidentielle en faveur de Donald Trump, mais moins sur le
vote lui-même qui aurait sans doute pris la même tournure, à quelques nuances près. Mais il reste gênant que, les personnes confrontées à des contenus n’ont pas toujours les armes
suffisantes pour déterminer leur caractère douteux. Ils n’ont pas nécessairement les éléments de contexte pour discerner le vrai du faux. Même des requêtes assez précises, quand vous les
effectuez sur un moteur de recherche, peuvent demander du temps pour être sûr de tomber sur les bons documents. Parfois, vous pensez trouver les documents ou l’information que vous cherchez
et vous vous rendez compte qu’ils datent d’il y a plusieurs années. Ces derniers ne sont peut-être plus viables car beaucoup de choses ont pu se passer depuis. C'est encore plus
problématique dans le cas de la justice : les verdicts parfois changent après que des justiciables aient fait appel et obtiennent gain de cause. > « L’opacité est le plus gros problème du
moteur de recherche > de Google. » Il ne faut pas penser que les fausses informations ne concernent que les gens peu éduqués. Même pour les populations les plus initiées, il est
difficile de se retrouver dans le fouillis de ce qu'est le moteur de recherche Google. En réalité, le plus gros problème est celui de son opacité : on ne sait pas comment il fonctionne.
Si tout d'un coup, j'apprends quelque chose sur YouTube ou sur Facebook, et que je souhaite recouper l’information sur Google, il y a cette opacité de l'algorithme qui fait
que même ma requête ne trouvera pas forcément ni satisfaction ni pertinence absolue. Et le pire c’est que ce sont les contenus les plus partagés qui sont les plus visibles. Si je mets en
doute une information que j’ai entendue et que je veux la recouper ailleurs, l’information sera écrite un peu différemment mais racontera souvent la même chose. Il faut prendre du recul sur
les informations qui circulent beaucoup sur les réseaux sociaux et s’en méfier. _COMMENT LES GÉANTS DU NUMÉRIQUE, NOTAMMENT GOOGLE ET FACEBOOK, PEUVENT-ELLES LUTTER PLUS EFFICACEMENT CONTRE
LES_ FAKE NEWS_ ? _ JÉRÉMIE NICEY : Cela fait déjà trois ans que les plateformes numériques empruntent cette voie, même si elles le font de manière insuffisante. Le choc de l'élection
de Donald Trump les a fait réagir car elles ont été montrées du doigt pour avoir permis son élection, alors qu’il est possible de relativiser cette accusation. En réalité, les plateformes ne
s’investissent pas avec assez de vigueur dans la lutte contre les fausses informations. Les dispositifs mis en place sont insuffisants, en tout cas pas à la hauteur d’autres innovations
qu’ils financent. Il faut se demander si c’est vers elles à qui l’on doit confier toujours plus notre temps d'attention, mais surtout notre temps de confiance et de fiabilité. Je pense
que non. Il faut équilibrer ses consommations. Les informations devraient circuler sur les quatre supports que sont la presse écrite imprimée, la radio, la télé et le Web. C’est là où
devrait revenir le public. Il faut faire en sorte que les gens sachent que ce qui circule sur les réseaux sociaux possède un soupçon de non-fiabilité, c'est-à-dire que les gens aient le
réflexe de se dire : « Cette information est apparue sur un réseau social, je peux la lire, mais je peux fortement la penser comme bidon ou comme à relativiser. Elle me met peut-être en
alerte sur un événement, mais je vais devoir en compléter ma lecture et ma connaissance ailleurs ». Nous sommes dans la même situation lorsque quelqu'un que vous ne connaissez pas
évoque un fait dans la rue : vous allez recouper l'information, en parler à d'autres, le lire dans les journaux ou écouter la radio, qui sont des espaces fiables. Intuitivement,
dès que les enfants entendent quelque chose qui les interpelle, ils demandent : «Est-ce vrai ? » Ils vont voir quelqu'un de référence, souvent les parents. Nous avons toujours, à un
moment ou un autre, une personne, un lieu ou un média de référence, pour s'assurer de la véracité d'une information. _QUE PENSEZ-VOUS DES INVESTISSEMENTS OPÉRÉS DANS LE _FACT
CHECKING_ DEPUIS QUELQUES ANNÉES, NOTAMMENT DANS CERTAINES RÉDACTIONS ? _ JÉRÉMIE NICEY : Après des années de défiance, de concurrence et de difficultés économiques, que ces géants du Net
fassent travailler des _facts checkers_ est, pour le journalisme, bon signe parce que cela donne une légitimité à ceux qui savent faire et cela prouve que cette expertise est importante.
D’un autre côté, pour les rédactions, il y a aussi une dimension marketing : « Le _fact checking_, on sait le faire, des poids lourds du numérique nous font confiance. On est capable
d’apporter des éléments pour permettre au lecteur de se repérer, et évidemment des informations fiables. ». > « En France, la lutte opérée contre les fausses informations > prend un
fort caractère marketing. » Ce qui pose problème, pour la France, c'est que depuis deux ans, la lutte opérée contre les fausses informations prend un fort caractère marketing. Les
plateformes communiquent plus ou moins sur le mode « Nous luttons contre les fake news pour montrer que nous sommes actifs en mettant en place des dispositifs réduits et en créant des
partenariats avec ceux qui savent déjà faire, comme les fact checkers au sein des rédactions journalistiques ». Sur Check News, le site de _fact checking_ de _Libération_, la rédaction a
révélé recevoir environ 1 000 dollars par information vérifiée @_Libération a perçu 245 000 dollars en 2018 de la part de Facebook pour 249 articles publié et entré dans la base Facebook_ @.
Pourquoi est-ce financé à cette hauteur-là ? Et surtout est-ce qu'il n'y a pas une forme de syndrome de Stockholm ? Un média fiable pourrait très bien se contenter des espaces qui
sont les siens pour diffuser les informations vraies, et laisser ce qui est de l'ordre de l'information fausse ou douteuse sur les réseaux sociaux, et faire le pari que les gens
s'en détourneront avec le temps. _CES FINANCEMENTS SONT-ILS UNE BONNE NOUVELLE POUR LE JOURNALISME DE MANIÈRE GÉNÉRALE ? _ JÉRÉMIE NICEY : Trouver des financeurs et des partenaires dans
un contexte de précarité et de difficultés financières des rédactions interroge sur le fait que des partenaires d'ordre privé et commerciaux financent les activités du journalisme.
Même si, ce modèle n’est pas nouveau puisque c’est le modèle dominant depuis le XIXᵉ siècle. C’est davantage l’industrie publicitaire qui va permettre d'avoir un modèle économique
stable, que le public qui l’achète régulièrement. > « Il serait sans doute plus intéressant que des fondations > puissantes économiquement financent le _fact checking. »_ Il serait
sans doute plus intéressant que des fondations puissantes économiquement financent le _fact checking_. Certaines le font pour l'instant dans des proportions insuffisantes. Cela donne un
peu l’impression que les plateformes lâchent quelques piécettes en espérant que les journalistes réalisent un bon travail et que cela rejaillisse sur leur notoriété et sur leur fiabilité.
Des piécettes qui vous sont dues puisque le trafic qu’apportent les médias à Facebook, ne leur est pas rétribué. Avec mon collègue Laurent Bigot, auteur d’une thèse pionnière en France sur
le _fact checking_, nous avons continué d’interroger ces journalistes spécialisés pour en savoir plus. En réalité, ils connaissent complètement les limites de ce système, et les énoncent
ouvertement, mais sont animés par une dimension citoyenne. Ils espèrent que cela permettra de toucher un public plus large qu’ils n’arrivaient pas à toucher jusque-là. Et, dans une certaine
mesure, en tant que chercheurs, mes collègues et moi espérons qu’en interrogeant ces phénomènes nous parvenons aussi à ce type de sensibilisation.
Trending News
Jacques chirac traité de "connard" pendant ses vacances à brégançon : sa réponse hilaranteJacques Chirac s'est fait traiter de _"connard"_ pendant un bain de foule à Bormes-les-Mimosas, pendant u...
Jacques chirac traité de "connard" pendant ses vacances à brégançon : sa réponse hilaranteJacques Chirac s'est fait traiter de _"connard"_ pendant un bain de foule à Bormes-les-Mimosas, pendant u...
Anna gavalda fendre l'armure, recueil de sept nouvelles, le dilettante - iciOn me demande d'écrire quelques mots pour présenter mon nouveau livre aux libraires et aux critiques et, comme à ch...
Vitaminwater s'affiche sur l'opéra garnier et à lyon avec l'agence auditoireGlaceau Vitaminwater met en scène les amoureux de sa marque à travers une opération événementielle à Paris et Lyon. La m...
Albine. Xavier sénégas élu nouveau maireLa séance d’installation du conseil municipal élu en mars dernier s’est déroulée à la salle des fêtes du village. Toutes...
Latests News
Notre-dame : « youtube a montré les limites du fact checking automatisé »© Crédits photo : DR. ENTRETIEN AVEC JÉRÉMIE NICEY Le 15 avril, Notre-Dame s’est embrasée. Sur Youtube, un outil de _fac...
La russie face au défi des nouvelles technologies© Crédits photo : Anton Fomkin / Flickr. CC License BY 2.0. Avec le passage à l'an 2000, la Russie a pris la résolu...
FOX aime les cross-over - ladepeche.frQuel est le rapport entre les séries « BONES » et « LIE TO ME » ? En apparence absolument aucun, si ce n'est que le...
Invité d'un concours d'éloquence au barreau de paris, jean messiha décommandé sous la pression des islamo-gauchistesInvité d'un concours d'éloquence au barreau de Paris, Jean Messiha décommandé sous la pression des islamo-gauc...
Vélocratie : l’association qui veut donner sa place au vélo à albiDéfendre et développer la place du vélo sur la ville d’Albi. Voilà la mission que s’est fixée la nouvelle association : ...