L’information face à l’intelligence artificielle : promesses et dangers

Larevuedesmedias

L’information face à l’intelligence artificielle : promesses et dangers"


Play all audios:

Loading...

L’IA DANS LES MÉDIAS, ON Y EST DÉJÀ - ÉPISODE 1/5 L’intelligence artificielle et les algorithmes sont de plus en plus utilisés pour produire l’information. Cette pratique repose sur


l’idéalisation de l’accès à une information personnalisée, mais elle soulève de nombreux enjeux éthiques notamment la question de leur transparence.  Arnaud Mercier Publié le 05 février 2018


L’un des inventeurs de la notion d’intelligence artificielle dans les années 1950,_ _Marvin Lee Minsky_,_ la définit comme « la construction de programmes informatiques qui s'adonnent


à des tâches qui sont, pour l'instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau tels que :


l'apprentissage perceptuel, l'organisation de la mémoire et le raisonnement ». L’intelligence artificielle couvre donc le vaste domaine des activités ayant pour but de faire faire


par une machine et son programme informatique lié des tâches que l'homme accomplit en utilisant toute son intelligence : reconnaître des formes floues, comprendre, apprendre, prendre


des décisions, dialoguer avec un humain, créer des textes pertinents, s’adapter aux situations, etc. Pour y parvenir, elle s’appuie sur une nouvelle classe d'algorithmes (une suite


d’instructions permettant d’aboutir à un résultat à partir de données fournies) paramétrés à partir de techniques d'apprentissage automatique. L’intelligence artificielle est déjà bien


intégrée dans la chaîne de production de l’information. Les trouvailles se bousculent et déjà les _blockchains_ pointent à l’horizon. La recherche progresse rapidement (en traitement


informatique et fouille des données de masse, en design utilisateurs des algorithmes, en traitement automatique des langues et génération automatique de textes…), et les techniques


s’améliorent sans cesse, puisque les informaticiens développent des programmes ayant la capacité d’apprendre de leur propre fonctionnement et d’améliorer leurs performances (« _machine


learning _» ou « apprentissage automatique » ). > Les résultats obtenus par l’intelligence artificielle améliorent > la qualité de l’expérience usagers, car ils favorisent une > 


personnalisation de l’offre d’information De plus en plus, des algorithmes sont utilisés dans la production et la consommation d’informations : pour constituer des bases de données et


fouiller dedans pour y repérer des signaux faibles ; pour agréger des contenus éditoriaux ; pour éditer des articles ; pour distribuer de façon personnalisée ces contenus. Incontestablement,


les résultats obtenus par l’intelligence artificielle améliorent la qualité de l’expérience usagers, car ils favorisent une personnalisation de l’offre d’information reçue et, donc,


accroissent, à priori, notre satisfaction. D’autant que les machines apprennent à nous connaître et à nous reconnaître et à « comprendre » nos désirs — en tout cas, à les interpréter — en se


calant sur nos requêtes et sur nos pratiques observables sur Internet. Dressons donc ici un panorama de ces nombreuses potentialités d’information algorithmée, avant d’en souligner les


implications pour les médias et les inquiétudes soulevées pour notre société. LES ALGORITHMES PARTICIPENT DÉJÀ À L’ÉCOSYSTÈME D’INFORMATION Des algorithmes peuvent suppléer les journalistes


dans la rédaction de textes factuels et standardisés (« robots-journalistes »), comme ce tout premier article publié le 17 mars 2014, sur le site du _Los Angeles Times_, annonçant en


premier— en rédigeant un compte rendu avec carte en trois minutes— qu’un séisme venait de toucher un quartier de Los Angeles, grâce à l’algorithme Quakebot branché sur les données fournies


par le Centre fédéral d’information sismique (US Geological Survey). Des algorithmes peuvent surveiller des contenus de masse pour en extraire des données pertinentes, pour identifier des


tendances. Le Reuters News Tracer met ainsi sous surveillance quotidienne des millions de tweets pour repérer des sujets potentiels à traiter. Des algorithmes peuvent organiser une veille


pour distribuer ensuite une revue de presse pertinente et personnalisée aux abonnés ayant défini leurs goûts au préalable. C’est, par exemple, le projet Flint, de Benoit Raphaël, qui se


définit comme « une newsletter personnalisée confectionnée avec amour par des intelligences artificielles ». Des algorithmes peuvent composer pour vous une nouvelle grille de programmes


radiophonique, personnalisée, en fonction de vos choix affichés, mais aussi de votre géolocalisation, et de vos réactions face à ce qui vous a été recommandé (abandon de contenus


systématiquement non ouverts, affinage des propositions sur des thématiques que vous aimez ou partagez…). C’est le cas de l’application NPR One, la grande radio publique américaine, qui


agrège des podcasts de ses émissions avec des programmes issus de stations locales affiliées et des contenus indépendants du réseau NPR (National Public Radio), afin de maintenir un esprit


de sérendipité, de découverte inattendue. Des algorithmes peuvent entrer en dialogue avec les internautes, répondant à leurs questions ou leurs commentaires comme s’il s’agissait d’un être


humain (_chatbots_ou_ « _agents conversationnels »), tel, par exemple, le 20Bot du journal _20 Minutes_, qui permet aux internautes, depuis juin 2016, de poser des questions via Facebook


Messenger sur des sujets d’actualité et d’obtenir en retour une sélection automatisée de cinq articles répondant à leur requête. Des algorithmes peuvent comprendre des questions spontanées


posées oralement et nous fournir des réponses qu’ils auront été chercher dans les profondeurs du web (« assistants personnels vocaux », comme l’assistant Siri pour les iPhone d’Apple ou


l’enceinte connectée Google Home, pour laquelle _les Échos_ a annoncé début janvier 2018 le lancement d’une application dédiée après que RTL et Europe 1 se soient déclarées intéressées dès


l’été 2017). Des algorithmes peuvent vérifier automatiquement le contenu factuel de certaines déclarations politiques pour mettre au jour instantanément des mensonges ou approximations (« 


_fact-checking computer science _», tel le projet américain : Tech & Check Cooperative, ou comme les recherches en cours à Stanford pour élaborer un algorithme de détection de _fake_


_news_). TOUT N’EST CEPENDANT PAS (ENCORE) POSSIBLE On le voit, les exemples d’applications concrètes sont déjà bien réels et les perspectives d’avenir pas moins nombreuses. En la matière,


il ne faut tomber ni dans la fascination technologique béate consistant à croire que tout est possible, ni dans la prévision craintive reportant à des décennies les progrès à venir, car les


choses évoluent très vite tant la mobilisation des chercheurs et les perspectives d’ouverture de nouveaux marchés sont fortes. Voilà pourquoi Bill Adair, professeur en journalisme à Duke


University, qui a fondé PolitiFact, déclare à propos de son nouveau projet de _fact checking_ en direct : « Si vous m'aviez demandé, il y a trois ou quatre ans, à quel moment nous


serions capables de faire une vérification des faits en direct, j'aurais dit peut-être une décennie... mais l'intelligence artificielle a parcouru un long chemin en peu de temps ».


> Les choses évoluent très vite, tant la mobilisation des chercheurs > et les perspectives d’ouverture de nouveaux marchés sont fortes. Mais des freins existent encore. Les robots


journalistes sont capables d’écrire automatiquement des articles factuels à partir de données sur lesquelles ils sont branchés, en répondant à quatre des cinq fameux W, questions-piliers du


savoir-faire journalistique (What, Who, Where, When : Quoi, Qui, Où, Quand). Voilà pourquoi de nombreuses rédactions ont pu commencer à faire appel à cette technologie pour générer des


dépêches concernant des sujets répétitifs, comme l’évolution quotidienne des cours de la Bourse ou des résultats sportifs, à l’instar du _Washington Post_, couvrant les Jeux olympiques de


Rio de 2016 avec son robot Heliograf. De ce point de vue, les robots-journalistes ne sont pas les ennemis de la profession. Ils peuvent au contraire les décharger de tâches fastidieuses peu


gratifiantes. En revanche, en l’état actuel des connaissances et savoir-faire informatiques, il est encore trop difficile de confier la rédaction d’un article pour évoquer le dernier W :


Why. Car répondre à la question _pourquoi,_ c’est entrer dans le domaine de l’interprétation qui suppose souvent un mélange de connaissances acquises, de flair journalistique, de


subjectivité, de pari intellectuel, bref, une prise de risque personnelle et éditoriale qu’aucun média ne peut se permettre — en l’état actuel de la technologie — de confier à une machine au


risque de procès en mésinterprétation. DÉFIS ORGANISATIONNELS, ÉCONOMIQUES ET DÉONTOLOGIQUES POUR LES MÉDIAS Avec l’information algorithmée, une série de questions se posent pour les médias


 : faut-il se lancer dans l’expérimentation de ces innovations, alors même que les idées sur le modèle organisationnel à mettre en place et sur le modèle de rentabilité économique ne sont


pas claires ? Faut-il refuser de bricoler avec ces outils avant d’avoir des certitudes, ou ne faut-il pas, au contraire, se lancer à l’aveugle pour acquérir plus tard des certitudes ? Quand


le journal _L’__É__quipe_ annonce en octobre 2017 se lancer dans l’expérimentation de l’application Google Home, alors qu’il n’a pas de tradition de production de contenus audio, quelques


journalistes créent alors des podcasts dans une logique qui relève plus du bénévolat que de la stratégie industrielle élaborée. Mais après ? La rédaction va-t-elle s’adapter et créer des


postes dédiés ? Si oui, comment ce coût supplémentaire sera-t-il amorti ? Si des médias achètent une technologie issue de l’intelligence artificielle, la question de sa rentabilisation se


pose très vite, comme ce fut le cas pour Associated Press, qui s’est mise en juillet 2014 à produire des contenus automatiques — via la technologie développée par Automated Insights (une


entreprise dont elle est devenue actionnaire) —, en considérant que de quelques centaines d’articles par mois, elle devait aboutir à un objectif de plusieurs milliers de dépêches publiées


par mois. Même pression du chiffre pour _Le Monde_ qui a utilisé Data2Content pour publier plus de 35 000 brefs articles lors des élections cantonales de mars 2015. Mais cette facilité à


produire ne risque-t-elle pas d’alimenter la sensation de surcharge d’informations, d’infobésité ? Et quelle relation entretenir avec les sociétés productrices de ces programmes


informatiques ? Faut-il rester un simple client, au risque de rentrer en dépendance ? Faut-il que les entreprises de médias entrent dans une logique de recherche et développement et


deviennent coproductrices de ces innovations, voire actionnaires de ces sociétés ? > Une rédaction peut-elle faire entièrement confiance à un outil > automatique de production de 


contenus ? Clairement non De nombreux questionnements déontologiques sont aussi soulevés par le recours à l’intelligence artificielle. Une rédaction peut-elle faire entièrement confiance à


un outil automatique de production de contenus ? Clairement non, ne serait-ce que parce qu’une erreur est toujours possible. Ainsi, l’outil Quakebot évoqué plus haut a t-il généré à tort une


dépêche inquiétante, le 22 juin 2017, annonçant un séisme de magnitude 6,8 sur Los Angeles. Démentis par les faits, les publieurs ont dû chercher l’origine de l’erreur et l’ont trouvée dans


la réactualisation par _l'Institut_d'études _géologiques_des États-Unis(USGS) d’une donnée de localisation d’un tremblement de terre de 1925, changement interprété à tort par la


machine comme l’avènement d’un nouveau séisme. Les faux-fuyants de chacun des participants au dispositif pour rejeter la responsabilité de l’erreur sur l’autre montrent que la question de la


responsabilité éditoriale se pose avec acuité et que le contrôle humain devrait perdurer pour éviter les soucis. Dès la fin 2014, Tom Kent, journaliste responsable des développements


algorithmiques pour Associated Press a publié une liste de dix questionnements éthiques liés au robot journalisme. Relevons-en trois : les récits automatisés sont-ils répétitifs ? Attention,


en effet, au risque de standardisation de l’écriture et, donc, d’appauvrissement des articles, en chassant l’expression des nuances. Êtes-vous prêt à défendre ce qui est écrit par un


logiciel ? Le risque de déresponsabilisation éditoriale est bien réel. Qui surveille le robot ? Au moment de l’élaboration de l’outil, mais même en phase de routine, il faut garder une vue


humaine sur ces contenus automatiques. INFORMATION, ALGORITHMES ET INQUIÉTUDES DÉMOCRATIQUES Au-delà des questions de déontologie professionnelle, l’insertion croissante des algorithmes dans


l’écosystème d’information requestionne les enjeux éthiques du rôle démocratique des médias. On en retiendra cinq principaux. > Aller vers toujours plus de recommandation personnalisée 


de > l’information a des vertus individuelles qui sont autant de > poisons collectifs Aller vers toujours plus de recommandation personnalisée de l’information a des vertus


individuelles qui sont autant de poisons collectifs. Si je reçois une information toujours plus ciblée, je risque de me laisser enfermer peu à peu dans une zone de certitudes, et de ne plus


découvrir des informations nouvelles à laquelle les médias généralistes me confrontaient peu ou prou. Le Conseil supérieur de l’audiovisuel (CSA) s’en inquiète dans un rapport de janvier


2017 sur « Le rôle des données et des algorithmes dans l’accès aux contenus ». « La structure des goûts d’un consommateur peut s’analyser comme un réseau abstrait, écrit-il. Ce réseau


comporte des liens forts, traduisant une préférence avérée pour un type de contenus bien identifié à priori ; des liens faibles, rendant compte d’une affinité non encore révélée pour un type


de contenus restant à découvrir à posteriori. Un algorithme bien tempéré devrait (…) réaliser un juste équilibre entre exploitation des acquis indiqués par les liens forts et exploration


des potentialités nouvelles indiqués par les liens faibles ». Ce point d’équilibre est ce que le CSA appelle : « tenir compte des affinités tout en préservant la découverte ». Philosophie


qui innerve le service proposé par la radio américaine NPR. L’autre poison de la recommandation personnalisée d’informations est d’ébranler un des piliers de la démocratie : l’existence d’un


espace public fait d’informations partagées entre les citoyens. Plus on ira vers une information reçue et personnalisée, plus on s’éloignera de la consommation de masse de supports communs


d’information, plus les conditions d’un vécu partagé s’effriteront. Andrew Phelps, en charge de développements innovants au _New York Times_ expose ce dilemme de la personnalisation auquel


sont confrontés les médias. « Le _Times_ a toujours été allergique à la personnalisation. Il y a quelque chose de très spécial dans cette expérience partagée du _New York Times_ : je regarde


la même chose que le Président, que mon représentant au Congrès ou que quelqu'un à l'autre bout du monde. C'est quelque chose que nous ne voulons jamais faire disparaître.


Mais nous réalisons maintenant que nous pouvons préserver cette expérience spéciale et partagée et, au-delà de la première page, créer des expériences beaucoup plus adaptées et pertinentes 


». Derrière de nombreux algorithmes se cachent un traitement de données personnelles de masse, pour mieux nous « comprendre » et « mieux nous servir ». Mais cela pose la question cruciale du


respect de notre vie privée. Quelles traces d’usage peuvent être captées, analysées, stockées ? Où ? Par qui ? Pour combien de temps ? Pour quels autres usages possibles ? Avec quelle


monétisation ? Avec quel droit de regard laissé à chacun ? La police ou un assureur seront-ils en droit un jour d’exiger d’un média l’historique de notre navigation pour connaître comment


nous nous sommes informés et en tirer les conclusions qui les arrangent ? > L’idéologie algorithmique s’appuie sur une idéalisation de la > satisfaction personnalisée et de 


l’assistance à la prise en > charge de nos problèmes. L’idéologie algorithmique s’appuie sur une idéalisation de la satisfaction personnalisée et de l’assistance à la prise en charge de


nos problèmes. L’extension de ces outils d’aide à la décision ne risque-t-elle pas de générer une posture passive où je ne fais plus l’effort de découvrir des informations ? Perdrons-nous


nos agilités numériques au profit d’un assistanat aussi confortable que pernicieux, puisque pouvant éroder notre curiosité ? Et ces outils qui sont censés nous aider peuvent devenir des


outils de contrôle qui nous bornent. Nous entrons dans une dialectique résumée ainsi par la présidente de la Cnil (Commission nationale de l’informatique et des libertés), Isabelle


Falque-Pierrotin, en mars 2017 : « L’être humain algorithmé : dépassement ou perte de soi ? » L’ENJEU CRUCIAL DE LA TRANSPARENCE DES ALGORITHMES Enfin, l’enjeu crucial est celui de la


transparence des algorithmes. L’efficacité du résultat peut conduire à la fascination technologique. La pertinence des contenus peut faire croire à la naturalité du processus, alors qu’il


reste un artefact fruit d’une programmation pensée par des humains, avec ses biais, ses présupposés, ses erreurs. Les médias doivent être des ferments de prise de conscience des enjeux d’une


société algorithmique. D’aucuns préconisent la création d’une rubrique « algorithmes », comme fut créée la rubrique « environnement » pour éveiller les consciences écologiques. _A minima_,


les médias se doivent de donner l’exemple en explicitant les logiques de fonctionnement des algorithmes qu’ils mobilisent dans l’écosystème d’information. Ils doivent contribuer à ouvrir les


boîtes noires, à commencer par celles qu’ils utilisent. Car, comme l’écrit le journaliste blogueur Nicholas Carr, dans son dernier livre (_Remplacer l'humain __: critique de


l'automatisation de la société_, Paris, L'Échappée, 2017) : « Si nous ne comprenons pas les motivations commerciales, politiques et éthiques des gens qui écrivent ces logiciels, ou


les limitations inhérentes au traitement automatisé des données, nous nous soumettons à la manipulation ». -- Crédit : Illustration : Ina. Yann Bastard L’IA DANS LES MÉDIAS, ON Y EST DÉJÀ -


ÉPISODE 2/5 Après l’adaptation à Internet et la numérisation des contenus, les médias sont en première ligne pour tester et déployer les outils basés sur l’intelligence artificielle. Cette


nouvelle vague d’innovation impacte tous leurs métiers et tous les maillons de la chaîne production. 


Trending News

Mondiaux de tennis de table : prithika pavade s'arrête en huitièmes

MONDIAUX DE TENNIS DE TABLE : PRITHIKA PAVADE S'ARRÊTE EN HUITIÈMES La Française Prithika Pavade a été éliminée en ...

L’acteur Omar Sy accusé de «propos menaçants» envers un agent SNCF

L’acteur Omar Sy accusé de «propos menaçants» envers un agent SNCF Par Pauline Landais-Barrau et Ambre Lepoivre Il y a 2...

Nantes : un hôtel 3 étoiles du centre-ville braqué à main armée

Nantes : un hôtel 3 étoiles du centre-ville braqué à main armée Par Simon Cherner, Le Figaro Nantes Il y a 5 heures Suje...

Investissements étrangers: des députés mettent en garde contre une perte de souveraineté

DÉCRYPTAGE - François Jolivet (Horizons) et Hervé de Lépinau (RN) recommandent de renforcer les contrôles pour protéger ...

Real Madrid : blessé à la jambe droite, Endrick devrait manquer le Mondial des clubs

Real Madrid : blessé à la jambe droite, Endrick devrait manquer le Mondial des clubs Par Le Figaro avec AFP Il y a 23 he...

Latests News

L’information face à l’intelligence artificielle : promesses et dangers

L’IA DANS LES MÉDIAS, ON Y EST DÉJÀ - ÉPISODE 1/5 L’intelligence artificielle et les algorithmes sont de plus en plus ut...

Basket - nba : fan de stephen curry, obama a hâte de recevoir les warriors à la maison-blanche !

La rédaction Alors que les Golden States Warriors ont remporté leur premier titre NBA depuis quarante ans, Barak Obama a...

Le show de pierre bellon à l'université d'été du medef

Le show de Pierre Bellon à l'université d'été du Medef On comprend enfin pourquoi Pierre Bellon, le milliardai...

Page introuvable

Page introuvable La page demandée n'existe pas. Vous pouvez accéder à la home page en cliquant ici. Moteur de recherche...

Hervé glevarec | la revue des médias

Le feuilleton radio, les avatars d’un genre ancien à l’heure du numérique Après avoir connu son heure de gloire avant-gu...

Top