Communiqués de presse

Proposition de loi contre la manipulation de l’information : les organisations du numérique s’interrogent sur l’applicabilité d’un texte aux contours encore imprécis

Publié le 24 septembre 2018

A quelques jours de son nouvel examen par l’Assemblée nationale, TECH IN France, Syntec Numérique et l’Association des Services Internet Communautaires (ASIC) s’inquiètent du caractère toujours imprécis et complexe à appliquer, des dispositions contenues dans la proposition de loi relative à la lutte contre la manipulation de l’information. Les organisations rappellent que le texte a justement suscité de nombreuses interrogations au sein de la société civile quant à son efficacité.

TECH IN France, Syntec Numérique et l’ASIC soutiennent sans ambiguïté toutes mesures permettant de préserver la bonne marche des processus électoraux à l’heure où des campagnes massives de diffusion de fausses informations sont mises en place pour déstabiliser le processus démocratique. Cependant les trois organisations émettent de sérieuses réserves sur l’efficacité et l’applicabilité des mesures actuellement prévues par ce texte. 

En effet, les contenus visés par cette proposition de loi ne sont pas suffisamment précis. Ainsi, la notion de “contenus d’information se rattachant à un débat d’intérêt général” figurant à l’article 1er du texte est très imprécise et serait susceptible de concerner un nombre très important de contenus ne relevant à aucun moment du débat électoral.

Il convient donc, pour la rendre opérationnelle, de clarifier le périmètre de cette obligation en ajoutant la notion de « lien avec l’actualité et le débat électoral », tel que l’exposé des motifs de la proposition de loi le recommande explicitement[1]

On retrouve le même problème de précision et la même problématique d’applicabilité s’agissant des statistiques devant être publiées pour chaque contenu mis en ligne par des plateformes “qui recourent à des algorithmes de recommandation, classement ou référencement de contenus d’information se rattachant à un débat d’intérêt général”, à l’article 9 bis B.

L’absence de circonscription de cette disposition conduit à douter de la faisabilité de sa mise en œuvre. Les organisations ont rappelé à plusieurs reprises que des études[2] scientifiques démontrent déjà que la viralité des « fausses nouvelles » est assurée par les internautes eux-mêmes, sans le concours des algorithmes.

Partant du constat de la difficulté de légiférer sur ces sujets et de l’incertaine efficacité des dispositions légales sur ce thème, la Commission européenne prône une approche d’auto-régulation contre la désinformation sur les plateformes en ligne. Un code de bonne pratique va être mis en place afin de garantir une transparence accrue sur les contenus sponsorisés et faciliter, en coopération avec les organismes d’information européens, les mesures permettant d’accroître la visibilité des informations fiables et crédibles. 

De la même façon, en France, un rapport[3] remis au Premier Ministre par le Centre d'analyse, de prévision et de stratégie (Caps) et l'Institut de recherche stratégique de l’Ecole militaire (IRSEM) le 4 septembre sur les risques de manipulation de l’information recommande aux Etats de « conserver une empreinte légère » par rapport aux règlementations proposées avant d’indiquer que « le premier rempart contre les manipulations de l’information, dans une société démocratique et libérale, doit rester la sociétés civile (les journalistes, les médias, les plateformes numériques, les ONG etc..). » 

Enfin, TECH IN France, Syntec Numérique et l’ASIC soutiennent toutes les initiatives de la société civile et des médias qui consistent à repérer sur Internet des informations douteuses et proposer des contres-articles[4], de savoir qui se cache derrière une publicité[5] ou encore de détecter les vidéos trafiquées[6].

L’éducation aux médias est cependant la mesure la plus pertinente et efficace pour lutter à long terme contre ce phénomène.

 Pour toutes ces raisons, les organisations s’interrogent sur l’effectivité de dispositions si imprécises, complexes à articuler avec le droit français et communautaire, et se tiennent à disposition des pouvoirs publics pour travailler à l’élaboration d’un cadre plus efficace de lutte contre les fausses nouvelles.



[1] ”Sont donc en cause les contenus d’information liés à l’actualité, même lorsqu’ils ne se rapportent pas directement au débat électoral, qu’ils fassent ou non l’objet d’un traitement journalistique. En sens inverse, ne sont pas concernés les contenus visant à promouvoir des biens ou des services, tels que ceux publiés sur les plateformes de commerce en ligne.” (http://www.assemblee-nationale.fr/15/propositions/pion0799.asp) 

[4] « Les décodeurs » du Monde https://abonnes.lemonde.fr/verification/?

[5] Le projet « whotarget.me » permet de repérer qui se cache derrière une publicité  https://whotargets.me/en/  

[6] Le projet « InVID » de l’AFP permet de détecter les vidéos trafiquées https://www.afp.com/fr/lagence/medialab/invid