La suppression d’un commentaire Instagram par la SSR
ATF 149 I 2 | TF, 29.11.2022, 2C_1023/2021*
Lorsque la SSR supprime un commentaire publié par une utilisatrice en réponse à un contenu rédactionnel, l’Autorité indépendante d’examen des plaintes en matière de radio-télévision (AIEP) est compétente pour examiner la conformité de la mesure avec la liberté d’expression.
Faits
En août 2021 SRF News publie un post Instagram relatant la décision de l’Allemagne de ne plus couvrir les coûts pour les tests Covid. En réaction à ce post, une utilisatrice publie le commentaire suivant : « Ils devraient introduire cela en Suisse également. Je n’ai pas besoin d’aller dans un bar ou faire autre chose. Je peux aussi danser dans la rue et préparer mes propres boissons, et n’ai pas besoin de vacances à l’étranger. Jusqu’à présent, je me suis bien débrouillée sans faire de test ou de vaccination » (traduction libre de l’allemand). La rédaction de SRF News efface ce commentaire quelques heures plus tard au motif qu’il viole les règles d’utilisation applicable appelées « Netiquette ». L’Ombudsman SRG Deutschschweiz et l’Autorité indépendante d’examen des plaintes en matière de radio-télévision (AIEP) refusent de traiter la plainte de l’utilisatrice en se déclarant incompétents.
L’utilisatrice saisit le Tribunal fédéral d’un recours en matière de droit public en demandant principalement que son commentaire soit publié. Se pose en particulier la question de savoir si l’accès au juge doit être garanti dans ce cas et, cas échéant, quelle autorité est compétente.
Droit
L’utilisatrice soutient que la suppression de son commentaire constitue une restriction à sa liberté d’expression et se prévaut de la garantie de l’accès au juge prévue par l’art. 29a Cst. pour demander que sa plainte soit traitée par une autorité judiciaire.
La liberté d’expression garantit à toute personne le droit de former et d’exprimer librement son opinion (art. 16 al. 2 Cst.). En tant que droit fondamental, elle doit être réalisée dans l’ensemble de l’ordre juridique (art. 35 al. 1 Cst.). De plus, les institutions assumant une tâche publique, telle que la SSR, sont tenues de respecter les droits fondamentaux et de contribuer à leur réalisation (art. 35 al. 2 Cst.). L’art. 29a Cst. ainsi que l’art. 13 CEDH garantissent quant à eux à toute personne le droit de faire examiner sa cause par une autorité judiciaire avec plein pouvoir de cognition en fait et en droit. Ces dispositions étendent donc le contrôle judiciaire en principe à toutes contestations juridiques.
La publication de contributions sur les réseaux sociaux fait partie des « autres services journalistiques » offerts par la SSR, dans le contexte desquels la SSR est liée par les exigences de contenu relatives aux programmes (art. 25 al. 3 let. b cum art. 5a LRTV). La possibilité de commenter les contributions sur les réseaux sociaux est étroitement liée au mandat public concédé à la SSR et sert le débat public. Le Tribunal fédéral observe qu’en soi la SSR n’est pas tenue de par la loi à offrir en dehors de ses programmes des possibilités d’échanges d’opinions telles que le permettent ses pages sur les réseaux sociaux. Toutefois, lorsqu’elle offre cette possibilité, la SSR est liée par les droits fondamentaux lors de la modération de contenus publiés par les utilisateurs.
S’agissant plus spécifiquement de la liberté d’expression, le Tribunal fédéral se réfère aux principes applicables en matière de publicité. Des contenus publicitaires ne peuvent être refusés qu’en présence de motifs importants tels que la violation d’intérêts prépondérants de tiers. La SSR peut notamment refuser des contenus publicitaires, et donc restreindre la liberté d’expression des entités effectuant la publicité, lorsque les contenus ont un caractère discriminatoire, incitent à la haine, mettent en danger les mœurs, ou encore déprécient les croyances religieuses ou les opinions politiques. Sur cette base le Tribunal fédéral retient que la suppression d’un commentaire publié sur Instagram constitue une atteinte à la liberté d’expression qui doit pouvoir faire l’objet d’un contrôle judiciaire conforme à l’art. 29a Cst.
S’agissant de la voie de droit applicable, l’OFCOM et l’AIEP ne s’estiment pas compétents en particulier en raison du fait que le contenu litigieux n’est pas produit par la SSR, mais par une utilisatrice. Le Tribunal fédéral contredit ce point de vue et considère que les voies (générales) civile (protection de la personnalité, art. 28 ss CC) et pénale (infractions contre l’honneur) prévues par le législateur ne répondent pas aux exigences de l’accès au juge notamment en raison de l’absence d’examen quant à la légitimité de l’atteinte à la liberté d’expression. Il en va de même s’agissant des procédures de surveillance menées par l’OFCOM dès lors que les plaignants éventuels n’ont pas la qualité de partie dans ces procédures. Ainsi, la voie de droit applicable est la plainte auprès de l’AIEP, à l’instar de ce qui vaut lorsqu’il en va du contenu des « publications rédactionnelles » et en cas de refus d’accès aux « au programme ou aux autres services journalistiques de la SSR » (lesquels comprennent la publicité, cf. art. 83 al. 1 let. a LRTV). Le Tribunal fédéral interprète ainsi la notion de « publication rédactionnelle » prévue à l’art. 2 lit. cbis LRTV de façon conforme à la constitution et au but de la loi.
Pour ces raisons l’AIEP est compétente pour connaître du litige en tant qu’instance précédant le Tribunal fédéral (art. 86 al. 1 let. c LTF). Dans son analyse, l’AIEP devra appliquer les principes jurisprudentiels développés en matière de publicité et examiner si la restriction du droit à la liberté d’expression est justifiée par des motifs pertinents en application de la « Netiquette » édictée par la SSR.
Note
Cet arrêt représente à notre connaissance une première pour ce qui est des principes applicables à la modération de contenus sur les réseaux sociaux. La récente nouvelle du dépôt d’une action de la part du Credit Suisse à l’encontre du blog Inside Paradeplatz est symptomatique de l’importance du thème.
La problématique abordée dans l’arrêt est très ciblée et concerne exclusivement la question de la voie de droit applicable lorsque la SSR modère les contenus publiés sur ses pages. L’AIEP devra désormais connaître des plaintes utilisateurs mécontents de la suppression de leurs commentaires publiés sur les réseaux sociaux de la SSR, voire sur le site de la SSR, ou plus généralement privés de la possibilité d’accéder aux pages de la SSR ou de commenter sur celles-ci suite au blocage de leur compte SSR. Le Tribunal fédéral mentionne au passage que cette tâche n’impliquera qu’une charge de travail limitée. Nous émettons quelques doutes à cet égard compte tenu de la quantité de contenus publiés et de la vivacité des échanges que certains articles suscitent. Par ailleurs, les décisions à prendre en la matière sont souvent très délicates.
La SSR connaît deux types de Netiquette. L’une s’applique à tout « user generated content » (UGC) publié directement sur le site de la SSR, lorsque l’option « commenter » est ouverte (ce qui n’est pas toujours le cas). L’autre est spécifique à tout UGC publié sur les réseaux sociaux de la SSR. Dans cette dernière la SSR réserve le droit d’effacer tout commentaire ou de bloquer l’accès aux pages SSR lorsque les contenus suivants sont publiés (en traduction libre de l’allemand) :
- Attaques personnelles de toute nature, les insultes ou les provocations ciblées, y compris sous forme d’emojis
- Discrimination de toute sorte, par exemple en raison de la religion, de la nationalité, de la couleur de peau, de l’orientation sexuelle, de l’opinion politique, de l’âge ou du sexe
- Contenus faisant l’apologie de la violence ou de la pornographie
- Contenus illégaux
- Commentaires dans d’autres langues (à l’exception des langues nationales italien et français et de l’anglais)
- Publicité commerciale ou propagande politique
- Commentaires contenant exclusivement un lien
- Liens externes qui contreviennent à cette nétiquette
- Contenus qui n’ont aucun rapport avec le thème concerné
- Généralisations, insinuations ou affirmations qui ne peuvent pas être vérifiées.
Le 7 juin 2022 l’OFCOM a publié un rapport examinant la pratique de la SSR en lien avec la modération d’UGC publié sur le site internet de la SSR. La modération d’UGC publié sur les réseaux sociaux n’a en revanche pas (encore) fait l’objet d’une revue par l’OFCOM. Le rapport mentionne que la SSR revoit tous les contenus publiés par les utilisateurs manuellement, par ses employés, et n’emploie aucun processus technique ou outil d’intelligence artificielle pour la revue. L’OFCOM a toutefois émis les recommandations suivantes :
- Informer systématiquement les utilisateurs lorsque des commentaires ont été effacés ou n’ont pas été publié ;
- À tout le moins sur demande fournir à l’utilisateur concerné les raisons d’une telle mesure ;
- Lorsqu’un utilisateur est bloqué, il devrait être automatiquement informé de la durée de la mesure.
Sur le plan international, les législateurs de l’Union Européen et de plusieurs Etats américains, dont en particulier la Californie, le Texas et la Floride ont reconnu le besoin d’intervenir en exigeant des « big tech » exploitant les réseaux sociaux mondialement connus la publication de rapports détaillés sur leurs pratiques en matière de modération de UGC et des données statistiques à cet égard (dans le jargon anglais on parle de compelled editorial transparency). Au Texas et en Floride, la constitutionalité des lois fait l’objet de procédures judiciaires qui pourraient être décidés par la Supreme Court prochainement (NetChoice, LLC v. Paxton et NetChoice v. Att’y Gen.). Dans ces cas, l’une des questions centrales est de savoir si les lois respectent la liberté d’expression garantie par le First Amendment. L’argument utilisé pour questionner la constitutionalité de ces lois consiste à dire qu’imposer des exigences de transparence aurait forcément un chilling effect sur les contenus publiés en ce sens que les exploitants de plateformes censureraient davantage de contenu par peur d’être tenus pour responsables à l’égard de tiers. Pour un aperçu de la situation aux Etats-Unis, nous recommandons le blog du Prof. Eric Goldman.
Un troisième cas concernant la responsabilité des exploitants de plateforme en matière de UGC a été porté devant la Supreme Court récemment. Dans cette affaire Gonzales v. Google LLC, une des victimes des attenants de Paris de 2015 reproche à Google d’avoir indirectement promu le Groupe d’Etat islamique en omettant d’effacer certains contenus YouTube. L’importance de ce cas est considérable et déterminera le champ d’application d’une disposition qui jusqu’à présent a permis aux exploitants de plateformes d’échapper toute responsabilité dans ce domaine, § 230 du 1996 Communications Decency Act.
En Europe, le Digital Services Act, entré en vigueur le 16 novembre 2022, prévoit des obligations du même type que celles contenues dans les lois édictées par certains états américains. Dans un premier temps, d’ici au 17 février 2023 les plateformes doivent communiquer à la Commission la nombre d’utilisateurs actifs. C’est sur cette base que la Commission déterminera ensuite la catégorie de règle applicable, à la suite de quoi les plateformes auront quatre mois pour se conformer aux nouvelles dispositions.
Finalement, en Suisse, le Conseil fédéral a chargé l’OFCOM de lui présenter une « note de discussion » avant fin 2022. Dans ce contexte, plusieurs rapports ont été publiés par des experts. Dans un rapport intermédiaire du 17 novembre 2021, le Conseil fédéral ne reconnaissait pas de besoin de légiférer en matière de plateformes de communication. Néanmoins, le Conseil fédéral mentionnait que « [l]es utilisateurs n’ont aucun droit ou n’ont que des droits insuffisants vis-à-vis des plateformes, ne peuvent pas ou insuffisamment se défendre contre des décisions de suppression de contenus, par exemple, et ne savent pas sur la base de quels critères ils peuvent voir quels contenus », sous-entendant que la protection de la personnalité garantie sur le plan civil et par les infractions contre l’honneur sur le plan pénal offrent une protection insuffisante. Le Conseil fédéral souhaitait « une large discussion sur la question l’implication sociale et de la gouvernance des intermédiaires est nécessaire en Suisse ». Il reste donc à voir comment ce débat évoluera, tout en gardant à l’esprit qu’il est difficilement imaginable de s’écarter des tendances internationales lorsqu’il s’agit de légiférer dans un domaine tel qu’Internet. Pour des réflexions approfondies sur le système suisse de lege lata, nous recommandons la lecture de la thèse de doctorat de Julien Francey, La responsabilité civile des fournisseurs d’hébergement et d’accès sur Internet, Zurich 2017.
Proposition de citation : Simone Schürch, La suppression d’un commentaire Instagram par la SSR, in: https://lawinside.ch/1266/
Trackbacks (rétroliens) & Pingbacks
[…] sujet des exigences de l’art. 29a Cst. voir ATF 149 I 2, consid. 2.1 et 3.2.2 résumé in : LawInside.ch/1266/). Il n’en résulte ainsi aucune violation de l’art. 29a Cst. Ce raisonnement nous paraît […]
Les commentaires sont désactivés.