Traduction
C-18/18 - 11
Observations de l’Autriche
Affaire C-18/18 *
Pièce déposée par :
République d’Autriche
Nom usuel de l’affaire :
GLAWISCHNIG-PIESCZEK
Date de dépôt :
18 avril 2018
OBSERVATIONS ÉCRITES DE LA RÉPUBLIQUE D’AUTRICHE
présentées conformément à l’article 23 du protocole sur le statut de la Cour de
justice de l’Union européenne dans
L’AFFAIRE C-18/18
Concernant la demande de décision préjudicielle présentée par l’Oberster
Gerichtshof (Cour suprême, Autriche) (ci-après la « juridiction de renvoi ») par
décision du 25 octobre 2017, la République d’Autriche formule les observations
suivantes :
I. Les questions préjudicielles
1
La juridiction de renvoi a posé à la Cour les questions préjudicielles suivantes sur
l’interprétation du droit de l’Union :
1.
L’article 15, paragraphe 1, de la directive 2000/31/CE du Parlement
européen et du Conseil, du 8 juin 2000, relative à certains aspects juridiques des
services de la société de l’information, et notamment du commerce électronique,
dans le marché intérieur (« directive sur le commerce électronique »)
s’oppose-t-il, d’une manière générale, à ce que l’une des obligations énumérées
ci-après soit imposée à un hébergeur qui n’a pas promptement retiré certaines
informations illicites, à savoir non seulement ces informations illicites
elles-mêmes au sens de l’article 14, paragraphe 1, sous a), de la directive, mais
également d’autres informations identiques :
* Langue de procédure : l’allemand.
FR
AFFAIRE C-18/18 - 11
a.a. au niveau mondial ?
a.b. dans l’État membre concerné ?
a.c. du destinataire concerné du service au niveau mondial ?
a.d. du destinataire concerné du service dans l’État membre concerné ?
2.
En cas de réponse négative à la première question : en va-t-il de même
concernant les informations de contenu équivalent ? [Or. 2]
3.
En va-t-il de même concernant les informations de contenu équivalent dès le
moment où l’exploitant a connaissance de cette circonstance ?
II. Remarques liminaires
2
La République d’Autriche relève en introduction que, pour répondre à la question
préjudicielle, plusieurs droits fondamentaux concurrents doivent être pris en
compte : d’un côté, le droit fondamental à la dignité humaine (article 1er de la
charte des droits fondamentaux de l’Union européenne, ci-après la « charte »)
ainsi que le droit à un recours effectif devant un tribunal (article 47 de la charte),
auxquels sont opposés, d’un autre côté, le droit à la liberté d’expression (article 11
de la charte) et le droit du prestataire à la liberté d’entreprise (article 16 de la
charte).
3
La Cour a déjà précisé que, lorsque plusieurs droits fondamentaux protégés par le
droit de l’Union sont en concurrence, il incombe aux autorités ou à la juridiction
nationale concernée de veiller à assurer un juste équilibre entre ces droits (voir
arrêt de la Cour du 27 mars 2014, UPC Telekabel (kino.to), C-314/12,
EU:C:2014:192, point 46, et du 15 septembre 2016, Mc Fadden, C-484/14,
EU:C:2016:689, point 83). Lors de la mise en œuvre des mesures de transposition
des directives, il incombe aux autorités et aux juridictions des États membres non
seulement d’interpréter leur droit national d’une manière conforme à ces mêmes
directives, mais également de ne pas se fonder sur une interprétation de celles-ci
qui entrerait en conflit avec lesdits droits fondamentaux ou avec les autres
principes généraux du droit de l’Union (voir arrêt du 29 janvier 2008, Promusicae,
C-275/06, EU:C:2008:54, point 68, et du 10 juillet 2015, Coty Germany GmbH,
C-580/13, EU:C:2015:485, point 34).
4
Le rapport de concurrence entre le droit de la personne lésée par le contenu illicite
d’exiger qu’il soit mis un terme à une violation ou que l’on prévienne d’autres
violations, d’une part, et le risque d’un filtrage excessif d’Internet, d’autre part, a
été dûment pris en compte lors de l’adoption de la directive 2000/31/CE relative à
certains aspects juridiques des services de la société de l’information, et
notamment du commerce électronique, dans le marché intérieur (ci-après la
« directive 2000/31 »). Ainsi l’article 14, paragraphe 1, de la directive 2000/31
énonce-t-il un privilège de non-responsabilité pour l’hébergeur, prévoyant que ce
2
GLAWISCHNIG-PIESCZEK
dernier n’est pas responsable des informations stockées à la demande d’un
destinataire du service
[Or. 3] dès lors qu’il n’a pas effectivement connaissance
de l’activité ou de l’information illicites ou que, dès le moment où il a de telles
connaissances, il agit promptement pour retirer les informations ou rendre l’accès
à celles-ci impossible. L’article 14, paragraphe 3, de la directive 2000/31 précise
néanmoins qu’il n’affecte pas la possibilité, pour une juridiction ou une autorité
administrative, conformément aux systèmes juridiques des États membres,
d’exiger du prestataire qu’il mette un terme à une violation ou qu’il prévienne une
violation et n’affecte pas non plus la possibilité, pour les États membres,
d’instaurer des procédures régissant le retrait de ces informations ou les actions
pour en rendre l’accès impossible. Le considérant 45 cite par exemple les
décisions de tribunaux exigeant qu’il soit mis un terme à toute violation ou que
l’on prévienne toute violation, y compris en imposant le retrait des informations
illicites ou en en rendant l’accès impossible.
5
Enfin, l’article 15, paragraphe 1, de la directive 2000/31 prévoit que les États
membres ne doivent pas imposer aux prestataires, pour la fourniture des services
visée aux articles 12, 13 et 14, une obligation générale de surveillance, et que ces
derniers ne doivent pas être tenus de rechercher activement des faits ou des
circonstances révélant des activités illicites. Le considérant 47 de la
directive 2000/31 précise que les États membres ont seulement l’interdiction
d’imposer aux prestataires de services des obligations de surveillance à caractère
général. Cela ne concerne pas les obligations de surveillance applicables à un cas
spécifique ni les décisions des autorités nationales prises conformément à la
législation nationale. Le considérant 48 de la directive 2000/31 ajoute que cette
directive n’affecte en rien la possibilité qu’ont les États membres d’exiger des
prestataires de services qu’ils agissent avec les précautions que l’on peut
raisonnablement attendre d’eux et qui sont définies dans la législation nationale, et
ce afin de détecter et d’empêcher certains types d’activités illicites.
6
En résumé, si la directive 2000/31 s’oppose à une obligation générale de
surveillance imposée aux prestataires de services, elle n’affecte toutefois en rien la
possibilité qu’ont les États membres d’appliquer des obligations de surveillance à
un cas spécifique, et de veiller au retrait d’informations illicites. Cette conclusion
est également confirmée par la jurisprudence de la Cour.
7
Dans son arrêt rendu dans l’affaire C-324/09 (L’Oréal/eBay), qui concernait
l’atteinte aux droits de marque, la Cour a jugé, concernant l’article 11,
paragraphe 3, de la
[Or. 4] directive 2004/48/CE relative au respect des droits de
propriété intellectuelle, qu’il doit être permis aux juridictions nationales de
prendre des mesures qui contribuent de façon effective, non seulement à mettre fin
à l’atteinte portée, mais aussi à prévenir de nouvelles atteintes (voir arrêt de la
Cour du 12 juillet 2011, L’Oréal/eBay, C-324/09, EU:C:2011:474, point 131). À
cet égard, la Cour a indiqué que cette interprétation était corroborée par
l’article 18 de la directive 2000/31. La Cour a toutefois constaté que les mesures
ordonnées doivent également respecter des limites, telles qu’elles résultent
notamment de l’article 15, paragraphe 1, de la directive 2000/31. Ainsi une
3
AFFAIRE C-18/18 - 11
mesure ne peut-elle pas consister en une surveillance active, par le prestataire du
service, de l’ensemble des données de chacun de ses clients afin de prévenir toute
atteinte future (voir arrêt de la Cour L’Oréal/eBay précité, EU:C:2011:474,
point 139).
8
Dans son arrêt rendu dans l’affaire C-360/10, SABAM/Netlog, la Cour a précisé,
dans le contexte d’atteintes aux droits d’auteur, que l’obligation de mettre en place
un système de filtrage exhaustif en vue de repérer d’abord, parmi l’ensemble des
données stockées sur les serveurs par les utilisateurs (ou « destinataires du
service » au sens de la directive 2000/31), celles qui pourraient contenir des
œuvres protégées par le droit d’auteur, puis d’identifier celles d’entre elles qui ont
été stockées de manière illicite et mises à disposition du public et enfin, de les
bloquer, aboutirait à une surveillance générale qui est interdite par l’article 15,
paragraphe 1, de la directive 2000/31 (arrêts du 16 février 2012, SABAM/Netlog,
C-360/10, EU:C:2012:85, point 38, et du 24 novembre 2011, Scarlet Extended,
C-70/10, EU:C:2011:771, point 40).
9
Dans ses arrêts rendus dans les affaires C-360/10, SABAM/Netlog, et C-70/10,
Scarlet Extended, la Cour a respectivement mis en balance le droit fondamental à
la propriété intellectuelle prévu par l’article 17, paragraphe 2, de la charte, et le
droit fondamental à la liberté d’entreprise visé à l’article 16 de la charte. Elle a
jugé que l’obligation de mettre en place un tel système de filtrage devait être
considérée comme ne respectant pas l’exigence que soit assuré un juste équilibre,
et qu’elle serait imposée au détriment de la liberté d’entreprise (arrêt
SABAM/Netlog, précité, EU:C:2012:85, point [4]7, avec une référence à l’arrêt
Scarlet Extended, précité, EU:C:2011:771, point 49). La Cour a ajouté que les
droits fondamentaux des utilisateurs, à savoir leur droit à la protection des
données à caractère personnel ainsi que leur liberté de recevoir ou de
communiquer des informations devaient également être pris en compte.
[Or. 5]
10 Dans son arrêt 6 Ob 178/04a, l’Oberster Gerichtshof (Cour suprême) a jugé que
l’article 18, paragraphe 1, de la loi autrichienne sur le commerce électronique,
BGBl I no 152/2001, qui met en œuvre l’article 15 de la directive 2000/31,
n’exclut pas l’existence d’une obligation particulière de contrôle d’un hébergeur
lorsque les circonstances le justifient. Il a relevé qu’une telle obligation de
contrôle était liée à la concurrence entre les droits à la liberté d’expression, d’un
côté, et à la préservation de l’honneur ainsi que de la réputation économique, d’un
autre côté, lorsqu’au moins une violation avait déjà été notifiée et que le risque
d’autres violations par certains utilisateurs était donc avéré.
11 Dans sa décision du 11 mars 2004, I ZR 304/01, « Internetversteigerung I »
(« Vente aux enchères d’Internet I »), le Bundesgerichtshof (Cour fédérale de
justice, Allemagne) a jugé que, si l’on ne peut pas raisonnablement demander aux
exploitants d’une plateforme de ventes aux enchères étrangères d’examiner
chaque offre avant leur publication sur Internet en vue d’identifier une éventuelle
violation, ils sont toutefois tenus, lorsque des titulaires de droits leur notifient une
4
GLAWISCHNIG-PIESCZEK
violation, non seulement de bloquer promptement l’offre en particulier, mais
également de veiller à ce qu’aucune autre violation de ce genre ne soit commise.
12 En résumé, on constate que l’on ne peut imposer aucune obligation générale de
surveillance et de contrôle à un hébergeur tant qu’il n’a pas connaissance d’une
violation. Toutefois, il convient, en cas de violation, de prendre des mesures pour
mettre un terme à cette violation en particulier ainsi que pour prévenir d’autres
violations. Cela peut donc entraîner un accroissement autorisé des obligations de
l’hébergeur. La portée de ces obligations s’apprécie, dans chaque cas, au regard
d’une mise en balance des droits fondamentaux concernés.
III. Analyse juridique
Concernant les questions 1.a.c. et 1.a.d.
13 Par les questions 1.a.c. et 1.a.d., la juridiction de renvoi souhaite savoir, en
substance, si l’article 15, paragraphe 1, de la directive 2000/31 permet d’obliger
un hébergeur qui
[Or. 6] n’a pas promptement retiré des informations illicites à
retirer des informations identiques émanant du destinataire concerné du service au
niveau mondial ou dans l’État membre concerné.
14 Comme cela est indiqué au point 4, l’article 14, paragraphe 3, de la
directive 2000/31 n’affecte pas la possibilité, pour une juridiction ou une autorité
administrative d’exiger du prestataire « qu’il mette un terme à une violation ou
qu’il prévienne une violation ». À cet égard, l’expression « qu’il prévienne »
montre clairement que l’article 14, paragraphe 3, de la directive 2000/31
n’envisage pas seulement l’élimination d’une violation concrète qui a été notifiée,
mais également la prévention de violations non encore commises.
15 On peut en conclure, a fortiori, que le tribunal doit également pouvoir ordonner le
retrait d’autres violations déjà commises, pour autant que les mesures
correspondantes ne constituent pas une obligation générale de surveillance au sens
de l’article 15, paragraphe 1, de la directive 2000/31.
16 Cette interprétation est étayée par l’article 18, paragraphe 1, de la
directive 2000/31, qui oblige les États membres à veiller à ce que les recours
juridictionnels disponibles dans le droit national portant sur les activités des
services de la société de l’information permettent l’adoption de mesures « visant à
mettre un terme à toute violation alléguée et à prévenir toute nouvelle atteinte aux
intérêts concernés ». Par conséquent, dans son arrêt C-324/09, L’Oréal/eBay, la
Cour a jugé qu’il doit être permis aux juridictions nationales de prendre des
mesures qui contribuent de façon effective, non seulement à mettre fin à l’atteinte
portée, mais aussi à prévenir de nouvelles atteintes (voir arrêt de la Cour
L’Oréal/eBay précité, EU:C:2011:474, point 131 ; voir, à cet égard, les remarques
formulées ci-dessus au point 6).
5
AFFAIRE C-18/18 - 11
17 De ce point de vue, peu importe, selon la République d’Autriche, que le
destinataire concerné du service ait déjà diffusé à plusieurs reprises les
informations identiques ou qu’il ne le fasse qu’à l’avenir.
18 Cette conclusion est également conforme à l’article 15, paragraphe 1, de la
directive 2000/31. En effet, comme cela a été indiqué ci-dessus en faisant
référence au considérant 47, celui-ci ne s’oppose pas à une surveillance dans des
cas spécifiques (voir titre II, point 6). En outre, l’obligation de
[Or. 7] retirer des
informations identiques émanant d’un utilisateur ne constitue pas non plus une
surveillance de l’ensemble des données de tous les utilisateurs, mais concerne
seulement un utilisateur spécifique en raison d’une violation concrètement
identifiée, étant précisé que la violation est tout aussi évidente en ce qui concerne
les informations identiques. L’obligation de retrait des informations identiques ne
constitue donc pas – s’agissant en tout cas de l’État membre concerné – une
obligation générale de surveillance au sens de l’article 15, paragraphe 1, de la
directive 2000/31.
19 À cet égard, l’obligation de retirer les informations identiques émanant du même
utilisateur ne constitue normalement pas non plus une atteinte excessive au droit
de l’hébergeur à la liberté d’entreprise visé à l’article 16 de la charte.
20 Dans son arrêt C-314/12, UPC Telekabel, la Cour a relevé que le droit à la liberté
d’entreprise comprend notamment le droit, pour toute entreprise, de pouvoir
librement disposer, dans les limites de la responsabilité qu’elle encourt pour ses
propres actes, des ressources économiques, techniques et financières dont elle
dispose (voir arrêt de la Cour, UPC Telekabel, précité, EU:C:2014:192, point 49).
Les injonctions imposant au fournisseur d’accès l’adoption de certaines mesures
limitent certes ce droit, mais sont licites lorsqu’elles ne l’obligent pas à faire des
sacrifices insupportables. Dans l’arrêt UPC Telekabel précité, la Cour examinait
une injonction qui interdisait au fournisseur d’accès d’autoriser à son client
l’accès à un site Internet sur lequel des objets protégés avaient été mis à la
disposition du public sans l’autorisation du titulaire de droits. Cependant,
l’injonction ne spécifiait pas quelles mesures le fournisseur d’accès devait
adopter. Ce dernier devait seulement prouver qu’il avait pris toutes les mesures
raisonnables. Si la Cour a considéré, dans cette affaire, que cela entravait le droit à
la liberté d’entreprise, elle a toutefois jugé que l’injonction ne portait pas atteinte à
la substance même de ce droit. D’une part, l’injonction laisserait en effet à son
destinataire le soin de déterminer les mesures concrètes à prendre pour atteindre le
résultat visé de sorte que celui-ci puisse choisir de mettre en place des mesures qui
soient les mieux adaptées aux ressources et aux capacités dont il dispose et qui
soient compatibles avec les autres obligations et défis auxquels il doit faire face
dans l’exercice de son activité. D’autre part, l’injonction permettrait au
fournisseur d’accès de s’exonérer de sa responsabilité en prouvant qu’il a pris
toutes les mesures raisonnables
[Or. 8] (voir arrêt de la Cour, UPC Telekabel,
précité, EU:C:2014:192, points 51 et suivants). Une obligation de cesser la
publication et la diffusion (ultérieure), telle que prévue par l’article 78 de
6
GLAWISCHNIG-PIESCZEK
l’Urheberrechtsgesetz (loi autrichienne relative au droit d’auteur), satisferait ces
exigences.
21 En outre, l’exploitant d’un réseau social tel que celui en cause dans l’affaire au
principal connaît à la fois l’utilisateur et l’information en cause, de sorte qu’il peut
régulièrement et facilement identifier des répétitions à l’identique de messages
sans supporter de charges économiques et techniques excessives. C’est à la
juridiction nationale qu’il appartient d’apprécier ces possibilités au cas particulier.
Enfin, la République d’Autriche relève qu’il n’est pas non plus nécessaire, dans
ces cas-là, que le juge national apprécie de surcroît s’il s’agit d’une information
illicite, puisque cela avait déjà été établi dans le cadre de la procédure au principal
qui concernait un message identique.
22 Une obligation de retirer des informations identiques au niveau mondial doit aussi
se mesurer à l’aune du caractère raisonnable, lequel doit, en principe, être
également apprécié par la juridiction nationale. Cependant, une obligation
imposée au niveau mondial ne créera pas, normalement, d’obstacles techniques
insurmontables et sera donc proportionnée. Toutefois, cela ne peut concerner que
des violations qui ont été commises à l’intérieur de la sphère d’influence du
prestataire. Ce dernier ne peut pas être contraint de retirer des informations
constitutives de violations qui ont été publiées sur des sites Internet de tiers.
Concernant les questions 1.a.a. et 1.a.b
23 Par les questions 1.a.a. et 1.a.b., la juridiction de renvoi souhaite savoir, en
substance, si l’hébergeur peut être obligé à retirer des informations identiques
émanant d’autres destinataires du service.
24 Selon la République d’Autriche, le fait qu’un destinataire tiers du service utilise
des informations identiques sur un réseau social en « partageant » l’information
illicite d’un autre destinataire du service constitue aussi une violation, pour la
cessation de laquelle les juridictions nationales peuvent prendre des mesures au
sens de l’article 14, paragraphe 3, et de l’article 18, paragraphe 1, de la
directive 2000/31. En effet,
[Or. 9] une cessation effective de la violation
(initiale) ne peut survenir que si tous les « messages postés » renvoyant à
l’information illicite sont également retirés, a fortiori lorsque le prestataire
favorise précisément la diffusion des informations par d’autres utilisateurs grâce à
la fonction de « partage ». Le fait de retirer l’information initiale alors que les
contenus diffusés sur la base de cette information continueraient à exister ne
servirait pas vraiment les intérêts de la personne lésée.
25 Par ailleurs, il n’est généralement pas difficile techniquement d’identifier ces
contenus « partagés » puisqu’ils sont liés à l’information illicite initiale. Dès lors,
l’injonction ordonnant de retirer aussi ces informations ne constituera pas non
plus, en principe, une atteinte excessive au droit de l’hébergeur à la liberté
d’entreprise visée à l’article 16 de la charte. En outre, dans le cas d’informations
identiques, il n’y a pas non plus lieu de déterminer s’il s’agit d’informations
7
AFFAIRE C-18/18 - 11
manifestement illicites, car cette appréciation a déjà été effectuée au sujet de
l’information initiale. Il peut évidemment aussi exister des situations dans
lesquelles le retrait d’un contenu partagé est juridiquement ou techniquement
impossible, ce que l’on doit pouvoir opposer au fournisseur d’accès. Concernant
la question de savoir si cela doit se faire au niveau mondial ou uniquement dans
l’État membre concerné, la République d’Autriche renvoie aux observations
formulées au point 22.
Concernant la deuxième question
26 Par sa deuxième question, la juridiction de renvoi souhaite savoir si l’obligation
de retrait d’informations peut aussi concerner des informations de contenu
équivalent.
27 Dans les arrêts précités SABAM/Netlog (C-360/10) et Scarlet/SABAM (C-70/10),
la Cour a jugé qu’un système de filtrage exhaustif était contraire à l’article 15,
paragraphe 1, de la directive 2000/31 (voir ci-dessus points 7 et suivants). Pour
apprécier si une injonction de retirer des informations de contenu équivalent au
sens de cette jurisprudence est contraire à l’article 15, paragraphe 1, de la
directive 2000/31, il convient d’abord de déterminer si un système (de filtrage)
similaire serait nécessaire pour cela et quels efforts techniques l’exploitation d’un
tel système
[Or. 10] impliquerait. Il conviendrait ensuite d’analyser si la personne
dont les droits de la personnalité ont été violés dispose d’autres possibilités de
mettre un terme aux violations.
28 Conformément à la jurisprudence de la Cour européenne des droits de l’homme,
les éléments spécifiques pertinents pour apprécier la liberté d’expression du
fournisseur d’accès à Internet dans le cadre de la mise en balance entre le droit au
respect de la vie privée, visé à l’article 8 CEDH, et le droit à la liberté
d’expression, reconnu par l’article 10 CEDH, sont les suivants : le contexte des
commentaires, les mesures appliquées par le fournisseur d’accès pour empêcher la
publication de commentaires diffamatoires ou retirer ceux déjà publiés, la
possibilité alternative que les auteurs des commentaires soient tenus pour
responsables, et les conséquences de la procédure interne pour le fournisseur
d’accès (voir arrêts de la Cour EDH du 2 février 2016, Magyar
Tartalomszolgáltatók Egyesülete et Index.hu Zrt c. Hongrie, requête no 22947/13,
point 69, et du 7 février 2017, Pihl c. Suède, requête no 74742/14, points 28 et
suivants). Enfin, il ne faut pas négliger le risque que l’appréciation de la question
de savoir s’il s’agit d’informations « de contenu équivalent » entraîne aussi le
retrait de contenus licites, ce qui pourrait avoir des conséquences négatives sur la
liberté d’expression.
29 Selon la République d’Autriche, il convient donc de mettre en balance les droits
fondamentaux des personnes lésées à la dignité humaine et à un recours effectif
devant un tribunal (article 47 de la charte), d’un côté, et le droit à la liberté
d’expression (article 11 de la charte) ainsi que le droit à la liberté d’entreprise
(article 16 de la charte), d’un autre côté. À cet égard, il convient de déterminer si
8
GLAWISCHNIG-PIESCZEK
la personne lésée dispose d’autres possibilités de poursuites judiciaires,
notamment à l’encontre des auteurs des contenus illicites, quelles charges le retrait
de l’information représente pour le prestataire, et s’il existe un risque de retirer
aussi des contenus licites.
Concernant la troisième question
30 Par sa troisième question, la juridiction de renvoi souhaite enfin savoir si
l’obligation du prestataire d’effacer aussi les informations de contenu équivalent
dès le moment où il en a connaissance est contraire à l’article 15, paragraphe 1, de
la directive 2000/31. Selon la République d’Autriche, une obligation de retrait est
conforme à l’article 14, paragraphe 3, de la
[Or. 11] directive 2000/31 si les
informations équivalentes constituent un contenu dont l’illicéité est manifeste
indépendamment de l’affaire au principal. Une obligation générale de procéder à
des recherches ne peut pas non plus être imposée au prestataire dans ces cas-là.
IV. Proposition de réponse aux questions préjudicielles
31 Dès lors, la République d’Autriche propose de répondre comme suit aux questions
préjudicielles posées par la juridiction de renvoi :
1.
L’article 15, paragraphe 1, de la directive 2000/31/CE du Parlement
européen et du Conseil, du 8 juin 2000, relative à certains aspects juridiques des
services de la société de l’information, et notamment du commerce électronique,
dans le marché intérieur (« directive sur le commerce électronique ») ne s’oppose
pas à ce qu’un hébergeur qui n’a pas promptement retiré certaines informations
illicites soit obligé de retirer des informations identiques émanant du destinataire
concerné du service ainsi que des informations identiques émanant de ce
destinataire et qui ont ensuite été diffusées par d’autres destinataires du service.
À cet égard, la question déterminante n’est pas de savoir dans quels pays
l’information peut être consultée, mais si l’information se trouve dans la sphère
d’influence technique du prestataire.
Si des informations identiques avaient également été émises par d’autres
destinataires du service, ou si des informations de contenu équivalent avaient été
émises, il conviendrait de mettre en balance les droits fondamentaux des
personnes lésées à la dignité humaine et à un recours effectif devant un tribunal
(article 47 de la charte), d’un côté, et la liberté d’expression (article 11 de la
charte) ainsi que le droit à la liberté d’entreprise (article 16 de la charte), d’un
autre côté. À cet égard, il convient de déterminer si la personne lésée dispose
d’autres possibilités de poursuites judiciaires, notamment à l’encontre des auteurs
des contenus illicites, quelles charges ces retraits représentent pour le prestataire,
et s’il existe un risque de retirer aussi des contenus licites.
9
AFFAIRE C-18/18 - 11
2.
Dès le moment où l’exploitant a connaissance d’informations de contenu
équivalent qui sont aussi manifestement illicites, une obligation de retrait n’est
pas contraire à l’article 15, paragraphe 1, de la directive 2000/31.
Vienne le 18 avril 2018
Pour la République d’Autriche
Gerhard HESSE
10