로고

REGULATION (EU) 2022/2065 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act) 디지털서비스 단일 시장 및 지침 제2000/31/EC호의 개정에 관한 2022년 10월 19일 유럽의회 및 이사회 규정(EU) 제2022/2065 호(디지털서비스법)

THE EUROPEAN PARLIAMENT AND THE COUNCIL OF THE EUROPEAN UNION, Having regard to the Treaty on the Functioning of the European Union, and in particular Article 114 thereof, Having regard to the proposal from the European Commission, After transmission of the draft legislative act to the national parliaments, Having regard to the opinion of the European Economic and Social Committee, Having regard to the opinion of the Committee of the Regions, Acting in accordance with the ordinary legislative procedure, 유럽의회 및 유럽연합 이사회는 유럽연합의 기능에 관한 조약, 특히 해당 조약 제 114조와 유럽집행위원회의 제안을 고려하고 입법안을 각국 의회에 전달한 후 유럽경제사회위원회의 의견과 지역위원회의 의견을 고려하며 일반입법절차에 따라 진행하였다.

Whereas:

(1) Information society services and especially intermediary services have become an important part of the Union’s economy and the daily life of Union citizens. Twenty years after the adoption of the existing legal framework applicable to such services laid down in Directive 2000/31/EC of the European Parliament and of the Council, new and innovative business models and services, such as online social networks and online platforms allowing consumers to conclude distance contracts with traders, have allowed business users and consumers to impart and access information and engage in transactions in novel ways. A majority of Union citizens now uses those services on a daily basis. However, the digital transformation and increased use of those services has also resulted in new risks and challenges for individual recipients of the relevant service, companies and society as a whole.

(2) Member States are increasingly introducing, or are considering introducing, national laws on the matters covered by this Regulation, imposing, in particular, diligence requirements for providers of intermediary services as regards the way they should tackle illegal content, online disinformation or other societal risks. Those diverging national laws negatively affect the internal market, which, pursuant to Article 26 of the Treaty on the Functioning of the European Union (TFEU), comprises an area without internal frontiers in which the free movement of goods and services and freedom of establishment are ensured, taking into account the inherently cross-border nature of the internet, which is generally used to provide those services. The conditions for the provision of intermediary services across the internal market should be harmonised, so as to provide businesses with access to new markets and opportunities to exploit the benefits of the internal market, while allowing consumers and other recipients of the services to have increased choice. Business users, consumers and other users are considered to be ‘recipients of the service’ for the purpose of this Regulation.

(3) Responsible and diligent behaviour by providers of intermediary services is essential for a safe, predictable and trustworthy online environment and for allowing Union citizens and other persons to exercise their fundamental rights guaranteed in the Charter of Fundamental Rights of the European Union (the ‘Charter’), in particular the freedom of expression and of information, the freedom to conduct a business, the right to non-discrimination and the attainment of a high level of consumer protection.

(4) Therefore, in order to safeguard and improve the functioning of the internal market, a targeted set of uniform, effective and proportionate mandatory rules should be established at Union level. This Regulation provides the conditions for innovative digital services to emerge and to scale up in the internal market. The approximation of national regulatory measures at Union level concerning the requirements for providers of intermediary services is necessary to avoid and put an end to fragmentation of the internal market and to ensure legal certainty, thus reducing uncertainty for developers and fostering interoperability. By using requirements that are technology neutral, innovation should not be hampered but instead be stimulated.

(5) This Regulation should apply to providers of certain information society services as defined in Directive (EU) 2015/1535 of the European Parliament and of the Council, that is, any service normally provided for remuneration, at a distance, by electronic means and at the individual request of a recipient. Specifically, this Regulation should apply to providers of intermediary services, and in particular intermediary services consisting of services known as ‘mere conduit’, ‘caching’ and ‘hosting’ services, given that the exponential growth of the use made of those services, mainly for legitimate and socially beneficial purposes of all kinds, has also increased their role in the intermediation and spread of unlawful or otherwise harmful information and activities.

(6) In practice, certain providers of intermediary services intermediate in relation to services that may or may not be provided by electronic means, such as remote information technology services, transport, accommodation or delivery services. This Regulation should apply only to intermediary services and not affect requirements set out in Union or national law relating to products or services intermediated through intermediary services, including in situations where the intermediary service constitutes an integral part of another service which is not an intermediary service as recognised in the case-law of the Court of Justice of the European Union.

(7) In order to ensure the effectiveness of the rules laid down in this Regulation and a level playing field within the internal market, those rules should apply to providers of intermediary services irrespective of their place of establishment or their location, in so far as they offer services in the Union, as evidenced by a substantial connection to the Union.

(8) Such a substantial connection to the Union should be considered to exist where the service provider has an establishment in the Union or, in the absence of such an establishment, where the number of recipients of the service in one or more Member States is significant in relation to the population thereof, or on the basis of the targeting of activities towards one or more Member States. The targeting of activities towards one or more Member States can be determined on the basis of all relevant circumstances, including factors such as the use of a language or a currency generally used in that Member State, or the possibility of ordering products or services, or the use of a relevant top-level domain. The targeting of activities towards a Member State could also be derived from the availability of an application in the relevant national application store, from the provision of local advertising or advertising in a language used in that Member State, or from the handling of customer relations such as by providing customer service in a language generally used in that Member State. A substantial connection should also be assumed where a service provider directs its activities to one or more Member States within the meaning of Article 17(1), point (c), of Regulation (EU) No 1215/2012 of the European Parliament and of the Council. In contrast, mere technical accessibility of a website from the Union cannot, on that ground alone, be considered as establishing a substantial connection to the Union.

(9) This Regulation fully harmonises the rules applicable to intermediary services in the internal market with the objective of ensuring a safe, predictable and trusted online environment, addressing the dissemination of illegal content online and the societal risks that the dissemination of disinformation or other content may generate, and within which fundamental rights enshrined in the Charter are effectively protected and innovation is facilitated. Accordingly, Member States should not adopt or maintain additional national requirements relating to the matters falling within the scope of this Regulation, unless explicitly provided for in this Regulation, since this would affect the direct and uniform application of the fully harmonised rules applicable to providers of intermediary services in accordance with the objectives of this Regulation. This should not preclude the possibility of applying other national legislation applicable to providers of intermediary services, in compliance with Union law, including Directive 2000/31/EC, in particular its Article 3, where the provisions of national law pursue other legitimate public interest objectives than those pursued by this Regulation.

(10) This Regulation should be without prejudice to other acts of Union law regulating the provision of information society services in general, regulating other aspects of the provision of intermediary services in the internal market or specifying and complementing the harmonised rules set out in this Regulation, such as Directive 2010/13/EU of the European Parliament and of the Council including the provisions thereof regarding video-sharing platforms, Regulations (EU) 2019/1148, (EU) 2019/1150, (EU) 2021/784 and (EU) 2021/1232 of the European Parliament and of the Council and Directive 2002/58/EC of the European Parliament and of the Council, and provisions of Union law set out in a Regulation on European Production and Preservation Orders for electronic evidence in criminal matters and in a Directive laying down harmonised rules on the appointment of legal representatives for the purpose of gathering evidence in criminal proceedings. Similarly, for reasons of clarity, this Regulation should be without prejudice to Union law on consumer protection, in particular Regulations (EU) 2017/2394 and (EU) 2019/1020 of the European Parliament and of the Council, Directives 2001/95/EC, 2005/29/EC, 2011/83/EU and 2013/11/EU of the European Parliament and of the Council, and Council Directive 93/13/EEC, and on the protection of personal data, in particular Regulation (EU) 2016/679 of the European Parliament and of the Council. This Regulation should also be without prejudice to Union rules on private international law, in particular rules regarding jurisdiction and the recognition and enforcement of judgments in civil and commercial matters, as Regulation (EU) No 1215/2012, and rules on the law applicable to contractual and non-contractual obligations. The protection of individuals with regard to the processing of personal data is governed solely by the rules of Union law on that subject, in particular Regulation (EU) 2016/679 and Directive 2002/58/EC. This Regulation should also be without prejudice to Union law on working conditions and Union law in the field of judicial cooperation in civil and criminal matters. However, to the extent that those Union legal acts pursue the same objectives as those laid down in this Regulation, the rules of this Regulation should apply in respect of issues that are not addressed or not fully addressed by those other legal acts as well as issues on which those other legal acts leave Member States the possibility of adopting certain measures at national level.

(11) It should be clarified that this Regulation is without prejudice to Union law on copyright and related rights, including Directives 2001/29/EC, 2004/48/EC and (EU) 2019/790 of the European Parliament and of the Council, which establish specific rules and procedures that should remain unaffected.

(12) In order to achieve the objective of ensuring a safe, predictable and trustworthy online environment, for the purpose of this Regulation the concept of ‘illegal content’ should broadly reflect the existing rules in the offline environment. In particular, the concept of ‘illegal content’ should be defined broadly to cover information relating to illegal content, products, services and activities. In particular, that concept should be understood to refer to information, irrespective of its form, that under the applicable law is either itself illegal, such as illegal hate speech or terrorist content and unlawful discriminatory content, or that the applicable rules render illegal in view of the fact that it relates to illegal activities. Illustrative examples include the sharing of images depicting child sexual abuse, the unlawful non-consensual sharing of private images, online stalking, the sale of non compliant or counterfeit products, the sale of products or the provision of services in infringement of consumer protection law, the non-authorised use of copyright protected material, the illegal offer of accommodation services or the illegal sale of live animals. In contrast, an eyewitness video of a potential crime should not be considered to constitute illegal content, merely because it depicts an illegal act, where recording or disseminating such a video to the public is not illegal under national or Union law. In this regard, it is immaterial whether the illegality of the information or activity results from Union law or from national law that is in compliance with Union law and what the precise nature or subject matter is of the law in question.

(13) Considering the particular characteristics of the services concerned and the corresponding need to make the providers thereof subject to certain specific obligations, it is necessary to distinguish, within the broader category of providers of hosting services as defined in this Regulation, the subcategory of online platforms. Online platforms, such as social networks or online platforms allowing consumers to conclude distance contracts with traders, should be defined as providers of hosting services that not only store information provided by the recipients of the service at their request, but that also disseminate that information to the public at the request of the recipients of the service. However, in order to avoid imposing overly broad obligations, providers of hosting services should not be considered as online platforms where the dissemination to the public is merely a minor and purely ancillary feature that is intrinsically linked to another service, or a minor functionality of the principal service, and that feature or functionality cannot, for objective technical reasons, be used without that other or principal service, and the integration of that feature or functionality is not a means to circumvent the applicability of the rules of this Regulation applicable to online platforms. For example, the comments section in an online newspaper could constitute such a feature, where it is clear that it is ancillary to the main service represented by the publication of news under the editorial responsibility of the publisher. In contrast, the storage of comments in a social network should be considered an online platform service where it is clear that it is not a minor feature of the service offered, even if it is ancillary to publishing the posts of recipients of the service. For the purposes of this Regulation, cloud computing or web-hosting services should not be considered to be an online platform where dissemination of specific information to the public constitutes a minor and ancillary feature or a minor functionality of such services. Moreover, cloud computing services and web-hosting services, when serving as infrastructure, such as the underlying infrastructural storage and computing services of an internet-based application, website or online platform, should not in themselves be considered as disseminating to the public information stored or processed at the request of a recipient of the application, website or online platform which they host.

(14) The concept of ‘dissemination to the public’, as used in this Regulation, should entail the making available of information to a potentially unlimited number of persons, meaning making the information easily accessible to recipients of the service in general without further action by the recipient of the service providing the information being required, irrespective of whether those persons actually access the information in question. Accordingly, where access to information requires registration or admittance to a group of recipients of the service, that information should be considered to be disseminated to the public only where recipients of the service seeking to access the information are automatically registered or admitted without a human decision or selection of whom to grant access. Interpersonal communication services, as defined in Directive (EU) 2018/1972 of the European Parliament and of the Council, such as emails or private messaging services, fall outside the scope of the definition of online platforms as they are used for interpersonal communication between a finite number of persons determined by the sender of the communication. However, the obligations set out in this Regulation for providers of online platforms may apply to services that allow the making available of information to a potentially unlimited number of recipients, not determined by the sender of the communication, such as through public groups or open channels. Information should be considered disseminated to the public within the meaning of this Regulation only where that dissemination occurs upon the direct request by the recipient of the service that provided the information.

(15) Where some of the services provided by a provider are covered by this Regulation whilst others are not, or where the services provided by a provider are covered by different sections of this Regulation, the relevant provisions of this Regulation should apply only in respect of those services that fall within their scope.

(16) The legal certainty provided by the horizontal framework of conditional exemptions from liability for providers of intermediary services, laid down in Directive 2000/31/EC, has allowed many novel services to emerge and scale up across the internal market. That framework should therefore be preserved. However, in view of the divergences when transposing and applying the relevant rules at national level, and for reasons of clarity and coherence, that framework should be incorporated in this Regulation. It is also necessary to clarify certain elements of that framework, having regard to the case-law of the Court of Justice of the European Union.

(17) The rules on liability of providers of intermediary services set out in this Regulation should only establish when the provider of intermediary services concerned cannot be held liable in relation to illegal content provided by the recipients of the service. Those rules should not be understood to provide a positive basis for establishing when a provider can be held liable, which is for the applicable rules of Union or national law to determine. Furthermore, the exemptions from liability established in this Regulation should apply in respect of any type of liability as regards any type of illegal content, irrespective of the precise subject matter or nature of those laws.

(18) The exemptions from liability established in this Regulation should not apply where, instead of confining itself to providing the services neutrally by a merely technical and automatic processing of the information provided by the recipient of the service, the provider of intermediary services plays an active role of such a kind as to give it knowledge of, or control over, that information. Those exemptions should accordingly not be available in respect of liability relating to information provided not by the recipient of the service but by the provider of the intermediary service itself, including where the information has been developed under the editorial responsibility of that provider.

(19) In view of the different nature of the activities of ‘mere conduit’, ‘caching’ and ‘hosting’ and the different position and abilities of the providers of the services in question, it is necessary to distinguish the rules applicable to those activities, in so far as under this Regulation they are subject to different requirements and conditions and their scope differs, as interpreted by the Court of Justice of the European Union.

(20) Where a provider of intermediary services deliberately collaborates with a recipient of the services in order to undertake illegal activities, the services should not be deemed to have been provided neutrally and the provider should therefore not be able to benefit from the exemptions from liability provided for in this Regulation. This should be the case, for instance, where the provider offers its service with the main purpose of facilitating illegal activities, for example by making explicit that its purpose is to facilitate illegal activities or that its services are suited for that purpose. The fact alone that a service offers encrypted transmissions or any other system that makes the identification of the user impossible should not in itself qualify as facilitating illegal activities.

(21) A provider should be able to benefit from the exemptions from liability for ‘mere conduit’ and for ‘caching’ services when it is in no way involved with the information transmitted or accessed. This requires, among other things, that the provider does not modify the information that it transmits or to which it provides access. However, this requirement should not be understood to cover manipulations of a technical nature which take place in the course of the transmission or access, as long as those manipulations do not alter the integrity of the information transmitted or to which access is provided.

(22) In order to benefit from the exemption from liability for hosting services, the provider should, upon obtaining actual knowledge or awareness of illegal activities or illegal content, act expeditiously to remove or to disable access to that content. The removal or disabling of access should be undertaken in the observance of the fundamental rights of the recipients of the service, including the right to freedom of expression and of information. The provider can obtain such actual knowledge or awareness of the illegal nature of the content, inter alia through its own-initiative investigations or through notices submitted to it by individuals or entities in accordance with this Regulation in so far as such notices are sufficiently precise and adequately substantiated to allow a diligent economic operator to reasonably identify, assess and, where appropriate, act against the allegedly illegal content. However, such actual knowledge or awareness cannot be considered to be obtained solely on the ground that that provider is aware, in a general sense, of the fact that its service is also used to store illegal content. Furthermore, the fact that the provider automatically indexes information uploaded to its service, that it has a search function or that it recommends information on the basis of the profiles or preferences of the recipients of the service is not a sufficient ground for considering that provider to have ‘specific’ knowledge of illegal activities carried out on that platform or of illegal content stored on it.

(23) The exemption of liability should not apply where the recipient of the service is acting under the authority or the control of the provider of a hosting service. For example, where the provider of an online platform that allows consumers to conclude distance contracts with traders determines the price of the goods or services offered by the trader, it could be considered that the trader acts under the authority or control of that online platform.

(24) In order to ensure the effective protection of consumers when engaging in intermediated commercial transactions online, certain providers of hosting services, namely online platforms that allow consumers to conclude distance contracts with traders, should not be able to benefit from the exemption from liability for hosting service providers established in this Regulation, in so far as those online platforms present the relevant information relating to the transactions at issue in such a way as to lead consumers to believe that that information was provided by those online platforms themselves or by traders acting under their authority or control, and that those online platforms thus have knowledge of or control over the information, even if that may in reality not be the case. Examples of such behaviour could be where an online platform fails to display clearly the identity of the trader, as required by this Regulation, where an online platform withholds the identity or contact details of the trader until after the conclusion of the contract concluded between the trader and the consumer, or where an online platform markets the product or service in its own name rather than in the name of the trader who will supply that product or service. In that regard, it should be determined objectively, on the basis of all relevant circumstances, whether the presentation could lead an average consumer to believe that the information in question was provided by the online platform itself or by traders acting under its authority or control.

(25) The exemptions from liability established in this Regulation should not affect the possibility of injunctions of different kinds against providers of intermediary services, even where they meet the conditions set out as part of those exemptions. Such injunctions could, in particular, consist of orders by courts or administrative authorities, issued in compliance with Union law, requiring the termination or prevention of any infringement, including the removal of illegal content specified in such orders, or the disabling of access to it.

(26) In order to create legal certainty, and not to discourage activities that aim to detect, identify and act against illegal content that providers of all categories of intermediary services undertake on a voluntary basis, it should be clarified that the mere fact that providers undertake such activities does not render unavailable the exemptions from liability set out in this Regulation, provided those activities are carried out in good faith and in a diligent manner. The condition of acting in good faith and in a diligent manner should include acting in an objective, non-discriminatory and proportionate manner, with due regard to the rights and legitimate interests of all parties involved, and providing the necessary safeguards against unjustified removal of legal content, in accordance with the objective and requirements of this Regulation. To that aim, the providers concerned should, for example, take reasonable measures to ensure that, where automated tools are used to conduct such activities, the relevant technology is sufficiently reliable to limit to the maximum extent possible the rate of errors. In addition, it is appropriate to clarify that the mere fact that the providers take measures, in good faith, to comply with the requirements of Union law, including those set out in this Regulation as regards the implementation of their terms and conditions, should not render unavailable the exemptions from liability set out in this Regulation. Therefore, any such activities and measures that a provider may have taken should not be taken into account when determining whether the provider can rely on an exemption from liability, in particular as regards whether the provider provides its service neutrally and can therefore fall within the scope of the relevant provision, without this rule however implying that the provider can necessarily rely thereon. Voluntary actions should not be used to circumvent the obligations of providers of intermediary services under this Regulation.

(27) Whilst the rules on liability of providers of intermediary services set out in this Regulation concentrate on the exemption from liability of providers of intermediary services, it is important to recall that, despite the generally important role played by such providers, the problem of illegal content and activities online should not be dealt with by solely focusing on their liability and responsibilities. Where possible, third parties affected by illegal content transmitted or stored online should attempt to resolve conflicts relating to such content without involving the providers of intermediary services in question. Recipients of the service should be held liable, where the applicable rules of Union and national law determining such liability so provide, for the illegal content that they provide and may disseminate to the public through intermediary services. Where appropriate, other actors, such as group moderators in closed online environments, in particular in the case of large groups, should also help to avoid the spread of illegal content online, in accordance with the applicable law. Furthermore, where it is necessary to involve information society services providers, including providers of intermediary services, any requests or orders for such involvement should, as a general rule, be directed to the specific provider that has the technical and operational ability to act against specific items of illegal content, so as to prevent and minimise any possible negative effects on the availability and accessibility of information that is not illegal content.

(28) Since 2000, new technologies have emerged that improve the availability, efficiency, speed, reliability, capacity and security of systems for the transmission, ‘findability’ and storage of data online, leading to an increasingly complex online ecosystem. In this regard, it should be recalled that providers of services establishing and facilitating the underlying logical architecture and proper functioning of the internet, including technical auxiliary functions, can also benefit from the exemptions from liability set out in this Regulation, to the extent that their services qualify as ‘mere conduit’, ‘caching’ or ‘hosting’ services. Such services include, as the case may be, wireless local area networks, domain name system (DNS) services, top-level domain name registries, registrars, certificate authorities that issue digital certificates, virtual private networks, online search engines, cloud infrastructure services, or content delivery networks, that enable, locate or improve the functions of other providers of intermediary services. Likewise, services used for communications purposes, and the technical means of their delivery, have also evolved considerably, giving rise to online services such as Voice over IP, messaging services and web-based email services, where the communication is delivered via an internet access service. Those services, too, can benefit from the exemptions from liability, to the extent that they qualify as ‘mere conduit’, ‘caching’ or ‘hosting’ services.

(29) Intermediary services span a wide range of economic activities which take place online and that develop continually to provide for transmission of information that is swift, safe and secure, and to ensure convenience of all participants of the online ecosystem. For example, ‘mere conduit’ intermediary services include generic categories of services, such as internet exchange points, wireless access points, virtual private networks, DNS services and resolvers, top level domain name registries, registrars, certificate authorities that issue digital certificates, voice over IP and other interpersonal communication services, while generic examples of ‘caching’ intermediary services include the sole provision of content delivery networks, reverse proxies or content adaptation proxies. Such services are crucial to ensure the smooth and efficient transmission of information delivered on the internet. Examples of ‘hosting services’ include categories of services such as cloud computing, web hosting, paid referencing services or services enabling sharing information and content online, including file storage and sharing. Intermediary services may be provided in isolation, as a part of another type of intermediary service, or simultaneously with other intermediary services. Whether a specific service constitutes a ‘mere conduit’, ‘caching’ or ‘hosting’ service depends solely on its technical functionalities, which might evolve in time, and should be assessed on a case by-case basis.

(30) Providers of intermediary services should not be, neither de jure, nor de facto, subject to a monitoring obligation with respect to obligations of a general nature. This does not concern monitoring obligations in a specific case and, in particular, does not affect orders by national authorities in accordance with national legislation, in compliance with Union law, as interpreted by the Court of Justice of the European Union, and in accordance with the conditions established in this Regulation. Nothing in this Regulation should be construed as an imposition of a general monitoring obligation or a general active fact-finding obligation, or as a general obligation for providers to take proactive measures in relation to illegal content.

(31) Depending on the legal system of each Member State and the field of law at issue, national judicial or administrative authorities, including law enforcement authorities, may order providers of intermediary services to act against one or more specific items of illegal content or to provide certain specific information. The national laws on the basis of which such orders are issued differ considerably and the orders are increasingly addressed in cross-border situations. In order to ensure that those orders can be complied with in an effective and efficient manner, in particular in a cross-border context, so that the public authorities concerned can carry out their tasks and the providers are not subject to any disproportionate burdens, without unduly affecting the rights and legitimate interests of any third parties, it is necessary to set certain conditions that those orders should meet and certain complementary requirements relating to the processing of those orders. Consequently, this Regulation should harmonise only certain specific minimum conditions that such orders should fulfil in order to give rise to the obligation of providers of intermediary services to inform the relevant authorities about the effect given to those orders. Therefore, this Regulation does not provide the legal basis for the issuing of such orders, nor does it regulate their territorial scope or cross border enforcement.

(32) The applicable Union or national law on the basis of which those orders are issued might require additional conditions and should be the basis for the enforcement of the respective orders. In the event of non compliance with such orders, the issuing Member State should be able to enforce them in accordance with its national law. The applicable national law should be in compliance with Union law, including the Charter and the TFEU provisions on the freedom of establishment and the freedom to provide services within the Union, in particular with regard to online gambling and betting services. Similarly, the application of such national laws for the enforcement of the respective orders is without prejudice to applicable Union legal acts or international agreements concluded by the Union or by Member States relating to the cross-border recognition, execution and enforcement of those orders, in particular in civil and criminal matters. On the other hand, the enforcement of the obligation to inform the relevant authorities about the effect given to those orders, as opposed to the enforcement of the orders themselves, should be subject to the rules set out in this Regulation.

(33) The provider of intermediary services should inform the issuing authority about any follow-up given to such orders without undue delay, in compliance with the time limits set out in relevant Union or national law.

(34) Relevant national authorities should be able to issue such orders against content considered illegal or orders to provide information on the basis of Union law or national law in compliance with Union law, in particular the Charter, and to address them to providers of intermediary services, including those established in another Member State. However, this Regulation should be without prejudice to Union law in the field of judicial cooperation in civil or criminal matters, including Regulation (EU) No 1215/2012 and a Regulation on European production and preservation orders for electronic evidence in criminal matters, and to national criminal or civil procedural law. Therefore, where those laws in the context of criminal or civil proceedings provide for conditions that are additional to or incompatible with the conditions provided for in this Regulation in relation to orders to act against illegal content or to provide information, the conditions provided for in this Regulation might not apply or might be adapted. In particular, the obligation on the Digital Services Coordinator from the Member State of the issuing authority to transmit a copy of the orders to all other Digital Services Coordinators might not apply in the context of criminal proceedings or might be adapted, where the applicable national criminal procedural law so provides. Furthermore, the obligation for the orders to contain a statement of reasons explaining why the information is illegal content should be adapted, where necessary, under the applicable national criminal procedural law for the prevention, investigation, detection and prosecution of criminal offences. Finally, the obligation on the providers of intermediary services to inform the recipient of the service might be delayed in accordance with applicable Union or national law, in particular in the context of criminal, civil or administrative proceedings. In addition, the orders should be issued in compliance with Regulation (EU) 2016/679 and the prohibition of general obligations to monitor information or to actively seek facts or circumstances indicating illegal activity laid down in this Regulation. The conditions and requirements laid down in this Regulation which apply to orders to act against illegal content are without prejudice to other Union acts providing for similar systems for acting against specific types of illegal content, such as Regulation (EU) 2021/784, Regulation (EU) 2019/1020, or Regulation (EU) 2017/2394 that confers specific powers to order the provision of information to Member State consumer law enforcement authorities, whilst the conditions and requirements that apply to orders to provide information are without prejudice to other Union acts providing for similar relevant rules for specific sectors. Those conditions and requirements should be without prejudice to retention and preservation rules under applicable national law, in compliance with Union law and confidentiality requests by law enforcement authorities related to the non disclosure of information. Those conditions and requirements should not affect the possibility for Member States to require a provider of intermediary services to prevent an infringement, in compliance with Union law including this Regulation, and in particular with the prohibition of general monitoring obligations.

(35) The conditions and requirements laid down in this Regulation should be fulfilled at the latest when the order is transmitted to the provider concerned. Therefore, the order may be issued in one of the official languages of the issuing authority of the Member State concerned. However, where that language is different from the language declared by the provider of intermediary services, or from another official language of the Member States agreed between the authority issuing the order and the provider of intermediary services, the transmission of the order should be accompanied by a translation of at least the elements of the order which are set out in this Regulation. Where a provider of intermediary services has agreed with the authorities of a Member State to use a certain language, it should be encouraged to accept orders in the same language issued by authorities in other Member States. The orders should include elements that enable the addressee to identify the issuing authority, including the contact details of a contact point within that authority where appropriate, and to verify the authenticity of the order.

(36) The territorial scope of such orders to act against illegal content should be clearly set out on the basis of the applicable Union or national law enabling the issuance of the order and should not exceed what is strictly necessary to achieve its objectives. In that regard, the national judicial or administrative authority, which might be a law enforcement authority, issuing the order should balance the objective that the order seeks to achieve, in accordance with the legal basis enabling its issuance, with the rights and legitimate interests of all third parties that may be affected by the order, in particular their fundamental rights under the Charter. In particular in a cross-border context, the effect of the order should in principle be limited to the territory of the issuing Member State, unless the illegality of the content derives directly from Union law or the issuing authority considers that the rights at stake require a wider territorial scope, in accordance with Union and international law, while taking into account the interests of international comity.

(37) The orders to provide information regulated by this Regulation concern the production of specific information about individual recipients of the intermediary service concerned who are identified in those orders for the purposes of determining compliance by the recipients of the service with applicable Union or national rules. Such orders should request information with the aim of enabling the identification of the recipients of the service concerned. Therefore, orders regarding information on a group of recipients of the service who are not specifically identified, including orders to provide aggregate information required for statistical purposes or evidence-based policy-making, are not covered by the requirements of this Regulation on the provision of information.

(38) Orders to act against illegal content and to provide information are subject to the rules safeguarding the competence of the Member State in which the service provider addressed is established and the rules laying down possible derogations from that competence in certain cases, set out in Article 3 of Directive 2000/31/EC, only if the conditions of that Article are met. Given that the orders in question relate to specific items of illegal content and information, respectively, where they are addressed to providers of intermediary services established in another Member State they do not in principle restrict those providers’ freedom to provide their services across borders. Therefore, the rules set out in Article 3 of Directive 2000/31/EC, including those regarding the need to justify measures derogating from the competence of the Member State in which the service provider is established on certain specified grounds and regarding the notification of such measures, do not apply in respect of those orders.

(39) The requirements to provide information on redress mechanisms available to the provider of the intermediary service and to the recipient of the service who provided the content include a requirement to provide information about administrative complaint handling mechanisms and judicial redress including appeals against orders issued by judicial authorities. Moreover, Digital Services Coordinators could develop national tools and guidance as regards complaint and redress mechanisms applicable in their respective territory, in order to facilitate access to such mechanisms by recipients of the service. Finally, when applying this Regulation Member States should respect the fundamental right to an effective judicial remedy and to a fair trial as provided for in Article 47 of the Charter. This Regulation should therefore not prevent the relevant national judicial or administrative authorities from issuing, on the basis of the applicable Union or national law, an order to restore content, where such content was in compliance with the terms and conditions of the provider of the intermediary service but has been erroneously considered as illegal by that provider and has been removed.

(40) In order to achieve the objectives of this Regulation, and in particular to improve the functioning of the internal market and ensure a safe and transparent online environment, it is necessary to establish a clear, effective, predictable and balanced set of harmonised due diligence obligations for providers of intermediary services. Those obligations should aim in particular to guarantee different public policy objectives such as the safety and trust of the recipients of the service, including consumers, minors and users at particular risk of being subject to hate speech, sexual harassment or other discriminatory actions, the protection of relevant fundamental rights enshrined in the Charter, the meaningful accountability of those providers and the empowerment of recipients and other affected parties, whilst facilitating the necessary oversight by competent authorities.

(41) In that regard, it is important that the due diligence obligations are adapted to the type, size and nature of the intermediary service concerned. This Regulation therefore sets out basic obligations applicable to all providers of intermediary services, as well as additional obligations for providers of hosting services and, more specifically, providers of online platforms and of very large online platforms and of very large online search engines. To the extent that providers of intermediary services fall within a number of different categories in view of the nature of their services and their size, they should comply with all the corresponding obligations of this Regulation in relation to those services. Those harmonised due diligence obligations, which should be reasonable and non-arbitrary, are needed to address the identified public policy concerns, such as safeguarding the legitimate interests of the recipients of the service, addressing illegal practices and protecting the fundamental rights enshrined in the Charter. The due diligence obligations are independent from the question of liability of providers of intermediary services which need therefore to be assessed separately.

(42) In order to facilitate smooth and efficient two-way communications, including, where relevant, by acknowledging the receipt of such communications, relating to matters covered by this Regulation, providers of intermediary services should be required to designate a single electronic point of contact and to publish and update relevant information relating to that point of contact, including the languages to be used in such communications. The electronic point of contact can also be used by trusted flaggers and by professional entities which are under a specific relationship with the provider of intermediary services. In contrast to the legal representative, the electronic point of contact should serve operational purposes and should not be required to have a physical location. Providers of intermediary services can designate the same single point of contact for the requirements of this Regulation as well as for the purposes of other acts of Union law. When specifying the languages of communication, providers of intermediary services are encouraged to ensure that the languages chosen do not in themselves constitute an obstacle to communication. Where necessary, it should be possible for providers of intermediary services and Member States’ authorities to reach a separate agreement on the language of communication, or to seek alternative means to overcome the language barrier, including by using all available technological means or internal and external human resources.

(43) Providers of intermediary services should also be required to designate a single point of contact for recipients of services, enabling rapid, direct and efficient communication in particular by easily accessible means such as telephone numbers, email addresses, electronic contact forms, chatbots or instant messaging. It should be explicitly indicated when a recipient of the service communicates with chatbots. Providers of intermediary services should allow recipients of services to choose means of direct and efficient communication which do not solely rely on automated tools. Providers of intermediary services should make all reasonable efforts to guarantee that sufficient human and financial resources are allocated to ensure that this communication is performed in a timely and efficient manner.

(44) Providers of intermediary services that are established in a third country and that offer services in the Union should designate a sufficiently mandated legal representative in the Union and provide information relating to their legal representatives to the relevant authorities and make it publicly available. In order to comply with that obligation, such providers of intermediary services should ensure that the designated legal representative has the necessary powers and resources to cooperate with the relevant authorities. This could be the case, for example, where a provider of intermediary services appoints a subsidiary undertaking of the same group as the provider, or its parent undertaking, if that subsidiary or parent undertaking is established in the Union. However, it might not be the case, for instance, when the legal representative is subject to reconstruction proceedings, bankruptcy, or personal or corporate insolvency. That obligation should allow for the effective oversight and, where necessary, enforcement of this Regulation in relation to those providers. It should be possible for a legal representative to be mandated, in accordance with national law, by more than one provider of intermediary services. It should be possible for the legal representative to also function as a point of contact, provided the relevant requirements of this Regulation are complied with.

(45) Whilst the freedom of contract of providers of intermediary services should in principle be respected, it is appropriate to set certain rules on the content, application and enforcement of the terms and conditions of those providers in the interests of transparency, the protection of recipients of the service and the avoidance of unfair or arbitrary outcomes. Providers of the intermediary services should clearly indicate and maintain up-to-date in their terms and conditions the information as to the grounds on the basis of which they may restrict the provision of their services. In particular, they should include information on any policies, procedures, measures and tools used for the purpose of content moderation, including algorithmic decision-making and human review, as well as the rules of procedure of their internal complaint-handling system. They should also provide easily accessible information on the right to terminate the use of the service. Providers of intermediary services may use graphical elements in their terms of service, such as icons or images, to illustrate the main elements of the information requirements set out in this Regulation. Providers should inform recipients of their service through appropriate means of significant changes made to terms and conditions, for instance when they modify the rules on information that is permitted on their service, or other such changes which could directly impact the ability of the recipients to make use of the service.

(46) Providers of intermediary services that are primarily directed at minors, for example through the design or marketing of the service, or which are used predominantly by minors, should make particular efforts to render the explanation of their terms and conditions easily understandable to minors.

(47) When designing, applying and enforcing those restrictions, providers of intermediary services should act in a non-arbitrary and non-discriminatory manner and take into account the rights and legitimate interests of the recipients of the service, including fundamental rights as enshrined in the Charter. For example, providers of very large online platforms should in particular pay due regard to freedom of expression and of information, including media freedom and pluralism. All providers of intermediary services should also pay due regard to relevant international standards for the protection of human rights, such as the United Nations Guiding Principles on Business and Human Rights.

(48) Given their special role and reach, it is appropriate to impose on very large online platforms and very large online search engines additional requirements regarding information and transparency of their terms and conditions. Consequently, providers of very large online platforms and very large online search engines should provide their terms and conditions in the official languages of all Member States in which they offer their services and should also provide recipients of the services with a concise and easily readable summary of the main elements of the terms and conditions. Such summaries should identify the main elements of the information requirements, including the possibility of easily opting out from optional clauses.

(49) To ensure an adequate level of transparency and accountability, providers of intermediary services should make publicly available an annual report in a machine readable format, in accordance with the harmonised requirements contained in this Regulation, on the content moderation in which they engage, including the measures taken as a result of the application and enforcement of their terms and conditions. However, in order to avoid disproportionate burdens, those transparency reporting obligations should not apply to providers that are micro or small enterprises as defined in Commission Recommendation 2003/361/EC and which are not very large online platforms within the meaning of this Regulation.

(50) Providers of hosting services play a particularly important role in tackling illegal content online, as they store information provided by and at the request of the recipients of the service and typically give other recipients access thereto, sometimes on a large scale. It is important that all providers of hosting services, regardless of their size, put in place easily accessible and user-friendly notice and action mechanisms that facilitate the notification of specific items of information that the notifying party considers to be illegal content to the provider of hosting services concerned (‘notice’), pursuant to which that provider can decide whether or not it agrees with that assessment and wishes to remove or disable access to that content (‘action’). Such mechanisms should be clearly identifiable, located close to the information in question and at least as easy to find and use as notification mechanisms for content that violates the terms and conditions of the hosting service provider. Provided the requirements on notices are met, it should be possible for individuals or entities to notify multiple specific items of allegedly illegal content through a single notice in order to ensure the effective operation of notice and action mechanisms. The notification mechanism should allow, but not require, the identification of the individual or the entity submitting a notice. For some types of items of information notified, the identity of the individual or the entity submitting a notice might be necessary to determine whether the information in question constitutes illegal content, as alleged. The obligation to put in place notice and action mechanisms should apply, for instance, to file storage and sharing services, web hosting services, advertising servers and paste bins, in so far as they qualify as hosting services covered by this Regulation.

(51) Having regard to the need to take due account of the fundamental rights guaranteed under the Charter of all parties concerned, any action taken by a provider of hosting services pursuant to receiving a notice should be strictly targeted, in the sense that it should serve to remove or disable access to the specific items of information considered to constitute illegal content, without unduly affecting the freedom of expression and of information of recipients of the service. Notices should therefore, as a general rule, be directed to the providers of hosting services that can reasonably be expected to have the technical and operational ability to act against such specific items. The providers of hosting services who receive a notice for which they cannot, for technical or operational reasons, remove the specific item of information should inform the person or entity who submitted the notice.

(52) The rules on such notice and action mechanisms should be harmonised at Union level, so as to provide for the timely, diligent and non-arbitrary processing of notices on the basis of rules that are uniform, transparent and clear and that provide for robust safeguards to protect the right and legitimate interests of all affected parties, in particular their fundamental rights guaranteed by the Charter, irrespective of the Member State in which those parties are established or reside and of the field of law at issue. Those fundamental rights include but are not limited to: for the recipients of the service, the right to freedom of expression and of information, the right to respect for private and family life, the right to protection of personal data, the right to non-discrimination and the right to an effective remedy; for the service providers, the freedom to conduct a business, including the freedom of contract; for parties affected by illegal content, the right to human dignity, the rights of the child, the right to protection of property, including intellectual property, and the right to non-discrimination. Providers of hosting services should act upon notices in a timely manner, in particular by taking into account the type of illegal content being notified and the urgency of taking action. For instance, such providers can be expected to act without delay when allegedly illegal content involving a threat to life or safety of persons is being notified. The provider of hosting services should inform the individual or entity notifying the specific content without undue delay after taking a decision whether or not to act upon the notice.

(53) The notice and action mechanisms should allow for the submission of notices which are sufficiently precise and adequately substantiated to enable the provider of hosting services concerned to take an informed and diligent decision, compatible with the freedom of expression and of information, in respect of the content to which the notice relates, in particular whether or not that content is to be considered illegal content and is to be removed or access thereto is to be disabled. Those mechanisms should be such as to facilitate the provision of notices that contain an explanation of the reasons why the individual or the entity submitting a notice considers that content to be illegal content, and a clear indication of the location of that content. Where a notice contains sufficient information to enable a diligent provider of hosting services to identify, without a detailed legal examination, that it is clear that the content is illegal, the notice should be considered to give rise to actual knowledge or awareness of illegality. Except for the submission of notices relating to offences referred to in Articles 3 to 7 of Directive 2011/ 93/EU of the European Parliament and of the Council, those mechanisms should ask the individual or the entity submitting a notice to disclose its identity in order to avoid misuse.

(54) Where a provider of hosting services decides, on the ground that the information provided by the recipients is illegal content or is incompatible with its terms and conditions, to remove or disable access to information provided by a recipient of the service or to otherwise restrict its visibility or monetisation, for instance following receipt of a notice or acting on its own initiative, including exclusively by automated means, that provider should inform in a clear and easily comprehensible way the recipient of its decision, the reasons for its decision and the available possibilities for redress to contest the decision, in view of the negative consequences that such decisions may have for the recipient, including as regards the exercise of its fundamental right to freedom of expression. That obligation should apply irrespective of the reasons for the decision, in particular whether the action has been taken because the information notified is considered to be illegal content or incompatible with the applicable terms and conditions. Where the decision was taken following receipt of a notice, the provider of hosting services should only reveal the identity of the person or entity who submitted the notice to the recipient of the service where this information is necessary to identify the illegality of the content, such as in cases of infringements of intellectual property rights.

(55) Restriction of visibility may consist in demotion in ranking or in recommender systems, as well as in limiting accessibility by one or more recipients of the service or blocking the user from an online community without the user being aware (‘shadow banning’). The monetisation via advertising revenue of information provided by the recipient of the service can be restricted by suspending or terminating the monetary payment or revenue associated to that information. The obligation to provide a statement of reasons should however not apply with respect to deceptive high-volume commercial content disseminated through intentional manipulation of the service, in particular inauthentic use of the service such as the use of bots or fake accounts or other deceptive uses of the service. Irrespective of other possibilities to challenge the decision of the provider of hosting services, the recipient of the service should always have a right to effective remedy before a court in accordance with the national law.

(56) A provider of hosting services may in some instances become aware, such as through a notice by a notifying party or through its own voluntary measures, of information relating to certain activity of a recipient of the service, such as the provision of certain types of illegal content, that reasonably justify, having regard to all relevant circumstances of which the provider of hosting services is aware, the suspicion that that recipient may have committed, may be committing or is likely to commit a criminal offence involving a threat to the life or safety of person or persons, such as offences specified in Directive 2011/36/EU of the European Parliament and of the Council, Directive 2011/93/EU or Directive (EU) 2017/541 of the European Parliament and of the Council. For example, specific items of content could give rise to a suspicion of a threat to the public, such as incitement to terrorism within the meaning of Article 21 of Directive (EU) 2017/541. In such instances, the provider of hosting services should inform without delay the competent law enforcement authorities of such suspicion. The provider of hosting services should provide all relevant information available to it, including, where relevant, the content in question and, if available, the time when the content was published, including the designated time zone, an explanation of its suspicion and the information necessary to locate and identify the relevant recipient of the service. This Regulation does not provide the legal basis for profiling of recipients of the services with a view to the possible identification of criminal offences by providers of hosting services. Providers of hosting services should also respect other applicable rules of Union or national law for the protection of the rights and freedoms of individuals when informing law enforcement authorities.

(57) To avoid disproportionate burdens, the additional obligations imposed under this Regulation on providers of online platforms, including platforms allowing consumers to conclude distance contracts with traders, should not apply to providers that qualify as micro or small enterprises as defined in Recommendation 2003/361/EC. For the same reason, those additional obligations should also not apply to providers of online platforms that previously qualified as micro or small enterprises during a period of 12 months after they lose that status. Such providers should not be excluded from the obligation to provide information on the average monthly active recipients of the service at the request of the Digital Services Coordinator of establishment or the Commission. However, considering that very large online platforms or very large online search engines have a larger reach and a greater impact in influencing how recipients of the service obtain information and communicate online, such providers should not benefit from that exclusion, irrespective of whether they qualify or recently qualified as micro or small enterprises. The consolidation rules laid down in Recommendation 2003/361/EC help ensure that any circumvention of those additional obligations is prevented. Nothing in this Regulation precludes providers of online platforms that are covered by that exclusion from setting up, on a voluntary basis, a system that complies with one or more of those obligations.

(58) Recipients of the service should be able to easily and effectively contest certain decisions of providers of online platforms concerning the illegality of content or its incompatibility with the terms and conditions that negatively affect them. Therefore, providers of online platforms should be required to provide for internal complaint handling systems, which meet certain conditions that aim to ensure that the systems are easily accessible and lead to swift, non-discriminatory, non-arbitrary and fair outcomes, and are subject to human review where automated means are used. Such systems should enable all recipients of the service to lodge a complaint and should not set formal requirements, such as referral to specific, relevant legal provisions or elaborate legal explanations. Recipients of the service who submitted a notice through the notice and action mechanism provided for in this Regulation or through the notification mechanism for content that violate the terms and conditions of the provider of online platforms should be entitled to use the complaint mechanism to contest the decision of the provider of online platforms on their notices, including when they consider that the action taken by that provider was not adequate. The possibility to lodge a complaint for the reversal of the contested decisions should be available for at least six months, to be calculated from the moment at which the provider of online platforms informed the recipient of the service of the decision.

(59) In addition, provision should be made for the possibility of engaging, in good faith, in the out-of-court dispute settlement of such disputes, including those that could not be resolved in a satisfactory manner through the internal complaint-handling systems, by certified bodies that have the requisite independence, means and expertise to carry out their activities in a fair, swift and cost effective manner. The independence of the out-of-court dispute settlement bodies should be ensured also at the level of the natural persons in charge of resolving disputes, including through rules on conflict of interest. The fees charged by the out-of court dispute settlement bodies should be reasonable, accessible, attractive, inexpensive for consumers and proportionate, and assessed on a case-by case basis. Where an out-of-court dispute settlement body is certified by the competent Digital Services Coordinator, that certification should be valid in all Member States. Providers of online platforms should be able to refuse to engage in out-of-court dispute settlement procedures under this Regulation when the same dispute, in particular as regards the information concerned and the grounds for taking the contested decision, the effects of the decision and the grounds raised for contesting the decision, has already been resolved by or is already subject to an ongoing procedure before the competent court or before another competent out-of court dispute settlement body. Recipients of the service should be able to choose between the internal complaint mechanism, an out-of- court dispute settlement and the possibility to initiate, at any stage, judicial proceedings. Since the outcome of the out-of-court dispute settlement procedure is not binding, the parties should not be prevented from initiating judicial proceedings in relation to the same dispute. The possibilities to contest decisions of providers of online platforms thus created should leave unaffected in all respects the possibility to seek judicial redress in accordance with the laws of the Member State concerned, and therefore should not affect the exercise of the right to an effective judicial remedy under Article 47 of the Charter. The provisions in this Regulation on out-of-court dispute settlement should not require Member States to establish such out-of-court settlement bodies.

(60) For contractual consumer-to-business disputes regarding the purchase of goods or services, Directive 2013/11/EU ensures that Union consumers and businesses in the Union have access to quality-certified alternative dispute resolution entities. In this regard, it should be clarified that the rules of this Regulation on out-of-court dispute settlement are without prejudice to that Directive, including the right of consumers under that Directive to withdraw from the procedure at any stage if they are dissatisfied with the performance or the operation of the procedure.

(61) Action against illegal content can be taken more quickly and reliably where providers of online platforms take the necessary measures to ensure that notices submitted by trusted flaggers, acting within their designated area of expertise, through the notice and action mechanisms required by this Regulation are treated with priority, without prejudice to the requirement to process and decide upon all notices submitted under those mechanisms in a timely, diligent and non-arbitrary manner. Such trusted flagger status should be awarded by the Digital Services Coordinator of the Member State in which the applicant is established and should be recognised by all providers of online platforms within the scope of this Regulation. Such trusted flagger status should only be awarded to entities, and not individuals, that have demonstrated, among other things, that they have particular expertise and competence in tackling illegal content and that they work in a diligent, accurate and objective manner. Such entities can be public in nature, such as, for terrorist content, internet referral units of national law enforcement authorities or of the European Union Agency for Law Enforcement Cooperation (‘Europol’) or they can be non governmental organisations and private or semi-public bodies such as the organisations part of the INHOPE network of hotlines for reporting child sexual abuse material and organisations committed to notifying illegal racist and xenophobic expressions online. To avoid diminishing the added value of such mechanism, the overall number of trusted flaggers awarded in accordance with this Regulation should be limited. In particular, industry associations representing their members’ interests are encouraged to apply for the status of trusted flaggers, without prejudice to the right of private entities or individuals to enter into bilateral agreements with the providers of online platforms.

(62) Trusted flaggers should publish easily comprehensible and detailed reports on notices submitted in accordance with this Regulation. Those reports should indicate information such as the number of notices categorised by the provider of hosting services, the type of content, and the action taken by the provider. Given that trusted flaggers have demonstrated expertise and competence, the processing of notices submitted by trusted flaggers can be expected to be less burdensome and therefore faster compared to notices submitted by other recipients of the service. However, the average time taken to process may still vary depending on factors including the type of illegal content, the quality of notices, and the actual technical procedures put in place for the submission of such notices. For example, while the Code of conduct on countering illegal hate speech online of 2016 sets a benchmark for the participating companies with respect to the time needed to process valid notifications for removal of illegal hate speech, other types of illegal content may take considerably different timelines for processing, depending on the specific facts and circumstances and types of illegal content at stake. In order to avoid abuses of the trusted flagger status, it should be possible to suspend such status when a Digital Services Coordinator of establishment opened an investigation based on legitimate reasons. The rules of this Regulation on trusted flaggers should not be understood to prevent providers of online platforms from giving similar treatment to notices submitted by entities or individuals that have not been awarded trusted flagger status under this Regulation, from otherwise cooperating with other entities, in accordance with the applicable law, including this Regulation and Regulation (EU) 2016/794 of the European Parliament and of the Council. The rules of this Regulation should not prevent the providers of online platforms from making use of such trusted flagger or similar mechanisms to take quick and reliable action against content that is incompatible with their terms and conditions, in particular against content that is harmful for vulnerable recipients of the service, such as minors.

(63) The misuse of online platforms by frequently providing manifestly illegal content or by frequently submitting manifestly unfounded notices or complaints under the mechanisms and systems, respectively, established under this Regulation undermines trust and harms the rights and legitimate interests of the parties concerned. Therefore, there is a need to put in place appropriate, proportionate and effective safeguards against such misuse, that need to respect the rights and legitimate interests of all parties involved, including the applicable fundamental rights and freedoms as enshrined in the Charter, in particular the freedom of expression. Information should be considered to be manifestly illegal content and notices or complaints should be considered manifestly unfounded where it is evident to a layperson, without any substantive analysis, that the content is illegal or, respectively, that the notices or complaints are unfounded.

(64) Under certain conditions, providers of online platforms should temporarily suspend their relevant activities in respect of the person engaged in abusive behaviour. This is without prejudice to the freedom by providers of online platforms to determine their terms and conditions and establish stricter measures in the case of manifestly illegal content related to serious crimes, such as child sexual abuse material. For reasons of transparency, this possibility should be set out, clearly and in sufficient detail, in the terms and conditions of the online platforms. Redress should always be open to the decisions taken in this regard by providers of online platforms and they should be subject to oversight by the competent Digital Services Coordinator. Providers of online platforms should send a prior warning before deciding on the suspension, which should include the reasons for the possible suspension and the means of redress against the decision of the providers of the online platform. When deciding on the suspension, providers of online platforms should send the statement of reasons in accordance with the rules set out in this Regulation. The rules of this Regulation on misuse should not prevent providers of online platforms from taking other measures to address the provision of illegal content by recipients of their service or other misuse of their services, including through the violation of their terms and conditions, in accordance with the applicable Union and national law. Those rules are without prejudice to any possibility to hold the persons engaged in misuse liable, including for damages, provided for in Union or national law.

(65) In view of the particular responsibilities and obligations of providers of online platforms, they should be made subject to transparency reporting obligations, which apply in addition to the transparency reporting obligations applicable to all providers of intermediary services under this Regulation. For the purposes of determining whether online platforms and online search engines may be very large online platforms or very large online search engines, respectively, that are subject to certain additional obligations under this Regulation, the transparency reporting obligations for online platforms and online search engines should include certain obligations relating to the publication and communication of information on the average monthly active recipients of the service in the Union.

(66) In order to ensure transparency and to enable scrutiny over the content moderation decisions of the providers of online platforms and monitoring the spread of illegal content online, the Commission should maintain and publish a database which contains the decisions and statements of reasons of the providers of online platforms when they remove or otherwise restrict availability of and access to information. In order to keep the database continuously updated, the providers of online platforms should submit, in a standard format, the decisions and statement of reasons without undue delay after taking a decision, to allow for real-time updates where technically possible and proportionate to the means of the online platform in question. The structured database should allow access to, and queries for, the relevant information, in particular as regards the type of alleged illegal content at stake.

(67) Dark patterns on online interfaces of online platforms are practices that materially distort or impair, either on purpose or in effect, the ability of recipients of the service to make autonomous and informed choices or decisions. Those practices can be used to persuade the recipients of the service to engage in unwanted behaviours or into undesired decisions which have negative consequences for them. Providers of online platforms should therefore be prohibited from deceiving or nudging recipients of the service and from distorting or impairing the autonomy, decision-making, or choice of the recipients of the service via the structure, design or functionalities of an online interface or a part thereof. This should include, but not be limited to, exploitative design choices to direct the recipient to actions that benefit the provider of online platforms, but which may not be in the recipients’ interests, presenting choices in a non-neutral manner, such as giving more prominence to certain choices through visual, auditory, or other components, when asking the recipient of the service for a decision. It should also include repeatedly requesting a recipient of the service to make a choice where such a choice has already been made, making the procedure of cancelling a service significantly more cumbersome than signing up to it, or making certain choices more difficult or time-consuming than others, making it unreasonably difficult to discontinue purchases or to sign out from a given online platform allowing consumers to conclude distance contracts with traders, and deceiving the recipients of the service by nudging them into decisions on transactions, or by default settings that are very difficult to change, and so unreasonably bias the decision making of the recipient of the service, in a way that distorts and impairs their autonomy, decision-making and choice. However, rules preventing dark patterns should not be understood as preventing providers to interact directly with recipients of the service and to offer new or additional services to them. Legitimate practices, for example in advertising, that are in compliance with Union law should not in themselves be regarded as constituting dark patterns. Those rules on dark patterns should be interpreted as covering prohibited practices falling within the scope of this Regulation to the extent that those practices are not already covered under Directive 2005/29/EC or Regulation (EU) 2016/679.

(68) Online advertising plays an important role in the online environment, including in relation to the provision of online platforms, where the provision of the service is sometimes in whole or in part remunerated directly or indirectly, through advertising revenues. Online advertising can contribute to significant risks, ranging from advertisements that are themselves illegal content, to contributing to financial incentives for the publication or amplification of illegal or otherwise harmful content and activities online, or the discriminatory presentation of advertisements with an impact on the equal treatment and opportunities of citizens. In addition to the requirements resulting from Article 6 of Directive 2000/31/EC, providers of online platforms should therefore be required to ensure that the recipients of the service have certain individualised information necessary for them to understand when and on whose behalf the advertisement is presented. They should ensure that the information is salient, including through standardised visual or audio marks, clearly identifiable and unambiguous for the average recipient of the service, and should be adapted to the nature of the individual service’s online interface. In addition, recipients of the service should have information directly accessible from the online interface where the advertisement is presented, on the main parameters used for determining that a specific advertisement is presented to them, providing meaningful explanations of the logic used to that end, including when this is based on profiling. Such explanations should include information on the method used for presenting the advertisement, for example whether it is contextual or other type of advertising, and, where applicable, the main profiling criteria used; it should also inform the recipient about any means available for them to change such criteria. The requirements of this Regulation on the provision of information relating to advertising is without prejudice to the application of the relevant provisions of Regulation (EU) 2016/679, in particular those regarding the right to object, automated individual decision-making, including profiling, and specifically the need to obtain consent of the data subject prior to the processing of personal data for targeted advertising. Similarly, it is without prejudice to the provisions laid down in Directive 2002/58/EC in particular those regarding the storage of information in terminal equipment and the access to information stored therein. Finally, this Regulation complements the application of the Directive 2010/13/EU which imposes measures to enable users to declare audiovisual commercial communications in user-generated videos. It also complements the obligations for traders regarding the disclosure of commercial communications deriving from Directive 2005/29/EC.

(69) When recipients of the service are presented with advertisements based on targeting techniques optimised to match their interests and potentially appeal to their vulnerabilities, this can have particularly serious negative effects. In certain cases, manipulative techniques can negatively impact entire groups and amplify societal harms, for example by contributing to disinformation campaigns or by discriminating against certain groups. Online platforms are particularly sensitive environments for such practices and they present a higher societal risk. Consequently, providers of online platforms should not present advertisements based on profiling as defined in Article 4, point (4), of Regulation (EU) 2016/679, using special categories of personal data referred to in Article 9(1) of that Regulation, including by using profiling categories based on those special categories. This prohibition is without prejudice to the obligations applicable to providers of online platforms or any other service provider or advertiser involved in the dissemination of the advertisements under Union law on protection of personal data.

(70) A core part of the online platform’s business is the manner in which information is prioritised and presented on its online interface to facilitate and optimise access to information for the recipients of the service. This is done, for example, by algorithmically suggesting, ranking and prioritising information, distinguishing through text or other visual representations, or otherwise curating information provided by recipients. Such recommender systems can have a significant impact on the ability of recipients to retrieve and interact with information online, including to facilitate the search of relevant information for recipients of the service and contribute to an improved user experience. They also play an important role in the amplification of certain messages, the viral dissemination of information and the stimulation of online behaviour. Consequently, online platforms should consistently ensure that recipients of their service are appropriately informed about how recommender systems impact the way information is displayed, and can influence how information is presented to them. They should clearly present the parameters for such recommender systems in an easily comprehensible manner to ensure that the recipients of the service understand how information is prioritised for them. Those parameters should include at least the most important criteria in determining the information suggested to the recipient of the service and the reasons for their respective importance, including where information is prioritised based on profiling and their online behaviour.

(71) The protection of minors is an important policy objective of the Union. An online platform can be considered to be accessible to minors when its terms and conditions permit minors to use the service, when its service is directed at or predominantly used by minors, or where the provider is otherwise aware that some of the recipients of its service are minors, for example because it already processes personal data of the recipients of its service revealing their age for other purposes. Providers of online platforms used by minors should take appropriate and proportionate measures to protect minors, for example by designing their online interfaces or parts thereof with the highest level of privacy, safety and security for minors by default where appropriate or adopting standards for protection of minors, or participating in codes of conduct for protecting minors. They should consider best practices and available guidance, such as that provided by the communication of the Commission on A Digital Decade for children and youth: the new European strategy for a better internet for kids (BIK+). Providers of online platforms should not present advertisements based on profiling using personal data of the recipient of the service when they are aware with reasonable certainty that the recipient of the service is a minor. In accordance with Regulation (EU) 2016/679, notably the principle of data minimisation as provided for in Article 5(1), point (c), thereof, this prohibition should not lead the provider of the online platform to maintain, acquire or process more personal data than it already has in order to assess if the recipient of the service is a minor. Thus, this obligation should not incentivize providers of online platforms to collect the age of the recipient of the service prior to their use. It should be without prejudice to Union law on protection of personal data.

(72) In order to contribute to a safe, trustworthy and transparent online environment for consumers, as well as for other interested parties such as competing traders and holders of intellectual property rights, and to deter traders from selling products or services in violation of the applicable rules, online platforms allowing consumers to conclude distance contracts with traders should ensure that such traders are traceable. The trader should therefore be required to provide certain essential information to the providers of online platforms allowing consumers to conclude distance contracts with traders, including for purposes of promoting messages on or offering products. That requirement should also be applicable to traders that promote messages on products or services on behalf of brands, based on underlying agreements. Those providers of online platforms should store all information in a secure manner for the duration of their contractual relationship with the trader and 6 months thereafter, to allow any claims to be filed against the trader or orders related to the trader to be complied with. This obligation is necessary and proportionate, so that the information can be accessed, in accordance with the applicable law, including on the protection of personal data, by public authorities and private parties with a legitimate interest, including through the orders to provide information referred to in this Regulation. This obligation leaves unaffected potential obligations to preserve certain content for longer periods of time, on the basis of other Union law or national laws, in compliance with Union law. Without prejudice to the definition provided for in this Regulation, any trader, irrespective of whether it is a natural or legal person, identified on the basis of Article 6a(1), point (b), of Directive 2011/83/EU and Article 7(4), point (f), of Directive 2005/29/EC should be traceable when offering a product or service through an online platform. Directive 2000/31/EC obliges all information society services providers to render easily, directly and permanently accessible to the recipients of the service and competent authorities certain information allowing the identification of all providers. The traceability requirements for providers of online platforms allowing consumers to conclude distance contracts with traders set out in this Regulation do not affect the application of Council Directive (EU) 2021/514, which pursues other legitimate public interest objectives.

(73) To ensure an efficient and adequate application of that obligation, without imposing any disproportionate burdens, providers of online platforms allowing consumers to conclude distance contracts with traders should make best efforts to assess the reliability of the information provided by the traders concerned, in particular by using freely available official online databases and online interfaces, such as national trade registers and the VAT Information Exchange System, or request the traders concerned to provide trustworthy supporting documents, such as copies of identity documents, certified payment accounts’ statements, company certificates and trade register certificates. They may also use other sources, available for use at a distance, which offer a similar degree of reliability for the purpose of complying with this obligation. However, the providers of online platforms concerned should not be required to engage in excessive or costly online fact-finding exercises or to carry out disproportionate verifications on the spot. Nor should such providers, which have made the best efforts required by this Regulation, be understood as guaranteeing the reliability of the information towards consumer or other interested parties.

(74) Providers of online platforms allowing consumers to conclude distance contracts with traders should design and organise their online interface in a way that enables traders to comply with their obligations under relevant Union law, in particular the requirements set out in Articles 6 and 8 of Directive 2011/83/EU, Article 7 of Directive 2005/ 29/EC, Articles 5 and 6 of Directive 2000/31/EC and Article 3 of Directive 98/6/EC of the European Parliament and of the Council. For that purpose, the providers of online platforms concerned should make best efforts to assess whether the traders using their services have uploaded complete information on their online interfaces, in line with relevant applicable Union law. The providers of online platforms should ensure that products or services are not offered as long as such information is not complete. This should not amount to an obligation for the providers of online platforms concerned to generally monitor the products or services offered by traders through their services nor a general fact-finding obligation, in particular to assess the accuracy of the information provided by traders. The online interfaces should be user-friendly and easily accessible for traders and consumers. Additionally and after allowing the offering of the product or service by the trader, the providers of online platforms concerned should make reasonable efforts to randomly check whether the products or services offered have been identified as being illegal in any official, freely accessible and machine-readable online databases or online interfaces available in a Member State or in the Union. The Commission should also encourage traceability of products through technology solutions such as digitally signed Quick Response codes (or ‘QR codes’) or non fungible tokens. The Commission should promote the development of standards and, in the absence of them, of market led solutions which can be acceptable to the parties concerned.

(75) Given the importance of very large online platforms, due to their reach, in particular as expressed in the number of recipients of the service, in facilitating public debate, economic transactions and the dissemination to the public of information, opinions and ideas and in influencing how recipients obtain and communicate information online, it is necessary to impose specific obligations on the providers of those platforms, in addition to the obligations applicable to all online platforms. Due to their critical role in locating and making information retrievable online, it is also necessary to impose those obligations, to the extent they are applicable, on the providers of very large online search engines. Those additional obligations on providers of very large online platforms and of very large online search engines are necessary to address those public policy concerns, there being no alternative and less restrictive measures that would effectively achieve the same result.

(76) Very large online platforms and very large online search engines may cause societal risks, different in scope and impact from those caused by smaller platforms. Providers of such very large online platforms and of very large online search engines should therefore bear the highest standard of due diligence obligations, proportionate to their societal impact. Once the number of active recipients of an online platform or of active recipients of an online search engine, calculated as an average over a period of six months, reaches a significant share of the Union population, the systemic risks the online platform or online search engine poses may have a disproportionate impact in the Union. Such significant reach should be considered to exist where such number exceeds an operational threshold set at 45 million, that is, a number equivalent to 10% of the Union population. This operational threshold should be kept up to date and therefore the Commission should be empowered to supplement the provisions of this Regulation by adopting delegated acts, where necessary.

(77) In order to determine the reach of a given online platform or online search engine, it is necessary to establish the average number of active recipients of each service individually. Accordingly, the number of average monthly active recipients of an online platform should reflect all the recipients actually engaging with the service at least once in a given period of time, by being exposed to information disseminated on the online interface of the online platform, such as viewing it or listening to it, or by providing information, such as traders on an online platforms allowing consumers to conclude distance contracts with traders. For the purposes of this Regulation, engagement is not limited to interacting with information by clicking on, commenting, linking, sharing, purchasing or carrying out transactions on an online platform. Consequently, the concept of active recipient of the service does not necessarily coincide with that of a registered user of a service. As regards online search engines, the concept of active recipients of the service should cover those who view information on their online interface, but not, for example, the owners of the websites indexed by an online search engine, as they do not actively engage with the service. The number of active recipients of a service should include all unique recipients of the service that engage with the specific service. To this effect, a recipient of the service that uses different online interfaces, such as websites or applications, including where the services are accessed through different uniform resource locators (URLs) or domain names, should, where possible, be counted only once. However, the concept of active recipient of the service should not include incidental use of the service by recipients of other providers of intermediary services that indirectly make available information hosted by the provider of online platforms through linking or indexing by a provider of online search engine. Further, this Regulation does not require providers of online platforms or of online search engines to perform specific tracking of individuals online. Where such providers are able to discount automated users such as bots or scrapers without further processing of personal data and tracking, they may do so. The determination of the number of active recipients of the service can be impacted by market and technical developments and therefore the Commission should be empowered to supplement the provisions of this Regulation by adopting delegated acts laying down the methodology to determine the active recipients of an online platform or of an online search engine, where necessary, reflecting the nature of the service and the way recipients of the service interact with it.

(78) In view of the network effects characterising the platform economy, the user base of an online platform or an online search engine may quickly expand and reach the dimension of a very large online platform or a very large online search engine, with the related impact on the internal market. This may be the case in the event of exponential growth experienced in short periods of time, or by a large global presence and turnover allowing the online platform or the online search engine to fully exploit network effects and economies of scale and of scope. A high annual turnover or market capitalisation can in particular be an indication of fast scalability in terms of user reach. In those cases, the Digital Services Coordinator of establishment or the Commission should be able to request more frequent reporting from the provider of the online platform or of the online search engine on the number of active recipients of the service to be able to timely identify the moment at which that platform or that search engine should be designated as a very large online platform or very large online search engine, respectively, for the purposes of this Regulation.

(79) Very large online platforms and very large online search engines can be used in a way that strongly influences safety online, the shaping of public opinion and discourse, as well as online trade. The way they design their services is generally optimised to benefit their often advertising-driven business models and can cause societal concerns. Effective regulation and enforcement is necessary in order to effectively identify and mitigate the risks and the societal and economic harm that may arise. Under this Regulation, providers of very large online platforms and of very large online search engines should therefore assess the systemic risks stemming from the design, functioning and use of their services, as well as from potential misuses by the recipients of the service, and should take appropriate mitigating measures in observance of fundamental rights. In determining the significance of potential negative effects and impacts, providers should consider the severity of the potential impact and the probability of all such systemic risks. For example, they could assess whether the potential negative impact can affect a large number of persons, its potential irreversibility, or how difficult it is to remedy and restore the situation prevailing prior to the potential impact.

(80) Four categories of systemic risks should be assessed in-depth by the providers of very large online platforms and of very large online search engines. A first category concerns the risks associated with the dissemination of illegal content, such as the dissemination of child sexual abuse material or illegal hate speech or other types of misuse of their services for criminal offences, and the conduct of illegal activities, such as the sale of products or services prohibited by Union or national law, including dangerous or counterfeit products, or illegally-traded animals. For example, such dissemination or activities may constitute a significant systemic risk where access to illegal content may spread rapidly and widely through accounts with a particularly wide reach or other means of amplification. Providers of very large online platforms and of very large online search engines should assess the risk of dissemination of illegal content irrespective of whether or not the information is also incompatible with their terms and conditions. This assessment is without prejudice to the personal responsibility of the recipient of the service of very large online platforms or of the owners of websites indexed by very large online search engines for possible illegality of their activity under the applicable law.

(81) A second category concerns the actual or foreseeable impact of the service on the exercise of fundamental rights, as protected by the Charter, including but not limited to human dignity, freedom of expression and of information, including media freedom and pluralism, the right to private life, data protection, the right to non-discrimination, the rights of the child and consumer protection. Such risks may arise, for example, in relation to the design of the algorithmic systems used by the very large online platform or by the very large online search engine or the misuse of their service through the submission of abusive notices or other methods for silencing speech or hampering competition. When assessing risks to the rights of the child, providers of very large online platforms and of very large online search engines should consider for example how easy it is for minors to understand the design and functioning of the service, as well as how minors can be exposed through their service to content that may impair minors’ health, physical, mental and moral development. Such risks may arise, for example, in relation to the design of online interfaces which intentionally or unintentionally exploit the weaknesses and inexperience of minors or which may cause addictive behaviour.

(82) A third category of risks concerns the actual or foreseeable negative effects on democratic processes, civic discourse and electoral processes, as well as public security.

(83) A fourth category of risks stems from similar concerns relating to the design, functioning or use, including through manipulation, of very large online platforms and of very large online search engines with an actual or foreseeable negative effect on the protection of public health, minors and serious negative consequences to a person’s physical and mental well-being, or on gender-based violence. Such risks may also stem from coordinated disinformation campaigns related to public health, or from online interface design that may stimulate behavioural addictions of recipients of the service.

(84) When assessing such systemic risks, providers of very large online platforms and of very large online search engines should focus on the systems or other elements that may contribute to the risks, including all the algorithmic systems that may be relevant, in particular their recommender systems and advertising systems, paying attention to the related data collection and use practices. They should also assess whether their terms and conditions and the enforcement thereof are appropriate, as well as their content moderation processes, technical tools and allocated resources. When assessing the systemic risks identified in this Regulation, those providers should also focus on the information which is not illegal, but contributes to the systemic risks identified in this Regulation. Such providers should therefore pay particular attention on how their services are used to disseminate or amplify misleading or deceptive content, including disinformation. Where the algorithmic amplification of information contributes to the systemic risks, those providers should duly reflect this in their risk assessments. Where risks are localised or there are linguistic differences, those providers should also account for this in their risk assessments. Providers of very large online platforms and of very large online search engines should, in particular, assess how the design and functioning of their service, as well as the intentional and, oftentimes, coordinated manipulation and use of their services, or the systemic infringement of their terms of service, contribute to such risks. Such risks may arise, for example, through the inauthentic use of the service, such as the creation of fake accounts, the use of bots or deceptive use of a service, and other automated or partially automated behaviours, which may lead to the rapid and widespread dissemination to the public of information that is illegal content or incompatible with an online platform’s or online search engine’s terms and conditions and that contributes to disinformation campaigns.

(85) In order to make it possible that subsequent risk assessments build on each other and show the evolution of the risks identified, as well as to facilitate investigations and enforcement actions, providers of very large online platforms and of very large online search engines should preserve all supporting documents relating to the risk assessments that they carried out, such as information regarding the preparation thereof, underlying data and data on the testing of their algorithmic systems.

(86) Providers of very large online platforms and of very large online search engines should deploy the necessary means to diligently mitigate the systemic risks identified in the risk assessments, in observance of fundamental rights. Any measures adopted should respect the due diligence requirements of this Regulation and be reasonable and effective in mitigating the specific systemic risks identified. They should be proportionate in light of the economic capacity of the provider of the very large online platform or of the very large online search engine and the need to avoid unnecessary restrictions on the use of their service, taking due account of potential negative effects on those fundamental rights. Those providers should give particular consideration to the impact on freedom of expression.

(87) Providers of very large online platforms and of very large online search engines should consider under such mitigating measures, for example, adapting any necessary design, feature or functioning of their service, such as the online interface design. They should adapt and apply their terms and conditions, as necessary, and in accordance with the rules of this Regulation on terms and conditions. Other appropriate measures could include adapting their content moderation systems and internal processes or adapting their decision-making processes and resources, including the content moderation personnel, their training and local expertise. This concerns in particular the speed and quality of processing of notices. In this regard, for example, the Code of conduct on countering illegal hate speech online of 2016 sets a benchmark to process valid notifications for removal of illegal hate speech in less than 24 hours. Providers of very large online platforms, in particular those primarily used for the dissemination to the public of pornographic content, should diligently meet all their obligations under this Regulation in respect of illegal content constituting cyber violence, including illegal pornographic content, especially with regard to ensuring that victims can effectively exercise their rights in relation to content representing non consensual sharing of intimate or manipulated material through the rapid processing of notices and removal of such content without undue delay. Other types of illegal content may require longer or shorter timelines for processing of notices, which will depend on the facts, circumstances and types of illegal content at hand. Those providers may also initiate or increase cooperation with trusted flaggers and organise training sessions and exchanges with trusted flagger organisations.

(88) Providers of very large online platforms and of very large online search engines should also be diligent in the measures they take to test and, where necessary, adapt their algorithmic systems, not least their recommender systems. They may need to mitigate the negative effects of personalised recommendations and correct the criteria used in their recommendations. The advertising systems used by providers of very large online platforms and of very large online search engines can also be a catalyser for the systemic risks. Those providers should consider corrective measures, such as discontinuing advertising revenue for specific information, or other actions, such as improving the visibility of authoritative information sources, or more structurally adapting their advertising systems. Providers of very large online platforms and of very large online search engines may need to reinforce their internal processes or supervision of any of their activities, in particular as regards the detection of systemic risks, and conduct more frequent or targeted risk assessments related to new functionalities. In particular, where risks are shared across different online platforms or online search engines, they should cooperate with other service providers, including by initiating or joining existing codes of conduct or other self-regulatory measures. They should also consider awareness-raising actions, in particular where risks relate to disinformation campaigns.

(89) Providers of very large online platforms and of very large online search engines should take into account the best interests of minors in taking measures such as adapting the design of their service and their online interface, especially when their services are aimed at minors or predominantly used by them. They should ensure that their services are organised in a way that allows minors to access easily mechanisms provided for in this Regulation, where applicable, including notice and action and complaint mechanisms. They should also take measures to protect minors from content that may impair their physical, mental or moral development and provide tools that enable conditional access to such information. In selecting the appropriate mitigation measures, providers can consider, where appropriate, industry best practices, including as established through self-regulatory cooperation, such as codes of conduct, and should take into account the guidelines from the Commission.

(90) Providers of very large online platforms and of very large online search engines should ensure that their approach to risk assessment and mitigation is based on the best available information and scientific insights and that they test their assumptions with the groups most impacted by the risks and the measures they take. To this end, they should, where appropriate, conduct their risk assessments and design their risk mitigation measures with the involvement of representatives of the recipients of the service, representatives of groups potentially impacted by their services, independent experts and civil society organisations. They should seek to embed such consultations into their methodologies for assessing the risks and designing mitigation measures, including, as appropriate, surveys, focus groups, round tables, and other consultation and design methods. In the assessment on whether a measure is reasonable, proportionate and effective, special consideration should be given to the right to freedom of expression.

(91) In times of crisis, there might be a need for certain specific measures to be taken urgently by providers of very large online platforms, in addition to measures they would be taking in view of their other obligations under this Regulation. In that regard, a crisis should be considered to occur when extraordinary circumstances occur that can lead to a serious threat to public security or public health in the Union or significant parts thereof. Such crises could result from armed conflicts or acts of terrorism, including emerging conflicts or acts of terrorism, natural disasters such as earthquakes and hurricanes, as well as from pandemics and other serious cross-border threats to public health. The Commission should be able to require, upon recommendation by the European Board for Digital Services (‘the Board’), providers of very large online platforms and providers of very large search engines to initiate a crisis response as a matter of urgency. Measures that those providers may identify and consider applying may include, for example, adapting content moderation processes and increasing the resources dedicated to content moderation, adapting terms and conditions, relevant algorithmic systems and advertising systems, further intensifying cooperation with trusted flaggers, taking awareness-raising measures and promoting trusted information and adapting the design of their online interfaces. The necessary requirements should be provided for to ensure that such measures are taken within a very short time frame and that the crisis response mechanism is only used where, and to the extent that, this is strictly necessary and any measures taken under this mechanism are effective and proportionate, taking due account of the rights and legitimate interests of all parties concerned. The use of the mechanism should be without prejudice to the other provisions of this Regulation, such as those on risk assessments and mitigation measures and the enforcement thereof and those on crisis protocols.

(92) Given the need to ensure verification by independent experts, providers of very large online platforms and of very large online search engines should be accountable, through independent auditing, for their compliance with the obligations laid down by this Regulation and, where relevant, any complementary commitments undertaken pursuant to codes of conduct and crises protocols. In order to ensure that audits are carried out in an effective, efficient and timely manner, providers of very large online platforms and of very large online search engines should provide the necessary cooperation and assistance to the organisations carrying out the audits, including by giving the auditor access to all relevant data and premises necessary to perform the audit properly, including, where appropriate, to data related to algorithmic systems, and by answering oral or written questions. Auditors should also be able to make use of other sources of objective information, including studies by vetted researchers. Providers of very large online platforms and of very large online search engines should not undermine the performance of the audit. Audits should be performed according to best industry practices and high professional ethics and objectivity, with due regard, as appropriate, to auditing standards and codes of practice. Auditors should guarantee the confidentiality, security and integrity of the information, such as trade secrets, that they obtain when performing their tasks. This guarantee should not be a means to circumvent the applicability of audit obligations in this Regulation. Auditors should have the necessary expertise in the area of risk management and technical competence to audit algorithms. They should be independent, in order to be able to perform their tasks in an adequate and trustworthy manner. They should comply with core independence requirements for prohibited non-auditing services, firm rotation and non contingent fees. If their independence and technical competence is not beyond doubt, they should resign or abstain from the audit engagement.

(93) The audit report should be substantiated, in order to give a meaningful account of the activities undertaken and the conclusions reached. It should help inform, and where appropriate suggest improvements to the measures taken by the providers of the very large online platform and of the very large online search engine to comply with their obligations under this Regulation. The audit report should be transmitted to the Digital Services Coordinator of establishment, the Commission and the Board following the receipt of the audit report. Providers should also transmit upon completion without undue delay each of the reports on the risk assessment and the mitigation measures, as well as the audit implementation report of the provider of the very large online platform or of the very large online search engine showing how they have addressed the audit’s recommendations. The audit report should include an audit opinion based on the conclusions drawn from the audit evidence obtained. A ‘positive opinion’ should be given where all evidence shows that the provider of the very large online platform or of the very large online search engine complies with the obligations laid down by this Regulation or, where applicable, any commitments it has undertaken pursuant to a code of conduct or crisis protocol, in particular by identifying, evaluating and mitigating the systemic risks posed by its system and services. A ‘positive opinion’ should be accompanied by comments where the auditor wishes to include remarks that do not have a substantial effect on the outcome of the audit. A ‘negative opinion’ should be given where the auditor considers that the provider of the very large online platform or of the very large online search engine does not comply with this Regulation or the commitments undertaken. Where the audit opinion could not reach a conclusion for specific elements that fall within the scope of the audit, an explanation of reasons for the failure to reach such a conclusion should be included in the audit opinion. Where applicable, the report should include a description of specific elements that could not be audited, and an explanation of why these could not be audited.

(94) The obligations on assessment and mitigation of risks should trigger, on a case by-case basis, the need for providers of very large online platforms and of very large online search engines to assess and, where necessary, adjust the design of their recommender systems, for example by taking measures to prevent or minimise biases that lead to the discrimination of persons in vulnerable situations, in particular where such adjustment is in accordance with data protection law and when the information is personalised on the basis of special categories of personal data referred to in Article 9 of the Regulation (EU) 2016/679. In addition, and complementing the transparency obligations applicable to online platforms as regards their recommender systems, providers of very large online platforms and of very large online search engines should consistently ensure that recipients of their service enjoy alternative options which are not based on profiling, within the meaning of Regulation (EU) 2016/679, for the main parameters of their recommender systems. Such choices should be directly accessible from the online interface where the recommendations are presented.

(95) Advertising systems used by very large online platforms and very large online search engines pose particular risks and require further public and regulatory supervision on account of their scale and ability to target and reach recipients of the service based on their behaviour within and outside that platform’s or search engine’s online interface. Very large online platforms or very large online search engines should ensure public access to repositories of advertisements presented on their online interfaces to facilitate supervision and research into emerging risks brought about by the distribution of advertising online, for example in relation to illegal advertisements or manipulative techniques and disinformation with a real and foreseeable negative impact on public health, public security, civil discourse, political participation and equality. Repositories should include the content of advertisements, including the name of the product, service or brand and the subject matter of the advertisement, and related data on the advertiser, and, if different, the natural or legal person who paid for the advertisement, and the delivery of the advertisement, in particular where targeted advertising is concerned. This information should include both information about targeting criteria and delivery criteria, in particular when advertisements are delivered to persons in vulnerable situations, such as minors.

(96) In order to appropriately monitor and assess the compliance of very large online platforms and of very large online search engines with the obligations laid down by this Regulation, the Digital Services Coordinator of establishment or the Commission may require access to or reporting of specific data, including data related to algorithms. Such a requirement may include, for example, the data necessary to assess the risks and possible harms brought about by the very large online platform’s or the very large online search engine’s systems, data on the accuracy, functioning and testing of algorithmic systems for content moderation, recommender systems or advertising systems, including, where appropriate, training data and algorithms, or data on processes and outputs of content moderation or of internal complaint-handling systems within the meaning of this Regulation. Such data access requests should not include requests to produce specific information about individual recipients of the service for the purpose of determining compliance of such recipients with other applicable Union or national law. Investigations by researchers on the evolution and severity of online systemic risks are particularly important for bridging information asymmetries and establishing a resilient system of risk mitigation, informing providers of online platforms, providers of online search engines, Digital Services Coordinators, other competent authorities, the Commission and the public.

(97) This Regulation therefore provides a framework for compelling access to data from very large online platforms and very large online search engines to vetted researchers affiliated to a research organisation within the meaning of Article 2 of Directive (EU) 2019/790, which may include, for the purpose of this Regulation, civil society organisations that are conducting scientific research with the primary goal of supporting their public interest mission. All requests for access to data under that framework should be proportionate and appropriately protect the rights and legitimate interests, including the protection of personal data, trade secrets and other confidential information, of the very large online platform or of the very large online search engine and any other parties concerned, including the recipients of the service. However, to ensure that the objective of this Regulation is achieved, consideration of the commercial interests of providers should not lead to a refusal to provide access to data necessary for the specific research objective pursuant to a request under this Regulation. In this regard, whilst without prejudice to Directive (EU) 2016/943 of the European Parliament and of the Council, providers should ensure appropriate access for researchers, including, where necessary, by taking technical protections such as through data vaults. Data access requests could cover, for example, the number of views or, where relevant, other types of access to content by recipients of the service prior to its removal by the providers of very large online platforms or of very large online search engines.

(98) In addition, where data is publicly accessible, such providers should not prevent researchers meeting an appropriate subset of criteria from using this data for research purposes that contribute to the detection, identification and understanding of systemic risks. They should provide access to such researchers including, where technically possible, in real-time, to the publicly accessible data, for example on aggregated interactions with content from public pages, public groups, or public figures, including impression and engagement data such as the number of reactions, shares, comments from recipients of the service. Providers of very large online platforms or of very large online search engines should be encouraged to cooperate with researchers and provide broader access to data for monitoring societal concerns through voluntary efforts, including through commitments and procedures agreed under codes of conduct or crisis protocols. Those providers and researchers should pay particular attention to the protection of personal data, and ensure that any processing of personal data complies with Regulation (EU) 2016/ 679. Providers should anonymise or pseudonymise personal data except in those cases that would render impossible the research purpose pursued.

(99) Given the complexity of the functioning of the systems deployed and the systemic risks they present to society, providers of very large online platforms and of very large online search engines should establish a compliance function, which should be independent from the operational functions of those providers. The head of the compliance function should report directly to the management of those providers, including for concerns of non-compliance with this Regulation. The compliance officers that are part of the compliance function should have the necessary qualifications, knowledge, experience and ability to operationalise measures and monitor the compliance with this Regulation within the organisation of the providers of very large online platform or of very large online search engine. Providers of very large online platforms and of very large online search engines should ensure that the compliance function is involved, properly and in a timely manner, in all issues which relate to this Regulation including in the risk assessment and mitigation strategy and specific measures, as well as assessing compliance, where applicable, with commitments made by those providers under the codes of conduct and crisis protocols they subscribe to.

(100) In view of the additional risks relating to their activities and their additional obligations under this Regulation, additional transparency requirements should apply specifically to very large online platforms and very large online search engines, notably to report comprehensively on the risk assessments performed and subsequent measures adopted as provided by this Regulation.

(101) The Commission should be in possession of all the necessary resources, in terms of staffing, expertise, and financial means, for the performance of its tasks under this Regulation. In order to ensure the availability of the resources necessary for the adequate supervision at Union level under this Regulation, and considering that Member States should be entitled to charge providers established in their territory a supervisory fee to in respect of the supervisory and enforcement tasks exercised by their authorities, the Commission should charge a supervisory fee, the level of which should be established on an annual basis, on very large online platforms and very large online search engines. The overall amount of the annual supervisory fee charged should be established on the basis of the overall amount of the costs incurred by the Commission to exercise its supervisory tasks under this Regulation, as reasonably estimated beforehand. Such amount should include costs relating to the exercise of the specific powers and tasks of supervision, investigation, enforcement and monitoring in respect of providers of very large online platforms and of very large online search engines, including costs related to the designation of very large online platforms and of very large online search engines or to the set up, maintenance and operation of the databases envisaged under this Regulation. It should also include costs relating to the set-up, maintenance and operation of the basic information and institutional infrastructure for the cooperation among Digital Services Coordinators, the Board and the Commission, taking into account the fact that in view of their size and reach very large online platforms and very large online search engines have a significant impact on the resources needed to support such infrastructure. The estimation of the overall costs should take into account the supervisory costs incurred in the previous year including, where applicable, those costs exceeding the individual annual supervisory fee charged in the previous year. The external assigned revenues resulting from the annual supervisory fee could be used to finance additional human resources, such as contractual agents and seconded national experts, and other expenditure related to the fulfilment of the tasks entrusted to the Commission by this Regulation. The annual supervisory fee to be charged on providers of very large online platforms and of very large online search engines should be proportionate to the size of the service as reflected by the number of its active recipients of the service in the Union. Moreover, the individual annual supervisory fee should not exceed an overall ceiling for each provider of very large online platforms or of very large online search engines taking into account the economic capacity of the provider of the designated service or services.

(102) To facilitate the effective and consistent application of the obligations in this Regulation that may require implementation through technological means, it is important to promote voluntary standards covering certain technical procedures, where the industry can help develop standardised means to support providers of intermediary services in complying with this Regulation, such as allowing the submission of notices, including through application programming interfaces, or standards related to terms and conditions or standards relating to audits, or standards related to the interoperability of advertisement repositories. In addition, such standards could include standards related to online advertising, recommender systems, accessibility and the protection of minors online. Providers of intermediary services are free to adopt the standards, but their adoption does not presume compliance with this Regulation. At the same time, by providing best practices, such standards could in particular be useful for relatively small providers of intermediary services. The standards could distinguish between different types of illegal content or different types of intermediary services, as appropriate.

(103) The Commission and the Board should encourage the drawing-up of voluntary codes of conduct, as well as the implementation of the provisions of those codes in order to contribute to the application of this Regulation. The Commission and the Board should aim that the codes of conduct clearly define the nature of the public interest objectives being addressed, that they contain mechanisms for independent evaluation of the achievement of those objectives and that the role of relevant authorities is clearly defined. Particular attention should be given to avoiding negative effects on security, the protection of privacy and personal data, as well as to the prohibition on imposing general monitoring obligations. While the implementation of codes of conduct should be measurable and subject to public oversight, this should not impair the voluntary nature of such codes and the freedom of interested parties to decide whether to participate. In certain circumstances, it is important that very large online platforms cooperate in the drawing-up and adhere to specific codes of conduct. Nothing in this Regulation prevents other service providers from adhering to the same standards of due diligence, adopting best practices and benefitting from the guidelines provided by the Commission and the Board, by participating in the same codes of conduct.

(104) It is appropriate that this Regulation identify certain areas of consideration for such codes of conduct. In particular, risk mitigation measures concerning specific types of illegal content should be explored via self-and co-regulatory agreements. Another area for consideration is the possible negative impacts of systemic risks on society and democracy, such as disinformation or manipulative and abusive activities or any adverse effects on minors. This includes coordinated operations aimed at amplifying information, including disinformation, such as the use of bots or fake accounts for the creation of intentionally inaccurate or misleading information, sometimes with a purpose of obtaining economic gain, which are particularly harmful for vulnerable recipients of the service, such as minors. In relation to such areas, adherence to and compliance with a given code of conduct by a very large online platform or a very large online search engine may be considered as an appropriate risk mitigating measure. The refusal without proper explanations by a provider of an online platform or of an online search engine of the Commission’s invitation to participate in the application of such a code of conduct could be taken into account, where relevant, when determining whether the online platform or the online search engine has infringed the obligations laid down by this Regulation. The mere fact of participating in and implementing a given code of conduct should not in itself presume compliance with this Regulation.

(105) The codes of conduct should facilitate the accessibility of very large online platforms and very large online search engines, in compliance with Union and national law, in order to facilitate their foreseeable use by persons with disabilities. In particular, the codes of conduct could ensure that the information is presented in a perceivable, operable, understandable and robust way and that forms and measures provided pursuant to this Regulation are made available in a manner that is easy to find and accessible to persons with disabilities.

(106) The rules on codes of conduct under this Regulation could serve as a basis for already established self-regulatory efforts at Union level, including the Product Safety Pledge, the Memorandum of understanding on the sale of counterfeit goods on the internet, the Code of conduct on countering illegal hate speech online, as well as the Code of Practice on Disinformation. In particular for the latter, following the Commission’s guidance, the Code of Practice on Disinformation has been strengthened as announced in the European Democracy Action Plan.

(107) The provision of online advertising generally involves several actors, including intermediary services that connect publishers of advertisements with advertisers. Codes of conduct should support and complement the transparency obligations relating to advertising for providers of online platforms, of very large online platforms and of very large online search engines set out in this Regulation in order to provide for flexible and effective mechanisms to facilitate and enhance the compliance with those obligations, notably as concerns the modalities of the transmission of the relevant information. This should include facilitating the transmission of the information on the advertiser who pays for the advertisement when they differ from the natural or legal person on whose behalf the advertisement is presented on the online interface of an online platform. The codes of conduct should also include measures to ensure that meaningful information about the monetisation of data is appropriately shared throughout the value chain. The involvement of a wide range of stakeholders should ensure that those codes of conduct are widely supported, technically sound, effective and offer the highest levels of user-friendliness to ensure that the transparency obligations achieve their objectives. In order to ensure the effectiveness of codes of conduct, the Commission should include evaluation mechanisms in drawing up the codes of conduct. Where appropriate, the Commission may invite the Fundamental Rights Agency or the European Data Protection Supervisor to express their opinions on the respective code of conduct.

(108) In addition to the crisis response mechanism for very large online platforms and very large online search engines, the Commission may initiate the drawing up of voluntary crisis protocols to coordinate a rapid, collective and cross-border response in the online environment. Such can be the case, for example, where online platforms are misused for the rapid spread of illegal content or disinformation or where the need arises for rapid dissemination of reliable information. In light of the important role of very large online platforms in disseminating information in our societies and across borders, providers of such platforms should be encouraged in drawing up and applying specific crisis protocols. Such crisis protocols should be activated only for a limited period of time and the measures adopted should also be limited to what is strictly necessary to address the extraordinary circumstance. Those measures should be consistent with this Regulation, and should not amount to a general obligation for the participating providers of very large online platforms and of very large online search engines to monitor the information which they transmit or store, nor actively to seek facts or circumstances indicating illegal content.

(109) In order to ensure adequate oversight and enforcement of the obligations laid down in this Regulation, Member States should designate at least one authority with the task to supervise the application and enforce this Regulation, without prejudice to the possibility to designate an existing authority and to its legal form in accordance with national law. Member States should, however, be able to entrust more than one competent authority, with specific supervisory or enforcement tasks and competences concerning the application of this Regulation, for example for specific sectors where existing authorities may also be empowered, such as electronic communications’ regulators, media regulators or consumer protection authorities, reflecting their domestic constitutional, organisational and administrative structure. In the exercise of their tasks, all competent authorities should contribute to the achievement of the objectives of this Regulation, namely to the proper functioning of the internal market for intermediary services where the harmonised rules for a safe, predictable and trusted online environment that facilitates innovation, and in particular the due diligence obligations applicable to different categories of providers of intermediary services, are effectively supervised and enforced, with a view to ensure that fundamental rights, as enshrined in the Charter, including the principle of consumer protection, are effectively protected. This Regulation does not require Member States to confer on competent authorities the task to adjudicate on the lawfulness of specific items of content.

(110) Given the cross-border nature of the services at stake and the horizontal range of obligations introduced by this Regulation, one authority appointed with the task of supervising the application and, where necessary, enforcing this Regulation should be identified as a Digital Services Coordinator in each Member State. Where more than one competent authority is appointed to supervise the application of, and enforce, this Regulation, only one authority in that Member State should be designated as a Digital Services Coordinator. The Digital Services Coordinator should act as the single contact point with regard to all matters related to the application of this Regulation for the Commission, the Board, the Digital Services Coordinators of other Member States, as well as for other competent authorities of the Member State in question. In particular, where several competent authorities are entrusted with tasks under this Regulation in a given Member State, the Digital Services Coordinator should coordinate and cooperate with those authorities in accordance with the national law setting their respective tasks and without prejudice to the independent assessment of the other competent authorities. While not entailing any hierarchical supraordination over other competent authorities in the exercise of their tasks, the Digital Services Coordinator should ensure effective involvement of all relevant competent authorities and should timely report their assessment in the context of cooperation on supervision and enforcement at Union level. Moreover, in addition to the specific mechanisms provided for in this Regulation as regards cooperation at Union level, Member State should also ensure cooperation among the Digital Services Coordinator and other competent authorities designated at national level, where applicable, through appropriate tools, such as by pooling of resources, joint task forces, joint investigations and mutual assistance mechanisms.

(111) The Digital Services Coordinator, as well as other competent authorities designated under this Regulation, play a crucial role in ensuring the effectiveness of the rights and obligations laid down in this Regulation and the achievement of its objectives. Accordingly, it is necessary to ensure that those authorities have the necessary means, including financial and human resources, to supervise all the providers of intermediary services falling within their competence, in the interest of all Union citizens. Given the variety of providers of intermediary services and their use of advanced technology in providing their services, it is also essential that the Digital Services Coordinator and the relevant competent authorities are equipped with the necessary number of staff and experts with specialised skills and advanced technical means, and that they autonomously manage financial resources to carry out their tasks. Furthermore, the level of resources should take into account the size, complexity and potential societal impact of the providers of intermediary services falling within their competence, as well as the reach of their services across the Union. This Regulation is without prejudice to the possibility for Member States to establish funding mechanisms based on a supervisory fee charged to providers of intermediary services under national law in compliance with Union law, to the extent that it is levied on providers of intermediary services having their main establishment in the Member State in question, that it is strictly limited to what is necessary and proportionate to cover the costs for the fulfilment of the tasks conferred upon the competent authorities pursuant to this Regulation, with the exclusion of the tasks conferred upon the Commission, and that adequate transparency is ensured regarding the levying and the use of such a supervisory fee.

(112) The competent authorities designated under this Regulation should also act in complete independence from private and public bodies, without the obligation or possibility to seek or receive instructions, including from the government, and without prejudice to the specific duties to cooperate with other competent authorities, the Digital Services Coordinators, the Board and the Commission. On the other hand, the independence of those authorities should not mean that they cannot be subject, in accordance with national constitutions and without endangering the achievement of the objectives of this Regulation, to proportionate accountability mechanisms regarding the general activities of the Digital Services Coordinators, such as their financial expenditure or reporting to the national parliaments. The requirement of independence should also not prevent the exercise of judicial review, or the possibility to consult or regularly exchange views with other national authorities, including law enforcement authorities, crisis management authorities or consumer protection authorities, where appropriate, in order to inform each other about ongoing investigations, without affecting the exercise of their respective powers.

(113) Member States can designate an existing national authority with the function of the Digital Services Coordinator, or with specific tasks to supervise the application and enforce this Regulation, provided that any such appointed authority complies with the requirements laid down in this Regulation, such as in relation to its independence. Moreover, Member States are in principle not precluded from merging functions within an existing authority, in accordance with Union law. The measures to that effect may include, inter alia, the preclusion to dismiss the president or a board member of a collegiate body of an existing authority before the expiry of their terms of office, on the sole ground that an institutional reform has taken place involving the merger of different functions within one authority, in the absence of any rules guaranteeing that such dismissals do not jeopardise the independence and impartiality of such members.

(114) Member States should provide the Digital Services Coordinator, and any other competent authority designated under this Regulation, with sufficient powers and means to ensure effective investigation and enforcement, in accordance with the tasks conferred on them. This includes the power of competent authorities to adopt interim measures in accordance with national law in case of risk of serious harm. Such interim measures, which may include orders to terminate or remedy a given alleged infringement, should not go beyond what is necessary to ensure that serious harm is prevented pending the final decision. The Digital Services Coordinators should in particular be able to search for and obtain information which is located in its territory, including in the context of joint investigations, with due regard to the fact that oversight and enforcement measures concerning a provider under the jurisdiction of another Member State or the Commission should be adopted by the Digital Services Coordinator of that other Member State, where relevant in accordance with the procedures relating to cross-border cooperation, or, where applicable, by the Commission.

(115) Member States should set out in their national law, in accordance with Union law and in particular this Regulation and the Charter, the detailed conditions and limits for the exercise of the investigatory and enforcement powers of their Digital Services Coordinators, and other competent authorities where relevant, under this Regulation.

(116) In the course of the exercise of those powers, the competent authorities should comply with the applicable national rules regarding procedures and matters such as the need for a prior judicial authorisation to enter certain premises and legal professional privilege. Those provisions should in particular ensure respect for the fundamental rights to an effective remedy and to a fair trial, including the rights of defence, and, the right to respect for private life. In this regard, the guarantees provided for in relation to the proceedings of the Commission pursuant to this Regulation could serve as an appropriate point of reference. A prior, fair and impartial procedure should be guaranteed before taking any final decision, including the right to be heard of the persons concerned, and the right to have access to the file, while respecting confidentiality and professional and business secrecy, as well as the obligation to give meaningful reasons for the decisions. This should not preclude the taking of measures, however, in duly substantiated cases of urgency and subject to appropriate conditions and procedural arrangements. The exercise of powers should also be proportionate to, inter alia the nature and the overall actual or potential harm caused by the infringement or suspected infringement. The competent authorities should take all relevant facts and circumstances of the case into account, including information gathered by competent authorities in other Member States.

(117) Member States should ensure that violations of the obligations laid down in this Regulation can be sanctioned in a manner that is effective, proportionate and dissuasive, taking into account the nature, gravity, recurrence and duration of the violation, in view of the public interest pursued, the scope and kind of activities carried out, as well as the economic capacity of the infringer. In particular, penalties should take into account whether the provider of intermediary services concerned systematically or recurrently fails to comply with its obligations stemming from this Regulation, as well as, where relevant, the number of recipients of the service affected, the intentional or negligent character of the infringement and whether the provider is active in several Member States. Where this Regulation provides for a maximum amount of fines or of a periodic penalty payment, this maximum amount should apply per infringement of this Regulation and without prejudice to the modulation of the fines or periodic penalty payments for specific infringements. Member States should ensure that the imposition of fines or periodic penalty payments in respect of infringements should in each individual case be effective, proportionate and dissuasive by setting up national rules and procedures in accordance with this Regulation, taking into account all the criteria concerning the general conditions for imposing the fines or periodic penalty payments.

(118) In order to ensure effective enforcement of the obligations laid down in this Regulation, individuals or representative organisations should be able to lodge any complaint related to compliance with those obligations with the Digital Services Coordinator in the territory where they received the service, without prejudice to this Regulation’s rules on allocation of competences and to the applicable rules on handling of complaints in accordance with national principles of good administration. Complaints could provide a faithful overview of concerns related to a particular intermediary service provider’s compliance and could also inform the Digital Services Coordinator of any more cross-cutting issues. The Digital Services Coordinator should involve other national competent authorities as well as the Digital Services Coordinator of another Member State, and in particular the one of the Member State where the provider of intermediary services concerned is established, if the issue requires cross-border cooperation.

(119) Member States should ensure that Digital Services Coordinators can take measures that are effective in addressing and proportionate to certain particularly serious and persistent infringements of this Regulation. Especially where those measures can affect the rights and interests of third parties, as may be the case in particular where the access to online interfaces is restricted, it is appropriate to require that the measures are subject to additional safeguards. In particular, third parties potentially affected should be afforded the opportunity to be heard and such orders should only be issued when powers to take such measures as provided by other acts of Union law or by national law, for instance to protect collective interests of consumers, to ensure the prompt removal of web pages containing or disseminating child pornography, or to disable access to services that are being used by a third party to infringe an intellectual property right, are not reasonably available.

(120) Such an order to restrict access should not go beyond what is necessary to achieve its objective. For that purpose, it should be temporary and be addressed in principle to a provider of intermediary services, such as the relevant hosting service provider, internet service provider or domain registry or registrar, which is in a reasonable position to achieve that objective without unduly restricting access to lawful information.

(121) Without prejudice to the provisions on the exemption from liability provided for in this Regulation as regards the information transmitted or stored at the request of a recipient of the service, a provider of intermediary services should be liable for the damages suffered by recipients of the service that are caused by an infringement of the obligations set out in this Regulation by that provider. Such compensation should be in accordance with the rules and procedures set out in the applicable national law and without prejudice to other possibilities for redress available under consumer protection rules.

(122) The Digital Services Coordinator should regularly publish, for example on its website, a report on the activities carried out under this Regulation. In particular, the report should be published in a machine readable format and include an overview of complaints received and of their follow-up, such as the overall number of complaints received and the number of complaints that led to the opening of a formal investigation or to the transmission to other Digital Services Coordinators, without referring to any personal data. Given that the Digital Services Coordinator is also made aware of orders to take action against illegal content or to provide information regulated by this Regulation through the information sharing system, the Digital Services Coordinator should include in its annual report the number and categories of such orders addressed to providers of intermediary services issued by judicial and administrative authorities in its Member State.

(123) In the interest of clarity, simplicity and effectiveness, the powers to supervise and enforce the obligations under this Regulation should be conferred to the competent authorities in the Member State where the main establishment of the provider of intermediary services is located, that is, where the provider has its head office or registered office within which the principal financial functions and operational control are exercised. In respect of providers that are not established in the Union, but that offer services in the Union and therefore fall within the scope of this Regulation, the Member State where those providers appointed their legal representative should have competence, considering the function of legal representatives under this Regulation. In the interest of the effective application of this Regulation, all Member States or the Commission, where applicable, should, however, have competence in respect of providers that failed to designate a legal representative. That competence may be exercised by any of the competent authorities or the Commission, provided that the provider is not subject to enforcement proceedings for the same facts by another competent authority or the Commission. In order to ensure that the principle of ne bis in idem is respected, and in particular to avoid that the same infringement of the obligations laid down in this Regulation is sanctioned more than once, each Member State that intends to exercise its competence in respect of such providers should, without undue delay, inform all other authorities, including the Commission, through the information sharing system established for the purpose of this Regulation.

(124) In view of their potential impact and the challenges involved in effectively supervising them, special rules are needed regarding the supervision and enforcement in respect of providers of very large online platforms and of very large online search engines. The Commission should be responsible, with the support of national competent authorities where relevant, for oversight and public enforcement of systemic issues, such as issues with a wide impact on collective interests of recipients of the service. Therefore, the Commission should have exclusive powers of supervision and enforcement of the additional obligations to manage systemic risks imposed on providers of very large online platforms and of very large online search engines by this Regulation. The exclusive powers of the Commission should be without prejudice to certain administrative tasks assigned by this Regulation to the competent authorities of the Member State of establishment, such as the vetting of researchers.

(125) The powers of supervision and enforcement of due diligence obligations, other than the additional obligations to manage systemic risks imposed on providers of very large online platforms and of very large online search engines by this Regulation, should be shared by the Commission and by the national competent authorities. On the one hand, the Commission could in many instances be better placed to address systemic infringements committed by those providers, such as those affecting multiple Member States or serious repeated infringements or concerning a failure to establish effective mechanisms required by this Regulation. On the other hand, the competent authorities in the Member State where the main establishment of a provider of very large online platform or of very large online search engine is located could be better placed to address individual infringements committed by those providers, that do not raise any systemic or cross border issues. In the interest of efficiency, to avoid duplication and to ensure compliance with the principle of ne bis in idem, it should be for the Commission to assess whether it deems it appropriate to exercise those shared competences in a given case and, once it has initiated proceedings, Member States should no longer have the ability to do so. Member States should cooperate closely both with each other and with the Commission, and the Commission should cooperate closely with the Member States, in order to ensure that the system of supervision and enforcement set up by this Regulation functions smoothly and effectively.

(126) The rules of this Regulation on the allocation of competence should be without prejudice to the provisions of Union law and national rules on private international law concerning jurisdiction and applicable law in civil and commercial matters, such as proceedings brought by consumers in the courts of the Member State where they are domiciled in accordance with relevant provisions of Union law. Regarding the obligations imposed by this Regulation on providers of intermediary services to inform the issuing authority of the effect given to the orders to act against illegal content and orders to provide information, the rules on allocation of competence should only apply to the supervision of enforcement of those obligations, but not to other matters related to the order, such as the competence to issue the order.

(127) Given the cross-border and cross sectoral relevance of intermediary services, a high level of cooperation is necessary to ensure the consistent application of this Regulation and the availability of relevant information for the exercise of enforcement tasks through the information sharing system. Cooperation may take different forms depending on the issues at stake, without prejudice to specific joint investigation exercises. It is in any case necessary that the Digital Services Coordinator of establishment of a provider of intermediary services informs other Digital Services Coordinators about issues, investigations and actions which are going to be taken vis à vis such a provider. Moreover, when a competent authority in a Member State holds relevant information for an investigation carried out by the competent authorities in the Member State of establishment, or is able to gather such information located in its territory to which the competent authorities in the Member State of establishment do not have access, the Digital Services Coordinator of destination should assist the Digital Services Coordinator of establishment in a timely manner, including through the exercise of its powers of investigation in accordance with the applicable national procedures and the Charter. The addressee of such investigatory measures should comply with them and be liable in case of failure to comply, and the competent authorities in the Member State of establishment should be able to rely on the information gathered through mutual assistance, in order to ensure compliance with this Regulation.

(128) The Digital Services Coordinator of destination, in particular on the basis of complaints received or of the input of other national competent authorities where appropriate, or the Board in case of issues involving at least three Member States, should be able to ask the Digital Services Coordinator of establishment to take investigatory or enforcement actions with regard to a provider under its competence. Such requests for action should be based on well-substantiated evidence showing the existence of an alleged infringement with negative impact on collective interests of the recipients of the service in its Member State or having a negative societal impact. The Digital Services Coordinator of establishment should be able to rely on mutual assistance or invite the requesting Digital Services Coordinator to a joint investigation in case further information is needed to take a decision, without prejudice to the possibility to request the Commission to assess the matter if it has reason to suspect that a systemic infringement by a very large online platform or a very large online search engine may be at stake.

(129) The Board should be able to refer the matter to the Commission in case of any disagreement as to the assessments or the measures taken or proposed or of a failure to adopt any measures in accordance with this Regulation following a cross-border cooperation request or a joint investigation. Where the Commission, on the basis of the information made available by the concerned authorities, considers that the proposed measures, including the proposed level of fines, cannot ensure the effective enforcement of the obligations laid down in this Regulation, it should accordingly be able to express its serious doubts and request the competent Digital Services Coordinator to re-assess the matter and take the necessary measures to ensure compliance with this Regulation within a defined period. This possibility is without prejudice to the Commission’s general duty to oversee the application of, and where necessary enforce, Union law under the control of the Court of Justice of the European Union in accordance with the Treaties.

(130) In order to facilitate cross-border supervision and investigations of obligations laid down in this Regulation involving several Member States, the Digital Services Coordinators of establishment should be able, through the information sharing system, to invite other Digital Services Coordinators to a joint investigation concerning an alleged infringement of this Regulation. Other Digital Services Coordinators, and other competent authorities, where appropriate, should be able to join the investigation proposed by the Digital Services Coordinator of establishment, unless the latter considers that an excessive number of participating authorities may affect the effectiveness of the investigation taking into account the features of the alleged infringement and the lack of direct effects on the recipients of the service in those Member States. Joint investigation activities may include a variety of actions to be coordinated by the Digital Services Coordinator of establishment in accordance with the availabilities of the participating authorities, such as coordinated data gathering exercises, pooling of resources, task forces, coordinated requests for information or common inspections of premises. All competent authorities participating in a joint investigation should cooperate with the Digital Services Coordinator of establishment, including by exercising their powers of investigation within their territory, in accordance with the applicable national procedures. The joint investigation should be concluded within a given timeframe with a final report taking into account the contribution of all participating competent authorities. Also the Board, where this is requested by at least three Digital Services Coordinators of destination, may recommend to a Digital Services Coordinator of establishment to launch such joint investigation and give indications on its organisation. In order to avoid deadlocks, the Board should be able to refer the matter to the Commission in specific cases, including where the Digital Services Coordinator of establishment refuses to launch the investigation and the Board does not agree with the justification given.

(131) In order to ensure a consistent application of this Regulation, it is necessary to set up an independent advisory group at Union level, a European Board for Digital Services, which should support the Commission and help coordinate the actions of Digital Services Coordinators. The Board should consist of the Digital Services Coordinators, where these have been appointed, without prejudice to the possibility for Digital Services Coordinators to invite in its meetings or appoint ad hoc delegates from other competent authorities entrusted with specific tasks under this Regulation, where that is required pursuant to their national allocation of tasks and competences. In case of multiple participants from one Member State, the voting right should remain limited to one representative per Member State.

(132) The Board should contribute to achieving a common Union perspective on the consistent application of this Regulation and to the cooperation among competent authorities, including by advising the Commission and the Digital Services Coordinators about appropriate investigation and enforcement measures, in particular vis à vis the providers of very large online platforms or of very large online search engines and having regard, in particular, to the freedom of the providers of intermediary services to provide services across the Union. The Board should also contribute to the drafting of relevant templates and codes of conduct and to the analysis of emerging general trends in the development of digital services in the Union, including by issuing opinions or recommendations on matters related to standards.

(133) For that purpose, the Board should be able to adopt opinions, requests and recommendations addressed to Digital Services Coordinators or other competent national authorities. While not legally binding, the decision to deviate therefrom should be properly explained and could be taken into account by the Commission in assessing the compliance of the Member State concerned with this Regulation.

(134) The Board should bring together the representatives of the Digital Services Coordinators and possible other competent authorities under the chairmanship of the Commission, with a view to ensuring an assessment of matters submitted to it in a fully European dimension. In view of possible cross-cutting elements that may be of relevance for other regulatory frameworks at Union level, the Board should be allowed to cooperate with other Union bodies, offices, agencies and advisory groups with responsibilities in fields such as equality, including gender equality, and non discrimination, data protection, electronic communications, audiovisual services, detection and investigation of frauds against the Union budget as regards custom duties, consumer protection, or competition law, as necessary for the performance of its tasks.

(135) The Commission, through the Chair, should participate in the Board without voting rights. Through the Chair, the Commission should ensure that the agenda of the meetings is set in accordance with the requests of the members of the Board as laid down in the rules of procedure and in compliance with the duties of the Board laid down in this Regulation.

(136) In view of the need to ensure support for the Board’s activities, the Board should be able to rely on the expertise and human resources of the Commission and of the competent national authorities. The specific operational arrangements for the internal functioning of the Board should be further specified in the rules of procedure of the Board.

(137) Given the importance of very large online platforms or very large online search engines, in view of their reach and impact, their failure to comply with the specific obligations applicable to them may affect a substantial number of recipients of the services across different Member States and may cause large societal harms, while such failures may also be particularly complex to identify and address. For this reason the Commission, in cooperation with the Digital Services Coordinators and the Board, should develop the Union expertise and capabilities as regards the supervision of very large online platforms or very large online search engines. The Commission should therefore be able to coordinate and rely on the expertise and resources of such authorities, for example by analysing, on a permanent or temporary basis, specific trends or issues emerging with regard to one or more very large online platforms or very large online search engines. Member States should cooperate with the Commission in developing such capabilities, including through secondment of personnel where appropriate, and contributing to the creation of a common Union supervisory capacity. In order to develop the Union expertise and capabilities, the Commission may also draw on the expertise and capabilities of the Observatory on the Online Platform Economy as set up in Commission Decision of 26 April 2018 on setting up the group of experts for the Observatory on the Online Platform Economy, relevant expert bodies, as well as centres of excellence. The Commission may invite experts with specific expertise, including in particular vetted researchers, representatives of Union agencies and bodies, industry representatives, associations representing users or civil society, international organisations, experts from the private sector, as well as other stakeholders.

(138) The Commission should be able to investigate infringements on its own initiative in accordance with the powers provided for in this Regulation, including by asking access to data, by requesting information or by performing inspections, as well as by relying on the support of the Digital Services Coordinators. Where supervision by the competent national authorities of individual alleged infringements by providers of very large online platforms or very large online search engines points to systemic issues, such as issues with a wide impact on collective interests of recipients of the service, the Digital Services Coordinators should be able to, on the basis of a duly reasoned request, refer such issues to the Commission. Such a request should contain, at least, all the necessary facts and circumstances supporting the alleged infringement and its systemic nature. Depending on the outcome of its own assessment, the Commission should be able to take the necessary investigative and enforcement measures pursuant to this Regulation, including, where relevant, launching an investigation or adopting interim measures.

(139) In order to effectively perform its tasks, the Commission should maintain a margin of discretion as to the decision to initiate proceedings against providers of very large online platforms or of very large online search engine. Once the Commission initiated the proceedings, the Digital Services Coordinators of establishment concerned should be precluded from exercising their investigative and enforcement powers in respect of the concerned conduct of the provider of the very large online platform or of very large online search engine, so as to avoid duplication, inconsistencies and risks from the viewpoint of the principle of ne bis in idem. The Commission, however, should be able to ask for the individual or joint contribution of the Digital Services Coordinators to the investigation. In accordance with the duty of sincere cooperation, the Digital Services Coordinator should make its best efforts in fulfilling justified and proportionate requests by the Commission in the context of an investigation. Moreover, the Digital Services Coordinator of establishment, as well as the Board and any other Digital Services Coordinators where relevant, should provide the Commission with all necessary information and assistance to allow it to perform its tasks effectively, including information gathered in the context of data gathering or data access exercises, to the extent that this is not precluded by the legal basis according to which the information has been gathered. Conversely, the Commission should keep the Digital Services Coordinator of establishment and the Board informed on the exercise of its powers and in particular when it intends to initiate the proceeding and exercise its investigatory powers. Moreover, when the Commission communicates its preliminary findings, including any matter to which it objects, to providers of very large online platforms or of very large online search engines concerned, it should also communicate them to the Board. The Board should provide its views on the objections and assessment made by the Commission, which should take this opinion into account in the reasoning underpinning Commission’s final decision.

(140) In view of both the particular challenges that may arise in seeking to ensure compliance by providers of very large online platforms or of very large online search engines and the importance of doing so effectively, considering their size and impact and the harms that they may cause, the Commission should have strong investigative and enforcement powers to allow it to investigate, enforce and monitor compliance with the rules laid down in this Regulation, in full respect of the fundamental right to be heard and to have access to the file in the context of enforcement proceedings, the principle of proportionality and the rights and interests of the affected parties.

(141) The Commission should be able to request information necessary for the purpose of ensuring the effective implementation of and compliance with the obligations laid down in this Regulation, throughout the Union. In particular, the Commission should have access to any relevant documents, data and information necessary to open and conduct investigations and to monitor the compliance with the relevant obligations laid down in this Regulation, irrespective of who possesses the documents, data or information in question, and regardless of their form or format, their storage medium, or the precise place where they are stored. The Commission should be able to directly require by means of a duly substantiated request for information that the provider of the very large online platform or of the very large online search engine concerned as well as any other natural or legal persons acting for purposes related to their trade, business, craft or profession that may be reasonably aware of information relating to the suspected infringement or the infringement, as applicable, provide any relevant evidence, data and information. In addition, the Commission should be able to request any relevant information from any public authority, body or agency within the Member State for the purpose of this Regulation. The Commission should be able to require access to, and explanations by means of exercise of investigatory powers, such as requests for information or interviews, relating to documents, data, information, data-bases and algorithms of relevant persons, and to interview, with their consent, any natural or legal persons who may be in possession of useful information and to record the statements made by any technical means. The Commission should also be empowered to undertake such inspections as are necessary to enforce the relevant provisions of this Regulation. Those investigatory powers aim to complement the Commission’s possibility to ask Digital Services Coordinators and other Member States’ authorities for assistance, for instance by providing information or in the exercise of those powers.

(142) Interim measures can be an important tool to ensure that, while an investigation is ongoing, the infringement being investigated does not lead to the risk of serious damage for the recipients of the service. This tool is important to avoid developments that could be very difficult to reverse by a decision taken by the Commission at the end of the proceedings. The Commission should therefore have the power to impose interim measures by decision in the context of proceedings opened in view of the possible adoption of a decision of non-compliance. This power should apply in cases where the Commission has made a prima facie finding of infringement of obligations under this Regulation by the provider of very large online platform or of very large online search engine. A decision imposing interim measures should only apply for a specified period, either one ending with the conclusion of the proceedings by the Commission, or for a fixed period which can be renewed insofar as it is necessary and appropriate.

(143) The Commission should be able to take the necessary actions to monitor the effective implementation of and compliance with the obligations laid down in this Regulation. Such actions should include the ability to appoint independent external experts and auditors to assist the Commission in this process, including where applicable from competent authorities of the Member States, such as data or consumer protection authorities. When appointing auditors, the Commission should ensure sufficient rotation.

(144) Compliance with the relevant obligations imposed under this Regulation should be enforceable by means of fines and periodic penalty payments. To that end, appropriate levels of fines and periodic penalty payments should also be laid down for non-compliance with the obligations and breach of the procedural rules, subject to appropriate limitation periods in accordance with the principles of proportionality and ne bis in idem. The Commission and the relevant national authorities should coordinate their enforcement efforts in order to ensure that those principles are respected. In particular, the Commission should take into account any fines and penalties imposed on the same legal person for the same facts through a final decision in proceedings relating to an infringement of other Union or national rules, so as to ensure that the overall fines and penalties imposed are proportionate and correspond to the seriousness of the infringements committed. All decisions taken by the Commission under this Regulation are subject to review by the Court of Justice of the European Union in accordance with the TFEU. The Court of Justice of the European Union should have unlimited jurisdiction in respect of fines and penalty payments in accordance with Article 261 TFEU.

(145) Given the potential significant societal effects of an infringement of the additional obligations to manage systemic risks that solely apply to very large online platforms and very large online search engines and in order to address those public policy concerns, it is necessary to provide for a system of enhanced supervision of any action undertaken to effectively terminate and remedy infringements of this Regulation. Therefore, once an infringement of one of the provisions of this Regulation that solely apply to very large online platforms or very large online search engines has been ascertained and, where necessary, sanctioned, the Commission should request the provider of such platform or of such search engine to draw a detailed action plan to remedy any effect of the infringement for the future and communicate such action plan within a timeline set by the Commission, to the Digital Services Coordinators, the Commission and the Board. The Commission, taking into account the opinion of the Board, should establish whether the measures included in the action plan are sufficient to address the infringement, taking also into account whether adherence to relevant code of conduct is included among the measures proposed. The Commission should also monitor any subsequent measure taken by the provider of a very large online platform or of a very large online search engine concerned as set out in its action plan, taking into account also an independent audit of the provider. If following the implementation of the action plan the Commission still considers that the infringement has not been fully remedied, or if the action plan has not been provided or is not considered suitable, it should be able to use any investigative or enforcement powers pursuant to this Regulation, including the power to impose periodic penalty payments and initiating the procedure to disable access to the infringing service.

(146) The provider of the very large online platform or of the very large online search engine concerned and other persons subject to the exercise of the Commission’s powers whose interests may be affected by a decision should be given the opportunity of submitting their observations beforehand, and the decisions taken should be widely publicised. While ensuring the rights of defence of the parties concerned, in particular, the right of access to the file, it is essential that confidential information be protected. Furthermore, while respecting the confidentiality of the information, the Commission should ensure that any information relied on for the purpose of its decision is disclosed to an extent that allows the addressee of the decision to understand the facts and considerations that led up to the decision.

(147) In order to safeguard the harmonised application and enforcement of this Regulation, it is important to ensure that national authorities, including national courts, have all necessary information to ensure that their decisions do not run counter to a decision adopted by the Commission under this Regulation. This is without prejudice to Article 267 TFEU.

(148) The effective enforcement and monitoring of this Regulation requires a seamless and real-time exchange of information among the Digital Services Coordinators, the Board and the Commission, based on the information flows and procedures set out in this Regulation. This may also warrant access to this system by other competent authorities, where appropriate. At the same time, given that the information exchanged may be confidential or involving personal data, it should remain protected from unauthorised access, in accordance with the purposes for which the information has been gathered. For this reason, all communications between those authorities should take place on the basis of a reliable and secure information sharing system, whose details should be laid down in an implementing act. The information sharing system may be based on existing internal market tools, to the extent that they can meet the objectives of this Regulation in a cost-effective manner.

(149) Without prejudice to the rights of recipients of services to turn to a representative in accordance with the Directive (EU) 2020/1828 of the European Parliament and of the Council or to any other type of representation under national law, recipients of the services should also have the right to mandate a legal person or a public body to exercise their rights provided for in this Regulation. Such rights may include the rights related to the submission of notices, the challenging of the decisions taken by providers of intermediary services, and the lodging of complaints against the providers for infringing this Regulation. Certain bodies, organisations and associations have particular expertise and competence in detecting and flagging erroneous or unjustified content moderation decisions, and their complaints on behalf of recipients of the service may have a positive impact on freedom of expression and of information in general, therefore, providers of online platforms should treat those complaints without undue delay.

(150) In the interest of effectiveness and efficiency, the Commission should carry out a general evaluation of this Regulation. In particular, that general evaluation should address, inter alia, the scope of the services covered by this Regulation, the interplay with other legal acts, the impact of this Regulation on the functioning of the internal market, in particular regarding digital services, the implementation of codes of conduct, the obligation to designate a legal representative established in the Union, the effect of the obligations on small and micro enterprises, the effectiveness of the supervision and enforcement mechanism and the impact on the right to freedom of expression and of information. In addition, to avoid disproportionate burdens and ensure the continued effectiveness of this Regulation, the Commission should perform an evaluation of the impact of the obligations set out in this Regulation on small and medium-sized enterprises within three years from the start of its application and an evaluation on the scope of the services covered by this Regulation, particularly for very large online platforms and for very large online search engines, and the interplay with other legal acts within three years from its entry into force.

(151) In order to ensure uniform conditions for the implementation of this Regulation, implementing powers should be conferred on the Commission to lay down templates concerning the form, content and other details of reports on content moderation, to establish the amount of the annual supervisory fee charged on providers of very large online platforms and of very large online search engines, to lay down the practical arrangements for the proceedings, the hearings and the negotiated disclosure of information carried out in the context of supervision, investigation, enforcement and monitoring in respect of providers of very large online platforms and of very large online search engines, as well as to lay down the practical and operational arrangements for the functioning of the information sharing system and its interoperability with other relevant systems. Those powers should be exercised in accordance with Regulation (EU) No 182/2011 of the European Parliament and of the Council.

(152) In order to fulfil the objectives of this Regulation, the power to adopt acts in accordance with Article 290 TFEU should be delegated to the Commission to supplement this Regulation, in respect of criteria for the identification of very large online platforms and of very large online search engines, the procedural steps, methodologies and reporting templates for the audits, the technical specifications for access requests and the detailed methodology and procedures for setting the supervisory fee. It is of particular importance that the Commission carry out appropriate consultations during its preparatory work, including at expert level, and that those consultations be conducted in accordance with the principles laid down in the Interinstitutional Agreement of 13 April 2016 on Better Law-Making. In particular, to ensure equal participation in the preparation of delegated acts, the European Parliament and the Council receive all documents at the same time as Member States’ experts, and their experts systematically have access to meetings of Commission expert groups dealing with the preparation of delegated acts.

(153) This Regulation respects the fundamental rights recognised by the Charter and the fundamental rights constituting general principles of Union law. Accordingly, this Regulation should be interpreted and applied in accordance with those fundamental rights, including the freedom of expression and of information, as well as the freedom and pluralism of the media. When exercising the powers set out in this Regulation, all public authorities involved should achieve, in situations where the relevant fundamental rights conflict, a fair balance between the rights concerned, in accordance with the principle of proportionality.

(154) Given the scope and impact of societal risks that may be caused by very large online platforms and very large online search engines, the need to address those risks as a matter of priority and the capacity to take the necessary measures, it is justified to limit the period after which this Regulation starts to apply to the providers of those services.

(155) Since the objectives of this Regulation, namely to contribute to the proper functioning of the internal market and to ensure a safe, predictable and trusted online environment in which the fundamental rights enshrined in the Charter are duly protected, cannot be sufficiently achieved by the Member States because they cannot achieve the necessary harmonisation and cooperation by acting alone, but can rather, by reason of territorial and personal scope, be better achieved at the Union level, the Union may adopt measures, in accordance with the principle of subsidiarity as set out in Article 5 of the Treaty on European Union. In accordance with the principle of proportionality as set out in that Article, this Regulation does not go beyond what is necessary in order to achieve those objectives.

(156) The European Data Protection Supervisor was consulted in accordance with Article 42(1) of Regulation (EU) 2018/1725 of the European Parliament and of the Council and delivered an opinion on 10 February 2021, HAVE ADOPTED THIS REGULATION:

CHAPTER I GENERAL PROVISIONS

Article 1 Subject matter

1. The aim of this Regulation is to contribute to the proper functioning of the internal market for intermediary services by setting out harmonised rules for a safe, predictable and trusted online environment that facilitates innovation and in which fundamental rights enshrined in the Charter, including the principle of consumer protection, are effectively protected.

2. This Regulation lays down harmonised rules on the provision of intermediary services in the internal market. In particular, it establishes:

(a) a framework for the conditional exemption from liability of providers of intermediary services; (b) rules on specific due diligence obligations tailored to certain specific categories of providers of intermediary services; (c) rules on the implementation and enforcement of this Regulation, including as regards the cooperation of and coordination between the competent authorities.

Article 2 Scope

1. This Regulation shall apply to intermediary services offered to recipients of the service that have their place of establishment or are located in the Union, irrespective of where the providers of those intermediary services have their place of establishment.

2. This Regulation shall not apply to any service that is not an intermediary service or to any requirements imposed in respect of such a service, irrespective of whether the service is provided through the use of an intermediary service.

3. This Regulation shall not affect the application of Directive 2000/31/EC.

4. This Regulation is without prejudice to the rules laid down by other Union legal acts regulating other aspects of the provision of intermediary services in the internal market or specifying and complementing this Regulation, in particular, the following:

(a) Directive 2010/13/EU; (b) Union law on copyright and related rights; (c) Regulation (EU) 2021/784; (d) Regulation (EU) 2019/1148; (e) Regulation (EU) 2019/1150; (f) Union law on consumer protection and product safety, including Regulations (EU) 2017/2394 and (EU) 2019/1020 and Directives 2001/95/EC and 2013/11/EU; (g) Union law on the protection of personal data, in particular Regulation (EU) 2016/679 and Directive 2002/58/EC; (h) Union law in the field of judicial cooperation in civil matters, in particular Regulation (EU) No 1215/2012 or any Union legal act laying down the rules on law applicable to contractual and non-contractual obligations; (i) Union law in the field of judicial cooperation in criminal matters, in particular a Regulation on European Production and Preservation Orders for electronic evidence in criminal matters; (j) a Directive laying down harmonised rules on the appointment of legal representatives for the purpose of gathering evidence in criminal proceedings.

Article 3 Definitions

For the purpose of this Regulation, the following definitions shall apply: (a) ‘information society service’ means a ‘service’ as defined in Article 1(1), point (b), of Directive (EU) 2015/1535; (b) ‘recipient of the service’ means any natural or legal person who uses an intermediary service, in particular for the purposes of seeking information or making it accessible; (c) ‘consumer’ means any natural person who is acting for purposes which are outside his or her trade, business, craft, or profession; (d) ‘to offer services in the Union’ means enabling natural or legal persons in one or more Member States to use the services of a provider of intermediary services that has a substantial connection to the Union; (e) ‘substantial connection to the Union’ means a connection of a provider of intermediary services with the Union resulting either from its establishment in the Union or from specific factual criteria, such as: — a significant number of recipients of the service in one or more Member States in relation to its or their population; or — the targeting of activities towards one or more Member States; (f) ‘trader’ means any natural person, or any legal person irrespective of whether it is privately or publicly owned, who is acting, including through any person acting in his or her name or on his or her behalf, for purposes relating to his or her trade, business, craft or profession; (g) ‘intermediary service’ means one of the following information society services: (i) a ‘mere conduit’ service, consisting of the transmission in a communication network of information provided by a recipient of the service, or the provision of access to a communication network; (ii) a ‘caching’ service, consisting of the transmission in a communication network of information provided by a recipient of the service, involving the automatic, intermediate and temporary storage of that information, performed for the sole purpose of making more efficient the information’s onward transmission to other recipients upon their request; (iii) a ‘hosting’ service, consisting of the storage of information provided by, and at the request of, a recipient of the service; (h) ‘illegal content’ means any information that, in itself or in relation to an activity, including the sale of products or the provision of services, is not in compliance with Union law or the law of any Member State which is in compliance with Union law, irrespective of the precise subject matter or nature of that law; (i) ‘online platform’ means a hosting service that, at the request of a recipient of the service, stores and disseminates information to the public, unless that activity is a minor and purely ancillary feature of another service or a minor functionality of the principal service and, for objective and technical reasons, cannot be used without that other service, and the integration of the feature or functionality into the other service is not a means to circumvent the applicability of this Regulation; (j) ‘online search engine’ means an intermediary service that allows users to input queries in order to perform searches of, in principle, all websites, or all websites in a particular language, on the basis of a query on any subject in the form of a keyword, voice request, phrase or other input, and returns results in any format in which information related to the requested content can be found; (k) ‘dissemination to the public’ means making information available, at the request of the recipient of the service who provided the information, to a potentially unlimited number of third parties; (l) ‘distance contract’ means ‘distance contract’ as defined in Article 2, point (7), of Directive 2011/83/EU; (m) ‘online interface’ means any software, including a website or a part thereof, and applications, including mobile applications; (n) ‘Digital Services Coordinator of establishment’ means the Digital Services Coordinator of the Member State where the main establishment of a provider of an intermediary service is located or its legal representative resides or is established; (o) ‘Digital Services Coordinator of destination’ means the Digital Services Coordinator of a Member State where the intermediary service is provided; (p) ‘active recipient of an online platform’ means a recipient of the service that has engaged with an online platform by either requesting the online platform to host information or being exposed to information hosted by the online platform and disseminated through its online interface; (q) ‘active recipient of an online search engine’ means a recipient of the service that has submitted a query to an online search engine and been exposed to information indexed and presented on its online interface; (r) ‘advertisement’ means information designed to promote the message of a legal or natural person, irrespective of whether to achieve commercial or non-commercial purposes, and presented by an online platform on its online interface against remuneration specifically for promoting that information; (s) ‘recommender system’ means a fully or partially automated system used by an online platform to suggest in its online interface specific information to recipients of the service or prioritise that information, including as a result of a search initiated by the recipient of the service or otherwise determining the relative order or prominence of information displayed; (t) ‘content moderation’ means the activities, whether automated or not, undertaken by providers of intermediary services, that are aimed, in particular, at detecting, identifying and addressing illegal content or information incompatible with their terms and conditions, provided by recipients of the service, including measures taken that affect the availability, visibility, and accessibility of that illegal content or that information, such as demotion, demonetisation, disabling of access to, or removal thereof, or that affect the ability of the recipients of the service to provide that information, such as the termination or suspension of a recipient’s account; (u) ‘terms and conditions’ means all clauses, irrespective of their name or form, which govern the contractual relationship between the provider of intermediary services and the recipients of the service; (v) ‘persons with disabilities’ means ‘persons with disabilities’ as referred to in Article 3, point (1), of Directive (EU) 2019/882 of the European Parliament and of the Council ; (w) ‘commercial communication’ means ‘commercial communication’ as defined in Article 2, point (f), of Directive 2000/ 31/EC; (x) ‘turnover’ means the amount derived by an undertaking within the meaning of Article 5(1) of Council Regulation (EC) No 139/2004 .

CHAPTER II LIABILITY OF PROVIDERS OF INTERMEDIARY SERVICES

Article 4 ‘Mere conduit’

1. Where an information society service is provided that consists of the transmission in a communication network of information provided by a recipient of the service, or the provision of access to a communication network, the service provider shall not be liable for the information transmitted or accessed, on condition that the provider:

(a) does not initiate the transmission; (b) does not select the receiver of the transmission; and (c) does not select or modify the information contained in the transmission.

2. The acts of transmission and of provision of access referred to in paragraph 1 shall include the automatic, intermediate and transient storage of the information transmitted in so far as this takes place for the sole purpose of carrying out the transmission in the communication network, and provided that the information is not stored for any period longer than is reasonably necessary for the transmission.

3. This Article shall not affect the possibility for a judicial or administrative authority, in accordance with a Member State’s legal system, to require the service provider to terminate or prevent an infringement.

Article 5 ‘Caching’

1. Where an information society service is provided that consists of the transmission in a communication network of information provided by a recipient of the service, the service provider shall not be liable for the automatic, intermediate and temporary storage of that information, performed for the sole purpose of making more efficient or more secure the information’s onward transmission to other recipients of the service upon their request, on condition that the provider:

(a) does not modify the information; (b) complies with conditions on access to the information; (c) complies with rules regarding the updating of the information, specified in a manner widely recognised and used by industry; (d) does not interfere with the lawful use of technology, widely recognised and used by industry, to obtain data on the use of the information; and (e) acts expeditiously to remove or to disable access to the information it has stored upon obtaining actual knowledge of the fact that the information at the initial source of the transmission has been removed from the network, or access to it has been disabled, or that a judicial or an administrative authority has ordered such removal or disablement.

2. This Article shall not affect the possibility for a judicial or administrative authority, in accordance with a Member State’s legal system, to require the service provider to terminate or prevent an infringement.

Article 6 Hosting

1. Where an information society service is provided that consists of the storage of information provided by a recipient of the service, the service provider shall not be liable for the information stored at the request of a recipient of the service, on condition that the provider:

(a) does not have actual knowledge of illegal activity or illegal content and, as regards claims for damages, is not aware of facts or circumstances from which the illegal activity or illegal content is apparent; or (b) upon obtaining such knowledge or awareness, acts expeditiously to remove or to disable access to the illegal content.

2. Paragraph 1 shall not apply where the recipient of the service is acting under the authority or the control of the provider.

3. Paragraph 1 shall not apply with respect to the liability under consumer protection law of online platforms that allow consumers to conclude distance contracts with traders, where such an online platform presents the specific item of information or otherwise enables the specific transaction at issue in a way that would lead an average consumer to believe that the information, or the product or service that is the object of the transaction, is provided either by the online platform itself or by a recipient of the service who is acting under its authority or control.

4. This Article shall not affect the possibility for a judicial or administrative authority, in accordance with a Member State’s legal system, to require the service provider to terminate or prevent an infringement.

Article 7 Voluntary own-initiative investigations and legal compliance

Providers of intermediary services shall not be deemed ineligible for the exemptions from liability referred to in Articles 4, 5 and 6 solely because they, in good faith and in a diligent manner, carry out voluntary own initiative investigations into, or take other measures aimed at detecting, identifying and removing, or disabling access to, illegal content, or take the necessary measures to comply with the requirements of Union law and national law in compliance with Union law, including the requirements set out in this Regulation.

Article 8 No general monitoring or active fact-finding obligations

No general obligation to monitor the information which providers of intermediary services transmit or store, nor actively to seek facts or circumstances indicating illegal activity shall be imposed on those providers.

Article 9 Orders to act against illegal content

1. Upon the receipt of an order to act against one or more specific items of illegal content, issued by the relevant national judicial or administrative authorities, on the basis of the applicable Union law or national law in compliance with Union law, providers of intermediary services shall inform the authority issuing the order, or any other authority specified in the order, of any effect given to the order without undue delay, specifying if and when effect was given to the order.

2. Member States shall ensure that when an order referred to in paragraph 1 is transmitted to the provider, it meets at least the following conditions:

(a) that order contains the following elements: (i) a reference to the legal basis under Union or national law for the order; (ii) a statement of reasons explaining why the information is illegal content, by reference to one or more specific provisions of Union law or national law in compliance with Union law; (iii) information identifying the issuing authority; (iv) clear information enabling the provider of intermediary services to identify and locate the illegal content concerned, such as one or more exact URL and, where necessary, additional information; (v) information about redress mechanisms available to the provider of intermediary services and to the recipient of the service who provided the content; (vi) where applicable, information about which authority is to receive the information about the effect given to the orders; (b) the territorial scope of that order, on the basis of the applicable rules of Union and national law, including the Charter, and, where relevant, general principles of international law, is limited to what is strictly necessary to achieve its objective; (c) that order is transmitted in one of the languages declared by the provider of intermediary services pursuant to Article 11(3) or in another official language of the Member States, agreed between the authority issuing the order and that provider, and is sent to the electronic point of contact designated by that provider, in accordance with Article 11; where the order is not drafted in the language declared by the provider of intermediary services or in another bilaterally agreed language, the order may be transmitted in the language of the authority issuing the order, provided that it is accompanied by a translation into such declared or bilaterally agreed language of at least the elements set out in points (a) and (b) of this paragraph.

3. The authority issuing the order or, where applicable, the authority specified therein, shall transmit it, along with any information received from the provider of intermediary services concerning the effect given to that order to the Digital Services Coordinator from the Member State of the issuing authority.

4. After receiving the order from the judicial or administrative authority, the Digital Services Coordinator of the Member State concerned shall, without undue delay, transmit a copy of the order referred to in paragraph 1 of this Article to all other Digital Services Coordinators through the system established in accordance with Article 85.

5. At the latest when effect is given to the order or, where applicable, at the time provided by the issuing authority in its order, providers of intermediary services shall inform the recipient of the service concerned of the order received and to the effect given to it. Such information provided to the recipient of the service shall include a statement of reasons, the possibilities for redress that exist, and a description of the territorial scope of the order, in accordance with paragraph 2.

6. The conditions and requirements laid down in this Article shall be without prejudice to national civil and criminal procedural law.

Article 10 Orders to provide information

1. Upon receipt of an order to provide specific information about one or more specific individual recipients of the service, issued by the relevant national judicial or administrative authorities on the basis of the applicable Union law or national law in compliance with Union law, providers of intermediary services shall, without undue delay inform the authority issuing the order, or any other authority specified in the order, of its receipt and of the effect given to the order, specifying if and when effect was given to the order.

2. Member States shall ensure that when an order referred to in paragraph 1 is transmitted to the provider, it meets at least the following conditions:

(a) that order contains the following elements: (i) a reference to the legal basis under Union or national law for the order; (ii) information identifying the issuing authority; (iii) clear information enabling the provider of intermediary services to identify the specific recipient or recipients on whom information is sought, such as one or more account names or unique identifiers; (iv) a statement of reasons explaining the objective for which the information is required and why the requirement to provide the information is necessary and proportionate to determine compliance by the recipients of the intermediary services with applicable Union law or national law in compliance with Union law, unless such a statement cannot be provided for reasons related to the prevention, investigation, detection and prosecution of criminal offences; (v) information about redress mechanisms available to the provider and to the recipients of the service concerned; (vi) where applicable, information about which authority is to receive the information about the effect given to the orders; (b) that order only requires the provider to provide information already collected for the purposes of providing the service and which lies within its control; (c) that order is transmitted in one of the languages declared by the provider of intermediary services pursuant to Article 11(3) or in another official language of the Member States, agreed between the authority issuing the order and the provider, and is sent to the electronic point of contact designated by that provider, in accordance with Article 11; where the order is not drafted in the language declared by the provider of intermediary services or in another bilaterally agreed language, the order may be transmitted in the language of the authority issuing the order, provided that it is accompanied by a translation into such declared or bilaterally agreed language of at least the elements set out in points (a) and (b) of this paragraph.

3. The authority issuing the order or, where applicable, the authority specified therein, shall transmit it, along with any information received from the provider of intermediary services concerning the effect given to that order to the Digital Services Coordinator from the Member State of the issuing authority.

4. After receiving the order from the judicial or administrative authority, the Digital Services Coordinator of the Member State concerned shall, without undue delay, transmit a copy of the order referred to in paragraph 1 of this Article to all Digital Services Coordinators through the system established in accordance with Article 85.

5. At the latest when effect is given to the order, or, where applicable, at the time provided by the issuing authority in its order, providers of intermediary services shall inform the recipient of the service concerned of the order received and the effect given to it. Such information provided to the recipient of the service shall include a statement of reasons and the possibilities for redress that exist, in accordance with paragraph 2.

6. The conditions and requirements laid down in this Article shall be without prejudice to national civil and criminal procedural law.

CHAPTER III DUE DILIGENCE OBLIGATIONS FOR A TRANSPARENT AND SAFE ONLINE ENVIRONMENT

SECTION 1 Provisions applicable to all providers of intermediary services

Article 11 Points of contact for Member States’ authorities, the Commission and the Board

1. Providers of intermediary services shall designate a single point of contact to enable them to communicate directly, by electronic means, with Member States’ authorities, the Commission and the Board referred to in Article 61 for the application of this Regulation.

2. Providers of intermediary services shall make public the information necessary to easily identify and communicate with their single points of contact. That information shall be easily accessible, and shall be kept up to date.

3. Providers of intermediary services shall specify in the information referred to in paragraph 2 the official language or languages of the Member States which, in addition to a language broadly understood by the largest possible number of Union citizens, can be used to communicate with their points of contact, and which shall include at least one of the official languages of the Member State in which the provider of intermediary services has its main establishment or where its legal representative resides or is established.

Article 12 Points of contact for recipients of the service

1. Providers of intermediary services shall designate a single point of contact to enable recipients of the service to communicate directly and rapidly with them, by electronic means and in a user-friendly manner, including by allowing recipients of the service to choose the means of communication, which shall not solely rely on automated tools.

2. In addition to the obligations provided under Directive 2000/31/EC, providers of intermediary services shall make public the information necessary for the recipients of the service in order to easily identify and communicate with their single points of contact. That information shall be easily accessible, and shall be kept up to date.

Article 13 Legal representatives

1. Providers of intermediary services which do not have an establishment in the Union but which offer services in the Union shall designate, in writing, a legal or natural person to act as their legal representative in one of the Member States where the provider offers its services.

2. Providers of intermediary services shall mandate their legal representatives for the purpose of being addressed in addition to or instead of such providers, by the Member States’ competent authorities, the Commission and the Board, on all issues necessary for the receipt of, compliance with and enforcement of decisions issued in relation to this Regulation. Providers of intermediary services shall provide their legal representative with necessary powers and sufficient resources to guarantee their efficient and timely cooperation with the Member States’ competent authorities, the Commission and the Board, and to comply with such decisions.

3. It shall be possible for the designated legal representative to be held liable for non compliance with obligations under this Regulation, without prejudice to the liability and legal actions that could be initiated against the provider of intermediary services.

4. Providers of intermediary services shall notify the name, postal address, email address and telephone number of their legal representative to the Digital Services Coordinator in the Member State where that legal representative resides or is established. They shall ensure that that information is publicly available, easily accessible, accurate and kept up to date.

5. The designation of a legal representative within the Union pursuant to paragraph 1 shall not constitute an establishment in the Union.

Article 14 Terms and conditions

1. Providers of intermediary services shall include information on any restrictions that they impose in relation to the use of their service in respect of information provided by the recipients of the service, in their terms and conditions. That information shall include information on any policies, procedures, measures and tools used for the purpose of content moderation, including algorithmic decision-making and human review, as well as the rules of procedure of their internal complaint handling system. It shall be set out in clear, plain, intelligible, user-friendly and unambiguous language, and shall be publicly available in an easily accessible and machine-readable format.

2. Providers of intermediary services shall inform the recipients of the service of any significant change to the terms and conditions.

3. Where an intermediary service is primarily directed at minors or is predominantly used by them, the provider of that intermediary service shall explain the conditions for, and any restrictions on, the use of the service in a way that minors can understand.

4. Providers of intermediary services shall act in a diligent, objective and proportionate manner in applying and enforcing the restrictions referred to in paragraph 1, with due regard to the rights and legitimate interests of all parties involved, including the fundamental rights of the recipients of the service, such as the freedom of expression, freedom and pluralism of the media, and other fundamental rights and freedoms as enshrined in the Charter.

5. Providers of very large online platforms and of very large online search engines shall provide recipients of services with a concise, easily-accessible and machine-readable summary of the terms and conditions, including the available remedies and redress mechanisms, in clear and unambiguous language.

6. Very large online platforms and very large online search engines within the meaning of Article 33 shall publish their terms and conditions in the official languages of all the Member States in which they offer their services.

Article 15 Transparency reporting obligations for providers of intermediary services

1. Providers of intermediary services shall make publicly available, in a machine readable format and in an easily accessible manner, at least once a year, clear, easily comprehensible reports on any content moderation that they engaged in during the relevant period. Those reports shall include, in particular, information on the following, as applicable:

(a) for providers of intermediary services, the number of orders received from Member States’ authorities including orders issued in accordance with Articles 9 and 10, categorised by the type of illegal content concerned, the Member State issuing the order, and the median time needed to inform the authority issuing the order, or any other authority specified in the order, of its receipt, and to give effect to the order; (b) for providers of hosting services, the number of notices submitted in accordance with Article 16, categorised by the type of alleged illegal content concerned, the number of notices submitted by trusted flaggers, any action taken pursuant to the notices by differentiating whether the action was taken on the basis of the law or the terms and conditions of the provider, the number of notices processed by using automated means and the median time needed for taking the action; (c) for providers of intermediary services, meaningful and comprehensible information about the content moderation engaged in at the providers’ own initiative, including the use of automated tools, the measures taken to provide training and assistance to persons in charge of content moderation, the number and type of measures taken that affect the availability, visibility and accessibility of information provided by the recipients of the service and the recipients’ ability to provide information through the service, and other related restrictions of the service; the information reported shall be categorised by the type of illegal content or violation of the terms and conditions of the service provider, by the detection method and by the type of restriction applied; (d) for providers of intermediary services, the number of complaints received through the internal complaint-handling systems in accordance with the provider’s terms and conditions and additionally, for providers of online platforms, in accordance with Article 20, the basis for those complaints, decisions taken in respect of those complaints, the median time needed for taking those decisions and the number of instances where those decisions were reversed; (e) any use made of automated means for the purpose of content moderation, including a qualitative description, a specification of the precise purposes, indicators of the accuracy and the possible rate of error of the automated means used in fulfilling those purposes, and any safeguards applied.

2. Paragraph 1 of this Article shall not apply to providers of intermediary services that qualify as micro or small enterprises as defined in Recommendation 2003/361/EC and which are not very large online platforms within the meaning of Article 33 of this Regulation.

3. The Commission may adopt implementing acts to lay down templates concerning the form, content and other details of reports pursuant to paragraph 1 of this Article, including harmonised reporting periods. Those implementing acts shall be adopted in accordance with the advisory procedure referred to in Article 88.

SECTION 2 Additional provisions applicable to providers of hosting services, including online platforms

Article 16 Notice and action mechanisms

1. Providers of hosting services shall put mechanisms in place to allow any individual or entity to notify them of the presence on their service of specific items of information that the individual or entity considers to be illegal content. Those mechanisms shall be easy to access and user-friendly, and shall allow for the submission of notices exclusively by electronic means.

2. The mechanisms referred to in paragraph 1 shall be such as to facilitate the submission of sufficiently precise and adequately substantiated notices. To that end, the providers of hosting services shall take the necessary measures to enable and to facilitate the submission of notices containing all of the following elements:

(a) a sufficiently substantiated explanation of the reasons why the individual or entity alleges the information in question to be illegal content; (b) a clear indication of the exact electronic location of that information, such as the exact URL or URLs, and, where necessary, additional information enabling the identification of the illegal content adapted to the type of content and to the specific type of hosting service; (c) the name and email address of the individual or entity submitting the notice, except in the case of information considered to involve one of the offences referred to in Articles 3 to 7 of Directive 2011/93/EU; (d) a statement confirming the bona fide belief of the individual or entity submitting the notice that the information and allegations contained therein are accurate and complete.

3. Notices referred to in this Article shall be considered to give rise to actual knowledge or awareness for the purposes of Article 6 in respect of the specific item of information concerned where they allow a diligent provider of hosting services to identify the illegality of the relevant activity or information without a detailed legal examination.

4. Where the notice contains the electronic contact information of the individual or entity that submitted it, the provider of hosting services shall, without undue delay, send a confirmation of receipt of the notice to that individual or entity.

5. The provider shall also, without undue delay, notify that individual or entity of its decision in respect of the information to which the notice relates, providing information on the possibilities for redress in respect of that decision.

6. Providers of hosting services shall process any notices that they receive under the mechanisms referred to in paragraph 1 and take their decisions in respect of the information to which the notices relate, in a timely, diligent, non-arbitrary and objective manner. Where they use automated means for that processing or decision-making, they shall include information on such use in the notification referred to in paragraph 5.

Article 17 Statement of reasons

1. Providers of hosting services shall provide a clear and specific statement of reasons to any affected recipients of the service for any of the following restrictions imposed on the ground that the information provided by the recipient of the service is illegal content or incompatible with their terms and conditions:

(a) any restrictions of the visibility of specific items of information provided by the recipient of the service, including removal of content, disabling access to content, or demoting content; (b) suspension, termination or other restriction of monetary payments; (c) suspension or termination of the provision of the service in whole or in part; (d) suspension or termination of the recipient of the service’s account.

2. Paragraph 1 shall only apply where the relevant electronic contact details are known to the provider. It shall apply at the latest from the date that the restriction is imposed, regardless of why or how it was imposed.

Paragraph 1 shall not apply where the information is deceptive high-volume commercial content.

3. The statement of reasons referred to in paragraph 1 shall at least contain the following information:

(a) information on whether the decision entails either the removal of, the disabling of access to, the demotion of or the restriction of the visibility of the information, or the suspension or termination of monetary payments related to that information, or imposes other measures referred to in paragraph 1 with regard to the information, and, where relevant, the territorial scope of the decision and its duration; (b) the facts and circumstances relied on in taking the decision, including, where relevant, information on whether the decision was taken pursuant to a notice submitted in accordance with Article 16 or based on voluntary own-initiative investigations and, where strictly necessary, the identity of the notifier; (c) where applicable, information on the use made of automated means in taking the decision, including information on whether the decision was taken in respect of content detected or identified using automated means; (d) where the decision concerns allegedly illegal content, a reference to the legal ground relied on and explanations as to why the information is considered to be illegal content on that ground; (e) where the decision is based on the alleged incompatibility of the information with the terms and conditions of the provider of hosting services, a reference to the contractual ground relied on and explanations as to why the information is considered to be incompatible with that ground; (f) clear and user-friendly information on the possibilities for redress available to the recipient of the service in respect of the decision, in particular, where applicable through internal complaint-handling mechanisms, out-of-court dispute settlement and judicial redress.

4. The information provided by the providers of hosting services in accordance with this Article shall be clear and easily comprehensible and as precise and specific as reasonably possible under the given circumstances. The information shall, in particular, be such as to reasonably allow the recipient of the service concerned to effectively exercise the possibilities for redress referred to in of paragraph 3, point (f).

5. This Article shall not apply to any orders referred to in Article 9.

Article 18 Notification of suspicions of criminal offences

1. Where a provider of hosting services becomes aware of any information giving rise to a suspicion that a criminal offence involving a threat to the life or safety of a person or persons has taken place, is taking place or is likely to take place, it shall promptly inform the law enforcement or judicial authorities of the Member State or Member States concerned of its suspicion and provide all relevant information available.

2. Where the provider of hosting services cannot identify with reasonable certainty the Member State concerned, it shall inform the law enforcement authorities of the Member State in which it is established or where its legal representative resides or is established or inform Europol, or both.

For the purpose of this Article, the Member State concerned shall be the Member State in which the offence is suspected to have taken place, to be taking place or to be likely to take place, or the Member State where the suspected offender resides or is located, or the Member State where the victim of the suspected offence resides or is located.

SECTION 3 Additional provisions applicable to providers of online platforms

Article 19 Exclusion for micro and small enterprises

1. This Section, with the exception of Article 24(3) thereof, shall not apply to providers of online platforms that qualify as micro or small enterprises as defined in Recommendation 2003/361/EC.

This Section, with the exception of Article 24(3) thereof, shall not apply to providers of online platforms that previously qualified for the status of a micro or small enterprise as defined in Recommendation 2003/361/EC during the 12 months following their loss of that status pursuant to Article 4(2) thereof, except when they are very large online platforms in accordance with Article 33.

2. By derogation from paragraph 1 of this Article, this Section shall apply to providers of online platforms that have been designated as very large online platforms in accordance with Article 33, irrespective of whether they qualify as micro or small enterprises.

Article 20 Internal complaint-handling system

1. Providers of online platforms shall provide recipients of the service, including individuals or entities that have submitted a notice, for a period of at least six months following the decision referred to in this paragraph, with access to an effective internal complaint-handling system that enables them to lodge complaints, electronically and free of charge, against the decision taken by the provider of the online platform upon the receipt of a notice or against the following decisions taken by the provider of the online platform on the grounds that the information provided by the recipients constitutes illegal content or is incompatible with its terms and conditions:

(a) decisions whether or not to remove or disable access to or restrict visibility of the information; (b) decisions whether or not to suspend or terminate the provision of the service, in whole or in part, to the recipients; (c) decisions whether or not to suspend or terminate the recipients’ account; (d) decisions whether or not to suspend, terminate or otherwise restrict the ability to monetise information provided by the recipients.

2. The period of at least six months referred to in paragraph 1 of this Article shall start on the day on which the recipient of the service is informed about the decision in accordance with Article 16(5) or Article 17.

3. Providers of online platforms shall ensure that their internal complaint-handling systems are easy to access, user-friendly and enable and facilitate the submission of sufficiently precise and adequately substantiated complaints.

4. Providers of online platforms shall handle complaints submitted through their internal complaint-handling system in a timely, non discriminatory, diligent and non-arbitrary manner. Where a complaint contains sufficient grounds for the provider of the online platform to consider that its decision not to act upon the notice is unfounded or that the information to which the complaint relates is not illegal and is not incompatible with its terms and conditions, or contains information indicating that the complainant’s conduct does not warrant the measure taken, it shall reverse its decision referred to in paragraph 1 without undue delay.

5. Providers of online platforms shall inform complainants without undue delay of their reasoned decision in respect of the information to which the complaint relates and of the possibility of out-of-court dispute settlement provided for in Article 21 and other available possibilities for redress.

6. Providers of online platforms shall ensure that the decisions, referred to in paragraph 5, are taken under the supervision of appropriately qualified staff, and not solely on the basis of automated means.

Article 21 Out-of-court dispute settlement

1. Recipients of the service, including individuals or entities that have submitted notices, addressed by the decisions referred to in Article 20(1) shall be entitled to select any out-of-court dispute settlement body that has been certified in accordance with paragraph 3 of this Article in order to resolve disputes relating to those decisions, including complaints that have not been resolved by means of the internal complaint-handling system referred to in that Article.

Providers of online platforms shall ensure that information about the possibility for recipients of the service to have access to an out-of-court dispute settlement, as referred to in the first subparagraph, is easily accessible on their online interface, clear and user-friendly. The first subparagraph is without prejudice to the right of the recipient of the service concerned to initiate, at any stage, proceedings to contest those decisions by the providers of online platforms before a court in accordance with the applicable law.

2. Both parties shall engage, in good faith, with the selected certified out-of-court dispute settlement body with a view to resolving the dispute.

Providers of online platforms may refuse to engage with such out-of-court dispute settlement body if a dispute has already been resolved concerning the same information and the same grounds of alleged illegality or incompatibility of content. The certified out-of-court dispute settlement body shall not have the power to impose a binding settlement of the dispute on the parties.

3. The Digital Services Coordinator of the Member State where the out-of-court dispute settlement body is established shall, for a maximum period of five years, which may be renewed, certify the body, at its request, where the body has demonstrated that it meets all of the following conditions:

(a) it is impartial and independent, including financially independent, of providers of online platforms and of recipients of the service provided by providers of online platforms, including of individuals or entities that have submitted notices; (b) it has the necessary expertise in relation to the issues arising in one or more particular areas of illegal content, or in relation to the application and enforcement of terms and conditions of one or more types of online platform, allowing the body to contribute effectively to the settlement of a dispute; (c) its members are remunerated in a way that is not linked to the outcome of the procedure; (d) the out-of-court dispute settlement that it offers is easily accessible, through electronic communications technology and provides for the possibility to initiate the dispute settlement and to submit the requisite supporting documents online; (e) it is capable of settling disputes in a swift, efficient and cost-effective manner and in at least one of the official languages of the institutions of the Union; (f) the out-of-court dispute settlement that it offers takes place in accordance with clear and fair rules of procedure that are easily and publicly accessible, and that comply with applicable law, including this Article. The Digital Services Coordinator shall, where applicable, specify in the certificate: (a) the particular issues to which the body’s expertise relates, as referred to in point (b) of the first subparagraph; and (b) the official language or languages of the institutions of the Union in which the body is capable of settling disputes, as referred to in point (e) of the first subparagraph.

4. Certified out-of-court dispute settlement bodies shall report to the Digital Services Coordinator that certified them, on an annual basis, on their functioning, specifying at least the number of disputes they received, the information about the outcomes of those disputes, the average time taken to resolve them and any shortcomings or difficulties encountered. They shall provide additional information at the request of that Digital Services Coordinator.

Digital Services Coordinators shall, every two years, draw up a report on the functioning of the out-of-court dispute settlement bodies that they certified. That report shall in particular: (a) list the number of disputes that each certified out-of-court dispute settlement body has received annually; (b) indicate the outcomes of the procedures brought before those bodies and the average time taken to resolve the disputes; (c) identify and explain any systematic or sectoral shortcomings or difficulties encountered in relation to the functioning of those bodies; (d) identify best practices concerning that functioning; (e) make recommendations as to how to improve that functioning, where appropriate. Certified out-of-court dispute settlement bodies shall make their decisions available to the parties within a reasonable period of time and no later than 90 calendar days after the receipt of the complaint. In the case of highly complex disputes, the certified out-of-court dispute settlement body may, at its own discretion, extend the 90 calendar day period for an additional period that shall not exceed 90 days, resulting in a maximum total duration of 180 days.

5. If the out-of-court dispute settlement body decides the dispute in favour of the recipient of the service, including the individual or entity that has submitted a notice, the provider of the online platform shall bear all the fees charged by the out-of- court dispute settlement body, and shall reimburse that recipient, including the individual or entity, for any other reasonable expenses that it has paid in relation to the dispute settlement. If the out-of-court dispute settlement body decides the dispute in favour of the provider of the online platform, the recipient of the service, including the individual or entity, shall not be required to reimburse any fees or other expenses that the provider of the online platform paid or is to pay in relation to the dispute settlement, unless the out-of-court dispute settlement body finds that that recipient manifestly acted in bad faith.

The fees charged by the out-of-court dispute settlement body to the providers of online platforms for the dispute settlement shall be reasonable and shall in any event not exceed the costs incurred by the body. For recipients of the service, the dispute settlement shall be available free of charge or at a nominal fee. Certified out-of-court dispute settlement bodies shall make the fees, or the mechanisms used to determine the fees, known to the recipient of the service, including to the individuals or entities that have submitted a notice, and to the provider of the online platform concerned, before engaging in the dispute settlement.

6. Member States may establish out-of-court dispute settlement bodies for the purposes of paragraph 1 or support the activities of some or all out-of-court dispute settlement bodies that they have certified in accordance with paragraph 3.

Member States shall ensure that any of their activities undertaken under the first subparagraph do not affect the ability of their Digital Services Coordinators to certify the bodies concerned in accordance with paragraph 3.

7. A Digital Services Coordinator that has certified an out-of-court dispute settlement body shall revoke that certification if it determines, following an investigation either on its own initiative or on the basis of the information received by third parties, that the out-of-court dispute settlement body no longer meets the conditions set out in paragraph 3. Before revoking that certification, the Digital Services Coordinator shall afford that body an opportunity to react to the findings of its investigation and its intention to revoke the out-of-court dispute settlement body’s certification.

8. Digital Services Coordinators shall notify to the Commission the out-of-court dispute settlement bodies that they have certified in accordance with paragraph 3, including where applicable the specifications referred to in the second subparagraph of that paragraph, as well as the out-of-court dispute settlement bodies the certification of which they have revoked. The Commission shall publish a list of those bodies, including those specifications, on a dedicated website that is easily accessible, and keep it up to date.

9. This Article is without prejudice to Directive 2013/11/EU and alternative dispute resolution procedures and entities for consumers established under that Directive.

Article 22 Trusted flaggers

1. Providers of online platforms shall take the necessary technical and organisational measures to ensure that notices submitted by trusted flaggers, acting within their designated area of expertise, through the mechanisms referred to in Article 16, are given priority and are processed and decided upon without undue delay.

2. The status of ‘trusted flagger’ under this Regulation shall be awarded, upon application by any entity, by the Digital Services Coordinator of the Member State in which the applicant is established, to an applicant that has demonstrated that it meets all of the following conditions:

(a) it has particular expertise and competence for the purposes of detecting, identifying and notifying illegal content; (b) it is independent from any provider of online platforms; (c) it carries out its activities for the purposes of submitting notices diligently, accurately and objectively.

3. Trusted flaggers shall publish, at least once a year easily comprehensible and detailed reports on notices submitted in accordance with Article 16 during the relevant period. The report shall list at least the number of notices categorised by:

(a) the identity of the provider of hosting services, (b) the type of allegedly illegal content notified, (c) the action taken by the provider. Those reports shall include an explanation of the procedures in place to ensure that the trusted flagger retains its independence. Trusted flaggers shall send those reports to the awarding Digital Services Coordinator, and shall make them publicly available. The information in those reports shall not contain personal data.

4. Digital Services Coordinators shall communicate to the Commission and the Board the names, addresses and email addresses of the entities to which they have awarded the status of the trusted flagger in accordance with paragraph 2 or whose trusted flagger status they have suspended in accordance with paragraph 6 or revoked in accordance with paragraph 7.

5. The Commission shall publish the information referred to in paragraph 4 in a publicly available database, in an easily accessible and machine-readable format, and shall keep the database up to date.

6. Where a provider of online platforms has information indicating that a trusted flagger has submitted a significant number of insufficiently precise, inaccurate or inadequately substantiated notices through the mechanisms referred to in Article 16, including information gathered in connection to the processing of complaints through the internal complaint-handling systems referred to in Article 20(4), it shall communicate that information to the Digital Services Coordinator that awarded the status of trusted flagger to the entity concerned, providing the necessary explanations and supporting documents. Upon receiving the information from the provider of online platforms, and if the Digital Services Coordinator considers that there are legitimate reasons to open an investigation, the status of trusted flagger shall be suspended during the period of the investigation. That investigation shall be carried out without undue delay.

7. The Digital Services Coordinator that awarded the status of trusted flagger to an entity shall revoke that status if it determines, following an investigation either on its own initiative or on the basis information received from third parties, including the information provided by a provider of online platforms pursuant to paragraph 6, that the entity no longer meets the conditions set out in paragraph 2. Before revoking that status, the Digital Services Coordinator shall afford the entity an opportunity to react to the findings of its investigation and its intention to revoke the entity’s status as trusted flagger.

8. The Commission, after consulting the Board, shall, where necessary, issue guidelines to assist providers of online platforms and Digital Services Coordinators in the application of paragraphs 2, 6 and 7.

Article 23 Measures and protection against misuse

1. Providers of online platforms shall suspend, for a reasonable period of time and after having issued a prior warning, the provision of their services to recipients of the service that frequently provide manifestly illegal content.

2. Providers of online platforms shall suspend, for a reasonable period of time and after having issued a prior warning, the processing of notices and complaints submitted through the notice and action mechanisms and internal complaints-handling systems referred to in Articles 16 and 20, respectively, by individuals or entities or by complainants that frequently submit notices or complaints that are manifestly unfounded.

3. When deciding on suspension, providers of online platforms shall assess, on a case-by case basis and in a timely, diligent and objective manner, whether the recipient of the service, the individual, the entity or the complainant engages in the misuse referred to in paragraphs 1 and 2, taking into account all relevant facts and circumstances apparent from the information available to the provider of online platforms. Those circumstances shall include at least the following:

(a) the absolute numbers of items of manifestly illegal content or manifestly unfounded notices or complaints, submitted within a given time frame; (b) the relative proportion thereof in relation to the total number of items of information provided or notices submitted within a given time frame; (c) the gravity of the misuses, including the nature of illegal content, and of its consequences; (d) where it is possible to identify it, the intention of the recipient of the service, the individual, the entity or the complainant.

4. Providers of online platforms shall set out, in a clear and detailed manner, in their terms and conditions their policy in respect of the misuse referred to in paragraphs 1 and 2, and shall give examples of the facts and circumstances that they take into account when assessing whether certain behaviour constitutes misuse and the duration of the suspension.

Article 24 Transparency reporting obligations for providers of online platforms

1. In addition to the information referred to in Article 15, providers of online platforms shall include in the reports referred to in that Article information on the following:

(a) the number of disputes submitted to the out-of-court dispute settlement bodies referred to in Article 21, the outcomes of the dispute settlement, and the median time needed for completing the dispute settlement procedures, as well as the share of disputes where the provider of the online platform implemented the decisions of the body; (b) the number of suspensions imposed pursuant to Article 23, distinguishing between suspensions enacted for the provision of manifestly illegal content, the submission of manifestly unfounded notices and the submission of manifestly unfounded complaints.

2. By 17 February 2023 and at least once every six months thereafter, providers shall publish for each online platform or online search engine, in a publicly available section of their online interface, information on the average monthly active recipients of the service in the Union, calculated as an average over the period of the past six months and in accordance with the methodology laid down in the delegated acts referred to in Article 33(3), where those delegated acts have been adopted.

3. Providers of online platforms or of online search engines shall communicate to the Digital Services Coordinator of establishment and the Commission, upon their request and without undue delay, the information referred to in paragraph 2, updated to the moment of such request. That Digital Services Coordinator or the Commission may require the provider of the online platform or of the online search engine to provide additional information as regards the calculation referred to in that paragraph, including explanations and substantiation in respect of the data used. That information shall not include personal data.

4. When the Digital Services Coordinator of establishment has reasons to consider, based the information received pursuant to paragraphs 2 and 3 of this Article, that a provider of online platforms or of online search engines meets the threshold of average monthly active recipients of the service in the Union laid down in Article 33(1), it shall inform the Commission thereof.

5. Providers of online platforms shall, without undue delay, submit to the Commission the decisions and the statements of reasons referred to in Article 17(1) for the inclusion in a publicly accessible machine-readable database managed by the Commission. Providers of online platforms shall ensure that the information submitted does not contain personal data.

6. The Commission may adopt implementing acts to lay down templates concerning the form, content and other details of reports pursuant to paragraph 1 of this Article. Those implementing acts shall be adopted in accordance with the advisory procedure referred to in Article 88.

Article 25 Online interface design and organisation

1. Providers of online platforms shall not design, organise or operate their online interfaces in a way that deceives or manipulates the recipients of their service or in a way that otherwise materially distorts or impairs the ability of the recipients of their service to make free and informed decisions.

2. The prohibition in paragraph 1 shall not apply to practices covered by Directive 2005/29/EC or Regulation (EU) 2016/679.

3. The Commission may issue guidelines on how paragraph 1 applies to specific practices, notably:

(a) giving more prominence to certain choices when asking the recipient of the service for a decision; (b) repeatedly requesting that the recipient of the service make a choice where that choice has already been made, especially by presenting pop-ups that interfere with the user experience; (c) making the procedure for terminating a service more difficult than subscribing to it.

Article 26 Advertising on online platforms

1. Providers of online platforms that present advertisements on their online interfaces shall ensure that, for each specific advertisement presented to each individual recipient, the recipients of the service are able to identify, in a clear, concise and unambiguous manner and in real time, the following:

(a) that the information is an advertisement, including through prominent markings, which might follow standards pursuant to Article 44; (b) the natural or legal person on whose behalf the advertisement is presented; (c) the natural or legal person who paid for the advertisement if that person is different from the natural or legal person referred to in point (b); (d) meaningful information directly and easily accessible from the advertisement about the main parameters used to determine the recipient to whom the advertisement is presented and, where applicable, about how to change those parameters.

2. Providers of online platforms shall provide recipients of the service with a functionality to declare whether the content they provide is or contains commercial communications.

When the recipient of the service submits a declaration pursuant to this paragraph, the provider of online platforms shall ensure that other recipients of the service can identify in a clear and unambiguous manner and in real time, including through prominent markings, which might follow standards pursuant to Article 44, that the content provided by the recipient of the service is or contains commercial communications, as described in that declaration.

3. Providers of online platforms shall not present advertisements to recipients of the service based on profiling as defined in Article 4, point (4), of Regulation (EU) 2016/679 using special categories of personal data referred to in Article 9(1) of Regulation (EU) 2016/679.

Article 27 Recommender system transparency

1. Providers of online platforms that use recommender systems shall set out in their terms and conditions, in plain and intelligible language, the main parameters used in their recommender systems, as well as any options for the recipients of the service to modify or influence those main parameters.

2. The main parameters referred to in paragraph 1 shall explain why certain information is suggested to the recipient of the service. They shall include, at least:

(a) the criteria which are most significant in determining the information suggested to the recipient of the service; (b) the reasons for the relative importance of those parameters.

3. Where several options are available pursuant to paragraph 1 for recommender systems that determine the relative order of information presented to recipients of the service, providers of online platforms shall also make available a functionality that allows the recipient of the service to select and to modify at any time their preferred option. That functionality shall be directly and easily accessible from the specific section of the online platform’s online interface where the information is being prioritised.

Article 28 Online protection of minors

1. Providers of online platforms accessible to minors shall put in place appropriate and proportionate measures to ensure a high level of privacy, safety, and security of minors, on their service.

2. Providers of online platform shall not present advertisements on their interface based on profiling as defined in Article 4, point (4), of Regulation (EU) 2016/679 using personal data of the recipient of the service when they are aware with reasonable certainty that the recipient of the service is a minor.

3. Compliance with the obligations set out in this Article shall not oblige providers of online platforms to process additional personal data in order to assess whether the recipient of the service is a minor.

4. The Commission, after consulting the Board, may issue guidelines to assist providers of online platforms in the application of paragraph 1.

SECTION 4 Additional provisions applicable to providers of online platforms allowing consumers to conclude distance contracts with traders

Article 29 Exclusion for micro and small enterprises

1. This Section shall not apply to providers of online platforms allowing consumers to conclude distance contracts with traders that qualify as micro or small enterprises as defined in Recommendation 2003/361/EC.

This Section shall not apply to providers of online platforms allowing consumers to conclude distance contracts with traders that previously qualified for the status of a micro or small enterprise as defined in Recommendation 2003/361/EC during the 12 months following their loss of that status pursuant to Article 4(2) thereof, except when they are very large online platforms in accordance with Article 33.

2. By derogation from paragraph 1 of this Article, this Section shall apply to providers of online platforms allowing consumers to conclude distance contracts with traders that have been designated as very large online platforms in accordance with Article 33, irrespective of whether they qualify as micro or small enterprises.

Article 30 Traceability of traders

1. Providers of online platforms allowing consumers to conclude distance contracts with traders shall ensure that traders can only use those online platforms to promote messages on or to offer products or services to consumers located in the Union if, prior to the use of their services for those purposes, they have obtained the following information, where applicable to the trader:

(a) the name, address, telephone number and email address of the trader; (b) a copy of the identification document of the trader or any other electronic identification as defined by Article 3 of Regulation (EU) No 910/2014 of the European Parliament and of the Counci ; Regulation (EU) No 910/2014 of the European Parliament and of the Council of 23 July 2014 on electronic identification and trust services for electronic transactions in the internal market and repealing Directive 1999/93/EC (OJ L 257, 28.8.2014, p. 73). (c) the payment account details of the trader; (d) where the trader is registered in a trade register or similar public register, the trade register in which the trader is registered and its registration number or equivalent means of identification in that register; (e) a self-certification by the trader committing to only offer products or services that comply with the applicable rules of Union law.

2. Upon receiving the information referred to in paragraph 1 and prior to allowing the trader concerned to use its services, the provider of the online platform allowing consumers to conclude distance contracts with traders shall, through the use of any freely accessible official online database or online interface made available by a Member State or the Union or through requests to the trader to provide supporting documents from reliable sources, make best efforts to assess whether the information referred to in paragraph 1, points (a) to (e), is reliable and complete. For the purpose of this Regulation, traders shall be liable for the accuracy of the information provided.

As regards traders that are already using the services of providers of online platforms allowing consumers to conclude distance contracts with traders for the purposes referred to in paragraph 1 on 17 February 2024, the providers shall make best efforts to obtain the information listed from the traders concerned within 12 months. Where the traders concerned fail to provide the information within that period, the providers shall suspend the provision of their services to those traders until they have provided all information.

3. Where the provider of the online platform allowing consumers to conclude distance contracts with traders obtains sufficient indications or has reason to believe that any item of information referred to in paragraph 1 obtained from the trader concerned is inaccurate, incomplete or not up-to-date, that provider shall request that the trader remedy that situation without delay or within the period set by Union and national law.

Where the trader fails to correct or complete that information, the provider of the online platform allowing consumers to conclude distance contracts with traders shall swiftly suspend the provision of its service to that trader in relation to the offering of products or services to consumers located in the Union until the request has been fully complied with.

4. Without prejudice to Article 4 of Regulation (EU) 2019/1150, if a provider of an online platform allowing consumers to conclude distance contracts with traders refuses to allow a trader to use its service pursuant to paragraph 1, or suspends the provision of its service pursuant to paragraph 3 of this Article, the trader concerned shall have the right to lodge a complaint as provided for in Articles 20 and 21 of this Regulation.

5. Providers of online platforms allowing consumers to conclude distance contracts with traders shall store the information obtained pursuant to paragraphs 1 and 2 in a secure manner for a period of six months after the end of the contractual relationship with the trader concerned. They shall subsequently delete the information.

6. Without prejudice to paragraph 2 of this Article, the provider of the online platform allowing consumers to conclude distance contracts with traders shall only disclose the information to third parties where so required in accordance with the applicable law, including the orders referred to in Article 10 and any orders issued by Member States’ competent authorities or the Commission for the performance of their tasks under this Regulation.

7. The provider of the online platform allowing consumers to conclude distance contracts with traders shall make the information referred to in paragraph 1, points (a), (d) and (e) available on its online platform to the recipients of the service in a clear, easily accessible and comprehensible manner. That information shall be available at least on the online platform’s online interface where the information on the product or service is presented.

Article 31 Compliance by design

1. Providers of online platforms allowing consumers to conclude distance contracts with traders shall ensure that its online interface is designed and organised in a way that enables traders to comply with their obligations regarding pre-contractual information, compliance and product safety information under applicable Union law.

In particular, the provider concerned shall ensure that its online interface enables traders to provide information on the name, address, telephone number and email address of the economic operator, as defined in Article 3, point (13), of Regulation (EU) 2019/1020 and other Union law.

2. Providers of online platforms allowing consumers to conclude distance contracts with traders shall ensure that its online interface is designed and organised in a way that it allows traders to provide at least the following:

(a) the information necessary for the clear and unambiguous identification of the products or the services promoted or offered to consumers located in the Union through the services of the providers; (b) any sign identifying the trader such as the trademark, symbol or logo; and, (c) where applicable, the information concerning the labelling and marking in compliance with rules of applicable Union law on product safety and product compliance.

3. Providers of online platforms allowing consumers to conclude distance contracts with traders shall make best efforts to assess whether such traders have provided the information referred to in paragraphs 1 and 2 prior to allowing them to offer their products or services on those platforms. After allowing the trader to offer products or services on its online platform that allows consumers to conclude distance contracts with traders, the provider shall make reasonable efforts to randomly check in any official, freely accessible and machine readable online database or online interface whether the products or services offered have been identified as illegal.

Article 32 Right to information

1. Where a provider of an online platform allowing consumers to conclude distance contracts with traders becomes aware, irrespective of the means used, that an illegal product or service has been offered by a trader to consumers located in the Union through its services, that provider shall inform, insofar as it has their contact details, consumers who purchased the illegal product or service through its services of the following:

(a) the fact that the product or service is illegal; (b) the identity of the trader; and (c) any relevant means of redress. The obligation laid down in the first subparagraph shall be limited to purchases of illegal products or services made within the six months preceding the moment that the provider became aware of the illegality.

2. Where, in the situation referred to in paragraph 1, the provider of the online platform allowing consumers to conclude distance contracts with traders does not have the contact details of all consumers concerned, that provider shall make publicly available and easily accessible on its online interface the information concerning the illegal product or service, the identity of the trader and any relevant means of redress.

SECTION 5 Additional obligations for providers of very large online platforms and of very large online search engines to manage systemic risks

Article 33 Very large online platforms and very large online search engines

1. This Section shall apply to online platforms and online search engines which have a number of average monthly active recipients of the service in the Union equal to or higher than 45 million, and which are designated as very large online platforms or very large online search engines pursuant to paragraph 4.

2. The Commission shall adopt delegated acts in accordance with Article 87 to adjust the number of average monthly active recipients of the service in the Union referred to in paragraph 1, where the Union’s population increases or decreases at least by 5% in relation to its population in 2020 or its population after adjustment by means of a delegated act in the year in which the latest delegated act was adopted. In such a case, it shall adjust the number so that it corresponds to 10% of the Union’s population in the year in which it adopts the delegated act, rounded up or down to allow the number to be expressed in millions.

3. The Commission may adopt delegated acts in accordance with Article 87, after consulting the Board, to supplement the provisions of this Regulation by laying down the methodology for calculating the number of average monthly active recipients of the service in the Union, for the purposes of paragraph 1 of this Article and Article 24(2), ensuring that the methodology takes account of market and technological developments.

4. The Commission shall, after having consulted the Member State of establishment or after taking into account the information provided by the Digital Services Coordinator of establishment pursuant to Article 24(4), adopt a decision designating as a very large online platform or a very large online search engine for the purposes of this Regulation the online platform or the online search engine which has a number of average monthly active recipients of the service equal to or higher than the number referred to in paragraph 1 of this Article. The Commission shall take its decision on the basis of data reported by the provider of the online platform or of the online search engine pursuant to Article 24(2), or information requested pursuant to Article 24(3) or any other information available to the Commission.

The failure by the provider of the online platform or of the online search engine to comply with Article 24(2) or to comply with the request by the Digital Services Coordinator of establishment or by the Commission pursuant to Article 24(3) shall not prevent the Commission from designating that provider as a provider of a very large online platform or of a very large online search engine pursuant to this paragraph. Where the Commission bases its decision on other information available to the Commission pursuant to the first subparagraph of this paragraph or on the basis of additional information requested pursuant to Article 24(3), the Commission shall give the provider of the online platform or of the online search engine concerned 10 working days in which to submit its views on the Commission’s preliminary findings and on its intention to designate the online platform or the online search engine as a very large online platform or as a very large online search engine, respectively. The Commission shall take due account of the views submitted by the provider concerned. The failure of the provider of the online platform or of the online search engine concerned to submit its views pursuant to the third subparagraph shall not prevent the Commission from designating that online platform or that online search engine as a very large online platform or as a very large online search engine, respectively, based on other information available to it.

5. The Commission shall terminate the designation if, during an uninterrupted period of one year, the online platform or the online search engine does not have a number of average monthly active recipients of the service equal to or higher than the number referred to in paragraph 1.

6. The Commission shall notify its decisions pursuant to paragraphs 4 and 5, without undue delay, to the provider of the online platform or of the online search engine concerned, to the Board and to the Digital Services Coordinator of establishment.

The Commission shall ensure that the list of designated very large online platforms and very large online search engines is published in the Official Journal of the European Union, and shall keep that list up to date. The obligations set out in this Section shall apply, or cease to apply, to the very large online platforms and very large online search engines concerned from four months after the notification to the provider concerned referred to in the first subparagraph.

Article 34 Risk assessment

1. Providers of very large online platforms and of very large online search engines shall diligently identify, analyse and assess any systemic risks in the Union stemming from the design or functioning of their service and its related systems, including algorithmic systems, or from the use made of their services.

They shall carry out the risk assessments by the date of application referred to in Article 33(6), second subparagraph, and at least once every year thereafter, and in any event prior to deploying functionalities that are likely to have a critical impact on the risks identified pursuant to this Article. This risk assessment shall be specific to their services and proportionate to the systemic risks, taking into consideration their severity and probability, and shall include the following systemic risks: (a) the dissemination of illegal content through their services; (b) any actual or foreseeable negative effects for the exercise of fundamental rights, in particular the fundamental rights to human dignity enshrined in Article 1 of the Charter, to respect for private and family life enshrined in Article 7 of the Charter, to the protection of personal data enshrined in Article 8 of the Charter, to freedom of expression and information, including the freedom and pluralism of the media, enshrined in Article 11 of the Charter, to non-discrimination enshrined in Article 21 of the Charter, to respect for the rights of the child enshrined in Article 24 of the Charter and to a high-level of consumer protection enshrined in Article 38 of the Charter; (c) any actual or foreseeable negative effects on civic discourse and electoral processes, and public security; (d) any actual or foreseeable negative effects in relation to gender-based violence, the protection of public health and minors and serious negative consequences to the person’s physical and mental well-being.

2. When conducting risk assessments, providers of very large online platforms and of very large online search engines shall take into account, in particular, whether and how the following factors influence any of the systemic risks referred to in paragraph 1:

(a) the design of their recommender systems and any other relevant algorithmic system; (b) their content moderation systems; (c) the applicable terms and conditions and their enforcement; (d) systems for selecting and presenting advertisements; (e) data related practices of the provider. The assessments shall also analyse whether and how the risks pursuant to paragraph 1 are influenced by intentional manipulation of their service, including by inauthentic use or automated exploitation of the service, as well as the amplification and potentially rapid and wide dissemination of illegal content and of information that is incompatible with their terms and conditions. The assessment shall take into account specific regional or linguistic aspects, including when specific to a Member State.

Article 35 Mitigation of risks

1. Providers of very large online platforms and of very large online search engines shall put in place reasonable, proportionate and effective mitigation measures, tailored to the specific systemic risks identified pursuant to Article 34, with particular consideration to the impacts of such measures on fundamental rights. Such measures may include, where applicable:

(a) adapting the design, features or functioning of their services, including their online interfaces; (b) adapting their terms and conditions and their enforcement; (c) adapting content moderation processes, including the speed and quality of processing notices related to specific types of illegal content and, where appropriate, the expeditious removal of, or the disabling of access to, the content notified, in particular in respect of illegal hate speech or cyber violence, as well as adapting any relevant decision-making processes and dedicated resources for content moderation; (d) testing and adapting their algorithmic systems, including their recommender systems; (e) adapting their advertising systems and adopting targeted measures aimed at limiting or adjusting the presentation of advertisements in association with the service they provide; (f) reinforcing the internal processes, resources, testing, documentation, or supervision of any of their activities in particular as regards detection of systemic risk; (g) initiating or adjusting cooperation with trusted flaggers in accordance with Article 22 and the implementation of the decisions of out-of-court dispute settlement bodies pursuant to Article 21; (h) initiating or adjusting cooperation with other providers of online platforms or of online search engines through the codes of conduct and the crisis protocols referred to in Articles 45 and 48 respectively; (i) taking awareness-raising measures and adapting their online interface in order to give recipients of the service more information; (j) taking targeted measures to protect the rights of the child, including age verification and parental control tools, tools aimed at helping minors signal abuse or obtain support, as appropriate; (k) ensuring that an item of information, whether it constitutes a generated or manipulated image, audio or video that appreciably resembles existing persons, objects, places or other entities or events and falsely appears to a person to be authentic or truthful is distinguishable through prominent markings when presented on their online interfaces, and, in addition, providing an easy to use functionality which enables recipients of the service to indicate such information.

2. The Board, in cooperation with the Commission, shall publish comprehensive reports, once a year. The reports shall include the following:

(a) identification and assessment of the most prominent and recurrent systemic risks reported by providers of very large online platforms and of very large online search engines or identified through other information sources, in particular those provided in compliance with Articles 39, 40 and 42; (b) best practices for providers of very large online platforms and of very large online search engines to mitigate the systemic risks identified. Those reports shall present systemic risks broken down by the Member States in which they occurred and in the Union as a whole, as applicable.

3. The Commission, in cooperation with the Digital Services Coordinators, may issue guidelines on the application of paragraph 1 in relation to specific risks, in particular to present best practices and recommend possible measures, having due regard to the possible consequences of the measures on fundamental rights enshrined in the Charter of all parties involved. When preparing those guidelines the Commission shall organise public consultations.

Article 36 Crisis response mechanism

1. Where a crisis occurs, the Commission, acting upon a recommendation of the Board may adopt a decision, requiring one or more providers of very large online platforms or of very large online search engines to take one or more of the following actions:

(a) assess whether, and if so to what extent and how, the functioning and use of their services significantly contribute to a serious threat as referred to in paragraph 2, or are likely to do so; (b) identify and apply specific, effective and proportionate measures, such as any of those provided for in Article 35(1) or Article 48(2), to prevent, eliminate or limit any such contribution to the serious threat identified pursuant to point (a) of this paragraph; (c) report to the Commission by a certain date or at regular intervals specified in the decision, on the assessments referred to in point (a), on the precise content, implementation and qualitative and quantitative impact of the specific measures taken pursuant to point (b) and on any other issue related to those assessments or those measures, as specified in the decision. When identifying and applying measures pursuant to point (b) of this paragraph, the service provider or providers shall take due account of the gravity of the serious threat referred to in paragraph 2, of the urgency of the measures and of the actual or potential implications for the rights and legitimate interests of all parties concerned, including the possible failure of the measures to respect the fundamental rights enshrined in the Charter.

2. For the purpose of this Article, a crisis shall be deemed to have occurred where extraordinary circumstances lead to a serious threat to public security or public health in the Union or in significant parts of it.

3. When taking the decision referred to in paragraph 1, the Commission shall ensure that all of the following requirements are met:

(a) the actions required by the decision are strictly necessary, justified and proportionate, having regard in particular to the gravity of the serious threat referred to in paragraph 2, the urgency of the measures and the actual or potential implications for the rights and legitimate interests of all parties concerned, including the possible failure of the measures to respect the fundamental rights enshrined in the Charter; (b) the decision specifies a reasonable period within which specific measures referred to in paragraph 1, point (b), are to be taken, having regard, in particular, to the urgency of those measures and the time needed to prepare and implement them; (c) the actions required by the decision are limited to a period not exceeding three months.

4. After adopting the decision referred to in paragraph 1, the Commission shall, without undue delay, take the following steps:

(a) notify the decision to the provider or providers to which the decision is addressed; (b) make the decision publicly available; and (c) inform the Board of the decision, invite it to submit its views thereon, and keep it informed of any subsequent developments relating to the decision.

5. The choice of specific measures to be taken pursuant to paragraph 1, point (b), and to paragraph 7, second subparagraph, shall remain with the provider or providers addressed by the Commission’s decision.

6. The Commission may on its own initiative or at the request of the provider, engage in a dialogue with the provider to determine whether, in light of the provider’s specific circumstances, the intended or implemented measures referred to in paragraph 1, point (b), are effective and proportionate in achieving the objectives pursued. In particular, the Commission shall ensure that the measures taken by the service provider under paragraph 1, point (b), meet the requirements referred to in paragraph 3, points (a) and (c).

7. The Commission shall monitor the application of the specific measures taken pursuant to the decision referred to in paragraph 1 of this Article on the basis of the reports referred to in point (c) of that paragraph and any other relevant information, including information it may request pursuant to Article 40 or 67, taking into account the evolution of the crisis. The Commission shall report regularly to the Board on that monitoring, at least on a monthly basis.

Where the Commission considers that the intended or implemented specific measures pursuant to paragraph 1, point (b), are not effective or proportionate it may, after consulting the Board, adopt a decision requiring the provider to review the identification or application of those specific measures.

8. Where appropriate in view of the evolution of the crisis, the Commission, acting on the Board’s recommendation, may amend the decision referred to in paragraph 1 or in paragraph 7, second subparagraph, by:

(a) revoking the decision and, where appropriate, requiring the very large online platform or very large online search engine to cease to apply the measures identified and implemented pursuant to paragraph 1, point (b), or paragraph 7, second subparagraph, in particular where the grounds for such measures do not exist anymore; (b) extending the period referred to paragraph 3, point (c), by a period of no more than three months; (c) taking account of experience gained in applying the measures, in particular the possible failure of the measures to respect the fundamental rights enshrined in the Charter.

9. The requirements of paragraphs 1 to 6 shall apply to the decision and to the amendment thereof referred to in this Article.

10. The Commission shall take utmost account of the recommendation of the Board issued pursuant to this Article.

11. The Commission shall report to the European Parliament and to the Council on a yearly basis following the adoption of decisions in accordance with this Article, and, in any event, three months after the end of the crisis, on the application of the specific measures taken pursuant to those decisions.

Article 37 Independent audit

1. Providers of very large online platforms and of very large online search engines shall be subject, at their own expense and at least once a year, to independent audits to assess compliance with the following:

(a) the obligations set out in Chapter III; (b) any commitments undertaken pursuant to the codes of conduct referred to in Articles 45 and 46 and the crisis protocols referred to in Article 48.

2. Providers of very large online platforms and of very large online search engines shall afford the organisations carrying out the audits pursuant to this Article the cooperation and assistance necessary to enable them to conduct those audits in an effective, efficient and timely manner, including by giving them access to all relevant data and premises and by answering oral or written questions. They shall refrain from hampering, unduly influencing or undermining the performance of the audit.

Such audits shall ensure an adequate level of confidentiality and professional secrecy in respect of the information obtained from the providers of very large online platforms and of very large online search engines and third parties in the context of the audits, including after the termination of the audits. However, complying with that requirement shall not adversely affect the performance of the audits and other provisions of this Regulation, in particular those on transparency, supervision and enforcement. Where necessary for the purpose of the transparency reporting pursuant to Article 42(4), the audit report and the audit implementation report referred to in paragraphs 4 and 6 of this Article shall be accompanied with versions that do not contain any information that could reasonably be considered to be confidential.

3. Audits performed pursuant to paragraph 1 shall be performed by organisations which:

(a) are independent from, and do not have any conflicts of interest with, the provider of very large online platforms or of very large online search engines concerned and any legal person connected to that provider; in particular: (i) have not provided non-audit services related to the matters audited to the provider of very large online platform or of very large online search engine concerned and to any legal person connected to that provider in the 12 months’ period before the beginning of the audit and have committed to not providing them with such services in the 12 months’ period after the completion of the audit; (ii) have not provided auditing services pursuant to this Article to the provider of very large online platform or of very large online search engine concerned and any legal person connected to that provider during a period longer than 10 consecutive years; (iii) are not performing the audit in return for fees which are contingent on the result of the audit; (b) have proven expertise in the area of risk management, technical competence and capabilities; (c) have proven objectivity and professional ethics, based in particular on adherence to codes of practice or appropriate standards.

4. Providers of very large online platforms and of very large online search engines shall ensure that the organisations that perform the audits establish an audit report for each audit. That report shall be substantiated, in writing, and shall include at least the following:

(a) the name, address and the point of contact of the provider of the very large online platform or of the very large online search engine subject to the audit and the period covered; (b) the name and address of the organisation or organisations performing the audit; (c) a declaration of interests; (d) a description of the specific elements audited, and the methodology applied; (e) a description and a summary of the main findings drawn from the audit; (f) a list of the third parties consulted as part of the audit; (g) an audit opinion on whether the provider of the very large online platform or of the very large online search engine subject to the audit complied with the obligations and with the commitments referred to in paragraph 1, namely ‘positive’, ‘positive with comments’ or ‘negative’; (h) where the audit opinion is not ‘positive’, operational recommendations on specific measures to achieve compliance and the recommended timeframe to achieve compliance.

5. Where the organisation performing the audit was unable to audit certain specific elements or to express an audit opinion based on its investigations, the audit report shall include an explanation of the circumstances and the reasons why those elements could not be audited.

6. Providers of very large online platforms or of very large online search engines receiving an audit report that is not ‘positive’ shall take due account of the operational recommendations addressed to them with a view to take the necessary measures to implement them. They shall, within one month from receiving those recommendations, adopt an audit implementation report setting out those measures. Where they do not implement the operational recommendations, they shall justify in the audit implementation report the reasons for not doing so and set out any alternative measures that they have taken to address any instances of non-compliance identified.

7. The Commission is empowered to adopt delegated acts in accordance with Article 87 to supplement this Regulation by laying down the necessary rules for the performance of the audits pursuant to this Article, in particular as regards the necessary rules on the procedural steps, auditing methodologies and reporting templates for the audits performed pursuant to this Article. Those delegated acts shall take into account any voluntary auditing standards referred to in Article 44(1), point (e).

Article 38 Recommender systems

In addition to the requirements set out in Article 27, providers of very large online platforms and of very large online search engines that use recommender systems shall provide at least one option for each of their recommender systems which is not based on profiling as defined in Article 4, point (4), of Regulation (EU) 2016/679.

Article 39 Additional online advertising transparency

1. Providers of very large online platforms or of very large online search engines that present advertisements on their online interfaces shall compile and make publicly available in a specific section of their online interface, through a searchable and reliable tool that allows multicriteria queries and through application programming interfaces, a repository containing the information referred to in paragraph 2, for the entire period during which they present an advertisement and until one year after the advertisement was presented for the last time on their online interfaces. They shall ensure that the repository does not contain any personal data of the recipients of the service to whom the advertisement was or could have been presented, and shall make reasonable efforts to ensure that the information is accurate and complete.

2. The repository shall include at least all of the following information:

(a) the content of the advertisement, including the name of the product, service or brand and the subject matter of the advertisement; (b) the natural or legal person on whose behalf the advertisement is presented; (c) the natural or legal person who paid for the advertisement, if that person is different from the person referred to in point (b); (d) the period during which the advertisement was presented; (e) whether the advertisement was intended to be presented specifically to one or more particular groups of recipients of the service and if so, the main parameters used for that purpose including where applicable the main parameters used to exclude one or more of such particular groups; (f) the commercial communications published on the very large online platforms and identified pursuant to Article 26(2); (g) the total number of recipients of the service reached and, where applicable, aggregate numbers broken down by Member State for the group or groups of recipients that the advertisement specifically targeted.

3. As regards paragraph 2, points (a), (b) and (c), where a provider of very large online platform or of very large online search engine has removed or disabled access to a specific advertisement based on alleged illegality or incompatibility with its terms and conditions, the repository shall not include the information referred to in those points. In such case, the repository shall include, for the specific advertisement concerned, the information referred to in Article 17(3), points (a) to (e), or Article 9(2), point (a)(i), as applicable.

The Commission may, after consultation of the Board, the relevant vetted researchers referred to in Article 40 and the public, issue guidelines on the structure, organisation and functionalities of the repositories referred to in this Article.

Article 40 Data access and scrutiny

1. Providers of very large online platforms or of very large online search engines shall provide the Digital Services Coordinator of establishment or the Commission, at their reasoned request and within a reasonable period specified in that request, access to data that are necessary to monitor and assess compliance with this Regulation.

2. Digital Services Coordinators and the Commission shall use the data accessed pursuant to paragraph 1 only for the purpose of monitoring and assessing compliance with this Regulation and shall take due account of the rights and interests of the providers of very large online platforms or of very large online search engines and the recipients of the service concerned, including the protection of personal data, the protection of confidential information, in particular trade secrets, and maintaining the security of their service.

3. For the purposes of paragraph 1, providers of very large online platforms or of very large online search engines shall, at the request of either the Digital Service Coordinator of establishment or of the Commission, explain the design, the logic, the functioning and the testing of their algorithmic systems, including their recommender systems.

4. Upon a reasoned request from the Digital Services Coordinator of establishment, providers of very large online platforms or of very large online search engines shall, within a reasonable period, as specified in the request, provide access to data to vetted researchers who meet the requirements in paragraph 8 of this Article, for the sole purpose of conducting research that contributes to the detection, identification and understanding of systemic risks in the Union, as set out pursuant to Article 34(1), and to the assessment of the adequacy, efficiency and impacts of the risk mitigation measures pursuant to Article 35.

5. Within 15 days following receipt of a request as referred to in paragraph 4, providers of very large online platforms or of very large online search engines may request the Digital Services Coordinator of establishment, to amend the request, where they consider that they are unable to give access to the data requested because one of following two reasons:

(a) they do not have access to the data; (b) giving access to the data will lead to significant vulnerabilities in the security of their service or the protection of confidential information, in particular trade secrets.

6. Requests for amendment pursuant to paragraph 5 shall contain proposals for one or more alternative means through which access may be provided to the requested data or other data which are appropriate and sufficient for the purpose of the request.

The Digital Services Coordinator of establishment shall decide on the request for amendment within 15 days and communicate to the provider of the very large online platform or of the very large online search engine its decision and, where relevant, the amended request and the new period to comply with the request.

7. Providers of very large online platforms or of very large online search engines shall facilitate and provide access to data pursuant to paragraphs 1 and 4 through appropriate interfaces specified in the request, including online databases or application programming interfaces.

8. Upon a duly substantiated application from researchers, the Digital Services Coordinator of establishment shall grant such researchers the status of ‘vetted researchers’ for the specific research referred to in the application and issue a reasoned request for data access to a provider of very large online platform or of very large online search engine a pursuant to paragraph 4, where the researchers demonstrate that they meet all of the following conditions:

(a) they are affiliated to a research organisation as defined in Article 2, point (1), of Directive (EU) 2019/790; (b) they are independent from commercial interests; (c) their application discloses the funding of the research; (d) they are capable of fulfilling the specific data security and confidentiality requirements corresponding to each request and to protect personal data, and they describe in their request the appropriate technical and organisational measures that they have put in place to this end; (e) their application demonstrates that their access to the data and the time frames requested are necessary for, and proportionate to, the purposes of their research, and that the expected results of that research will contribute to the purposes laid down in paragraph 4; (f) the planned research activities will be carried out for the purposes laid down in paragraph 4; (g) they have committed themselves to making their research results publicly available free of charge, within a reasonable period after the completion of the research, subject to the rights and interests of the recipients of the service concerned, in accordance with Regulation (EU) 2016/679. Upon receipt of the application pursuant to this paragraph, the Digital Services Coordinator of establishment shall inform the Commission and the Board.

9. Researchers may also submit their application to the Digital Services Coordinator of the Member State of the research organisation to which they are affiliated. Upon receipt of the application pursuant to this paragraph the Digital Services Coordinator shall conduct an initial assessment as to whether the respective researchers meet all of the conditions set out in paragraph 8. The respective Digital Services Coordinator shall subsequently send the application, together with the supporting documents submitted by the respective researchers and the initial assessment, to the Digital Services Coordinator of establishment. The Digital Services Coordinator of establishment shall take a decision whether to award a researcher the status of ‘vetted researcher’ without undue delay.

While taking due account of the initial assessment provided, the final decision to award a researcher the status of ‘vetted researcher’ lies within the competence of Digital Services Coordinator of establishment, pursuant to paragraph 8.

10. The Digital Services Coordinator that awarded the status of vetted researcher and issued the reasoned request for data access to the providers of very large online platforms or of very large online search engines in favour of a vetted researcher shall issue a decision terminating the access if it determines, following an investigation either on its own initiative or on the basis of information received from third parties, that the vetted researcher no longer meets the conditions set out in paragraph 8, and shall inform the provider of the very large online platform or of the very large online search engine concerned of the decision. Before terminating the access, the Digital Services Coordinator shall allow the vetted researcher to react to the findings of its investigation and to its intention to terminate the access.

11. Digital Services Coordinators of establishment shall communicate to the Board the names and contact information of the natural persons or entities to which they have awarded the status of ‘vetted researcher’ in accordance with paragraph 8, as well as the purpose of the research in respect of which the application was made or, where they have terminated the access to the data in accordance with paragraph 10, communicate that information to the Board.

12. Providers of very large online platforms or of very large online search engines shall give access without undue delay to data, including, where technically possible, to real-time data, provided that the data is publicly accessible in their online interface by researchers, including those affiliated to not for profit bodies, organisations and associations, who comply with the conditions set out in paragraph 8, points (b), (c), (d) and (e), and who use the data solely for performing research that contributes to the detection, identification and understanding of systemic risks in the Union pursuant to Article 34(1).

13. The Commission shall, after consulting the Board, adopt delegated acts supplementing this Regulation by laying down the technical conditions under which providers of very large online platforms or of very large online search engines are to share data pursuant to paragraphs 1 and 4 and the purposes for which the data may be used. Those delegated acts shall lay down the specific conditions under which such sharing of data with researchers can take place in compliance with Regulation (EU) 2016/679, as well as relevant objective indicators, procedures and, where necessary, independent advisory mechanisms in support of sharing of data, taking into account the rights and interests of the providers of very large online platforms or of very large online search engines and the recipients of the service concerned, including the protection of confidential information, in particular trade secrets, and maintaining the security of their service.

Article 41 Compliance function

1. Providers of very large online platforms or of very large online search engines shall establish a compliance function, which is independent from their operational functions and composed of one or more compliance officers, including the head of the compliance function. That compliance function shall have sufficient authority, stature and resources, as well as access to the management body of the provider of the very large online platform or of the very large online search engine to monitor the compliance of that provider with this Regulation.

2. The management body of the provider of the very large online platform or of the very large online search engine shall ensure that compliance officers have the professional qualifications, knowledge, experience and ability necessary to fulfil the tasks referred to in paragraph 3.

The management body of the provider of the very large online platform or of the very large online search engine shall ensure that the head of the compliance function is an independent senior manager with distinct responsibility for the compliance function. The head of the compliance function shall report directly to the management body of the provider of the very large online platform or of the very large online search engine, and may raise concerns and warn that body where risks referred to in Article 34 or non- compliance with this Regulation affect or may affect the provider of the very large online platform or of the very large online search engine concerned, without prejudice to the responsibilities of the management body in its supervisory and managerial functions. The head of the compliance function shall not be removed without prior approval of the management body of the provider of the very large online platform or of the very large online search engine.

3. Compliance officers shall have the following tasks:

(a) cooperating with the Digital Services Coordinator of establishment and the Commission for the purpose of this Regulation; (b) ensuring that all risks referred to in Article 34 are identified and properly reported on and that reasonable, proportionate and effective risk-mitigation measures are taken pursuant to Article 35; (c) organising and supervising the activities of the provider of the very large online platform or of the very large online search engine relating to the independent audit pursuant to Article 37; (d) informing and advising the management and employees of the provider of the very large online platform or of the very large online search engine about relevant obligations under this Regulation; (e) monitoring the compliance of the provider of the very large online platform or of the very large online search engine with its obligations under this Regulation; (f) where applicable, monitoring the compliance of the provider of the very large online platform or of the very large online search engine with commitments made under the codes of conduct pursuant to Articles 45 and 46 or the crisis protocols pursuant to Article 48.

4. Providers of very large online platforms or of very large online search engines shall communicate the name and contact details of the head of the compliance function to the Digital Services Coordinator of establishment and to the Commission.

5. The management body of the provider of the very large online platform or of the very large online search engine shall define, oversee and be accountable for the implementation of the provider’s governance arrangements that ensure the independence of the compliance function, including the division of responsibilities within the organisation of the provider of very large online platform or of very large online search engine, the prevention of conflicts of interest, and sound management of systemic risks identified pursuant to Article 34.

6. The management body shall approve and review periodically, at least once a year, the strategies and policies for taking up, managing, monitoring and mitigating the risks identified pursuant to Article 34 to which the very large online platform or the very large online search engine is or might be exposed to.

7. The management body shall devote sufficient time to the consideration of the measures related to risk management. It shall be actively involved in the decisions related to risk management, and shall ensure that adequate resources are allocated to the management of the risks identified in accordance with Article 34.

Article 42 Transparency reporting obligations

1. Providers of very large online platforms or of very large online search engines shall publish the reports referred to in Article 15 at the latest by two months from the date of application referred to in Article 33(6), second subparagraph, and thereafter at least every six months.

2. The reports referred to in paragraph 1 of this Article published by providers of very large online platforms shall, in addition to the information referred to in Article 15 and Article 24(1), specify:

(a) the human resources that the provider of very large online platforms dedicates to content moderation in respect of the service offered in the Union, broken down by each applicable official language of the Member States, including for compliance with the obligations set out in Articles 16 and 22, as well as for compliance with the obligations set out in Article 20; (b) the qualifications and linguistic expertise of the persons carrying out the activities referred to in point (a), as well as the training and support given to such staff; (c) the indicators of accuracy and related information referred to in Article 15(1), point (e), broken down by each official language of the Member States. The reports shall be published in at least one of the official languages of the Member States.

3. In addition to the information referred to in Articles 24(2), the providers of very large online platforms or of very large online search engines shall include in the reports referred to in paragraph 1 of this Article the information on the average monthly recipients of the service for each Member State.

4. Providers of very large online platforms or of very large online search engines shall transmit to the Digital Services Coordinator of establishment and the Commission, without undue delay upon completion, and make publicly available at the latest three months after the receipt of each audit report pursuant to Article 37(4):

(a) a report setting out the results of the risk assessment pursuant to Article 34; (b) the specific mitigation measures put in place pursuant to Article 35(1); (c) the audit report provided for in Article 37(4); (d) the audit implementation report provided for in Article 37(6); (e) where applicable, information about the consultations conducted by the provider in support of the risk assessments and design of the risk mitigation measures.

5. Where a provider of very large online platform or of very large online search engine considers that the publication of information pursuant to paragraph 4 might result in the disclosure of confidential information of that provider or of the recipients of the service, cause significant vulnerabilities for the security of its service, undermine public security or harm recipients, the provider may remove such information from the publicly available reports. In that case, the provider shall transmit the complete reports to the Digital Services Coordinator of establishment and the Commission, accompanied by a statement of the reasons for removing the information from the publicly available reports.

Article 43 Supervisory fee

1. The Commission shall charge providers of very large online platforms and of very large online search engines an annual supervisory fee upon their designation pursuant to Article 33.

2. The overall amount of the annual supervisory fees shall cover the estimated costs that the Commission incurs in relation to its supervisory tasks under this Regulation, in particular costs related to the designation pursuant to Article 33, to the set-up, maintenance and operation of the database pursuant to Article 24(5) and to the information sharing system pursuant to Article 85, to referrals pursuant to Article 59, to supporting the Board pursuant to Article 62 and to the supervisory tasks pursuant to Article 56 and Section 4 of Chapter IV.

3. The providers of very large online platforms and of very large online search engines shall be charged annually a supervisory fee for each service for which they have been designated pursuant to Article 33.

The Commission shall adopt implementing acts establishing the amount of the annual supervisory fee in respect of each provider of very large online platform or of very large online search engine. When adopting those implementing acts, the Commission shall apply the methodology laid down in the delegated act referred to in paragraph 4 of this Article and shall respect the principles set out in paragraph 5 of this Article. Those implementing acts shall be adopted in accordance with the advisory procedure referred to in Article 88.

4. The Commission shall adopt delegated acts, in accordance with Article 87, laying down the detailed methodology and procedures for:

(a) the determination of the estimated costs referred to in paragraph 2; (b) the determination of the individual annual supervisory fees referred to in paragraph 5, points (b) and (c); (c) the determination of the maximum overall limit defined in paragraph 5, point (c); and (d) the detailed arrangements necessary to make payments. When adopting those delegated acts, the Commission shall respect the principles set out in paragraph 5 of this Article.

5. The implementing act referred to in paragraph 3 and the delegated act referred to in paragraph 4 shall respect the following principles:

(a) the estimation of the overall amount of the annual supervisory fee takes into account the costs incurred in the previous year; (b) the annual supervisory fee is proportionate to the number of average monthly active recipients in the Union of each very large online platform or each very large online search engine designated pursuant to Article 33; (c) the overall amount of the annual supervisory fee charged on a given provider of very large online platform or very large search engine does not, in any case, exceed 0.05% of its worldwide annual net income in the preceding financial year.

6. The individual annual supervisory fees charged pursuant to paragraph 1 of this Article shall constitute external assigned revenue in accordance with Article 21(5) of Regulation (EU, Euratom) 2018/1046 of the European Parliament and of the Council .

7. The Commission shall report annually to the European Parliament and to the Council on the overall amount of the costs incurred for the fulfilment of the tasks under this Regulation and the total amount of the individual annual supervisory fees charged in the preceding year.

SECTION 6 Other provisions concerning due diligence obligations

Article 44 Standards

1. The Commission shall consult the Board, and shall support and promote the development and implementation of voluntary standards set by relevant European and international standardisation bodies, at least in respect of the following:

(a) electronic submission of notices under Article 16; (b) templates, design and process standards for communicating with the recipients of the service in a user-friendly manner on restrictions resulting from terms and conditions and changes thereto; (c) electronic submission of notices by trusted flaggers under Article 22, including through application programming interfaces; (d) specific interfaces, including application programming interfaces, to facilitate compliance with the obligations set out in Articles 39 and 40; (e) auditing of very large online platforms and of very large online search engines pursuant to Article 37; (f) interoperability of the advertisement repositories referred to in Article 39(2); (g) transmission of data between advertising intermediaries in support of transparency obligations pursuant to Article 26(1), points (b), (c) and (d); (h) technical measures to enable compliance with obligations relating to advertising contained in this Regulation, including the obligations regarding prominent markings for advertisements and commercial communications referred to in Article 26; (i) choice interfaces and presentation of information on the main parameters of different types of recommender systems, in accordance with Articles 27 and 38; (j) standards for targeted measures to protect minors online.

2. The Commission shall support the update of the standards in the light of technological developments and the behaviour of the recipients of the services in question. The relevant information regarding the update of the standards shall be publicly available and easily accessible.

Article 45 Codes of conduct

1. The Commission and the Board shall encourage and facilitate the drawing up of voluntary codes of conduct at Union level to contribute to the proper application of this Regulation, taking into account in particular the specific challenges of tackling different types of illegal content and systemic risks, in accordance with Union law in particular on competition and the protection of personal data.

2. Where significant systemic risk within the meaning of Article 34(1) emerge and concern several very large online platforms or very large online search engines, the Commission may invite the providers of very large online platforms concerned or the providers of very large online search engines concerned, and other providers of very large online platforms, of very large online search engines, of online platforms and of other intermediary services, as appropriate, as well as relevant competent authorities, civil society organisations and other relevant stakeholders, to participate in the drawing up of codes of conduct, including by setting out commitments to take specific risk mitigation measures, as well as a regular reporting framework on any measures taken and their outcomes.

3. When giving effect to paragraphs 1 and 2, the Commission and the Board, and where relevant other bodies, shall aim to ensure that the codes of conduct clearly set out their specific objectives, contain key performance indicators to measure the achievement of those objectives and take due account of the needs and interests of all interested parties, and in particular citizens, at Union level. The Commission and the Board shall also aim to ensure that participants report regularly to the Commission and their respective Digital Services Coordinators of establishment on any measures taken and their outcomes, as measured against the key performance indicators that they contain. Key performance indicators and reporting commitments shall take into account differences in size and capacity between different participants.

4. The Commission and the Board shall assess whether the codes of conduct meet the aims specified in paragraphs 1 and 3, and shall regularly monitor and evaluate the achievement of their objectives, having regard to the key performance indicators that they might contain. They shall publish their conclusions.

The Commission and the Board shall also encourage and facilitate regular review and adaptation of the codes of conduct. In the case of systematic failure to comply with the codes of conduct, the Commission and the Board may invite the signatories to the codes of conduct to take the necessary action.

Article 46 Codes of conduct for online advertising

1. The Commission shall encourage and facilitate the drawing up of voluntary codes of conduct at Union level by providers of online platforms and other relevant service providers, such as providers of online advertising intermediary services, other actors involved in the programmatic advertising value chain, or organisations representing recipients of the service and civil society organisations or relevant authorities to contribute to further transparency for actors in the online advertising value chain beyond the requirements of Articles 26 and 39.

2. The Commission shall aim to ensure that the codes of conduct pursue an effective transmission of information that fully respects the rights and interests of all parties involved, as well as a competitive, transparent and fair environment in online advertising, in accordance with Union and national law, in particular on competition and the protection of privacy and personal data. The Commission shall aim to ensure that the codes of conduct at least address the following:

(a) the transmission of information held by providers of online advertising intermediaries to recipients of the service concerning the requirements set in Article 26(1), points (b), (c) and (d); (b) the transmission of information held by providers of online advertising intermediaries to the repositories pursuant to Article 39; (c) meaningful information on data monetisation.

3. The Commission shall encourage the development of the codes of conduct by 18 February 2025 and their application by 18 August 2025.

4. The Commission shall encourage all the actors in the online advertising value chain referred to in paragraph 1 to endorse the commitments stated in the codes of conduct, and to comply with them.

Article 47 Codes of conduct for accessibility

1. The Commission shall encourage and facilitate the drawing up of codes of conduct at Union level with the involvement of providers of online platforms and other relevant service providers, organisations representing recipients of the service and civil society organisations or relevant authorities to promote full and effective, equal participation, by improving access to online services that, through their initial design or subsequent adaptation, address the particular needs of persons with disabilities.

2. The Commission shall aim to ensure that the codes of conduct pursue the objective of ensuring that those services are accessible in compliance with Union and national law, in order to maximise their foreseeable use by persons with disabilities. The Commission shall aim to ensure that the codes of conduct address at least the following objectives:

(a) designing and adapting services to make them accessible to persons with disabilities by making them perceivable, operable, understandable and robust; (b) explaining how the services meet the applicable accessibility requirements and making this information available to the public in an accessible manner for persons with disabilities; (c) making information, forms and measures provided pursuant to this Regulation available in such a manner that they are easy to find, easy to understand, and accessible to persons with disabilities.

3. The Commission shall encourage the development of the codes of conduct by 18 February 2025 and their application by 18 August 2025.

Article 48 Crisis protocols

1. The Board may recommend that the Commission initiate the drawing up, in accordance with paragraphs 2, 3 and 4, of voluntary crisis protocols for addressing crisis situations. Those situations shall be strictly limited to extraordinary circumstances affecting public security or public health.

2. The Commission shall encourage and facilitate the providers of very large online platforms, of very large online search engines and, where appropriate, the providers of other online platforms or of other online search engines, to participate in the drawing up, testing and application of those crisis protocols. The Commission shall aim to ensure that those crisis protocols include one or more of the following measures:

(a) prominently displaying information on the crisis situation provided by Member States’ authorities or at Union level, or, depending on the context of the crisis, by other relevant reliable bodies; (b) ensuring that the provider of intermediary services designates a specific point of contact for crisis management; where relevant, this may be the electronic point of contact referred to in Article 11 or, in the case of providers of very large online platforms or of very large online search engines, the compliance officer referred to in Article 41; (c) where applicable, adapt the resources dedicated to compliance with the obligations set out in Articles 16, 20, 22, 23 and 35 to the needs arising from the crisis situation.

3. The Commission shall, as appropriate, involve Member States’ authorities, and may also involve Union bodies, offices and agencies in drawing up, testing and supervising the application of the crisis protocols. The Commission may, where necessary and appropriate, also involve civil society organisations or other relevant organisations in drawing up the crisis protocols.

4. The Commission shall aim to ensure that the crisis protocols set out clearly all of the following:

(a) the specific parameters to determine what constitutes the specific extraordinary circumstance the crisis protocol seeks to address and the objectives it pursues; (b) the role of each participant and the measures they are to put in place in preparation and once the crisis protocol has been activated; (c) a clear procedure for determining when the crisis protocol is to be activated; (d) a clear procedure for determining the period during which the measures to be taken once the crisis protocol has been activated are to be taken, which is strictly limited to what is necessary for addressing the specific extraordinary circumstances concerned; (e) safeguards to address any negative effects on the exercise of the fundamental rights enshrined in the Charter, in particular the freedom of expression and information and the right to non-discrimination; (f) a process to publicly report on any measures taken, their duration and their outcomes, upon the termination of the crisis situation.

5. If the Commission considers that a crisis protocol fails to effectively address the crisis situation, or to safeguard the exercise of fundamental rights as referred to in paragraph 4, point (e), it shall request the participants to revise the crisis protocol, including by taking additional measures.

CHAPTER IV IMPLEMENTATION, COOPERATION, PENALTIES AND ENFORCEMENT

SECTION 1 Competent authorities and national Digital Services Coordinators

Article 49 Competent authorities and Digital Services Coordinators

1. Member States shall designate one or more competent authorities to be responsible for the supervision of providers of intermediary services and enforcement of this Regulation (‘competent authorities’).

2. Member States shall designate one of the competent authorities as their Digital Services Coordinator. The Digital Services Coordinator shall be responsible for all matters relating to supervision and enforcement of this Regulation in that Member State, unless the Member State concerned has assigned certain specific tasks or sectors to other competent authorities. The Digital Services Coordinator shall in any event be responsible for ensuring coordination at national level in respect of those matters and for contributing to the effective and consistent supervision and enforcement of this Regulation throughout the Union.

For that purpose, Digital Services Coordinators shall cooperate with each other, other national competent authorities, the Board and the Commission, without prejudice to the possibility for Member States to provide for cooperation mechanisms and regular exchanges of views between the Digital Services Coordinator and other national authorities where relevant for the performance of their respective tasks. Where a Member State designates one or more competent authorities in addition to the Digital Services Coordinator, it shall ensure that the respective tasks of those authorities and of the Digital Services Coordinator are clearly defined and that they cooperate closely and effectively when performing their tasks.

3. Member States shall designate the Digital Services Coordinators by 17 February 2024.

Member States shall make publicly available, and communicate to the Commission and the Board, the name of their competent authority designated as Digital Services Coordinator and information on how it can be contacted. The Member State concerned shall communicate to the Commission and the Board the name of the other competent authorities referred to in paragraph 2, as well as their respective tasks.

4. The provisions applicable to Digital Services Coordinators set out in Articles 50, 51 and 56 shall also apply to any other competent authorities that the Member States designate pursuant to paragraph 1 of this Article.

Article 50 Requirements for Digital Services Coordinators

1. Member States shall ensure that their Digital Services Coordinators perform their tasks under this Regulation in an impartial, transparent and timely manner. Member States shall ensure that their Digital Services Coordinators have all necessary resources to carry out their tasks, including sufficient technical, financial and human resources to adequately supervise all providers of intermediary services falling within their competence. Each Member State shall ensure that its Digital Services Coordinator has sufficient autonomy in managing its budget within the budget’s overall limits, in order not to adversely affect the independence of the Digital Services Coordinator.

2. When carrying out their tasks and exercising their powers in accordance with this Regulation, the Digital Services Coordinators shall act with complete independence. They shall remain free from any external influence, whether direct or indirect, and shall neither seek nor take instructions from any other public authority or any private party.

3. Paragraph 2 of this Article is without prejudice to the tasks of Digital Services Coordinators within the system of supervision and enforcement provided for in this Regulation and the cooperation with other competent authorities in accordance with Article 49(2). Paragraph 2 of this Article shall not prevent the exercise of judicial review and shall also be without prejudice to proportionate accountability requirements regarding the general activities of the Digital Services Coordinators, such as financial expenditure or reporting to national parliaments, provided that those requirements do not undermine the achievement of the objectives of this Regulation.

Article 51 Powers of Digital Services Coordinators

1. Where needed in order to carry out their tasks under this Regulation, Digital Services Coordinators shall have the following powers of investigation, in respect of conduct by providers of intermediary services falling within the competence of their Member State:

(a) the power to require those providers, as well as any other persons acting for purposes related to their trade, business, craft or profession that may reasonably be aware of information relating to a suspected infringement of this Regulation, including organisations performing the audits referred to in Article 37 and Article 75(2), to provide such information without undue delay; (b) the power to carry out, or to request a judicial authority in their Member State to order, inspections of any premises that those providers or those persons use for purposes related to their trade, business, craft or profession, or to request other public authorities to do so, in order to examine, seize, take or obtain copies of information relating to a suspected infringement in any form, irrespective of the storage medium; (c) the power to ask any member of staff or representative of those providers or those persons to give explanations in respect of any information relating to a suspected infringement and to record the answers with their consent by any technical means.

2. Where needed for carrying out their tasks under this Regulation, Digital Services Coordinators shall have the following enforcement powers, in respect of providers of intermediary services falling within the competence of their Member State:

(a) the power to accept the commitments offered by those providers in relation to their compliance with this Regulation and to make those commitments binding; (b) the power to order the cessation of infringements and, where appropriate, to impose remedies proportionate to the infringement and necessary to bring the infringement effectively to an end, or to request a judicial authority in their Member State to do so; (c) the power to impose fines, or to request a judicial authority in their Member State to do so, in accordance with Article 52 for failure to comply with this Regulation, including with any of the investigative orders issued pursuant to paragraph 1 of this Article; (d) the power to impose a periodic penalty payment, or to request a judicial authority in their Member State to do so, in accordance with Article 52 to ensure that an infringement is terminated in compliance with an order issued pursuant to point (b) of this subparagraph or for failure to comply with any of the investigative orders issued pursuant to paragraph 1 of this Article; (e) the power to adopt interim measures or to request the competent national judicial authority in their Member State to do so, to avoid the risk of serious harm. As regards the first subparagraph, points (c) and (d), Digital Services Coordinators shall also have the enforcement powers set out in those points in respect of the other persons referred to in paragraph 1 for failure to comply with any of the orders issued to them pursuant to that paragraph. They shall only exercise those enforcement powers after providing those other persons in good time with all relevant information relating to such orders, including the applicable period, the fines or periodic payments that may be imposed for failure to comply and the possibilities for redress.

3. Where needed for carrying out their tasks under this Regulation, Digital Services Coordinators shall, in respect of providers of intermediary services falling within the competence of their Member State, where all other powers pursuant to this Article to bring about the cessation of an infringement have been exhausted and the infringement has not been remedied or is continuing and is causing serious harm which cannot be avoided through the exercise of other powers available under Union or national law, also have the power to take the following measures:

(a) to require the management body of those providers, without undue delay, to examine the situation, adopt and submit an action plan setting out the necessary measures to terminate the infringement, ensure that the provider takes those measures, and report on the measures taken; (b) where the Digital Services Coordinator considers that a provider of intermediary services has not sufficiently complied with the requirements referred to in point (a), that the infringement has not been remedied or is continuing and is causing serious harm, and that that infringement entails a criminal offence involving a threat to the life or safety of persons, to request that the competent judicial authority of its Member State order the temporary restriction of access of recipients to the service concerned by the infringement or, only where that is not technically feasible, to the online interface of the provider of intermediary services on which the infringement takes place. The Digital Services Coordinator shall, except where it acts upon the Commission’s request referred to in Article 82, prior to submitting the request referred to in the first subparagraph, point (b), of this paragraph invite interested parties to submit written observations within a period that shall not be less than two weeks, describing the measures that it intends to request and identifying the intended addressee or addressees thereof. The provider of intermediary services, the intended addressee or addressees and any other third party demonstrating a legitimate interest shall be entitled to participate in the proceedings before the competent judicial authority. Any measure ordered shall be proportionate to the nature, gravity, recurrence and duration of the infringement, without unduly restricting access to lawful information by recipients of the service concerned. The restriction of access shall be for a period of four weeks, subject to the possibility for the competent judicial authority, in its order, to allow the Digital Services Coordinator to extend that period for further periods of the same lengths, subject to a maximum number of extensions set by that judicial authority. The Digital Services Coordinator shall only extend the period where, having regard to the rights and interests of all parties affected by that restriction and all relevant circumstances, including any information that the provider of intermediary services, the addressee or addressees and any other third party that demonstrated a legitimate interest may provide to it, it considers that both of the following conditions have been met: (a) the provider of intermediary services has failed to take the necessary measures to terminate the infringement; (b) the temporary restriction does not unduly restrict access to lawful information by recipients of the service, having regard to the number of recipients affected and whether any adequate and readily accessible alternatives exist. Where the Digital Services Coordinator considers that the conditions set out in the third subparagraph, points (a) and (b), have been met but it cannot further extend the period pursuant to the third subparagraph, it shall submit a new request to the competent judicial authority, as referred to in the first subparagraph, point (b).

4. The powers listed in paragraphs 1, 2 and 3 shall be without prejudice to Section 3.

5. The measures taken by the Digital Services Coordinators in the exercise of their powers listed in paragraphs 1, 2 and 3 shall be effective, dissuasive and proportionate, having regard, in particular, to the nature, gravity, recurrence and duration of the infringement or suspected infringement to which those measures relate, as well as the economic, technical and operational capacity of the provider of the intermediary services concerned where relevant.

6. Member States shall lay down specific rules and procedures for the exercise of the powers pursuant to paragraphs 1, 2 and 3 and shall ensure that any exercise of those powers is subject to adequate safeguards laid down in the applicable national law in compliance with the Charter and with the general principles of Union law. In particular, those measures shall only be taken in accordance with the right to respect for private life and the rights of defence, including the rights to be heard and of access to the file, and subject to the right to an effective judicial remedy of all affected parties.

Article 52 Penalties

1. Member States shall lay down the rules on penalties applicable to infringements of this Regulation by providers of intermediary services within their competence and shall take all the necessary measures to ensure that they are implemented in accordance with Article 51.

2. Penalties shall be effective, proportionate and dissuasive. Member States shall notify the Commission of those rules and of those measures and shall notify it, without delay, of any subsequent amendments affecting them.

3. Member States shall ensure that the maximum amount of fines that may be imposed for a failure to comply with an obligation laid down in this Regulation shall be 6% of the annual worldwide turnover of the provider of intermediary services concerned in the preceding financial year. Member States shall ensure that the maximum amount of the fine that may be imposed for the supply of incorrect, incomplete or misleading information, failure to reply or rectify incorrect, incomplete or misleading information and failure to submit to an inspection shall be 1% of the annual income or worldwide turnover of the provider of intermediary services or person concerned in the preceding financial year.

4. Member States shall ensure that the maximum amount of a periodic penalty payment shall be 5% of the average daily worldwide turnover or income of the provider of intermediary services concerned in the preceding financial year per day, calculated from the date specified in the decision concerned.

Article 53 Right to lodge a complaint

Recipients of the service and any body, organisation or association mandated to exercise the rights conferred by this Regulation on their behalf shall have the right to lodge a complaint against providers of intermediary services alleging an infringement of this Regulation with the Digital Services Coordinator of the Member State where the recipient of the service is located or established. The Digital Services Coordinator shall assess the complaint and, where appropriate, transmit it to the Digital Services Coordinator of establishment, accompanied, where considered appropriate, by an opinion. Where the complaint falls under the responsibility of another competent authority in its Member State, the Digital Services Coordinator receiving the complaint shall transmit it to that authority. During these proceedings, both parties shall have the right to be heard and receive appropriate information about the status of the complaint, in accordance with national law.

Article 54 Compensation

Recipients of the service shall have the right to seek, in accordance with Union and national law, compensation from providers of intermediary services, in respect of any damage or loss suffered due to an infringement by those providers of their obligations under this Regulation.

Article 55 Activity reports

1. Digital Services Coordinators shall draw up annual reports on their activities under this Regulation, including the number of complaints received pursuant to Article 53 and an overview of their follow-up. The Digital Services Coordinators shall make the annual reports available to the public in a machine-readable format, subject to the applicable rules on the confidentiality of information pursuant to Article 84, and shall communicate them to the Commission and to the Board.

2. The annual report shall also include the following information:

(a) the number and subject matter of orders to act against illegal content and orders to provide information issued in accordance with Articles 9 and 10 by any national judicial or administrative authority of the Member State of the Digital Services Coordinator concerned; (b) the effects given to those orders, as communicated to the Digital Services Coordinator pursuant to Articles 9 and 10.

3. Where a Member State has designated several competent authorities pursuant to Article 49, it shall ensure that the Digital Services Coordinator draws up a single report covering the activities of all competent authorities and that the Digital Services Coordinator receives all relevant information and support needed to that effect from the other competent authorities concerned.

SECTION 2 Competences, coordinated investigation and consistency mechanisms

Article 56 Competences

1. The Member State in which the main establishment of the provider of intermediary services is located shall have exclusive powers to supervise and enforce this Regulation, except for the powers provided for in paragraphs 2, 3 and 4.

2. The Commission shall have exclusive powers to supervise and enforce Section 5 of Chapter III.

3. The Commission shall have powers to supervise and enforce this Regulation, other than those laid down in Section 5 of Chapter III thereof, against providers of very large online platforms and of very large online search engines.

4. Where the Commission has not initiated proceedings for the same infringement, the Member State in which the main establishment of the provider of very large online platform or of very large online search engine is located shall have powers to supervise and enforce the obligations under this Regulation, other than those laid down in Section 5 of Chapter III, with respect to those providers.

5. Member States and the Commission shall supervise and enforce the provisions of this Regulation in close cooperation.

6. Where a provider of intermediary services does not have an establishment in the Union, the Member State where its legal representative resides or is established or the Commission shall have powers, as applicable, in accordance with paragraphs 1 and 4 of this Article, to supervise and enforce the relevant obligations under this Regulation.

7. Where a provider of intermediary services fails to appoint a legal representative in accordance with Article 13, all Member States and, in case of a provider of a very large online platform or very large online search engine, the Commission shall have powers to supervise and enforce in accordance with this Article.

Where a Digital Services Coordinator intends to exercise its powers under this paragraph, it shall notify all other Digital Services Coordinators and the Commission, and ensure that the applicable safeguards afforded by the Charter are respected, in particular to avoid that the same conduct is sanctioned more than once for the infringement of the obligations laid down in this Regulation. Where the Commission intends to exercise its powers under this paragraph, it shall notify all other Digital Services Coordinators of that intention. Following the notification pursuant to this paragraph, other Member States shall not initiate proceedings for the same infringement as that referred to in the notification.

Article 57 Mutual assistance

1. Digital Services Coordinators and the Commission shall cooperate closely and provide each other with mutual assistance in order to apply this Regulation in a consistent and efficient manner. Mutual assistance shall include, in particular, exchange of information in accordance with this Article and the duty of the Digital Services Coordinator of establishment to inform all Digital Services Coordinators of destination, the Board and the Commission about the opening of an investigation and the intention to take a final decision, including its assessment, in respect of a specific provider of intermediary services.

2. For the purpose of an investigation, the Digital Services Coordinator of establishment may request other Digital Services Coordinators to provide specific information in their possession as regards a specific provider of intermediary services or to exercise their investigative powers referred to in Article 51(1) with regard to specific information located in their Member State. Where appropriate, the Digital Services Coordinator receiving the request may involve other competent authorities or other public authorities of the Member State in question.

3. The Digital Services Coordinator receiving the request pursuant to paragraph 2 shall comply with such request and inform the Digital Services Coordinator of establishment about the action taken, without undue delay and no later than two months after its receipt, unless:

(a) the scope or the subject matter of the request is not sufficiently specified, justified or proportionate in view of the investigative purposes; or (b) neither the requested Digital Service Coordinator nor other competent authority or other public authority of that Member State is in possession of the requested information nor can have access to it; or (c) the request cannot be complied with without infringing Union or national law. The Digital Services Coordinator receiving the request shall justify its refusal by submitting a reasoned reply, within the period set out in the first subparagraph.

Article 58 Cross-border cooperation among Digital Services Coordinators

1. Unless the Commission has initiated an investigation for the same alleged infringement, where a Digital Services Coordinator of destination has reason to suspect that a provider of an intermediary service has infringed this Regulation in a manner negatively affecting the recipients of the service in the Member State of that Digital Services Coordinator, it may request the Digital Services Coordinator of establishment to assess the matter and to take the necessary investigatory and enforcement measures to ensure compliance with this Regulation.

2. Unless the Commission has initiated an investigation for the same alleged infringement, and at the request of at least three Digital Services Coordinators of destination that have reason to suspect that a specific provider of intermediary services infringed this Regulation in a manner negatively affecting recipients of the service in their Member States, the Board may request the Digital Services Coordinator of establishment to assess the matter and take the necessary investigatory and enforcement measures to ensure compliance with this Regulation.

3. A request pursuant to paragraph 1 or 2 shall be duly reasoned, and shall at least indicate:

(a) the point of contact of the provider of the intermediary services concerned as provided for in Article 11; (b) a description of the relevant facts, the provisions of this Regulation concerned and the reasons why the Digital Services Coordinator that sent the request, or the Board, suspects that the provider infringed this Regulation, including the description of the negative effects of the alleged infringement; (c) any other information that the Digital Services Coordinator that sent the request, or the Board, considers relevant, including, where appropriate, information gathered on its own initiative or suggestions for specific investigatory or enforcement measures to be taken, including interim measures.

4. The Digital Services Coordinator of establishment shall take utmost account of the request pursuant to paragraphs 1 or 2 of this Article. Where it considers that it has insufficient information to act upon the request and has reasons to consider that the Digital Services Coordinator that sent the request, or the Board, could provide additional information, the Digital Services Coordinator of establishment may either request such information in accordance with Article 57 or, alternatively, may launch a joint investigation pursuant to Article 60(1) involving at least the requesting Digital Services Coordinator. The period laid down in paragraph 5 of this Article shall be suspended until that additional information is provided or until the invitation to participate in the joint investigation is refused.

5. The Digital Services Coordinator of establishment shall, without undue delay and in any event not later than two months following receipt of the request pursuant to paragraph 1 or 2, communicate to the Digital Services Coordinator that sent the request, and the Board, the assessment of the suspected infringement and an explanation of any investigatory or enforcement measures taken or envisaged in relation thereto to ensure compliance with this Regulation.

Article 59 Referral to the Commission

1. In the absence of a communication within the period laid down in Article 58(5), in the case of a disagreement of the Board with the assessment or the measures taken or envisaged pursuant to Article 58(5) or in the cases referred to in Article 60(3), the Board may refer the matter to the Commission, providing all relevant information. That information shall include at least the request or recommendation sent to the Digital Services Coordinator of establishment, the assessment by that Digital Services Coordinator, the reasons for the disagreement and any additional information supporting the referral.

2. The Commission shall assess the matter within two months following the referral of the matter pursuant to paragraph 1, after having consulted the Digital Services Coordinator of establishment.

3. Where, pursuant to paragraph 2 of this Article, the Commission considers that the assessment or the investigatory or enforcement measures taken or envisaged pursuant to Article 58(5) are insufficient to ensure effective enforcement or otherwise incompatible with this Regulation, it shall communicate its views to the Digital Services Coordinator of establishment and the Board and request the Digital Services Coordinator of establishment to review the matter.

The Digital Services Coordinator of establishment shall take the necessary investigatory or enforcement measures to ensure compliance with this Regulation, taking utmost account of the views and request for review by the Commission. The Digital Services Coordinator of establishment shall inform the Commission, as well as the requesting Digital Services Coordinator or the Board that took action pursuant to Article 58(1) or (2), about the measures taken within two months from that request for review.

Article 60 Joint investigations

1. The Digital Services Coordinator of establishment may launch and lead joint investigations with the participation of one or more other Digital Services Coordinators concerned:

(a) at its own initiative, to investigate an alleged infringement of this Regulation by a given provider of intermediary services in several Member States; or (b) upon recommendation of the Board, acting on the request of at least three Digital Services Coordinators alleging, based on a reasonable suspicion, an infringement by a given provider of intermediary services affecting recipients of the service in their Member States.

2. Any Digital Services Coordinator that proves that it has a legitimate interest in participating in a joint investigation pursuant to paragraph 1 may request to do so. The joint investigation shall be concluded within three months from its launch, unless otherwise agreed amongst the participants.

The Digital Services Coordinator of establishment shall communicate its preliminary position on the alleged infringement no later than one month after the end of the deadline referred to in the first subparagraph to all Digital Services Coordinators, the Commission and the Board. The preliminary position shall take into account the views of all other Digital Services Coordinators participating in the joint investigation. Where applicable, this preliminary position shall also set out the enforcement measures envisaged.

3. The Board may refer the matter to the Commission pursuant to Article 59, where:

(a) the Digital Services Coordinator of establishment failed to communicate its preliminary position within the deadline set out in paragraph 2; (b) the Board substantially disagrees with the preliminary position communicated by the Digital Services Coordinator of establishment; or (c) the Digital Services Coordinator of establishment failed to initiate the joint investigation promptly following the recommendation by the Board pursuant to paragraph 1, point (b).

4. In carrying out the joint investigation, the participating Digital Services Coordinators shall cooperate in good faith, taking into account, where applicable, the indications of the Digital Services Coordinator of establishment and the Board’s recommendation. The Digital Services Coordinators of destination participating in the joint investigation shall be entitled, at the request of or after having consulted the Digital Services Coordinator of establishment, to exercise their investigative powers referred to in Article 51(1) in respect of the providers of intermediary services concerned by the alleged infringement, with regard to information and premises located within their territory.

SECTION 3 European Board for Digital Services

Article 61 European Board for Digital Services

1. An independent advisory group of Digital Services Coordinators on the supervision of providers of intermediary services named ‘European Board for Digital Services’ (the ‘Board’) is established.

2. The Board shall advise the Digital Services Coordinators and the Commission in accordance with this Regulation to achieve the following objectives:

(a) contributing to the consistent application of this Regulation and effective cooperation of the Digital Services Coordinators and the Commission with regard to matters covered by this Regulation; (b) coordinating and contributing to guidelines and analysis of the Commission and Digital Services Coordinators and other competent authorities on emerging issues across the internal market with regard to matters covered by this Regulation; (c) assisting the Digital Services Coordinators and the Commission in the supervision of very large online platforms.

Article 62 Structure of the Board

1. The Board shall be composed of Digital Services Coordinators who shall be represented by high-level officials. The failure by one or more Member States to designate a Digital Services Coordinator shall not prevent the Board from performing its tasks under this Regulation. Where provided for by national law, other competent authorities entrusted with specific operational responsibilities for the application and enforcement of this Regulation alongside the Digital Services Coordinator may participate in the Board. Other national authorities may be invited to the meetings, where the issues discussed are of relevance for them.

2. The Board shall be chaired by the Commission. The Commission shall convene the meetings and prepare the agenda in accordance with the tasks of the Board pursuant to this Regulation and in line with its rules of procedure. When the Board is requested to adopt a recommendation pursuant to this Regulation, it shall immediately make the request available to other Digital Services Coordinators through the information sharing system set out in Article 85.

3. Each Member State shall have one vote. The Commission shall not have voting rights.

The Board shall adopt its acts by simple majority. When adopting a recommendation to the Commission referred to in Article 36(1), first subparagraph, the Board shall vote within 48 hours after the request of the Chair of the Board.

4. The Commission shall provide administrative and analytical support for the activities of the Board pursuant to this Regulation.

5. The Board may invite experts and observers to attend its meetings, and may cooperate with other Union bodies, offices, agencies and advisory groups, as well as external experts as appropriate. The Board shall make the results of this cooperation publicly available.

6. The Board may consult interested parties, and shall make the results of such consultation publicly available.

7. The Board shall adopt its rules of procedure, following the consent of the Commission.

Article 63 Tasks of the Board

1. Where necessary to meet the objectives set out in Article 61(2), the Board shall in particular:

(a) support the coordination of joint investigations; (b) support the competent authorities in the analysis of reports and results of audits of very large online platforms or of very large online search engines to be transmitted pursuant to this Regulation; (c) issue opinions, recommendations or advice to Digital Services Coordinators in accordance with this Regulation, taking into account, in particular, the freedom to provide services of the providers of intermediary service; (d) advise the Commission on the measures referred to in Article 66 and, adopt opinions concerning very large online platforms or very large online search engines in accordance with this Regulation; (e) support and promote the development and implementation of European standards, guidelines, reports, templates and code of conducts in cooperation with relevant stakeholders as provided for in this Regulation, including by issuing opinions or recommendations on matters related to Article 44, as well as the identification of emerging issues, with regard to matters covered by this Regulation.

2. Digital Services Coordinators and, where applicable, other competent authorities that do not follow the opinions, requests or recommendations addressed to them adopted by the Board shall provide the reasons for this choice, including an explanation on the investigations, actions and the measures that they have implemented, when reporting pursuant to this Regulation or when adopting their relevant decisions, as appropriate.

SECTION 4 Supervision, investigation, enforcement and monitoring in respect of providers of very large online platforms and of very large online search engines

Article 64 Development of expertise and capabilities

1. The Commission, in cooperation with the Digital Services Coordinators and the Board, shall develop Union expertise and capabilities, including, where appropriate, through the secondment of Member States’ personnel.

2. In addition, the Commission, in cooperation with the Digital Services Coordinators and the Board, shall coordinate the assessment of systemic and emerging issues across the Union in relation to very large online platforms or very large online search engines with regard to matters covered by this Regulation.

3. The Commission may ask the Digital Services Coordinators, the Board and other Union bodies, offices and agencies with relevant expertise to support the assessment of systemic and emerging issues across the Union under this Regulation.

4. Member States shall cooperate with the Commission, in particular through their respective Digital Services Coordinators and other competent authorities, where applicable, including by making available their expertise and capabilities.

Article 65 Enforcement of obligations of providers of very large online platforms and of very large online search engines

1. For the purposes of investigating compliance of providers of very large online platforms and of very large online search engines with the obligations laid down in this Regulation, the Commission may exercise the investigatory powers laid down in this Section even before initiating proceedings pursuant to Article 66(2). It may exercise those powers on its own initiative or following a request pursuant to paragraph 2 of this Article.

2. Where a Digital Services Coordinator has reason to suspect that a provider of a very large online platform or of a very large online search engine has infringed the provisions of Section 5 of Chapter III or has systemically infringed any of the provisions of this Regulation in a manner that seriously affects recipients of the service in its Member State, it may send, through the information sharing system referred to in Article 85, a request to the Commission to assess the matter.

3. A request pursuant to paragraph 2 shall be duly reasoned and at least indicate:

(a) the point of contact of the provider of the very large online platform or of the very large online search engine concerned as provided for in Article 11; (b) a description of the relevant facts, the provisions of this Regulation concerned and the reasons why the Digital Services Coordinator that sent the request suspects that the provider of the very large online platforms or of the very large online search engine concerned infringed this Regulation, including a description of the facts that show that the suspected infringement is of a systemic nature; (c) any other information that the Digital Services Coordinator that sent the request considers relevant, including, where appropriate, information gathered on its own initiative.

Article 66 Initiation of proceedings by the Commission and cooperation in investigation

1. The Commission may initiate proceedings in view of the possible adoption of decisions pursuant to Articles 73 and 74 in respect of the relevant conduct by the provider of the very large online platform or of the very large online search engine that the Commission suspect of having infringed any of the provisions of this Regulation.

2. Where the Commission decides to initiate proceedings pursuant to paragraph 1 of this Article, it shall notify all Digital Services Coordinators and the Board through the information sharing system referred to in Article 85, as well as the provider of the very large online platform or of the very large online search engine concerned.

The Digital Services Coordinators shall, without undue delay after being informed of initiation of the proceedings, transmit to the Commission any information they hold about the infringement at stake. The initiation of proceedings pursuant to paragraph 1 of this Article by the Commission shall relieve the Digital Services Coordinator, or any competent authority where applicable, of its powers to supervise and enforce provided for in this Regulation pursuant to Article 56(4).

3. In the exercise of its powers of investigation under this Regulation the Commission may request the individual or joint support of any Digital Services Coordinators concerned by the suspected infringement, including the Digital Services Coordinator of establishment. The Digital Services Coordinators that have received such a request, and, where involved by the Digital Services Coordinator, any other competent authority, shall cooperate sincerely and in a timely manner with the Commission and shall be entitled to exercise their investigative powers referred to in Article 51(1) in respect of the provider of the very large online platform or of the very large online search engine at stake, with regard to information, persons and premises located within the territory of their Member State and in accordance with the request.

4. The Commission shall provide the Digital Services Coordinator of establishment and the Board with all relevant information about the exercise of the powers referred to in Articles 67 to 72 and its preliminary findings referred to in Article 79(1). The Board shall submit its views on those preliminary findings to the Commission within the period set pursuant to Article 79(2). The Commission shall take utmost account of any views of the Board in its decision.

Article 67 Requests for information

1. In order to carry out the tasks assigned to it under this Section, the Commission may, by simple request or by decision, require the provider of the very large online platform or of the very large online search engine concerned, as well as any other natural or legal person acting for purposes related to their trade, business, craft or profession that may be reasonably aware of information relating to the suspected infringement, including organisations performing the audits referred to in Article 37 and Article 75(2), to provide such information within a reasonable period.

2. When sending a simple request for information to the provider of the very large online platform or of the very large online search engine concerned or other person referred to in paragraph 1 of this Article, the Commission shall state the legal basis and the purpose of the request, specify what information is required and set the period within which the information is to be provided, and the fines provided for in Article 74 for supplying incorrect, incomplete or misleading information.

3. Where the Commission requires the provider of the very large online platform or of the very large online search engine concerned or other person referred to in paragraph 1 of this Article to supply information by decision, it shall state the legal basis and the purpose of the request, specify what information is required and set the period within which it is to be provided. It shall also indicate the fines provided for in Article 74 and indicate or impose the periodic penalty payments provided for in Article 76. It shall further indicate the right to have the decision reviewed by the Court of Justice of the European Union.

4. The providers of the very large online platform or of the very large online search engine concerned or other person referred to in paragraph 1 or their representatives and, in the case of legal persons, companies or firms, or where they have no legal personality, the persons authorised to represent them by law or by their constitution shall supply the information requested on behalf of the provider of the very large online platform or of the very large online search engine concerned or other person referred to in paragraph 1.Lawyers duly authorised to act may supply the information on behalf of their clients. The latter shall remain fully responsible if the information supplied is incomplete, incorrect or misleading.

5. At the request of the Commission, the Digital Services Coordinators and other competent authorities shall provide the Commission with all necessary information to carry out the tasks assigned to it under this Section.

6. The Commission shall, without undue delay after sending the simple request or the decision referred to in paragraph 1 of this Article, send a copy thereof to the Digital Services Coordinators, through the information sharing system referred to in Article 85.

Article 68 Power to take interviews and statements

1. In order to carry out the tasks assigned to it under this Section, the Commission may interview any natural or legal person who consents to being interviewed for the purpose of collecting information, relating to the subject-matter of an investigation, in relation to the suspected infringement. The Commission shall be entitled to record such interview by appropriate technical means.

2. If the interview referred to in paragraph 1 is conducted on other premises than those of the Commission, the Commission shall inform the Digital Services Coordinator of the Member State in the territory of which the interview takes place. If so requested by that Digital Services Coordinator, its officials may assist the officials and other accompanying persons authorised by the Commission to conduct the interview.

Article 69 Power to conduct inspections

1. In order to carry out the tasks assigned to it under this Section, the Commission may conduct all necessary inspections at the premises of the provider of the very large online platform or of the very large online search engine concerned or of another person referred to in Article 67(1).

2. The officials and other accompanying persons authorised by the Commission to conduct an inspection shall be empowered to:

(a) enter any premises, land and means of transport of the provider of the very large online platform or of the very large online search engine concerned or of the other person concerned; (b) examine the books and other records related to the provision of the service concerned, irrespective of the medium on which they are stored; (c) take or obtain in any form copies of or extracts from such books or other records; (d) require the provider of the very large online platform or of the very large online search engine or the other person concerned to provide access to and explanations on its organisation, functioning, IT system, algorithms, data-handling and business practices and to record or document the explanations given; (e) seal any premises used for purposes related to the trade, business, craft or profession of the provider of the very large online platform or of the very large online search engine or of the other person concerned, as well as books or other records, for the period and to the extent necessary for the inspection; (f) ask any representative or member of staff of the provider of the very large online platform or of the very large online search engine or the other person concerned for explanations on facts or documents relating to the subject-matter and purpose of the inspection and to record the answers; (g) address questions to any such representative or member of staff relating to the subject-matter and purpose of the inspection and to record the answers.

3. Inspections may be carried out with the assistance of auditors or experts appointed by the Commission pursuant to Article 72(2), and of Digital Services Coordinator or other competent national authorities of the Member State in the territory of which the inspection is conducted.

4. Where the production of required books or other records related to the provision of the service concerned is incomplete or where the answers to questions asked under paragraph 2 of this Article are incorrect, incomplete or misleading, the officials and other accompanying persons authorised by the Commission to conduct an inspection shall exercise their powers upon production of a written authorisation specifying the subject matter and purpose of the inspection and the penalties provided for in Articles 74 and 76. In good time before the inspection, the Commission shall inform the Digital Services Coordinator of the Member State in the territory in which the inspection is to be conducted thereof.

5. During inspections, the officials and other accompanying persons authorised by the Commission, the auditors and experts appointed by the Commission, the Digital Services Coordinator or the other competent authorities of the Member State in the territory of which the inspection is conducted may require the provider of the very large online platform or of the very large online search engine or other person concerned to provide explanations on its organisation, functioning, IT system, algorithms, data handling and business conducts, and may address questions to its key personnel.

6. The provider of the very large online platform or of the very large online search engine or other natural or legal person concerned shall be required to submit to an inspection ordered by decision of the Commission. The decision shall specify the subject matter and purpose of the inspection, set the date on which it is to begin and indicate the penalties provided for in Articles 74 and 76 and the right to have the decision reviewed by the Court of Justice of the European Union. The Commission shall consult the Digital Services Coordinator of the Member State on territory of which the inspection is to be conducted prior to taking that decision.

7. Officials of, and other persons authorised or appointed by, the Digital Services Coordinator of the Member State on the territory of which the inspection is to be conducted shall, at the request of that Digital Services Coordinator or of the Commission, actively assist the officials and other accompanying persons authorised by the Commission in relation to the inspection. To this end, they shall have the powers listed in paragraph 2.

8. Where the officials and other accompanying persons authorised by the Commission find that the provider of the very large online platform or of the very large online search engine or the other person concerned opposes an inspection ordered pursuant to this Article, the Member State in the territory of which the inspection is to be conducted shall, at the request of those officials or other accompanying persons and in accordance with the national law of the Member State, afford them necessary assistance, including, where appropriate under that national law, in the form of coercive measures taken by a competent law enforcement authority, so as to enable them to conduct the inspection.

9. If the assistance provided for in paragraph 8 requires authorisation from a national judicial authority in accordance with the national law of the Member State concerned, such authorisation shall be applied for by the Digital Services Coordinator of that Member State at the request of the officials and other accompanying persons authorised by the Commission. Such authorisation may also be applied for as a precautionary measure.

10. Where the authorisation referred to in paragraph 9 is applied for, the national judicial authority before which a case has been brought shall verify that the Commission decision ordering the inspection is authentic and that the coercive measures envisaged are neither arbitrary nor excessive having regard to the subject matter of the inspection. When conducting such verification, the national judicial authority may ask the Commission, directly or through the Digital Services Coordinators of the Member State concerned, for detailed explanations, in particular those concerning the grounds on which the Commission suspects an infringement of this Regulation, concerning the seriousness of the suspected infringement and concerning the nature of the involvement of the provider of the very large online platform or of the very large online search engine or of the other person concerned. However, the national judicial authority shall not call into question the necessity for the inspection nor demand information from the case file of the Commission. The lawfulness of the Commission decision shall be subject to review only by the Court of Justice of the European Union.

Article 70 Interim measures

1. In the context of proceedings which may lead to the adoption of a decision of non compliance pursuant to Article 73(1), where there is an urgency due to the risk of serious damage for the recipients of the service, the Commission may, by decision, order interim measures against the provider of the very large online platform or of the very large online search engine concerned on the basis of a prima facie finding of an infringement.

2. A decision under paragraph 1 shall apply for a specified period of time and may be renewed in so far this is necessary and appropriate.

Article 71 Commitments

1. If, during proceedings under this Section, the provider of the very large online platform or of the very large online search engine concerned offers commitments to ensure compliance with the relevant provisions of this Regulation, the Commission may by decision make those commitments binding on the provider of the very large online platform or of the very large online search engine concerned and declare that there are no further grounds for action.

2. The Commission may, upon request or on its own initiative, reopen the proceedings:

(a) where there has been a material change in any of the facts on which the decision was based; (b) where the provider of the very large online platform or of the very large online search engine concerned acts contrary to its commitments; or (c) where the decision was based on incomplete, incorrect or misleading information provided by the provider of the very large online platform or of the very large online search engine concerned or other person referred to in Article 67(1).

3. Where the Commission considers that the commitments offered by the provider of the very large online platform or of the very large online search engine concerned are unable to ensure effective compliance with the relevant provisions of this Regulation, it shall reject those commitments in a reasoned decision when concluding the proceedings.

Article 72 Monitoring actions

1. For the purposes of carrying out the tasks assigned to it under this Section, the Commission may take the necessary actions to monitor the effective implementation and compliance with this Regulation by providers of the very large online platform and of the very large online search engines. The Commission may order them to provide access to, and explanations relating to, its databases and algorithms. Such actions may include, imposing an obligation on the provider of the very large online platform or of the very large online search engine to retain all documents deemed to be necessary to assess the implementation of and compliance with the obligations under this Regulation.

2. The actions pursuant to paragraph 1 may include the appointment of independent external experts and auditors, as well as experts and auditors from competent national authorities with the agreement of the authority concerned, to assist the Commission in monitoring the effective implementation and compliance with the relevant provisions of this Regulation and to provide specific expertise or knowledge to the Commission.

Article 73 Non-compliance

1. The Commission shall adopt a non compliance decision where it finds that the provider of the very large online platform or of the very large online search engine concerned does not comply with one or more of the following:

(a) the relevant provisions of this Regulation; (b) interim measures ordered pursuant to Article 70; (c) commitments made binding pursuant to Article 71.

2. Before adopting the decision pursuant to paragraph 1, the Commission shall communicate its preliminary findings to the provider of the very large online platform or of the very large online search engine concerned. In the preliminary findings, the Commission shall explain the measures that it considers taking, or that it considers that the provider of the very large online platform or of the very large online search engine concerned should take, in order to effectively address the preliminary findings.

3. In the decision adopted pursuant to paragraph 1 the Commission shall order the provider of the very large online platform or of the very large online search engine concerned to take the necessary measures to ensure compliance with the decision pursuant to paragraph 1 within a reasonable period specified therein and to provide information on the measures that that provider intends to take to comply with the decision.

4. The provider of the very large online platform or of the very large online search engine concerned shall provide the Commission with a description of the measures it has taken to ensure compliance with the decision pursuant to paragraph 1 upon their implementation.

5. Where the Commission finds that the conditions of paragraph 1 are not met, it shall close the investigation by a decision. The decision shall apply with immediate effect.

Article 74 Fines

1. In the decision referred to in Article 73, the Commission may impose on the provider of the very large online platform or of the very large online search engine concerned fines not exceeding 6% of its total worldwide annual turnover in the preceding financial year where it finds that the provider, intentionally or negligently:

(a) infringes the relevant provisions of this Regulation; (b) fails to comply with a decision ordering interim measures under Article 70; or (c) fails to comply with a commitment made binding by a decision pursuant to Article 71.

2. The Commission may adopt a decision imposing on the provider of the very large online platform or of the very large online search engine concerned or on another natural or legal person referred to in Article 67(1) fines not exceeding 1% of the total annual income or worldwide turnover in the preceding financial year, where they intentionally or negligently:

(a) supply incorrect, incomplete or misleading information in response to a simple request or request by a decision pursuant to Article 67; (b) fail to reply to the request for information by decision within the set period; (c) fail to rectify within the period set by the Commission, incorrect, incomplete or misleading information given by a member of staff, or fail or refuse to provide complete information; (d) refuse to submit to an inspection pursuant to Article 69; (e) fail to comply with the measures adopted by the Commission pursuant to Article 72; or (f) fail to comply with the conditions for access to the Commission’s file pursuant to Article 79(4).

3. Before adopting the decision pursuant to paragraph 2 of this Article, the Commission shall communicate its preliminary findings to the provider of the very large online platform or of the very large online search engine concerned or to another person referred to in Article 67(1).

4. In fixing the amount of the fine, the Commission shall have regard to the nature, gravity, duration and recurrence of the infringement and, for fines imposed pursuant to paragraph 2, the delay caused to the proceedings.

Article 75 Enhanced supervision of remedies to address infringements of obligations laid down in Section 5 of Chapter III

1. When adopting a decision pursuant to Article 73 in relation to an infringement by a provider of a very large online platform or of a very large online search engine of any of the provisions of Section 5 of Chapter III, the Commission shall make use of the enhanced supervision system laid down in this Article. When doing so, it shall take utmost account of any opinion of the Board pursuant to this Article.

2. In the decision referred to in Article 73, the Commission shall require the provider of a very large online platform or of a very large online search engine concerned to draw up and communicate, within a reasonable period specified in the decision, to the Digital Services Coordinators, the Commission and the Board an action plan setting out the necessary measures which are sufficient to terminate or remedy the infringement. Those measures shall include a commitment to perform an independent audit in accordance with Article 37(3) and (4) on the implementation of the other measures, and shall specify the identity of the auditors, as well as the methodology, timing and follow up of the audit. The measures may also include, where appropriate, a commitment to participate in a relevant code of conduct, as provided for in Article 45.

3. Within one month following receipt of the action plan, the Board shall communicate its opinion on the action plan to the Commission. Within one month following receipt of that opinion, the Commission shall decide whether the measures set out in the action plan are sufficient to terminate or remedy the infringement, and shall set a reasonable period for its implementation. The possible commitment to adhere to relevant codes of conduct shall be taken into account in that decision. The Commission shall subsequently monitor the implementation of the action plan. To that end, the provider of a very large online platform or of a very large online search engine concerned shall communicate the audit report to the Commission without undue delay after it becomes available, and shall keep the Commission up to date on steps taken to implement the action plan. The Commission may, where necessary for such monitoring, require the provider of a very large online platform or of a very large online search engine concerned to provide additional information within a reasonable period set by the Commission.

The Commission shall keep the Board and the Digital Services Coordinators informed about the implementation of the action plan, and about its monitoring thereof.

4. The Commission may take necessary measures in accordance with this Regulation, in particular Article 76(1), point (e), and Article 82(1), where:

(a) the provider of the very large online platform or of the very large online search engine concerned fails to provide any action plan, the audit report, the necessary updates or any additional information required, within the applicable period; (b) the Commission rejects the proposed action plan because it considers that the measures set out therein are insufficient to terminate or remedy the infringement; or (c) the Commission considers, on the basis of the audit report, any updates or additional information provided or any other relevant information available to it, that the implementation of the action plan is insufficient to terminate or remedy the infringement.

Article 76 Periodic penalty payments

1. The Commission may adopt a decision, imposing on the provider of the very large online platform or of the very large online search engine concerned or other person referred to in Article 67(1), as applicable, periodic penalty payments not exceeding 5% of the average daily income or worldwide annual turnover in the preceding financial year per day, calculated from the date appointed by the decision, in order to compel them to:

(a) supply correct and complete information in response to a decision requiring information pursuant to Article 67; (b) submit to an inspection which it has ordered by decision pursuant to Article 69; (c) comply with a decision ordering interim measures pursuant to Article 70(1); (d) comply with commitments made legally binding by a decision pursuant to Article 71(1); (e) comply with a decision pursuant to Article 73(1), including where applicable the requirements it contains relating to the action plan referred to in Article 75.

2. Where the provider of the very large online platform or of the very large online search engine concerned or other person referred to in Article 67(1) has satisfied the obligation which the periodic penalty payment was intended to enforce, the Commission may fix the definitive amount of the periodic penalty payment at a figure lower than that under the original decision.

Article 77 Limitation period for the imposition of penalties

1. The powers conferred on the Commission by Articles 74 and 76 shall be subject to a limitation period of five years.

2. Time shall begin to run on the day on which the infringement is committed. However, in the case of continuing or repeated infringements, time shall begin to run on the day on which the infringement ceases.

3. Any action taken by the Commission or by the Digital Services Coordinator for the purpose of the investigation or proceedings in respect of an infringement shall interrupt the limitation period for the imposition of fines or periodic penalty payments. Actions which interrupt the limitation period shall include, in particular, the following:

(a) requests for information by the Commission or by a Digital Services Coordinator; (b) inspection; (c) the opening of a proceeding by the Commission pursuant to Article 66(1).

4. Each interruption shall start time running afresh. However, the limitation period for the imposition of fines or periodic penalty payments shall expire at the latest on the day on which a period equal to twice the limitation period has elapsed without the Commission having imposed a fine or a periodic penalty payment. That period shall be extended by the time during which the limitation period has been suspended pursuant to paragraph 5.

5. The limitation period for the imposition of fines or periodic penalty payments shall be suspended for as long as the decision of the Commission is the subject of proceedings pending before the Court of Justice of the European Union.

Article 78 Limitation period for the enforcement of penalties

1. The power of the Commission to enforce decisions taken pursuant to Articles 74 and 76 shall be subject to a limitation period of five years.

2. Time shall begin to run on the day on which the decision becomes final.

3. The limitation period for the enforcement of penalties shall be interrupted:

(a) by notification of a decision varying the original amount of the fine or periodic penalty payment or refusing an application for variation; (b) by any action of the Commission, or of a Member State acting at the request of the Commission, designed to enforce payment of the fine or periodic penalty payment.

4. Each interruption shall start time running afresh.

5. The limitation period for the enforcement of penalties shall be suspended for so long as:

(a) time to pay is allowed; (b) enforcement of payment is suspended pursuant to a decision of the Court of Justice of the European Union or to a decision of a national court.

Article 79 Right to be heard and access to the file

1. Before adopting a decision pursuant to Article 73(1), Article 74 or 76, the Commission shall give the provider of the very large online platform or of the very large online search engine concerned or other person referred to in Article 67(1) the opportunity of being heard on:

(a) preliminary findings of the Commission, including any matter to which the Commission has taken objections; and (b) measures that the Commission may intend to take in view of the preliminary findings referred to point (a).

2. The provider of the very large online platform or of the very large online search engine concerned or other person referred to in Article 67(1) may submit its observations on the Commission’s preliminary findings within a reasonable period set by the Commission in its preliminary findings, which may not be less than 14 days.

3. The Commission shall base its decisions only on objections on which the parties concerned have been able to comment.

4. The rights of defence of the parties concerned shall be fully respected in the proceedings. They shall be entitled to have access to the Commission’s file under the terms of a negotiated disclosure, subject to the legitimate interest of the provider of the very large online platform or of the very large online search engine or other person concerned in the protection of their business secrets. The Commission shall have the power to adopt decisions setting out such terms of disclosure in case of disagreement between the parties. The right of access to the file of the Commission shall not extend to confidential information and internal documents of the Commission, the Board, Digital Service Coordinators, other competent authorities or other public authorities of the Member States. In particular, the right of access shall not extend to correspondence between the Commission and those authorities. Nothing in this paragraph shall prevent the Commission from disclosing and using information necessary to prove an infringement.

5. The information collected pursuant to Articles 67, 68 and 69 shall be used only for the purpose of this Regulation.

Article 80 Publication of decisions

1. The Commission shall publish the decisions it adopts pursuant to Article 70(1), Article 71(1) and Articles 73 to 76. Such publication shall state the names of the parties and the main content of the decision, including any penalties imposed.

2. The publication shall have regard to the rights and legitimate interests of the provider of the very large online platform or of the very large online search engine concerned, any other person referred to in Article 67(1) and any third parties in the protection of their confidential information.

Article 81 Review by the Court of Justice of the European Union

In accordance with Article 261 TFEU, the Court of Justice of the European Union has unlimited jurisdiction to review decisions by which the Commission has imposed fines or periodic penalty payments. It may cancel, reduce or increase the fine or periodic penalty payment imposed.

Article 82 Requests for access restrictions and cooperation with national courts

1. Where all powers pursuant to this Section to bring about the cessation of an infringement of this Regulation have been exhausted, the infringement persists and causes serious harm which cannot be avoided through the exercise of other powers available under Union or national law, the Commission may request the Digital Services Coordinator of establishment of the provider of the very large online platform or of the very large online search engine concerned to act pursuant to Article 51(3).

Prior to making such request to the Digital Services Coordinator, the Commission shall invite interested parties to submit written observations within a period that shall not be less than 14 working days, describing the measures it intends to request and identifying the intended addressee or addressees thereof.

2. Where the coherent application of this Regulation so requires, the Commission, acting on its own initiative, may submit written observations to the competent judicial authority referred to Article 51(3). With the permission of the judicial authority in question, it may also make oral observations.

For the purpose of the preparation of its observations only, the Commission may request that judicial authority to transmit or ensure the transmission to it of any documents necessary for the assessment of the case.

3. When a national court rules on a matter which is already the subject matter of a decision adopted by the Commission under this Regulation, that national court shall not take any decision which runs counter to that Commission decision. National courts shall also avoid taking decisions which could conflict with a decision contemplated by the Commission in proceedings it has initiated under this Regulation. To that effect, a national court may assess whether it is necessary to stay its proceedings. This is without prejudice to Article 267 TFEU.

Article 83 Implementing acts relating to Commission intervention

In relation to the Commission intervention covered by this Section, the Commission may adopt implementing acts concerning the practical arrangements for: (a) the proceedings pursuant to Articles 69 and 72; (b) the hearings provided for in Article 79; (c) the negotiated disclosure of information provided for in Article 79. Before the adoption of any measures pursuant to the first paragraph of this Article, the Commission shall publish a draft thereof and invite all interested parties to submit their comments within the period set out therein, which shall not be less than one month. Those implementing acts shall be adopted in accordance with the advisory procedure referred to in Article 88.

SECTION 5 Common provisions on enforcement

Article 84 Professional secrecy

Without prejudice to the exchange and to the use of information referred to in this Chapter, the Commission, the Board, Member States’ competent authorities and their respective officials, servants and other persons working under their supervision, and any other natural or legal person involved, including auditors and experts appointed pursuant to Article 72(2), shall not disclose information acquired or exchanged by them pursuant to this Regulation and of the kind covered by the obligation of professional secrecy.

Article 85 Information sharing system

1. The Commission shall establish and maintain a reliable and secure information sharing system supporting communications between Digital Services Coordinators, the Commission and the Board. Other competent authorities may be granted access to this system where necessary for them to carry out the tasks conferred to them in accordance with this Regulation.

2. The Digital Services Coordinators, the Commission and the Board shall use the information sharing system for all communications pursuant to this Regulation.

3. The Commission shall adopt implementing acts laying down the practical and operational arrangements for the functioning of the information sharing system and its interoperability with other relevant systems. Those implementing acts shall be adopted in accordance with the advisory procedure referred to in Article 88.

Article 86 Representation

1. Without prejudice to Directive (EU) 2020/1828 or to any other type of representation under national law, recipients of intermediary services shall at least have the right to mandate a body, organisation or association to exercise the rights conferred by this Regulation on their behalf, provided the body, organisation or association meets all of the following conditions:

(a) it operates on a not-for-profit basis; (b) it has been properly constituted in accordance with the law of a Member State; (c) its statutory objectives include a legitimate interest in ensuring that this Regulation is complied with.

2. Providers of online platforms shall take the necessary technical and organisational measures to ensure that complaints submitted by bodies, organisations or associations referred to in paragraph 1 of this Article on behalf of recipients of the service through the mechanisms referred to in Article 20(1) are processed and decided upon with priority and without undue delay.

SECTION 6 Delegated and implementing acts

Article 87 Exercise of the delegation

1. The power to adopt delegated acts is conferred on the Commission subject to the conditions laid down in this Article.

2. The delegation of power referred to in Articles 24, 33, 37, 40 and 43 shall be conferred on the Commission for five years starting from 16 November 2022. The Commission shall draw up a report in respect of the delegation of power not later than nine months before the end of the five-year period. The delegation of power shall be tacitly extended for periods of an identical duration, unless the European Parliament or the Council opposes such extension not later than three months before the end of each period.

3. The delegation of power referred to in Articles 24, 33, 37, 40 and 43 may be revoked at any time by the European Parliament or by the Council. A decision of revocation shall put an end to the delegation of power specified in that decision. It shall take effect the day following that of its publication in the Official Journal of the European Union or at a later date specified therein. It shall not affect the validity of any delegated acts already in force.

4. Before adopting a delegated act, the Commission shall consult experts designated by each Member State in accordance with the principles laid down in the Interinstitutional Agreement of 13 April 2016 on Better Law Making.

5. As soon as it adopts a delegated act, the Commission shall notify it simultaneously to the European Parliament and to the Council.

6. A delegated act adopted pursuant to Articles 24, 33, 37, 40 and 43 shall enter into force only if no objection has been expressed by either the European Parliament or the Council within a period of three months of notification of that act to the European Parliament and the Council or if, before the expiry of that period, the European Parliament and the Council have both informed the Commission that they will not object. That period shall be extended by three months at the initiative of the European Parliament or of the Council.

Article 88 Committee procedure

1. The Commission shall be assisted by a committee (‘the Digital Services Committee’). That Committee shall be a Committee within the meaning of Regulation (EU) No 182/2011.

2. Where reference is made to this paragraph, Article 4 of Regulation (EU) No 182/2011 shall apply.

CHAPTER V FINAL PROVISIONS

Article 89 Amendments to Directive 2000/31/EC

1. Articles 12 to 15 of Directive 2000/31/EC are deleted.

2. References to Articles 12 to 15 of Directive 2000/31/EC shall be construed as references to Articles 4, 5, 6 and 8 of this Regulation, respectively.

Article 90 Amendment to Directive (EU) 2020/1828

In Annex I to Directive (EU) 2020/1828, the following point is added: ‘(68) Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market for Digital Services and amending Directive 2000/31/EC (Digital Services Act) (OJ L 277, 27.10.2022, p. 1).’.

Article 91 Review

1. By 18 February 2027, the Commission shall evaluate and report to the European Parliament, the Council and the European Economic and Social Committee on the potential effect of this Regulation on the development and economic growth of small and medium-sized enterprises.

By 17 November 2025, the Commission shall evaluate and report to the European Parliament, the Council and the European Economic and Social Committee on: (a) the application of Article 33, including the scope of providers of intermediary services covered by the obligations set out in Section 5 of Chapter III of this Regulation; (b) the way that this Regulation interacts with other legal acts, in particular the acts referred to in Article 2(3) and (4).

2. By 17 November 2027, and every five years thereafter, the Commission shall evaluate this Regulation, and report to the European Parliament, the Council and the European Economic and Social Committee.

This report shall address in particular: (a) the application of paragraph 1, second subparagraph, points (a) and (b); (b) the contribution of this Regulation to the deepening and efficient functioning of the internal market for intermediary services, in particular as regards the cross-border provision of digital services; (c) the application of Articles 13, 16, 20, 21, 45 and 46; (d) the scope of the obligations on small and micro enterprises; (e) the effectiveness of the supervision and enforcement mechanisms; (f) the impact on the respect for the right to freedom of expression and information.

3. Where appropriate, the report referred to in paragraphs 1 and 2 shall be accompanied by a proposal for amendment of this Regulation.

4. The Commission shall, in the report referred to in paragraph 2 of this Article, also evaluate and report on the annual reports on their activities by the Digital Services Coordinators provided to the Commission and the Board pursuant to Article 55(1).

5. For the purpose of paragraph 2, Member States and the Board shall send information on the request of the Commission.

6. In carrying out the evaluations referred to in paragraph 2, the Commission shall take into account the positions and findings of the European Parliament, the Council, and other relevant bodies or sources, and shall pay specific attention to small and medium-sized enterprises and the position of new competitors.

7. By 18 February 2027, the Commission, after consulting the Board, shall carry out an assessment of the functioning of the Board and of the application of Article 43, and shall report it to the European Parliament, the Council and the European Economic and Social Committee, taking into account the first years of application of the Regulation. On the basis of the findings and taking utmost account of the opinion of the Board, that report shall, where appropriate, be accompanied by a proposal for amendment of this Regulation with regard to the structure of the Board.

Article 92 Anticipated application to providers of very large online platforms and of very large online search engines

This Regulation shall apply to providers of very large online platforms and of very large online search engines designated pursuant to Article 33(4) from four months after the notification to the provider concerned referred to in Article 33(6) where that date is earlier than 17 February 2024.

Article 93 Entry into force and application

1. This Regulation shall enter into force on the twentieth day following that of its publication in the Official Journal of the European Union.

2. This Regulation shall apply from 17 February 2024.

However, Article 24(2), (3) and (6), Article 33(3) to (6), Article 37(7), Article 40(13), Article 43 and Sections 4, 5 and 6 of Chapter IV shall apply from 16 November 2022.

REGULATION (EU) 2022/2065 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act) 디지털서비스 단일 시장 및 지침 제2000/31/EC호의 개정에 관한 2022년 10월 19일 유럽의회 및 이사회 규정(EU) 제2022/2065 호(디지털서비스법)

THE EUROPEAN PARLIAMENT AND THE COUNCIL OF THE EUROPEAN UNION, Having regard to the Treaty on the Functioning of the European Union, and in particular Article 114 thereof, Having regard to the proposal from the European Commission, After transmission of the draft legislative act to the national parliaments, Having regard to the opinion of the European Economic and Social Committee, Having regard to the opinion of the Committee of the Regions, Acting in accordance with the ordinary legislative procedure, 유럽의회 및 유럽연합 이사회는 유럽연합의 기능에 관한 조약, 특히 해당 조약 제 114조와 유럽집행위원회의 제안을 고려하고 입법안을 각국 의회에 전달한 후 유럽경제사회위원회의 의견과 지역위원회의 의견을 고려하며 일반입법절차에 따라 진행하였다.

전문

(1) 정보사회서비스, 특히 중개서비스는 유럽연합 경제와 유럽연합 시민의 일상생활에서 중요한 부 분이 되었다. 유럽의회 및 이사회 지침 제 2000/31/EC호에 규정된 바에 따라 위와 같은 서 비스에 적용되는 기존 법률체계를 채택한 지 20년 이 지난 현재, 소비자와 판매자 간 원격계약 체결 을 가능케 하는 온라인 소셜 네트워크와 온라인 플 랫폼과 같은 새롭고 혁신적인 사업모델과 서비스 덕분에 상업적 이용자와 소비자는 새로운 방식으 로 정보를 전송하거나 정보에 접근하며 거래를 체 결할 수 있게 되었다. 유럽연합 시민의 대다수는 이제 일상적으로 이와 같은 서비스를 사용한다. 다 만, 디지털 전환과 이러한 서비스의 사용 증가는 관련 서비스의 이용자, 기업, 사회 전반에 새로운 위험과 문제를 야기하고 있다.

(2) 회원국은 점차 이 규정이 적용되는 사안에 관 련하여, 특히 중개서비스 제공자에게 불법 콘텐츠, 온라인 허위 정보, 그 밖의 사회적 위험에 대한 대 응에 있어 주의의무 요건을 부과하는 국내법을 도 입하거나 도입을 고려하고 있다. 중개서비스 제공 에 있어 일반적으로 사용되는 인터넷의 본질적인 국경 간 성격을 고려하면, 서로 다른 국내법들은 유럽연합기능조약(TFEU) 제26조에 따라 내부 경 계 없이 상품과 서비스의 자유로운 이동과 설립의 자유를 보장하는 영역으로 구성된 역내 시장에 부 정적인 영향을 미친다. 역내 시장 전반에 걸친 중 개서비스 제공 조건은 서로 조화를 이룸으로써 기 업이 역내 시장의 이점을 활용할 수 있도록 신규 시장에 대한 접근과 기회를 제공하는 동시에, 소비 자와 그 밖의 서비스 이용자에게 더 많은 선택권을 제공할 수 있어야 한다. 이 규정에서 상업적 이용 자, 소비자, 그 밖의 사용자는 ‘서비스 이용자’로 본 다.

(3) 중개서비스 제공자의 책임감 있고 성실한 행동 은 안전하고 예측 가능하며 신뢰할 수 있는 온라인 환경을 조성하고, 유럽연합 시민과 그 밖의 사람이 유럽연합 기본권 헌장(‘헌장’)에서 보장한 기본권, 특히 표현과 정보의 자유, 사업활동의 자유, 차별 받지 않을 권리와 높은 수준의 소비자 보호 달성을 위한 권리를 행사하는 데 필수적이다.

(4) 따라서 역내 시장의 기능을 보호하고 개선하기 위해서는 위와 같은 목적을 지닌 유럽연합 차원의 통일적이고 실효적이며 균형적인 강행규정이 확립 되어야 한다. 이 규정은 역내 시장에서 혁신적인 디지털서비스가 출현하고 확대될 수 있는 조건을 제공한다. 중개서비스 제공자에 대한 요건과 관련 하여 유럽연합 차원의 국가 규제조치는 역내 시장 분열을 방지·종식하고 법적 확실성을 보장함으로 써 개발자의 불확실성을 줄이고 상호운용성을 촉 진하는 데 필수적이다. 기술중립적 요건을 채택함 으로써 혁신을 저해하는 것이 아니라 이를 촉진하 여야 하다.

(5) 이 규정은 유럽의회 및 이사회 지침(EU) 제 2015/1535호에 정의된 특정 정보사회서비스, 즉 통상 영리를 목적으로 서비스 이용자의 개별적 요 청에 따라 전자적 수단을 통해 원격으로 제공되는 모든 서비스의 제공자에 적용되어야 한다. 구체적 으로 이 규정은 중개서비스, 특히 ‘단순 전달’, ‘캐 싱’, ‘호스팅’ 서비스로 구성된 중개서비스의 제공 자에게 적용되어야 하는데, 모든 종류의 합법적이 고 사회적으로 유익한 목적을 위한 이러한 서비스 의 이용이 기하급수적으로 증가하면서 불법적이거 나 유해한 정보와 활동을 중개하고 확산시키는 역 할도 함께 증가하고 있기 때문이다.

(6) 실제로 특정 중개서비스 제공자는 원격 정보기 술서비스, 교통, 숙박 또는 배송 서비스와 같이 전 자적 수단으로 제공되거나 제공되지 않는 서비스 를 중개한다. 이 규정은 중개서비스에만 적용되어 야 하고, 유럽연합 사법재판소의 판례법에서 인정 한 바에 따라 중개서비스가 중개서비스에 해당하 지 않는 서비스의 필수 부분을 구성하는 경우를 포 함하여 중개서비스를 통해 중개되는 제품이나 서 비스에 관하여 유럽연합 또는 국내법이 규정한 요 건에는 영향을 미치지 아니한다.

(7) 이 규정에서 정한 규칙의 실효성과 역내 시장 의에서 공평한 경쟁의 장을 보장하기 위하여, 중개 서비스 제공자가 유럽연합 내에서 서비스를 제공 하는 등 유럽연합과의 실질적 관련이 입증되는 한, 그의 설립지나 소재지에 관계없이 위 규칙은 중개 서비스 제공자에게 적용되어야 한다.

(8) 서비스 제공자의 사업장이 유럽연합에 소재하 거나, 그러한 사업장이 없는 경우에는 하나 이상의 회원국 내 서비스 이용자가 인구 대비 상당하거나 하나 이상의 회원국을 대상으로 하는 활동지향이 있는 경우 유럽연합과 실질적 관련이 있는 것으로 보아야 한다. 하나 이상의 회원국을 대상으로 하는 활동지향은 해당 회원국에서 일반적으로 사용되는 언어 또는 통화의 사용 또는 제품이나 서비스의 주 문 가능성 또는 관련 최상위 도메인 사용과 같은 요소를 포함하여 모든 관련 상황을 기반으로 결정 될 수 있다. 어느 한 회원국을 대상으로 하는 활동 지향은 관련 국내 애플리케이션 스토어의 애플리 케이션 가용성, 지역 광고나 해당 회원국에서 사용 되는 언어로 된 광고 제공, 또는 해당 회원국에서 일반적으로 사용되는 언어로 된 고객 서비스 제공 과 같은 고객 관리에서도 비롯될 수 있다. 서비스 제공자가 유럽의회 및 이사회 규정(EU) 제 1215/2012호 제17조(1)(c)에서 의미하는 바에 따 라 하나 이상의 회원국에 대한 활동을 지향하는 경 우에도 실질적 관련이 있다고 보아야 한다. 반대로 유럽연합에서의 웹사이트에 대한 단순한 기술적 접근성 그 자체만으로는 유럽연합에 대한 실질적 관련이 있다고 볼 수 없다.

(9) 이 규정은 안전하고 예측 가능하며 신뢰할 수 있는 온라인 환경을 보장하고 불법 콘텐츠의 온라 인 유포와 허위 정보 또는 그 밖의 콘텐츠의 유포 로 인한 사회적 위험을 해결하기 위한 목적으로, 헌장에 명시된 기본권을 효과적으로 보호하고 혁 신을 촉진하기 위하여 역내 시장의 중개서비스에 적용되는 규칙들과 완전한 조화를 이룬다. 따라서 이 규정에서 명시적으로 정하지 않는 한, 회원국은 이 규정의 범위에 속하는 사안과 관련하여 추가적 인 국가 요건을 채택하거나 유지하여서는 안되는 데, 이 규정의 목적에 따라 중개서비스 제공자에게 적용되는 완전 조화 규제의 직접적이며 통일된 적 용에 영향을 미칠 수 있기 때문이다. 이는 지침 제 2000/31/EC호, 특히 위 지침 제3조를 비롯한 유 럽연합 법률에 따라 국내법이 이 규정에서 추구하 는 목적 외에 다른 공익 목적을 추구하는 경우, 중 개서비스 제공자에게 적용되는 그 밖의 국내법의 적용 가능성을 배제하여서는 아니 된다.

(10) 이 규정은, 정보사회서비스의 제공을 일반적 으로 규제하거나, 역내 시장에서 중개서비스 제공 의 다른 사항을 규제하거나, 또는 비디오 공유 플 랫폼 규정을 비롯한 유럽의회 및 이사회 지침 제 2010/13/EU호, 유럽의회 및 이사회 규정(EU) 제 2019/1148호, (EU) 제2019/1150호, (EU) 제 2021/784호 및 (EU) 제2021/1232호, 유럽의회 및 이사회 지침 제2002/58/EC호, 형사사건의 전 자증거에 관한 유럽제출·보존명령 규정과 형사소 송에서 증거 수집을 위한 법률대리인 선임에 관한 조화 규제를 규정한 지침에서 명시한 유럽연합 법 률 규정과 같이 이 규정에서 정한 조화 규제를 구 체화하거나 보완하는 그 밖의 유럽연합 법률을 침 해하여서는 아니 된다. 마찬가지로 명확성을 위해 이 규정은 소비자 보호 에 관한 유럽연합 법률, 특히 유럽의회 및 이사회 규정(EU) 제2017/2394호 및 (EU) 제2019/1020 호, 유럽의회 및 이사회 지침 제2001/95/EC호, 제 2005/29/EC호, 제2011/83/EU호 및 제 2013/11/EU호, 이사회 지침 제93/13/EEC호와 개인정보 보호에 관한 유럽연합 법률, 특히 유럽의 회 및 이사회 규정(EU) 제2016/679호를 침해하 여서는 아니 된다. 또한 이 규정은 국제사법에 관한 유럽연합 규정, 특히 규정(EU) 제1215/2012호와 같이 민사 및 상 사사건의 재판관할과 재판의 승인 및 집행에 관한 규정과 계약채무 및 계약외채무에 적용되는 법률 에 관한 규정을 침해하여서도 아니 된다. 개인정보 처리와 관련된 개인의 보호는 오로지 이와 관련한 유럽연합 법률 규정, 특히 규정(EU) 제2016/679 호 및 지침 제2002/58/EC호에 의해서만 규율된 다. 또한 이 규정은 근로조건에 관한 유럽연합 법 률과 민·형사사법공조 분야의 유럽연합 법률도 침 해하여서는 아니 된다. 다만, 위와 같은 유럽연합 법적행위가 이 규정에서 명시한 목적과 동일한 목 적을 추구하는 범위 내에서, 이 규정의 규칙은 이 러한 다른 유럽연합 법적행위가 적용되지 않거나 완전히 적용되지는 않는 사안과 이러한 다른 유럽 연합 법적행위에서 회원국에 국가 차원의 특정 조 치를 채택할 여지를 인정한 사안에 적용되어야 한 다.

(11) 이 규정은 유럽의회 및 이사회 지침 제 2001/29/EC호, 제2004/48/EC호 및 (EU) 제 2019/790호를 포함하여 다른 법률의 영향을 받지 않아야 하는 특정 원칙과 절차를 정하고 있는 저작 권 및 저작인접권에 관한 유럽연합 법률을 침해하 지 아니함을 분명히 하여야 한다.

(12) 안전하고 예측 가능하며 신뢰할 수 있는 온라 인 환경을 보장하기 위한 목적을 달성하기 위하여, 이 규정의 목적상 ‘불법 콘텐츠’의 개념은 오프라 인 환경의 기존 규칙을 광범위하게 반영하여야 한 다. 특히 ‘불법 콘텐츠’의 개념은 불법 콘텐츠, 제 품, 서비스 및 활동과 관련된 정보를 포섭하도록 광범위하게 정의되어야 한다. 특히, 해당 개념은 형식에 관계없이 불법 혐오발언이나 테러 콘텐츠, 불법적 차별 콘텐츠와 같이 준거법에 따라 그 자체 로 불법이거나 적용 규칙에 따라 불법행위와 관련 이 있다는 점을 고려하여 불법으로 간주되는 정보 를 의미하는 것으로 해석하여야 한다. 구체적인 예 로는 아동 성학대를 묘사한 이미지 공유, 개인 이미지의 불법적인 무단 공유, 온라인 스토킹, 불합 격품 또는 위조 제품 판매, 소비자 보호법 위반 제 품 판매 또는 서비스 제공, 저작권 보호 자료의 무 단 사용, 숙박 서비스의 불법 제공 또는 살아있는 동물의 불법 판매 등이 있다. 반대로 잠재적 범죄 에 대한 목격 동영상은 이러한 동영상을 녹화하거 나 일반 대중에게 배포하는 것이 국내법 또는 유럽 연합 법률상 불법이 아닌 경우 단순히 불법행위를 묘사한다는 이유만으로 불법 콘텐츠로 간주되어서 는 아니 된다. 이러한 점에서 정보 또는 활동이 유 럽연합 법률 또는 유럽연합 법률에 따른 국내법에 따라 불법인지 여부와 문제된 법률의 정확한 성격 이나 내용이 무엇인지는 중요하지 않다.

(13) 관련 서비스의 특정 성격과 이에 따라 해당 서비스 제공자에게 특정 의무를 부과해야 하는 필 요성을 고려할 때, 이 규정에 정의된 호스팅서비스 제공자의 광범위한 범주에서 온라인 플랫폼의 하 위 범주를 구분할 필요가 있다. 소셜 네트워크 또 는 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼과 같은 온라인 플랫폼은 서 비스 이용자의 요청에 따라 서비스 이용자가 제공 한 정보를 저장할 뿐만 아니라 서비스 이용자의 요 청에 따라 해당 정보를 공개 배포하는 호스팅서비 스 제공자로 정의되어야 한다. 그러나 지나치게 광 범위한 의무를 부과하지 않기 위해서는, 공개 배포 가 본질적으로 다른 서비스에 연결된 경미하고 순 수하게 보조적인 특징이거나 주된 서비스의 부수적 기능이고, 위와 같은 특징이나 기능이 객관적인 기술적 이유로 다른 또는 주된 서비스 없이는 사용 될 수 없으며, 위와 같은 특징이나 기능의 통합이 온라인 플랫폼에 적용되는 이 규정의 적용을 회피 하는 수단이 아닌 경우에는 호스팅서비스 제공자 를 온라인 플랫폼으로 보아서는 아니 된다. 예를 들어, 온라인 신문의 댓글 섹션은 그러한 특징으로 볼 수 있는데, 출판사의 편집 책임 하에 뉴스를 출 판하는 것으로 대표되는 주요 서비스에 대해 보조 적인 특징임이 명확하다. 반대로 소셜 네트워크의 댓글 저장은 서비스 이용자의 게시물을 게시하는 데 보조적인 것일지라도, 이는 제공된 서비스의 부 수적 기능이 아니므로 온라인 플랫폼 서비스로 보 아야 한다. 이 규정의 목적상 클라우드 컴퓨팅 또 는 웹 호스팅서비스는 대중에게 특정 정보를 배포 하는 것이 그러한 서비스의 경미하고 보조적인 특 징 또는 부수적 기능이므로 온라인 플랫폼으로 보 아서는 아니 된다. 나아가 클라우드 컴퓨팅 서비스와 웹 호스팅서비 스가 인터넷 기반 애플리케이션, 웹사이트 또는 온 라인 플랫폼의 기본 인프라 스토리지 및 컴퓨팅 서 비스와 같은 인프라 역할을 하는 경우, 이는 그 자체만으로 애플리케이션, 웹사이트 또는 호스팅하 는 온라인 플랫폼의 서비스 이용자의 요청에 따라 저장되거나 처리된 정보를 공개 배포하는 것으로 보아서는 아니 된다.

(14) 이 규정에서 사용되는 ‘공개 배포’의 개념은 잠재적으로 무제한의 사람들에게 정보를 제공하는 것, 즉 서비스 이용자들이 실제로 해당 정보에 접 근하는지에 관계없이 서비스 이용자의 추가적인 정보 제공 조치 없이도 서비스 이용자가 일반적으 로 정보에 쉽게 접근할 수 있도록 하는 것을 말한 다. 따라서 정보 접근 시 서비스 이용자 집단에의 등록이나 승인을 필요로 하는 경우, 정보에 접근하 려는 서비스 이용자가 사람의 결정이나 접근 승인 의 선별과정 없이 자동으로 등록되거나 승인되는 경우에만 해당 정보가 공개 배포된 것으로 보아야 한다. 이메일 또는 프라이빗 메시지 서비스와 같은 유럽의회 및 이사회 지침(EU) 제2018/1972호에 정의된 대인통신서비스는 통신 발송인이 지정한 유한한 수의 사람들 사이의 대인 통신에서 사용되 기 때문에 온라인 플랫폼의 정의 범주에서 벗어난 다. 그러나 이 규정에서 정한 온라인 플랫폼 제공 자의 의무는 공개 집단 또는 공개 채널을 통해 통 신의 발신자가 의도하지 않더라도 잠재적으로 무 제한의 수신자에게 정보를 제공할 수 있는 서비스 에 대해 적용될 수 있다. 정보는 정보를 제공한 서 비스 이용자가 직접 요청하여 배포된 경우에만 이 규정의 의미에 따라 대중에게 배포된 것으로 보아 야 한다.

(15) 이 규정이 서비스 제공자가 제공하는 서비스 의 일부에 적용되는 반면, 다른 서비스에는 적용되 지 않는 경우, 또는 이 규정의 각기 다른 조항이 서 비스 제공자가 제공하는 서비스에 적용되는 경우, 이 규정의 관련 조항은 그 적용범위에 해당하는 서 비스에 대해서만 적용되어야 한다.

(16) 지침 제2000/31/EC호에 규정된 중개서비스 제공자 책임의 조건부 면제라는 수평적 체계가 제 공하는 법적 확실성으로 인하여 역내 시장 전반에 걸쳐 많은 새로운 서비스가 등장하고 확대될 수 있 었다. 따라서 이러한 체계는 유지되어야 한다. 그 러나 국가 차원에서 관련 규칙을 개정, 적용할 때 발생하는 차이를 고려할 때, 그리고 명확성과 일관 성을 위해 위 체계는 이 규정에 통합되어야 한다. 또한 유럽연합 사법재판소의 판례법을 고려하여 해당 체계의 특정 요소를 명확히 할 필요가 있다.

(17) 이 규정에서 정한 중개서비스 제공자의 책임 에 관한 규칙은 서비스 이용자가 제공한 불법 콘텐 츠와 관련하여 해당 중개서비스 제공자가 책임을 질 수 없는 경우에만 제정된다. 이러한 규칙은 제 공자가 책임을 질 수 있는 시기를 정하는 적극적인 근거를 제공하는 것으로 해석할 수 없고, 이는 적 용가능한 유럽연합 법률 또는 국내법에서 규정한 다. 또한 이 규정에서 정한 책임 면제는 위 각 법률 의 정확한 대상이나 성격에 관계없이 모든 유형의 불법 콘텐츠와 관련된 모든 유형의 책임에 적용되 어야 한다.

(18) 이 규정에서 정한 책임 면제는 서비스 이용자 가 제공한 정보의 단순한 기술적 및 자동 처리를 통해 중립적으로 서비스를 제공하는 데 국한하지 않고, 중개서비스 제공자가 해당 정보에 대한 지식 또는 통제권을 부여하는 것과 같이 능동적인 역할 을 하는 경우에는 적용되지 않아야 한다. 따라서 이러한 면제는 중개서비스 제공자의 편집 책임 하 에 정보가 개발된 경우를 포함하여, 서비스 이용자 가 아닌 중개서비스 제공자가 자체적으로 제공한 정보와 관련된 책임에 대해서는 적용되지 않아야 한다.

(19) ‘단순 전달’, ‘캐싱’, ‘호스팅’ 활동의 서로 다 른 성질과 해당 서비스 제공자의 서로 다른 지위 와 능력을 고려할 때, 유럽연합 사법재판소의 해 석과 같이 이 규정에서 위 각 활동에 서로 다른 요 건과 조건이 적용되고 그 범위도 서로 다른 이상, 위 각 활동에 적용되는 규칙을 구별할 필요가 있 다.

(20) 중개서비스 제공자가 불법행위를 수행하기 위하여 서비스 이용자와 고의적으로 협력하는 경 우 서비스가 중립적으로 제공된 것으로 보아서는 안 되고, 따라서 제공자는 이 규정에 따른 책임 면 제 혜택을 받을 수 없다. 제공자가 불법행위를 용 이하게 하는 것을 주요 목적으로 서비스를 제공하 면서, 그 목적이 불법행위를 용이하게 하는 것임을 명시하거나 해당 서비스가 해당 목적에 적합하다 는 것을 명시하는 경우가 그 예이다. 서비스가 암 호화된 전송 또는 사용자 식별을 불가능하게 만드 는 그 밖의 시스템을 제공한다는 사실 그 자체만으 로 불법행위를 용이하게 하는 것으로 보아서는 안 된다.

(21) 제공자는 전송되거나 접근된 정보와 전혀 관 련이 없는 경우 ‘단순 전달’, ‘캐싱’ 서비스에 대해 책임 면제 혜택을 받을 수 있어야 한다. 이를 위해 서는 무엇보다 제공자가 전송되거나 접근을 제공 한 정보를 수정하지 않아야 한다. 그러나 전송 또 는 접근 과정에서 발생하는 기술적 특성의 조작은 이와 같은 조작으로 인하여 전송되거나 접근이 제 공된 정보의 무결성을 변경하지 않으므로, 여기에 포함되는 것으로 해석하지 아니한다.

(22) 제공자가 호스팅서비스에 대한 책임 면제 혜 택을 받기 위해서는 불법행위 또는 불법 콘텐츠에 대해 실제 알거나 인식하는 즉시 해당 콘텐츠에 대 한 접근을 삭제하거나 차단하기 위하여 신속하게 조치를 취하여야 한다. 접근의 삭제나 차단은 표현 및 정보의 자유에 대한 권리를 포함하여 서비스 이 용자의 기본권을 준수하는 방식으로 수행하여야 한다. 제공자는 특히 직권조사를 통해 또는 이 규 정에 따라 개인이나 단체가 제출한 신고를 통해 해 당 콘텐츠의 불법적 특성에 대해 실제 알거나 인식 할 수 있는데, 다만 이러한 신고는 성실한 경제운 영자가 불법으로 의심되는 콘텐츠를 합리적으로 식별, 평가 및 적절한 경우 조치를 취하기에 충분 히 정확하고 적절히 입증되어야 한다. 그러나 제공 자가 자신의 서비스가 불법 콘텐츠를 저장하는 데 사용된다는 사실을 일반적인 의미에서 알고 있다 는 점을 근거로 그러한 실제 인지 또는 인식이 있 다고 볼 수 없다. 또한 제공자가 서비스에 업로드 된 정보를 자동으로 색인화하거나 검색 기능을 가 지고 있거나 서비스 이용자의 프로필이나 선호도 를 기반으로 정보를 추천한다는 사실은 해당 제공 자가 해당 플랫폼에서 이루어지는 불법행위 또는 플랫폼에 저장된 불법 콘텐츠에 대한 ‘구체적’ 인 식을 보유하였다고 볼만한 충분한 근거가 될 수 없 다.

(23) 책임 면제는 서비스 이용자가 호스팅서비스 제공자의 권한 또는 통제 아래 행동하는 경우에는 적용되지 아니한다. 예를 들어, 소비자가 판매자와 원격계약을 체결할 수 있도록 하는 온라인 플랫폼의 제공자가 판매자에 의해 제공된 상품이나 서비 스의 가격을 결정하는 경우, 판매자는 해당 온라인 플랫폼의 권한 또는 통제 아래 행동하는 것으로 볼 수 있다.

(24) 온라인 상거래 중개에 참여할 때 소비자를 효 과적으로 보호하기 위하여 특정 호스팅서비스 제 공자, 즉 소비자가 판매자와 원격계약을 체결할 수 있도록 하는 온라인 플랫폼은, 실제로 그렇지 않더 라도 문제된 거래와 관련된 정보가 해당 온라인 플 랫폼 또는 온라인 플랫폼의 승인 또는 통제 아래 행동하는 판매자에 의해 제공되었고, 나아가 해당 온라인 플랫폼이 그 정보에 대한 지식이나 통제권 을 갖고 있다고 소비자로 하여금 믿게 하는 방법으 로 거래 관련 정보를 제시하는 경우, 이 규정에서 정한 호스팅서비스 제공자에 대한 책임 면제 혜택 을 받을 수 없다. 그러한 행동의 예시로는, 온라인 플랫폼이 이 규정에서 요구하는 바와 같이 판매자 의 신원을 명확하게 표시하지 않거나, 온라인 플랫 폼에서 판매자와 소비자 간에 계약이 체결될 때까 지 판매자의 신원 또는 연락처 정보를 공개하지 않 거나, 온라인 플랫폼에서 해당 제품이나 서비스를 이를 공급하는 판매자의 이름이 아닌 온라인 플랫 폼 자신의 이름으로 판매하는 경우가 해당된다. 이 와 관련하여, 이러한 정보 제시가 일반 소비자로 하여금 그 정보가 온라인 플랫폼 또는 온라인 플랫 폼의 승인 또는 통제 아래 행동하는 판매자에 의해 제공된 것이라고 믿게 하는지 여부는 모든 관련 상 황에 기초하여 객관적으로 결정되어야 한다.

(25) 이 규정에서 명시한 책임 면제는 면제의 일부 로 명시된 조건을 충족하더라도 중개서비스 제공 자에 대한 다양한 종류의 금지명령 가능성에 영향 을 미치지 아니한다. 이러한 금지명령은 해당 명령 에 명시된 불법 콘텐츠의 삭제 또는 이에 대한 접 근 차단을 포함하여 모든 위반행위의 종료 또는 방 지를 요구하는 내용의 법원이나 행정당국의 유럽 연합 법률에 따른 명령으로 구성될 수 있다.

(26) 법적 확실성을 확보하고 모든 범주의 중개서 비스 제공자가 자발적으로 수행하는 불법 콘텐츠 의 탐지, 식별 및 이에 대한 조치를 목표로 하는 활 동을 저해하지 않기 위해, 위와 같은 활동을 신의 성실에 따라 수행된 경우 제공자가 그러한 활동을 수행한다는 단순한 사실만으로는 이 규정에서 정 한 책임 면제가 불가능해지는 것은 아님을 분명히 하여야 한다. 신의성실에 따라 행동한다는 조건은 이 규정의 목적과 요건에 따라 모든 관련 당사자들 의 권리와 정당한 이익을 고려하여 객관적이고 비 차별적이며 비례적인 방식으로 행동하는 것과 합 법적 콘텐츠의 부당한 삭제에 대해 필요한 보호 장 치를 제공하는 것을 포함하여야 한다. 이러한 목적 을 위하여 관련 제공자는, 예를 들어 그러한 활동 을 수행하기 위하여 자동화된 도구를 사용하는 경 우 관련 기술이 오류율을 가능한 최대한도로 제한 한다고 충분히 신뢰할 수 있음을 보장하기 위한 합 리적 조치를 취하여야 한다. 또한 제공자가 그의 이용약관 이행과 관련하여 이 규정에서 명시한 요건을 포함하여 유럽연합 법률의 요건을 준수하기 위하여 신의성실로 조치를 취한다는 단순한 사실 만으로 이 규정에서 명시한 책임 면제가 불가능해 지는 것이 아님을 분명히 하는 것이 적절하다. 따 라서 제공자에 대한 책임 면제 적용을 결정하는 데 있어, 특히 제공자가 서비스를 중립적으로 제공하 고 이 규칙이 없다면 필연적으로 책임 면제가 적용 되는 상황에서 이에 따른 관련 규정의 범위에 해당 하는지 여부를 결정하는 경우, 제공자가 취할 수 있는 그러한 활동과 조치를 고려하여서는 아니 된 다. 자발적 조치는 이 규정에 따른 중개서비스 제 공자의 의무를 회피하는 데 사용되어서는 아니 된 다.

(27) 이 규정에서 정한 중개서비스 제공자의 책임 에 관한 규칙이 중개서비스 제공자의 책임 면제에 중점을 두고 있기는 하지만, 이러한 제공자가 일반 적으로 중요한 역할을 수행함에도 불구하고, 온라 인상의 불법 콘텐츠와 활동의 문제를 오로지 위 제 공자의 의무와 책임에만 중점을 두어 다루어서는 안 된다는 것을 염두에 두는 것이 중요하다. 가능 한 경우, 온라인으로 전송되거나 저장된 불법 콘텐 츠의 영향을 받는 제3자는 해당 중개서비스 제공 자를 개입시키지 않고 해당 콘텐츠와 관련된 분쟁 해결을 시도하여야 한다. 서비스 이용자는 중개서 비스를 통해 공개적으로 제공하여 배포될 수 있는 불법 콘텐츠에 대한 책임을 규정한 유럽연합 법률 과 국내법에 따른 책임을 진다. 해당하는 경우, 특 히 대규모 집단의 경우 폐쇄된 온라인 환경의 집단 중재자와 같은 그 밖의 행위자도 준거법에 따라 온 라인에서 불법 콘텐츠 확산을 방지하는 데 도움을 주어야 한다. 나아가 중개서비스 제공자를 포함하 여 정보사회서비스 제공자의 개입이 필요한 경우, 그러한 개입에 대한 모든 요청이나 명령은 일반원 칙으로서, 불법 콘텐츠가 아닌 정보의 이용 가능성 과 접근성에 대한 부정적인 영향을 방지하고 최소 화하기 위하여 불법 콘텐츠의 특정 항목에 관해 조 치를 취할 수 있는 기술 및 운영 능력을 갖춘 특정 제공자에 대해 이루어져야 한다.

(28) 2000년 이후 온라인 데이터의 전송, ‘검색 가 능성’, 저장을 위한 시스템의 이용 가능성, 효율성, 속도, 신뢰성, 용량, 보안을 증진하는 새로운 기술 이 등장함에 따라 점점 더 복잡한 온라인 생태계를 이루게 되었다. 이러한 점에서 기술적 보조 기능을 포함하여 인터넷의 기반이 되는 논리 아키텍처와 정상적 기능을 설정하고 촉진하는 서비스 제공자 도 서비스가 ‘단순 전달’, ‘캐싱’ 또는 ‘호스팅’ 서 비스에 해당하는 범위 내에서는 이 규정에서 명시 한 책임 면제 혜택을 받을 수 있음을 상기하여야 한다. 이러한 서비스에는 사안에 따라 무선 로컬 영역 네트워크, 도메인 이름 시스템(DNS) 서비스, 최상위 도메인 이름 등록, 등록 기관, 디지털 인증 서를 발급하는 인증 기관, 가상 사설망, 온라인 검 색엔진, 클라우드 인프라 서비스 또는 다른 중개서 비스 제공자의 기능을 활성화, 검색 또는 개선하는 콘텐츠 전송 네트워크가 포함된다. 마찬가지로 통 신 목적으로 사용되는 서비스와 이를 전달하는 기 술적 수단도 상당히 발전하여 음성 인터넷 프로토 콜(VoIP), 메시지 서비스, 인터넷 접속 서비스를 통해 통신이 전달되는 웹 기반 이메일 서비스와 같 은 온라인서비스가 등장하였다. 그러한 서비스도 ‘단순 전달자’, ‘캐싱’ 또는 ‘호스팅’ 서비스에 해당 하는 범위 내에서는 책임 면제 혜택을 받을 수 있 다.

(29) 중개서비스는 신속하고 안전하며 확실한 정 보의 전송을 제공하고 온라인 생태계의 모든 참여 자의 편의를 보장하기 위하여 온라인에서 발생하 고 지속적으로 발전하는 광범위한 경제활동을 포 괄한다. 예를 들어, ‘단순 전달’ 중개서비스는 인터 넷 교환 지점, 무선 접근 지점, 가상 사설망, DNS 서비스와 리졸버, 최상위 도메인 이름 등록, 등록 기관, 디지털 인증서를 발급하는 인증 기관, 음성 인터넷 프로토콜(VoIP), 그 밖의 대인통신서비스 와 같은 일반적인 종류의 서비스를 포함하는 반면, ‘캐싱’ 중개서비스의 일반적인 예시에는 콘텐츠 전 송 네트워크, 리버스 프록시 또는 콘텐츠 적응 프 록시의 제공만 포함된다. 그러한 서비스는 인터넷 에서 전달되는 정보의 원활하고 효율적인 전송을 보장하는 데 필수적이다. ‘호스팅서비스’의 예시로 는 클라우드 컴퓨팅, 웹 호스팅, 유료 참조 서비스 또는 파일 저장과 공유를 비롯한 정보와 콘텐츠를 온라인으로 공유할 수 있는 서비스와 같은 서비스 범주가 포함된다. 중개서비스는 다른 유형의 중개 서비스의 일부로서 분리되어 제공되거나, 다른 중 개서비스와 동시에 제공될 수 있다. 특정 서비스가 ‘단순 전달’, ‘캐싱’ 또는 ‘호스팅’ 서비스를 구성하 는지 여부는 시간이 지남에 따라 발전할 수 있는 기술적 기능에 전적으로 달려 있고, 따라서 개별 사안별로 평가하여야 한다.

(30) 중개서비스 제공자는 일반적 성격의 의무와 관련하여 법적으로나 실질적으로나 모니터링 의무 를 부담하지 않아야 한다. 이는 특정 사안에서의 모니터링 의무와는 관련이 없고, 특히 유럽연합 사 법재판소에서 해석한 바에 따라 유럽연합 법률에 따른 국내법과 이 규정에서 수립한 조건에 의한 국 가기관의 명령에는 영향을 미치지 아니한다. 이 규 정의 어떠한 내용도 일반적인 모니터링 의무나 일 반적인 적극적 사실조사 의무의 부과로, 또는 제공 자가 불법 콘텐츠와 관련하여 선제적 조치를 취해 야 하는 일반적인 의무로 해석되어서는 아니 된다.

(31) 각 회원국의 법률체계와 문제가 되는 법 분야 에 따라 법 집행기관을 포함한 국내 사법당국이나 행정당국은 중개서비스 제공자에게 하나 이상의 특정 불법 콘텐츠 항목에 대해 조치를 취하거나 특 정 정보를 제공하도록 명령할 수 있다. 명령이 내 려지는 근거가 되는 국내법은 서로 상당히 다르고, 국경 간 상황에서 점점 더 많은 명령이 다루어지고 있다. 특히 국경 간 상황에서 이러한 명령을 효과 적이고 효율적인 방식으로 준수하여, 다른 제3자 의 권리와 정당한 이익에 부당한 영향을 주지 않으 면서 관련 공공기관이 그 임무를 수행할 수 있고 제공자가 과도한 부담을 지지 않도록 하기 위해서 는, 위와 같은 명령이 충족해야 하는 특정 조건과 명령의 처리와 관련된 특정 보완 요건을 명시하여 야 한다. 따라서 이 규정은 중개서비스 제공자에게 해당 명령의 효력에 대해 관련 당국에 통지할 의무 를 부과하기 위하여 이러한 명령이 충족해야 하는 특정한 최소 조건만을 조화시켜야 한다. 따라서 이 규정은 그러한 명령의 발부에 대한 법적 근거를 제 공하지 않고, 그 지리적 범위 또는 국경 간 집행을 규제하지 아니한다.

(32) 명령 발부의 근거가 된 유럽연합 또는 국내 준거법은 추가 조건을 요구할 수 있고, 이는 개별 명령의 집행 근거가 되어야 한다. 위와 같은 명령을 준수하지 아니하는 경우, 명령을 내린 회원국은 국내법에 따라 명령을 집행할 수 있다. 국내 준거 법은 특히 온라인 도박 및 내기 서비스와 관련하여 설립의 자유와 유럽연합 내에서 서비스를 제공할 자유에 관한 헌장 및 유럽연합기능조약의 조항을 비롯한 유럽연합 법률을 준수하여야 한다. 마찬가 지로, 각 명령의 집행을 위한 국내법의 적용은 특 히 민·형사 사안에 있어 해당 명령의 국경 간 승인, 시행, 집행과 관련한 유럽연합 법적행위 또는 유럽 연합이나 회원국이 체결한 국제협정을 침해하지 아니한다. 한편, 명령 자체의 집행과 별도로 해당 명령의 효력에 대해 관련 당국에 통지할 의무의 집 행은 이 규정에서 정한 규칙을 따라야 한다.

(33) 중개서비스 제공자는 관련 유럽연합 법률 또 는 국내법에서 정한 기한에 따라 지체 없이 명령을 내린 기관에 그 명령에 대한 후속 조치를 통지하여 야 한다.

(34) 관련 국가기관은 불법으로 간주되는 콘텐츠 에 대한 명령이나, 유럽연합 법률 또는 유럽연합 법률, 특히 헌장에 따른 국내법에 근거하여 정보를 제공하고 이를 다른 회원국에 설립된 중개서비스 제공자를 비롯한 중개서비스 제공자에게 전달하도 록 하는 명령을 내릴 수 있어야 한다. 다만, 이 규 정은 규정(EU) 제1215/2012호와 형사사건의 전 자증거에 관한 유럽제출·보존명령 규정을 비롯한 민·형사사법공조 분야의 유럽연합 법률과 국내 형 사 또는 민사소송법을 침해하지 아니한다. 따라서 위와 같은 법률이 형사 또는 민사소송에 있어 불법 콘텐츠에 대한 조치명령 또는 정보제공명령과 관 련하여 이 규정에 정해진 조건에 추가적이거나 양 립할 수 없는 조건을 규정하는 경우, 이 규정에 정 해진 조건은 적용되지 않거나 조정될 수 있다. 특 히 명령을 내린 당국의 회원국에 속한 디지털서비 스 조정자가 다른 모든 디지털서비스 조정자에게 명령 사본을 전달하여야 하는 의무는 국내 형사소 송 준거법이 규정한 바에 따라 형사소송에서 적용 되지 않거나 조정될 수 있다. 나아가 정보가 불법 콘텐츠인 이유를 설명하는 이 유서를 포함하라는 명령에 대한 의무는 형사 범죄 의 예방, 수사, 탐지 및 기소에 관한 국내 형사소송 준거법에 따라 필요한 경우 조정되어야 한다. 마지 막으로, 특히 형사, 민사 또는 행정소송에 있어 유 럽연합 또는 국내 준거법에 따라 중개서비스 제공 자의 서비스 이용자에게 통지할 의무는 지연될 수 있다. 또한 명령은 규정(EU) 제2016/679호와 정 보를 모니터링하거나 이 규정에 따라 불법행위를 나타내는 사실 또는 상황을 적극적으로 조사할 일 반적인 의무의 금지에 따라 발부되어야 한다. 정보 제공명령에 적용되는 조건과 요건이 특정 부문의 유사한 관련 원칙에 관한 다른 유럽연합 행위를 침 해하지 않는 데 반하여, 불법 콘텐츠에 대한 조치 명령에 적용되는 이 규정에 따른 조건과 요건은 규정(EU) 제2021/784호, 규정(EU) 제2019/1020 호 또는 회원국 소비자법 집행당국에 정보 제공을 명령할 수 있는 특정 권한을 부여하는 규정(EU) 제2017/2394호와 같이, 특정 불법 콘텐츠 유형의 조치에 관한 유사한 시스템을 규정한 그 밖의 유럽 연합 법률을 침해하지 아니한다. 이러한 조건과 요 건은 정보의 비공개와 관련된 법 집행기관의 비밀 유지 요청과 유럽연합 법률을 준수하여 국내 준거 법에 따른 보관 및 보존 규칙을 침해하지 않아야 한다. 이러한 조건과 요건은 회원국이 중개서비스 제공자에게 이 규정을 포함한 유럽연합 법률과, 특 히 일반적인 모니터링 의무 금지를 준수하여 위반 을 방지하도록 요구할 가능성에 영향을 미치지 않 아야 한다.

(35) 이 규정에 따른 조건과 요건은 늦어도 명령이 해당 제공자에게 전달되는 시점까지 충족되어야 한다. 따라서 명령은 해당 회원국 발부 기관의 공 식 언어 중 하나로 발부될 수 있다. 그러나 위 언어 가 중개서비스 제공자가 지정한 언어 또는 명령 발 부 기관과 중개서비스 제공자 간에 합의된 회원국 의 다른 공식 언어와 다른 경우, 명령 전달에는 최소한 이 규정에서 명시한 명령의 요소에 대한 번역 문이 첨부되어야 한다. 중개서비스 제공자가 특정 언어를 사용하는 것에 대해 회원국 관할당국과 합 의한 경우, 다른 회원국 관할당국이 이와 동일한 언어로 내린 명령을 수락하도록 장려되어야 한다. 명령은 적절한 경우 명령 발부 기관 내 연락 창구 의 세부 연락처를 비롯하여 수취인이 위 기관을 식 별할 수 있고, 명령의 진위를 확인할 수 있는 요소 를 포함하여야 한다.

(36) 불법 콘텐츠에 대한 조치명령의 지리적 범위 는 명령 발부에 관한 유럽연합 준거법 또는 국내 준거법을 근거로 명확히 정해져야 하고 그 목적을 달성하는 데 엄격하게 필요한 범위를 초과하지 않 아야 한다. 이러한 점에서, 명령을 발부하는 국내 사법당국이나 행정당국, 혹은 법 집행기관은 명령 발부의 법적 근거에 따라 명령이 달성하려는 목적 과 명령의 영향을 받을 수 있는 모든 제3자의 권리 와 정당한 이익, 특히 이들의 헌장상 기본권과의 균형을 유지하여야 한다. 특히 국경 간 상황에서 명령의 효력은, 해당 콘텐츠의 불법성이 유럽연합 법률로부터 직접 연유하거나 명령 발부 기관이 국 제 예양의 이익을 고려하여 유럽연합 법률 또는 국 제법에 따라 침해 우려가 있는 권리의 보호를 위해 지리적 범위를 확대하여야 한다고 판단하지 않는 한, 원칙적으로 명령을 내린 회원국의 영토 내로 제한되어야 한다.

(37) 이 규정에 의해 규율되는 정보제공명령은 서 비스 이용자의 유럽연합 또는 국내 준거규정 준수 여부의 판단을 목적으로 이러한 명령에서 식별된 관련 중개서비스의 개별 이용자에 대한 특정 정보 의 생성에 관한 것이다. 이러한 명령은 관련 서비 스 이용자의 식별을 가능하게 할 목적으로 정보를 요청하여야 한다. 따라서 통계 목적이나 증거 기반 정책 결정에 필요한 집계 정보의 제공명령을 포함 하여 구체적으로 식별되지 않은 서비스 이용자 집 단에 관한 정보와 관련된 명령은 이 규정의 정보 제공에 관한 요건에 포함되지 아니한다.

(38) 불법 콘텐츠에 대한 조치명령과 정보제공명 령은 명령의 대상인 서비스 제공자가 설립된 회원 국의 권한을 보호하는 규칙과, 지침 제 2000/31/EC호 제3조의 조건을 만족하는 경우에 위 조항에서 정한 특정 사건에서의 위 권한의 부분 적 수정을 명시한 규칙의 적용을 받는다. 문제된 명령이 각 불법 콘텐츠와 정보의 특정 항목과 관련 되어 있는 점을 고려해 볼 때, 해당 명령이 다른 회 원국에 설립된 중개서비스 제공자에게 전달되는 경우 그 명령은 원칙적으로 위와 같은 제공자가 국 경을 넘어 서비스를 제공할 자유를 제한하지 아니 한다. 따라서 서비스 제공자가 특정 근거로 설립되 어 있는 회원국의 권한을 수정하는 조치를 정당화할 필요성과 그러한 조치의 통지에 관한 규칙을 비 롯한 지침 제2000/31/EC호 제3조에서 명시한 규 칙은 위와 같은 명령에 대해서는 적용되지 아니한 다.

(39) 중개서비스 제공자와 콘텐츠를 제공한 서비 스 이용자가 이용할 수 있는 구제제도에 관한 정보 제공의 요건에는 행정적 불만처리제도와 사법당국 이 내린 명령에 대한 항고를 포함한 사법적 구제에 관한 정보 제공의 요건이 포함된다. 또한 디지털서 비스 조정자는 서비스 이용자가 이의 및 구제제도 에 쉽게 접근할 수 있도록 이들 각 영토 내에서 적 용가능한 이러한 제도에 관한 국내 수단과 지침을 개발할 수 있다. 마지막으로, 이 규정의 적용에 있 어 회원국은 헌장 제47조에 규정된 효과적인 사법 구제와 공정한 재판에 대한 기본권을 존중하여야 한다. 따라서 이 규정은 국내 사법당국이나 행정당 국이 유럽연합 또는 국내 준거법에 근거하여 중개 서비스 제공자의 이용약관을 준수하였으나 위 제 공자가 불법 콘텐츠로 오인하여 삭제한 콘텐츠를 복원하는 명령을 내리는 것을 방해하지 아니한다.

(40) 이 규정의 목적을 달성하고 특히 역내 시장의 기능을 증진하며 안전하고 투명한 온라인 환경을 보장하기 위하여, 명확하고 효과적이며 예측 가능 하고 균형 잡힌 일련의 조화된 중개서비스 제공자 의 상당한 주의의무를 확립할 필요가 있다. 그러한 의무는 관할당국의 감독이 용이하도록 하는 한편, 특히 혐오 표현, 성희롱 또는 그 밖의 차별적 행동 의 대상이 될 위험이 있는 소비자, 미성년자, 사용 자를 비롯한 서비스 이용자의 안전과 신뢰, 헌장에 서 명시한 관련 기본권의 보호, 위 제공자의 유의 미한 책임, 그리고 이용자와 그 밖에 영향을 받는 당사자의 자율권과 같은 다양한 공공정책 목표를 보장하는 것을 목표로 하여야 한다.

(41) 이러한 점에서 상당한 주의의무가 관련 중개 서비스의 유형, 규모 및 성격에 맞게 조정되는 것 이 중요하다. 따라서 이 규정은 모든 중개서비스 제공자에게 적용되는 기본 의무와 호스팅서비스 제공자, 보다 구체적으로는 온라인 플랫폼 및 초대 형 온라인 플랫폼, 초대형 온라인 검색엔진의 제공 자에 대한 추가 의무를 규정한다. 중개서비스 제공 자는 서비스의 성격과 이들 규모에 따라 여러 다양 한 범주에 속하므로, 이들은 그러한 서비스와 관련 하여 이 규정의 모든 해당 의무를 준수하여야 한 다. 합리적이고 자의적이지 않으며 조화된 상당한 주의의무는 서비스 이용자의 정당한 이익 보호, 불 법 관행 해소, 헌장에 명시된 기본권 보호와 같이 확인된 공공정책 문제를 해결하는 데 필요하다. 상 당한 주의의무는 중개서비스 제공자의 책임 문제와는 별개이므로, 이는 별도로 판단하여야 한다.

(42) 이 규정이 적용되는 사안과 관련하여, 관련 있는 경우 원활하고 효율적인 양방향 의사소통의 수신 확인을 비롯하여 이러한 의사소통을 촉진하 기 위하여, 중개서비스 제공자는 단일 전자 연락 창구를 지정하고 이러한 의사소통에 사용되는 언 어를 포함하여 위 연락 창구와 관련된 정보를 게시 하고 갱신하여야 한다. 전자 연락 창구는 신뢰할 수 있는 신고자 및 중개서비스 제공자와 특정 관계 에 있는 전문 기관에 의해서도 사용될 수 있다. 법 률대리인과 달리, 전자 연락 창구는 운영 목적으로 사용되어야 하고 반드시 물리적 위치를 가질 필요 는 없다. 중개서비스 제공자는 이 규정의 요건뿐만 아니라 그 밖의 유럽연합 법적행위의 목적을 위하 여 동일한 단일 연락 창구를 지정할 수 있다. 중개 서비스 제공자는 의사소통 언어를 지정함에 있어 지정한 언어 자체가 의사소통에 장애가 되지 않도 록 장려되어야 한다. 필요한 경우 중개서비스 제공 자와 회원국 당국이 의사소통 언어에 관해 별도의 합의에 도달하거나, 모든 이용 가능한 기술적 수단 또는 내부·외부 인력의 사용을 포함하여 언어 장벽 을 극복하기 위한 대체 수단을 찾는 것이 가능하여 야 한다.

(43) 또한 중개서비스 제공자는 특히 전화번호, 전 자우편주소, 전자 연락처 양식, 챗봇 또는 인스턴 트 메시지와 같이 쉽게 접근가능한 수단을 통해 신 속하고 직접적이며 효율적인 의사소통이 가능하도 록 서비스 이용자를 위한 단일 연락 창구를 지정하 여야 한다. 서비스 이용자가 챗봇과 의사소통하는 경우 이는 명시적으로 표시되어야 한다. 중개서비 스 제공자는 자동화된 도구에만 의존하지 않고 서 비스 이용자가 직접적이고 효율적인 의사소통 수 단을 선택할 수 있도록 하여야 한다. 중개서비스 제공자는 그러한 의사소통이 적시에 효율적인 방 식으로 수행되도록 충분한 인적 및 재정 자원의 할 당을 보장하기 위하여 모든 합리적인 노력을 기울 여야 한다.

(44) 제3국에 설립되어 유럽연합에서 서비스를 제 공하는 중개서비스 제공자는 유럽연합 내에 충분 한 위임을 받은 법률대리인을 지정하고, 그 법률대 리인에 관한 정보를 관련 당국에 제공하며, 이를 공개하여야 한다. 그러한 의무를 준수하기 위하여 중개서비스 제공자는 지정된 법률대리인이 관련 당국과 협력하는 데 필요한 권한과 자원을 보유하 도록 하여야 한다. 예를 들어, 중개서비스 제공자 와 동일한 집단의 자회사 또는 모회사가 유럽연합 에 설립된 경우, 중개서비스 제공자가 그 자회사 또는 모회사를 제공자로 지정하는 것이 위 경우에 해당한다. 그러나 예를 들어, 법률대리인이 구조조 정 절차, 파산, 개인 또는 법인도산 등의 적용을 받 는 경우에는 이에 해당하지 아니한다. 그러한 의무 는 효과적인 감독과 필요한 경우 해당 제공자와 관 련한 이 규정의 집행이 가능하도록 하여야 한다. 법률대리인은 국내법에 따라 복수의 중개서비스 제공자로부터 위임을 받을 수 있다. 이 규정의 관 련 요건을 준수하는 한, 법률대리인이 연락 창구로 서 기능하는 것도 가능하다.

(45) 중개서비스 제공자의 계약의 자유는 원칙적 으로 존중되어야 하지만, 투명성, 서비스 이용자의 보호, 불공정하거나 자의적인 결과의 방지를 위하 여 이러한 제공자의 이용약관 내용, 적용 및 시행 에 관한 특정 규칙을 설정하는 것이 적절하다. 중 개서비스 제공자는 서비스 제공을 제한할 수 있는 근거에 대한 정보를 이용약관에 명확하게 표시하 고 최신 상태를 유지하여야 한다. 특히 이러한 이 용약관에는 내부 불만처리시스템의 절차규칙과 알 고리즘 의사 결정, 인적 검토를 포함하여 콘텐츠 조정 목적으로 사용되는 모든 정책, 절차, 조치, 도 구에 대한 정보가 포함되어야 한다. 또한 서비스 이용 해지 권한에 대해 쉽게 접근할 수 있는 정보 를 제공하여야 한다. 중개서비스 제공자는 이 규정 에서 명시한 정보 요건의 주요 요소를 설명하기 위 하여 서비스 이용약관에 아이콘이나 이미지와 같은 그래픽 요소를 사용할 수 있다. 제공자는 서비 스에서 허용되는 정보에 관한 규칙을 수정하는 경 우와 같은 이용약관의 중대한 변경이나 그 밖에 서 비스를 이용하는 이용자의 능력에 직접적인 영향 을 미칠 수 있는 그 밖의 변경에 관하여 적절한 수 단을 통해 서비스 이용자에게 통지하여야 한다.

(46) 예를 들어, 서비스의 설계 또는 홍보를 통해 주로 미성년자를 대상으로 하거나 대부분 미성년 자에 의해 이용되는 중개서비스의 제공자는 미성 년자가 쉽게 이해할 수 있도록 이용약관에 대한 설 명을 제공하기 위하여 특별한 노력을 기울여야 한 다.

(47) 중개서비스 제공자는 그러한 제한을 설계, 적 용, 시행함에 있어 자의적이지 않고 차별적이지 않 은 방식으로 행하여야 하고, 헌장에 규정된 기본권 을 비롯한 서비스 이용자의 권리와 정당한 이익을 고려하여야 한다. 예를 들어, 초대형 온라인 플랫 폼 제공자는 언론의 자유 및 다원주의를 포함하여 특히 표현 및 정보의 자유를 마땅히 고려하여야 한 다. 모든 중개서비스 제공자는 국제연합 기업과 인 권 이행원칙과 같은 인권 보호를 위한 관련 국제표 준도 마땅히 고려하여야 한다.

(48) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 특수한 역할과 범위를 고려해 볼 때 이들에 이용약관의 정보와 투명성에 관한 추가 요건을 부 과하는 것이 합당하다. 따라서 초대형 온라인 플랫 폼과 초대형 온라인 검색엔진의 제공자는 서비스 를 제공하는 모든 회원국의 공식 언어로 이용약관 을 제공하여야 하고, 서비스 이용자에게 이용약관 의 주요 요소에 대하여 간결하고 쉽게 알아볼 수 있는 요약도 제공하여야 한다. 그러한 요약은 선택 조항에서 쉽게 정보수집을 거부할 수 있도록 하는 것을 포함하여 정보 요건의 주요 요소를 식별할 수 있어야 한다.

(49) 중개서비스 제공자는 적절한 수준의 투명성 과 책임을 보장하기 위하여 이 규정에 포함된 조화 된 요건에 따라 이용약관의 적용 및 시행의 결과로 취한 조치를 포함하여 이들이 개입한 콘텐츠 조정 에 대한 연례보고서를 기계 판독 형식으로 공개하 여야 한다. 다만, 과도한 부담을 방지하기 위하여, 이러한 투명성 보고의무는 집행위원회 권고 제 2003/361/EC호에 정의된 극소기업이나 소기업 에 해당하는 제공자와 이 규정에서 의미하는 초대 형 온라인 플랫폼에 해당하지 않는 제공자에게는 적용되지 아니한다.

(50) 호스팅서비스 제공자는 서비스 이용자가 제 공한 정보를 그 요청에 따라 저장하고 일반적으로 다른 이용자에게 그 정보에 대한 접근권한을 때로 는 대규모로 부여한다는 점에서 온라인에서 불법 콘텐츠를 다루는 데 있어 특히 중요한 역할을 수행 한다. 모든 호스팅서비스 제공자는 그 규모에 관계 없이 신고자가 불법 콘텐츠라고 판단한 특정 정보 항목을 관련 호스팅서비스 제공자에게 신고(‘신 고’)할 수 있도록 쉽게 접근 가능하고 사용자 친화 적인 신고 및 조치 제도를 마련하며, 이에 따라 제 공자는 그러한 평가에 대한 동의 여부와 해당 콘텐 츠의 삭제 또는 접근 차단(‘조치’)을 결정할 수 있 도록 하는 것이 중요하다. 그러한 제도는 명확하게 식별할 수 있어야 하고, 문제된 정보에 근접하게 위치하여야 하며, 적어도 호스팅서비스 제공자의 이용약관을 위반한 콘텐츠에 대한 신고 제도만큼 쉽게 찾고 이용할 수 있어야 한다. 신고 및 조치 제 도의 효과적인 운영을 보장하기 위하여 신고의 요 건을 충족하는 경우, 사람이나 단체가 단일 신고를 통해 불법으로 의심되는 콘텐츠의 여러 특정 항목 을 신고할 수 있도록 하여야 한다. 신고 제도는 신 고를 제출하는 사람이나 단체의 신원 확인을 허용 하여야 하지만 필수적인 것은 아니다. 신고된 일부 정보 항목의 유형의 경우, 문제된 정보가 그 주장 대로 불법 콘텐츠를 구성하는지 여부를 결정하기 위하여 신고를 제출한 사람이나 단체의 신원이 필 요할 수 있다. 예를 들어, 파일 저장 및 공유 서비 스, 웹 호스팅서비스, 광고 서버, 텍스트 저장이 이 규정이 적용되는 호스팅서비스에 해당한다면, 이 들에게도 신고 및 조치 제도를 마련하여야 할 의무 가 적용된다.

(51) 모든 관련 당사자의 헌장에 보장된 기본권을 적절히 고려해야 할 필요성에 유념하여, 신고를 받 은 호스팅서비스 제공자가 취하는 모든 조치는 서 비스 이용자의 표현 및 정보의 자유에 부당한 영향 을 미치지 않으면서 불법 콘텐츠를 구성한다고 판 단되는 특정 정보 항목을 삭제 또는 접근 차단하여 야 하는 점에서 대상이 엄격하게 설정되어야 한다. 따라서 일반원칙으로서 신고는 그러한 특정 항목 에 대해 조치를 취할 수 있는 기술 및 운영 능력을 가지고 있다고 합리적으로 예상할 수 있는 호스팅 서비스 제공자를 상대로 이루어져야 한다. 기술상 또는 운영상의 이유로 제거할 수 없는 특정 정보 항목에 대하여 신고를 받은 호스팅서비스 제공자 는 신고를 제출한 사람이나 단체에 이를 통지하여 야 한다.

(52) 이와 같은 신고 및 조치 제도에 대한 규칙은 당사자가 설립되거나 소재하는 회원국 및 쟁점이 된 법률 분야에 관계없이, 일관되고 투명하며 명확 하고, 영향을 받는 모든 관련당사자의 권리와 정당 한 이익, 특히 헌장에 보장된 기본권을 보호하는 확고한 보호장치를 제공하는 규칙을 근거로 적시 에 성실하고 자의적이지 않은 신고 처리를 제공하 기 위하여, 유럽연합 차원에서 조화를 이루어야 한 다. 기본권은 서비스 이용자의 경우 표현 및 정보의 자유에 대한 권리, 사생활과 가족 생활 존중에 대한 권리, 개인정보 보호에 대한 권리, 차별받지 않을 권리와 효과적인 구제에 대한 권리를, 서비스 제공자의 경우 계약의 자유를 비롯한 사업 수행의 자유를, 불법 콘텐츠의 영향을 받는 당사자의 경우 인간의 존엄성에 대한 권리, 아동의 권리, 지식재 산권을 포함한 재산 보호에 대한 권리, 그리고 차 별받지 않을 권리를 포함하되, 이에 국한되지 아니 한다. 호스팅서비스 제공자는 특히 신고 받은 불법 콘텐츠의 유형과 조치의 긴급성을 고려하여 신고 에 따라 적시에 조치를 취하여야 한다. 예를 들어, 이러한 제공자는 사람의 생명이나 안전에 대한 위 협을 수반한 불법 의심 콘텐츠의 신고를 받으면 적 시에 조치를 취하여야 한다. 호스팅서비스 제공자 는 신고에 따른 조치 여부를 결정한 후 지체 없이 특정 콘텐츠를 신고한 사람이나 단체에 이를 통지 하여야 한다.

(53) 신고 및 조치 제도는 관련 호스팅서비스 제공 자가 신고와 관련된 콘텐츠, 특히 그 콘텐츠가 불 법 콘텐츠로 간주되어 삭제 또는 접근 차단되어야 하는지 여부에 대하여, 표현 및 정보의 자유에 부 합하여 정보에 입각한 충실한 결정을 내릴 수 있도 록 충분히 정확하고 적절히 입증된 신고가 접수되 도록 하여야 한다. 그러한 제도는 신고를 제출하는 사람이나 단체가 해당 콘텐츠를 불법 콘텐츠로 판 단한 이유에 대한 설명과 해당 콘텐츠의 위치에 대한 명확한 표시를 담은 신고의 제공이 용이하도록 하여야 한다. 성실한 호스팅서비스 제공자가 세부 적인 법률적 검토 없이도 콘텐츠가 불법임이 명백 하다는 것을 식별할 수 있는 충분한 정보가 신고에 포함되어 있는 경우, 그 신고는 불법성에 대한 실 제 인지 또는 인식을 일으키는 것으로 보아야 한 다. 신고 및 조치 제도는 유럽의회 및 이사회 지침 제2011/93/EU호 제3조 내지 제7조의 범죄와 관 련된 신고 제출 외에는, 오남용의 방지를 위하여 신고를 제출하는 사람이나 단체에 신원 공개를 요 청하여야 한다.

(54) 호스팅서비스 제공자가 예를 들어 신고 접수 또는 전적으로 자동화된 수단에 의해 직권으로, 서 비스 이용자가 제공한 정보가 불법 콘텐츠에 해당 하거나 이용약관에 위배된다는 이유로 서비스 이 용자가 제공한 정보에 대한 삭제 또는 접근 차단 또는 그 밖에 가시성이나 수익화 제한 결정을 하는 경우, 해당 제공자는 표현의 자유에 대한 기본권 행사에 관한 것을 비롯하여 위와 같은 결정이 서비 스 이용자에게 미칠 수 있는 부정적인 결과의 관점 에서, 이용자에게 위 결정, 결정 이유 및 결정을 다 툴 수 있는 구제가능성에 관하여 명확하고 쉽게 이 해할 수 있는 방식으로 통지하여야 한다. 그러한 의무는 결정 이유와 관계없이, 특히 신고된 정보가 불법 콘텐츠에 해당하거나 이용약관에 위배된다고 판단되어 조치가 취해졌는지에 관계없이 적용되어 야 한다. 신고 접수 후 결정이 내려진 경우, 호스팅서비스 제공자는 지식재산권 침해와 같이 콘텐츠 의 불법성을 식별하는 데 정보가 필요한 경우 서비 스 이용자에게 신고를 제출한 사람이나 단체의 신 원을 공개하여야 한다.

(55) 가시성 제한은 순위 또는 추천 시스템에서의 강등, 1명 이상 서비스 이용자의 접근 제한 또는 사용자가 모르는 사이 온라인 커뮤니티에서의 사 용자 차단(‘쉐도우 배닝’)으로 구성될 수 있다. 서 비스 이용자가 제공한 정보의 광고 수입을 통한 수 익화는 해당 정보와 관련된 금전적 지불 또는 수입 을 중지하거나 종료함으로써 제한될 수 있다. 그러 나 이유서 제공 의무는 서비스의 의도적 조작, 특 히 봇이나 가짜 계정 사용, 또는 그 밖의 서비스의 기만적 사용과 같이 서비스의 부진정한 사용을 통 해 유포되는 대량의 기만적 상업 콘텐츠에 대해서 는 적용되지 아니한다. 서비스 이용자는 호스팅서 비스 제공자의 결정에 이의를 제기할 수 있는 다른 가능성에 관계없이 언제나 국내법에 따라 법원에 서 효과적인 구제를 받을 권리를 가진다.

(56) 호스팅서비스 제공자는 경우에 따라 신고자 의 신고 또는 자발적 자체 조치를 통해, 호스팅서 비스 제공자가 인지하고 있는 모든 관련 상황을 고 려하여 서비스 이용자가 유럽의회 및 이사회 지침 제2011/36/EU호, 지침 제2011/93/EU호, 지침 (EU) 제2017/541호에 규정된 범죄와 같이 사람 의 생명이나 안전을 위협하는 형사범죄를 범하였 거나 범하고 있거나 범할 수 있다는 의심을 합리적 으로 정당화하는 특정 유형의 불법 콘텐츠 등 서비 스 이용자의 특정 활동과 관련된 정보를 인지할 수 있다. 예를 들어, 콘텐츠의 특정 항목은 지침(EU) 제2017/541호 제21조에서 의미하는 테러 선동과 같이 일반 대중에 대한 위협의 의심을 일으킬 수 있다. 이러한 경우, 호스팅서비스 제공자는 지체 없이 관할 법 집행기관에 위와 같은 의심을 통지하 여야 한다. 호스팅서비스 제공자는 관련된 경우 문 제된 콘텐츠, 가능하다면 해당 표준 시간대를 포함 한 콘텐츠가 게시된 시간, 의심에 대한 설명과 관 련 서비스 이용자를 식별하고 위치를 파악하는 데 필요한 정보를 포함한 이용 가능한 모든 관련 정보 를 제공하여야 한다. 이 규정은 호스팅서비스 제공 자가 형사범죄를 식별하기 위하여 서비스 이용자 의 자료를 수집하는 것에 대한 법적 근거를 제공하 지 아니한다. 또한 호스팅서비스 제공자는 법 집행 기관에 통지함에 있어 개인의 권리와 자유를 보호 하기 위한 그 밖의 유럽연합 법률 또는 국내법의 규칙도 존중하여야 한다.

(57) 과도한 부담을 방지하기 위하여, 소비자가 판 매자와 원격계약을 체결할 수 있도록 하는 플랫폼 을 비롯한 온라인 플랫폼 제공자에게 이 규정에 따 라 부과되는 추가 의무는 권고 제2003/361/EC호 에 정의된 극소기업 또는 소기업에 해당하는 제공 자에게는 적용되지 아니한다. 동일한 이유에서, 그 러한 추가 의무는 이전에 극소기업 또는 소기업에 해당하였던 온라인 플랫폼 제공자에게는 그 지위 를 상실한 후 12개월 동안 적용되지 아니한다. 이 러한 제공자는 설립지 디지털서비스 조정자 또는 집행위원회의 요청에 따라 월평균 활성 서비스 이 용자에 관한 정보를 제공할 의무에서 제외되지 않 는다. 다만, 초대형 온라인 플랫폼 또는 초대형 온 라인 검색엔진은 서비스 이용자가 온라인에서 정 보를 얻고 소통하는 방식에 영향을 미치는 범위가 더 넓고 그 영향력도 더 크다는 점을 고려하여, 그 러한 제공자는 극소기업 또는 소기업에 해당하거 나 최근 해당하였는지 여부와 관계없이 위와 같은 의무 제외의 혜택을 받을 수 없다. 권고 제 2003/361/EC호에 규정된 통합 규칙은 위 추가 의 무의 우회 방지를 보장하는 데 도움이 된다. 이 규 정의 어떠한 내용도 위 추가 의무의 제외가 적용되 는 온라인 플랫폼 제공자가 자발적으로 그러한 의 무 중 하나 이상을 준수하는 시스템을 수립하는 것 을 배제하지 아니한다.

(58) 서비스 이용자는 자신에게 부정적인 영향을 미치는 콘텐츠의 불법성 또는 이용약관 위반에 관 한 온라인 플랫폼 제공자의 특정 결정에 대하여 쉽 게 효과적으로 이의를 제기할 수 있어야 한다. 따 라서 온라인 플랫폼 제공자는 내부 불만처리시스 템을 제공하여야 하고, 위 시스템은 쉽게 접근할 수 있고, 신속하고 비차별적이며 자의적이지 않고 공정한 결과를 도출하는 것을 보장하기 위한 특정 조건을 충족하고, 자동화 수단이 사용되는 경우에 는 인적 개입이 이루어져야 한다. 그러한 시스템은 모든 서비스 이용자가 이의를 제기할 수 있도록 하 여야 하고, 특정한 관련 법률 조항 또는 상세한 법 적 설명의 참조와 같이 형식적인 요건을 설정하여 서는 아니 된다. 이 규정에 따른 신고 및 조치 제도 또는 온라인 플랫폼 제공자의 이용약관 위반 콘텐 츠에 대한 신고 제도를 통해 신고를 제출한 서비스 이용자는 온라인 플랫폼 제공자의 조치가 적절하 지 않다고 판단한 경우를 비롯하여 그 신고에 관한 위 제공자의 결정을 다투기 위해 불만처리제도를 이용할 수 있어야 한다. 결정의 취소를 구하는 이 의 제기는 온라인 플랫폼 제공자가 서비스 이용자 에게 결정을 통지한 시점부터 최소한 6개월 동안 가능하여야 한다.

(59) 또한, 내부 불만처리시스템을 통해 만족스러 운 방식으로 해결될 수 없는 분쟁을 비롯한 분쟁에 관하여 공정하고 신속하며 비용 효율적인 방식으 로 활동을 수행할 수 있는 독립성과 수단, 전문성 을 갖춘 인증된 기관에 의한 소송 외 분쟁해결에 신의성실하게 참여할 가능성에 대한 조항이 마련 되어야 한다. 소송 외 분쟁해결기관의 독립성은 이 해 충돌에 관한 규칙을 포함하여 분쟁해결을 담당 하는 자연인 수준으로도 보장되어야 한다. 소송 외 분쟁해결기관이 부과하는 수수료는 소비자에게 합 리적이고 이용하기 쉬우며 유인성이 있고 저렴하 여야 하고, 비례적이어야 하고, 개별 사건별로 책 정되어야 한다. 소송 외 분쟁해결기관이 관할 디지 털서비스 조정자의 인증을 받은 경우 해당 인증은 모든 회원국에서 유효하여야 한다. 온라인 플랫폼 제공자는 특히 관련 정보, 다툼의 대상인 결정의 근거, 결정의 효과 및 결정을 다투는 근거와 관련 하여 동일한 분쟁이 이미 관할법원 또는 그 밖의 권한 있는 소송 외 분쟁해결기관에서 해결되었거 나 절차가 진행 중인 경우, 이 규정에 따른 소송 외 분쟁해결절차에 참여하는 것을 거부할 수 있다. 서 비스 이용자는 내부 불만처리제도, 소송 외 분쟁해 결, 그리고 어느 단계에서든 사법절차를 개시할 가 능성 가운데 선택할 수 있어야 한다. 소송 외 분쟁 해결절차의 결과에 구속력이 없기 때문에 당사자 가 동일한 분쟁에 대하여 사법절차를 개시하는 것 은 금지되지 아니한다. 이렇게 생성된 온라인 플랫 폼 제공자의 결정을 다툴 가능성은 관련 회원국의 법률에 따른 사법적 구제가능성에 대하여 모든 면 에서 영향을 미치지 않아야 하고, 따라서 헌장 제 47조에 따른 효과적인 사법적 구제에 대한 권리의 행사에 영향을 미치지 않아야 한다. 소송 외 분쟁 해결에 관한 이 규정의 조항은 회원국에 그러한 소 송 외 분쟁해결기구의 설립을 요구하여서는 아니 된다.

(60) 상품이나 서비스 구매에 관한 소비자와 기업 간 계약상 분쟁의 경우, 지침 제2013/11/EU호는 유럽연합 소비자와 유럽연합 내 기업의 품질 공인 된 대안적 분쟁해결기관에 대한 접근을 보장한다. 이러한 점에서 소송 외 분쟁해결에 관한 이 규정의 규칙은 위 지침에 따라 소비자가 절차의 수행이나 운영에 만족하지 못하는 경우 어느 단계에서건 절 차를 철회할 수 있는 소비자의 권리를 포함하여 위 지침을 침해하지 아니함을 명백히 하여야 한다.

(61) 신고 및 조치 제도상 제출된 모든 신고를 적 시에 성실하고 자의적이지 않은 방식으로 처리하 고 결정하여야 한다는 요건을 침해하지 아니하고, 온라인 플랫폼 제공자가 지정된 전문 영역에서 활 동하는 신뢰할 수 있는 신고자가 이 규정에서 요구하는 신고 및 조치 제도를 통해 제출한 신고를 우 선적 취급을 보장하는 데 필요한 조치를 취하는 경 우, 불법 콘텐츠에 대한 조치는 보다 신속하고 확 실하게 처리될 수 있다. 이와 같이 신뢰할 수 있는 신고자의 지위는 신청인이 설립된 회원국의 디지 털서비스 조정자에 의해 부여되고, 이 규정의 범위 내에서 모든 온라인 플랫폼 제공자에 의해 인정되 어야 한다. 이와 같이 신뢰할 수 있는 신고자의 지 위는 무엇보다 불법 콘텐츠를 다루는 데 있어 특별 한 전문성과 능력을 가지고 있고, 성실하고 정확하 며 객관적인 방식으로 업무를 수행한다는 것을 입 증한 개인이 아닌 단체에만 부여되어야 한다. 이와 같은 단체는 테러 콘텐츠의 경우 국내 법 집행기관 또는 유럽연합 법집행협력청(‘유로폴’)의 인터넷 전담 부서와 같이 공공의 성격을 가지고 있거나, 예를 들어, 아동 성적 학대물 신고를 위한 INHOPE 핫라인 네트워크의 조직과 온라인에서 불법 인종 차별과 외국인 혐오 표현을 신고하는 조직과 같이 비정부조직과 민간 또는 반공공기관이 될 수도 있 다. 이러한 제도의 부가가치 감소를 방지하기 위하 여 이 규정에 따라 부여하는 신뢰할 수 있는 신고 자의 전체 수는 제한되어야 한다. 민간 단체 또는 개인이 온라인 플랫폼 제공자와 양자 간 계약을 체 결할 권리를 침해하지 아니하고, 특히 회원의 이익 을 대표하는 산업협회는 신뢰할 수 있는 신고자 지 위 신청이 장려된다.

(62) 신뢰할 수 있는 신고자는 이 규정에 따라 제 출된 신고에 대해 쉽게 이해할 수 있고 상세한 보 고서를 발행하여야 한다. 그러한 보고서는 호스팅 서비스 제공자가 분류한 신고 건수, 콘텐츠 유형, 그리고 제공자가 취한 조치와 같은 정보를 표시하 여야 한다. 신뢰할 수 있는 신고자가 전문성과 능 력을 입증했다는 것을 고려해 볼 때, 신뢰할 수 있 는 신고자가 제출한 신고의 처리는 다른 서비스 이 용자가 제출한 신고에 비해 덜 어렵고 신속할 수 있다. 다만, 평균 처리시간은 불법 콘텐츠의 유형, 신고의 품질, 이러한 신고의 제출을 위해 시행된 실제 기술적 절차를 포함한 요인에 따라 달라질 수 있다. 예를 들어, 2016년 불법 온라인 혐오발언에 대응 하기 위한 행동기준은 불법 혐오발언의 제거를 위 한 유효한 신고를 처리하는 데 필요한 시간과 관련 하여 참여 기업에게 기준을 명시하고 있는 반면, 그 밖의 유형의 불법 콘텐츠는 특정 사실과 상황, 관련된 불법 콘텐츠 유형에 따라 처리 일정이 상당 히 달라질 수 있다. 신뢰할 수 있는 신고자 지위의 남용을 방지하기 위하여 설립지 디지털서비스 조 정자가 정당한 사유에 따라 조사를 개시한 경우 해 당 지위를 정지할 수 있어야 한다. 신뢰할 수 있는 신고자에 대한 이 규정의 규칙은 온라인 플랫폼 제 공자가 이 규정의 신뢰할 수 있는 신고자로 지정되 지 아니한 단체 또는 개인이 제출한 신고를 이와 유사하게 처리하거나, 이 규정과 유럽의회 및 이사 회 규정(EU) 제2016/794호를 비롯한 준거법에 따 라 그 밖의 단체와 협력하는 것을 금지하는 것으로 해석되어서는 아니 된다. 이 규정의 규칙은 온라인 플랫폼 제공자가 신뢰할 수 있는 신고자 또는 이와 유사한 제도를 통해 이용약관을 위반한 콘텐츠, 특 히 미성년자 등 취약 서비스 이용자에게 유해한 콘 텐츠에 대해 신속하고 신뢰할 수 있는 조치를 취하 는 것을 금지하지 아니한다.

(63) 명백히 불법적인 콘텐츠를 빈번하게 제공하 거나 이 규정에 따라 설치된 제도와 시스템에 각각 명백히 근거 없는 신고 또는 불만을 빈번하게 접수 하여 온라인 플랫폼을 오용하는 것은 관련 당사자 의 신뢰를 훼손하고 그 권리와 정당한 이익을 해한 다. 따라서 그러한 오남용에 대한 적절하고 비례적 이며 효과적인 보호 장치를 마련할 필요가 있고, 이는 헌장에 명시된 기본권과 자유, 특히 표현의 자유를 비롯한 모든 관련 당사자의 권리와 정당한 이익을 존중하는 데 필요하다. 콘텐츠가 불법적이 라거나 신고 또는 불만이 근거가 없다는 것이 실질 적인 분석 없이도 일반인에게 명백한 경우, 정보는 명백히 불법적인 콘텐츠로, 해당 신고 또는 불만은 명백히 근거 없는 것으로 본다.

(64) 온라인 플랫폼 제공자는 일정한 조건하에 학 대 행위에 관여한 사람에 관하여 관련 활동을 일시 적으로 중단하여야 한다. 이는 온라인 플랫폼 제공 자가 아동 성적 학대 자료와 같이 중대 범죄와 관 련된 명백히 불법적인 콘텐츠의 경우 이용약관을 결정하고 보다 엄격한 조치를 취할 자유를 침해하 지 아니한다. 투명성을 위하여, 이러한 가능성은 온라인 플랫폼의 이용약관에 명확하고 충분히 상 세하게 명시되어야 한다. 구제조치는 온라인 플랫 폼 제공자가 이와 관련하여 내린 결정에 항상 열려 있어야 하고, 그 결정은 관할 디지털서비스 조정자 의 감독을 받아야 한다. 온라인 플랫폼 제공자는 중단을 결정하기 전에 중단 예정인 사유와 온라인 플랫폼 제공자의 결정에 대한 구제수단이 포함된 사전 경고를 발송하여야 한다. 온라인 플랫폼 제공 자는 중단 결정 시 이 규정의 규칙에 따라 이유서 를 발송하여야 한다. 오남용에 관한 이 규정의 규 칙은 온라인 플랫폼 제공자가 서비스 이용자의 불 법 콘텐츠 제공 또는 이용약관의 위반을 비롯한 그 밖의 서비스 오남용에 대처하기 위하여 유럽연합 준거법과 국내 준거법에 따라 그 밖의 조치를 취하 는 것을 금지하지 아니한다. 이러한 규칙은 유럽연 합 법률 또는 국내법에 규정된 바에 따라 오남용에 관여한 사람을 상대로 손해배상을 비롯한 책임을 물을 가능성을 침해하지 아니한다.

(65) 온라인 플랫폼 제공자의 특정한 책임과 의무 의 관점에서, 이들은 이 규정에 따라 모든 중개서 비스 제공자에게 적용되는 투명성 보고의무에 추 가적으로 적용되는 투명성 보고의무를 부담하여야 한다. 온라인 플랫폼과 온라인 검색엔진이 이 규정 에 따라 일정한 추가 의무가 적용되는 각 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진에 해 당하는지 여부를 결정하기 위하여, 온라인 플랫폼 과 온라인 검색엔진의 투명성 보고의무에는 유럽 연합 내 월평균 활성 서비스 이용자 수에 관한 정 보의 공개와 전달과 관련된 특정 의무가 포함되어 야 한다.

(66) 온라인 플랫폼 제공자의 콘텐츠 조정 결정과 불법 콘텐츠의 온라인 확산에 대한 모니터링의 투 명성을 보장하고 이에 대한 조사를 가능하게 하기 위하여, 온라인 플랫폼 제공자가 정보의 이용 가능 성과 접근을 제거하거나 그 외 제한하는 경우, 집 행위원회는 이들의 결정과 이유서가 포함된 데이 터베이스를 유지하고 공개하여야 한다. 데이터베 이스를 지속적으로 업데이트하기 위하여, 해당 온 라인 플랫폼의 수단상 기술적으로 가능하고 비례 하는 경우 실시간 업데이트가 가능하도록 온라인 플랫폼 제공자는 결정을 내린 후 지체 없이 결정과 이유서를 표준 양식으로 제출하여야 한다. 구조화 된 데이터베이스는 특히 불법 의심 콘텐츠 유형에 대해 관련 정보의 접근과 쿼리를 허용하여야 한다.

(67) 온라인 플랫폼의 온라인 인터페이스상 다크 패턴은 의도적으로 또는 사실상 자율적이고 정보 에 근거한 선택이나 결정을 내리는 서비스 이용자 의 능력을 실질적으로 왜곡하거나 저해하는 관행 이다. 그러한 관행은 서비스 이용자로 하여금 원치 않는 행동 또는 부정적인 결과를 가져오는 희망하 지 않은 결정을 하도록 설득하는 데 사용될 수 있 다. 따라서 온라인 플랫폼 제공자가 온라인 인터페 이스 또는 그 일부의 구조, 설계 또는 기능성을 통 해 서비스 이용자를 기만하거나 유도하고, 서비스 이용자의 자율성, 의사 결정 또는 선택을 왜곡하거 나 저해하는 것은 금지되어야 한다. 여기에는 온라 인 플랫폼 제공자에게 이익이 되지만 이용자의 이 익이 되지 않을 수 있으며, 서비스 이용자에게 결 정을 요청함에 있어 시각, 청각 또는 그 밖의 구성 요소를 통해 특정 선택이 현저하게 드러나게 하는 등 중립적이지 않은 방식으로 선택 가능성을 제시 하여 이용자의 행동을 유도하는 착취적 설계의 선 택을 포함하되, 이에 국한되지 아니한다. 이는 이미 선택이 이루어진 경우에도 서비스 이용 자에 대해 반복적으로 선택을 요청하는 것, 서비스 취소 절차를 가입 절차보다 훨씬 더 복잡하게 만들 거나, 특정 선택을 하는 것이 다른 선택에 비해 더 어렵거나 시간이 더 많이 소요되도록 하는 것, 소 비자가 판매자와 원격계약을 체결할 수 있도록 하 는 특정 온라인 플랫폼에서 구매를 중단하거나 탈 퇴하는 것을 비합리적으로 어렵게 하는 것, 그리고 서비스 이용자의 자율성, 의사 결정 및 선택을 왜곡하고 저해하는 방식으로 서비스 이용자로 하여 금 거래에 관한 결정을 내리도록 유도하거나, 변경 을 매우 어렵게 하여 서비스 이용자의 의사 결정을 비합리적으로 편향시키는 기본 설정을 통해 서비 스 이용자를 기만하는 것이 포함된다. 그러나 다크 패턴을 방지하는 규칙을 제공자가 서비스 이용자 와 직접 상호작용하고 이들에게 신규 또는 추가 서 비스를 제공하는 것을 금지하는 것으로 이해하여 서는 아니 된다. 예를 들어, 광고에서 유럽연합 법 률을 준수하는 합법적 관행 자체는 다크 패턴을 구 성하는 것으로 간주되어서는 아니 된다. 다크 패턴 에 관한 이러한 규칙은 지침 제2005/29/EC호 또 는 규정(EU) 제2016/679호에서 이미 다루지 않 는 범위에서 이 규정의 범위에 속하는 금지된 관행 에 적용되는 것으로 해석되어야 한다.

(68) 온라인 광고는 서비스 제공의 전체 또는 그 일부가 광고 수익을 통해 직간접적으로 보상되는 경우, 온라인 플랫폼 제공을 비롯한 온라인 환경에 서 중요한 역할을 한다. 온라인 광고는 그 자체로 불법 콘텐츠인 광고에서부터 불법적이거나 그 외 유해한 온라인 콘텐츠와 활동의 공개 또는 확산에 대한 금전적 유인에의 기여, 또는 시민의 동등한 대우와 기회에 영향을 미치는 차별적인 광고 노출 에 이르기까지 상당한 위험을 야기할 수 있다. 그 러므로 지침 제2000/31/EC호 제6조에 따른 요건 에 더하여, 온라인 플랫폼 제공자는 서비스 이용자 가 광고가 언제 누구를 대신하여 표시되는지 이해 하는 데 필요한 특정한 개별화된 정보를 가질 수 있도록 하여야 한다. 온라인 플랫폼 제공자는 그러 한 정보가 표준화된 시각적 또는 청각적 표시 등을 통해 두드러지도록 하고, 일반 서비스 이용자가 명확하게 식별할 수 있고 모호하지 않도록 하여야 하 며, 개별 서비스의 온라인 인터페이스 특성에 맞게 조정되도록 보장하여야 한다. 또한 서비스 이용자 는 광고가 노출되는 온라인 인터페이스에서 직접 접근할 수 있는 정보로서, 특정 광고가 자신에게 표시되도록 결정하는 데 사용되는 주요 매개변수 에 관한 정보를 가져야 하고, 이는 프로파일링에 기반한 경우를 비롯하여 위 목적을 위해 사용된 논 리에 관한 유의미한 설명을 제공하여야 한다. 이러한 설명은 광고 표시에 사용된 방법, 예를 들 어, 맥락과 관련된 광고인지 그 밖의 유형의 광고 인지, 그리고 해당하는 경우 사용된 주요 프로파일 링 기준에 관한 정보를 포함하여야 하고. 또한 이 용자가 이러한 기준을 변경할 수 있는 이용 가능한 수단에 대해서도 이용자에게 알려주어야 한다. 광 고와 관련된 정보 제공에 관한 이 규정의 요건은 규정(EU) 제2016/679호의 관련 조항, 특히 이의 를 제기할 권리, 프로파일링을 포함한 자동화된 개 별 의사 결정, 그리고 구체적으로 표적 광고를 위 한 개인정보 처리 전 정보 주체의 동의를 얻을 필 요성을 침해하지 아니한다. 마찬가지로 이는 지침 제2002/58/EC호에서 규정된 조항, 특히 단말장치 의 정보 저장 및 그 안에 저장된 정보에 대한 접근 에 관한 조항을 침해하지 아니한다. 마지막으로 이 규정은 사용자로 하여금 사용자 제작 비디오에 상 업적 시청각 홍보물임을 표시하는 조치를 부과하 는 지침 제2010/13/EU호의 적용을 보충한다. 또한 지침 제2005/29/EC호에서 유래한 상업적 홍 보물의 공개와 관련한 판매자의 의무를 보충한다.

(69) 서비스 이용자에게 이들 관심사에 부합하면 서 이들의 취약성에 잠재적으로 호소하는 데 최적 화된 표적화 기술에 기반한 광고가 표시되는 것은 특별히 심각한 부정적 영향을 미칠 수 있다. 경우 에 따라 조작 기술은 예를 들어, 허위 정보 공작에 기여하거나 특정 집단을 차별하는 방식으로 전체 집단에 부정적 영향을 미치고 사회적 피해를 확산 할 수 있다. 온라인 플랫폼은 특히 그러한 관행에 민감한 환경이고, 사회적 위험이 더 크다. 따라서 온라인 플랫폼 제공자는 규정(EU) 제2016/679호 제4조(4)에 정의된 프로파일링을 기반으로, 위 규 정 제9조(1)에서 정한 개인정보의 특수 범주에 기 반한 프로파일링 범주를 활용하는 것을 포함하여 위 특수 범주를 활용하여 광고를 노출할 수 없다. 이러한 금지는 개인정보 보호에 관한 유럽연합 법 률에 따라 광고 배포와 관련된 온라인 플랫폼 제공 자나 그 밖의 서비스 제공자 또는 광고주에게 적용 되는 의무를 침해하지 아니한다.

(70) 온라인 플랫폼 사업의 핵심은 서비스 이용자 를 위해 정보에 대한 접근을 용이하게 하고 최적화 하기 위하여 온라인 인터페이스에서 정보의 우선 순위를 지정하고 노출하는 방식에 있다. 이는 예를 들어, 정보를 알고리즘에 따라 제안하고 순위를 매 기며 우선순위를 지정하거나, 텍스트 또는 그 밖의 시각적 표시를 통해 구별하거나, 그 박에 이용자가 제공한 정보를 엄선하는 방식으로 이루어진다. 이 와 같은 추천 시스템은 서비스 이용자의 관련 정보 검색을 용이하게 하고 사용자 경험 향상에 기여하 는 것을 포함하여, 온라인으로 정보를 검색하고 상 호작용하는 이용자의 능력에 상당한 영향을 미칠 수 있다. 또한 특정 메시지의 확산, 정보의 바이러 스성 확산, 온라인 행동 촉진에 있어 중요한 역할 을 한다. 따라서 온라인 플랫폼은 서비스 이용자가 추천 시스템이 정보가 표시되는 방식에 어떠한 영 향을 미치는지를 적절히 알고, 정보가 이용자에게 노출되는 방식에 영향을 미칠 수 있도록 지속적으 로 보장하여야 한다. 온라인 플랫폼은 서비스 이용 자가 자신에 대한 정보의 우선순위 지정을 쉽게 이 해할 수 있는 방식으로 추천 시스템의 매개변수를 명확하게 제시하여야 한다. 이러한 매개변수는 프 로파일링 및 온라인 행동에 기반하여 정보의 우선 순위를 정하는 경우를 비롯하여, 서비스 이용자에 게 제안하는 정보를 결정함에 있어 가장 중요한 기 준과 각 매개변수의 중요성에 대한 이유를 최소한 포함하여야 한다.

(71) 미성년자 보호는 유럽연합의 중요한 정책 목 표이다. 온라인 플랫폼의 이용약관에서 미성년자 의 서비스 사용을 허용하는 경우, 그 서비스가 미 성년자를 대상으로 하거나 주로 미성년자에 의해 이용되는 경우, 또는 예를 들어 제공자가 다른 목 적으로 서비스 이용자의 연령이 나타난 개인정보 를 이미 처리하는 등 그 밖의 사유로 일부 서비스 이용자가 미성년자임을 인지한 경우, 그 온라인 플 랫폼은 미성년자가 접근할 수 있는 것으로 본다. 미성년자가 사용하는 온라인 플랫폼의 제공자는, 예를 들어 적절한 경우 미성년자를 위한 최고 수준 의 개인정보 보호, 안전, 보안을 기본값으로 갖춘 온라인 인터페이스 또는 그 일부를 설계하거나 미 성년자 보호 기준을 채택하거나 미성년자 보호를 위한 행동강령에 참여하는 등 미성년자 보호를 위 한 적절하고 비례적인 조치를 취하여야 한다. 제공 자는 집행위원회 통신문 「어린이와 청소년을 위 한 디지털 10년: 아동을 위한 더 나은 인터넷에 관 한 새로운 유럽 전략(BIK+)」에 규정된 바와 같 은 모범사례와 적용 지침을 고려하여야 한다. 온라 인 플랫폼 제공자는 서비스 이용자가 미성년자임 을 합리적으로 확실하게 인지한 경우, 서비스 이용 자의 개인정보를 활용한 프로파일링을 기반으로 광고를 노출하여서는 아니 된다. 규정(EU) 제 2016/679호, 특히 위 규정 제5조(1)(c)에 규정된 데이터 최소화 원칙에 따라 이러한 금지는 온라인 플랫폼 제공자로 하여금 서비스 이용자가 미성년 자인지 판단하기 위하여 온라인 플랫폼 제공자가 이미 보유한 것보다 더 많은 개인정보를 보관, 취 득 및 처리하도록 유도하여서는 아니 된다. 따라서 이러한 의무는 온라인 플랫폼 제공자로 하여금 서 비스 이용자의 서비스 사용 이전에 이들 연령을 수 집하도록 장려하여서는 아니 된다. 이는 개인정보 보호에 관한 유럽연합 법률을 침해하여서는 아니 된다.

(72) 경쟁 판매자와 지식재산권 보유자와 같은 기 타 이해당사자뿐만 아니라 소비자를 위한 안전하 고 신뢰할 수 있으며 투명한 온라인 환경에 기여하 고, 판매자가 준거 규칙에 위배되는 제품이나 서비 스를 판매하는 것을 방지하기 위하여, 소비자가 판 매자와 원격계약을 체결할 수 있도록 하는 온라인 플랫폼은 그러한 판매자를 추적할 수 있도록 하여 야 한다. 따라서 판매자는 소비자가 판매자와 원격 계약을 체결할 수 있도록 하는 온라인 플랫폼 제공 자에게 제품 홍보 메시지 또는 제품 제공과 같은 목적을 포함하는 특정 필수 정보를 제공하여야 한 다. 그러한 요건은 기본 계약을 근거로 브랜드를 대신하여 제품이나 서비스에 대한 메시지를 홍보 하는 판매자에게도 적용되어야 한다. 이러한 온라 인 플랫폼 제공자는 판매자와의 계약기간 동안, 그 리고 이후 6개월 동안 모든 정보를 안전한 방식으 로 저장하여 판매자를 상대로 소송을 제기하거나 판매자와 관련된 명령을 준수할 수 있도록 하여야 한다. 이러한 의무는 공공기관과 적법한 이익이 있는 개 인 당사자가 개인정보 보호에 관한 법률을 포함한 준거법에 따라 이 규정에 따른 정보제공명령 등을 통해 정보에 접근할 수 있도록 하는 데 필요하고 비례적이다. 이 의무는 다른 유럽연합 법률 또는 유럽연합 법률에 따른 국내법에 근거하여 특정 콘 텐츠를 장기간 보존하여야 하는 잠재적 의무에 영 향을 미치지 아니한다. 이 규정에 따른 정의를 침 해하지 아니하고, 지침 제2011/83/EU호 제6조 (a)(1)(b) 및 지침 제2005/29/EC호 제7조(4)(f)를 근거로 식별된 모든 판매자는 그가 자연인이나 법 인인지 여부에 관계없이 온라인 플랫폼을 통해 제 품이나 서비스를 제공하는 경우 추적이 가능하여 야 한다. 지침 제2000/31/EC호는 모든 정보사회 서비스 제공자에 대하여 서비스 이용자와 관할당 국으로 하여금 모든 제공자를 식별할 수 있는 특정 정보에 쉽게 직접적이고 영구적으로 접근할 수 있 도록 할 의무를 부과한다. 이 규정에 명시된 소비 자가 판매자와 원격계약을 체결할 수 있도록 하는 온라인 플랫폼 제공자에 대한 추적 가능성 요건은 다른 합법적인 공익 목적을 추구하는 이사회 지침 (EU) 제2021/514호의 적용에 영향을 미치지 아 니한다.

(73) 과도한 부담을 주지 않으면서 위와 같은 의무 를 효율적이고 적절하게 적용하기 위하여, 소비자 가 판매자와 원격계약을 체결할 수 있도록 하는 온 라인 플랫폼 제공자는 특히 국가 거래 등록청과 부 가가치세 정보 교환 시스템 등 무료로 사용할 수 있는 공식 온라인 데이터베이스와 온라인 인터페 이스를 활용하여 관련 판매자가 제공한 정보의 신 뢰성을 평가하거나, 관련 판매자에게 신분증 사본, 인증된 결제 계정 명세서, 회사 증명서, 사업자 등 록증과 같이 신뢰할 수 있는 근거자료 제공을 요청하기 위하여 최선의 노력을 기울여야 한다. 또한 위 의무를 준수하기 위하여 유사한 수준의 신뢰성 을 제공하는 원격 이용이 가능한 다른 자료를 사용 할 수도 있다. 다만, 해당 온라인 플랫폼 제공자에 게 과도하거나 비용이 많이 드는 온라인 사실조사 에 참여하도록 하거나 현장에서 과도한 검증을 수 행하도록 요구하여서는 아니 된다. 또한 이 규정에 서 요구하는 최선의 노력을 다한 제공자가 소비자 나 다른 이해당사자에 대하여 정보의 신뢰성을 보 장하는 것으로 이해되어서는 아니 된다.

(74) 소비자가 판매자와 원격계약을 체결할 수 있 도록 하는 온라인 플랫폼 제공자는 판매자가 관련 유럽연합 법률에 따른 의무, 특히 유럽의회 및 이 사회 지침 제2011/83/EU호 제6조 및 제8조, 지침 제2005/29/EC호 제7조, 지침 제2000/31/EC호 제5조 및 제6조, 지침 제98/6/EC호 제3조에서 명 시한 요건을 준수할 수 있도록 온라인 인터페이스 를 설계하고 구성하여야 한다. 이를 위해 관련 온 라인 플랫폼 제공자는 이들 서비스를 이용하는 판 매자가 관련 유럽연합 준거법에 따라 온라인 인터 페이스에 완전한 정보를 업로드했는지 여부를 평 가하기 위하여 최선의 노력을 기울여야 한다. 온라 인 플랫폼 제공자는 그러한 정보가 완전하지 않은 한 제품이나 서비스가 제공되지 않도록 하여야 한 다. 이는 관련 온라인 플랫폼 제공자가 이들 서비 스를 통해 판매자가 제공하는 제품이나 서비스를 일반적으로 모니터링할 의무나, 특히 판매자가 제 공한 정보의 정확성을 평가하기 위해 일반적인 사 실조사를 할 의무에까지 이르러서는 아니 된다. 온라인 인터페이스는 사용자 친화적이어야 하고, 판 매자와 소비자가 쉽게 접근할 수 있어야 한다. 추 가적으로, 그리고 판매자의 제품이나 서비스 제공 을 허용한 후, 관련 온라인 플랫폼 제공자는 제공 된 제품이나 서비스가 회원국 또는 유럽연합에서 이용 가능한 공식적이고 자유롭게 접근할 수 있는 기계 판독 형식의 온라인 데이터베이스 또는 온라 인 인터페이스를 통해 불법성이 식별되었는지 여 부를 무작위로 확인하기 위하여 합리적인 노력을 기울여야 한다. 또한 집행위원회는 디지털 서명의 신속응답 코드(또는 ‘QR 코드’)나 대체 불가능 토 큰과 같은 기술 해결책을 통해 제품의 추적성도 장 려하여야 한다. 집행위원회는 표준 개발을 촉진하 여야 하고, 표준이 없는 경우에는 관련 당사자가 수락할 수 있는 시장 주도 해결책의 개발을 촉진하 여야 한다.

(75) 초대형 온라인 플랫폼의 중요성을 감안할 때, 특히 서비스 이용자의 수, 공개 토론, 경제 거래, 그리고 정보, 의견, 아이디어의 공개 확산을 용이 하게 하고 이용자가 온라인으로 정보를 취득하고 전달하는 데 영향을 미치는 데 있어 나타나는 이들 의 영향력으로 인해, 그러한 플랫폼 제공자에게는 모든 온라인 플랫폼에 적용되는 의무 외 추가로 특 정 의무를 부과할 필요가 있다. 초대형 온라인 플 랫폼이 온라인에서 검색할 수 있는 정보를 찾고 생 성하는 데 중요한 역할을 하기 때문에, 초대형 온 라인 검색엔진 제공자에게도 위와 같은 의무를 적용가능한 범위 내에서 부과할 필요가 있다. 이러한 초대형 온라인 플랫폼과 초대형 온라인 검색엔진 제공자의 추가 의무는 그러한 공공정책 문제를 해 결하는 데 필요하고, 동일한 결과를 효과적으로 달 성할 수 있는 덜 제한적인 대체가능 조치도 없다.

(76) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진은 소규모 플랫폼에 의해 야기되는 위험과는 그 범위와 영향에 있어 다른 사회적 위험을 야기할 수 있다. 따라서 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자는 이들의 사회적 영향 에 비례하여 최고 수준의 상당한 주의의무를 부담 하여야 한다. 6개월간 평균으로 산출된 온라인 플 랫폼의 활성 이용자 수 또는 온라인 검색엔진의 활 성 이용자 수가 유럽연합 인구의 상당한 비중에 도 달하면, 온라인 플랫폼 또는 온라인 검색엔진이 지 닌 구조적 위험은 유럽연합 내에 불균형적 영향을 미칠 수 있다. 위 이용자 수가 4,500만 명으로 설 정된 운영 한계점, 즉 유럽연합 인구의 10퍼센트 에 해당하는 수를 초과하는 경우, 이러한 상당한 비중에 도달한 것으로 본다. 이러한 운영 한계점은 최신 상태로 유지되어야 하고, 따라서 집행위원회 는 필요한 경우 위임입법을 채택하여 이 규정의 조 항을 보충할 수 있는 권한을 가져야 한다.

(77) 특정 온라인 플랫폼 또는 온라인 검색엔진의 범위를 결정하기 위하여, 각각의 서비스에 대한 평 균 활성 서비스 이용자 수를 개별적으로 설정할 필 요가 있다. 따라서 온라인 플랫폼의 월평균 활성 이용자 수는 지정된 기간 동안 최소한 1회 온라인 플랫폼의 온라인 인터페이스에 배포된 정보를 보 거나 듣는 등 정보에 노출되는 방식 또는 소비자가 판매자와 원격계약을 체결할 수 있도록 하는 온라 인 플랫폼의 판매자와 같이 정보를 제공하는 방식 으로 서비스를 실제로 이용한 모든 이용자를 반영 하여야 한다. 이 규정의 목적상, 서비스 이용은 온라인 플랫폼에 서 클릭, 댓글 달기, 링킹, 공유, 구매 또는 계약 이 행을 통해 정보와 상호작용하는 것에 국한되지 아 니한다. 따라서 활성 서비스 이용자의 개념은 등록 된 서비스 사용자의 개념과 반드시 일치하는 것은 아니다. 온라인 검색엔진과 관련하여, 활성 서비스 이용자의 개념은 이들 온라인 인터페이스에서 정 보를 보는 사람들을 포함하여야 하지만, 예를 들 어, 온라인 검색엔진에 의해 색인화된 웹사이트의 소유자는 적극적으로 서비스를 이용하지 아니하였 기 때문에 여기에 포함되지 않는다. 활성 서비스 이용자 수는 특정 서비스를 이용하는 모든 고유의 서비스 이용자를 포함하여야 한다. 이를 위해 서로 다른 URL 또는 도메인 이름을 통해 서비스에 접 속하는 경우를 포함하여 웹사이트 또는 애플리케 이션과 같은 다양한 온라인 인터페이스를 사용하 는 서비스 이용자는 가능한 경우 1회만 집계되어 야 한다. 그러나 활성 서비스 이용자의 개념은 온 라인 검색엔진 제공자에 의한 링크 또는 색인화를 통해 온라인 플랫폼 제공자가 호스팅하는 정보를 간접적으로 사용할 수 있도록 하는 다른 중개서비 스 제공자의 서비스 이용자의 우발적인 사용을 포함하지 않아야 한다. 나아가 이 규정은 온라인 플 랫폼 또는 온라인 검색엔진의 제공자가 온라인에 서 개인을 특정하여 추적할 것을 요구하지 아니한 다. 이러한 제공자가 개인정보와 추적을 추가적으 로 처리하지 않고도 봇이나 스크레이퍼와 같은 자 동화된 사용자를 고려하지 않을 수 있는 경우에는, 그렇게 할 수 있다. 활성 서비스 이용자 수의 결정 은 시장과 기술 개발의 영향을 받을 수 있으므로, 집행위원회는 필요한 경우 서비스의 특성과 서비 스 이용자가 이와 상호작용하는 방식을 반영하여 온라인 플랫폼이나 온라인 검색엔진의 활성 이용 자를 결정하는 방법론을 규정한 위임입법을 채택 함으로써 이 규정의 조항을 보충할 수 있는 권한을 가져야 한다.

(78) 플랫폼 경제를 특징 짓는 네트워크 효과의 관 점에서, 온라인 플랫폼 또는 온라인 검색엔진의 사 용자 기반은 역내 시장에 대한 관련 영향과 함께 빠르게 확장되어 초대형 온라인 플랫폼 또는 초대 형 온라인 검색엔진의 수준까지 도달할 수 있다. 단기간에 경험한 기하급수적인 성장, 또는 온라인 플랫폼 또는 온라인 검색엔진이 네트워크 효과, 규 모 및 범위의 경제를 충분히 활용할 수 있게 해주 는 대규모 글로벌 입지와 매출에 의한 경우가 여기 에 해당될 수 있다. 특히 높은 연간 매출액 또는 시 가 총액은 사용자 도달 범위 측면에 있어 빠른 확장성을 나타낼 수 있다. 그러한 경우 설립지 디지 털서비스 조정자 또는 집행위원회는 이 규정의 목 적을 위하여 해당 플랫폼 또는 해당 검색엔진이 각 각 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진으로 지정되어야 하는 시점을 적시에 식별할 수 있도록, 온라인 플랫폼 또는 온라인 검색엔진의 제공자에게 활성 서비스 이용자 수를 보다 자주 보 고하도록 요청할 수 있어야 한다.

(79) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진은 온라인 거래뿐만 아니라 온라인 안전, 여론 및 담론의 형성에 강력한 영향을 미치는 방식으로 사용될 수 있다. 이들이 그 서비스를 설계하는 방 식은 일반적으로 종종 광고 중심의 사업 모델에 유 리하도록 최적화되어 있고, 사회적 문제를 야기할 수 있다. 발생가능한 위험과 사회적, 경제적 피해 를 효과적으로 식별하고 완화하기 위하여 효과적 인 규제와 집행이 필요하다. 따라서 이 규정에 따 라 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 서비스 이용자의 잠재적 오남용뿐 만 아니라 서비스의 설계, 기능 및 사용에서 비롯 되는 구조적 위험을 평가하여야 하고, 기본권 준수 를 위해 적절한 완화조치를 취하여야 한다. 제공자 는 잠재적인 부정적 효과와 영향의 심각성을 결정 함에 있어 잠재적 영향의 심각성과 모든 구조적 위 험의 가능성을 고려하여야 한다. 예를 들어, 잠재 적인 부정적 영향이 많은 사람에게 영향을 미칠 수 있는지 여부나, 잠재적 비가역성, 또는 잠재적 영 향에 이전에 만연한 상황을 시정하고 복원하는 것 이 얼마나 어려운지에 대하여 평가할 수 있다.

(80) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 제공자는 구조적 위험의 네 가지 범주를 심 도 있게 평가하여야 한다. 첫 번째 범주는 아동 성 적 학대 자료의 유포 또는 불법 혐오발언 또는 형 사 범죄에 해당하는 그 외 유형의 서비스 오남용과 같은 불법 콘텐츠 유포, 그리고 위험하거나 위조된 제품 또는 불법으로 거래되는 동물을 포함하여 유 럽연합 법률 또는 국내법에 따라 금지된 제품이나 서비스의 판매와 같은 불법행위와 관련된 위험에 관한 것이다. 예를 들어, 그러한 유포 또는 행위는 불법 콘텐츠에 대한 접근이 특히 광범위한 범위를 가진 계정 또는 그 밖의 증폭 수단을 통해 빠르고 광범위하게 확산될 수 있는 중대한 구조적 위험을 구성할 수 있다. 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자는 정보의 이용약관 위 반 여부에 관계없이 불법 콘텐츠 유포의 위험성을 평가하여야 한다. 이러한 평가는 초대형 온라인 플 랫폼의 서비스 이용자 또는 초대형 온라인 검색엔 진에 의해 색인화된 웹사이트 소유자의 준거법에 따른 이들 행위의 불법성에 대한 개인적 책임을 침 해하지 아니한다.

(81) 두 번째 범주는 서비스가 헌장에 의해 보호되 는 기본권의 행사에 미치는 실제적 또는 예측가능 한 영향에 관한 것으로, 여기에는 인간의 존엄성, 언론의 자유 및 다원주의를 비롯한 표현과 정보의 자유, 사생활권, 데이터 보호, 차별받지 않을 권리, 아동의 권리 및 소비자 보호를 포함하되, 이에 국 한되지 아니한다. 예를 들어, 이러한 위험은 초대 형 온라인 플랫폼 또는 초대형 온라인 검색엔진에 서 사용하는 알고리즘 시스템의 설계와 관련하여, 혹은 신고 제출의 남용 또는 발언을 막거나 경쟁을 방해하는 그 밖의 방법을 통한 서비스 오남용과 관 련하여 발생할 수 있다. 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자는 아동의 권리 에 대한 위험평가 시, 예를 들어 미성년자가 어떻 게 서비스에 의해 미성년자의 건강과 신체적, 정신 적, 도덕적 발달을 저해할 수 있는 콘텐츠에 노출 될 수 있는지 뿐만 아니라 미성년자가 서비스의 설 계와 기능을 쉽게 이해할 수 있는지를 고려하여야 한다. 그러한 위험은, 예를 들어 미성년자의 약점 과 미숙함을 고의적으로 또는 고의 없이 이용하거 나 중독성 행동을 유발할 수 있는 온라인 인터페이 스의 설계와 관련하여 발생할 수도 있다.

(82) 위험의 세 번째 범주는 공공 안전뿐만 아니 라, 민주적 과정, 시민 담론, 그리고 선거 과정에 대한 실제적 또는 예측 가능한 부정적인 영향에 관 한 것이다.

(83) 위험의 네 번째 범주는 초대형 온라인 플랫폼 과 초대형 온라인 검색엔진의 설계, 기능성 또는 조작을 포함한 사용과 관련하여, 공중보건 및 미성 년자 보호와 개인의 신체적, 정신적 건강 또는 젠 더 기반 폭력에 대한 심각한 부정적인 결과에 대한 실제적 또는 예측 가능한 부정적인 영향에 관한 유 사한 우려에서 비롯된다. 그러한 위험은 공중보건 과 관련된 조직화된 허위 정보 공작 또는 서비스 이용자의 행위중독을 자극할 수 있는 온라인 인터 페이스 설계에서도 비롯될 수 있다.

(84) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 제공자는 그러한 구조적 위험 평가 시, 특 히 이들의 추천 시스템과 광고 시스템에 있어 관련 될 수 있는 모든 알고리즘 시스템을 포함하여 위험 에 기여할 수 있는 시스템이나 그 밖의 요소에 초 점을 맞추어야 하고, 관련 데이터 수집과 사용 관 행에 주의를 기울여야 한다. 또한 이들은 콘텐츠 조정 과정, 기술 도구 및 할당된 자원뿐만 아니라 이용약관 및 그 시행이 적절한지 여부도 평가하여 야 한다. 위 제공자는 이 규정에서 식별된 구조적 위험 평가 시, 불법은 아니어도 이 규정에서 식별 된 구조적 위험에 기여하는 정보에도 초점을 맞추 어야 한다. 그러므로 이러한 제공자는 이들 서비스 가 허위 정보를 비롯한 호도하거나 기만적인 콘텐 츠를 유포하거나 확산시키는 데 사용되는 방식에 특별한 주의를 기울여야 한다. 정보의 알고리즘 증 폭이 구조적 위험에 기여하는 경우, 이러한 제공자 는 그 위험평가에서 이를 당연히 반영하여야 한다. 위험이 지역적이거나 언어적 차이가 있는 경우, 이 러한 제공자 역시 그 위험평가에서도 이를 고려하 여야 한다. 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자는 특히 이들 서비스의 의도적 이고 경우에 따라 조직화된 조작 및 사용, 또는 이 용약관의 구조적 위반뿐만 아니라 이들 서비스의 설계와 기능이 어떻게 그러한 위험에 기여하는지 평가하여야 한다. 그러한 위험은 예를 들어 가짜 계정 생성과 같은 서비스의 부진정한 사용, 봇 사 용 또는 서비스의 기만적인 사용, 그리고 그 밖에 자동화되거나 부분적으로 자동화된 행동을 통해 발생할 수 있고, 이는 불법 콘텐츠에 해당하거나 온라인 플랫폼 또는 온라인 검색엔진의 이용약관 을 위반한 정보로서 허위 정보 공작에 기여하는 정 보의 대중에 대한 신속하고 광범위한 전파로 이어 질 수 있다.

(85) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 제공자는 후속 위험평가를 서로 구축하고 식별된 위험의 전개를 제시하며 조사와 시행조치 를 용이하도록 하기 위하여, 위험평가 준비에 관한 정보, 기본 데이터와 알고리즘 시스템 평가에 관한 데이터와 같이 이들이 수행한 위험평가와 관련된 모든 근거자료를 보존하여야 한다.

(86) 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자는 기본권을 준수하여 위험평가에서 식별된 구조적 위험을 성실하게 완화하는 데 필요 한 수단을 도입하여야 한다. 채택된 모든 조치는 이 규정의 주의의무 요건을 준수하여야 하고, 식별 된 특정 구조적 위험을 완화하는 데 합리적이고 효 과적이어야 한다. 위 조치는 기본권에 미치는 잠재 적인 부정적 영향을 충분히 고려하여, 초대형 온라 인 플랫폼 또는 초대형 온라인 검색엔진의 제공자 의 경제적 능력과 서비스 이용의 불필요한 제한을 방지하여야 할 필요성에 비추어 비례적이어야 한 다. 위 제공자는 표현의 자유에 미치는 영향을 특 별히 고려하여야 한다.엔진의 제공자는 기본권을 준수하여 위험평가에서 식별된 구조적 위험을 성실하게 완화하는 데 필요 한 수단을 도입하여야 한다. 채택된 모든 조치는 이 규정의 주의의무 요건을 준수하여야 하고, 식별 된 특정 구조적 위험을 완화하는 데 합리적이고 효 과적이어야 한다. 위 조치는 기본권에 미치는 잠재 적인 부정적 영향을 충분히 고려하여, 초대형 온라 인 플랫폼 또는 초대형 온라인 검색엔진의 제공자 의 경제적 능력과 서비스 이용의 불필요한 제한을 방지하여야 할 필요성에 비추어 비례적이어야 한 다. 위 제공자는 표현의 자유에 미치는 영향을 특 별히 고려하여야 한다.

(87) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 제공자는 그러한 완화조치에 따라 예를 들 어, 온라인 인터페이스 설계와 같이 이들 서비스의 모든 필요한 설계, 특성 또는 기능의 조정을 고려 하여야 한다. 필요에 따라 이용약관에 관한 이 규 정의 규칙에 따라 이들 이용약관을 조정하고 적용 하여야 한다. 그 밖의 적절한 조치는 콘텐츠 조정 시스템과 내부 절차의 조정, 또는 콘텐츠 조정 담 당자, 이들의 교육과 현지 전문성을 포함하여 의사 결정 절차와 자원의 조정을 포함할 수 있다. 이는 특히 신고 처리의 속도와 품질에 관한 것이다. 이 러한 점에서 예를 들어, 2016년 불법 온라인 혐오 발언에 대응하기 위한 행동강령은 불법 혐오발언 의 제거에 관한 유효한 신고를 24시간 이내에 처 리하는 표준을 설정한다. 초대형 온라인 플랫폼, 특히 음란물 콘텐츠의 공개 배포에 주로 사용되는 플랫폼의 제공자는 불법 음란물 콘텐츠를 포함하 여 사이버 폭력을 구성하는 불법 콘텐츠와 관련하 여 이 규정에 따른 모든 의무를 성실히 이행하여야 하고, 특히 은밀하거나 조작된 자료의 무단 공유콘텐츠와 관련하여 피해자가 신속한 신고 처리와 그러한 콘텐츠의 즉각적인 삭제를 통해 본인의 권 리를 효과적으로 행사할 수 있도록 보장하여야 한 다. 그 밖의 유형의 불법 콘텐츠는 주어진 사실, 상 황, 불법 콘텐츠 유형에 따라 신고 처리 일정이 더 길어지거나 짧아질 수 있다. 이러한 제공자는 신뢰 할 수 있는 신고자와 협력을 개시하거나 강화하고, 신뢰할 수 있는 신고자 기관과의 교육 과정과 교류 를 조직할 수 있다.

(88) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 제공자는 이들이 취한 조치의 평가에 있어 성실하여야 하고, 필요한 경우 알고리즘 시스템, 특히 추천 시스템을 조정하여야 한다. 개인 맞춤형 추천의 부정적인 영향을 완화하고, 추천에 사용된 기준을 수정하여야 할 수 있다. 초대형 온라인 플 랫폼과 초대형 온라인 검색엔진의 제공자가 사용 하는 광고 시스템도 구조적 위험의 촉매제가 될 수 있다. 이러한 제공자는 특정 정보에 대한 광고 수 익 중단과 같은 시정조치, 또는 권위 있는 정보원 의 가시성 개선이나 이들 광고 시스템의 보다 구조 적인 조정과 같은 그 밖의 조치를 고려하여야 한 다. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 특히 구조적 위험 탐지와 관련하여 이들의 모든 활동에 대한 내부 절차나 감독을 강화 하고, 신규 기능과 관련하여 보다 빈번하거나 표적화된 위험평가를 실시하여야 할 수 있다. 특히 위 험이 여러 온라인 플랫폼 또는 온라인 검색엔진에 걸쳐 공유되어 있는 경우, 이들은 기존 행동강령 또는 그 밖의 자율규제조치를 개시하거나 이에 가 입하는 등 다른 서비스 제공자와 협력하여야 한다. 특히 위험이 허위 정보 공작과 관련된 경우 인식 제고 조치도 고려하여야 한다.

(89) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 제공자는 특히 서비스가 미성년자를 대상 으로 하거나 주로 미성년자에 의해 이용하는 경우, 이들 서비스와 온라인 인터페이스의 설계 조정과 같은 조치를 취함에 있어 미성년자의 최선의 이익 을 고려하여야 한다. 이들은 해당하는 경우 신고 및 조치 제도와 불만처리제도를 포함한 이 규정에 따른 제도에 미성년자가 쉽게 접근할 수 있도록 서 비스를 구성하여야 한다. 또한 미성년자의 신체적, 정신적 또는 도덕적 발달을 저해할 수 있는 콘텐츠 로부터 미성년자를 보호하는 조치를 취하여야 하 고, 그러한 정보에 대한 조건부 접근을 허용하는 도구를 제공하여야 한다. 제공자는 적절한 완화조 치를 선택함에 있어, 적절한 경우 행동강령과 같은 자율규제 협력을 통해 확립된 업계 모범사례를 고 려할 수 있고, 집행위원회의 지침을 고려하여야 한 다.

(90) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 제공자는 위험평가 및 완화에 대한 이들의 접근방식이 최선의 가용 정보와 과학적 통찰력에 기반하도록 하여야 하고, 위험 및 이들이 취하는 조치의 영향을 가장 많이 받는 집단과 함께 가정을 평가하도록 하여야 한다. 이를 위해 위 제공자는 적절한 경우 서비스 이용자 대표, 서비스의 영향을 잠재적으로 받을 가능성이 있는 집단의 대표, 독립 적인 전문가와 시민사회 단체의 참여하에 위험평 가를 수행하고, 위험완화조치를 설계하여야 한다. 제공자는 적절한 경우 설문 조사, 포커스 그룹, 간 담회, 그 밖의 협의와 설계 방법을 포함한 위험 평 가 및 완화조치 설계를 위한 방법론에 있어 협의를 거치도록 노력하여야 한다. 조치가 합리적이고 비 례적이며 효과적인지 평가함에 있어, 표현의 자유 에 대한 권리를 특별히 고려하여야 한다.

(91) 초대형 온라인 플랫폼 제공자는 위기 상황에 서 이 규정에 따른 이들의 다른 의무를 고려하여 취하는 조치 외에 추가로 긴급하게 특정 조치를 취 해야 할 필요가 있을 수 있다. 이와 관련하여 유럽 연합 또는 유럽연합의 상당 부분에서 공공 안전이 나 공중보건에 심각한 위협을 초래할 수 있는 특수 한 상황이 발생한 경우, 위기가 발생한 것으로 보 아야 한다. 이러한 위기는 새로운 분쟁이나 테러행 위를 포함한 무력 충돌이나 테러행위, 지진과 허리 케인과 같은 자연재해, 전염병과 공중보건에 대한 그 외 심각한 국경 간 위협으로 인해 발생할 수 있다. 집행위원회는 유럽디지털서비스이사회(‘이사 회’)의 권고에 따라 초대형 온라인 플랫폼과 초대 형 검색엔진의 제공자에 긴급 사안으로서 위기 대 응을 개시하도록 요구할 수 있어야 한다. 이러한 제공자가 식별하고 적용을 고려할 수 있는 조치에 는 예를 들어, 콘텐츠 조정 절차의 조정과 콘텐츠 조정 자원의 강화, 이용약관과 관련 알고리즘 시스 템, 광고 시스템의 조정, 신뢰할 수 있는 신고자와 협력 강화, 인식 제고 조치 및 신뢰할 수 있는 정보 의 홍보, 그리고 이들 온라인 인터페이스 설계의 조정이 포함될 수 있다. 필수 요건을 규정함으로 써, 이러한 조치를 최단기간 내에 시행하고, 모든 관련 당사자의 권리와 정당한 이익을 고려하여 위 기대응체계가 엄격히 필요하고 이러한 체계하에 취한 모든 조치가 효과적이고 비례적인 경우 및 그 러한 범위 내에서만 위기대응체계가 사용되도록 보장하여야 한다. 위 체계의 사용은 위험평가와 완 화조치 및 그 시행에 관한 조항, 위기대응규약에 관한 조항 등 이 규정의 다른 조항을 침해하지 아 니한다.

(92) 독립적인 전문가의 검증을 보장하여야 할 필 요성을 감안할 때, 초대형 온라인 플랫폼과 초대형온라인 검색엔진의 제공자는 독립적인 감사를 통 해 이 규정에 명시된 의무를 준수하고, 관련이 있 는 경우 행동강령과 위기대응규약에 따른 보충적 서약을 준수할 책임이 있다. 초대형 온라인 플랫폼 과 초대형 온라인 검색엔진의 제공자는 감사가 적 시에 효과적이고 효율적으로 수행되도록 하기 위 하여, 적절한 경우 알고리즘 시스템과 관련된 데이 터를 비롯하여 감사를 제대로 수행하는 데 필요한 모든 관련 데이터와 장소에 대한 접근을 감사인에 게 제공하고, 구두 또는 서면 질문에 답변하는 등 감사를 수행하는 조직에 필요한 협력과 지원을 제 공하여야 한다. 한다. 감사인은 검증된 연구원의 연구를 포함하여 그 밖의 객관적인 정보원을 활용 할 수 있어야 한다. 초대형 온라인 플랫폼과 초대 형 온라인 검색엔진의 제공자는 감사 수행을 저해 하여서는 아니 된다. 감사는 적절한 경우 감사기준 과 실무지침을 마땅히 고려하여, 업계 모범관행과 높은 직업 윤리, 객관성에 따라 수행되어야 한다. 감사인은 임무 수행 중 취득한 영업비밀과 같은 정 보의 기밀성, 보안 및 무결성을 보장하여야 한다. 이러한 확약은 이 규정상 감사의무의 적용을 회피 하는 수단이 되어서는 아니 된다. 감사인은 위험관 리 분야에서 필요한 전문성과 감사 알고리즘에 대 한 기술적 역량을 갖추어야 한다. 감사인은 적절하 고 신뢰할 수 있는 방식으로 임무를 수행할 수 있 도록 독립적이어야 한다. 감사인은 금지된 비감사 서비스, 강제교체, 고정요율 수수료에 대한 핵심 독립성 요건을 준수하여야 한다. 감사인의 독립성 과 기술적 능력에 의심의 여지가 있는 경우, 이들 은 감사직을 사임하거나 기권하여야 한다.

(93) 감사보고서는 수행한 활동과 도달한 결론에 대한 유의미한 설명을 제공할 수 있도록 입증이 있 어야 한다. 감사보고서는 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자가 이 규정에 따 른 의무를 준수하기 위하여 취한 조치에 대한 정보 를 제공하고, 적절한 경우 이에 대한 개선을 제안 하는 데 도움이 되어야 한다. 위 제공자는 감사보 고서를 받은 후 설립지 디지털서비스 조정자, 집행 위원회, 이사회에 감사보고서를 전달하여야 한다. 또한 제공자는 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자가 감사 권고를 어떻게 처리하였는지를 보여주는 위 제공자의 감사이행보 고서뿐만 아니라, 위험평가와 완화조치에 대한 각 각의 보고서를 감사 완료 시 지체 없이 전달하여야 한다. 감사보고서에는 획득한 감사 증거에서 도출 된 결론에 근거한 감사의견이 포함되어야 한다. 초 대형 온라인 플랫폼 또는 초대형 온라인 검색엔진 의 제공자가 이 규정에 따른 의무를 준수하거나, 또는 해당하는 경우 행동강령 또는 위기대응규약 에 따라, 특히 시스템과 서비스에 의해 유발된 구 조적 위험의 식별, 평가 및 완화에 대한 서약을 준 수한다는 점이 모든 증거에 나타나는 경우, ‘긍정 의견’이 부여되어야 한다. 감사인이 감사 결과에 실질적인 영향을 미치지 않는 의견을 포함시키고 자 하는 경우, ‘긍정의견’에 의견이 첨부되어야 한 다. 감사인이 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자가 이 규정 또는 서약을 준수하지 않는다고 판단하는 경우, ‘부정의견’이 부여되어야 한다. 감사의견이 감사의 범위에 속하는 특정 요소에 대한 결론에 도달할 수 없는 경우, 이러한 결론에 도달하지 못한 이유에 대한 설명이 감사의견에 포함되어야 한다. 해당하는 경우, 보고 서는 감사할 수 없는 특정 요소에 대한 설명과 이 를 감사할 수 없는 이유에 대한 설명을 포함하여야 한다.

(94) 위험평가 및 완화에 대한 의무는 사안에 따 라, 특히 정보보호법에 따른 조정이 필요한 경우와 규정(EU) 제2016/679호 제9조에서 정한 개인정 보의 특수 범주를 기반으로 정보가 개인화된 때 초 대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자가 추천 시스템의 설계를 평가하고 필요한 경우 이를 조정할 필요성을 촉발시켜야 하는데, 예 를 들어 취약한 상황에 처한 사람에 대한 차별로 이어지는 편향을 방지하거나 최소화하는 조치를 취할 수 있다. 추가로, 그리고 추천 시스템과 관련 하여 온라인 플랫폼에 적용되는 투명성 의무를 보 완하기 위하여, 초대형 온라인 플랫폼과 초대형 온 라인 검색엔진의 제공자는 서비스 이용자가 이들 추천 시스템의 주요 매개변수에 있어 규정(EU) 제 2016/679호에서 의미하는 프로파일링에 기반하 지 않은 대안적 선택을 누릴 수 있도록 지속적으로 보장하여야 한다. 그러한 선택은 추천이 표시된 온 라인 인터페이스에서 직접 접근할 수 있어야 한다.

(95) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진에서 사용하는 광고 시스템은 플랫폼 또는 검 색엔진의 인터페이스 내부와 외부 행동을 기반으 로 서비스 이용자를 표적화하여 도달할 수 있는 규 모와 능력으로 인하여 특정 위험을 내포하고 있고 추가적인 공공 규제 감독이 필요하다. 초대형 온라 인 플랫폼 또는 초대형 온라인 검색엔진은 예를 들 어 공중보건, 공공 보안, 시민 담론, 정치 참여 및 평등에 실질적이고 예측 가능한 부정적인 영향을 미치는 불법 광고 또는 조작 기술과 허위 정보와 관련된 온라인 광고 배포로 인하여 발생하는 새로 운 위험에 대한 감독과 연구를 용이하도록 하기 위 하여 이들 온라인 인터페이스에 노출되는 광고 저 장소에 대한 공개 접근을 보장하여야 한다. 저장소 는 제품, 서비스 또는 브랜드의 이름과 광고 주제 를 포함한 광고 내용, 광고주 및 광고주와 광고 비 용을 지불한 자연인이나 법인이 다른 경우에는 그 자연인이나 법인, 특히 표적 광고가 관련된 경우 광고 전달에 관한 각 관련 데이터를 포함하여야 한 다. 특히 미성년자와 같이 취약한 상황의 사람에게 광고가 전달되는 경우 표적화 기준과 전달 기준에 대한 정보를 모두 포함하여야 한다.

(96) 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 이 규정에 따른 의무 준수 여부를 적절히 모니터링하고 평가하기 위하여, 설립지 디지털서 비스 조정자 또는 집행위원회는 알고리즘에 대한 데이터를 포함하여 특정 정보에 대한 접근 또는 보 고를 요구할 수 있다. 그러한 요구사항에는 예를 들어, 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 시스템이 야기할 수 있는 위험과 예상 피해를 평가하는 데 필요한 데이터, 적절한 경우 훈련 데이터, 알고리즘을 비롯한 콘텐츠 조정을 위 한 알고리즘 시스템, 추천 시스템 또는 광고 시스 템의 정확성, 기능, 평가에 관한 데이터, 또는 이 규정에서 의미하는 콘텐츠 조정 또는 내부 불만처 리시스템의 처리와 출력 데이터가 포함될 수 있다. 이러한 데이터 접근 요청은 개별 서비스 이용자의 다른 유럽연합 또는 국내 준거법 준수 여부를 판단 할 목적으로 개별 서비스 이용자에 대한 특정 정보 를 생산하라는 요청을 포함하여서는 아니 된다. 온 라인 구조적 위험의 진화와 심각성에 관한 연구원 의 조사는 정보 비대칭을 메우고, 탄력적인 위험 완화 시스템을 구축하며, 온라인 플랫폼 제공자, 온라인 검색엔진 제공자, 디지털서비스 조정자, 그 밖의 관할당국, 집행위원회, 일반 대중에게 정보를 제공하는 데 특히 중요하다.

(97) 따라서 이 규정은 지침(EU) 제2019/790호 제2조에서 의미하는 연구기관에 소속된 검증된 연 구원으로 하여금 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 데이터에 대한 접근을 할 수 있 도록 하는 체계를 제공하고, 이 규정의 목적을 위 하여 공익 사명을 주된 목적으로 하여 과학 연구를 수행하는 시민사회 단체가 여기에 포함될 수 있다. 그러한 체계에 따른 모든 데이터 접근 요청은 비례 적이어야 하고, 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진, 그리고 서비스 이용자를 비롯한 다른 모든 관련 당사자의 개인정보, 영업비밀, 그 밖의 기밀 정보 보호를 포함한 권리와 정당한 이익 을 적절히 보호하여야 한다. 다만, 이 규정의 목적 을 달성하기 위하여, 제공자의 상업적 이익에 대한 고려를 이유로 이 규정을 따른 요청의 특정 연구 목적상 필요한 데이터에 대한 접근 제공을 거부하 여서는 아니 된다. 이러한 점에서, 유럽의회 및 이 사회 지침(EU) 제2016/943호를 침해하지 않으면 서, 제공자는 연구자에게 필요한 경우 데이터 보관 소와 같은 기술적 보호조치를 취하는 것을 포함하 여 적절한 접근을 보장하여야 한다. 예를 들어, 데 이터 접근 요청은 조회 수 또는 관련된 경우 초대 형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자가 콘텐츠를 삭제하기 전에 서비스 이용자 의 콘텐츠에 대한 기타 유형의 접근을 포함할 수 있다.

(98) 추가로, 데이터가 공개적으로 접근 가능한 경 우, 이러한 제공자는 적절한 기준 일부를 충족하는 연구원이 구조적 위험의 탐지, 식별, 이해에 기여 하는 연구 목적으로 위 데이터를 활용하는 것을 금 지하여서는 아니 된다. 제공자는 이러한 연구원에 게 기술적으로 가능한 경우 실시간 공개적으로 접 근 가능한 데이터, 예를 들어 서비스 이용자의 반 응, 공유, 댓글 수와 같은 노출 수 및 참여 데이터 를 포함하여 공개 페이지, 공개 집단 또는 공인의 콘텐츠와의 집계된 상호작용 에 대한 접근을 제공하여야 한다. 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자는 연구원과 협력하고, 행동강령 또는 위기대응규약 에 따라 합의된 서약과 절차를 비롯한 자발적인 노 력을 통해 사회적 문제를 모니터링하기 위하여 데 이터에 대한 광범위한 접근을 제공하도록 장려되 어야 한다. 이러한 제공자와 연구원은 개인정보 보 호에 특별한 주의를 기울여야 하고, 모든 개인정보 처리에 있어 규정(EU) 제2016/679호를 준수할 것 을 보장하여야 한다. 제공자는 개인정보를 익명화 하거나 가명 처리하여야 하고, 다만 이로 인해 추 구하는 연구 목적을 달성할 수 없는 경우에는 예외 로 한다..

(99) 도입된 시스템 기능의 복잡성과 시스템이 사회에 미치는 구조적 위험을 감안할 때, 초대형 온 라인 플랫폼과 초대형 온라인 검색엔진의 제공자 는 위 제공자의 운영 기능으로부터 독립적인 준법 감시기능을 설치하여야 한다. 준법감시 책임자는 위 제공자의 경영진에게 직접 이 규정의 미준수 우 려 등에 관하여 보고하여야 한다. 준법감시기능의 일부인 준법감시인은 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 조직 내에서 조치를 운용하고 이 규정의 준수를 모니터링하는 데 필요한 자격, 지식, 경험 및 능력을 갖추어야 한 다. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 위험평가와 완화 전략, 특정 조치, 해당하는 경우 제공자가 참여한 행동강령과 위기 대응규약에 따른 제공자의 서약 준수 여부에 대한 평가를 비롯한 이 규정과 관련한 모든 사안에 대해 준법감시기능이 적시에 적절히 개입되도록 하여야 한다.

(100) 위 제공자의 활동과 관련된 추가 위험과 이 규정에 따른 추가 의무를 고려하여, 특별히 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공 자에게는 특히 수행된 위험평가와 이 규정에 따라 채택된 후속 조치에 대한 포괄적인 보고를 위하여 추가적으로 투명성 요건이 적용되어야 한다.

(101) 집행위원회는 이 규정에 따른 임무 수행을 위해 인력, 전문성, 재정적 수단에 있어 필요한 모 든 자원을 보유하여야 한다. 이 규정에 따라 유럽 연합 차원의 적절한 감독에 필요한 자원의 이용 가 능성을 확보하기 위하여, 그리고 회원국이 자국 영 토 내 설립된 제공자에게 자국의 관할당국이 행사 하는 감독과 집행업무에 따른 감독분담금을 청구 할 권한이 있어야 한다는 점을 고려하여, 집행위원 회는 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진에 연 단위로 책정한 수준의 감독분담금을 청 구하여야 한다. 연간 감독분담금 총 부과액은 집행 위원회가 이 규정에 따라 감독 임무를 수행하는 데 발생한 총 비용을 사전에 합리적으로 추정한 바에 따라 설정되어야 한다. 그러한 총액에는 초대형 온 라인 플랫폼과 초대형 온라인 검색엔진의 지정 또 는 이 규정에 따라 예상되는 데이터베이스의 설치, 유지 및 운영과 관련된 비용을 포함하여, 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공 자에 대한 감독, 조사, 집행, 모니터링에 관한 특정 권한과 임무의 행사와 관련된 비용이 포함되어야 한다. 또한 초대형 온라인 플랫폼과 초대형 온라인 검색 엔진의 규모와 도달 범위의 관점에서 이들이 아래 제도적 인프라를 지원하는 데 필요한 자원에 상당 한 영향을 미친다는 사실을 고려하여, 위 총액에는 디지털서비스 조정자, 이사회, 집행위원회 간의 협 력을 위한 기본 정보와 제도적 인프라의 설치, 유 지 및 운영과 관련된 비용도 포함되어야 한다. 총 액의 추정은, 해당하는 경우 전년도에 부과된 개별 연간 감독분담금을 초과한 비용을 포함하여 전년 도에 발생한 감독분담금을 고려하여야 한다. 연간 감독분담금에서 발생하는 외부 지정 수익은 계약 기관과 파견된 국내 전문가와 같은 추가 인력과 이 규정에 따라 집행위원회에 위임된 임무 수행과 관 련된 그 밖의 지출에 자금을 조달하는 데 사용될 수 있다. 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자에게 부과되는 연간 감독분담금 은 유럽연합 내 활성 서비스 이용자 수로 반영되 는 서비스의 규모에 비례하여야 한다. 나아가 개별 연간 감독분담금은 지정된 서비스 제공자의 경제 적 능력을 고려하여 각 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 상한선을 초 과하지 않아야 한다.

(102) 기술적 수단을 통한 이행이 요구될 수 있는 이 규정의 의무를 효과적이고 일관되게 적용하기 위해서는 특정 기술 절차를 다루는 임의표준을 촉 진하는 것이 중요한데, 여기에 업계는 응용 프로그 래밍 인터페이스(API), 또는 이용약관 관련 표준 이나 감사 관련 표준, 또는 광고 저장소의 상호운 용성 관련 표준을 포함하여 신고 제출의 허용과 같이 이 규정을 준수하기 위하여 중개서비스 제공자 를 지원하는 표준화 수단을 개발하는 데 도움을 줄 수 있다. 또한 그러한 표준은 온라인 광고, 추천 시 스템, 접근성, 온라인 미성년자 보호와 관련된 표 준을 포함할 수 있다. 중개서비스 제공자는 표준을 자유롭게 채택할 수 있지만, 그 채택을 이 규정을 준수한 것으로 추정할 수 없다. 동시에 이러한 표 준은 모범사례를 제공함으로써 상대적으로 소규 모의 중개서비스 제공자에 특히 유용할 수 있다. 적절한 경우 서로 다른 유형의 불법 콘텐츠 또는 서로 다른 유형의 중개서비스에 따라 적용되는 표 준은 서로 다를 수 있다.

(103) 집행위원회와 이사회는 이 규정의 적용에 기여하기 위하여 자발적인 행동강령의 작성과 그 조항의 이행을 장려하여야 한다. 집행위원회와 이 사회는 행동강령이 달성하고자 하는 공익 목표의 성격을 명확하게 정의하고, 그러한 목표 달성에 대 한 독립적인 평가체계를 갖추며, 관련 관할당국의 역할을 명확하게 정의하도록 하여야 한다. 보안, 사생활 및 개인정보 보호에 대한 부정적인 영향을 방지하고, 일반적인 모니터링 의무 부과를 금지하 는 데 특별한 주의를 기울여야 한다. 행동강령의 이행은 평가가능하고 공공기관의 감독을 받아야 하는 반면, 행동강령의 자발적 성격과 관련 당사자 의 참여 여부를 결정할 자유를 침해하여서는 아니 된다. 특정 상황에서 초대형 온라인 플랫폼이 그 작성에 협력하고, 특정 행동강령을 준수하는 것이 중요하다. 이 규정의 어떠한 내용도 다른 서비스 제공자가 동일한 행동강령에 참여함으로써, 동일한 실사 기준을 준수하고 모범사례를 채택하며 집 행위원회와 이사회가 제공한 지침의 혜택을 받는 것을 금지하지 아니한다.

(104) 이 규정이 이러한 행동강령에서 고려할 특 정 영역을 식별하는 것이 적절하다. 특히 특정 유 형의 불법 콘텐츠에 대한 위험완화조치는 자체 및 공동 규제 계약을 통해 모색되어야 한다. 또한 허 위 정보 또는 조작 및 학대 행위 또는 미성년자에 대한 부정적인 영향과 같이 사회와 민주주의에 미 치는 구조적 위험의 잠재적인 부정적 영향도 고려 해야 하는 또 다른 영역이다. 여기에는 경우에 따 라 경제적 이익을 얻기 위한 목적으로, 특히 미성 년자와 같이 취약한 서비스 이용자에게 유해한 의 도적으로 부정확하거나 호도하는 정보의 생성을 위하여 봇이나 가짜 계정을 사용하는 것과 같이 허 위 정보를 비롯한 정보의 증폭을 목표로 하는 조정 된 작업이 포함된다. 그러한 영역과 관련하여, 초 대형 온라인 플랫폼 또는 초대형 온라인 검색엔진 이 행동강령을 고수하고 준수하는 것은 적절한 위 험완화조치로 볼 수 있다. 온라인 플랫폼 또는 온 라인 검색엔진의 제공자가 행동강령의 적용에 참 여하라는 집행위원회의 요구를 합당한 설명 없이 거부하는 것은, 관련이 있는 경우 온라인 플랫폼 또는 온라인 검색엔진의 이 규정에 따른 의무 위반 을 결정하는 데 고려될 수 있다. 행동강령에 참여 하거나 이행한다는 사실 자체만으로는 이 규정을 준수하였다고 추정할 수 없다.

(105) 행동강령은 장애인에 의한 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 예측 가능한 사용을 용이하게 하기 위하여, 유럽연합 법률과 국 내법에 따라 초대형 온라인 플랫폼과 초대형 온라 인 검색엔진의 접근성을 용이하게 하여야 한다. 특 히, 행동강령은 정보가 인식 가능하고, 작동 가능 하며, 이해할 수 있고, 견고한 방식으로 표시되고, 이 규정에 따라 제공되는 양식과 조치가 장애인이 쉽게 찾고 접근할 수 있는 방식으로 제공되도록 할 수 있다.

(106) 이 규정에 따른 행동강령상 규칙은 제품 안 전 서약, 인터넷 위조상품 판매에 관한 양해각서, 불법 온라인 혐오발언에 대응하기 위한 행동기준, 허위 정보에 대한 실천강령을 비롯한 유럽연합 차 원에서 이미 확립된 자율규제노력의 근거가 될 수 있다. 특히 허위 정보에 대한 실천강령의 경우, 집 행위원회의 지침에 따라 유럽 민주주의 실행계획 에서 발표된 바와 같이 강화되었다.

(107) 온라인 광고의 제공은 일반적으로 광고 게 시자와 광고주를 연결하는 중개서비스를 포함하여 여러 행위자가 개입된다. 행동강령은 특히 관련 정 보의 전송 양식과 관련하여, 이러한 의무의 준수를 촉진하고 강화하도록 유연하고 효과적인 체계를 제공하기 위하여 이 규정에 명시된 온라인 플랫폼 의 제공자, 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자에 대하여 광고와 관련된 투명 성 의무를 지원하고 보완하여야 한다. 여기에는 온 라인 플랫폼의 온라인 인터페이스에 노출되는 광 고를 대리한 자연인이나 법인이 광고 비용을 지불 하는 광고주와 다른 경우 그 광고주에게 정보 전달 을 용이하게 하는 것을 포함하여야 한다. 행동강령 은 데이터 수익화에 관한 유의미한 정보가 가치사 슬 전체에서 적절히 공유되도록 보장하는 조치도 포함하여야 한다. 광범위한 이해관계자의 개입은 투명성 의무가 이들 목표를 달성할 수 있도록 그러 한 행동강령을 광범위하게 지원하고 기술적으로 건전하며 효과적이고 최고 수준의 사용자 친화성 을 제공하도록 보장하여야 한다. 집행위원회는 행 동강령의 실효성을 보장하기 위하여 행동강령 입 안 시 평가체계를 포함하여야 한다. 적절한 경우 집행위원회는 유럽연합 기본권청 또는 데이터보호 감독기구에 해당 행동강령에 관한 의견을 요청할 수 있다.

(108) 초대형 온라인 플랫폼과 초대형 온라인 검 색엔진에 대한 위기대응체계에 추가하여, 집행위 원회는 온라인 환경에서 신속하고 집단적이며 국 경 간 대응을 조율하기 위한 자발적인 위기대응규 약의 입안을 개시할 수 있다. 예를 들어, 온라인 플 랫폼이 불법 콘텐츠 또는 허위 정보의 급속한 확산 을 위해 오남용되는 경우, 또는 신뢰할 수 있는 정 보의 신속한 보급이 필요한 경우가 이에 해당할 수 있다. 우리 사회에서, 그리고 국경을 넘어 정보를 배포함에 있어서의 초대형 온라인 플랫폼의 중요 한 역할에 비추어 볼 때, 이러한 플랫폼 제공자는 특정 위기대응규약을 작성하고 적용하도록 권고되 어야 한다. 위기대응규약은 제한된 기간 동안만 적 용되고, 채택된 조치도 특수한 상황을 해결하는 데 필요한 것으로 엄격하게 제한되어야 한다. 이러한 조치는 이 규정에 부합하여야 하고, 이에 참여하는 초대형 온라인 플랫폼과 초대형 온라인 검색엔진 의 제공자에게 이들이 전송 또는 저장하는 정보를 모니터링하거나 불법 콘텐츠가 의심되는 사실이나 상황을 적극적으로 조사해야 하는 일반적 의무를 부과하는 데 이르지 않아야 한다.

(109) 이 규정에 명시된 의무의 적절한 감독과 집 행을 보장하기 위하여, 회원국은 이 규정의 적용을 감독하고 시행할 임무를 지닌 하나 이상의 관할기 관을 지정하여야 하고, 다만 기존 관할기관을 지정 할 가능성과 국내법에 따른 법적 형태를 침해하지 아니한다. 그러나 회원국은 예를 들어, 전기통신 규제 기관, 미디어 규제 기관 또는 소비자 보호 기 관 등 기존 기관에 권한을 부여할 수 있는 특정 부 문과 같이 이 규정의 적용과 관련된 특정 감독 또 는 집행 임무와 권한을 하나 이상의 관할당국에 위 임할 수 있어야 하고, 이로써 국내 헌법, 조직, 행 정구조를 반영하여야 한다. 임무 수행에 있어 모든 관할당국은 혁신을 촉진하는 안전하고 예측 가능 하며 신뢰할 수 있는 온라인 환경을 위한 조화 규 제 및 특히 다양한 범주의 중개서비스 제공자에 적 용되는 상당한 주의의무가 소비자 보호 원칙을 비 롯한 헌장에 명시된 기본권의 실질적 보호를 위해 효과적으로 감독되고 집행되도록 함으로써, 이 규 정의 목표 달성, 즉 중개서비스 역내 시장의 정상 적 기능에 기여하여야 한다. 이 규정은 회원국이 관할당국에 특정 콘텐츠 항목의 합법성을 판단할 임무를 부여할 것을 요구하지 아니한다.

(111) 디지털서비스 조정자와 이 규정에 따라 지 정된 그 밖의 관할당국은 이 규정에 명시된 권리와 의무의 실효성과 목표 달성을 보장함에 있어 중요 한 역할을 한다. 따라서 이러한 관할당국이 모든 유럽연합 시민의 이익을 위해 관할에 속하는 모든 중개서비스 제공자를 감독하기 위하여 재정적, 인 적 자원을 비롯한 필요한 수단을 갖추도록 보장할 필요가 있다. 중개서비스 제공자의 다양성과 이들 서비스의 제공에 있어서의 첨단 기술의 사용을 고 려해 볼 때, 디지털서비스 조정자와 관련 관할당국 이 전문 기술과 고급 기술 수단을 갖춘 필요한 수 의 피고용인 및 전문가를 갖추고, 이들 임무의 수 행을 위하여 자율적으로 재원을 관리하는 것 역시 필수적이다. 나아가 자원의 수준은 이들 관할에 속 하는 중개서비스 제공자의 규모, 복잡성 및 잠재적 인 사회적 영향과 유럽연합 전역의 서비스 범위를 고려하여야 한다. 감독분담금이 해당 회원국에 주 사업장이 소재한 중개서비스 제공자에게 부과되 고, 집행위원회에 부여된 임무를 제외한 이 규정에 따른 관할당국의 임무 수행에 따른 비용을 충당하 는 데 필요하고 비례하는 것으로 엄격하게 제한되 며, 이러한 감독분담금의 부과와 사용에 대해 적절 한 투명성이 보장되는 한, 이 규정은 회원국이 유 럽연합 법률에 따른 국내법에 따라 중개서비스 제 공자에게 부과되는 감독분담금을 기반으로 자금 조달 체계를 수립할 수 있는 가능성을 침해하지 않 는다.

(112) 또한 이 규정에 따라 지정된 관할당국은 정 부를 포함하여 지시를 구하거나 받을 의무나 가능 성 없이, 그리고 다른 관할당국, 디지털서비스 조 정자, 이사회, 집행위원회와 협력해야 하는 특정 의무를 침해하지 아니하고 민간 또는 공공기관으 로부터 완전히 독립되어 활동하여야 한다. 한편, 이러한 관할당국의 독립성은 국가 헌법에 따라, 그 리고 이 규정의 목적 달성을 저해함이 없이 재정 지출 또는 국회 보고와 같은 디지털서비스 조정자 의 일반적인 활동에 대한 비례적 책임 제도가 적용 되지 않는다는 의미가 아니다. 또한 독립성 요건은 사법심사의 행사 또는 해당하는 경우 각각의 권한 행사에 대한 영향 없이 진행 중인 조사에 대한 정 보를 교환하기 위하여 법 집행기관, 위기 관리 기 관 또는 소비자 보호 기관을 비롯한 다른 국가기관 과 협의하거나 정기적으로 의견을 교환하는 기회 를 금지하지 아니한다.

(113) 회원국은 디지털서비스 조정자의 기능을 갖 거나 이 규정의 적용을 감독하고 집행하는 특정 임 무를 지닌 기존 국가기관을 지정할 수 있고, 다만 그렇게 지정된 기관은 독립성과 관련하여 이 규정 에서 명시한 요건을 준수하여야 한다. 또한 회원국 이 유럽연합 법률에 따라 기존 기관 내에서 기능을 병합하는 것은 원칙적으로 금지되지 않는다. 그러 한 취지의 조치에는 해임이 해당 구성원의 독립성 과 공평성을 위태롭게 하지 아니한다는 것을 보장 하는 규칙이 없는 상황에서, 특히 하나의 기관 내 에서 다른 기능의 병합을 수반하는 제도적 개혁이 있다는 근거만으로 임기 만료 전에 기존 기관의 회 장 또는 이사회 구성원을 해임하는 것에 대한 금지 가 포함될 수 있다.

(114) 회원국은 디지털서비스 조정자와 이 규정에 따라 지정된 그 밖의 관할당국에게 부여된 임무에 따라 효과적인 조사와 집행을 보장할 수 있는 충분 한 권한과 수단을 제공하여야 한다. 여기에는 관할 당국이 심각한 피해의 위험이 있는 경우 국내법에 따라 임시조치를 채택할 수 있는 권한이 포함된다. 위반 혐의의 종료 또는 제거 명령을 포함할 수 있 는 이러한 임시조치는 종국결정 전까지 심각한 피 해를 방지하는 데 필요한 수준을 초과하여서는 아 니 된다. 디지털서비스 조정자는 다른 회원국이나 집행위원회의 관할권에 소재하는 제공자에 대한 감독과 집행조치가 해당 회원국의 디지털서비스 조정자에 의해, 관련이 있는 경우 국경 간 협력과 관련된 절차 또는 해당하는 경우 집행위원회가 개시한 절차에 따라 채택되어야 한다는 사실을 고려 하여, 공동 조사의 맥락을 포함하여 특히 그 영토 내 정보를 검색하고 취득할 수 있어야 한다.

(115) 회원국은 유럽연합 법률, 특히 이 규정과 헌 장에 따라 디지털서비스 조정자와 이 규정에 따라 관련 있는 경우 다른 관할당국의 조사와 집행에 관 한 권한 행사에 대한 세부 조건과 한계를 국내법에 명시하여야 한다.

(116) 관할당국은 권한을 행사하는 과정에서 특정 부지 출입을 위한 사전 법적 허가와 비밀유지특권 의 필요성과 같은 절차 및 사안에 대해 적용되는 국내 규칙을 준수하여야 한다. 그러한 조항은 특히 방어권과 사생활을 존중받을 권리를 포함하여 효 과적인 구제 및 과 공정한 재판에 관한 기본권에 대한 존중을 보장하여야 한다. 이러한 점에서 이 규정에 따른 집행위원회의 절차와 관련하여 제공 되는 보장은 적절한 참고기준이 될 수 있다. 종국 결정을 내리기 전까지 관련 당사자의 청문권과 자 료 열람권을 포함하여 공정하고 공평한 절차가 보 장되어야 하고, 이와 동시에 결정에 대해 유의미한 이유를 제공할 의무뿐만 아니라 기밀성과 직무상 및 영업상 비밀 유지를 존중하여야 한다. 그러나 이로 인해 합당하게 입증된 긴급 상황에서 적절한 조건과 절차적 합의에 따라 조치를 취하는 것이 배 제되어서는 아니 된다. 권한의 행사는 특히 위반 또는 위반 혐의로 인한 성격과 전체적인 실제 또는 잠재적 피해에 비례하여야 한다. 관할당국은 다른 회원국의 관할당국이 수집한 정보를 포함하여 사 건의 모든 관련 사실과 상황을 고려하여야 한다.

(117) 회원국은 위반의 성격, 심각성, 재발 여부, 기간을 고려하여, 추구하는 공익, 수행된 활동의 범위 및 종류, 위반자의 경제적 능력의 관점에서 이 규정에서 명시한 의무 위반에 대해 효과적이고 비례적이며 억지력이 있는 방식으로 제재가 이루 어지도록 하여야 한다. 특히 제재금은 관련 중개서 비스 제공자가 이 규정에 따른 의무를 구조적으로 또는 반복적으로 위반하고 있는지, 관련 있는 경우 영향을 받는 서비스 이용자의 수, 위반의 고의적 또는 과실적 성격, 그리고 제공자가 여러 회원국에 걸쳐 활동하고 있는지 여부도 고려하여야 한다. 이 규정에서 과징금 또는 이행강제금의 상한액을 규 정하고 있는 경우, 위 상한액은 이 규정의 각 위반 에 대하여 특정 위반에 대한 과징금 또는 이행강제 금의 조정을 침해하지 아니하고 적용되어야 한다. 회원국은 과징금 또는 이행강제금 부과의 일반 조 건에 관한 모든 기준을 고려하여 이 규정에 따른 국내 규칙 및 절차를 정함으로써 위반에 대한 과징금 또는 이행강제금 부과가 각 개별 사건에서 효과 적이고 비례적이며 억지력을 갖도록 하여야 한다.

(118) 이 규정에 명시된 의무의 효과적인 집행을 보장하기 위하여, 개인 또는 대표 단체는 권한 분 배에 관한 이 규정의 규칙 및 좋은 행정에 관한 국 가 원칙에 따른 불만 처리에 관한 준거 규칙을 침 해하지 아니하고, 이러한 의무의 준수와 관련된 불 만사항을 서비스를 제공받은 영역의 디지털서비스 조정자에게 접수할 수 있어야 한다. 불만사항은 특 정 중개서비스 제공자의 규정 준수와 관련된 우려 에 대한 충실한 개요를 제공할 수 있고, 디지털서 비스 조정자에게 더 많은 공통 쟁점을 알릴 수도 있다. 디지털서비스 조정자는 해당 문제가 국경 간 협력을 필요로 하는 경우, 다른 회원국, 특히 해당 중개서비스 제공자가 설립된 회원국의 디지털서비 스 조정자뿐만 아니라 다른 국내 관할당국도 개입 시켜야 한다.

(119) 회원국은 디지털서비스 조정자가 이 규정의 특히 심각하고 지속적인 위반에 비례하고 이를 처 리하는 데 효과적인 조치를 취할 수 있도록 하여야 한다. 특히 온라인 인터페이스에 대한 접근이 제한 되는 경우와 같이 이러한 조치가 제3자의 권리와 이익에 영향을 미칠 수 있는 경우, 그 조치에 대한 추가적인 보호 장치를 적용하는 것이 합당하다. 특 히 잠재적으로 영향을 받을 수 있는 제3자는 의견 을 진술할 기회를 받아야 하고, 그러한 명령은 예 를 들어, 소비자의 집단적 이익을 보호하거나, 아 동음란물을 포함하거나 유포하는 웹 페이지를 즉 시 삭제하거나, 제3자가 지식재산권을 침해하기 위해 사용하는 서비스의 접근을 차단하기 위하여 다른 유럽연합 법률 또는 국내법에 규정된 조치를 취할 권한을 합리적으로 사용할 수 없는 경우에만 발부되어야 한다.

(120) 이와 같은 접근 제한 명령은 그 목적을 달성 하는 데 필요한 수준을 초과하여서는 아니 된다. 이를 위해 명령은 임시적이어야 하고, 원칙적으로 관련 호스팅서비스 제공자, 인터넷 서비스 제공자, 도메인 등록기관과 같이 합법적인 정보에 대한 접 근을 과도하게 제한하지 않고 위 목적을 달성하는 데 합리적인 지위에 있는 중개서비스 제공자에게 전달되어야 한다.

(121) 서비스 이용자의 요청에 따라 전송되거나 저장된 정보에 관한 이 규정에 따른 책임 면제조항 을 침해하지 아니하고, 중개서비스 제공자는 제공 자가 이 규정에 명시된 의무를 위반하여 발생한 서 비스 이용자의 손해에 대한 책임이 있다. 그러한 보상은 국내 준거법에 명시된 절차 및 규칙을 따라 야 하고, 소비자 보호 규정에 따라 이용 가능한 다 른 구제가능성을 침해하지 아니하고 한다.

(122) 디지털서비스 조정자는 이 규정에 따라 수 행된 활동에 대한 보고서를 예를 들어, 웹사이트를 통해 정기적으로 간행하여야 한다. 특히 보고서는 기계 판독 형식으로 게시되어야 하고, 접수된 전체 불만 건수, 개인정보 조회 없이 공식적인 조사 개 시로 이어지거나 다른 디지털서비스 조정자에게 전달된 불만 건수와 같이 접수된 불만사항과 후속 조치에 대한 개요를 포함하여야 한다. 디지털서비 스 조정자 역시 정보공유시스템을 통해 이 규정에 의해 규율되는 불법 콘텐츠에 대한 조치명령과 정 보제공명령을 인지하고 있음을 전제로, 디지털서 비스 조정자는 연례보고서에 회원국의 사법당국과 행정당국이 중개서비스 제공자에게 내린 명령의 건수와 범주를 포함시켜야 한다.

(123) 명확성, 단순성, 실효성을 위하여, 이 규정 에 따른 의무를 감독하고 집행할 권한은 중개서비 스 제공자의 주 사업장, 즉 제공자가 주요 재무 기 능과 운영 통제를 행사하는 본사 또는 등록 사무소 가 소재하는 회원국의 관할당국에 부여된다. 유럽 연합에 설립되지 않았지만 유럽연합에서 서비스를 제공하기 때문에 이 규정의 범위에 속하는 제공자 와 관련하여, 이러한 제공자가 법률대리인을 지명 한 회원국이 이 규정에 따른 법률대리인의 기능을 고려하여 권한을 가져야 한다. 그러나 이 규정의 효과적인 적용을 위하여, 모든 회원국 또는 집행위 원회는 해당하는 경우 법률대리인을 지정하지 못 한 제공자에 대해서도 권한을 가져야 한다. 제공자 가 동일한 사실에 대해 다른 관할당국 또는 집행위 원회의 집행절차의 대상이 되지 않은 경우에는, 관 할당국 또는 집행위원회가 이러한 권한을 행사할 수 있다. 일사부재리 원칙의 준수를 보장하고, 특 히 이 규정에 명시된 의무에 대한 동일한 위반의 중복 제재를 방지하기 위하여, 이러한 제공자에 대 하여 권한을 행사하고자 하는 회원국은 지체 없이 이 규정의 목적을 위하여 설치된 정보공유시스템 을 통해 집행위원회를 포함한 다른 모든 당국에 이 를 통지하여야 한다.

(124) 초대형 온라인 플랫폼과 초대형 온라인 검 색엔진의 제공자의 잠재적인 영향력과 이들을 효 과적으로 감독하는 데 수반되는 어려움을 고려하 여, 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자에 대한 감독 및 집행에 관하여 특별한 규칙이 필요하다. 집행위원회는 관련된 경우 국내 관할당국의 지원을 받아 서비스 이용자의 집단적 이익에 광범위한 영향을 미치는 문제와 같은 구조 적 문제를 감독하고 공개 집행할 책임이 있다. 따 라서 집행위원회는 이 규정에 따라 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자에게 부과되는 구조적 위험관리에 대한 추가 의무를 감 독하고 집행할 배타적 권한을 가져야 한다. 집행위 원회의 배타적 권한은 검증된 연구원과 같이 이 규 정에 따라 설립지 회원국의 관할당국에 부여된 특 정 행정 업무를 침해하지 않아야 한다.

(125) 이 규정에 따라 초대형 온라인 플랫폼과 초 대형 온라인 검색엔진의 제공자에게 부과되는 구 조적 위험관리에 대한 추가 의무 외에, 상당한 주 의의무의 감독과 집행권한은 집행위원회와 국내 관할당국이 공유하여야 한다. 한편 집행위원회는 여러 회원국에 영향을 미치는 위반 또는 심각한 반 복적 위반 또는 이 규정에 따른 효과적인 제도의 미설치와 같이 제공자가 범한 구조적 위반을 해결 함에 있어 여러 경우에 더 나은 지위에 있을 수 있 다. 한편 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자의 주 사업장이 소재하는 회 원국의 관할당국은 제공자가 범한, 구조적 또는 국 경 간 쟁점을 제기하지 않는 개별적인 위반을 해결함에 있어 더 나은 지위에 있을 수 있다. 효율성을 위하여, 중복을 피하고 일사부재리 원칙의 준수를 보장하기 위하여, 해당 사건에 관해 이러한 공동 권한을 행사하는 것이 적절한지는 집행위원회가 평가하여야 하고, 일단 절차가 개시되면 회원국은 더 이상 그러한 능력을 가지지 않아야 한다. 이 규 정에 따른 감독과 집행 시스템이 원활하고 효과적 으로 기능하기 위하여, 회원국들은 상호간, 그리고 집행위원회와 긴밀히 협력하여야 하고, 집행위원 회는 회원국과 긴밀히 협력하여야 한다.

(126) 권한 분배에 관한 이 규정의 규칙은 유럽연 합 법률의 관련 조항에 따라 소비자가 거주하는 회 원국의 법원에서 소비자가 제기하는 절차와 같이 관할권 관련 국제사법에 관한 유럽연합 법률 및 국 내 규칙과 민사, 상사에 관한 국내 준거법을 침해 하지 않아야 한다. 이 규정에 따라 중개서비스 제 공자에게 부과된 불법 콘텐츠에 대한 조치명령과 정보제공명령에 따른 효과를 발급 기관에 통지할 의무와 관련하여, 권한 분배에 관한 규칙은 그러한 의무의 집행에 대한 감독에만 적용되어야 하고, 명 령을 발부할 권한과 같이 명령과 관련된 다른 사안 에는 적용되어서는 아니 된다.

(127) 중개서비스의 국경 간 및 부문 간 관련성을 고려할 때, 이 규정의 일관된 적용과 정보공유시스 템을 통한 집행 임무의 수행에 있어 관련 정보의 이용 가능성을 보장하기 위하여 높은 수준의 협력 이 필요하다. 협력은 특정 합동조사 활동을 침해하 지 아니하고, 문제된 쟁점에 따라 서로 다른 형식 을 취할 수 있다. 어떠한 경우에도 중개서비스 제 공자의 설립지 디지털서비스 조정자는 다른 디지 털서비스 조정자에게 쟁점, 위 제공자에게 취해질 조사 및 조치를 통지하여야 한다. 또한, 회원국의 관할당국이 설립지 회원국의 관할당국이 수행한 조사를 위해 관련 정보를 보유하거나 설립지 회원 국의 관할당국이 접근할 수 없는 영토에서 그러한 정보를 수집할 수 있는 경우, 목적지 디지털서비스 조정자는 국내 준거 절차와 헌장에 따라 조사권을 행사하는 것을 포함하여 설립지 디지털서비스 조 정자를 적시에 지원하여야 한다. 이 규정의 준수를 보장하기 위하여, 이러한 조사 조치의 대상자는 이 를 준수하여야 하고 미준수에 대한 책임을 져야 하 며, 설립지 회원국의 관할당국은 공조를 통해 수집 된 정보를 신뢰할 수 있어야 한다.

(128) 목적지 디지털서비스 조정자는 특히 접수된 불만사항 또는 다른 국내 관할당국의 의견이 적절 하다면 그 의견에 근거하여, 이사회는 최소 3개의 회원국이 관련된 문제와 관련하여 설립지 디지털 서비스 조정자에게 그 관할대상인 제공자에 대해 조사 또는 집행조치를 취하도록 요청할 수 있다. 위와 같은 조치의 요청은 회원국 내 서비스 이용자 의 집단적 이익에 부정적인 영향을 미치거나 사회 적으로 부정적인 영향을 미치는 위반 혐의의 존재 를 입증하는 충분한 증거에 기반하여야 한다. 설립 지 디지털서비스 조정자는 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 조직적 위반이 발 생할 수 있다고 의심할 만한 이유가 있는 경우 집 행위원회에 사안 평가를 요청할 가능성과 관계없 이, 결정에 추가 정보가 필요한 경우 공조를 활용 하거나 요청을 발송한 디지털서비스 조정자를 합 동조사에 참여하도록 할 수 있다.

(129) 이사회는 수행되거나 제안된 평가 또는 조 치에 대해 의견 차이가 있는 경우, 또는 국경 간 협 력 요청 또는 합동조사에 기해 이 규정에 따른 조 치를 채택하지 아니한 경우, 집행위원회에 사안을 회부할 수 있어야 한다. 집행위원회는 관련 당국이 제공한 정보를 근거로 과징금 제안 수준을 포함한 제안 조치가 이 규정에 따른 의무의 효과적인 집행 을 보장할 수 없다고 판단하는 경우, 이에 따른 심 각한 의문을 표하고, 관할 디지털서비스 조정자에 게 사안을 재평가하고 지정한 기한 내에 이 규정의 준수를 보장하기 위하여 필요한 조치를 취할 것을 요청할 수 있어야 한다. 이러한 가능성은 조약에 따라 유럽연합 사법재판소의 통제 아래 유럽연합 법률의 적용을 감독하고 필요한 경우 집행하여야 하는 집행위원회의 일반적 의무를 침해하지 아니 한다.

(130) 여러 회원국이 개입된 이 규정의 의무에 대 해 국경 간 감독과 조사가 용이하도록 하기 위하 여, 설립지 디지털서비스 조정자는 정보공유시스 템을 통해 다른 디지털서비스 조정자에게 이 규정 의 위반 혐의에 대한 합동조사를 요청할 수 있어야 한다. 설립지 디지털서비스 조정자가 위반 혐의의 특징과 회원국 내 서비스 이용자에 대한 직접적인 영향력의 부족을 고려하여 과다한 수의 기관 참여 가 조사의 효율성에 영향을 미칠 수 있다고 판단하 지 않는 한, 다른 디지털서비스 조정자와 다른 관 할당국은 적절한 경우 설립지 디지털서비스 조정 자가 제안한 조사에 합류할 수 있어야 한다. 합동 조사 활동에는 조율된 데이터 수집 활동, 자원 통 합, 전담반, 조율된 정보 요청 또는 일반 장소 조사 등 설립지 디지털서비스 조정자가 참여 기관의 가 용성에 따라 조율하는 다양한 조치가 포함될 수 있 다. 합동조사에 참여하는 모든 관할당국은 국내 준 거 절차에 따라 이들 영토 내에서 조사권을 행사하는 것을 포함하여 설립지 디지털서비스 조정자와 협력하여야 한다. 합동조사는 참여하는 모든 관할 당국의 기여를 고려하여 최종보고서와 함께 지정 된 기한 내에 종료되어야 한다. 또한 이사회는 최 소 3개의 목적지 디지털서비스 조정자가 요청하는 경우, 설립지 디지털서비스 조정자에 대하여 합동 조사를 착수하고 해당 조직에 대해 필요한 조치를 제공하도록 권고할 수 있다. 이사회는 교착 상태를 피하기 위하여 설립지 디지털서비스 조정자가 조 사 착수를 거부하고 이사회가 그에 대한 정당한 사 유에 동의하지 아니하는 경우를 포함한 특정한 경 우, 집행위원회에 사안을 회부할 수 있다.

(131) 이 규정의 일관된 적용을 보장하기 위하여, 집행위원회를 지원하고 디지털서비스 조정자의 조 치를 조율하는 데 도움이 되는 유럽연합 차원의 독 립 자문 그룹인 유럽디지털서비스이사회를 수립하 는 것이 필요하다. 이사회는 디지털서비스 조정자가 임명된 경우에는 디지털서비스 조정자로 구성 되어야 하고, 임무 또는 권한에 대한 국가적 분배 에 따라 필요한 경우 디지털서비스 조정자가 이 규 정에 따라 특정 임무를 위임받은 다른 관할당국을 회의에 초대하거나 임시 대표로 임명할 가능성을 침해하지 아니한다. 하나의 회원국에서 여러 참여 자가 있는 경우, 투표권은 회원국당 1명의 대표로 제한된다.

(132) 이사회는 집행위원회와 디지털서비스 조정 자에게 특히 초대형 온라인 플랫폼 또는 초대형 온 라인 검색엔진의 제공자에 대하여 적절한 조사와 집행조치에 관해 자문을 제공하는 것을 포함하여, 그리고 특히 중개서비스 제공자의 유럽연합 전체 에 서비스를 제공할 자유를 고려하여, 이 규정의 일관된 적용에 관한 유럽연합의 공통된 관점을 구 하고 관할당국 간의 협력을 이루는 데 기여하여야 한다. 또한 이사회는 관련 양식과 행동강령의 초안 을 작성하고, 표준 관련 사안에 대한 의견이나 권 고 제시를 포함하여 유럽연합의 디지털서비스 개 발에 있어 새로 등장한 일반적인 경향을 분석하는 데 기여하여야 한다.

(133) 이를 위해 이사회는 디지털서비스 조정자나 다른 국내 관할당국에 전달되는 의견, 요청, 권고 를 채택할 수 있어야 한다. 법적 구속력은 없지만, 채택된 사항을 벗어난 결정에 대해서는 적절한 설명이 이루어져야 하고, 집행위원회는 해당 회원국 의 이 규정의 준수 여부 평가 시 이를 고려할 수 있 다.

(134) 이사회는 전적으로 유럽 차원에서 이사회로 제출된 사안에 대한 평가를 보장하기 위하여 집행 위원회를 의장으로 하여 디지털서비스 조정자와 다른 관할당국의 대표를 소집하여야 한다. 이사회 는 유럽연합 차원의 다른 규제체계와 관련 있을 수 있는 공통 요소를 고려하여, 그 임무 수행에 필요 한 경우 젠더 평등을 비롯한 평등, 차별 금지, 데이 터 보호, 전기통신, 시청각 서비스, 관세와 관련된 유럽연합 예산에 관한 사기 탐지 및 조사, 소비자 보호, 또는 경쟁법과 같은 분야에서 책임이 있는 다른 유럽연합 기구, 사무소, 기관 및 자문단과 협 력할 수 있어야 한다.

(135) 집행위원회는 의장직을 통해 의결권 없이 이사회에 참여하여야 한다. 집행위원회는 의장직 을 통해 절차규칙에 규정된 바와 같이 이사회 구성 원의 요청에 따라, 그리고 이 규정에 따른 이사회 의 의무에 따라 회의 의제가 수립되도록 하여야 한 다.

(136) 이사회 활동을 위한 지원을 보장할 필요성 을 고려하여, 이사회는 집행위원회와 국내 관할당 국의 전문성과 인력을 활용할 수 있어야 한다. 이 사회 내부 기능을 위한 구체적인 운영 방식은 이사 회 절차규칙에 추가로 명시되어야 한다.

(137) 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 도달 범위와 영향력에 있어서의 중요 성을 고려해 볼 때, 이들에게 적용되는 특정 의무 를 준수하지 않을 경우 그러한 미준수를 식별하고 해결하는 것이 특히 복잡할 수 있지만, 여러 회원 국에 걸쳐 상당수의 서비스 이용자에게 영향을 미 칠 수 있고 많은 사회적 피해를 초래할 수 있다. 이 러한 이유에서 집행위원회는 디지털서비스 조정 자, 이사회와의 협력 하에 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 감독에 관한 유럽 연합의 전문성과 역량을 개발하여야 한다. 따라서 집행위원회는 예를 들어, 하나 이상의 초대형 온라 인 플랫폼 또는 초대형 온라인 검색엔진과 관련하 여 영구적으로 또는 일시적으로 발생하는 특정 경 향이나 쟁점을 분석함으로써 이러한 당국의 전문 성과 자원을 조정하고 활용할 수 있도록 하여야 한 다. 회원국은 적절한 경우 직원 파견을 통하여 그 러한 능력을 개발하고, 공동의 유럽연합 감독 역량 을 조성하는 데 기여함에 있어 집행위원회와 협력 하여야 한다. 집행위원회는 유럽연합의 전문성과 역량을 개발하기 위하여, 온라인 플랫폼 경제 관측 기구를 위한 전문가 집단 설치에 관한 2018년 4월 26일 집행위원회 결정에 따라 수립된 온라인 플랫 폼 경제 관측기구, 관련 전문 기구, 최고 기관의 전 문성과 역량을 활용할 수 있다. 집행위원회는 특히 검증된 연구원, 유럽연합 기관과 기구의 대표, 산 업 대표, 사용자 또는 시민사회를 대표하는 협회, 국제기구, 민간 부문 전문가, 그 밖의 이해관계자 를 포함하여 특정 전문성을 갖춘 전문가를 초청할 수 있다.

(138) 집행위원회는 이 규정의 권한에 따라 데이 터에 대한 접근 요청, 정보 요청 또는 조사 수행, 디지털서비스 조정자의 지원 요청을 통해 직권으 로 위반행위를 조사할 수 있어야 한다. 국내 관할 당국의 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 개별적인 위반 혐의에 대한 감독을 통해 서비스 이용자의 집단적 이익에 광범 위한 영향을 미치는 문제와 같이 구조적 문제가 지 적되는 경우, 디지털서비스 조정자는 적절한 이유 가 있는 요청을 근거로 그러한 문제를 집행위원회 에 회부할 수 있어야 한다. 이러한 요청에는 적어 도 위반 혐의와 그 구조적 성격을 뒷받침하는 모든 필요한 사실과 정황이 포함되어야 한다. 자체 평가 결과에 따라 집행위원회는 관련된 경우 조사 착수 또는 임시조치 채택을 포함하여 이 규정에 따라 필 요한 조사와 집행조치를 취할 수 있어야 한다.

(139) 집행위원회는 그 임무를 효과적으로 수행하 기 위하여 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자에 대한 절차 개시 결정에 관 하여 재량권을 가지고 있어야 한다. 일단 집행위원 회가 절차를 개시하면, 일사부재리 원칙에 따른 중 복, 불일치 및 위험을 방지하기 위하여 관련 설립 지 디지털서비스 조정자는 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 관련 행 위에 대한 조사와 집행권한 행사로부터 배제되어 야 한다. 다만, 집행위원회는 조사에 대한 디지털 서비스 조정자의 개별적 또는 공동 기여를 요청할 수 있어야 한다. 디지털서비스 조정자는 성실한 협 력 의무에 따라 조사 과정에서 집행위원회의 정당 하고 비례적인 요청을 이행하기 위하여 최선을 다 하여야 한다. 또한 설립지 디지털서비스 조정자 및 관련된 경우 이사회와 그 밖에 다른 모든 디지털서 비스 조정자는 정보 수집의 법적 근거에 따라 배제 되지 않는 범위 내에서 데이터 수집 또는 데이터 접근 관행의 맥락에서 수집한 정보를 포함하여 집 행위원회의 효과적인 임무 수행을 위하여 필요한 모든 정보와 지원을 집행위원회에 제공하여야 한 다. 반대로 집행위원회는 그 권한 행사에 관하여, 특히 절차를 개시하고 조사권을 행사하고자 하는 경우 설립지 디지털서비스 조정자와 이사회에 지 속적으로 알려주어야 한다. 또한 집행위원회가 이 의제기한 사안을 포함하여 예비적 판단을 초대형 온라인 플랫폼 또는 관련 초대형 온라인 검색엔진 의 제공자에게 전달하는 경우, 이를 이사회에도 전 달하여야 한다. 이사회는 집행위원회의 이의제기 와 평가에 관한 견해를 제시하여야 하고, 집행위원 회의 종국결정을 뒷받침하는 이유에서 이러한 의 견을 고려하여야 한다.

(140) 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 규정 준수를 보장하도록 하 는 데서 발생할 수 있는 특정 문제와 이들 규모와 영향력, 초래될 수 있는 피해를 고려하여 이를 효 과적으로 이행하는 것의 중요성을 모두 고려할 때, 집행위원회는 집행절차에서의 청문과 자료 열람에 관한 기본권, 비례의 원칙, 그리고 영향을 받는 당 사자의 권리와 이익을 충분히 존중하여, 이 규정에 명시된 규칙의 준수를 조사, 집행, 그리고 모니터 링할 수 있는 강력한 조사 및 집행권한을 가져야 한다.

(141) 집행위원회는 유럽연합 전역에 걸쳐 이 규 정에 따른 의무의 효과적인 이행과 준수를 보장하 는 데 필요한 정보를 요청할 수 있어야 한다. 특히, 집행위원회는 조사 개시 및 수행과 이 규정에 명시 된 관련 의무 준수의 모니터링에 필요한 모든 관련 문서, 데이터, 정보에 대하여, 위 문서, 데이터 또 는 정보의 소유 주체와 관계없이, 그리고 그 형태나 형식, 저장매체 또는 정확한 저장 위치에 관계 없이 접근할 수 있어야 한다. 집행위원회는 정당하 게 입증된 정보 요청을 통해 위반 혐의 또는 위반 과 관련된 정보를 합리적으로 인지할 수 있는 거 래, 사업, 제작 또는 전문직업 목적으로 활동하는 그 밖의 자연인이나 법인뿐만 아니라 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제 공자에 대하여 모든 관련 증거, 데이터 및 정보를 제공할 것을 직접 요구할 수 있어야 한다. 나아가 집행위원회는 이 규정의 목적을 위하여 회원국 내 의 모든 공공 당국, 기구, 또는 기관에 관련 정보를 요청할 수 있어야 한다. 집행위원회는 정보나 면담 요청과 같은 조사권 행사를 통해 관련자의 문서, 데이터, 정보, 데이터베이스, 알고리즘에 대한 접 근 및 설명을 요구하고, 유용한 정보를 보유하고 있을 수 있는 모든 자연인이나 법인의 동의 아래 이들을 면담하고, 모든 기술적 수단을 통해 그 진 술을 기록할 수 있어야 한다. 나아가 집행위원회는 이 규정의 관련 조항을 실행하는 데 필요한 위와 같은 조사를 수행할 권한을 부여받아야 한다. 이러 한 조사권은 예를 들어, 정보 제공이나 위 권한 행 사를 통해 집행위원회가 디지털서비스 조정자와 다른 회원국 당국에 지원을 요청할 가능성을 보완 하는 것을 목표로 한다.

(142) 임시조치는 조사가 진행 중인 동안 조사 중 인 위반이 서비스 이용자에게 심각한 피해 위험을 야기하지 않도록 보장하는 중요한 도구가 될 수 있 다. 이러한 도구는 절차 종료 시점에 집행위원회의 결정으로 회복하기 매우 어려운 새로운 사정을 방 지하는 데 중요하다. 따라서 집행위원회는 미준수 결정의 채택 가능성을 고려하여 개시된 절차에서 결정으로 임시조치를 부과할 권한을 가져야 한다. 이러한 권한은 집행위원회가 초대형 온라인 플랫 폼 또는 초대형 온라인 검색엔진의 제공자가 이 규 정에 따른 의무를 위반하였다고 일응의 판단을 내 린 경우에 적용되어야 한다. 임시조치를 부과하는 결정은 집행위원회의 절차 종료시까지 특정 기간 동안만, 또는 필요하고 적절한 경우 갱신가능한 지 정 기간 동안만 적용되어야 한다.

(143) 집행위원회는 이 규정에서 명시한 의무의 효과적인 이행과 준수를 모니터링하는 데 필요한 조치를 취할 수 있어야 한다. 이러한 조치에는 이 과정에서 집행위원회를 지원하기 위하여 데이터 또는 소비자 보호 기관과 같은 회원국의 관할당국 을 비롯한 독립적인 외부 전문가와 감사인을 임명 할 능력이 포함되어야 한다. 집행위원회는 감사인을 임명할 때 충분한 교체를 고려하여야 한다.

(144) 이 규정에 따라 부과되는 관련 의무의 준수 는 과징금과 이행강제금을 통해 강제될 수 있어야 한다. 이를 위해 의무 불이행과 절차규칙 위반에 대하여 비례의 원칙과 일사부재리에 따라 적절한 시효가 적용되는 적절한 수준의 과징금과 이행강 제금이 정해져야 한다. 집행위원회와 관련 국가기 관은 그러한 원칙의 준수를 보장하기 위한 집행 노 력을 조정하여야 한다. 특히, 집행위원회는 다른 유럽연합 또는 국내 규칙 위반과 관련한 절차의 종 국결정에서 동일한 사실에 대해 동일한 법인에 부 과된 모든 과징금과 제재금을 고려함으로써, 부과 된 전체 과징금과 제재금이 저지른 위반의 심각성 에 비례하고 상응하도록 보장하여야 한다. 이 규정 에 따라 집행위원회가 내린 모든 결정은 유럽연합 기능조약에 따라 유럽연합 사법재판소의 심리를 받는다. 유럽연합 사법재판소는 유럽연합기능조 약 제261조에 따라 과징금 및 강제금에 대한 무제 한적인 관할권을 가진다.

(145) 초대형 온라인 플랫폼과 초대형 온라인 검 색엔진에만 적용되는 구조적 위험관리에 대한 추 가 의무 위반의 잠재적으로 중대한 사회적 영향을 감안할 때, 그리고 이러한 공공정책적 문제를 해결 하기 위하여, 이 규정의 위반을 효과적으로 종료시 키고 제거하기 위하여 시행된 모든 조치에 대하여 강화된 감독시스템을 제공할 필요가 있다. 따라서 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔 진에만 적용되는 이 규정의 조항 중 하나에 대한 위반이 확인되고 필요에 따라 제재가 이루어지면, 집행위원회는 이러한 플랫폼 또는 검색엔진의 제 공자에게 향후 위반의 영향을 제거하기 위한 세부 실행계획을 작성하고, 이러한 실행계획을 집행위 원회가 지정한 기한 내에 디지털서비스 조정자, 집 행위원회, 그리고 이사회에 전달하도록 요청하여 야 한다. 집행위원회는 이사회의 의견을 고려하여 실행계획에 포함된 조치가 위반을 해결하기에 충 분한지 결정하여야 하고, 이때 관련 행동강령 준수 가 제안된 조치에 포함되어 있는지도 고려하여야 한다. 또한 집행위원회는 관련 초대형 온라인 플랫 폼 또는 초대형 온라인 검색엔진의 제공자가 실행 계획에 명시된 바에 따라 시행한 모든 후속 조치도 모니터링하여야 하고, 이때 제공자의 독립적 감사 도 고려하여야 한다. 실행계획 이행 후에도 집행위 원회가 위반이 완전히 시정되지 않았다고 여전히 판단하는 경우, 또는 실행계획이 제공되지 않았거 나 적합하지 않은 경우, 집행위원회는 이행강제금 을 부과하고 위반 서비스에 대한 접근 차단 절차를 개시할 권한을 포함하여 이 규정에 따른 모든 조사 또는 집행권한을 행사할 수 있어야 한다.

(146) 관련 초대형 온라인 플랫폼 또는 초대형 온 라인 검색엔진의 제공자, 그리고 집행위원회의 결 정에 의해 이익에 영향을 받을 수 있고 집행위원회 의 권한 행사가 적용되는 그 밖의 사람은 사전에 의견을 제출할 기회를 제공받아야 하고, 그 결정은 널리 공개되어야 한다. 당사자의 방어권, 특히 자 료 열람권을 보장하는 한편 기밀 정보를 보호하는 것이 필수적이다. 나아가 집행위원회는 정보의 비 밀성을 존중하는 한편, 결정의 목적으로 사용된 모 든 정보가 결정의 대상자가 결정에 이르게 된 사실 과 고려사항을 이해할 수 있을 정도까지 공개되도 록 하여야 한다.

(147) 이 규정의 조화로운 적용 및 시행을 보호하 기 위하여, 관할법원을 포함한 관할당국이 이 규정 에 따라 집행위원회가 채택한 결정에 반하는 결정 을 하지 않도록 필요한 모든 정보를 보유하는 것이 중요하다. 이는 유럽연합기능조약 제267조를 침 해하지 아니한다.

(148) 이 규정의 효과적인 집행과 모니터링을 위 해서는 디지털서비스 조정자들, 이사회, 그리고 집 행위원회 간에 이 규정에 명시된 정보 흐름과 절차 에 따른 실시간 원활한 정보 교환이 필요하다. 이는 적절한 경우 다른 관할당국의 위 시스템에 대한 접근을 보장할 수도 있다. 이와 동시에 교환된 정 보가 비밀이거나 개인정보가 포함되어 있을 수 있 음을 감안하여, 위 정보는 정보 수집 목적에 따라 무단 접근으로부터 보호되어야 한다. 이러한 이유 에서 위 관할당국 간의 모든 의사소통은 신뢰할 수 있고 안전한 정보공유시스템을 기반으로 이루어져 야 하고, 그 세부사항은 이행법률에 명시되어야 한 다. 정보공유시스템은 비용 효율적인 방식으로 이 규정의 목적을 충족할 수 있는 범위 내에서 기존 역내 시장 도구를 기반으로 할 수 있다.

(149) 서비스 이용자의 유럽의회 및 이사회 지침 (EU) 제2020/1828호에 따른 대리인 또는 국내법 에 따른 그 밖의 대리 유형을 이용할 권리를 침해 하지 아니하고, 서비스 이용자는 법인 또는 공공 단체로 하여금 이 규정에 따른 권리를 행사하도록 위임할 권리도 가진다. 그러한 권리에는 신고 제 출, 중개서비스 제공자의 결정에 대한 이의, 이 규 정을 위반한 제공자에 대한 불만 제기와 관련된 권 리가 포함될 수 있다. 특정 기구, 조직, 협회는 잘 못되었거나 정당하지 않은 콘텐츠 조정 결정을 탐 지하고 신고하는 데 특별한 전문성과 역량을 가지 고 있고, 이들이 서비스 이용자를 대신하여 이의를 제기하는 것은 일반적으로 표현과 정보의 자유에 긍정적인 영향을 미치므로, 온라인 플랫폼 제공자 는 그러한 이의사항을 지체 없이 처리하여야 한다.

(150) 집행위원회는 실효성과 효율성을 위하여 이 규정의 일반 평가를 수행하여야 한다. 특히 위 일 반 평가는 이 규정이 적용되는 서비스의 범위, 다 른 법적행위와의 상호작용, 특히 디지털서비스와 관련하여 이 규정이 역내 시장 기능에 미치는 영 향, 행동강령의 이행, 유럽연합 내에 설립된 법률 대리인의 지정 의무, 극소기업과 소기업의 의무에 대한 영향, 감독과 집행 제도의 실효성, 표현 및 정 보의 자유에 대한 권리에 미치는 영향을 다루어야 한다. 또한 집행위원회는 과도한 부담을 피하고 이 규정의 지속적인 실효성을 보장하기 위하여, 이 규 정에 명시된 의무가 중소기업에 미치는 영향에 대 한 평가를 위 규정 적용 시작일부터 3년 이내에 수 행하여야 하고, 특히 초대형 온라인 플랫폼과 초대 형 온라인 검색엔진의 경우 이 규정이 적용되는 서 비스 범위와 다른 법적행위와의 상호작용에 대한 평가를 위 규정 효력 발생일부터 3년 이내에 수행 하여야 한다.

(151) 이 규정의 시행을 위한 일관된 조건을 보장 하기 위하여, 콘텐츠 조정에 관한 보고서의 형식, 내용, 그 밖의 세부사항에 관한 양식을 정하고, 초 대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자에 대한 연간 감독분담금의 액수를 설정하 며, 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자에 관한 감독, 조사, 집행, 모니터링 과 정에서 수행되는 절차, 의견청취, 협의된 정보 공 개에 대한 실무 방식을 정하고, 정보공유시스템의 기능과 다른 관련 시스템과의 상호 운용성을 위한 실무 및 운영 방식을 규정하기 위한 이행권한은 집 행위원회에 부여되어야 한다. 그러한 권한은 유럽 의회 및 이사회 규정(EU) 제182/2011호에 따라 행사되어야 한다.

(152) 이 규정의 목적을 달성하기 위하여, 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 식별 기준, 감사의 절차 단계, 방법론 및 보고 양식, 접 근 요청에 대한 기술 사양, 감독분담금 설정의 세 부 방법론과 절차와 관련하여 유럽연합기능조약 제290조에 따른 위임입법을 채택할 권한이 이 규 정의 보충을 위하여 집행위원회에 위임되어야 한 다. 집행위원회가 준비 작업 과정에서 전문가 수준 을 포함하여 적절한 협의를 수행하고, 그러한 협의 가 2016년 4월 13일 선진입법을 위한 기관 간 협 정에 규정된 원칙에 따라 수행되는 것이 특히 중요 하다. 특히, 위임입법 준비에 있어 동등한 참여를 보장하기 위하여 유럽의회 및 이사회는 회원국 전 문가와 동시에 모든 문서를 받고, 위 전문가는 위 임입법을 준비하는 집행위원회 전문가 집단의 회 의에 체계적으로 접근할 수 있다.

(153) 이 규정은 헌장에서 인정하는 기본권과 유 럽연합 법률의 일반 원칙을 구성하는 기본권을 존 중한다. 따라서 이 규정은 언론의 자유와 다원주의 뿐만 아니라 표현 및 정보의 자유를 포함한 기본권 에 따라 해석되고 적용되어야 한다. 이 규정에 명 시된 권한을 행사함에 있어, 모든 관련 공공기관은 관련 기본권이 충돌하는 상황에서 비례의 원칙에 따라 관련 권리 간에 공정한 균형을 이루어야 한 다.

(154) 초대형 온라인 플랫폼과 초대형 온라인 검 색엔진으로 인하여 발생할 수 있는 사회적 위험의 범위와 영향, 그러한 위험을 우선적으로 취급해야 할 필요성과 필요한 조치를 취할 수 있는 능력을 감안할 때, 이 규정이 위와 같은 서비스의 제공자 에게 적용되는 시점을 제한하는 것은 정당하다.

(155) 이 규정의 목적, 즉 역내 시장의 적정한 기 능 수행에 기여하고, 헌장에 명시된 기본권이 정당 하게 보호되는 안전하고 예측 가능하며 신뢰할 수 있는 온라인 환경을 보장하는 것은 회원국에 의해서만은 충분히 달성할 수 없는데, 왜냐하면 단독으 로 활동하여서는 필요한 조화와 협력을 달성할 수 없고, 오히려 지리적 및 인적 범위로 인하여 유럽 차원에서 더욱 잘 달성될 수 있기 때문에 유럽연합 은 유럽연합조약 제5조에 규정된 보충성의 원칙에 따라 조치를 채택할 수 있다. 위 조항에 규정된 비 례의 원칙에 따라 이 규정은 그러한 목적을 달성하 는 데 필요한 범위를 초과하지 아니한다.

(156) 유럽 데이터보호 감독기구는 유럽의회 및 이사회 규정(EU) 제2018/1725호 제42조(1)에 따 라 협의가 되었고, 2021년 2월 10일 의견을 제시 하였다. 이에 다음의 규정을 채택한다.

제I장 일반규정

제1조(목적)

1. 이 규정은 혁신을 촉진하고 소비자 보호 원칙을 포함한 헌장상 기본권을 실효적으로 보호하는 안 전하고 예측 가능하며 신뢰할 수 있는 온라인 환경 을 위한 조화 규제를 구축함으로써, 중개서비스에 대한 역내 시장의 적절한 기능 수행에 기여하는 것 을 목적으로 한다.

2. 이 규정은 역내 시장의 중개서비스 제공에 있어 서의 조화 규제에 관하여 정한다. 특히 다음 각호 에 관하여 정한다.

(a) 중개서비스 제공자의 조건부 책임면제제도 (b) 특정 부류의 중개서비스 제공자에 맞는 구체적 인 상당한 주의의무에 관한 규칙 (c) 관할 당국 간의 협력과 통합을 포함하여 이 규 정의 이행과 집행에 관한 규칙

제2조(범위)

1. 이 규정은 해당 중개서비스 제공자의 사업장 소 재지에 관계없이 유럽연합 내에 설립되었거나 소 재하는 중개서비스의 이용자에게 제공되는 중개서 비스에 적용된다.

2. 이 규정은 중개서비스가 아닌 서비스 또는 그러 한 서비스에 부과되는 요건에 적용되지 않는데, 이 는 중개서비스가 아닌 서비스가 중개서비스를 이 용하여 제공되는지 여부와는 관계없다.

3. 이 규정은 지침 제2000/31/EC호의 적용에 영 향을 미치지 아니한다.

4. 이 규정은 특히 다음 각호와 같이 역내 시장에 서 중개서비스 제공의 다른 사항을 규제하거나 이 규정을 구체화하고 보완하는 그 밖의 유럽연합 법적행위에서 정한 규제를 침해하지 아니한다.

(a) 지침 제2010/13/EU호 (b) 저작권 및 저작인접권에 관한 유럽연합 법률 (c) 규정(EU) 제2021/784호 (c) 규정(EU) 제2019/1148호 (c) 규정(EU) 제2019/1150호 (f) 규정(EU) 제2017/2394호 및 규정(EU) 제 2019/1020호, 지침 제2001/95/EC호 및 제 2013/11/EU호를 포함한 소비자 보호와 제품 안 전에 관한 유럽연합 법률 (g) 개인정보 보호에 관한 유럽연합 법률, 특히 규 정(EU) 제2016/679호 및 지침 제2002/58/EC호 (h) 민사사법공조 분야의 유럽연합 법률, 특히 규 정(EU) 제1215/2012호 또는 그 밖에 계약채무 및 계약외채무에 적용되는 법률에 관한 규정을 명시 한 유럽연합 입법행위 (i) 형사사법공조 분야의 유럽연합 법률, 특히 형사 사건의 전자증거에 관한 유럽제출·보존명령 규정 (j) 형사소송에서 증거 수집을 위한 법률대리인 선 임에 관한 조화 규제를 정한 지침

제3조(정의)

이 규정의 목적상, 다음 각호의 정의가 적용된다. (a) “정보사회서비스”란 지침(EU) 제2015/1535 호 제1조(1)(b)에 정의된 ‘서비스’를 말한다. (b) “서비스 이용자”란 특히 정보를 검색하거나 정 보 접근이 가능하게 할 목적으로 중개서비스를 사 용하는 모든 자연인이나 법인을 말한다. (c) “소비자”란 거래, 사업, 제작 또는 전문직업 이 외의 목적으로 활동하는 모든 자연인을 말한다. (d) “유럽연합 내 서비스 제공”이란 하나 이상의 회원국에 소재한 자연인이나 법인이 유럽연합과 실질적 관련이 있는 중개서비스 제공자의 서비스 를 사용할 수 있도록 하는 것을 말한다. (e) “유럽연합과의 실질적 관련”이란 중개서비스 제공자가 유럽연합 내에 설립되었거나 다음 각호 의 구체적 사실 기준에 부합하는 유럽연합과의 관 련성을 말한다. - 하나 이상의 회원국 내 해당 국가 인구 수 대비 상당수의 서비스 이용자 - 하나 이상의 회원국을 대상으로 하는 활동지향 (f) “판매자”란 사적 또는 공적 소유 여부에 관계 없이 본인의 명의 또는 대리인을 통한 행동을 포함 하여 거래, 사업, 제작 또는 전문직업 목적으로 활 동하는 모든 자연인이나 법인을 말한다. (g) “중개서비스”란 다음 각호의 정보사회서비스 중 하나를 말한다. (i) “단순 전달” 서비스는 서비스 이용자가 제공한 정보의 통신 네트워크 내 전송 또는 통신 네트워크 에 대한 접근 제공으로 구성된다. (ii) “캐싱” 서비스는 다른 서비스 이용자의 요청에 따라 위 이용자에게 정보가 보다 효율적으로 전송 되도록 하기 위한 유일한 목적 하에 이루어지는, 해당 정보의 자동화된, 중간적이면서도 임시적인 저장을 포함한 서비스 이용자가 제공한 정보의 통 신 네트워크 내 전송으로 구성된다. (iii) “호스팅” 서비스는 서비스 이용자의 요청에 따른 서비스 이용자가 제공한 정보의 저장으로 구 성된다. (h) “불법 콘텐츠”란 유럽연합 법률 또는 유럽연합 법률에 따른 회원국의 국내법상 명시된 목적이나 성격에 관계없이, 그 자체로 또는 제품 판매나 서 비스 제공을 포함한 활동에 있어 위 법률을 준수하 지 아니하는 정보를 말한다. (i) “온라인 플랫폼”이란 서비스 이용자의 요청에 따라 정보를 저장하고 일반 대중에게 정보를 배포 하는 호스팅서비스를 말한다. 다만, 해당 활동이 다른 서비스의 사소하고 순전히 부수적인 특징이 거나 주된 서비스의 사소한 기능에 불과하여 객관 적이고 기술적 이유로 다른 서비스 없이는 이용될 수 없어서는 아니되며, 그 특징 또는 기능을 다른 서비스에 통합하는 것이 이 법안의 적용 가능성을 회피하는 수단이 되지 않아야 한다. (j) “온라인 검색엔진”이란 원칙적으로 모든 웹사 이트 또는 특정 언어의 모든 웹사이트에서 검색을 수행하기 위하여 키워드, 음성 요청, 구문 또는 그 밖의 입력 형태로 된 주제에 대한 쿼리를 기반으로 하여 사용자가 쿼리를 입력할 수 있고, 요청한 콘 텐츠와 관련된 정보를 찾을 수 있는 모든 형태의 결과를 반환하는 중개서비스를 말한다. (k) “공개 배포”란 정보를 제공한 서비스 이용자의 요청에 따라 잠재적으로 무제한의 제3자들에게 정 보를 제공하는 것을 말한다. (l) “원격계약”이란 지침 제2011/83/EU호 제2조 (7)에 정의된 ‘원격계약’을 말한다. (m) “온라인 인터페이스”란 웹사이트 또는 그 일 부를 포함한 모든 소프트웨어와 모바일 애플리케 이션을 포함한 애플리케이션을 말한다. (n) “설립지 디지털서비스 조정자”란 중개서비스 제공자의 주 사업장이 소재하거나 그가 지정한 법 률대리인이 소재하거나 설립된 회원국의 디지털서 비스 조정자를 말한다. (o) “목적지 디지털서비스 조정자”란 중개서비스 가 제공되는 회원국의 디지털서비스 조정자를 말 한다. (p) “온라인 플랫폼의 활성 이용자”란 온라인 플랫 폼에 정보 호스팅을 요청하거나 또는 온라인 플랫 폼에 호스팅되고 온라인 인터페이스를 통해 배포 되는 정보에 노출됨으로써 온라인 플랫폼에 관여 하는 서비스 이용자를 말한다. (q) “온라인 검색엔진의 활성 이용자”란 온라인 검 색엔진에 쿼리를 제출하고 온라인 인터페이스에 색인화로 표시되는 정보에 노출되는 서비스 이용 자를 말한다. (r) “광고”란 상업적 또는 비상업적 목적 추구 여 부에 관계없이 법인 또는 자연인의 메시지를 홍보 하기 위하여 고안되어, 특별히 그러한 정보를 홍보 하기 위한 보수를 지급하고 온라인 플랫폼에 의해 온라인 인터페이스에 표시되는 정보를 말한다. (s) “추천 시스템”이란 온라인 인터페이스에서 서 비스 이용자에게 특정 정보를 제안하거나 해당 정 보의 우선순위를 정하기 위하여 온라인 플랫폼에 서 사용하는 완전히 또는 부분적으로 자동화된 시 스템을 말하고, 여기에는 서비스 이용자가 시작한 검색 등의 결과로 표시되는 정보의 상대적 순서 또 는 중요도를 결정하는 것이 포함된다. (t) “콘텐츠 조정”이란 서비스 이용자가 제공하는 정보 중에서 특히 불법 콘텐츠 또는 이용약관을 준 수하지 않은 정보를 탐지, 식별, 처리하기 위하여 중개서비스 제공자가 자동화 여부에 관계없이 수 행하는 활동을 말하고, 여기에는 강등, 수익화 금 지, 접근 차단 또는 삭제와 같이 불법 콘텐츠 또는 그러한 정보의 이용가능성, 가시성, 접근성에 영향 을 미치거나 서비스 이용자 계정의 해지 또는 정지 와 같이 해당 정보를 제공할 수 있는 서비스 이용 자의 능력에 영향을 주는 조치가 포함된다. (u) “이용약관”이란 이름이나 형식에 관계없이 중 개서비스 제공자와 서비스 이용자 간의 계약관계 를 규율하는 모든 조항을 말한다. (v) “장애인”이란 유럽의회 및 이사회 지침(EU) 제2019/882호 제3조(1)에서 정한 ‘장애인’을 말 한다. (w) “상업적 통신”이란 지침 제2000/31/EC호 제 2조(f)에 정의된 ‘상업적 통신’을 말한다. (x) “매출액’은 이사회 규정(EC) 제139/2004호 제5조(1)에 정의된 사업으로부터 파생된 금액을 말한다.

제II장 중개서비스 제공자의 책임

제4조(‘단순 전달’)

1. 서비스 이용자가 제공한 정보의 통신 네트워크를 통한 전송이나 통신 네트워크에 대한 접근 제공 으로 구성된 정보사회서비스가 제공되는 경우, 서 비스 제공자는 다음 각호의 전제 하에 전송되거나 접근된 정보에 대해 책임을 지지 아니한다.

(a) 서비스 제공자가 전송을 개시하지 아니하였고, (b) 서비스 제공자가 전송의 수신인을 선택하지 아 니하였으며, 나아가 (c) 서비스 제공자가 전송에 포함된 정보를 선택하 거나 수정하지 아니한 경우

2. 제(1)항의 전송 및 접근 제공 행위는 통신 네트 워크에서의 전송이라는 유일한 목적으로 이루어지 는 한, 전송된 정보의 자동 저장, 중간 저장, 임시 저장을 포함하되, 이때 정보는 전송에 합리적으로 필요한 기간보다 오래 저장되지 않아야 한다.

3. 이 조항은 사법당국이나 행정당국이 회원국의 법률체계에 따라 서비스 제공자에게 위반행위를 종료하거나 방지하도록 요구할 능력에 영향을 미 치지 아니한다.

제5조(‘캐싱’)

1. 서비스 이용자가 제공한 정보의 통신 네트워크 를 통한 전송으로 구성된 정보사회서비스가 제공 되는 경우, 서비스 제공자가 다른 서비스 이용자에 게 그의 요청에 따라 보다 효율적으로 또는 보다 안전하게 정보를 제공한다는 유일한 목적 하에 수 행한 그러한 정보의 자동 저장, 중간 저장, 임시 저장에 대해 다음 각호의 전제 하에 책임을 지지 아니한다.

(a) 서비스 제공자가 정보를 수정하지 아니하였고, (b) 서비스 제공자가 정보 접근에 대한 조건을 준 수하였으며, (c) 서비스 제공자가 업계에서 널리 인정되고 사용 되는 방식으로 정보 업데이트에 관한 규칙을 준수 하였고, (d) 정보 사용에 관한 데이터를 취득하기 위해 업 계에서 널리 인정되고 사용되는 기술의 합법적인 사용을 방해하지 아니하였으며, 나아가 (e) 최초 전송 소스의 정보가 네트워크에서 삭제되 었거나 접근이 차단되었다는 사실을 실제로 알게 된 즉시, 또는 사법당국이나 행정당국이 그러한 정 보의 삭제 또는 차단을 명한 사실을 알게 된 즉시, 신속하게 저장한 정보를 삭제하거나 그 접근을 차 단한 경우

2. 이 조항은 사법당국이나 행정당국이 회원국의 법률체계에 따라 서비스 제공자에게 위반행위를 종료하거나 방지하도록 요구할 능력에 영향을 미 치지 아니한다.

제6조(호스팅)

1. 서비스 이용자가 제공한 정보의 저장으로 구성 된 정보사회서비스가 제공되는 경우, 서비스 제공자는 다음 각호의 전제 하에 서비스 이용자의 요청 에 따라 저장된 정보에 대해 책임을 지지 아니한다.

(a) 서비스 제공자가 불법행위나 불법 콘텐츠를 실 제로 알지 못하였고, 나아가 손해배상 청구의 경우 에는 불법행위나 불법 콘텐츠임을 명백히 알 수 있는 사실이나 상황을 인식하지 못하였거나, 또는 (b) 서비스 제공자가 위와 같은 사항을 알았거나 인식한 즉시 불법 콘텐츠를 삭제하거나 접근을 차 단하기 위하여 신속하게 조치를 취한 경우

2. 제(1)항은 서비스 이용자가 서비스 제공자의 권한 또는 통제 아래 행동하는 경우에는 적용되지 아니한다.

3. 소비자와 판매자가 원격계약을 체결하도록 하 는 온라인 플랫폼이 거래의 대상인 정보, 제품, 서 비스가 온라인 플랫폼에 의해서 또는 그의 권한 또 는 통제하에 있는 서비스 이용자에 의해서 제공되고 있다고 믿도록 유도하는 방식으로 문제의 특정 정보를 제공하거나 문제의 특정 거래를 가능하게 한 경우, 제(1)항은 위와 같은 온라인 플랫폼의 소 비자 보호법에 따른 책임과 관련하여 적용되지 아니한다.

4. 이 조항은 사법당국이나 행정당국이 회원국의 법률체계에 따라 서비스 제공자에게 위반행위를 종료하거나 방지하도록 요구할 능력에 영향을 미치지 아니한다.

제7조(자발적인 직권조사와 법률 준수)

중개서비스 제공자는 신의성실하게 불법 콘텐츠를 탐지, 식별, 삭제하거나 이에 대한 접근을 차단하 기 위하여 자발적인 직권조사를 실시하거나 그 밖 의 조치를 취하거나, 이 규정에서 정한 요건을 포 함하여 유럽연합 법률 또는 유럽연합 법률에 따른 국내법의 요건을 준수하는 데 필요한 조치를 취한 다는 이유만으로 제4조, 제5조 및 제6조의 책임 면 제 자격이 없다고 볼 수 없다.

제8조(일반적 모니터링 의무 또는 적극적 사 실조사 의무의 부존재)

중개서비스 제공자에게는 중개서비스 제공자가 전 송하거나 저장하는 정보를 감시하거나, 불법행위 를 나타내는 사실 또는 상황을 적극적으로 조사해 야 할 일반적 의무가 없다.

제9조(불법 콘텐츠에 대한 조치명령)

1. 중개서비스 제공자는 관련 국내 사법당국이나 행정당국으로부터 유럽연합 준거법 또는 유럽연합 법률에 따른 국내 준거법에 근거하여 하나 이상의 특정 불법 콘텐츠 항목에 대한 조치명령을 받는 경 우, 해당 명령을 내린 기관 또는 명령에 명시된 그 밖의 기관에 지체 없이 명령의 효력 유무와 구체적 인 효력 발생 시기를 통지하여야 한다.

2. 회원국은 제(1)항의 명령을 서비스 제공자에게 전달하는 경우, 적어도 다음 조건을 충족하여야 한 다.

(a) 해당 명령은 아래의 요건을 포함한다. (i) 명령에 대한 유럽연합 법률 또는 국내법상 법 적 근거의 명시 (ii) 유럽연합 법률 또는 유럽연합 법률에 따른 국 내법의 하나 이상의 특정 조항을 참조로 하여, 해 당 정보가 불법 콘텐츠인 이유를 설명하는 이유서 (iii) 해당 명령을 내린 기관을 식별하는 정보 (iv) 하나 이상의 정확한 URL과 필요한 경우 추가 정보와 같이 중개서비스 제공자가 문제된 불법 콘 텐츠를 식별하고 위치를 파악할 수 있는 명확한 정 보 (v) 중개서비스 제공자와 콘텐츠를 제공한 서비스 이용자가 이용할 수 있는 구제제도에 관한 정보 (vi) 해당하는 경우, 명령의 효력에 관한 정보를 통 지해야 하는 관할당국에 관한 정보 (b) 해당 명령이 적용되는 지리적 범위는 헌장을 포함한 유럽연합과 국내법의 적용가능 규정, 그리 고 관련이 있는 경우에는 국제법의 일반 원칙에 각 근거하여 위 명령의 목적을 달성하는 데 엄격하게 필요한 범위 내로 제한된다. (c) 명령은 중개서비스 제공자가 제11조(3)에 따 라 지정한 언어 중 하나, 또는 명령을 내린 기관과 해당 제공자가 합의한 회원국의 그 밖의 공식 언어 로 전송되고, 제11조에 따라 해당 제공자가 지정 한 전자 연락 창구로 발송되며, 중개서비스 제공자 가 지정한 언어 또는 양자가 합의한 그 밖의 언어 로 작성되지 않은 경우, 명령은 적어도 이 항 제(a) 호와 제(b)호에서 명시한 요소에 관하여 중개서비 스 제공자가 지정한 언어 또는 양자가 합의한 그 밖의 언어로 된 번역문이 첨부되었다면 명령을 내 린 기관의 언어로 전송할 수 있다.

3. 해당 명령을 내린 기관 또는 해당하는 경우 명 령에 명시된 당국은 중개서비스 제공자로부터 위 명령의 효력과 관련하여 받은 정보를 회원국의 디 지털서비스 조정자에게 전송하여야 한다.

4. 관련 회원국의 디지털서비스 조정자는 사법당 국이나 행정당국으로부터 명령을 받은 후 지체 없 이 이 조 제(1)항에서 정한 명령의 사본을 제85조 에 따라 설립된 시스템을 통해 그 밖에 모든 디지 털서비스 조정자에게 전송하여야 한다.

5. 중개서비스 제공자는 명령의 효력 발생 시기나 명령을 내린 기관이 명령에서 별도로 명시한 시기 중 가장 나중에 도래하는 시기에 명령과 관련된 서 비스 이용자에게 수령한 명령과 명령의 효력을 통 지하여야 한다. 위와 같이 서비스 이용자에게 제공 하는 정보는 제(2)항에 따른 이유서, 구제가능성, 명령이 적용되는 지리적 범위에 대한 설명을 포함 하여야 한다.

6. 이 조에 규정된 조건과 요건은 국내 민사 및 형 사소송법에 영향을 미치지 아니한다.

제10조(정보제공명령)

1. 중개서비스 제공자는 관련 국내 사법당국이나 행정당국으로부터 유럽연합 준거법 또는 유럽연합 법률에 따른 국내 준거법에 근거하여 1명 이상의 특정 서비스 이용자에 관한 특정 정보를 제공하라 는 명령을 받는 경우, 해당 명령을 내린 기관 또는 명령에 명시된 그 밖의 기관에 지체없이 명령의 수 령, 명령의 효력 유무와 효력 발생 시기를 지체 없 이 통지하여야 한다.

2. 회원국은 제(1)항의 명령을 서비스 제공자에게 전달하는 경우, 적어도 다음 조건을 충족하여야 한 다.

(a) 해당 명령이 아래의 요건을 포함할 것 (i) 명령에 대한 유럽연합 법률 또는 국내법상 법적 근거의 명시 (ii) 해당 명령을 내린 기관을 식별하는 정보 (iii) 하나 이상의 계정 이름 또는 고유 식별자 등 중개서비스 제공자가 정보 제공 요구 대상인 특정 서비스 이용자를 식별할 수 있는 명확한 정보 (iv) 범죄의 예방, 수사, 탐지 및 기소와 관련된 사 유로 이유서를 제공할 수 없는 경우를 제외하고는, 정보 제공 요구의 목적 및 중개서비스 이용자가 유 럽연합 준거법 또는 유럽연합 법률에 따른 국내 준 거법을 준수하였는지 여부를 판단함에 있어 정보 제공 요구가 필요하고 적절한 이유를 설명한 이유 서 (v) 중개서비스 제공자와 문제된 서비스 이용자가 이용할 수 있는 구제제도에 관한 정보 (vi) 해당하는 경우, 명령의 효력에 관한 정보를 통 지해야 하는 관할당국에 관한 정보 (b) 명령이 중개서비스 제공자에 대하여 위 제공자 가 서비스 제공을 목적으로 이미 수집하여 통제 하 에 있는 정보의 제공만을 요구할 것 (c) 명령은 중개서비스 제공자가 제11조(3)에 따 라 지정한 언어 중 하나, 또는 명령을 내린 기관과 해당 제공자가 합의한 회원국의 그 밖의 공식 언어 로 전송되고, 제11조에 따라 해당 제공자가 지정한 전자 연락 창구로 발송되며, 중개서비스 제공자 가 지정한 언어 또는 양자가 합의한 그 밖의 언어 로 작성되지 않은 경우, 명령은 적어도 이 항 제(a) 호와 제(b)호에서 명시한 요소에 관하여 중개서비 스 제공자가 지정한 언어 또는 양자가 합의한 그 밖의 언어로 된 번역문이 첨부되었다면 명령을 내 린 기관의 언어로 전송할 수 있을 것

3. 해당 명령을 내린 기관 또는 해당하는 경우 명 령에 명시된 당국은 중개서비스 제공자로부터 명 령의 효력과 관련하여 받은 정보를 회원국의 디지 털서비스 조정자에게 전송하여야 한다.

4. 관련 회원국의 디지털서비스 조정자는 사법당 국이나 행정당국으로부터 명령을 받은 후 지체 없 이 이 조 제(1)항에서 정한 명령의 사본을 제85조 에 따라 설립된 시스템을 통해 그 밖에 모든 디지 털서비스 조정자에게 전송하여야 한다.

5. 중개서비스 제공자는 명령의 효력 발생 시기나 명령을 내린 기관이 명령에서 별도로 명시한 시기 중 가장 나중에 도래하는 시기에 명령과 관련된 서 비스 이용자에게 수령한 명령과 명령의 효력을 통 지하여야 한다. 위와 같이 서비스 이용자에게 제공 하는 정보는 제(2)항에 따른 이유서, 기존 구제가능성을 표함하여야 한다.

6. 이 조에 규정된 조건과 요건은 국내 민사 및 형 사소송법에 영향을 미치지 아니한다.

제III장 투명하고 안전한 온라인 환경 을 위한 상당한 주의의무

제1절 모든 중개서비스 제공자에게 적용되는 조항

제11조(회원국 관할당국, 집행위원회, 이사회 를 위한 연락 창구)

1. 중개서비스 제공자는 이 규정의 적용을 위해 회 원국 관할당국, 집행위원회, 제61조의 이사회와 전자적 수단을 통해 직접 의사소통할 수 있도록 단 일 연락 창구를 지정하여야 한다.

2. 중개서비스 제공자는 단일 연락 창구를 쉽게 식 별하고 의사소통하기 위해 필요한 정보를 공개하 여야 한다. 해당 정보는 쉽게 접근할 수 있어야 하 고 최신 상태를 유지하여야 한다.

3. 중개서비스 제공자는 제(2)항의 정보에 공식 언 어 또는 최대한 많은 유럽연합 시민이 광범위하게 이해하는 언어와 함께 추가적으로, 중개서비스 제공자의 연락 창구와 의사소통하는 데 사용할 수 있 는 회원국의 언어를 명시하고, 중개서비스 제공자 의 주 사업장이 소재하는 회원국 또는 법률대리인 이 소재하거나 설립된 회원국의 공식 언어 중 최소 한 하나를 명시하여야 한다.

제12조(서비스 이용자를 위한 연락 창구)

1. 중개서비스 제공자는 자동화 도구에만 의존하 지 않고 서비스 이용자가 의사소통 수단을 선택할 수 있도록 하는 것을 포함하여 전자적 수단과 사용 자 친화적 방식으로 서비스 이용자와 직접 신속하 게 의사소통할 수 있도록 단일 연락 창구를 지정하 여야 한다.

2. 중개서비스 제공자는 지침 제2000/31/EC호에 규정된 의무 외에도 단일 연락 창구를 쉽게 식별하 고 이를 통해 의사소통하는 데 필요한 정보를 서비 스 이용자에게 공개하여야 한다. 해당 정보는 쉽게 접근할 수 있어야 하고 최신 상태를 유지하여야 한다.

제13조(법률대리인)

1. 유럽연합에 사업장은 가지고 있지 않지만 유럽 연합에서 서비스를 제공하는 중개서비스 제공자는 서비스를 제공하는 회원국 중 하나에서 법률대리 인으로 활동할 법인 또는 자연인을 서면으로 지정 하여야 한다.

2. 중개서비스 제공자는 이 규정과 관련하여 회원 국의 관할당국, 집행위원회, 이사회가 내린 결정의 수신, 준수 및 집행에 필요한 사안을 위 제공자와 함께 또는 그를 대신하여 처리하기 위하여 법률대 리인에게 권한을 위임하여야 한다. 중개서비스 제 공자는 회원국의 관할당국, 집행위원회, 이사회와 의 적시의 효율적인 협력을 보장하고 위 기관들의 결정을 준수하는 데 필요한 권한과 충분한 자원을 법률대리인에게 제공하여야 한다.

3. 지정된 법률대리인은 중개서비스 제공자에게 제기될 수 있는 책임과 법적 조치와 관계없이 이 규정에 따른 의무 불이행에 대한 책임을 질 수 있 다.

4. 중개서비스 제공자는 법률대리인이 소재하거나 설립되어 있는 회원국의 디지털서비스 조정자에게 법률대리인의 성명, 우편주소, 전자우편주소, 전화 번호를 통지하여야 한다. 중개서비스 제공자는 위 와 같은 정보가 공개적으로 이용 가능하고 쉽게 접 근할 수 있으며 정확하고 최신 상태를 유지하도록 하여야 한다.

5. 제(1)항에 따른 유럽연합 내 법률대리인 지정은 유럽연합 내 설립을 구성하지 아니한다.

제14조(이용약관)

1. 중개서비스 제공자는 서비스 이용자가 제공한 정보와 관련하여 서비스 이용에 대해 부과하는 제 한에 대한 정보를 이용약관에 포함시켜야 한다. 위 와 같은 정보에는 내부 불만처리시스템의 절차규 칙, 알고리즘 결정과 인적 개입을 비롯하여 콘텐츠 조정 목적으로 사용되는 모든 정책, 절차, 조치 및 도구에 관한 정보가 포함되어야 한다. 정보는 명확 하고 평이하며 이해하기 쉽고 사용자 친화적이며 모호하지 않은 언어로 작성되어야 하고, 쉽게 접근 할 수 있는 기계 판독 형식으로 공개되어야 한다.

2. 중개서비스 제공자는 서비스 이용자에게 이용 약관의 중대한 변경에 대해 통지하여야 한다.

3. 중개서비스가 주로 미성년자를 대상으로 하거 나 대부분 미성년자에 의해 이용되는 경우, 중개서 비스 제공자는 미성년자가 이해할 수 있는 방식으 로 서비스의 이용 조건과 이용 제한을 설명하여야 한다.

4. 중개서비스 제공자는 제(1)항의 제한을 적용하 고 시행함에 있어 성실하고 객관적이며 비례적인 방식으로 행하여야 하고, 표현의 자유, 언론의 자 유 및 다원주의, 그리고 헌장에 규정된 그 밖의 기 본권과 자유와 같은 서비스 이용자의 기본적인 권 리를 포함하여 모든 관련 당사자의 권리와 정당한 이익을 마땅히 고려하여야 한다.

5. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 서비스 이용자에게 이용 가능한 구 제제도를 비롯한 이용약관 요약문을 간결하고 쉽 게 접근할 수 있는 기계 판독 형식 및 명확하고 모 호하지 않은 언어로 제공하여야 한다.

6. 제33조에서 의미하는 초대형 온라인 플랫폼과 초대형 온라인 검색엔진은 이들이 서비스를 제공 하는 모든 회원국의 공식 언어로 이용약관을 게시 하여야 한다.

제15조(중개서비스 제공자의 투명성 보고의 무)

1. 중개서비스 제공자는 관련 기간 동안 수행한 모 든 콘텐츠 조정에 대해 명확하고 이해하기 쉽게 작 성한 보고서를 최소한 연 1회 쉽게 접근할 수 있는 방식과 기계 판독 형식으로 간행하여야 한다. 위 보고서는 특히 해당되는 경우 다음에 관한 정보를 포함하여야 한다.

(a) 중개서비스 제공자의 경우, 제9조 및 제10조 에 따라 받은 명령을 포함하여 관련 불법 콘텐츠의 유형별로 분류된 회원국 관할당국으로부터 받은 명령의 수, 명령을 내린 회원국 및 명령을 내린 관 할당국 또는 명령에 명시된 그 밖의 관할당국에 명 령의 수령사실을 통지하고 그 명령을 실행하는 데 걸린 시간의 중간값 (b) 호스팅서비스 제공자의 경우, 관련 불법 콘텐 츠의 유형별로 분류된 제16조에 따라 제출된 신고 건수, 신뢰할 수 있는 신고자가 제출한 신고 건수, 법률에 근거한 것인지 아니면 서비스 제공자의 이 용약관에 근거한 것인지를 구분하여, 신고에 대해 취한 조치, 자동화 수단에 의해 처리된 신고 건수 및 조치를 취하는 데 걸린 시간의 중간값 (c) 중개서비스 제공자의 경우, 자동화 도구의 사 용을 포함하여 서비스 제공자가 자체적으로 관여 하는 콘텐츠 조정에 관한 유의미하고 이해하기 쉬 운 정보, 콘텐츠 조정 담당자의 교육 및 지원 제공 을 위해 취한 조치, 서비스 이용자가 제공한 정보 의 이용 가능성, 가시성, 접근성 및 서비스를 통해 정보를 제공하는 능력에 영향을 미치는 조치의 유 형과 수, 그 밖에 관련 서비스 제한. 정보는 보고서 상 불법 콘텐츠 또는 서비스 제공자의 이용약관 위 반, 탐지 방법, 적용된 제한 유형에 따라 각 분류되 어야 한다. (d) 중개서비스 제공자의 경우, 중개서비스 제공자 의 이용약관에 따라, 나아가 온라인 플랫폼 제공자 의 경우에는 제20조에 따라 내부 불만처리시스템을 통해 접수된 불만 건수, 이러한 불만의 근거, 불 만과 관련하여 내린 결정, 위 결정에 걸린 시간의 중간값 및 위 결정이 취소된 건수 (e) 콘텐츠 조정을 목적으로 하는 자동화 수단에 관한 질적 설명, 정확한 목적에 관한 상술, 위와 같 은 목적 달성을 위해 사용된 자동화 수단의 정확성 지표 및 오류율, 그 밖에 적용되고 있는 보호장치 를 포함하여, 콘텐츠 조정을 목적으로 하는 자동화 수단의 사용

2. 이 조 제(1)항은 권고 제2003/361/EC호에 정 의된 극소기업 또는 소기업으로서 이 규정 제33조 에서 의미하는 초대형 온라인 플랫폼에 해당하지 않는 중개서비스 제공자에게는 적용되지 아니한 다.

3. 집행위원회는 조율된 보고기간을 포함하여 이 조 제(1)항에 따른 보고서의 양식, 내용 및 그 밖의 세부사항에 관한 견본양식을 정한 이행법률을 채 택할 수 있다. 위 이행법률은 제88조의 자문절차 에 따라 채택한다.

제2절 온라인 플랫폼을 포함한 호스 팅서비스 제공자에 적용되는 추가조 항

제16조(신고 및 조치 제도)

1. 호스팅서비스 제공자는 사람이나 단체가 불법 콘텐츠로 간주되는 특정 정보 항목의 서비스에 존 재한다는 것을 신고할 수 있는 제도를 마련하여야 한다. 신고 제도는 접근하기 쉽고 사용자 친화적이 어야 하며, 오로지 전자적 수단으로만 신고를 제출 할 수 있도록 하여야 한다.

2. 제(1)항의 제도는 충분히 정확하고 적절히 입증 된 신고 제출을 용이하게 하는 것이어야 한다. 이 를 위해 호스팅서비스 제공자는 다음 요소를 모두 포함하는 신고 제출이 가능케 하고 또 용이하게 하 는 데 필요한 조치를 취하여야 한다.

(a) 사람이나 단체가 해당 정보가 불법 콘텐츠라고 주장하는 이유에 대한 충분히 입증된 설명 (b) 정확한 URL 등 해당 정보의 정확한 전자 위치 에 대한 명확한 표시 및 필요한 경우, 콘텐츠 유형 과 호스팅서비스의 특정 유형에 따라 조정된 불법 콘텐츠를 식별할 수 있는 추가 정보 (c) 지침 제2011/93/EU호 제3조 내지 제7조에 규 정된 범죄 중 하나와 관련된 사건의 정보를 제외하 고, 신고를 제출한 사람이나 단체의 이름과 전자우 편주소 (d) 신고에 포함된 정보와 주장이 정확하고 완전하다는 신고를 제출한 사람이나 단체의 선의의 믿음을 확인하는 진술

3. 성실한 호스팅서비스 제공자가 이 조항의 신고 를 통해 세부적인 법률적 검토 없이 관련 활동이나 정보의 불법성을 식별할 수 있는 경우, 위 신고는 제6조의 목적상 해당 정보의 특정 항목과 관련하 여 실제 인지 또는 인식을 발생시키는 것으로 본 다.

4. 신고에 이를 제출한 사람이나 단체의 전자 연락 처 정보가 포함되어 있는 경우, 호스팅서비스 제공 자는 지체 없이 해당 사람이나 단체에 신고 접수 확인을 발송하여야 한다.

5. 또한 서비스 제공자는 지체 없이 신고와 관련된 정보에 대한 결정을 해당 사람이나 단체에 통지하 고, 해당 결정과 관련하여 구제가능성에 대한 정보 도 제공하여야 한다.

6. 호스팅서비스 제공자는 제(1)항의 제도에 따라 접수한 신고를 처리하고, 신고와 관련된 정보에 관 하여 적시에 성실하고 자의적이지 않은 객관적인 방식으로 결정을 내려야 한다. 호스팅서비스 제공 자가 위와 같은 처리 또는 결정에 있어 자동화된 수단을 사용하는 경우, 제(5)항의 통지에 그러한 사용에 대한 정보가 포함되어야 한다.

제17조(이유서)

1. 호스팅서비스 제공자는 서비스 이용자가 제공 한1 정보가 불법 콘텐츠이거나 이용약관에 위배된 다는 근거로 해당 서비스 이용자에 대하여 다음과 같은 제한을 부과하는 경우, 해당 서비스 이용자에 게 명확하고 구체적인 이유서를 제공하여야 한다.

(a) 콘텐츠 삭제, 콘텐츠에 대한 접근 차단 또는 콘 텐츠 강등을 비롯한, 서비스 이용자가 제공한 정보 의 특정 항목의 가시성에 대한 제한 (b) 금전 지급의 정지, 종료 또는 그 밖의 제한 (c) 서비스 제공의 전부나 일부의 중단 또는 종료 (d) 서비스 이용자 계정의 정지 또는 해지

2. 제(1)항은 서비스 제공자가 관련 전자 연락처 정보를 알고 있는 경우에만 적용된다. 이는 제한이 부과된 이유와 방법에 관계없이 늦어도 제한이 부 과된 시점부터 적용된다.

제(1)항은 해당 정보가 기만적인 대량의 상업적 콘 텐츠인 경우에는 적용되지 아니한다.

3. 제(1)항의 이유서는 적어도 다음의 정보를 포함 하여야 한다.

(a) 결정이 해당 정보의 삭제, 접근 차단, 강등 또 는 가시성 제한이나 해당 정보와 관련한 금전 지급 의 정지 또는 종료를 수반하는지 여부 또는 결정이 해당 정보와 관련하여 제(1)항에 규정된 그 외의 조치를 부과하는지 여부 및 해당하는 경우, 결정의 지리적 범위와 기간에 관한 정보 (b) 관련된 경우 결정이 제16조에 따라 제출된 신 고에 기하여 이루어졌는지 아니면 자발적인 직권 조사에 기하여 이루어졌는지에 관한 정보를 포함 하여, 결정의 근거가 된 사실과 상황 및 반드시 필 요한 경우에는 신고자의 신원 (c) 해당하는 경우, 결정이 자동화 수단을 사용하 여 탐지하거나 식별한 콘텐츠와 관련하여 이루어 졌는지 여부에 관한 정보를 포함하여, 결정을 내림 에 있어 자동화 수단 사용에 관한 정보 (d) 결정이 불법으로 의심되는 콘텐츠와 관련된 경 우, 그 법적 근거에 대한 명시 및 이러한 근거에 따 라 해당 정보가 불법 콘텐츠라고 보는 이유에 대한 설명 (e) 결정이 해당 정보가 호스팅서비스 제공자의 이 용약관에 위배된다는 점을 근거로 내려진 경우, 그 계약적 근거에 대한 명시 및 해당 정보가 이러한 근거에 위배된다고 보는 이유에 대한 설명 (f) 결정과 관련하여 특히 내부 불만처리제도, 소 송 외 분쟁해결, 사법적 구제 등 서비스 이용자의 구제가능성에 대한 명확하고 사용자 친화적인 정보

4. 호스팅서비스 제공자가 이 조에 따라 제공하는 정보는 명확하고 이해하기 쉬워야 하며, 당시 상황 에서 합리적으로 가능한 한 정확하고 구체적이어 야 한다. 특히 해당 서비스 이용자는 위 정보를 통 해 제(3)항(f)의 구제가능성을 효과적으로 활용할 수 있어야 한다.

5. 이 조는 제9조의 명령에 적용되지 아니한다.

제18조(범죄혐의의 신고)

1. 호스팅서비스 제공자가 사람의 생명이나 안전 을 위협하는 범죄가 발생하였거나 발생하고 있거 나 발생할 가능성이 있다고 의심되는 정보를 알게 된 경우, 해당 회원국 또는 관련 회원국의 법 집행 기관이나 사법당국에 즉시 혐의 사실을 신고하고 관련된 모든 이용 가능한 정보를 제공하여야 한다.

2. 호스팅서비스 제공자가 관련 회원국을 합리적 으로 명확하게 식별할 수 없는 경우, 호스팅서비스 제공자가 설립된 회원국 또는 법률대리인이 소재 하거나 설립된 회원국의 법 집행기관이나 유로폴 또는 양쪽 모두에 신고하여야 한다.

이 조의 목적상 관련 회원국은 범죄가 발생하였거 나 발생하고 있거나 발생 가능성이 있다고 의심되 는 회원국 또는 범죄혐의자가 거주하거나 소재하 는 회원국, 범죄혐의 피해자가 거주하거나 소재하 는 회원국을 말한다.

제3절 온라인 플랫폼 제공자에게 적 용되는 추가조항

제19조(극소기업과 소기업의 적용 제외)

1. 이 절은 제24조(3)을 제외하고, 권고 제 2003/361/EC호에 정의된 극소기업 또는 소기업 에 해당하는 온라인 플랫폼 제공자에게 적용되지 아니한다.

이 절은 제24조(3)을 제외하고, 이전에 권고 제 2003/361/EC호에 정의된 극소기업 또는 소기업 에 해당하였던 온라인 플랫폼 제공자에게는 위 권 고 제4조(2)에 따라 그 지위를 상실한 후 12개월 동안 적용되지 아니하되, 위 제공자가 제33조에 따 른 초대형 온라인 플랫폼인 경우는 예외로 한다.

2. 이 조 제(1)항의 특례조항으로서, 이 절은 제33 조에 따라 초대형 온라인 플랫폼으로 지정된 온라 인 플랫폼 제공자에게 적용되고, 위 제공자가 극소 기업 또는 소기업인지 여부와는 관계없다.

제20조(내부 불만처리시스템)

1. 온라인 플랫폼 제공자는 이 항의 결정을 내린 후 최소 6개월 동안 신고를 제출한 사람이나 단체 를 비롯한 서비스 이용자에게 온라인 플랫폼 제공 자가 신고 접수에 따라 내린 결정 또는 서비스 이 용자가 제공한 정보가 불법 콘텐츠이거나 이용약 관에 위배된다는 이유로 내린 다음과 같은 결정에 대해 전자적 방식을 통해 무상으로 불만을 제기할 수 있는 효과적인 내부 불만처리시스템에 대한 접 근을 제공하여야 한다.

(a) 정보의 삭제, 접근 차단 또는 정보의 가시성 제 한 여부에 관한 결정 (b) 이용자에 대한 서비스의 전부 또는 일부 제공 의 중단 또는 종료 여부에 관한 결정 (c) 이용자 계정의 정지 또는 해지 여부에 관한 결 정 (d) 이용자가 제공한 정보의 현금화 능력의 중지, 종료 또는 제한 여부에 관한 결정

2. 이 조 제(1)항에서 정한 최소 6개월의 기간은 서 비스 이용자가 제16조(5) 또는 제17조에 따라 결 정을 통지받은 날부터 시작한다.

3. 온라인 플랫폼 제공자는 내부 불만처리시스템 이 쉽게 접근할 수 있고, 사용자 친화적이며, 충분 히 정확하고 적절히 입증된 불만 제기가 가능하고 또 용이하도록 하여야 한다.

4. 온라인 플랫폼 제공자는 내부 불만처리시스템 을 통해 접수된 불만사항을 적시에 차별 없이 성실 하고 자의적이지 않은 방식으로 취급하여야 한다. 불만사항의 내용에 온라인 플랫폼 제공자가 신고 에 따른 조치를 취하지 아니하는 결정에 충분한 근 거가 없거나 불만사항과 관련된 정보가 불법이 아 니며 이용약관에 위배되지 않는다고 판단할 수 있 는 충분한 근거가 포함되어 있거나, 불만제기자의 행위가 제공자의 조치를 정당화하지 못한다는 것 을 보여주는 정보가 포함되어 있는 경우, 온라인 플랫폼 제공자는 지체 없이 제(1)항의 결정을 취소 하여야 한다.

5. 온라인 플랫폼 제공자는 불만사항과 관련된 정 보에 대하여 내린 결정의 이유가 포함된 결정과 제 21조에 규정된 소송 외 분쟁해결제도의 이용 가능 성, 그 밖의 구제가능성을 불만제기자에게 지체 없 이 통지하여야 한다.

6. 온라인 플랫폼 제공자는 제(5)항의 결정이 전적 으로 자동화 수단에 기반하지 않고 타당한 자격을 갖춘 피고용인의 감독에 따라 수행되도록 하여야 한다.

제21조(소송 외 분쟁해결)

1. 제20조(1)의 결정에 명시된 신고를 접수한 사 람이나 단체를 비롯한 서비스 이용자는 내부 불만 처리시스템을 통해 해결되지 않은 불만사항을 포 함하여 위 결정에 관한 분쟁을 해결하기 위하여 이 조 제(3)항에서 정한 인증된 소송 외 분쟁해결기관 을 선택할 수 있다.

온라인 플랫폼 제공자는, 서비스 이용자가 제1문 단의 소송 외 분쟁해결제도에 접근할 수 있는 정보 를 온라인 인터페이스에서 쉽게 접근할 수 있고 명 확하고 사용자 친화적인 방식으로 제공하여야 한 다. 제1문단은 관련 서비스 이용자가 온라인 플랫폼 제공자의 결정에 대하여 준거법에 따라 법원에 이 의를 제기하는 절차를 어느 단계에서나 개시할 권 리에 영향을 미치지 아니한다.

2. 양 당사자는 분쟁해결을 위하여 선택한 인증된 소송 외 분쟁해결기관에 성실하게 협력하여야 한 다.

온라인 플랫폼 제공자는 콘텐츠의 불법성 또는 위 반에 관한 동일한 정보와 동일한 근거에 대해 분쟁 이 이미 해결된 경우 소송 외 분쟁해결기관과의 관 여를 거부할 수 있다. 인증된 소송 외 분쟁해결기관은 당사자에게 구속 력 있는 분쟁해결을 내릴 권한이 없다.

3. 소송 외 분쟁해결기관이 설립된 회원국의 디지 털서비스 조정자는 위 분쟁해결기관의 요청에 따 라 다음 요건을 모두 충족함을 입증한 기관을 최대 5년간 인증하여야 하고, 위 기간은 갱신될 수 있 다.

(a) 공정하고, 신고를 제출한 개인이나 단체를 비 롯한 온라인 플랫폼 제공자와 온라인 플랫폼 제공 자가 제공하는 서비스의 이용자로부터 재정적으로 독립적인 것을 포함하여 독립적일 것 (b) 하나 이상의 특정 불법 콘텐츠 영역에서 발생 하는 사안 또는 하나 이상의 온라인 플랫폼 유형의 이용약관 적용 및 시행과 관련하여 필요한 전문지 식을 보유하고 있어 기관이 분쟁을 해결하는 데 효 과적으로 기여할 수 있을 것 (c) 그 구성원이 절차의 결과와 연동되지 않은 방 식으로 보수를 받을 것 (d) 기관이 제공하는 소송 외 분쟁해결이 전기통신 기술을 통해 쉽게 접근할 수 있고, 온라인으로 분 쟁해결을 신청하고 필요한 근거 자료를 제출할 수 있도록 할 것 (e) 유럽연합 기관의 공식 언어 중 최소한 하나를 사용하여 신속하고 효율적이며 경제적인 방식으로 분쟁을 해결할 수 있을 것 (f) 기관이 제공하는 소송 외 분쟁해결이 쉽게 공 개적으로 접근할 수 있고 이 조를 비롯한 적용법률 을 준수한 명확하고 공정한 절차규칙에 근거하여 이루어질 것 디지털서비스 조정자는 그 중 해당하는 바에 따라 인증서에 다음을 명시하여야 한다. (a) 제1문단(b)에 명시된 바와 같이 기관의 전문지 식과 관련된 특정 사안 (b) 제1문단(e)에 명시된 바와 같이 기관이 분쟁을 해결하는 데 사용할 수 있는 유럽연합 기관의 공식 언어

4. 인증받은 소송 외 분쟁해결기관은 매년 인증을 부여한 디지털서비스 조정자에게 기관의 활동에 대해 적어도 의뢰 받은 분쟁 건수, 분쟁 결과에 관 한 정보, 분쟁해결에 걸린 평균 기간 및 그 과정에 서 발견한 단점이나 어려움을 명시하여 보고하여 야 한다. 기관은 디지털서비스 조정자의 요청에 따 라 추가 정보를 제공하여야 한다.

디지털서비스 조정자는 2년마다 본인이 인증한 소 송 외 분쟁해결기관의 활동에 관한 보고서를 작성 하여야 한다. 위 보고서는 특히, (a) 인증받은 각 소송 외 분쟁해결기관이 매년 접 수한 분쟁 건수 목록을 기재하여야 하고, (b) 위 기관에서 진행된 절차의 결과 및 분쟁해결 에 걸린 평균 시간을 표시하여야 하며, (c) 위 기관의 활동과 관련하여 발견한 체계적 또 는 부문별 단점이나 어려움을 확인하고 설명하여 야 하고, (d) 위와 같은 활동과 관련한 모범사례를 기재하여 야 하며, (e) 적절한 경우, 위와 같은 활동의 개선방안에 대 한 권고를 제시하여야 한다. 인증받은 소송 외 분쟁해결기관은 사건을 접수한 날부터 90일 이내의 합리적 기간 내에 당사자에게 결정을 제공하여야 한다. 고도로 복잡한 분쟁의 경 우, 인증받은 소송 외 분쟁해결기관은 재량으로 추 가 기간을 90일까지 연장할 수 있고, 따라서 총 기 간은 최대 180일이 될 수 있다.

5. 소송 외 분쟁해결기관이 신고를 제출한 사람이 나 단체를 비롯한 서비스 이용자에게 승소결정을 내리는 경우, 온라인 플랫폼 제공자는 소송 외 분 쟁해결기관이 부과하는 모든 수수료를 부담하여야 하고, 사람이나 단체를 비롯한 위 이용자가 분쟁해 결과 관련하여 지출한 그 밖의 모든 합리적 비용을 상환하여야 한다. 소송 외 분쟁해결기관이 온라인 플랫폼 제공자에게 승소결정을 내리는 경우, 소송 외 분쟁해결기관이 사람이나 단체를 비롯한 서비 스 이용자가 명백히 악의로 행동했다고 판단하지 않는 한, 위 서비스 이용자는 온라인 플랫폼 제공 자가 분쟁해결과 관련하여 지불하였거나 지불하여 야 하는 수수료나 그 밖의 비용을 상환할 필요가 없다.

소송 외 분쟁해결기관이 분쟁해결을 위해 온라인 플랫폼 제공자에게 부과하는 수수료는 합리적이어 야 하고, 어떠한 경우에도 해당 기관에 발생한 비 용을 초과하여서는 아니 된다. 서비스 이용자에게 는 분쟁해결이 무료 또는 소액의 수수료로 제공되 어야 한다. 인증받은 소송 외 분쟁해결기관은 분쟁해결에 개 입하기 전에 신고를 제출한 사람이나 단체를 비롯 한 서비스 이용자와 관련 온라인 플랫폼 제공자에 게 수수료 또는 수수료 결정절차를 통지하여야 한 다.

6. 회원국은 제(1)항의 목적을 위하여 소송 외 분 쟁해결기관을 설립하거나 제(3)항에 따라 인증한 일부 또는 모든 소송 외 분쟁해결기관의 활동을 지 원할 수 있다.

회원국은 제1문단에 따라 수행한 활동이 제(3)항 에 따른 디지털서비스 조정자의 관련 기관을 인증 하는 능력에 영향을 미치지 않도록 하여야 한다.

7. 소송 외 분쟁해결기관을 인증한 디지털서비스 조정자는 직권으로 또는 제3자가 받은 정보를 근 거한 조사 결과 해당 소송 외 분쟁해결기관이 제 (3)항에서 명시한 조건을 더 이상 충족하지 아니하 는 것으로 판단하는 경우, 해당 인증을 취소하여야 한다. 디지털서비스 조정자는 인증을 취소하기 전 에 해당 기관에 대하여 조사 결과와 소송 외 분쟁 해결기관 인증 취소계획에 대응할 기회를 제공하 여야 한다.

8. 디지털서비스 조정자는 집행위원회에 인증을 취소한 소송 외 분쟁해결기관뿐만 아니라, 해당하 는 경우 제(3)항 제2문단의 세부사항을 포함하여 제(3)항에 따라 인증한 소송 외 분쟁해결기관을 통 지하여야 한다. 집행위원회는 위 기관들 목록과 세 부사항을 쉽게 접근할 수 있는 전용 웹사이트에 게 시하고, 이를 최신 상태로 유지하여야 한다.

9. 이 조는 지침 제2013/11/EU호와 위 지침에 따 라 수립된 소비자를 위한 대안적 분쟁해결절차와 주체에 영향을 미치지 아니한다.

제22조(신뢰할 수 있는 신고자)

1. 온라인 플랫폼 제공자는 지정된 전문 영역에서 활동하는 신뢰할 수 있는 신고자가 제16조의 제도 를 통해 제출한 신고에 우선순위를 부여하고 위 신 고를 지체 없이 처리하고 결정하는 데 필요한 기술 적 및 조직적 조치를 취하여야 한다.

2. 이 규정에 따른 ‘신뢰할 수 있는 신고자’의 지위 는 신청에 따라 신청인이 설립된 회원국의 디지털 서비스 조정자에 의해 다음 조건을 모두 충족한다 는 것을 입증한 신청인에게 부여된다.

(a) 불법 콘텐츠의 탐지, 식별 및 통지를 위한 특정 한 전문지식과 능력을 보유하고 있을 것 (b) 온라인 플랫폼 제공자로부터 독립적일 것 (c) 성실하고 정확하며 객관적으로 신고를 제출하 기 위하여 활동을 수행할 것

3. 신뢰할 수 있는 신고자는 해당 기간 동안 제16 조에 따라 제출된 신고에 대해 쉽게 이해할 수 있 는 상세한 보고서를 최소 연 1회 발행하여야 한다. 보고서는 적어도 다음 분류에 따른 신고 건수를 열 거하여야 한다.

(a) 호스팅서비스 제공자의 신원 (b) 신고한 불법 콘텐츠의 유형 (c) 제공자가 취한 조치 이러한 보고서는 신뢰할 수 있는 신고자의 독립성 유지를 보장하기 위하여 진행 중인 절차에 관한 설 명을 포함하여야 한다. 신뢰할 수 있는 신고자는 지정한 디지털서비스 조 정자에게 위 보고서를 제출하고, 이를 일반에 공개 하여야 한다. 위 보고서의 정보에는 개인정보가 포 함되지 않아야 한다.

4. 디지털서비스 조정자는 제(2)항에 따라 신뢰할 수 있는 신고자의 지위를 부여한 기관 또는 신뢰할 수 있는 신고자의 지위가 제(6)항에 따라 정지되었 거나 제(7)항에 따라 취소된 기관의 이름, 주소, 전 자우편주소를 집행위원회와 이사회에 전달하여야 한다.

5. 집행위원회는 제(4)항의 정보를 쉽게 접근할 수 있고 기계 판독이 가능한 형식으로 공개 데이터베 이스에 게시하여야 하고, 위 데이터베이스를 최신 상태로 유지하여야 한다.

6. 온라인 플랫폼 제공자는 제20조(4)의 내부 불 만처리시스템을 통한 불만 처리와 관련하여 수집 한 정보를 포함하여 제16조의 제도를 통해 신뢰할 수 있는 신고자가 충분히 정확하지 않거나 부정확 하거나 적절히 입증되지 않는 신고를 상당수 제출 하였음을 보여주는 정보를 가지고 있는 경우, 온라 인 플랫폼 제공자는 해당 기관을 신뢰할 수 있는 신고자로 지정한 디지털서비스 조정자에게 위와 같은 정보를 전달하고 필요한 설명과 근거자료를 제공하여야 한다. 디지털서비스 조정자가 온라인 플랫폼 제공자로부터 정보를 제공받은 후 조사를 개시할 정당한 사유가 있다고 판단하는 경우, 신뢰 할 수 있는 신고자의 지위는 조사 기간 동안 정지 된다. 해당 조사는 지체 없이 수행되어야 한다.

7. 해당 기관을 신뢰할 수 있는 신고자로 지정한 디지털서비스 조정자는 직권으로 착수한 조사나 온라인 플랫폼 제공자가 제(6)항에 따라 제공한 정 보 등 제3자가 제공한 정보에 기반한 조사에 따라 해당 기관이 제(2)항에서 정한 조건을 더 이상 충 족하지 못한다고 결정하는 경우, 신뢰할 수 있는 신고자의 지위를 취소하여야 한다. 디지털서비스 조정자는 위 지위를 취소하기 전에 해당 기관에 대 하여 조사 결과와 신뢰할 수 있는 신고자 지위 취 소 계획에 대응할 기회를 제공하여야 한다.

8. 집행위원회는 이사회와 협의 후 필요한 경우, 제(2)항, 제(6)항 및 제(7)항의 적용에 있어 온라인 플랫폼 제공자와 디지털서비스 조정자에게 도움이 되는 지침을 발행하여야 한다.

제23조(오남용에 대한 조치와 보호)

1. 온라인 플랫폼 제공자는 명백히 불법적인 콘텐 츠를 빈번하게 제공하는 서비스 이용자에게 사전 경고 후 합리적인 기간 동안 서비스 제공을 중단하 여야 한다.

2. 온라인 플랫폼 제공자는 제16조 및 제20조의 신고 및 조치 제도와 내부 불만처리시스템을 통해 명백히 근거 없는 신고 또는 불만을 빈번하게 제출 한 개인, 단체 또는 불만제기자의 신고 및 불만에 대해 사전 경고 후 합리적인 기간 동안 처리를 중 단하여야 한다.

3. 온라인 플랫폼 제공자는 중단을 결정하는 경우, 사례별로 적시에 성실하고 객관적인 방식으로 온 라인 플랫폼 제공자의 가용 정보로부터 명백히 알 수 있는 관련 사실과 정황을 고려하여 서비스 이용 자, 개인, 단체 또는 이의제기자가 제(1)항과 제(2) 항의 오남용에 관여했는지 여부를 평가하여야 한 다. 이러한 정황은 적어도 다음을 포함하여야 한 다.

(a) 지정 기간 동안 제출된 명백히 불법적인 콘텐 츠 또는 명백히 근거 없는 신고 또는 불만 항목의 절대 수 (b) 지정 기간 동안 제공된 정보 또는 제출된 신고 항목의 전체 건수 대비 위 절대 수의 상대적 비율 (c) 불법 콘텐츠의 성격을 포함한 오남용 및 그 결 과의 심각성 (d) 식별이 가능한 경우, 서비스 이용자, 개인, 단체 또는 불만제기자의 의도

4. 온라인 플랫폼 제공자는 제(1)항과 제(2)항의 오남용에 대한 정책을 이용약관에 명확하고 상세 하게 명시해야 하고, 특정 행위의 오남용 해당 여 부와 중단 기간을 평가하는 데 고려하는 사실과 정 황의 예를 제공하여야 한다.

제24조(온라인 플랫폼 제공자의 투명성 보고 의무)

1. 온라인 플랫폼 제공자는 제15조의 보고서에 동 조에서 정한 정보 외에도 다음의 정보를 포함하여 야 한다.

(a) 제21조의 소송 외 분쟁해결기관에 접수된 분 쟁 건수, 분쟁해결 결과, 분쟁해결절차를 완료하는 데 걸린 시간의 중간값, 온라인 플랫폼 제공자가 기관의 결정을 이행한 분쟁의 비율 (b) 명백히 불법적인 콘텐츠 제공, 명백히 근거 없 는 신고에 따른 중단과 명백히 근거 없는 불만 제 출에 따른 중단을 구분하여, 제23조에 따라 부과 된 중단 건수

2. 제공자는 2023년 2월 17일까지 그리고 이후 최 소 6개월마다 각 온라인 플랫폼 또는 온라인 검색 엔진을 위하여 온라인 인터페이스의 공개 섹션에 지난 6개월 간 평균값으로 산출되고 제33조(3)의 위임입법이 채택된 경우에는 위 위임입법에서 정 한 방법론에 따른 유럽연합 내 월평균 활성 서비스 이용자에 관한 정보를 게시해야 한다.

3. 온라인 플랫폼 또는 온라인 검색엔진의 제공자 는 설립지 디지털서비스 조정자와 집행위원회에 이들의 요청에 따라 지체 없이 위 요청 시점 기준 으로 업데이트된 제(2)항의 정보를 전달하여야 한 다. 위 디지털서비스 조정자 또는 집행위원회는 온 라인 플랫폼 또는 온라인 검색엔진의 제공자에게 사용된 데이터에 대한 설명과 입증을 포함하여 제 (2)항의 산출에 관한 추가 정보의 제공을 요청할 수 있다. 해당 정보에는 개인정보가 포함되지 않아 야 한다.

4. 설립지 디지털서비스 조정자는 이 조 제(2)항과 제(3)항에 따라 접수된 정보를 기반으로 온라인 플 랫폼 또는 온라인 검색엔진의 제공자가 제33조(1) 에서 정한 유럽연합 내 월평균 활성 서비스 이용자 수 기준을 충족하는 것으로 판단한 이유가 있는 경 우, 이를 집행위원회에 통지하여야 한다.

5. 온라인 플랫폼 제공자는 결정과 제17조(1)의 이 유서를 집행위원회에 지체 없이 제출하여, 집행위 원회가 관리하는 공개적으로 접근 가능한 기계 판 독 형식의 데이터베이스에 포함시켜야 한다. 온라인 플랫폼 제공자는 제출된 정보에 개인정보가 포 함되지 않도록 하여야 한다.

6. 집행위원회는 이 조 제(1)항에 따른 보고서의 양식, 내용 및 그 밖의 세부사항에 관한 견본양식 을 정한 이행법률을 채택할 수 있다. 이러한 이행 법률은 제88조의 자문절차에 따라 채택된다.

제25조(온라인 인터페이스 설계와 구성)

1. 온라인 플랫폼 제공자는 서비스 이용자를 기만 하거나 조종하는 방식으로, 또는 그 밖에 자유롭게 정보에 근거한 결정을 내릴 서비스 이용자의 능력 을 실질적으로 왜곡하거나 저해하는 방식으로 온 라인 인터페이스를 설계, 구성 또는 운영할 수 없 다.

2. 제(1)항의 금지는 지침 제2005/29/EC호 또는 규정(EU) 제2016/679호가 적용되는 관행에는 적 용되지 아니한다.

3. 집행위원회는 특히 제(1)항이 다음과 같은 특정 관행에 어떻게 적용되는지에 관한 가이드라인을 발행할 수 있다.

(a) 서비스 이용자에게 결정을 요청하는 경우에 특 정한 선택을 더욱 부각시키는 경우 (b) 특히 사용자 경험을 방해하는 팝업을 표시하는 방식으로 이미 선택을 한 서비스 이용자에게 반복 적으로 선택을 요청하는 경우 (c) 서비스를 구독하는 것보다 이를 해지하는 절차 를 더 어렵게 만드는 경우

제26조(온라인 플랫폼 광고)

1. 온라인 인터페이스에 광고를 표시하는 온라인 플랫폼 제공자는 서비스 이용자가 각각의 개별 이 용자에게 노출되는 특정 광고에 대해 명확하고 간 결하며 모호하지 않은 방식으로 실시간 다음을 식 별할 수 있도록 하여야 한다.

(a) 제44조의 표준에 따른 눈에 잘 띄는 표시를 포 함하여 정보가 광고라는 사실 (b) 노출되는 광고의 광고주인 자연인이나 법인 (c) 제(b)호의 자연인이나 법인이 광고 비용을 지 불한 자연인이나 법인과 다른 경우, 광고 비용을 지불한 자연인이나 법인 (d) 표시되는 광고의 수신자를 결정하는 데 사용되 는 주요 매개변수 및 해당하는 경우 그러한 매개변 수를 변경하는 방법에 관하여 광고로부터 직접적 이고 쉽게 접근할 수 있는 유의미한 정보

2. 온라인 플랫폼 제공자는 서비스 이용자에게 이 들이 제공하는 콘텐츠가 상업적 커뮤니케이션이라 거나 이를 포함하고 있는지를 신고할 수 있는 기능 을 제공하여야 한다.

서비스 이용자가 이 항에 따라 신고를 제출하는 경 우, 온라인 플랫폼 제공자는 다른 서비스 이용자가 제44조의 표준에 따른 눈에 띄는 표시를 포함하여 실시간 명확하고 모호하지 않은 방식으로 위 신고 에서 설명한 바와 같이 서비스 이용자가 제공한 콘 텐츠가 상업적 커뮤니케이션이라거나 이를 포함하 고 있다는 것을 식별할 수 있도록 하여야 한다.

3. 온라인 플랫폼 제공자는 규정(EU) 제2016/679 호 제4조(4)에 정의된 프로파일링을 기반으로 규 정(EU) 제2016/679호 제9조(1)에서 정한 개인정 보의 특수 범주를 사용하여 서비스 이용자에게 광 고를 노출할 수 없다.

제27조(추천 시스템의 투명성)

1. 추천 시스템을 사용하는 온라인 플랫폼 제공자 는 이용약관에 위 추천 시스템에서 사용되는 주요 매개변수와 서비스 이용자가 이러한 주요 매개변 수를 수정하거나 이에 영향을 미칠 수 있는 옵션을 평이하고 이해하기 쉬운 언어로 명시하여야 한다.

2. 제(1)항의 주요 매개변수는 특정 정보를 서비스 이용자에게 제안하는 이유를 설명하여야 한다. 위 주요 매개변수는 적어도 다음을 포함하여야 한다.

(a) 서비스 이용자에게 제안하는 정보를 결정함에 있어 가장 중요한 기준 (b) 위와 같은 매개변수의 상대적 중요성에 대한 이유

3. 서비스 이용자에게 노출되는 정보의 상대적 순 서를 결정하는 추천 시스템에서 제(1)항에 따라 여 러 옵션을 사용할 수 있는 경우, 온라인 플랫폼 제 공자는 서비스 이용자가 언제든지 선호 옵션을 선 택하고 수정할 수 있는 기능도 제공하여야 한다. 이러한 기능은 정보의 우선순위가 지정되는 온라 인 플랫폼 온라인 인터페이스의 특정 섹션에서 직 접적이고 쉽게 접근할 수 있어야 한다.

제28조(온라인상의 미성년자 보호)

1. 미성년자가 접근할 수 있는 온라인 플랫폼의 제 공자는 해당 서비스에서 높은 수준의 미성년자 사 생활, 안전, 보안을 보장하기 위하여 적절하고 비 례적인 조치를 취하여야 한다.

2. 온라인 플랫폼 제공자는 서비스 이용자가 미성 년자라는 것을 합리적으로 명확하게 인지한 경우 규정(EU) 제2016/679호 제4조(4)에 정의된 프로 파일링을 기반으로 서비스 이용자의 개인정보를 이용하여 해당 인터페이스에 광고를 노출하여서는 아니 된다.

3. 이 조에 규정된 의무 준수는 온라인 플랫폼 제 공자가 서비스 이용자가 미성년자인지 판단하기 위하여 추가적으로 개인정보를 처리하는 것을 의 무화하여서는 아니 된다.

4. 집행위원회는 이사회와 협의 후 제(1)항의 적용 에 있어 온라인 플랫폼 제공자에게 도움이 되는 지침을 발행할 수 있다.

제4절 소비자가 판매자와 원격계약을 체결할 수 있도록 하는 온라인 플랫폼 제공자에게 적용되는 추가조항

제29조(극소기업과 소기업의 제외)

1. 이 절은 소비자가 권고 제2003/361/EC호에 정 의된 극소기업 또는 소기업에 해당하는 판매자와 원격계약을 체결할 수 있도록 하는 온라인 플랫폼 제공자에게 적용되지 아니한다.

이 절은 이전에 권고 제2003/361/EC호에 정의된 극소기업 또는 소기업에 해당하였던 소비자가 판 매자와 원격계약을 체결할 수 있도록 하는 온라인 플랫폼 제공자에게는 위 권고 제4조(2)에 따라 그 지위를 상실한 후 12개월 동안 적용되지 아니하 되, 위 제공자가 제33조에 따른 초대형 온라인 플 랫폼인 경우는 예외로 한다.

2. 이 조 제(1)항의 특례조항으로서, 이 절은 제33 조에 따라 초대형 온라인 플랫폼으로 지정된 판매 자와 소비자가 원격계약을 체결할 수 있도록 하는 온라인 플랫폼 제공자에게 적용되고, 위 제공자가 극소기업 또는 소기업인지 여부와는 관계없다.

제30조(판매자 추적 가능성)

1. 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼 제공자는 판매자의 서비스 이용 이전에 판매자에 대한 다음 정보를 취득한 경 우, 판매자가 유럽연합에 소재하는 소비자에게 메 시지를 홍보하거나 제품이나 서비스를 제공할 목 적으로만 해당 온라인 플랫폼을 사용할 수 있도록 하여야 한다.

(a) 판매자의 이름, 주소, 전화번호, 전자우편주소 (b) 판매자의 신원증명 서류 사본 또는 그 밖에 유 럽의회 및 이사회 규정(EU) 제910/2014호[「역 내 시장 전자 거래의 전자 식별 및 인증 서비스 및 지침 제1999/93/EC호의 폐지에 관한 2014년 7월 23일 유럽의회 및 이사회 규정(EU) 제910/2014 호」(2014년 8월 28일 관보 제L257호 73면)] 제 3조에 정의된 전자 신원증명 (c) 판매자의 결제 계정 세부 정보 (d) 판매자가 사업자등록부 또는 이와 유사한 공공 등록부에 등록된 경우, 판매자가 등록된 사업자등 록부와 등록번호 또는 해당 등록부에서 이에 상응 하는 식별 수단 (e) 적용되는 유럽연합 법률 규정을 준수하는 제품 이나 서비스만 제공하겠다는 판매자의 자체 보증

2. 소비자가 판매자와 원격계약을 체결할 수 있도록 하는 온라인 플랫폼 제공자는 제(1)항의 정보를 수령한 후 해당 판매자의 서비스 이용을 허용하기 전에, 자유롭게 접근할 수 있는 공식 온라인 데이 터베이스나 회원국 또는 유럽연합이 제공하는 온 라인 인터페이스의 이용을 통하여 또는 판매자에 대한 신뢰할 수 있는 출처의 근거자료 제공 요청을 통하여 제(1)항(a) 내지 (e)에서 정한 정보의 신뢰 성과 완전성을 평가하는 데 최선을 다하여야 한다. 이 규정의 목적상 판매자는 제공된 정보의 정확성 에 대한 책임이 있다.

2024년 2월 17일에 제(1)항의 목적을 위하여 소 비자가 판매자와 원격계약을 체결할 수 있도록 하 는 온라인 플랫폼 제공자의 서비스를 이미 사용하 고 있는 판매자와 관련하여, 제공자는 12개월 이 내에 해당 판매자로부터 앞서 열거된 정보를 취득 하기 위하여 최선을 다하여야 한다. 해당 판매자가 위 기간 내에 정보를 제공하지 아니하는 경우, 제 공자는 판매자가 모든 정보를 제공할 때까지 해당 판매자에 대한 서비스 제공을 중단하여야 한다.

3. 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼 제공자가 해당 판매자로부 터 받은 제(1)항의 정보가 부정확, 불완전하거나 최신 정보가 아니라고 볼 만한 사정이 충분하거나 그렇게 믿을 만한 근거가 있는 경우, 위 제공자는 해당 판매자에게 이를 지체 없이 또는 유럽연합 법 률 및 국내법에서 정한 기간 내에 수정할 것을 요 청하여야 한다.

판매자가 해당 정보를 수정하거나 완성하지 못하 는 경우, 소비자가 판매자와 원격계약을 체결할 수 있도록 하는 온라인 플랫폼 제공자는 요청이 완전 히 이행될 때까지 해당 판매자가 유럽연합 내 소비 자에게 제품이나 서비스를 제공하는 것과 관련된 서비스 제공을 신속하게 중단하여야 한다.

4. 규정(EU) 제2019/1150호 제4조와 관계없이, 소비자와 판매자 간 원격계약을 체결할 수 있도록 하는 온라인 플랫폼 제공자가 제(1)항에 따라 판매 자의 서비스 이용을 거부하거나 이 조 제(3)항에 따라 서비스 제공을 중단하는 경우, 해당 판매자는 이 규정 제20조 및 제21조에 규정된 바에 따라 불 만을 제기할 권리가 있다.

5. 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼 제공자는 제(1)항과 제(2) 항에 따라 취득한 정보를 해당 판매자와의 계약관 계가 종료된 후 6개월 동안 안전한 방식으로 저장 하여야 한다. 이후에는 해당 정보를 삭제하여야 한 다.

6. 이 조 제2항을 침해함이 없이, 소비자가 판매자 와 원격계약을 체결할 수 있도록 하는 온라인 플랫 폼 제공자는 제10조의 명령과 회원국 관할당국이 나 집행위원회가 이 규정에 따른 임무를 수행하기 위하여 내린 명령을 포함한 준거법에 따른 요구를 받은 경우에 한하여 제3자에게 정보를 공개하여야 한다.

7. 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼 제공자는 서비스 이용자에 게 제(1)항(a), (d) 및 (e)의 정보를 온라인 플랫폼 에 명확하고 쉽게 접근할 수 있고 이해하기 쉬운 방식으로 제공하여야 한다. 위 정보는 적어도 제품 이나 서비스에 관한 정보가 노출되는 온라인 플랫 폼의 온라인 인터페이스에서 이용할 수 있어야 한 다.

제31조(설계 기준 준수)

1. 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼 제공자는 판매자가 유럽연 합 준거법에 따라 사전 계약 정보, 규정 준수 및 제 품 안전 정보에 관한 의무를 준수할 수 있도록 온 라인 인터페이스를 설계하고 구성하여야 한다.

특히 해당 제공자는 온라인 인터페이스를 통해 판 매자가 규정(EU) 제2019/1020호 제3조(13) 및 그 밖의 유럽연합 법률에 정의된 경제운영자의 이 름, 주소, 전화번호, 전자우편주소에 관한 정보를 제공할 수 있도록 하여야 한다.

2. 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼 제공자는 판매자가 적어도 다음을 제공할 수 있도록 하는 방식으로 온라인 인 터페이스를 설계하고 구성하여야 한다.

(a) 제공자의 서비스를 통해 유럽연합에 소재하는 소비자에게 홍보하거나 제공되는 제품이나 서비스 를 명확하고 모호하지 않게 식별하는 데 필요한 정 보 (b) 상표, 기호 또는 로고 등 판매자를 식별하는 기 호 (c) 해당하는 경우, 제품 안전과 제품 준수에 관한 유럽연합 준거법 규정을 준수하는 라벨링과 표시 에 관한 정보

3. 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼 제공자는 해당 판매자가 자 신의 제품이나 서비스를 해당 플랫폼에서 제공하 도록 허용하기 위해서는 그 판매자가 제(1)항과 제 (2)항의 정보를 제공하였는지를 평가하는 데 최선 의 노력을 기울여야 한다. 소비자가 판매자와 원격 계약을 체결할 수 있도록 하는 온라인 플랫폼 제공 자는 판매자에게 그러한 서비스를 허용한 이후에 는, 자유롭게 접근할 수 있는 기계 판독 형식의 공 식 온라인 데이터베이스 또는 온라인 인터페이스 에서 판매자가 제공한 제품이나 서비스가 불법적 인 것으로 식별되었는지 여부를 무작위로 확인하 는 데 합리적인 노력을 기울여야 한다.

제32조(정보에 대한 권리)

1. 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼 제공자는 사용된 수단과 관 계없이 판매자가 온라인 플랫폼 서비스를 통해 유 럽연합에 소재하는 소비자에게 불법적인 제품이나 서비스를 제공한 것을 알게 된 경우, 해당 제공자 는 위 서비스를 통해 불법적인 제품이나 서비스를 구매한 소비자의 상세 연락처를 가지고 있는 경우, 그 소비자에게 다음을 통지하여야 한다.

(a) 제품이나 서비스가 불법적이라는 사실 (a) 판매자의 신원 (c) 모든 관련 구제수단 제1문단에 규정된 의무는 제공자가 위법성을 알게 된 시점으로부터 직전 6개월 이내에 불법적인 제 품이나 서비스의 구매가 이루어진 경우로 제한한 다.

2. 소비자가 판매자와 원격계약을 체결할 수 있도 록 하는 온라인 플랫폼 제공자가 제(1)항의 상황에 서 해당 소비자의 상세 연락처를 가지고 있지 않은 경우, 불법적인 제품 또는 서비스에 관한 정보, 판 매자의 신원과 모든 관련 구제수단을 온라인 인터 페이스에서 공개적으로 이용 가능하고 쉽게 접근 할 수 있도록 하여야 한다.

제5절 초대형 온라인 플랫폼과 초대 형 온라인 검색엔진의 제공자의 구조 적 위험관리에 대한 추가 의무

제33조(초대형 온라인 플랫폼과 초대형 온라 인 검색엔진)

1. 이 절은 유럽연합 내 월평균 활성 서비스 이용자가 4,500만 명 이상이고, 제(4)항에 따라 초대형 온라인 플랫폼 또는 초대형 온라인 검색으로 지정 된 온라인 플랫폼과 온라인 검색엔진에 적용된다.

2. 유럽연합 인구가 2020년도 인구 수 또는 가장 최근 위임입법이 채택된 연도의 위임입법에 따라 조정된 인구 수 대비 적어도 5퍼센트 증감한 경우, 집행위원회는 제(1)항의 유럽연합 내 월평균 활성 서비스 이용자 수를 조정하기 위하여 제87조에 따 라 위임입법을 채택하여야 한다. 이러한 경우 집행 위원회는 그 수치를 조정하여 위임입법을 채택한 연도의 유럽연합 인구 중 10퍼센트에 상응하도록 하여야 하고, 그 수치는 백만 단위로 표시될 수 있 도록 반올림 또는 내림한다.

3. 집행위원회는 이 조 제(1)항과 제24조(2)의 목 적상 시장과 기술 발전을 고려한 방법론을 보장하 기 위하여 유럽연합 내 월평균 활성 서비스 이용자 수를 산출하는 방법론을 정함으로써 이 규정의 조 항을 보충하는 위임입법을 이사회와 협의 후 제87 조에 따라 채택할 수 있다.

4. 집행위원회는 설립지 회원국과 협의 후 또는 제 24조(4)에 따라 설립지 디지털서비스 조정자로부 터 제공받은 정보를 고려하여, 이 규정의 목적을 위하여 월평균 활성 서비스 이용자 수가 이 조 제 (1)항의 수와 같거나 이를 초과하는 온라인 플랫폼 또는 온라인 검색엔진을 초대형 온라인 플랫폼 또 는 초대형 온라인 검색엔진으로 지정하는 결정을 채택하여야 한다. 집행위원회는 제24조(2)에 따라 온라인 플랫폼 또는 온라인 검색엔진의 제공자가 보고한 데이터 또는 제24조(3)에 따라 요청한 정 보 또는 그 밖에 집행위원회가 이용할 수 있는 정 보를 근거로 결정을 내려야 한다.

온라인 플랫폼 또는 온라인 검색엔진의 제공자가 제24조(2)를 준수하지 않거나 제24조(3)에 따른 디지털서비스 조정자 또는 집행위원회의 요청을 이행하지 아니하는 경우에도, 집행위원회는 위 제 공자를 이 항에 따라 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자로 지정할 수 있 다. 집행위원회가 이 항 제1문단에 따라 그 밖에 집행 위원회가 이용할 수 있는 정보 또는 제24조(3)에 따라 요청한 추가 정보를 근거로 결정하는 경우, 집행위원회는 해당 온라인 플랫폼 또는 온라인 검 색엔진의 제공자가 집행위원회의 예비적 판단과 해당 온라인 플랫폼 또는 온라인 검색엔진을 각 초 대형 온라인 플랫폼 또는 초대형 온라인 검색엔진 으로 지정하려는 계획에 대한 견해를 제출할 수 있 도록 10영업일을 제공하여야 한다. 집행위원회는 해당 제공자가 제출한 의견을 적절히 고려하여야 한다. 온라인 플랫폼 또는 온라인 검색엔진의 제공자가 제3문단에 따른 견해를 제출하지 아니하는 경우에 도, 집행위원회는 그 밖에 이용 가능한 정보를 근 거로 해당 제공자를 각 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자로 지정할 수 있 다.

5. 집행위원회는 1년간 연속하여 온라인 플랫폼 또 는 온라인 검색엔진의 월평균 활성 서비스 이용자 수가 제(1)항의 수와 같지 않거나 이를 초과하지 않는 경우, 지정을 종료하여야 한다.

6. 집행위원회는 제(4)항과 제(5)항에 따른 결정을 지체 없이 해당 온라인 플랫폼 또는 온라인 검색엔 진의 제공자, 이사회, 설립지 디지털서비스 조정자 에게 통지하여야 한다.

집행위원회는 지정한 초대형 온라인 플랫폼과 초 대형 온라인 검색엔진 목록을 유럽연합 공식 저널 에 게시하고, 위 목록을 최신 상태로 유지하여야 한다. 이 절에 규정된 의무는 제1문단과 같이 해당 제공자에게 통지가 이루어진 날부터 4개월이 지난 후 해당 초대형 온라인 플랫폼과 초대형 온라인 검 색엔진에 적용되거나 그 적용이 중단된다.

제34조(위험평가)

1. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 이들 서비스와 알고리즘 시스템을 비롯한 관련 시스템의 설계 또는 기능, 혹은 서비 스의 이용으로부터 발생하는 유럽연합 내 구조적 위험을 성실하게 식별, 분석, 평가하여야 한다.

위 제공자는 제33조(6) 제2문단의 적용일까지, 그 이후에는 최소한 매년 1회, 그리고 어떠한 경우에 도 이 규정에 따라 식별된 위험에 중대한 영향을 미칠 가능성이 있는 기능을 도입하기 전에 위험평 가를 수행하여야 한다. 위험평가는 심각성과 개연 성을 고려하여 해당 서비스별로 특정하여 구조적 위험에 비례하게 수행되어야 하고, 다음의 구조적 위험을 포함하여야 한다. (a) 서비스를 통한 불법 콘텐츠의 유포 (b) 기본권, 특히 헌장 제1조에 명시된 인간의 존 엄성, 헌장 제7조에 명시된 사생활과 가족 생활의 존중, 헌장 제8조에 명시된 개인정보 보호, 언론의 자유 및 다원주의를 포함하여 헌장 제11조에 명시 된 표현과 정보의 자유, 헌장 제21조에 명시된 차 별 금지, 헌장 제24조에 명시된 아동의 권리, 헌장 제38조에 명시된 높은 수준의 소비자 보호에 관한 기본권 행사에 미칠 수 있는 모든 실제적 또는 예 측 가능한 부정적인 영향 (c) 시민 담론, 선거 절차 및 공공 안전에 미칠 수 있는 모든 실제적 또는 예측 가능한 부정적인 영향 (d) 젠더 기반 폭력, 공중보건 및 미성년자의 보호 와 관련한 실제적 또는 예측 가능한 부정적인 영향 과 개인의 신체적, 정신적 건강에 대한 심각한 부 정적인 결과

2. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 위험평가를 수행함에 있어, 특히 다 음의 요소가 제(1)항의 구조적 위험에 영향을 미치 는지 여부와 그 방식을 고려하여야 한다.

(a) 추천 시스템과 그 밖의 관련 알고리즘 시스템 의 설계 (b) 콘텐츠 조정 시스템 (c) 적용되는 이용약관과 그 시행 (d) 광고 선택과 노출 시스템 (e) 제공자의 관행과 관련한 데이터 평가는 불법 콘텐츠와 이용약관에 위배되는 정보 의 증폭 및 잠재적으로 신속하고 광범위한 배포뿐 만 아니라 서비스의 부진정한 사용 또는 자동화 이 용을 포함한 서비스의 의도적 조작이 제(1)항의 위 험에 영향을 미치는지 여부와 그 방식을 분석하여 야 한다. 평가는 특정 지역적 또는 언어적 특성을 고려하여 야 하고, 위와 같은 특성이 회원국에 특유한 경우 도 이에 포함된다.

제35조(위험 완화)

1. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 제34조에 따라 식별된 특정 구조적 위험에 맞춰 합리적이고 비례적이며 효과적인 완 화 조치를 마련하여야 하고, 이때 특히 위 조치가 기본권에 미치는 영향을 고려하여야 한다. 이러한 조치는 해당되는 경우 다음을 포함할 수 있다.

(a) 온라인 인터페이스를 포함한 서비스의 설계, 특성 또는 기능의 조정 (b) 이용약관 및 그 시행의 조정 (c) 특정 유형의 불법 콘텐츠 관련 신고 처리 속도 및 능력, 필요한 경우 특히 불법 혐오발언이나 사 이버 폭력과 관련하여 신고된 콘텐츠의 신속한 삭 제 또는 접근 차단을 비롯한 콘텐츠 조정절차의 조 정 및 모든 관련 의사 결정 절차와 콘텐츠 조정을 위한 전담 자원의 조정 (d) 추천 시스템을 포함한 알고리즘 시스템의 평가 및 조정 (e) 제공하는 서비스와 관련하여 광고 노출을 제한 하거나 수정하기 위한 광고 시스템의 조정 및 표적 화 조치의 채택 (f) 특히 구조적 위험의 탐지와 관련하여, 모든 활 동의 내부 절차, 자원, 평가, 문서화 또는 감독의 강화 (g) 제22조에 따른 신뢰할 수 있는 신고자와의 협 력 개시 또는 조정 및 제21조에 따른 소송 외 분쟁 해결기관의 결정 이행 (h) 제45 및 제48조의 각 행동강령 및 위기대응규 약을 통한 다른 온라인 플랫폼 또는 온라인 검색엔 진의 제공자와의 협력 개시 또는 조정 (i) 서비스 이용자에게 더 많은 정보를 제공하기 위 한 인식 제고 조치 시행 및 온라인 인터페이스 조 정 (j) 적절한 경우 연령 인증과 자녀 보호 도구, 미성 년자가 학대 신호를 보내거나 지원을 받을 수 있도 록 돕는 도구를 포함하여, 아동의 권리를 보호하기 위한 표적화 조치 시행 (k) 실존 인물, 물체, 장소 또는 그 밖의 개체나 사 건과 상당히 유사하고 마치 진정하거나 진실인 것 처럼 보이도록 생성되었거나 조작된 이미지, 오디 오 또는 비디오로 구성된 정보 항목이 온라인 인터 페이스에 노출되는 경우, 눈에 잘 띄는 표시를 통 한 구별의 보장 및 추가로 서비스 이용자가 그러한 정보를 표시할 수 있도록 사용하기 쉬운 기능의 제 공

2. 이사회는 집행위원회와의 협력 하에 연 1회 통 합 보고서를 발행하여야 한다. 보고서는 다음을 포 함하여야 한다.

(a) 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자로부터 보고받거나, 또는 그 밖의 정보 원, 특히 제39조, 제40조 및 제42조에 따라 제공 된 정보원을 통해 식별된 가장 두드러지고 반복되 는 구조적 위험의 식별과 평가 (b) 식별된 구조적 위험을 완화하기 위한 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공 자의 모범사례 위 보고서는 구조적 위험이 발생한 회원국별로, 적 절한 경우에는 유럽연합 전체로 나누어 구조적 위 험을 제시하여야 한다.

3. 집행위원회는 디지털서비스 조정자과의 협력 하에 특히 모범사례를 제시하고 가능한 조치를 권 고하기 위하여, 이러한 조치가 모든 관련 당사자의 헌장에 명시된 기본권에 미칠 예상 결과를 고려하 여, 특정 위험에 관한 제(1)항의 적용에 대한 지침 을 발행할 수 있다. 위 지침 준비 시, 집행위원회는 공개 협의체를 구성하여야 한다.

제36조(위기대응체계)

1. 집행위원회는 위기 발생 시 이사회의 권고에 따 라 결정을 채택하여, 하나 이상의 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자에 게 다음 중 하나 이상의 조치를 취하도록 요구할 수 있다.

(a) 서비스의 기능과 이용이 제(2)항의 심각한 위 협에 상당히 기여하거나 기여할 가능성이 있는지 여부 및 만약 그러하다면 그 정도와 방식에 대하여 평가한다. (b) 이 항 제(a)호에 따라 식별된 심각한 위협에의 기여를 방지, 제거, 제한하기 위하여, 제35조(1) 또 는 제48조(2)에 규정된 조치와 같이 구체적이고 효과적이며 비례적인 조치를 식별하고 적용한다. (c) 결정에 규정된 바에 따라 제(a)호의 평가, 제 (b)호에 따라 이루어진 특정 조치의 구체적인 내 용, 이행과 정성적 및 정량적 영향, 이러한 평가 또 는 조치와 관련된 그 밖의 문제에 관하여 결정에서 지정한 특정 기한까지 또는 정기적인 주기로 집행 위원회에 보고한다. 서비스 제공자 또는 제공자들은 이 항 제(b)호에 따라 조치를 식별하고 적용함에 있어, 제(2)항의 심각한 위협의 중대성, 조치의 긴급성, 조치로 인 하여 헌장에 명시된 기본권을 보호하지 못할 가능 성을 포함하여 모든 관련 당사자의 권리와 정당한 이익에 미치는 실제적 또는 잠재적 영향을 고려하 여야 한다.

2. 이 조의 목적상, 특수한 상황이 유럽연합 전체 또는 상당한 부분에서 공공 안전 또는 공중보건에 심각한 위협을 초래하는 경우, 위기가 발생한 것으 로 보아야 한다.

3. 집행위원회는 제(1)항의 결정을 내림에 있어 다 음의 요건을 모두 충족하여야 한다.

(a) 결정에서 요구하는 조치는, 특히 제(2)항의 심 각한 위협의 중대성, 조치의 긴급성, 조치가 헌장 에 명시된 기본권을 보호하지 못할 가능성을 포함 하여 모든 관련 당사자의 권리와 정당한 이익에 미 치는 실질적 또는 잠재적 영향을 고려하여 엄격하 게 필요하고 정당하며 비례적일 것 (b) 특히 제(1)항(b)의 특정 조치의 긴급성과 이를 준비하고 이행하는 데 필요한 시간을 고려하여, 결 정에서 위 조치를 취하는 데 필요한 합리적인 기간을 명시할 것 (c) 결정에서 요구하는 조치는 3개월을 초과하지 않는 기간으로 제한할 것

4. 집행위원회는 제(1)항의 결정을 채택한 후, 지 체 없이 다음을 수행하여야 한다.

(a) 결정의 대상인 제공자 또는 제공자들에게 해당 결정을 통지한다. (b) 결정을 공개한다. (c) 이사회에 결정을 통지하고, 결정에 대한 견해 를 요청하며, 결정과 관련된 후속 진행 사항을 계 속 알린다.

5. 제(1)항(b), 제(7)항 제2문단에 따라 취할 특정 조치의 선택은 집행위원회의 결정 대상인 제공자 또는 제공자들이 하여야 한다.

6. 집행위원회는 제공자의 특정 상황에 비추어 제 (1)항(b)에 따라 계획되거나 이행된 조치가 목표를 달성하는 데 효과적이고 비례적인지를 판단하기 위하여 직권으로 또는 제공자의 요청에 따라 제공 자와 대화를 할 수 있다. 특히, 집행위원회는 서비 스 제공자가 제(1)항(b)에 따라 취한 조치가 제(3) 항(a)와 (c)의 요건을 충족하도록 하여야 한다.

7. 집행위원회는 위기의 전개 상황을 고려하여, 이 조 제(1)항 제(c)호의 보고서와 제40조 및 제67조 에 따라 요청할 수 있는 정보를 비롯한 그 밖의 관 련 정보를 기반으로 이 조 제(1)항의 결정에 따라 시행한 특정 조치의 적용을 모니터링하여야 한다. 집행위원회는 최소한 매월 정기적으로 이사회에 위 모니터링에 대해 보고하여야 한다.

집행위원회는 제(1)항(b)에 따라 계획되거나 이행 된 특정 조치가 효과적이지 않거나 비례적이지 않 다고 판단하는 경우, 이사회와 협의 후 제공자로 하여금 그러한 특정 조치의 식별 또는 적용을 재검 토하도록 요구하는 결정을 채택할 수 있다.

8. 집행위원회는 위기의 전개 상황을 고려하여 적 절한 경우, 이사회의 권고에 따라 제(1)항 또는 제 (7)항 제2문단의 결정을 다음과 같이 변경할 수 있 다.

(a) 해당 결정의 취소 및 적절한 경우, 특히 제(1) 항(b) 또는 제(7)항 제2문단에 따라 식별하고 이행 한 조치의 근거가 더 이상 존재하지 아니하는 경 우, 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진에 대한 해당 조치의 적용 중단 요구 (b) 제(3)항(c)에서 정한 기간의 3개월 범위 내의 연장 (c) 조치 적용을 통해 얻은 경험, 특히 조치가 헌장에 명시된 기본권을 보호하지 못할 가능성의 고려

9. 제(1)항 내지 제(6)항의 요건은 이 조의 결정과 그 변경결정에 적용된다.

10. 집행위원회는 이 조에 따라 이루어진 이사회 의 권고를 최대한 고려하여야 한다.

11. 집행위원회는 이 조항에 따른 결정 채택 후 매 년, 어떠한 경우에도 위기 상황이 종료된 후 3개월 이내에 유럽의회 및 유럽연합 이사회에 그러한 결 정에 따른 특정 조치의 적용에 대해 보고하여야 한 다.

제37조(독립적 감사)

1. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 최소한 연 1회 자체 비용으로 다음 에 관한 준수 여부를 평가하기 위하여 독립된 감사 를 받아야 한다.

(a) 제III장에 규정된 의무 (b) 제45조 및 제46조의 행동강령 및 제48조의 위 기대응규약에 따른 모든 서약

2. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 이 조에 따라 감사를 수행하는 조직 이 적시에 효과적이고 효율적인 방식으로 감사를 수행할 수 있도록, 위 조직에 모든 관련 데이터와 사내 접근권한을 부여하고 구두 또는 서면 질문에 답변하는 등 필요한 협력 및 지원을 제공하여야 한다. 제공자는 감사 수행을 방해하거나 부당한 영향 을 미치거나 약화시키는 행위를 삼가야 한다.

이러한 감사는, 감사 종료 이후를 포함하여 감사 과정에서 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자, 제3자로부터 취득한 정보와 관련하여 합당한 수준의 기밀성과 직무상 비밀 유 지를 보장하여야 한다. 그러나 이러한 요건의 준수 가 감사의 수행과 그 밖에 이 규정의 조항, 특히 투 명성, 감독, 집행에 관한 조항에 부정적인 영향을 주어서는 아니 된다. 제42조(4)에 따른 투명성 보고 목적상 필요한 경우, 이 조 제(4)항 및 제(6)항 의 감사보고서와 감사이행보고서에는 기밀이라고 합리적으로 판단되는 정보를 포함하지 않은 버전 을 첨부하여야 한다.

3. 제(1)항에 따른 감사는 다음의 요건을 갖춘 조 직에 의해 수행되어야 한다.

(a) 관련 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자, 위 제공자와 연결된 법인으 로부터 독립적이고 이해 충돌이 없으며, 특히 다음 에 해당할 것 (i) 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자, 위 제공자와 연결된 모든 법인에 대하여 감사 개시 전 12개월 동안 감사 사 안과 관련하여 비감사서비스를 제공하지 않았고, 감사 완료 후 12개월 동안 위와 같은 서비스를 제 공하지 않겠다고 서약한 경우 (ii) 관련 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자, 위 제공자와 연결된 모든 법인에 대하여 연속 10년 이상 이 조에 따른 감사 서비스를 제공하지 않은 경우 (iii) 감사 결과에 따라 달라지는 수수료를 대가로 감사를 수행하지 않는 경우 (b) 위험관리 분야의 전문지식, 기술적 능력 및 역 량을 입증하였을 것 (c) 특히 직무 규칙이나 관련 표준의 준수를 근거 로 객관성과 직업 윤리를 입증하였을 것

4. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 감사를 수행하는 조직이 각 감사에 대한 감사보고서를 작성하도록 하여야 한다. 위 보 고서는 서면으로 구체적으로 작성되어야 하고, 적 어도 다음을 포함하여야 한다.

(a) 감사 대상인 초대형 온라인 플랫폼 또는 초대 형 온라인 검색엔진의 제공자의 이름, 주소, 연락 창구 및 감사 대상 기간 (b) 감사를 수행하는 조직의 이름과 주소 (c) 이해관계 선언 (d) 감사가 이루어진 특정 요소에 대한 설명과 적 용된 방법론 (e) 감사의 주요 결과에 대한 설명과 요약 (f) 감사의 일환으로 협의한 제3자 목록 (g) 감사 대상인 초대형 온라인 플랫폼 또는 초대 형 온라인 검색엔진의 제공자가 제(1)항의 의무와 서약을 준수하였는지 여부에 대한 감사의견, 즉 ' 긍정', '의견이 포함된 긍정' 또는 '부정'의 감사의 견 (h) 감사의견이 ‘긍정’이 아닌 경우, 규정 준수를 위한 특정 조치와 규정 준수 권고기한에 대한 운영 권고안

5. 감사를 수행하는 조직이 특정 요소를 감사할 수 없거나 조사에 근거하여 감사의견을 표명할 수 없 는 경우, 감사보고서는 위와 같은 상황과 해당 요 소를 감사할 수 없는 이유에 대한 설명을 포함하여 야 한다.

6. ‘긍정’ 의견이 아닌 감사보고서를 받은 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제 공자는 운영 권고안의 이행에 필요한 조치를 취하 기 위해 위 운영 권고안을 적절히 고려하여야 한다. 제공자는 권고안을 받은 후 1개월 이내에 이러 한 조치를 제시한 감사이행보고서를 채택하여야 한다. 제공자가 운영 권고안을 이행하지 아니하는 경우, 감사이행보고서에서 그 이유의 정당성을 소 명하고, 식별된 미준수 사례를 해결하기 위해 취한 대안적 조치를 제시하여야 한다.

7. 집행위원회는 이 조에 따른 감사 수행에 필요한 규칙, 특히 절차적 단계, 감사 방법론, 이 조에 따 라 수행한 감사의 보고 양식에 관한 규칙을 정함으 로써 이 규정을 보완하기 위하여 제87조에 따라 위임입법을 채택할 권한이 있다. 이러한 위임입법 은 제44조(1)(e)의 임의 감사표준을 고려하여야 한다.

제38조(추천 시스템)

제27조에서 정한 요건에 추가하여, 추천 시스템을 사용하는 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자는 규정(EU) 제2016/679호 제 4조(4)에 정의된 프로파일링을 기반으로 하지 아 니하는 각 추천 시스템에 대한 옵션을 하나 이상 제공하여야 한다.

제39조(추가적인 온라인 광고의 투명성)

1. 온라인 인터페이스에 광고를 노출하는 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제 공자는 전체 광고 노출 기간과 온라인 인터페이스 에 마지막 광고를 노출한 후 1년까지 온라인 인터 페이스의 특정 섹션에서 다기준 쿼리를 허용하는 검색 가능하고 신뢰할 수 있는 도구와 응용 프로그 래밍 인터페이스를 통하여, 제(2)항의 정보를 보관 하는 저장소를 공개하여야 한다. 저장소는 광고에 노출되었거나 노출될 수 있었던 서비스 이용자의 개인정보를 포함하지 않아야 하고, 정보가 정확하 고 완전하도록 합리적인 노력을 기울여야 한다.

2. 저장소는 적어도 다음 정보를 모두 포함하여야 한다.

(a) 제품, 서비스 또는 브랜드의 이름과 광고 주제 를 포함한 광고의 내용 (b) 게시되는 광고의 광고주인 자연인이나 법인 (c) 제(b)호의 자연인이나 법인이 광고 비용을 지 불한 자연인이나 법인과 다른 경우, 광고 비용을 지불한 자연인이나 법인 (d) 광고가 게시된 기간 (e) 광고가 특별히 하나 이상의 특정 서비스 이용 자 집단에 노출되도록 의도되었는지 여부 및 만약 그러한 경우 하나 이상의 특정 집단을 제외하는 데 사용되는 주요 매개변수를 포함하여 위와 같은 목 적에 사용되는 주요 매개변수 (f) 초대형 온라인 플랫폼에 게시되고 제26조(2)에 따라 식별되는 상업적 커뮤니케이션 (g) 도달된 총 서비스 이용자 수와 해당하는 경우 광고가 특별히 표적화한 이용자 집단을 회원국별 로 집계한 수

3. 제(2)항(a), (b) 및 (c)와 관련하여, 초대형 온라 인 플랫폼 또는 초대형 온라인 검색엔진의 제공자 가 불법성 또는 이용약관의 위반을 근거로 특정 광 고를 삭제하거나 접근을 차단한 경우, 저장소는 위 각 목에서 정한 정보를 포함하지 아니한다. 이러한 경우, 저장소는 해당 특정 광고에 대해 제17조 (3)(a) 내지 (e) 또는 제9조(2)(a)(i)에서 정한 정보 중 해당되는 정보를 포함하여야 한다.

집행위원회는 이사회, 제40조의 관련 검증된 연구 원 및 일반 대중과 협의 후 이 조의 저장소의 구조, 조직, 기능에 관한 지침을 발행할 수 있다.

제40조(데이터 열람과 검토)

1. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자는 설립지 디지털서비스 조정자 또 는 집행위원회에 이유가 포함된 이들의 요청에 따 라 위 요청에서 지정한 합리적인 기간 내에 이 규 정의 준수를 모니터링하고 평가하는 데 필요한 데 이터에 대한 접근을 제공하여야 한다.

2. 디지털서비스 조정자와 집행위원회는 제(1)항 에 따라 접근한 데이터를 오로지 이 규정의 준수를 모니터링하고 평가하는 목적으로 이용하여야 하 고, 개인정보 보호, 기밀 정보, 특히 영업비밀 보 호, 서비스 보안 유지를 포함하여 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자, 해 당 서비스 이용자의 권리와 이익을 고려하여야 한 다.

3. 제(1)항의 목적을 위하여, 초대형 온라인 플랫 폼 또는 초대형 온라인 검색엔진의 제공자는 설립 지 디지털서비스 조정자 또는 집행위원회의 요청 에 따라 추천 시스템을 비롯한 알고리즘 시스템의 설계, 논리, 기능, 검사를 설명하여야 한다.

4. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자는 설립지 디지털서비스 조정자의 이유가 포함된 요청에 따라 요청에서 명시한 합리 적인 기간 내에 제(8)항의 요건을 충족하는 검증된 연구원에게 오로지 제34조(1)에 명시된 바에 따라 유럽연합 내 구조적 위험을 탐지, 식별, 이해하고 제35조에 따른 위험완화조치의 적절성, 유효성, 영향을 평가하는 데 기여하는 연구를 수행할 목적 에 한하여 데이터에 대한 접근을 제공하여야 한다.

5. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자는 제(4)항의 요청을 받은 후 15일 이내에 다음 두 가지 이유 중 하나로 인하여 요청 된 데이터에 대한 접근을 부여할 수 없는 경우, 설 립지 디지털서비스 조정자에게 요청을 수정할 것 을 요청할 수 있다.

(a) 데이터에 대한 접근권한이 없는 경우 (b) 데이터에 대한 접근권한 부여 시 서비스 보안 또는 기밀 정보, 특히 영업비밀 보호에 중대한 취 약성이 발생하는 경우

6. 제(5)항에 따른 수정 요청에는 요청된 데이터 또는 요청 목적에 적합하고 충분한 그 밖의 데이터 에 대한 접근을 제공할 수 있는 하나 이상의 대체 수단에 대한 제안이 포함되어야 한다.

설립지 디지털서비스 조정자는 15일 이내에 수정 요청에 대한 결정을 내리고, 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자에게 그 결 정과 함께, 관련이 있는 경우 수정된 요청과 위 요 청을 이행하여야 하는 새로운 기간을 전달하여야 한다.

7. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자는 온라인 데이터베이스 또는 어플 리케이션 프로그래밍 인터페이스를 포함하여 요청 에 명시된 인터페이스를 통해, 제(1)항 및 제(4)항 에 따른 데이터 접근이 용이하도록 하고 또 이를 제공하여야 한다.

8. 설립지 디지털서비스 조정자는 연구원의 적절 한 입증이 있는 신청에 따라 연구원이 다음 조건을 모두 입증하는 경우, 위 연구원에게 신청서에 명시 된 특정 연구에 위하여 ‘검증된 연구원’의 지위를 부여하고, 제(4)항에 따라 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자에게 이유 가 포함된 데이터 접근 요청을 하여야 한다.

(a) 지침(EU) 제2019/790호 제2조(1)에 정의된 연구기관에 소속되어 있다. (b) 상업적 이해관계로부터 독립적이다. (c) 신청서에 연구 자금을 공개한다. (d) 각 요청에 상응하는 특정 데이터의 보안과 기 밀성 요건을 준수하고 개인정보를 보호할 능력이 있으며, 요청에 지금까지 수행해 온 적절한 기술적 및 조직적 조치를 설명한다. (e) 신청서에서 요청된 데이터에 대한 접근과 기간이 연구 목적에 필요하고 비례적이며, 해당 연구의 예상 결과가 제(4)항에 규정된 목적에 기여할 것임 을 설명한다. (f) 계획한 연구활동을 제(4)항에 명시된 목적을 위 하여 수행할 것이다. (g) 규정(EU) 제2016/679호에 따라 연구 종료 후 합리적인 기간 내에 관련 서비스 이용자의 권리와 이익에 따라 연구 결과를 무상으로 공개할 것을 서 약하였다. 설립지 디지털서비스 조정자는 이 항에 따른 신청 서 접수 시 집행위원회와 이사회에 이를 통지하여 야 한다.

9. 연구원은 소속 연구기관의 회원국 디지털서비 스 조정자에게 신청서를 제출할 수 있다. 디지털서 비스 조정자는 이 항에 따른 신청서 접수 시 해당 연구원이 제(8)항에서 명시한 모든 조건을 충족하 는지 여부에 대해 1차 평가를 수행하여야 한다. 디 지털서비스 조정자는 해당 연구원이 제출한 신청 서와 근거자료, 1차 평가서를 설립지 디지털서비 스 조정자에게 발송하여야 한다. 설립지 디지털서 비스 조정자는 연구원에게 ‘검증된 연구원’의 지위 를 부여할지에 대해 지체 없이 결정하여야 한다.

제공된 1차 평가를 적절히 고려하는 한편, 연구원 에게 ‘검증된 연구원’의 지위를 부여하는 종국결정 을 내릴 권한은 제(8)항에 따라 설립지 디지털서비 스 조정자에게 있다.

10. 검증된 연구원의 지위를 부여하고 연구원을 위 해 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자에게 이유가 포함된 데이터 접근 요 청을 한 디지털서비스 조정자는 직권으로 또는 제 3자로부터 받은 정보에 근거하여 이루어진 조사에 서 검증된 연구원이 더 이상 제(8)항에 명시된 조 건을 충족하지 아니하는 것으로 판단하는 경우, 접 근 종료 결정을 내려야 하고, 결정과 관련된 초대 형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자에게 이를 통지하여야 한다. 디지털서비스 조정자는 접근을 종료하기 전에 검증된 연구원이 조사 결과와 접근 종료 계획에 대응할 수 있도록 하여야 한다.

11. 설립지 디지털서비스 조정자는 제(8)항에 따 라 ‘검증된 연구원’의 지위를 부여한 자연인 또는 단체의 이름, 연락처 정보와 함께 신청서의 연구 목적을 이사회에 전달하여야 하고, 제(10)항에 따 라 데이터 접근을 종료한 경우, 이러한 사실을 이 사회에 전달하여야 한다.

12. 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 제공자는 지체 없이 기술적으로 가능한 경우 실시간 데이터를 포함한 데이터에 대한 접근 을 제공하되, 이때 데이터는 연구원이 온라인 인터 페이스에서 공개적으로 접근할 수 있어야 하고, 연 구원은 영리단체, 조직 및 협회에 소속되지 아니한 자로서, 제(8)항(b), (c), (d) 및 (e)에 명시된 조건 을 준수하고, 제34조(1)에 따라 유럽연합 내 구조 적 위험을 탐지, 식별, 이해하는 데 기여하는 연구 를 수행할 목적으로만 데이터를 활용하여야 한다.

13. 집행위원회는 이사회와 협의 후 초대형 온라 인 플랫폼 또는 초대형 온라인 검색엔진의 제공자 가 제(1)항 및 제(4)항에 따라 데이터를 공유하는 기술적 조건 및 데이터 사용 목적을 규정함으로써 이 규정을 보완하는 위임입법을 채택하여야 한다. 위임입법은 기밀 정보, 특히 영업비밀의 보호, 서 비스 보안 유지를 비롯한 초대형 온라인 플랫폼 또 는 초대형 온라인 검색엔진의 제공자, 해당 서비스 이용자의 권리와 이익을 고려하여, 규정(EU) 제 2016/679호에 따라 연구원과 데이터를 공유할 수 있는 특정 조건과 함께 관련 객관적 지표, 절차, 필 요한 경우 데이터 공유 지원에 관한 독립적인 자문 제도에 관하여 규정하여야 한다.

제41조(준법감시기능)

1. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자는 운영 기능으로부터 독립되고, 준 법감시 책임자를 포함한 1명 이상의 준법감시인으 로 구성되는 준법감시기능을 수립하여야 한다. 준 법감시기능은 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 이 규정 준수 여부를 모니터링하기 위하여 경영진에 대한 접근권한을 비롯하여 충분한 권한, 지위, 자원을 보유하여야 한다.

2. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자의 경영진은 준법감시인이 제(3)항 의 임무를 수행하는 데 필요한 전문 자격, 지식, 경 험, 능력을 갖추도록 보장하여야 한다.

초대형 온라인 플랫폼 또는 초대형 온라인 검색엔 진의 제공자의 경영진은 준법감시 책임자가 준법 감시기능에 대해 명확한 책임이 있는 독립된 시니 어 매니저임을 보장하여야 한다. 준법감시 책임자는 초대형 온라인 플랫폼 또는 초 대형 온라인 검색엔진의 제공자의 경영진에 직접 보고하여야 하고, 제34조의 위험 또는 이 규정의 미준수가 해당 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자에게 영향을 미치거나 미칠 수 있는 경우 위 경영진에 우려를 제기하고 경고할 수 있으며, 이는 경영진의 감독과 관리 기 능에 있어서의 책임에 영향을 미치지 아니한다. 준법감시 책임자는 초대형 온라인 플랫폼 또는 초 대형 온라인 검색엔진의 제공자의 경영진의 사전 승인 없이 해임될 수 없다.

3. 준법감시인은 다음과 같은 임무를 수행하여야 한다.

(a) 이 규정의 목적을 위하여 설립지 디지털서비스 조정자 및 집행위원회와 협력한다. (b) 제34조의 모든 위험을 식별하여 적절히 보고 하고, 제35조에 따라 합리적이고 비례적이며 효과 적인 위험완화조치가 시행되도록 하여야 한다. (c) 제37조에 따른 독립적 감사와 관련된 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제 공자의 활동을 조직하고 감독한다. (d) 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 제공자의 경영진과 피고용인에게 이 규 정에 따른 관련 의무를 알리고 조언한다. (e) 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 제공자의 이 규정에 따른 의무 준수 여부를 모니터링한다. (f) 해당하는 경우, 초대형 온라인 플랫폼 또는 초 대형 온라인 검색엔진의 제공자의 제45조 및 제46 조에 따른 행동강령 또는 제48조에 따른 위기대응 규약의 서약 준수 여부를 모니터링한다.

4. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자는 준법감시 책임자의 이름과 연락 처를 설립지 디지털서비스 조정자와 집행위원회에 전달하여야 한다.

5. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자의 경영진은 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 조직 내 책임 분배, 이해 충돌 방지, 제34조에 따라 식별된 구조적 위험에 대한 안전한 관리를 포함하여, 준법 감시기능의 독립성을 보장하는 제공자의 지배 구 조의 이행을 정의하고 감독하며 이에 책임을 져야 한다.

6. 경영진은 최소한 연 1회 정기적으로 초대형 온 라인 플랫폼 또는 초대형 온라인 검색엔진이 노출 되거나 노출될 수 있는 제34조에 따라 식별된 위 험을 수용, 관리, 모니터링, 완화하기 위한 전략과 정책을 승인하고 검토하여야 한다.

7. 경영진은 위험관리와 관련된 조치를 판단하는 데 충분한 시간을 할애하여야 한다. 위험관리와 관 련된 결정에 적극적으로 참여하여야 하고, 제34조 에 따라 식별된 위험의 관리에 적절한 자원이 할당 되도록 하여야 한다.

제42조(투명성 보고의무)

1. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자는 제33(6) 제2문단의 적용일부터 늦어도 2개월 이내에, 그리고 그 이후에는 최소한 6개월마다 제15조의 보고서를 발행하여야 한다.

2. 초대형 온라인 플랫폼의 제공자가 발행한 이 조 제(1)항의 보고서는 제(15)항과 제24조(1)의 정보 에 더하여 다음을 명시하여야 한다.

(a) 초대형 온라인 플랫폼 제공자가 제16조 및 제 22조에 규정된 의무 준수와 제20조에 규정된 의 무 준수를 위하여 유럽연합 내에서 제공되는 서비 스와 관련하여 적용가능한 회원국 공식 언어별로 세분화된 콘텐츠 조정에 투입하는 인력 (b) 제(a)호의 활동을 수행하는 사람의 자격, 언어 전문성과 위 직원에게 제공되는 교육 및 지원 (c) 회원국의 공식 언어별로 세분화된 정확도 지표 와 제15조(1)(e)의 관련 정보 보고서는 적어도 회원국의 공식 언어 중 하나 이상 으로 발행되어야 한다.

3. 제24조(2)의 정보에 추가하여, 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자는 이 조 제(1)항의 보고서에 회원국별 월평균 서비스 이용자 수에 대한 정보를 포함하여야 한다.

4. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자는 완료 후 지체 없이 설립지 디지털 서비스 조정자와 집행위원회에 다음을 전달하고, 제37조(4)의 각 감사보고서를 받은 후 최대 3개월 이내에 공개하여야 한다.

(a) 제34조에 따른 위험평가 결과 보고서 (b) 제35조(1)에 따라 마련된 특정 완화조치 (c) 제37조(4)의 감사보고서 (d) 제37조(6)의 감사이행보고서 (e) 해당하는 경우, 제공자가 위험평가 지원 및 위 험완화조치 계획과 관련하여 수행한 협의에 관한 정보

5. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자가 제(4)항에 따른 정보 공개로 인하 여 위 제공자 또는 서비스 이용자의 기밀 정보가 공개되거나, 서비스의 보안에 중대한 취약성이 야 기되거나, 공공 안전을 약화시키거나 서비스 이용 자에게 피해를 줄 수 있다고 판단하는 경우, 제공 자는 공개된 보고서에서 위와 같은 정보를 삭제할 수 있다. 이러한 경우 제공자는 설립지 디지털서비 스 조정자와 집행위원회에 전체 보고서와 함께 공 개된 보고서에서 정보를 삭제한 이유서를 전달하 여야 한다.

제43조(감독분담금)

1. 집행위원회는 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자에게 제33조의 지정에 따라 연간 감독분담금을 부과한다.

2. 연간 감독분담금의 총액은 이 규정에 따른 감독 활동과 관련하여 집행위원회에게 발생하는 예상 비용, 특히 제33조에 따른 지정, 제24조(5)에 따른 데이터베이스의 설치, 유지관리 및 운영, 제85조 에 따른 정보공유시스템, 제59조에 따른 위탁, 제 62조에 따른 이사회 지원, 제56조 및 제IV장제4절 에 따른 감독 활동과 관련된 비용을 포함하여야 한 다.

3. 초대형 온라인 플랫폼과 초대형 온라인 검색엔 진의 제공자는 매년 제33조에 따라 지정된 각 서 비스에 대해 연간 감독분담금을 부과받는다.

집행위원회는 각 초대형 온라인 플랫폼 또는 초대 형 온라인 검색엔진의 제공자에게 부과하는 연간 감독분담금의 금액을 설정하는 이행법률을 채택하 여야 한다. 집행위원회는 위 이행법률 채택 시 이 조 제(4)항의 위임입법에 규정된 방법론을 적용하 고, 이 조 제(5)항에 명시된 원칙을 준수하여야 한 다. 위 이행법률은 제88조의 자문절차에 따라 채 택한다.

4. 집행위원회는 제87조에 따라 다음에 대한 상세 방법론과 절차를 규정하는 위임입법을 채택하여야 한다.

(a) 제(2)항의 예상 비용의 결정 (b) 제(5)항(b), (c)에서 정한 개별 연간 감독분담 금의 결정 (c) 제(5)항(c)에 정의된 총액의 최대 상한의 결정 (d) 상세한 납부 방법 집행위원회는 위 위임입법 채택 시 이 조 제(5)항에서 명시한 원칙을 준수하여야 한다.

5. 제(3)항의 이행법률과 제(4)항의 위임입법은 다 음 원칙을 준수하여야 한다.

(a) 연간 감독분담금의 총액 예상 시 전년도에 발 생한 비용을 고려한다. (b) 연간 감독분담금은 제33조에 따라 지정된 각 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔 진의 유럽연합 내 월평균 활성 이용자 수에 비례한 다. (c) 지정된 초대형 온라인 플랫폼 또는 초대형 검 색엔진의 제공자에게 부과되는 연간 감독분담금의 총액은 어떠한 경우에도 직전 회계연도 전 세계 연 간 순이익의 0.05퍼센트를 초과하지 아니한다.

6. 이 조 제(1)항에 따라 부과되는 개별 연간 감독 분담금은 유럽의회 및 이사회 규정(EU, 유럽원자 력공동체) 제2018/1046호 제21조(5)에 따라 외 부 지정 수익을 구성한다.

7. 집행위원회는 매년 유럽의회 및 유럽연합 이사 회에 이 규정에 따른 임무 수행을 위하여 발생한 비용의 총액과 전년도에 부과된 개별 연간 감독분 담금 총액에 대해 보고하여야 한다.

제6절 상당한 주의의무에 관한 그 밖 의 규정

제44조(표준)

1. 집행위원회는 이사회와 협의하여 적어도 다음 에 관하여 관련 유럽연합 및 국제표준기구가 설정 한 임의표준의 개발과 이행을 지원 및 촉진하여야 한다.

(a) 제16조에 따른 신고의 전자 제출 (b) 이용약관 및 그 변경으로 인한 제한에 대해 사 용자 친화적인 방식으로 서비스 이용자와 의사소 통하기 위한 양식, 설계, 절차 표준 (c) 어플리케이션 프로그래밍 인터페이스 경유를 포함하여, 제22조에 따른 신뢰할 수 있는 신고자 에 의한 신고의 전자 제출 (d) 제39조 및 제40조에 규정된 의무 준수를 용이 하도록 하는 어플리케이션 프로그래밍 인터페이스 를 포함한 특정 인터페이스 (e) 제37조에 따른 초대형 온라인 플랫폼과 초대 형 온라인 검색엔진에 대한 감사 (f) 제39조(2)의 광고 저장소의 상호운용성 (g) 제26조(1)(b), (c) 및 (d)에 따른 투명성 의무 지원을 위한 광고 중개자 간의 데이터 전송 (h) 제26조에서 정한 광고와 홍보의 눈에 띄는 표 시에 관한 의무를 포함하여, 이 규정에 포함된 광 고와 관련된 의무를 준수할 수 있도록 하는 기술적 조치 (i) 제27조 및 제38조에 따라 서로 다른 유형의 추 천 시스템의 주요 매개변수에 대한 인터페이스 선 택 및 정보 표시 (j) 온라인에서 미성년자 보호를 위한 표적화 조치 에 대한 기준

2. 집행위원회는 기술 발전과 해당 서비스 이용자 의 행동에 따라 표준 갱신을 지원하여야 한다. 표 준 갱신에 관한 관련 정보는 공개적으로 이용 가능 하고 쉽게 접근할 수 있어야 한다.

제45조(행동강령)

1. 집행위원회와 이사회는 유럽연합 법률, 특히 경 쟁 및 개인정보 보호에 관한 유럽연합 법률에 따라 특히 다양한 유형의 불법 콘텐츠와 구조적 위험을 다루는 데 따르는 특정 문제들을 고려하여, 이 규 정의 적절한 적용에 기여하기 위하여 유럽연합 차 원에서의 자발적인 행동강령 입안을 장려하고 촉 진하여야 한다.

2. 제34조(1)에서 의미하는 중대한 구조적 위험이 발생하고 여러 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진들이 관련된 경우, 집행위원회는 관련 초대형 온라인 플랫폼 제공자 또는 관련 초대 형 온라인 검색 제공자, 그 밖의 초대형 온라인 플 랫폼, 초대형 온라인 검색엔진, 온라인 플랫폼 및 기타 중개서비스의 제공자, 필요한 경우 관련 관할 당국, 시민사회 단체, 그 밖의 관련 이해당사자에 게 특정 위험완화조치를 취하겠다는 서약과 이들 이 취한 모든 시행조치 및 그 결과에 대한 정기적 인 보고체계를 마련하는 등의 행동강령 입안에 대 한 참여를 요청할 수 있다.

3. 제(1)항 및 제(2)항의 시행 시, 집행위원회와 이 사회, 그 밖의 관련 기관은 행동강령이 특정 목표 를 명확하게 설정하고, 그러한 목표 달성을 측정하 기 위한 주요 성과지표를 포함하며, 유럽연합 차원 에서 모든 이해당사자. 특히 시민의 요구와 이익을 고려하도록 하여야 한다. 또한 집행위원회와 이사 회는 참여자들이 집행위원회와 이들의 각 설립지 디지털서비스 조정자에게 시행조치 및 행동강령의 주요 성과지표에 따라 평가한 결과를 정기적으로 보고하도록 하여야 한다. 주요 성과지표와 보고 책 임에 있어서는 서로 다른 참여자들의 규모와 역량 의 차이를 고려하여야 한다.

4. 집행위원회와 이사회는 행동강령이 포함하고 있는 주요 성과지표를 고려하여, 위 행동강령이 제(1)항 및 제(3)항에서 정한 목표에 부합하는지 여 부를 평가하고, 목표 달성 여부를 정기적으로 모니 터링하고 평가하여야 한다. 집행위원회와 이사회 는 그 결과를 공개하여야 한다.

나아가 집행위원회와 이사회는 행동강령의 정기적 인 검토 및 수정을 장려하고 촉진하여야 한다. 행동강령을 구조적으로 준수하지 못하는 경우, 집 행위원회와 이사회는 행동강령의 서명인에게 필요 한 조치를 취하도록 요청할 수 있다.

제46조(온라인 광고에 대한 행동강령)

1. 집행위원회는 제26조 및 제39조의 요건을 넘어 온라인 광고 가치사슬의 투명성에 더욱 기여하기 위하여 온라인 플랫폼 제공자와 그 밖의 관련 서비 스 제공자, 예컨대 온라인 광고 중개서비스 제공 자, 프로그래밍 광고 가치사슬과 관련된 기타 행위 자 또는 서비스 이용자를 대표하는 단체 및 시민사 회 단체나 관할당국에 의한 유럽연합 차원에서의 자발적인 행동강령 입안을 장려하고 촉진하여야 한다.

2. 집행위원회는 유럽연합 법률 및 국내법, 특히 경쟁, 사생활, 개인정보 보호에 관한 법에 따라, 행 동강령이 온라인 광고의 경쟁적이고 투명하며 공 정한 환경 조성과 함께, 모든 관련 당사자의 권리 와 이익을 충분히 존중하는 효과적인 정보 전달을 추구하도록 하여야 한다. 집행위원회는 행동강령 이 적어도 다음을 명시하도록 하여야 한다.

(a) 제26조(1)(b), (c) 및 (d)에서 정한 요건과 관 련하여 온라인 광고 중개서비스 제공자가 보유한 정보의 서비스 이용자에 대한전달 (b) 온라인 광고중개서비스 제공자가 보유한 정보 의 제39조에 따른 저장소로의 전달 (c) 데이터 수익화에 관한 유의미한 정보.

3. 집행위원회는 2025년 2월 18일까지 행동강령 을 개발하고 2025년 8월 18일까지 이를 적용하도 록 장려하여야 한다.

4. 집행위원회는 제(1)항의 온라인 광고 가치사슬 의 모든 행위자가 행동강령에서 정한 서약에 서명 하고 이를 준수하도록 장려하여야 한다.

제47조(접근성에 대한 행동강령)

1. 집행위원회는 초기 설계 또는 후속 조정을 통해 장애인의 특수한 요구를 다루는 온라인서비스의 접근성을 개선함으로써 완전하고 효과적이며 동등 한 참여를 증진하기 위하여, 온라인 플랫폼 제공자 와 그 밖의 관련 서비스 제공자, 서비스 이용자를 대표하는 단체 및 시민사회 단체 또는 관할당국의 참여 하에 유럽연합 차원에서의 행동강령 입안을 장려하고 촉진하여야 한다.

2. 집행위원회는 장애인의 예측 가능한 이용을 극 대화하기 위하여 행동강령이 이러한 서비스가 유 럽연합 법률과 국내법에 따라 접근가능하도록 보 장한다는 목표를 추구하도록 하여야 한다. 집행위 원회는 행동강령이 적어도 다음 목표를 명시하도 록 하여야 한다.

(a) 서비스를 인식 가능하고, 작동 가능하며, 이해 할 수 있고, 견고하게 구축함으로써 장애인이 서비 스에 접근할 수 있도록 서비스를 설계하고 조정한 다. (b) 서비스가 어떻게 해당 접근성 요건을 충족하는 지 설명하고, 장애인이 접근 가능한 방식으로 이러 한 정보를 공개한다. (c) 이 규정에 따라 제공되는 정보, 양식, 조치를 장애인이 쉽게 찾고 이해하며 접근할 수 있는 방식 으로 제공한다.

3. 집행위원회는 2025년 2월 18일까지 행동강령 을 개발하고 2025년 8월 18일까지 이를 적용하도 록 장려하여야 한다.

제48조(위기대응규약)

1. 이사회는 제(2)항, 제(3항 및 제(4)항에 따라 위기 상황을 해결하기 위한 자발적인 위기대응규약 입안에 착수할 것을 집행위원회에 권고할 수 있다. 이러한 상황은 공공 안전이나 공중보건에 영향을 미치는 특수한 상황으로 엄격히 제한된다.

2. 집행위원회는 초대형 온라인 플랫폼 또는 초대 형 온라인 검색엔진의 제공자, 해당하는 경우 그 밖의 온라인 플랫폼 또는 온라인 검색엔진의 제공 자가 위기대응규약의 입안, 평가 및 적용에 참여할 것을 장려하고 촉진하여야 한다. 집행위원회는 이 러한 위기대응규약에 다음 조치 중 하나 이상이 포 함되도록 하여야 한다.

(a) 회원국의 관할당국이나 유럽연합 차원에서, 또 는 위기 상황에 따라 그 밖의 신뢰할 수 있는 관련 기관에서 각 제공한 위기 상황에 관한 정보를 눈에 띄게 표시한다. (b) 중개서비스 제공자가 위기 관리를 위한 특정 연락 창구를 지정하도록 한다. 관련 있는 경우, 위 연락 창구는 제11조의 전자 연락 창구가 될 수 있 고, 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 제공자의 경우에는 제41조에서 정한 준 법감시인이 될 수도 있다. (c) 해당하는 경우, 제16조, 제20조, 제22조, 제23 조 및 제35조에서 정한 의무를 준수하는 데 전적 으로 사용되는 자원을 위기 상황에 따른 필요에 맞 게 조정한다.

3. 집행위원회는 위기대응규약의 입안, 평가 및 적 용 감독에 있어 적절한 경우 회원국의 관할당국을 참여시켜야 하고, 유럽연합 기구, 사무소 및 기관 을 참여시킬 수 있다. 집행위원회는 위기대응규약 의 입안에 있어 필요하고 적절한 경우 시민사회 단 체 또는 그 밖의 관련 단체를 참여시킬 수 있다.

4. 집행위원회는 위기대응규약이 다음을 모두 명 확하게 명시하도록 하여야 한다.

(a) 위기대응규약이 다루고자 하는 구체적인 특수 한 상황의 구성을 결정하는 특정 매개변수 및 위 규약이 추구하는 목적 (b) 각 참가자의 역할과 준비과정에서, 그리고 위 기대응규약 활성화 시 이들이 마련하여야 하는 조 치 (c) 위기대응규약이 활성화되는 시점을 결정하는 명확한 절차 (d) 위기대응규약 활성화시 관련 구체적인 특수한 상황에 대응하는 데 필요한 것으로 엄격히 제한되 는 조치 시행기간을 결정하는 명확한 절차 (e) 헌장에 명시된 기본권, 특히 표현과 정보의 자 유 및 차별금지에 관한 권리의 행사에 미치는 부정 적 영향에 대응하는 보호 장치 (f) 위기 상황 종료 시 취해진 조치, 그 기간 및 결 과에 대하여 공개적으로 보고하는 절차

5. 집행위원회는 위기대응규약이 위기 상황에 효 과적으로 대응하지 못하거나 제(4)항(e)의 기본권 행사를 보호하지 못한다고 판단하는 경우, 추가 조 치를 취하는 등 참여자들에게 위기대응규약을 수 정할 것을 요청하여야 한다.

제IV장 이행, 협력, 처벌 및 집행

제1절 관할당국 및 국내 디지털서비스 조정자

제49조(관할당국 및 디지털서비스 조정자)

1. 회원국은 중개서비스 제공자의 감독과 이 규정 의 집행에 관한 책임이 있는 하나 이상의 관할당국 (‘관할당국’)을 지정하여야 한다.

2. 회원국은 관할당국 중 하나를 디지털서비스 조 정자로 지정하여야 한다. 관련 회원국이 특정 업무 나 부문을 다른 관할당국에 할당하지 않는 한, 디 지털서비스 조정자는 해당 회원국에서 이 규정의 감독과 집행과 관련된 모든 사안에 대하여 책임이 있다. 디지털서비스 조정자는 어떠한 경우에도 그 러한 사안과 관련하여 국가 차원에서의 조정을 보 장하고, 유럽연합 전역에서 이 규정의 효과적이고 일관된 감독과 집행에 기여할 책임이 있다.

위 목적을 위하여, 디지털서비스 조정자는 상호간, 다른 국내 관할당국, 이사회 및 집행위원회와 협력 하여야 하고, 이는 회원국이 각각의 임무 수행과 관련 있는 경우 디지털서비스 조정자와 다른 국가 기관과의 협력체계 및 정기적인 의견 교환을 제공 할 가능성을 침해하지 아니한다. 회원국이 디지털서비스 조정자 외에 하나 이상의 관할당국을 지정하는 경우, 해당 당국과 디지털서 비스 조정자의 각 임무를 명확하게 정의하고, 임무 수행 시 긴밀하고 효과적으로 협력하도록 하여야 한다.

3. 회원국은 2024년 2월 17일까지 디지털서비스 조정자를 지정하여야 한다.

회원국은 디지털서비스 조정자로 지정된 관할당국 의 명칭과 연락 방법에 관한 정보를 공개하고, 이 를 집행위원회와 이사회에 전달하여야 한다. 관련 회원국은 제(2)항의 다른 관할당국의 명칭과 각각 의 임무를 집행위원회와 이사회에 전달하여야 한 다.

4. 제50조, 제51조 및 제56조에 명시된 디지털서 비스 조정자에게 적용되는 조항은 회원국이 이 조 제(1)항에 따라 지정하는 다른 관할당국에도 적용 된다.

제50조(디지털서비스 조정자의 요건)

1. 회원국은 디지털서비스 조정자가 이 규정에 따 라 적시에 공정하고 투명한 방식으로 임무를 수행 하도록 하여야 한다. 회원국은 디지털서비스 조정 자가 그 권한에 속하는 모든 중개서비스 제공자를 적절하게 감독하기 위한 충분한 기술적, 재정적, 인적 자원을 포함하여, 임무를 수행하는 데 필요한 모든 자원을 확보하도록 하여야 한다. 각 회원국은 디지털서비스 조정자의 독립성에 부정적인 영향을 미치지 않기 위하여, 디지털서비스 조정자가 전체 예산의 한도 내에서 예산을 관리하는 데 충분한 자 율성을 갖도록 하여야 한다.

2. 디지털서비스 조정자는 이 규정에 따라 임무를 수행하고 권한을 행사함에 있어 완전한 독립성을 가지고 행동하여야 한다. 이들은 직접적이든 간접 적이든 외부의 영향으로부터 자유로워야 하고, 다 른 공공기관이나 민간 단체로부터 지시를 구하거 나 받지 않아야 한다.

3. 이 조 제(2)항은 이 규정에서 정한 감독과 집행 체계 내에서의 디지털서비스 조정자의 임무와 제 49조(2)에 따른 다른 관할당국과의 협력에 영향을 미치지 아니한다. 이 조 제(2)항은 사법심사의 행 사를 방해하지 않고, 재정 지출 또는 국회 보고와 같은 디지털서비스 조정자의 일반적인 활동에 대 한 비례적 책임의 요건에 영향을 미치지 않는데, 다만 그러한 요건은 이 규정의 목적 달성을 저해하 지 않아야 한다.

제51조(디지털서비스 조정자의 권한)

1. 디지털서비스 조정자는 이 규정에 따른 임무 수 행에 필요한 경우 회원국의 권한에 속하는 중개서 비스 제공자의 행위와 관련하여 다음과 같은 조사 권을 가진다.

(a) 위 제공자와 제37조 및 제75조(2)의 감사를 수 행하는 조직을 포함하여, 이 규정의 위반 혐의와 관련된 정보를 합리적으로 인식할 수 있고 거래, 사업, 제작 또는 전문직업 목적으로 활동하는 모든 사람에게 지체 없이 그러한 정보를 제공하도록 요 청할 권한 (b) 저장매체에 관계없이 모든 형태의 위반 혐의와 관련된 정보의 사본을 조사, 압수, 획득 또는 입수하기 위하여, 해당 제공자 또는 해당 사람이 거래, 사업, 제작 또는 전문직업 목적으로 사용하는 장소 에 대한 조사를 수행하거나 회원국의 사법당국에 그 명령을 요청하거나 다른 공공기관에 이를 요청 할 권한 (c) 위반 혐의와 관련된 정보에 관하여 피고용인이 나 해당 제공자 또는 그 대리인에게 설명을 요구하 고, 이들의 동의 아래 기술적 수단을 통해 답변을 기록할 권한

2. 이 규정에 따른 임무 수행에 필요한 경우, 디지 털서비스 조정자는 회원국의 권한에 속하는 중개 서비스 제공자와 관련하여 다음과 같은 집행권한 을 가진다.

(a) 서비스 제공자가 제공한 이 규정의 준수에 관 한 서약을 수락하고, 위 서약에 법적 구속력을 부 여할 권한 (b) 위반행위의 중지를 명하고, 적절한 경우 위반 행위에 비례하고 위반행위를 효과적으로 종료시키 는 데 필요한 구제조치를 부과하거나, 회원국의 사 법당국에 이를 요청할 권한 (c) 이 조 제(1)항에 따라 내려진 조사명령을 비롯 한 이 규정을 준수하지 못한 경우, 제52조에 따라 과징금을 부과하거나 회원국의 사법당국에 이를 요청할 권한 (d) 이 항 제(b)호에 따라 내려진 명령에 의하여 위 반행위를 종료시키기 위하여 또는 이 조 제(1)항에 따라 내려진 조사명령을 준수하지 않은 경우, 제 52조에 따라 이행강제금을 부과하거나 회원국의 사법당국에 이를 요청할 권한 (e) 심각한 피해 위험을 방지하기 위하여, 임시조 치를 채택하거나 회원국의 관할 국내 사법당국에 이를 요청할 권한 제1문단(c) 및 (d)와 관련하여, 디지털서비스 조정 자는 제(1)항의 그 밖의 사람이 같은 항에 따라 내 려진 명령을 이행하지 않은 경우에도 제1문단(c) 및 (d)에 규정된 집행권한을 가진다. 디지털서비스 조정자는 적용기간, 명령 미이행에 따라 부과될 과 징금 또는 이행강제금, 구제가능성을 포함하여 해 당 명령에 관한 모든 관련 정보를 위 그 밖의 사람 들에게 제때 제공한 후에 집행권한을 행사할 수 있 다.

3. 디지털서비스 조정자는 이 규정에 따라 임무를 수행하는 데 필요한 경우, 회원국의 권한에 속하는 중개서비스 제공자와 관련하여 위반을 중단시킬 수 있는 이 조에 따른 모든 권한이 소진되었고, 위 반이 시정되지 않았거나 지속되고 있어 유럽연합 법률 또는 국내법에 따라 사용가능한 다른 권한의 행사를 통해서도 피할 수 없는 심각한 피해를 야기 하고 있는 경우, 다음 조치를 취할 권한을 가진다.

(a) 해당 제공자의 경영진에게 지체 없이 상황을 조사하고, 위반을 종료시키는 데 필요한 조치를 제 시하는 실행계획을 채택하여 제출하며, 이러한 조 치를 취할 것을 보장하고, 취한 조치에 대해 보고 할 것을 요청한다. (b) 디지털서비스 조정자는 중개서비스 제공자가 제(a)호에서 정한 요건을 충분히 준수하지 않았고, 위반이 시정되지 않았거나 지속되고 있어 심각한 피해를 야기하고 있으며, 이와 같은 위반이 사람의 생명이나 안전을 위협하는 형사 범죄를 수반한다 고 판단한 경우, 회원국의 관할 사법당국에 위반과 관련된 서비스에 대하여, 이것이 기술적으로 불가 능한 경우에만 위반이 발생한 중개서비스 제공자 의 온라인 인터페이스에 대하여 이용자의 일시적 접근 제한을 명령할 것을 요청할 수 있다. 디지털서비스 조정자는 제82조의 집행위원회의 요청에 따라 조치를 취하는 경우 외에는, 이 항 제 1문단 제(b)호의 요청을 제출하기 전에 이해당사 에게 요청하려는 조치를 설명하고 요청에서 의도 된 수신인을 명시하여 기간 내에 서면 의견을 제출 하도록 요청하여야 하는데, 이때 위 기간은 2주보 다 짧아서는 아니 된다. 중개서비스 제공자, 의도 된 수신인 및 적법한 이해관계를 입증한 그 밖의 제3자는 관할 사법당국의 절차에 참여할 자격이 있다. 명령의 모든 조치는 위반의 성격, 심각성, 재 발 여부, 지속 기간에 비례하여야 하고, 관련 서비 스 이용자가 합법적 정보에 접근하는 것을 부당하 게 제한하지 않는다. 접근 제한은 4주 동안 이루어지고, 관련 사법당국 은 명령으로써 디지털서비스 조정자가 위 기간을 동일 기간만큼 위 사법당국이 정한 최대 연장 횟수 로 연장하는 것을 허용할 수 있다. 디지털서비스 조정자는 중개서비스 제공자, 수신인 또는 적법한 이해관계를 입증한 그 밖의 제3자가 제공할 수 있 는 정보를 포함하여 위 제한의 영향을 받는 모든 당사자의 권리와 이익 및 모든 관련 상황을 고려하 여, 다음 조건이 모두 충족되었다고 판단한 경우에 만 기간을 연장하여야 한다. (a) 중개서비스 제공자가 위반을 종료시키는 데 필 요한 조치를 취하지 아니하였다. (b) 영향을 받는 서비스 이용자의 수와 쉽게 접근 가능하고 적절한 대안이 존재하는지 여부를 고려할 때, 임시적 제한이 서비스 이용자의 합법적 정 보에 대한 접근을 부당하게 제한하지 아니한다. 디지털서비스 조정자는 제3문단(a) 및 (b)에서 정 한 조건이 충족되었다고 판단하지만 제3문단에 따 라 기간을 연장할 수 없는 경우, 제1문단(b)에서 정한 바에 따라 관할 사법당국에 새로운 요청을 제 출하여야 한다.

4. 제(1)항, 제(2)항 및 제(3)항에 열거된 권한은 제3절에 영향을 미치지 아니한다.

5. 디지털서비스 조정자가 제(1)항, 제(2)항 및 제 (3)항에 열거된 권한 행사에 따라 취한 조치는 특 히 위반의 성격, 심각성, 재발 여부, 지속 기간 또 는 해당 조치와 관련한 위반 혐의, 관련이 있는 경 우 해당 중개서비스 제공자의 경제적, 기술적, 운 영상 능력을 고려할 때 효과적이고 억지력이 있으 며 비례적이어야 한다.

6. 회원국은 제(1)항, 제(2)항 및 제(3)항에 따른 권한 행사를 위한 특별한 규칙과 절차를 규정하여 야 하고, 그러한 권한 행사가 헌장 및 유럽연합 법 률의 일반 원칙에 따른 국내 준거법에 규정된 적절 한 보호 장치의 적용을 받도록 하여야 한다. 특히 이러한 조치는 청문권, 자료 열람권을 포함하여 사 생활을 보호받을 권리와 방어권에 따라 이루어져 야 하고, 모든 관련 당사자의 효과적인 사법적 구 제에 관한 권리의 적용을 받는다.

제52조(제재금)

1. 회원국은 그 권한에 속하는 중개서비스 제공자 의 이 규정 위반에 대하여 적용되는 제재금 규정을 제정하고, 제51조에 따라 이행되도록 필요한 모든 조치를 취하여야 한다.

2. 제재금은 효과적이고 비례적이며 억지력이 있 어야 한다. 회원국은 집행위원회에 그러한 규칙과 조치를 통지하여야 하고, 이에 영향을 미치는 후속 수정 사항을 지체 없이 통지하여야 한다.

3. 회원국은 이 규정의 의무 불이행에 대해 부과할 수 있는 최대 과징금이 해당 중개서비스 제공자의 직전 회계연도 전 세계 연간 매출액의 6퍼센트가 되도록 하여야 한다. 회원국은 부정확, 불완전하거 나 호도하는 정보를 제공한 경우, 답변하지 않거나 부정확, 불완전하거나 호도하는 정보를 수정하지 않은 경우 및 조사에 응하지 않은 경우 부과되는 최대 과징금이 해당 중개서비스의 제공자 또는 해 당 사람의 직전 회계연도 연간 소득 또는 전 세계 연간 매출액의 1퍼센트가 되도록 하여야 한다.

4. 회원국은 이행강제금의 상한액이 해당 결정에 서 특정한 날짜로부터 산출한 해당 중개서비스 제공자의 직전 회계연도 전 세계 일평균 매출액 또는 소득의 5퍼센트가 되도록 하여야 한다.

제53조(이의제기권)

서비스 이용자와 이 규정에 따라 부여된 권리를 대 신 행사하도록 위임받은 모든 기관, 단체 또는 협 회는 이 규정의 위반 혐의가 있는 중개서비스 제공 자를 상대로 서비스 이용자가 소재하거나 설립된 회원국의 디지털서비스 조정자에게 이의를 제기할 권리가 있다. 디지털서비스 조정자는 이의사항을 평가하고, 적절한 경우 이를 설립지 디지털서비스 조정자에게 전달하며, 적절하다고 판단하는 경우 에는 의견도 첨부하여야 한다. 이의사항이 회원국 내 다른 관할당국의 책임에 해당하는 경우, 이의사 항을 접수한 디지털서비스 조정자는 이의사항을 그 관할당국에 전달하여야 한다. 이러한 절차에 있 어, 양 당사자는 국내법에 따라 청문권과 이의 진 행상태에 관해 적절한 정보를 받을 권리를 가진다.

제54조(보상)

서비스 이용자는 중개서비스 제공자의 이 규정상 의무 위반으로 인하여 입은 손해 또는 손실과 관련 하여, 유럽연합 법률과 국내법에 따라 중개서비스 제공자에게 보상을 청구할 권리가 있다.

제55조(활동 보고)

1. 디지털서비스 조정자는 제53조에 따라 접수된 이의 건수와 후속 조치 개요를 포함하여 이 규정에 따른 활동에 관한 연례보고서를 작성하여야 한다. 디지털서비스 조정자는 제84조에 따른 정보의 기 밀성에 관한 적용 규칙에 따라 기계 판독 형식의 연례보고서를 공개하고, 이를 집행위원회와 이사 회에 전달하여야 한다.

2. 연례보고서는 다음 정보도 포함하여야 한다.

(a) 해당 디지털서비스 조정자 소속 회원국의 국내 사법 또는 행정당국이 제9조 및 제10조에 따라 내 린 불법 콘텐츠에 대한 조치명령과 정보제공명령 의 개수와 내용 (b) 제9조 및 제10조에 따라 디지털서비스 조정자 에게 전달된 해당 명령의 효력

3. 회원국이 제49조에 따라 여러 관할당국을 지정 한 경우, 회원국은 디지털서비스 조정자가 모든 관 할당국의 활동을 포괄하는 단일 보고서를 작성하 도록 하여야 하고, 디지털서비스 조정자가 다른 관 련 관할당국으로부터 필요한 모든 관련 정보와 지 원을 받도록 하여야 한다.

제2절 권한, 합동조사, 일관성 체계

제56조(권한)

1. 중개서비스 제공자의 주 사업장이 소재한 회원 국은 제(2)항, 제(3)항 및 제(4)항에서 정한 권한 외에는, 이 규정을 감독하고 집행할 배타적인 권한 을 가진다.

2. 집행위원회는 제III장제5절을 감독하고 집행할 배타적인 권한을 가진다.

3. 집행위원회는 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자에 대해 제III장제5절의 규정에서 정한 권한 외에 이 규정을 감독하고 집행 할 권한을 가진다.

4. 집행위원회가 동일한 위반에 대한 절차를 개시 하지 않은 경우, 초대형 온라인 플랫폼 또는 초대 형 온라인 검색엔진의 제공자의 주 사업장이 소재 하는 회원국은 해당 제공자와 관련하여 제III장제 5절의 규정 외에 이 규정에 따른 의무를 감독하고 집행할 권한을 가진다.

5. 회원국과 집행위원회는 긴밀한 협력을 통해 이 규정의 조항을 감독하고 집행하여야 한다.

6. 중개서비스 제공자의 사업장이 유럽연합 내 없 는 경우, 법률대리인이 소재하거나 설립되어 있는 회원국 또는 집행위원회는 이 조 제(1)항 및 제(4) 항 중 해당하는 바에 따라 이 규정에서 정한 관련 의무를 감독하고 집행할 권한을 가진다.

7. 중개서비스 제공자가 제13조에 따라 법률대리 인을 지정하지 않은 경우, 모든 회원국이, 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제 공자의 경우에는 집행위원회가 각 이 조에 따라 감 독하고 집행할 권한을 가진다.

디지털서비스 조정자가 이 항에 따라 권한을 행사 하고자 하는 경우, 위 조정자는 다른 모든 디지털 서비스 조정자와 집행위원회에 통지하고, 특히 동 일한 행위에 대해 이 규정의 의무 위반으로 1회 이 상 제재가 이루어지지 않도록 헌장에서 제공하는 적용가능한 보호장치를 준수하여야 한다. 집행위 원회가 이 항에 따라 권한을 행사하고자 하는 경 우, 다른 모든 디지털서비스 조정자에게 그러한 계 획을 통지하여야 한다. 이 항에 따른 통지 후 다른 회원국은 통지에 명시된 동일한 위반에 대하여 절 차를 개시하여서는 아니 된다.

제57조(공조)

1. 디지털서비스 조정자와 집행위원회는 이 규정 을 일관되고 효율적인 방식으로 적용하기 위하여 서로 긴밀히 협력하고 공조하여야 한다. 공조는 특 히 이 조에 따른 정보 교환과 설립지 디지털서비스 조정자가 모든 목적지 디지털서비스 조정자, 이사 회, 집행위원회에 대하여 특정 중개서비스 제공자 에 관한 조사 착수 및 종국결정 계획, 평가결과를 통지할 의무를 포함한다.

2. 설립지 디지털서비스 조정자는 조사를 위하여 다른 디지털서비스 조정자들을 상대로 이들이 보 유하고 있는 특정 중개서비스 제공자와 관련한 특 정 정보의 제공을 요청하거나, 이들 회원국에 소재 하는 특정 정보와 관련한 제51조(1)의 조사권 행 사를 요청할 수 있다. 해당하는 경우, 요청을 받는 디지털서비스 조정자는 해당 회원국의 다른 관할 당국 또는 그 밖의 공공기관을 개입시킬 수 있다.

3. 제(2)항에 따른 요청을 받은 디지털서비스 조정 자는 다음의 경우를 제외하고, 요청을 받은 후 2개 월 이내에 지체 없이 위 요청을 이행하여야 하고, 이행한 조치를 설립지 디지털서비스 조정자에게 통지하여야 한다.

(a) 요청의 범위 또는 내용이 충분히 특정되지 않 았거나 정당하지 않거나, 또는 조사 목적을 고려할 때 비례적이지 않은 경우 (b) 요청을 받은 디지털서비스 조정자나 해당 회원 국의 다른 관할당국 또는 그 밖의 공공기관 모두 요청받은 정보를 보유하고 있지 않고 그 정보에 접 근할 수도 없는 경우 (c) 유럽연합 또는 국내법을 위반하지 않고는 요청 을 이행할 수 없는 경우 요청을 받은 디지털서비스 조정자는 제1문단에서 정한 기간 내에 이유가 포함된 답변을 제출하여 요 청 이행 거부의 정당성을 소명하여야 한다.

제58조(디지털서비스 조정자 사이의 국경 간 협력)

1. 집행위원회가 동일한 위반 혐의에 대해 조사를 개시한 경우 외에, 목적지 디지털서비스 조정자는 중개서비스 제공자가 그 조정자가 속한 회원국의 서비스 이용자에게 부정적인 영향을 미치는 방식 으로 이 규정을 위반하였다고 의심할 만한 이유가 있는 경우, 설립지 디지털서비스 조정자에 대하여 사안을 평가하고, 이 규정의 준수를 보장하기 위하 여 필요한 조사 및 집행조치를 취할 것을 요청할 수 있다.

2. 집행위원회가 동일한 위반 혐의에 대해 조사를 개시한 경우 외에, 특정 중개서비스 제공자가 목적지 디지털서비스 조정자가 속한 회원국의 서비스 이용자에게 부정적인 영향을 미치는 방식으로 이 규정을 위반했다고 의심할 만한 이유가 있는 최소 3개의 목적지 디지털서비스 조정자의 요청에 따 라, 이사회는 설립지 디지털서비스 조정자에 대하 여 사안을 평가하고, 이 규정의 준수를 보장하기 위하여 필요한 조사 및 집행조치를 취할 것을 요청 할 수 있다.

3. 제(1)항 및 제(2)항에 따른 요청은 이유가 적절 히 기재되어 있고, 적어도 다음 사항을 포함하여야 한다.

(a) 제11조에 규정된 관련 중개서비스 제공자의 연 락 창구 (b) 관련 사실, 이 규정의 관련 조항, 위반 혐의의 부정적 영향에 대한 설명을 포함하여 요청을 보낸 디지털서비스 조정자 또는 이사회가 제공자가 이 규정을 위반하였다고 의심하는 이유에 관한 설명 (c) 적절한 경우 직권으로 수집한 정보 또는 임시 조치를 포함한 취하여야 하는 특정 조사나 집행조 치에 관한 제안을 포함하여, 요청을 보낸 디지털서 비스 조정자나 이사회가 관련이 있다고 판단한 그 밖의 정보

4. 설립지 디지털서비스 조정자는 이 조 제(1)항 및 제(2)항에 따른 요청을 최대한 고려한다. 설립 지 디지털서비스 조정자는 요청에 따라 조치를 취하기에는 정보가 불충분하고, 요청을 보낸 디지털 서비스 조정자 또는 이사회가 추가 정보를 제공할 수 있다고 볼 만한 이유가 있는 경우, 제57조에 따 라 그러한 정보를 요청하거나, 또는 그 대신에 최 소한 그 요청을 한 디지털서비스 조정자가 참여하 는 제60조(1)에 따른 합동조사에 착수할 수 있다. 이 조 제(5)항에서 정한 기간은 추가 정보가 제공 될 때까지, 또는 합동조사 참여 요청이 거부될 때 까지 정지된다.

5. 설립지 디지털서비스 조정자는 지체 없이, 그리 고 어떠한 경우에도 제(1)항 및 제(2)항에 따른 요 청을 받은 후 2개월 이내에 요청을 보낸 디지털서 비스 조정자와 이사회에 위반 혐의에 대한 평가 및 이 규정의 준수를 보장하기 위하여 이와 관련하여 시행되거나 예상되는 모든 조사 또는 집행조치에 대한 설명을 전달하여야 한다.

제59조(집행위원회로의 회부)

1. 제58조(5)에 규정된 기간 내에 전달이 이루어 지지 않은 경우, 제58조(5)에 따른 평가 또는 시행 되거나 예상되는 조치에 대해 이사회가 동의하지 않는 경우, 또는 제60조(3)에 해당하는 경우, 이사 회는 집행위원회에 모든 관련 정보 제공과 함께 사 안을 회부할 수 있다. 이러한 정보에는 적어도 설 립지 디지털서비스 조정자에게 보낸 요청 또는 권 고, 위 디지털서비스 조정자의 평가, 동의하지 아 니하는 사유, 회부를 뒷받침하는 모든 추가 정보가 포함되어야 한다.

2. 집행위원회는 설립지 디지털서비스 조정자와 협의 후, 제(1)항에 따라 사안이 회부된 시점부터 2개월 이내에 사안을 평가하여야 한다.

3. 이 조 제(2)항에 따라 집행위원회가 제58조(5) 에 따른 평가 또는 시행되거나 예상되는 조사 또는 집행조치가 효과적인 집행을 보장하기에 불충분하 거나, 달리 이 규정에 부합하지 않는다고 판단하는 경우, 집행위원회는 설립지 디지털서비스 조정자 와 이사회에 그 견해를 전달하여야 하고, 설립지 디지털서비스 조정자에게 사안을 재검토할 것을 요청하여야 한다.

설립지 디지털서비스 조정자는 집행위원회의 견해 와 재검토 요청을 최대한 고려하여 이 규정의 준수 를 보장하기 위하여 필요한 조사 또는 집행조치를 취하여야 한다. 설립지 디지털서비스 조정자는 제 58조(1) 또는 (2)에 따라 이행한 집행위원회와 요 청을 한 디지털서비스 코디네이터 또는 이사회에 위 재검토 요청 시점으로부터 2개월 내에 취한 조 치에 관해 알려야 한다.

제60조(합동조사)

1. 설립지 디지털서비스 조정자는 다음과 같이 1명 이상의 관련 디지털서비스 조정자 참여하는 합 동조사를 착수하고 지휘할 수 있다.

(a) 직권으로 여러 회원국에서 특정 중개서비스 제 공자의 이 규정 위반 혐의에 관한 조사 (b) 이사회의 권고에 따라, 합리적 의심에 근거하 여 특정 중개서비스 제공자의 위반이 이들 회원국 의 서비스 이용자에게 영향을 미친다고 주장하는 최소 3명의 디지털서비스 조정자의 요청에 따른 조사

2. 디지털서비스 조정자는 제(1)항의 합동조사 참 여에 정당한 이익이 있음을 입증하는 경우 합동조 사 참여를 요청할 수 있다. 합동조사는 참여자들 사이에 다른 합의가 없는 한, 착수 후 3개월 이내 에 종료된다.

설립지 디지털서비스 조정자는 제1문단에서 정한 기한 종료 후 1개월 이내에 모든 디지털서비스 조 정자, 집행위원회, 이사회에 위반 혐의에 대한 예 비 의견을 전달하여야 한다. 예비 의견은 합동조사 에 참여하는 다른 모든 디지털서비스 조정자의 견 해를 고려하여야 한다. 해당하는 경우 예비 의견은 예상되는 집행조치에 대해서도 설명하여야 한다.

3. 이사회는 다음의 경우 제59조에 따라 집행위원회에 사안을 회부할 수 있다.

(a) 설립지 디지털서비스 조정자가 제(2)에서 정한 기한 내에 예비 의견을 전달하지 않은 경우 (b) 이사회가 설립지 디지털서비스 조정자가 전달 한 예비 의견에 동의하지 않는 경우 (c) 설립지 디지털서비스 조정자가 제(1)항(b)에 따른 이사회의 권고에 따라 신속하게 합동조사에 착수하지 않은 경우

4. 합동조사에 참여하는 디지털서비스 조정자는 합동조사 수행 시, 해당하는 경우 설립지 디지털서 비스 조정자의 지시와 이사회의 권고를 고려하여 성실하게 협력하여야 한다. 합동조사에 참여하는 목적지 디지털서비스 조정자는 설립지 디지털서비 스 조정자의 요청에 따라, 또는 설립지 디지털 조 정자와의 협의 후, 위반 혐의와 관련된 중개서비스 제공자들에 관하여 이들 영역 내 정보와 장소에 대 해 제51조(1)의 조사권을 행사할 수 있다.

제3절 유럽디지털서비스이사회

제61조(유럽디지털서비스이사회)

1. 중개서비스 제공자의 감독에 관한 디지털서비 스 조정자의 독립 자문단으로 ‘유럽디지털서비스 이사회’(이하 ‘이사회’)를 설치한다.

2. 이사회는 다음의 목적을 달성하기 위하여 이 규 정에 따라 디지털서비스 조정자와 집행위원회에 자문을 제공하여야 한다.

(a) 이 규정의 일관된 적용 및 이 규정이 적용되는 사안에 관한 디지털서비스 조정자와 집행위원회와 의 효과적인 협력에 대한 기여 (b) 이 규정이 적용되는 사안과 관련하여 역내 시 장에서 새롭게 발생하는 문제에 관한 집행위원회, 디지털서비스 조정자 및 그 밖의 관할당국의 지침 과 분석에 대한 조율 및 기여 (c) 초대형 온라인 플랫폼의 감독에 있어 디지털서 비스 조정자와 집행위원회에 대한 지원

제62조(이사회의 구조)

1. 이사회는 고위공무원으로 대표되는 디지털서비 스 조정자들로 구성된다. 하나 이상의 회원국이 디 지털서비스 조정자를 지정하지 않았더라도 이사회 는 이 규정에 따른 임무를 수행할 수 있다. 국내법 의 규정에 따라 디지털서비스 조정자와 함께 이 규 정의 적용 및 집행에 대한 특정한 운영 책임을 위 임받은 그 밖의 관할당국도 이사회에 참여할 수 있 다. 논의되는 사안과 관련이 있는 그 밖의 국가기관은 회의 참석 요청을 받을 수 있다.

2. 이사회의 의장은 집행위원회가 맡는다. 집행위 원회는 이 규정에 따른 이사회의 임무에 따라 절차 규칙에 의하여 회의를 소집하고 의제를 준비한다. 집행위원회는 이 규정에 따른 권고안 채택을 요청 받은 경우, 제85조의 정보공유시스템을 통해 다른 디지털서비스 조정자가 즉시 요청을 확인할 수 있 도록 하여야 한다.

3. 각 회원국은 1표를 가진다. 집행위원회는 투표 권이 없다.

이사회는 단순다수결에 따라 의결한다. 이사회는 제36조(1) 제1문단에 따라 집행위원회에 대한 권 고를 채택하는 경우 이사회 의장의 요청 후 48시 간 이내에 투표하여야 한다.

4. 집행위원회는 이 규정에 따른 이사회 활동에 대 해 행정적이고 분석적인 지원을 제공하여야 한다.

5. 이사회는 전문가와 참관인에게 회의 참석을 요 청할 수 있고, 적절한 경우 외부 전문가를 비롯한 다른 유럽연합 기구, 사무소, 기관 및 자문단과 협 력할 수 있다. 이사회는 그러한 협력의 결과를 공개하여야 한다.

6. 이사회는 이해당사자와 협의할 수 있으며 그러 한 협의 결과를 공개하여야 한다.

7. 이사회는 집행위원회의 동의를 받아 절차규칙 을 채택하여야 한다.

제63조(이사회의 임무)

1. 이사회는 제61조(2)에서 정한 목적을 달성하는 데 필요한 경우 특히 다음을 수행하여야 한다.

(a) 합동조사의 조율을 지원한다. (b) 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 보고서 및 감사 결과에 대한 분석이 이 규정에 따라 전달되도록 관할당국을 지원한다. (c) 특히 중개서비스 제공자의 서비스를 제공할 자 유를 고려하여, 이 규정에 따라 디지털서비스 조정 자에 대한 의견, 권고 또는 자문을 제공한다. (d) 집행위원회에 제66조의 조치에 관하여 자문을 제공하고, 이 규정에 따라 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진에 대한 의견을 채택 한다. (e) 이 규정이 적용되는 사안과 관련한 새로운 문 제의 식별뿐만 아니라 제44조와 관련된 사안에 관 한 의견 또는 권고 제시를 통해, 이 규정에서 정한 바와 같이 관련 이해관계인들과 협력하여 유럽 표 준, 지침, 보고서, 양식 및 행동강령의 개발과 이행 을 지원하고 촉진한다.

2. 디지털서비스 조정자 및, 해당하는 경우 이사회 가 채택한 의견, 요청 또는 권고를 따르지 않는 다 른 관할당국은 이 규정에 따른 보고 시 또는 해당 하는 경우 관련 결정 채택 시 이들이 시행한 조사, 행위, 조치에 대한 설명을 포함하여 위와 같은 선 택에 대한 이유를 제시하여야 한다.

제4절 초대형 온라인 플랫폼과 초대 형 온라인 검색엔진의 제공자에 대한 감독, 조사, 집행 및 모니터링

제64조(전문성 및 역량 개발)

1. 집행위원회는 디지털서비스 조정자와 이사회와 의 협력 하에, 적절한 경우 회원국 직원의 파견을 통해 유럽연합의 전문성과 역량을 개발하여야 한 다.

2. 추가로, 집행위원회는 디지털서비스 조정자와 이사회와의 협력 하에 이 규정이 적용되는 사안에 대해 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진과 관련한 유럽연합 전역의 구조적이고 새 로운 문제에 대한 평가를 조율하여야 한다.

3. 집행위원회는 디지털서비스 조정자, 이사회, 관 련 전문성을 갖춘 그 밖의 유럽연합 기구, 사무소 및 기관에 대하여 이 규정에 따른 유럽연합 전역의 구조적이고 새로운 문제에 대한 평가를 지원하도 록 요청할 수 있다.

4. 회원국은 특히 각 디지털서비스 조정자와 그 밖 의 관할당국을 통해 이들의 전문성과 역량을 이용 할 수 있도록 하는 등 집행위원회와 협력하여야 한 다.

제65조(초대형 온라인 플랫폼과 초대형 온라 인 검색엔진의 제공자에 대한 의무 집행)

1. 집행위원회는 초대형 온라인 플랫폼과 초대형 온라인 검색엔진의 제공자의 이 규정에 따른 의무 준수 여부를 조사하기 위하여, 제66조(2)에 따른 절차를 개시하기 전에 이 절에 규정된 조사권을 행 사할 수 있다. 집행위원회는 이러한 권한을 직권으 로 또는 이 조 제(2)항의 요청에 따라 행사할 수 있 다.

2. 디지털서비스 조정자는 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자가 제III장 제5절의 규정을 위반하였거나 회원국의 서비스 이 용자에게 심각한 영향을 미치는 방식으로 이 규정의 조항을 구조적으로 위반하였다고 의심할 만한 이유가 있는 경우, 제85조의 정보공유시스템을 통 해 집행위원회에 사안 평가 요청을 보낼 수 있다.

3. 제(2)항에 따른 요청은 이유가 적절히 기재되어 있고, 적어도 다음 사항을 포함하여야 한다.

(a) 제11조에 규정된 해당 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 연락 창 구 (b) 관련 사실에 대한 설명, 이 규정의 관련 조항, 위반 혐의가 구조적 성격을 가지고 있음을 보여주 는 사실에 대한 설명을 포함하여, 요청을 보낸 디 지털서비스 조정자가 해당 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자가 이 규정 을 위반하였다고 의심하는 이유 (c) 적절한 경우 직권으로 수집한 정보를 포함하여 요청을 보낸 디지털서비스 조정자가 관련이 있다 고 판단하는 그 밖의 모든 정보

제66조(집행위원회의 절차 개시 및 조사 협 력)

1. 집행위원회는 이 규정의 조항에 대한 위반이 의 심되는 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 관련 행위와 대해 제73조 및 제74조에 따른 결정의 채택 가능성을 고려하여 절차를 개시할 수 있다.

2. 집행위원회는 이 조 제(1)항에 따라 절차 개시 를 결정하는 경우, 제85조의 정보공유시스템을 통 해 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자뿐만 아니라, 모든 디지털서비 스 조정자와 이사회에 통지하여야 한다.

디지털서비스 조정자는 절차 개시를 통지받은 후 지체 없이 해당 위반에 대해 보유하고 있는 모든 정보를 집행위원회에 전달하여야 한다. 집행위원회가 이 조 제(1)항에 따른 절차를 개시하 면 디지털서비스 조정자 또는 해당되는 경우 관할 당국은 제56조(4)에 따라 이 규정에 따른 감독 및 집행권한은 없어진다.

3. 집행위원회는 이 규정에 따른 조사권의 행사에 서 설립지 디지털서비스 조정자를 포함하여 위반 혐의와 관련된 모든 디지털서비스 조정자의 개별 또는 공동 지원을 요청할 수 있다. 그 요청을 받은 디지털서비스 조정자가 관련되는 경우 그 밖의 관 할당국은 집행위원회에 적시에 성실하게 협력해야 하며 관련 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자와 관련하여 요청에 따라 회 원국 영역 내에 소재한 정보, 개인, 현장에 대해 제 51조(1)의 조사권을 행사할 자격이 있다.

4. 집행위원회는 제67 내지 72조의 권한 행사와 제79조(1)의 예비적 판단에 대한 모든 관련 정보 를 설립지 디지털서비스 조정자와 이사회에 제공 하여야 한다. 이사회는 제79조(2)에서 정한 기한 내에 그러한 예비적 판단에 대한 견해를 집행위원 회에 제출하여야 한다. 집행위원회는 결정에서 이 사회의 모든 견해를 최대한 고려하여야 한다.

제67조(정보 요청)

1. 집행위원회는 이 절에 따른 임무 수행을 위하여 간단한 요청이나 결정에 따라 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자와 제37조 및 제75조(2)의 감사를 수행하는 조직을 포함하여 위반 혐의와 관련된 정보를 합리적으로 인식할 수 있고 거래, 사업, 제작 또는 전문직업 목 적으로 활동하는 모든 자연인이나 법인에 합리적 인 기간 내에 그러한 정보를 제공하도록 요청할 수 있다.

2. 집행위원회는 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 이 조 제(1)항의 그 밖의 사람에게 간단한 정보 요청을 보내는 경우, 요청의 법적 근거와 목적을 명시하고, 요청 하는 정보를 특정하며, 정보 제공기한과 부정확, 불완전하거나 호도하는 정보 제공에 대한 제74조 에 규정된 과징금을 정하여야 한다.

3. 집행위원회는 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 이 조 제(1)항 의 그 밖의 사람에게 결정에 따라 정보 제공을 요 청하는 경우, 요청의 법적 근거와 목적을 명시하 고, 요청하는 정보를 특정하며, 정보 제공기한을 정하여야 한다. 또한 집행위원회는 제74조에 규정 된 과징금을 명시하고, 제76조에 규정된 이행강제 금을 명시하거나 이를 부과하여야 한다. 또한 결정 에 대해 유럽연합 사법재판소의 심리를 받을 권리 를 명시하여야 한다.

4. 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 제(1)항의 그 밖의 사람 또는 그 대리인, 그리고 법인의 경우 회사 또는 합자회 사, 법인격이 없는 경우 법률 또는 정관에 따라 이 들을 대표할 권한이 있는 사람은 관련 초대형 온라 인 플랫폼 또는 초대형 온라인 검색엔진의 제공자 나 제1항의 그 밖의 사람을 대신하여 요청받은 정 보를 제공하여야 한다. 적법한 위임을 받은 변호사 는 의뢰인을 대신하여 정보를 제공할 수 있다. 불 완전, 부정확하거나 오해의 소지가 있는 정보를 제 공하는 경우 그 책임은 전적으로 의뢰인에게 있다.

5. 디지털서비스 조정자와 그 밖의 관할당국은 집 행위원회의 요청에 따라 이 절에 따른 임무 수행에 필요한 모든 정보를 집행위원회에 제공하여야 한 다.

6. 집행위원회는 이 조 제(1)항의 간단한 요청 또 는 결정을 보낸 후 지체 없이 그 사본을 제85조의 정보공유시스템을 통해 디지털서비스 조정자에게 발송하여야 한다.

제68조(면담 및 진술 청취에 대한 권한)

1. 집행위원회는 이 절에 따른 임무 수행을 위하여 위반 혐의에 관한 조사 대상 관련 정보를 수집할 목적으로 면담에 동의한 모든 자연인이나 법인을 면담할 수 있다. 집행위원회는 적절한 기술적 수단 으로 면담을 녹음할 수 있다.

2. 제(1)항의 면담이 집행위원회의 장소가 아닌 다 른 장소에서 진행되는 경우, 집행위원회는 면담이 진행되는 장소의 회원국의 디지털서비스 조정자에 게 이를 통지하여야 한다. 위 디지털서비스 조정자 의 요청에 따라 소속 공무원은 집행위원회로부터 면담에 관한 권한을 부여받은 공무원 및 그 밖의 동반인을 지원할 수 있다.

제69조(조사를 수행할 권한)

1. 집행위원회는 이 절에 따른 임무 수행을 위하여 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 제공자나 제67조(1)의 그 밖의 사람의 건물에서 필요한 모든 조사를 수행할 수 있다.

2. 집행위원회로부터 조사 수행을 승인받은 공무 원과 그 밖의 동반인은 다음에 관한 권한을 가진 다.

(a) 관련 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자나 그 밖에 관련된 다른 사람 의 건물, 부지, 운송수단에의 출입 (b) 저장된 매체에 관계없이 관련 서비스의 제공과 관련된 장부와 그 밖의 기록의 검토 (c) 그러한 장부 또는 그 밖의 기록의 사본이나 발 췌본에 대한 형태를 불문한 입수 또는 취득 (d) 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 제공자나 그 밖에 관련된 다른 사람에 대 한 조직, 기능, 정보통신기술시스템, 알고리즘, 데 이터 처리, 그리고 사업 관행에 대한 접근과 설명 제공 요구 및 제공된 설명의 기록 또는 문서화 (e) 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 제공자나 그 밖에 관련된 다른 사람이 거 래, 사업, 제작 또는 전문직업 목적으로 사용하는 장소와 장부 또는 그 밖의 기록에 대한 조사에 필 요한 기간 및 범위 내의 봉쇄 (f) 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 제공자나 그 밖에 관련된 다른 사람의 대 리인 또는 직원에 대한 조사의 내용 및 목적과 관 련된 사실 또는 문서에 대한 설명 요청 및 답변의 기록 (g) 조사의 내용과 목적과 관련된 대리인 또는 직 원에 대한 질문 및 답변의 기록

3. 조사는 제72조(2)에 따라 집행위원회가 임명한 감사인 또는 전문가, 그리고 디지털서비스 조정자 또는 조사가 수행되는 회원국의 그 밖의 관할당국 의 도움으로 수행될 수 있다.

4. 해당 서비스의 제공과 관련하여 요청된 장부 또 는 그 밖의 기록물의 작성이 미진한 경우 또는 이 조 제(2)항에 따른 질문에 대한 답변이 부정확, 불 완전하거나 호도하는 경우, 집행위원회로부터 조 사 수행을 승인받은 공무원과 그 밖의 동반인은 조 사의 내용과 목적, 제74조 및 제76조에 규정된 제 재금을 명시한 서면 승인서와 함께 부여받은 권한 을 행사하여야 한다. 집행위원회는 조사 전 미리 조사가 수행될 회원국의 디지털서비스 조정자에게 이를 통지하여야 한다.

5. 집행위원회가 승인한 공무원과 그 밖의 동반인, 집행위원회가 임명한 감사인 및 전문가, 디지털서 비스 조정자 또는 조사가 수행되는 회원국의 그 밖 의 관할당국은 조사 과정에서 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 그 밖에 관련된 다른 관계자에게 조직, 기능, 정보 통신기술시스템, 알고리즘, 데이터 처리, 사업 관 행에 대한 설명을 제공하고, 주요 피고용인에게 질 문을 할 수 있다.

6. 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자나 그 밖에 관련된 자연인이나 법인 은 집행위원회의 결정에서 명한 조사에 응하여야 한다. 결정은 조사의 내용과 목적을 특정하고, 조 사 개시일을 정하며, 제74조 및 제76조에 규정된 제재금과 결정에 대해 유럽연합 사법재판소의 심 리를 받을 권리를 명시하여야 한다. 집행위원회는 그러한 결정을 내리기 전에 조사가 수행될 회원국 의 디지털서비스 조정자와 협의하여야 한다.

7. 조사가 수행될 회원국의 공무원 또는 그 밖에 승인이나 임명을 받은 사람, 디지털서비스 조정자 는 그 디지털서비스 조정자 또는 집행위원회의 요 청에 따라 조사와 관련하여 집행위원회의 승인을 받은 공무원과 그 밖의 동반인을 적극적으로 지원 하여야 한다. 이를 위해 이들은 제(2)항에 열거된 권한을 가진다.

8. 집행위원회가 승인한 공무원과 그 밖의 동반인 이 초대형 온라인 플랫폼 또는 초대형 온라인 검색 엔진의 제공자나 그 밖의 관련된 다른 사람이 이 조에 따라 명령된 조사에 불응하는 것을 확인한 경 우, 조사가 수행될 회원국의 해당 공무원 또는 그 밖의 동행인의 요청으로, 그리고 회원국의 국내법 에 따라, 위 국내법에 따라 적절한 경우 관할 법 집 행기관의 강제조치를 비롯한 필요한 지원을 제공 하여 이들이 조사에 응하도록 하여야 한다.

9. 제(8)항에 규정된 지원이 관련 회원국의 국내법 에 따라 국내 사법당국의 승인을 필요로 하는 경 우, 이러한 승인은 집행위원회가 승인한 공무원과 그 밖의 동반인의 요청에 따라 해당 회원국의 디지 털서비스 조정자가 신청하여야 한다. 이러한 승인 은 예방조치로서 신청될 수 있다.

10. 제(9)항의 승인이 신청된 경우, 사건이 제기된 국내 사법당국은 조사를 명령한 집행위원회 결정 이 진정하게 성립되었다는 점과 조사의 내용과 관 련하여 예상되는 강제조치가 자의적이거나 과도하 지 않다는 점을 확인하여야 한다. 국내 사법당국은 이와 같은 확인 시 집행위원회에 직접 또는 해당 회원국의 디지털서비스 조정자를 통해 관련된 위 반 혐의의 심각성과 초대형 온라인 플랫폼 또는 초 대형 온라인 검색엔진의 제공자나 그 밖에 관련된 다른 사람의 개입 성격과 관련하여 특히 집행위원 회가 이 규정의 위반을 의심하는 근거에 관한 상세 한 설명을 요청할 수 있다. 다만, 국내 사법당국은 조사의 필요성에 의문을 제기하거나 집행위원회에 사건 기록에 관한 정보를 요구할 수 없다. 집행위 원회 결정의 적법성에 대해서는 오로지 유럽연합 사법재판소에서만 심리할 수 있다.

제70조(임시조치)

1. 제73조(1)에 따라 미준수 결정이 채택될 수 있 는 절차 과정에서 서비스 이용자가 심각한 피해를 입을 위험에 따른 긴급성이 인정되는 경우, 집행위 원회는 위반에 관한 일응의 판단을 근거로 관련 초 대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자에게 결정으로 임시조치를 명령할 수 있다.

2. 제(1)항에 따른 결정은 특정된 기간 동안 적용 되고, 기간 연장이 필요하고 적절한 경우에는 이를 연장할 수 있다.

제71조(서약)

1. 이 절에 따른 절차에서 관련 초대형 온라인 플 랫폼 또는 초대형 온라인 검색엔진의 제공자가 이 규정의 관련 조항을 준수하겠다고 서약하는 경우, 집행위원회는 결정으로써 관련 초대형 온라인 플 랫폼 또는 초대형 온라인 검색엔진의 제공자에 대 한 이와 같은 서약의 구속력을 부여하고, 더 이상 조치를 취할 근거가 없음을 선언할 수 있다.

2. 집행위원회는 다음에 해당하는 경우, 요청에 따 라 또는 직권으로 절차를 재개할 수 있다.

(a) 결정의 근거가 된 사실이 실질적으로 변경된 경우 (b) 관련 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자가 서약에 반하는 행동을 한 경우 (c) 결정이 관련 초대형 온라인 플랫폼 또는 초대 형 온라인 검색엔진의 제공자나 제67조(1)의 그 밖의 사람이 제공한 불완전, 부정확하거나 호도하는 정보에 근거한 경우

3. 집행위원회는 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자가 한 서약이 이 규정의 관련 조항의 효과적 준수를 보장할 수 없다 고 판단하는 경우, 절차 종결 시 이유가 포함된 결 정을 통해 그러한 서약을 거부하여야 한다.

제72조(모니터링 조치)

1. 집행위원회는 이 절에 규정된 임무를 수행하기 위하여 초대형 온라인 플랫폼과 초대형 온라인 검 색엔진의 제공자가 이 규정을 효과적으로 이행하 고 준수하는지 여부를 모니터링하는 데 필요한 조 치를 취할 수 있다. 집행위원회는 위 제공자에게 데이터베이스와 알고리즘에 대한 접근과 설명을 제공할 것을 명령할 수 있다. 위와 같은 조치에는 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔 진의 제공자에게 이 규정에 따른 의무의 이행과 준 수를 평가하는 데 필요하다고 보이는 모든 문서를 보관할 의무를 부과하는 것이 포함될 수 있다.

2. 제(1)항에 따른 조치에는 집행위원회가 독립된 외부 전문가와 감사인, 그리고 관할당국의 동의 하 에 위 당국의 전문가와 감사인을 임명하여 이 규정 의 관련 조항에 대한 효과적인 이행과 준수의 모니 터링을 지원하고, 집행위원회에 특정 전문성이나 지식을 제공하도록 하는 것이 포함될 수 있다.

제73조(미준수)

1. 집행위원회는 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자가 다음 중 어느 하나 이상을 준수하지 아니하는 것으로 판단하는 경우 미준수 결정을 채택하여야 한다.

(a) 이 규정의 관련 조항 (b) 제70조에 따라 명령한 임시조치 (c) 제71조에 따른 구속력이 있는 서약

2. 집행위원회는 제(1)항에 따른 결정을 채택하기 전에 관련 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자에게 예비적 판단을 전달하 여야 한다. 집행위원회는 예비적 판단을 효과적으 로 처리하기 위하여 집행위원회가 취하려는 조치 또는 관련 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자가 취하여야 하는 조치를 예 비적 판단에서 설명하여야 한다.

3. 집행위원회는 제(1)항에 따라 채택한 결정에서 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검 색엔진의 제공자에게 제(1)항에 따른 결정에서 특 정한 합리적인 기간 내에 위 규정의 준수를 보장하 기 위하여 필요한 조치를 취하고, 위 제공자가 결 정을 준수하기 위하여 취하고자 하는 조치에 관한 정보를 제공할 것을 명하여야 한다.

4. 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자는 제(1)항에 따른 결정의 준수 를 보장하기 위하여 취한 조치의 시행 시 이에 관 한 설명을 집행위원회에 제공하여야 한다.

5. 집행위원회는 제(1)항의 조건이 충족되지 아니 하는 것으로 판단하는 경우, 결정으로 조사를 종료 하여야 한다. 결정은 즉시 적용된다.

제74조(과징금)

1. 집행위원회는 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자가 고의 또는 과 실로 다음의 행위를 하였다고 판단한 경우, 제73 조의 결정에서 위 제공자에게 직전 회계연도 전 세 계 연간 총매출액의 6퍼센트를 초과하지 아니하는 과징금을 부과할 수 있다.

(a) 이 규정의 관련 조항을 위반한 경우 (b) 제70조에 따라 임시조치를 명한 결정에 따르 지 아니한 경우 (c) 제71조에 따른 결정에 의해 구속력이 부여된 서약을 준수하지 아니한 경우

2. 집행위원회는 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 제67조(1)의 그 밖의 자연인 또는 법인이 고의 또는 과실로 다 음의 행위를 하였다고 판단한 경우, 이들에게 직전회계연도 연간 총소득 또는 전 세계 매출액의 1퍼 센트를 초과하지 아니하는 과징금을 부과하는 결 정을 채택할 수 있다.

(a) 간단한 요청 또는 제67조에 따른 결정에 의한 요청에 대하여 부정확, 불완전하거나 호도하는 정 보를 제공하는 경우 (b) 지정된 기한 내에 결정에 의한 정보 요청에 응 답하지 아니하는 경우 (c) 집행위원회가 지정한 기한 내에 직원이 제공한 부정확, 불완전하거나 호도하는 정보를 수정하지 않거나 완전한 정보 제공을 거부하는 경우 (d) 제69조에 따른 조사에 불응하는 경우 (e) 제72조에 따라 집행위원회가 채택한 조치를 준수하지 아니하는 경우 (f) 제79조(4)에 따른 집행위원회의 자료 접근조건 을 준수하지 아니하는 경우

3. 집행위원회는 이 조 제(2)항에 따른 결정을 채 택하기 전에 관련 초대형 온라인 플랫폼 또는 초대 형 온라인 검색엔진의 제공자나 제67조(1)의 다른 사람에게 예비적 판단을 전달하여야 한다.

4. 집행위원회는 과징금 액수를 정함에 있어 위반 의 성격, 심각성, 지속 기간, 재발 여부, 제2항에 따 른 과징금의 경우에는 절차의 지연을 고려하여야 한다.

제75조(제III장제5절의 의무 위반에 대한 구 제조치의 감독 강화)

1. 집행위원회는 초대형 온라인 플랫폼 또는 초대 형 온라인 검색엔진의 제공자가 제III장제5절의 조 항을 위반한 것과 관련하여 제73조에 따라 결정을 채택함에 있어 이 조에서 정한 강화된 감독시스템 을 활용하여야 한다. 그러한 경우 집행위원회는 이 조에 따라 이사회의 의견을 최대한 고려하여야 한 다.

2. 집행위원회는 제73조의 결정에 관련 초대형 온 라인 플랫폼 또는 초대형 온라인 검색엔진의 제공 자에게 결정에 특정된 합리적 기간 내에 위반을 종 료시키거나 제거하는 데 필요한 조치를 명시한 실 행계획을 입안하여 디지털서비스 조정자, 집행위 원회 및 이사회에 전달하도록 하여야 한다. 이러한 조치에는 다른 조치의 이행에 관해 제37조(3)과 (4)에 따른 독립적 감사를 수행하겠다는 서약이 포 함되어야 하고, 감사인의 신원, 감사의 방법론, 시 기, 후속 조치를 특정하여야 한다. 조치에는 해당 하는 경우 제45조에 규정된 바에 따라 관련 행동 강령에 참여하겠다는 서약이 포함될 수 있다.

3. 이사회는 실행계획을 받은 후 1개월 이내에 실 행계획에 대한 의견을 집행위원회에 전달하여야 한다. 집행위원회는 위 의견을 접수한 후 1개월 이 내에 실행계획에서 명시한 조치가 위반을 종료시 키거나 제거하기에 충분한지 결정하고, 이행을 위 한 합리적인 기간을 지정하여야 한다. 위 결정에서 는 관련 행동강령을 준수하겠다는 서약을 고려하 여야 한다. 집행위원회는 후속적으로 실행계획의 이행을 모니터링하여야 한다. 이를 위해 관련 초대 형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자는 감사보고서 발행 이후 이를 지체 없이 집 행위원회에 전달하여야 하고, 집행위원회에 실행 계획의 이행을 위하여 시행한 조치에 대한 최신 정 보를 전달하여야 한다. 집행위원회는 이러한 모니 터링을 위해 필요한 경우, 집행위원회가 정한 합리 적 기간 내에 관련 초대형 온라인 플랫폼 또는 초 대형 온라인 검색엔진의 제공자에게 추가 정보를 제공하도록 요구할 수 있다.

집행위원회는 이사회와 디지털서비스 조정자에게 실행계획의 이행과 그 모니터링에 관해 지속적으 로 알려주어야 한다.

4. 집행위원회는 다음에 해당하는 경우 이 규정, 특히 제76조(1)(e) 및 제82조(1)에 따라 필요한 조 치를 취할 수 있다.

(a) 관련 초대형 온라인 플랫폼 또는 초대형 온라 인 검색엔진의 제공자가 해당 기간 내에 실행계획, 감사보고서, 필요한 최신 정보 또는 요청받은 추가 정보를 제공하지 아니한 경우 (b) 집행위원회가 제안된 실행계획에서 정한 조치 가 위반을 종료시키거나 제거하는 데 불충분하다 고 판단하여 위 실행계획을 거부하는 경우 (c) 집행위원회가 감사보고서, 제공받은 모든 최신 정보나 추가 정보 또는 그 밖에 이용 가능한 관련 정보를 기반으로 실행계획의 이행이 위반을 종료 시키거나 제거하는 데 불충분하다고 판단한 경우

제76조(이행강제금)

1. 집행위원회는 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 제67조(1)의 그 밖의 다른 사람에게 다음을 강제하기 위하여, 결정에서 지정한 날짜로부터 산출한 직전 회계연 도 일평균 소득 또는 전 세계 연간 매출액의 5퍼센 트를 초과하지 아니하는 이행강제금을 부과하는 결정을 채택할 수 있다.

(a) 제67조에 따른 정보 요구 결정에 대한 정확하 고 완전한 정보의 제공 (b) 제69조에 따른 결정에서 명한 조사의 수락 (c) 제70조(1)에 따라 임시조치를 명한 결정의 준 수 (d) 제71조(1)에 따른 결정에 의한 법적 구속력 있 는 서약의 준수 (e) 해당하는 경우 제75조의 실행계획과 관련하여 제73조(1)에 따른 결정에서 정한 요건을 비롯한 위 결정의 준수

2. 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 제67조(1)의 그 밖의 다른 사람이 이행강제금이 강제하고자 한 의무를 이행 한 경우, 집행위원회는 이행강제금의 최종 금액을 당초 결정보다 감경하여 정할 수 있다.

제77조(제재금 부과의 시효)

1. 제74조 및 제76조에 따라 집행위원회에 부여된 권한에는 5년의 시효가 적용된다.

2. 시효는 위반이 발생한 날부터 기산한다. 다만, 위반이 지속되거나 반복되는 경우에는 위반이 종 료된 날부터 기산한다.

3. 과징금 또는 이행강제금의 소멸시효는 집행위 원회 또는 디지털서비스 조정자가 위반과 관련한 조사 또는 절차를 목적으로 시행한 조치에 의해 중 단된다. 소멸시효를 중단시키는 조치에는 특히 다 음이 포함된다.

(a) 집행위원회나 디지털서비스 조정자의 정보 요 청 (b) 조사 (c) 제66조(1)에 따른 집행위원회의 절차 개시

4. 시효는 각 중단에 의해 새로 기산된다. 그러나 과징금 또는 이행강제금 부과의 시효는 늦어도 집 행위원회가 과징금 또는 이행강제금을 부과함이 없이 시효의 2배에 달하는 날 완성된다. 위 기간은 제(5)항에 따라 시효가 정지된 기간만큼 연장된다.

5. 과징금 또는 이행강제금의 시효는 집행위원회 의 결정에 관한 절차가 유럽연합 사법재판소에 계 속 중인 동안 정지된다.

제78조(제재금 집행의 시효)

1. 집행위원회의 제74조 및 제76조에 따른 결정을 집행할 권한에는 5년의 시효가 적용된다.

2. 시효는 결정이 종국된 날부터 기산된다.

3. 제재금 집행의 시효는 다음에 의해 중단된다.

(a) 과징금 또는 이행강제금의 당초 결정 금액을 조정하거나 조정 신청을 거부하는 결정의 통지 (b) 과징금 또는 이행강제금을 집행하기 위한 집행 위원회 또는 집행위원회의 요청에 따른 회원국의 조치

4. 시효는 각 중단에 의해 새로 기산된다.

5. 제재금 집행의 시효는 다음 기간 동안 정지된 다.

(a) 납부가 허용된 기간 (b) 유럽연합 사법재판소의 결정 또는 국내 법원의 결정에 따라 납부 집행이 정지된 기간

제79조(청문권과 자료 접근권)

1. 집행위원회는 제73조(1), 제74조 및 제76조에 따른 결정을 채택하기 전에 관련 초대형 온라인 플 랫폼 또는 초대형 온라인 검색엔진의 제공자나 제 67조(1)의 그 밖의 다른 사람에게 다음과 관련하 여 청문의 기회를 제공하여야 한다.

(a) 집행위원회가 이의제기한 사안을 포함하여 집 행위원회의 예비적 판단 (b) 집행위원회가 제(a)호의 예비적 판단을 고려하 여 시행하려는 조치

2. 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 제67조(1)의 그 밖의 다른 사람은 집행위원회가 예비적 판단에서 정한 14일 이상의 합리적 기간 내에 집행위원회의 예비적 판 단에 대한 의견을 제출할 수 있다.

3. 집행위원회는 관련 당사자들이 의견을 진술할 수 있었던 이의 사항에만 근거하여 결정을 내려야 한다.

4. 관련 당사자의 방어권은 절차에서 충분히 존중 되어야 한다. 관련 당사자는 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 다른 사 람의 영업비밀 보호에 관한 정당한 이익을 위해 협 의된 공개 조건에 따라 집행위원회의 자료에 접근 할 수 있다. 집행위원회는 당사자 간에 합의가 이 루어지지 아니하는 경우 공개 조건을 정한 결정을 채택할 권한이 있다. 집행위원회의 자료에 접근할 권한은 집행위원회, 이사회, 디지털서비스 조정자, 그 밖의 관할당국 또는 회원국의 그 밖의 공공기관 의 기밀 정보와 내부 문서에 대해서까지 확대될 수 없다. 특히 접근권한은 집행위원회와 위 당국들 간 의 통신에 대해서까지 확대될 수 없다. 이 항의 어 떠한 내용도 집행위원회가 위반을 입증하는 데 필 요한 정보를 공개하고 사용하는 것을 금지하지 아 니한다.

5. 제67조, 제68조 및 제69조에 따라 수집된 정보 는 이 규정의 목적을 위해서만 사용되어야 한다.

제80조(결정의 공표)

1. 집행위원회는 제70조(1), 제71조(1) 및 제73조 내지 제76조에 따라 채택한 결정을 공표하여야 한 다. 공표 시 당사자의 이름, 부과된 제재금을 포함 한 결정의 주요 내용을 명시하여야 한다.

2. 공표는 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자나 제67(1)의 그 밖의 다른 사람과 제3자의 기밀 정보 보호에 대한 권리 와 정당한 이익을 고려하여야 한다.

제81조(유럽연합 사법재판소의 심리)

유럽연합 사법재판소는 유럽연합기능조약 제261 조에 따라 집행위원회가 부과한 과징금 또는 이행 강제금에 대한 결정을 심리할 수 있는 무제한적인 관할권을 가진다. 유럽연합 사법재판소는 부과된 과징금 또는 이행강제금을 취소, 감액 또는 증액할 수 있다.

제82조(접근 제한 요청과 국내 법원들과의 협 력)

1. 이 규정의 위반을 중단시킬 수 있는 이 절에 따 른 모든 권한을 소진하였고, 위반이 지속되어 유럽연합 법률 또는 국내법에 따라 사용가능한 다른 권 한의 행사를 통해서도 피할 수 없는 심각한 피해를 야기하는 경우, 집행위원회는 관련 초대형 온라인 플랫폼 또는 초대형 온라인 검색엔진의 제공자의 설립지 디지털서비스 조정자에게 제51조(3)에 따 른 조치를 요청할 수 있다.

집행위원회는 디지털서비스 조정자를 상대로 이러 한 요청을 하기 전에, 이해당사자에게 요청하려는 조치를 설명하고 의도된 수취인을 식별하여 14일 이상의 기한 내에 서면 의견을 제출하도록 요청하 여야 한다.

2. 집행위원회는 이 규정의 일관된 적용을 위하여 직권으로 제51조(3)의 관할 사법당국에 서면 의견 을 제출할 수 있다. 집행위원회는 해당 사법당국의 허가를 받아 구두 의견을 제시할 수도 있다.

집행위원회는 오로지 의견의 준비를 위하여 사법 당국에 사건 판단에 필요한 문서를 전달하거나 그 전달을 보장할 것을 요청할 수 있다.

3. 국내 법원이 이 규정에 따라 집행위원회가 이미 채택한 결정의 대상이 된 사안에 대하여 판단하는 경우, 위 국내 법원은 집행위원회의 결정에 반하는 결정을 내려서는 아니 된다. 또한 국내 법원은 이 규정에 따라 집행위원회가 개시한 절차에서 집행 위원회가 고려하고 있는 결정과 상충될 수 있는 결 정을 피하여야 한다. 이러한 취지에서 국내 법원은 절차 정지의 필요성을 평가할 수 있다. 이는 유럽 연합기능조약 제267조에 영향을 미치지 아니한 다.

제83조(집행위원회 개입에 관한 이행법률)

이 절이 적용되는 집행위원회 개입과 관련하여, 집 행위원회는 다음을 위한 실질적 조치에 관한 이행 법률을 채택할 수 있다. (a) 제69조 및 제72조에 따른 절차 (b) 제79조에 규정된 의견청취 (c) 제79조에 규정된 협의된 정보 공개 집행위원회는 이 조 제1문단에 따른 조치를 채택 하기 전에 그 초안을 발표하고, 모든 이해당사자에 게 위 초안에 1개월 이상으로 지정된 기한 내에 의 견을 제출할 것을 요청하여야 한다. 이러한 이행법 률은 제88조의 자문절차에 따라 채택된다.

제5절 집행에 관한 공통조항

제84조(직무상 비밀 유지)

이 장에 명시된 정보의 교환과 사용에 영향을 주지 아니하고, 집행위원회, 이사회, 회원국의 관할당국 및 그 공무원, 고용인과 이들의 감독 하에 일하는 사람, 그 밖에 모든 관련 자연인이나 법인, 제72조 (2)에 따라 임명된 감사인과 전문가는 이 규정에 따라 취득하거나 교환한 정보와 직무상 비밀유지 의무가 적용되는 종류의 정보를 공개하여서는 아 니 된다.

제85조(정보공유시스템)

1. 집행위원회는 디지털서비스 조정자, 집행위원 회, 이사회 간의 의사소통을 지원하는 신뢰할 수 있고 안전한 정보공유시스템을 구축하고 유지하여 야 한다. 그 밖의 관할당국은 이 규정에 따른 임무 수행에 필요한 경우, 이 시스템에 대한 접근을 허 가받을 수 있다.

2. 디지털서비스 조정자, 집행위원회, 이사회는 이 규정에 따른 모든 의사소통에 있어 정보공유시스 템을 사용하여야 한다.

3. 집행위원회는 정보공유시스템의 기능과 다른 관련 시스템과의 상호 운용성을 위한 실질적인 운 영 방식을 규정하는 이행법률을 채택하여야 한다. 규정은 제88조의 자문절차에 따라 채택된다.

제86조(대리)

1. 중개서비스 이용자는 지침(EU) 제2020/1828 호 또는 국내법에 따른 그 밖의 대리 유형에 더하 여, 적어도 다음 조건을 모두 충족하는 기관, 조직 또는 협회로 하여금 이 규정에 따라 부여된 권리를 대신하여 행사하도록 위임할 권리가 있다.

(a) 비영리로 운영될 것 (b) 회원국 법률에 따라 적법하게 설립되었을 것 (c) 법정 목적에 이 규정의 준수에 관한 정당한 이 익이 포함될 것

2. 온라인 플랫폼 제공자는 이 조 제(1)항의 기관, 조직 또는 협회가 서비스 이용자를 대리하여 제20 조(1)의 제도를 통해 제출한 불만이 지체 없이 우 선 처리되고 결정될 수 있도록 필요한 기술적 및 조직적 조치를 취하여야 한다.

제6절 위임입법과 이행법률

제87조(위임의 실행)

1. 위임입법을 채택할 권한은 이 조에서 정한 조건 에 따라 집행위원회에 있다.

2. 제24조, 제33조, 제37조, 제40조 및 제43조에 따른 권한 위임은 2022년 11월 16일부터 5년 동 안 집행위원회에 부여된다. 집행위원회는 5년이 만료되기 9개월 전까지 권한 위임에 관한 보고서 를 작성하여야 한다. 유럽의회 또는 유럽연합 이사 회가 기간 만료일로부터 3개월 전까지 연장에 반 대하지 않는 한, 권한 위임은 동일한 기간으로 묵 시적으로 연장된다.

3. 유럽의회 또는 유럽연합 이사회는 언제든지 제 24조, 제33조, 제37조, 제40조 및 제43조의 권한 위임을 철회할 수 있다. 철회 결정에 의해 위 결정 에 특정된 권한 위임은 종료된다. 유럽연합 관보에 게재된 다음 날 또는 관보에 특정된 그 이후의 날 부터 효력이 발생한다. 이는 이미 시행 중인 위임 입법의 유효성에 영향을 미치지 아니한다.

4. 집행위원회는 위임입법을 채택하기 전에 선진 입법에 관한 2016년 4월 13일 기관 간 합의에 규 정된 원칙에 따라 각 회원국이 지정한 전문가와 협 의하여야 한다.

5. 집행위원회는 위임입법을 채택하는 즉시, 유럽 의회 및 유럽연합 이사회에 그 사실을 동시에 알려 야 한다.

6. 제24조, 제33조, 제37조, 제40조 및 제43조에 따라 채택된 위임입법은 위 법률을 유럽의회 및 유 럽연합 이사회에 통지한 후 3개월 이내에 유럽의 회 또는 유럽연합 이사회의 이의 표시가 없는 경우 또는 위 기간이 만료되기 전에 유럽의회 및 유럽연 합 이사회가 모두 집행위원회에 반대하지 아니한다는 것을 알린 경우에만 효력이 발생한다. 그러한 기간은 유럽의회 또는 유럽연합 이사회의 발의로 3개월 연장된다.

제88조(위원회 절차)

1. 집행위원회는 위원회(‘디지털서비스위원회’)의 지원을 받는다. 위 위원회는 규정(EU) 제 182/2011호에서 의미하는 위원회를 말한다.

2. 이 항의 인용이 있는 경우, 규정(EU) 제 182/2011호 제4조를 적용한다.

제V장 최종조항

제89조(지침 제2000/31/EC호의 개정)

1. 지침 제2000/31/EC호 제12조 내지 제15조를 삭제한다.

2. 지침 제2000/31/EC호 제12조 내지 제15조의 인용은 이 규정 제4조, 제5조, 6조 및 8조의 인용 으로 해석한다.

제90조(지침(EU) 제2020/1828호의 개정)

지침(EU) 제2020/1828호의 부속서 I에 다음을 추 가한다. ‘(68) 「디지털서비스 단일 시장 및 지침 제 2000/31/EC호의 개정에 관한 2022년 10월 19일 유럽의회 및 이사회 규정(EU) 제2022/2065호(디지털서비스법)」(2022년 10월 27일 관보 제L277 호 1면).’.

제91조(평가)

1. 집행위원회는 2027년 2월 18일까지 이 규정이 중소기업의 발전과 경제 성장에 미치는 잠재적 영 향을 평가하고, 유럽의회, 유럽연합 이사회, 유럽 경제사회위원회에 보고하여야 한다.

집행위원회는 2025년 11월 17일까지 다음을 평 가하고, 유럽의회, 유럽연합 이사회, 유럽경제사회 위원회에 보고하여야 한다. (a) 이 규정 제III장제5절에서 명시한 의무가 적용 되는 중개서비스 제공자의 범위를 비롯한 제33조 의 적용 (b) 이 규정이 다른 법적행위, 특히 제2조(3), (4) 의 법적행위와 상호작용하는 방식

2. 집행위원회는 2027년 11월 17일까지 그리고 이후 5년마다 이 규정을 평가하고, 유럽의회, 유럽 연합 이사회, 유럽경제사회위원회에 보고하여야 한다.

위 보고서는 특히 다음을 포함하여야 한다. (a) 제(1)항 제2문단(a) 및 (b)의 적용 (b) 특히 디지털서비스의 국경 간 제공과 관련하여 중개서비스에 대한 역내 시장의 심화와 효율적 기능에 대한 이 규정의 기여 (c) 제13조, 제16조, 제20조, 제21조, 제45조 및 제46조의 적용 (d) 소기업과 극소기업에 대한 의무의 범위 (e) 감독과 집행 체계의 효율성 (f) 표현과 정보의 자유에 대한 권리의 존중에 미 치는 영향

3. 적절한 경우, 제(1)항과 제(2)항의 보고서에는 이 규정의 개정 제안이 첨부되어야 한다.

4. 집행위원회는 이 조 제(2)항의 보고서에서 집행 위원회와 이사회에 제55조(1)에 따라 제공된 디지 털서비스 조정자의 활동에 관한 연례보고서를 평 가하고 보고하여야 한다.

5. 제(2)항의 목적을 위하여 회원국과 이사회는 집 행위원회의 요청에 따라 정보를 발송하여야 한다.

6. 집행위원회는 제(2)항의 평가를 수행함에 있어 유럽의회, 유럽연합 이사회 및 그 밖의 관련 기관 이나 출처의 입장과 조사 결과를 고려하고, 중소기 업과 새로운 경쟁자의 위치에 특별한 주의를 기울 여야 한다.

7. 2027년 2월 18일까지 집행위원회는 이사회와 협의 후 이 규정이 적용되는 첫 번째 연도임을 고려하여 이사회의 기능과 제43조의 적용에 대한 평 가를 수행하고, 이를 유럽의회, 유럽연합 이사회, 유럽경제사회위원회에 보고하여야 한다. 적절한 경우, 보고서에는 평가 결과를 근거로 이사회의 의 견을 최대한 고려하여 이사회의 구조와 관련한 이 규정의 개정 제안을 첨부한다.

제92조(초대형 온라인 플랫폼과 초대형 온라 인 검색엔진의 제공자에 대한 예상 적용)

이 규정은 제33조(4)에 따라 지정된 초대형 온라 인 플랫폼과 초대형 온라인 검색엔진의 제공자에 게 제33조(6)의 해당 제공자에 대한 통지일이 2024년 2월 17일 이전인 경우 그 통지일부터 4개 월이 지난 시점부터 적용된다.

제93조(시행 및 적용)

1. 이 규정은 유럽연합 관보 게재 후 20일째 되는 날부터 시행한다.

2. 이 규정은 2024년 2월 17일부터 적용된다.

다만, 제24조(2), (3) 및 (6), 제33조(3) 내지 (6), 제37조(7), 제40조(13), 제43조, 제IV장 제4절, 제 5절 및 제6절은 2022년 11월 16일부터 적용된다.