Moderación de los contenidos en las redes sociales: ¿de quién es realmente la responsabilidad, de plataformas o usuarios?
La moderación de los contenidos en las redes sociales está generando gran debate sobre quién asume la responsabilidad de las publicaciones a nivel global. Surge el debate en si la responsabilidad es de la plataforma en la que se publica el contenido o de los propios usuarios. Las redes sociales son un medio de intercambio de información administrada por terceros y puesta a disposición del público en general. Es un debate difícil por las controversias que se presentan por las normativas vigentes. Además, afecta a los derechos fundamentales como es la libertad de expresión y la privacidad en el ámbito de las plataformas de internet como las redes sociales.
Evolución y desafíos
La moderación de contenidos fue impulsada por la negativa de los usuarios al recibir publicidad, spam o anuncios que no eran de su interés o simplemente consideraban desagradable. Es por ello que surge la necesidad de la moderación, a causa de la satisfacción de los usuarios de las plataformas.
El debate en cuestión nace gracias a los desafíos que conllevan la desinformación por medio de las plataformas, al igual que discursos de odio, e incluso todo tipo de contenido nocivo que es promovido en plataformas como Facebook, Instagram o Twitter.
La moderación tiene un papel fundamental en las redes sociales por el intercambio de grandes cantidades de información, opiniones y contenido audiovisual. Es algo esencial para garantizar el cumplimiento de leyes vigentes que buscan proteger los derechos fundamentales como la privacidad, no discriminación y la integridad de la persona, implantando también unas políticas acordes al uso de las plataformas.
El papel de las plataformas
En base a la diferente regulación que existe sobre esta materia, las plataformas cuentan con distintas responsabilidades. Por un lado, de acuerdo con la Sección 230 de la Communications Decency Act de Estados Unidos, las plataformas no son responsables del tipo de contenido que es publicado por terceros, ya que promueve la moderación sin necesidad de eliminar contenido determinado que sea alojado en la plataforma. Es importante añadir lo establecido en la misma sección al decir que Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o emisor de cualquier información proporcionada por otro proveedor de contenido de información.
Contrariamente a lo dicho por la Communications Decency Act, en Reino Unido, la Safety Bill Act aclara que es un deber de las plataformas ser diligentes y proactivos en el análisis y la mitigación de todo riesgo que se provoque por el contenido publicado que sea considerado como ilegal. Por eso, la responsabilidad de la moderación sería exclusivamente de las plataformas.
De la misma manera que la ley británica, la Digital Services Act de la Unión Europea, determina que existe una obligación de evaluación del riesgo y adopción de medidas para la mitigación del riesgo. Otro asunto en lo que insiste es la transparencia y claridad sobre los términos y condiciones del uso de las plataformas, y los mecanismos puestos a disposición de los usuarios para actuar frente a decisiones tomadas por las plataformas.
Se entiende por todo lo comentado que las plataformas deben actuar garantizando los derechos humanos, procesos justos y con las políticas y legislaciones claras. Todos los textos normativos lo que pretenden alcanzar es una moderación de los contenidos de las redes sociales que sea responsable, además de la protección de las libertades del ámbito digital.
Gestión por parte de los usuarios
Los usuarios de las plataformas de internet son ciertamente responsables en lo que es su papel como quienes difunden o comparten la información alojada en las plataformas. Se consideran responsables en aquellos casos en los que, compartiendo contenido ilícito como pueden ser insultos o comentarios difamatorios, no actúan prudentemente o con la diligencia que se requiere.
En recientes sentencias del Tribunal Europeo de Derecho Humanos, al igual que el Tribunal Supremo en España, han determinado que la mala gestión de comentarios difamatorios en las plataformas puede conllevar cierta responsabilidad civil para aquellos que hayan sido autores de estos. Esto surge cuando los usuarios no se comprometen a seguir con las obligaciones que conlleva interactuar en las redes sociales, como responsabilizarse de lo publicado o promover la desinformación.
Deben actuar con la mayor transparencia posible sobre su identidad, por lo que poder identificar a los usuarios es crucial para alcanzarlo. Cosa distinta es que dicha información haya sido proporcionada en favor del interés público o juega un papel importante en la seguridad de los miembros. En ciertos casos los usuarios actúan a través del anonimato como medio de garantía para poder expresarse de manera libre.
Y, por tanto, la moderación de los contenidos involucra a ambas partes, plataformas y usuarios. Las primeras deben cumplir con unas políticas que protejan los derechos fundamentales, pero también los usuarios deben actuar diligentemente y compartir toda la información acorde. Todas las normativas vigentes de distintos países nos dan enfoques distintos sobre la responsabilidad de las plataformas. Por un lado, unas buscan un equilibrio entre inmunidad y responsabilidad. Y por otro, otra determina que son los usuarios quienes deben ser los responsables en el ámbito de las plataformas digitales.
Letslaw es una firma de abogados internacionales especializada en el derecho de los negocios.