Más allá de la desinformación: Hablemos de la moderación de contenidos en redes sociales (en línea)

"Las plataformas privadas están ejerciendo un poder de control comunicativo sin precedentes, comparable al de las instituciones públicas, pero sin los mecanismos de rendición de cuentas que toda democracia exige", escribe Javier Gallegos Gambino, abogado del CNTV, para Turno PM.

05-11-2025

Por Javier Gallegos Gambino


El interés ciudadano por la regulación de contenidos en el entorno digital es creciente. Según Cadem (2024), el 74% de las personas apoya la idea de regular mejor el contenido que circula en redes sociales, mientras que Pulso Ciudadano (2025) reporta que un 74,4% está de acuerdo o muy de acuerdo con que exista una ley que limite y sancione la difusión de noticias falsas. Estas cifras revelan un consenso amplio: la ciudadanía percibe que el espacio digital necesita reglas más claras y mecanismos de control más efectivos.


A nivel académico, las investigaciones han puesto el foco en el análisis aislado de conductas abusivas como los discursos de odio, la desinformación, la protección de datos personales o las denominadas funas digitales. Estos temas han sido objeto de creciente atención, con esfuerzos institucionales sistematizadores como el de la Comisión Asesora contra la Desinformación (2023).


Sin embargo, pese a su relevancia social y al evidente impacto de las plataformas en el debate público, persiste una brecha en la comprensión de un fenómeno más amplio y estructural. La moderación de contenidos, es decir, los mecanismos que las propias redes emplean para equilibrar la libertad de expresión con la protección de los usuarios y la convivencia digital.


Se trata de un proceso que, en concreto, define qué discursos permanecen visibles, cuáles son limitados y cuáles se eliminan, a través de decisiones humanas y automatizadas que moldean el espacio público digital, influyendo o afectando directamente tanto la calidad del debate como los límites de la libertad individual. Estas decisiones no son neutrales. Determinan quién habla, sobre qué temas y con qué visibilidad, influyendo directamente en el derecho a la información y en la percepción pública de la realidad. Por eso, la moderación de contenidos no es sólo un asunto técnico, también es un desafío democrático.


Las plataformas privadas están ejerciendo un poder de control comunicativo sin precedentes, comparable al de las instituciones públicas, pero sin los mecanismos de rendición de cuentas que toda democracia exige.


En Chile, donde aún no existe una institucionalidad capaz de abordar este tema, el desafío no pasa por censurar, sino por crear marcos de gobernanza digital que aseguren transparencia, proporcionalidad y coherencia con los derechos fundamentales. Así como la televisión cuenta con un regulador como el Consejo Nacional de Televisión (CNTV), el entorno digital requiere un enfoque público que combine supervisión, ética y participación ciudadana.


Si no entendemos a cabalidad cómo operan estos sistemas —quién modera, con qué criterios y con qué consecuencias—, seguiremos discutiendo los síntomas sin atender las causas: la ausencia de control democrático sobre los mecanismos que hoy delimitan la conversación pública.


En definitiva, todo se trata de cómo garantizamos una conversación pública libre, responsable y justa en la era de los algoritmos.






Turno.Live