11.4 C
Riobamba, EC
jueves, octubre 9, 2025

Instagram y su nefasto mecanismo de censura

Facebook
Twitter
WhatsApp
Email

Por: Lisandro Prieto Femenía

La promesa de las grandes plataformas digitales fue simple y seductora: restaurar la palabra pública, democratizar la difusión, dar voz a quien antes carecía de tribuna. Instagram, en particular, se presentó como un ágora visual donde la creatividad y la expresión personal florecían sin intermediarios. Pues bien, hoy esa promesa aparece totalmente corroída por una doble realidad: por un lado, la red social tolera y a menudo amplifica imágenes y relatos de violencia, pornografía y todo tipo de atrocidades; por otro, castiga e invisibiliza sistemáticamente voces que promueven la concientización, el cuidado, el amor a la familia o posiciones discordantes con ciertas corrientes culturales posmodernas. Entre la retórica de la libertad y la práctica de la moderación se ha instalado una hipocresía patética que merece ser confrontada filosóficamente.

Bien sabemos que la hipocresía no es un fallo técnico accidental, sino la clara manifestación lógica de una arquitectura institucional y económica. Las decisiones de qué puede permanecer visible y qué debe ser suprimido no nacen en un vacío moral, sino que responde a intereses, incentivos y diseños que priorizan la captura de atención y la extracción masiva de datos de todos los usuarios. En lugar de una ética coherente de la palabra pública, lo que está rigiendo es una economía de la atención que recompensa solamente lo sensacional, lo inmediato y lo emotivo. Las imágenes que escandalizan atraen miradas y likes mientras que los relatos serenos de aprendizaje, sensatez, cordura o crítica reflexiva atraen menos y, por tanto, quedan penalizados por un algoritmo cuya función primera es maximizar retención y retorno publicitario. Así, la plataforma enseña su clara moral: la visibilidad se paga en tiempo de atención y la censura se impone cuando el discurso no resulta rentable o resulta políticamente incómodo.

La precitada economía no actúa sola: la moderación se externaliza a sistemas mixtos de aprendizaje automático y denuncias humanas, ambos cargados de sesgos de dudosa procedencia. Los modelos se entrenan con datos que reproducen prejuicios: léxico marcado como “peligroso”, imágenes etiquetadas como “sensibles”, comunidades etiquetadas como de alto riesgo. El resultado es un sistema que discrimina no sólo por el contenido sino por el estilo, vocabulario y afiliación. Es fácil ignorar o retrasar la retirada de material explícito que atrae audiencia; es mucho más sencillo y barato sancionar a usuarios que comparten testimonios incómodos para las narrativas patéticas dominantes. La hipótesis es inquietante pero totalmente verosímil: la censura no castiga únicamente por daño, sino también por incomodidad y por riesgo reputacional para la plataforma, ya comprometida con ciertos intereses.

Ahora bien, contrastemos la retórica y la praxis mediante ejemplos concretos. Incidentes en los que asesinatos han sido transmitidos o difundidos en vivo, y han circulado durante horas antes de su eliminación, muestran un fracaso institucional para priorizar la protección de las víctimas por sobre la viralidad. En paralelo, hay múltiples relatos periodísticos e investigaciones que denuncian cierres de cuentas y eliminación de contenidos destinados a la prevención y cuidado o a la crítica social, alegando siempre “violaciones de políticas” de la empresa- “contenido sensible”, “desinformación”, “discurso de odio”- con criterios vagos y aplicaciones erráticas. Estos patrones, repetidos en distintos contextos, delinean una práctica nefasta: contenidos gráficos que alimentan la máquina de la atención perviven mientras que las voces que desestabilizan narrativas cómodas se silencian con rapidez.

Para comprender la mecánica de este fenómeno, conviene apoyarse en algunos marcos teóricos contemporáneos. Shoshana Zuboff ha mostrado cómo las plataformas convierten la conducta en datos y luego en ganancias mediante la vigilancia, que es la materia prima de un negocio que no sólo vende atención sino que moldea sujetos. Por su parte, Eli Pariser advirtió la creación de “burbujas de filtro”, entornos que homogeneizan la información y restringen la pluralidad real. Simultáneamente, Tarleton Gillespie describe a las empresas tecnológicas como “custodios de internet”, es decir, actores privados que, sin legitimidad democrática, toman decisiones de alcance público. Por último, Safiya Noble expuso cómo los sesgos tecnológicos reproducen y amplifican ciertas injusticias. Todos estos aportes coinciden en un punto crucial: las decisiones de “moderación” en las redes no son neutrales, sino que son políticas enmascaradas de técnicas…

Facebook
Twitter
WhatsApp
Email