Proponen regular a ministros religiosos en redes y desatan debate por censura digital
La iniciativa de Morena busca ampliar las regulaciones a iglesias en espacios digitales, lo que ha generado preocupación por posibles restricciones a la libertad religiosa y de expresión
Morelia, Michoacán, 06 de noviembre de 2025.- La semana pasada, el diputado Arturo Ávila Anaya –vocero del grupo parlamentario de Morena–, presentó una iniciativa de ley que pretende agregar un párrafo al artículo 16 de la Ley de Asociaciones Religiosas y Culto Público para, en esencia, ampliar las regulaciones que actualmente tienen las iglesias y sus ministros de culto en materia comunicativa. Como se sabe, la ley mexicana prohíbe a las iglesias la posesión de medios de comunicación tradicionales; y ahora, la propuesta de actualización busca incluir controles expresivos a los ministros de culto en los espacios digitales.
La propuesta sugiere que los ministros y sus iglesias deben sujetarse a los lineamientos establecidos por instancias del gobierno en los espacios de comunicación digital (plataformas y redes sociodigitales) y concede a los órdenes federales garantizar “los derechos digitales, la neutralidad de la red y la prevención de discursos de odio”. La propuesta además dice sustentarse en el respeto a la libertad religiosa y de expresión; aunque en sentido estricto la primera no está del todo definida ni comprendida a cabalidad en la Constitución puesto que tenemos un marco de libertad de religión con una ley enfocada en las instituciones religiosas y sus ministros, pero no en las personas creyentes y no creyentes, auténticos destinatarios de la libertad religiosa.
En todo caso, a muchos religiosos y operadores de espacios sociodigitales de pastores e iglesias les preocupa en particular la interpretación que el gobierno tenga sobre “prevención de discursos de odio” y que la adecuación de la ley imponga de facto una censura a la expresión de sus convicciones, dogmas, creencias e interpretaciones de la realidad social actual bajo ese criterio.
La preocupación es legítima. Pero en perspectiva, la inquietud no debería limitarse a las capacidades limitativas de las autoridades civiles. Es un hecho que la censura de la comunicación digital se realiza esencialmente desde los modelos algorítmicos de supervisión del lenguaje y discursos expresados en los espacios digitales.
Desde hace meses, los modelos de imitación de lenguaje de los grandes actores sociales globales (como los meta-motores de búsqueda, los conglomerados de administración de data y las denominadas inteligencias artificiales) realizan una identificación automática de aquel contenido que, bajo sus criterios, ataca o menosprecia a personas o grupos por motivos de raza, religión, género… pero también que segmenta y manipula bajo criterios de adhesión ideológica o vulnerabilidad de sesgos moralizadores o fanáticos.
Dichos modelos de lenguaje están “entrenados” para operar con volúmenes inverosímiles de información y son capaces de entender y generar lenguaje natural a partir de arquitecturas algorítmicas complejas; y a través de ellas se previene, censura y castiga a todo aquel operador que utilice cierto “discurso de odio” en sus plataformas. Quienes utilizan estos espacios de forma regular habrán advertido desde hace tiempo cómo se censuran varias palabras clave (que a los dueños de los algoritmos les suenan como percutoras de discursos de odio o discriminación) y saben cómo deben utilizar formas discursivas alternas para sortear dichos controles.
Los controles del odio algorítmico, sin embargo, distan mucho de ser perfectos. Algunos estudios revelan cómo los ‘entrenamientos’ de los códigos ayudan a replicar o a amplificar los sesgos de discriminación y odio ya presentes en los detentadores de la cultura algorítmica. Es decir, hoy hay un riesgo mucho mayor de que sean precisamente los controles algorítmicos los que están motivando la preservación o ahondamiento discriminatorio a ciertos grupos marginales de cierta ‘normalidad’ estadística.
Recientes estudios sobre la eficacia de los modelos de lenguaje para identificar las construcciones discursivas y verbales de odio evidencian algo obvio: los algoritmos de ‘control’ están enfocados en interpretar los lenguajes dominantes (inglés, español, francés) pero limitados en otros idiomas; además, los mecanismos discursivos como sarcasmo, el eufemismo y el lenguaje críptico (sumamente utilizados por grupos politizados y polarizantes) se escapan fácilmente del código revisor.
Esta realidad produce dos fenómenos inquietantes. Por una parte, provoca una alta tendencia de generar falsos positivos contra ciertos colectivos marginados (una censura algorítmica a las realidades periféricas) y, al mismo tiempo, una homogenización hipertrófica de las expresiones ‘normadas’ por los entrenadores de algoritmos que, paradójicamente, pueden crear discursos de odio. Un reciente estudio publicado por la asociación USENIX, por ejemplo, corroboró que los modelos de imitación de lenguaje natural de plataformas usados por las IA’s más comunes hoy pueden ser usados para automatizar campañas de odio a gran escala.
El filósofo Armand Mattelart –quien falleció justo el 31 de octubre pasado– lo expresó de una forma simple e intensamente vigente: “En la medida en que esta clase [hoy son los dueños y administradores de la data] monopoliza los medios de producción y domina la estructura del poder de la información, será su visión particular del mundo, la que tenderá a imponerse como visión general de ese mismo mundo”.
Aún hay mucho por comprender sobre los sesgos de los datos de entrenamiento que se usan para discriminar y censurar; se sabe, por lo pronto, que el uso de estos modelos de control representa un consumo abismal de recursos naturales y tecnológicos y que las decisiones de dichos modelos son casi siempre ininterpretables.
Pero si las leyes mexicanas no están abordando la complejidad de estos escenarios, ¿entonces cuál es el objetivo de la iniciativa de ley? (CON INFORMACIÓN DE: SIETE 24)




