La Unión Europea intensifica la censura de los conservadores con la regulación de la Inteligencia Artificial


Martes 22 de julio de 2025
Los nuevos estándares de “seguridad” de la Unión Europea requerirán que las empresas tecnológicas censuren y moderen el contenido en modelos de inteligencia artificial de propósito general para prevenir el “odio” y la “discriminación”.
El Código de prácticas de Inteligencia Artificial de propósito general de la Comisión Europea exige que los desarrolladores de Inteligencia artificial y las empresas tecnológicas garanticen que los modelos de Inteligencia artificial de propósito general sean “seguros”, incluso mediante la censura de contenido que sea “odioso, radicalizador o falso”.
El nuevo reglamento tiene el potencial de impulsar la censura y el control social en las principales plataformas tecnológicas. Junto con la infame Ley de Servicios Digitales de la Unión Europea, se espera que el reglamento impulse nuevas herramientas de censura automatizada por Inteligencia artificial en todas las principales plataformas tecnológicas.
Una sección de las normas recientemente publicadas destaca la “manipulación dañina” como un riesgo importante específico y parece definirla por referencia a las narrativas políticas populistas contra las políticas transgénero de la Unión Europea y los programas de inmigración masiva.
El reglamento define la «manipulación perjudicial» como «la distorsión estratégica del comportamiento o las creencias humanas dirigida a grandes poblaciones o a responsables de la toma de decisiones de alto nivel mediante la persuasión, el engaño o la focalización personalizada». Esto, explica el reglamento, «podría socavar los procesos democráticos y los derechos fundamentales, incluida la explotación basada en características protegidas». En el contexto de la Unión Europea, se entiende ampliamente que las características protegidas se refieren a cuestiones como la situación migratoria o la orientación sexual y la identidad de género.
El reglamento exige a las empresas tecnológicas que identifiquen primero un amplio conjunto de posibles «riesgos sistémicos» en las categorías de salud pública, seguridad, protección pública, derechos fundamentales y sociedad en su conjunto. Otros peligros específicos identificados en el reglamento incluyen la «falta de alineamiento con los valores humanos (por ejemplo, el desprecio por los derechos fundamentales)» y el «sesgo discriminatorio». Una vez identificados estos riesgos, los desarrolladores de Inteligencia artificial y las empresas tecnológicas deben analizar y mitigar cualquier posible riesgo sistémico mediante la monitorización y el filtrado de las entradas y/o salidas del modelo.
Los estándares son una herramienta voluntaria diseñada para demostrar que las empresas tecnológicas cumplen con la legislación de la Unión Europea sobre inteligencia artificial, conocida como la Ley de Inteligencia artificial. Si bien son de carácter voluntario, se considerará que las empresas que adopten los estándares cumplen con la Ley de Inteligencia Artificial. «Esto reducirá su carga administrativa y les brindará mayor seguridad jurídica que si demostraran su cumplimiento mediante otros métodos», afirma la Comisión Europea.
Los estándares son predominantemente prospectivos. No se orientan tanto a abordar problemas existentes en los modelos de IA como a garantizar que los modelos futuros cumplan con los estándares desde su diseño, de modo que sus resultados se ajusten a ellos.
El nuevo reglamento se suma a las ya exhaustivas medidas de censura que las empresas tecnológicas deben adoptar en virtud de la Ley de Servicios Digitales de la Unión Europea. La Comisión Europea ya exigía a las grandes empresas tecnológicas que censuraran mediante el Código de Conducta sobre Desinformación . Cuando se adoptó por primera vez en 2018, era solo una regulación voluntaria, pero ahora es vinculante en virtud de la Ley de Servicios Digitales de la Unión Europea de 2025, aprobada a principios de este año.
La Ley de Servicios Digitales de la Unión Europea exige a las grandes plataformas en línea que censuren el contenido de acuerdo con las prioridades de la Comisión Europea. El reglamento sobre desinformación exige expresamente a las empresas tecnológicas que censuren y promuevan la propaganda oficial de la Unión Europea mediante la moderación de contenido, la desmonetización, la verificación de datos y la contrainformación.
El vicepresidente de Estados Unidos, JD Vance, criticó las normas de censura de la Ley de Servicios Digitales de la Unión Europea en una Cumbre de Inteligencia Artificial en París en febrero de este año.
“Creemos firmemente que la Inteligencia Artificial debe mantenerse libre de sesgos ideológicos”, afirmó, “y que la Inteligencia Artificial estadounidense no será utilizada como herramienta de censura autoritaria”. También advirtió sobre la Ley de Inteligencia Artificial de la Unión Europea y su posible impacto en la innovación.
