Google y YouTube revisan sus políticas de gestión de contenido, privilegiando la libertad de expresión y disminuyendo la intervención en la eliminación de videos potencialmente dañinos
Google y YouTube adaptan sus políticas, priorizando la libertad de expresión y reduciendo la moderación en contenidos polémicos, en un contexto de cambios regulatorios.
Google y YouTube están ajustando sus políticas en torno a la gestión de contenido misinformation y libertad de expresión, en medio de una creciente tensión regulatoria y social. En un movimiento que marca un cambio importante, YouTube anunció que permitirá a cuentas previamente baneadas por difundir desinformación sobre COVID-19 y las elecciones de Estados Unidos solicitar su reapertura a través de un programa piloto limitado. Esta decisión contrasta con la postura mantenida desde 2016, cuando Google fortaleció sus esfuerzos en verificación de hechos, utilizando verificadores externos y herramientas como las etiquetas Fact Check en Google News o las cajas de información en YouTube para combatir la desinformación.
Sin embargo, en 2023–2024 la compañía modificó su enfoque, reduciendo la colaboración internacional en verificaciones, eliminando la integración de herramientas de fact-checking en sus resultados y disminuyendo los equipos dedicados a confianza y seguridad. Estas decisiones llegan en un momento donde Google enfrenta múltiples casos antimonopolio y demandas, tras perder procesos judiciales sobre su dominio en búsqueda y publicidad en línea. Además, la compañía ha reforzado su narrativa en favor de la libertad de expresión, defendiendo que su prioridad es conectar a los usuarios con información relevante y de alta calidad, aunque sin depender totalmente de verificadores externos para el ranking de contenidos.
El cambio de postura también incluye una menor intervención en la eliminación de contenido considerado controvertido o potencialmente perjudicial. Desde 2018, Google había incrementado sus esfuerzos en etiquetar y desmentir información falsa, en especial durante la pandemia de COVID-19, pero en 2023 anunció que dejaría de eliminar ciertos contenidos relacionados con fraude electoral de 2020, arguyendo que su restricción podía limitar la discusión política sin reducir efectivamente los riesgos de violencia.
Esta tendencia hacia mayor libertad de expresión ha sido respaldada por figuras como Donovan, abogado de Alphabet, quien acusó presiones por parte de funcionarios de la administración Biden para censurar contenido, defendiendo que las decisiones de moderación deben estar libres de influencias políticas. En ese marco, Google afirmó que continuará usando paneles informativos en YouTube para proporcionar contexto adicional en ciertos temas, pero evitará generar acciones o etiquetas automáticas en los contenidos, reforzando su compromiso de no utilizar verificadores externos para sanciones o marcados en sus plataformas.
La decisión de flexibilizar las políticas de moderación, además de generar controversia, ha coincidido con recortes en los equipos dedicados a la confianza y seguridad, en línea con movimientos similares de otras empresas tecnológicas. Esto plantea un cambio en la estrategia de Google y YouTube, que en el pasado se posicionaron como defensores de la información verificada, pero que ahora parecen privilegiar la libertad de expresión en un contexto de crecientes regulaciones y presiones políticas, incluyendo su postura frente a las legislaciones europeas y las demandas judiciales que afectan sus operaciones globales.