Libertad moderada 😏
¡Hola! ¿Cómo estás?
Hace meses que te debo este correo. Fue un año intenso y cargado de trabajo y la vida misma, pero no me voy a detener en aburrirte con eso. Igual, todo este tiempo, el canal de Telegram estuvo muy activo, así que si no lo seguís, te invito a que lo hagas.
Después de meses de leer y escuchar múltiples debates e intercambios sobre el rol de las redes sociales en la circulación del discurso, por decirlo de alguna manera, hoy me enfoco al menos un poco en la cuestión de la moderación de los contenidos en internet.
Espero sea de tu interés.
¡Arranquemos!
Libertad moderada
Las redes sociales son plataformas digitales que se basan en los contenidos que generan e intercambian las y los miembros de esas comunidades. Por lo tanto, son las intermediarias de esa información para que se publique, se comparta y circule.
Pero estos espacios no son neutrales ni están libres de regulación. Cada plataforma tiene sus propias normas y condiciones de servicio (los términos que nunca nadie lee), y sus normas comunitarias, que son reglas privadas, que indican, entre otras cosas, lo que se puede publicar y lo que no. Asimismo, establecen qué tipos de contenidos tendrán mayor o menor alcance. Es decir: las redes sociales actúan como moderadoras del contenido que se publica en sus plataformas.
La moderación es algo que no se ve, aunque ocurre cada vez que un usuario sube un contenido a una plataforma. Aunque desde la experiencia de la persona usuaria la percepción es que todo lo que genera se publica automáticamente sin filtros, en realidad entre que sube ese contenido y se publica ocurre la moderación que analiza si esos contenidos cumplen con las normas.
¿En qué consiste la moderación de contenidos?
Las plataformas llevan adelante acciones concretas para verificar y asegurar que los contenidos que se comparten a través de sus servicios cumplan con sus reglas. Para eso tienen equipos humanos que revisan miles de contenidos diarios para definir si respetan las normas comunitarias o infringen alguno de los puntos de los términos de servicio. De hecho, el trabajo de moderación de la enorme diversidad de contenidos que se suben a las redes sociales (discurso de odio, ataques violentos y pornografía gráfica, entre otros) ha sido noticia en los últimos años debido a los impactos nocivos en la salud mental de las y los moderadores.
Algunos de los contenidos que las plataformas consideran que deben ser sancionados, son:
• Pornografía.
• Abuso sexual infantil documentado.
• Sexo explícito.
• Desnudos.
• Discurso de odio.
• Cualquier acto de violencia.
• Apología del delito.
• Acoso sistémico.
• Desinformación.
• Incumplimiento de las normativas de derechos de autor y copyright.
Sin embargo, los moderadores humanos no trabajan solos. Debido al creciente volumen de información que circula en las redes y a las exigencias por parte de diversos actores sociales para que ejerzan una moderación más estricta de determinados contenidos -como los vinculados a discurso de odio o desinformación-, las plataformas han ido incorporando el uso de técnicas de machine learning, inteligencia artificial y algoritmos para revisar el contenido que se sube a diario.
Esta situación presenta un nuevo problema, ya que no siempre es preciso qué contenido está infringiendo las normas comunitarias de la plataforma. Para determinarlo, es fundamental analizar el contexto de cada publicación, algo que todavía resulta un enorme desafío para los sistemas automatizados de moderación de contenidos.
Por otro lado, independientemente de cómo actúan los moderadores humanos o los sistemas automatizados, está también el cumplimiento o no de las reglas por parte de la misma compañía. Por ejemplo, en 2020, a través de una filtración de documentos internos de Facebook que fueron publicados por el The Wall Street Journal, se conoció una lista de 5.800.000 personas llamada XCheck o Crosscheck que se trata de una serie de usuarios VIP de la red social que reciben un trato diferencial con respecto al contenido que publican. Es decir, si uno de estos usuarios VIP publica un contenido que viola las reglas de la red social, este no es eliminado o no es tan fácil ni tan frecuente que suceda.
Tipos de moderación
Dentro de lo que se conoce como moderación existe un amplio abanico de opciones:
• Jerarquización o priorización.
• Recomendación.
• Reducción de alcance.
• Invisibilización o shadowban.
• Etiquetado o flagging.
• Remoción de contenidos.
• Suspensión de uso de la cuenta.
• Suspensión y eliminación de cuentas.
Transparencia de los algoritmos
¿Cuál es el criterio que tienen las redes sociales (y sus algoritmos) para ordenar, recomendar, invisibilizar o eliminar los contenidos?
La pregunta no es caprichosa. Forma parte de una serie de interrogantes respecto del campo de aplicación de este tipo de tecnologías teniendo en cuenta los derechos fundamentales reconocidos en la Constitución Nacional y en los Tratados Internacionales de Derechos Humanos.
Por ejemplo, la decisión acerca de cómo ordenar la información implica la necesidad de establecer previamente cuáles serán los criterios y valores que se tendrán en cuenta para realizar la jerarquización. En el caso de una biblioteca, puede ser por el género literario, por el apellido del autor en orden alfabético o por orden cronológico si fuera material de archivo y hemeroteca. En estos casos, cuando una persona se acerca a una biblioteca para buscar un material, ese criterio es claro.
En el caso de las plataformas digitales de contenidos el criterio para ordenar la información ha ido cambiando a lo largo de los años. Actualmente, Google ordena los resultados teniendo en cuenta la relevancia de esa información para el usuario que realiza la búsqueda. Sobre esto, cabe preguntar cuáles son esos criterios de relevancia.
No todos los principios y criterios de relevancia son tan claros, transparentes y concretos. Por ejemplo, algunos se refieren a que los títulos de los contenidos de las páginas eviten “exageraciones o expresiones impactantes” o que el contenido “presente la información de una forma fiable”, entre otros. A pesar de presentar estos criterios en forma aparentemente transparente, no se logra responder con precisión la pregunta de cómo toman la decisión los algoritmos.
La pregunta por la transparencia de los algoritmos corresponde al principio de explicabilidad para los sistemas de IA, que busca que los usuarios puedan confiar en ellos. Como se expresa en las Directrices éticas para una IA fiable publicadas por el Grupo independiente de expertos de alto nivel sobre IA creado por la Comisión Europea en junio de 2018, la explicabilidad significa que los procesos deben ser transparentes y que las decisiones deben poder explicarse ya que “sin esta información, no es posible impugnar adecuadamente una decisión”. En los casos en que el acceso a la información y la libertad de expresión se ven atravesados por procesos algorítmicos, la transparencia de esos procesos es fundamental para garantizar esos derechos.
Los efectos de moderar el discurso
• Jerarquización o priorización
Una de las principales acciones de moderación privada que realizan todas las redes sociales es la jerarquización o priorización de lo que vemos en el inicio de cada una. Establecen el orden en que veremos lo que otros usuarios publican. El criterio de ese orden puede variar entre las diversas plataformas e incluso algunas, en los últimos años, han empezado a ofrecer la posibilidad a los usuarios de elegir entre dos o tres criterios para definir ese orden.
• Recomendación
A través de los datos que recopilan del comportamiento pasado de sus usuarios (en qué enlaces hace clic, qué publicaciones le gustan o comparte) y de sus bases de perfiles de usuario, las plataformas pueden identificar, con mayor o menor margen de error, qué contenidos son interesantes y relevantes para cada usuario.
De esta manera, sus algoritmos recomiendan contenidos que se presume que serán interesantes para el usuario, por lo que se mantendrá más tiempo conectado y atento. La contraparte de este proceso es que no se le recomendarán otros contenidos u otra información que la plataforma considere que no es interesante para el mismo, sin importar si es un contenido relevante por su valor social, si aporta una mayor diversidad de puntos de vista o si es de interés público.
• Reducción de alcance
En algunos casos, por publicar algún contenido que infringe las normas comunitarias, la plataforma puede tomar la decisión de reducir al mínimo la cantidad de usuarios que pueden verlo. Es decir que, a pesar de que el contenido no es estrictamente eliminado de la red social, el impacto de esta decisión es parecido, ya que, aunque siga publicado, muy pocos usuarios lo van a ver.
• Invisibilización o shadowban
Se conoce como shadowban o ghostban a la invisibilización que se produce a partir del bloqueo de un usuario en una plataforma sin recibir ninguna notificación en la que se explicite que se tomó esta medida y sin que éste perciba que está siendo bloqueado. El shadowban no elimina el contenido o la cuenta del usuario, pero le resta relevancia disminuyendo su visibilidad casi a cero. Esto significa que quien sube contenido sigue viéndolo, pero ignora que probablemente sea el único que puede hacerlo.
• Etiquetado o flagging
El etiquetado o flagging puede referirse a la marca que agrega la propia plataforma a contenidos de terceros o sus cuentas. Es una herramienta que usan las redes sociales para identificar contenidos que ellos consideran de dudosa procedencia o veracidad y hacerlos visibles para sus usuarios. En este sentido, el etiquetado es una forma que las plataformas digitales tienen de “editar” los contenidos publicados en su espacio, lo que da cuenta de que no son un mero soporte técnico para la circulación de contenidos de terceros.
En los casos en los que buscan detectar noticias falsas o desinformación, Meta (Facebook, Instagram, WhatsApp), por ejemplo, trabaja con organizaciones de periodistas que se especializan en la verificación de datos (fact-checkers) que analizan contenidos de interés público. Si se considera que una publicación es falsa, la plataforma la etiqueta y, en algunos casos, puede vincularla con la información que la contrasta.
• Remoción de contenidos
Una de las medidas más graves en lo que se refiere a la moderación de contenidos en redes sociales es la remoción de contenidos. En los últimos años, este mecanismo se ha utilizado cada vez más con la justificación de proteger los intereses de aquellas personas titulares de derechos de propiedad intelectual (por ejemplo, derechos de autor) e incluso de derechos vinculados a la privacidad y la protección de datos personales.
• Suspensión de uso de la cuenta
En algunos casos, las plataformas mantienen visibles las cuentas que han recibido una sanción, pero impiden a los administradores algunas acciones como por ejemplo publicar contenido, durante un tiempo determinado o hasta que se elimine una publicación específica.
• Suspensión y eliminación de cuentas
En los casos en que la empresa considere que un usuario ha infringido las normas comunitarias de la plataforma más allá de un contenido puntual, puede aplicar una suspensión temporal de acceso a su cuenta y a todos sus contenidos. Esto puede revertirse, de acuerdo a la consideración de la empresa, luego de que el usuario aplique una serie de ajustes que se le soliciten para cumplir con las reglas.
Un paso más extremo es la eliminación de cuentas. Esto ocurre en los casos en que las plataformas entienden que las infracciones a los términos del servicio fueron de una importante gravedad o se trata de una cuenta reincidente. En estos casos, además, se eliminan todos los contenidos generados por esa cuenta mientras estuvo activa, sin considerar el valor social o cultural que pudieran tener algunos o todos esos contenidos para el resto de los usuarios y de la comunidad.
👉 Desde octubre de 2021, estoy participando de un proyecto sobre moderación de contenido y derechos de usuarios de plataformas digitales en Argentina para Access Now. Así que si alguna vez te eliminaron un contenido, te suspendieron tu cuenta o te diste cuenta de que se redujo tu alcance o se invisibilizaron algunos de tus contenidos, y necesitás asesorarte sobre tus derechos, escribime.
Este correo es posible gracias a la Comunidad de
En DHyTecno todos nuestros contenidos con acceso libre y gratuito, pero requieren de nuestro trabajo, dedicación, dinero y tiempo (este correo me llevó 20 horas = 1203 minutos y 14 segundos).
Nuestra apuesta es recuperar el espíritu del periodismo como servicio público y que sea libre de presiones económicas y políticas. Para eso necesitamos del aporte de nuestra Comunidad, para seguir ofreciendo información de calidad, manteniendo el pensamiento crítico y reflexivo, y aportar al debate colectivo.
Si te gusta lo que hacemos y te parece que tiene algún valor, podés colaborar mensualmente con tu tarjeta de débito o crédito o podés invitarnos un café.
Si vivís fuera de Argentina y querés colaborar con DHyTecno, podés hacerlo a través de Patreon o PayPal.
Gracias por ayudarnos a seguir 😀
🎬 Transparencia y priorización de los buscadores de internet
Dr. Martín Becerra (CONICET) y Tamar Colodenco (Google)
El 28 de junio de 2022, la Corte Suprema de Justicia de Argentina revocó la sentencia de la Cámara Civil que favorecía a Natalia Denegri por el llamado “derecho al olvido” -que no existe como tal en el país- para que se quiten de los resultados de búsqueda de internet los videos que hacen referencia a su vinculación con el “Caso Coppola” y la muestran participando de escenas escandalosas en reality shows de televisión. Por unanimidad, los jueces Horacio Rosatti, Carlos Rosenkrantz, Juan Carlos Maqueda y Ricardo Lorenzetti expresaron una fuerte defensa del derecho a la información y a la libertad de expresión.
Sin embargo, las máximas autoridades de la Justicia argentina hicieron una advertencia sobre los buscadores de internet al referirse al modo en que las plataformas digitales inciden “en la ordenación del debate público” a través del uso de herramientas de tecnología informática, particularmente de aquellas que integran la categoría de Inteligencia Artificial. Es decir que, por primera vez la Corte Suprema hace la pregunta acerca de cómo se ordenan los resultados de búsqueda en internet. ¿Cómo toman decisiones estos algoritmos? ¿Qué criterios los guían?
Ya en la audiencia pública del 18 de marzo de 2022, el juez Lorenzetti había dicho: “El problema acá es la transparencia de los algoritmos”.
Con el objetivo de retomar esta pregunta, Access Now y OBSERVACOM organizaron el webinar Transparencia y priorización de los buscadores de internet, del que participaron el doctor en Ciencias de la Información, profesor e investigador del CONICET, Martín Becerra, y la gerente de Políticas Públicas y Relaciones Gubernamentales para Cono Sur de Google, Tamar Colodenco, quien destacó que el rol de los buscadores es fundamental para acceder a la información y para habilitar el ejercicio de la libertad de expresión y que, en ese sentido, “la misión del buscador de Google es organizar la información del mundo y hacer que sea universalmente útil y accesible para todos”. Martín Becerra, por su parte, se refirió al modo en que archivos o bibliotecas siempre tuvieron que catalogar y ordenar información para volverla accesible y destacó el desafío de la tarea de etiquetar cada pieza de información, teniendo en cuenta la delicadeza de esa tarea a la que describió como “eminentemente política”.
Si te interesa el tema, te invito a ver el webinar que tuvo algunos intercambios más que interesantes.
Brasil debate cómo regular las fake news
Desde julio de 2020, en la Cámara de Diputados de Brasil se está discutiendo el proyecto de Ley 2630 sobre Fake News.
Desde entonces, un conjunto de organizaciones de la sociedad civil consideran que el proyecto se ha mejorado y que la versión preliminar es más equilibrada en términos de garantizar los derechos de las personas usuarias de internet que las versiones anteriores del texto.
PUNTOS POSITIVOS
Regulación asimétrica en función del tamaño de las plataformas: La regulación asimétrica en función del tamaño de las plataformas, abarcando solamente a las empresas con ánimo de lucro que tengan más de 5 millones de usuarios en Brasil.
Regulación específica para ciertas plataformas digitales: Se regularían solo redes sociales, motores de búsqueda y aplicaciones de mensajería instantánea, sin aplicar la normativa a “enciclopedias en línea sin ánimo de lucro, repositorios científicos y educativos, plataformas de desarrollo e intercambio de software de código abierto y plataformas cerradas para reuniones virtuales por vídeo o voz”.
Regulación centrada en procesos de moderación, no en contenidos: La regulación estaría centrada en los procedimientos de moderación de contenido y de transparencia de perfil y cuentas y no en los contenidos.
Obligaciones razonables de transparencia y rendición de cuentas: Transparencia, se pedirá la elaboración de informes semestrales.
Garantías de debido proceso ante decisiones unilaterales de las empresas: Los derechos de los usuarios a ser notificados sobre las intervenciones que realice la empresa en los contenidos y cuentas, el derecho a la indemnización y la fijación de plazos para que las empresas respondan.
Obligación de representación legal en el país.
Transparencia sobre publicidad política y contenidos promocionados: Transparencia sobre publicidad política y contenidos promocionados estableciendo la obligación de identificar la publicidad política y que “las plataformas deban facilitar la identificación de todos los contenidos promocionales y publicitarios que se hayan promocionado a cambio de un pago”.
PUNTOS NEGATIVOS
Las organizaciones manifiestan que el proyecto requiere de cambios para ser aprobado porque consideran que pone en riesgo al periodismo.
Piden retirar las disposiciones sobre inmunidad parlamentaria y remuneración por contenidos periodísticos:
El artículo 22 del proyecto de ley plantea cuestiones relevantes respecto del funcionamiento de las cuentas de interés público y la transparencia que debe regir su funcionamiento en línea. Sin embargo, el inciso 8 del artículo, en la versión actual, extiende la inmunidad parlamentaria material a las redes sociales, evitando que diputados y senadores sean responsabilizados, civil y penalmente, por opiniones y palabras vertidas en un entorno digital.
El artículo 38 del proyecto de ley establece la remuneración, por parte de las plataformas, a los productores de contenido periodístico con base en derechos de autor, y determina que el reglamento de la ley prevea criterios, formas de medir valores, negociación, resolución de conflictos, transparencia y valorización del periodismo profesional.
Lo que plantean las organizaciones es que se elimine el artículo 38 y continuar la discusión sobre las formas de sostenibilidad del periodismo (ej: crear fondos para apoyar el desarrollo del periodismo a partir de la tributación de las plataformas).
Algunas organizaciones de la sociedad civil plantean que si bien la propuesta tiene buenas intenciones, es una medida que requiere un debate profundo, a la luz de iniciativas similares que se están discutiendo en otros países, lo que aún no ha sido hecho por el Congreso brasileño.
Uno de los cuestionamientos es que el texto tiene un lenguaje vago y carece de una serie de definiciones, especialmente de lo que se entiende por “contenido periodístico”.
REFERENCIAS:
Alerta de organizações da sociedade civil sobre o Projeto de Lei 2630/2020
OBSERVACOM considera un progreso el proyecto de ley de plataformas de Internet de Brasil, aunque entiende que hay puntos para seguir discutiendo.
Bolsonaro afirma que la ley contra noticias falsas es el "inicio de la censura".
🔥 BONUS TRACK
01. Seminario "Algoritmos y periodismo: el 'nuevo orden informativo' de los medios digitales"
Este lunes 3 y martes 4 de octubre se llevará a cabo el Seminario "Algoritmos y periodismo: el 'nuevo orden informativo' de los medios digitales", organizado por el Centro de Industrias Culturales, Políticas de Comunicación y Espacio Público (ICEP) de la Universidad Nacional de Quilmes. Será de 9 a 18hs en la Casa de la Cultura del Fondo Nacional de las Artes (Rufino de Elizalde 2831, CABA). Si te inscribiste antes del 30 de septiembre, nos vemos ahí (el martes, además, estaré coordinando junto a Santiago Marino una mesa de exposiciones académicas sobre "Regulación de plataformas y mercados digitales"). Si no te inscribiste pero te interesa, estate atentx a las redes del ICEP porque habrá streaming.
02. 35 años de Argentina en internet
El 23 de septiembre cumplió 35 años NIC Argentina. 35 años del dominio .ar 🇦🇷🥳
📚 🎧 Para celebrarlo, NIC.ar publicó y compartió este hermoso libro que pueden descargar acá en PDF o escucharlo en su versión audiolibro.
Por mi parte, tuve el honor de participar con un artículo sobre infancias y privacidad en internet. ¡Feliz cumple, NIC.ar! ❤️
03. Moderación de contenidos por derechos de autor
Si alguna plataforma o red social elimina alguno de tus contenidos o bloquea tu cuenta por supuestas infracciones a derecho de autor o copyright, podés informarte más sobre el tema en el sitio web Derecho de autor (un proyecto de Fundación Vía Libre y Creative Commons Argentina) o directamente reportar la baja de tu contenido en el sitio, para que puedan investigar y documentar cómo opera la moderación de contenidos por Derechos de Autor en las plataformas de redes sociales.
📚 Para leer
Transparencia de la moderación privada de contenidos. Una mirada de las propuestas de sociedad civil y legisladores de América Latina (2022). Por Marina Pita, para UNESCO. Disponible acá.
Espero te haya resultado interesante este correo. Cualquier información, duda, comentario o sugerencia que tengas, podés escribirme. A mí también me gustaría recibir un mensaje tuyo.
¡Que tengas un lindo octubre!
Gracias por estar ahí ☺️
Carolina