Facebook anuncia medidas para elecciones en EE.UU

Después del escándalo por las irregularidades cometidas por Facebook en las elecciones de 2016, la red social anunció medidas para los comicios de 2020 en Estados Unidos.

A través de su blog, Faccebook aseguró que tienen la responsabilidad de detener el abuso y la interferencia electoral en su plataforma. Por lo que han realizado importantes inversiones desde 2016 para identificar mejor las amenazas, cerrar vulnerabilidades y reducir la propagación de información errónea viral y cuentas falsas. 

Debido a esas situaciones a falta de una año para las elecciones de 2020 en los Estados Unidos, anunciaron varias medidas nuevas para ayudar a proteger el proceso democrático.

Combatir la interferencia extranjera

  • Combatir el comportamiento no auténtico, incluida una política actualizada.
  • Proteger las cuentas de candidatos, funcionarios electos, sus equipos y otros a través de Facebook Protect. 

Aumento de la transparencia

  • Hacer que las páginas sean más transparentes, incluso mostrar al propietario confirmado de una página.
  • Etiquetado de medios controlados por el estado en su página y en la biblioteca de anuncios.
  • Facilitar la comprensión de los anuncios políticos, incluido un nuevo rastreador de gastos de candidatos presidenciales de EE. UU.

Reducir la desinformación

  • Prevenir la propagación de información errónea, incluidas etiquetas de verificación de datos más claras. 
  • Combatir la supresión e interferencia de los votantes, incluida la prohibición de anuncios pagados que sugieren que la votación es inútil o aconseja a las personas que no voten.
  • Ayudar a las personas a comprender mejor la información que ven en línea, incluida una inversión inicial de $ 2 millones para apoyar proyectos de alfabetización mediática.

Esta es la explicación que ha entregado Facebook sobre cada una de las medidas que ha tomado para evitar irregularidades durante los comicios del próximo año:

Combatiendo la interferencia extranjera

En los últimos tres años, hemos trabajado para identificar amenazas nuevas y emergentes y eliminar el comportamiento no auténtico coordinado en nuestras aplicaciones. Solo en el último año, hemos eliminado más de 50 redes en todo el mundo, muchas antes de las elecciones democráticas más importantes. Como parte de nuestro esfuerzo para contrarrestar las campañas de influencia extranjera, esta mañana eliminamos cuatro redes separadas de cuentas, páginas y grupos en Facebook e Instagram para participar en un comportamiento no coordinado auténtico. Tres de ellos se originaron en Irán y uno en Rusia. Apuntaron a los Estados Unidos, África del Norte y América Latina. Hemos identificado estas campañas de manipulación como parte de nuestras investigaciones internas sobre presuntos comportamientos no auténticos vinculados a Irán, así como el trabajo proactivo en curso antes de las elecciones estadounidenses.

Eliminamos estas redes en función de su comportamiento, no del contenido que publicaron. En cada caso, las personas detrás de esta actividad se coordinaron entre sí y usaron cuentas falsas para tergiversarse, y esa fue la base de nuestra acción. Hemos compartido nuestros hallazgos con las fuerzas del orden y los socios de la industria. Más detalles se pueden encontrar aquí .

A medida que hemos mejorado nuestra capacidad para interrumpir estas operaciones, también hemos desarrollado una comprensión más profunda de las diferentes amenazas y la mejor manera de contrarrestarlas. Investigamos y hacemos cumplir cualquier tipo de comportamiento no auténtico. Sin embargo, la forma más adecuada de responder a alguien que aumenta la popularidad de sus publicaciones en su propio país puede no ser la mejor manera de contrarrestar la interferencia extranjera. Es por eso que estamos actualizando nuestra política de comportamiento no auténtico para aclarar cómo lidiamos con el rango de prácticas engañosas que vemos en nuestras plataformas, ya sean extranjeras o nacionales, estatales o no estatales.

Protección de las cuentas de los candidatos, funcionarios electos y sus equipos

Hoy, estamos lanzando Facebook Protect para asegurar aún más las cuentas de funcionarios electos, candidatos, su personal y otros que pueden ser particularmente vulnerables a los ataques de piratas informáticos y adversarios extranjeros. Como hemos visto en elecciones pasadas, pueden ser blanco de actividades maliciosas. Sin embargo, debido a que las campañas generalmente se ejecutan por un corto período de tiempo, no siempre sabemos quiénes son estas personas afiliadas a la campaña, por lo que es más difícil ayudar a protegerlas.

A partir de hoy, los administradores de la página pueden inscribir las cuentas de Facebook e Instagram de su organización en Facebook Protect e invitar a los miembros de su organización a participar también en el programa. Los participantes deberán activar la autenticación de dos factores, y sus cuentas serán monitoreadas por piratería, como intentos de inicio de sesión desde ubicaciones inusuales o dispositivos no verificados. Y, si descubrimos un ataque contra una cuenta, podemos revisar y proteger otras cuentas afiliadas a esa misma organización que están inscritas en nuestro programa. Lea más sobre Facebook Protect e inscríbase aquí .

Hacer páginas más transparentes

Queremos asegurarnos de que las personas estén usando Facebook de manera auténtica y que entiendan quién les está hablando. Durante el año pasado, hemos tomado medidas para garantizar que las páginas sean auténticas y más transparentes, mostrando a las personas la ubicación principal del país de la página y si la página se ha fusionado con otras páginas. Esto le da a las personas más contexto en la página y hace que sea más fácil entender quién está detrás de ella. 

Cada vez más, hemos visto personas que no divulgan la organización detrás de su página como una forma de hacer que la gente piense que una página se ejecuta de forma independiente. Para abordar esto, estamos agregando más información sobre quién está detrás de una página, incluida una nueva pestaña «Organizaciones que administran esta página» que presentará el «Propietario de página confirmado» de la página, incluido el nombre legal de la organización y la ciudad verificada, el número de teléfono o sitio web.

Inicialmente, esta información solo aparecerá en las páginas con grandes audiencias estadounidenses que hayan pasado por la verificación comercial de Facebook . Además, las páginas que han pasado por el nuevo proceso de autorización para publicar anuncios sobre temas sociales, elecciones o política en los EE. UU. También tendrán esta pestaña. Y a partir de enero, estos anunciantes deberán mostrar su propietario de página confirmado. 

Si descubrimos que una Página oculta su propiedad para engañar a las personas, le solicitaremos que complete con éxito el proceso de verificación y muestre más información para que la Página se mantenga activa. 

Etiquetado de medios controlados por el estado

Queremos ayudar a las personas a comprender mejor las fuentes de contenido de noticias que ven en Facebook para que puedan tomar decisiones informadas sobre lo que están leyendo. El próximo mes, comenzaremos a etiquetar a los medios de comunicación que están total o parcialmente bajo el control editorial de su gobierno como medios controlados por el estado. Esta etiqueta estará tanto en su página como en nuestra biblioteca de anuncios. 

Mantendremos estas páginas con un nivel más alto de transparencia porque combinan la influencia de opinión de una organización de medios con el respaldo estratégico de un estado. 

Desarrollamos nuestra propia definición y estándares para organizaciones de medios controladas por el estado con el aporte de más de 40 expertos de todo el mundo especializados en medios, gobernanza, derechos humanos y desarrollo. Los consultados representan a las principales instituciones académicas, organizaciones sin fines de lucro y organizaciones internacionales en este campo, incluidos Reporteros sin Fronteras, Centro de Asistencia Internacional a los Medios, Centro Europeo de Periodismo, Proyecto de Propaganda Computacional del Instituto de Internet de Oxford, Centro de Medios, Datos y Sociedad (CMDS) en el Universidad de Europa Central, el Consejo de Europa, la UNESCO y otros. 

Es importante tener en cuenta que nuestra política establece una distinción intencional entre los medios controlados por el estado y los medios públicos, que definimos como cualquier entidad que se financia públicamente, conserva una misión de servicio público y puede demostrar su control editorial independiente. En este momento, estamos enfocando nuestros esfuerzos de etiquetado solo en medios controlados por el estado. 

Actualizaremos la lista de medios controlados por el estado de forma continua a partir de noviembre. Y, a principios de 2020, planeamos expandir nuestro etiquetado a publicaciones específicas y aplicar estas etiquetas en Instagram también. Para cualquier organización que crea que hemos aplicado la etiqueta por error, habrá un proceso de apelación. 

Haciendo más fácil entender los anuncios políticos

Además de hacer que las páginas sean más transparentes, estamos actualizando la biblioteca de anuncios, el informe de la biblioteca de anuncios y la API de la biblioteca de anuncios para ayudar a periodistas, legisladores, investigadores y otros a obtener más información sobre los anuncios que ven. Esto incluye:

  • Un nuevo rastreador de gastos de candidatos presidenciales de EE. UU., Para que las personas puedan ver cuánto han gastado los candidatos en anuncios
  • Agregar detalles de gastos adicionales a nivel estatal o regional para ayudar a las personas a analizar los esfuerzos de los anunciantes y candidatos para llegar a los votantes geográficamente
  • Dejar en claro si un anuncio se publicó en Facebook, Instagram, Messenger o Audience Network
  • Agregando filtros API útiles, proporcionando acceso programático para descargar creatividades de anuncios y un repositorio de scripts API utilizados con frecuencia.

Además de las actualizaciones de la API de la Biblioteca de anuncios, en noviembre, comenzaremos a probar una nueva base de datos con investigadores que les permitirá descargar rápidamente toda la Biblioteca de anuncios, tomar instantáneas diarias y realizar un seguimiento de los cambios diarios.

Visite nuestro Centro de ayuda para obtener más información sobre los cambios en las páginas y la biblioteca de anuncios . 

Prevención de la propagación de la desinformación viral

En Facebook e Instagram, trabajamos para evitar que se propague información errónea confirmada. Por ejemplo, reducimos su distribución para que menos personas lo vean : en Instagram, lo eliminamos de Explore y hashtags, y en Facebook, reducimos su distribución en News Feed. En Instagram, también hacemos que el contenido de las cuentas que publican información errónea repetidamente sea más difícil de encontrar al filtrar el contenido de esa cuenta desde las páginas Explore y hashtag, por ejemplo. Y en Facebook, si las Páginas, los dominios o los Grupos comparten información errónea repetidamente, continuaremos reduciendo su distribución general y aplicaremos restricciones a la capacidad de la Página para publicitar y monetizar.

Durante el próximo mes, el contenido en Facebook e Instagram que haya sido calificado como falso o parcialmente falso por un verificador de hechos de terceros comenzará a tener una etiqueta más prominente para que las personas puedan decidir mejor qué leer, confiar y compartir. Las etiquetas a continuación se mostrarán encima de fotos y videos falsos y parcialmente falsos, incluido el contenido de Historias en Instagram, y se vincularán a la evaluación desde el verificador de hechos.

Al igual que hacemos en Facebook cuando las personas intentan compartir información errónea conocida, también presentamos una nueva ventana emergente que aparecerá cuando las personas intenten compartir publicaciones en Instagram que incluyan contenido que haya sido desacreditado por verificadores de hechos de terceros.

Además de etiquetas más claras, también estamos trabajando para tomar medidas más rápidas para evitar que la información errónea se vuelva viral, especialmente dado que los informes de calidad y la verificación de hechos lleva tiempo. En muchos países, incluso en los EE. UU., Si tenemos señales de que una parte del contenido es falsa, reducimos temporalmente su distribución hasta que sea revisada por un verificador de hechos de terceros.

Lucha contra la supresión del voto y la intimidación

Los intentos de interferir o suprimir el voto socavan nuestros valores centrales como empresa, y trabajamos de manera proactiva para eliminar este tipo de contenido dañino. Antes de las elecciones de mitad de período de 2018, ampliamos nuestras políticas de represión e intimidación de votantes para prohibir:

  • Tergiversación de las fechas, lugares, horarios y métodos de votación o registro de votantes (por ejemplo, «¡Voto por texto!»);
  • Tergiversación de quién puede votar, calificaciones para votar, si se contará un voto y qué información y / o materiales se deben proporcionar para poder votar (por ejemplo, “Si votó en la primaria, su voto en las elecciones generales no contará . «); y 
  • Amenazas de violencia relacionadas con la votación, el registro de votantes o el resultado de una elección.

Eliminamos este tipo de contenido sin importar de quién provenga, y antes de las elecciones de mitad de período, nuestro Centro de Operaciones Electorales eliminó más de 45,000 piezas de contenido que violaron estas políticas , más del 90% de las cuales nuestros sistemas detectaron antes de que alguien informara el contenido. para nosotros. 

También reconocemos que hay ciertos tipos de contenido, como el discurso de odio, que tienen la misma probabilidad de suprimir la votación. Es por eso que nuestras políticas de discurso de odio prohíben los esfuerzos para excluir a las personas de la participación política sobre la base de cosas como la raza, el origen étnico o la religión (por ejemplo, decirle a la gente que no vote por un candidato debido a la raza del candidato o indicar que las personas de una determinada religión no se le debe permitir ocupar un cargo).

Antes de las elecciones de EE. UU. 2020, estamos implementando políticas adicionales y expandiendo nuestras capacidades técnicas en Facebook e Instagram para proteger la integridad de las elecciones. Después de un compromiso que hicimos en el informe de auditoría de derechos civiles publicado en junio, ahora hemos implementado nuestra política que prohíbe la publicidad paga que sugiere que la votación es inútil o sin sentido, o aconseja a las personas que no voten. 

Además, nuestros sistemas ahora son más efectivos para detectar y eliminar de manera proactiva este contenido dañino. Utilizamos el aprendizaje automático para ayudarnos a identificar rápidamente información de votación potencialmente incorrecta y eliminarla. 

También continuamos expandiendo y desarrollando nuestras asociaciones para proporcionar experiencia en tendencias en la represión e intimidación de votantes, así como la detección temprana de contenido violador. Esto incluye trabajar directamente con secretarios de estado y directores electorales para abordar la supresión local de votantes que solo puede estar ocurriendo en un solo estado o distrito. Este trabajo será apoyado por nuestro Centro de Operaciones Electorales durante las elecciones primarias y generales

Ayudar a las personas a comprender mejor lo que ven en línea

Parte de nuestro trabajo para detener la propagación de información errónea es ayudar a las personas a detectarlo por sí mismas. Es por eso que nos asociamos con organizaciones y expertos en alfabetización mediática. 

Hoy anunciamos una inversión inicial de $ 2 millones para apoyar proyectos que permitan a las personas determinar qué leer y compartir, tanto en Facebook como en otros lugares. 

Estos proyectos abarcan desde programas de capacitación para ayudar a garantizar que las cuentas de Instagram más grandes tengan los recursos que necesitan para reducir la difusión de información errónea, hasta expandir un programa piloto que reúna a personas de la tercera edad y estudiantes de secundaria para aprender sobre seguridad en línea y alfabetización mediática, para el público eventos en lugares locales como librerías, centros comunitarios y bibliotecas en ciudades de todo el país. También estamos apoyando una serie de eventos de capacitación centrados en el pensamiento crítico entre los votantes primerizos. 

Además, incluimos una nueva serie de lecciones de alfabetización mediática en nuestra Biblioteca de alfabetización digital. Estas lecciones fueron extraídas del equipo de Jóvenes y Medios del Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard, que las ha puesto a disposición de forma gratuita en todo el mundo bajo una licencia Creative Commons. Las lecciones, creadas para educadores de secundaria y preparatoria, están diseñadas para ser interactivas y cubrir temas que van desde la evaluación de la calidad de la información en línea hasta más habilidades técnicas como la búsqueda inversa de imágenes.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba