Alvaro Bustos https://observatoriodesinformacion.cl Tue, 29 Aug 2023 13:31:22 +0000 es hourly 1 https://wordpress.org/?v=6.6.1 https://observatoriodesinformacion.cl/wp-content/uploads/2023/03/cropped-favi-32x32.png Alvaro Bustos https://observatoriodesinformacion.cl 32 32 Estudio relacionado a Meta Confirmó Más Exposición A Desinformación Entre Usuarios Conservadores https://observatoriodesinformacion.cl/2023/08/29/estudio-relacionado-a-meta-confirmo-mas-exposicion-a-desinformacion-entre-usuarios-conservadores/ https://observatoriodesinformacion.cl/2023/08/29/estudio-relacionado-a-meta-confirmo-mas-exposicion-a-desinformacion-entre-usuarios-conservadores/#respond Tue, 29 Aug 2023 13:31:22 +0000 https://observatoriodesinformacion.cl/?p=1030
  • La inédita investigación hecha con datos entregados por la casa matriz de Facebook e Instagram adjuntó información recogida durante las elecciones presidenciales de Estados Unidos en 2020, e incluso llegó a una etapa de experimentación con el algoritmo de la plataforma y a un análisis de la “cámara de resonancia”.
  • Álvaro Bustos Ramírez

    El estudio “U. S. 2020 Facebook and Instagram Election Study” demostró que aquella audiencia que se expuso a una mayor cantidad de publicaciones catalogadas como “desinformación” en Facebook, durante las elecciones presidenciales de Estados U-nidos (EE.UU) en 2020, fueron los usuarios de ideología conservadora. 

    También se indicó que en aquellos sitios categorizados como “no confiables” el 97% de su audiencia eran parte de un sector homogéneo de pensamiento político inclinado a la derecha.

    Unido a esto, se demostró que tanto los liberales como los conservadores interactuaron y buscaron información política en grupos totalmente opuestos, amplificando la polarización y segregación de ambos grupos.

    De igual forma, tal como comentó Brendan Nyhan –uno de los autores del estudio– a través de su cuenta de Twitter (ahora llamado X), alrededor del 50,4% del contenido político, al cual los usuarios se vieron expuestos, provino de otros usuarios, páginas y grupos con pensamientos políticos afines al de ellos. Esto mientras que la exposición a pensamientos diferentes fue del 14,7%.

    En conversación entre La Tercera y Sandra Gonzáles-Bailón, socióloga española participante de las investigaciones, se mencionó que “la existencia de páginas y grupos facilita una selección todavía más segregadas de noticias políticas, pero es imposible determinar, en base a los datos de este artículo, que Facebook ha causado la polarización política”. 

    Gonzáles-Bailón finalizó indicando que la red social acentúa la polarización al facilitar que estos mismos grupos y páginas compartan cierto tipo de información. “Máquinas (en referencia a los grupos de Facebook) que son particularmente eficientes entre audiencias conservadoras”, fue lo que añadió.

    Según fue informado, tanto por los profesores participantes del estudio como de forma oficial a través de la página de Meta, la investigación buscó entender el impacto de las redes sociales (RR.SS) de la compañía durante las elecciones presidenciales de 2020.

    Este estudio, sin precedentes por el acceso de datos entregados por Meta, se dividió en 4 papers,  siendo tres de estos publicados en la revista Science y un último en la revista Nature. La información se basó en los elementos compartidos entre 208 millones de usuarios (quienes aceptaron participar en este estudio) durante el periodo establecido entre finales de septiembre y finales de diciembre de aquel año electoral.

    De igual forma, otro de los resultados obtenidos fue gracias a la puesta en práctica de la modificación del “algoritmo”, pues el estudio demostró que al limitar la exposición de publicaciones a solo aquellas producidas por amigos, la polarización o las actividades políticas realizadas entre los usuarios no tuvieron efecto alguno, o al menos no de forma medible. De la misma manera la exposición que tuvieron de información política (tanto real como falsa) disminuyó. 

    Esto debido a, tal como mencionó Associated Press (AP) “las propuestas para regular estos sistemas se encuentran entre las ideas más discutidas para abordar el papel de las RR.SS en la difusión de desinformación y alentar la polarización”. Y comprendiendo al “algoritmo” como una forma de programación que busca imitar la toma de decisiones del usuario para entregarle resultados y/o publicaciones de su interés. Así mantenerlo el mayor tiempo posible en la página web.  

    A pesar que los investigadores indicaron que todavía hace falta una investigación de los efectos a largo plazo, sí se demostró que al mantener un seguimiento único a aquel contenido compartido por amigos, los usuarios pasaban menos tiempo en Facebook, llegando a migrar a RR.SS como TikTok o YouTube, donde el algoritmo continuaba como antes.

    Por su parte, Nick Clegg, presidente de Asuntos Globales de Meta, indicó en la página oficial de la empresa digital que “hay poca evidencia de que, elementos claves de la plataforma Meta, por sí solos, causan una polarización dañina efectiva, o tengan efectos importantes en actitudes políticas claves, creencias o comportamientos”.

    También se debe señalar que entre las diversas publicaciones, aquella divulgada por la revista Nature se enfocó en el análisis del fenómeno conocido como “cámara de resonancia”, siendo esta –según señaló el estudio– “un entorno en el que los participantes encuentran creencias y opiniones que coinciden con las suyas; es decir un mecanismo de auto-reforzamiento que mueve a todo el grupo (de pensamientos afines) hacia posiciones extremas”.

    Con respecto a este, se indicó que los usuarios se encontraron con más contenidos cercanos a sus pensamientos que a aquellos más diversos a estos, y serían en este tipo de publicaciones donde la tasa de participación fue mayor.

    “La mayoría del contenido que los usuarios adultos activos de Facebook en Estados Unidos ven en la plataforma proviene de amigos políticamente afines”, fue lo mencionado en el estudio. Unido a esto, también se indicó que “este tipo de contenido tiene el potencial de reforzar la identidad partidista, incluso si no es explícitamente político”.

    Este trabajo fue conseguido a través de una colaboración entre la empresa digital y académicos universitarios comprendidos por 15 investigadores elegidos por los profesores líderes de esta investigación (Natalie Stroud junto a Joshua Tucker). Además, para asegurar la independencia, según se detalló, fueron establecidos ciertos puntos, como el trabajo no remunerado de los académicos, la imposibilidad de Mera de bloquear publicaciones, y que los mismos académicos tendrían control final sobre el análisis y los papers (o artículos académicos), entre otros elementos.

    ]]> https://observatoriodesinformacion.cl/2023/08/29/estudio-relacionado-a-meta-confirmo-mas-exposicion-a-desinformacion-entre-usuarios-conservadores/feed/ 0