Home / Tecnología / Informe las solicitudes de transparencia algorítmica y educación para combatir las noticias falsas

Informe las solicitudes de transparencia algorítmica y educación para combatir las noticias falsas


Un informe encargado por los legisladores europeos pidió una mayor transparencia de las plataformas en línea para combatir la difusión de información falsa en línea.

También requiere una inversión urgente en educación e información de los medios y estrategias para empoderar a los periodistas y promover un ecosistema de medios de noticias diversificado y sostenible.

El Grupo Ejecutivo de Expertos de Alto Nivel (HLEG), autor del informe, fue creado en noviembre pasado por el órgano ejecutivo de la Unión Europea para ayudar a informar su respuesta a la crisis de las "noticias falsas". que actualmente desafía a los legisladores occidentales a encontrar una respuesta efectiva y proporcionada.

HLEG está a favor del término "desinformación", argumentando (con razón) que la insignia de "noticias falsas" no captura adecuadamente "los complejos problemas de desinformación que también involucran contenido que mezcla información fabricada con hechos".

Incluso las "noticias falsas" se han politizado fatalmente ( ¡hola, Trump! ), y la etiqueta a menudo se aplica mal para tratar de cerrar la crítica y descarrilar el debate socavando la confianza e insultante (Las noticias falsas realmente se imaginan como selfobsour ouroboros.)

"La desinformación, tal como se utiliza en el Informe, incluye todas las formas de información falsa, inexacta o engañosa diseñada, presentada y promocionada para causar daño público intencionalmente o con fines de lucro", dice el presidente de HLEG, la profesora Madeleine de Cock Buning, en un informe adelantado.

"Esta relación es solo el comienzo del proceso y alimentará la reflexión de la Comisión sobre una respuesta al fenómeno", escribe Mariya Gabriel, Comisaria europea para la economía y la sociedad digitales, en otro futuro . "Nuestro desafío ahora es proporcionar opciones concretas que salvaguarden los valores de la UE y los jóvenes a todos los ciudadanos europeos".

Los próximos pasos de la Comisión serán trabajar en esas "opciones tangibles" para abordar mejor los riesgos que plantea la desinformación (19659009). Gabriel escribe que pretende desencadenar "un debate libre, pluralista, democrático, social y económico en Europa" que respeta plenamente "los valores fundamentales de la UE, por ejemplo, la libertad de expresión, el pluralismo de los medios y la libertad de los medios de comunicación".

"Dada la complejidad del problema, que requiere una solución de múltiples partes interesadas, no hay una sola palanca para lograr estas ambiciones y erradicar la información errónea del ecosistema de los medios", añade. "Mejorar la capacidad de las plataformas y los medios para abordar el fenómeno requiere un enfoque holístico, la identificación de las áreas donde se requieren cambios y el desarrollo de recomendaciones específicas en estas áreas".

Un enfoque "multidimensional"

No hay ninguna corrección de un solo botón que se recomienda aquí. El grupo tampoco apoya ninguna regulación tangible en las redes sociales en este punto.

Más bien, su informe de 42 páginas recomienda un enfoque "multidimensional" para contrarrestar la desinformación en línea, a corto y largo plazo, también subrayando la importancia de la alfabetización mediática y la educación y apoyando el apoyo a las industrias de medios tradicionales; al mismo tiempo como una advertencia sobre los riesgos de la censura y pidiendo más investigación para apoyar estrategias que podrían ayudar a combatir el problema.

Sugiere un "Código de principios" para que las plataformas en línea y las redes sociales participen, con mayor transparencia sobre cómo los algoritmos distribuyen las noticias como uno de varios pasos recomendados.

El informe enumera cinco "pilares" fundamentales que respaldan sus diversas "respuestas interconectadas y que se refuerzan mutuamente", todas las cuales a su vez apuntan a formar una estrategia holística global para atacar el problema desde múltiples ángulos y escalas de tiempo. .

Estos cinco pilares son:

  • para mejorar la transparencia de las noticias en línea, lo que conduce a un intercambio adecuado y conforme de los datos en los sistemas que permiten su circulación en línea;
  • para promover los medios y la información para contrarrestar la desinformación y ayudar a los usuarios a navegar en el entorno de los medios digitales;
  • desarrollar herramientas para empoderar a los usuarios y periodistas para abordar la desinformación y promover un compromiso positivo con tecnologías de la información que cambian rápidamente
  • para salvaguardar la diversidad y la sostenibilidad del ecosistema de medios europeo
  • para promover la investigación en curso sobre el impacto de la desinformación en Europa para evaluar las medidas adoptadas por diferentes actores y para ajustar constantemente las respuestas necesarias;

Para investigar más a fondo, el informe analiza y promueve diversas acciones, como la solicitud de divulgaciones "claramente identificables" para contenido patrocinado, incluso con fines de anuncio político; y para que la información sobre pagos a personas influyentes humanas y el uso de técnicas de amplificación basadas en bot se "ponga a disposición para permitir a los usuarios entender si la aparente popularidad de una determinada pieza de información en línea o la una influencia aparente de un influencer es el resultado de una amplificación artificial o está respaldada por inversiones específicas ".

También promueve una estrategia para combatir la "mala palabra" expandiendo el acceso a "mejores y mejores palabras", promoviendo la idea de que la desinformación podría "diluirse" "con información de calidad" .

Aunque, en este frente, una investigación reciente de MIT que investiga cómo la información controlada por hechos se propaga en Twitter, estudiando una década de tweets, sugiere que sin una forma tan específica de intervención algorítmica tal enfoque podría luchar por el triunfo contra la naturaleza humana, porque se ha descubierto que la información que ha sido verificada como falsa se propaga más y más rápidamente que la información que h

. En resumen, los humanos encuentran la trampa más extensible. Y esta es la razón por la cual, al menos en parte, la desinformación se ha convertido en un horrible problema de autorrefuerzo.

Un poco de transparencia algorítmica

El empuje de la relación a un cierto grado de responsabilidad algorítmica requiere un poco. la desinfección de la transparencia de las plataformas tecnológicas es quizás la más interesante y vanguardista. Aunque sus sugerencias aquí son extremadamente cautelosas.

"[P] las redes deben proporcionar información transparente y relevante sobre el funcionamiento de los algoritmos que seleccionan y muestran la información sin comprometer los derechos de propiedad intelectual de las plataformas [intellectual property rights]", escribe el comité de expertos. "La transparencia de los algoritmos debe abordarse con precaución: las plataformas son únicas en la forma en que brindan acceso a la información de acuerdo con su diseño tecnológico, y por lo tanto las medidas para acceder a la información siempre dependerán del tipo de plataforma.

" Sin embargo, se reconoce que más información sobre cómo funcionan los algoritmos permitiría a los usuarios comprender mejor por qué obtienen la información obtenida a través de los servicios de plataforma y ayudar a los editores a comercializar mejor sus servicios en línea. Como primer paso, las plataformas deben crear oficinas de contacto donde los medios puedan obtener esta información. "

L & # 39; HLEG a su vez está compuesto por 39 miembros, conocidos como representantes de una variedad de puntos de vista de la industria y las partes interesadas" de la sociedad civil, plataformas de medios sociales, organizaciones de medios de comunicación, periodistas y académicos. "

Y sí, los miembros del personal de Facebook, Google y Twitter figuran en la lista como miembros, por lo que las principales plataformas de medios sociales y los impulsores de la desinformación están directamente involucrados en la definición de estas recomendaciones. Vea al final de esta publicación la lista completa de personas / organizaciones en HLEG.)

Un vocero de Twitter confirmó que la compañía ha estado involucrada en el proceso desde el comienzo, pero se negó a hacerlo. proporcionar una declaración en respuesta al informe. En el momento de escribir las solicitudes de comentarios de Facebook y Google no se dio respuesta.

La presencia de plataformas de tecnología de gran alcance en el órgano asesor de la Comisión sobre este tema, puede explicar por qué las sugerencias del grupo sobre la responsabilidad algorítmica están más bien diluidas [19659002] Aunque puede decirse que al menos se afirma la importancia de una mayor transparencia, incluso por parte de los gigantes del redes sociales

Pero, ¿son las plataformas el verdadero problema?

Uno de los miembros de HLEG, la organización europea de defensa del consumidor BEUC, votó en contra del informe, argumentando que el grupo ha perdido la oportunidad de impulsar una investigación industrial para investigar el vínculo entre las políticas de ingresos publicitarios de las plataformas y la difusión de información errónea.

Y esta crítica parece tener cierta sustancia. Porque, a lo largo de la discusión del informe sobre las posibles formas de apoyar un ecosistema de medios pluralista, el elefante no expresado en la sala es que Facebook y Google están absorbiendo la mayor parte de las ganancias de la publicidad digital.

Facebook ha hecho deliberadamente la distribución de las noticias, incluso si está recordando ese enfoque ahora, frente a una reacción negativa.

En una declaración crítica, Monique Goyens, directora general de BEUC, dijo: "Este informe contiene muchas recomendaciones útiles, pero no toca una de las causas principales de las noticias falsas". La desinformación se está extendiendo demasiado fácilmente en línea. El papel de la publicidad comportamental en la difusión de noticias falsas se está acumulando: las plataformas como Google o Facebook se benefician enormemente de los usuarios que leen y comparten artículos de noticias falsos que contienen anuncios, pero este grupo de expertos opta por ignorar este modelo comercial. dirigir la política en la arena. "

Haciendo otra evaluación, el académico Paul Bernal, profesor de informática, IP y derecho en la Facultad de Derecho de la UEA en el Reino Unido, y no él mismo un miembro de la HLEG , también argumenta que el informe es breve; no cuestiona con firmeza el papel del poder de plataforma en la difusión de a la desinformación.

Su punto de vista es que "la idea de" compartir "como un mantra está intrínsecamente relacionada con el poder de la desinformación en línea

" [The report] es un comienzo, pero carece de algunos problemas fundamentales . El punto sobre la promoción de los medios y la alfabetización informacional es el más importante y el más importante: no creo que se pueda enfatizar lo suficiente, pero tiene que ser más amplio de lo que parece inmediatamente. Las personas necesitan entender no solo cuando las "noticias" son información errónea, sino también para entender cómo se difunden ", dijo Bernal a TechCrunch.

" Eso significa cuestionar el papel de las redes sociales, y no lo pienso aquí. # 39; alto nivel El grupo fue bastante valiente. Sus recomendaciones ni siquiera mencionan la cuestión de esto, y me pregunto por qué.

"A partir de mi investigación, el principal factor individual en el problema actual es la forma en que se distribuyen las noticias: Facebook, Google y Twitter en particular".

"Necesitamos encontrar una manera de ayudar a la gente a liberarse usar Facebook como fuente de noticias: la naturaleza misma de Facebook significa que se difundirá la desinformación y, en particular, la desinformación motivada por motivos políticos ", agregó. "A menos que se solucione, casi todo lo demás es reorganizar las tumbonas del Titanic".

Más allá de las burbujas del filtro

Pero Lisa-Maria Neudert, una investigadora del Instituto de Internet en Oxford, que dice haber estado involucrada con el trabajo HLEG (su colega en el Instituto, Rasmus Nielsen, también es miembro del grupo), ha minimizado el concepto de que la relación no es lo suficientemente sólida como para investigar cómo las plataformas de medios sociales están acelerando el problema de la desinformación, enfatizando su demanda de mayor transparencia y estrategias para crear "un ecosistema". multimedia más diversificada y sostenible ".

Aunque añadió: "Puedo ver, sin embargo, como una de las críticas más comunes sería que las redes sociales deben hacer más.

Siguió sugiriendo resultados negativos después de la decisión de Alemania de impulsar una ley sobre los derechos de odio en las redes sociales, que requiere una eliminación válida dentro de las 24 horas e incluye un registro de un conjunto de sanciones de hasta 50 millones, puede haber influido en la decisión del grupo de impulsar un enfoque mucho más ligero.

La propia Comisión ha advertido que podría elaborar legislación a nivel de la UE para regular las plataformas de incitación al odio, incluso si, por el momento, sigue un enfoque voluntario del código de conducta. También se ha incrementado el fuego sobre el contenido del terrorismo en particular.)

"[In Germany social media platforms] tiene un incentivo para eliminar contenido de manera generosa porque hay multas fuertes si fallan para quitar contenido ", dijo Neudert, criticando la regulación. "[Another] capturar es que no hay control legal involucrado. Así que ahora tienes, básicamente, redes sociales que toman decisiones que estaban en el pasado con los tribunales y que a menudo era una cuestión de meses y meses de diferentes pesos legales [considerations]. "

" Esto también mostró muy claramente que una vez que piensas en la regulación, es muy importante que los reguladores, las compañías de tecnología y el sistema de medios estén trabajando realmente juntos aquí, porque estamos en un punto donde tenemos sistemas muy complejos, tenemos palancas muy complejas, tenemos mucha información … Así que es un tema delicado, de verdad, y creo que no hay una regulación general en la que podamos deshacernos de todas las noticias falsas ".

Sir Tim Berners-Lee, el inventor de la World Wide Web, ha publicado una carta abierta en la que declara que la desinformación amenaza la utilidad social de la web y respalda el caso de una es un vínculo causal directo entre algunas plataformas "poderosas" de gran tecnología e información falsa que se aceleran maliciosamente en línea.

Contrariamente a su evaluación, la debilidad de la relación al hablar directamente de cualquier vínculo entre las plataformas tecnológicas y la desinformación parece más bien abierta.

en este sentido, Neudert está de acuerdo en que el tema es "discutido en la UE", aunque dijo que está discutiendo más en el contexto antimonopolio.

También afirmó que hay un creciente cuerpo de investigación que "desacredita la idea de que tenemos burbujas de filtro" y en contra de sugerir que las fuentes de influencia en línea son de hecho "más diversas".

"A menudo me siento como si viviera en mi propia burbuja social o cámara de resonancia, pero la investigación sugiere lo contrario, sugiere que hay, por un lado, mucha más información que estamos recibiendo, y también mucha más información que estamos recibiendo ", dijo.

"No estoy tan seguro de si su Facebook o si su Twitter es realmente un guardián de la información", agregó. "Creo que tu Facebook y tu Twitter de alguna manera aún, más o menos, te dan toda la información que tienes en Internet.

" Por lo tanto, si se vuelve más problemático si también tienes algoritmos que están promocionando algunos problema para que parezcan más grandes en Internet, para que aparezcan en la parte superior de las noticias. "

Dio el ejemplo, también llamado recientemente en un artículo de la académica y tecno-socióloga Zeynep Tufecki, de los algoritmos de recomendación problemáticos de YouTube, que han sido acusados ​​de tener un efecto casi radical porque eligen cada vez más contenido extremo para destacar en su misión de mantener a los espectadores comprometidos.

"Aquí es donde creo que este tema se está volviendo poderoso", dijo Neudert a TechCrunch. "No es algo donde la verdad ya está dictada y donde está tallado en piedra. Muchos de los resultados realmente están surgiendo.

"La otra parte es que puedes tener muchas, muchas opiniones diferentes y diferentes, pero también hay que decir sobre cuáles son los efectos de la información que se presenta en cualquier tipo de formato, proporcionando credibilidad y personas que confían en ese tipo de información ".

Ser capaz de distinguir entre la realidad y la ficción en las redes sociales es" un problema tan apremiante ", agregó.

Fuentes menos confiables

Un resultado tangible de este urgente problema de hecho o ficción que la Comisión destaca hoy en un trabajo relacionado -su reciente encuesta Eurobarómetro- es la erosión de la confianza del consumidor en las plataformas tecnológicas.

La mayoría de los encuestados en esta encuesta de la CE consideró los medios tradicionales como la fuente más confiable de noticias (radio 70%, televisión 66%, impresión 63%) y fuentes en línea menos confiables (26% y 27% respectivamente para sitios de alojamiento de noticias y videos). [19659002] Por lo tanto, parece existir un riesgo bastante obvio de confianza, al menos para las plataformas tecnológicas que se convierten en sinónimo de desinformación en línea.

La abrumadora mayoría de los encuestados del Eurobarómetro (83%) también afirmaron que considerar las noticias falsas como un peligro para la democracia – Cualquier noticia falsa significaba para ellos cuando se les preguntó por su punto de vista . Y esas cifras ciertamente podrían leerse o hilarse como un apoyo para nuevas reglas. Entonces, una vez más, las plataformas deben preocuparse por la opinión pública.

Al discutir posibles respuestas basadas en la tecnología para ayudar a combatir la desinformación, la visión de Neudert es que las herramientas automáticas de detección de hechos y los detectores de bot están "mejorando" e incluso "haciéndose útiles" cuando se combinan con el trabajo de peones humanos.

"Durante los próximos dos años, me parece el enfoque más fructífero", dijo, apoyando herramientas como una estrategia alternativa y proporcionada (contra el palo de un nuevo régimen legal) para trabajar en gran escala. de contenido en línea que necesita moderación sin correr el riesgo de enfriar la censura.

"Creo que esta combinación de tecnología atrae la atención hacia patrones de problemas y tendencias más amplias en áreas problemáticas y luego se combina con la supervisión humana, la revelación humana, la depuración humana, en este momento es una callejón importante a seguir ", dijo.

Pero para ganar dinero, admitió que los metadatos de la plataforma serán cruciales, acceso que, también debe decirse, no es la regla en este momento; y que a menudo aún no ha estado disponible, incluso cuando las plataformas han sido razonablemente presionadas por preocupaciones específicas.

A pesar de la arrogancia histórica a puertas cerradas de las plataformas para acceder a las solicitudes, Neudert apoya la "flexibilidad" ahora y "más diálogo y" mayor apertura ", en lugar de las pesadas leyes de contenido de estilo alemán. [19659002PerotambiénadviertequeladesinformaciónenlíneaprobablementeempeoraráenelcortoplazoconAIahoradesplegadoactivamenteenelnegociopotencialmentelucrativodecrearfalsificacionescomolosexperimentosdeAdobeconsuherramientadeedicióndevozVoCo

La industria en general impulsa el diseño de mejores sistemas de conversación para potenciar productos como los asistentes de voz, lo que alimenta incluso los desarrollos aquí.

"También me preocupa que haya muchas personas que tengan mucho interés en destinar dinero hacia [systems that can create plausible fakes] ", dijo." Una gran cantidad de dinero está dedicado a la inteligencia artificial que está mejorando y puede usarse por un lado, pero también se puede usar en el otro lado.

"Espero que con la tecnología que se está desarrollando y mejorando, también tenga un movimiento de búsqueda simultánea para desacreditar lo que es falso, que no es falso".

En el frente menos conocido de la tecnología antifalsificación dijo que están sucediendo cosas interesantes, señalando una herramienta que puede analizar los videos para determinar si un humano en un clip tiene "un pulso real" y "aliento real", por ejemplo.

"Hay muchas cosas súper interesantes que se pueden hacer al respecto", agregó. "Pero espero que ese tipo de investigación obtenga el dinero y atraiga la atención que necesita, porque tal vez no sea algo que sea fácilmente monetizable, como, por ejemplo, el software de Deepfake".

Una cosa se está volviendo clara sobre la desinformación: este es un problema humano.

Tal vez el problema más antiguo y más humano que existe. Y es solo ahora que nos enfrentamos a estas verdades fundamentales desagradables e indecorosas sobre nuestra naturaleza, escrituras muy grandes, no solo recitadas en línea sino también aceleradas por en la esfera digital.

La siguiente es la lista completa de los miembros del HLEG de la Comisión:

Imagen destacada: Thomas Faull / Getty Images

Sobre Willian Delgado

Check Also

Todos los equipos domésticos se han vuelto inteligentes: TechCrunch

Makula Dunbar Colaborador Otros mensajes de este colaborador Auriculares y auriculares inalámbricos para ajustarse a …

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto: