Home / Tecnología / La inteligencia artificial de Facebook no puede detectar asesinatos en masa: TechCrunch

La inteligencia artificial de Facebook no puede detectar asesinatos en masa: TechCrunch

Facebook proporcionó otra actualización sobre las medidas tomadas y lo que está haciendo después de un video en tiempo real de una masacre de un terrorista de extrema derecha que mató a 50 personas en dos mezquitas en Christchurch, Nueva Zelanda.

esta semana, la compañía dijo que el video de los asesinatos se había visto menos de 200 veces durante la transmisión, y unas 4000 veces antes de que se eliminara de Facebook, y el flujo no se informó a Facebook hasta 12 minutos después. eso se acabo

Ninguno de los usuarios que vieron que los asesinatos ocurrieron en tiempo real en la plataforma de la compañía parece haber informado el flujo a la compañía, según la compañía.

También dijo anteriormente que había eliminado 1.5 millones de versiones del video de su sitio en las primeras 24 horas después de la transmisión en vivo, con 1.2 millones de los capturados en el momento de la carga, lo que significa que falló para bloquear 300.000 subidas en ese punto. Aunque, como señalamos en nuestro informe anterior, esas estadísticas se seleccionan y representan solo los videos identificados por Facebook. Encontramos otras versiones del video que aún circulaban en su plataforma 12 horas después.

A raíz del ataque terrorista en vivo, Facebook ha seguido respondiendo a las solicitudes de los líderes mundiales para hacer más para asegurar que dicho contenido no pueda ser distribuido por su

Primer Ministro de Nueva Zelanda, Jacinda. Ardern, dijo ayer a los medios de comunicación que el video "no debe ser distribuido, disponible, puede ser visto", cambiándolo de nombre como "horrible".

Confirmó que Facebook había estado en contacto con su gobierno, pero subrayó que, en su opinión, la compañía no hizo lo suficiente

. También le dijo al parlamento de Nueva Zelanda: "No podemos simplemente sentarnos y aceptar que estos existen plataformas y lo que se dice sobre ellas no es responsabilidad del lugar donde se publican. Yo soy el editor. No solo el cartero ".

Le pedimos a Facebook una respuesta a la solicitud de Ardern de Plataformas de contenido en línea para aceptar la responsabilidad del editor por el contenido que distribuyen. Su portavoz evitó la pregunta, señalando, en cambio, su último título de pieza de crisis de relaciones públicas: "Una nueva actualización sobre el ataque terrorista de Nueva Zelanda".

Aquí escribe que "la gente está tratando de entender cómo se usaban las plataformas en línea como Facebook para difundir videos terroríficos de ataques terroristas", diciendo que "queríamos proporcionar más información de nuestra revisión sobre cómo estaban nuestros productos. utilizado y cómo podemos mejorar en el futuro ", antes de continuar repitiendo muchos de los detalles previamente

Incluyendo que el video de la masacre fue rápidamente compartido con el muro de 8chan por un usuario que publica un enlace a una copia del Video en un sitio para compartir archivos. Esto fue antes de que Facebook fuera notificada de la transmisión de video en su plataforma.

Continúa dando a entender que 8chan era un centro para compartir videos de forma más amplia, indicando que: "Los identificadores forenses en muchos de los videos que se circularon posteriormente, como una barra de marcadores visible en una grabación en pantalla, coinciden con el contenido publicado en 8chan. "

Por lo tanto, está claramente tratando de asegurarse de que no sea identificado por los líderes políticos que buscan respuestas políticas al desafío planteado por el odio en línea y el contenido terrorista.

Más detalles sobre los que decide detenerse en la actualización es cómo los AI se utilizan para ayudar en el proceso de revisión del contenido humano de las transmisiones de transmisión en vivo informadas que en realidad están sintonizadas para "identificar y priorizar videos que podrían contener actos suicidios o lesiones "- con inteligencia artificial que lleva estos videos a la cima de los moderadores humanos, especialmente los otros elementos que también deben examinar.

Claramente," actos dañinos "han estado involucrados en Nueva Zelanda ataque errorista, sin embargo, la IA de Facebook no pudo detectar una masacre en tiempo real, una masacre que involucra un arma automática se desliza justo debajo del radar del robot.

Facebook lo explica diciendo que no tiene los datos de entrenamiento para crear un algoritmo que entienda que está observando un asesinato en masa que se está llevando a cabo en tiempo real.

También implica la tarea de agregar dibujar una IA para capturar un escenario tan horrible exacerbado por la proliferación de videos de videojuegos en primera persona en plataformas de contenido en línea.

Escribe: "[T] su video en particular no activó nuestros sistemas de detección automática. Para ello tendremos que proporcionar a nuestros sistemas grandes volúmenes de datos de este tipo específico de contenido, lo cual es difícil porque estos eventos son para Suerte rara: otro desafío es discernir automáticamente este contenido de contenido visualmente similar e inofensivo; por ejemplo, si nuestros sistemas marcan miles de videojuegos de transmisión, nuestros revisores pueden perderse importantes videos del mundo real. Lo que podríamos aconsejar a los primeros rescatadores de

El elemento del videojuego es un detalle escalofriante a considerar.

Sugiere que un acto dañino de la vida real que imita a un videojuego violento podría simplemente mezclarse con el fondo, en la medida en que Se refiere a la moderación de los sistemas de inteligencia artificial: invisible en un mar de contenidos inofensivos y virtualmente violentos. Yo por los jugadores. (Lo que a su vez te hace preguntarte si el asesino de Internet en Christchurch sabía, o sospechaba, que filmar el ataque desde la perspectiva de un videojuego en primera persona podría ofrecer una solución para engañar a los vigilantes imperfectos. Facebook de Facebook.)

es doblemente enfático en que la inteligencia artificial no es "perfecta" y "nunca será perfecta".

"Las personas continuarán siendo parte de la ecuación, ya sea las personas de nuestro equipo que revisan el contenido o las personas que usan nuestros servicios y comunican nuestro contenido", escribe, reiterando una vez más que tiene ~ 30,000 personas que trabajan en "seguridad y protección", aproximadamente la mitad de las cuales están haciendo el trabajo sucio y desordenado de revisar el contenido.

Esto es, como he dicho muchas veces en el pasado, un número increíblemente pequeño de moderadores humanos, dada la amplia gama de contenido que se carga continuamente a la plataforma de usuario 2.2BN + en Facebook.

La moderación de Facebook sigue siendo una tarea desesperada porque muy pocos humanos lo están haciendo

Además, la IA no puede realmente ayudar. (Más adelante en el blog, Facebook también escribe vagamente que hay "millones" de transmisiones en vivo por transmisión en su plataforma todos los días, y dice que esta es la razón por la que agregar una breve demora en la transmisión, como hacen las estaciones de TV, no ayudaría en absoluto a capturar de manera inapropiada

Al mismo tiempo, la actualización de Facebook deja en claro en qué medida los sistemas de seguridad y protección también dependen de las personas no pagadas: los usuarios de Facebook de Aka tienen el tiempo y la mente para reportar contenido malicioso.

Algunos podrían decir que este es un excelente argumento para un impuesto a las redes sociales.

El hecho de que Facebook no recibió un solo informe en vivo de Christchurch mientras el ataque terrorista se llevó a cabo, lo que significa que el contenido no era una prioridad para una "revisión acelerada" de sus sistemas, lo que explica la prioridad de los informes adjuntos a los videos que aún se encuentran en la red. ng – porque "si hay daños en el mundo real, tenemos más posibilidades de alertar a los primeros respondedores y tratar de obtener ayuda en el campo". [19659002] A pesar de que dice que amplió su lógica de aceleración el año pasado para "cubrir incluso los videos que se han lanzado recientemente en las últimas horas".

Pero nuevamente lo hizo con un enfoque en la prevención del suicidio, lo que significa que el video de Christchurch solo se informaría para revisar la aceleración en las horas posteriores al final del flujo si se hubiera reportado como contenido suicida [19659002] Entonces, el "problema" es que los sistemas de Facebook no dan prioridad al asesinato en masa.

"En el informe [the first]y en varios informes posteriores, el video se informó por razones distintas al suicidio y, como tal, se manejó de acuerdo con diferentes procedimientos", escribe, y agrega que "está aprendiendo de esto" y " revisando nuestra lógica de informes y experiencias tanto para videos en vivo como recientes, a fin de ampliar las categorías que obtendrían una revisión acelerada.

No jit.

Facebook también comenta su incapacidad para detener las versiones de El video de la masacre de Resurfacin en su plataforma ha sido, como dice, "tan efectivo" para prevenir la propagación de propaganda por parte de organizaciones terroristas como ISIS con el uso de tecnologías de comparación de imágenes y videos.

Afirma que su tecnología ha sido superada en este caso por "malos actores" que crean varias versiones modificadas del video para tratar de contrarrestar los filtros, así como por las diversas formas en que "un grupo más grande de la gente distribuyó el video y, sin quererlo, hizo más difícil emparejar las copias ".

esencialmente, la "viralidad" del terrible evento ha creado demasiadas versiones del video para la tecnología de coincidencia de Facebook.

"Algunas personas pueden haber visto el video en una computadora o en un televisor, filmarlo con un teléfono y enviarlo a un amigo. Otros pueden haber visto el video en su computadora, grabar su pantalla y transmitirlo. Sitios web y Las páginas, ansiosas por atraer la atención de quienes buscan el video, recortan y regraban el video en varios formatos ", escribe, en lo que uno lee como otro intento de repartir la culpa por el papel de la amplificación que el Su usuario 2.2BN + suena la plataforma.

En total, Facebook dice que ha encontrado y bloqueado más de 800 variantes visualmente distintas del video que circuló en su plataforma.

Resulta que recurrió al uso de la tecnología de comparación de audio para tratar de detectar videos que fueron modificados visualmente pero que tenían la misma banda sonora. Y aún mantiene que está tratando de aprender y encontrar mejores técnicas para bloquear los contenidos que son compartidos en gran medida por los individuos, así como los retransmitidos por los principales medios de comunicación. Por lo tanto, cualquier tipo de evento importante de noticias, en la práctica.

En una sección sobre los próximos pasos, Facebook dice que mejorar su tecnología de emparejamiento para evitar la propagación de videos virales inapropiados es su prioridad.

Pero la correspondencia de audio claramente no ayudará si los re-compartidores maliciosos se limitan a modificar la imagen y cambiar la banda sonora también en el futuro.

Además, debe poder reaccionar más rápidamente a "este tipo de contenido en un video en vivo", aunque no tiene una solución fija que ofrecer, incluso diciendo que explorará "si AI y cómo puede hacerlo. ser utilizado para estos casos, y cómo llegar a los informes de los usuarios más rápido ".

Otra prioridad que dice entre sus "próximos pasos" es luchar contra "discursos de odio de todo tipo en nuestra plataforma", diciendo que incluye más de 200 organizaciones de supremacía blanca en todo el mundo "cuyo contenido Estamos eliminando a través de la tecnología de detección proactiva ".

. h – incluyendo investigaciones que sugieren que la interdicción de los predicadores de odio de extrema derecha son fácilmente capaces de evadir la detección en su plataforma. Además, su arrastre a pie para detener a los extremistas de extrema derecha. (Facebook finalmente ha prohibido a un activista de la extrema derecha del Reino Unido el mes pasado, por ejemplo).

En su último aplazamiento, Facebook afirma estar comprometido con la expansión de su colaboración industrial para abordar el problema. incitación al odio a través del Foro Global de Internet para Contrarrestar el Terrorismo (GIFCT, por sus siglas en inglés), que se formó en 2017 mientras los políticos aplastaban a la policía para aplastar el contenido del ISIS, en el intento colectivo de desterrar más regulaciones severa.

"Estamos experimentando sistemáticamente con URL en lugar de solo hash de contenido, estamos trabajando para abordar la amplia gama de terroristas y extremistas violentos que operan en línea y tienen la intención de perfeccionar y mejorar nuestra capacidad de colaborar en una crisis", escribe Facebook ahora, ofreciendo experimentos más vagos a medida que los políticos exigen responsabilidad de contenido.

Sobre Willian Delgado

Check Also

UK DeepTech VC IQ Capital lanza un nuevo fondo de crecimiento de $ 125 millones, cerrando el tercer fondo de capital de riesgo en $ 175 millones

IQ Capital, un fondo de tecnología avanzada con sede en el Reino Unido que ha …

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto: