Home / Tecnología / Es hora de que Facebook y Twitter coordinen sus esfuerzos para incitar al odio – TechCrunch

Es hora de que Facebook y Twitter coordinen sus esfuerzos para incitar al odio – TechCrunch

Desde la elección de Donald Trump en 2016, ha habido una creciente conciencia del discurso de odio en las plataformas de redes sociales como Facebook y Twitter. Mientras que los activistas presionaron a estas compañías para que mejoraran la moderación del contenido, pocos grupos (fuera del gobierno alemán) demandaron a las plataformas por sus acciones.

Esto se debe a una distinción legal entre las publicaciones de medios y las plataformas multimedia que hacen que el discurso de odio en línea resuelva un problema molesto.

Tomemos, por ejemplo, un editorial publicado en el New York Times llamando a la masacre de todo un grupo minoritario. The Times probablemente sería demandado por publicar discurso de odio, y los demandantes podrían ser victoriosos en su caso. Sin embargo, si esa opción se hubiera publicado en una publicación de Facebook, un intento contra Facebook probablemente habría fallado.

¿El motivo de esta disparidad? La Sección 230 de Communications Decency Act (CDA), que brinda a plataformas como Facebook un amplio resguardo de la responsabilidad cuando un pleito se basa en lo que sus usuarios publican o comparten. El último tumulto contra Alex Jones e Infowars ha llevado a muchos a pedir la derogación de la Sección 230, pero esto podría llevar al gobierno a ingresar al negocio de la regulación del habla en línea. En cambio, las plataformas deben presentar y coordinar sus políticas para que la incitación al odio se considere incitación al odio independientemente de si Jones usa Facebook, Twitter o YouTube para propagar su odio.

Una introducción a la sección 230

La sección 230 se considera una base de la libertad de expresión en Internet. Aprobado a mediados de la década de 1990, se lo acredita con plataformas de lanzamiento como Facebook, Twitter y YouTube por el riesgo de ser demandado por el contenido que cargan sus usuarios, y alimentando así el crecimiento exponencial de estos empresas. Si no fuera por la sección 230, los gigantes de las redes sociales de hoy en día se han visto envueltos en monos sobre la base de lo que publican sus usuarios, con el precontrol necesario de los puestos que probablemente paralizarían por completo a estas empresas.

En cambio, en más de veinte años desde su entrada en vigor, los tribunales siempre han encontrado que la sección 230 es un estándar para denunciar a las compañías tecnológicas por el contenido generado por los usuarios que alojan. Y no solo las plataformas de redes sociales se beneficiaron de la sección 230; las empresas que comparten la economía han utilizado la sección 230 para defenderse, y personas como Airbnb afirman que no son responsables de lo que publica un host en su sitio. Los tribunales incluso encontraron la sección 230 lo suficientemente grande como para cubrir citas de aplicaciones. Cuando un hombre demandó a uno por no verificar la edad de un usuario menor, el tribunal denegó el caso por una declaración falsa de un usuario de su edad de que no era responsable de la aplicación debido a la sección 230.

Regulación privada del discurso de odio

Por supuesto, la sección 230 no significaba que la incitación al odio en línea fue deseleccionada. Las plataformas como Facebook, YouTube y Twitter tienen sus propias políticas amplias que prohíben a los usuarios publicar discursos de odio. Las compañías de medios sociales han contratado a miles de moderadores para hacer cumplir estas políticas y responsabilizar a los usuarios violentos al suspenderlos o bloquearlos por completo. Pero la reciente debacle con Alex Jones e Infowars presenta un estudio de caso sobre cómo estas políticas se pueden aplicar de manera inconsistente.

Jones inventó teorías de conspiración durante años, como la que afirmaba que Sandy Hook era un engaño y que los demócratas tenían un círculo global de trata de niños. Con miles de seguidores en Facebook, Twitter y YouTube, la incitación de Jones ha tenido consecuencias en la vida real. Del acoso brutal de los padres de Sandy Hook a un hombre armado que atacó una pizzería en el D.C. para salvar a los niños del sótano inexistente del restaurante, sus mensajes han tenido serias consecuencias perjudiciales para muchos.

Alex Jones e Infowars finalmente fueron suspendidos de diez plataformas por nuestro conteo, incluso con Twitter en línea y suspendiéndolo durante una semana después del primer dithering. Pero las respuestas variables y diferidas han revelado cómo diferentes plataformas manejan el mismo discurso.

La aplicación incoherente de las reglas de incitación al odio a través de plataformas, exacerbada por las recientes controversias que involucran la difusión de noticias falsas y la contribución de las redes sociales al aumento de la polarización, ha llevó a solicitudes para modificar o derogar la sección 230. Si las noticias impresas y por cable pueden ser consideradas responsables de propagar la incitación al odio, el argumento es válido, entonces ¿por qué? en sí mismo no debería ser cierto en línea, especialmente cuando dos tercios de los estadounidenses ahora informan al menos algunas de sus noticias en las redes sociales. En el coro de aquellos que demandan más regulación de las compañías de tecnología, la Sección 230 se ha convertido en un objetivo coherente.

¿El discurso de odio debería estar regulado?

Pero si necesita convencer la razón por la cual el gobierno no está en la mejor posición para regular el discurso en línea, no busque más allá de la redacción del congreso en la sección 230. La sección promulgada a mediados de la década de 1990. 90 afirma que las plataformas en línea "ofrecen a los usuarios un alto grado de control sobre la información que reciben, así como el potencial de un mayor control en el futuro a medida que se desarrolla la tecnología" y "un foro para la verdadera diversidad del habla" oportunidades políticas, únicas para el desarrollo cultural y una miríada de formas para la actividad intelectual ".

La Sección 230 continúa afirmando que es" la política de los Estados Unidos … alentar el desarrollo de tecnologías que maximizar el control del usuario sobre la información que se recibe de individuos, familias y escuelas que usan Internet. " En base a lo anterior, la sección 230 ofrece la ahora-famigera protección de responsabilidad para plataformas en línea.

Por el simple hecho de que la mayoría de lo que vemos en nuestras redes sociales está dictado por algoritmos en los que no tenemos control, por el escándalo de Cambridge Analytica, por una mayor polarización debido a la propagación de noticias falsas sobre el redes sociales, puede ver rápidamente cómo las palabras del Congreso de 1996 se leen hoy como un catálogo de pronósticos imprecisos. Incluso Ron Wyden, uno de los editores originales de la Sección 230, admite hoy que los editores nunca esperaron "la aprobación (o el rechazo) del individuo del exterminio de millones de personas, o el ataque a las víctimas de la horrible crímenes o padres de niños asesinados "para ser habilitados a través de las protecciones ofrecidas por la sección 230.

Sería difícil argumentar que el Congreso de hoy, que ha demostrado poca comprensión en las audiencias recientes sobre cómo funcionan las redes sociales para empezar, está más calificado en la predicción de los efectos de la regulación del habla en línea en veinte años.

Lo que es más importante, la carga de cumplir con las nuevas regulaciones dará lugar a una barrera significativa para la entrada de nuevas empresas y, por lo tanto, tendrá la consecuencia involuntaria de los titulares arraigados. Mientras que Facebook, YouTube y Twitter pueden tener los recursos y la infraestructura para gestionar el cumplimiento con una mayor moderación o un control preliminar de los lugares que podrían imponer las reglamentaciones, las pequeñas empresas en desarrollo se verán severamente desfavorecidas mantén esta carga [19659008] La última posibilidad antes de la regulación

La respuesta debe ser con las plataformas en línea. En las últimas dos décadas, acumularon una gran cantidad de experiencia para identificar y reprimir el discurso de odio. Han creado equipos formidables con diversos antecedentes para redactar políticas que tengan en cuenta el Internet en constante cambio. Sus ganancias les han permitido contratar al mejor talento, desde fiscales del gobierno hasta académicos y abogados de derechos humanos.

Estas plataformas han sido objeto de una campaña de reclutamiento en los últimos dos años para garantizar que sus equipos de políticas de productos, los que redactan políticas y supervisan su aplicación, sean más representativos de la sociedad en general. Facebook anunció con orgullo que su equipo de política de productos ahora incluye "un ex asesor de crisis de violación, un académico que ha dedicado su carrera a estudiar las organizaciones de odio … y un docente". [19659005] Se acabaron los días cuando un grupo de ingenieros decidió exclusivamente dónde dibujar las líneas. Las grandes empresas de tecnología han tomado cada vez más en serio la redacción y la aplicación de sus políticas.

Lo que deben hacer ahora es dar el siguiente paso y comenzar a coordinar políticas para que aquellos que deseen propagar la incitación al odio no puedan tener políticas de juego más largas en las plataformas. Esperar a que las polémicas como Infowars se conviertan en una verdadera pesadilla de relaciones públicas antes de tomar medidas concretas solo aumentará las demandas de asentamientos. Apoya de manera proactiva los recursos cuando se trata de políticas de discurso de odio y el establecimiento de estándares de la industria proporcionará una razón defendible para resistir la regulación gubernamental directa.

Los gigantes de las redes sociales también pueden crear confianza pública al ayudar a las startups a convertirse en los últimos enfoques de moderación de contenido más rápido. Si bien cualquier consorcio de la industria en torno a la coordinación del odio está dominado, sin duda, por las empresas de tecnología más grandes, puede garantizar que las políticas sean de fácil acceso y ampliamente distribuidas.

La coordinación entre competidores feroces puede parecer contradictoria. Pero el problema común de la incitación al odio y el juego de plataformas en línea por parte de quienes intentan propagarlo requiere una respuesta de toda la industria. Hay un precedente para los titanes de la tecnología que se están coordinando frente a una amenaza común. Apenas el año pasado, Facebook, Microsoft, Twitter y YouTube han oficializado su "Foro mundial de Internet para la lucha contra el terrorismo", una asociación para frenar la amenaza del contenido terrorista en línea. La lucha contra la incitación al odio no es menos digna de alabanza que un objetivo.

La autorregulación es un privilegio inmenso. En la medida en que las grandes empresas tecnológicas desean mantener este privilegio, son responsables de coordinar las políticas que respaldan su regulación del discurso y permitir que las empresas de nueva creación y pequeñas tecnologías accedan a estas políticas y mecanismos. de aplicación. [19659026]

Sobre Willian Delgado

Check Also

Ponga su ciudad en el mapa de CT – TechCrunch’s European Cities Survey 2021

TechCrunch se está embarcando en un nuevo proyecto importante para encuestar a fundadores e inversores …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto: