Home / Tecnología / Los estudiantes enfrentan el lado no ético de la tecnología en el curso "Diseñando para el mal" – TechCrunch

Los estudiantes enfrentan el lado no ético de la tecnología en el curso "Diseñando para el mal" – TechCrunch

Ya sea que esté sondeando o engañando a los usuarios, maltratando o vendiendo sus datos o generando hábitos o pensamientos poco saludables, la tecnología en estos días no está lejos de un comportamiento poco ético. Pero no es suficiente decir "es perturbador". Afortunadamente, un curso en la Universidad de Washington está equipando a sus estudiantes con ideas filosóficas para identificar mejor y resolver la perniciosa falta de ética de la tecnología.

"Designing for the Evil" acaba de terminar su primer trimestre en la Escuela de Información de la Universidad de Washington, donde creadores potenciales de aplicaciones y servicios como aquellos en quienes todos confiamos diariamente, aprenden las herramientas del oficio. Pero gracias a Alexis Hiniker, que enseña la clase, también están aprendiendo la capacidad crítica de investigar las implicaciones morales y éticas de esas aplicaciones y servicios.

¿Qué, por ejemplo, es una buena manera de hacer una aplicación de citas que sea inclusiva y promueva relaciones saludables? ¿Cómo puede una IA que imita a un ser humano evitar el engaño innecesario? ¿Cómo es posible que algo tan invasivo como el sistema de puntuación de la ciudad china se haga tan fácil de usar como sea posible?

Hablé con todos los equipos de estudiantes en una sesión de carteles en el campus de UW, y también hablé con Hiniker, quien diseñó el curso y se mostró satisfecho con la forma en que resultó.

La premisa es que los estudiantes reciben un curso acelerado de filosofía ética que los convence con ideas influyentes, como el utilitarismo y la deontología.

[19659002] "Está diseñado para ser lo más accesible posible para los laicos", me dijo Hiniker. "Estos no son estudiantes de filosofía, esta es una clase de diseño, pero quería ver qué podía hacer con ella".

El texto principal es el libro de filosofía popular de Harvard, Michael Sandel, Justice, que Hiniker consideró que debía combinar las diversas filosofías en un formato legible e integrado. Después de tragarlo, los estudiantes agruparon y seleccionaron una aplicación o una tecnología que evaluarían usando los principios descritos y luego prescribiendo remedios éticos.

Resultó que encontrar los problemas éticos en la tecnología era la parte fácil, y les resuelve pasar de lo trivial a lo imposible. Sus ideas fueron interesantes, pero muchos de ellos sintieron que había una especie de decepción de que gran parte de lo que ofrece la tecnología, o cómo lo ofrece, es inevitable y fundamentalmente inmoral.

Encontré que los estudiantes caían en una de tres categorías.

No fundamentalmente antiético (pero podría usar un ajuste ético)

WebMD es obviamente un sitio muy útil, pero estaba claro para los estudiantes que carecían de inclusividad: su corrector de síntomas está apilado para aquellos que no lo hacen Habla inglés y puede que no sepa el nombre de los síntomas. El equipo sugirió un reportero visual más sintomático, con un mapa corporal básico y síntomas no escritos e indicadores de dolor.

Hola Barbie la muñeca que trae de vuelta a los niños, definitivamente es un campo minado de potencial legal y violaciones éticas, pero no hay ninguna razón por la cual no se puede hacer bien. Con el consentimiento de los padres y una ingeniería cuidadosa, estará en línea con las leyes de privacidad, pero el equipo dijo que aún no han superado ninguna prueba para mantener el diálogo con los niños sanos y los padres informados. Los guiones de interacción, dijeron, deberían ser públicos, lo que es obvio en retrospectiva, y el audio debería analizarse en el dispositivo en lugar de en la nube. Finalmente, un conjunto de palabras o frases de advertencia que indican comportamientos poco saludables podrían advertir a los padres sobre autolesiones mientras mantienen el resto de la conversación en secreto.

WeChat Discover permite a los usuarios encontrar a otros a su alrededor y mirar las fotos que tomaron recientemente: es una opción, lo cual es bueno, pero puede ser filtrado por género, promoviendo una cultura de enlace que el equipo dijo que desaprobaba en China. Además, oscurece muchos controles de usuario detrás de varios niveles de menús, lo que podría hacer que las personas compartan la ubicación cuando no la desean. Algunos estudiantes han proporcionado algunas soluciones básicas de interfaz de usuario y algunas ideas sobre cómo contrarrestar la posibilidad de avances no deseados por desconocidos.

Netflix no es malo, pero su tendencia a promover el jolgorio ha robado a sus usuarios durante muchas horas. Este equipo consideró que algunas limitaciones básicas establecidas por el usuario como dos episodios por día, o que retrasan el próximo episodio durante un cierto período de tiempo, podrían romper el hábito y alentar a las personas a recuperar el control de su tiempo.

Fundamentalmente inmoral (correcciones que todavía vale la pena hacer)

FakeApp es una forma de intercambiar cara a cara en el video, produciendo un falso convencimiento en el que un político o un amigo parece decir algo que no tiene. Básicamente es engañoso, por supuesto, en un sentido amplio, pero en realidad solo si los clips se transmiten como genuinos. Las marcas de agua visibles e invisibles, así como el recorte controlado de los videos originales, fueron sugerencias de este equipo, incluso si al final la tecnología no cederá a estas atenuaciones voluntarias. Entonces, realmente, una población informada es la única respuesta. Buena suerte!

El sistema chino de "crédito social" no es en realidad, argumentaron los estudiantes, absolutamente no ético, ese juicio implica una cierta dosis de prejuicio cultural. Pero me siento cómodo poniéndolo aquí debido a los enormes problemas éticos que eludió y rechazó en el camino hacia el despliegue. Sus sugerencias altamente prácticas, sin embargo, se centraron en hacer que el sistema sea más responsable y transparente. Informes de comportamiento en la competencia, vea qué tipos de cosas han contribuido a su puntaje personal, vea cómo ha cambiado con el tiempo y así sucesivamente.

La naturaleza poco ética de Tinder según el equipo, se basó en el hecho de que aparentemente se trataba de formar conexiones humanas, pero está claramente diseñado para ser un mercado de carne. Obligar a las personas a pensar en sí mismas como objetos físicos, principalmente en la búsqueda del romance, no es saludable, no es compatible y causa que las personas devalúen. Como contramedida, sugirieron que tengas respuestas a preguntas o sugerencias para ser lo primero que veas sobre una persona. Deberías desplazarte de acuerdo con eso antes de ver cualquier imagen. Le sugerí que tenga algunas preguntas sobre las cuales debería estar de acuerdo. No es una mala idea, incluso si está abierta a juegos (como el resto de citas en línea).

Fundamentalmente inmoral (las correcciones son esencialmente imposibles)

La Liga por otro lado, era una aplicación de citas que demostraron ser intratables a las pautas éticas. No solo era un mercado de carne, sino que era un mercado de carne donde las personas pagaban para estar entre las "elites" auto-seleccionadas y podían filtrar por etnicidad y otras categorías problemáticas. Sus sugerencias para eliminar el impuesto y estos filtros, entre otras cosas, básicamente han destruido el producto. Desafortunadamente, The League es un producto poco ético para personas no éticas.

Duplex fue adoptado por un equipo inteligente que, sin embargo, comenzó claramente su proyecto solo después de la E / S de Google. Desafortunadamente, descubrieron que el engaño intrínseco fundamental en una IA que se presenta a un ser humano es éticamente inadmisible. Él podría, por supuesto, identificarse a sí mismo, pero eso arruinaría toda la propuesta de valor. Pero también hicieron una pregunta que no pensé hacer en mi portada: ¿por qué esta IA no se está quedando sin todas las otras opciones antes de llamar a un ser humano? Puede visitar el sitio, enviar un mensaje de texto, usar otras aplicaciones, etc. En general, las IA deben primero interactuar con sitios web y aplicaciones, luego con otras IA, luego solo y luego con personas, en ese punto deberían decir que es una IA.


Para mí, la parte más valiosa de todas estas preguntas fue aprender lo que afortunadamente se convierte en un hábito: observar la solidez ética fundamental de una empresa o una tecnología y ser capaz de articularla.

Esta podría ser la diferencia en una reunión entre poder decir algo impreciso y fácilmente borrado, como "No creo que sea una buena idea" y describir un daño específico y la razón por la que el daño es importante, y tal vez cómo se puede evitar.

En cuanto a Hiniker, tiene algunas ideas para mejorar el curso si se lo aprueba para repetirlo el próximo año. Una gama más amplia de textos, por ejemplo: "La mayoría de los escritores diversos, voces más diversas", dijo. E idealmente, también podría extenderse a un curso de múltiples trimestres para que los estudiantes obtengan algo más que un poco de ética.

Con un poco de suerte, los niños de este curso (y en el futuro) podrán ayudar con esas elecciones, lo que generará menos Ligas y Dúplex, y más juguetes inteligentes y aplicaciones para citas que cumplan COPPA que no sabotean la autoestima

Sobre Willian Delgado

Check Also

Glose aumenta $ 3.4 millones para su aplicación de lectura colaborativa – TechCrunch

La empresa francesa Glose acaba de recaudar una ronda de fondos de $ 3.4 millones …

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

A %d blogueros les gusta esto: