Argentina

¿Podemos hacer que nuestros robots sean menos parciales que nosotros?

En una noche de verano en Dallas en 2016, un robot manipulador de bombas hizo historia tecnológica.

Los oficiales de policía le habían pegado aproximadamente medio kilo de explosivo C-4, dirigieron el dispositivo hacia una pared cerca de un tirador activo y detonaron la carga.

En la explosión, el asaltante, Micah Xavier Johnson, se convirtió en la primera persona en los Estados Unidos en morir a manos de un robot policial.

Chris S. Crawford, informático de la Universidad de Alabama, en la universidad de Tuscaloosa, Ala.,. Foto Wes Frazer/The New York Times.

Chris S. Crawford, informático de la Universidad de Alabama, en la universidad de Tuscaloosa, Ala.,. Foto Wes Frazer/The New York Times.

robots nyt

robots nyt

Después, el entonces Jefe de la Policía de Dallas, David Brown, llamó atinada a la decisión.

Antes de que el robot atacara, Johnson había matado a cinco oficiales, herido a otros nueve y golpeado a dos civiles, y las negociaciones se habían estancado. Enviar la máquina era más seguro que enviar oficiales humanos, dijo Brown.

Pero algunos investigadores de robótica estaban preocupados.

Los robots de los "escuadrones de bombas" se comercializan como herramientas para deshacerse de las bombas de forma segura, no para entregarlas a los objetivos. (En 2018, los oficiales de policía de Dixmont, Maine, terminaron un tiroteo de manera similar).

Su profesión había suministrado a la policía una nueva forma de arma letal, y en su primer uso como tal, había matado a un hombre negro.

"Una faceta clave del caso es que el hombre resultó ser afroamericano", escribieron Ayanna Howard, investigadora de robótica de Georgia Tech, y Jason Borenstein, colega de la escuela de política pública de la universidad, en un artículo de 2017 titulado "The Ugly Truth About Ourselves and Our Robot Creations" (La fea verdad sobre nosotros mismos y nuestras creaciones de robots) en la revista Science and Engineering Ethics.

Como casi todos los robots de la policía que se usan hoy en día, el dispositivo de Dallas era una sencilla plataforma de control remoto.

Pero se están desarrollando robots más sofisticados en laboratorios de todo el mundo, y usarán la inteligencia artificial para hacer mucho más.

Un robot con algoritmos para, por ejemplo, reconocimiento facial, o para predecir las acciones de la gente, o decidir por sí mismo disparar proyectiles "no letales" es un robot que muchos investigadores encuentran problemático.

La razón: Muchos de los algoritmos de hoy en día están sesgados en contra de la gente de color y otros que no son como los diseñadores blancos, masculinos, acaudalados y capaces de la mayoría de los sistemas de computadoras y robots.

Mientras que la muerte de Johnson fue el resultado de una decisión humana, en el futuro tal decisión podría ser tomada por un robot - uno creado por los humanos, con sus defectos de juicio.

"Dadas las actuales tensiones derivadas de los tiroteos policiales contra hombres afroamericanos desde Ferguson a Baton Rouge", Howard, un líder de la organización Black in Robotics, y Borenstein escribieron, "es desconcertante que el personal de mantenimiento de la paz robotizado, incluidos los robots policiales y militares, tengan, en algún momento, mayor libertad para decidir si tomar una vida humana, especialmente si no se han resuelto los problemas relacionados con la parcialidad".

El verano pasado, cientos de investigadores de la IA y la robótica firmaron declaraciones comprometiéndose a cambiar la forma en que trabajan sus campus.

Una declaración, de la organización Black in Computing, hizo sonar la alarma de que "las tecnologías que ayudamos a crear para beneficiar a la sociedad también están perturbando a las comunidades negras a través de la proliferación de los perfiles raciales".

Otro manifiesto, "Sin justicia, no hay robots", compromete a sus firmantes a negarse a trabajar con o para los organismos de aplicación de la ley.

Durante el último decenio se han acumulado pruebas de que "la parcialidad es el pecado original de la IA", señala Howard en su audiolibro de 2020, "Sexo, Raza y Robots".

Los sistemas de reconocimiento facial han demostrado ser más precisos en la identificación de rostros blancos que los de otras personas. (En enero, uno de estos sistemas le dijo a la policía de Detroit que había hecho coincidir las fotos de un sospechoso de robo con la foto de la licencia de conducir de Robert Julian-Borchak Williams, un hombre negro sin conexión con el crimen).

Hay sistemas de IA que permiten a los autos que se conducen solos detectar a los peatones - el año pasado Benjamin Wilson de Georgia Tech y sus colegas encontraron que ocho de esos sistemas eran peores para reconocer a las personas con tonos de piel más oscuros que los más pálidos.

Joy Buolamwini, la fundadora de la Liga de Justicia Algorítmica e investigadora graduada en el Media Lab del MIT, se ha encontrado con robots interactivos en dos laboratorios diferentes que no lograron detectarla (para su trabajo con un robot de este tipo en el MIT, usó una máscara blanca para ser vista).

La solución a largo plazo para tales lapsus es "tener más gente que se parezca a la población de los Estados Unidos en la mesa cuando se diseñe la tecnología", dijo Chris S. Crawford, un profesor de la Universidad de Alabama que trabaja en controles directos de cerebro a robot.

Los algoritmos entrenados mayormente en rostros de hombres blancos (por desarrolladores mayormente de hombres blancos que no notan la ausencia de otros tipos de personas en el proceso) son mejores para reconocer a los hombres blancos que a otras personas.

"Yo personalmente estuve en Silicon Valley cuando se desarrollaron algunas de estas tecnologías", dijo. Más de una vez, añadió, "me sentaba y me lo probaban, y no funcionaba. Y yo decía: "¿Sabés por qué no funciona, verdad?"

Los investigadores de robots suelen ser educados para resolver problemas técnicos difíciles, no para considerar las cuestiones sociales sobre quiénes llegan a hacer los robots o cómo las máquinas afectan a la sociedad.

Así que fue sorprendente que muchos robotistas firmaran compromisos declarándose responsables de abordar las injusticias en el laboratorio y fuera de él.

Se comprometieron a realizar acciones dirigidas a hacer menos injusta la creación y el uso de los robots.

"Creo que las protestas en la calle han tenido un gran impacto", dijo Odest Chadwicke Jenkins, un robótico e investigador de IA de la Universidad de Michigan. En una conferencia a principios de este año, Jenkins, que trabaja en robots que pueden ayudar y colaborar con la gente, enmarcó su charla como una disculpa a Williams. Aunque Jenkins no trabaja en algoritmos de reconocimiento facial, se sintió responsable del fracaso general del campo de la IA para hacer sistemas que sean precisos para todos.

"Este verano fue diferente a cualquier otro que haya visto antes", dijo. "Colegas que conozco y respeto, esta fue tal vez la primera vez que los he escuchado hablar sobre el racismo sistémico en estos términos. Así que ha sido muy alentador". Dijo que esperaba que la conversación continuara y resultara en acción, en lugar de disiparse con un regreso a los negocios como de costumbre.

Jenkins fue uno de los principales organizadores y escritores de uno de los manifiestos de verano, producido por Black in Computing. Firmado por casi 200 científicos negros en computación y más de 400 aliados (ya sea académicos negros en otros campos o personas no negras que trabajan en áreas relacionadas), el documento describe la experiencia personal de los académicos negros sobre "el racismo y el prejuicio estructural e institucional que está integrado en la sociedad, las redes profesionales, las comunidades de expertos y las industrias".

La declaración hace un llamado a reformas, incluyendo el fin del acoso de los estudiantes negros por parte de los oficiales de policía del campus, y abordar el hecho de que los negros reciben constantes recordatorios de que otros no creen que pertenecen. (Jenkins, director asociado del Instituto de Robótica de Michigan, dijo que la pregunta más común que oye en el campus es: "¿Estás en el equipo de fútbol?") Todos los investigadores no blancos, no hombres, entrevistados para este artículo recordaron tales momentos. En su libro, Howard recuerda haber entrado en una habitación para dirigir una reunión sobre la IA de navegación para un explorador de Marte y que le dijeron que estaba en el lugar equivocado porque las secretarias estaban trabajando al final del pasillo.

La carta abierta está vinculada a una página de acciones específicas. Los puntos van desde no poner todo el trabajo de "diversidad" sobre los hombros de los investigadores de las minorías hasta asegurar que al menos el 13% de los fondos gastados por organizaciones y universidades vayan a empresas de propiedad de negros, a atar las métricas de equidad racial a las evaluaciones y promociones. También pide a los lectores que apoyen a las organizaciones dedicadas al avance de las personas de color en la informática y la IA, incluyendo Black in Engineering, Data for Black Lives, Black Girls Code, Black Boys Code y Black in AI.

Mientras la carta abierta de Black in Computing se refería a cómo se hacen los robots y la IA, otro manifiesto apareció por la misma época, enfocándose en cómo los robots son usados por la sociedad. Titulado "Sin justicia no hay robots", la carta abierta promete a sus firmantes mantener los robots y la investigación sobre robots lejos de los organismos de aplicación de la ley. Debido a que muchas de estas agencias "han demostrado activamente la brutalidad y el racismo hacia nuestras comunidades", la declaración dice, "no podemos de buena fe confiar a estas fuerzas policiales los tipos de tecnologías robóticas que somos responsables de investigar y desarrollar".

El verano pasado, angustiados por el trato de los policías a los manifestantes en Denver, dos robots de Colorado - Tom Williams, de la Escuela de Minas de Colorado y Kerstin Haring, de la Universidad de Denver - comenzaron a redactar "Sin justicia, no hay robots". Hasta ahora, 104 personas han firmado, incluyendo a los principales investigadores de Yale y el MIT, y a los científicos más jóvenes de instituciones de todo el país.

(COMIENZA EL RECORTE OPCIONAL.) "La pregunta es: ¿Queremos como robots facilitar a la policía lo que está haciendo ahora?" Preguntó Williams. "Vivo en Denver, y este verano durante las protestas vi a la policía lanzando gases lacrimógenos a gente a unas pocas manzanas de mí. La combinación de ver la brutalidad policial en las noticias y luego verla en Denver fue el catalizador." Williams no se opone a trabajar con las autoridades gubernamentales. Ha realizado investigaciones para el Ejército, la Armada y la Fuerza Aérea, sobre temas como si los humanos aceptarían instrucciones y correcciones de los robots. (Sus estudios han encontrado que lo harían.). El ejército, dijo, es una parte de cada estado moderno, mientras que la policía americana tiene sus orígenes en instituciones racistas, como las patrullas de esclavos - "orígenes problemáticos que siguen infundiendo la forma en que se realiza la policía", dijo en un correo electrónico.

(FIN DEL RECORTE OPCIONAL).

"Sin justicia, no hay robots" resultó controvertido en el pequeño mundo de los laboratorios de robótica, ya que algunos investigadores consideraron que no era socialmente responsable evitar el contacto con la policía.

"Estaba consternada por ello", dijo Cindy Bethel, directora del Laboratorio de Sistemas Sociales, Terapéuticos y Robóticos de la Universidad Estatal de Mississippi. "Es una declaración tan general", dijo. "Creo que es ingenua y no está bien informada". Bethel ha trabajado con las fuerzas policiales locales y estatales en proyectos de robots durante una década, dijo, porque cree que los robots pueden hacer que el trabajo policial sea más seguro tanto para los oficiales como para los civiles.

(COMIENZA EL RECORTE OPCIONAL.) Un robot que Bethel está desarrollando con su departamento de policía local está equipado con cámaras de visión nocturna, que permitirían a los oficiales ver una habitación antes de entrar en ella. "Todo el mundo está más seguro cuando no existe el elemento sorpresa, cuando la policía tiene tiempo para pensar", dijo.

La adhesión a la declaración prohibiría a los investigadores trabajar en robots que realizan operaciones de búsqueda y rescate, o en el nuevo campo de la "robótica social". Uno de los proyectos de investigación de Bethel es el desarrollo de tecnología que utilizaría pequeños robots de aspecto humano para entrevistar a niños que han sido víctimas de abusos, agresiones sexuales, tráfico o cualquier otro tipo de trauma. En uno de sus estudios recientes, 250 niños y adolescentes entrevistados sobre el acoso escolar estaban a menudo dispuestos a confiar en un robot información que no revelarían a un adulto.

El hecho de que un investigador "conduzca" un robot en otra habitación podría dar lugar a entrevistas menos dolorosas y más informativas de los niños supervivientes, dijo Bethel, que es una entrevistadora forense capacitada.

"Hay que entender el espacio del problema antes de poder hablar de la robótica y el trabajo policial", dijo. "Están haciendo muchas generalizaciones sin mucha información".

(FIN DEL RECORTE OPCIONAL.) Crawford es uno de los firmantes de "No Justice, No Robots" y de la carta abierta de Black in Computing. "Y sabes, cada vez que algo como esto sucede, o se toma conciencia, especialmente en la comunidad en la que funciono, trato de asegurarme de que lo apoyo", dijo.

Jenkins se negó a firmar la declaración de "No Justice". "Pensé que valía la pena considerarlo", dijo. "Pero al final, pensé que el tema más importante es, realmente, la representación en la sala - en el laboratorio de investigación, en el aula, y el equipo de desarrollo, la junta ejecutiva." Los debates sobre ética deberían basarse en esa primera cuestión fundamental de derechos civiles, dijo.

Howard no ha firmado ninguna de las dos declaraciones. Reiteró su punto de vista de que los algoritmos sesgados son el resultado, en parte, del sesgo demográfico - blanco, masculino, sano - que diseña y prueba el software.

"Si personas externas que tienen valores éticos no están trabajando con estas entidades de aplicación de la ley, entonces ¿quién lo hace?", dijo. "Cuando usted dice 'no', otros van a decir 'sí'. No es bueno si no hay nadie en la habitación para decir, 'Um, no creo que el robot deba matar.'"

c.2020 The New York Times Company

Comentar las notas de Clarín es exclusivo para suscriptores.

Football news:

Lampard on 8th place Chelsea: I can handle the pressure
Wegorst-the first in the history of Wolfsburg to score 12 goals in the 1st round of the Bundesliga. He is in the top 3 of the goalscoring race
Bounou is the second goalkeeper of Sevilla after Palop, who blocked 2 + penalties in the La Liga season
Frank Lampard: Back in December, Chelsea were in great shape. I am concerned that we lost it so quickly
Rodgers on Leicester's fight for the championship: It's too early to say, but in the first half of the season we played consistently and at a high level
Only in one season in the Abramovich era did Chelsea score fewer points after 19 rounds than they do now. Then Mourinho was sacked after 16 games
Werner has not scored in 11 games in the Premier League. He has 1 goal in his last 15 games for Chelsea