Ciencia Avances La inteligencia artificial ya predice el crimen con sólo mirarte

La inteligencia artificial ya predice el crimen con sólo mirarte

La inteligencia artificial ya predice el crimen con sólo mirarte

Más de 1.700 expertos se han levantado en contra de la utilización de esta IA por considerarlo un método “socialmente injusto”.

¿El rostro de un criminal? Un libro sobre una investigación controvertida que emplea algoritmos automáticos de reconocimiento facial para predecir si una persona cometerá o no un delito, va a ser publicado próximamente. Sin embargo, más de 1.700 expertos, investigadores y académicos en múltiples campos de la inteligencia artificial han firmado una carta abierta que se opone a dicho trabajo, citando “graves preocupaciones” sobre el estudio e instando a Springer, la editorial que va a publicar la obra, a retirar su lanzamiento.

Un rechazo masivo

Usar la tecnología para predecir el crimen sería “injusto y provocaría un daño real”, según los expertos. La Coaltition for Critical Technology escribió una carta abierta a Springer Verlag en Alemania para expresar su gran preocupación sobre el software de reconocimiento facial automatizado recientemente desarrollado que un grupo de científicos de la Universidad de Harrisburg, Pensilvania.

Y es que Springer’s Nature Research Book Series tiene la intención de publicar un artículo de los científicos de Harrisburg llamado “Un modelo de red neuronal profunda para predecir la criminalidad mediante el procesamiento de imágenes” (cuyo comunicado oficial acerca del estudio se ha borrado de la red). La coalición quiere que se rescinda la publicación del estudio, y otros similares, argumentando que el documento hace afirmaciones que se basan en premisas, investigaciones y métodos científicos poco sólidos.

Los científicos que han desarrollado esta IA exponían que el algoritmo tiene un “80% precisión y sin prejuicios raciales; el software puede predecir si alguien es un delincuente basándose únicamente en una imagen de su cara. El software está destinado a ayudar a la policía a prevenir el delito”.

Multitud de expertos se han negado categóricamente a su uso de esta forma

“Seamos claros: no hay forma de desarrollar un sistema que pueda predecir o identificar ‘criminalidad’ que no esté sesgada racialmente, porque la categoría de ‘criminalidad’ en sí misma está sesgada racialmente”, agregó. “Los datos generados por el sistema de justicia penal no pueden ser utilizados para “identificar delincuentes o predecir el comportamiento delictivo. Nunca”.

“Innumerables estudios han demostrado que las personas de color son tratadas con más dureza que las personas blancas situadas de manera similar en todas las etapas del sistema legal, lo que resulta en serias distorsiones en los datos”, continúa la carta del grupo de expertos.

“Por lo tanto, cualquier software creado dentro del marco legal penal existente inevitablemente hará eco de esos mismos prejuicios e inexactitudes fundamentales cuando se trata de determinar si una persona tiene la ‘cara de un criminal'”.

Springer, por su parte, ha afirmado que el documento no fue “en ningún momento” aceptado para su publicación y se sometió a una conferencia en la que Springer publicará las actas en las que había sido rechazada cuando se emitió la carta abierta.

Mientras tanto, los organizadores de la Coalición para la Tecnología Crítica han señalado que la ‘ciencia policial’ se ha utilizado en el pasado como una forma de justificar prácticas racionalmente discriminatorias y han exigido que “todos los editores deben abstenerse de publicar estudios similares en el futuro”.

¿Podría esta tecnología salvar vidas?

Si bien estas tecnologías despiertan teorías de conspiración y la sensación de que todos nuestros movimientos están siendo monitoreados por alguien o por algo, aún existe la loable esperanza de que el uso de una inteligencia artificial sofisticada, como el programa de Cortica, podría mejorar la seguridad, la eficiencia, e incluso salvar vidas.

Uno no puede dejar de preguntarse, por ejemplo, qué hubiera pasado si tal tecnología hubiera estado disponible para ser usada en el automóvil de Uber en el que Nikolas Cruz se dirigió a la escuela Marjory Stoneman Douglas High School, para disparar indiscriminadamente y asesinar a 17 personas. El conductor de Uber no notó nada malo con Cruz, pero ¿podría una cámara equipada con AI haber detectado microexpresiones que posiblemente revelen sus intenciones, y alertar a la policía?

Podríamos mencionar decenas de posibles situaciones en las que la prevención podría haber evitado tragedias a mayor o menor escala. Y pese a las controversias, si estos planes siguen adelante, es posible que en el futuro descubriremos si la inteligencia artificial podrá también salvar vidas.

Por Sarah Romero. Periodista de ciencia y tecnología

Exit mobile version