Back to hub

This content is not available in English.

El deseo de un mundo sin crimen perjudica los derechos humanos

En EEUU ya se utilizan calificaciones de riesgo de reincidencia generadas por computadora para tomar decisiones en cuestión de sentencias y de libertad condicional

John Thornhill, Financial Times

Uno de los comentarios más exagerados que Donald Trump jamás haya hecho es la afirmación de que él haría que EEUU fuera un país seguro una vez que se convirtiera en presidente. "El crimen y la violencia que hoy afligen a nuestro país pronto llegarán a su fin", dijo durante la Convención Nacional Republicana el mes pasado. "A partir del 20 de enero de 2017, la seguridad se restaurará".

La pretensión del Sr. Trump pareciera ir en contra de numerosos milenios de experiencia humana, y fue debidamente desestimada por algunos comentaristas como nada más que pura ficción. Éste fue un ejemplo más en el que el volumen triunfó sobre la verdad. Sólo hay que decir algo con un volumen lo suficientemente alto y con una actitud lo suficientemente osada para que adquiera su propia realidad.

En EEUU algunos jueces ya utilizan calificaciones de riesgo de reincidencia generadas por computadora para tomar decisiones
En EEUU algunos jueces ya utilizan calificaciones de riesgo de reincidencia generadas por computadora para tomar decisiones

Pero así como el mundo de la política parece estar trasladándose de la realidad a la ficción, lo opuesto parece estar ocurriendo en el mundo de la tecnología. Las ideas una vez consideradas como habitantes de los ámbitos más fantasiosos de nuestra imaginación rápidamente se están convirtiendo en realidad.

Tomemos como ejemplo el crimen. En 1956, el escritor de ciencia ficción Philip K. Dick publicó una historia corta, "El informe de la minoría”, que imaginaba un mundo en el que se había abolido el crimen. Los seres mutantes, conocidos como precogniscientes, o "precogs", eran capaces de predecir la identidad de los futuros asesinos con ayuda de la tecnología informática. Los informes de los "precogs" ocasionaban la detención de sospechosos por "precrímenes", evitando que los asesinatos se llevaran a cabo.

Además de ser una historia convincente, la historia del Sr. Dick representa un brillante análisis de las tensiones entre la capacidad de predicción, la acción humana y los conceptos de culpa y de inocencia. En un punto del libro John A. Anderton, jefe de la División de Precrimen, declara: "La comisión del crimen por sí mismo es absolutamente una cuestión metafísica. Nosotros afirmamos que son culpables. Y ellos, a su vez, afirman constantemente que son inocentes. Y en cierto sentido, son inocentes". Él concluye: "En nuestra sociedad no tenemos grandes crímenes, pero tenemos todo un campo de detención lleno de criminales en potencia".

La visión del Sr. Dick es descabellada. Sin embargo, es probable que nuestras sociedades estén lentamente dirigiéndose hacia el futuro que él describió. Algunos criminólogos sugieren que algún día pudiéramos ser capaces de predecir, al momento del nacimiento de un individuo, si va a cometer un delito cuando cumpla los 18 años basado en su entorno y en la historia de los padres.

En EEUU algunos jueces ya utilizan calificaciones de riesgo de reincidencia generadas por computadora para tomar decisiones en cuestión de sentencias y de libertad condicional. Estos informes comparan los registros de la persona con una cantidad de material relacionado con patrones anteriores de comportamiento criminal y con otros datos demográficos. La promesa es que estos resultados pueden predecir los riesgos para la sociedad mucho más objetivamente que cualquier juez. Unos algoritmos diseñados adecuadamente no debieran ser susceptibles al prejuicio consciente o inconsciente.

Pero los modelos informáticos sólo son tan buenos como los datos que utilizan. Una investigación de ProPublica, la sala de redacción investigativa, descubrió que el programa de software que utilizaba datos históricos para predecir los futuros criminales sistemáticamente discriminaba contra las personas de raza negra.

Por otra parte, Eric Loomis, un convicto, recientemente objetó el uso de la calificación de riesgo de reincidencia que se utilizó en su sentencia, argumentando que él, en efecto, había recibido castigo adicional por crímenes cometidos por terceros. El mes pasado, el Tribunal Supremo de Wisconsin rechazó su objeción, pero reconoció que algunos estudios de las calificaciones de riesgo de reincidencia habían "planteado preguntas sobre si clasificaban desproporcionadamente a los delincuentes minoritarios como más propensos a tener un mayor riesgo de reincidencia".

Estos litigios pueden ser sólo el comienzo de la controversia pública si las agencias del orden público obtienen mayor acceso a los datos que compartimos en línea. Gracias a la digitalización de nuestra sociedad y a las técnicas de aprendizaje de las máquinas, nos estamos volviendo cada vez más adeptos en vigilar —- y predecir — el comportamiento.

Nuestros datos contienen crónicas íntimas de nuestros estados mentales, deseos y sueños. Estas huellas digitales son mucho más duraderas y más reveladoras que las físicas. Entonces, ¿no debería la policía utilizar más ampliamente estos datos para identificar quién pudiera ser susceptible de cometer delitos?

Para bien o para mal, estos conjuntos de datos están fragmentados y las agencias del orden público están estrictamente restringidas en relación a qué tienen acceso. Pero, a medida que crece el clamor por una respuesta más enérgica ante los atentados terroristas, el peligro es que las tecnologías de predicción se vuelvan ininterrumpida, y subrepticiamente, más invasivas.

Utilizando los datos de manera adecuada, su uso puede conducirnos a una era de inteligencia aumentada, en la que la tecnología nos ayude a tomar mejores decisiones y nos mantenga a salvo. Utilizándolos imprudentemente, se corre el riesgo de crear un distópico Estado vigilante que encarcele a las personas basándose en algoritmos en lugar de en acciones. Lo que más importa es quién determina el uso de esta tecnología y qué derechos tenemos de objetarla.

(c) 2016 The Financial Times Ltd. All rights reserved