U.S. Markets closed

¡Como en Minority Report! Un sistema de inteligencia artificial predice crímenes

Milenka Peña

Los programas de inteligencia artificial (IA) prometen ser capaces de hacer de todo: desde predecir el clima hasta manejar vehículos autónomos, por lo que no sorprende que también se estén aplicando en el área de la seguridad.

Ahora, la IA está siendo utilizada como parte integral de un nuevo concepto para sistemas de videovigilancia, con la promesa de frustrar la actividad delictiva. Pero esto no se trata de la simple detección de delitos en curso, sino que se lleva a cabo mediante la identificación de un delito o crimen antes de que suceda. Esa posibilidad podría parecer la trama de la película Minority Report, o algún episodio de Black Mirror, pero ya no es parte de la fantasía.

prediccion crimenes cortica inteligencia artificial ai example 1 2560x9999

Conoce a Cortica

Cortica, una compañía israelí con profundas raíces en seguridad e investigación basada en la inteligencia artificial, formó recientemente una asociación en India con la empresa Best Group, para analizar los terabytes de transmisión de datos de cámaras CCTV en áreas públicas. Uno de los objetivos es mejorar la seguridad en lugares públicos, como calles de las ciudades, estaciones de autobuses y estaciones de tren.

Ya es común que las fuerzas del orden en ciudades como Londres y Nueva York empleen tecnología, como el reconocimiento facial y la detección de matrículas de autos, como parte de la vigilancia de sus cámaras de video. Pero la IA de Cortica promete llevarlos mucho más lejos al buscar “anomalías de comportamiento” que indiquen cuando alguien estaría a punto de cometer un crimen violento. El objetivo es prevenir el desarrollo de un crimen en curso, como agresiones, robos, o hasta ataques sexuales.

El software se basa en el tipo de sistemas de control de seguridad militar y gubernamental, que ya están implementados para intentar identificar a posibles terroristas, monitoreando a las personas en tiempo real. Esta identificación se lleva a cabo buscando “microexpresiones”, que son movimientos o gestos minúsculos que podrían delatar las intenciones nefastas de alguna persona. Las señales reveladoras son tan pequeñas que pueden eludir a un detective con experiencia, pero no pueden engañar a los ojos que nunca duermen de la inteligencia artificial.

En una reunión en Tel Aviv antes de que se anunciara el acuerdo, la cofundadora Karina Odinaev explicó que el software de Cortica tiene la intención de abordar varios desafíos, especialmente en la identificación de objetos que no se clasifican fácilmente de acuerdo con los estereotipos tradicionales. Un ejemplo dado fue el tipo de eventos únicos que los programas que controlan vehículos sin conductor tendrán que ser capaces de manejar en el futuro, como detectar si alguna carga se cayó de un camión autónomo al dar vuelta la esquina. “Para eso, necesitas aprendizaje IA sin supervisión”, dijo Odinaev. En otras palabras, el software tiene que aprender de la misma manera que los humanos aprenden.

Manipulando el cerebro

Para crear dicho programa, Cortica no siguió la ruta de la red neuronal, que a pesar de su nombre se basa en probabilidades y modelos de computación en lugar de en cómo funcionan los cerebros reales. En cambio, la empresa fue a la fuente, en este caso, un segmento cortical del cerebro de una rata. Al mantener vivo un pedazo de cerebro fuera del cuerpo, y conectarlo a un conjunto de microelectrodos, Cortica pudo estudiar cómo la corteza reaccionó a estímulos particulares.

Al monitorear las señales eléctricas de la sección de cerebro, los investigadores pudieron identificar grupos específicos de neuronas llamadas “cliques”, que procesaban conceptos específicos. A partir de ahí, la compañía construyó archivos de algoritmos y modelos matemáticos para simular los procesos originales en el cerebro.

El resultado, de acuerdo con Cortica, es un enfoque de la IA que permite el aprendizaje avanzado sin dejar de ser transparente. En otras palabras, si el sistema comete un error anticipando falsamente que algún crimen está a punto de suceder, los programadores pueden rastrear fácilmente el problema hasta el archivo responsable de la secuencia errónea.

Una visión futurista algo preocupante

Pero se espera que el software de Cortica haga mucho más en los años por venir. Podría, por ejemplo, usarse en futuros robotaxis para monitorear el comportamiento de los pasajeros y prevenir ataques sexuales o robos violentos.

El software de Cortica es bastante impresionante. Puede combinar datos no solo de cámaras de video, sino también de drones y satélites. Además, puede aprender a juzgar las diferencias de comportamiento, no solamente para separara a las personas respetuosas de la ley y delincuentes con antecedentes, sino también puede distinguir entre un mercado que esté lleno de gente, pero pacífico, y una manifestación política que está a punto de tornarse violenta.

Pero la pregunta que muchos se hacen es ¿podrían esas buenas intenciones convertirse en escenarios de pesadilla y control, como los que inspiraron a tantas películas de ciencia ficción? En las manos equivocadas, este tipo de software podría ser abusado. Un régimen despótico, por ejemplo, podría usar esa información para reprimir la disidencia y arrestar a las personas, antes de que siquiera tuvieran la oportunidad de organizar una protesta.

Este es, por ejemplo, uno de los temores de Elon Musk, quien en un documental reciente afirmó que la superinteligencia artificial podría dar lugar a un dictador global inmortal que regiría al mundo entero.

Renunciando a la privacidad para mejorar la seguridad

Por esto y más, y pese a las posibles ventajas y beneficios en torno a la seguridad, lo cierto es que la inclusión de la inteligencia artificial a las redes públicas de webcams está comenzando a generar ansiedad sobre la privacidad y la libertad personal. Y no es solo el uso que le podrían dar algunos gobiernos extranjeros lo que preocupa a la gente.

inteligencia artificial


En Nueva Orleans, por ejemplo, el alcalde Mitch Landrieu ha propuesto un plan de vigilancia de $40 millones de dólares para la lucha contra el crimen, que incluye la conexión de las redes de cámaras municipales con transmisiones en vivo desde cámaras web privadas, operadas por empresas y personas particulares. La propuesta ya ha provocado varias protestas públicas, entre ellas las de trabajadores inmigrantes preocupados de que los funcionarios de inmigración usen las cámaras para detectar a trabajadores indocumentados y deportarlos.

Ya podrías estar siendo vigilado

Mientras tanto, al igual que los sujetos atrapados en un mundo de Black Mirror, es posible que sin darse cuenta, las personas ya se estén sometiendo involuntariamente a tal vigilancia con inteligencia artificial, a través de dispositivos que cada vez son más ubicuos.

La cámara Clips de Google, por ejemplo, que cuesta $249 dólares, usa una forma rudimentaria de IA para tomar fotografías automáticamente cuando ve algo que considera significativo. Amazon, cuyas bocinas con Alexa  ya han sido objeto de acusaciones paranoicas por supuesto espionaje, ha comprado la popular compañía de timbres Ring, que también funcionan con IA. La compañía GE Appliances planea presentar un centro equipado con cámaras de video para los electrodomésticos de cocina a finales de este año. Y en Europa, Electrolux estrenará un horno con una cámara web incorporada.

¿Podría esta tecnología salvar vidas?

Si bien estas tecnologías despiertan teorías de conspiración y la sensación de que todos nuestros movimientos están siendo monitoreados por alguien o por algo, aún existe la loable esperanza de que el uso de una inteligencia artificial sofisticada, como el programa de Cortica, podría mejorar la seguridad, la eficiencia, e incluso salvar vidas.

Uno no puede dejar de preguntarse, por ejemplo, qué hubiera pasado si tal tecnología hubiera estado disponible para ser usada en el automóvil de Uber en el que Nikolas Cruz se dirigió a la escuela Marjory Stoneman Douglas High School, para disparar indiscriminadamente y asesinar a 17 personas. El conductor de Uber no notó nada malo con Cruz, pero ¿podría una cámara equipada con AI haber detectado microexpresiones que posiblemente revelen sus intenciones, y alertar a la policía?

Podríamos mencionar decenas de posibles situaciones en las que la prevención podría haber evitado tragedias a mayor o menor escala. Y pese a las controversias, si los planes de Cortica y empresas similares siguen adelante, es posible que en el futuro descubriremos si la inteligencia artificial podrá también salvar vidas.