Inteligencia artificial y prevención del delito

0
40

Aquí y en el mundo ya se está implementando tecnología que permite acortar los tiempos de investigación de un delito e incluso prevenirlo. Algoritmos y softwares asisten a la justicia y las fuerzas de seguridad. Bienvenidos a la era de la inteligencia artificial.

Fotos: IStock

Una asistente de fiscalía a la que le traen 150 cuerpos de diferentes expedientes y le piden que en una hora tenga un informe acerca de una determinada modalidad delictiva y sus diversas formas de ejecución en cinco diferentes países del continente.

Un encargado de monitoreo de cámaras que deberá controlar durante toda la noche 100 pantallas diferentes en busca de personajes, movimientos o actividades sospechosos, y dar alerta de manera instantánea ni bien observe algo raro.

Un informático al que le encomiendan que controle todo el tráfico de imágenes de niños que se generan en Internet en todo el mundo, para lograr detectar desde dónde proviene el mayor flujo de imágenes y qué conexión tiene con quienes las visualizan y las descargan, estableciendo un perfil de los usuarios más frecuentes.

Aunque parezca increíble, todo eso sí es posible de realizar, pero solo desde la implementación de la inteligencia artificial (IA) y su aplicación en la prevención y la persecución del delito.

Aunque sea muy reciente, la IA ya no se discute, mientras se asiste a los resultados concretos que ya se están obteniendo y la creciente capacidad que tiene esta tecnología para complejizar cada vez más sus aportes y sus resultados. Hoy por hoy es un hecho.

“La aplicación de estas tecnologías al servicio de la investigación es la manera más efectiva de analizar datos a una velocidad y con un grado de precisión que ningún ser humano podría lograr”. La afirmación pertenece al fiscal general de la ciudad de Buenos Aires Juan Bautista Mahiques, uno de los impulsores de la implementación de la IA en la investigación penal.

El funcionario judicial da como ejemplo los reportes del Centro Nacional para Niños Perdidos y Explotados (NCMEC), que cada año envía algo más de 22 millones de reportes de presunta explotación sexual infantil a unos 242 países. Si se quisieran segmentar los aproximadamente 40 mil que llegan a la Argentina, sería necesario personal especializado que se dedicara ocho horas por día solo a eso. Le consumiría todo el año.

Pero en la actualidad, ese procesamiento se está realizando con un software de inteligencia artificial llamado Prometea que reduce notoriamente el proceso. “La segmentación automática que realiza Prometea a partir del contenido de los reportes reduce los tiempos a tan solo cuatro horas en todo el año”, señala Mahiques, asegurando que el mecanismo permite a la justicia adelantarse “en la identificación de presuntos responsables del delito” y establecer un orden de prelación o prioridades a los diferentes casos. Básicamente, separar la paja del trigo.

La aplicación de la IA para la persecución de quienes cometen delitos sexuales contra niños es una de las que más moviliza a los entusiastas de esta nueva tecnología que va camino a convertirse en un estándar.

De hecho, la Gendarmería Argentina ya está trabajando con estas herramientas, y sus responsables no dudan en asegurar que ya está permitiendo “una enorme reducción en los tiempos”. Así lo asegura Juan Encina, Comandante Mayor de esa fuerza, quien señala: “El cúmulo de las informaciones que tenemos en Internet y en nuestras manos es gigantesco. Si lo hiciéramos a mano, podríamos tardar días”.

Otra de las áreas donde se está aplicando la IA es la cibervigilancia, ya no solo para la detección de pornografía infantil y pedofilia, sino también para los casos de estafas, suplantaciones de identidad, lavado de activos, entre muchos otros.

Hernán Giraudo, gerente de Ventas de la compañía Software de Analítica & Soluciones (SAS), una de las tecnológicas que dan soporte a las fuerzas federales en sus investigaciones, señala que hoy, gracias a la IA, “un investigador va a hacer su trabajo mucho mejor que aquel que no la tiene, ya que se acelera muchísimo el proceso”, asegura, agregando no obstante que siempre deberá concebirse el uso de la IA “como complemento del investigador” y no como reemplazo.

En ese marco, da el ejemplo de un operador que tiene que mirar 100 cámaras al mismo tiempo. “Ahí es cuando una IA puede detectar patrones irregulares, como movimientos zigzagueantes de un vehículo. También puede detectar fotos, objetos, personas”, aclara. Si se incluyen también las tecnologías de reconocimiento facial, se trata de una labor que a esta altura ya no convendría asignar exclusivamente a la mirada vigilante de un operador de cámaras, que tendrá muchas chances de pasar por alto esos detalles.

Otra aplicación indispensable de la IA es la de analizar los materiales y contenidos que se encuentran en equipos celulares o informáticos que son secuestrados en procedimientos o bien que por alguna razón son tomados como prueba para una investigación.

Eduardo Negreiros es gerente de la empresa Cellebrite, propietaria de un software llamado Pathfinder que se encarga de mapear todas las comunicaciones que tuvo un teléfono peritado. Él explica qué se está logrando con estos mecanismos. “Imaginate cuántas conversaciones o fotos tenés en tu teléfono. Imaginate que vos como fiscal estás investigando más de 30 celulares. ¿Cómo podemos encontrar información relevante? No es trabajo de un humano”, explica este empresario, que dice que se encuentra entre los que creen que “nosotros tenemos que hacer cosas de humanos y dejar que las máquinas hagan cosas de máquinas”.

Pese a que aún nos encontramos en los albores del desarrollo de esta tecnología, el software de Cellebrite no solo es capaz de formular búsquedas, barrer memorias, detectar contactos, sino también de interpretar imágenes y chats, pudiendo incluso establecer el contexto en el que se envían. Es decir: separar lo que es en serio de lo que puede ser en broma, e incluso interpretar giros del lenguaje para “ocultar” la información.

Claro que no todo brilla y no todo es oro con la IA, y la incorporación de tecnología que trabaja sobre la base de algoritmos, y que además es capaz de aprender de sí misma, trae algunos desafíos y también algunos inconvenientes.

Uno de ellos ocurrió recientemente en los Estados Unidos, donde la ONG ProPublica logró documentar que el sistema COMPAS, un mecanismo que permite hacer un pronóstico criminológico para conceder o no libertades condicionales a los condenados, terminaba actuando con un marcado sesgo racial.

“Se comprobó que en varios casos a las personas afroamericanas se les asignaba un puntaje más alto, a pesar de que luego no reincidían, y, a la inversa, a personas caucásicas se les fijaba puntaje bajo, aunque después reincidían”, cuenta Catalina Serventich, quien se desempeña en el Ministerio Público Fiscal de la Ciudad de Buenos Aires.

Alimentada por esta situación, la especialista puso en debate la necesidad o no de que las empresas proveedoras de estas tecnologías den a conocer el código o sus algoritmos, ya que de lo contrario se termina poniendo en riesgo el derecho a la defensa del acusado, por clausurar “la facultad de controlar la prueba que se utiliza en su contra”.

Claro que “abrir los códigos” implicaría para muchas empresas revelar sus secretos comerciales y entregárselos en bandeja a la competencia. He aquí la gran controversia.

Otro de los desafíos planteados es el de las deepfakes. ¿De qué se trata? De la capacidad que tiene esta nueva tecnología para generar imágenes, videos y hasta voces con un hiperrealismo capaz de confundir a cualquier persona y de convertirlos en evidencia falsa, ya sea para condenar o para absolver.

“El problema de las deepfakes es que resulta muy difícil diferenciar lo que es verdadero de lo que es falso”, advierte un trabajo de la Universidad Nacional del Comahue, Río Negro, que lleva la firma de un abogado, Guillermo Merlo, y también de un licenciado en biología, José Ricardo Ulloa.

“Imaginemos un audio de un funcionario público, de un allegado a nosotros o incluso nuestro, en el que se escuche a la persona planificando una actividad delictiva”, aventuran los autores luego de explicar que con la IA se pueden reproducir a la perfección imágenes, gestos y hasta la propia voz de cualquier persona usando como insumo simplemente otras grabaciones originales de su voz.

“Esto trae sin dudas un desafío para el personal forense, que debe corroborar la autenticidad o falsedad de un material” que en otro contexto podría resultar contundente.

Más allá de estas controversias, ya nadie discute la necesidad de incorporar cada vez más estos mecanismos, por ahora como un asistente de lujo para la investigación penal. Así como el delito cambia, muta, se complejiza y se enmascara, de igual manera será necesario que actúen las fuerzas encargadas de prevenirlo, y cuando no lo logran, tendrán que investigarlo, detectarlo, perseguirlo y, finalmente, reunir la evidencia para condenarlo. 

DEEPFAKES  “BUENAS”

La capacidad de la IA para generar deep-fakes también puede jugar “a favor de los buenos”. ¿Cómo? Quien lo explica es Federico Baudino, investigador forense cordobés, especializado en nuevas tecnologías aplicadas a la investigación criminal.

“Actualmente ya se está trabajando con deepfakes que generan imágenes y perfiles falsos de niños o niñas que no existen en la realidad, sino que son plenamente virtuales, y que son ‘liberados’ en las redes para atrapar a pedófilos”, cuenta Baudino.

Serían una especie de “ratonera” o “señuelos virtuales”, entrenados mediante IA para que puedan interactuar en las redes emulando el lenguaje y las actitudes de niños. “Es una tecnología increíble que está permitiendo adelantarse y atrapar a pedófilos que creen que están interactuando con sus víctimas, cuando en realidad es simplemente un software”, explica el especialista.