Departamento del Seguridad Internacional y Defensa
Observatorio en Prevención de Lavado de Activos y Compliance OPLAC
Artículos
¿El perfilamiento proporcionado por la inteligencia artificial puede ayudar a los sujetos obligados a establecer adecuados perfiles de riesgo de LA/FT?
Marcela Aizcorbe [1]
Introducción
La problemática del Lavado de Activos y del Financiamiento del Terrorismo( LA/FT) tiene su origen en el ámbito internacional como consecuencia del paulatino crecimiento del crimen organizado. El crecimiento del crimen organizado es constante, pero en las últimas dos décadas, ha sido exponencial, en parte debido a la globalización, pero también por la transformación digital y las nuevas tecnologías que aceleraron sus procesos como consecuencia de la pandemia del Covid 19. Es así como se observa que el crimen organizado se ha ido adaptando, manifestándose a través de la ciberdelincuencia, donde toman relevancia las estafas, robos de datos personales, ataques de phishing y ransomware, suplantación de identidad, fraudes informáticos, reclutamiento de los llamados coleros virtuales, para obtener información precisa que sea funcional a sus actos delictivos o bien realizar delitos cada vez más organizados y eficientes.
El proceso de transformación digital busca aprovechar las tecnologías digitales para crear o modificar las experiencias, la cultura del cliente, los procesos comerciales y al mismo tiempo colabora en la mitigación de los riesgos. Por su parte la Inteligencia artificial (IA) ha sido reconocida como uno de los elementos determinantes de la transformación digital.
En tal sentido, la inteligencia artificial[2](IA) permite mediante la utilización de algoritmos imitar la inteligencia humana para realizar tareas y mejorarlas interactivamente a partir de la información que recopilan. La misma, ha irrumpido en sectores muy diversos, desde la industria farmacéutica, la fabricación, la logística,la agricultura de precisión y en el mundo financiero. Resulta importante señalar, que puede ayudar a los bancos a detectar el fraude, predecir patrones del mercado y aconsejar operaciones a sus clientes. En el ámbito comercial, empresas como Amazon, la utilizan, para identificar si un libro tendrá o no éxito, incluso antes de su lanzamiento. No cabe duda de que los beneficios de esta tecnología tienen importantes repercusiones para quienes tengan la previsión de invertir en ella, pero también genera riesgos si al utilizarla no se tienen en cuenta valores éticos en sus políticas, ni los derechos de los seres humanos. Los avances en la inteligencia artificial son sin duda extraordinarios, en varios ámbitos como lo hemos señalado y en este contexto, no resulta difícil imaginar su aplicación para combatir el lavado de activos y financiamiento del terrorismo, de hecho ya existen en la industria fintech algunos proveedores[3] que manejan sistemas con esta tecnología.
En este marco de ideas novedosas, la propuesta del presente trabajo consiste demostrar que el perfilamiento proporcionado por la inteligencia artificial, puede ayudar a los sujetos obligados por la UIF a establecer adecuados perfiles de riesgo de lavado de activos y financiamiento del terrorismo, incluso antes de iniciar la relación comercial, con lo que no va a ser necesario esperar hasta la concreción de operaciones inusuales y/o sospechosas para tomar decisiones concretas sobre los clientes y de esta forma el sujeto obligado va a mitigar sus riesgos de LA/FT rápidamente y eficientemente.
Exigencia del perfil de riesgo de LA/FT
A nivel local, los sujetos obligados ante la Unidad de Información Financiera (UIF), son la personas físicas o jurídicas nominadas en el artículo 20 de la Ley N° 25.246/2000, los cuales están obligados a reportar operaciones sospechosas[4] y a cumplir con las normas de la UIF que los alcanzan. La ley 25.246/2000, es de orden público y se estableció a los efectos de prevenir el lavado de activos y financiamiento del terrorismo (PLA/FT). La misma erige el principio de determinar el riesgo del cliente, implementando medidas idóneas para su mitigación, estableciendo reglas concretas de control continuo (monitoreo) que resulten proporcionales a éstos, teniendo en consideración un enfoque basado en riesgo.
Recordemos que el enfoque basado en riesgo fue establecido en la Recomendación Nº 1 del Grupo de Acción Financiera Internacional (GAFI), e implica que las autoridades competentes, Instituciones Financieras y Actividades y Profesiones No Financieras Designadas (APNFD) sean capaces de asegurar que las medidas dirigidas a prevenir o mitigar el lavado de activos y financiamiento del terrorismo tengan correspondencia con los riesgos identificados, permitiendo tomar decisiones sobre cómo asignar sus propios recursos de manera más eficiente. A tal fin los sujetos obligados, deben gestionar sus riesgos. La Gestión de riesgos, consiste en establecer políticas, procedimientos, controles de identificación, evaluación, mitigación y monitorización, acordes a los riesgos a los que se encuentran expuestos los sujetos obligados. Una adecuada segmentación de riesgo, garantiza la correcta aplicación de la debida diligencia que corresponde a cada nivel de riesgo.El sujeto obligado deberá realizar una debida diligencia reforzada,para los casos de clientes que presenten riesgo alto, lo cual implica solicitar más documentación e información, llevar un control exhaustivo y actualizar la información anualmente. En cambio si el nivel de riesgo asignado fuera medio, el sujeto obligado deberá efectuar una debida diligencia, que consiste en requerir cierta información y documentación y actualizar la misma en el término de dos años. Por último, si el nivel de riesgo asignado al cliente fuera bajo, el sujeto obligado deberá efectuar una debida diligencia simplificada, donde la documentación a requerir es mínima y deberá actualizar la información en el transcurso de cinco años.
Actualmente los sujetos obligados utilizan una matriz de riesgo para realizar ese perfilamiento, que puede ser desde una planilla excel hasta un sistema más sofisticado . Cabe destacar que no muchos tienen la posibilidad de contar con IA en sus desarrollos de compliance.
Sin duda, el perfilamiento proporcionado por la inteligencia artificial, podrá ayudar a los sujetos obligados por la UIF a establecer adecuados perfiles de riesgo de lavado de activos. En base a los resultados obtenidos ante el procesamiento de perfiles con la tecnología de IA permitirá tomar decisiones objetivas y anticipadas que no requieran esperar hasta la concreción operaciones inusuales y/o sospechosas. Todo ello, generará, una ventaja competitiva para los sujetos obligados, puesto que podrán reducir el riesgo reputacional, mejorar la asignación de recursos y del tiempo, reducir costos, evitar conflictos con las áreas comerciales, alta gerencia y directorio y obtener perfilamientos más justos y eficientes.
Definición y alcance de la Inteligencia Artificial (IA)
No existe una definición única sobre inteligencia artificial. Lasse Rouhiainen[5] la define como la“… capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar lo aprendido en la toma de decisiones tal y como lo haría un ser humano…”. La IA mejora el rendimiento y la productividad de la empresa mediante la automatización de procesos o tareas que antes requerían esfuerzo humano y además puede dar sentido a los datos a una escala que ningún humano jamás podría[6]. Algunos autores sostienen que al momento de establecer su definición, cobra especial relevancia la diferencia entre los distintos tipos de técnicas de inteligencia artificial. En tal sentido diferenciar “cajas blancas” de “cajas negras” lleva a distinguir entre los problemas que son de Big data y los que son de Small data que serán comentados más adelante.
En cuanto al alcance de la inteligencia artificial, se puede aplicar en casi todas las situaciones. El enfoque que se busca revisar en el presente trabajo, se relaciona más con el campo financiero empresarial y es por ello que resulta interesante citar a María Del Carmen Sosa Sierra, para transmitir el análisis que ha efectuado donde indica que “…En las últimas décadas se ha asistido a un cambio profundo en el ámbito empresarial debido fundamentalmente al avance de la tecnología. La presencia de nuevos paradigmas en el tratamiento de la información que generan las empresas denominado “Gestión del Conocimiento”… La autora destaca que el procesamiento masivo de esta información, una marcada tendencia hacia la globalización de los mercados, el riesgo y la incertidumbre en la toma de decisiones empresariales son los ejes fundamentales de esta gestión del conocimiento.
Los sujetos obligados buscan en todo momento mitigar sus riesgos, cuanto antes puedan detectarlos más rápidamente podrán comenzar a gestionarlos o bien podrán deshacerse de los mismos al tomar la decisión de desvincular al cliente en base a estos resultados. Con la IA podrán mejorar enormemente sus tiempos en todo el proceso de conocimiento de los clientes (KyC), incluso podrá tomar la decisión antes de que se produzca la vinculación.
El sesgo algorítmico
Cada vez más, la inteligencia artificial es parte de nuestras vidas, y como ya comentamos, resultará clave para colaborar con las tareas de PLA/FT que desarrollan los sujetos obligados. Sin embargo la misma presenta un gran desafío para afrontar, el cual se conoce como el “sesgo algorítmico”. La IA requiere de algoritmos, cuyos “sesgos” pueden generar un efecto no buscado , es decir una mayor desigualdad entre las personas[7].
Todos conocemos la frase errar es humano, pero a la hora de ofrecer un servicio, se busca siempre obtener el menor margen de error. Para lograrlo las empresas, los bancos, los sujetos obligados, deben utilizar procesos automatizados, objetivos, que carezcan de juicios y distorsiones causadas por la experiencia de los individuos. El sesgo algorítmico, ocurre cuando un sistema informático refleja los valores de los humanos que están implicados en la codificación y recolección de datos, lo cual distorsiona la percepción de la realidad. Por eso es tan importante que los modelos implementados de IA carezcan de estos sesgos y así poder construir una inteligencia artificial más justa.
Al profundizar sobre el tema surge inevitablemente la pregunta de cuáles son las razones que llevan a estos sistemas a generar predicciones sesgadas. La IA puede adquirir un sesgo que lleve a presentar un rendimiento dispar en grupos caracterizados por distintos atributos demográficos, lo que redunda en un comportamiento desigual o discriminatorio, los expertos, entienden que una de las razones detrás de este comportamiento son justamente los datos que se usan para entrenarlos y es aquí donde la ética cobra relevancia. Faliero[8], sostiene que “…el procesamiento de datos y los algoritmos sin ética solo pueden causar daños, cuyo impacto, profusión e imposibilidad fáctica de ser revertidos resultan innegables…”[…]“…El sesgo algorítmico contamina el reconocimiento de patrones y las predicciones basadas en datos. Los algoritmos no son entidades asépticas, imparciales y disociadas de sus creadores e intereses, como así tampoco de los conjuntos de datos con que se los alimenta, por lo que es fácil comprender cómo la discriminación atraviesa estas entidades, desde los datos hasta sus resultados…”. La autora, entiende que los algoritmos son necesarios pero que generan dependencia y muchas veces causan un efecto de discriminación, por eso para frenar la expansión de prácticas digitales abusivas es necesario establecer un límite jurídico constituido por la autodeterminación informativa dinámica y la anonimización de los datos. La autodeterminación informativa[9] dinámica constituye un verdadero derecho personalísimo, humano y fundamental, que abarca el derecho a la privacidad, a la intimidad, al honor, a la confidencialidad, a la imagen, a la identidad y consiste en el respeto absoluto del derecho del titular a gobernar sus datos respecto del manejo, la consulta, el control, la exposición, el depósito, la disposición y la reutilización analítica o estadística que se haga de ellos, derivados o no de una relación contractual, científica o profesional, con el fin último de evitar la afectación funcional del dato. La anonimización de los datos asociados a las personas, que consiste en un derecho humano fundamental, personalísimo, irrenunciable, inalienable del titular del dato, en el ejercicio pleno de su autodeterminación informativa, sinónimo de libertad y consiste en que no se pueda asociar a su persona dato alguno.
El Procesamiento de datos
Cuando incursionamos en el campo de los datos aparecen conceptos como los de minería de datos, big data y machine learning que son importantes para definir un procesamiento correcto.
Resulta entonces necesario conocer la función del data mining o minería de datos, que consiste en utilizar grandes bases de datos para obtener insights sobre comportamientos que se repiten de manera consistente. Esto se logra mediante la elaboración de algoritmos que consiguen identificar patrones en medio de datos y establecer correlaciones entre ellos.
Por su parte, se requiere también entender bien el concepto de big data, porque justamente es un término que describe el gran volumen de datos, tanto estructurados como no estructurados, que inundan los negocios cada día. Lo que hace que big data sea tan útil para muchas empresas es el hecho de que proporciona respuestas a muchas preguntas que las empresas ni siquiera sabían que tenían, proporcionando un punto de referencia.
El machine learning, conocido en español como aprendizaje automático o aprendizaje de máquina, nació[10] como una idea ambiciosa de la IA en la década de los 60. Para ser más exactos, fue una subdisciplina de la IA, producto de las ciencias de la computación y las neurociencias. Lo que esta rama pretendía estudiar era el reconocimiento de patrones (en los procesos de ingeniería, matemáticas, computación, etc.) y el aprendizaje por parte de las computadoras. En los albores de la IA, los investigadores estaban ávidos por encontrar una forma en la cual las computadoras pudieran aprender únicamente basándose en datos.
Machine learning, abarca una serie de técnicas más o menos sofisticadas, la especie más conocida es el “aprendizaje profundo” algunos autores se refieren a ésta como una clase de técnica basada en un tipo de redes neuronales artificiales, viéndola como la verdadera inteligencia artificial, sin embargo esta posición minoritaria va en contra de todos los organismos internacionales y de la gran mayoría de autores. Se trata de lo que se conoce como “caja negra” debido a que no es posible determinar el paso a paso de la lógica del procesamiento de datos que sucede en el interior del sistema cuando se trata de redes neuronales. El problema de las cajas negras es que no se puede interpretar,explicar, trazar y auditar el modo en que se procesan los datos y la información para conectar lo que ingresa y lo que ingresa del sistema. En contraposición a las cajas negras, encontramos las “cajas blancas” que se basan en un conjunto de técnicas que se utilizan para obtener predicciones y en este caso si son auditables transables explicables que interpretables por eso es que son tan útiles. En el libro Cibercrimen III[11], los autores señalan que la aplicación masiva de sistemas de caja blanca no predictivos conllevaría a una auténtica transformación de los procesos judiciales. Así el paradigma de la inteligencia artificial podría solucionar el problema jurídico de las lagunas del derecho . Indican que con estos sistemas se podría lograr un formato ágil y holístico a la hora de articular datos, información, reglas y decisiones.
La recopilación de grandes cantidades de datos y la búsqueda de tendencias dentro de los datos permiten que las empresas se muevan mucho más rápidamente, sin problemas y de manera más eficiente. También les permite eliminar las áreas problemáticas antes de que los problemas acaben con sus beneficios o su reputación. La cantidad de datos a procesar no es lo importante, lo que importa es lo que las organizaciones hacen con los datos.
En el ámbito de la prevención del lavado de activos y financiamiento del terrorismo las bases de datos y su correcta explotación son muy necesarios para determinar por ejemplo si un cliente es o no una persona políticamente expuesta (PEP) o si es un terrorista o si está procesado o cuenta con sentencia relacionada con delitos precedentes al lavado de activos ( narcotráfico, evasión fiscal , trata, corrupción, prostitución y pornografía infantil, etc) o bien se encuentra sancionado por Oficina de Control de Bienes Extranjeros( OFAC). Actualmente los sujetos obligados realizan controles automáticos, con proveedores que ofrecen buenos servicios, pero en muchos casos no utilizan la tecnología de la IA por un tema de costos y de implementación. Seguramente a futuro se van a ir alineando hacia ese tipo de soluciones tecnológicas de avanzada.
No aceptación. Discriminación
Con la implementación de la tecnología de IA se va a dar lugar a planteos de discriminación, por parte de clientes rechazados.
“La inteligencia artificial perfecciona y optimiza el perfilamiento a través del uso de algoritmos, al mismo tiempo que promete más igualdad en sus procesos, por lo que sus seguidores y evangelizadores técnicos, comerciales y jurídicos sostienen de manera falaz que nos llevará a una mayor igualdad. Lamentablemente, a la única igualdad insensible a la que nos está llevando es la igualdad en la discriminación algorítmica. Esta se desarrolla como consecuencia de la presencia de un sesgo algorítmico por el cual se serializan y estandarizan los defectos e impactos jurídicos del perfilamiento, lo que vulnera sistemáticamente, a una escala masiva no predicha, la autodeterminación informativa de las personas titulares de los datos, individuos y ciudadanos.”[12]
Los sistemas como los de “caja blanca” prometen transparencia total, pero en definitiva no la alcanzan, ya que solo buscan niveles tolerables de transparencia en los cuales no todo lo que se muestra es verdaderamente útil.
A fin de abordar el tema de la discriminación que se genera por el uso de la IA y tratar de darle una solución, es importante pensar en la predicción individual[13] porque precisamente se vincula con el principio de igualdad en el sentido de que no se puede distinguir a una persona y restringir su libertad a partir de igualarla con otros grupo. La igualdad juega al revés, se necesita distinguir a la persona respecto de un grupo de personas para no discriminarla. En relación al lavado de activos y financiamiento del terrorismo, cuando a través de la IA se obtenga un perfil de altisimo riesgo que lleve a la decisión de no aceptar al cliente o de desvincularlo, seguramente se va a generar también un problema de discriminación que pude llevar al cliente a inicar un juicio contra el sujeto obligado. El sujeto obligado deberá haber previsto en sus políticas de aceptación contempladas en el manual de PLA/FT este tipo de casos, de modo tal que puedan ser usadas como prueba de que la entidad no pretendía discriminar al cliente afectado y mucho menos causarle un daño.
Incorporar la IA para el perfilamiento de clientes en PLA/FT
Los sujetos obligados se encuentran limitados por las normas de orden público que recaen sobre los mismos y que los obligan a realizar determinados controles en materia de prevención de lavado de activos y financiamiento del terrorismo tales como el KyC y el perfilamiento de PLA/FT. Como lo hemos comentado anteriormente es la ley 25246 la que determina la necesidad de establecer un perfil para cada cliente. Asimismo la ley de habeas data / de protección de datos personales ( 25.326) y las buenas prácticas internacionales exigen a los sujetos obligados manejar con prudencia los datos a requerir, proporcionando confidencialidad y seguridad en la obtención de los mismos .
Incorporar la IA para efectuar un perfilamiento de los clientes en materia de LA/FT va a ser algo muy beneficioso para los sujetos obligados que buscan en todo momento mitigar sus riesgos, cuanto antes puedan detectarlos más rápidamente podrán comenzar a gestionarlos o bien podrán deshacerse de los mismos al tomar la decisión de desvincular al cliente en base a estos resultados. No obstante ello, las problemáticas planteadas por el sesgo algorítmico y el procesamiento de datos pueden dar lugar a que el cliente se sienta discriminado y por ende inicie acciones legales al respecto. Como propuesta de trabajo, a continuación proporcionaremos algunas medidas que entendemos reducirán el impacto y acotarán los riesgos para el sujeto obligado que decida utilizar la tecnología de IA para establecer su perfilamiento de PLA/FT.
Medidas de implementación
- Informar a los clientes que serán sometidos a determinados procesos de IA para cumplir con las exigencias de la ley 25.246 y normas complementarias de la UIF.
- Se requerirá a los clientes, el consentimiento informado e inequívoco.
- Se asegurará a los clietnes, su autodeterminación informativa, la cual deberá ser incorporada en el formulario de vinculación asegurándole al cliente el respeto absoluto del derecho a gobernar sus datos respecto del manejo, la consulta, el control, la exposición, el depósito, la disposición y la reutilización analítica o estadística que se haga con ellos.
- Se garantizará a los clientes la anonimización de los datos para asegurar confidencialidad y no discriminación por los mismos.
- Se incorporará en las políticas y procedimientos de PLA/FT la no aceptación de clientes cuyos perfiles obtenidos mediante procesos de IA resulten de muy alto riesgo.
- Se contemplarán en los planes de auditoría interna la revisión de aspectos de seguridad de datos y de seguridad de la información en búsqueda de vulnerabilidades.
Conclusión y reflexiones finales
Las entidades financieras y los sectores fintech, están utilizando la inteligencia artificial, para mejorar sus procesos comerciales. Llegó el momento que también den el paso para utilizar la IA para el análisis de riesgos,y entonces realizar mejor la debida diligencia conociendo mejor a sus clientes. Sin embargo resulta importante que los sujetos obligados se manejen éticamente, respetando los derechos que poseen los clientes sobre todo en lo que se relaciona con la autodeterminación informática dinámica y la anonimización de datos. Los sujetos obligados deben ser conscientes de los sesgos algorítmicos y por tanto trabajar con mucha disciplina y dedicación a fin de que los aprendizajes de IA no presenten dichos sesgos.
Las cajas blancas de IA, son la mejor solución para garantizar transparencia, aunque no sean perfectas.
Los clientes deben recibir información suficiente de antemano, (al momento de la vinculación) para conocer los procesos a los que van a ser sometidos y eventualmente que el resultado podría ser el de “ no aceptado”.
Por último señalar que una estupenda solución a los errores/sesgos que puedan detectarse dentro de los algoritmos, es el aprendizaje supervisado. En el aprendizaje supervisado los aprendices son algoritmos y sus entrenadores son los programadores que utilizan lenguaje de programación y técnicas informáticas y en los últimos años se ha comprobado que este tipo de técnicas pueden ser muy apropiadas para reducir los sesgos y errores.
[1] Abogada (UBA); Master en Economía y Cs. Políticas (ESEADE); Docente en Programa Integral de Formación Bancaria (UCA).
[2] https://www.oracle.com/mx/artificial-intelligence/what-is-ai/
Algunos ejemplos son:Los chatbots utilizan la IA para comprender más rápido los problemas de los clientes y proporcionar respuestas más eficientes.Los asistentes inteligentes utilizan la IA para analizar información crítica proveniente de grandes conjuntos de datos de texto libre para mejorar la programación. Los motores de recomendación pueden proporcionar recomendaciones automatizadas para programas de TV según los hábitos de visualización de los usuarios.
[3] https://es.metamap.com/ https://servicios.nosis.com/compliance
[4] Ver Resoluciones UIF 30 E/2017, 21/2018,28/2018 y 76/2019 artículo 1: Operaciones Sospechosas: aquellas operaciones tentadas o realizadas que ocasionan sospecha de LA/FT, o que habiéndose identificado previamente como inusuales, luego del análisis y evaluación realizados por el Sujeto Obligado, no permitan justificar la inusualidad.
[5] Lasse Rouhiainen. “ Inteligencia Artificial.101 cosas que debes saber hoy sobre nuestro futuro” Editorial Alienta https://drive.google.com/file/d/1hF0osLMi77UWIEzPPnpDwagdpQM2elG2/view
[6] file:///Users/admin2/Desktop/Trabajo%20final%20/%C2%BFQue%CC%81%20es%20la%20inteligencia%20artificial%20(IA)_%20_%20Oracle%20Me%CC%81xico.html
[7] Ver Ferrante Enzo. Inteligencia artificial y sesgos algorítmicos. https://nuso.org/articulo/inteligencia-artificial-y-sesgos-algoritmicos/
[8] Limitar la dependencia algorítmica : Faliero Johanna Caterina, 2021 “Impactos de la inteligencia artificial y sesgos algorítmicos” https://static.nuso.org/media/articles/downloads/9.TC_Faliero_294.pdf.
[9] surge como respuesta a la posibilidad de un tratamiento masivo de datos. Fue construido y elaborado a partir de la sentencia del Tribunal Constitucional Federal alemán de 15 de diciembre de 1983.
[10] https://platzi.com/contributions/que-es-machine-learning-guia-completa-para-principiantes/?gclid=CjwKCAjw5NqVBhAjEiwAeCa97a1iyCQkF7iTGGSsWHPAlH_eV0Vs7Y7RrwP3uRk2bGVnH68-i01wUBoCmf4QAvD_BwE&gclsrc=aw.ds
[11] Ver Corvalán Juan y Dupuy Daniela. Cibercrimen III-2020. Inteligencia artificial automatización, algoritmos y predicciónes en el derecho penal y procesal penal.Pá
[12] Limitar la dependencia algorítmica : Faliero Johanna Caterina, 2021 “Impactos de la inteligencia artificial y sesgos algorítmicos” https://static.nuso.org/media/articles/downloads/9.TC_Faliero_294.pdf. Pág 124 Johanna Caterina Faliero
[13] Ver Corvalán Juan y Dupuy Daniela. Cibercrimen III-2020. Inteligencia artificial automatización, algoritmos y predicciónes en el derecho penal y procesal penal.Pág 60.