El mundo financiero quiere abrir las cajas negras de la IA

Los potentes métodos de aprendizaje automático han conquistado el mundo de la tecnología en los últimos años, mejorando enormemente el reconocimiento de voz e imágenes, la traducción automática y muchas otras cosas.



Ahora estas técnicas están preparadas para dar un vuelco a innumerables otras industrias, incluido el mundo de las finanzas. Pero el progreso puede verse obstaculizado por un problema importante: a menudo es imposible explicar cómo estos algoritmos de aprendizaje profundo toman una decisión (consulte El oscuro secreto en el corazón de la IA).

Adam Wenchel, vicepresidente de aprendizaje automático e innovación de datos de Capital One, dice que a la empresa le gustaría usar el aprendizaje profundo para todo tipo de funciones, incluida la decisión de a quién se le otorga una tarjeta de crédito. Pero no puede hacerlo porque la ley exige que las empresas expliquen el motivo de tal decisión a un posible cliente. A fines del año pasado, Capital One creó un equipo de investigación, dirigido por Wenchel, dedicado a encontrar formas de hacer que estas técnicas informáticas sean más explicables.



Nuestra investigación es para garantizar que podamos mantener ese nivel alto de explicabilidad a medida que avanzamos hacia estos modelos mucho más avanzados e inherentemente más opacos, dice.



El aprendizaje profundo surgió en los últimos cinco años como una forma poderosa de imitar las habilidades perceptivas humanas. El enfoque implica entrenar una red neuronal muy grande para reconocer patrones en los datos. Está vagamente inspirado en una teoría sobre la forma en que las neuronas y las sinapsis facilitan el aprendizaje. Aunque cada neurona simulada es simplemente una función matemática, la complejidad de estas funciones interrelacionadas hace que el razonamiento de una red profunda sea extremadamente difícil de desentrañar.

Algunas otras técnicas de aprendizaje automático, incluidas aquellas que superan el aprendizaje profundo en ciertos escenarios, son mucho más transparentes. Pero el aprendizaje profundo, que permite análisis sofisticados que son útiles para la industria financiera, puede ser muy difícil de interrogar.

Algunas empresas emergentes tienen como objetivo explotar las preocupaciones sobre la opacidad de los algoritmos existentes prometiendo utilizar enfoques más transparentes (consulte Una fórmula de crédito impulsada por IA podría ayudarlo a obtener un préstamo).



Este problema podría volverse más significativo en los próximos años a medida que el aprendizaje profundo se use más comúnmente y los reguladores centren su atención en la responsabilidad algorítmica. A partir del próximo año, en virtud de su Reglamento General de Protección de Datos, la Unión Europea podrá exigir a cualquier empresa que sea capaz de explicar una decisión tomada por uno de sus algoritmos.

El problema también ha llamado la atención de la Agencia de Proyectos de Investigación Avanzada de Defensa, que realiza investigaciones para el Departamento de Defensa de EE. UU. El año pasado, DARPA lanzó un esfuerzo para financiar enfoques para hacer que el aprendizaje automático sea menos opaco (consulte El ejército de EE. UU. Quiere que las máquinas autónomas se expliquen). Los 13 proyectos seleccionados para recibir financiación muestran una variedad de enfoques para hacer que los algoritmos sean más transparentes.

La esperanza es que el aprendizaje profundo se pueda utilizar para ir más allá de simplemente igualar las capacidades perceptivas humanas. Una compañía de tarjetas de crédito podría, por ejemplo, alimentar el historial de crédito y otros datos financieros en una red profunda y capacitarla para reconocer a las personas que podrían no cumplir con los pagos de su tarjeta de crédito.



Capital One también está considerando el aprendizaje profundo como una forma de detectar automáticamente los cargos fraudulentos de manera más confiable, dice Wenchel, aunque la compañía desconfía de confiar en un sistema de este tipo cuando no se puede examinar su razonamiento. Operamos en una industria fuertemente regulada, dice. Necesitamos poder explicar tanto internamente como a las personas por qué estamos tomando decisiones. Y asegúrese de que estamos tomando decisiones por las razones correctas.

El aprendizaje profundo es una palabra de moda muy importante en este momento, y ha habido un gran progreso en la visión por computadora y el procesamiento del lenguaje natural, dice Trevor Darrell , profesor de UC Berkeley que lidera uno de los proyectos seleccionados para recibir financiación de DARPA. Pero [los sistemas de aprendizaje profundo] son ​​criticados porque a veces es difícil averiguar qué sucede dentro de ellos.

Para el proyecto DARPA, el grupo de Darrell está desarrollando varios enfoques nuevos de aprendizaje profundo, incluidas redes profundas más complejas capaces de aprender varias cosas simultáneamente. También hay enfoques que incluyen una explicación en los datos de entrenamiento: en el caso de los subtítulos de imágenes, por ejemplo, una imagen clasificada como un gato se emparejaría con una explicación de por qué se clasificó como tal. Se podría utilizar el mismo enfoque para clasificar los cargos de tarjetas de crédito como fraudulentos. Todas estas cosas nos llevan a redes profundas más interpretables, dice Darrell.

esconder