La analítica avanzada y el aprendizaje automático están cada vez más presentes en el sector de los servicios financieros. De hecho, según una encuesta llevada a cabo por el Foro Económico Mundial y el Cambridge Centre for Alternative Finance (CCAF), el 77% de las empresas del sector de FinTech y las instituciones financieras pertinentes anticipan que la IA tendrá una importancia alta o muy alta en sus negocios en los próximos dos años.
Aunque los beneficios de esta tecnología son evidentes, es relevante saber qué implica la toma de decisiones automatizada. Es importante ser capaces de explicar los modelos de IA y las decisiones que pueden tomar, ya que sólo así se garantiza su uso con fines adecuados.
Uso responsable de la IA
Las instituciones financieras deben analizar y utilizar con responsabilidad las funciones que ofrece esta tecnología. Sus clientes deben entender cómo afectan la IA y el análisis en base a big data a los servicios que reciben, pero también deben ser conscientes de las decisiones que se toman sin sentir que la automatización tenga efectos negativos.
Según un estudio llevado a cabo por Genpact en 2019, el 54% de los encuestados no se oponía a que las empresas utilizasen IA para acceder a datos personales para mejorar su experiencia de cliente. Sin embargo, todavía existen reservas y dudas al respecto, por lo que los bancos y las instituciones financieras tienen la responsabilidad de ser transparentes con sus clientes acerca de cómo y por qué emplean esta tecnología.
En este sentido, las instituciones financieras se enfrentan a cinco retos clave:
1. Explicación
Para generar confianza en la IA es imprescindible explicar a los clientes el papel que juega esta tecnología en la toma de decisiones. La IA Explicable (XAI, por sus siglas en inglés) es una disciplina emergente que busca tratar la falta de conocimientos acerca de cómo toman decisiones los sistemas de IA. Para ello, se analizan distintos modelos con el objetivo de intentar entender los pasos que se dan hasta tomar una decisión específica.
Cuando los desarrolladores de IA son capaces de explicar por qué y cómo se toman determinadas decisiones, tienen más control, ya que pueden comprobar la existencia de sesgos, garantizar que se cumplen los requisitos normativos y mejorar el diseño de los sistemas con mayor facilidad. Pero por encima de todo destaca que consiguen que los usuarios confíen en el sistema.
2. Diversidad
La IA se nutre de los datos que le suministramos, por lo que no debería resultar extraño que reproduzca prejuicios raciales y de género que existen en la sociedad. En 2019 se revisaron la política de condiciones de las tarjetas de crédito de Goldman Sachs después de que David Heinemeier Hansson, un empresario danés, tuitease que había recibido un límite de crédito veinte veces superior al que le habían concedido a su mujer, Jamie Hansson, para una tarjeta Apple, aunque ella tenía una puntación de crédito superior.
Por tanto, si no se comprueba la falta de sesgos, se corre el riesgo de crear un entorno tecnológico basado en la discriminación. Para poder construir una sociedad inclusiva es fundamental que se lleven a cabo verificaciones a fin de garantizar que la IA no reproduce estos prejuicios.
3. Respeto a la privacidad
Muchos de los datos sobre los que se desarrolla la IA son sensibles y confidenciales. Los consumidores deben saber que sus datos personales se utilizan de forma segura, preservando así su privacidad.
Históricamente, la privacidad no ha sido una preocupación principal a la hora de desarrollar modelos de IA. Por este motivo, muchos de estos sistemas se centran en almacenar datos para actualizarse y mejorar, una situación que impide para garantizar la privacidad de la información.
Afortunadamente, los algoritmos de IA más recientes no se basan necesariamente en el almacenamiento de datos. Tras recibir entrenamiento, estos algoritmos pueden llevar a cabo funciones basadas en datos en tiempo real sin necesidad de acumular información sensible. En otras palabras, si se tiene en cuenta la privacidad desde el primer momento, la IA está capacitada para proteger la información.
4. Ética
Un reciente estudio de NTT DATA Services y Oxford Economics demostró que la mayoría de los directivos de empresas subestiman los retos éticos que plantea la IA. Existen situaciones obvias en las que la IA puede provocar resultados poco éticos en la banca, como puede ser rechazar solicitudes de préstamos cursados por mujeres o minorías, o el cobro de tarifas más elevadas de seguros a personas BAME (personas negras, asiáticas y de minorías étnicas).
Es fundamental que se eviten este tipo de comportamientos. Para ello, los desarrolladores de IA deben entender el impacto que las predicciones basadas en datos pueden tener en las personas, así como poner en práctica medidas para abordar las cuestiones éticas cuando y como surjan.
5. Responsabilidad
Hacer que la IA sea más transparente y fácil de explicar es una forma de enfrentarse a la parcialidad y a las cuestiones éticas. No obstante, también es importante que las personas asuman su cuota de responsabilidad por las decisiones que toma la IA.
Es necesario contar con marcos adecuados que ofrezcan asesoramiento sobre el uso de la IA y que permitan supervisar los modelos para detectar parcialidad y discriminación. Además, adoptar medidas proactivas para reconocer problemas que pueden surgir garantizará que esta tecnología pueda ofrecer los mejores resultados posibles.
NTT DATA e IA ética
NTT DATA se compromete a utilizar la IA para ayudar a construir una sociedad sostenible, diversa, inclusiva y transparente centrada en las personas. Creemos que, si aplicamos los controles adecuados, pueden mitigarse los efectos negativos y utilizar esta tecnología en beneficio de la humanidad.
Hemos elaborado unas directrices sobre IA que se adecuan a los Objetivos de Desarrollo Sostenible de la ONU. Estas pautas garantizan que las soluciones de IA se desarrollan teniendo en cuenta la sostenibilidad, la diversidad y la inclusividad. Asimismo, la aplicación de estos preceptos en el sector financiero proporciona a las empresas un marco sólido sobre el que se adoptan medidas prácticas que garantizan un uso adecuado de la IA.
La IA ofrece un enorme potencial al sector de los servicios financieros. Es probable que las empresas que adoptan un enfoque responsable respecto al despliegue y la ampliación de la tecnología de IA obtengan unos beneficios significativos en el futuro.
Amplía información y descarga el whitepaper A business leader's guide to AI governance in finance.