Navegando pelo cenário da inteligência artificial: como o setor financeiro pode fazer uso da IA generativa
No cenário em constante evolução da tecnologia financeira, a conversa em torno da inteligência artificial (IA) e, particularmente, da IA generativa está ganhando força. A IA faz parte do cenário financeiro há décadas, mas, com os avanços da IA generativa, surgem maiores benefícios, mas também riscos que as instituições financeiras precisam considerar em um setor tão regulamentado.
Embora os possíveis benefícios da IA generativa sejam significativos e a adoção por muitos ainda esteja sendo considerada, é necessária uma abordagem ponderada ao passar da prova de conceito para a produção. Em uma edição da Fintech Finance News Virtual Arena, vários líderes notáveis do setor do HSBC, Capgemini e MongoDB se reuniram para explorar como o setor financeiro pode fazer uso de IA generativa e o que as instituições financeiras devem considerar em sua estratégia de IA.
Assista ao painel de discussão Como o setor financeiro pode usar a IA generativa hoje com o HSBC, o MongoDB e a Capgemini. Ouça:
-
EJ Achtner, escritório de inteligência artificial aplicada do HSBC
-
Dan Pears, vice-presidente, líder de prática no Reino Unido da Capgemini
-
Wei You Pan, diretor de soluções para o setor de serviços financeiros do MongoDB
-
Doug Mackenzie, diretor de conteúdo da FF News
Enfrentando os desafios da IA generativa
Embora os tecnólogos financeiros sempre tenham tido que lidar com questões persistentes, como gerenciamento de riscos e governança, a adoção da IA generativa em fintechs introduz novos desafios com os quais os especialistas em IA sempre lidaram, como vieses inerentes e preocupações éticas. Um desafio que se destaca na IA generativa é a alucinação — a geração de conteúdo que não é preciso, factual ou não reflete o mundo real. Os modelos de IA podem produzir informações que parecem plausíveis, mas são totalmente fictícias.
Os modelos de IA generativa, especialmente no processamento de linguagem natural, podem gerar textos coerentes e contextualmente apropriados, mas sem precisão factual. Isso impõe desafios em diferentes domínios, incluindo desinformação e confiabilidade de conteúdo. Exemplos de tais desafios ou riscos podem incluir:
-
Orientação enganosa sobre planejamento financeiro: nos serviços de consultoria financeira, as informações alucinadas podem resultar em orientações enganosas que levam a riscos inesperados ou oportunidades perdidas.
-
Avaliações de risco incorretas para empréstimos: perfis de risco imprecisos podem levar a avaliações de risco ruins para os solicitantes de empréstimos, o que pode fazer com que uma instituição financeira aprove um empréstimo com um risco de inadimplência maior do que a empresa normalmente aceitaria.
-
Informações confidenciais no texto gerado: ao gerar texto, os modelos podem inadvertidamente incluir informações confidenciais dos dados de treinamento. Os adversários podem criar prompts de entrada para induzir o modelo a gerar resultados que exponham detalhes confidenciais presentes no corpus de treinamento.
Portanto, é fundamental que as instituições financeiras compreendam o impacto tecnológico, a escala e a complexidade associados à IA, especialmente a estratégia de IA generativa. É fundamental uma abordagem estratégica e abrangente que englobe vários aspectos de tecnologia, dados, ética e prontidão organizacional. Aqui estão algumas das principais considerações que as instituições financeiras devem considerar ao adotar tal estratégia:
-
Mitigação da alucinação: mitigar a alucinação em IA generativa é uma tarefa desafiadora, mas várias estratégias e técnicas podem ser empregadas para reduzir o risco de gerar informações imprecisas ou enganosas. Uma estratégia promissora é fazer uso da abordagem Retrieval Augmented Generation (RAG) para mitigar alucinações em modelos de IA generativa. Essa abordagem envolve a incorporação de mecanismos de recuperação de informações para aprimorar o processo de geração, garantindo que o conteúdo gerado seja fundamentado no conhecimento do mundo real. O Vector Search é um mecanismo popular para oferecer suporte à implementação da arquitetura RAG que usa pesquisa vetorial para recuperar documentos relevantes com base na query de entrada. Em seguida, ele fornece esses documentos recuperados como contexto para os modelos de linguagem ampla (LLM) para ajudar a gerar uma resposta mais informada e precisa.
-
Qualidade e disponibilidade dos dados: dê um passo atrás antes de adotar a IA para garantir que a qualidade, a relevância e a precisão dos dados que estão sendo usados para o treinamento e a tomada de decisões da IA possam ser acessados em tempo real.
-
Educação: investir em programas de treinamento é fundamental para lidar com a lacuna de habilidades em IA, garantindo que a equipe de funcionários esteja equipada para gerenciar, interpretar e colaborar com tecnologias de IA. Para a adoção da IA ser bem-sucedida, uma cultura de aprendizagem e desenvolvimento é vital, fornecendo aos colaboradores as ferramentas necessárias para serem os melhores que podem ser para seu desenvolvimento pessoal e profissional. Além disso, promover a conscientização sobre as possíveis vulnerabilidades e refinar continuamente os modelos para aumentar sua resiliência contra alucinações, vieses, manipulação adversária e outros pontos fracos é essencial para garantir o sucesso em aplicações de IA generativa.
-
Desenvolva nova governança, frameworks e controles: antes de entrar em operação, crie ambientes seguros e protegidos para testes e aprendizado que permitam que você falhe rapidamente de maneira segura. Entrar de cabeça na produção com contato direto com os clientes pode resultar na implementação de métodos errados de governança.
-
Monitoramento e melhoria contínua: implemente sistemas de monitoramento robustos para medir e entender impactos financeiros, impactos de mudanças, a escala e a complexidade associados à adoção da IA.
-
Escalabilidade e integração: projete sistemas de IA tendo em mente a escalabilidade para acomodar conjuntos de dados crescentes e requisitos em evolução.
-
Segurança e privacidade: implemente medidas robustas de segurança cibernética para proteger os modelos de IA e os dados dos quais eles dependem. Técnicas como treinamento adversarial, higienização de entrada e incorporação de mecanismos de preservação da privacidade podem ajudar a mitigar o risco da IA generativa revelar inadvertidamente dados privados. Os planos de resposta a incidentes devem fazer parte das medidas de segurança cibernética, bem como a educação regular das partes interessadas relevantes sobre segurança e privacidade.
Como o MongoDB pode ajudar você a superar desafios em relação aos dados
No campo da adoção de tecnologias avançadas, como IA e ML, que exigem dados como base, as organizações geralmente enfrentam o desafio de integrar essas inovações aos sistemas legados, especialmente quando se trata de casos de uso, como prevenção de fraudes, em que a plataforma é integrada a fontes externas para uma análise precisa de dados completos. A inflexibilidade dos sistemas existentes representa um ponto problemático significativo, dificultando a incorporação contínua de tecnologias de ponta. O MongoDB, que serve como armazenamento de dados operacional (ODS) com um modelo de documento flexível, permite que as instituições financeiras lidem eficientemente com grandes volumes de dados em tempo real. Ao integrar o MongoDB às plataformas de IA/ML, as empresas podem desenvolver modelos treinados nos dados mais precisos e atualizados, atendendo assim à necessidade crítica de adaptabilidade e agilidade diante da evolução das tecnologias.
Os sistemas legados, marcados por sua inflexibilidade e resistência à modificação, apresentam outro desafio na busca de alavancar a IA para aprimorar as experiências do cliente e melhorar a eficiência operacional. As dificuldades de integração também persistem, especialmente no setor financeiro, onde a incerteza da evolução dos modelos de IA ao longo do tempo exige uma infraestrutura escalável. A plataforma de dados para desenvolvedores do MongoDB prepara as empresas para o futuro com seu esquema de dados flexível capaz de acomodar qualquer estrutura, formato ou fonte de dados. Essa flexibilidade facilita a integração perfeita com diferentes plataformas de IA/ML, permitindo que as instituições financeiras se adaptem às mudanças no cenário da IA sem grandes modificações na infraestrutura.
As preocupações com a segurança dos dados dos clientes, especialmente quando compartilhados com terceiros por meio de API, complicam ainda mais a adoção de tecnologias inovadoras de IA. Os sistemas legados podem atrapalhar a inovação, pois geralmente são mais vulneráveis a ameaças à segurança devido a medidas de segurança desatualizadas. A moderna plataforma de dados para desenvolvedores do MongoDB aborda esses desafios com controles de segurança incorporados em todos os dados. Seja gerenciado em um ambiente de cliente ou por meio do MongoDB Atlas, um serviço de cloud totalmente gerenciado, o MongoDB garante segurança robusta com recursos como autenticação (logon único e autenticação multifatorial), controles de acesso baseados em função e criptografia de dados abrangente. Essas medidas de segurança funcionam como uma proteção para dados financeiros confidenciais, reduzindo o risco de acesso não autorizado de partes externas e proporcionando às organizações a confiança necessária para adotar as tecnologias de IA e ML.
Se quiser saber mais sobre como criar aplicações aprimoradas com IA com o MongoDB, dê uma olhada nos recursos a seguir: