voltarVoltar

Quais desafios a inteligência artificial traz ao mercado de prevenção à fraude?

Redação AllowMe
Siga no Linkedin

*Por Deaulas Neto

O avanço da inteligência artificial (IA) tem trazido benefícios e desafios para diversos setores – e com o mercado de prevenção à fraude não poderia ser diferente. Se por um lado as empresas do ramo têm tido a oportunidade de aprimorar suas plataformas de proteção de identidades digitais a partir do uso de machine learning, por outro os fraudadores também têm tirado proveito de ferramentas de IA para aperfeiçoar e escalar os golpes aplicados. Tomar ciência dos riscos existentes e explorar estratégias eficazes para lidar com essas ameaças crescentes tem se mostrado cada vez mais urgente.

São inúmeras as ameaças que podem ser incrementadas pelo uso da IA. Por meio da tecnologia, por exemplo, os fraudadores têm escalado ataques de engenharia social, criando bots capazes de ludibriar os usuários, convencendo-os a clicar em links maliciosos ou mesmo dividir dados confidenciais. É certo que essas práticas são aplicadas por criminosos há tempos, porém, graças à IA, tais interações são passíveis de serem automatizadas, multiplicando exponencialmente seus impactos.

Infelizmente, também já assistimos na imprensa a relatos da clonagem de voz para a aplicação de golpes via Whatsapp ou mesmo pelo telefone. Se até hoje há quem realize transferências ou pagamentos de boletos a terceiros, supostamente conhecidos, depois de receberem deles mensagens escritas, imagine a proporção que isso pode ganhar quando envolvemos as vozes de amigos e familiares fazendo tais pedidos.

Isso sem falar na capacidade do uso de técnicas de IA generativa para falsificar identidades. Com elas, os fraudadores podem criar rostos sintéticos e usar algoritmos de geração de voz para criar identidades falsas e, em conjunto com outras técnicas, melhorar as chances de passar por verificações de segurança baseadas em reconhecimentos facial ou vocal. As chamadas identidades sintéticas, para além de reunirem dados de diversas pessoas, ganham agora cara e voz.

Mas diante de tantas ameaças, como garantir segurança se, na maior parte de nossos dias, estamos conectados – e vulneráveis? Costumamos defender que não há bala de prata na prevenção à fraude. Para atestar segurança, é preciso pensarmos em proteção em camadas – preceito já adotado por várias das plataformas de prevenção à fraude.

Consideremos um caso extremo, de um fraudador profissional e bastante exitoso na aplicação de golpe de account takeover – prática que consiste basicamente no roubo dos acessos de uma conta qualquer, neste exemplo aqui citado, uma conta bancária. O criminoso se valeu de dados vazados na deepweb, buscou suas vítimas e conseguiu fotos e vídeos delas, via redes sociais. Alimentou plataformas de IA generativa, capazes de criar fotos e vídeos para a etapa de autenticação de biometria, justamente para tomar uma prova de vida do usuário.

Pois bem, este fraudador simulou uma troca de dispositivo pelo próprio cliente e fazendo uso de técnicas para mascarar a sua identidade foi atravessando pouco a pouco as etapas de autenticação. Login e senha, check. Dados pessoais, check. Biometria, check. Porém, se essa jornada de autenticações contar com uma análise contextual do próprio dispositivo e dos padrões comportamentais dos usuários, essa transação pode ser barrada de pronto, de acordo com a estratégia traçada.

Esse único dispositivo está tentando cadastrar várias contas e em um curto espaço de tempo? O local e a rede a ele conectada são usuais daquele usuário? A geolocalização está dentro do raio esperado? Esses questionamentos, realizados em milissegundos e respondidos pelo sistema de análise de dispositivo, celular ou computador, podem dizer se aquela transação é potencialmente fraudulenta ou não.

Diante disso, é crucial enfatizar que não há motivo para pânico. Embora as ameaças tenham aumentado e possam continuar crescendo, é importante ressaltar que seu foco está em aprimorar a qualidade dos ataques e automatizar processos já conhecidos dos fraudadores. As plataformas de prevenção à fraude têm se mantido em constante evolução, garantindo a capacidade de proteger empresas e seus respectivos clientes de forma contínua e eficiente.

É de suma importância também ressaltar o papel do usuário neste ecossistema de proteção em camadas. Ele é mais uma delas e, infelizmente, uma das mais frágeis. Nesse sentido, é crucial que governos, empresas e até mesmo a imprensa desempenhem um papel esclarecedor, conscientizando a sociedade sobre os riscos envolvidos com o avanço da inteligência artificial. Somente com uma abordagem colaborativa e informada poderemos fortalecer a segurança e proteger nossas identidades digitais em um mundo cada vez mais interconectado.

À medida que essas tecnologias avançam e ganham espaço na sociedade, é provável que as pessoas adotem recursos que permitirão distinguir criações geradas por IA da realidade. Muito provavelmente a regulamentação governamental irá desempenhar um papel fundamental no uso responsável dessas tecnologias. No entanto, até que cheguemos a esse ponto, enfrentaremos um percurso desafiador.

É evidente que cabe às empresas a proteção da identidade digital de seus clientes, porém, o acesso a informações precisas e de qualidade continua sendo essencial para mitigar esses riscos desde a raiz. Somente com uma abordagem consciente e informada poderemos assegurar que a IA seja utilizada de forma ética e segura, garantindo um futuro mais protegido contra fraudes e manipulações.

*Deaulas Neto é senior product manager do AllowMe

Acompanhe as novidades