El cumplimiento de las leyes y regulaciones contra el lavado de dinero (AML) y Conozca a su cliente (KYC) suele ser una de las principales preocupaciones de las empresas de activos digitales. A pesar de los esfuerzos por monitorear y detectar el fraude, las empresas de activos digitales enfrentan desafíos importantes debido a los avances en las amenazas tecnológicas, incluida la IA generativa.
La inteligencia synthetic puede producir deepfakes sumamente realistas, documentación falsa y puede tejer casi instantáneamente una historia de vida convincente para respaldar la información falsa, por ejemplo, al sembrar publicaciones falsas en las cuentas de redes sociales de una persona. Por ejemplo, hace poco los estafadores utilizaron tecnología deepfake para simular una videoconferencia en la que participaron el director financiero de una empresa financiera multinacional y otros ejecutivos, y engañaron a un trabajador para que les transfiriera casi 26 millones de dólares.
En resumen, la capacidad de la inteligencia synthetic para producir casi instantáneamente audios y efectos visuales deepfake atractivos puede causar estragos en los sistemas de gobernanza existentes diseñados para proteger a los consumidores.
Los mecanismos KYC actuales son insuficientes ante el avance de la inteligencia artificial
Los programas AML y KYC son esenciales para que las instituciones financieras verifiquen la identidad de sus clientes y garanticen el cumplimiento de las leyes diseñadas para combatir el lavado de dinero, el fraude y la financiación del terrorismo. Sin embargo, muchas empresas de criptomonedas tienen controles KYC débiles o porosos, lo que genera un mayor riesgo de fraude. Según Coindesk, los usuarios de criptomonedas perdieron casi 4 mil millones de dólares por “estafas, tirones de ropa y hackeos” en 2022 y alrededor de 2 mil millones de dólares en 2023.
Dado que las empresas de activos digitales generalmente no tienen ubicaciones físicas como las instituciones financieras tradicionales, necesitan utilizar métodos KYC adaptados a un entorno remoto. Los métodos de verificación KYC más utilizados incluyen:
- Tomándose un selfie mientras sostiene un cartel escrito a mano con la fecha precise
- Tomar una fotografía de la licencia de conducir del usuario u otra identificación gubernamental o
- Grabación de un video clip en vivo respondiendo preguntas de seguridad para confirmar la identidad y “vida” del usuario.
Sin embargo, la IA puede eludir estos métodos de verificación actuales. Por ejemplo, servicios como OnlyFake utilizan IA para crear identificaciones falsas que supuestamente han pasado estrictas comprobaciones KYC en los principales intercambios de criptomonedas como Binance y Coinbase. Estas identificaciones falsas se generan mediante redes neuronales y se pueden comprar por tan solo $15. Kit de herramientas ofensivas Deepfake o punto Crea deepfakes para la inyección de una cámara virtual y permite a los usuarios intercambiar su rostro por uno generado por IA para pasar la verificación de identidad. Según este artículo de The Verge, las pruebas de verificación de identidad KYC de las instituciones financieras, que normalmente requieren que el usuario mire a través de la cámara de su teléfono o computadora portátil, son fácilmente engañadas por los deepfakes generados por punto.
El uso de Gen AI en combinación con blockchain puede mitigar el fraude que permite Gen AI
Blockchain y la IA son tecnologías complementarias que pueden ser efectivas para la detección e investigación de fraudes, tanto de forma independiente como combinadas.
Blockchain para verificación
La descentralización, la inmutabilidad y el consenso basado en reglas son algunas de las características principales de la tecnología blockchain que la hacen útil para la verificación de identidad y la detección de fraudes. Por ejemplo, las transacciones escritas en la blockchain son inmutables (por ejemplo, los datos no se pueden eliminar ni modificar), lo que puede evitar que los posibles estafadores alteren los datos de las transacciones. Además, las transacciones escritas en cadenas de bloques públicas, como la cadena de bloques de Bitcoin, son completamente buscables y transparentes, lo que dificulta que las actividades fraudulentas pasen desapercibidas. Las cadenas de bloques también están distribuidas por naturaleza, lo que hace que sea más difícil para una sola entidad o un pequeño grupo de entidades realizar cambios no autorizados en los datos de la cadena de bloques. Finalmente, los datos de las cadenas de bloques se pueden codificar criptográficamente, lo que genera una huella electronic única que es casi imposible de recrear. Esta característica ayuda a rastrear las transacciones fraudulentas porque si alguien manipula los datos de la cadena de bloques, el valor hash también cambiaría.
IA para detección:
La IA puede mejorar la detección de fraudes analizando los patrones de comportamiento de los usuarios e identificando anomalías en tiempo genuine. A diferencia de la tecnología blockchain, que es útil para auditar transacciones pasadas, la IA puede aprender y adaptarse a comportamientos potencialmente fraudulentos en tiempo authentic. Por ejemplo, los algoritmos avanzados de detección de IA pueden analizar los patrones de comportamiento de los usuarios e identificar anomalías, señalando actividades sospechosas que se desvían del uso regular. La IA puede filtrar rápidamente montañas de datos e identificar inconsistencias sutiles que a menudo escapan a la detección humana. Los modelos de aprendizaje automático y el análisis de comportamiento impulsado por IA permiten a la IA analizar interacciones de los usuarios, como patrones de movimiento del mouse y estilo de escritura, lo que puede agregar una capa adicional de verificación de identidad sobre la blockchain. La capacidad de la IA para monitorear y detectar fraudes de manera proactiva y la capacidad de la blockchain para autenticar la identidad del usuario y la validez de las transacciones es una combinación poderosa.
Es urgente desarrollar soluciones a medida que avanza la inteligencia artificial
Los delitos cibernéticos relacionados con las criptomonedas no hacen más que aumentar a medida que las falsificaciones de datos con inteligencia artificial se vuelven más creíbles y realistas. Sin embargo, frente a esta creciente amenaza, varias empresas emergentes han desarrollado herramientas de cadena de bloques centradas en la inteligencia synthetic para combatir el fraude y otras actividades ilícitas en la industria de los activos digitales.
Por ejemplo, BlockTrace y AnChain.AI son dos empresas que aprovechan las sinergias de la tecnología blockchain y la inteligencia artificial para combatir los delitos relacionados con las criptomonedas. BlockTrace, cuya misión es ayudar a los gobiernos y las empresas privadas a combatir los delitos financieros relacionados con las criptomonedas, se asoció recientemente con AnChain.AI, una empresa que utiliza las capacidades de la inteligencia artificial para combatir el fraude, las estafas y los delitos financieros en activos digitales. BlockTrace y AnChain.AI ofrecerán soluciones que permitirán a las agencias de seguridad nacional utilizar la inteligencia synthetic para investigar contratos inteligentes, realizar operaciones de inteligencia sobre transacciones blockchain y proporcionar información sobre ciberseguridad a los funcionarios de seguridad nacional.
La industria está a punto de utilizar plenamente el potencial de la IA y la cadena de bloques para combatir el fraude que permite la IA, y aún quedan muchos más avances por venir dada la vertiginosa velocidad a la que avanza la IA.