Elliptic revela que o futuro dos crimes cripto é baseado em IA

Gabriel Gomes
| 3 min read

crimes cripto

Um relatório da Elliptic expôs o aumento de crimes cripto com uso de inteligência artificial (IA). Isso marca uma nova era de ameaças cibernéticas, exploradas para golpes deepfake, ataques patrocinados pelo estado e outras atividades ilícitas sofisticadas.

O relatório credita à IA o impulso de inovações benéficas significativas em muitos setores, incluindo o setor de criptomoedas de IA. Esta inovação deu origem a muitos projetos destinados a redefinir o cenário da criptomoeda de IA.

No entanto, como acontece com qualquer tecnologia emergente, continua a existir o risco de pessoas mal intencionadas tentarem explorar novos desenvolvimentos para fins ilícitos.

Como resultado, a Elliptic apela a uma revisão dos sinais de alerta precoce de atividades ilegais para garantir a inovação a longo prazo e mitigar os riscos emergentes nas suas fases iniciais.

Deepfake de celebridades, líderes e CEOs


A Elliptic destacou o uso e distribuição de deepfakes e material gerado por IA para anunciar fraudes cripto.

Os vídeos deepfake frequentemente exploram a imagem de figuras influentes como Elon Musk e o ex-primeiro-ministro de Singapura, Lee Hsien Loong, para assim promover esquemas de investimento fraudulentos.

deepfakes

Os vídeos implicam falsamente que o projeto tem apoio legítimo ou oficial – legitimando-o assim entre potenciais vítimas.

Estamos vendo inclusive golpes em escala industrial, como golpes de “abate de porcos” e românticos, que envolvem a manutenção de comunicação extensa e prolongada com as vítimas durante todo o processo de golpe.

A Elliptic também relatou casos de tecnologia deepfake se passando por executivos de alto nível durante reuniões online. Isto explora a posição da figura para potencialmente autorizar grandes transações, impactando tanto os setores corporativos quanto os de criptomoedas

Mercados ilícitos aprimorados por IA


Ferramentas como ChatGPT podem ser usadas para gerar ou verificar códigos. As possíveis implicações disso são relevantes para a indústria cripto, facilitando o crime cibernético ao identificar vulnerabilidades em grande escala.

Os aplicativos cripto descentralizados geralmente usam código-fonte aberto, como contratos inteligentes, o que os torna vulneráveis ​​a hacks. Mas ascensão da auditoria DeFi contraria esses riscos.

No entanto, embora a IA possa simplificar as auditorias de contratos inteligentes, os auditores alertam sobre as capacidades atuais. Existe a preocupação de que a IA possa ser usada por hackers para identificar rapidamente vulnerabilidades em protocolos DeFi.

Os fóruns da dark web exploram grandes modelos de linguagem (LLMs) para crimes cripto. Isso inclui frases iniciais de carteira de engenharia reversa e fraudes automatizadas, como phishing e implantação de malware.

Aliás, os mercados da dark web oferecem versões “antiéticas” de GPTs projetadas para crimes cripto de IA. Essas ferramentas visam evitar a detecção por GPTs legítimos.

Só para exemplificar, o WormGPT, o autodenominado “inimigo do ChatGPT”, foi mencionado no relatório. Ele apresenta-se como uma ferramenta que “transcende os limites da legalidade”. Ademais, se promove abertamente por facilitar a criação de e-mails de phishing, carding, malware e geração de código malicioso.

Estados Unidos alertam sobre crimes cripto de IA


As Nações Unidas atribuem mais de 60 roubos de criptomoedas a atores estatais norte-coreanos, totalizando mais de US$ 3 bilhões roubados de 2017 a 2023. A Elliptic citou relatórios indicando que eles estão explorando a IA para aprimorar as capacidades de hacking.

De acordo com o relatório, Anne Neuberger, Conselheira Adjunta de Segurança Nacional dos EUA para Tecnologias Cibernéticas e Emergentes, também abordou as preocupações crescentes sobre a criminalidade da IA.

“Alguns agentes norte-coreanos e outros estados-nação e criminosos foram observados tentando usar modelos de IA para acelerar a criação de software malicioso e identificar sistemas vulneráveis.”

O relatório destacou o avanço da Coreia do Norte na investigação de IA desde 2013, concentrando-se em aplicações como reconhecimento facial e potenciais utilizações militares. A Universidade Kim Il Sung desempenha um papel no desenvolvimento de programas de IA, colaborando com entidades chinesas nesta área.

A Elliptic não encontrou evidências de atores estatais hostis usando IA diretamente em blockchains, mas esses grupos estão testando grandes modelos de linguagem (LLMs) para aprimorar suas habilidades de hacking.