Pesquisar
Close this search box.
Como a inteligência artificial impacta a segurança cibernética
São esperados benefícios, mas também novas ameaças, sofisticação dos ataques e grandes prejuízos financeiros para as corporações
inteligência artificial, Como a inteligência artificial impacta a segurança cibernética, Capital Aberto
O ChatGPT poderia ser usado, facilmente, por um hacker para gerar uma mensagem de spear phishing personalizada | Imagem: Freepik

Imagine um bot de inteligência artificial (IA) ligar para um funcionário de contas a pagar e falar usando uma voz (deepfake) que soa como a do CEO da companhia. Depois de trocar algumas gentilezas, o CEO ordena ao funcionário que transfira milhares de reais para uma conta com determinado fim. O funcionário sabe que não deve fazer isso, mas um superior pode pedir exceções, não é? 


A Capital Aberto tem um curso online sobre Inteligência artificial para gestores. Dá uma olhada!


Pois, entre 2005 e 2006, em apenas 18 meses, o franco-israelense Gilbert Chikli convenceu grandes empresas francesas como La Poste, Galeries Lafayette, Disneyland Paris, Caisse d’Epargne, Yellow Pages, entre outras, a transferir-lhe milhões de euros. Utilizando apenas um telefone celular, ele imitava o timbre de voz do CEO das companhias para pedir a um funcionário que organizasse um pagamento.  

Em 25 de julho de 2005, Gilbert Chikli contatou Madame G., diretora de uma agência da Yellow Pages em Paris e, durante a conversa, passando-se pelo CEO, informou a Sra. G. que ela seria contatada em seu celular pessoal por “Paul”, um agente do serviço secreto com quem ela deveria cooperar. Foi o primeiro grande golpe de muitos que, segundo levantamentos, teriam superado 100 milhões de euros. Seus crimes foram se sofisticando. Com uma máscara em látex e o aplicativo de chamadas Skype, ele se passou por Jean-Yves Le Drian, à época ministro da Defesa da França, fazendo mais uma vítima.  

O que mais chama a atenção é que Chickli não utilizava tecnologias modernas, como a IA, para aplicar seus golpes.  Ele utilizava como principal tática a psicologia — a forma de pensar, agir e reagir das pessoas pelas quais se passava. “Você tem que pensar como eles e, quando você pensa como eles, age como eles”, destacou Chickli, em entrevista após sair da prisão.  

Hoje, isso é conhecido por engenharia social, cujas redes sociais permitem o acesso dos golpistas, com facilidade, ao estilo de vida, aos relacionamentos e hábitos dos seus alvos. Com a evolução exponencial da IA, cujos avanços dobram a cada 6 a 10 meses, temos um novo cenário. Os golpistas atuais têm à disposição tecnologia, utilizando IA, para emular a voz de qualquer pessoa em preços muito acessíveis. Com apenas 5 dólares qualquer um tem acesso a uma ferramenta capaz de clonar a voz de alguém.  

A relação entre IA e cibersegurança 

Não temos dúvida de que IA e cibersegurança estão entre os principais assuntos do momento em conselhos de administração e entre investidores e executivos C-level de corporações e governos. Desde arte e criatividade aplicadas à segurança cibernética, passando por proteção de dados e uso ético da tecnologia, a IA está conquistando a sociedade, mas trazendo inúmeros questionamentos.  

Para lidar com esse crescimento, é importante que as empresas mantenham os mais altos padrões de ciência, privacidade e práticas responsáveis ​​em seu setor de atuação. As influências externas, como desinformação e manipulação, podem se fortalecer, bem como a qualidade da falsificação de identidades, entre inúmeros outros tipos de golpes.  

A Microsoft, parceira da OpenAI, empresa criadora da ferramenta de IA generativa ChatGPT, anunciou que injetará bilhões de dólares na evolução da tecnologia, mas, ao mesmo tempo, dobrará o investimento em pesquisa e desenvolvimento em segurança cibernética para cifras na casa de 20 bilhões de dólares. 

Isso mostra que IA e segurança cibernética trilham caminhos de integração — e que a convivência entre ambas será inevitável. Resta saber os benefícios e riscos envolvidos.   

Como a IA poderá auxiliar na evolução da cibersegurança?   

De acordo com o National Institute of Standards and Technology (NIST) americano, as cinco funções do cybersecurity framework são: identificar, proteger, detectar, responder e recuperar.  

A capacidade de identificar ameaças cibernéticas tornou-se — e será — cada vez mais difícil. Quando integrados a algoritmos de aprendizado que utilizam IA, os sistemas de segurança poderão trazer vantagens significativas. Identificar as variantes de um malware, por exemplo, pode ser um desafio, especialmente quando enormes volumes de código o mascaram. No entanto, lidar com essa ameaça cibernética será mais fácil quando as soluções de segurança utilizarem mecanismos de IA que incluam bancos de dados de malwares existentes e a capacidade de detectar padrões para descobrir novos códigos maliciosos. 

Outro aspecto relevante é a resposta a incidentes. Uma das ações que as equipes de operações de segurança realizam é responder às ameaças cibernéticas bloqueando, por exemplo, o endereço IP de origem. Às vezes, esses endereços IP são obtidos de cabeçalhos de e-mail, através de ferramentas e plataformas de inteligência de ameaças. A IA poderá automatizar esse processo identificando, analisando e bloqueando endereços maliciosos confirmados. Isso pode melhorar muito a eficiência das equipes de operações.   

Com a utilização da IA, os sistemas de segurança cibernética poderão aprender com o tempo para ajudar a proteger indivíduos e organizações contra ameaças emergentes. Eles terão capacidade de reconhecer padrões, o que significa que esses sistemas serão capazes de detectar desvios de normas e padrões, respondendo adequadamente às ameaças. 

Que riscos a IA poderá trazer para a segurança das empresas?    

É importante ressaltar que a IA não irá gerar apenas benefícios para a segurança cibernética. A McKinsey recomenda que as organizações se concentrem em seis áreas de risco de IA, sendo elas: privacidade, segurança, justiça, desempenho, riscos de terceiros e transparência e explicabilidade. 

Um dos maiores desafios são os hackers que já estão utilizando essas soluções para desenvolver ameaças cibernéticas mais sofisticadas, como e-mails de phishing realistas, implantar malwares ou criar vídeos deepfake convincentes, e até se utilizar de equipamentos de IOT (como veículos, equipamentos médicos ligados em rede, entre outros) com possibilidade, inclusive, de danos físicos para seus usuários. 

O ChatGPT, por exemplo, poderia ser usado, facilmente, por um hacker para gerar uma mensagem de spear phishing personalizada com base nos materiais de marketing da empresa e em e-mails comuns do dia a dia. Ele consegue enganar as pessoas que foram bem treinadas em reconhecimento de e-mails fraudulentos, porque não se parecerá com as mensagens que elas foram treinadas a detectar. 

Outro risco significativo é o envenenamento de dados. Os modelos dependem de dados para aprender e tomar decisões. Se os invasores manipularem os dados usados ​​para treinar os sistemas de IA, eles poderão manipular a saída do sistema. Isso pode ser particularmente perigoso em sistemas críticos, como os usados ​​em saúde ou transporte, nos quais decisões incorretas podem ter consequências graves. Na mesma linha, os invasores podem tentar roubar ou manipular esses dados para fins espúrios, como roubo de identidade ou espionagem corporativa. 

Casos reais mostram que o esperado para o futuro já está sendo utilizado  

Como citado acima, temos diversos casos que utilizaram a ferramenta de emulação de voz no Brasil. Um pai recebeu uma ligação do filho pedindo ajuda para o pagamento urgente de uma fatura. Do outro lado da linha, utilizando um número desconhecido, o golpista pedia uma transferência rápida de 600 reais para a conta de um amigo, após a suposta perda do celular. Um golpe comum, com uma grande diferença: ele ouvia o timbre de voz do filho do outro lado da linha, que teve a voz emulada, através de IA.  

Outro episódio ocorreu num projeto de blockchain da Harvest Keeper, plataforma de negociação de criptos baseada em IA acusada de aplicar um golpe de quase 1 milhão de dólares em seus usuários. O bot de negociação da Harvest Keeper utiliza IA para, segundo a companhia, eliminar completamente o fator humano na negociação: funciona 24 horas por dia, analisa padrões, riscos, incidentes e fatores associados a experiências passadas com a ajuda de algoritmos, bem como fornece tomada de decisão apenas a partir de dados objetivos, excluindo suposições e hipóteses. O ataque, que aconteceu no dia 17 de março de 2023, foi atribuído à equipe da Harvest Keeper pelos principais meios de comunicação de criptomoedas. Uma das técnicas usadas foi um ataque de “phishing de gelo”, induzindo os clientes a interagirem e assinarem um contrato inteligente fraudulento, permitindo o roubo. 

Alguns especialistas em cibersegurança descreveram, recentemente, o potencial perigoso do ChatGPT e sua capacidade de criar um malware polimórfico que seria quase impossível de identificar usando detecção e resposta de endpoint (EDR). EDR é um tipo de técnica de segurança cibernética que pode ser implantada para capturar software malicioso. No entanto, os especialistas sugerem que esse protocolo tradicional não é páreo para o dano potencial causado pelo ChatGPT. O código que pode sofrer mutações — é aqui que entra o termo polimórfico — tende a ser muito mais difícil de detectar. A maioria dos modelos de aprendizado de idiomas, como o ChatGPT, é projetada com filtros para evitar a geração de conteúdo impróprio, conforme considerado por seus criadores. Isso pode variar de tópicos específicos a, neste caso, código malicioso. No entanto, não demorou muito para que os usuários encontrassem maneiras de burlar esses filtros. É essa tática que torna o ChatGPT particularmente vulnerável a indivíduos que procuram criar scripts nocivos. 

Portanto, o que era apenas teoria e futuro virou, rapidamente, uma prática atual. 

Que evolução esperar?    

Em recente evento da Dell em Las Vegas, um dos maiores golpistas da história dos Estados Unidos, Frank Abagnale Jr, que teve a sua vida retratada no filme Prenda-me se for capaz e que hoje é consultor do FBI e palestrante sobre segurança da informação, deixou bastante claro: “O que eu fiz há 40 anos hoje está muito mais fácil de se fazer por conta das tecnologias existentes. Não apenas do ponto de vista de tecnologia, mas, especialmente, das pessoas. A engenharia social é uma realidade e não vai mudar. Os cibercriminosos vão usar a IA. Ela será do mal”. Abagnale Jr. recomendou às empresas que, apesar de o momento econômico global ser complicado, com dinheiro escasso e orçamentos reduzidos, as empresas devem aumentar os investimentos em segurança da informação. 

À medida que as tecnologias de IA avançarem, os benefícios que elas oferecerão serão significativos. No entanto, é igualmente importante o equilíbrio, reconhecendo e abordando os riscos potenciais que acompanharão o seu uso crescente. 

Para mitigar esses riscos é crucial priorizar, por um lado, o desenvolvimento de sistemas seguros para se utilizar dessas técnicas de IA, incluindo a incorporação de proteções robustas, como: criptografia de dados, controles de acesso seguro, monitoramento contínuo de ameaças, bem como aplicar modernos conceitos como passwordless e zero trust e, de outro, incorporar a IA nas estratégias e soluções de cibersegurança.  

Ao projetar sistemas de IA utilizando conceitos de cibersegurança e de privacy by design, desde a concepção, as organizações poderão minimizar a probabilidade de ataques cibernéticos e proteger informações confidenciais e dados pessoais. Em última análise, priorizar o desenvolvimento de sistemas cada vez mais seguros pode ajudar a garantir que os benefícios dessa tecnologia sejam totalmente aproveitados sem comprometer a segurança ou a privacidade. 

Mas ainda há uma assimetria de informação entre os profissionais de tecnologia e os gestores e conselheiros das empresas, que precisam ter um entendimento completo sobre os riscos cibernéticos. A cibersegurança não é mais um problema das áreas técnicas, mas, sim, corporativo.  

Os riscos da IA ​​ainda estão surgindo. É assim com todas as tecnologias que consideramos “novas” na última década, desde big data e nuvem até computação quântica, entre outras. Abraçar a tecnologia exige aceitar o risco e buscar a sua mitigação com ações adequadas, seguindo as melhores práticas e políticas de segurança de classe mundial. 

Com o tempo, essa tecnologia vai permear todos os setores da economia e precisaremos acompanhar e aprender mais sobre os riscos e como criar um ambiente com a transparência desejada, que privilegie o uso ético e responsável da IA, sem renunciar à segurança cibernética. Esta é uma fronteira diversa e dinâmica, repleta de novos desafios e consequências inimagináveis no futuro. 

A regulação da IA no Brasil e no mundo  

A Europa acabou de aprovar, em junho de 2023, o texto base do AI ACT, primeira regulação de IA do mundo. Em um modelo baseado em risco, a partir da compreensão de quais os potenciais danos que esse tipo de tecnologia pode trazer para as pessoas, grupos ou mesmo para a sociedade, o documento traz uma classificação de baixo e alto risco e alguns tipos inaceitáveis (como biometria em tempo real para identificação de pessoas e score social). As soluções classificadas como de alto risco terão uma série de obrigações relacionadas a transparência, auditabilidade, responsabilidade — e, também, à segurança e à robustez dos sistemas. 

Nos Estados Unidos, o tema faz parte da agenda presidencial. A Casa Branca lançou o Blueprint for an AI Bill of Rights, publicando os seus princípios sobre o tema, especialmente sobre segurança e efetividade dos sistemas, proteção contra sistemas discriminatórios, proteção de dados, transparência e explicabilidade. 

No mesmo sentido, o Reino Unido vem se destacando no tema e publicou, recentemente, um white paper com sua abordagem à regulamentação da IA, possibilitando comentários das partes interessadas. Seguindo os mesmos parâmetros da regulação europeia e do modelo americano, propõe um conjunto de princípios abrangentes de regulamentação (segurança, proteção e robustez; transparência e explicabilidade; justiça; responsabilidade e governança; e contestabilidade e reparação), mas com uma postura mais prescritiva, tentando equalizar as obrigações regulatórias com o incentivo à inovação. O primeiro-ministro Rishi Sunak, inclusive, anunciou que o Reino Unido sediará uma cúpula global sobre a regulamentação da IA ​​no outono deste ano, para discutir padrões internacionais e parâmetros de desenvolvimento, transparência e auditabilidade.  

O tema também tem sido recorrente em discussões na ONU, na OCDE e no G7, que recentemente colocou o assunto como central nas discussões entre os países membros.  

Nesse ritmo frenético de desenvolvimento da tecnologia, assistimos a apelos não apenas de políticos, mas também de figuras importantes da indústria e acadêmicos, para implementar padrões regulatórios robustos a fim de mitigar rapidamente os riscos da IA. Em 29 de março deste ano, mais de mil pesquisadores, especialistas e executivos do setor de tecnologia, entre eles Elon Musk (CEO da Tesla) e Steve Wozniak (cofundador da Apple), pediram em carta aberta uma pausa de seis meses no desenvolvimento das novas ferramentas de inteligência artificial, chamando a situação atual de “perigosa” corrida armamentista. Diferentemente de discursos meramente alarmistas, entretanto, precisamos trabalhar para estabelecer boas práticas e diretrizes regulatórias que nos permitam usufruir de todos os benefícios dessas tecnologias, compreender e mitigar os riscos envolvidos. Devemos buscar um equilíbrio entre a proteção dos direitos e dos efeitos negativos sobre as pessoas e na sociedade com os benefícios para os diferentes setores e atividades econômicas.  

No Brasil, está em tramitação no Senado o PL 2238/23, que é nosso Marco Legal da Inteligência Artificial no Brasil. Ele é baseado no trabalho de uma comissão de juristas que analisou, ao longo de 2022, outras propostas relacionadas ao assunto, além da legislação já existente em diversos países. Seguindo as diretrizes europeias em seu escopo geral, o texto acrescenta uma lógica mais aprofundada sobre os direitos para as pessoas afetadas por seu funcionamento, inclusive no caso de mau uso ou de ataques ou fraudes ocasionadas por meio dessa tecnologia. Também define critérios para o uso desses sistemas pelo poder público, prevendo punições para as eventuais violações à lei e atribuindo ao Poder Executivo a prerrogativa de decidir que órgão irá zelar pela fiscalização e a regulamentação do setor. Violações das regras previstas poderão acarretar em multas de até 50 milhões de reais por infração ou até 2% do faturamento, no caso de empresas. Outras punições possíveis são a proibição de participar dos ambientes regulatórios experimentais e a suspensão temporária ou definitiva do sistema. 

Ainda não há nada definido — e as discussões políticas, acadêmicas e técnicas estão a todo vapor. Mas já sabemos que existem benefícios e, ao mesmo tempo, riscos elevados, e que é preciso integrar todos os setores das organizações para a implantação de programas de governança e risco, a fim de se estabelecer boas práticas e acompanhar de perto as discussões regulatórias para a utilização dessa tecnologia por meio de projetos sustentáveis. 

A aceleração do cibercrime global  

Nos últimos anos, houve um aumento significativo na frequência de incidentes cibernéticos, com aceleração crescente do nível de risco a partir de 2018. O total de casos cresceu de 1,6% em 2013 para 3,5% em 2021 — uma taxa de evolução anual (CAGR) de 37%. 

Os riscos cibernéticos estão disparando. O último relatório de violação de dados da IBM revelou que 83% das organizações sofreram mais de um incidente durante 2022. De acordo com o relatório de investigações de violação de dados da Verizon de 2022, o número total de ataques de ransomware aumentou 13% — crescimento igual ao dos últimos cinco anos combinados. 

Atualmente, os crimes cibernéticos custam à economia mundial mais de 1 trilhão de dólares por ano, o que representa cerca de 1% do PIB global. Em casos de violações de dados, os custos médios atingem recordes históricos, partindo do valor médio de 4,35 milhões de dólares em 2022 para a perspectiva de ultrapassar 5 milhões de dólares em 2023.  

O Brasil apareceu em 2022 como segundo país mais atingido da América Latina. São mais de 103 bilhões de tentativas de ataques cibernéticos, um aumento de 16% com relação a 2021. O país ficou atrás apenas do México, com 187 bilhões. 

*Alexandre Vasconcelos é diretor para a América Latina do Security Design Lab (SDL), laboratório francês com atuação no Brasil que tem como proposta gerar discussões, experiências e disseminar conhecimentos para auxiliar as empresas e os governos a melhorar seus níveis de cibersegurança. 

*Alexandre Zavaglia Coelho é advogado especializado em direito e tecnologia e um dos pioneiros em projetos de ciência de dados na área do direito, uso de técnicas de inteligência artificial e projetos de ethics by design. Mestre em Direito e doutorando em Tecnologia da Inteligência e Design Digital pelo TIDD PUCSP, é presidente da comissão de Direito, Inovação e Tecnologia do IASP, coordenador executivo do Grupo de Pesquisas de Governança de Dados e Regulação de Inteligência Artificial do Centro de Educação e Pesquisa em Inovação da FGV Direito SP (Cepi).

Matérias relacionadas 

Freio à corrida descontrolada por mentes digitais se opõe à sede dos investidores

Inteligência artificial: o admirável novo saber

Testes com IA apontam para uma nova relação entre clientes e gestores de ativos financeiros


Para continuar lendo, cadastre-se!
E ganhe acesso gratuito
a 3 conteúdos mensalmente.


Ou assine a partir de R$ 34,40/mês!
Você terá acesso permanente
e ilimitado ao portal, além de descontos
especiais em cursos e webinars.


Você está lendo {{count_online}} de {{limit_online}} matérias gratuitas por mês

Você atingiu o limite de {{limit_online}} matérias gratuitas por mês.

Faça agora uma assinatura e tenha acesso ao melhor conteúdo sobre mercado de capitais


Ja é assinante? Clique aqui

mais
conteúdos

APROVEITE!

Adquira a Assinatura Superior por apenas R$ 0,90 no primeiro mês e tenha acesso ilimitado aos conteúdos no portal e no App.

Use o cupom 90centavos no carrinho.

A partir do 2º mês a parcela será de R$ 48,00.
Você pode cancelar a sua assinatura a qualquer momento.