Desde a introdução do ChatGPT a nova inteligência artificial tem sido um grande tópico de discussão nas salas de reuniões de todo o mundo. Na segurança cibernética a IA pode aumentar a eficiência, melhorar a detecção de ameaças e reduzir o tempo de resposta a incidentes. Mas também pode abrir uma caixa de pandora de riscos, dificultando a decisão sobre quais usos, se houver, são melhores para sua organização.
Recentemente, um caso chocante de fraude cibernética veio à tona, destacando os perigos iminentes que as empresas enfrentam no mundo digital. Um diretor financeiro confiante em uma reunião virtual, transferiu a quantia impressionante de US$ 25,6 milhões (o equivalente a R$ 127 milhões) para criminosos, tudo isso graças a um deepfake convincente, uma técnica na qual uma inteligência artificial cria vídeos falsos extremamente realistas. Esse incidente serve de alerta inegável sobre a urgência de elevar a governança corporativa de tecnologia e fortalecer as defesas contra crimes cibernéticos.
A crescente sofisticação das técnicas de fraude cibernética exige que as empresas adotem medidas proativas para proteger seus ativos e reputação. Aqui estão algumas considerações essenciais que devem ser tomadas para proteção dos negócios:
-
conscientização sobre deepfakes e outras ameaças tecnológicas;
-
aplicar secure-by-design para reforçar a segurança cibernética (desde o início do uso de soluções com IA);
-
desenvolvimento de políticas e procedimentos claros; e
-
parceria com consultorias especializadas.
Entre em contato com nossa equipe de profissionais de tecnologia da PP&C e entenda como podemos ajudar na sofisticação das práticas de tecnologia e elevação da governança para evitar que haja problemas semelhantes em sua organização. Contatos: ppc@ppc.com.br ou 55 11 3883-1600.
Artigo escrito por Fabricio Liani, Diretor de IT Advisory Services da PP&C Auditores Independentes ().