O impacto da IA de código aberto no hacking: a perspectiva do FBI
De acordo com o FBI (Federal Bureau of Investigation), os hackers estão cada vez mais usando modelos de IA de código aberto para melhorar suas ferramentas e enganar os usuários da Internet em suas atividades ilícitas.
Uso de IA por cibercriminosos
Os hackers descobriram que, ao usar chatbots baseados em modelos de linguagem como ChatGPT, Google Bard ou Claude, podem facilitar as suas atividades maliciosas. Eles manipulam a IA para que ela contorne as medidas e restrições de segurança estabelecidas pelos criadores dessas ferramentas.
O FBI alertou sobre o uso massivo de modelos de linguagem pela comunidade criminosa, embora tenha notado que os modelos de IA mais populares entre os utilizadores da Internet, como o GPT, não são preferidos pelos hackers.
Modelos de código aberto, uma ferramenta preferida para hackers
Os hackers preferem usar modelos de IA de código aberto gratuitos e personalizáveis, em vez daqueles controlados por empresas. Esses modelos acessíveis na internet podem ser facilmente utilizados para gerar conteúdo ilícito e são mais leves e exigem menos poder computacional do que grandes modelos desenvolvidos por empresas como Google ou OpenAI.
Além disso, os cibercriminosos utilizam modelos personalizados de IA desenvolvidos por outros hackers, como WormGPT e FraudGPT, projetados para atividades criminosas como phishing, ransomware, entre outras. Esses chatbots são vendidos a preços elevados na dark web.
As diferentes maneiras pelas quais os cibercriminosos usam IA
Os hackers usam IA para projetar páginas de phishing, criar vírus polimórficos e usar tecnologia deepfake para extorquir dinheiro de suas vítimas. Eles também empregam IA de clonagem vocal para manipular suas vítimas pelo telefone.
O futuro da IA e do hacking
É provável que os criminosos continuem a utilizar a IA para melhorar as suas atividades ilícitas à medida que esta tecnologia se torna democratizada. O FBI considera a IA uma prioridade nacional e é essencial desenvolver estratégias de prevenção e proteção para combater o seu uso malicioso por hackers.
É necessário proteger modelos de IA de código aberto e implementar medidas de segurança mais rigorosas para evitar a manipulação. Apesar do seu potencial benefício em diferentes áreas, é crucial garantir a utilização responsável e ética da IA.
Fonte: Garon