Arnaques à l’intelligence artificielle: fique vigilante!
Os avanços tecnológicos na área da inteligência artificial (IA) permitem a criação de ferramentas e serviços úteis aos utilizadores. No entanto, os piratas informáticos lucram também com essas inovações para colocar no lugar de todos os dias mais elaborados. Neste artigo, revisaremos alguns anaques auxquelles aos quais você deve prestar atenção e comentaremos que você pode evitar.
Arnaque aux sentiments usando ChatGPT
Os piratas informáticos exploraram o ChatGPT, uma IA desenvolvida pela OpenAI, para gerar mensagens de amor e ganhar a confiança das vítimas. A última coisa é persuadir esses últimos a comprar criptomoedas e baixar um aplicativo gratuito que desembolsa as moedas virtuosas. Para se proteger contra esta armadilha, é essencial fazer cautela na comunicação com o desconhecimento on-line e verificar atentamente todas as demandas de compra de criptomoedas ou de download de aplicativos suspeitos.
O caso do WormGPT
WormGPT é a versão não censurada do ChatGPT que permite notamment realizar páginas de phishing, escrever textos fraudulentos para faire du engenharia social (persuader quelqu’un à faire une action) e mesmo programar programas maliciosos. Como o ChatGPT se recusará a enviar um e-mail de phishing, o WormGPT será executado sem broncher e, além disso, será muito conveniente.
Telegrama
Sites falsos e mensagens de alerta falsas sobre novas carteiras de motorista
A mise en place du nouveau permite que você dirija plastificado para criar uma oportunidade para os escrocs de lancer de nouvelles arnaques vistosnt à vous soutirer de l’argent ou voler vos données. Méfiez-vous de ameaças de alterações, de sites falsos e de falsas mensagens de alerta sobre sua carteira de motorista. Esteja ciente de que há sinais de fraude em um site e não forneça informações pessoais ou bancárias em um site que não seja seguro para você.
Códigos de cartões bancários vulneráveis
Para proteger a sua conta bancária, é crucial escolher um código de cartão bancário robusto e mantê-lo em segredo. Certos códigos são mais vulneráveis que outros e os piratas informáticos conhecem as combinações dos mais perigosos que são essenciais em prioridade. Para criar um código mais robusto, evite usar datas de nascimento, números de telefone ou sequência de números claros como 1234 ou 1111. Use uma mistura aleatória de números para criar um código difícil de se tornar. Mude o código regularmente, principalmente se você achar que é necessário aprender. Não observe seu código em um pedaço de papel ou em seu telefone.
My AI, o novo amigo incrível do Snapchat
Um outro robô conversacional baseado no ChatGPT, chamado My AI, é imposto ao universo Snapchat para todos os usuários, e compra crianças e adolescentes. Este robô conversa com eu e ele me dá conselhos sobre como viver e gerenciar suas emoções. Apesar de ser mais imposto e impossível de suprimir, My AI coleta muitas informações. Os pais devem estar conscientes desta situação e discutir com seus filhos sobre a importância de proteger seus dons pessoais e de fazer preuve de prudência quando interagindo com robôs ou desconhecimento on-line.
Arnaques liées aux voix imita
Os logiciels como onzelabs são capazes de imitar com perfeição a voz da quantidade que está aqui! Basta apenas alguns minutos para extrair o áudio de uma pessoa para replicar com perfeição a sua voz. Du golpe, os arnaques se multiplicam e em um pu constér des cas où des pais pensaient avoir seu filho ao telefone que parece en grande dificuldade et qui réclamait de l’aide alors qu’en fait il s’agissait d’un arnaqueur qui cherchait à leur soutirer de l’argent.
Em conclusão, os anaques à l’intelligence artificielle são mais sofisticados e mais sofisticados e os piratas informáticos não precisam de inovação para tromper suas vítimas. É crucial permanecer vigilante e informado para proteger seus dados, seu dinheiro e sua vida privada diante dessas ameaças. Não hesite em compartilhar este artigo com você perto de sensibilizar os riscos, liés aux arnaques à IA e ajudá-los a proteger a eficácia.