La popularité de l'intelligence artificielle (IA) est une épée à double tranchant. Comme tout Technologie disruptive L'intelligence artificielle offre un potentiel énorme, mais aussi des risques dévastateurs. Malgré la poussée certaine pour réglementer l'IA, il semble que les acteurs de la menace aient pu tirer parti des diverses techniques devenues disponibles pour semer la panique et cibler les utilisateurs sans méfiance.
Un nouveau chatbot de style ChatGPT, surnommé FraudGPT, gagne du terrain parmi les cybercriminels, leur permettant d'automatiser et d'exécuter une grande partie des escroqueries standard. N'importe qui peut devenir une victime, il est donc important de rester informé.
FraudGPT peut être utilisé à diverses fins malveillantes, notamment la diffusion de fausses nouvelles et l'incitation à la violence. Il peut également être utilisé pour voler des informations personnelles ou frauder des personnes. Voici tout ce que nous savons sur FraudGPT jusqu'à présent. Vérifier Pourquoi ne pas faire confiance à ChatGPT pour partager des informations confidentielles avec lui.
Liens rapides
Qu'est-ce que FraudGPT ?
FraudGPT est un outil d'IA alimenté par un grand modèle de langage affiné pour aider les cybercriminels à commettre des cybercrimes. Un chatbot basé sur un abonnement permet aux acteurs de la menace de faciliter leurs activités criminelles telles que la création de fausses cartes, le phishing et la création de logiciels malveillants.
Bien que les détails sur le chatbot soient encore très limités, les chercheurs de l'entreprise Netenrich Inc., une société de recherche en sécurité, a publié plusieurs publicités sur le dark web annonçant ce modèle. Selon un rapport de recherche de Netenrich, les frais d'abonnement varient de 200 $ par mois à 1700 XNUMX $ par an.
Pour mieux visualiser l'outil, vous pouvez considérer FraudGPT comme ChatGPT mais dédié à fournir diverses informations liées à la fraude. Mais comment fonctionne exactement FraudGPT et comment les cybercriminels l'utilisent-ils ?
Comment fonctionne FraudGPT ?
En substance, FraudGPT n'est pas très différent de tout modèle alimenté par LLM. En d'autres termes, le formulaire lui-même est une interface interactive permettant aux criminels d'accéder à un type spécial de formulaire linguistique adapté à la cybercriminalité.
Vous ne savez toujours pas ce que cela signifie ? Voici une idée approximative de ce dont nous parlons. Au début de ChatGPT, un chatbot IA pouvait être utilisé pour faire à peu près n'importe quoi, y compris aider les cybercriminels à créer des logiciels malveillants. Cela a été possible parce que le modèle de langage de base de ChatGPT a été formé sur un ensemble de données qui contenait probablement des échantillons d'un large éventail de données, y compris des données qui pourraient aider une entreprise criminelle.
Les grands modèles de langage sont généralement alimentés de tout, des bonnes choses, comme les théories scientifiques, les informations sur la santé et la politique, aux données moins bonnes, comme les échantillons de codes de logiciels malveillants, les messages des campagnes d'ingénierie sociale et de phishing, et d'autres éléments criminels. Lorsqu'il s'agit du type d'ensembles de données nécessaires pour former des modèles de langage tels que celui qui prend en charge ChatGPT, il est presque inévitable que le modèle contienne des échantillons de spam.
Malgré des efforts généralement prudents pour éliminer les éléments indésirables de l'ensemble de données, certains s'insinuent, et cela suffit généralement à donner au modèle la capacité de générer des éléments destinés à faciliter la cybercriminalité. C'est pourquoi, avec une ingénierie agile appropriée, vous pouvez tirer parti d'outils tels que ChatGPT, Google Gemini et Bing AI pour vous aider à rédiger des e-mails de phishing ou des logiciels malveillants informatiques.
Si des outils comme ChatGPT peuvent aider les cybercriminels à commettre des crimes malgré tous les efforts déployés pour sécuriser ces chatbots intelligents, considérez maintenant la puissance qu'un outil comme FraudGPT peut fournir, étant donné qu'il a été spécifiquement alimenté avec tant de matériaux nuisibles pour les rendre adaptés à la cybercriminalité. . C'est comme si le jumeau maléfique de ChatGPT était renforcé.
Par conséquent, pour utiliser un chatbot, les criminels ne peuvent le réclamer que comme ils le feraient avec ChatGPT. Ils pourraient, par exemple, lui demander d'écrire un e-mail de phishing à Jane Doe, qui travaille chez ABC Corporation, ou ils pourraient lui demander d'écrire un logiciel malveillant en utilisant C++ pour voler tous les PDF d'un ordinateur Windows 10. Fondamentalement, les criminels saisiraient une invite Wicked et laissez le chatbot faire le gros du travail. Vérifier ChatGPT va-t-il devenir une menace pour la cybersécurité ? Voici ce qu'il faut surveiller.
Comment pouvez-vous vous protéger contre la fraude?
Bien qu'il s'agisse d'un nouveau type d'outil, la menace posée par FraudGPT n'est pas fondamentalement différente. On pourrait dire que cela apporte plus d'automatisation et d'efficacité aux moyens déjà établis de mener à bien la cybercriminalité.
Les criminels qui utilisent ce modèle seraient, du moins en théorie, en mesure d'écrire des e-mails de phishing plus convaincants, de planifier de meilleures escroqueries et de créer des logiciels malveillants plus efficaces, mais ils s'appuient encore souvent sur des méthodes établies pour mener à bien leurs plans infâmes. Par conséquent, les moyens établis pour vous protéger s'appliquent toujours :
- Méfiez-vous des spams vous demandant des informations ou vous invitant à cliquer sur des liens. Ne fournissez pas d'informations ou ne cliquez pas sur les liens dans ces messages à moins d'avoir vérifié la source.
- Contactez directement les entreprises en utilisant un numéro indépendant qui a été vérifié pour garantir leur légitimité. N'utilisez pas les coordonnées fournies dans les messages suspects.
- Utilisez des mots de passe forts et uniques difficiles à déchiffrer et adoptez une authentification à deux facteurs lorsqu'elle est disponible pour tous les comptes. Ne partagez jamais les mots de passe ou les codes qui vous sont envoyés.
- Vérifiez régulièrement les relevés de compte pour toute activité suspecte.
- Maintenez les applications à jour et utilisez des outils antivirus ou anti-malware.
- Déchiquetez les documents contenant des informations personnellement identifiables ou financières lorsque vous n'en avez pas besoin.
Pour en savoir plus sur la façon de vous protéger, lisez notre guide sur Comment se protéger à l'ère de l'intelligence artificielle.
Restez informé pour vous protéger
L'émergence d'outils comme FraudGPT nous rappelle que malgré tous les avantages que l'IA peut nous offrir, elle reste un outil très puissant entre les mains des acteurs de la menace.
Alors que les gouvernements et les grandes entreprises d'IA sont dans une course effrénée pour adopter de meilleures façons de réglementer l'IA, il est important d'être conscient de la menace que l'IA représente actuellement et de prendre des précautions pour vous protéger. Vous pouvez voir maintenant Intelligence artificielle et risques pour la vie privée : protéger vos données dans un monde automatisé.