L '«intelligence artificielle sombre» devient-elle la menace la plus dangereuse pour la cybersécurité?
À l'intersection de l'intelligence artificielle et de la cybersécurité, un nouveau champ de bataille est mis en évidence dans lequel le risque est accéléré: ce que l'on appelle "l'intelligence artificielle sombre". Avec l'augmentation de la force des outils d'intelligence artificielle et un accès facile à eux, ces technologies ne sont plus un monopole sur les développeurs ou les chercheurs, mais sont devenues accessibles aux criminels Internet qui les ont utilisés pour automatiser, élargir leur portée et les allouer sans précédent.
Ce changement a été au cœur des avertissements des experts de "Kaspersky", lors de leur participation au "Week-end de la cybersécurité 2025" qui s'est tenu récemment sur l'île thaïlandaise de Bukit, où ils ont discuté avec le "Moyen-Orient" les caractéristiques de la prochaine étape des cyber-menaces provoquée par l'intelligence artificielle.
L'intelligence artificielle a toujours représenté des transformations radicales dans divers secteurs des soins de santé et de l'éducation au monde du financement et des services logistiques. Mais comme tout outil puissant, son utilisation reste dépendante des intentions: elle peut être un catalyseur d'innovation, ou un moyen efficace entre les mains de ceux qui cherchent à nuire.
Alexei Antonov, capitaine de l'équipe Caspersky Caspervis -i Intelligence Technology, a déclaré que les attaquants professionnels ont déjà commencé à exploiter l'intelligence artificielle pour améliorer leurs outils. Mais il met en garde contre la prochaine étape: "Le vrai danger apparaîtra lorsque les non-professionnels pourront facilement utiliser ces modèles."
Sergey Logkin, chef de la grande équipe de recherche et d'analyse (grande) à Kaspersky, explique, expliquant que "l'intelligence artificielle à l'heure actuelle nécessite encore une intervention humaine pour formuler des logiciels malveillants efficaces, mais cette situation ne durera pas longtemps".
Antonov sépare la scène technique actuelle, affirmant que les modèles intelligents peuvent produire aujourd'hui des codes malveillants, mais ils ont toujours besoin d'une modification manuelle pour contourner les systèmes de protection. Alors que Logkin affirme que le "code" résultant a généralement besoin "de" correction et d'amélioration humaine pour atteindre ses objectifs ", mais les deux experts conviennent que le futur proche assistera à l'émergence de modèles capables de produire des logiciels malveillants automatiques, sans intervention humaine louée.
Sergey Logkin, chef de la grande équipe de recherche et d'analyse (grande) dans "Kaspersky", s'exprimant pendant la conférence (Kaspersky)
Antonov et Lugkin ont tous deux fourni un concept inquiétant de ce qui est connu sous le nom de "Intelligence artificielle sombre", qui sont d'énormes modèles linguistiques qui sont développés ou modifiés par des criminels Internet, loin de toute restriction morale ou contrôle de sécurité. Antonov décrit ces modèles comme "conçus par des criminels ... pour les criminels". En ce qui concerne la connexion, la question est détaillée en disant: «Si vous essayez d'utiliser un modèle d'intelligence artificielle légitime pour créer un logiciel malveillant, il refusera. Quant à l'intelligence artificielle sombre, elle ne fixera aucune limite et tous les messages qu'il faut pour être convaincants aux copies de sites Web célèbres.
Vraie arme d'intelligence artificielleBien que l'objectif des médias se concentre souvent sur les capacités créatives de l'intelligence artificielle, la véritable menace réside dans sa vitesse et sa capacité à se développer. Dans le passé, les attaquants ont dû réécrire manuellement les codes pour surmonter les systèmes de protection après sa découverte. Aujourd'hui, il suffit à l'attaquant d'entrer dans une question simple, telle que «la rendre inconfortable», afin que l'intelligence artificielle fasse le reste.
Logkin explique que ce développement accélère considérablement des cours de production de logiciels malveillants, où l'intelligence artificielle peut ajuster les structures logicielles existantes et ajouter de nouvelles fonctions en peu de temps, avec la nécessité d'une intervention humaine limitée. Cette vitesse donne aux attaquants professionnels et non professionnels un avantage clair et élargit sans précédent les menaces.
Logkin est cité le groupe Funksec, qui est apparu en 2024 comme modèle de cette transformation; Les fissures sont utilisées entièrement écrites dans l'intelligence artificielle, accompagnée de commentaires de logiciels de haute qualité, pour effectuer des attaques à double rançon. Ce groupe a été caractérisé par le suivi du modèle "à faible coût et de taille élevée", en s'appuyant sur des outils d'intelligence artificielle pour augmenter l'efficacité et réduire les coûts, ce qui est un changement qualitatif dans le style des criminels Internet.
Les rapports avertissent que les cyberattaques soutenues par l'intelligence artificielle deviennent plus compliqués et rendent rapidement leur confrontation plus difficile (chatrtoc)
Parmi les préoccupations croissantes les plus importantes, l'intelligence artificielle est de développer un logiciel malveillant muté qui est capable de changer constamment sa forme pour éviter les systèmes de détection traditionnels. "Chaque nouvel échantillon du programme lui-même peut être différent", explique Logkin, notant que les modèles intelligents sont capables de générer ces variables automatiquement.
Au cours de sa conversation avec "Al -Sharq al -awsat", Logkin ajoute que les attaquants peuvent également utiliser l'intelligence artificielle pour générer de nouvelles unités malveillantes telles que les outils de saisie ou l'interception des caméras basés sur des logiciels prêts, ce qui rend le développement d'attaques plus rapides et moins coûteuses que jamais.
Alors que cette menace s'intensifiait, Antonov Lugkin affirme que les défenseurs ont toujours la possibilité d'exceller, à condition que la façon de gérer les menaces soit modifiée. Antonov souligne que "le défenseur ne combat pas l'intelligence artificielle elle-même, mais combat plutôt ses résultats", notant la nécessité de développer des outils d'intelligence qui surveillent les empreintes digitales numériques des attaques et d'identifier les sources d'outils de confrontation avancés répartis dans les réseaux sombres.
Les deux experts ont également qualifié le célèbre groupe "Lazaros" comme un exemple important de cybercrimes soutenus par l'intelligence artificielle, car le groupe a créé des pages et de fausses définitions via des plateformes professionnelles à l'aide d'outils de génération de contenu intelligents. Lugkin est probablement, basé sur des rapports non confirmés, que certains des codes utilisés par le groupe ont été partiellement écrits grâce à des modèles d'intelligence artificielle avancés.
Mohamed Hashem, directeur général de l'Arabie saoudite et de Bahreïn à Kaspersky Company (Kaspersky)
Aujourd'hui, le Moyen-Orient est l'un des carrés les plus sensibles de la scène des cyber-menaces mondiales, où la transformation numérique accélérée se croit avec l'escalade d'attaques soutenues par l'intelligence artificielle. Alexei Antonov estime que ce n'est pas nouveau, car la région a toujours été un objectif stratégique des forces géopolitiques, grâce à sa position de centre financier et commercial qui se développe et se développe.
Les données Caspersky montrent que l'intensité des attaques de rançon au Moyen-Orient est passée à 0,72% en 2025, contournant l'Afrique et la Turquie. Cette hauteur est attribuée à l'accélération de l'adoption des technologies numériques dans la région, ainsi qu'aux différents niveaux de cybersécurité entre les secteurs et les pays. Avec l'utilisation d'outils d'intelligence artificielle dans le développement de logiciels malveillants, ces menaces deviennent plus cachées et efficaces qu'auparavant.
Dans un contexte connexe, Mohamed Hachem, directeur général de Kaspersky Company en Arabie saoudite et Bahreïn, confirme que le royaume va à l'avant-garde des pays qui investissent dans l'intelligence artificielle au niveau régional. Mais il prévient que ce boom technique n'est pas sans défis de sécurité profonds. Il dit dans sa conversation avec Asharq al -awsat: "L'Arabie saoudite mène les efforts de la transformation numérique dans la région avec d'énormes investissements, mais les défis de sécurité accompagnant les technologies de l'intelligence artificielle doivent être confrontés depuis ses premiers stades."
Hachem souligne l'importance d'intégrer la cybersécurité dans le cycle de développement de la vie du développement de l'intelligence artificielle, de la conception à la mise en œuvre, soulignant que c'est le moyen d'assurer la préparation future. Il met également en évidence le rôle d'institutions nationales telles que l'Organisation saoudienne pour les données et l'intelligence artificielle (SIDA) et le National Data Management Office dans la création d'un système d'intelligence artificielle sûre et résilient. Il ajoute que ces efforts deviennent plus importants dans les secteurs sensibles, tels que les villes intelligentes, les soins de santé et le secteur financier, qui sont des axes de base dans la "Saudi Vision 2030".
Il est rapporté que l'utilisation de l'intelligence artificielle contribue à accélérer le développement de logiciels malveillants et réduit la barrière technique devant les attaquants les moins expérimentés (Chattstock)
Les experts de Kaspersky s'attendent à ce que le futur proche assistera à un changement qualitatif dans la nature des confrontations numériques, car la bataille des "humains utilisant l'intelligence artificielle" se transformera en un conflit direct entre les "systèmes d'intelligence artificielle" lui-même.
Antonov et Logquin pensent que ce changement n'est pas loin, notant que nous sommes actuellement en phase de transition, mais les indications indiquent que l'intelligence artificielle pourrait bientôt devenir le seul joueur des deux côtés de l'attaque et de la défense. Mohamed Hashem améliore cette proposition, soulignant que les partenariats mondiaux seront la clé pour protéger les progrès techniques de ses dangers potentiels, et dit: «Il est nécessaire que l'innovation soit accompagnée d'une intelligence artificielle avec la cyber-protection à un niveau mondial. Faire des menaces émergentes telles que la contrefaçon profonde et la construction automatisée nécessite une coordonnée internationale et un échange continu de connaissances et de défenses.
D'un autre côté, l'intelligence artificielle a formé aujourd'hui l'élément commun dans la plupart des cybermenaces modernes du développement de logiciels malveillants, à la mise en œuvre de campagnes de construction avancées, pour surveiller les individus via des appareils mobiles. Cependant, les experts de Kaspersky se souviennent que l'intelligence artificielle est toujours un outil, et la valeur de cet outil est déterminée par la façon dont elle est utilisée.
À un moment où le monde numérique se tient devant un carrefour fatidique, la question n'est plus de savoir si l'intelligence artificielle changera la forme de cybersécurité, mais dans quelle mesure nous sommes prêts à diriger cette transformation plutôt que d'être surpris par elle.
Responses (0 )