Dimanche 29 Décembre, 2024 á Dakar
Vendredi 01 Juin, 2018 +33
Technologie

IA et Cybersécurité : comment garder une longueur d’avance pour contrer la menace

Single Post
IA et Cybersécurité : comment garder une longueur d’avance pour contrer la menace
La démocratisation de l’IA représente à la fois une opportunité et un défi pour les RSSI. Tandis que les cybercriminels exploitent ces outils pour perfectionner leurs attaques, les entreprises peuvent utiliser ces mêmes technologies pour renforcer leurs défenses.

Dans la vie réelle, les escrocs exploitent des mécanismes psychologiques bien connus pour chloroformer la vigilance de leurs victimes. Leur objectif principal est de désactiver les signaux d’alarme qui déclencheraient la méfiance et activeraient les réflexes de défense. Ils exploitent pour cela toutes les ressources psychologiques et les comportements humains, que ce soient les biais psychologiques, de conformité sociale, de rareté ou d’urgence,
entre autres.

Les manipulations émotionnelles jouent également un rôle clé. Les escrocs exploitent les peurs ou les espoirs, en promettant des gains faciles ou des opportunités uniques. Ils isolent souvent leurs victimes, les empêchant de demander conseil, notamment en instaurant une urgence ou en insistant sur la discrétion. Ils affaiblissent aussi les défenses de leurs cibles par des flatteries ou des remarques positives. Ils intègrent leurs arnaques dans des contextes ou des interactions habituelles, comme des appels prétendument émis par un service client ou des courriels ressemblant à ceux d’une banque. Ils anticipent aussi les doutes et fournissent des réponses à des objections potentielles avant même qu’elles ne soient exprimées.

L’IA, un puissant outil pour accroître l’efficacité des attaques

La mauvaise nouvelle est que toutes ces manipulations peuvent être enseignées à une IA. Avec la démocratisation de celle-ci, les cybercriminels disposent d’un puissant outil pour accroître l’efficacité, la sophistication et la portée de leurs attaques. Ces caractéristiques humaines, qui sont autant de faiblesses, peuvent être enseignées à une intelligence artificielle à l’aide de techniques d’apprentissage automatique. Cela implique simplement de modéliser les comportements humains, les biais psychologiques et les dynamiques sociales exploités par les arnaqueurs. Ils peuvent y inclure des études psychologiques sur les biais cognitifs, les dynamiques de confiance et les réponses émotionnelles, ainsi que des données générées dans le cadre de simulations pour observer les réactions des victimes.

Le rapport «?New defenses, new threats What AI and Gen AI bring to cybersecurity?» récemment publié par Capgemini Research Institute met en lumière les nouvelles dynamiques induites par l’IA, tout en fournissant des recommandations stratégiques essentielles pour les responsables de la sécurité des systèmes d’information.

En 2023, 92 % des organisations ont signalé avoir subi une violation de sécurité, une hausse spectaculaire par rapport aux 51 % enregistrés en 2021. Cette progression reflète une explosion des menaces de plus en plus sophistiquées, notamment l’hameçonnage, les rançongiciels et les deepfakes. Ces attaques causent des pertes financières significatives.

L’IA abaisse les barrières d’entrée pour les attaquants

De plus, l’adoption massive de l’IA dans les entreprises a contribué à étendre la surface d’attaque, estime le rapport, intégrant de nouveaux vecteurs comme les assistants conversationnels, les applications intégrant l’IA et les outils de collaboration numérique. Le concept de «?shadow AI?», qui désigne l’utilisation d’applications non autorisées par les employés, émerge également comme une menace interne préoccupante.

Parallèlement, les cybercriminels exploitent l’IA pour rendre leurs attaques plus efficaces et accessibles. Des deepfakes réalistes, des campagnes d’hameçonnage personnalisées et des maliciels générés automatiquement sont désormais monnaie courante. L’IA abaisse les barrières pour les attaquants inexpérimentés. Le rapport révèle que 97 % des organisations ont rencontré des incidents liés à l’utilisation de l’IA générative en 2023. Toutefois, malgré ces risques, l’IA se présente aussi comme une solution incontournable pour renforcer la cybersécurité. Environ 60 % des organisations la considèrent comme essentielle pour détecter et répondre efficacement aux cyberattaques. Des cas d’utilisation incluent l’analyse des menaces, la gestion des vulnérabilités et l’automatisation des réponses.

Une approche progressive d’intégration de l’IA défensive

Selon les experts de Capgemini Research Institute, face à ce double rôle de l’IA comme outil de défense et d’attaque, les RSSI doivent adopter une stratégie proactive et équilibrée. Le rapport recommande tout d’abord de développer une stratégie claire pour intégrer l’IA et l’IA générative dans les systèmes de sécurité. «?Il est essentiel d’identifier les cas d’usage prioritaires, comme la détection des anomalies ou l’automatisation des réponses aux incidents, tout en évaluant les bénéfices et les risques associés à ces technologies, assurent-ils. Une approche progressive d’intégration permettra d’adapter les systèmes existants aux nouvelles technologies tout en minimisant les vulnérabilités.?»

Renforcer la gouvernance est une autre priorité pour eux. Les entreprises doivent élaborer des politiques strictes pour encadrer l’utilisation de l’IA, notamment en ce qui concerne la gestion des données sensibles et les applications non autorisées. La mise en œuvre d’un cadre de gestion des risques spécifique à l’IA, tenant compte des menaces émergentes comme les attaques par injection de prompts ou l’empoisonnement de données, est essentielle, estiment-ils. Ce cadre devra être régulièrement réévalué pour s’adapter aux évolutions des technologies et des menaces.

Répandre une culture organisationnelle de vigilance

En matière d’infrastructure, le rapport souligne la nécessité d’investir dans des systèmes modernes capables de répondre aux exigences spécifiques de l’IA, comme des processeurs spécialisés et des capacités cloud optimisées. Ces investissements doivent s’accompagner d’une formation des équipes de cybersécurité pour maîtriser ces nouveaux outils et sensibiliser l’ensemble des employés aux risques liés à leur utilisation. Une culture organisationnelle axée sur la vigilance face aux menaces est indispensable pour compléter ces efforts techniques.

Pour anticiper les menaces, le rapport recommande d’adopter une approche proactive, utilisant l’IA pour surveiller en temps réel les réseaux, identifier les vulnérabilités et simuler des attaques pour tester les systèmes de défense. Des outils comme les jumeaux numériques peuvent être déployés pour analyser les scénarios d’attaques sans exposer les systèmes réels. De plus, l’établissement de protocoles de réponse aux incidents permettra d’améliorer la rapidité et la précision des réponses, en intégrant l’IA dans les processus tout en conservant une supervision humaine pour les décisions critiques.


4 Commentaires

  1. Auteur

    En Novembre, 2024 (06:17 AM)
    Garder une longueur d'avance avec IA est vraiment primordial on ne sait jusqu'à où aller avec la technologie ça devient de plus en plus risqué est nous on gob tout sans réfléchir ni maîtrise
    Top Banner
  2. Auteur

    Hey You

    En Novembre, 2024 (08:46 AM)
    Rien que ces menaces présentes et qui seront plus accrues dans l'avenir,rien que pouvoir voyager et remplir sa fiche de départ et d'arrivée,rien que pouvoir se promener dans les grands boulevards (sans demander si chemin par des signes ),rien que pouvoir entrer dans un resto chic et passer commande après avoir lu la carte etc..., l'école publique devrait être obligatoire pour chaque enfant et dans toutes les localités.Un ami marié avec deux enfants travaillait dans une usine comme manœuvre (vers ses 26 ans).Un jour, il fut très surpris et ''apeuré''parce que convoqué par le DG .Il toqua à la porte et lorsqu' il se présenta,le DG un Touba lui témoigna un grand respect et l'invita à s'assoir.Plus étonné encore,lorsque le DG lui demanda:-comment se fait -il que vous ayez le BEPC, que vous ayez fait l'armée sanctionné par le certificat de bonne conduite militaire et que vous acceptiez de faire le travail de manœuvre !!!

    Trois heures plutard,mon ami fut bombardé adjoint du chef comptable et procédait au paiement de salaire journalier de ses anciens camarades surpris et enchantés par son nouveau statut.
    {comment_ads}
    Auteur

    Xeme

    En Novembre, 2024 (09:00 AM)
    L'IA a commencé à conseiller le suicide à des enfants qui l'utilise, pourtant pour leurs devoirs scolaires.
    {comment_ads}
    Auteur

    En Novembre, 2024 (09:39 AM)
    C rapide c facile mais devient de plus en plus dangereux surtout pour des analphabètes
    {comment_ads}

Participer à la Discussion

  • Nous vous prions d'etre courtois.
  • N'envoyez pas de message ayant un ton agressif ou insultant.
  • N'envoyez pas de message inutile.
  • Pas de messages répétitifs, ou de hors sujéts.
  • Attaques personnelles. Vous pouvez critiquer une idée, mais pas d'attaques personnelles SVP. Ceci inclut tout message à contenu diffamatoire, vulgaire, violent, ne respectant pas la vie privée, sexuel ou en violation avec la loi. Ces messages seront supprimés. --
  • Pas de publicité. Ce forum n'est pas un espace publicitaire gratuit.
  • Pas de majuscules. Tout message inscrit entièrement en majuscule sera supprimé.
Auteur: Commentaire : Poster mon commentaire

Repondre á un commentaire...

Auteur Commentaire : Poster ma reponse

ON EN PARLE

Banner 01

Seneweb Radio

  • RFM Radio
    Ecoutez le meilleur de la radio
  • SUD FM
    Ecoutez le meilleur de la radio
  • Zik-FM
    Ecoutez le meilleur de la radio

Newsletter Subscribe

Get the Latest Posts & Articles in Your Email