L’IA au service du Big Data et la cyber sécurité
L’écosystème dans lequel nous vivons, (systèmes d’information personnels
et d’objets connectés) fait développer le volume de données de façon importante.
La démocratisation du Big Data et l’interconnexion croissante des systèmes d’information
conduisent à la saturation d’informations et au dépassement des capacités
individuelles d’analyse. Tous les ordinateurs sont autant de systèmes
d’information interconnectés qui permettent de produire des données, le volume
est tel qu’il n’est plus gérable par un système humain.
La cyber sécurité, avec la
surveillance de l’activité en temps réel via les SOCs (noeuds de flux
d’informations), requière aujourd’hui une vigilance technologique à l’aide de
l’intelligence artificielle. Dans les laboratoires, le Big Data a permis
d’améliorer la véracité des systèmes d’intelligence artificielle. Avec
l’arrivée des GPUs[1] les
laboratoires ont pu tester et valider la puissance de leurs algorithmes en
exploitant cette pluie de données.
Ce que l’IA apporte c’est une
capacité technologique à considérer une quantité compacte de données, à en
filtrer le bruit pour en extraire les signaux faibles afin de les mettre en
relation pour produire un nouveau sens, une nouvelle information, plus
synthétique et donc plus compréhensible. Elle est le remède à la saturation en
données. Les données que nous créons représentent un énorme réseau
d’informations interconnectées sur ce que nous sommes, ce que nous faisons,
quand et comment, la machine intègre des données, de manière autonome, qui vient
enrichir sa connaissance globale, comme des humains qui apprennent tout au long
de leur existence, l’IA aura toujours besoin de l’intervention humaine pour
modifier et guider ces réseaux de neurones. Elle est une extension de ce que
nous sommes et deviendra un outil inséparable dans de nombreux domaines propices
à la collaboration entre l’Homme et la machine. Contrôler les étapes et les
décisions liées à l’intelligence artificielle permet d’optimiser les
interactions entre l’Homme et la machine. La simple reconnaissance de la
pertinence des données utilisées pour le traitement d’informations par un
système d’intelligence artificielle nécessitera l’expertise humaine. L’IA fait
partie des technologies disruptives elles offrent des opportunités de croissance
Enfin, l’être humain est en
quelques sortes l’esprit de l’intelligence artificielle et nous pousse à améliorer
et optimiser les processus de décision. Le Deep Learning et l’IA se transvasent
surpassant les performances humaines dans les problématiques d’analyse, ils
donnent la possibilité d’automatiser des traitements d’informations en un temps
record.
IBM a été le premier à souteneur
en mettant à disposition Watson, le moteur d’analyse du langage et du premier
système cognitif au monde, il analyse les questions de façon syntaxique,
grammaticale, puis sémantique, ensuite il propose ses hypothèses de réponses
les plus viables en moins de 3 secondes.
Watson devrait affiner la vision
qu’ont les analystes de nœuds de flux d’informations d’un incident avec :
- · une meilleure prise de décision
- · une réduction considérable des temps de réaction à un incident
- · une amélioration du taux de détection des attaques.
Grâce à l’intelligence
artificielle, les nœuds de flux d’informations devraient être en mesure
d’appréhender le Big Data. L’IA pourrait être l’origine d’une mutation du SOC se
transformant d’un organe de détection et de réaction en véritable cerveau du
SI, il serait ainsi capable de prédire les attaques et d’adapter la sécurité du
réseau en temps-réel. Des SOCs connectés entre eux seront aptes à identifier
une attaque et de diffuser les signaux déclencheurs à d’autres SOCs pour qu’ils
puissent prévoir et prévenir l’attaque.
Nous devrions aller vers un
écosystème humain-machine unique, des systèmes prédictifs de plus en plus
intelligents, basés sur des intelligences cognitives, où les technologies
seront capables de comprendre leurs environnements et de pouvoir s’adapter en
temps réel aux attaques. L’IA rend les machines plus intelligentes pour
remédier à la saturation de données, elle devrait nous permettre de mieux
comprendre notre environnement et donc de mieux agir. À ce titre, le SOC du
futur va constituer un écosystème unique, un lieu d’expérimentation de la
relation entre humains et machines de demain.
[1] Unité de
traitement graphique GPU ou (unité de traitement graphique) est un
coprocesseur;
Le GPU met en œuvre certaines opérations graphiques
primitives appels optimisé pour le traitement graphique. Processeurs graphiques
sont présents dans les cartes graphiques.
Commentaires
Enregistrer un commentaire