La théorie de l’information mesure l’incertitude : l’entropie de Shannon borne la force d’un secret et la compressibilité ; les tests statistiques détectent biais et corrélations dans le trafic ; les modèles d’anomalies comparent distributions observées et profils normaux, tandis que l’inférence bayésienne met à jour la probabilité d’incident ; les divergences de Kullback-Leibler ou Jensen-Shannon quantifient la distance entre distributions ; l’homologie persistante extrait des motifs stables dans les flux réseau bruyants, convertis en signatures vectorielles pour des classifieurs ; la robustesse exige des données étiquetées et des mesures d’incertitude pour limiter les faux positifs, renforçant ainsi la visibilité face aux attaques sophistiquées.
| Titre du cours | Auteur | Plus de détails |
|---|


