Les derniers articles

Nos contenus premiums

Ces articles techniques n'ont jamais fait l'objet d'une publication papier. Ils sont exclusivement disponibles sur ce site et réservés aux abonnés de la plateforme Connect.

Nous contacter

La sécurité des communications vocales (1) : le codage de la voix

Résumé

Le codage et la transmission de la parole sont deux éléments essentiels dans les télécommunications modernes : si la part du trafic des données prend une importance grandissante depuis plusieurs années, les communications vocales restent très importantes non seulement d’un point de vue quantitatif, mais également d’un point de vue qualitatif et « émotionnel ». Contrairement aux données, un message vocal est infiniment plus riche et contient à la fois les données propres au message, mais également aux acteurs de la transmission. C’est précisément la raison pour laquelle le codage, la transmission et la sécurisation de la voix relèvent de techniques beaucoup plus complexes que ceux des données. Dans cet article, le premier d’une série de trois, nous expliquons comment se fait le codage et le traitement de la voix. Il est essentiel de bien comprendre la structure d’un signal sonore, les techniques permettant de le représenter et de le traiter si l’on veut être capable d’en assurer la sécurité, non seulement en termes de confidentialité, mais également en termes d’intégrité et d’authentification, lesquels seront présentés dans les deux articles à suivre.

Supervision et sécurité par analyse des flux

Résumé

Les technologies généralement déployées pour la supervision réseau reposent sur une interprétation des données contenues dans les paquets. Elles sont efficaces, mais ont toutefois le désavantage d’être consommatrices en ressources, de nécessiter des signatures élaborées et surtout d’être inopérantes sur des protocoles chiffrés. Ces inconvénients rendent la recherche de signature dans les paquets IP pertinente sur un Intranet, mais de moins en moins réaliste sur des points d’accès Internet conséquents. Leur efficacité est également limitée lorsqu’il s’agit de réaliser une analyse a posteriori de l’activité réseau, en vue d’une détection ou de l’analyse détaillée d’une compromission. A contrario, l’analyse des flux collectés pour la métrologie n’est pas tributaire d’une bande passante ou de protocoles particuliers. Par contre, l’interprétation de ces flux à des fins de supervision sécurité peut s’avérer assez fastidieuse sans un post-traitement adapté qui vise à passer du flux à l’alerte. Cet article présente les quelques pistes suivies par le CEA dans ce domaine, ainsi que son retour d’expérience sur les résultats obtenus.

Comprenez les systèmes de sécurité d’OpenSolaris et Solaris

Résumé

Solaris 10 tout comme les versions qui l'ont précédé est disponible pour 2 architectures : Sparc et X86. Dans sa version X86/X64, il se place désormais comme une alternative envisageable comme poste de travail bureautique puisqu'il opère sur un simple PC et offre les principaux outils exigés dans le cadre d'une telle activité : suite bureautique, navigateurs web accompagnés de quelques plugins, agents de messagerie électronique et de messagerie instantanée, etc. Dans ce cadre limité, il peut se mesurer à Windows, MacOS X et aux diverses distributions Linux avec un avantage de taille : il est à la fois gratuit et ouvert comme Linux tout en présentant un aspect industriel fort lié à son usage actuellement beaucoup plus répandu comme serveur.

Reverse proxy Apache 2.2 : le couteau suisse sécurité de vos applications

Résumé

La plupart des directions informatiques en entreprise ont été confrontées à la problématique de la mise à disposition d'applications internes pour leurs utilisateurs connectés sur l'internet et non au sein de leur réseau local. Au travers de cette fiche technique, nous allons voir comment Apache 2.2 peut vous aider à fournir ce service avec un minimum de sécurité. Rien n'est parfait bien sûr, mais cela vaut la peine d'essayer.

Network Forensic : cherchez les traces sur le réseau

Résumé

Il peut sembler étrange de parler d'analyse réseau dans un dossier consacré à l'analyse post mortem. Si l'on peut étudier le comportement d'une machine à travers ce qu'elle envoie ou reçoit, c'est que la « bête » est encore vivante. Dans certains cas cependant – en l'absence de logs par exemple – c'est pourtant une des seules choses à faire. Cet article présente une méthode – sans prétention – d'analyse de traces réseau à l'aide de TShark et d'outils OpenSource.

Analyse post mortem tout en mémoire sous windows

Résumé

Cet article tente d’aborder la problématique du forensics mémoire en environnement Windows. Avant même que l’analyse forensics n’ait débuté, l’expert se retrouve face à des problématiques techniques engendrées par les différentes versions de Windows non compatibles entre elles. Quelles sont les solutions techniques à disposition de l’expert ? Peut-il se contenter des outils disponibles sur Internet ? Quelles sont les limites d’une analyse forensics tout en mémoire ? Ce sont à toutes ces questions que nous essaierons de répondre.

Guerre, guérillas et terrorismes informatiques : du trafic d’armes à la protection des infrastructures

Résumé

Dans cet article qui fait suite à celui publié dans un numéro précédent [18], nous abordons deux aspects importants dans tout conflit : celui de la protection des infrastructures critiques, lesquelles sont vitales pour un pays, et le problème du trafic des armes numériques, qui permettent à des attaquants sans grande compétence technique de mener des attaques à l’aide d’outils sophistiqués. De ce point de vue, le domaine du numérique n’est fondamentalement pas différent des contextes conventionnels. La seule différence tient au fait que si dans ce dernier la prise de conscience est aiguë, dans le domaine du numérique, le déficit de perception est encore immense. La raison essentielle tient au fait que la seule vision technique, voire technicienne de la lutte informatique offensive est prise en compte : le contexte opérationnel plus large est ignoré. La plupart des gens, et souvent les décideurs eux-mêmes, sont incapables de définir la dépendance réelle dans notre société des systèmes d’information et de mesurer l’impact qu’aurait effectivement une attaque informatique contre les infrastructures de leur pays. Enfin, cet article présente quelques compléments et mises à jour concernant le conflit russo-estonien, certains éléments ayant pu être obtenus de sources étrangères fiables [1] et ayant participé à la « gestion » de conflit.

Autopsie informatique : les 4 approches à connaître

Résumé

Fonctionnellement et sémantiquement, on divise généralement « l’analyse d’ordinateur » en quatre activités distinctes :- la récupération de données (aussi appelée « recouvrement de données ») ;- l’e-discovery ;- l’intervention sur incident (incident response) ;- l’analyse forensique.Ces quatre activités utilisent souvent des outils et méthodes similaires, et c’est précisément pour cette raison qu’il convient de bien les définir pour en comprendre les différences sans faire de confusion.