L’ordinateur

Ordinateur

1. A l’extérieur d’un ordinateur :

Périphériques

Les éléments de base de l’ordinateur :

  • Un écran
  • Un clavier
  • Une souris
  • Des enceintes pour le son.
  • Une unité centrale, le cœur et le cerveau de l’ordinateur.

 

D’autres périphériques :

  • Imprimante et scanner
  • Webcam
  • Connexion internet
  • Disque dur externe, clé USB, carte mémoire
  • Manette de jeu
  • Etc

 

2. À l’intérieur d’un ordinateur

intérieur de l'ordinateur

 

 

interieur del'ordinateur

 

 

La carte mère : C’est la pièce de base de l’ordinateur, elle est le support de tous les composants informatiques. Elle est associée au « cerveau » de l’ordinateur : le processeur. Tous les composants et périphériques se branchent directement sur elle.

L’alimentation : Reliée au secteur, elle fournit à l’ordinateur et ses composants une tension transformée, et adaptée à chaque composant. L’alimentation est toujours accompagnée d’un ventilateur sans lequel une surchauffe viendrait endommager irrémédiablement l’ordinateur.

Les lecteurs / graveurs : Le ou les lecteurs permettent de lire un CD-ROM ou un DVD-ROM. Un graveur permet d’écrire des données sur un CD ou DVD. Un graveur est forcément lecteur, mais le contraire n’est pas vrai !

Le disque dur : C’est la « mémoire » de l’ordinateur, sur laquelle on enregistre les données. Un ordinateur peut contenir plusieurs disques dur, et chaque disque dur peut être séparé en plusieurs parties distinctes, appelées partitions.

La carte son : Pas toujours présente sur l’ordinateur, car déjà intégrée à la carte mère, elle permet de brancher des haut-parleurs et un micro. L’acquisition d’une carte son en plus de la carte déjà intégrée améliore le son et permet d’augmenter le nombre d’enceintes (2 seulement avec la carte mère, 7 et + avec une carte son). Elle se branche sur la carte mère sur un port appelé PCI.

La carte graphique : Celle-ci permet l’affichage sur l’écran. Il est préférable d’avoir une carte graphique performante lorsque l’on veut utiliser son ordinateur pour des jeux vidéo, ou du multimédia en tout genre. Une carte graphique de base et à moindre coût suffit largement pour une utilisation simple de l’ordinateur.

 

Architecture de von Neumann

Les techniques utilisées pour fabriquer ces machines ont énormément changé depuis les années 1940 et sont devenues une technologie (c’est-à-dire un ensemble industriel organisé autour de techniques) à part entière depuis les années 1970. Beaucoup utilisent encore les concepts définis par John von Neumann, bien que cette architecture soit en régression : les programmes ne se modifient plus guère eux-mêmes (ce qui serait considéré comme une mauvaise pratique de programmation), et le matériel prend en compte cette nouvelle donne en séparant aujourd’hui nettement le stockage des instructions et des données, y compris dans les caches. L’architecture de von Neumann décomposait l’ordinateur en quatre parties distinctes :

  1. L’unité arithmétique et logique (UAL) ou unité de traitement : son rôle est d’effectuer les opérations de base, un peu comme le ferait une calculette.
  2. L’unité de contrôle (UC). C’est l’équivalent des doigts qui actionneraient la calculette.
  3. La mémoire qui contient à la fois les données et le programme qui dira à l’unité de contrôle quels calculs faire sur ces données. La mémoire se divise entre mémoire vive (programmes et données en cours de fonctionnement) et mémoire permanente (programmes et données de base de la machine).
  4. Les entrées-sorties : dispositifs qui permettent de communiquer avec le monde extérieur.

 

ES

 

Unité arithmétique et logique

L’unité arithmétique et logique, ou UAL, est l’élément qui réalise les opérations élémentaires (additions, soustractions, etc.), les opérateurs logiques (ET, OU, NI, etc.) et les opérations de comparaison (par exemple la comparaison d’égalité entre deux zones de mémoire). C’est l’UAL qui effectue les calculs de l’ordinateur.

Unité de contrôle

L’unité de contrôle, ou UC, prend ses instructions dans la mémoire. Celles-ci lui indiquent ce qu’elle doit ordonner à l’UAL et, comment elle devra éventuellement agir selon les résultats que celle-ci lui fournira. Une fois l’opération terminée, l’unité de contrôle passe soit à l’instruction suivante, soit à une autre instruction à laquelle le programme lui ordonne de se brancher. L’unité de contrôle facilite la communication entre l’unité arithmétique et logique, la mémoire ainsi que les périphériques. Il gère la plupart de l’exécution des instructions dans l’ordinateur.

Mémoire

Au sein du système, la mémoire peut être décrite comme une suite de cellules numérotées contenant chacune une petite quantité d’informations. Cette information peut servir à indiquer à l’ordinateur ce qu’il doit faire (instructions) ou contenir des données à traiter. Dans la plupart des architectures, c’est la même mémoire qui est utilisée pour les deux fonctions. Cette mémoire peut être réécrite autant de fois que nécessaire.

Entrées-Sorties

Les dispositifs d’entrée/sortie permettent à l’ordinateur de communiquer avec l’extérieur (clavier, écran, imprimantes, etc.). Le point commun entre tous les périphériques d’entrée est qu’ils convertissent l’information qu’ils récupèrent de l’extérieur en données compréhensibles par l’ordinateur. À l’inverse, les périphériques de sortie décodent l’information fournie par l’ordinateur afin de la rendre compréhensible par l’utilisateur.

Bus

Ces différentes parties sont reliées par trois bus, le bus d’adresse, le bus de données et le bus de commande. Un bus est un groupement d’un certain nombre de fils électriques réalisant une liaison pour transporter des informations binaires codées sur plusieurs bits. Le bus d’adresse transporte les adresses générées par l’UCT (Unité Centrale de Traitement) pour sélectionner une case mémoire ou un registre interne de l’un des blocs. Le nombre de bits véhiculés par ce bus dépend de la quantité de mémoire qui doit être adressée. Le bus de données transporte les données échangées entre les différents éléments du système. Le bus de contrôle transporte les différents signaux de synchronisation nécessaires au fonctionnement du système : signal de lecture (RD), signal d’écriture (WR), signal de sélection (CS : Chip Select).

 

 

La carte mère

carte mère

La carte mère (motherboard en anglais) sert à interconnecter toutes les composantes d’un micro-ordinateur. Comme elle permet aux différentes parties d’un micro-ordinateur de communiquer entre elles, la carte mère est, d’une certaine façon, le système nerveux du microordinateur.

 

 

 

 

  1. Socket, emplacement destiné à accueillir le processeur. Dans la mesure où le processeur émet de la chaleur, il est nécessaire de la dissiper pour éviter que ses circuits ne fondent. C’est la raison pour laquelle il est généralement surmonté d’un dissipateur thermique (appelé parfois refroidisseur ou radiateur), composé d’un métal ayant une bonne conduction thermique (cuivre ou aluminium), chargé d’augmenter la surface d’échange thermique du microprocesseur. Le dissipateur thermique comporte une base en contact avec le processeur et des ailettes afin d’augmenter la surface d’échange thermique. Un ventilateur accompagne généralement le dissipateur pour améliorer la circulation de l’air autour du dissipateur et améliorer l’échange de chaleur.
  2. Emplacements (slots) destinés à accueillir les barrettes de RAM (Random Access Memory).
  3. Ports PCI Express pour accueillir la carte graphique.
  4. Ports Sata pour connecter les disques durs et les différents lecteurs et graveurs.

     

  5. Ports externes du PC.
  6. Cette pile plate sert à alimenter le BIOS ; c’est grâce à elle que l’ordinateur retient l’heure même lorsqu’on l’éteint.

 Les mémoires

 

On appelle mémoire tout composant électronique capable de stocker temporairement des données.

Caractéristiques techniques

 

Les principales caractéristiques d’une mémoire sont les suivantes :

  • la capacité, représentant le volume global d’informations (en bits) que la mémoire peut stocker ;
  • le temps d’accès, correspondant à l’intervalle de temps entre la demande de lecture/écriture et la disponibilité de la donnée ;
  • le temps de cycle, représentant l’intervalle de temps minimum entre deux accès successifs ;
  • le débit, définissant le volume d’information échangé par unité de temps, exprimé en bits par seconde ;
  • la non-volatilité caractérisant l’aptitude d’une mémoire à conserver les données lorsqu’elle n’est plus alimentée électriquement.

Ainsi, la mémoire idéale possède une grande capacité avec des temps d’accès et temps de cycle très restreints, un débit élevé et est non volatile. Néanmoins les mémoires rapides sont également les plus onéreuses. C’est la raison pour laquelle des mémoires utilisant différentes technologiques sont utilisées dans un ordinateur.

Les mémoires les plus rapides sont situées en faible quantité à proximité du processeur et les mémoires de masse, moins rapides, servent à stocker les informations de manière permanente.
Différents types de mémoires :

Mémoire de masse
Une mémoire de masse est une mémoire de grande capacité, non volatile et qui peut être lue et écrite par un ordinateur. Actuellement cela comprend les disques durs classiques, les disques durs SSD, les disques optiques (DVD etc), différents périphériques de stockage externes.

 

Mémoire vive

La mémoire vive, généralement appelée RAM (Random Access Memory, mémoire à accès direct), est la mémoire principale du système : il s’agit d’un espace permettant de stocker de manière temporaire des données lors de l’exécution d’un programme. En effet, contrairement au stockage de données sur une mémoire de masse telle que le disque dur, la mémoire vive est volatile, c’est-à-dire qu’elle permet uniquement de stocker des données tant qu’elle est alimentée électriquement. Ainsi, à chaque fois que l’ordinateur est éteint, toutes les données présentes en mémoire sont irrémédiablement effacées.

Mémoire morte

La mémoire morte, appelée ROM (Read Only Memory, mémoire en lecture seule) est un type de mémoire permettant de conserver les informations qui y sont contenues même lorsque la mémoire n’est plus alimentée électriquement. À la base, ce type de mémoire ne peut être accédée qu’en lecture. Toutefois il est désormais possible d’enregistrer des informations dans certaines mémoires de type ROM.

Mémoire flash

La mémoire flash est un compromis entre les mémoires de type RAM et les mémoires mortes. En effet, la mémoire Flash possède la non-volatilité des mémoires mortes tout en pouvant facilement être accessible en lecture ou en écriture. En contrepartie, les temps d’accès des mémoires flash sont plus importants que ceux de la mémoire vive. (SSD, clé USB)

Mémoire cache

La mémoire cache accélère le fonctionnement de l’ordinateur en stockant les données utilisées le plus récemment. C’est la mémoire la plus rapide de tout l’ordinateur. Elle peut se trouver à l’intérieur du processeur (mémoire cache interne) ou à l’extérieur (mémoire cache externe).

 

 

 

Le BIOS

 

Le BIOS (Basic Input/Output System) est le programme « basique » servant d’interface entre le système d’exploitation et la carte mère. Le BIOS est stocké dans une ROM, ainsi il utilise les données contenues dans le CMOS1 pour connaître

la configuration matérielle du système. Lorsque le système est mis sous-tension ou réamorcé (Reset), le CPU est lui aussi réamorcé et le BIOS va effectuer un certain nombre d’opérations :

  • faire le test du CPU,
  • vérifier le BIOS,
  • initialiser le timer (l’horloge interne),
  • vérifier la mémoire vive et la mémoire cache,
  • vérifier toutes les configurations (clavier, disquettes, disques durs …),
  • Etc

La plupart des BIOS ont un « setup » (programme de configuration) qui permet de modifier la configuration basique du système. Ce type d’information est stockée dans une RAM auto-alimentée afin que l’information soit conservée même lorsque le système est hors tension (nous avons vu que la mémoire vive était réinitialisée à chaque redémarrage).

Il est possible de configurer le BIOS grâce à une interface (nommée BIOS setup, configuration du

BIOS) accessible au démarrage de l’ordinateur par simple pression d’une touche bien définie.

Le système d’exploitation

 

Pour qu’un ordinateur soit capable de faire fonctionner un programme informatique (appelé parfois application ou logiciel), la machine doit être en mesure d’effectuer un certain nombre d’opérations préparatoires afin d’assurer les échanges entre le processeur, la mémoire, et les ressources physiques (périphériques). Le système d’exploitation (noté SE ou OS, abréviation du terme anglais Operating System), est chargé d’assurer la liaison entre les ressources matérielles, l’utilisateur et les applications (traitement de texte, jeu vidéo, …). Ainsi, lorsqu’un programme désire accéder à une ressource matérielle, il ne lui est pas nécessaire d’envoyer des informations spécifiques au périphérique, il lui suffit d’envoyer les informations au système d’exploitation, qui se charge de les transmettre au périphérique concerné via son pilote. En l’absence de pilotes, il faudrait que chaque programme reconnaisse et prenne en compte la communication avec chaque type de périphérique ! Le système d’exploitation permet ainsi de « dissocier » les programmes et le matériel, afin notamment de simplifier la gestion des ressources et offrir à l’utilisateur une interface homme/machine simplifiée afin de lui permettre de s’affranchir de la complexité de la machine physique.

 

 

Rôles du système d’exploitation

 

Les rôles du système d’exploitation sont divers :

 

  • Gestion du processeur : le système d’exploitation est chargé de gérer l’allocation du processeur entre les différents programmes grâce à un algorithme d’ordonnancement. Le type d’ordonnanceur est totalement dépendant du système d’exploitation, en fonction de l’objectif visé.
  • Gestion de la mémoire vive : le système d’exploitation est chargé de gérer l’espace mémoire alloué à chaque application et, le cas échéant, à chaque usager. En cas d’insuffisance de mémoire physique, le système d’exploitation peut créer une zone mémoire sur le disque dur, appelée « mémoire virtuelle ». La mémoire virtuelle permet de faire fonctionner des applications nécessitant plus de mémoire qu’il n’y a de mémoire vive disponible sur le système. En contrepartie cette mémoire est beaucoup plus lente.
  • Gestion des entrées/sorties : le système d’exploitation permet d’unifier et de contrôler l’accès des programmes aux ressources matérielles par l’intermédiaire des pilotes (appelés également gestionnaires de périphériques ou gestionnaires d’entrée/sortie).
  • Gestion de l’exécution des applications : le système d’exploitation est chargé de la bonne exécution des applications en leur affectant les ressources nécessaires à leur bon fonctionnement. Il permet à ce titre de «tuer» une application ne répondant plus correctement.
  • Gestion des droits : le système d’exploitation est chargé de la sécurité liée à l’exécution des programmes en garantissant que les ressources ne sont utilisées que par les programmes et utilisateurs possédant les droits adéquats.
  • Gestion des fichiers : le système d’exploitation gère la lecture et l’écriture dans le système de fichiers et les droits d’accès aux fichiers par les utilisateurs et les applications.
  • Gestion des informations : le système d’exploitation fournit un certain nombre d’indicateurs permettant de diagnostiquer le bon fonctionnement de la machine.

 

Composantes du système d’exploitation

 

Le système d’exploitation est composé d’un ensemble de logiciels permettant de gérer les interactions avec le matériel. Parmi cet ensemble de logiciels on distingue généralement les éléments suivants :

 

  • Le noyau (kernel) représentant les fonctions fondamentales du système d’exploitation telles que la gestion de la mémoire, des processus, des fichiers, des entrées-sorties principales, et des fonctionnalités de communication.
  • L’interpréteur de commande (shell, traduisez « coquille » par opposition au noyau) permettant la communication avec le système d’exploitation par l’intermédiaire d’un langage de commandes, afin de permettre à l’utilisateur de piloter les périphériques en ignorant tout des caractéristiques du matériel qu’il utilise, de la gestion des adresses physiques, etc.
  • Le système de fichiers (file system, noté FS), permettant d’enregistrer les fichiers dans une arborescence.

 

Systèmes multitâches

 

Un système d’exploitation est dit multitâche (en anglais multithreaded) lorsque plusieurs « tâches » (également appelées « processus ») peuvent être exécutées simultanément. Les applications sont composées en séquence d’instructions que l’on appelle « processus légers » (en anglais threads). Ces threads seront tour à tour actifs, en attente, suspendus ou détruits, suivant la priorité qui leur est associée ou bien exécutés séquentiellement. Un système est dit préemptif lorsqu’il possède un ordonnanceur (aussi appelé planificateur), qui répartit, selon des critères de priorité, le temps machine entre les différents processus qui en font la demande. Le système est dit à temps partagé lorsqu’un quota de temps est alloué à chaque processus par l’ordonnanceur. C’est notamment le cas des systèmes multi-utilisateurs qui permettent à plusieurs utilisateurs d’utiliser simultanément sur une même machine des applications différentes ou bien similaires : le système est alors dit « système transactionnel ». Pour ce faire, le système alloue à chaque utilisateur une tranche de temps.

 

Systèmes multi-processeurs

 

Le multiprocessing est une technique consistant à faire fonctionner plusieurs processeurs en parallèle afin d’obtenir une puissance de calcul plus importante que celle obtenue avec un processeur haut de gamme ou bien afin d’augmenter la disponibilité du système (en cas de panne d’un processeur). Un système multiprocesseur doit donc être capable de gérer le partage de la mémoire entre plusieurs processeurs mais également de distribuer la charge de travail.

 

Systèmes embarqués

 

Les systèmes embarqués sont des systèmes d’exploitation prévus pour fonctionner sur des machines de petite taille, telles que des smartphones ou des appareils électroniques autonomes (sondes spatiales, robot, ordinateur de bord de véhicule, etc.), possédant une autonomie réduite. Ainsi, une caractéristique essentielle des systèmes embarqués est leur gestion avancée de l’énergie et leur capacité à fonctionner avec des ressources limitées.

 

Systèmes temps réel

 

Les systèmes temps réel (real time systems), essentiellement utilisés dans l’industrie, sont des systèmes dont l’objectif est de fonctionner dans un environnement contraint temporellement. Un système temps réel doit ainsi fonctionner de manière fiable selon des contraintes temporelles spécifiques, c’est-à-dire qu’il doit être capable de délivrer un traitement correct des informations reçues à des intervalles de temps bien définis (réguliers ou non).

 

Le disque dur

 

Le disque dur est l’organe servant à conserver les données de manière permanente, contrairement à la mémoire vive, qui s’efface à chaque redémarrage de l’ordinateur. Le disque dur est relié à la carte mère par l’intermédiaire d’un contrôleur de disque dur faisant l’interface entre le processeur et le disque dur. Le contrôleur de disque dur gère les disques qui lui sont reliés, interprète les commandes envoyées par le processeur et les achemine au disque concerné. Avec l’apparition de la norme USB, des boîtiers externes permettant de connecter un disque dur sur un port USB ont fait leur apparition, rendant le disque dur facile à installer et permettant de rajouter de la capacité de stockage pour faire des sauvegardes. On parle alors de disque dur externe, par opposition aux disques durs internes branchés directement sur la carte mère, mais il s’agit bien des mêmes disques, si ce n’est qu’ils sont connectés à l’ordinateur par l’intermédiaire d’un boîtier branché sur un port USB.

 

Structure

 

Un disque dur est constitué non pas d’un seul disque, mais de plusieurs disques rigides en métal, en verre ou en céramique, empilés à une très faible distance les uns des autres et appelés plateaux (en anglais platters).

Les disques tournent très rapidement autour d’un axe (à plusieurs milliers de tours par minute actuellement) dans le sens inverse des aiguilles d’une montre. Un ordinateur fonctionne de manière binaire, c’est-à-dire que les données sont stockées sous forme de 0 et de 1 (appelés bits). Il existe sur les disques durs des millions de ces bits, stockés très proches les uns des autres sur une fine couche magnétique de quelques microns d’épaisseur, elle-même recouverte d’un film protecteur. La lecture et l’écriture se fait grâce à des têtes de lecture situées de part et d’autre de chacun des plateaux. Ces têtes sont des électroaimants qui se baissent et se soulèvent pour pouvoir lire l’information ou l’écrire. Les têtes ne sont qu’à quelques microns de la surface, séparées par une couche d’air provoquée par la rotation des disques qui crée un vent d’environ 250km/h ! De plus, ces têtes sont mobiles latéralement afin de pouvoir balayer l’ensemble de la surface du disque. Cependant, les têtes sont liées entre elles et seulement une seule tête peut lire ou écrire à un moment donné. L’ensemble de cette mécanique de précision est contenu dans un boîtier totalement hermétique, car la moindre particule peut détériorer la surface du disque. Vous pouvez donc voir sur un disque des opercules permettant l’étanchéité, et la mention « Warranty void if removed » qui signifie littéralement « la garantie expire si retiré » car seuls les constructeurs de disques durs peuvent les ouvrir (dans des salles blanches, exemptes de particules). Les têtes commencent à inscrire des données à la périphérie du disque (piste 0), puis avancent vers le centre. Les données sont organisées en cercles concentriques appelés pistes, créées par le formatage de bas niveau. Les pistes sont séparées en quartiers (entre deux rayons) que l’on appelle secteurs, contenant les données (au minimum 512 octets par secteur en général). On appelle cylindre l’ensemble des données situées sur une même piste sur des plateaux différents (c’est-à-dire à la verticale les unes des autres). On appelle enfin cluster (ou en français « unité d’allocation ») la zone minimale que peut occuper un fichier sur le disque. En effet le système d’exploitation gère des blocs qui sont en fait plusieurs secteurs (entre 1 et 16 secteurs).
Caractéristiques techniques

 

  • Capacité : volume de données pouvant être stockées sur le disque.
  • Taux de transfert (ou débit) : quantité de données pouvant être lues ou écrites sur le disque par unité de temps. Il s’exprime en bits par seconde.
  • Vitesse de rotation : vitesse à laquelle les plateaux tournent, exprimée en tours par minutes (notés rpm pour « rotations par minute »). La vitesse des disques durs est de l’ordre de 7200 à 15000 rpm. Plus la vitesse de rotation d’un disque est élevée meilleur est le débit du disque. En revanche, un disque possédant une vitesse de rotation élevée est généralement plus bruyant et chauffe plus facilement.
  • Temps de latence : temps écoulé entre le moment où le disque trouve la piste et le moment où il trouve les données.
  • Temps d’accès moyen : temps moyen que met la tête pour se positionner sur la bonne piste et accéder à la donnée. Il représente donc le temps moyen que met le disque entre le moment où il a reçu l’ordre de fournir des données et le moment où il les fournit réellement. Il doit ainsi être le plus court possible.
  • Densité radiale : nombre de pistes par pouce (tpi: Track per Inch).
  • Densité linéaire : nombre de bits par pouce sur une piste donnée (bpi: Bit per Inch).
  • Densité surfacique : rapport de la densité linéaire sur la densité radiale.
  • Mémoire cache (ou mémoire tampon) : quantité de mémoire embarquée sur le disque dur. La mémoire cache permet de conserver les données auxquelles le disque accède le plus souvent afin d’améliorer les performances globales.
  • Interface : il s’agit de la connectique du disque dur.

 

Fragmentation

 

Lorsque l’on enregistre un fichier sur le disque (celui-ci étant vide à la base), toutes les informations concernant ce fichier sont écrites les unes à la suite des autres. Lorsque l’on enregistre un deuxième fichier, celui-ci va s’enregistrer à la suite du premier et ainsi de suite. Cependant, quand un fichier est effacé, cela génère un espace vide sur le disque. Les fichiers suivants vont combler les « trous », et vont donc être éparpillés en portions de fichiers sur le disque.

Cela est d’autant plus vrai que le disque dur a une grosse capacité et possède une grande quantité de fichiers.

Ainsi, lorsque le système accède à un fichier, la tête du disque va devoir parcourir l’ensemble des endroits où les morceaux du fichier sont enregistrés pour pouvoir lire celui-ci. Cela se traduit donc par une baisse de performances…

La copie, le déplacement et la suppression des fichiers est inévitable, car le système écrit constamment des fichiers temporaires. Il est donc indispensable de recourir à un outil de défragmentation, c’est-à-dire un logiciel capable de réorganiser les fichiers sur le disque dur de telle façon que les parcelles de fichiers soient stockées de manière contiguë afin de former des fichiers plus compacts. Il est ainsi recommandé d’utiliser régulièrement (une fois par mois environ) un utilitaire de défragmentation, qui va réorganiser les données stockées sur le disque.

 

Remarque

 

Quand vous supprimez un fichier, vous n’effacez en fait que sa référence dans la table du contenu de votre disque. Les données ne sont pas perdues mais la place utilisée par votre fichier est à nouveau disponible et peut être immédiatement réutilisée. C’est pour cette raison qu’il est (souvent) possible de récupérer un fichier effacé par mégarde à l’aide d’un logiciel spécialisé, du moins tant que d’autres données n’ont pas recouverte la zone où était stocké votre fichier. Il faut donc agir vite !

 

 

  • SSD – State drive

 

Un SSD, de l’anglais « solid-state drive », est un matériel informatique permettant le stockage de données sur de la mémoire flash. Le terme anglais « solid-state » signifie que ce matériel est constitué de mémoires à semi-conducteurs à l’état solide par opposition aux disques durs classiques, sur lesquels les données sont écrites sur un support magnétique en rotation rapide.

 

Caractéristiques

 

Un SSD est matériellement plus solide qu’un disque dur : les plateaux de ces derniers étant de plus en plus souvent en verre depuis 2003, quoiqu’encore très souvent en acier, mais surtout, des chocs peuvent égratigner la surface du disque. Cette spécificité lui permet une résistance aux chocs et aux vibrations bien plus importante que les disques mécaniques.

Les SSD surclassent les disques durs classiques au niveau performance (débit, latence inexistante sur les SSD, consommation). Néanmoins, le rapport prix-espace de stockage reste encore largement à l’avantage du disque mécanique, près de dix fois moins cher en 2012.

Une tendance apparue en 2012 sur les ordinateurs de salon consiste à mettre le système sur un SSD d’environ 100 Go et les données sur un disque dur de capacité dix fois supérieure et de coût similaire.

Depuis 2013 les capacités des SSD ont beaucoup évolué et on peut en trouver de 2 To

 

 

 

 

Types de mémoires SLC, MLC ou TLC

Il existe trois types de mémoire flash :

  1. la SLC NAND (Single Level Cell), dans laquelle chaque cellule élémentaire peut stocker un seul bit (deux niveaux de charge),
  2. la MLC NAND (Multi Level Cell), dans laquelle les cellules peuvent stocker plusieurs bits (le plus souvent,2 bits), soit quatre niveaux de charge.
  3. La TLC NAND (Triple Level Cell), variante de MLC comportant3 bits, soit huit niveaux de charge, également appelé MLC « X3 » (introduites en 2009) et qui augmente encore le nombre de bits stockés par cellule.

Le stockage de plusieurs bits par cellule permet de diminuer fortement le coût de fabrication, puisque la densité est au minimum doublée, mais dégrade les performances, surtout en écriture, et réduit grandement la durée de vie des cellules. Sur des mémoires 50 nm, les SLC supportent environ 100 000 cycles écriture/effacement. La MLC a une durée de vie de l’ordre de dix fois inférieure, allant d’environ 3 000 à 10 000 cycles par cellule, selon les modèles. La TLC est la technologie ayant la plus faible durée de vie avec environ 1 000 cycles d’écriture par cellule. Plusieurs constructeurs les offrent avec une garantie de 5 à 10 ans, ce qui ne prémunit pas contre la perte de données, mais garantit qu’en cas de défaillance (si on a gardé ses preuves d’achat ou qu’on s’est enregistré par Internet) sera fourni un SSD neuf de caractéristiques équivalentes sur lequel on pourra restaurer sa dernière sauvegarde.

La majorité des SSD grand public utilisent de la mémoire MLC, tandis que la mémoire SLC se retrouve dans les SSD destinés aux entreprises et aux serveurs, ce qui crée le problème principal du SSD grand public : la limite des cycles d’écriture.

  • Clé USB

 

Une clé USB est un petit média amovible qui se branche sur le port USB d’un ordinateur, ou, plus récemment, de certaines chaînes Hi-Fi, platines DVD de salon, autoradios, radiocassettes, etc. Une clé USB contient une mémoire flash ou un mini disque dur. Les clés USB sont alimentées par le port USB de l’ordinateur sur lequel elles sont branchées. Elles sont insensibles à la poussière et aux rayures, contrairement aux disquettes, aux CD ou aux DVD, ce qui est un avantage au niveau de la fiabilité. Les clés USB sont relativement standardisées, cependant certaines ne sont pas compatibles avec certains systèmes d’exploitation, nécessitant l’installation d’un pilote. La capacité d’une clé USB est actuellement de plusieurs gigaoctets.
Durée de vie

 

La durée de vie de la clef elle-même n’est pas spécifiée et peut tomber en panne au bout de quelques mois comme de quelques années, menant à une perte partielle ou totale des données. Les constructeurs annoncent une conservation des données pendant au moins dix ans, voire beaucoup plus. Computerworld se montre plus réservé et attire l’attention sur les différences importantes existant entre différents modèles dans son article Not all USB drives are created equal.

Cette durée vient du fait que la charge électrique stockée qui représente l’information n’est pas parfaitement isolée et peut donc disparaître au bout d’un certain temps… Ce n’est donc pas un support fiable.
Performances

 

Les performances dépendent beaucoup de la conception du modèle, incluant le choix des composants, de l’architecture et du contrôleur mémoire. Des techniques telles que l’amplification d’écriture influent sur les performances. Elles peuvent aussi varier en fonction du système d’exploitation ou du matériel sur lequel elle est utilisée.

Le débit de données varie donc en lecture, en écriture et dépend également du nombre de fichiers copiés et de l’organisation du contenu de la clé. On peut donc avoir des débits de quelques Mo/s à plusieurs dizaines de Mo/s, qui peuvent chuter dans le cas de transfert d’un grand nombre de petits fichiers.