tit

lundi 24 décembre 2007

Fonctionnement HDD

Les têtes de lecture/écriture sont dites « inductives », c'est-à-dire qu'elles sont capables de générer un champ magnétique. C'est notamment le cas lors de l'écriture : les têtes, en créant des champs positifs ou négatifs, viennent polariser la surface du disque en une très petite zone, ce qui se traduira lors du passage en lecture par des changements de polarité induisant un courant dans la tête de lecture, qui sera ensuite transformé par un convertisseur analogique numérique (CAN) en 0 et en 1 compréhensibles par l'ordinateur




Les têtes commencent à inscrire des données à la périphérie du disque (piste 0), puis avancent vers le centre. Les données sont organisées en cercles concentriques appelés « pistes », créées par le formatage de bas niveau.
Les pistes sont séparées en quartiers (entre deux rayons) que l'on appelle secteurs, contenant les données (au minimum 512 octets par secteur en général).






On appelle cylindre l'ensemble des données situées sur une même piste sur des plateaux différents (c'est-à-dire à la verticale les unes des autres) car cela forme dans l'espace un "cylindre" de données.

On appelle enfin cluster (ou en français unité d'allocation) la zone minimale que peut occuper un fichier sur le disque. En effet le système d'exploitation exploite des blocs qui sont en fait plusieurs secteurs (entre 1 et 16 secteurs). Un fichier minuscule devra donc occuper plusieurs secteurs (un cluster).
Sur les anciens disques durs, l'adressage se faisait ainsi de manière physique en définissant la position de la donnée par les coordonnées cylindre / tête / secteur (en anglais CHS pour Cylinder / Head / Sector).

Structure HDD



Un disque dur est constitué non pas d'un seul disque, mais de plusieurs disques rigides (en anglais hard disk signifie disque dur) en métal, en verre ou en céramique, empilés à une très faible distance les uns des autres et appelés plateaux (en anglais platters).


Les disques tournent très rapidement autour d'un axe (à plusieurs milliers de tours par minute actuellement) dans le sens inverse des aiguilles d'une montre. Un ordinateur fonctionne de manière binaire, c'est-à-dire que les données sont stockées sous forme de 0 et de 1 (appelés bits). Il existe sur les disques durs des millions de ces bits, stockés très proches les uns des autres sur une fine couche magnétique de quelques microns d'épaisseur, elle-même recouverte d'un film protecteur.
La lecture et l'écriture se fait grâce à des têtes de lecture (en anglais heads) situées de part et d'autre de chacun des plateaux. Ces têtes sont des électro-aimants qui se baissent et se soulèvent pour pouvoir lire l'information ou l'écrire. Les têtes ne sont qu'à quelques microns de la surface, séparées par une couche d'air provoquée par la rotation des disques qui crée un vent d'environ 250km/h ! De plus ces têtes sont mobiles latéralement afin de pouvoir balayer l'ensemble de la surface du disque.


Cependant, les têtes sont liées entre elles et seulement une seule tête peut lire ou écrire à un moment donné. On parle donc de cylindre pour désigner l'ensemble des données stockées verticalement sur la totalité des disques.
L'ensemble de cette mécanique de précision est contenu dans un boîtier totalement hermétique, car la moindre particule peut détériorer la surface du disque. Vous pouvez donc voir sur un disque des opercules permettant l'étanchéité, et la mention "Warranty void if removed" qui signifie littéralement "la garantie expire si retiré" car seuls les constructeurs de disques durs peuvent les ouvrir (dans des salles blanches, exemptes de particules).


Le rôle du disque dur

Le disque dur est l'organe servant à conserver les données de manière permanente, contrairement à la mémoire vive, qui s'efface à chaque redémarrage de l'ordinateur, c'est la raison pour laquelle on parle parfois de mémoire de masse pour désigner les disques durs.
Le disque dur est relié à la carte-mère par l'intermédiaire d'un contrôleur de disque dur faisant l'interface entre le processeur et le disque dur. Le contrôleur de disque dur gère les disques qui lui sont reliés, interprête les commandes envoyées par le processeur et les achemine au disque concerné. On distingue généralement les interfaces suivantes :
IDE
SCSI
Serial ATA
Avec l'apparition de la norme USB, des boîtiers externes permettant de connecter un disque dur sur un port USB ont fait leur apparition, rendant le disque dur facile à installer et permettant de rajouter de la capacité de stockage pour faire des sauvegardes. On parle ainsi de disque dur externe par opposition aux disques durs internes branchés directement sur la carte mère, mais il s'agit bien des mêmes disques, si ce n'est qu'ils sont connectés à l'ordinateur par l'intermédiaire d'un boîtier branché sur un port USB.

Les connecteurs d'entrée-sortie

La carte mère possède un certain nombre de connecteurs d'entrées-sorties regroupés sur le « panneau arrière ».



La plupart des cartes mères proposent les connecteurs suivants :
Port série, permettant de connecter de vieux périphériques ;
Port parallèle, permettant notamment de connecter de vieilles imprimantes ;
Ports USB (1.1, bas débit, ou 2.0, haut débit), permettant de connecter des périphériques plus récents ;
Connecteur RJ45 (appelés LAN ou port ethernet) permettant de connecter l'ordinateur à un réseau. Il correspond à une carte réseau intégrée à la carte mère ;
Connecteur VGA (appelé SUB-D15), permettant de connecter un écran. Ce connecteur correspond à la carte graphique intégrée ;
Prises audio (entrée Line-In, sortie Line-Out et microphone), permettant de connecter des enceintes acoustiques ou une chaîne hi fi, ainsi qu'un microphone. Ce connecteur correspond à la carte son intégrée

Les connecteurs d'extension

Les connecteurs d'extension (en anglais slots) sont des réceptacles dans lesquels il est possible d'insérer des cartes d'extension, c'est-à-dire des cartes offrant de nouvelles fonctionnalités ou de meilleures performances à l'ordinateur. Il existe plusieurs sortes de connecteurs :
Connecteur ISA (Industry Standard Architecture) : permettant de connecter des cartes ISA, les plus lentes fonctionnant en 16-bit
Connecteur VLB (Vesa Local Bus): Bus servant autrefois à connecter des cartes graphiques
Connecteur PCI (Peripheral Component InterConnect) : permettant de connecter des cartes PCI, beaucoup plus rapides que les cartes ISA et fonctionnant en 32-bit
Connecteur AGP (Accelerated Graphic Port): un connecteur rapide pour carte graphique.
Connecteur PCI Express (Peripheral Component InterConnect Exress) : architecture de bus plus rapide que les bus AGP et PCI.
Connecteur AMR (Audio Modem Riser): ce type de connecteur permet de brancher des mini-cartes sur les PC en étant équipés






Les connecteurs de mémoire vive

La mémoire vive (RAM pour Random Access Memory) permet de stocker des informations pendant tout le temps de fonctionnement de l'ordinateur, son contenu est par contre détruit dès lors que l'ordinateur est éteint ou redémarré, contrairement à une mémoire de masse telle que le disque dur, capable de garder les informations même lorsqu'il est hors tension. On parle de « volatilité » pour désigner ce phénomène.
Pourquoi alors utiliser de la mémoire vive alors que les disques durs reviennent moins chers à capacité égale ? La réponse est que la mémoire vive est extrêmement rapide par comparaison aux périphériques de stockage de masse tels que le disque dur. Elle possède en effet un temps de réponse de l'ordre de quelques dizaines de nanosecondes (environ 70 pour la DRAM, 60 pour la RAM EDO, et 10 pour la SDRAM voire 6 ns sur les SDRam DDR) contre quelques millisecondes pour le disque dur.
La mémoire vive se présente sous la forme de barrettes qui se branchent sur les connecteurs de la carte mère

Le support de processeur

Le processeur (aussi appelé microprocesseur) est le cerveau de l'ordinateur. Il exécute les instructions des programmes grâce à un jeu d'instructions. Le processeur est caractérisé par sa fréquence, c'est-à-dire la cadence à laquelle il exécute les instructions. Ainsi, un processeur cadencé à 800 MHz effectuera grossièrement 800 millions d'opérations par seconde.
La carte mère possède un emplacement (parfois plusieurs dans le cas de cartes mères multi-processeurs) pour accueillir le processeur, appelé support de processeur. On distingue deux catégories de supports :
Slot (en français fente) : il s'agit d'un connecteur rectangulaire dans lequel on enfiche le processeur verticalement
Socket (en français embase) : il s'agit d'un connecteur carré possédant un grand nombre de petits connecteurs sur lequel le processeur vient directement s'enficher
Au sein de ces deux grandes familles, il existe des version différentes du support, selon le type de processeur. Il est essentiel, quel que soit le support, de brancher délicatement le processeur afin de ne tordre aucune de ses broches (il en compte plusieurs centaines). Afin de faciliter son insertion, un support appelé ZIF (Zero Insertion Force, traduisez force d'insertion nulle) a été créé. Les supports ZIF possèdent une petite manette, qui, lorsqu'elle est levée, permet l'insertion du processeur sans aucune pression et, lorsqu'elle est rabaissée, maintient le processeur sur son support.
Le processeur possède généralement un détrompeur, matérialisé par un coin tronqué ou une marque de couleur, devant être aligné avec la marque correspondante sur le support.



Dans la mesure où le processeur rayonne thermiquement, il est nécessaire d'en dissiper la chaleur pour éviter que ses circuits ne fondent. C'est la raison pour laquelle il est généralement surmonté d'un dissipateur thermique (appelé parfois refroidisseur ou radiateur), composé d'un métal ayant une bonne conduction thermique (cuivre ou aluminium), chargé d'augmenter la surface d'échange thermique du microprocesseur. Le dissipateur thermique comporte une base en contact avec le processeur et des ailettes afin d'augmenter la surface d'échange thermique. Un ventilateur accompagne généralement le dissipateur pour améliorer la circulation de l'air autour du dissipateur et améliorer l'échange de chaleur. Le terme « ventirad » est ainsi parfois utilisé pour désigner l'ensemble Ventilateur + Radiateur. C'est le ventilateur du boîtier qui est chargé d'extraire l'air chaud du boîtier et permettre à l'air frais provenant de l'extérieur d'y entrer

Le BIOS

Le BIOS (Basic Input/Output System) est le programme basique servant d'interface entre le système d'exploitation et la carte mère. Le BIOS est stocké dans une ROM (mémoire morte, c'est-à-dire une mémoire en lecture seule), ainsi il utilise les données contenues dans le CMOS pour connaître la configuration matérielle du système.
Il est possible de configurer le BIOS grâce à une interface (nommée BIOS setup, traduisez configuration du BIOS) accessible au démarrage de l'ordinateur par simple pression d'une touche (généralement la touche Suppr. En réalité le setup du BIOS sert uniquement d'interface pour la configuration, les données sont stockées dans le CMOS. Pour plus d'informations n'hésitez pas à vous reporter au manuel de votre carte mère).

L'horloge et la pile du CMOS

L'horloge temps réel (notée RTC, pour Real Time Clock) est un circuit chargé de la synchronisation des signaux du système. Elle est constituée d'un cristal qui, en vibrant, donne des impulsions (appelés tops d'horloge) afin de cadencer le système. On appelle fréquence de l'horloge (exprimée en MHz) le nombre de vibrations du cristal par seconde, c'est-à-dire le nombre de tops d'horloge émis par seconde. Plus la fréquence est élevée, plus le système peut traiter d'informations.
Lorsque l'ordinateur est mis hors tension, l'alimentation cesse de fournir du courant à la carte mère. Or, lorsque l'ordinateur est rebranché, le système est toujours à l'heure. Un circuit électronique, appelé CMOS (Complementary Metal-Oxyde Semiconductor, parfois appelé BIOS CMOS), conserve en effet certaines informations sur le système, telles que l'heure, la date système et quelques paramètres essentiels du système.
Le CMOS est continuellement alimenté par une pile (au format pile bouton) ou une batterie située sur la carte mère. Ainsi, les informations sur le matériel installé dans l'ordinateur (comme par exemple le nombre de pistes, de secteurs de chaque disque dur) sont conservées dans le CMOS. Dans la mesure où le CMOS est une mémoire lente, certains systèmes recopient parfois le contenu du CMOS dans la RAM (mémoire rapide), le terme de « memory shadow » est employé pour décrire ce processus de copie en mémoire vive.
Le « complémentary metal-oxyde semiconductor », est une technologie de fabrication de transistors, précédée de bien d'autres, telles que la TTL (« Transistor-transistor-logique »), la TTLS (TTL Schottky) (plus rapide), ou encore le NMOS (canal négatif) et le PMOS (canal positif).
Le CMOS a permis de mettre des canaux complémentaires sur une même puce. Par rapport à la TTL ou TTLS, le CMOS est beaucoup moins rapide, mais a consomme en revanche infiniment moins d'énergie, d'où son emploi dans les horloges d'ordinateurs, qui sont alimentées par des piles. Le terme de CMOS est parfois utilisé à tort pour désigner l'horloge des ordinateurs.
Lorsque l'heure du système est régulièrement réinitialisée, ou que l'horloge prend du retard, il suffit généralement d'en changer la pile

Le chipset

Le chipset (traduisez jeu de composants ou jeu de circuits) est un circuit électronique chargé de coordonner les échanges de données entre les divers composants de l'ordinateur (processeur, mémoire...). Dans la mesure où le chipset est intégré à la carte mère, il est important de choisir une carte mère intégrant un chipset récent afin de maximiser les possibilités d'évolutivité de l'ordinateur.
Certains chipsets intègrent parfois une puce graphique ou une puce audio, ce qui signifie qu'il n'est pas nécessaire d'installer une carte graphique ou une carte son. Il est toutefois parfois conseillé de les désactiver (lorsque cela est possible) dans le setup du BIOS et d'installer des cartes d'extension de qualité dans les emplacements prévus à cet effet

Composants intégrés

La carte mère contient un certain nombre d'éléments embarqués, c'est-à-dire intégrés sur son circuit imprimé :
Le chipset, circuit qui contrôle la majorité des ressources (interface de bus du processeur, mémoire cache et mémoire vive, slots d'extension,...),
L'horloge et la pile du CMOS,
Le BIOS,
Le bus système et les bus d'extension.
En outre, les cartes mères récentes embarquent généralement un certain nombre de périphériques multimédia et réseau pouvant être désactivés :
carte réseau intégrée ;
carte graphique intégrée ;
carte son intégrée ;
contrôleurs de disques durs évolués.

Facteur d'encombrement d'une carte mère

On désigne généralement par le terme « facteur d'encombrement » (ou facteur de forme, en anglais form factor), la géométrie, les dimensions, l'agencement et les caractéristiques électriques de la carte mère. Afin de fournir des cartes mères pouvant s'adapter dans différents boîtiers de marques différentes, des standards ont été mis au point :
AT baby / AT full format est un format utilisé sur les premiers ordinateurs PC du type 386 ou 486. Ce format a été remplacé par le format ATX possédant une forme plus propice à la circulation de l'air et rendant l'accès aux composants plus pratique ;
ATX : Le format ATX est une évolution du format Baby-AT. Il s'agit d'un format étudié pour améliorer l'ergonomie. Ainsi la disposition des connecteurs sur une carte mère ATX est prévue de manière à optimiser le branchement des périphériques (les connecteurs IDE sont par exemple situés du côté des disques). D'autre part, les composants de la carte mère sont orientés parallèlement, de manière à permettre une meilleure évacuation de la chaleur ;
ATX standard : Le format ATX standard présente des dimensions classiques de 305x244 mm. Il propose un connecteur AGP et 6 connecteurs PCI.
micro-ATX : Le format microATX est une évolution du format ATX, permettant d'en garder les principaux avantages tout en proposant un format de plus petite dimension (244x244 mm), avec un coût réduit. Le format micro-ATX propose un connecteur AGP et 3 connecteurs PCI.
Flex-ATX : Le format FlexATX est une extension du format microATX afin d'offrir une certaine flexibilité aux constructeurs pour le design de leurs ordinateurs. Il propose un connecteur AGP et 2 connecteurs PCI.
mini-ATX : Le format miniATX est un format compact alternatif au format microATX (284x208 mm), proposant un connecteur AGP et 4 connecteurs PCI au lieu des 3 du format microATX. Il est principalement destiné aux ordinateurs de type mini-PC (barebone).
BTX : Le format BTX (Balanced Technology eXtended), porté par la société Intel, est un format prévu pour apporter quelques améliorations de l'agencement des composants afin d'optimiser la circulation de l'air et de permettre une optimisation acoustique et thermique. Les différents connecteurs (connecteurs de mémoire, connecteurs d'extension) sont ainsi alignés parallèlement, dans le sens de circulation de l'air. Par ailleurs le microprocesseur est situé à l'avant du boîtier au niveau des entrées d'aération, où l'air est le plus frais. Le connecteur d'alimentation BTX est le même que celui des alimentations ATX. Le standard BTX définit trois formats :
BTX standard, présentant des dimensions standard de 325x267 mm ;
micro-BTX, de dimensions réduites (264x267 mm) ;
pico-BTX, de dimensions extrêmement réduites (203x267 mm).
ITX : Le format ITX (Information Technology eXtended), porté par la société Via, est un format extrêmement compact prévu pour des configurations exigûes telles que les mini-PC. Il existe deux principaux formats ITX :
mini-ITX, avec des dimensions minuscules (170x170 mm) est un emplacement PCI ;
nano-ITX, avec des dimensions extrêmement minuscules (120x120 mm) et un emplacement miniPCI. Ainsi, du choix d'une carte mère (et de son facteur de forme) dépend le choix du boîtier. Le tableau ci-dessous récapitule les caractéristiques des différents facteurs de forme :
Facteur de forme
Dimensions
Emplacements
ATX
305 mm x 244 mm
AGP / 6 PCI
microATX
244 mm x 244 mm
AGP / 3 PCI
FlexATX
229 mm x 191 mm
AGP / 2 PCI
Mini ATX
284 mm x 208 mm
AGP / 4 PCI
Mini ITX
170 mm x 170 mm
1 PCI
Nano ITX
120 mm x 120 mm
1 MiniPCI
BTX
325 mm x 267 mm
7
microBTX
264 mm x 267 mm
4
picoBTX
203 mm x 267 mm
1

Caractéristiques

Il existe plusieurs façons de caractériser une carte mère, notamment selon les caractéristiques suivantes :
le facteur d'encombrement,
le chipset,
le type de support de processeur,
les connecteurs d'entrée-sortie.

Présentation de la carte mère


L'élément constitutif principal de l'ordinateur est la carte mère (en anglais « mainboard » ou « motherboard », parfois abrégé en « mobo »). La carte mère est le socle permettant la connexion de l'ensemble des éléments essentiels de l'ordinateur.

Comme son nom l'indique, la carte mère est une carte maîtresse, prenant la forme d'un grand circuit imprimé possédant notamment des connecteurs pour les cartes d'extension, les barrettes de mémoires, le processeur, etc.

Constitution de l'ordinateur

Un ordinateur est un ensemble de composants électroniques modulaires, c'est-à-dire des composants pouvant être remplacés par d'autres composants ayant éventuellement des caractéristiques différentes, capables de faire fonctionner des programmes informatiques. On parle ainsi de « hardware » pour désigner l'ensemble des éléments matériels de l'ordinateur et de « software » pour désigner la partie logicielle.
Les composants matériels de l'ordinateur sont architecturés autour d'une carte principale comportant quelques circuits intégrés et beaucoup de composants électroniques tels que condensateurs, résistances, etc. Tous ces composants sont soudés sur la carte et sont reliés par les connexions du circuit imprimé et par un grand nombre de connecteurs : cette carte est appelée carte mère.
La carte mère est logée dans un boîtier (ou châssis), comportant des emplacements pour les périphériques de stockage sur la face avant, ainsi que des boutons permettant de contrôler la mise sous tension de l'ordinateur et un certain nombre de voyants permettant de vérifier l'état de marche de l'appareil et l'activité des disques durs. Sur la face arrière, le boîtier présente des ouvertures en vis-à-vis des cartes d'extension et des interfaces d'entrée-sortie connectées sur la carte mère.
Enfin, le boîtier héberge un bloc d'alimentation électrique (appelé communément alimentation), chargé de fournir un courant électrique stable et continu à l'ensemble des éléments constitutifs de l'ordinateur. L'alimentation sert donc à convertir le courant alternatif du réseau électrique (220 ou 110 Volts) en une tension continue de 5 Volts pour les composants de l'ordinateur et de 12 volts pour certains périphériques internes (disques, lecteurs de CD-ROM, ...). Le bloc d'alimentation est caractérisé par sa puissance, qui conditionne le nombre de périphériques que l'ordinateur est capable d'alimenter. La puissance du bloc d'alimentation est généralement comprise entre 200 et 450 Watts.
On appelle « unité centrale », l'ensemble composé du boîtier et des éléments qu'il contient. Les éléments externes à l'unité centrale sont appelés périphériques.
L'unité centrale doit être connectée à un ensemble de périphériques externes. Un ordinateur est généralement composé au minimum d'une unité centrale, d'un écran (moniteur), d'un clavier et d'une souris, mais il est possible de connecter une grande diversité de périphériques sur les interfaces d'entrée-sortie (ports séries, port parallèle, port USB, port firewire, etc.) :

Types d'ordinateurs

Toute machine capable de manipuler des informations binaires peut être qualifiée d'ordinateur, toutefois le terme « ordinateur » est parfois confondu avec la notion d'ordinateur personnel (PC, abréviation de personal computer), le type d'ordinateur le plus présent sur le marché. Or il existe beaucoup d'autres types d'ordinateurs (la liste suivante est non exhaustive) :
Amiga
Atari
Apple Macintosh
stations Alpha
stations SUN
stations Silicon Graphics
La suite de ce dossier, aussi générique soit-elle, s'applique ainsi plus particulièrement aux ordinateurs de type PC, appelés aussi ordinateurs compatibles IBM, car IBM est la firme qui a créé les premiers ordinateurs de ce type et a longtemps (jusqu'en 1987) été le leader dans ce domaine, à tel point qu'elle contrôlait les standards, copiés par les autres fabricants

Présentation de l'ordinateur

Un ordinateur est un ensemble de circuits électroniques permettant de manipuler des données sous forme binaire, c'est-à-dire sous forme de bits. Le mot « ordinateur » provient de la société IBM France. François Girard, alors responsable du service promotion générale publicité de l'entreprise IBM France, eut l'idée de consulter son ancien professeur de lettres à Paris, afin de lui demander de proposer un mot caractérisant le mieux possible ce que l'on appelait vulgairement un « calculateur » (traduction littérale du mot anglais « computer »).
Ainsi, Jaques Perret, agrégé de lettres, alors professeur de philologie latine à la Sorbonne, proposa le 16 avril 1955 le mot « Ordinateur » en précisant que le mot « Ordinateur » était un adjectif provenant du Littré signifiant « Dieux mettant de l'ordre dans le monde ». Ainsi, il expliqua que le concept de « mise en ordre » était tout à fait adapté.

Introduction à la notion d'ordinateur

La compréhension du vocabulaire informatique représente généralement la principale difficulté à laquelle se heurtent les acheteurs potentiels d'ordinateurs personnels. En effet, contrairement à un téléviseur, pour lequel les critères de choix sont assez limités, le choix d'un ordinateur revient à choisir chaque élément qui le compose et à en connaître les caractéristiques. Ce dossier n'a pas pour but de donner un sens à toutes les abréviations informatiques (dans la mesure où de nombreux constructeurs ont leurs propres terminologies), mais il cherche à aider à mieux comprendre les principaux composants d'un ordinateur, d'en expliquer le fonctionnement et d'en donner les principales caractéristiques.

dimanche 2 décembre 2007

Électronique analogique

L'électronique analogique est la discipline traitant des systèmes électroniques opérant sur des grandeurs (tension, courant, charge) continues. Elle diffère de l'électronique numérique dans laquelle ces dernières sont quantifiées. On emploie le terme "analogique" car les grandeurs électriques utilisées sont à l'image du signal à traiter (analogues).


Description
Le terme analogique est souvent associé à un contexte électrique, mais d'autres systèmes tels que la mécanique, la pneumatique, l'hydraulique, etc. peuvent également employer des signaux analogiques.

Signaux analogiques, signaux numériques [modifier]
L'information n'est pas codée de la même façon dans les circuits analogiques et numériques. Les systèmes numériques utilise la quantification et un codage de l'information tandis que les systèmes analogiques travaillent sur des valeurs continues.
Historiquement, les premiers systèmes électroniques étaient de type analogique. Ceux-ci ont en effet une structure plus simple. Une même fonction sera réalisée avec moins de composants en analogique qu'en numérique. Les progrès de l'intégration et l'essor de la micro-électronique ont favorisé le développement de l'électronique numérique. L'électronique analogique, si elle apparaît aujourd'hui marginale reste incontournable dans un certain nombre d'applications.
Le principal intérêt de l'électronique numérique est sa simplicité de fonctionnement qui rend son comportement très prédictible. Les règles de quantification et le synchronisme (dans les circuits synchrones) permettent de construire aisément des systèmes complexes et fiables. L'intégration a rendu cela possible et peu coûteux.
Bruit et précision
Grâce à leur quantification, les circuits numériques limitent l'impact du bruit. C'est l'avantage du codage par « tout ou rien ». Les signaux analogiques étant continus, il sont obligatoirement soumis à une incertitude due au fait que les signaux physiques sont convoyés par des charges discrètes. Par contre, la quantité d'information convoyée sur un seul fil est plus grande (à fréquence constante).
L'immunité au bruit des circuits numériques est très intéressante en traitement du signal. Elle permet en particulier d'atteindre des dynamiques importantes puisque celle-ci n'est limité que par le nombre de « fils » utilisés pour convoyer le signal. En analogique c'est le ratio entre le niveau de saturation et le niveau de bruit qui l'impose.
Le bruit étant un phénomène physique, il reste présent dans les circuits numériques. Il s'agit même d'un problème important dans les circuits récents, qui combinent les difficultés : de petits composants, de faibles tensions d'alimentations et des fréquences élevées. Le bruit est à origine de phénomènes pouvant mettre en défaut les circuits numériques (gigue, glitches)
Intégration
Bien que les circuits numériques comportent un grand nombre de composants et de nœuds, il sont souvent plus petits que les circuits analogiques car il se prêtent mieux à l'intégration. Il est moins exigeant pour un transistor de fonctionner en binaire (bloqué/saturé c'est à dire commutateur fermé/ouvert) qu'en linéaire (amplificateur). Pour faire un bon amplificateur, un transistor a en général besoin de courant et pour faire passer suffisamment de courant tout en gardant ses performances, le transistor doit être large. Les circuits numériques sont petits et plus faciles à concevoir que les systèmes analogiques. L'électronique numérique permet la conception de circuits extrêmement complexes tels que les processeurs à un coût modéré.
Difficulté de conception
Les circuits numériques ayant un principe de fonctionnement plus simples, il sont plus facile à concevoir. Les différentes parties d'un système peuvent également être plus facilement conçues séparément. La conception analogique est à l'inverse un art délicat où il faut trouver un point d'équilibre entre un ensemble de compromis. Les circuits analogiques ont bien moins de composants mais leur fonctionnement est fortement couplé.

Domaines d'utilisation [modifier]
Bien que l'électronique numérique soit largement présente dans nos vies, les systèmes analogiques sont encore largement présents et indispensables. Ils peuvent être regroupés dans différentes familles :
les capteurs : la plupart des capteurs génèrent des signaux analogiques représentant la grandeur physique à mesurer.
les circuits d'instrumentation : les chaînes d'acquisition permettent le prétraitement et l'amplification des signaux analogiques souvent faibles provenant de capteurs : on parle de systèmes d'instrumentation
les calculateurs : au milieu du XXe siècle, les calculateurs analogiques ont permis de réaliser des opérations mathématiques en manipulant des signaux analogiques. Ils ont été rapidement supplantés par l'ère numérique, néanmoins on trouve toujours des circuits pouvant réaliser de telles opérations : l'amplificateur opérationnel.
les filtres : on utilise encore beaucoup le filtrage analogique lorsque les filtres numériques, implémentés sur DSP ou FPGA sont ou trop lents (circuits HF) ou trop lourds à mettre en œuvre. Le filtre le plus simple et le plus connu est probablement le filtre RC.
les circuits d'amplification électronique : ils permettent la mise en forme de signaux analogiques pour être directement utilisables par des actionneurs : l'amplificateur électronique. Ce secteur est concurrencé par le numérique, qui a un meilleur rendement lorsqu'on traite les fortes puissances.
les actionneurs : une grande partie des actionneurs utilisent des signaux analogiques en tant que commande, bien que ceux-ci soient généralement associés à l'alimentation en énergie du système : moteur électrique, haut-parleur, etc.
les convertisseurs : enfin il existe des systèmes de conversion analogique ↔ numérique que l'on peut qualifier de mixte : CAN, CNA, MLI.
les oscillateurs : circuits générant un signal alternatif à une fréquence fixée. À l'heure actuelle, l'oscillateur contrôlé en tension ou VCO est un circuit analogique très répandu du fait de son utilisation dans les boucles à verrouillage de phase (PLL) et à verrouillage de délai (DLL). Les oscillateurs sont également très utilisés pour les circuits radiofréquence

Électronique

L'électronique est une branche de la physique appliquée qui traite des dispositifs dont le fonctionnement dépend de la circulation d'électrons.
Le terme « électronique » désigne également ce qui est en rapport avec l'électron.
On date généralement les débuts de l'électronique de l'invention du tube électronique en 1904.
En raison du succès des appareils fonctionnant grâce à l'électronique et de leur impact sur la vie courante, le grand public amalgame souvent électronique avec cybernétique (science des automatismes), aussi bien qu'avec informatique.


Définition [modifier]
L’électronique est une science technique ou science de l’ingénieur, qui étudie et conçoit les structures effectuant un traitement non linéaire des signaux électriques, c'est-à-dire courant électrique ou tension électrique, porteurs d’information ou d’énergie.
Dans cette définition la notion de l’information est considérée dans le sens le plus large : elle désigne toute grandeur (physique, telle la température ou la vitesse, ou abstraite, tel un son, une image, un code) qui évolue en temps réel selon une loi inconnue à l’avance.
Comme tous les automatismes, les systèmes électroniques bien conçus comportent deux parties :
l’une, opérative, gère les signaux de puissance porteurs d'énergie (courants forts) ;
l’autre, informationnelle, gère les signaux porteurs d’information (courants faibles).
Dans les systèmes électroniques classiques traitant l’information, celle-ci est codée par les tensions et les courants électriques. Les applications de l’électronique peuvent être subdivisées selon la finalité de l’action qu’elles visent : le traitement de l’information à proprement parler ou la commande. Les premières englobent les domaines comme l’informatique, les télécommunications, les mesures (prélèvement et stockage de l’information), etc.
Les applications de commande ont pour objet le contrôle du fonctionnement d’un système naturel ou technogène. Un contrôle implique généralement une mesure du paramètre contrôlé, sa comparaison avec le modèle et, en cas d’erreur, la génération d’une consigne de correction. Ainsi, un contrôle peut être vu comme une succession d’opérations de traitement du signal : ceci renvoie à la définition générale donnée plus haut.

Disciplines de l’électronique [modifier]
L’électronique est une famille de disciplines se distinguant suivant le type de signal traité, la famille d’application ou encore le niveau hiérarchique qu’occupe l’élément étudié dans le système global.

Types de signaux traités [modifier]

Signal informationnel analogique [modifier]
Article détaillé : électronique analogique.
La discipline s’intéressant au traitement des signaux analogiques, c’est-à-dire évoluant d’une façon continue dans le temps et pouvant prendre des valeurs appartenant à un espace de valeurs continu (ou continu par intervalles) s’appelle « électronique analogique ». La plupart des systèmes physiques le sont, car les grandeurs physiques évoluent le plus souvent d’une façon continue (par exemple, la température).

Signal informationnel numérique [modifier]
Article détaillé : électronique numérique.
Par opposition, l’électronique numérique s’intéresse au traitement des signaux dont l’espace de valeurs est discret. Ainsi le nombre de valeurs que peuvent prendre ces signaux est limité. Celles-ci sont codées par des nombres binaires. Dans le cas le plus simple, un signal numérique ne peut prendre que deux valeurs : 1 et 0. L’électronique numérique est utilisée en particulier dans les systèmes contenant un microprocesseur ou un microcontrôleur. Par exemple, un ordinateur est un appareil constitué en majeure partie par de l’électronique numérique.
À l’heure actuelle l'électronique numérique tend de plus en plus à remplacer l'électronique analogique, de manière à faciliter le développement des circuits et à apporter une meilleure intégration et une plus grande souplesse d'utilisation. Dans les applications grand public, cette évolution est particulièrement remarquable dans les domaines de l'audio et de la vidéo (caméscopes, télévision) où l'électronique analogique était depuis longtemps répandue — le cas de la photographie est un peu à part dans la mesure où l'acquisition du signal était auparavant non pas électronique mais chimique. Par contre, il ne faut pas oublier que comme les valeurs discrètes n’existent pas physiquement, des phénomènes d’électronique analogique peuvent survenir dans les circuits numériques, notamment dans les hautes fréquences. De plus certaines fonctions comme la mesure ou l'amplification sont intrinsèquement analogiques et ne pourront jamais devenir numériques. Tous les capteurs sont en général analogique.
Les signaux numériques étant également des signaux discrets en temps, on utilise en général un oscillateur à quartz (horloge) de manière à synchroniser les différentes parties d'un circuit entre elles. On appelle les circuits possédant une horloge (ou plus) des circuits synchrones. La fréquence (ou fréquence d’horloge), exprimée en hertz (Hz) d’un circuit numérique représente le nombre de changements d’état possibles d’une valeur par seconde. Cependant, il est tout à fait possible de travailler de manière asynchrone d'une horloge si on organise le fonctionnement du circuit de manière à ce que ses différentes parties se synchronisent entre elles par des échanges de signaux de contrôle (on parle d'handshaking). On parle alors d'électronique asynchrone.

Électronique mixte [modifier]
On parle également de l’électronique mixte, il s’agit alors d’un système dans lequel coexistent les signaux numériques et analogiques. Les modules particuliers à cette discipline sont le Convertisseur Analogique-Numérique (CAN) et le Convertisseur Numérique-Analogique (CNA). Ils permettent de transformer un signal analogique en signal numérique et vice versa, en réalisant ainsi une interface entre les modules purement analogiques (comme les capteurs) et purement numériques.
Par exemple, un thermomètre à affichage numérique prélève la température (qui est une grandeur analogique), mesure sa valeur, la code en une séquence numérique et puis l’affiche sur un écran. Ainsi, les deux premières opérations sont effectuées par des modules de l’électronique analogique, la troisième nécessite une conversion analogique-numérique et la dernière relève d’un traitement numérique.

Signal de puissance [modifier]
Article détaillé : électronique de puissance.
L’électronique de puissance est l’ensemble des techniques qui s’intéressent à l’énergie contenue dans les signaux électriques, contrairement aux autres disciplines électroniques, qui elles s'intéressent principalement à l’information contenue dans ces signaux. La gamme de puissance traitée en électronique de puissance varie de quelques micro Watt à plusieurs Mégawatts.
L’électronique de puissance repose sur des dispositifs permettant de changer la forme de l’énergie électrique, (convertisseurs) et des dispositifs transducteurs (le plus couramment des turbines et des moteurs électriques). L’électronique de puissance a comme champ d’application l’électrotechnique domestique et industrielle où elle remplace les anciennes solutions électromécaniques.

Hiérarchie de l’objet d’étude [modifier]
D’une façon indépendante de l’application, certaines disciplines de l’électronique sont définies suivant la place qu’occupe l’objet de l’étude dans la hiérarchie d’un système électronique.

Physique des composants [modifier]
Au niveau le plus bas se situe un composant, ou un dispositif électronique. La branche s’intéressant à la conception et à l’étude d’un composant électronique élémentaire s’appelle « physique des composants ». Elle est connexe au savoir-faire technologique, qui lui regroupe l’ensemble des connaissances et outils nécessaires pour fabriquer un composant. On parle ainsi de la « technologie de l’électronique ». Les domaines de la technologie et de la physique des composants électroniques font essentiellement appel aux compétences dans les sciences fondamentales, telles que la physique du solide et des procédés chimiques. Même si ces activités sont vitales pour l’électronique, elles ont peu à voir avec l’électronique en tant que génie du traitement du signal. On devrait plutôt les considérer comme une porte d’entrée du monde de la physique fondamentale vers la science appliquée qu’est l’électronique. Les composants de base de l’électronique sont les transistors, les résistances, les condensateurs, les diodes, etc.

Génie électronique [modifier]
Un circuit électronique est le principal objet d’étude de la science de l’électronique. Un circuit électronique est un système incluant plusieurs composants électroniques associés. Le mot circuit vient du fait que le traitement s’effectue grâce à des courants électriques circulant dans les composants interconnectés. La branche étudiant les propriétés des circuits électroniques s’appelle « théorie des circuits ». La discipline qui étudie la méthodologie permettant de réaliser une fonction de traitement particulière à base d’un circuit s’appelle « conception des circuits électroniques ». Les systèmes électroniques modernes comportent des centaines de millions de composants élémentaires. Pour cette raison le génie des circuits électroniques ne s’intéresse qu’à la réalisation de fonctions (ou modules) relativement simples, nécessitant quelques dizaines de composants.

Taille des circuits électroniques [modifier]
Le classement précédent se recoupe avec un classement suivant la taille des circuits électroniques considérés.

Électronique des tubes à vide [modifier]
Comme son nom l’indique, elle recourt à des tubes à vide, ou tubes électroniques comme composants actifs élémentaires (diodes à vide, triodes, tétrodes, pentodes...). Elle ne subsiste guère plus aujourd’hui que sous la forme des tubes cathodiques des récepteurs de télévision et de certains composants d’émetteurs radio de très forte puissance, et ces tubes-là sont d’ailleurs eux aussi en voie de disparition. Reste toutefois la technologie des tubes à vide utilisés en audio, dans les amplificateurs guitare notamment.
Les tubes à vide, dans leur configuration la plus simple (diode), sont composés de deux électrodes, appelés cathode et anode installées dans un tube de verre où le vide a été créé. La cathode est chauffée par un élément chauffant, ce qui permet de créer un 'nuage' d'électrons à proximité de la cathode. Lorsque le circuit électronique auquel le tube est branché crée un potentiel positif à l'anode par rapport à la cathode, il se produit un courant électrique (d'électrons) entre la cathode et l'anode (appelé courant cathodique). Il est possible d'incorporer des grilles métalliques entre la cathode et l'anode. Différents potentiels appliqués à ces grilles auront pour effet de contrôler le courant cathodique. Les tubes équipés d'une grille sont appelés triodes (trois électrodes).
La conception des tubes à vide la rend extrêmement tolérante aux surcharges. Cette particularité positionne encore aujourd'hui le tube à vide comme un candidat important pour les applications extrêmes, tel que les émetteurs radio (MA et MF) de puissance et les tubes d'émission à rayons X.
Enfin, notons que la lumière (un seul photon) dirigé vers la cathode est suffisante pour générer un courant cathodique, et ce, sans même utiliser d'élément chauffant. Les 'dynodes' utilisent ce principe en cascade pour détecter les photons dans certaines applications d'imagerie médicales.

Électronique individuelle [modifier]
Elle recourt à des composants élémentaires individuels ou « discrets » (par opposition à intégrés) assemblés le plus souvent sur des cartes électroniques. Ce type de conception électronique n’est guère plus utilisée que pour des montages expérimentaux ou dans le cadre de l’électronique de loisir, car elle a été supplantée par la micro-électronique. Sur une carte électronique actuelle, bien que les circuits intégrés accomplissent les principales fonctions, on trouve cependant toujours les composants discrets nécessaires à leur mise en œuvre (résistances et condensateurs essentiellement).

Micro-électronique [modifier]
Ce vocable est né du processus de la miniaturisation des composants électroniques élémentaires. Cette miniaturisation a commencé dans les années cinquante avec la naissance des semi-conducteurs, elle a atteint une phase presque extrême aujourd’hui. En effet, depuis six décennies la taille des composants élémentaires n’a cessé de diminuer, pour atteindre des dimensions de l’ordre de quelques dizaines de nanomètres. Ces progrès sont devenus possibles grâce aux avancées dans les procédés de traitement des matériaux semi-conducteurs, notamment du silicium, qui ont permis de réaliser plusieurs millions de composants élémentaires sur une surface de quelques millimètres carrés. Ainsi, la micro-électronique s’intéresse aux systèmes électroniques utilisant des composants de dimensions micrométriques et nanométriques. L’expression « électronique intégrée » est un synonyme de ce vocable : elle évoque un ensemble de composants « intégrés » sur une seule puce de semi-conducteur, communément appelé circuit intégré.

Nano-électronique et électronique moléculaire [modifier]
Par ailleurs, en parlant des systèmes de l’électronique moderne, le préfixe « micro » commence à être obsolète, dans la mesure où l’on voit apparaître des composants dont la taille se mesure en nanomètres et parfois comparable à celle des molécules. On évoque ainsi la nano-électronique, les nanotechnologies et l’électronique moléculaire. Des avancées techniques récentes permettent même d’envisager la conception de composants basés sur la propriété des électrons et de leur spin : la spintronique.

Microsystèmes [modifier]
Depuis quelques années, avec les progrès dans les micro- et nano-technologies, on observe une fusion des systèmes appartenant à différents domaines techniques (mécaniques, thermiques, optiques...) autour des circuits et systèmes électroniques. Ces fusions sont souvent appelées « systèmes à traitement de signal multi-domaine », ou « systèmes multi-domaines ». À l’origine de ces progrès sont les procédés d’usinage du silicium très évolués, qui permettent de réaliser des structures tridimensionnelles sur les mêmes cristaux de silicium avec les circuits électroniques. Cette proximité offre une interpénétration des traitements traditionnellement se déroulant dans des domaines différents, et une coexistence des signaux de différentes natures physiques (thermique, mécanique, optique...) dans un même système.

Microsystème électromécanique [modifier]
Ainsi, dans les années 1990 la véritable révolution technologique a eu lieu avec l’apparition des Microsystèmes électromécaniques (en anglais MEMS comme MicroElectroMechanical Systems). Il s’agit de mécanismes classiques tels que des résonateurs, poutres, micromoteurs, etc. réalisés sur silicium à l’échelle micrométrique. Ces différents éléments mécaniques sont mis en mouvement (actionnés) grâce aux forces générées par des transducteurs électromécaniques. Ceux-ci sont alimentés par des tensions produites avec des circuits électroniques avoisinants. Les transducteurs électromécaniques jouent alors le rôle de l’interface entre les domaines mécanique et électrique. Les transducteurs électrostatiques ou capacitifs y sont utilisés le plus souvent, bien que l’on puisse rencontrer des interfaces électromécaniques basées sur des phénomènes magnétiques et thermomécaniques.

Historique [modifier]
Depuis le début du 19e siècle, au fur et à mesure des découvertes des possibilités de l’électricité, les composants et applications électroniques ont vu le jour, (parfois sans possibilité d’application immédiate ou de fabrication industrielle, ces découvertes ne seront utilisées que plus tard).
Sans électronique et bien évidemment l’alimentation en électricité indispensable à son fonctionnement, la vie dans notre société moderne serait bien différente.
Voir aussi les composants électroniques en général.

Base théorique [modifier]
Un composant est un élément permettant de construire un circuit électrique où circule un courant électrique.

Composants passifs [modifier]
Un composant est dit "passif" quand il obéit à la loi d'Ohm généralisée, c’est-à-dire quand la tension U aux bornes du composant varie linéairement avec l’intensité I du courant qui y circule, ou que :
en régime continu (R = résistance)
en tout régime (Z = impédance)
Ils n'ont pas pour fonction de modifier la nature du courant électrique qui les traverse.
Les composant dits passifs (résistance, condensateur, bobine, connecteur) ont vu leurs techniques de fabrication évoluer très sensiblement, suivant de près les améliorations technologiques.
Par contre leurs principes fondamentaux n’ont jamais été remis en question.

Composants actifs [modifier]
Un composant est dit "actif" lorsque celui-ci a pour but de modifier le ou les courants qui le traverse. Par exemple, les diodes, triodes, les transistors, les thyristors, etc. sont des composants actifs.
Au début, les composants actifs comprenaient uniquement des tubes électroniques.
Depuis avec l'utilisation des semi-conducteurs et entre autres l’invention du transistor en 1948, l’électronique grand public a envahi nos maisons, nos automobiles, le téléphone et toutes les machines de la vie courante.
Les circuits intégrés, évolution intégré du transistor, gagnent de jour en jour en densité. Ceux-ci ont favorisé l’explosion de l’électronique moderne : analogique et surtout numérique.
La miniaturisation des applications voit l'émergence de l'électronique faible puissance, discipline qui permet de créer des appareils électroniques portables, au début les montres (dès 1967[1]), puis des appareils médicaux (aides auditives) et maintenant les ordinateurs et téléphones portables.
L’ère des micro-ordinateurs a pu voir le jour grâce aux avancées de l’électronique numérique.
Lors des deux dernières décennies du XXe siècle, l’électronique a été associée aux possibilités de la lumière et de l’optique (laser et fibre optique) : l’opto-électronique, pour fabriquer de nouvelles générations de machines électroniques

Types de mémoires vives

On distingue généralement deux grandes catégories de mémoires vives :
Les mémoires dynamiques (DRAM, Dynamic Random Access Module), peu coûteuses. Elles sont principalement utilisées pour la mémoire centrale de l'ordinateur ;
Les mémoires statiques (SRAM, Static Random Access Module), rapides et onéreuses. Les SRAM sont notamment utilisées pour les mémoires cache du processeur ;
Fonctionnement de la mémoire vive
La mémoire vive est constituée de centaines de milliers de petits condensateurs emmagasinant des charges. Lorsqu'il est chargé, l'état logique du condensateur est égal à 1, dans le cas contraire il est à 0, ce qui signifie que chaque condensateur représente un bit de la mémoire.
Etant donné que les condensateurs se déchargent, il faut constamment les recharger (le terme exact est rafraîchir, en anglais refresh) à un intervalle de temps régulier appelé cycle de rafraîchissement. Les mémoires DRAM nécessitent par exemple des cycles de rafraîchissement est d'environ 15 nanosecondes (ns).
Chaque condensateur est couplé à un transistor (de type MOS) permettant de « récupérer » ou de modifier l'état du condensateur. Ces transistors sont rangés sous forme de tableau (matrice), c'est-à-dire que l'on accède à une case mémoire (aussi appelée point mémoire) par une ligne et une colonne.

Chaque point mémoire est donc caractérisé par une adresse, correspondant à un numéro de ligne (en anglais row) et un numéro de colonne (en anglais column). Or cet accès n'est pas instantané et s'effectue pendant un délai appelé temps de latence. Par conséquent l'accès à une donnée en mémoire dure un temps égal au temps de cycle auquel il faut ajouter le temps de latence.
Ainsi, pour une mémoire de type DRAM, le temps d'accès est de 60 nanosecondes (35ns de délai de cycle et 25 ns de temps de latence). Sur un ordinateur, le temps de cycle correspond à l'inverse de la fréquence de l'horloge, par exemple pour un ordinateur cadencé à 200 MHz, le temps de cycle est de 5 ns (1/(200*106)).
Par conséquent un ordinateur ayant une fréquence élevée et utilisant des mémoires dont le temps d'accès est beaucoup plus long que le temps de cycle du processeur doit effectuer des cycles d'attente (en anglais wait state) pour accèder à la mémoire. Dans le cas d'un ordinateur cadencé à 200 MHz utilisant des mémoires de types DRAM (dont le temps d'accès est de 60ns), il y a 11 cycles d'attente pour un cycle de transfert. Les performances de l'ordinateur sont d'autant diminuées qu'il y a de cycles d'attentes, il est donc conseillé d'utiliser des mémoires plus rapides.
Formats de barrettes de mémoire vive
Il existe de nombreux types de mémoires vives. Celles-ci se présentent toutes sous la forme de barrettes de mémoire enfichables sur la carte-mère.
Les premières mémoires se présentaient sous la forme de puces appelées DIP (Dual Inline Package). Désormais les mémoires se trouvent généralement sous la forme de barrettes, c'est-à-dire des cartes enfichables dans des connecteurs prévus à cet effet. On distingue habituellement trois types de barrettes de RAM :
les barrettes au format SIMM (Single Inline Memory Module) : il s'agit de circuits imprimés dont une des faces possède des puces de mémoire. Il existe deux types de barrettes SIMM, selon le nombre de connecteurs :
Les barrettes SIMM à 30 connecteurs (dont les dimensions sont 89x13mm) sont des mémoires 8 bits qui équipaient les premières générations de PC (286, 386).

Les barrettes SIMM à 72 connecteurs (dont les dimensions sont 108x25mm) sont des mémoires capables de gérer 32 bits de données simultanément. Ces mémoires équipent des PC allant du 386DX aux premiers Pentium. Sur ces derniers le processeur travaille avec un bus de données d'une largeur de 64 bits, c'est la raison pour laquelle il faut absolument équiper ces ordinateurs de deux barrettes SIMM. Il n'est pas possible d'installer des barrettes 30 broches sur des emplacements à 72 connecteurs dans la mesure où un détrompeur (encoche au centre des connecteurs) en empêche l'enfichage.

les barrettes au format DIMM (Dual Inline Memory Module) sont des mémoires 64 bits, ce qui explique pourquoi il n'est pas nécessaire de les apparier. Les barrettes DIMM possèdent des puces de mémoire de part et d'autre du circuit imprimé et ont également 84 connecteurs de chaque côté, ce qui les dote d'un total de 168 broches. En plus de leurs dimensions plus grandes que les barrettes SIMM (130x25mm) ces barrettes possèdent un second détrompeur pour éviter la confusion.
Il peut être intéressant de noter que les connecteurs DIMM ont été améliorés afin de faciliter leur insertion grâce à des leviers situés de part et d'autre du connecteur.
Il existe en outre des modules de plus petite taille, appelés SO DIMM (Small Outline DIMM), destinés aux ordinateurs portables. Les barrettes SO DIMM comportent uniquement 144 broches pour les mémoires 64 bits et 77 pour les mémoires 32 bits.
les barrettes au format RIMM (Rambus Inline Memory Module, appelées également RD-RAM ou DRD-RAM) sont des mémoires 64 bits développée par la société Rambus. Elles possèdent 184 broches. Ces barrettes possèdent deux encoches de repérage (détrompeurs), évitant tout risque de confusion avec les modules précédents.
Compte tenu de leur vitesse de transfert élevée, les barrettes RIMM possèdent un film thermique chargé d'améliorer la dissipation de la chaleur.
Comme dans le cas des DIMM, il existe des modules de plus petite taille, appelés SO RIMM (Small Outline RIMM), destinés aux ordinateurs portables. Les barrettes SO RIMM comportent uniquement 160 broches.
DRAM PM
La DRAM (Dynamic RAM, RAM dynamique) est le type de mémoire le plus répandu au début du millénaire. Il s'agit d'une mémoire dont les transistors sont rangés dans une matrice selon des lignes et des colonnes. Un transistor, couplé à un condensateur donne l'information d'un bit. 1 octet comprenant 8 bits, une barrette de mémoire DRAM de 256 Mo contiendra donc 256 * 2^10 * 2^10 = 256 * 1024 * 1024 = 268 435 456 octets = 268 435 456 * 8 = 2 147 483 648 bits = 2 147 483 648 transistors. Une barrette de 256 Mo possède ainsi en réalité une capacité de 268 435 456 octets, soit 268 Mo ! Ce sont des mémoires dont le temps d'accès est de 60 ns.
D'autre part, les accès mémoire se font généralement sur des données rangées consécutivement en mémoire. Ainsi le mode d'accès en rafale (burst mode) permet d'accéder aux trois données consécutives à la première sans temps de latence supplémentaire. Dans ce mode en rafale, le temps d'accès à la première donnée est égal au temps de cycle auquel il faut ajouter le temps de latence, et le temps d'accès aux trois autres données est uniquement égal aux temps de cycle, on note donc sous la forme X-Y-Y-Y les quatre temps d'accès, par exemple la notation 5-3-3-3 indique une mémoire pour laquelle 5 cycles d'horloge sont nécessaires pour accéder à la première donnée et 3 pour les suivantes.
DRAM FPM
Pour accélérer les accès à la DRAM, il existe une technique, appelée pagination consistant à accéder à des données situées sur une même colonne en modifiant uniquement l'adresse de la ligne, ce qui permet d'éviter la répétition du numéro de colonne entre la lecture de chacune des lignes. On parle alors de DRAM FPM (Fast Page Mode). La FPM permet d'obtenir des temps d'accès de l'ordre de 70 à 80 nanosecondes pour une fréquence de fonctionnement pouvant aller de 25 à 33 Mhz.
DRAM EDO
La DRAM EDO (Extended Data Out, soit Sortie des données améliorée parfois également appelé "hyper-page") est apparue en 1995. La technique utilisée avec ce type de mémoire consiste à adresser la colonne suivante pendant la lecture des données d'une colonne. Cela crée un chevauchement des accès permettant de gagner du temps sur chaque cycle. Le temps d'accès à la mémoire EDO est donc d'environ 50 à 60 nanosecondes pour une fréquence de fonctionnement allant de 33 à 66 Mhz.
Ainsi, la RAM EDO, lorsqu'elle est utilisée en mode rafale permet d'obtenir des cycles de la forme 5-2-2-2, soit un gain de 4 cycles sur l'accès à 4 données. Dans la mesure où la mémoire EDO n'acceptait pas des fréquences supérieures à 66 Mhz, elle a disparu au bénéfice de la SDRAM.
SDRAM
La SDRAM (Synchronous DRAM, traduisez RAM synchrone), apparue en 1997, permet une lecture des données synchronisée avec le bus de la carte-mère, contrairement aux mémoires EDO et FPM (qualifiées d'asynchrones) possédant leur propre horloge. La SDRAM permet donc de s'affranchir des temps d'attente dus à la synchronisation avec la carte-mère. Celle-ci permet d'obtenir un cycle en mode rafale de la forme 5-1-1-1, c'est-à-dire un gain de 3 cycles par rapport à la RAM EDO. De cette façon la SDRAM est capable de fonctionner avec une cadence allant jusqu'à 150 Mhz, lui permettant d'obtenir des temps d'accès d'environ 10 ns.
DR-SDRAM (Rambus DRAM)
La DR-SDRAM (Direct Rambus DRAM ou encore RDRAM) est un type de mémoire permettant de transférer les données sur un bus de 16 bits de largeur à une cadence de 800Mhz, ce qui lui confère une bande passante de 1,6 Go/s. Comme la SDRAM, ce type de mémoire est synchronisé avec l'horloge du bus pour améliorer les échanges de données. En contrepartie, la mémoire RAMBUS est une technologie propriétaire, ce qui signifie que toute entreprise désirant construire des barrettes de RAM selon cette technologie doit reverser des droits (royalties) aux sociétés RAMBUS et Intel.
DDR-SDRAM
La DDR-SDRAM (Double Data Rate SDRAM) est une mémoire basée sur la technologie SDRAM, permettant de doubler le taux de transfert de la SDRAM à fréquence égale.
La lecture ou l'écriture de données en mémoire est réalisé sur la base d'une horloge. Les mémoires DRAM standard utilisent une méthode appelé SDR (Single Data Rate) consistant à lire ou à écrire une donnée à chaque front montant.

La DDR permet de doubler la fréquence des lectures/écritures, avec une horloge cadencée à la même fréquence, en envoyant les données à chaque front montant, ainsi qu'à chaque front descendant.

Les mémoires DDR possèdent généralement une appellation commerciale du type PCXXXX où «XXXX» représente le débit en Mo/s.
DDR2-SDRAM
La mémoire DDR2 (ou DDR-II) permet d'atteindre des débits deux fois plus élevés que la DDR à fréquence externe égale.
On parle de QDR (Quadruple Data Rate ou quad-pumped)pour désigner la méthode de lecture et d'écriture utilisée. La mémoire DDR2 utilise en effet deux canaux séparés pour la lecture et pour l'écriture, si bien qu'elle est capable d'envoyer ou de recevoir deux fois plus de données que la DDR.

La DDR2 possède également un plus grand nombre de connecteurs que la DDR classique (240 pour la DDR2 contre 184 pour la DDR

Le MICROPROCESSEUR


1. Qu’est ce qu’un microprocesseur ?
Un microprocesseur est un composant électronique minuscule,fabriqué le plus souvent en silicium, qui regroupe un certain nombre de transistors élémentaires interconnectés. Le microprocesseur exécute les fonctions d’unité centrale d’ordinateur (CPU), c’est à dire d’exécuter des instructions envoyées par un programme .
1.1 Composition d’un microprocesseur (circuits électriques internes):
Un microprocesseur est constitué de portes logiques . Ces portes logiques sont composées de transistors qui fonctionnent comme des interrupteurs .On trouve deux sortes de porte de base: les MOS et les CMOS . C'est à partir de celles-ci que sont fabriquées les fonctions logiques comme OR, AND, NOT, XOR, NOR , NAND . Ces fonctions de base vont constituer le circuit interne du microprocesseur c'est à dire que l'on peut former toutes les autres fonctions comme, l'addition, la soustraction …
1.2 Cisc ou Risc :
Le CISC (Complex Instruction Set Computer) est un type de processeur pour lequel chaque instruction correspond à un câblage matériel. Cette technologie est basée sur un jeu de plus de 400 instructions. Ces jeux d’instructions ont beaucoup plus d’inconvénients par rapport aux performances (plusieurs cycles peuvent exécuter une instruction, chaleur, coût,…) . Par conséquent, on a préféré faire appel à une nouvelle technologie : le RISC (Reduced Instruction Set Computer). Le RISC est constitué d’instructions simples qui permettent de gagner une rapidité d’exécution mais au détriment d’une programmation plus complexe pour le compilateur . En effet, celui-ci n'offre que 128 instructions, dites de base. Mais une instruction peut être exécutée en un seul cycle. De plus, cette technologie a permis la création de nouveaux procédés comme la multiplication des unités spécialisées.
Un processeur RISC peut atteindre une vitesse d'exécution jusqu'à 70% plus rapide qu'un CISC de même fréquence.
Depuis le P5 (pentium), les microprocesseurs utilisent des technologies empruntées de la famille RISC.
1.3 Architecture minimum d’un microprocesseur :
Un microprocesseur peut être divisé en quatre grandes parties :
Les registres :
les registres sont des petites mémoires linéaires, à accès parallèle, dont la capacité peut varier d’un à plusieurs octets .On trouve trois styles de registres :
Ø les accumulateurs : qui stockent le résultat de l’instruction traitée ;
Ø le compteur ordinal(CO) : qui permet de retrouver l’adresse de l’information dans la mémoire ;
Ø les registres d’instructions : qui enregistrent le code de l’instruction qui vient d’être lue dans la mémoire et ramenée dans le microprocesseur .
Le décodeur :
Le décodeur sert à animer les circuits électriques nécessaires à l’exécution de l’instructions lue . En faite, il gère la mise en place des portes logiques pour le bon déroulement de l’opération demandée .
Le séquenceur (Le circuit de commandes et de séquencement) :
Le séquenceur a pour but de mettre en place chaque section de microprocesseur en service à tour de rôle .
L’unité arithmétique et logique (UAL) :
L’UAL est chargée d’exécuter les opérations arithmétiques et logiques du programme.
R.Q. :On peut également trouver des circuits d’une horloge à quartz intégré au microprocesseur.
2. Circulation de l’information dans un microprocesseur :
On distingue 5 cycles pour exécuter une instruction :
1. La recherche de donnée en mémoire (fetch)
2. Lecture du code d'instruction
3. Décode de l'instruction
4. Superviser l'exécution de l'instruction
5. Revenir au début

1.4 L'exécution dynamique
L'exécution dynamique peut être décomposée en trois composants:
La prédiction de branchement :
Ce procédé consiste à deviner l'emplacement de la prochaine instruction devant être traitée, puis à la diriger vers le bon pipeline. Cela permet d'éviter les sauts et les boucles risquant de faire perdre les gains apportés par les pipelines. Au dire d'Intel, un processeur tel que le Pentium II aurait une capacité de prédiction de l'ordre de 90%
L'analyse de flux :
Ce procédé est chargé de réagencer l'ordre de traitement des données afin de l'optimiser. Il devra aussi choisir entre les deux pipelines, l'entier et celui à virgule flottante. De plus, il lui est nécessaire de tenir compte du temps de traitement de chaque instruction.
Ainsi, il permet d'obtenir de bien meilleures performances qu'en traitant le programme original tel quel. En fait, il se charge de réparer les dégâts provoqués par un mauvais compilateur.
L'exécution spéculative :
Ce dernier procédé travaille main dans la main avec la prédiction de branchement. Il permet de traiter les instructions des différentes portions de code envisageable à l'avance. Ainsi, il peut anticiper le résultat qui devra être obtenu après un saut.

2. Les autres composants d'un microprocesseur :
2.1 Le coprocesseur (ou FPU)
D'apparence semblable au processeur, son rôle est de prendre en charge toutes les instructions dites à virgule flottante (floating point). Il décharge ainsi le processeur de ce type d'instruction, augmentant la vitesse générale du PC.
2.2 La cache ( ou antémémoire )
La cache est une mémoire RAM très rapide (de l’ordre du nanoseconde) . Son but est d’accélérer le système en réalisant un tampon entre la mémoire vive et le microprocesseur . En effet, si le microprocesseur cherche une donnée et qu’elle se trouve dans la cache, le gain de temps s’en trouve réduit de l’ordre de 90 % (avec 64 Ko de cache) par rapport à un accès direct à la mémoire vive .
2.3 Les pipelines
Le principe de pipeline consiste à intégrer plusieurs blocs fonctionnels au sein du processeur. Chacun de ces blocs est chargé de remplir une fonction spécifique dans le processus de traitement. On peut comparer un pipeline à une chaîne de montage. Chaque poste remplit une fonction spécifique, pour aboutir à un produit fini à la sortie de la chaîne. Ainsi, un pipeline intègre un module spécialisé dans le chargement d'une instruction, le suivant de son décodage, et ainsi de suite.
2.4 Les nouveaux jeux d’instructions
Le Mmx
Cinquante-sept instructions ont été ajoutées au microcode. Celles-ci ont pour but d'accélérer les traitements des images et du son. Pour cela, la technologie SIMD ( Single Instruction Multiple Data ) est utilisée. Elle permet de traiter jusqu'à 8 instructions en un seul cycle d'horloge. Ce point n'est valable qu'avec les programmes exploitant ce type d'instruction ( Photoshop 4, ... ). De plus, un processeur MMX est capable d'émuler un modem ou une carte son.
Le 3D Now !
Le 3D Now ! fait son apparition sur le K6 2. Il s'agit d'un jeu de 21 nouvelles instructions, notamment dédiées à la 3D Temps réel. Grâce sur le SIMD (Single Instruction, Multiple Data), une instruction 3D Now ! peut en un seul cycle effectuer 2 opérations FP par cycle. Le K6 2 étant capable d’exécuter 2 instructions 3D Now par cycle d'horloge, il pourra donc effectuer jusqu’à 4 opérations FP par cycle lorsque que le 3D Now ! est utilisé au maximum de son potentiel. Mais ce n'est pas tout, une nouvelle instruction 3D Now ! opérant sur les entiers (PAVGUSB) vient accélérer le motion compensation, une des étapes du décodage MPEG-2. De plus, l'instruction PREFETCH permet d’accélérer le chargement des données alors que l'instruction FEMMS (Fast Entry/Exit Multimedia State) permet de réduire la perte de temps lors du passage entre MMX et FPU.
Les instructions SSE
Il s'agit d'instructions supplémentaires qui équipe les processeurs INTEL PENTIUM III et 4. Ces intructions sont principalement destinées au multimédia, au traitement du son, à l'encodage vidéo et à la retouche d'image. Elles optimisent aussi les performances des jeux !
2.5 La fréquence
En dehors de la famille du processeur, la fréquence est un élément déterminant de la vitesse de ce composant. Celle-ci est exprimée en MégaHertz (Mhz), soit en million de cycles à la seconde. Il convient de savoir qu'une opération effectuée par l'utilisateur peut correspondre à de nombreux cycles pour le processeur. Mais, plus la fréquence est élevée, plus le processeur réagira vite.
2.6 la gravure
La fabrication du microprocesseur repose sur le procédé de photolithographie. Sur une couche de silicium, on dispose une couche isolante de dioxyde de silicium que l'on recouvre d'un agent photorésistant. Ce dernier permettra l'impression du circuit à l'aide d'ultra- violets. ( c'est la photogravure ).


foter