L'électronique analogique est la discipline traitant des systèmes électroniques opérant sur des grandeurs (tension, courant, charge) continues. Elle diffère de l'électronique numérique dans laquelle ces dernières sont quantifiées. On emploie le terme "analogique" car les grandeurs électriques utilisées sont à l'image du signal à traiter (analogues).
Description
Le terme analogique est souvent associé à un contexte électrique, mais d'autres systèmes tels que la mécanique, la pneumatique, l'hydraulique, etc. peuvent également employer des signaux analogiques.
Signaux analogiques, signaux numériques [modifier]
L'information n'est pas codée de la même façon dans les circuits analogiques et numériques. Les systèmes numériques utilise la quantification et un codage de l'information tandis que les systèmes analogiques travaillent sur des valeurs continues.
Historiquement, les premiers systèmes électroniques étaient de type analogique. Ceux-ci ont en effet une structure plus simple. Une même fonction sera réalisée avec moins de composants en analogique qu'en numérique. Les progrès de l'intégration et l'essor de la micro-électronique ont favorisé le développement de l'électronique numérique. L'électronique analogique, si elle apparaît aujourd'hui marginale reste incontournable dans un certain nombre d'applications.
Le principal intérêt de l'électronique numérique est sa simplicité de fonctionnement qui rend son comportement très prédictible. Les règles de quantification et le synchronisme (dans les circuits synchrones) permettent de construire aisément des systèmes complexes et fiables. L'intégration a rendu cela possible et peu coûteux.
Bruit et précision
Grâce à leur quantification, les circuits numériques limitent l'impact du bruit. C'est l'avantage du codage par « tout ou rien ». Les signaux analogiques étant continus, il sont obligatoirement soumis à une incertitude due au fait que les signaux physiques sont convoyés par des charges discrètes. Par contre, la quantité d'information convoyée sur un seul fil est plus grande (à fréquence constante).
L'immunité au bruit des circuits numériques est très intéressante en traitement du signal. Elle permet en particulier d'atteindre des dynamiques importantes puisque celle-ci n'est limité que par le nombre de « fils » utilisés pour convoyer le signal. En analogique c'est le ratio entre le niveau de saturation et le niveau de bruit qui l'impose.
Le bruit étant un phénomène physique, il reste présent dans les circuits numériques. Il s'agit même d'un problème important dans les circuits récents, qui combinent les difficultés : de petits composants, de faibles tensions d'alimentations et des fréquences élevées. Le bruit est à origine de phénomènes pouvant mettre en défaut les circuits numériques (gigue, glitches)
Intégration
Bien que les circuits numériques comportent un grand nombre de composants et de nœuds, il sont souvent plus petits que les circuits analogiques car il se prêtent mieux à l'intégration. Il est moins exigeant pour un transistor de fonctionner en binaire (bloqué/saturé c'est à dire commutateur fermé/ouvert) qu'en linéaire (amplificateur). Pour faire un bon amplificateur, un transistor a en général besoin de courant et pour faire passer suffisamment de courant tout en gardant ses performances, le transistor doit être large. Les circuits numériques sont petits et plus faciles à concevoir que les systèmes analogiques. L'électronique numérique permet la conception de circuits extrêmement complexes tels que les processeurs à un coût modéré.
Difficulté de conception
Les circuits numériques ayant un principe de fonctionnement plus simples, il sont plus facile à concevoir. Les différentes parties d'un système peuvent également être plus facilement conçues séparément. La conception analogique est à l'inverse un art délicat où il faut trouver un point d'équilibre entre un ensemble de compromis. Les circuits analogiques ont bien moins de composants mais leur fonctionnement est fortement couplé.
Domaines d'utilisation [modifier]
Bien que l'électronique numérique soit largement présente dans nos vies, les systèmes analogiques sont encore largement présents et indispensables. Ils peuvent être regroupés dans différentes familles :
les capteurs : la plupart des capteurs génèrent des signaux analogiques représentant la grandeur physique à mesurer.
les circuits d'instrumentation : les chaînes d'acquisition permettent le prétraitement et l'amplification des signaux analogiques souvent faibles provenant de capteurs : on parle de systèmes d'instrumentation
les calculateurs : au milieu du XXe siècle, les calculateurs analogiques ont permis de réaliser des opérations mathématiques en manipulant des signaux analogiques. Ils ont été rapidement supplantés par l'ère numérique, néanmoins on trouve toujours des circuits pouvant réaliser de telles opérations : l'amplificateur opérationnel.
les filtres : on utilise encore beaucoup le filtrage analogique lorsque les filtres numériques, implémentés sur DSP ou FPGA sont ou trop lents (circuits HF) ou trop lourds à mettre en œuvre. Le filtre le plus simple et le plus connu est probablement le filtre RC.
les circuits d'amplification électronique : ils permettent la mise en forme de signaux analogiques pour être directement utilisables par des actionneurs : l'amplificateur électronique. Ce secteur est concurrencé par le numérique, qui a un meilleur rendement lorsqu'on traite les fortes puissances.
les actionneurs : une grande partie des actionneurs utilisent des signaux analogiques en tant que commande, bien que ceux-ci soient généralement associés à l'alimentation en énergie du système : moteur électrique, haut-parleur, etc.
les convertisseurs : enfin il existe des systèmes de conversion analogique ↔ numérique que l'on peut qualifier de mixte : CAN, CNA, MLI.
les oscillateurs : circuits générant un signal alternatif à une fréquence fixée. À l'heure actuelle, l'oscillateur contrôlé en tension ou VCO est un circuit analogique très répandu du fait de son utilisation dans les boucles à verrouillage de phase (PLL) et à verrouillage de délai (DLL). Les oscillateurs sont également très utilisés pour les circuits radiofréquence
tit
dimanche 2 décembre 2007
Électronique analogique
Publié par
star
à
06:17
0
commentaires
Électronique
L'électronique est une branche de la physique appliquée qui traite des dispositifs dont le fonctionnement dépend de la circulation d'électrons.
Le terme « électronique » désigne également ce qui est en rapport avec l'électron.
On date généralement les débuts de l'électronique de l'invention du tube électronique en 1904.
En raison du succès des appareils fonctionnant grâce à l'électronique et de leur impact sur la vie courante, le grand public amalgame souvent électronique avec cybernétique (science des automatismes), aussi bien qu'avec informatique.
Définition [modifier]
L’électronique est une science technique ou science de l’ingénieur, qui étudie et conçoit les structures effectuant un traitement non linéaire des signaux électriques, c'est-à-dire courant électrique ou tension électrique, porteurs d’information ou d’énergie.
Dans cette définition la notion de l’information est considérée dans le sens le plus large : elle désigne toute grandeur (physique, telle la température ou la vitesse, ou abstraite, tel un son, une image, un code) qui évolue en temps réel selon une loi inconnue à l’avance.
Comme tous les automatismes, les systèmes électroniques bien conçus comportent deux parties :
l’une, opérative, gère les signaux de puissance porteurs d'énergie (courants forts) ;
l’autre, informationnelle, gère les signaux porteurs d’information (courants faibles).
Dans les systèmes électroniques classiques traitant l’information, celle-ci est codée par les tensions et les courants électriques. Les applications de l’électronique peuvent être subdivisées selon la finalité de l’action qu’elles visent : le traitement de l’information à proprement parler ou la commande. Les premières englobent les domaines comme l’informatique, les télécommunications, les mesures (prélèvement et stockage de l’information), etc.
Les applications de commande ont pour objet le contrôle du fonctionnement d’un système naturel ou technogène. Un contrôle implique généralement une mesure du paramètre contrôlé, sa comparaison avec le modèle et, en cas d’erreur, la génération d’une consigne de correction. Ainsi, un contrôle peut être vu comme une succession d’opérations de traitement du signal : ceci renvoie à la définition générale donnée plus haut.
Disciplines de l’électronique [modifier]
L’électronique est une famille de disciplines se distinguant suivant le type de signal traité, la famille d’application ou encore le niveau hiérarchique qu’occupe l’élément étudié dans le système global.
Types de signaux traités [modifier]
Signal informationnel analogique [modifier]
Article détaillé : électronique analogique.
La discipline s’intéressant au traitement des signaux analogiques, c’est-à-dire évoluant d’une façon continue dans le temps et pouvant prendre des valeurs appartenant à un espace de valeurs continu (ou continu par intervalles) s’appelle « électronique analogique ». La plupart des systèmes physiques le sont, car les grandeurs physiques évoluent le plus souvent d’une façon continue (par exemple, la température).
Signal informationnel numérique [modifier]
Article détaillé : électronique numérique.
Par opposition, l’électronique numérique s’intéresse au traitement des signaux dont l’espace de valeurs est discret. Ainsi le nombre de valeurs que peuvent prendre ces signaux est limité. Celles-ci sont codées par des nombres binaires. Dans le cas le plus simple, un signal numérique ne peut prendre que deux valeurs : 1 et 0. L’électronique numérique est utilisée en particulier dans les systèmes contenant un microprocesseur ou un microcontrôleur. Par exemple, un ordinateur est un appareil constitué en majeure partie par de l’électronique numérique.
À l’heure actuelle l'électronique numérique tend de plus en plus à remplacer l'électronique analogique, de manière à faciliter le développement des circuits et à apporter une meilleure intégration et une plus grande souplesse d'utilisation. Dans les applications grand public, cette évolution est particulièrement remarquable dans les domaines de l'audio et de la vidéo (caméscopes, télévision) où l'électronique analogique était depuis longtemps répandue — le cas de la photographie est un peu à part dans la mesure où l'acquisition du signal était auparavant non pas électronique mais chimique. Par contre, il ne faut pas oublier que comme les valeurs discrètes n’existent pas physiquement, des phénomènes d’électronique analogique peuvent survenir dans les circuits numériques, notamment dans les hautes fréquences. De plus certaines fonctions comme la mesure ou l'amplification sont intrinsèquement analogiques et ne pourront jamais devenir numériques. Tous les capteurs sont en général analogique.
Les signaux numériques étant également des signaux discrets en temps, on utilise en général un oscillateur à quartz (horloge) de manière à synchroniser les différentes parties d'un circuit entre elles. On appelle les circuits possédant une horloge (ou plus) des circuits synchrones. La fréquence (ou fréquence d’horloge), exprimée en hertz (Hz) d’un circuit numérique représente le nombre de changements d’état possibles d’une valeur par seconde. Cependant, il est tout à fait possible de travailler de manière asynchrone d'une horloge si on organise le fonctionnement du circuit de manière à ce que ses différentes parties se synchronisent entre elles par des échanges de signaux de contrôle (on parle d'handshaking). On parle alors d'électronique asynchrone.
Électronique mixte [modifier]
On parle également de l’électronique mixte, il s’agit alors d’un système dans lequel coexistent les signaux numériques et analogiques. Les modules particuliers à cette discipline sont le Convertisseur Analogique-Numérique (CAN) et le Convertisseur Numérique-Analogique (CNA). Ils permettent de transformer un signal analogique en signal numérique et vice versa, en réalisant ainsi une interface entre les modules purement analogiques (comme les capteurs) et purement numériques.
Par exemple, un thermomètre à affichage numérique prélève la température (qui est une grandeur analogique), mesure sa valeur, la code en une séquence numérique et puis l’affiche sur un écran. Ainsi, les deux premières opérations sont effectuées par des modules de l’électronique analogique, la troisième nécessite une conversion analogique-numérique et la dernière relève d’un traitement numérique.
Signal de puissance [modifier]
Article détaillé : électronique de puissance.
L’électronique de puissance est l’ensemble des techniques qui s’intéressent à l’énergie contenue dans les signaux électriques, contrairement aux autres disciplines électroniques, qui elles s'intéressent principalement à l’information contenue dans ces signaux. La gamme de puissance traitée en électronique de puissance varie de quelques micro Watt à plusieurs Mégawatts.
L’électronique de puissance repose sur des dispositifs permettant de changer la forme de l’énergie électrique, (convertisseurs) et des dispositifs transducteurs (le plus couramment des turbines et des moteurs électriques). L’électronique de puissance a comme champ d’application l’électrotechnique domestique et industrielle où elle remplace les anciennes solutions électromécaniques.
Hiérarchie de l’objet d’étude [modifier]
D’une façon indépendante de l’application, certaines disciplines de l’électronique sont définies suivant la place qu’occupe l’objet de l’étude dans la hiérarchie d’un système électronique.
Physique des composants [modifier]
Au niveau le plus bas se situe un composant, ou un dispositif électronique. La branche s’intéressant à la conception et à l’étude d’un composant électronique élémentaire s’appelle « physique des composants ». Elle est connexe au savoir-faire technologique, qui lui regroupe l’ensemble des connaissances et outils nécessaires pour fabriquer un composant. On parle ainsi de la « technologie de l’électronique ». Les domaines de la technologie et de la physique des composants électroniques font essentiellement appel aux compétences dans les sciences fondamentales, telles que la physique du solide et des procédés chimiques. Même si ces activités sont vitales pour l’électronique, elles ont peu à voir avec l’électronique en tant que génie du traitement du signal. On devrait plutôt les considérer comme une porte d’entrée du monde de la physique fondamentale vers la science appliquée qu’est l’électronique. Les composants de base de l’électronique sont les transistors, les résistances, les condensateurs, les diodes, etc.
Génie électronique [modifier]
Un circuit électronique est le principal objet d’étude de la science de l’électronique. Un circuit électronique est un système incluant plusieurs composants électroniques associés. Le mot circuit vient du fait que le traitement s’effectue grâce à des courants électriques circulant dans les composants interconnectés. La branche étudiant les propriétés des circuits électroniques s’appelle « théorie des circuits ». La discipline qui étudie la méthodologie permettant de réaliser une fonction de traitement particulière à base d’un circuit s’appelle « conception des circuits électroniques ». Les systèmes électroniques modernes comportent des centaines de millions de composants élémentaires. Pour cette raison le génie des circuits électroniques ne s’intéresse qu’à la réalisation de fonctions (ou modules) relativement simples, nécessitant quelques dizaines de composants.
Taille des circuits électroniques [modifier]
Le classement précédent se recoupe avec un classement suivant la taille des circuits électroniques considérés.
Électronique des tubes à vide [modifier]
Comme son nom l’indique, elle recourt à des tubes à vide, ou tubes électroniques comme composants actifs élémentaires (diodes à vide, triodes, tétrodes, pentodes...). Elle ne subsiste guère plus aujourd’hui que sous la forme des tubes cathodiques des récepteurs de télévision et de certains composants d’émetteurs radio de très forte puissance, et ces tubes-là sont d’ailleurs eux aussi en voie de disparition. Reste toutefois la technologie des tubes à vide utilisés en audio, dans les amplificateurs guitare notamment.
Les tubes à vide, dans leur configuration la plus simple (diode), sont composés de deux électrodes, appelés cathode et anode installées dans un tube de verre où le vide a été créé. La cathode est chauffée par un élément chauffant, ce qui permet de créer un 'nuage' d'électrons à proximité de la cathode. Lorsque le circuit électronique auquel le tube est branché crée un potentiel positif à l'anode par rapport à la cathode, il se produit un courant électrique (d'électrons) entre la cathode et l'anode (appelé courant cathodique). Il est possible d'incorporer des grilles métalliques entre la cathode et l'anode. Différents potentiels appliqués à ces grilles auront pour effet de contrôler le courant cathodique. Les tubes équipés d'une grille sont appelés triodes (trois électrodes).
La conception des tubes à vide la rend extrêmement tolérante aux surcharges. Cette particularité positionne encore aujourd'hui le tube à vide comme un candidat important pour les applications extrêmes, tel que les émetteurs radio (MA et MF) de puissance et les tubes d'émission à rayons X.
Enfin, notons que la lumière (un seul photon) dirigé vers la cathode est suffisante pour générer un courant cathodique, et ce, sans même utiliser d'élément chauffant. Les 'dynodes' utilisent ce principe en cascade pour détecter les photons dans certaines applications d'imagerie médicales.
Électronique individuelle [modifier]
Elle recourt à des composants élémentaires individuels ou « discrets » (par opposition à intégrés) assemblés le plus souvent sur des cartes électroniques. Ce type de conception électronique n’est guère plus utilisée que pour des montages expérimentaux ou dans le cadre de l’électronique de loisir, car elle a été supplantée par la micro-électronique. Sur une carte électronique actuelle, bien que les circuits intégrés accomplissent les principales fonctions, on trouve cependant toujours les composants discrets nécessaires à leur mise en œuvre (résistances et condensateurs essentiellement).
Micro-électronique [modifier]
Ce vocable est né du processus de la miniaturisation des composants électroniques élémentaires. Cette miniaturisation a commencé dans les années cinquante avec la naissance des semi-conducteurs, elle a atteint une phase presque extrême aujourd’hui. En effet, depuis six décennies la taille des composants élémentaires n’a cessé de diminuer, pour atteindre des dimensions de l’ordre de quelques dizaines de nanomètres. Ces progrès sont devenus possibles grâce aux avancées dans les procédés de traitement des matériaux semi-conducteurs, notamment du silicium, qui ont permis de réaliser plusieurs millions de composants élémentaires sur une surface de quelques millimètres carrés. Ainsi, la micro-électronique s’intéresse aux systèmes électroniques utilisant des composants de dimensions micrométriques et nanométriques. L’expression « électronique intégrée » est un synonyme de ce vocable : elle évoque un ensemble de composants « intégrés » sur une seule puce de semi-conducteur, communément appelé circuit intégré.
Nano-électronique et électronique moléculaire [modifier]
Par ailleurs, en parlant des systèmes de l’électronique moderne, le préfixe « micro » commence à être obsolète, dans la mesure où l’on voit apparaître des composants dont la taille se mesure en nanomètres et parfois comparable à celle des molécules. On évoque ainsi la nano-électronique, les nanotechnologies et l’électronique moléculaire. Des avancées techniques récentes permettent même d’envisager la conception de composants basés sur la propriété des électrons et de leur spin : la spintronique.
Microsystèmes [modifier]
Depuis quelques années, avec les progrès dans les micro- et nano-technologies, on observe une fusion des systèmes appartenant à différents domaines techniques (mécaniques, thermiques, optiques...) autour des circuits et systèmes électroniques. Ces fusions sont souvent appelées « systèmes à traitement de signal multi-domaine », ou « systèmes multi-domaines ». À l’origine de ces progrès sont les procédés d’usinage du silicium très évolués, qui permettent de réaliser des structures tridimensionnelles sur les mêmes cristaux de silicium avec les circuits électroniques. Cette proximité offre une interpénétration des traitements traditionnellement se déroulant dans des domaines différents, et une coexistence des signaux de différentes natures physiques (thermique, mécanique, optique...) dans un même système.
Microsystème électromécanique [modifier]
Ainsi, dans les années 1990 la véritable révolution technologique a eu lieu avec l’apparition des Microsystèmes électromécaniques (en anglais MEMS comme MicroElectroMechanical Systems). Il s’agit de mécanismes classiques tels que des résonateurs, poutres, micromoteurs, etc. réalisés sur silicium à l’échelle micrométrique. Ces différents éléments mécaniques sont mis en mouvement (actionnés) grâce aux forces générées par des transducteurs électromécaniques. Ceux-ci sont alimentés par des tensions produites avec des circuits électroniques avoisinants. Les transducteurs électromécaniques jouent alors le rôle de l’interface entre les domaines mécanique et électrique. Les transducteurs électrostatiques ou capacitifs y sont utilisés le plus souvent, bien que l’on puisse rencontrer des interfaces électromécaniques basées sur des phénomènes magnétiques et thermomécaniques.
Historique [modifier]
Depuis le début du 19e siècle, au fur et à mesure des découvertes des possibilités de l’électricité, les composants et applications électroniques ont vu le jour, (parfois sans possibilité d’application immédiate ou de fabrication industrielle, ces découvertes ne seront utilisées que plus tard).
Sans électronique et bien évidemment l’alimentation en électricité indispensable à son fonctionnement, la vie dans notre société moderne serait bien différente.
Voir aussi les composants électroniques en général.
Base théorique [modifier]
Un composant est un élément permettant de construire un circuit électrique où circule un courant électrique.
Composants passifs [modifier]
Un composant est dit "passif" quand il obéit à la loi d'Ohm généralisée, c’est-à-dire quand la tension U aux bornes du composant varie linéairement avec l’intensité I du courant qui y circule, ou que :
en régime continu (R = résistance)
en tout régime (Z = impédance)
Ils n'ont pas pour fonction de modifier la nature du courant électrique qui les traverse.
Les composant dits passifs (résistance, condensateur, bobine, connecteur) ont vu leurs techniques de fabrication évoluer très sensiblement, suivant de près les améliorations technologiques.
Par contre leurs principes fondamentaux n’ont jamais été remis en question.
Composants actifs [modifier]
Un composant est dit "actif" lorsque celui-ci a pour but de modifier le ou les courants qui le traverse. Par exemple, les diodes, triodes, les transistors, les thyristors, etc. sont des composants actifs.
Au début, les composants actifs comprenaient uniquement des tubes électroniques.
Depuis avec l'utilisation des semi-conducteurs et entre autres l’invention du transistor en 1948, l’électronique grand public a envahi nos maisons, nos automobiles, le téléphone et toutes les machines de la vie courante.
Les circuits intégrés, évolution intégré du transistor, gagnent de jour en jour en densité. Ceux-ci ont favorisé l’explosion de l’électronique moderne : analogique et surtout numérique.
La miniaturisation des applications voit l'émergence de l'électronique faible puissance, discipline qui permet de créer des appareils électroniques portables, au début les montres (dès 1967[1]), puis des appareils médicaux (aides auditives) et maintenant les ordinateurs et téléphones portables.
L’ère des micro-ordinateurs a pu voir le jour grâce aux avancées de l’électronique numérique.
Lors des deux dernières décennies du XXe siècle, l’électronique a été associée aux possibilités de la lumière et de l’optique (laser et fibre optique) : l’opto-électronique, pour fabriquer de nouvelles générations de machines électroniques
Publié par
star
à
06:15
0
commentaires
Types de mémoires vives
On distingue généralement deux grandes catégories de mémoires vives :
Les mémoires dynamiques (DRAM, Dynamic Random Access Module), peu coûteuses. Elles sont principalement utilisées pour la mémoire centrale de l'ordinateur ;
Les mémoires statiques (SRAM, Static Random Access Module), rapides et onéreuses. Les SRAM sont notamment utilisées pour les mémoires cache du processeur ;
Fonctionnement de la mémoire vive
La mémoire vive est constituée de centaines de milliers de petits condensateurs emmagasinant des charges. Lorsqu'il est chargé, l'état logique du condensateur est égal à 1, dans le cas contraire il est à 0, ce qui signifie que chaque condensateur représente un bit de la mémoire.
Etant donné que les condensateurs se déchargent, il faut constamment les recharger (le terme exact est rafraîchir, en anglais refresh) à un intervalle de temps régulier appelé cycle de rafraîchissement. Les mémoires DRAM nécessitent par exemple des cycles de rafraîchissement est d'environ 15 nanosecondes (ns).
Chaque condensateur est couplé à un transistor (de type MOS) permettant de « récupérer » ou de modifier l'état du condensateur. Ces transistors sont rangés sous forme de tableau (matrice), c'est-à-dire que l'on accède à une case mémoire (aussi appelée point mémoire) par une ligne et une colonne.
Chaque point mémoire est donc caractérisé par une adresse, correspondant à un numéro de ligne (en anglais row) et un numéro de colonne (en anglais column). Or cet accès n'est pas instantané et s'effectue pendant un délai appelé temps de latence. Par conséquent l'accès à une donnée en mémoire dure un temps égal au temps de cycle auquel il faut ajouter le temps de latence.
Ainsi, pour une mémoire de type DRAM, le temps d'accès est de 60 nanosecondes (35ns de délai de cycle et 25 ns de temps de latence). Sur un ordinateur, le temps de cycle correspond à l'inverse de la fréquence de l'horloge, par exemple pour un ordinateur cadencé à 200 MHz, le temps de cycle est de 5 ns (1/(200*106)).
Par conséquent un ordinateur ayant une fréquence élevée et utilisant des mémoires dont le temps d'accès est beaucoup plus long que le temps de cycle du processeur doit effectuer des cycles d'attente (en anglais wait state) pour accèder à la mémoire. Dans le cas d'un ordinateur cadencé à 200 MHz utilisant des mémoires de types DRAM (dont le temps d'accès est de 60ns), il y a 11 cycles d'attente pour un cycle de transfert. Les performances de l'ordinateur sont d'autant diminuées qu'il y a de cycles d'attentes, il est donc conseillé d'utiliser des mémoires plus rapides.
Formats de barrettes de mémoire vive
Il existe de nombreux types de mémoires vives. Celles-ci se présentent toutes sous la forme de barrettes de mémoire enfichables sur la carte-mère.
Les premières mémoires se présentaient sous la forme de puces appelées DIP (Dual Inline Package). Désormais les mémoires se trouvent généralement sous la forme de barrettes, c'est-à-dire des cartes enfichables dans des connecteurs prévus à cet effet. On distingue habituellement trois types de barrettes de RAM :
les barrettes au format SIMM (Single Inline Memory Module) : il s'agit de circuits imprimés dont une des faces possède des puces de mémoire. Il existe deux types de barrettes SIMM, selon le nombre de connecteurs :
Les barrettes SIMM à 30 connecteurs (dont les dimensions sont 89x13mm) sont des mémoires 8 bits qui équipaient les premières générations de PC (286, 386).
Les barrettes SIMM à 72 connecteurs (dont les dimensions sont 108x25mm) sont des mémoires capables de gérer 32 bits de données simultanément. Ces mémoires équipent des PC allant du 386DX aux premiers Pentium. Sur ces derniers le processeur travaille avec un bus de données d'une largeur de 64 bits, c'est la raison pour laquelle il faut absolument équiper ces ordinateurs de deux barrettes SIMM. Il n'est pas possible d'installer des barrettes 30 broches sur des emplacements à 72 connecteurs dans la mesure où un détrompeur (encoche au centre des connecteurs) en empêche l'enfichage.
les barrettes au format DIMM (Dual Inline Memory Module) sont des mémoires 64 bits, ce qui explique pourquoi il n'est pas nécessaire de les apparier. Les barrettes DIMM possèdent des puces de mémoire de part et d'autre du circuit imprimé et ont également 84 connecteurs de chaque côté, ce qui les dote d'un total de 168 broches. En plus de leurs dimensions plus grandes que les barrettes SIMM (130x25mm) ces barrettes possèdent un second détrompeur pour éviter la confusion.
Il peut être intéressant de noter que les connecteurs DIMM ont été améliorés afin de faciliter leur insertion grâce à des leviers situés de part et d'autre du connecteur.
Il existe en outre des modules de plus petite taille, appelés SO DIMM (Small Outline DIMM), destinés aux ordinateurs portables. Les barrettes SO DIMM comportent uniquement 144 broches pour les mémoires 64 bits et 77 pour les mémoires 32 bits.
les barrettes au format RIMM (Rambus Inline Memory Module, appelées également RD-RAM ou DRD-RAM) sont des mémoires 64 bits développée par la société Rambus. Elles possèdent 184 broches. Ces barrettes possèdent deux encoches de repérage (détrompeurs), évitant tout risque de confusion avec les modules précédents.
Compte tenu de leur vitesse de transfert élevée, les barrettes RIMM possèdent un film thermique chargé d'améliorer la dissipation de la chaleur.
Comme dans le cas des DIMM, il existe des modules de plus petite taille, appelés SO RIMM (Small Outline RIMM), destinés aux ordinateurs portables. Les barrettes SO RIMM comportent uniquement 160 broches.
DRAM PM
La DRAM (Dynamic RAM, RAM dynamique) est le type de mémoire le plus répandu au début du millénaire. Il s'agit d'une mémoire dont les transistors sont rangés dans une matrice selon des lignes et des colonnes. Un transistor, couplé à un condensateur donne l'information d'un bit. 1 octet comprenant 8 bits, une barrette de mémoire DRAM de 256 Mo contiendra donc 256 * 2^10 * 2^10 = 256 * 1024 * 1024 = 268 435 456 octets = 268 435 456 * 8 = 2 147 483 648 bits = 2 147 483 648 transistors. Une barrette de 256 Mo possède ainsi en réalité une capacité de 268 435 456 octets, soit 268 Mo ! Ce sont des mémoires dont le temps d'accès est de 60 ns.
D'autre part, les accès mémoire se font généralement sur des données rangées consécutivement en mémoire. Ainsi le mode d'accès en rafale (burst mode) permet d'accéder aux trois données consécutives à la première sans temps de latence supplémentaire. Dans ce mode en rafale, le temps d'accès à la première donnée est égal au temps de cycle auquel il faut ajouter le temps de latence, et le temps d'accès aux trois autres données est uniquement égal aux temps de cycle, on note donc sous la forme X-Y-Y-Y les quatre temps d'accès, par exemple la notation 5-3-3-3 indique une mémoire pour laquelle 5 cycles d'horloge sont nécessaires pour accéder à la première donnée et 3 pour les suivantes.
DRAM FPM
Pour accélérer les accès à la DRAM, il existe une technique, appelée pagination consistant à accéder à des données situées sur une même colonne en modifiant uniquement l'adresse de la ligne, ce qui permet d'éviter la répétition du numéro de colonne entre la lecture de chacune des lignes. On parle alors de DRAM FPM (Fast Page Mode). La FPM permet d'obtenir des temps d'accès de l'ordre de 70 à 80 nanosecondes pour une fréquence de fonctionnement pouvant aller de 25 à 33 Mhz.
DRAM EDO
La DRAM EDO (Extended Data Out, soit Sortie des données améliorée parfois également appelé "hyper-page") est apparue en 1995. La technique utilisée avec ce type de mémoire consiste à adresser la colonne suivante pendant la lecture des données d'une colonne. Cela crée un chevauchement des accès permettant de gagner du temps sur chaque cycle. Le temps d'accès à la mémoire EDO est donc d'environ 50 à 60 nanosecondes pour une fréquence de fonctionnement allant de 33 à 66 Mhz.
Ainsi, la RAM EDO, lorsqu'elle est utilisée en mode rafale permet d'obtenir des cycles de la forme 5-2-2-2, soit un gain de 4 cycles sur l'accès à 4 données. Dans la mesure où la mémoire EDO n'acceptait pas des fréquences supérieures à 66 Mhz, elle a disparu au bénéfice de la SDRAM.
SDRAM
La SDRAM (Synchronous DRAM, traduisez RAM synchrone), apparue en 1997, permet une lecture des données synchronisée avec le bus de la carte-mère, contrairement aux mémoires EDO et FPM (qualifiées d'asynchrones) possédant leur propre horloge. La SDRAM permet donc de s'affranchir des temps d'attente dus à la synchronisation avec la carte-mère. Celle-ci permet d'obtenir un cycle en mode rafale de la forme 5-1-1-1, c'est-à-dire un gain de 3 cycles par rapport à la RAM EDO. De cette façon la SDRAM est capable de fonctionner avec une cadence allant jusqu'à 150 Mhz, lui permettant d'obtenir des temps d'accès d'environ 10 ns.
DR-SDRAM (Rambus DRAM)
La DR-SDRAM (Direct Rambus DRAM ou encore RDRAM) est un type de mémoire permettant de transférer les données sur un bus de 16 bits de largeur à une cadence de 800Mhz, ce qui lui confère une bande passante de 1,6 Go/s. Comme la SDRAM, ce type de mémoire est synchronisé avec l'horloge du bus pour améliorer les échanges de données. En contrepartie, la mémoire RAMBUS est une technologie propriétaire, ce qui signifie que toute entreprise désirant construire des barrettes de RAM selon cette technologie doit reverser des droits (royalties) aux sociétés RAMBUS et Intel.
DDR-SDRAM
La DDR-SDRAM (Double Data Rate SDRAM) est une mémoire basée sur la technologie SDRAM, permettant de doubler le taux de transfert de la SDRAM à fréquence égale.
La lecture ou l'écriture de données en mémoire est réalisé sur la base d'une horloge. Les mémoires DRAM standard utilisent une méthode appelé SDR (Single Data Rate) consistant à lire ou à écrire une donnée à chaque front montant.
La DDR permet de doubler la fréquence des lectures/écritures, avec une horloge cadencée à la même fréquence, en envoyant les données à chaque front montant, ainsi qu'à chaque front descendant.
Les mémoires DDR possèdent généralement une appellation commerciale du type PCXXXX où «XXXX» représente le débit en Mo/s.
DDR2-SDRAM
La mémoire DDR2 (ou DDR-II) permet d'atteindre des débits deux fois plus élevés que la DDR à fréquence externe égale.
On parle de QDR (Quadruple Data Rate ou quad-pumped)pour désigner la méthode de lecture et d'écriture utilisée. La mémoire DDR2 utilise en effet deux canaux séparés pour la lecture et pour l'écriture, si bien qu'elle est capable d'envoyer ou de recevoir deux fois plus de données que la DDR.
La DDR2 possède également un plus grand nombre de connecteurs que la DDR classique (240 pour la DDR2 contre 184 pour la DDR
Publié par
star
à
05:57
0
commentaires
Le MICROPROCESSEUR
Un microprocesseur est un composant électronique minuscule,fabriqué le plus souvent en silicium, qui regroupe un certain nombre de transistors élémentaires interconnectés. Le microprocesseur exécute les fonctions d’unité centrale d’ordinateur (CPU), c’est à dire d’exécuter des instructions envoyées par un programme .
1.1 Composition d’un microprocesseur (circuits électriques internes):
Un microprocesseur est constitué de portes logiques . Ces portes logiques sont composées de transistors qui fonctionnent comme des interrupteurs .On trouve deux sortes de porte de base: les MOS et les CMOS . C'est à partir de celles-ci que sont fabriquées les fonctions logiques comme OR, AND, NOT, XOR, NOR , NAND . Ces fonctions de base vont constituer le circuit interne du microprocesseur c'est à dire que l'on peut former toutes les autres fonctions comme, l'addition, la soustraction …
1.2 Cisc ou Risc :
Le CISC (Complex Instruction Set Computer) est un type de processeur pour lequel chaque instruction correspond à un câblage matériel. Cette technologie est basée sur un jeu de plus de 400 instructions. Ces jeux d’instructions ont beaucoup plus d’inconvénients par rapport aux performances (plusieurs cycles peuvent exécuter une instruction, chaleur, coût,…) . Par conséquent, on a préféré faire appel à une nouvelle technologie : le RISC (Reduced Instruction Set Computer). Le RISC est constitué d’instructions simples qui permettent de gagner une rapidité d’exécution mais au détriment d’une programmation plus complexe pour le compilateur . En effet, celui-ci n'offre que 128 instructions, dites de base. Mais une instruction peut être exécutée en un seul cycle. De plus, cette technologie a permis la création de nouveaux procédés comme la multiplication des unités spécialisées.
Un processeur RISC peut atteindre une vitesse d'exécution jusqu'à 70% plus rapide qu'un CISC de même fréquence.
Depuis le P5 (pentium), les microprocesseurs utilisent des technologies empruntées de la famille RISC.
1.3 Architecture minimum d’un microprocesseur :
Un microprocesseur peut être divisé en quatre grandes parties :
Les registres :
les registres sont des petites mémoires linéaires, à accès parallèle, dont la capacité peut varier d’un à plusieurs octets .On trouve trois styles de registres :
Ø les accumulateurs : qui stockent le résultat de l’instruction traitée ;
Ø le compteur ordinal(CO) : qui permet de retrouver l’adresse de l’information dans la mémoire ;
Ø les registres d’instructions : qui enregistrent le code de l’instruction qui vient d’être lue dans la mémoire et ramenée dans le microprocesseur .
Le décodeur :
Le décodeur sert à animer les circuits électriques nécessaires à l’exécution de l’instructions lue . En faite, il gère la mise en place des portes logiques pour le bon déroulement de l’opération demandée .
Le séquenceur (Le circuit de commandes et de séquencement) :
Le séquenceur a pour but de mettre en place chaque section de microprocesseur en service à tour de rôle .
L’unité arithmétique et logique (UAL) :
L’UAL est chargée d’exécuter les opérations arithmétiques et logiques du programme.
R.Q. :On peut également trouver des circuits d’une horloge à quartz intégré au microprocesseur.
2. Circulation de l’information dans un microprocesseur :
On distingue 5 cycles pour exécuter une instruction :
1. La recherche de donnée en mémoire (fetch)
2. Lecture du code d'instruction
3. Décode de l'instruction
4. Superviser l'exécution de l'instruction
5. Revenir au début
1.4 L'exécution dynamique
L'exécution dynamique peut être décomposée en trois composants:
La prédiction de branchement :
Ce procédé consiste à deviner l'emplacement de la prochaine instruction devant être traitée, puis à la diriger vers le bon pipeline. Cela permet d'éviter les sauts et les boucles risquant de faire perdre les gains apportés par les pipelines. Au dire d'Intel, un processeur tel que le Pentium II aurait une capacité de prédiction de l'ordre de 90%
L'analyse de flux :
Ce procédé est chargé de réagencer l'ordre de traitement des données afin de l'optimiser. Il devra aussi choisir entre les deux pipelines, l'entier et celui à virgule flottante. De plus, il lui est nécessaire de tenir compte du temps de traitement de chaque instruction.
Ainsi, il permet d'obtenir de bien meilleures performances qu'en traitant le programme original tel quel. En fait, il se charge de réparer les dégâts provoqués par un mauvais compilateur.
L'exécution spéculative :
Ce dernier procédé travaille main dans la main avec la prédiction de branchement. Il permet de traiter les instructions des différentes portions de code envisageable à l'avance. Ainsi, il peut anticiper le résultat qui devra être obtenu après un saut.
2. Les autres composants d'un microprocesseur :
2.1 Le coprocesseur (ou FPU)
D'apparence semblable au processeur, son rôle est de prendre en charge toutes les instructions dites à virgule flottante (floating point). Il décharge ainsi le processeur de ce type d'instruction, augmentant la vitesse générale du PC.
2.2 La cache ( ou antémémoire )
La cache est une mémoire RAM très rapide (de l’ordre du nanoseconde) . Son but est d’accélérer le système en réalisant un tampon entre la mémoire vive et le microprocesseur . En effet, si le microprocesseur cherche une donnée et qu’elle se trouve dans la cache, le gain de temps s’en trouve réduit de l’ordre de 90 % (avec 64 Ko de cache) par rapport à un accès direct à la mémoire vive .
2.3 Les pipelines
Le principe de pipeline consiste à intégrer plusieurs blocs fonctionnels au sein du processeur. Chacun de ces blocs est chargé de remplir une fonction spécifique dans le processus de traitement. On peut comparer un pipeline à une chaîne de montage. Chaque poste remplit une fonction spécifique, pour aboutir à un produit fini à la sortie de la chaîne. Ainsi, un pipeline intègre un module spécialisé dans le chargement d'une instruction, le suivant de son décodage, et ainsi de suite.
2.4 Les nouveaux jeux d’instructions
Le Mmx
Cinquante-sept instructions ont été ajoutées au microcode. Celles-ci ont pour but d'accélérer les traitements des images et du son. Pour cela, la technologie SIMD ( Single Instruction Multiple Data ) est utilisée. Elle permet de traiter jusqu'à 8 instructions en un seul cycle d'horloge. Ce point n'est valable qu'avec les programmes exploitant ce type d'instruction ( Photoshop 4, ... ). De plus, un processeur MMX est capable d'émuler un modem ou une carte son.
Le 3D Now !
Le 3D Now ! fait son apparition sur le K6 2. Il s'agit d'un jeu de 21 nouvelles instructions, notamment dédiées à la 3D Temps réel. Grâce sur le SIMD (Single Instruction, Multiple Data), une instruction 3D Now ! peut en un seul cycle effectuer 2 opérations FP par cycle. Le K6 2 étant capable d’exécuter 2 instructions 3D Now par cycle d'horloge, il pourra donc effectuer jusqu’à 4 opérations FP par cycle lorsque que le 3D Now ! est utilisé au maximum de son potentiel. Mais ce n'est pas tout, une nouvelle instruction 3D Now ! opérant sur les entiers (PAVGUSB) vient accélérer le motion compensation, une des étapes du décodage MPEG-2. De plus, l'instruction PREFETCH permet d’accélérer le chargement des données alors que l'instruction FEMMS (Fast Entry/Exit Multimedia State) permet de réduire la perte de temps lors du passage entre MMX et FPU.
Les instructions SSE
Il s'agit d'instructions supplémentaires qui équipe les processeurs INTEL PENTIUM III et 4. Ces intructions sont principalement destinées au multimédia, au traitement du son, à l'encodage vidéo et à la retouche d'image. Elles optimisent aussi les performances des jeux !
2.5 La fréquence
En dehors de la famille du processeur, la fréquence est un élément déterminant de la vitesse de ce composant. Celle-ci est exprimée en MégaHertz (Mhz), soit en million de cycles à la seconde. Il convient de savoir qu'une opération effectuée par l'utilisateur peut correspondre à de nombreux cycles pour le processeur. Mais, plus la fréquence est élevée, plus le processeur réagira vite.
2.6 la gravure
La fabrication du microprocesseur repose sur le procédé de photolithographie. Sur une couche de silicium, on dispose une couche isolante de dioxyde de silicium que l'on recouvre d'un agent photorésistant. Ce dernier permettra l'impression du circuit à l'aide d'ultra- violets. ( c'est la photogravure ).
Publié par
star
à
05:50
0
commentaires