Savaþ Ali Tokmen Université Joseph Fourier DEUG MIAS 1ère année Introduction Aujourd’hui, les ordinateurs sont devenus un des outils quotidiens pour tout le monde que l’on trouve dans de plus en plus d’endroits: des personnes « normales » utilisent des ordinateurs « plus ou moins » de bureau ou portables pour toute sorte d’activité (allant des applications bureautiques à la communication, des jeux tridimensionnelles à la recompression de films, des simulations sociologico-scientifiques à la création d’effets spéciaux), des scientifiques l’utilisent pour rapidement « mettre en œuvre » les plus compliqués des algorithmes pour la création de nouveaux outils aussi bien pour la compréhension du monde qui nous entoure… Les ordinateurs apparaissent aussi de façon plus ou moins cachées dans des téléphones portables, positionneurs GPS, centrales téléphoniques, fusées « intelligentes », etc, etc. Tout ceci est grâce à la capacité miraculeuse de l’être humain (du moins jusqu’à maintenant) à toujours être capable de faire des microprocesseurs et unités de mémoire plus rapides, plus petits et moins chères ! Tout de même, une question se pose: seront-nous capable de poursuivre ce progrès ou sera-ce (pour une fois) un pari dans lequel la nature gagnera contre le génie humain ? Lien avec les Mathématiques L’ordinateur (ou du moins celui d’aujourd’hui) étant une machine « débile » qui ne sait que faire des calculs et aucun raisonnement, n’aurait à priori aucune place dans les mathématiques, dans la création de théorèmes ou choses de cet ordre… En effet, cela est vrai ; l’ordinateur ne nous aide pas beaucoup à faire des maths. Mais, cette machine débile étant capable de faire un (très) grand nombre de calculs dans un temps (très) court, elle devient très vite un outil « de base » des gens qui voudraient appliquer des maths. L’ordinateur est en effet surtout intéressant quand on veut faire des maths appliquées. Résumé du texte: « le futur de la microélectronique », par Dan et Jerry Hutcheson, paru dans « Pour la Science » mars 1996 Au cours des dernières décennies, la micro-électronique est devenue une force motrice du développement, inaugurant une ère nouvelle. Tout cela est dû majoritairement aux efforts de miniaturisation, qui est devenu un phénomène si régulier qu’il sert même comme base dans les raisonnements des grandes firmes fabricant de la microélectronique. Mais, sommes-nous cette fois à la fin de cette miniaturisation ? Quel futur pour la microélectronique ? Comment est fabriqué un microprocesseur ? Simple: on prend premièrement une galette de silicium de forme circulaire, qui est formé d’un substrat de silicium, sur lequel on a « posé » une mince couche de nitrure de silicium, avec sur lui une couche de dioxyde de silicium et tout en haut une résine photosensible. Par simple projection répétée du motif du processeur (en passant bien sûr par une lentille pour diminuer la taille de l’original), la couche photosensible finit par avoir les « gravures que l’on veut » sur elle. Par une méthode de projection de gaz, ces gravures sont répétées sur les couches « du bas ». Ensuite, un jet d’ions dope la partie exposée du substrat, formant des transistors. Pour terminer, des alliances conducteurs sont ajoutées pour relier les transistors que l’on veut entre eux. Inversement à ce que laisserait croire la loi de Moore, la route qui a mené aux processeurs d’aujourd’hui n’a pas été « constante ». Plusieurs fois les techniciens ont dû surmonter d’importantes limitations techniques… Aujourd’hui, nous avons devant nous un grand obstacle: en effet les transistors que l’on grave sur les puces ont une largeur de 230, voir même 160 nanomètres de large. En effet, le critère de Rayleigh nous dit que le plus petit détail que l’on peut voir (donc aussi graver) est proportionnel au quotient de la longueur d’onde de la lumière avec laquelle on le voit avec l’ouverture de l’objectif avec lequel on le regarde. Maintenant, d’autres valeurs numériques: pour cette fabrication, la technologie ne sait pas utiliser « plus petit » que la raie i du mercure, donc 365 nanomètres. Les systèmes de lithographie de pointe ont cependant une ouverture maximale de 650 nanomètres. Actuellement, on ne sait donc que graver au minimum un « tracé » de 193 nanomètres de précision. Le plus grand problème est en effet que les usines de fabrication pour des puces qui auraient des tracés encore plus petits auraient des coûts si énormes que cela devrait avoir un effet sur le coût des processeurs… On peut en effet comparer l’industrie micro-électronique avec les industries aéronautiques et ferroviaires, qui eux aussi avaient visé d’aller encore plus vite encore plus loin mais qui, après un certain moment ont dû arrêter cela pour de raisons diverses. L’aéronautique a atteint ses limites avec les avions Boeing 747 et le Concorde, des engins qui ont marqué la fin de la volonté d’aller toujours plus loin toujours plus rapidement avec toujours plus de monde. En effet, le 747 était si grand que l’on n’arrivait pas à le remplir ! (sauf pour des vols transatlantiques) Et le Concorde, le plus rapide que l’on ait pu atteindre en matière d’avion commercial, fait tant de bruit que beaucoup d’aéroports ont dû le « rejeter ». Les ingénieurs ont donc dû aller vers des marchés spécifiques avec des avions plus petits et à confort accru. De même avec l’industrie ferroviaire, qui a atteint sa limite avec la locomotive EMD-DD40 ; un monstre que l’on n’a pu utiliser que pour le transport des marchandises à travers les Etats-Unis. Mise à jour L’article date de 1996. Aujourd’hui, nous sommes en 2003. Beaucoup de choses ont changé depuis:
Pour présenter tout cela, je vais en effet premièrement parler des nouveautés en matière de mémoire en après des nouveautés en matière de processeur. Disponible maintenant: MagRAM Un ordinateur actuel est en effet composé de deux unités de mémoire: le disque dur, composant à base mécanique qui sert d’unité de stockage à grande taille et à vitesse faible ; et la mémoire vive, ou encore RAM, qui est une mémoire à base de condensateurs (donc interaction électrique) qui est rapide mais qui d’un autre coté oublie tout ce que l’on peut inscrire dedans une fois que l’on lui arrête l’apport en électricité. Je viens de dire que les mémoires vives actuels marchent à base d’interactions électrique. En effet, l’idée d’IBM a été d’utiliser des interactions magnétiques pour stocker l’information. Cela a plusieurs avantages :
Sur nos bureaux prochainement: Mémoires holographiques Quel est le point commun entre une disquette, un CD, un DVD, un disque dur, en encore beaucoup de mémoires que l’on utilise couramment ou pas aussi couramment ? Voilà la réponse: ils utilisent tous un stockage surfacique. Mais, pourquoi se limiter à la surface ? Pourquoi ne pas prendre un volume ? Cette question a été posée par un scientifique de Polaroid nommé Pieter J. van Heerden au début des années 60. Une décennie après, des scientifiques des laboratoires RCA ont démontré la technologie en enregistrant puis lisant 500 hologrammes d’images à haute résolution sur un cristal de lithium-niobate, et 550 sur une polymère sensitive à la lumière. En plus de 50 années, on a en effet eu le temps de bien tout mettre en place. Aujourd’hui, en utilisant un cristal (de la taille d’un cube de sucre classique), le même laser que celui qu’on peut trouver dans un lecteur DVD, un petit capteur CCD et un écran LCD qui au total ne vont coûter qu’aux alentours des dizaines de milliers d’euros, on peut avoir un stockage de 13 TerraOctets (ce qui fait à peu près 140 fois plus grand que le plus grand disque dur du marché qui lui coûte 200 euros) qui capable de transférer 1.5 GigaOctets par secondes (une vitesse qui permet de transférer un DVD entier en 2.7 secondes) La technique actuelle d’écriture et de lecture de mémoire holographique est relativement simple:
Retour dans le monde des processeurs Voilà en bref les nouvelles technologies de mémoire « du futur ». Et maintenant, parlons des processeurs… Le silice verra le TerraHertz: EUVL Vous savez déjà comment on fabrique un processeur (ou à peu près on va dire). Mais ce que vous ne savez pas, c’est que, pendant le processus de projection motif sur la galette de silice, quand on aura besoin d’utiliser de la lumière avec une longueur d’onde plus courte que 100 nanomètres, la lentille qui est supposé rendre le grand motif que l’on projette plus petit commence à absorber cette lumière (qui était normalement supposé « graver » le processeur, mais si cette lumière n’atteint jamais le processeur elle aura du mal pour le graver)! Voilà qu’interviendra encore le « génie humain » : l’idée cette fois c’est de ne plus utiliser des lentilles mais des miroirs… Voilà le détail du processus :
Ordinateurs quantiques: toujours un rêve Si l'on poursuit l’évolution en se basant sur les lois de Moore, vers la fin des années 2020 les transistors nos processeurs auront atteint les dimensions des atomes ; donc la plus logique étape suivante semble être l’usage des atomes et des molécules comme processeur et comme mémoire informatique… Tous les opérateurs logiques (NON, ET, OU) qui sont à la base des calculs de nos ordinateurs peuvent être reproduits par la nature. Par exemple, un NON (qui inverse les 0 et les 1) existe à l'état naturel: lorsque l'atome de carbone n'est pas excité, les atomes d'hydrogène peuvent changer d'orientation et donc prendre diverses valeurs. Lorsqu'il est excité, l'atome de carbone donne aux atomes d'hydrogène une orientation opposée. On est dans le cas d'un opérateur logique NON. Deux équipes américaines, celle du Massachusetts Institute of Technology (MIT) et celle du laboratoire national de Los Alamos (Californie) se sont associées pour réaliser un prototype d'ordinateur quantique. A première vue, ce dernier ne réalise aucune opération exceptionnelle : quelques additions, des reproductions d'opérateurs logiques ET, OU, NON... Des calculs qu'une simple calculatrice de poche pourrait effectuer. Mais la méthode est révolutionnaire. Leur prototype n'est pas une boîte grise, avec un écran, un clavier et une souris. Non, c'est un tube à essai. Quelques gouttes d'un liquide de teinte marron, des molécules de 2,3-dibromothiophène, toutes identiques, composées d'atomes de carbone, d'hydrogène, de soufre et de brome. Ces molécules sont l'équivalent de nos processeurs. Ce sont elles qui exécutent les calculs. L'orientation des noyaux des atomes d'hydrogène, que l'on peut faire varier à l'aide d'ondes radio dont on module la fréquence et la durée, peut se traduire en autant de 0 et de 1, indispensables à la programmation de tout ordinateur. Dans l'expérience décrite ici un noyau d'hydrogène est simultanément orienté dans deux sens opposés. La puissance de calcul devient alors vite gigantesque, puisque deux calculs peuvent être menés en parallèle avec chaque noyau. Et avec deux noyaux par molécule, ce sont déjà quatre calculs que les chercheurs peuvent effectuer en même temps. David Cory, responsable de l'expérience au MIT, explique que « dans les deux prochaines années, nous passerons d'une expérience réalisée avec deux bits quantiques (ou q-bits), c'est à dire avec deux noyaux d'hydrogène, à une expérience avec six q-bits. La puissance de calcul sera alors multipliée par seize ». Et avec cinquante q-bits, la puissance sera multipliée par plusieurs milliards. En effet, on voit après cela l’énorme avantage des ordinateurs quantiques par rapport aux supports actuels à base de silice: ils peuvent faire plusieurs opérations en même temps. Il est probable que cela n’aide pas beaucoup aux jeux de Solitaire ou au chat, par contre par exemple la NASA qui doit suivre des trillions d’astéroïdes ou encore des physiciens, sociologues, chimistes ou biologues qui doivent simuler des réalités à plusieurs millions (même milliards) de variables seront contents de voir des ordinateurs qui font plusieurs opérations en même temps ! Processeurs et unités de mémoire à base d’ADN Il y a un problème assez classique appelé « The Traveling Salesman » (le vendeur ambulant). Imaginez un vendeur qui doit visiter régulièrement plusieurs villes les uns après les autres. Quelle est la route la plus rapide et/ou la plus courte qui va lui permettre de passer par toutes les villes, sans bien sur avoir à passer par la même ville deux fois ? Ça peut vous sembler facile, et en effet elle l’est pour avec quelques villes; mais si vous faisiez cela avez des centaines de villes ? En effet le problème devient bien plus compliqué pour chaque ville que l’on ajoute, car à chaque fois on doit calculer toutes les routes possibles et après comparer celle qui est la moins courte… Et comme vous le savez, le nombre total de combinaisons augmente en factorielle pour chaque ville de plus ! Mais, ce problème devient très facile à résoudre avec un ordinateur à base d’ADN. Chaque combinaison des quatre molécules d’ADN (représentés couramment par les lettres A, T, C et G) représente une ville. Ce qu’on fait c’est que tout simplement on met « beaucoup » de fragments d’ADN dans un tube à essai, et toutes les combinaisons possibles seront crées instantanément par des réactions chimiques qui marchent en parallèle ! On peut éliminer les doubles réponses et fausses réponses par des réactions chimiques ; et on aura résolu le problème avec autant de ville que l’on veut en utilisant la même quantité de temps ! Il suffit juste de mettre assez d’ADN (ce qui n’est pas compliqué vu que l’ADN est une des choses le plus en abondance sur notre planète) D’autres scientifiques (ou plutôt ingénieurs informatiques) ont aussi envie d’utiliser l’ADN comme média de stockage de données (ce qui devient intéressant surtout car l’ADN est facilement duplicable, donc par exemple pour fabriquer des millions d’exemplaires de la même information (des films, des logiciels, …) ça devient bien plus rapide est bien moins cher ! On peut donc dire que comme la technologie Quantique, la technologie de processeurs et mémoires à base d’ADN n’est qu’au tout début de son évolution mais qu’il est quand même assez promettant ! Surtout, les capacités de calculs en parallèle et de duplication aussi bien que la facilité à trouver de l’ADN fait que cette technologie semble être assez promettant… Conclusion: on est encore loin de la fin ! Le progrès scientifique est actuellement en expansion dans tous les domaines, et cela est aussi le cas pour la micro-électronique. Et, on ne peut à priori pas déterminer la forme qu’auront nos appareils « électroniques » en 2050… (comme c’est d’ailleurs le cas depuis un siècle) Bibliographie "Pour la Science", mars 1996 howstuffworks.com intel.com (surtout les parties « developper forums » et « technology showcase ») IBM.com hardwareguys.com sciam.com (Scientific American online) hypography.com (Hyprography sci-tech) University of Wisconsin (un des sponsors de DNA9) qubit.org (centre for Quantum Computation) |