Depuis 1965, la loi de Gordon Moore sert d’indicateur pour marquer les progrès de l’industrie des semi-conducteurs. Avec l’inconvénient que l’objectif n’est plus de trouver des nouveaux matériaux ou agencements, pour aborder des applications « gourmandes », mais de contredire cette fameuse loi. C’est ça le but. Ce qui, il faut l’avouer, ne présente pas beaucoup d’intérêt.

Rappel des faits

Cela ne doit pas nous empêcher de rappeler les faits, à savoir que Moore avait prédit il y a 52 ans que chaque année la densité dans les « chips », exprimée en nombre de transistors doublerait à surface équivalente. Prédiction qui s’est effectivement réalisée, ce qui témoigne de ce que le célèbre Gordon avait un 6 ème sens et connaissait parfaitement le sentier sur lequel, avec Noyce, il engageait sa compagnie Intel.

Depuis le début des années 2000, sans doute les fondeurs se sentent-ils « coincés » dans les habits trop étroits de Moore, car ils n’ont de cesse de vouloir dépasser la dite loi. Ce qui ne se produit jamais…

Alors puisque c’est dans l’air du temps, y aurait-il quand même des technologies qui pourraient faire mentir le co-fondateur d’Intel, pas des projets futuristes et irréalisables, mais du concret, possibles à fabriquer et à commercialiser.

Moore

Ce très intéressant diagramme montre l’évolution de l’intégration dans les circuits, la véritable loi de Moore, mais aussi les fréquences, le nombre de « cores », la consommation électrique en watts et les performances exprimées avec l’indice SpecINT, évalué sur une tâche Single-thread.
Ne pas confondre architectures et technologies

Il arrive souvent que pour justifier la fin de la loi de Moore, on se réfère aux architectures futuristes qui auront besoin d’une très grande puissance de calcul. Saut qu’ici on est dans le modèle, pas dans la technologie de base. A savoir que l’on cherche à prédire une technologie en se fondant sur sa motivation. On peut toujours dire que l’idéal serait que tous les êtres humains soient en bonne santé, mais ce n’est pas pour autant qu’il n’y aura plus de malades. Pour les semi-conducteurs, c’est la même chose, on pourra toujours penser que les réseaux neuronaux ou le calcul scientifique à grande échelle, auront besoin de circuits équipés de 256 cores, avec une finesse de gravure de 1 nm, que les fondeurs vont pour autant résoudre les problèmes de dégagement de chaleur ou simplement de maîtrise du « process » de fabrication.

En d’autres termes, ce n’est pas parce que l’on mimera l’architecture du cerveau dans un processeur neurologique, que l’on mettra à mal la prédiction de Moore.

Par ailleurs, le fait de réduire le jeu d’instructions avec les processeurs RISC ne résout rien, car la technologie reste la même. C’est simplement le nombre d’instructions qui est réduit.

Ce qu’il faut c’est regarder du côté des technologies fondamentales.

En premier lieu, l’optique à la place des électrons.

On est ici dans la technologie photonique, à savoir remplacer des électrons qui traversent des jonctions de semi-conducteurs, à une vitesse somme toute modeste. Ce sont des photons de lumière qui se déplacent et comme chacun sait à une vitesse limite prédite par Einstein de 299 776 km/h. Ca va très vite. Sauf que cela fait 14 ans que les chercheurs se penchent sur le sujet et qu’à part quelques réalisations telles que celles d’IBM et d’Intel, on ne voit pas venir grand-chose. Le premier processeur optique étant l’œuvre de la compagnie israélienne Lenslet, mais qui date déjà de 2003, un DSP optique.

Car tout est à revoir. L’architecture des processeurs, qui doit reproduire les schémas booléens logiques avec une technologie totalement différente, les portes, la combinaison des signaux, l’intégration des photodétecteurs, les connecteurs, etc.

Il faut croire que ce n’est pas évident, car depuis le temps, si l’optique avait dû s’imposer ce serait déjà fait et l’industrie se serait réellement investie. Ce qui n’est pas le cas. Ce n’est donc pas d’elle que devrait venir la rupture de la loi de Moore, tout au moins à court ou moyen terme.

La vérité viendra peut-être des ordinateurs quantiques, car eux font appel à une technologie fondamentale différente, les Qubits, basés sur l’exploitation des états quantiques de particules élémentaires. On n’est donc plus dans le monde clos des électrons et du silicium, mais dans un univers totalement différent. Qui malheureusement est loin d’être maîtrisé, ces merveilleuses machines étant particulièrement instables, car trop sensibles à l’environnement. On est donc loin d’être au bout de nos peines. D’autant que tout le monde n’est pas d’accord sur la définition même d’une machine quantique, celle du canadien D-Wave n’étant apparemment pas la même que celle d’IBM ou de Google.

Diselenide de hafnium

Le diselenide de hafnium est un semi-conducteur aux propriétés particulièrement adaptées à la conception de circuits à haute intégration. C’est tout au moins ce que pensent les chercheurs…
La parole reste aux semi-conducteurs

A vrai dire, il est probable que nous restions sur un paradigme connu de l’effet transistor simulé par du silicium, à la rigueur par d’autres semi-conducteurs.

Pour ce qui est du silicium, Intel et IBM descendent à des niveaux de gravure jamais atteints, 5 nm pour IBM, ce qui permettra aux fondeurs d’intégrer un nombre de plus en plus important de transistors et de cores. Ceci sans changer fondamentalement de technologie.

Mais il pourra y avoir d’autres solutions.

Des chercheurs de Stanford, Eric Pop et Michal Mlecsko ont publié récemment une étude très intéressante sur 2 nouveaux semi-conducteurs aux noms imprononçables, diselenide de hafnium et disélénure de zirconium, qui selon eux pourraient avantageusement remplacer le silicium, car ils sont mieux adaptés aux très grands finesses, en dessous de 10 nm, dans la mesure par exemple où ils ne nécessitent pas la présence d’isolants silicium et surtout par le fait qu’ils consomment moins. Ces semi-conducteurs appartiennent à la famille des « high-K insulators », des isolants et permettraient selon les chercheurs de faire des circuits de 3 atomes d’épaisseur, soit d’après eux, 10 fois moins qu’avec les technologies classiques.

En admettant que Pop et Mlecsko règlent leurs problèmes fondamentaux et de fabrication, il faudra attendre plusieurs années pour savoir si la technologie a de l’avenir ou au contraire va rejoindre les dizaines de techniques futuristes qui depuis 20 ans n’ont abouti à rien.

Apparemment quelques sponsors semblent croire à leurs travaux, parmi lesquels l’Air Force Office of Scientific Research (AFOSR), l’INMP (Novell Materials and Processes) de Stanford et quelques autres. Mais, ce qui est significatif, il s’agit plus d’organismes de recherche fondamentale que de fondeurs.

Soyons donc attentifs, mais ne nous attendons pas à des révolutions…