Micropuces, nanomètres et mensonges marketing

Mensonges marketing sur les puces à transistors nanométriques

Ils peuvent sembler l'objet le moins à la mode imaginable, mais aussi transistors et puces sont victimes du marketing. Chaque fois qu'une nouvelle puce doit sortir pour alimenter les PC et les smartphones de nouvelle génération, la course commence entre les entreprises pour voir qui sera le premier à franchir la ligne d'arrivée de 3 nm, 2 nm, et on parle déjà de 1 nm… Mais la vérité est plus complexe que cela, et même derrière une puce innocente peut se cacher un mensonge.

Parce que le mot "nanomètres" ne veut plus rien dire pour les transistors et les semi-conducteurs

C'est en 1971 que le premier microprocesseur de l'histoire voit le jour dans les laboratoires d'Intel, l'Intel 4004 fabriqué à 10 µm (10 micromètres). C'est l'unité de mesure qui s'est maintenue jusqu'à la fin des années 80, quand du micromètre elle est passée au nm (nanomètres). Ok, mais qu'est-ce qu'un nanomètre ? Et pourquoi est-ce si important ? Le nanomètre est l'unité de mesure de ce que l'on appelle nœud technologique, et indiquait en principe la dimension d'un composant du transistor, c'est-à-dire la longueur de porte, un élément clé car il commande le passage des électrons et commande sensiblement l'allumage et l'extinction du transistor. Plus la grille est petite, plus le transistor est petit, plus le transistor est petit, plus il y en a sur une puce, plus il y a de transistors plus la puce est puissante mais pas seulement, car plus il y a de transistors, moins les électrons doivent parcourir de distance, ce qui signifie plus d'efficacité, moins de consommation et des températures plus basses.

Sur ces fondations est née la La loi de Moore, selon laquelle le nombre de transistors pourrait doubler avec une fréquence et une taille prévisibles : tous les 1/2 ans, les nanomètres pourraient diminuer d'environ 0,7 fois, passant ainsi de 800 à 600 nm, de 600 à 350 nm, de 350 à 250 nm et ainsi de suite. Avec cette prise de conscience, l'industrie des semi-conducteurs savait que tous les quelques mois, il y avait un saut évolutif défini; si les premiers Pentium avaient 3,5 millions de transistors, les Pentium 2 en avaient 7 millions. En 1997, cependant, quelque chose a mal tourné. Avec le laissez-passer de 350 à 250 nm Intel a lancé je Pentium 3, dont la puissance a été doublée, mais la porte n'a pas mesuré 250 nm comme prévu mais 190 nm. Intel s'est rendu compte qu'il pouvait rétrécir la grille mais pas les autres parties du transistor, car la miniaturisation continue signifiait le risque d'effet tunnel, lorsque le transistor est si petit qu'il ne peut pas retenir les électrons avec des dysfonctionnements conséquents ; de plus, les puces commençaient à être trop petites pour être imprimées efficacement par les machines lithographiques.

C'est comme ça que ça s'est passé des transistors planaires aux FinFET, dont la structure tridimensionnelle a endigué ces limites. En 2011, Intel a lancé les premiers FinFET 22 nm où cependant aucune partie du transistor ne mesurait 22 nm ; cependant, cette unité de mesure a été conservée pour montrer que la puce était aussi puissante qu'une hypothétique puce réelle de 22 nm l'aurait été, faisant ainsi perdre au nanomètre sa signification d'origine. Et jusqu'ici vous direz ok, mais quel est le problème ? Vous souvenez-vous de l'histoire des caméras 1" ? je vous l'ai expliqué dans cette vidéo éditoriale: en un mot, les mesures des capteurs photographiques ne sont pas réelles car elles se réfèrent à une mesure du passé qui a été maintenue de toute façon, et pour éviter toute confusion tout le monde continue à l'utiliser de la même manière, donc si deux smartphones ont un 1" capteur, bien qu'ils ne soient pas vraiment 1", les dimensions sont les mêmes pour les deux. Le problème, c'est que ce n'est pas comme ça que ça marche dans le monde des transistors, où deux puces avec les mêmes nanomètres ne sont pas nécessairement de la même taille.

On se rend compte que le nœud technologique devient un outil marketing quand on découvre que il existe des puces TSMC et Samsung 10 nm qui ont la moitié des transistors des puces Intel 10 nm. Sans oublier que TSMC et Samsung ont plusieurs versions des mêmes nœuds : si vous prenez trois puces de 5 nm telles que Snapdragon 888, A14 Bionic et Kirin 9000, Qualcomm a 10 milliards de transistors, Apple 12 milliards et Huawei au-delà de 15 milliards.

Ou Apple M1 et M2, toujours à 5 nm : la série M1 atteint 57 milliards, tandis que la M2 monte à 67 milliards.

Je vous donne un autre exemple : du 14 nm du Snapdragon 820 au 10 nm du 835, le nombre de transistors a quasiment doublé, et il en est de même lors du passage au 7 nm du 855. Cependant, du 5 nm du 888 au 4 Gen 8 et au 1 nm du Gen 2, le nombre est presque inchangé; et la situation ne s'améliore pas beaucoup avec le passage au 3 nm, avec Google Pixel 3 qui pourrait aussi s'attribuer le mérite d'être le premier au 3 nm grâce au Tensor G3 de Samsung, un record qui laisserait cependant le temps qu'il trouverait quand l'iPhone 15 toujours à 3 nm aura un nombre de transistors beaucoup plus élevé.

Ce rapport Tech Insights montre comment le Dimension 9000 promu par MediaTek comme le tout premier à 4 nm est essentiellement le même que ceux d'un 5 nm. Encore plus absurde est l'histoire de Samsung Galaxy S22 et les deux versions Snapdragon 8 Gen 1 et Exynos 2200, toutes deux fabriquées par Samsung : à l'origine, leExynos 2200 est né à 4 nm alors que lo Snapdragon 8 Gen1 a 5 nm, mais Samsung ne pouvait certainement pas sortir deux versions du même téléphone avec des générations de puces apparemment différentes. Ce qu'il a fait, c'est "convertir" le processus de production du Snapdragon en 4 nm, mais physiquement, il restait comme s'il s'agissait de 5 nm. Et le plus paradoxal, c'est que le S22 avec Snapdragon 5 nm s'est avéré mieux fonctionner que le S22 avec Exynos 4 nm : dans la précipitation pour battre TSMC à temps, l'Exynos 2200 s'est avéré être un tel flop qu'il a convaincu Qualcomm de retour à TSMC et publicité Samsung suspendre le projet Exynos.

Si autrefois une puce de 350 nm était automatiquement meilleure qu'une puce de 600 nm, ce n'est plus toujours le cas aujourd'hui, car le nanomètre n'est plus qu'une estimation, une indication que les fabricants de puces utilisent pour indiquer clairement que la nouvelle puce est, à certains égards, meilleure. que le précédent, avec toutes les ambiguïtés de l'affaire. Et je ne peux m'empêcher de penser que crise des semi-conducteurs a accentué cette ambiguïté, dans un monde où les jetons sont une monnaie très précieuse et où être le premier à montrer un nouveau procédé de production peut conforter son leadership, mais aussi s'avérer être une arme à double tranchant.

En 2004, une plaquette de puce de 90 nm coûtait 2.000 3 dollars, alors qu'aujourd'hui une plaquette de 10 nm coûte XNUMX fois plus cher, et très peu de clients peuvent se le permettre (principalement Apple, Qualcomm, NVIDIA et MediaTek). Vous comprendrez par vous-même que TSMC et Samsung marchent sur une corde raide, car ils ont besoin de ces gros clients pour obtenir les milliards nécessaires pour investir dans leurs usines, et pour obtenir ces clients ils doivent être les premiers à innover, avec le risque ou à trop anticiper et faire comme Samsung ou être trop prudent et se faire doubler. Et c'est précisément ce chien qui court après sa queue qui conduit les nouvelles technologies à n'être utilisées que pour leur mettre le drapeau. Comme d'habitude, l'invitation est donc de être des consommateurs avertis et ne pas être victime du marketing.

⭐️ Découvrez le meilleures offres en ligne grâce à notre chaîne exclusive Telegram.