Vous n’êtes pas connecté à Internet.
Corporate logo
En coulisse 2629

David et Goliath: le SoC des smartphones et le CPU des ordinateurs

Nous passons nos journées à taper sur nos ordinateurs et nos smartphones sans forcément savoir que les technologies de ces deux types d’appareils divergent. En effet, les performances et l’architecture des composants essentiels sont complètement différentes.

L’ordinateur classique possède un processeur intégré, alors que le smartphone est doté d’un SoC («System on a Chip») qui rassemble ses éléments principaux – processeur, carte graphique, contrôleur mémoire ou encore interfaces Ethernet ou Bluetooth – sur une seule puce.

L’architecture d’un processeur

Pourquoi votre smartphone, dont les cœurs de processeur sont plus nombreux et la vitesse d’horloge plus élevée, n’est pas plus performant que votre vieux notebook? En raison de l’architecture de son processeur. x86 et ARM sont les deux architectures les plus courantes. Vous trouverez x86 dans les portables et ordinateurs de bureau , et ARM dans les SoC des smartphones.

Si les smartphones et les tablettes ont mis les processeurs ARM de la famille RISC sur le devant de la scène ces dernières années, leur développement remonte en fait aux années 80. L’entreprise britannique Arcon a commercialisé son prototype à 32 bits et 4 MHz en 1983. À l’époque, l’acronyme «ARC» signifiait «Acorn Risc Machine». Il fait à présent référence à «Advanced RISC Machine ». Le succès ne s’est pas fait attendre, et la production en série à une vitesse d’horloge de 8 MHz a débuté en 1986.

L’architecture x86 a été créée à la fin des années 70. L’Intel i8086, le premier processeur doté de l’architecture de jeu d’instructions x86, a été introduit sur le marché en 1978. Entendre «Intel 80286», «Intel 80386» (AMD Am386) ou «Intel 486» (AMD Am486) peut rendre certains d’entre nous nostalgiques. J’ai d’ailleurs fait mes premiers pas dans l’informatique avec un 286, sur lequel j’ai appris les commandes DOS et joué à des jeux dont le graphisme n’a rien à voir avec ce qui se fait maintenant.

Des architectures différentes

Les processeurs ARM ont été conçus afin de consommer une faible quantité d’électricité et possèdent des jeux d’instructions simples. Les processeurs x86, en revanche, sont principalement destinés à des performances et un débit élevés. Les différences entre les deux familles de processeurs sont variées. Elles concernent la puissance de calcul, la consommation d’électricité et les logiciels de l’utilisateur final.

Pour quelle puissance de calcul les processeurs ont-ils été conçus?

Le nom de la famille des processeurs ARM nous donne déjà quelques indices, puisque «RISC» fait référence à «Reduced Instruction Set Computing» ou «processeur à jeu d’instructions réduit » en français. Le processeur maintient les jeux d’instructions simples et leur nombre aussi restreint que possible. Cette simplicité présente certains avantages pour les ingénieurs matériel et logiciel. Des instructions simples nécessitent l’activation d’un nombre plus faible de transistors, ce qui augmente la surface des puces et réduit leur taille. Par contre, elles sollicitent davantage de mémoire et allongent les temps d’exécution. Le processeur tente de compenser cette faiblesse par des vitesses d’horloge plus élevées et un pipeline (division des instructions-machine en plusieurs étapes) stratégique.

Les processeurs x86 de la famille CISC fonctionnent selon le principe inverse, puisque «Complex Instruction Set Computing» signifie «processeur à jeu d’instructions complexe ». Destinés à des tâches complexes nécessitant une grande flexibilité, ils sont capables d’effectuer des calculs entre divers registres de processeur sans que le logiciel doive charger les variables requises au préalable. Multiplications avec des chiffres à virgule flottante, manipulations complexes de la mémoire et conversions de données figurent parmi les nombreuses opérations courantes de ces types de processeurs.

En outre:
Contrairement aux CPU x86, les CPU ARM ne comprennent que trois catégories d’instructions.

  • Les instructions d’accès à la mémoire (load/store)
  • Les instructions arithmétiques ou logiques destinées aux valeurs des registres
  • Les instructions destinées à modifier le flux de programme (sauts, appels de sous-programmes)

La consommation électrique

La taille de la batterie des appareils mobiles limitant sa capacité, la consommation électrique d’un SoC est un facteur décisif. Ainsi, le SoC de votre smartphone consomme moins de 5 W. Il n’a pratiquement jamais besoin d’être activement refroidi, ce qui économise encore davantage d’énergie.
À l’inverse, un processeur x86 haut de gamme peut facilement consommer 130 W en raison de sa complexité.

Comparons David et Goliath en codant une vidéo

Comparer les deux architectures n’a pas vraiment de sens, car chacune a ses avantages et ses domaines d’application. Mais j’aimerais tout de même savoir à quel point les performances des processeurs se distinguent. J’ai donc rippé le DVD de «Sleepy Hollow» pour le convertir du format MPEG-2 au format H.264. Autrement dit, je réduis ce film de 6,3 Go à environ 1400 Mo, et ce à une qualité pratiquement équivalente.

Les appareils de mon duel:

  • Un notebook Lenovo X220 de 2012 avec Intel Core i5 2520M, 2 cœurs, 2,50 GHz de vitesse d’horloge de base (max. de 3,20 GHz en mode turbo)
  • Un smartphone Blackberry Priv de 2015 avec Qualcomm Snapdragon 808, 6 cœurs, jusqu’à 2,0 GHz de fréquence d’horloge

Je veille bien sûr à ce que les mêmes codec et bitrate soient paramétrés sur les deux appareils. Je convertis le film à 1400 kbit/s (à l’aide d’un logiciel de décodage) en une passe juste pour tester (on en fait normalement au moins deux pour améliorer la qualité de la vidéo). Je ne touche pas aux pistes audio, je les laisse au format DTS.

La conversion sur le notebook

J’utilise VirtualDub. Je laisse la bordure noire sur la vidéo afin de préserver ensuite ces conditions sur le smartphone (je ne peux donc pas découper ou recadrer l’image).

La configuration du codec. Pour mon test, je convertis exceptionnellement au mode «single pass».

Mon vieux Core i5 2520M y passe à peu près une heure. En 2002, l’opération durait huit heures avec mon Pentium. Je le laissais convertir toute la nuit.

La conversion dure environ une heure sur le notebook.

La conversion sur le smartphone

Difficile de trouver une application qui ne plante pas ou ne m’affiche pas un message d’erreur lorsqu’elle convertit un fichier de 6,3 Go. Je finis par choisir «A/V Converter».

Mon smartphone se met au travail et réussit à convertir 10 images par seconde. J’attends 5 minutes avant que l’application n’affiche une durée totale estimée de 4 heures et 3 minutes.

Le smartphone a besoin de quatre fois plus de temps que le notebook.

Résumé

Mon test montre que le SoC d’un smartphone ne peut pas être comparé au CPU d’un ordinateur standard. Le temps que prend une même opération sur le smartphone illustre bien à quel point nos fidèles compagnons mobiles ne font pas le poids.

Par contre, les SoC sont très performants pour leur faible consommation électrique. Mon microprocesseur i5 consomme 35 W, ce qui suffirait à alimenter 7 SoC. Si ces derniers étaient tous reliés, ils pourraient convertir plus vite avec la même consommation électrique que le CPU de mon ordinateur.

Ces articles pourraient aussi vous intéresser

<strong>Chute des prix sur les GPU</strong>: c’est pour quand?
Jeux vidéoNouveautés & tendances

Chute des prix sur les GPU: c’est pour quand?

<strong>Feed the Nerd:</strong> retour aux sources sous MS DOS 6.22
RétroNouveautés & tendances

Feed the Nerd: retour aux sources sous MS DOS 6.22

Nous montons un PC de streaming pour vous
Jeux vidéoReportage

Nous montons un PC de streaming pour vous

User

Martin Jud, Zurich

  • Editor
Le baiser quotidien de la muse stimule ma créativité. Si elle m’oublie, j’essaie de retrouver ma créativité en rêvant pour faire en sorte que mes rêves dévorent ma vie afin que la vie ne dévore mes rêves.

Commentaires 26

3000 / 3000 caractères

User fumo

Und wie lange hat der SoC dann schlussendlich wirklich gebraucht? Dass man die vorangeschlagene Zeiten nicht ernst nehmen kann sollte man wissen wenn man sich schon seit der 286er Generation in der Szene bewegt...

05.04.2018
User Löchliwasser

Und wieso unbedingt das BlackBerry Priv gewählt wurde, ist mir auch fraglich. Der Snapdragon 808 war ja auch beim Erscheinen nicht das Topmodell.

05.04.2018
User Martin Jud

@fumo
Habe den Prozess bei 53 Prozent nach 2 Stunden und 15 Minuten abgebrochen. Bei «Time left» standen noch 1 Stunde und 55 Minuten. Und ja, schnelle Szenen benötigen mehr Rechenleistung als langsame. Man kann keine exakte Voraussage machen, jedoch eine ungefähre. Der Vergleich macht nur insofern Sinn, dass er ein Gefühl für den Unterschied der Power der CPU-Architekturen vermittelt.

05.04.2018
User Martin Jud

@Löchliwasser
Weil ich keine Lust hatte mit dem Schreiben und Vergleichen zu warten. Die Muse hat mich gleich nach der Idee zum Artikel gepackt. Da habe ich kurzerhand mein privates Notebook und Smartphone benutzt.

05.04.2018
User fumo

Achso, der Test wurde abgebrochen. Somit ist also das ganze hier wieder Mal nur unbrauchbares Datenmüll den ihr bei euch produziert habt. Absolut keine verwertbaren Informationen.

05.04.2018
User Felix8952

@Fumo
Also, dass das hier keine professionelle wissenschaftliche Studie sein soll ist dir hoffentlich klar... Es ging ja nur darum einen ungefähren Vergleich zwischen den beiden Chips zu demonstrieren.

Vermutlich ist das SoC wegen Temperaturproblemen mit der Zeit sowieso langsamer geworden, was aber nichts über die Leistungsfähigkeit des Chips aussagt.

20.04.2018
Répondre
User Hannes2000

Laut dem Bild wurde auf dem PC mit Preset Medium konvertiert und am Handy mit Preset Slow?
x264 codec vermutlich bei PC und Handy.
Preset Slow ist einiges langsamer als Medium, bringt aber bei gleicher Dateigrösse eine bessere Qualität.

Der Vergleich ist so aber dann auch nicht brauchbar.

06.04.2018
User drazentomic

Der Vergleich hinkt, auch wenn er für ein besseres SEO gemacht worden ist.
Niemanden kommt im Sinn den Klavier per Kleinwagen zu transportieren. Wieso fahren wir aber alle mit dem Lastwagen zur Migros? Ein Smartphone-SoC reicht doch für Briefe und Surfen, siehe auch Raspberry Pi.

04.04.2018
User Anonymous

Der Vergleich macht insofern Sinn, weil es momentan gerüchtet, dass Apple künftig die CPUs für ihre Notebooks/Desktops selber herstellen möchte. Da sie aber keine Patente für x86, dafür aber Knowledge zu ARM besitzen, läuft es vermutlich auf letzteres raus. Für mich ist es schwer vorstellbar, dass man mittels ARM-Architektur Intel im Leistungsbereich ernsthaft Konkurrenz machen kann. Insofern ist der Artikel eine weitere Bestätigung dafür, dass an diesen Gerüchten eher nichts dran ist.

05.04.2018
User fumo

Apple soll, nachdem sie sich mühsam von der eigene Architektur getrennt haben, dem "IBM-Modell" wieder den Rücken kehren? Und dann auch noch selbst Hardware bauen, so ganz ohne eigene Fabriken? Klingt eher nach 1. April Scherz als Gerücht.

06.04.2018
Répondre
User Helvetier

Toller Bericht, war sehr informativ und gut verständlich.

05.04.2018
User Anonymous

Die Einleitung war sehr gut geschrieben, danach ist man aber gar abrupt zu einem Ende gekommen. Ein einzelner Benchmark dürfte auch nicht ausreichen, um ein ernsthaftes Fazit zu einem solch komplexen Vergleich zu ziehen.

05.04.2018
Répondre
User JTR.ch

Der letzte Absatz klingt nur für Amateure plausibel, der Rest weisst auf den Overhead hin!

06.04.2018
User lukasgabi6

Dass ausgerechnet ein Chip aus der berüchtigten 810er Zeit genommen wurde ist unglücklich. Dann auch noch ein Dual core Modell anstelle der heute gängigen Quadcores (4 grosse, 4 kleine). Bei gleicher Taktrate und IPC unter optimalen Bedingungen würde man die hälfte der Zeit erwarten.

15.04.2018
User Anonymous

Der Vergleich hinkt u.A. auch, weil der i5-2520M damals basierend auf der 32nm Lithographie gebaut wurde und auch 3 Jahre älter ist als der Snapdragon 808. Es würde mich mal sehr wundern, was die Leistung bei gleicher Lithografie und bei ähnlichem Erscheinungsdatum ist ; bitte mindestens 2017.

05.04.2018
User fumo

Es würde aufs selbe Ergebnis hinauslaufen, nur die Zeiten wären anders.

05.04.2018
User Anonymous

Da wäre ich mir gar nicht so sicher. Ich könnte mir vorstellen, dass das Ergebnis einiges enger ist.

05.04.2018
User Waxer_R6

du meinst wohl eher, dass der neure CPU dem Snapdragon den Ar*** aufreisst?
Aber wie schon so oft gesagt, der Vergleich macht keinen Sinn.

05.04.2018
User Anonymous

ZB. Snapdragon 821 (zB. Google Pixel XL, ca. 1.875 GHz) vs i5-8350U (limit auf TDP Up 1.9 GHz) - zwar ist der i5 ca. 1 Jahr jünger, aber der Vergleiche sollte einiges besser passen, als der im Artikel!

05.04.2018
User Anonymous

Hyperthreading müsste man da aber deaktivieren

05.04.2018
Répondre