Menü Schließen

Schneller als die anderen – mit demselben Material

Beim Segeln werden viele Regatten für Einheitsklassenboote ausgerichtet, das heißt, dass alle Boote grundsätzlich gleich sind. Umfangreiche Klassenvorschriften definieren genau, wie das Boot auszusehen hat und welche Veränderungen durchgeführt werden dürfen. Das geht hin bis zu Materialien, Positionen der Beschläge und sogar zum maximalen Crewgewicht.

Alle gleich, nur sind manche inmmer schneller - Einheitsklassenregatta auf dem Bodensee
Alle gleich, nur sind manche inmmer schneller – Einheitsklassenregatta auf dem Bodensee

Ähnlich geht es im PC-/-Markt zu: Die Geräte bestehen praktisch alle aus frei verfügbaren Komponenten, der Prozessor stammt von Intel oder AMD, die Grafikkarte von Nvidia oder AMD, auch die Speicher und Plattenspeicher werden von den Herstellern im freien Markt gekauft. Sogar die Motherboards stammen oft von einem Anbieter, bei dem jeder einkaufen kann.

Warum sind dann manche Workstations schneller wie andere? Eine Antwort brachte mein Besuch letzte Woche bei . Das Unternehmen unterhält bei Austin ein umfangreiches Labor, in dem die Dell-Workstations auf optimale Leistung getrimmt werden. Leider durften dort keine Fotos gemacht werden, aber die Eindrücke sind auch so interessant genug. Da andere Hersteller ähnliche Labore betreiben, gilt die Betrachtung für alle Hersteller, wobei sicherlich Unterschiede im Umfang und Erfolg der Optimierung bestehen.

Schon beim Gehäusedesign werden Entscheidungen getroffen, die die Leistungsfähigkeit des Geräts beeinflussen. Moderne Prozessoren besitzen mehrere Kerne, die zum einen eine nominale Taktfrequenz haben, aber sich selbst übertakten können – dies wird Turbo Boost genannt. Bei Wikipedia findet sich im entsprechenden Artikel ein interessantes Beispiel. Es geht vom Core i7-920M Extreme Edition aus, einem Vierkern-Mobilprozessor mit 2GHz nominalem Takt. So lange es die Temperatur der CPU zulässt, schaltet der Prozessor selbsttätig auf höhere Frequenzen um. Dabei versucht er, einige seiner rechenkerne abzuschalten, um weniger Wärme zu erzeugen – die erreichbare Turbo-Frequenz ist also von der Anzahl der aktuell genutzten Kerne abhängig. Der Wikipedia-Artikel nennt für drei und vier genutzte Kerne eine Turbofrequenz von 2,27GHz, für zwei Kerne eine Frequenz von bis zu 3,01GHz und bei nur einem genutzten Kern werden 3,2GHz erreicht.

Workstation-Gehäuse - hier eine Dell Precision T7610 - sind mit ausgeklügelten Kühlluftführungen ausgestattet (Bild: Dell).
Workstation-Gehäuse – hier eine Dell Precision T7610 – sind mit ausgeklügelten Kühlluftführungen ausgestattet
(Bild: Dell).

Der Prozessor läuft also unter optimalen Bedingungen – ein Kern in Benutzung, ausreichende Kühlung – mit 160 Prozent der Nominalleistung – das ist spürbar und vor allem in CAD-Anwendungen, die meist nur einen Kernel auslasten, ein spürbarer Leistungsschub. Der Kühlung kommt also große Bedeutung zu – auf der anderen Seite ist die „Brutal-Methode“, also der Einbau vieler, mit Volllast laufender Lüfter wegen der Geräuschentwicklung keine Option; clevere Lösungen sind gefragt. Die Hersteller berücksichtigen dies mit ausgeklügelten Kühlluftkanälen und getrennter Luftführung für Prozessoren, Netzteil, Speicher und Peripherie. Vor allem bei Mobilrechnern ist eine optimale Auslegung der Kühlung wegen der engen Bauräume komplex und sehr wichtig, um optimale Performance zu erreichen.

Eine zweite wichtige Stellschraube ist die Optimierung der Signalübertragung – dies betrifft die Übertragung auf der SATA-Schnittstelle, also hin zu Speichermedien, ebenso wie zum Hauptspeicher und zum PCI-Express-Bus, also zur Grafikkarte. Moderne Busprotokolle sind fehlertolerant, kommen Daten verstümmelt an, initiiert der Empfängerbaustein eine neue Übertragung. Im Extremfall taktet sich der Bus herab, um eine fehlerfreie Datenübertragung zu gewährleisten. Beide Maßnahmen bremsen natürlich die erreichbare Datenrate und damit den gesamten Rechner – was nützt eine potente Grafikkarte, wenn die Daten von der CPU im Schneckentempo geliefert werden?

Dell steckt viel Energie in die Optimierung der Busübertragung, uns wurde gezeigt, wie mit einem 500.000-Dollar-Oszilloskop die PCIE-Übertragung optimiert wird. Der Hersteller kann über das Bios Einfluss auf die Parameter der Datenübertragung nehmen, teils werden sogar in Zusammenarbeit mit Intel Änderungen am Prozessordesign initiiert, die mit der nächsten Prozessorgeneration allen Käufern zugute kommen – im Gegensatz zu den eigenen Bios-Optimierungen.

Ebenfalls wichtig zur Leistungsoptimierung sind die Zusammenstellung der Systemkomponenten und die Treiberausstattung. Dell hat mit DPPO (Dell Precision Performance Optimizer) eine Applikation entwickelt, die erkennt, welche Applikationen aktuell laufen und stellt den Rechner so ein, dass optimale Leistung für genau diese Applikationen erreicht wird. Widersprechen sich die Ansprüche der Applikationen, wird der Anwender gefragt, welche er bevorzugen möchte. Die aktuell verfügbaren Profile umfassen die Adobe Creative Suite sowie die CAD-Systeme Catia, SolidWorks, Creo und NX, weitere Profile sind in der Entwicklung. DPPO beeinflusst unter anderem Prozessor, Speicher, Grafikkarte, Plattenspeicher, Betriebssystem, Bios und Treiber.

Bisher war ich ja der Meinung, einen Rechner aus Standardkomponenten zusammenzuschrauben könne sozusagen jeder – und ich tue dies auch seit Jahrzehnten. Nachdem ich jedoch gesehen habe, mit welcher Akribie und Begeisterung die Dell-Optimierungsspezialisten zu  Werke gehen, muss ich diese Meinung revidieren – aus „Einheitsware“ lässt sich mit Optimierung, viel Wissen und enger Zusammenarbeit mit den Komponentenlieferanten sehr wohl einiges mehr herausholen.

Bei Segeln sind ja auch bei Einheitsklassen immer Dieselben vorne – die, die aus dem Boot am meisten herausholen. Und da sind wir wieder bei der Optimierung.

 

Sei der Erste, der diesen Beitrag teilt

Ähnliche Themen