Um alle Funktionen dieser Seite zu nutzen, aktivieren Sie bitte die Cookies in Ihrem Browser.
my.chemie.de
Mit einem my.chemie.de-Account haben Sie immer alles im Überblick - und können sich Ihre eigene Website und Ihren individuellen Newsletter konfigurieren.
- Meine Merkliste
- Meine gespeicherte Suche
- Meine gespeicherten Themen
- Meine Newsletter
Floating Point Operations Per SecondFloating Point Operations Per Second (FLOPS, floating point operations per second englisch für Gleitkommaoperationen pro Sekunde) ist eine Maßeinheit für die Geschwindigkeit von wissenschaftlich genutzten Computersystemen oder Prozessoren und bezeichnet die Anzahl der Gleitkommazahl-Operationen (Additionen oder Multiplikationen), die von ihnen pro Sekunde ausgeführt werden können. Weiteres empfehlenswertes FachwissenUm die Leistung einordnen zu können: ein normaler PC mit einem Pentium-4-Prozessor bei einer Taktfrequenz von drei Gigahertz kann nach Angaben von IBM etwa sechs GigaFLOPS erreichen. Häufig wird als FLOP eine Gleitkommazahlenoperation (floating-point operation) bezeichnet, wodurch vereinzelt auch die (wissenschaftlich gesehen korrektere) Variante FLOP/s auftaucht, beide Varianten sind allerdings gleichbedeutend mit FLOPS.
wobei M, G, T, P die Kürzel der konventionellen Vorsätze für Maßeinheiten sind, hier also für Mega, Giga, Tera und Peta stehen. Die Anzahl der Gleitkommaoperationen ist nicht notwendigerweise direkt zur Taktgeschwindigkeit des Prozessors proportional, da – je nach Implementierung – Gleitkommaoperationen unterschiedlich viele Taktzyklen benötigen. Manche Prozessoren können auch mehrere Operationen pro Takt durchführen. Vektorprozessoren führen in jedem Takt bis zu einige tausend Operationen aus. Auch entspricht die Taktfreqquenz der FPU nicht immer der Prozessortaktfrequenz, die FPU von Pentium 4 Prozessoren arbeitet z. B. mit doppeltem Chiptakt. Durch die FLOPS wird die gesamte Rechnerarchitektur, bestehend aus Hauptspeicher, Bus, Compiler gemessen, nicht die reine Prozessorgeschwindigkeit. Allerdings wird manchmal, ebenso wie bei der Einheit MIPS, auch die theoretisch mögliche Anzahl angegeben. Der erste frei programmierbare Rechner, die mechanische Zuse Z1 aus dem Jahre 1937, schaffte etwa zwei Additionen pro Sekunde bei etwa 1 Hz Takt. Eine Multiplikation dauerte nach Aussage Zuses etwa drei Sekunden. Die Maschine erreichte also etwa 0,05 bis 0,5 FLOPS – je nach Operation. Die FLOPS eines Computers werden durch definierte Programmpakete (Benchmarks, etwa Linpack oder Livermore Benchmark) bestimmt. Wie auch im PC steigt die Leistung der Supercomputer stetig bei sinkender Größe. So benötigt der in der TOP500-Liste 11/2005 führende BlueGene/L von IBM für seine Leistung von rund 280 TFLOPS nur 70 m² Fläche und 1770 kW elektrische Leistung, was im Vergleich zum drei Jahre älteren Earth Simulator (35,86 TFLOPS) mit 3000 m² und 6000 kW eine deutliche Verbesserung darstellt.
Ein interessanter Vergleich: Bereits im März 2006 wurde der neueste "schnellste" Computer Deutschlands in Jülich in Betrieb genommen, der JUBL (Jülicher Blue Gene/L). Mit 45,6 TFLOPS bot er zu diesem Zeitpunkt als sechstschnellster Computer der Welt die Rechenleistung von 15.000 "normalen" zeitgemäßen PCs. Interessant ist für die weitere Entwicklung die Einschätzung der Rechenzeit-Bedarfsentwicklung durch den Vorstandsvorsitzenden des Jülicher Forschungszentrums (03/2006): "Die Nachfrage nach Rechenzeit wird in den nächsten fünf Jahren noch um den Faktor 1000 steigen". Beispiele der GFLOP-Werte an einigen CPUs:
(Quelle: [1]) In der TOP500 Liste werden die 500 schnellsten Computersysteme, gemessen an ihren FLOPS mit dem Linpack-Benchmark aufgeführt. Siehe auch
|
||||||||||||||||||||||||
Dieser Artikel basiert auf dem Artikel Floating_Point_Operations_Per_Second aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation. In der Wikipedia ist eine Liste der Autoren verfügbar. |