Speedup

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Speedup (englisch für Beschleunigung) ist ein Begriff aus der Informatik und beschreibt mathematisch den Zusammenhang zwischen der seriellen und der parallelen Ausführungszeit eines Programmteils.

Der Speedup parallel bearbeiteter Operationen mit unterschiedlichen Eigenschaften auf bis zu 16 CPUs

Der Speedup einer parallelen Ausführung kann anhand der Gleichung

definiert werden. Dabei stellen und die serielle sowie parallele Ausführungszeit dar. Die obige Gleichung wird für eine Messung des realen Speedups herangezogen. Wird der theoretische Wert betrachtet, so kann dieser mittels dem Ausdruck

dargestellt werden. Dabei gilt:

  • ist die Anzahl von Prozessoren
  • ist der theoretische Speedup, der erreicht werden kann bei Ausführung des Algorithmus auf Prozessoren
  • ist die Ausführungszeit auf einem Ein-Prozessor-System
  • ist die Ausführungszeit auf einem Mehrprozessorsystem
  • (engl. fraction) ist der Anteil von , welcher parallel ausgeführt werden kann

Im Idealfall gilt

sodass die Ausführungszeit auf Prozessoren genau -mal so schnell ist, als auf nur einem Prozessor. Da jedoch ein Algorithmus nie komplett zu 100 % parallel ausgeführt werden kann, weil es immer einen sequenziellen nicht parallelisierbaren Anteil gibt, ist der Idealfall nie erreichbar (siehe Amdahlsches Gesetz).

Der Wertebereich lässt sich daher festlegen mit

wobei der Speedup nur dann 1 ist, falls der komplette Algorithmus nicht parallelisierbar ist und daher auf mehreren Prozessoren genauso schnell abgearbeitet wird, wie auf nur einem Prozessor.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Speedup messen und visualisieren