Komplexität (Informatik)

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Der Begriff Komplexität wird in der Informatik in verschiedenen Teilbereichen verwendet. Die Komplexitätstheorie befasst sich dabei mit dem Ressourcenverbrauch von Algorithmen, die Informationstheorie dagegen verwendet den Begriff für den Informationsgehalt von Daten, die Praktische Informatik wiederum bewertet damit Software oder Softwareteile hinsichtlich der Anzahl von Interaktionen.

Komplexitätstheorie

[Bearbeiten | Quelltext bearbeiten]

Unter der Komplexität (auch Aufwand oder Kosten) eines Algorithmus versteht man in der Komplexitätstheorie seinen Ressourcenbedarf. Dieser wird oft in Abhängigkeit von der Länge der Eingabe angegeben und für große asymptotisch unter Verwendung von Landau-Symbolen abgeschätzt. Analog wird die Komplexität eines Problems definiert durch den Ressourcenverbrauch eines optimalen Algorithmus zur Lösung dieses Problems. Die Schwierigkeit liegt darin, dass man alle Algorithmen für ein Problem betrachten muss, um die Komplexität desselben zu bestimmen.

Die betrachteten Ressourcen sind fast immer die Anzahl der benötigten Rechenschritte (Zeitkomplexität) oder der Speicherbedarf (Platzkomplexität). Die Komplexität kann aber auch bezüglich einer anderen Ressource bestimmt werden. Dabei interessiert nicht der Aufwand eines konkreten Programms auf einem bestimmten Computer, sondern viel mehr, wie der Ressourcenbedarf wächst, wenn mehr Daten zu verarbeiten sind, also z. B. ob sich der Aufwand für die doppelte Datenmenge verdoppelt oder quadriert (Skalierbarkeit).

Oft ist es schwierig, eine Funktion anzugeben, die allgemein zu jeder beliebigen Eingabe für ein Problem den zugehörigen Aufwand an Ressourcen angibt. Daher begnügt man sich in der Regel damit, konstante Faktoren und Summanden auszulassen und sich lediglich mit dem Verhalten in Abhängigkeit der Eingabelänge zu befassen. Die Eingabelänge wird hierbei in der Anzahl an Bits gemessen, die benötigt werden, um die Information darzustellen.

Eine weitere Vereinfachung ist die Annahme, dass alle elementaren Operationen dieselbe Zeit benötigen, sodass z. B. die Addition zweier Zahlen und die Multiplikation zweier Zahlen genau eine Zeiteinheit kostet.

Algorithmen und Probleme werden in der Komplexitätstheorie gemäß ihrer so bestimmten Komplexität in so genannte Komplexitätsklassen eingeteilt. Diese sind ein wichtiges Werkzeug, um bestimmen zu können, welche Probleme „gleich schwierig“, beziehungsweise welche Algorithmen „gleich mächtig“ sind. Dabei ist die Frage, ob zwei Komplexitätsklassen gleichwertig sind, oft nicht einfach zu entscheiden (zum Beispiel P-NP-Problem).

Die Komplexität eines Problems ist zum Beispiel entscheidend für die Kryptographie und insbesondere für die asymmetrische Verschlüsselung: So verlässt sich zum Beispiel das RSA-Verfahren auf die Vermutung, dass die Primfaktorzerlegung von großen Zahlen nur mit sehr viel Aufwand zu berechnen ist – anderenfalls ließe sich aus dem öffentlichen Schlüssel leicht der private Schlüssel errechnen.

Ein Problem, das selbst für einen Computer von der Größe der Erde nicht lösbar ist, wird als transcomputationales Problem bezeichnet.

Komplexität von Daten

[Bearbeiten | Quelltext bearbeiten]

In der Informationstheorie versteht man unter der Komplexität von Daten bzw. einer Nachricht ihren Informationsgehalt. Neben der klassischen Definition dieser Größe nach Claude Shannon gibt es verschiedene andere Ansätze, zu bestimmen, wie viel Information in einer Datenmenge enthalten ist:

Zum einen gibt es die so genannte Kolmogorow-Komplexität (auch Algorithmische Komplexität oder Beschreibungskomplexität), die den Informationsgehalt als die Größe des kleinsten Programms definiert, das in der Lage ist, die betrachteten Daten zu erzeugen. Sie beschreibt eine absolut optimale Komprimierung der Daten. Eine Präzisierung des Ansatzes Andrei Kolmogorows bezüglich des Maschinenmodells bietet die Algorithmische Informationstheorie von Gregory Chaitin.

Dagegen betrachtet Algorithmische Tiefe (auch Logische Tiefe) die Zeitkomplexität eines optimalen Algorithmus zur Erzeugung der Daten als Maß für den Informationsgehalt.

Softwarekomplexität

[Bearbeiten | Quelltext bearbeiten]

Programm- oder Softwarekomplexität umfasst viele Eigenschaften einer Software, die einen Einfluss auf interne Interaktionen haben. Meist wird zwischen den Begriffen Komplex und Kompliziert unterschieden. Kompliziert bedeutet in diesem Zusammenhang für Programmierer schwer zu verstehen, also eine interne Eigenschaft des Codes, der Algorithmen, des technischen Designs oder der Architektur der Software. Komplexität wiederum beschreibt die Eigenschaften der Interaktionen zwischen Teilen der Software. Mit der Anzahl der Abhängigkeiten zwischen Teilen der Software steigt die Anzahl der Interaktionen und somit die Komplexität der Software. Das Verständnis der Abhängigkeiten und Interaktionen hat einen großen Einfluss auf das gesamte Verständnis der Software, darum wird Software, wenn sie komplexer wird, auch schwerer zu verstehen, also komplizierter. Die Komplexität einer Software kann einen Grad erreichen, wo es für Menschen unmöglich ist, die Software vollumfänglich zu verstehen.

Ähnlich dazu erhöht eine hohe Komplexität das Risiko, dass Änderungen an einer Stelle ungewollte Auswirkungen an einer anderen Stelle bewirken. Das führt zu einer höheren Wahrscheinlichkeit, Fehler in die Software einzubauen, und zu größeren Aufwänden, die Ursache dieser Fehler zu finden bzw. diese zu beheben. Im schlechtesten Fall kann die Komplexität dazu führen, dass die Software de facto unwartbar wird, da die Risiken von Änderungen deren Nutzen übersteigen. Die Abhängigkeit zwischen Komplexität und Wartungsaufwand wurden durch Meir Manny Lehman untersucht und in seinen Gesetzen der Softwareevolution 1980 zusammengefasst.[1]

Meir Manny Lehman und Laszlo Belady untersuchten auch eine Reihe von Softwaremetriken zur Messung des Zustandes einer Software.[2] Die folgenden Softwaremetriken messen die Komplexität von Daten und Algorithmen in der Informatik auf unterschiedliche Art und Weise:

Chapins Data-Metrik
Misst den Anteil der Bedingungs- und Ergebnisdaten an allen verwendeten Daten.
Elshofs Data-Flow-Metrik
Misst die Anzahl der Datenverwendungen relativ zur Anzahl der Daten. Sie ist verwandt mit hoher Kohäsion. Hohe Kohäsion entspricht einer häufigen Verwendung von möglichst wenig Variablen.
Cards Data-Access-Metrik
Misst das Verhältnis der Anzahl der Zugriffe auf externe Dateien und Datenbanken relativ zur Anzahl derselben.
Henrys Interface-Metrik
Misst die Anzahl der Zugriffe von fremden Funktionen/Methoden in ein Modul (englisch fan-in) beziehungsweise Anzahl der Aufrufe fremder Funktionen/Methoden aus einem Modul (englisch fan-out) relativ zu allen Funktionen/Methoden des Moduls.[3]
McCabe-Metrik bzw. Eulers Maß bzw. Zyklomatische Komplexität
Misst die Komplexität des Ablaufgraphen als Verhältnis der Kantenanzahl zur Knotenanzahl.
McClures Decision-Metrik
Misst den Anteil der Entscheidungen an allen Anweisungen.
Sneeds Branching-Metrik
Misst das Verhältnis der Anzahl Verzweigungen jeglicher Art zur Summe aller Anweisungen.
Halstead-Metrik
Misst die Anzahl der verschiedenen Wörter (hier Anweisungstypen) relativ zur Anzahl verwendeter Wörter (hier Anweisungen). Sie behauptet, je weniger verschiedene Anweisungstypen man verwendet, desto einfacher ist der Code, was sehr umstritten ist.
NPATH
Zählt die azyklischen Pfade durch Funktionen[4]
Cognitive Complexity
Wird von SonarQube zur Messung der Komplexität von Programmen und Programmteilen gegenüber anderen Komplexitätsmetriken empfohlen.[5]

Sechs Komplexitätsmetriken für objektorientiertes Design wurden von S.R. Chidamber und C.F. Kemerer 1994 vorgestellt:[6] Gewichtete Methoden pro Klasse, Kopplung zwischen Objektklassen, Antworten pro Klasse, Anzahl an Subklassen, Tiefe des Vererbungsbaumes und ungenügende Kohäsion von Methoden.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. M.M. Lehman: Programs, Life Cycles, and Laws of Software Evolution. In: Proceedings of the IEEE 68. 1980, S. 1060–1076 (englisch).
  2. Meir Manny Lehman, Les A. Belady: Program Evolution. Processes of Software Change. Hrsg.: Academic Press Inc. 1985, ISBN 978-0-12-442441-8 (englisch, 538 S.).
  3. S. Henry, D. Kafura: Software Structure Metrics Based on Information Flow. In: IEEE (Hrsg.): IEEE Transactions on Software Engineering. SE-7, Nr. 5, September 1981, ISSN 1939-3520, S. 510 - 518, doi:10.1109/TSE.1981.231113 (englisch): "the procedure length multiplied by the square of fan-in multiplied by fan-out"
  4. Brian A. Nejmeh: NPATH: a measure of execution path complexity and its applications. In: Communications of the ACM. Band 31, Nr. 2, Februar 1988, doi:10.1145/42372.42379.
  5. G. Ann Campbell: Cognitive Complexity. A new way of measuring understandability. Hrsg.: SonarSource. 2016 (englisch, 20 S., sonarsource.com [PDF; 214 kB; abgerufen am 10. März 2020]).
  6. S.R. Chidamber, C.F. Kemerer: A Metrics Suite for Object-Oriented Design. In: IEEE (Hrsg.): IEEE Transactions on Software Engineering. Band 20, Nr. 6, Juni 1994, ISSN 1939-3520, S. 476 - 493, doi:10.1109/32.295895 (englisch).