Project Details
Description
Klassisch wird der Aufwand zur Lösung algorithmischer Probleme durch die worst-case Komplexität gemessen - die maximale Rechenzeit über alle Eingaben einer bestimmten Größe. Darüber hinaus wird in der Regel angenommen, daß das Problem exakt zu lösen ist und daß die Eingabedaten vollkommen fehlerfrei vorliegen. Dies führt bei vielen Problemen zu dem Ergebnis, daß keine effiziente Lösungsverfahren existieren können, falls komplexitätstheoretische Vermutungen wie "P ungleich NP" zutreffen. Oftmals wären Verfahren, die zumindes im Mittel eine schnelle Laufzeit erreichen oder deren Resultat zumindest in der Nähe des Optimums liegt, bereits von großem praktischen Interesse. Neben allgemeinen strukturellen Untersuchungen soll für eine Reihe von Problemklassen vorwiegend kombinatorischer Natur, deren average-case Komplexität und Approximierbarkeit eingehend untersucht werden, unter anderem für das Sortieren von Daten, Problemstellungen in der Stringverarbeitung sowie algorithmisches Lernen. Während diese beiden abgeschwächten Gütekriterien zu einer Verbesserung der Effizienz der Lösungsverfahren führen können, wid die Aufgabenstellung bei manchen Anwendungen - etwa bei der Verarbeitung molekular-biologischer Daten - dadurch erschwert, daß die Eingabedaten mit Fehlern behaftet sind. Diese Situation soll zunächst geeignet modelliert werden. Es sollen dann algorithmische Methoden entwickelt werden, die eine effiziente Problemlösung auch unter derartigen Bedingungen erl
| Status | finished |
|---|---|
| Effective start/end date | 01.01.01 → 31.12.09 |
UN Sustainable Development Goals
In 2015, UN member states agreed to 17 global Sustainable Development Goals (SDGs) to end poverty, protect the planet and ensure prosperity for all. This project contributes towards the following SDG(s):
Research Areas and Centers
- Research Area: Intelligent Systems
DFG Research Classification Scheme
- 4.43-01 Theoretical Computer Science
Funding Institution
- DFG: German Research Association