STANDARD: Sie arbeiten am Forschungszentrum für Telekommunikation Wien (ftw.) an dem Projekt "Mechanism and Performance of Packet Networks". Unter anderem geht es dabei um ein effizienteres Internet. Was steckt dahinter?Ziegler: Es geht hier um neue Routing-Algorithmen im Internet. Routing bestimmt, welchen Weg ein Datenpaket nehmen soll, das von einem Sender zu einem Empfänger geschickt wird. Derzeit gibt es im Internet nur einen einzigen Pfad von einem Sender zu einem Empfänger. Unser Ziel ist es, dass wir nicht nur einen Pfad zur Verfügung stellen, sondern mehrere Pfade. So kann man die Last bei der Datenübertragung auf intelligente Art und Weise verteilen, und es kommt in keinem Teil des Netzwerkes zu unnötiger Überlast. Das Ganze nennt man Multipass-Routing. Und der spezielle Algorithmus, den wir hier am ftw. entwickelt haben, heißt Adapted Multi Passrouting.

STANDARD: Wie erforscht man so eine komplexe Materie?

Ziegler: Zum Beispiel durch Simulation. Wir überlegen uns einen Algorithmus, also ein Verfahren, das irgendwie praktikabel ist, und simulieren einen Teil des Internets. Wir probieren dabei aus, wie verhält sich unser Algorithmus im Vergleich zu bisherigen.

STANDARD: Vergangene Woche gab es am ftw. einen internationalen Workshop zum Thema Quality of Service im Internet. Um was ging es dabei?

Ziegler: Das heutige Internet kann keine Qualitätsgarantien für die Übertragung bieten, sondern lediglich ein so genanntes "best effort service". Das heißt, das Internet tut sein Bestes, um auf Basis der momentan vorhandenen Möglichkeiten die bestmögliche Qualität bei der Übertragung zu geben. Aber das derzeitige Internet ist abhängig von der Verkehrssituation im Netz und damit mal schneller und mal langsamer.

STANDARD: Als durchschnittlicher Internetnutzer merke ich davon aber nur wenig, oder?

Ziegler: Man kann natürlich die Bandbreite überdimensionieren, sodass die Qualtität der Übertragung meistens akzeptabel ist. Das ist in den zentralen Bereichen des Netzes durchaus vernünftig und wird von den meisten Internet-Service-Providern ja auch getan. Für die herkömmlichen Anwendungen im Internet wie etwa Websurfen oder E-Mail-Verkehr genügt in der Regel der "best effort service", da es sich hierbei im Wesentlichen um asynchrone Anwendungen handelt. Asynchronisch bedeutet: Man schickt eine E-Mail aus, und sie kommt irgendwann beim Empfänger an. Das muss nicht in Echtzeit passieren. Wenn es dabei hin und wieder etwas langsamer geht, ist das nicht so tragisch.

STANDARD: Wozu benötigt man Quality of Service im Internet?

Ziegler: Zum Beispiel für Echtzeitanwendungen wie etwa Sprache. Wenn wir uns über das Internet wie am Telefon unterhalten wollen, wollen wir, dass die Datenpakete sofort ankommen, ohne unnötige Verzögerungen. Und da kommt Quality of Service im Internet ins Spiel. Man will Dienstqualitäten im Internet zur Verfügung stellen, die garantieren, dass eine bestimmte Verzögerung nicht überschritten wird.

STANDARD: Welche Kriterien muss diese Quality of Service im Internet erfüllen? Ziegler: Die vom Benutzer subjektiv empfundene Qualität muss gut sein. Diese messen wir mit speziellen Methoden. Eine weitere Kernfrage ist: Wie kann man so eine neue Architektur im Internet möglichst einfach konzipieren? Führt man sehr komplizierte Mechanismen ein, ist deren Management nicht mehr bewältigbar. Da unglaublich viele User tagtäglich im Web Daten versenden, müssen die Mechanismen auch skalierbar sein, also für Millionen Nutzer funktionieren und nicht nur für einige wenige. Unsere Forschung zielt darauf ab, einerseits möglichst gut Sprache oder Video über Internet zu übertragen, andererseits dabei aber einfach zu bleiben. Denn das Erfolgsrezept im Internet ist seine Einfachheit. (DER STANDARD, Print-Ausgabe, 3. 5. 2004)