Nieuw internet komt er aan

Nieuws | de redactie
27 juli 2006 | Het internet is een koppeling van allerlei datanetwerken die sinds 40 jaar verknoopt zijn geraakt. Met allerlei kleine deelreparaties wordt deze zwaar overbelaste structuur overeind gehouden, maar op allerlei plaatsen wordt nu meer fundamenteel gebouwd aan een nieuw en houdbaarder vervolg op het internet.

Het leidende Amerikaanse Geni-project stelt bijvoorbeeld: “One view is that we may be at an inflection point in the societal utility of the Internet, with eroding trust, reduced innovation, and slowing rates of update. This view points to assumptions built into today’s 30-year-old architecture that limit its ability to cope with emerging threats and opportunities, and argues that it is time for a “clean slate” reconceptualization of the Internet architecture.

The other view takes today’s Internet as a given, and argues that future innovation will take the form of new services and applications running on top of the Internet. Over time, these innovations will likely have a transformational effect on the Internet, but it is simply not practical to think in terms of replacing all of today’s Internet infrastructure.”

Professor Phuoc Tran-Gia uit Würzburg trekt deze zomer een Europese bijeenkomst om het ‘next generation internet’ verder uit te werken en de samenwerking met vergelijkbare intitatieven in Azië en Geni een impuls te geven. Als beperkingen die nu de ontwikkeling van het internet remmen noemt hij onder meer : ‘the missing or limited support for Quality of Service, security, and accountability, the high operational complexity, the lack of adaptability to deal with the exponential growth of mobile terminals and with network mobility, the difficulties to integrate and profit from new technologies like wireless sensor networks. These deficiencies call for a radical new design of future networks. A greenfield approach is needed to permit new communication paradigms and to stimulate ideas for new applications.’ Zijn meest recente betoog over deze ontwikkelingen leest u hier onder.






“Meine Faxmaschine funktioniert. Wozu brauche ich das Internet?” Deze vraag werd professor Phuoc Tran-Gia negen jaar geleden nog gesteld. Tegenover hem zat een politicus die argumenten zocht om ict beleidsmatig van belang te vinden. 

Was ist das Internet? Es ist der weltweite Zusammenschluss von unterschiedlichen Datennetzen zu einem einzigen. Darum umfasst es DSL- und Modem-Anchlüsse, lokale Netze basierend auf Kupferkabel, Satellitenleitungen, Glasfasernetze usw. Die Homogenisierung geschieht mit Hilfe des so genannten Internet-Protokolls (IP), das heißt Informationen werden in ein Format gebracht, das jeder Rechner interpretieren kann, wenn er dieses IP-Protokoll versteht. Das große Netz verfügt über eine einfache, aber robuste Struktur und jeder Rechner hat eine eindeutige IP-Nummer, so dass ihm von jedem Punkt im weltweiten Netz aus Datenpakete über mehrere Netze hinweg zugeschickt werden können.

Die Internet-Protokoll-basierte Vernetzung entstand vor 37 Jahren. Das Internet hat sich seitdem ein Netz nach dem anderen in allen Ländern der Welt einverleibt, gleichgültig mit welcher physikalischen Technologie diese Netze arbeiten. Die Internet-Anwendungen sind später dazugekommen. Schon allein diese zeitliche Abfolge zeigt, dass zu Beginn der weltweiten Vernetzung deren Folgen in keinster Weise absehbar waren. Seitdem hat sich das Internet quasi unkontrolliert entwickelt, es hat sich verselbstständigt und dabei unser Arbeitsleben und unsere private Kommunikation revolutioniert.

Der Durchbruch der Internet-Anwendung, das World Wide Web, kann ziemlich genau datiert werden: Es war am 6. August 1991 um 2:26:20 Uhr am Nachmittag. Es war der Zeitpunkt, zu dem der Erfinder des World Wide Web, ein Physiker namens Tim Berners-Lee, ein unscheinbares Programm allen Nutzern zur Verfügung gestellt hat. Er hatte ein Programm entwickelt, das Verweise zwischen elektronischen Dokumenten erstellen kann, so genannte Links. Lee stellte das Programm seinem Manager vor. Die Antwort: “Es ist eine gute Idee, aber ich sehe keine Anwendungspotenziale.” Ich stelle mir vor, wie die Geschichte ausgegangen wäre, wenn die beiden miteinander Zielvereinbarungen festgemacht hätten.

Diese innovative Idee wäre auch in der heutigen Zeit unbemerkt durch etliche Raster der Innovationsmanager hindurch gefallen. Kreativität entsteht oft aus Verärgerung. Tim Berners-Lee war verärgert. Aus diesem Ärger heraus hat er sein Programm im damaligen Rechnernetz frei zugänglich gemacht. Er und sein Programm wurden umgehend bestätigt von einer überraschend schnell wachsenden Benutzerschar. Das Web ist so zufällig zustande gekommen. Und ist ein Zufallserfolg. Das Internet brauchte lediglich fünf Jahre, um 50 Millionen Nutzer zu erreichen – das Radio brauchte dafür 38 Jahre. Dieser Siegeszug war und ist so dynamisch, dass die Forschung hoffnungslos hinterherhinkt. Die Kluft zwischen Handeln und Verstehen wird immer größer. Wir wissen immer ungenauer, wie das Internet wissenschaftlich fundiert geplant werden soll.

Der traditionelle Zyklus Forschung-Entwicklung-Erprobung- Planung-Implementierung kann nicht mehr aufrechterhalten werden. Es entstanden offene Fragen, die nur mit konzertierter Anstrengung der Grundlagenforschung zu beantworten sind. Diese Fragen sind an sich interdisziplinärer Natur – oder besser mit Mittelstraß, transdisziplinärer Natur. Beispiele: stochastische Ausfallsicherheit, Eigenschaft des Internetverkehrs, Organisation und Selbstorganisation der Daten und ihre Modellierung.
Inmitten der Euphorie über den Zufallserfolg des Internet gerät die Gemeinde der Internetforscher in eine Falle. Neue Internet-Nutzungen kommen hinzu, die mit der ursprünglichen Konzeption des Internet eigentlich nicht zu vereinbaren sind. Die Internet-Protokolle werden erweitert, repariert. Gewaltige Finanzsummen wurden investiert. Diese Arbeiten, die im letzten Jahrzehnt entstanden, haben immer mehr mit einem Reparaturbetrieb zu tun als mit erkenntnisgewinnender visionärer Forschung.

Als das ursprüngliche Internet konzipiert wurde, hat sich niemand träumen lassen, dass es irgendwann einmal alle Telekommunikationsanwendungen schlucken wird. Mit der vor vier Jahrzehnten entwickelten Grundarchitektur soll das Internet auch noch den Datenverkehr der Telefonie und des Fernsehens transportieren – und das mit gewohnter Qualität. Die ursprüngliche Konzeption des Internet wird hoffnungslos überfrachtet, überstrapaziert, die Erwartungshaltung immer höher.

Es wird seit Jahren versucht, den aufkommenden Problemen mit einer Überdimensionierung des Netzes beizukommen, anstatt eine fundierte Dimensionierung mit begleitender Grundlagenforschung zu versuchen. Wir haben in den letzten 15 Jahren die Hausaufgaben nicht gemacht bzw. das Hausaufgabenheft verlegt.
Jetzt scheint die notwendige Wende zu kommen. Immer mehr Forscher in der Kommunikationstechnologie haben in den letzten Jahren verstärkt das Gefühl, dass sich die Grenzen der Internetnutzung (und auch der Informationstechnologie) bemerkbar machen. Es geht so im Reparaturbetrieb nicht mehr weiter.

Anders formuliert – ich zitiere einen Forschungsantrag einer namhaften Gruppe von Kollegen aus Princeton, Winlab, MIT und Stanford – “wird die Entwicklung neuer Internet-Anwendungen in dieser Dekade einer Krise zusteuern, wenn nicht Grundlegendes passiert, wenn nicht eine neue Internet-Architektur entwickelt wird und enorme Anstrengungen in der Grundlagenforschung unternommen werden”. Der gleiche Grundtenor findet sich auch im 7. Rahmenprogramm der Europäischen Union. Zukünftige Anwendungen können einfach nicht auf Steuerungsinfrastrukturen des vor fast vier Jahrzehnten entstandenen Internet zuverlässig funktionieren.

In den USA wendet sich in diesen Tagen eine Gruppe von Wissenschaftlern der dortigen Spitzenuniversitäten mit einem visionären Konzept an die National Science Foundation. Ihr Projekt mit dem Namen Geni (Global Environment for Network Innovations) mit einer geplanten Gesamtfinanzierung von 350 Millionen US-Dollar hat zum Ziel, unabhängig von den momentanen Zwängen die Struktur und Hauptkomponenten für das Internet der Zukunft zu entwerfen. In Europa und speziell in Deutschland sind auch Vorstellungen konkretisiert, die mit Beteiligung der Würzburger Universität zustande gekommen sind.

Gemeinsam für diese Projekte gilt: Man schafft zunächst mit signifikanter finanzieller Ausstattung eine Entwicklungsumgebung, also eine Probierwiese. Darauf soll die internationale Internet-Forschergemeinde sowohl anwendungsorientierte Forschung als auch Grundlagenforschung betreiben, um so die neue Struktur des neuen Internet entstehen zu lassen. Das geht nur mit einem transnationalen Exzellenz-Cluster, nicht mit einem regionalen Cluster. Das nächste visionäre Internet kommt bestimmt, und die Zeichen stehen positiv, dass unsere Universität dabei eine wichtige Rolle spielen wird.




«
Schrijf je in voor onze nieuwsbrief
ScienceGuide is bij wet verplicht je toestemming te vragen voor het gebruik van cookies.
Lees hier over ons cookiebeleid en klik op OK om akkoord te gaan
OK