Galileo Computing < openbook >
Galileo Computing - Professionelle Buecher. Auch fuer Einsteiger.
Galileo Computing - Professionelle Buecher. Auch fuer Einsteiger.


Kompendium der Informationstechnik
 von Sascha Kersken
EDV-Grundlagen, Programmierung, Mediengestaltung
Buch: Kompendium der Informationstechnik
gp Kapitel 12 Grundlagen der Netzwerktechnik
  gp 12.1 Was ist ein Netzwerk?
    gp 12.1.1 Paketvermittelte Datenübertragung
    gp 12.1.2 Entstehung von Netzwerken
    gp 12.1.3 Die weitere Entwicklung
  gp 12.2 Funktionsebenen von Netzwerken
    gp 12.2.1 Das OSI-Referenzmodell
    gp 12.2.2 Das Schichtenmodell der Internetprotokolle
    gp 12.2.3 Netzwerkkommunikation über die Schichten eines Schichtenmodells
  gp 12.3 Klassifizierung von Netzwerken
    gp 12.3.1 Die Reichweite des Netzwerkes
    gp 12.3.2 Die Netzwerktopologie
    gp 12.3.3 Der Zentralisierungsgrad des Netzwerkes
  gp 12.4 Zusammenfassung

gp

Prüfungsfragen zu diesem Kapitel (extern)

Kapitel 12 Grundlagen der Netzwerktechnik

Geh lieber nach Hause und mache ein Netz, als dass du im Teich nach Fischen tauchst.
– Chinesisches Sprichwort

In diesem Kapitel werden die Grundbegriffe und der allgemeine Aufbau von Computernetzwerken vermittelt. Sie bilden die Basis für das Verständnis der weiterführenden Netzwerkkapitel. Es wird erläutert, was Netzwerke eigentlich sind, danach werden verschiedene Arten von Netzwerken untersucht und miteinander verglichen.


Galileo Computing

12.1 Was ist ein Netzwerk?  downtop

Ein Netzwerk ist eine Verbindung mehrerer Computer zum Zweck des Datenaustauschs, für verteilte Anwendungen oder auch für die Kommunikation zwischen ihren Benutzern.

Dabei haben sich im Laufe der Computergeschichte viele verschiedene Möglichkeiten der Verkabelung, der Kommunikationsstrukturen und zahlreiche Anwendungsgebiete entwickelt:

gp  Die Verkabelung beziehungsweise allgemein die Hardwaregrundlage reicht von der Verwendung gewöhnlicher Telefonleitungen mit besonderen Verbindungsgeräten, den Modems, über speziell für die Anwendung in lokalen Netzwerken entwickelte Netzwerkkarten und -kabel bis hin zu Hochgeschwindigkeitsnetzen, etwa über Glasfaserkabel.
gp  Kommunikationsstrukturen, definiert durch so genannte Netzwerkprotokolle, gibt es unzählige. Viele sind von einem bestimmten Hersteller, einer Plattform oder einem Betriebssystem abhängig, andere – wie die Internet-Protokollfamilie TCP/IP – sind offen, unabhängig und weit verbreitet.
gp  Was die Anwendungsgebiete angeht, so reichen diese vom einfachen Dateiaustausch in Arbeitsgruppen über die gemeinsame Nutzung teurer Hard- und Software bis hin zu hochkomplexen, spezialisierten und verteilten Anwendungen.

Galileo Computing

12.1.1 Paketvermittelte Datenübertragung  downtop

Ein wesentliches Merkmal der meisten Netzwerkformen ist die Übertragung von Daten mit Hilfe so genannter Datenpakete. Um die Paketvermittlung (packet switching) zu verstehen, sollten Sie sich zunächst vor Augen führen, wie ihr Gegenteil, die Schaltkreisvermittlung (circuit switching), funktioniert, die bei herkömmlichen Telefonleitungen verwendet wird.

Funktionsweise der Schaltkreisvermittlung

Bei einer Telefonverbindung geschieht Folgendes: Durch das Wählen einer bestimmten Rufnummer (oder früher durch die Handvermittlung) werden bestimmte Schalter geschlossen, die für die gesamte Dauer des Telefongesprächs eine feste Punkt-zu-Punkt-Verbindung zwischen den beiden Stellen herstellen. Über diese dauerhafte Leitung können Sprache oder Daten in Echtzeit und in der korrekten Reihenfolge ohne Unterbrechung übertragen werden. Nachdem die Übertragung beendet ist, wird die Verbindung wieder abgebaut, und die betroffenen Leitungen stehen für andere Verbindungen zur Verfügung.

Funktionsweise der Paketvermittlung

Ganz anders sieht es bei der Paketvermittlung aus: Zu keinem Zeitpunkt der Datenübertragung wird eine direkte Verbindung zwischen den beiden beteiligten Stellen hergestellt. Stattdessen sind beide nur indirekt über ein loses Netz von Vermittlungsstellen, Router genannt, miteinander verbunden. Damit auf diesem Weg Daten übertragen werden können, wird folgender Mechanismus verwendet:

gp  Die Daten werden in kleinere Einheiten unterteilt, die Datenpakete.
gp  Jedes einzelne Datenpaket wird mit der Absender- und der Empfängeradresse versehen.
gp  Der Absender übergibt jedes Datenpaket an den nächstgelegenen Router.
gp  Jeder beteiligte Router versucht, das Paket anhand der Empfängerangabe an den günstigsten Router weiterzuleiten, damit es letztendlich an seinem Ziel ankommt.
gp  Der Empfänger nimmt die Datenpakete entgegen und interpretiert sie je nach Daten- und Übertragungsart auf irgendeine zwischen den beiden Stellen vereinbarte Art und Weise.

Zur reinen Paketvermittlung gehört zunächst einmal kein Mechanismus, der die vollständige Auslieferung aller Datenpakete garantiert. Es wird standardmäßig weder der Erfolg noch das Ausbleiben einer Paketlieferung gemeldet. Im Übrigen wird auch keine verbindliche Reihenfolge festgelegt: Da jedes einzelne Paket einen beliebigen Weg durch das Netzwerk nehmen kann, kommt es relativ oft vor, dass ein später abgesendetes Paket noch vor einem früher versandten beim Empfänger ankommt.

Um die potenziell unsichere Datenübertragung per Paketvermittlung für bestimmte Anwendungen zuverlässiger zu machen, wird zusätzlich eine Erfolgskontrolle implementiert. Außerdem werden die Pakete oft durchnummeriert, um die korrekte Reihenfolge wiederherzustellen. Allerdings haben solche Maßnahmen nichts mit der eigentlichen Paketvermittlung zu tun und müssen in diesem Zusammenhang nicht beachtet werden. In der Regel sind die Softwarekomponenten, die sich um die Übertragung der Datenpakete kümmern, gar nicht in der Lage, diese zusätzlichen Kontrollinformationen selbst auszuwerten.

Eine genauere Erläuterung und verschiedene Beispiele konkreter Netzwerkimplementierungen finden Sie im nächsten Kapitel.


Galileo Computing

12.1.2 Entstehung von Netzwerken  downtop

Wenn man sich die Geschichte der Computer anschaut, die in Kapitel 1 skizziert wurde, fällt auf, dass die Verwendung von Netzwerken anfangs keinen Sinn ergeben hätte: Bei den frühen Großrechnern gab es keine standardisierte Software, die miteinander hätte kommunizieren können. Darüber hinaus fand ihre Bedienung zunächst über Schalttafeln und später über Lochkarten statt. Es gab also keine Echtzeit-Interaktion zwischen Benutzer und Programm, sodass es erst recht abwegig war, verschiedene Computer miteinander interagieren zu lassen. Frühestens, als der Dialogbetrieb über Terminals eingeführt wurde, war an eine Vernetzung zu denken. Die Entwicklung der Ein- und Ausgabe beziehungsweise der Steuerung von Computern wird übrigens in den Kapiteln 3, Die Hardware, und 4, Betriebssysteme, besprochen.

Der Grundstein des Internets

Der Anstoß für die Entwicklung eines Computernetzwerkes kam aus einer eher unerwarteten Richtung: Die atomare Bedrohung des Kalten Krieges schürte die Angst der Verantwortlichen in Politik und Militär in den USA, im Fall eines Atomkrieges handlungsunfähig zu werden, weil die Übermittlung von Informationen nicht mehr funktionieren könnte. Es war schlichtweg zu riskant, sich auf einen einzigen Zentralcomputer mit Terminals zu verlassen. Deshalb begann 1969 der Betrieb eines experimentellen Netzes aus vier Computern an verschiedenen US-amerikanischen Universitäten. Federführend für das Projekt war die Advanced Research Projects Agency (ARPA), eine Forschungskommission des amerikanischen Verteidigungsministeriums, die 1957 angesichts des ersten sowjetischen Satelliten Sputnik gegründet worden war. Die USA wollten den Anschluss auf verschiedenen wichtigen Gebieten der Wissenschaft nicht verpassen – und neben der Raumfahrt gehörte auch die Computertechnik zu diesen Gebieten. Folgerichtig hieß dieses erste Netzwerk ARPANet.

ARPANet-Anwendung und -Technik

Allgemein sind bei der Betrachtung von Netzwerken immer mindestens zwei Ebenen zu unterscheiden: zum einen der Anwendungszweck des Netzwerkes, zum anderen dessen technische Realisierung. Allerdings sind bei näherem Hinsehen noch weitere solcher Ebenen auszumachen, standardisiert im so genannten OSI-Schichtenmodell sind es sieben – dies wird weiter unten besprochen. Interessanterweise stellt sich im Entwicklungsverlauf von Netzwerken manchmal heraus, dass der Anwendungszweck technisch anders realisierbar ist, aber auch oft, dass eine bestimmte technische Realisation völlig anderen Anwendungen als der ursprünglich geplanten dienlich sein kann. Besonders in der Geschichte des Internets, dessen Vorläufer das ARPANet war, ist dies oft festzustellen.

Die ursprüngliche Anwendung dieses Netzes bestand lediglich darin, Datenbestände auf den unterschiedlichen angeschlossenen Computern automatisch zu synchronisieren, d. h. einfach aus Sicherheitsgründen den gleichen Informationsbestand auf mehreren Rechnern bereitzuhalten.

Grundgedanke der Vernetzung selbst war dabei besonders die Fähigkeit jedes beteiligten Computers, Daten, die nicht für ihn selbst bestimmt waren, sinnvoll weiterzuleiten. Hieraus ergeben sich zwei unschätzbare organisatorische und technische Vorteile:

gp  Ein Computer muss nicht direkt mit demjenigen verbunden sein, mit dem er Daten austauschen soll.
gp  Der Ausfall oder die Überlastung eines bestimmten Verbindungsweges kann durch Alternativen kompensiert werden.

Auf diese Weise konnte das ursprüngliche Ziel, nämlich die Angriffs- und Ausfallsicherheit des Netzes zu gewährleisten, erreicht werden.

Schon unmittelbar nach der Einrichtung des ARPANet begann die oben erwähnte Weiterentwicklung. Man stellte schnell fest, dass die technische Infrastruktur dieses Netzes für weit mehr Anwendungen zu nutzen war als das vergleichsweise langweilige automatische Synchronisieren von Datenbeständen. So kam sehr schnell eine benutzerorientierte Möglichkeit des Dateiaustauschs hinzu, außerdem war es schon für gewöhnliche Konfigurationsaufgaben unerlässlich, einem entfernten Computer unmittelbar Anweisungen erteilen zu können – dies war der Ausgangspunkt für die Entwicklung der Terminalemulation, d. h. der Benutzung des eigenen Terminals für einen Computer, an den es nicht unmittelbar, sondern nur indirekt über das Netzwerk angeschlossen ist. Auch wenn diese Anwendungen noch nicht sofort ihre späteren Namen – FTP und TELNET – erhielten und die technischen Details ihrer Implementierung sich sicherlich noch weiterentwickelt haben, sind sie dennoch nach wie vor wichtige Nutzungsschwerpunkte des Internets.

Alles in allem wurde dieses Netzwerk schnell populär. Zwei Jahre nach seiner Einrichtung im Jahr 1971 waren bereits 40 Computer an verschiedenen Universitäten und anderen staatlichen Forschungseinrichtungen angeschlossen, und es war bei weitem nicht nur die militärische Nutzung von Interesse. Auch akademisch hatte das Netz viel zu bieten – Wissenschaftler sind darauf angewiesen, Daten auszutauschen. Hier ergab sich eine Möglichkeit, dies sehr schnell und effektiv zu tun.

Erfindung der E-Mail

1972 wurde dann der bis dahin bedeutendste Dienst dieses Netzes erfunden: Ray Tomlinson, ein Mitarbeiter eines Ingenieurbüros in Kalifornien, verschickte die erste E-Mail. Bis heute zählt die E-Mail zu den erfolgreichsten und verbreitetsten Anwendungen des Netzes; sie kann sich nach dem viel jüngeren World Wide Web noch immer auf einem guten zweiten Platz halten, und es ist auch nicht zu sehen, warum sich dies in absehbarer Zeit ändern sollte.

Die Entwicklung der lokalen Netzwerke

Einen vollkommen anderen Anstoß zur Entwicklung von Netzwerken gab das Aufkommen des so genannten Outsourcings in der Computertechnik, also der Verlagerung der Rechenleistung von einem Zentralcomputer auf den einzelnen Schreibtisch.

XEROX PARC

Große Verdienste haben in diesem Zusammenhang die Forscherinnen und Forscher des XEROX PARC (der Name PARC steht für Palo Alto Research Center). Diese Forschungseinrichtung in Kalifornien hat eine interessante Geschichte: Zu Beginn der 70er-Jahre bekamen die Manager der renommierten Papier-, Druckmaschinen- und Kopiererfirma XEROX langsam Angst, denn sie sahen angesichts der schnellen Weiterentwicklung der Computer das Schreckgespenst des »papierlosen Büros« auf sich zukommen. Natürlich weiß man es heute besser; der Papierverbrauch in den Büros hat sich seitdem vervielfacht, weil es einfach und billig ist, Dokumente mal eben auszudrucken und dann auf Papier zu kontrollieren.

Aber damals konnte das natürlich niemand ahnen. Und so beschloss die Firma XEROX: Wenn die Leute im Büro kein Papier mehr brauchen, dann müssen wir ihnen eben das liefern, was sie statt dessen dort benötigen. Dies war der Grundgedanke für die Einrichtung dieses Forscherparadieses. Einige der brillantesten Köpfe der Computertechnik und Informatik wurden eingeladen, jeweils fünf Jahre lang, mit fast unbegrenzten finanziellen Mitteln ausgestattet, zu erforschen, was immer sie wollten. So kam es, dass hier schon Mitte der 70er-Jahre Neuerungen entwickelt waren wie eine grafische Benutzeroberfläche, WYSIWYG (»What You See Is What You Get«-Dokumentenbearbeitung) oder ein Laserdrucker.

Im Prinzip hatten sie dort ein marktreifes Personal-Computer-System stehen, dessen technische Fähigkeiten erst über 15 Jahre später zum allgemeinen Standard wurden. Der einzige Nachteil dieses Systems, des ALTO, war nämlich sein außerordentlich hoher Preis von ca. 100.000 US-Dollar. Jedenfalls ist XEROX PARC so auch die Wiege des lokalen Netzwerkes geworden: Die Vision war, dass jeder Mitarbeiter eines Unternehmens ein solches Gerät auf seinem Schreibtisch stehen hat und der Austausch von Daten ganz einfach ist. So entstand Ethernet, diejenige Form des lokalen Netzes, die heute am häufigsten genutzt wird.

Sollten Sie sich jetzt wundern, warum keine dieser bahnbrechenden Entwicklungen heute den Namen XEROX trägt, so liegt dies daran, dass die Führungsetage des Unternehmens im fernen New York deren Brillanz und zukunftsweisende Eigenschaften nicht erkannte. So wurden die Entwicklungsergebnisse der meisten Forscher von diesen mitgenommen, jahrelang in die Schublade gelegt und später oftmals zur Gründung anderer Firmen verwendet.

John Warnock etwa, eine Zeit lang Forschungsleiter von PARC, gründete die Firma Adobe und konzentrierte sich besonders auf die Bereiche WYSIWYG und den Laserdrucker. Andere Ergebnisse wurden freimütig an Fremde weitergegeben, so etwa die Geheimnisse der grafischen Oberfläche an den Apple-Mitbegründer Steve Jobs, der darin die Grundlage für den Computer der Zukunft erkannte.


Galileo Computing

12.1.3 Die weitere Entwicklung  toptop

Natürlich war es noch ein sehr weiter Weg, bis der Urahn des Internets zu dem wurde, was er heute ist, bis das lokale Netzwerk allgemein Einzug in die Büros hielt und vor allem, bis beide in Kontrollstruktur und Anwendung aneinander angepasst werden konnten. Dieser Weg soll noch ein wenig verfolgt werden.

Weiterentwicklung des Internets

Das ursprüngliche ARPANet wuchs immer weiter. Zudem wurden nach dem gleichen Prinzip andere, ähnliche Netze konstruiert. Dies ist nicht zuletzt der Tatsache zu verdanken, dass alle Schritte, die zur Entwicklung des Netzes beigetragen haben, von Anfang an sorgfältig dokumentiert und der Öffentlichkeit zugänglich gemacht wurden. Dieser Dokumentationsstil ist bis heute beibehalten worden; die entsprechenden Dokumente heißen RFC (»Request For Comments«, etwa »Bitte um Kommentare«).

RFC-Dokumente

Es gibt bis heute gut 3.000 solcher RFC-Dokumente, die alle online zur Verfügung stehen, zum Beispiel unter http://www.faqs.org/rfcs. Die meisten sind technische Beschreibungen von Entwürfen, Protokollen und Verfahrensweisen; nur wenige (in der Regel mit dem Datum 1. April) nehmen sich nicht ganz so ernst – zum Beispiel RFC 2324, in dem das Protokoll HTCPTP zur Kommunikation zwischen vernetzten Kaffeemaschinen vorgeschlagen wird, oder RFC 1300, ein nettes Gedicht über Begriffe, die im Zuge der Computerentwicklung ihre ursprüngliche Bedeutung verändert haben. Alle Personen, Institutionen und Unternehmen, die etwas Entscheidendes zum ARPANet und späteren Internet beigetragen haben, haben dies in solchen Dokumenten erläutert. Dies ermöglicht es jedem beliebigen Hersteller, zum Beispiel von Hard- oder Software, mit seinen Produkten diese Standards zu unterstützen, denn sie gehören keinem einzelnen Hersteller und keiner bestimmten Person, und niemand kann den Zugriff darauf beschränken oder Lizenzgebühren fordern – ein entscheidender Grund dafür, warum die Protokolle des Internets heute vom Personal Computer bis zum Großrechner überall dominieren.

ARPANet + NSFNet
= Internet

In den 80er-Jahren schließlich wurde der militärisch genutzte Teil des ARPANet als MilNet von diesem abgetrennt, und das restliche ARPANet wurde mit dem NSFNet, dem Netz der National Science Foundation, zum Internet zusammengeschlossen. Die kommerzielle Nutzung, heute Hauptverwendungsgebiet des Internets, ließ danach aber noch fast 15 Jahre auf sich warten. Denn die Anwendungen des Internets waren zwar robust und wenig störanfällig, aber alles andere als benutzerfreundlich. Abgesehen davon waren die ersten Personal Computer, als sie in der zweiten Hälfte der 70er-Jahre auftauchten, weder konzeptionell noch von der Leistung her in der Lage, mit den Internetprotokollen etwas anzufangen.

Weiterentwicklung der lokalen Netze

Die Entwicklung des kleinen Computers für den einzelnen Schreibtisch begann im Grunde als Hobby einiger Freaks, die gerne programmieren wollten, sich aber kein Terminal und erst recht nicht die teure Rechenzeit an großen Computern leisten konnten. Einer dieser Freaks, Ed Roberts, ein fast bankrotter Fabrikant von Rechenmaschinen, entwickelte einen primitiven Homecomputer-Bausatz auf Basis des Mikroprozessors Intel 8080, den Altair 8800. Dieses Gerät war Anfang 1975 auf der Titelseite der Zeitschrift »Popular Electronics« abgebildet. Es hatte zunächst keinen praktischen Nutzen; die Programmierung erfolgte über eine Reihe von Kippschaltern, über die jedes Bit einzeln eingestellt werden musste, das Ergebnis einer Operation wurde durch eine Reihe von Leuchtdioden angezeigt. Die Maschine war aber interessant genug, um eine Menge wichtiger Leute dafür zu begeistern: Bill Gates und Paul Allen entwickelten für sie eine Version der einfachen Programmiersprache BASIC und gründeten in diesem Zusammenhang die Firma Microsoft. Andere trafen sich in Computerclubs wie dem berühmten Homebrew Computer Club. Dort begegneten sich beispielsweise Steve Jobs und Steve Wozniak, die bald beschlossen, »richtige« Computer zu bauen, mit Tastatur, Monitor- beziehungsweise Fernsehanschluss, Grafikfähigkeiten und einer auf BASIC basierenden Benutzerschnittstelle. Ihr erstes massentaugliches Gerät dieser Art, der APPLE II von 1977, wurde ein überwältigender Erfolg.

Der IBM-PC

Diese Ereignisse rüttelten den Großrechner-Dinosaurier IBM wach. Er konnte es natürlich nicht dulden, dass an ihm vorbei jede Menge Geld mit Computern verdient wurde, noch dazu von ein paar kaum erwachsenen Hippies. So kam es, dass IBM massiv die Entwicklung eines eigenen PCs vorantrieb, der 1981 auf den Markt kam und langsam zum neuen Marktführer avancierte. Denn da die Wirtschaft geneigt war, dem seriösen, konservativen Unternehmen IBM zu vertrauen, werteten sie diese Entwicklung als Signal, nun auch PCs kaufen zu können. Das heißt aber nicht, dass IBMs erster PC technisch viel besser gewesen wäre als die Vorläufermodelle von Apple und anderen.

IBMs Einstieg in die Welt der Mikrocomputer war übrigens der Beginn des bis heute andauernden Kerngeschäfts von Microsoft, nämlich die Entwicklung von Software, die in Kombination mit neuer Hardware angeboten wird: Sie lieferten das Betriebssystem MS-DOS, das mit dem IBM-PC verkauft wurde.

Das »Turnschuhnetzwerk«

Die fortschreitende Ausstattung von Büros mit Personal Computern führte mangels anderer Optionen zur Blüte des »Turnschuhnetzwerkes«: Anwender liefen mit Datenträgern bewaffnet durch das ganze Gebäude, um Daten miteinander auszutauschen oder zum Beispiel einen speziellen Drucker zu verwenden. Auch zwischen verschiedenen Unternehmen erfreute sich der so genannte Datenträgeraustausch großer Beliebtheit: Die Datensätze von Geschäftsvorfällen wurden auf Disketten oder Magnetbändern zwischen den einzelnen Unternehmen hin- und hergereicht.

Entwicklung der Datenfernübertragung

Recht früh wurde die Datenfernübertragung, also der Datenaustausch über Telefonleitungen, für Home und Personal Computer eingeführt. Seit Ende der 70er-Jahre wurden so genannte Akustikkoppler verwendet, Geräte, die an den Computer angeschlossen wurden und auf die einfach der Telefonhörer gelegt werden musste. Diese langsamen und störanfälligen Apparate wurden bald durch Modems ersetzt, die eine direkte Verbindung zwischen Computer und Telefonleitung zuließen und im Laufe der Jahre allmählich schneller und zuverlässiger wurden. Hauptanwendungsgebiete waren auf der einen Seite die so genannten Mailboxen, also das Anbieten von Informationen und Daten an Computer, die sich unmittelbar einwählten. Auf der anderen Seite entstanden in den 80er-Jahren die meisten kommerziellen Online-Dienste wie CompuServe, AOL oder in Deutschland BTX (Vorläufer von T-Online), das zunächst über spezielle Terminals statt über PCs mit einer bestimmten Software genutzt wurde.

Zusammenwachsen der verschiedenen Netzarten

Erst in der zweiten Hälfte der 80er-Jahre rückte die Idee des lokalen Firmennetzwerkes stärker ins allgemeine Interesse. Es war ein Bedürfnis der Anwender von PCs, miteinander Daten auszutauschen, einfach deshalb, weil die meisten Vorgänge der Datenverarbeitung von mehreren Mitarbeitern erledigt werden. Das oben erwähnte »Turnschuhnetzwerk« wurde allmählich immer lästiger, besonders mit steigenden Datenmengen, die nicht mehr auf eine einzelne Diskette passten. Es entstanden viele verschiedene Arten der Netzwerkhardware; neben dem bereits genannten Ethernet mit seinen vielfältigen Varianten gab es beispielsweise auch Token Ring von IBM, ARCnet oder auch die Verwendung einfacher serieller Direktverbindungen zwischen Computern über die so genannten Nullmodemkabel. Was die Software angeht, so wurden die eigentlich nicht dafür geeigneten PC-Betriebssysteme um Netzwerkfähigkeiten erweitert. Hinzu kamen spezielle Betriebssysteme für Server, also solche Rechner, die anderen im Netzwerk verschiedene Ressourcen zur Verfügung stellen. Bekannt sind hier etwa Novell NetWare, IBM OS/2 oder später auch Windows NT Server.

Wenn Sie hier Linux oder andere UNIX-Varianten vermissen, dann liegt das daran, dass UNIX als PC-Betriebssystem und als Serversystem für PC-Netzwerke erst einige Jahre später populär wurde. Ein gewisses Grundverständnis für UNIX ist übrigens unerlässlich, um die Funktionsweise der Internetprotokolle nachvollziehen zu können; einige Grundlagen dieses Systems werden in Kapitel 4, Betriebssysteme, erläutert.

Das WWW

Die überwältigende Erfolgsgeschichte des Internets, dessen Protokolle und Anwendungen heute gegenüber allen anderen Arten von Netzwerken dominieren, nahm ihren Anfang 1989 in der Schweiz, am Europäischen Forschungsinstitut für Kernphysik, dem CERN in Genf. Dort machte sich der britische Informatiker Tim Berners-Lee Gedanken darüber, wie man Netzwerke, besonders das Internet, für den einfachen und effizienten Zugriff auf wissenschaftliche Dokumente nutzen könnte. Ergebnis dieser Arbeit war die Grundidee des World Wide Web, eines hypertextbasierten Informationssystems, das die Infrastruktur des Internets zur Datenübermittlung nutzen sollte.

Hypertext ist nichts anderes als Text mit integrierten Querverweisen, die automatisch funktionieren. Mit anderen Worten: Durch Betätigen des Querverweises, der in diesem Zusammenhang Hyperlink heißt, stellt der Text selbst – beziehungsweise das System, das diesen darstellt – die Verbindung mit dem verknüpften Dokument her.

Nun war Hypertext 1989 gewiss nichts Neues. Versuche damit reichen zurück bis in die 50er-Jahre, in Hilfesystemen war er in den 80er-Jahren bereits Alltag. Neu war nur seine Nutzung über ein Netzwerk, genauer gesagt über das Internet.

WWW-Bestandteile

So entstand ein äußerst effektives Informationssystem für Wissenschaftler, die auf diese Weise ihre Forschungsergebnisse miteinander austauschten. Der Prototyp dieses Systems, das World Wide Web heißen sollte, umfasste im Einzelnen die folgenden Bestandteile:

gp  ein spezielles neues Anwendungsprotokoll, das HyperText Transport Protocol (HTTP)
gp  einen Serverdienst, der in der Lage ist, Anfragen, die in der Sprache des HTTP formuliert sind, auszuliefern
gp  eine neu geschaffene Formatierungs- und Beschreibungssprache für solche Hypertext-Dokumente, die HyperText Markup Language (HTML)
gp  ein Anzeigeprogramm für entsprechend formatierte Dokumente, den so genannten Browser

1991 wurde das System der Öffentlichkeit vorgestellt. Es wurde praktisch von Anfang an nicht nur zu ernsthaften wissenschaftlichen Zwecken genutzt, sondern allgemein zur Veröffentlichung von Text, Bildern und anderem über die verschiedensten Themen. Zunächst war die Nutzung des Systems beschränkt auf wissenschaftliches Personal sowie interessierte Studenten. Sie störten sich nicht am mangelnden Komfort der ersten Browser oder den geringen Layoutfähigkeiten der ersten HTML-Versionen. Als jedoch immer mehr private Benutzer dazu kamen, was durch das allmähliche Entstehen kommerzieller Internetprovider und Browser für PC-Betriebssysteme wie Windows oder Mac  OS gefördert wurde, änderte sich dies. Der berühmt gewordene »Browserkrieg« zwischen Netscape und Microsoft schuf letztendlich Fakten, die niemand für möglich oder auch nur wünschenswert gehalten hätte, die jedoch bis heute das Wesen des World Wide Web bestimmen.

Zwei Merkmale sind hier besonders wichtig:

gp  Die Seitenbeschreibungssprache HTML wurde immer mehr für die Definition des Seitenlayouts genutzt, statt nur für die Struktur – für Sites, die ein möglichst großes Publikum erreichen sollen, das weniger technisch und mehr inhaltlich interessiert ist, ist das Layout wichtiger als die Struktur.
gp  Der Anteil kommerzieller Websites am gesamten Bestand wurde immer größer und überwiegt heute bei weitem; das Angebot im Web ist den Rundfunkmedien wie etwa dem Fernsehen ähnlicher geworden. Während Tim Berners-Lee sich ursprünglich ein Netz vorstellte, in dem alle Teilnehmer sowohl Anbieter als auch Konsumenten von Inhalten sein sollten, wird das Web heutzutage von vielen weitgehend passiv als Medium genutzt.
  

Einstieg in PHP 5

Einstieg in Java

C von A bis Z

Einstieg in C++

Einstieg in Linux

Einstieg in XML

Apache 2




Copyright © Galileo Press GmbH 2004
Für Ihren privaten Gebrauch dürfen Sie die Online-Version natürlich ausdrucken. Ansonsten unterliegt das <openbook> denselben Bestimmungen, wie die gebundene Ausgabe: Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte vorbehalten einschließlich der Vervielfältigung, Übersetzung, Mikroverfilmung sowie Einspeicherung und Verarbeitung in elektronischen Systemen.


[Galileo Computing]

Galileo Press GmbH, Gartenstraße 24, 53229 Bonn, Tel.: 0228.42150.0, Fax 0228.42150.77, info@galileo-press.de