1. Netzwerkentwicklung
Die in den 70er Jahren vorherrschende hierarchische Struktur, in der bestimmte Knotentypen im Netz anderen untergeordnet waren, resultierte aus den damals typischen Terminalnetzen, in denen ein Host viele “dumme” Datenstationen bedienen musste.
Durch den Mini-Computer-Boom wurden die Datenstationen aller Hierarchieebenen und Größenklassen gleichermaßen wichtig, um miteinander kommunizieren zu können (Peer-to-Peer).
In den 80er Jahren gab es eine enorme Anzahl von verschiedenen Netzen. Aus diesem Grund wurden multiprotokollfähige Steuergeräte entwickelt, die mit Datenstationen verschiedener Hersteller kommunizieren können.
Alle Hersteller haben auf die OSI-Normungsbemühungen der ISO (International Organisation for Standardisation) reagiert (The International Organization for Standardization ist ein internationales Normungsgremium, das sich aus Vertretern verschiedener nationaler Normungsorganisationen zusammensetzt); Zusammenschluss von über 50 nationalen Normungsgremien) und der Entwicklung des herstellerunabhängigen Marktstandards TCP/IP (Die Internet -Protokollsuite ist das konzeptionelle Modell und der Satz von Kommunikationsprotokollen, die im Internet und ähnlichen Rechnernetzen verwendet werden) mit Gateway-Produkten und erschließt damit deren Welten für die externe Kommunikation.
Die Client-Server-Architektur wird überall als da
s zukünftige Konzept der Datenverarbeitung gelobt, aber es gibt unterschiedliche Auffassungen über das tatsächliche Design und die Aufgabenverteilung in solchen verteilten Datenverarbeitungssystemen. Die Position des Mainframes ist noch nicht klar.
2. Herstellerspezifische und offene Netze
Ein proprietäres Computernetzwerk ist ein Computernetzwerk, dessen Kommunikationsarchitektur nicht dem ISO-OSI-Referenzmodell entspricht (Das ISO-OSI-Referenzmodell für die Zusammenschaltung offener Systeme (Open Systems Interconnection ist ein Versuch zur Standardisierung von Computernetzwerken, der 1977 von der Internationalen Organisation für Normung (International Organization for Standardization) zusammen mit der ITU-T gestartet wurde) beschreibt ein allgemeines abstraktes Modell für die Kommunikation zwischen Datenstationen, i.e. nur die wichtigsten Eigenschaften des externen Verhaltens sind funktional definiert – 7 Schichten). Der Informationsaustausch zwischen den angeschlossenen Datenstationen erfolgt nach herstellereigenen Standards, die nicht oder nur schwach mit den Protokollen anderer Hersteller oder den ISO-Normen kompatibel sind.
SNA /Systems Network Architecture) von IBM
TRANSDATA von Siemens (Siemens AG ist ein deutscher Mischkonzern mit Sitz in Berlin und München und das größte Fertigungs- und Elektronikunternehmen Europas mit Niederlassungen im Ausland)
DNA (Digitale Netzwerkarchitektur) von DEC
DCA (Distributed Communicatoins Architecture) von Unisys (Unisys Corporation ist ein amerikanisches globales Informationstechnologieunternehmen mit Sitz in Blue Bell, Pennsylvania, das ein Portfolio von IT-Services, Software und Technologie anbietet.
DSE (Distributed Systems Environment) von Bull
DSN (Distributed Systems Network) von Hewlett Packard (The Hewlett-Packard Company oder kurz Hewlett-Packard war ein amerikanisches multinationales IT-Unternehmen mit Sitz in Palo Alto, Kalifornien ).
2.1 SNA von IBM
Anhand dieses Beispiels wollen wir die Datenverarbeitung im Mainframe-Umfeld betrachten.
SNA wurde 1974 von IBM angekündigt, um eine Unified Communications Grundlage für IBM Computer zu schaffen. Seitdem hat diese Netzwerkarchitektur mehrere bedeutende Entwicklungsstufen durchlaufen. Dies machte es zu einer sehr leistungsfähigen, aber auch sehr komplexen Kommunikationsarchitektur im Vergleich zu anderen Netzwerkarchitekturen. IBM hat mit SNA einen De-facto-Standard gesetzt, für den viele kleinere Hersteller in der Kommunikationsbranche kompatible Produkte entwickelt haben. Auch die anderen großen Computerhersteller haben SNA-Übergänge in ihren Netzwerkarchitekturen implementiert. Wie OSI definiert SNA ein Funktionsschichtmodell und zugehörige Protokolle, spezifiziert aber auch zusätzliche Komponenten der physikalischen und logischen Struktur des Systems.
Funktionell besteht SNA, wie das ISO OSI-Referenzmodell, aus einer siebenschichtigen Architektur. Diese entsprechen jedoch nicht vollständig dem ISO OSI-Referenzmodell (Das Open Systems Interconnection-Modell ist ein konzeptionelles Modell, das die Kommunikationsfunktionen eines Telekommunikations- oder Computersystems ohne Rücksicht auf die zugrunde liegende interne Struktur und Technologie charakterisiert und standardisiert). Jede Schicht nutzt (wie bei OSI) Dienste der darunterliegenden Schicht, stellt Dienste für die nächsthöhere Schicht bereit und kommuniziert über Protokolle mit den entsprechenden Schichten in anderen SNA-Produkten.
Ein SNA-Netzwerk besteht aus einer Vielzahl von Hard- und Softwarekomponenten, den sogenannten Knoten. SNA definiert einen Knoten als einen Satz von Hardware - und zugehörigen Softwarekomponenten, der die Funktionen der sieben Schichten des SNA-Architekturmodells implementiert. Je nach Aufgabe werden vier verschiedene Knotentypen unterschieden:
Unterbereich Knoten (T5-Knoten oder Host-Knoten): Sie sind die hierarchisch höchsten Knoten. Sie sind in der Regel als Mainframes implementiert und bieten die notwendigen Funktionen zur Steuerung eines Netzwerks.
Communicatoin Controller Nodes (T4-Knoten): sind direkt mit dem T5-Knoten verbunden und enthalten Funktionen, die den Datenfluss innerhalb eines Teilbereichsnetzes steuern.
Peripherieknoten (T2.0 und T2.1): Dies sind alles Peripheriegeräte. Ein T2.1-Knoten unterscheidet sich von einem T2.0-Knoten durch seine Fähigkeit, mit einem anderen T2.1-Knoten zu kommunizieren, ohne einen T5-Knoten dazwischen anschließen zu müssen, d.h. er hat peerorientierte Funktionen. Zwei T2.1-Knoten, die in einem Teilbereichsnetz direkt miteinander verbunden sind, werden als LEN-Knoten (Low Entry Networking Nodes) bezeichnet.
3. Lokale Netzwerke
lokales Netzwerk: LAN = Local Area Network (Ein Local Area Network ist ein Computernetzwerk, das Computer in einem begrenzten Gebiet wie einem Wohnhaus, einer Schule, einem Labor, einem Universitätscampus oder einem Bürogebäude miteinander verbindet und dessen Netzwerkausrüstung und Verbindungen lokal verwaltet werden) ermöglicht die Kommunikation zwischen mehreren unabhängigen Datenstationen mit hoher Übertragungsgeschwindigkeit (mehrere Millionen Bit/sec) und geringer Fehlerrate in einem begrenzten Gebiet (in vielen Ländern aufgrund des Postmonopols auf einen Standort beschränkt; maximale Entfernung zwischen den Knotencomputern ca. 1,5 km). 10 km)
3.1 Zugriffsprozeduren
Man kann sich ein lokales Netzwerk als ein großes Förderband vorstellen, auf dem Datenpakete transportiert werden. Folgende Probleme müssen jedoch gelöst werden: Wer darf ein Datenpaket auf das Förderband legen und wann und wer entfernt es wieder? Die Pakete werden automatisch auf einem Förderband entnommen – sie fallen herunter. In einem lokalen Busnetz muss an jedem Ende ein “Dämpfer” installiert werden, der die Signale verschluckt. In einem Ringnetz (Ein Ringnetz ist eine Netzwerktopologie, bei der sich jeder Knoten mit genau zwei anderen Knoten verbindet und einen einzigen kontinuierlichen Pfad für Signale durch jeden Knoten bildet – einen Ring), muss der Sender sein Datenpaket löschen, sobald er es wieder erreicht. Das Lesen von Nachrichten im lokalen Netzwerk bedeutet nicht, dass die Nachricht heruntergenommen wird, sondern dass eine Kopie des Inhalts erstellt wird.
Grundsätzlich gibt es zwei Möglichkeiten:
Eine strenge Regelung, die genau festlegt, wann welche Station senden darf, oder
Jede Station ist berechtigt zu senden, bis ein Fehler aufgrund des Sendewettbewerbs der kommunizierenden Station auftritt, der dann korrigiert wird.
3.2 Strikte Zugriffskontrolle – Token-Methode
Wenn sichergestellt ist, dass nur eine Station gleichzeitig senden darf, kann es nie zu Überschneidungen kommen. Das Token-Konzept hat sich für die strenge Zugangsregelung durchgesetzt:
Ein einzigartiges Zeichen in Form eines speziellen Bitmusters, dem Token, zirkuliert in einem Netzwerk. Jede Station, die senden will, muss auf das Token warten. Wenn es sie erreicht, kann sie es aus dem Netzwerk entfernen und ihr eigenes Paket schicken. Spätestens nach einer bestimmten Zeitspanne muss die Übertragung beendet werden und das Token wird als Endezeichen in die Nachricht eingefügt. Damit wird gleichzeitig auch die Sendeberechtigung an den nächsten Teilnehmer weitergegeben. Natürlich gibt es auch Regeln, um zu verhindern, dass Daten, die wie das Token aussehen, als Token interpretiert werden. Es ist daher nie möglich, dass zwei Stationen gleichzeitig senden. Der einzige Fehler kann nur auftreten, wenn das Token verloren geht. In diesem Fall erstellt jede Station einen Ersatz-Token, der von allen Stationen bestätigt wird oder eine Station meldet, dass sie den Token hat.
Zusammenfassung 1: Token-Methode
3.3 Wettbewerbsverfahren – CSMA/CD
Das Konzept dieses Systems, das natürlich auch strengen Regeln folgt, wurde an der Universität von Haiti entwickelt (Die Universität von Haiti ist eine der renommiertesten Hochschulen Haitis). Die einzelnen Institute sind über viele Inseln verteilt und können nicht über Kabel verbunden werden. Diese Situation zwang das Unternehmen zur Entwicklung einer Übertragungsmethode: Die eine sendet, die andere hört zu. Da jedoch jede Station gleichzeitig Sender und Empfänger ist, ist es möglich, dass mehrere Stationen gleichzeitig senden und somit niemand etwas versteht.
Das Verfahren wurde daher mit folgender Regel verbessert: Bevor eine Station sendet, muss sie sicherstellen, dass keine andere Station sendet. Wenn der Kanal frei ist, können Sie die Übertragung starten, wenn jemand sendet, müssen Sie warten, bis der Kanal wieder frei wird. Dieses System funktioniert bereits viel besser. Ein Fehler kann jedoch auftreten, wenn zwei Stationen gleichzeitig senden wollen.
Daher gibt es einen dritten Entwicklungsschritt: Der Übertragungskanal muss nicht nur vor, sondern auch während der Übertragung überwacht werden. Dies bedeutet, dass jede Kollision erkannt werden kann und die Sender die Übertragung unterbrechen.
Das oben beschriebene Verfahren ist in Busnetzen und heißen CSMA/CD (Carrier Sense Multiple Access (Carrier Sense Multiple Access ist ein Medienzugriffskontrollprotokoll, bei dem ein Knoten vor der Übertragung auf einem gemeinsamen Übertragungsmedium, wie einem elektrischen Bus oder einem Band des elektromagnetischen Spektrums, die Kollisionserkennung überprüft) üblich:
Beliebig viele Kanäle: Mehrfachzugriff
Abhören vor dem Senden: Carrier-Sensing
und überprüfen Sie auch den Kanal während der Übertragung: Kollisionserkennung.
Zusammenfassung 2: CSMA/CD
Der Vergleich der Zugangsprotokolle erlaubt keine abschließende Beurteilung, welches Verfahren besser ist. Das hängt von den Bedingungen im lokalen Netzwerk ab. Im Hochlastbereich ist das Token-Netzwerk schneller als das CSMA/CD. Aber CSMA/CD hat eine geringere Anzahl von Stationen und weniger intensiven Nachrichtenverkehr, so dass Sie nicht auf den Token warten müssen, sondern sofort senden können.
3.4 Kopplung von lokalen Netzwerken
Für viele Unternehmen ist es günstiger, mehrere lokale Netzwerke zu installieren, da jede Abteilung eine andere Software benötigt. Außerdem wäre ein großes Netzwerk viel langsamer, da alle Daten an alle gesendet würden. Allerdings werden nur die notwendigen Informationen außerhalb des lokalen Netzwerks übertragen. Dies wird durch spezielle Koppeleinheiten (Repeater, Brücken, Router, Gateways,….) realisiert. Lokale Netze können natürlich auch über große Entfernungen an Mietleitungen angeschlossen werden. Wenn eine Station eine Nachricht an eine Station in einem anderen lokalen Netzwerk senden möchte, sendet sie diese an den Router, der die Weiterleitung übernimmt. Wenn das Zielnetzwerk vom Router nicht direkt erreicht werden kann, wird die Nachricht an den nächsten Router weitergeleitet. Ein Router (Ein Router ist ein Netzwerkgerät, das Datenpakete zwischen Computernetzwerken weiterleitet) muss daher die gesamte Topologie des Netzwerks kennen.
3.5 LAN-Standards: Ethernet, Token-Ring, FDDI
Noch vor einem Jahrzehnt gab es eine Vielzahl von LAN-Systemen. Das IEEE (Institute of Electrical and Electronics Engineers; große herstellerneutrale Interessenvertretung der Anwender) hat diese Vielzahl auf wenige Basissysteme mit dem Standard IEEE 802 reduziert.
IEEE 802.3: CSMA/CD – ein Bussystem mit CSMA/CD-Zugriffsverfahren
IEEE 802.5: Token-Ring – ein Ringsystem mit Token-Zugriffsverfahren
IEEE 802.4: Token-Bussystem
IEEE 802.6: Metropolitan Area Network (Ein Metropolitan Area Network ist ein Computernetzwerk, das Benutzer mit Computerressourcen in einem geografischen Gebiet oder einer Region verbindet, die größer sind als das eines großen lokalen Netzwerks, aber kleiner als das eines Weitverkehrsnetzes).
IEEE (The Institute of Electrical and Electronics Engineers ist ein Berufsverband mit Sitz in New York City und Betriebszentrum in Piscataway, New Jersey) 802.8: FDDI – ein Hochgeschwindigkeits-Glasfasernetz.
Die ISO hat die IEEE 802 Standards als ISO 8802 Standards übernommen.
Tokenbus:
In einem Token-Bus (Token-Bus ist ein Netzwerk, das das Token-Ring-Protokoll über einen “virtuellen Ring” auf einem Koaxialkabel implementiert) wird ein logischer Ring auf einem physikalischen Bus implementiert. Dies bedeutet, dass die Stationen physikalisch über einen Bus verbunden sind; die Token-Methode wird als Zugriffskontrolle verwendet.
Ethernet:
Ethernet ist der am weitesten verbreitete LAN-Standard. Ein Ethernet ist relativ kostengünstig und bietet eine hohe Betriebssicherheit. Es verwendet einen passiven Basisbandbus, der eine Übertragungsgeschwindigkeit von 10 Mbit/s ermöglicht. Das Zugriffsprotokoll ist CSMA/CD (Carrier-sense Multiple Access mit Kollisionserkennung ist ein Verfahren zur Medienzugriffskontrolle, das vor allem in der frühen Ethernet-Technologie für die lokale Vernetzung eingesetzt wird). Die maximale Netzwerklänge beträgt 2500 m, es können bis zu 1024 Teilnehmer angeschlossen werden.
Token-Ring:
Der Token-Ring ist ein von IBM favorisierter LAN-Standard (International Business Machines Corporation ist ein amerikanisches multinationales Technologieunternehmen mit Hauptsitz in Armonk, New York , USA , und Niederlassungen in über 170 Ländern), der in der Norm ISO 8802-5 definiert ist. Die Netzwerktopologie (Netzwerktopologie ist die Anordnung der verschiedenen Elemente eines Rechnernetzes) ist ein Ring, der Zugriff wird über die Token-Methode gesteuert. Für das Medium gibt es zwei Varianten: Verdrillte Kupferkabel erlauben Übertragungsraten von 1 bis 4 Mbit/s; Übertragungsraten von 4 bis 40 Mbit/s (In der Telekommunikation ist die Datenübertragungsrate die durchschnittliche Anzahl der Bits, Zeichen oder Symbole, oder Datenblöcke pro Zeiteinheit, die eine Kommunikationsverbindung in einem Datenübertragungssystem passieren) sind für das Basisband möglich (Basisband ist ein Signal, das einen sehr engen und nahezu Null-Frequenzbereich hat, i.e) Übertragungen über Koaxialkabel (Ethernet over Coax ist eine Familie von Technologien, die die Übertragung von Ethernet-Frames über Koaxialkabel unterstützt).
FDDI:
Der FDDI-Standard (FDDI: Fiber Distributed Data Interface) spezifiziert einen Faserring mit einer maximalen Länge von 100 km für Hochgeschwindigkeitsnetze. Mit einer Übertragungsgeschwindigkeit von 100 Mbit/s wird es hauptsächlich als “Backbone” für unternehmensweite Netzwerke eingesetzt. FDDI unterstützt sowohl synchrone als auch asynchrone Datenübertragung und bietet Schnittstellen zu Ethernet (Ethernet ist eine Familie von Computer-Netzwerktechnologien, die in lokalen Netzwerken, Metropolitan Area Networks und Wide Area Networks) und Token Ring (Token Ring Local Area Network Technology ist ein Kommunikationsprotokoll für lokale Netzwerke). An einen FDDI-Ring können bis zu 500 Stationen angeschlossen werden, wobei die maximale Entfernung von zwei Datenstationen jeweils 2 km beträgt. FDDI ist definiert als ein Doppelring mit einer Gesamtlänge von 200 km, wobei die beiden Ringe in entgegengesetzte Richtungen übertragen werden. Im Normalbetrieb dient der Sekundärring als Stützring (ein Stützring ist ein starrer Ring, der eine elastomere Dichtung oder Kunststoffverbindung an der richtigen Stelle hält), der bei Bedarf und im Notfall automatisch zugeschaltet wird. Die Doppelringstruktur ermöglicht ein hohes Maß an Fehlertoleranz (Fehlertoleranz ist die Eigenschaft, die es einem System ermöglicht, im Falle eines Ausfalls einiger seiner Komponenten weiterhin ordnungsgemäß zu arbeiten) und Zuverlässigkeit. Bei Störungen wird das Netzwerk automatisch neu konfiguriert. Hinsichtlich der Netzwerkanbindung werden zwei Arten von Datenstationen unterschieden: Typ-A-Stationen sind direkt mit dem Primär- und dem Sekundärring verbunden und erhalten so die Komponenten der physikalischen Schicht doppelt. Typ B-Stationen werden nicht direkt, sondern einfach über Konzentratoren an den FDDI-Ring angeschlossen (Fiber Distributed Data Interface ist ein Standard für die Datenübertragung in einem lokalen Netzwerk). Zusätzliche Konzentratoren können auch an Konzentratoren angeschlossen werden.
4. PC – Gastgebergruppe
In vielen Unternehmen wollen die Mitarbeiter heute den Komfort eines PCs nutzen, müssen aber trotzdem auf die Daten auf dem Mainframe zugreifen. Jetzt prallen zwei verschiedene Welten aufeinander. Die physikalische Anbindung eines Mikrocomputers an das Rechnernetz (Ein Rechnernetz oder Datennetz ist ein Telekommunikationsnetz, das es Knoten ermöglicht, Ressourcen gemeinsam zu nutzen) wird in der Regel über eine Adapterkarte realisiert. Die Ausführung des Programms ist programmgesteuert. Die notwendige Software für den Mikrocomputer wird mit der Adapterkarte mitgeliefert.
Im einfachsten Fall arbeitet der Mikrocomputer als Stapelstation. In diesem Fall werden die Daten vom Mainframe auf den Mikrocomputer übertragen und umgekehrt. Soll der Mikrocomputer auch die Hardware (Prozessor, Drucker , Disketten,….), Programme und Datenbestände des Zentralrechners im Dialogbetrieb nutzen können, ist eine Terminalemulation (Terminalemulator, Terminalanwendung, Begriff, kurz tty, ist ein Programm, das ein Videoterminal innerhalb einer anderen Displayarchitektur emuliert) erforderlich. Die Software simuliert das Kommunikationsverhalten eines “dummen” Terminals. Probleme treten häufig auf, wenn der Großrechner eine andere Tastatur als der Mikrocomputer verwendet (Ein Mikrocomputer ist ein kleiner, relativ preiswerter Computer mit einem Mikroprozessor als Zentraleinheit).
5. Client-Server-Systeme
Eine Client-Server-Anwendung kann als “Shared Application” betrachtet werden, die teilweise vom Client und teilweise vom Server bearbeitet wird. Für die funktionale Trennung der Programmlogik zwischen Client und Server innerhalb einer Anwendung gibt es in der Regel mehrere Möglichkeiten. Die Grundidee der Client-Server-Architektur besteht darin, die Ressourcen der beteiligten Systeme optimal zu nutzen. Dieses Modell integriert die Vorteile von Arbeitsplatzrechnern mit Mehrbenutzer-Rechnern.
In der Regel ist die Benutzeroberfläche (Die Benutzeroberfläche, im Bereich Industrial Design der Mensch -Maschine-Interaktion, der Raum, in dem Interaktionen zwischen Mensch und Maschine stattfinden), die Eingabeprüfung, die Verarbeitung und die Kommunikationskomponente (Kommunikation mit dem Server) im Clientteil der Anwendung realisiert. Ein Server besteht aus einer Kommunikationskomponente und einer Komponente zur Datenspeicherung und Datenmanipulation.
Client-Server-Computing bedeutet also eine bestimmte Aufteilung der Rollen einer Anwendung in die Bereiche Service Requesting (Client) und Service Providing (Server). Das Serversystem bietet eine oder mehrere Funktionen (Drucken, Datenbanken,….), die vom Client aufgerufen werden können.
Entwicklungen, die das Client-Server-Modell unterstützen (Das Client-Server-Modell ist eine verteilte Anwendungsstruktur, die Aufgaben oder Workloads zwischen den Anbietern einer Ressource oder eines Dienstes, den sogenannten Servern, und den Serviceanforderern, den sogenannten Clients, aufteilt).
Leistungssteigerung von Arbeitsplatzrechnern
Verfügbarkeit von immer leistungsfähigeren und kostengünstigeren Netzwerkverbindungen
Steigende Anzahl von Kommunikationsstandards und Standard-Systemplattformen
veränderte Unternehmensstrukturen
Verstärkter Wunsch nach Integration bestehender Stand-Alone-PC-Lösungen