Parallele Datenübertragung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Parallele und serielle Datenübertragung im Vergleich

Parallele Datenübertragungen übertragen digitale Daten über mehrere Leitungen gleichzeitig. Die Übertragung erfolgt dabei auf mehreren physischen Leitungen nebeneinander oder über mehrere Kanäle zur gleichen Zeit im „Gleichschritt“.

Werden nur binäre Symbole mit zwei möglichen Zuständen eingesetzt, so entspricht ein Symbol einem Bit, welches pro Datenpfad übertragen werden kann. Bei n parallelen Datenpfaden können n Bits in einem Schritt parallel übertragen werden.

Die parallele Übertragung über mehrere serielle Datenkanäle unterscheidet sich grundlegend von einer echt parallelen Datenübertragung in der Weise, dass dort auf der unteren Hardwareebene alle Kanäle unabhängig voneinander übertragen und Laufzeitunterschiede irrelevant sind. Bei echt parallelen Übertragungen dagegen arbeiten alle Datenkanäle streng mit einem gemeinsamen Taktregime und sind dadurch sehr empfindlich auf Laufzeitunterschiede der Kanäle.

Allgemeines[Bearbeiten | Quelltext bearbeiten]

Parallele Schnittstellen arbeiten in den meisten Fällen mit 8 oder 16 Kanälen. Prinzipiell ist jede andere Zahl größer als 1 möglich. Zur Synchronisation sind zusätzliche Leitungen notwendig. Meist sind das Leitungen zur Datenflusskontrolle oder zur Synchronisation (Strobe, Taktsignale).

Eine Umsetzung zwischen der parallelen und der seriellen Datenübertragung kann mittels spezieller Baugruppen erfolgen, welche als SerDes bezeichnet werden.

Nachteil[Bearbeiten | Quelltext bearbeiten]

DDR3-Speichermodule, bei denen zwischen dem Printstecker und den Speicherchips die mäanderförmig geführten Leiterbahnen zur Laufzeitkorrektur der Bussignale erkennbar sind

Der wesentliche Nachteil der parallelen Datenübertragung – neben dem Umstand, viele parallele Datenübertragungspfade zu benötigen – ist der Umstand, dass die einzelnen Laufzeiten entlang der parallelen Leitungen nicht alle exakt gleich sind. Diese Ungleichheiten können z. B. durch kleine Abweichung in den Leitungslängen und anderen Toleranzen im physikalischen Aufbau der Übertragungsstrecke bedingt sein. Dadurch kommt es, insbesondere bei höheren Schrittgeschwindigkeiten, zu Empfangsfehlern bzw. einer Beschränkung der Schrittgeschwindigkeit und damit der Datenübertragungsrate. Aus diesem Grund werden bei höheren Übertragungsraten serielle Übertragungsverfahren eingesetzt, auch wenn durch die serielle Aneinanderreihung der einzelnen Symbole hohe Symbolraten und große Bandbreiten die Folge sind.

In diesem Fall wird durch mäanderförmige Leiterbahnführungen auf den Leiterplatten versucht, eine möglichst identische Laufzeit zwischen den einzelnen Signalen sicherzustellen. Die Mäanderform dient dazu, dass alle Leiterbahnen fast exakt die gleiche Länge zueinander aufweisen. Zusätzlich werden in den einzelnen Schaltkreisen, wie den DDR-SDRAM-Chips, Delay-Locked Loops (DLL) angewendet, welche Laufzeitunterschiede dynamisch ausgleichen und so eine parallele Datenübertragung bei hohen Taktraten sicherstellen.[1]

Beispiele für parallele Datenübertragungen, die durch serielle Schnittstellen abgelöst wurden, sind:

  • die ATA/ATAPI-Schnittstelle, abgelöst durch die SATA-Schnittstelle
  • PCI, abgelöst durch PCI-Express
  • die SCSI-Busvarianten, weiterentwickelt als Fibre Channel. Trotz drastischer Reduzierung der Übertragungsleitungen wurden die Bussysteme dabei um etwa den Faktor 2 schneller.

Literatur[Bearbeiten | Quelltext bearbeiten]

  • Dietmar Lochmann: Digitale Nachrichtentechnik. 2. Auflage. Verlag Technik Berlin, 1997, ISBN 3-341-01184-6.
  • Roland Hellmann: Rechnerarchitektur. Einführung in den Aufbau moderner Computer, 2. Auflage, de Gruyter Verlag, Berlin / Boston 2016, ISBN 978-3-11-044605-0.
  • Thomas Flik: Mikroprozessortechnik und Rechnerstrukturen. 7. Auflage. Springer Verlag, Berlin / Heidelberg 2005, ISBN 3-540-22270-7.
  • Ekbert Hering, Klaus Bressler, Jürgen Gutekunst: Elektronik für Ingenieure und Naturwissenschaftler. Springer Verlag, Berlin/ Heidelberg 2014, ISBN 978-3-642-05499-0.
  • Hans Liebig: Rechnerorganisation. Die Prinzipien, 3. Auflage, Springer Verlag, Berlin / Heidelberg 2003, ISBN 978-3-540-00027-3.

Einzelnachweise[Bearbeiten | Quelltext bearbeiten]

  1. DDR Interface Design Implementation. Lattice Semiconductor, 2004, archiviert vom Original am 18. März 2006; abgerufen am 4. März 2014.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/www.latticesemi.com

Weblinks[Bearbeiten | Quelltext bearbeiten]