Einführung Datenverarbeitungssysteme


von Prof. Jürgen Plate

8. Rechnerperipherie

Die Gesamtheit der Einrichtungen, über welche die CPU mit den peripheren Geräten kommuniziert, nennt man E/A-Werk. I.a. findet ein (bidirektionaler) Datentransport zwischen Speicher und Peripherie statt. Neben dem reinen Datentransport ist eine Anpassung der Datendarstellung zwischen CPU und Peripherie erforderlich = Umsetzung der Protokolle Bus - Peripherieschnittstelle: Zeitliche Anpassung (CPU und Peripherie arbeiten i.a. nicht synchron, d.h. sie sind zeitlich zu entkoppeln).
  • Signalumsetzung (z.B. Pegelanpassung)
  • Datenformatanpassung (z.B. seriell/parallel-Wandlung)
  • Codewandlung
  • Fehlererkennung und -korrektur Das E/A-Werk kann von unterschiedlicher Komplexität sein:

    8.1 Methoden des Datentransfers

    8.1.1 Programmierter E/A-Transfer

    Einfache E/A-Schnittstellen für programmierten E/A-Transfer bestehen wesentlich aus (siehe Umdruck): Sie ist normalerweise an den Systembus der CPU angeschlossen. Das EADR dient zur Zwischenspeicherung des zu übertragenden Datenwerts (zeitliche Anpassung). Neben den zu übertragenden Daten braucht die Schnittstelle Signale zur richtigen Abwicklung des Datentransfers:

    Diese Signale werden - soweit sie für längere Zeit zur Verfügung stehen müssen - im EASR gespeichert. Das EASR kann auch aus separaten Registern für Status- und Steuersignale bestehen. Normalerweise verfügt ein Computer über mehr als eine E/A-Schnittstellen Adressierung erforderlich. Für die Adressierung der E/A-Schnittstellen gibt es zwei Möglichkeiten: Im allgemeinen erhalten EADR und EASR eine eigene, separate Adresse. Beide sind am Datenbus angeschlossen. Steuersignale werden wie Datenwerte ins EASR geschrieben, Statussignale werden wie Datenworte aus dem EASR gelesen - die Verarbeitung muss in der CPU durch geeignete Befehle erfolgen (z.B. log. Verknüpfung).

    Programmgesteuerter programmierter Transfer

    Die E/A-Befehlsfolge steht innerhalb eines Programms und wird im Rahmen der normalen Programmausführung abgearbeitet. Die gesamte Initiative zur E/A geht vom Programm aus. Zeigt der Inhalt des EASR an, dass keine neuen Daten im EADR stehen, muss das Programm erneut das EASR abfragen Warteschleife, "Polling". Dabei können zwei "Randbereiche" Probleme verursachen:

    Unterbrechungsgesteuerter programmierter Transfer

    Die E/A-Befehlsfolge wird durch einen von der E/A-Schnittstelle ausgelösten Interrupt gestartet. Der Interrupt wird von der Schnittstelle abgesetzt, wenn ein Datenwort empfangen wurde und im EADR steht (bzw. wenn ein Datenwort aus dem EADR abgeholt wurde). Die CPU braucht nicht in einer Programmschleife zu warten, sondern kann in der Zwischenzeit ein anderes Programm bearbeiten, das durch den Interrupt kurzzeitig unterbrochen wird. Der interruptgesteuerte Transfer gestattet zudem die quasi-simultane Bedienung mehrerer langsamer Schnittstellen. Zur Realisierung muß eine Interrupt-Leitung von der E/A-Schnittstelle (EASR) zum Unterbrechungswerk der CPU vorhanden sein.

    Vorteil des programmierten Transfers: Sehr einfache Schnittstellen, die übersichtlich und leicht zu verwenden sind.

    Nachteil des programmierten Transfers: Für den Transfer jedes einzelnen Datenworts wird die CPU benötigt. Diese muss dabei relativ viel Verwaltungsaufwand leisten (Laden/lesen EASR, Interrupt-Behandlung) die maximale Datenrate ist sehr begrenzt.

    8.1.2 Direktspeicherzugriff (DMA = Direct Memory Access)

    Beim DMA steuert die E/A-Schnittstelle den Transfer nach Anstoß durch die CPU selbstständig und ohne Zuhilfenahme der CPU Datentransport zwischen Speicher und Peripherie unter Umgehung der CPU. Selbst, wen die CPU in dieser Zeit nichts anderes tut, ist ein wesentlich schnellerer Datentransport möglich (weitgehender Wegfall der Verwaltungsarbeit). Daher ist DMA für den schnellen Transfer großer Datenmengen besonders geeignet. Zum Anstoßen des DMA-Transfers übermittelt die CPU der DMA-Schnittstelle: Die DMA-Schnittstelle benötigt zwei weitere Register:

    Da während des DMA-Transfers anstelle der CPU die DMA-Schnittstelle die Kontrolle über den Systembus besitzt, muss sie zusätzlich über eine Bus-Steuerlogik verfügen (Konkurrenz zwischen DMA Schnittstelle und CPU um den Bus).

    Ablauf eines DMA-Transfers:

    Man unterscheidet verschiedene DMA-Modi:

    8.2. Periphere Speicher (Massenspeicher)

    Periphere Speicher sind Speicher, die sich außerhalb der Zentraleinheit befinden (Sekundärspeicher). Sie dienen der Speicherung von Informationen, die nicht immer aktuell in Arbeitsspeicher benötigt werden. Sie besitzen wesentliche höhere Speicherkapazität als der ASp, haben aber auch eine größere Zugriffszeit. Der Datentransport zwischen peripheren Speicher und ASp findet blockweise statt (blockorganisierte Speicher). Funktionell können sie als Erweiterung des ASp aufgefasst werden (siehe virtuelle Speicher), strukturell stellen sie E/A-Geräte dar. Heute werden als periphere Speicher vornehmlich magnetomotorische Speicher eingesetzt: Magnetplatte, Magnetband und magnetooptische Speicher.

    8.2.1 Speicherprinzip magnetomotorischer Speicher

    Auf dem Magnetband bzw. einer als Träger dienenden runden Scheibe befindet sich eine Schicht aus hartmagnetischem Material (Eisenoxid mit Zusätzen anderer Ferrite) - wie z.B. auch bei einem Tonband zur Musikaufzeichnung. Die nadelförmigen Ferrite mit etwa 1µ Länge und 0,1µ Dicke sind in Bewegungsrichtung ausgerichtet. Wie beim Magnetkern wird die Materialeigenschaft ausgenutzt, unter dem Einfluss eines äußeren Magnetfeldes eine nach Betrag und Richtung bestimmte remanente Magnetisierung anzunehmen. Das erregende Feld wird mittels eines Magnetkopfes erzeugt, an dem sich die Platte mit konstanter Umdrehungsgeschwindigkeit vorbei bewegt Relativbewegung zwischen Speichermedium und Erregerfeld Ausrichtung der magnetischen Elementardipole in der Bewegungsrichtung.

    Die Magnetisierung erfolgt bis zur Sättigung. Den einzelnen Bits sind nicht diskrete Elemente zugeordnet, sondern kleine Bereiche eines kontinuierlichen Mediums. Speicherelement ist somit der einem Bit zugeordnete Bereich. Beim Lesen erzeugt die örtliche Änderung der magnetischen Kraftflussdichte auf dem bewegten Speichermedium aufgrund der Relativbewegung Kopf-Platte eine zeitliche Änderung der die Kopfspule durchströmenden Flussdichte Induzieren einer Spannung.

    Normalerweise wird für das Schreiben und Lesen derselbe Magnetkopf verwendet. Um eine hohe Aufzeichnungsdichte zu erreichen, muss der Kopfspalt möglichst klein sein. Bei Ferritköpfen erreicht man eine Spaltbreite von 1µ, bei in Dünnschicht-Technik hergestellten Köpfen sogar 0,1µ.

    8.2.2 Magnetplattenspeicher

    Der Magnetplattenspeicher ist ein blockorganisierter Speicher mit quasi-wahlfreiem Zugriff. Es gibt ihn in verschiedenen Arten und Ausführungen. Die Speicherung erfolgt in konzentrischen Spuren. Zum Aufsuchen einer bestimmten Spur lässt sich der Magnetkopf in radialer Richtung verschieben.

    Bei Systemen mit größerem Abstand der Spuren voneinander (z. B. Floppy-Disk, bis zu 135 Spuren/Zoll) kann die Positionierung des Kopfes mittels eines Schrittmotors geschehen. Bei Systemen mit kleinem Spurabstand (z.B. Festplatte, bis zu 1000 Spuren/Zoll) verwendet man ein Tauchspulensystem mit Lageregelung (closed loop), das eine sehr präzise Steuerung des Kopfes erlaubt. Jede Spur ist durch eine Nummer gekennzeichnet, unter der sie adressiert werden kann Spuradresse (äußerste Spur: 0). Zur feineren Adressierbarkeit der gespeicherten Information ist jede Spur in einzelne Abschnitte (Sektoren) unterteilt Sektoradresse. Der Spuranfang wird oft durch einen Schlitz oder ein Loch an bzw. auf der Platte (Indexschlitz, Indexloch) festgelegt. Er markiert den Beginn des Sektors 0.

    Die Festlegung der Sektoren erfolgt durch spezielle, zusätzlich zu den Daten auf die Platte geschriebene, Informationen. Das Aufschreiben der o.g. Verwaltungsinformationen muss vor Verwendung der Platte erfolgen Formatierung. Ein oder mehrere Sektoren bilden einen Block (Cluster), der mit einem Zugriff zwischen Platte und CPU transportiert werden kann. Neben den eigentlichen Daten enthält jede Spur Adress- und Formatierungsinformationen:

    Die Speicherkapazität für Nutzdaten ist nun zwar geringer geworden, die Formatierung erlaubt aber auch Datenträger zu lesen, die auf einem Gerät mit (innerhalb einer Toleranzgrenze) abweichenden mechanischen Parameter beschrieben wurden. Die Aufzeichnung der Daten erfolgt byteweise bitseriell (MSB zuerst). Ein zusätzliches Prüfbit wird nicht aufgezeichnet, sondern eine Polynom-Prüfsumme für jeden Block.

    Arten von Magnetplattenspeichern

    Beim Plattenstapel wird oft die oberste und/oder unterste Plattenfläche oft nicht für Info-Speicherung verwendet (Schutz, Sektorplatte, Servoinfo für Steuerung). Pro Fläche ein eigener Kopf; alle Köpfe fest gekoppelt (Kamm).

    Geschichtliches:

    Die Platte rotiert mit konstanter Geschwindigkeit (z. B. die ersten Winchester-Platten: 3600 U/min). Der Zugriff setzt sich aus zwei Phasen zusammen: mittlere Zugriffszeit = Positionierzeit + 1/2 Umdrehungszeit

    Als "Zylinder" bezeichnet man die Gesamtheit aller senkrecht übereinanderliegender Spuren (bei Einzelplatten die beiden Seiten, bei Plattenstapeln alle aktive Flächen) = alle Spuren auf allen Flächen mit gleicher Nummer = alle Spuren, die mit einer Kopfpositionierung angesprochen werden. Die Spuradresse wird zusammengesetzt aus:

    Die sogenannte Aufzeichnungsdichte wird in BPI (Bits per Inch = Bits pro Zoll) angegeben. Diese erreicht Werte von 40000 BPI und mehr. Ein ebenso gebräuchliches Maß für die Aufzeichnungsdichte ist "Flux Changes per Inch" (FCI). Übersetzt bedeutet das soviel wie "Flußwechsel pro Zoll" und gibt an, wie oft die Ausrichtung der Magnetpartikel pro Zoll geändert werden kann, denn der Abstand zwischen zwei Flußwechseln kann eine bestimmte Grenze aus physikalischen Gründen nicht unterschreiten. Je höher jedoch die Werte von BPI beziehungsweise FCI sind, desto mehr Daten lassen sich auf der Festplatte unterbringen.

    Schon bald entwickelte man ein Verfahren, um den Platz auf den äußeren, längeren Spuren besser zu nutzen: "Zone-Bit-Recording" (ZBR). Die Platte wird hierzu in mehrere Spurgruppen eingeteilt. Dabei wird für jede Gruppe die maximale Anzahl von Sektoren pro Spur bestimmt. Je kleiner diese Gruppen sind, desto besser ist die Ausnutzung der Platte. Im Idealfall würde für jede Spur der optimale Wert errechnet. Der Rechneraufwand für den Controller würde in diesem idealen Fall stark ansteigen, da er bei jedem Zugriff erst berechnen müßte, wie viele Sektoren auf der zu lesenden Spur untergebracht sind. Um den Rechenaufwand gering zu halten, faßt man mehrere Spuren zu einer "Zone" zusammen, in der die Sektorenanzahl der Spuren gleich ist. Das Verfahren ist also ein Kompromiß aus Geschwindigkeit und Platzgewinn.

    Ansteuerung der Festplatte

    Es gibt zwei Arten von Interfaces zur Festplattenansteuerung, die in der Computerwelt sehr verbreitet sind. Einmal das kostengünstige, aber ziemlich unflexible IDE-Protokoll (Integrated Drive Electronics, auch als ATA, AT Attachement, bekannt), auf der anderen Seite gibt es das teurere und vielseitig verwendbare SCSI-Protokoll (Small Computer Systems Interface). Der für den Normalanwender offensichtlichste Unterschied zwischen beiden Techniken ist der Preis. SCSI-Festplatten sind bei gleicher Größe und Geschwindigkeit ungefähr doppelt so teuer wie IDE-Platten. Dies hat u. a. seine Gründe im Aufbau der Platten.

    An ein normales E-IDE-System kann man normalerweise bis zu vier Gräte anschließen, dabei werden je zwei Geräte an einen IDE-Port angeschlossen. Die beiden Ports bezeichnet man als primären und sekundären Anschluss. Die beiden Geräte an jedem Port werden in Master und Slave aufgeteilt. Ein E-IDE-System bootet (normalerweise) von der Master-Platte am primären Port. Der IDE-Bus war ursprünglich nur zum Anschluss von Festplatten gedacht, mittlerweile kann man aber auch CD-ROM-Laufwerke und Brenner, Bandlaufwerke und große Diskettenlaufwerke anschließen.

    Im Gegensatz dazu kann man an einem SCSI-Controller bis zu sieben Gräte betreiben, bei Wide-SCSI sogar bis zu 15 Geräte, die jeweils über eine eindeutige ID-Nummer angesteuert werden. SCSI war schon von Anfang an dafür ausgelegt, Geräte aller Art ansteuern zu können, so ist es nicht verwunderlich, dass man an den SCSI-Bus außer den Geräten, die man bei IDE findet, auch noch Dinge wie Scanner anschließen kann.

    Da an den IDE-Bus nur je zwei Geräte angeschlossen werden können, sind keine besonderen Maßnahmen zur Abschirmung getroffen worden (das hat sich aber bei Ultra-ATA2 geändert, hier wird ein 80-poliges Kabel verwendet, wobei die 40 zusätzlichen Adern nur der Abschirmung dienen). Im Gegensatz dazu sind SCSI-Kabel robuster, was elektrische Störstrahlung angeht, des weiteren sorgen Terminatoren (Abschlusswiderstände) für Sicherheit. An jedem Ende des Busses muss ein Terminator befestigt werden, der eventuelle Signalreflexionen an den Kabelenden verhindert. (Beispiel: Nur interne Geräte --> Terminator am Hostadapter (meist automatisch) und am hintersten Gerät am Kabel; oder: interne und externe Geräte > Terminator am äußersten externen und äußersten internen Gerät, keine Terminierung am Hostadapter.)

    Während bei SCSI-Platten die Ansteuerungselektronik zu großen Teilen auf einem (teilweise recht teuren) Host-Adapter untergebracht ist, befindet sich diese bei IDE-Platten im Festplattengehäuse.

    Geschwindigkeit

    Lange Zeit galt, dass SCSI-Platten besonders schnell sind, dies ist aber schon seit einiger Zeit nicht mehr so, denn auch die IDE-Front hat sich rasant entwickelt, so dass sich beide Systeme in punkto realer Plattengeschwindigkeit nichts mehr nehmen. Die Übertragungsgeschwindigkeit bei Festplatten hat sich in den letzten Jahren rasant gesteigert. Das führte aber teilweise zu Problemen, denn die Geschwindigkeitssteigerungen wurden durch eine Erhöhung der Taktfrequenz auf dem IDE bzw. SCSI-Bus erreicht. Dadurch wurde die Gefahr durch elektrische Störungen größer. Deshalb ist die maximale Kabellänge immer kleiner geworden, z. B. waren IDE-Kabel vor 5 Jahren noch fast einen Meter lang, heute soll man moderne Festplatten nur an Kabel anschließen, die maximal 45 cm lang sind. Bei SCSI wurde die Geschwindigkeit zwar auch durch Takterhöhungen realisiert, allerdings kam dazu eine Verdopplung der Busbreite von 8 auf 16 Bit (Wide-SCSI). Im gleichen Zuge wurde dabei auch die Abschirmung der Kabel verbessert. Mit der neuesten Technik (Ultra2-Wide) wurde die Signalqualität nochmals verbessert, so dass trotz erneuter Taktverdopplung auch die maximal zulässige Kabellänge vergrößert werden konnte. Die eben erwähnten Übertragungsprotokolle haben bei genauerer Betrachtung eigentlich recht wenig mit der eigentlichen Übertragungsrate eine Festplatte zu tun, sie zeigen nur, wie viele Daten theoretisch über die Schnittstelle transportiert werden könnten. Die reale Datenübertragungsrate hängt viel mehr davon ab, wie schnell die Scheiben mit den Daten rotieren und wie dicht die Daten auf ihnen gepackt sind. Je dichter die Daten gepackt sind und je höher die Umdrehungszahl ist, desto schneller können die Daten übertragen werden. Bei Festplatten für durchschnittliche Rechner sind 5400 U/min üblich, bei stärker belasteten Computern werden aber auch Festplatten mit 7200 oder sogar 10 000 U/min eingesetzt. Man muss dabei aber beachten, dass hohe Umdrehungszahlen auch zu einer starken Lärmbelästigung führen. Neben der reinen Datenübertragungsrate ist die durchschnittliche Zugriffszeit ein weiteres Kriterium für die Geschwindigkeit einer Festplatte. Die Zugriffszeit ist die Zeit, die benötigt wird, um die angeforderten Daten zu lesen. Sie setzt sich zusammen aus der Zeit, die die Platte braucht, bis die richtige Stelle beim Lesekopf angekommen ist (also im Durchschnitt eine halbe Plattenumdrehung), was wiederum von der Umdrehungsgeschwindigkeit abhängt, und der Zeit, die der Lesekopf benötigt, um zur richtigen Spur auf der Platte zu gelangen.

    Disketten

    Seit der Einführung 1970 hat sich die Diskette (Floppy Disk) als schneller und preiswerter Massenspeicher durchgesetzt. Das Arbeitsprinzip ist dasselbe, wie bei der Festplatte, jedoch wird hier eine Kunstoffolie verwendet, die mit einer nichtorientierten Magnetschicht versehen ist. Die Datenaufzeichnung erfolgt entweder einseitig (SS) oder doppelseitig (DS). Zum Schutz und zur besseren Handhabung befindet sich die Scheibe in einer rechteckigen Kunststoffhülle, die mit einem Gleit- und Reinigungsvlies ausgekleidet ist. Die Hülle besitzt Öffnungen für den Arbeitskonus (über den die Scheibe angetrieben wird), das Indexloch und den Schreib/Lesekopf. Zusätzlich besitzt die Hülle noch eine Aussparung für das Setzen eines Schreibschutzes. Je nach System wird der Schreibschutz durch Abdecken oder Freilassen dieser Aussparung gesetzt (üblich: 5,25" abgedeckt = Schreibschutz, 3½" offen = Schreibschutz). Der Schreib/Lese-Kopf berührt beim Schreiben und Lesen die Diskettenoberfläche - er wird nur in den Pausen abgehoben. Die Lebensdauer liegt bei optimalen Bedingungen bei 1 .. 10 Mio. Abfragen/Spur "Spanabhebende Datenverarbeitung". Disketten werden/wurden nach Durchmesser unterschieden: Gegenüber den Festplatten haben Disketten eine weitaus geringere Spurdichte (geringere Kapazität, Laufwerk mechanisch weniger präzise), eine geringere Datenrate und eine größere Zugriffszeit. Als Aufzeichnungsverfahren werden FM (SD = single density) und MFM (DD = double density) verwendet (siehe Festplatten). Die Umdrehungsgeschwindigkeit liegt zwischen 300 und 360 U/min, die Positionierzeit bei 3...10 ms und die Aufsetzzeit für den Kopf beträgt ca. 20...30 ms. Die mittlere Zugriffszeit liegt zwischen 100 und 300 ms. Die ersten 8"-Disketten hatten eine Speicherkapazität von 256 KByte, heute gibt es 3,5"-Disketten mit 1,4 MByte. Versuche einer Markteinführung von einer 2,8-MByte-Diskette sind fehlgeschlagen. ZIP-Disketten, bei denen beim Lesen und Schreiben das Bernoulli-Prinzip verwendet wird, haben Kapazitäten von 100 bzw. 250 MByte.

    8.2.3 Magnetbandspeicher

    Der Magnetbandspeicher ist ein blockorganisierter Speicher mit rein sequentiellem Zugriff. Auf einem flexiblen Kunststoffband ist eine ferromagnetische Schicht aufgebracht (wie bei Platte). Das Band ist auf eine Spule aufgewickelt. Wie schon bei der Platte dient auch hier die in zwei Richtungen auftretende Remanenz zur Speicherung. Durch die Bewegung des Bandes (konst. Geschwindigkeit) am Magnetkopf entlang wird auch hier eine Spannung induziert (wie beim Tonband). Zu den gespeicherten Informationen kann - im Gegensatz zur Platte - nur in der Reihenfolge der Aufzeichnung zugegriffen werden sequentieller Zugriff.

    Der Magnetkopf hat Kontakt mit dem Speichermedium. Um die Abnutzung von Kopf und Band zu reduzieren, wird es nur im Bedarfsfall (beim Zugriff) bewegt sehr schnelles Anfahren und Abbremsen des Bandes notwendig. Dazu weist die Bandführung Pufferschleifen auf, die in Unterdruckschächten geführt werden. In einfachen Geräten mit geringer Geschwindigkeit werden auch häufig Pufferarme eingesetzt. Durch den Start-Stop-Betrieb entstehen nicht beschriebene Blockzwischenräume. Der Magnetkopf weist getrennte Spaltenzonen für Lesen und Schreiben auf. Zuerst läuft das Band an der Schreibspalte vorbei, danach an der Lesespalte sofortiges Lesen zur Schreibkontrolle. Bandanfang und - ende werden durch Reflektormarken auf der Bandrückseite gekennzeichnet und durch Photozellen detektiert.

    Heute sind Magnetbänder im herkömmlichen Stil (Bandbreite 1/2", 7/) Spuren, Bitdichte 800/1600/6250 bpi, Bandlänge 730 m) kaum noch in Verwendung. Jedoch werden Magnetbandkassetten (auch DAT-Bänder) als Backup-Medium eingesetzt. Sie sind einfacher, billiger und robuster als große Magnetbandstationen. Es gibt verschiedene, herstellerabhängige Ausführungsformen. Einige Formate sind genormt. Die Aufzeichnung erfolgt byteweise bitseriell in einer Spur (MSB zuerst - wie bei Platte) in Datenblöcken, die aus Präambel, Datenteil und Postambel bestehen (Präambel/Postambel jeweils 01010101). Der Datenteil kann zwischen 32 und 2064 Bit lang sein (einschl. 16 CRC-Bits = 2 CRC-Bytes). Als Aufzeichnungsverfahren wird i.a. Richtungstaktschrift (phase encoding) verwendet. Andere Bauformen, z.B. 14"-Kassetten werden vor allem zum Datenaustausch und zur Datensicherung bei Festplattensystemen (Winchester!) eingesetzt Streamer.

    8.2.4 Optische Speicherplatten

    Bis vor wenigen Jahren waren mangnetomotorische Speicher "die" Massenspeicher der DVS. Inzwischen etablieren sich optische Speicher als Massenspeicher mit sehr hoher Speicherkapazität. Das Besondere an den neuen Speicherverfahren ist der Einsatz von Lasern, die ein kohärentes Licht erzeugen (nur eine Frequenz, gleiche Phasenlage). Sie lassen eine, gegenüber Magnetplatten, wesentlich höhere Schreibdichte zu. Eine optische Platte mit 5,25 Zoll Durchmesser kann bis zu 600 MByte speichern. Auch die Sicherheit der optischen Platte ist höher, als bei Magnetplatten. Die zur Speicherung verwendete Plattenoberfläche ist durch eine transparente Kunststoffschicht geschützt und die Abtastung erfolgt berührungslos. Die Steuerung des Lese- und Schreibkopfes erfolgt prinzipiell wie bei der Magnetplatte. Auch hier ist der Kopf auf einen beweglichen Arm montiert, der radial verschiebbar ist.

    Arbeitsprinzip:

    Die optische Platte dreht sich mit einer konstanten Umdrehungsgeschwindigkeit (z.B. 150 U/min). Mit dem Laserstrahl wird über ein Fokussierungs- und Spurnachführungssystem die ca. 300 Angström dicke Speicherfläche der Platte abgetastet. Der reflektierte Strahl wird in einem halbdurchlässigen Spiegel geteilt. Er trifft einmal auf eine geteilte Photodiode, den Spurfehlerdetektor, der die Nachführung des Stahls auf der Spur regelt. Das durch den Spiegel abgelenkte Strahlenbündel gelangt auf den kombinierten Fokus- und Lesedetektor. Auch dieser Detektor besteht aus einer geteilten Photodiode. Die Stromdifferenz steuert die Fokussierungseinrichtung und die Summe der Ströme bildet die Dateninformation. Der Lesekopf wird zunächst sehr schnell auf etwa 10 Spuren genau an das Ziel herangeführt. Danach erfolgt das Anfahren der richtigen Spur mittels des optischen Regelsystems auf 0.1 µ genau. Die Positionierzeit beträgt etwa 100 ms. Je nach Typ der Platte unterscheiden sich die einzelnen Systeme ein wenig. Es gibt derzeit folgende Typen von optischen Speicherplatten:

    CD-ROM (Compact Disk Read Only Memory)

    Diese Platte ist ähnlich aufgebaut, wie die Musik-CD. Die Datenspeicherung erfolgt während der Herstellung der Platte und die Daten können nur gelesen werden (Analogie: ROM). Im Gegensatz zu Magnetplatten erfolgt die Aufzeichnung - wie bei einer Schallplatte - in einer einzigen, spiralförmigen Spur. In diese vorgeprägte, reflektierende Schicht werden bei der Herstellung der Masterplatte mit einem Laser Löcher (pits) eingebrannt. Von der Masterplatte lassen sich dann beliebig viele Kopien herstellen.

    Die Kopie wird vom Laserstrahl abgetastet, der durch die unterschiedliche Stuktur der Speicherfläche mit einer digitalen Information moduliert wird. Die Spurdichte beträgt bis zu 16'000 Spuren/Zoll. Als Aufzeichnungsstandard hat sich das Format ISO 9660 durchgesetzt (Transferrate: 1,2 MBit/s, Kapazität: ca. 600 MByte). Die CD-ROM dient haupsächlich der Verbreitung größerer Datenmengen und jüngst als Photo-CD.

    WORM (Write Once Read Many) als Vorgänger der CD-R

    WORM-Platten lassen sich vom Anwender beschreiben, jedoch nur einmal (Analogie: PROM). Bei 5+-Zoll-Platten sind Speicherkapazitäten bis 1 GigaByte (Transferrate 1,5 MByte/s) möglich. Die WORM kann zur Archivierung von Daten aller Art verwendet werden (Backup-Medium). Die Platte arbeitet wie ein Magnetplattenlaufwerk und kann genauso angesprochen werden, die Treibersoftware sorgt dafür, daß bei mehrfacher Speicherung einer Datei immer die jüngste Version angesprochen wird (ältere Versionen lassen sich über spezielle Programme lesen) --> Speicherung einer Dateichronologie. Beim Schreiben wird durch hohe Laserenergie die Plattenstruktur dauerhaft verändert. Beim Lesen wird diese Veränderung mit niedriger Laserenergie abgetastet und detektiert. Man unterscheidet zwei Speichertechniken:

    Die beschreibbare CD - CD-R

    Bei der CD-R ist der Aufbau komplexer als bei der CD-ROM. Untern liegt die Trägerschicht aus Polycarbonat, darauf folgt eine lichtempfindliche organische Substanz, die durchscheinend ist. Dann kommt eine reflektierende Goldschicht und schließlich eine Lack-Schutzschicht. Mit erhöhter Laserenergie kann das organische Material verfärbt bzw. verschmolzen werden und es erhält so eine andere Reflexionseigenschaft. Die Platte kann danach wie eine CD-ROM gelesen werden.

    DVD - Digital versatile Disc

    DVD steht für 'Digital Versatile Disk' (ehemals 'Digital Video Disk'). Das Medium ist so groß wie eine normale CD-ROM, jedoch wird mit einer wesentlich höheren Speicherdichte gearbeitet. Dabei unterscheidet man vier verschiedene Medien. Die einfache einseitige DVD kann 4,7 GB auf einer Schicht speichern. Es gibt aber auch zweischichtige DVDs. Dabei wird die Information auf zwei übereinanderliegenden Schichten gespeichert, eine davon ist durchsichtig.

    Durch unterschiedliche Fokussierung des Lasers wird die richtige Schicht angesteuert. Damit sind 8,5 GB möglich. Und dann gibt es das ganze noch zweiseitig. Damit sind 17 GB Daten auf einer einzigen DVD möglich. Die ersten Laufwerke kommen jetzt gerade auf den Markt und können einschichtige, einseitige DVDs lesen. Leider gibt es im Moment noch wenig DVD-Titel mit Videos. Die Videos werden in MPEG-2 kodiert, was eine sehr gute Qualität bei der Wiedergabe ergibt. Auch die ersten Brenngeräte für einseitige, einschichtige DVDs sind schon vorgestellt worden, der Brenner von Pioneer war im Herbst 97 für etwas über 10000 Mark auf den Markt gekommen. Aufgenommen wird mit ca. 1 - 2 MB/s, und speichern kann er maximal 3,9 GB. Inzwischen sind die Preise auf dem Niveau von CD_ROM-Laufwerken.

    Die Lesegeräte können auch normale CDs lesen, jedoch meist keine CD-Rs, also die beschreibbaren CDs. Dies kommt daher, daß ein Laser mit einer kürzeren Wellenlänge verwendet wird, der die selbstgebrannten CDs nicht mehr richtig lesen kann.

    Die Zeit der DVD als "Nur-Lese-Medium" währte nur recht kurz. Seit der Jahrtausendwende gibt es auch DVD-Brenner. Viele Konsumenten werden vom Kauf eines DVD-Brenners allein deshalb abgehalten, weil sie nicht wissen, welcher der von den Firmengruppen propagierte Standard sich langfristig durchsetzen wird. Hier ein kleiner Überblick. DVD+R, DVD+RW, DVD-R, DVD-RW und DVD-RAM und sind allesamt Standards für widerbeschreibbare DVDs.

    Die DVD-R ist ein einmal brennbarer Rohling für DVD, die DVD-RW ist ein wiederbeschreibbares DVD-Medium (ähnlich verwendbar wie die CD-RW). Diese Aufzeichnungsformate werden u. a. von Panasonic und Pioneer propagiert. DVD-R Medien können von vielen, aber nicht allen DVD-Laufwerken gelesen werden. Bei neuen DVD-Laufwerken ist die Wahrscheinlichkeit sehr hoch, nach Marktumfragen bei etwa 95%. Anfängliche Kompatibilitätsprobleme konnten inzwischen mit neuer Brenn-Software behoben werden. Im Zweifelsfall hilft nur probieren. DVD-R-Medien sind in DVD-R for Authoring: DVD-R(A) und DVD-R for General: DVD-R(G) aufgeteilt. DVD-R(A)-Medien werden bei der Produktion von DVD-Inhalten eingesetzt und dienen im Presswerk als Vervielfältigungsvorlage. DVD-R(G)-Medien sind für den privaten Gebrauch gedacht. Im Gegensatz zu DVD-R(A)-Medien lassen sich mit DVD-R(G)-Rohlingen keine 1:1-Kopien kopiergeschützter DVDs anfertigen. DVD-R(A) und DVD-R(G) sind beide kompatibel mit DVD-ROM Laufwerken und DVD-Playern. Aufgrund unterschiedlicher Wellenlängen des Schreiblasers (635 nm für DVD-R(A) und 650 nm für DVD-R(G)) können die Rohlinge nur in den entsprechenden Recordern beschrieben werden.

    Sowohl im Aufbau der Medien als auch in der Struktur, wie die Daten auf die DVD gebrannt werden, können auch DVD+R/DVD+RW-Medien von nahezu allen Geräten (ebenfalls ca. 95%) verarbeitet werden. Das bedeutet, dass eine im Computer hergestellte DVD+RW auf nahezu jedem DVD-Player oder auch auf nahezu jedem Computer-DVD-ROM-Laufwerk abgespielt werden kann, nur nicht auf einem DVD-R- bzw. DVD-RW-Laufwerk (und umgekehrt). DVD+R (DVD+Recordable) ist als Bestandteil des DVD+RW-Standards definiert. Die DVD+R Medien sind wesentlich günstiger als DVD+RW Medien; der Anwender hat aber die gleichen Möglichkeiten, die er mit einer DVD+RW hat, abgesehen davon, dass sich das Medium nicht löschen lässt. DVD+R Medien können in DVD+RW-Geräten beschrieben werden. Die DVD+R hat die gleichen Charakteristika wie eine DVD+RW (abgesehen von der Möglichkeit des Löschens und Neubeschreibens) wie auch den gleichen Grad an Kompatibilität in bezug auf DVD-Player und DVD-ROM-Laufwerken, die gleiche Kapazität (4.7 GB) und wird über die gleichen Programme beschrieben.

    Das Phase-Change-Aufzeichnungsverfahren findet bei DVD-RW wie auch DVD+RW Anwendung. Bei den Phase-Change-Medien besteht die Aufzeichnungsschicht aus vier Lagen: einer unteren dielektrischen Schicht, der Aufzeichnungsschicht (recording layer/alloy), der oberen dielektrischen Schicht und aus der Reflexionsschicht, welche meistens aus einer Aluminium- oder Messing-Legierung oder Gold besteht. Die Aufzeichnungsschicht wird mit einem Laserstrahl auf ungefähr 200 Grad Celsius erhitzt. Dadurch ordnen sich die Atome innerhalb der Metalllegierung kristallin an. Dieser Zustand wird durch langsames Abkühlen beibehalten, wodurch dieser Bereich einen hohen Reflexionsgrad besitzt. Er wird als "Land" oder logische 0 interpretiert. Durch Erhöhen der Leistungsstufe des Lasers erhitzt sich das Material auf 500 bis 700 Grad Celsius und die Atome geraten in einen amorphen, das heißt nichtkristallinen Zustand. Ein starker Wärmeentzug durch die beiden dielektrischen Schichten kühlt die Metallschicht schnell ab. Die Atome erstarren in ihrem ungeordneten Zustand und reflektieren nun weniger Licht.

    DVD-RAM verwendet eine vollständig andere Speichertechnologie, die mit dem DVD-Standard in keiner Weise vereinbar ist. Die einzige Ähnlichkeit, die das Medium eventuell mit einer DVD besitzen könnte, ist seine ähnliche Kapazität - mehr nicht. Kein auf dem Markt befindlicher DVD-Player kann diese Medien lesen. DVD-RAM-Medien sind in einem Caddy untergebracht - und auch wenn man Medien ohne Caddy herstellen wird, so wird dies nicht von Erfolg gekrönt sein. Die Laufwerke und Medien sind also nur zur Datenspeicherung bzw. zum Datenaustausch von PC zu PC geeignet.

    Aktuell werden CD-R und CD-RW von vielen Usern als preiswertes Medium für das Speichern von Daten und Audio verwendet. Daran wird sich auch die nächsten Jahre nicht viel ändern. DVD+RW-Geräte werden von Personen verwendet, die große Datenmengen sichern (PC-Anwender) oder aber auch für Videoanwendungen (Heimelektronik/PC). Mittel- bis langfristig werden wohl die DVD+RW-Geräte die CD-Brenner im Heim-PC ablösen, da die DVD+RW-Geräte auch in der Lage sind, CD-R- und auch CD-RW-Medien zu verarbeiten (nur schneller und zuverlässiger). Für ganz vorsichtige Anwender gibt es inzwischen Geräte, die alle erwähnten Formate (außer DVD-RAM) verarbeiten können (z. B. von SONY), man muss aber mit einem Mehrpreis von etwa 50% rechnen.

    Magnetooptische Platte

    Die magnetooptische Platten erlaubt - wie eine Magnetplatte - Lesen und Schreiben. Die Speicherkapazität reicht bis 1 Giga- Byte (Transferrate 1,5 MByte, mittl. Zugriffszeit ca. 100 ms). Im Gegensatz zu CD-ROM und WORM wird hier die Information nicht optisch, sondern magnetisch gespeichert. Das Lesen/Schreiben der Information erfolgt jedoch durch den Laser. Auf der Platte wird eine Terbium-Eisen-Kobalt-Legierung so aufgebracht, daß die Vorzugsachse der Magnetisierung senkrecht zur Plattenoberfläche steht.

    Das magneotoptische Material hat bei Zimmertemperatur eine hohe Koerzivität, bei hohen Temperaturen jedoch eine niedrige Koerzivität. Deshalb kann ein kleiner Bereich der Platte, wenn er durch den scharf fokussierten Laserstrahl erhitzt wird, durch ein angelegtes Magnetfeld magnetisiert werden.

    Zum Lesen wird der Kerr-Effekt genutzt. Danach dreht linear polarisiertes Licht bei der Reflexion an einen magnetischen Medium seine Polaritätsebene. Je nach Polung des Magnetfeldes im oder gegen den Uhrzeigersinn. Beim Lesen arbeitet der Laser mit verminderter Leistung, sodaß die Magnetisierung erhalten bleibt.

    Die Magnetschicht besteht aus einer Kombination von Terbium (seltene Erden) und Eisen-Kobalt (Übergangsmetall). Die magnetischen Momente der Terbium-Atome sind entgegengesetzt zu denen der Übergangsmetall-Atome.

    Beim Schreiben wird durch den Laserstrahl eine Stelle der Platte bis knapp unter die Neel-Temperatur aufgeheizt (geringe Koerzitivität). Es reicht nun ein relativ schwaches Magnetfeld aus, um die Magnetisierungsrichtung der Übergangsmetalle umzu- kehren. Nahe der Kompensationstemperatur (Zimmertemperatur) ist die Koerzivität hoch und die Information bleibt erhalten. Der Bereich des Magnetfeldes kann also wesentlich größer sein als die durch den Laser erhitzte Stelle. Es ergibt sich so eine höhere Speicherdichte als bei der Magnetplatte.

    Da es Schwierigkeiten macht, die Magnetisierung mit der für die hohen Datenraten erforderlichen Geschwindigkeit umzukehren, wird eine neu zu beschreibende Spur zunächst gelöscht (gleiche Ausrichtung aller Bereiche) und bei der folgenden Umdrehung neu beschrieben.

    Inzwischen konnte gezeigt werden, daß auch in einem magnetooptischen Material direktes Überschreiben möglich ist. Der Trick besteht darin, das entmagnetisierende Feld (Terbium) der Beschichtung groß genug zu machen (Koerzitivität bei hoher Temperatur hinreichend niedrig). Die Magnetisierung eines Bereichs kehrt sich immer dann um, wenn der Bereich aufgeheizt wird. Ein äußeres Magnetfeld ist dann nicht mehr notwendig.

    8.3 Periphere Geräte

    8.3.1 Datensichtgerät und Tastatur

    Die Darstellung der Information erfolgt auf einer Kathodenstrahlröhre nach dem gleichen Prinzip, wie bei einem Fernseh-Monitor. Einfache Systeme liefern sogar ein geeignetes Signal zur Ansteuerung von handelsüblichen Fernsehgeräten. Ein Elektronenstrahl wird periodisch über ein festgelegtes Zeilenraster geführt. Die darzustellenden Zeichen werden durch Modulation der Stahlintensität abgebildet Raster-Abtast-Verfahren, Raster-Scan-Verfahren. Während des schnellen Strahlrücklaufs wird der Strahl dunkelgetastet. In Fernsehgeräten wird das Zeilensprungverfahren (interlace) angewendet. Die Darstellung erfolgt in zwei zeilenversetzten Halbbildern, d.h. es werden zunächst die Zeilen 1, 3, 5, 7, ... und danach die Zeilen 2, 4, 6, 8, ... auf den Bildschirm geschrieben. Die Bildwechselfrequenz beträgt dabei 50 Hz. Das Gesamtbild (625 Zeilen) wird dann mit 25 Hz wiederholt flimmerfreie Darstellung bei niedriger Bildwechselfrequenz.

    DSG arbeiten in der Regel ohne Zeilensprung (non-interlaced), aber mit einer Bildwiederholrate von 50 .. 100 Hz und wesentlich höherer Rasterzeilenzahl (bis 4096 Zeilen). Um die Anforderungen an den Monitor bei sehr hohen Auflösungen niedriger zu halten, wird in manchen Fällen auch hier mit dem Zeilensprungverfahren gearbeitet. Jede Zeile wird in Bildpunkte zerlegt. Zur Darstellung von Grafik kann bei geeigneten DSG jeder Bildpunkt angesteuert werden. Zur alphanumerischen Darstellung wird jedes Zeichen als Punktraster in einer rechteckigen Matrix beschrieben und dargestellt. Es gibt unterschiedliche Matrixgrößen, z.B. 5 x 8, 8 x 8, 7 x 9, ... Die eigentliche Darstellungsmatrix wird um eine Zeile/Spalte zur Trennung der einzelnen Zeichen ergänzt Zeichenfeld ist größer, z.B. bei 5 x 8: 7 x 10. Alle nebeneinander dargestellten Zeichen bilden eine Reihe. Der Bildschirm wird in Zeichenfelder unterteilt:

    Am häufigsten sind Geräte mit Textdarstellung von 24/25 Reihen zu 80 Spalten. Die Abbildung der Zeichen erfolgt (Raster-)zeilenweise für alle Zeichenfelder der einzelnen Reihen von oben nach unten.

    Bei der Darstellung von Schwarzweiß-Grafik (Ansprechen jedes Bildpunkts möglich) muss jedem Bildpunkt ein Bit des Speichers zugeordnet werden (benötigte Speicherkapazität hoch). Bei der alphanumerischen Darstellung wird eine effektivere Form der Speicherung verwendet: Die einzelnen Zeichen werden codiert (z.B. in ASCII) im Bildwiederholspeicher gehalten. Die benötigte Speicherkapazität ist viel geringer (z.B. bei 25 x 80 Byte: 2 KByte). Die Umsetzung der Zeichencodes in die Matrixdarstellung erfolgt mittels eines Zeichengenerators (character generator). Dieser ist heute i. a. als Festwertspeicher (ROM, PROM, ...) realisiert.

    Bei der farbigen Darstellung enthält die Bildröhre drei Elektronenstahl-Kanonen, die eine, punktweise in den drei Grundfarben rot, grün und blau eingefärbte, Leuchtschicht des Bildschirms anregen. Zur "sauberen" Darstellung der Farben befindet sich innerhalb der Bildröhre ein Schlitz- oder Lochmaske. Bei der digitalen Ansteuerung ist die Zahl der darstellbaren Farben begrenzt (8 - 16 Farben). Bei der analogen Ansteuerung können praktisch beliebig viele Farben erzeugt werden. Je nach Auflösung ist die maximale Zahl der darstellbaren Farben begrenzt (m aus n Farben bei Grafik). Manche DSG bieten die Möglichkeit aus den zur Verfügung stehenden Farben eine Auswahl zu treffen. Dazu wird zwischen Bildwiederholspeicher und Analogausgang eine Tabelle für die Farbzuordnung geschaltet (Color Look Up Table, CLOUT).

    Flache Bildschirme:

    Von der Bauart her benötigen Kathodenstrahl-Monitore recht viel Platz. Für die Entwicklung transportabler Computer sind flache Bildschirme entwickelt worden:

    Tastatur

    Sie ist der Eingabeteil des DSG. Die Tastenanordnung ist ähnlich, wie bei der Schreibmaschine. Das Betätigen einer Taste erzeugt ein Codewort (im 1 aus m-Code) Codierung des mit der Taste eingegebenen Zeichens erforderlich (meist ASCII, aber auch andere Codes (z.B. IBM-PC)). Die Tasten sind mehrfach belegt. Es gibt Tasten zur Umschaltung der Bedeutung, die gleichzeitig mit einer anderen Taste betätigt werden müssen:

    Für einige Steuerzeichen sind i.a. eigene Tasten vorhanden. Die meisten Tastaturen werden um Funktionstasten ergänzt, die z.T. spezielle Codeworte erzeugen. Manchmal wird die Tastatur um einen Ziffernblock ergänzt, mit dem eine schnelle Eingabe von Ziffern und Rechenzeichen ("+", "-", "*", "/") möglich ist --> Parallelschaltung mit den entsprechenden Tasten der Haupttastatur. Es gibt verschiedene Ausführungsformen von Tasten: Die Tasten sind üblicherweise in einer Matrix angeordnet, bei der durch das Drücken einer Taste eine Spalte mit einer Zeile verbunden wird. Aus der Zeilen- und Spaltennummer kann die Taste eindeutig erkannt werden und der zugeordnete Zeichencode ausgegeben werden. Es werden Zeile und Spalte der gedrückten Taste ermittelt und daraus dann das zugehörige Codewort abgeleitet. Der Zeichencode ist oft in einer Tabelle (häufig ROM) abgelegt über das die Zeilen-/Spaltenzuordnung (Adressleitungen) das codierte Zeichen abgeleitet wird. Die Codierung kann erfolgen:

    8.3.2 Drucker

    Mechanische Drucker:

    Erzeugung eines Zeichens durch Anschlag eines Tinten- oder Carbonbandes auf das Papier; starke Geräuschentwicklung. Ausnahme: Tintenstrahldrucker – "Spritzen" von Tinte auf das Papier

    Nichtmechanische Drucker:

    Druckerarten:

    Farbdrucker

    Um farbig zu drucken wird additive Farbmischung verwendet, d. h. die zu druckende Farbe wird aus den Grundfarben blau, rot, gelb zusammengesetzt. Da bei drei Farben schwarz gedruckte Partieen eher bräunlich wirken, wird oft als vierte Farbe schwarz hinzugenommen. Es werden i. a. Matrixverfahren mit unterschiedlichen Technologien verwendet:

    8.3.3 Plotter

    Plotter sind elektromechanische Zeichengeräte, bei denen eine Zeichnung mit einen Zeichenstift auf Papier erstellt wird. Die Auflösung erreicht hier Schritte von 0.1 mm bis 0.01 mm. Trommelplotter, Flachbettplotter und Schrägbettplotter sind die wohl bekanntesten Bauarten.

    Der Trommelplotter kommt in seinem Aufbau dem Drucker am nächsten. Das Zeichenpapier wird hier ebenfalls über eine Trommel oder Walze gelegt, wobei durch Drehen der Walze - vorwärts oder rückwärts - eine der beiden Bewegungsrichtungen dargestellt wird. Die andere Bewegungsrichtung - also nach rechts oder links - wird mit einem Schlitten ausgeführt, der von einem Schrittmotor bewegt wird. Die Halterung, die den Zeichenstift aufnimmt, befindet sich am Schlitten. Der Trommelplotter beansprucht - im Vergleich zu Flachbett- oder Schrägbettplottern - eine geringere Stellfläche. Der Vorteil des Trommelplotters besteht darin, dass nicht nach jeder Zeichnung das Papier neu eingelegt werden muss, da sich das Plotterpapier von einer großen Vorratsrolle zu einer Aufspulvorrichtung bewegt. Eine Abart stellen Reibungsplotter dar, bei denen das Papier durch eine mit Quarzsand beschichtete Rolle unter dem Stift hin- und herbewegt wird.

    Beim Flachbettplotter sind auf einer Grundplatte oben rechts zwei Schrittmotoren angeordnet. Der X-Schrittmotor bewegt über ein Zugseil den X-Schlitten nach rechts oder nach links. Der Schlitten sitzt auf einer stationären, festen Schlittenführung. Der Y-Schrittmotor dreht eine meist mehrkantige Antriebswelle, auf der verschieblich ein Rad angebracht ist. An diesem Rad ist das Zugseil für den Y-Schlitten befestigt, so dass der Y-Schlitten durch Drehen der Antriebswelle hin- und her bewegt werden kann. Da der Y-Schlitten auf einer Schlittenführung läuft, die am X-Schlitten befestigt ist, kann der daran befestigte Stift in X- und Y-Richtung bewegt werden.

    Unter dem Begriff "Zeichenstift" sind die unterschiedlichsten Zeichenwerkzeuge zu verstehen: Kugelschreiber und Tintenkugelschreiber, Gasdruckkugelschreiber, Faserschreiber, Keramik- und Fiberstifte, Tuschestifte und Tuschespitzen, Bleistifte, Schneidwerkzeuge für Folien, ... Die meisten Plotter besitzen eine Aufnahmevorrichtung für mehrere Stifte und erlauben daher mehrfarbige Zeichnungen. Ein Plotter kann von sich aus nur in 8 Richtungen zeichnen Elementarschritte. Das Charakteristikum des Schrittmotorantriebs liegt im quantenweisen Betrieb des Bewegungssystems. Jede zu zeichnende Kurve muss durch diese acht möglichen Grundschritte approximiert werden. Um eine hinreichende Genauigkeit zu erreichen, muss ein Elementarschritt möglichst klein sein (typisch 0.1 ... 0.025 mm). Eine Verbesserung würde sich durch die Verwendung von Servomotoren ergeben, die jede beliebige Bewegungsrichtung zulassen. Hier ist jedoch ein Meßsystem zur Positionsbestimmung nötig.

    Neben der Auflösung ist die Wiederholgenauigkeit ein wichtiges Leistungskriterium bei Plottern. Sie liefert eine Aussage darüber, wie genau ein bestimmter Punkt beim mehrfachen Anfahren derselben Koordinaten getroffen wird (wichtig beim Ansetzen nach einem Stiftwechsel). Ein weiteres Kriterium stellt die Maximalgröße der Zeichenfläche (bei Flachbettplottern) bzw. die maximale Rollenbreite (bei Trommelplottern) dar. Da das Zeichnen relativ langsam erfolgt (relativ große bewegte Massen) besitzen neuere Plottersysteme (Graphtec) ein eingebautes 3½-Zoll-Diskettenlaufwerk zur Pufferung der vom Rechner eingehenden Daten. Die Zeichnung wird dann quasi offline erstellt. Zur Wiederholung derselben Zeichnung ist keine Neuberechnung am Computer mehr nötig.

    8.3.4 Lochkarten- und Lochstreifengeräte

    Lochkarten und Lochstreifen waren früher die gebräuchlichsten Datenträger bei DVS. Sie wurden zunehmend von anderen Datenträgern verdrängt. Die Lochkarte war einer der ersten Datenträger zur Speicherung von Daten und Programmen auf DVS. In den Anfängen der Datenverarbeitung gab es neben Lochkartenstanzern und Lochkartenlesern auch Geräte zum Mischen und Sortieren von Karten. Die Lochkarte ist in 80 Spalten zu 12 Zeilen eingeteilt. Die Karten, die gelesen oder gestanzt werden sollen befinden sich in einem Magazin. Die unterste Karte wird durch eine Friktionswalze oder einen Schieber mit Nase der Lesestation zugeführt.

    Die Lochstreifengeräte in der Datentechnik haben sich aus der Fernschreibtechnik entwickelt. Dort werden 5-Kanal-Lochstreifen mit einer zusätzlichen Transportlochung verwendet. Aus der Transportlochung kann auch ein Synchronisationssignal für die Abtastung gewonnen werden. Bei Geräten der Datenverarbeitung verwendet man 6-, 7- oder 8-Kanal-Lochstreifen. Der Transport des Lochstreifens erfolgt bei langsamen Geräten (bis 50 Zeichen/s) durch ein Zahnrad, das in die Transportlochung greift. Bei schnellen Geräten (bis 1000 Zeichen/s) wird der Streifen durch Friktionwalzen transportiert. Abtastverfahren siehe Umdruck.

    8.3.5 Joysticks (grafische Eingabe)

    Ein Joystick besteht aus einem kleinen Kästchen, aus dem ein Betätigungshebel hervorschaut, der sich nach vier Richtungen bewegen lässt. Man kann durch Bewegen des Steuerknüppels z.B. ein Fadenkreuz auf de Bildschirm bewegen, um Koordinaten für die Zeichnung festzulegen. Es gibt zwei technisch unterschiedliche Arten von Joysticks. Bei der einen Art wird der Knüppel von einem Kugelgelenk gehalten und schließt einen von vier Schaltern, je nach dem, ob man ihn nach oben, unten, rechts oder links bewegt. Bei diagonalem Druck auf den Knüppel werden dann die zwei entsprechenden Schalter betätigt. Mit solchen Joysticks lässt sich nur eine Richtungsinformation geben. Soll das Fadenkreuz durch die Auslenkung des Knüppels absolut positioniert werden, braucht man einen Joystick, bei dem Potentiometer eine der Knüppelauslenkung proportionale Spannung abgreift (Proportionalsteuerung). Die Spannungsmessung erfordert einen gewissen Hardware- und Softwareaufwand. Für die Joystick-Abfrage bieten sich zwei Prinzipien an:

    8.3.6 Trackball und Maus

    Ein Trackball (Rollkugel), ist ein Gehäuse, aus dem oben das Viertel einer Kugel von 5 cm bis 10 cm Durchmesser herausragt. Im Gehäuse sitzen zwei Abnehmer-Räder im Winkel von 90 Grad zueinander, die beide die Kugel berühren. Jede Bewegung der Kugel wird so in X- und Y-Impulse umgesetzt. Durch Drehen der Kugel mit der Handfläche oder den Fingerspitzen kann ein Fadenkreuz auf dem Bildschirm positioniert werden. Es wird auch hier dem Computer nicht nur eine Richtungsinformation sondern auch eine Bewegungsgeschwindigkeit mitgeteilt. Man kann das gewünschte Ziel mit hoher Geschwindigkeit anfahren und dann vorsichtig fein positionieren.

    Die Maus wurde schon 1961 erfunden. Sie ist nichts anderes als ein umgedrehter Trackball. Um die Maus verwenden zu können, braucht man ein Stück freie Schreibfläche, auf der die Maus "herumgefahren" wird. Es gibt auch Mäuse ohne Mechanik, die per Fotozelle eine spezielle Unterlage abtasten ("optische" Maus).

    Trackball und Maus sind Eingabegeräte für relative Positionierung des Cursors oder Fadenkreuzes. Meist sind noch ein oder mehrere Tasten auf dem Gehäuse, mit denen, abhängig von der Software, gewisse Funktionen ausgelöst werden.

    8.3.7 Digitalisierer

    Digitalisierer (Digitalisiertabletts, Grafiktabletts) erlauben die direkte Eingabe einer zweidimensionalen Positionsinformation in den Computer. Auf einer vorgegeben Fläche wird ein "Stift" auf eine bestimmte Stelle gesetzt, worauf der Computer die Koordinaten des Punktes direkt übernimmt. Zur Bestimmung der Koordinaten werden verschiedene Methoden verwendet. Eine recht preiswerte Sorte Digitalisierer (zum Beispiel Koala-Pad), verwendet eine homogene Widerstandsschicht. Hier erfolgt die Messung in zwei Schritten:
    1. Zuerst wird die Widerstandsschicht in horizontaler Richtung beschaltet und die X-Position des Stiftes gemessen
    2. Danach die Y-Position durch Beschaltung in vertikaler Richtung
    Beim kapazitiven Digitalisierer befindet sich im Tablett ein feines Netz von vertikalen und horizontalen Leitern, die phasenverschoben angesteuert werden. Der aufgesetzte Stift detektiert das Feld über die sich ergebenden Koppelkapazitäten zwischen Leitern und Stift. Durch die Auswertung benachbarter Leitungen kann der Abstand der Leiter wesentlich größer, als die Auflösung sein.

    Elektromagnetische Digitalisierer verwenden ebenfalls ein feines Netz von vertikalen und horizontalen Drähten. Eine Interface-Schaltung stellt die Positionen eines Stiftes mit einer Aufnehmerspule fest. Das Arbeitsprinzip ist das gleiche, wie beim kapazitiven Digitalisierer.

    Nach einem ähnlichen Verfahren arbeiten die magnetorestriktiven Digitalisierer. Hier besteht das Netz aus ferromagnetischen Stahldrähten. Solche Stoffe besitzen die Eigenschaft, ihre Form unter magnetischen Einfluss geringfügig zu verändern. Eine Sendespule erzeugt im Draht eine magnetorestriktive Welle. Diese Längenänderung pflanzt sich als mechanische Spannungswelle (Geschwindigkeit ca. 5000 m/s) längs des Drahtes fort. Diese Welle induziert in der Aufnehmerspule eine Spannung. Aus der Laufzeit kann die Position des Stiftes ermittelt werden. Die mechanischen Anforderungen sind gering: die Drähte müssen nicht exakt parallel laufen und können einen Abstand von 2-3mm besitzen.

    8.3.8 Scanner (Abtaster)

    Scanner tasten eine beliebige Vorlage punktweise ab. Die Auflösung ist i. a. einstellbar. Es gibt verschiedene Abtastverfahren: Bei den ersten Abtastern wurde die Vorlage auf eine Trommel aufgespannt, die mit konstanter Geschwindigkeit rotiert. Eine Fotozelle wird in Richtung der Rotationsachse entlang der Vorlage bewegt. Bei jeder Umdrehung wird eine Zeile der Vorlage abgetastet.

    Bei modernen Scannern wird die Vorlage über ein optisches System auf eine Photodiodenzeile oder einen CCD-Sensor (CCD = Charge Coupled Device) abgebildet, der das eingelesene Punktraster-Bild an das DVS weiterleitet. Anstelle eines zweidimensionalen CCD- Sensors wird aus Kostengründen meist ein Liniensensor verwendet und die Vorlage zeilenweise abgetastet. Bei manchen Modellen ist der Sensor über der Vorlage angeordnet.

    Die Detailauflösung eines Scanner wird angegeben in dpi (dots per inch, Bildpunkte pro Zoll) Typischer Wert: 300 dpi 1 Zoll = 2,54 cm

    Eine weitere Möglichkeit der Abtastung ist die Digitalisierung eines Videobildes mit einem sogenannten 'Frame-Grabber'. Das Fernsehbild kann über eine relativ einfache Schaltung in einzelne Bildpunkte zerlegt werden:

    Sensortechnik

    Der Sensor ist das Herzstück eines jeden Scanners und einer jeden Digitalkamera. Er ist in erster Linie für die Qualität der aufgenommenen Bilddaten verantwortlich. Die Bauart des Sensors und seine Eigenschaften entscheiden auch hauptsächlich über die Eignung für eine bestimmte Anwendung. Im folgenden soll einzig der Aufbau und die Funktionsweise von CCD-Sensoren (Charge Coupled Devices = "Ladungssammelnde Bauteile") beschrieben werden. Diese Sensorbauart hat sich in den Videokameras für industrielle Bildverarbeitung durchgesetzt. CMOS-Sensoren und Sensoren für Wärmebildkameras werden hier nicht betrachtet. Diese unterscheiden sich ohnehin in erster Linie nur durch die Methode, mit denen sie aus Licht oder Wärmestrahlung Ladungen erzeugen. Der Ladungstransport ist ähnlich oder gleich wie bei CCDs.

    Ein CCD-Sensor besteht aus einem geometrisch sehr exakten Raster von lichtempfindlichen Zellen (Pixeln). Bei Lichteinfall (Photonen) auf einer dieser Zellen, wird eine Ladung (Elektronen) in dieser Zelle aufgebaut. Je mehr Licht oder je länger Licht auf die Zelle fällt, desto größer wird die Ladung (Zahl der Elektronen), die sich in der Zelle sammelt. Hier wird auch deutlich, daß die weitverbreitete Meinung falsch ist, die Bildinformation läge auf dem Sensor bereits in digitaler Form vor. Die Information wird durch die Anzahl der Elektronen in den Zellen repräsentiert und ist daher analog.

    Die einzelnen Pixel berühren sich nicht direkt, sondern sind je nach Sensortyp voneinanderdurch Stege oder Potentialwälle getrennt. So wird einerseits verhindert, daß die Ladungsträger (Elektronen) von der einen Zelle in die andere überlaufen, zum andern sind diese Stege auch für das Auslesen des Zelleninhalts von Bedeutung. Folglich füllen je nach Sensortyp die lichtempfindlichen Zellen nicht den ganzen Sensor, sondern ein Teil der Sensorfläche wird als Transport- bzw. Sperrflächen genutzt. Die von lichtempfindlichen Elementen bedeckte Fläche bezeichnet man auch als Fillfaktor. Ein Fillfaktor von 100% würde bedeuten, daß die ganze Fläche lichtempfindlich wäre. In der Realität ist der Fillfaktor immer kleiner als 100%, da die lichtunempfindlichen Sperr- und Transportmechanismen Platz beanspruchen. Nach der Belichtung der einzelnen Zellen werden die Ladungen ausgelesen. Dieser Vorgang erfolgt bei allen Sensortypen nach dem sogenannten Eimerkettenprinzip.

    Die Ladungen aus den Pixelelementen werden über Schieberegister ausgelesen. Im Schieberegister wird der Inhalt einer Zelle einer benachbarten Zelle übergeben. Dies kann durch verschiedene Schaltungen erreicht werden, welche die Barrieren zwischen zwei Zellen (Eimern) auf- oder abbauen. Um die Ladungen aus den Pixeln gerichtet zu transportieren, wird im allgemeinen ein Verfahren verwendet, das auf einem 2-, 3- oder 4-Phasen-Schieberegister aufbaut. Am Beispiel eines 4-Phasen-Schieberegisters soll hier das Verfahren beschrieben werden. Ein Schieberegister ist aus einzelnen 4-Phasen-Elementen aufgebaut.

    Jede der vier Zellen eines solchen Elements kann einzeln angesteuert werden. Durch eine geeignete Ansteuerung (4-Phasen-Clocking) kann erreicht werden, daß die Ladungen in dem Schieberegister gerichtet bewegt werden. Der Transport wird durch Auf- und Abbau von Ladungsschwellen und -Senken bewirkt.

    Mit Hilfe dieses Schieberegisters kann der CCD-Sensor ausgelesen werden. Alle gängigen Flächensensoren arbeiten nach dem gleichen Prinzip. Die Methode, mit der die Daten aus dem Sensor geschoben werden ist einfach und soll an einem vereinfachten Sensor gezeigt werden.

    1. Belichten des Sensors über einen definierten Zeitraum (Integration).
    2. Verschieben der gesammelten Ladung aller Pixelelemente in die benachbarten vertikalen Ausleseregister.
    3. Die Ladungen anschließend zeilenweise in das horizontale Schieberegister bringen.
    4. Das horizontale Schieberegister entleeren.
    5. Nun die nächste Zeile in das horizontale Schieberegister auslesen.

    Je nach Sensorgröße müssen diese Schritte solange wiederholt werden, bis der Sensor komplett ausgelesen ist.

    8.4 Audiotechnik im Computer und MIDI

    8.4.1 Elektroakustik

    Zu den klassischen elektronischen Einrichtungen, mit denen Informationen übermittelt werden, gehören elektroakustische Anlagen. Als Übermittler dient dabei primär der Schall.

    Komponenten im Überblick

    Grundsätzlich bestehen elektroakustische Anlagen aus verschiedenen Signalquellen, aus elektronischen Einrichtungen (Verstärker, Misch- und Verteileinrichtungen) sowie den Schallsendern, also den Lautsprechern.

    Als Signalquellen können Schallempfänger (Mikrofone) oder Speichereinrichtungen, wie Magnetbandgeräte, Schallplatten- und CD-Abspielgeräte, dienen. Rundfunkempfangseinrichtungen (Tuner) oder die Audioteile von Videorecordern sind ebenfalls häufig Signalquellen für solche Anlagen.
    Mikrofone geben eine Spannung von ungefähr 2 mV/Pa ab. Da die menschliche Stimme einen Schalldruck von ca. 0,5 Pa erzeugt, liefern Mikrofone eine Spannung von ca. 1 mV. In der gleichen Größenordnung liegen die Spannungswerte des Tonabnehmers am Schallplattenspieler. Wesentlich höhere Spannungswerte erhält man aus CD-Spielern, Magnetbandgeräten und dem Rundfunkempfangstuner, nämlich 100 ... 200 mV.
    Das Eingangsteil einer elektroakustischen Anlage hat die wichtige Aufgabe, die verschiedenen Pegel der Signalquellen aneinander anzupassen. Hier sind spezielle Eingänge für ein oder mehrere Mikrofone vorhanden, die mit zusätzlichen Vorverstärkern ausgestattet sind. Einen Vorverstärker hat auch der Eingang für den Plattenspieler mit elektromagnetischem Abtastsystem. Allerdings ist dieser gleichzeitig mit Korrekturgliedern zum Anpassen an die Schneidkennlinie der Schallplatten ausgestattet. Bei diesen werden nämlich, um einen geringen Rillenabstand und damit lange Spielzeiten zu erzielen, die tiefen Töne beim Aufnehmen mit konstanter Auslenkung und nicht mit ihrem tatsächlichen Stichelausschlag in die Platte geschnitten. Das hat zur Folge, dass die tiefen Frequenzen bei der Wiedergabe mit geringerer Spannung als die mittleren und hohen Frequenzen abgegeben werden. Sie müssen folglich mit Korrekturgliedern gegenüber diesen angehoben werden.
    Auf Verstärker und Korrekturglieder kann bei piezoelektrischen Kristalltonabnehmern verzichtet werden, weil diese ohnehin eine höhere Spannung als die mit elektromagnetischem Abtastsystem abgeben und die tiefen Frequenzen von Natur aus anheben. Wegen ihrer mäßigen Qualität (Verzerrungen, Frequenzgang) verwendet man sie in Beschallungsanlagen nur in Notfällen.

    Mikrofone

    Heute verwendet man als Schallempfänger meistens dynamische Mikrofone. Kristall-, Kohlegrieß- und magnetische Mikrofone beeinflussen die Verständlichkeit sehr ungünstig, weshalb man sie möglichst meidet. Kondensatormikrofone bieten zwar sehr hohe Aufnahmequalität, sind aber sehr teuer und damit nur im Studiobetrieb zu finden. Elektrodynamische Mikrofone, auch Tauchspulmikrofone, nutzen das elektrodynamische Prinzip aus, das heißt, eine Spule wird durch den auf die Membran einwirkenden Schall im Luftspalt eines Topfmagneten bewegt. Dadurch wird in der Spule eine Spannung induziert.

    Wie man im Schnitt des Tauchspulmikrofons erkennt, ist die Schwingspule mit einer Membran verbunden, die den Schalldruck direkt in Spulenbewegungen umsetzt.
    Eine besondere Form des elektrodynamischen Mikrofons ist das Bändchenmikrofon. Bei ihm schwingt zwischen den Polen eines Magneten ein zwei Mikrometer dickes und vier Millimeter breites Metallbändchen, das gleichzeitig als Membran dient. Durch seine geringe Masse erhält man geringe Verzerrungen und ebenso hochwertige Aufnahmen wie mit Kondensatormikrofonen. Leider liefern sie nur geringe Ausgangsspannungen, sind recht groß und schwer und dazu noch relativ teuer. Deshalb werden sie kaum noch verwendet.
    Zu den Mikrofonkenngrößen, die nicht vom Wandlungsprinzip abhängen, zählt die Richtcharakteristik. Die Richtcharakteristik gibt die Empfindlichkeit in Abhängigkeit vom Schalleinfallswinkel an. Durch konstruktive Maßnahmen lassen sich Kugel-, Achter- und Nierencharakteristik erzielen.

    Verständlichkeit

    Für die Verständlichkeit sind mehrere Faktoren maßgebend:

    Bei den Lautsprechern hat sich auch das dynamische Wandlerprinzip durchgesetzt, bei dem sich eine vom Signalstrom durchnossene Spule im Luftspalt eines Permanentmagneten bewegt und eine Membran antreibt.

    Bei der Lautsprecheranordnung müssen die akustischen Eigenschaften des Raumes unbedingt berücksichtigt werden. Unterlässt man das, so erhält man Zustände wie auf vielen Bahnhöfen. Für eine verständliche Sprachdurchsage haben sich Hornlautsprecher bewährt. Das sind Kalottenlautsprecher mit vorgesetztem Exponentialtrichter. Mit ihnen lassen sich hohe und mittlere Frequenzen bei gutem Wirkungsgrad abstrahlen. Sie werden auch Druckkammerlautsprecher genannt, weil die Kalotte die Luft in eine abgeschlossene Kammer geringeren Querschnitts hineindrückt. Dabei findet eine sogenannte Geschwindigkeitstransformation statt, das heißt, die Geschwindigkeit der Luftteilchen erhöht sich im Verhältnis zwischen Kalottenquerschnitt und Druckkammerquerschnitt. Mit den schnellen Luftteilchen wird ein vor die Druckkammer gesetzter Exponentialtrichter, ähnlich wie ihn viele Blasinstrumente haben, angeregt. Für tiefe Frequenzen müsste der Trichter zu große Abmessungen haben. Deshalb wird er meistens gefaltet.

    8.4.2 Klang- und Tonerzeugung

    Zunächst wollen wir uns mit der Erzeugung von Klängen beschäftigen. Künstliche Töne oder Klänge werden ja dadurch erzeugt, daß die Membran eines Lautsprechers durch elektrische Signale in Schwingung versetzt wird. Je nachdem, wie oft in der Sekunde die Polarität des Stroms durch die Magnetspule des Lautsprechers wechselt, hören wir einen tiefen (wenige Wechsel) oder einen hohen Ton ( viele Wechsel). Die Höhe eines Tons (= Frequenz) wird in Hertz (= Schwingungen pro Sekunde) angegeben. Ausgegangen wird dabei zuerst immer von Sinusschwingungen. Man kann eine Sinusschwingung durch folgende Gleicung beschreiben:

    f(t) = a*sin(2*PI*f*t)

    Wie man sieht, hat die Funktion nur zwei Parameter, die sich variieren lassen: Die Amplitude a (= Lautstärke, gemessen in dB) und und die Frequenz f (= 1/Wellenlänge = Tonhöhe). Eine einfache Sinusschwingung gibt somit einen recht langweiligen Ton.

    Um unterschiedliche Klangfarben zu erzeugen, muß man verschiedene Wellenformen wählen und diese Wellenformen miteinander mischen. Bezeichnet wird die Wellenform nach Ihrem Aussehen auf dem Bildschirm eines Oszilloskops. Die "reinste" Form ist die oben erwähnte Sinuslinie. Eine Dreieckschwingung klingt schon härter. Sie wird folgendermaßen aus Sinusschwingungen zusammengesetzt:

    Entstehung Dreieckschwingung

    Die Rechteckschwingung (praktisch das Ein- und Ausschalten des Stroms) hat den schärfsten Klang. Sie entsteht ebenfalls aus einem Gemisch von Sinusschwingungen:

    Entstehung Rechteckschwingung

    Durch Überlagern und Mischen von unterschiedlichen Schwingungsformen von verschiedener Frequenz entstehen dann ganz charakteristische Klänge. Die Erzeugung dieser Töne faßt man unter dem Begriff 'Klangsynthese' zusammen.

    Fourier: Jede Schwingung kann als Summe von Sinusschwingungen dargestellt werden:

    Lineare Synthese

    In der Elektronik gibt es zwei grundsätzliche Methoden, um die Erzeugung von Klängen aus Teiltongemischen technisch zu verwirklichen. Bei der additiven Klangerzeugung werden Sinustöne gemischt, bei der subtraktiven Sinustöne aus einem Klanggemisch ausgefiltert. Beides sind Verfahren der linearen Synthese, in der ein geradliniger Zusammenhang zwischen Eingabe und Ausgabe besteht. _brigens werden auch Farben mit additiven und subtraktiven Verfahren erzeugt, denn von der mathematischen Theorie her besteht in dieser Hinsicht kein wesentlicher Unterschied zwischen Licht- und Tonschwingungen. Etwas von dieser Gemeinsamkeit kommt darin zum Ausdruck, daß Musiker ebenso gern von 'Klangfarben' wie Maler von 'Farbtönen' sprechen.
    Es kommt bei einem System, das mit der additiven Synthese arbeitet, nur das heraus, das man vorher hineingetan hat. Heißt z. B. eine Eingabe a, bei der das Ergebnis a' lautet, und eine andere b mit dem Ergebnis b', dann erhält man bei Eingabe von a+b das Ergebnis a'+b'. Man spricht von einem linearen System, und auch die subtraktive Synthese verhält sich in dieser Weise linear.
    Die nichtlinearen Systeme der Klangsynthese zeichnen sich hingegen dadurch aus, daß sie Frequenzen erzeugen, deren Komponenten man vorher nicht 'direkt' eingegeben hatte.

    Der additiven Synthese liegt die Idee zugrunde, komplexe Schwingungen durch Addition von einfachen zu erhalten, wie es die Fourier-Methode ermöglicht. Sie heißt daher auch Fourier-Synthese. Als Ausgangspunkt dienen Sinusschwingungen, die im richtigen Mischungsverhältnis, d.h. mit passender Tonhöhe und Lautstärke, gleichzeitig erklingen. Dadurch entstehen die oben beschriebenen Wellenformen (Dreieck-, Sägezahn- oder Rechtecksschwingungen).

    Additive Synthese

    Die additive Synthese spielte besonders in frühen elektronischen Instrumenten wie der Hammond-Orgel eine wichtige Rolle. Bei den Konstrukteuren digitaler Computer ist die additive Synthese wegen ihres hohen Rechenaufwandes wenig beliebt. Eine weitere sehr interessante Anwendung ist das Erzeugen akustischer Illusionen. Man kann Töne synthetisieren, die die Illusion erzeugen, ständig höher zu werden, ohne jemals den Hörbereich zu verlassen (Shepard-Effekt).

    Führt bei der additiven Analyse der Syntheseweg von einfachen Klanggemischen zu Komplizierten, so ist es bei der subtraktiven Synthese gerade umgekehrt. Aus einem komplexen Signal, das möglichst viele Teiltöne enthält (z. B. ein Rechtecksignal), werden die unerwünschten Komponenten ausgefiltert.

    Subtraktive Synthese

    Viele der ersten Synthesizer benutzen diese Anordnung, z. B. die Moog-Synthesizer. Auch bei Elektroorgeln sind Sägezahnwellen, die (fast) alle Teiltöne enthalten, oder Rechteckswellen beliebt. Die subtraktive Synthese ist auch das natürliche Prinzip, nach dem traditionelle Instrumente wie Flöte, Geige, Klavier usw. funktionieren, denn bei ihnen wirken Stoff und Form der Resonanzmaterialien wie Holz, Metall, Darm usw. als natürliche Filter. Resonanz bedeutet, daß auf Grund der Eigenschaften eines Materials bestimmte Frequenzbereiche besonders hervorgehoben werden.
    Ausgeprägte Resonanzen über feste Frequenzbereiche heißen Formantbereiche. Für den Vokal 'u' liegt ein solcher Bereich beispielweise zwischen 200 und 400 Hz, beim 'o' von 400 bis 600 Hz und beim 'a' zwischen 800 und 1200 Hz. 'e' und 'i' haben sogar jeweils zwei Formanten, das 'e' bei 400 bis 600 Hz bzw. 2200 bis 2600 Hz, das 'i' bei 200 bis 400 Hz bzw. 3000 bis 3500 Hz. Mund- und Zungenstellung wirken dabei wie Filter, die bestimmte Frequenzen durchlassen oder abschwächen. In der Elektronik kann sich Resonanz so stark aufschaukeln, daß selbständige Töne entstehen (Selbsterregung). Für solche Effekte wurden besonders die Filter der Moog-Synthesizer berühmt. Man baut also mit elektronischen Mitteln natürliche Modelle nach, und das Basismodell, auf dem die subtraktive Synthese beruht, besteht darin, daß die Klänge einer irgendwie angeregten Klangquelle einem Resonanzsystem zugeführt werden.
    Kombiniert man additive und subtraktive Synthese, erhät man weitere Variationsmöglichkeiten.

    Sound-Synthese

    Nichtlineare Synthese

    Durch die digitalen Synthesizer wurden ältere, seit dem vorigen Jahrhundert entwickelte technische Verfahren zur Klangsynthese zwar nicht überflüssig. Im Gegenteil: auch der digitale Synthesizer machte reichlich von ihnen Gebrauch. Seine Stärke ist jedoch das Rechnen die neuentwickelten nicht-linearen Verfahren zur Klangsynthese sind daher mathematische Rechenverfahren, die erst durch die Digitaltechnik technisch zu realisieren waren.
    Zur Erzeugung von Schwingungsformen braucht der digitale Synthesizer Zahlenwerte. Diese erzeugt er entweder selbst durch Rechenmechanismen, indem er z. B. die Werte einer Dreiecksschwingung ausrechnet, oder aber er entnimmt sie einer vorher im Speicher abgelegten Wellentabelle (Wavetable). Diese kann als Ausgangsmaterial für neue Töne digitalisierte Klänge traditioneller Instrumente enthalten. Bei der Klangsynthese werden die Wavetables vielfach verändert und einer nichtlinearen Wellenformung (waveshaping) unterworfen. Nichtlineare Klangformungsmethoden sind sehr wirksam, weil sie mit relativ wenig Aufwand sehr komplexe Klänge erzeugen können. Daraus ergeben sich aber auch Probleme in der Beherrschbarkeit solcher Verfahren. Man will ja nicht irgendwelche Klänge, sondern musikalisch brauchbare, die sich leicht steuern lassen, und das ist bei der nichtlinearen Synthese nicht mehr selbstverständlich. Ihre größten Erfolge haben nichtlineare Methoden bei komplizierten Glocken und Perkussionsklängen, bei denen auch starke Geräuschanteile benötigt werden.

    FM-Synthese

    Um 1973 entwickelte John Chowning, Professor an der amerikanischen Stanford-Universität, die FM-Synthese (von Frequency Modulation = Frequenzmodulation). Sie beruht auf Methoden der höheren Mathematik, die nicht nur Summen und Integrale (wie die Fourier-Analyse) benötigen, sondern auch bestimmte Formen von Differentialgleichungen (Besselfunktionen). Chownings Verfahren wurde in unterschiedlicher Form in zahlreichen Synthesizern der 80er und 90er Jahre eingesetzt.

    FM-Synthese

    Man verwendet für FM-Synthese im einfachsten Fall zwei Freqenzgeneratoren, wobei der eine Generator die 'Trägerschwingung', also den eigentlichen Ton, erzeugt. Der zweite Generator erzeugt die 'Modulatorschwingung', welche die Trägerschwingung beeinflusst. Das Signal besteht also aus der Addition beider Schwingungen und folgt dann der (nichtlinearen) Gleichung:

    f(t) = a1*sin(2*PI*f1*t + a2*sin(2*PI*f2*t))

    Während der Träger direkt mit dem Ausgang verbunden ist, hört man den Modulator nur in seiner Auswirkung auf den Träger. Die Veränderungen des Trägers sind durch die Ausgangslautstärke des Modulators einstellbar. Die Veränderung dieses Ausgangspegels kann durch eine Hüllkurve erfolgen, wodurch der Ton lebendiger und dynamischer wird. In der Praxis wird die FM-Synthese noch mit diversen Rückkopplungsmöglichkeiten verknüpft. Dazu schaltet man den Ausgang des Trägers zurück auf seinen Modulationseingang, wie dies im Bild obe durch die gestrichelte Linie angedeutet ist.

    Bei einem Klang, zum Beispiel der Ton eines Klaviers, sind aber noch weitere Parameter zu berücksichtigen. Der wichtigste Parameter ist hier wohl die Änderung der Lautstärke über die Zeit. Wenn Sie eine Taste anschlagen, hört nach dem Loslassen der Taste der Ton ja nicht sofort auf, sondern er fällt langsam ab. Man bezeichnet den Verlauf der Lautstärke als Hüllkurve. Die einzelnen Teile der Hüllkurve haben alle eine bestimmte Bedeutung. Beim Anschlagen der Taste (Anblasen einer Flöte, Streichen mit dem Bogen) "Attack" steigt die Lautstärke von Null auf ihr Maximum, um dann sofort wieder abzufallen "Decay". Läßt sich der Ton halten ("Sustain") sinkt die Lautstärke nur auf den Haltewert, um dann nach den Ausschalten auf Null abzusinken ("Release").

    Hüllkurve

    Man kann den Ton nun weiter manipulieren. Durch einen weiteren Generator mit sehr niedriger Frequenz (LFO) kann man ein Vibrato erzeugen, indem man die Frequenz des Tons mit dieser Niedrigst-Frequenz (einige Hertz) moduliert. Hinter die Frequenzerzeugung lassen sich Filter schalten, die den Klang weiter verändern. Das läßt sich zum Teil sogar ohne jegliche Hardware rein rechnerisch machen; viele Computer verwenden jedoch bestimmte integrierte Bausteine für diesen Zweck, sogenannte Soundgeneratoren. Die von diesen Bausteinen erzeugten Töne klingen je nach dargestelltem Instrument stärker oder weniger stark "künstlich".

    Um die Klänge realer Instrumente naturgetreu wiederzugeben, läßt sich aber auch eine andere Methode verwenden. Man schließt an den Computer einen Analog-Digital-Wandler an, der die komplette Wellenform von Klängen aufzeichnet. Um hier gute Ergebnisse zu erzielen, braucht man nicht nur Bausteine, die sehr schnell arbeiten, sondern der Computer benötigt auch einen großen Speicher zur originalgetreuen Aufzeichnung der Klänge. So aufgezeichnete Instrumente klingen dafür auch sehr realistisch. Früher hat man solche Klänge nur extern gespeichert (z. B. auf der Festplatte) und per Abspielprogramm wiedergegeben. Heute bieten auch die Soundkarten bereits gespeicherte Klänge ('Wavetable-Modul').

    8.4.3 Digitalisierung von Tönen

    Zur Aufnahme wird ein Analog-Digital-Umsetzer verwendet, der die vom Mikrofon oder der Audio-Quelle stammenden analogen Signale in digitale Werte umwandelt.

    A/D-Wandlung

    Digitalisierung ist ein Prozeßblock, der aus zwei Teilen besteht. Der erste hat die Aufgabe, das aufgezeichnete Material in eine computergerechte Form zu bringen, es wird analog/digital gewandelt (A/D-Wandlung). Das folgende Bild zeigt, wie aus einer analogen Sinuskurve eine Wavetable, d. h. eine Zahlenmenge, wird. Der zweite Teil muß die Ergebnisse der Arbeit des Computers wieder den menschlichen Sinnen zugänglich machen, und zwar durch den umgekehrten Vorgang, die Digital-Analog-Wandlung (D/A-Wandlung).

    A/D-Wandlung

    Das entscheidende Charakteristikum der Digitalisierung besteht darin, daß aus einem kontinuierlichen Kurvenzug mit unendlich vielen Zwischenwerten eine kleine Menge diskreter Punkte wird. Der analoge Ton kann rein theoretisch in unendlich viele Werte zerlegt werden, er ist ein kontinuierliches Signal, das durch den Digitalisierungsvorgang in eine endliche Anzahl von Einzelpunkten aufgelöst wird. Auch wenn eine analoge Schwingung nur die endliche Zeitdauer von einer Sekunde hat, setzt sich diese doch aus unendlich vielen Zeitpunkten zusammen. Die Digitalisierung ändert daher eine wichtige Eigenschaft des analogen Signals, indem sie es aus einem kontinuierlichen und unendlichen in ein diskretes und endliches verwandelt.

    Wie läuft so etwas technisch ab? Der Schlüsselbegriff der modernen Digitaltechnik heißt Sampling (sample = Beispiel, Muster). Ein digitales Signal entsteht dadurch, daß von einem analogen Signal Samples genommen werden. Diese Abtastung geschieht in regelmäßigen Abständen mit hoher Geschwindigkeit, typisch sind 40 bis 50 kHz. Die 'Löcher' der digitalen Welle im Bild oben werden dadurch gefüllt, es entsteht eine treppenförmige Kurve. Der Abstand jedes Punktes von der Null-Linie ist der Digitalwert, der als reiner Zahlenwert gespeichert wird. Mit einer für Soundadapter üblichen Sampling-Rate von 48 KHz sind das 48000 Werte pro Sekunde, die einen entsprechenden Speicherplatzbedarf haben. Ein zweites Kriterium ist die Auflösung eines Samples, d. h. in wieviele Stufen der Spannungsbereich zwischen Null und der maximalen Ampkitude aufgeteilt wird.

    Die Digitalisierung führt zu einer Reihe von störenden Nebenwirkungen, die grundsätzlicher Natur sind und durch besondere Maßnahmen beseitigt werden müssen. Sie treten bei der Wiedergabe, d. h. der D/A-Wandlung, auf. Angenommen man hätte pro Welle einer Schwingung nur ein einziges Sample genommen. Dann gibt es bei der D/A-Wandlung mehrere (!) Möglichkeiten, aus diesem eine analoge Schwingung zu rekonstruieren. Da man dann nicht weiß, wo die negative Halbwelle liegt, paßt z. B. auch eine Welle mit halber Frequenz zu diesem Wert. Wir brauchen also mindestens zwei Werte, um eine Schwingung aus Wellenberg und Wellental richtig vermessen zu können. Die folgende Grafik illustriert diese Problematik:

    Nyquist-Theorem

    Daraus erklärt sich auch z. B. die bei CD-Spielern verbreitete Sampling-Rate von 44,1 KHz. Da der Mensch Töne bis etwa 20 kHz hören kann, müssen diese mit der doppelten Frequenz abgetastet werden, damit sie eindeutig analysierbar sind. Man kann beweisen, daß bei Erfüllung der beiden folgenden Forderungen keine Informationsverluste entstehen, wenn das digitale Signal wieder in ein analoges zurückverwandelt wird:

    1. Die Sampling-Rate muß mindestens doppelt so groß sein wie die höchste zu verarbeitende Frequenz.
    2. Das Signal darf keine Frequenzen enthalten, die über der halben Sampling-Rate liegen.

    Beide Forderungen folgen aus zwei wichtigen Forschungsergebnissen der Nachrichtentechnik und Informationstheorie. Harry Nyquist formulierte 1928 das Nyquist-Kriterium, nach der man eine Sampling-Frequenz finden kann, mit der es möglich ist, ein digitalisiertes Signal verlustfrei wieder zurückzuverwandeln. Der amerikanische Mathematiker Claude E. Shannon stellte 1949 das Abtasttheorem auf. Es gibt an, wie viele Werte man für eine verlustfreie Rekonstruktion des Ausgangssignals benötigt. Aus technischer Sicht folgt aus allem, daß man unbedingt sicher gehen muß, daß keine höheren, möglicherweise außerhalb des Hörbereichs liegende Frequenzen in dem zu digitalisierenden Signal enthalten sind. Andemfalls treten hörbare Störungen auf, die man als Aliasing (von lat. alias = anders) bezeichnet. Daher wird am Eingang eines A/D-Wandlers ein Tiefpaßfilter eingesetzt, das alle unerwünschten Frequenzen unterdrückt. Die moderne CD-Technik erleichtert dies noch durch Oversampling. Dabei wird das Eingangssignal mit einer sehr hohen Frequenz abgetastet (bis zu 6 MHz), die die Filterung verbessert, wonach dann die erhaltenen Werte auf die eigentliche Sampling-Frequenz (z. B. 48 kHz) heruntergerechnet werden.

    Zur Wiedergabe wird umgekehrt ein Digital-Analog-Umsetzer verwendet, der die digitalisierten Wellenformen wieder in analoge Spannungsschwankungen umsetzt. Danach kann über einen Verstärker und Lautsprecher die Umsetzung in akustische Schwingungen erfolgen. Die 'Lücken' bzw. 'Treppen' eines digitalen Signals müssen wieder durch ein Filter beseitigt werden. Auch hier hilft Oversampling bei der Unterdrückung von Störungen, u. a. bei der Reduzierung von Quantisierungsrauschen, das während des Digitalisierungsprozesses entsteht.
    Die Manipulation der Abtastrate ermöglicht aber auch typische Sampler-Effekte. Wird etwa das Sample bei der Wiedergabe mit einer anderen Abtastrate als bei der Aufnahme abgespielt, ändert sich die Tonhöhe.

    Hardware zur Aufnahme und Wiedergabe von Tönen

    In den Soundinterfaces und -karten werden Synthesizer eingesetzt, die den Ton aus Komponenten zusammensetzen: Dabei überlagern sich die einzelnen Wellen zu einer Gesamtwelle, die den Klang ergibt. Dieser Klang ist jedoch immer etwas künstlich. Um originalgetreuere Klänge zu erzeugen müssen andere Wege beschritten werden.

    Mit der Wavetable-Synthese wird eine Kompromißlösung beschrieben. Hier werden die Klangformen digital abgespeichert und nur die Tonhöhe und Dauer programmiert. Damit lassen sich natürlich klingende Instrumente erzeugen ohne zuviel Speicher zu belegen.

    Will man noch mehr Flexibilität, so kann die gesamte Wellenform digitalisiert werden. Damit lassen sich dann auch Sprache und Geräusche auf dem Rechner wiedergeben. Zur Aufnahme wird ein Analog-Digital-Umsetzer verwendet, der die vom Mikrofon, oder der Audio-Quelle stammenden analogen Signale in digitale Werte umwandelt.

    Soundkarten erlauben meist unterschiedliche Werte für die Abtastrate: 11 kHz, 22 kHz, 44 kHz und 48 kHz oder stufenlose Einstellung. Um den Alias-Effekt bei niederen Abtastraten zu vermeiden, ist meist ein Filter vorhanden, der höhere Frequenzanteile unterdrückt, also werden beispielsweise bei einer Abtastrate von 11 kHz Frequenzen die höher als 5.5 kHz sind unterdrückt.

    Wenn man Stereo-Sound ausgeben will, so benötigt man für jeden Kanal eine Wave-Datei. Die Wave-Dateien benötigen der Abtastrate entsprechend viel Speicherplatz. Bei 22 kHz sind das entsprechend 22000 kByte pro Sekunde Audio. Die Werte liegen bei den Soundkarten im übrigen nicht genau bei 11 kHz, 22 kHz oder 44 kHz, sondern es sind 11025 Hz, 22050 Hz und 44100 Hz.

    Diese Werte kommen nicht von ungefähr, sondern sind typische Werte aus dem täglichen Leben. Dazu ein paar Beispiele:

    QualitätAbtastrate [kHz]Auflösung [bit]Mono/StereoDatenrate [KByte/s]
    Telefon88Mono8
    AM Radio118Mono11
    FM Radio2216Stereo88
    CD4416Stereo176
    DAT4816Stereo192

    8.4.4 MIDI

    MIDI ist die Abkürzung für "Musical Instruments Digital Interface". Es handelt sich um eine genormte Schnittstelle für elektronische Musikinstrumente, die Anfang der achtziger Jahre entwickelt wurde.

    In dieser MIDI-Norm wurde festgelegt, wie ein Steuercomputer mit den Musik-Geräten wie Synthesizer, Keyboard oder Drum-Box zu kommunizieren haben. Die Signale werden seriell, also Bit für Bit gesendet und empfangen und zwar mit einer Geschwindigkeit von 31250 Bits/Sekunde. Die Übertragung erfolgt asynchron, das heißt, daß den Daten ein Starbit vorangestellt wird und ein Stopbit folgt:

    Das Datenformat erinnert stark an die Übertragung mit der seriellen V.24-Schnittstelle, lediglich die elektrischen Eigenschaften sind anders. Man kann aber die gleichen Schnittstellen-Bausteine verwenden, die man auch für die serielle Computerschnittstelle verwendet. Die Datenbits, die zum Beispiel vom Keyboard an die anderen Geräte gesendet werden, haben unterschiedliche Funktionen. Zuerst wird ein Statusbyte gesendet, das durch ein Einsbit an der ersten Stelle erkennbar ist. Dieses Byte beschreibt den Inhalt und die Anzahl der nachfolgenden Datenbits und bestimmte logische Einheiten des angesprochenen Geräts selektiert. Mit den Datenbytes, deren erste Stelle immer Null ist, lassen sich dann Informationen über die gerade gedrückte Taste, die Stärke des Anschlags, Änderungen in Klangfarbe, Tonhöhe oder Hüllkurve übermitteln. Steuert man zum Beispiel mit einem Keyboard weitere Keyboards, dann verhalten sich alle angeschlossenen Klaviaturen so, als würde bei ihnen die gleiche Taste mit der gleichen Anschlagstärke gedrückt.

    MIDI-Verbindung

    Ist nun ein Computer als 'MIDI-Sequencer' ans Keyboard angeschlossen, kann er die Daten aufnehmen und speichern. Durch späteres 'Abspielen' der MIDI-Daten lassen sich die elektronischen Musikinstrumente wieder ansteuern. Man kann die Daten aber auch auf einem Sythesizer (extern oder auf der Soundkarte ausgeben und so die Instrumente 'simulieren'.

    Computer als MIDI-Sequencer

    Die MIDI-Schnittstelle kann insgesamt 16 verschiedene, voneinander unabhängige Übertragungswege (Kanäle) auf einer Leitung bedienen. Die gesteuerten Instrumente werden dabei jeweils mit ihrem MIDI-IN-Eingang an die MIDI-THRU-Buchse des Vorgängers angeschlossen. Das erste geseuerte Gerät wird an den MIDI-OUT-Ausgang des steuernden Instruments angeschlossen.

    Anschluss mehrerer Geräte

    Das MIDI-Betriebssystem bietet drei Betriebsarten (Modi) um die Informationsübertragung auch sinnvoll zu nutzen: Omni-, Poly- und Mono-Mode. Diese Betriebsarten werten die Informationen, die von der Schnittstelle kommen, unterschiedlich aus:

    Auf den derzeit existierenden Geräten existieren jedoch noch viele Einschränkungen der mannigfachen Möglichkeiten, die von MIDI geboten werden.

    Auch die Schaltung der MIDI-Schnittstelle unterscheidet sich von der seriellen Computerschnittstelle. Damit sich die verschiedenen Musik-Maschinen der unterschiedlichsten Hersteller auf jeden Fall gut vertragen, ist der MIDI-Eingang durch einen Optokoppler elektrisch vollkommen von der Schaltung des jeweiligen Geräts getrennt (so kann auch durch einen Kurzschluß nicht die gesamte Anlage 'in die Luft gehen'). Vom Optokoppler geht es dann zum Schnittstellenbaustein (UART), der aus den seriellen Bits wieder ein Byte zusammensetzt. Gleichzeitig läuft das Signal zu einer Buchse (MIDI-THRU), die das Signal an nachfolgende Geräte weitergibt. Der Ausgang des Geräts (also vom UART) geht direkt an die Ausgangsbuchse. Zur Verbindung der Geräte werden die im Audio-Bereich üblichen 5poligen DIN-Buchsen verwendet und man kann beliebige Verbindungskabel mit 5poligen DIN-Steckern zum Koppeln der einzelnen Geräte verwenden.

    MIDI-Schnittstelle

    Aber auch mit solchen Sicherheits-Schaltungen gibt es Probleme, wenn die Kette aus zuvielen Geräten besteht. Es entstehen geringe Laufzeiten und Signalverzerrungen. Man greift dann zu einen MIDI-Verteiler und bedient die angeschlossenen Geräte sternförmig vom Sequencer aus.

    Anschluss mehrerer Geräte über Box

    Bei den meisten Soundkarten, z. B. Soundblaster, ist dieser Teil der MIDI-Schnittstelle nicht auf der Karte enthalten, er befindet sich in der externen MIDI-Box. Die folgende Schaltung zeigt, wie so eine MIDI-Box aussehen könnte. Die Pinnummer auf der rechten Bildseite bezeichnen die Pins der 15poligen SUB-D-Buchse auf der Soundkarte, die Pinnummern auf der linken Seite die Anschlüsse der MIDI-DIN-Buchse.

    MIDI-Box für Soundkarten

    Es gibt noch zahlreiche weitere E/A-Geräte, die hier nicht besprochen wurden, z. B. Lesegeräte für Strichcodes, berührungsempfindliche Bildschirme, "Datenhandschuhe" mit Lageerkennung (X-, Y-, Z-Koordinate im Raum) und Dehnmessstreifen in den Fingern, Datenhelme mit Lageerkennung und integriertem Stereo-Monitor sowie die gesamte Prozessperipherie (Robotersteuerung, Mustererkennung, etc.).

    Zum vorhergehenden Abschnitt Zum Inhaltsverzeichnis Zum nächsten Abschnitt


    Die HTML-Fassung entstand unter Mitwirkung von Volker Arndt
    Copyright © FH München, FB 04, Prof. Jürgen Plate