Menu

Die Mikroprozessoren

Während bis Ende der 1960er Jahre Prozessoren aus Einzelbauteilen und integrierten Schaltungen mit geringer Integrationsdichte hergestellt wurden, war es danach möglich, alle Einheiten des Prozessors auf einem Chip unterzubringen, auf dem jeder Schalter als elementarer Baustein im Durchmesser nur einige Mikrometer an Platz beansprucht - der Mikroprozessor war geboren. Der erste kommerziell erfolgreiche war der 1971 vorgestellte 4-Bit-Prozessor 4004 von Intel. Es gab schon Ende der 60er Jahre einen Microprozessor von Rockwell (PPS4 (Parallel Processing System 4bit)), der aber nur für US-Rüstungsprojekte bei Raketensteuerungen Verwendung fand.Zunächst waren dies noch recht einfache Schaltungen. Die Mikroelektronik brachte neben der Miniaturisierung und der enormen Kostenersparnis noch weitere Vorteile wie Geschwindigkeit, geringer Stromverbrauch, Zuverlässigkeit und später auch höhere Komplexität. Dies führte dazu, dass vergleichsweise billige Mikroprozessoren mit der Zeit die teuren Prozessoren der Minicomputer und teilweise sogar der Grossrechner verdrängten. Gegen Ende des zwanzigsten Jahrhunderts hielt der Mikroprozessor Einzug in viele elektronische Geräte, vor allem als CPU von Personal Computern (PCs). Auch als die Strukturgrösse der Mikroprozessor-Chips auf einige hundert Nanometer (Nanoelektronik) weiter verkleinert wurde, blieb der Begriff Mikroprozessor bestehen.

Zur Realisierung eines kompletten Computers muss der Mikroprozessor noch um Speicher und Ein-/Ausgabe-Funktionen erweitert werden. Diese stehen in Form weiterer Chips zur Verfügung. Nur wenige Jahre nach der Einführung von Mikroprozessoren erschienen jedoch auch sog. Mikrocontroller, die diese Funktionen auf einem Chip vereinigten.

Steuerung durch Befehle

Alle Computerprogramme liegen als binäres Bitmuster im Speicher vor. Diese Bitmuster sind prozessorspezifisch: bestimmte Muster lösen bei unterschiedlichen Prozessoren unterschiedliche elementare Befehle aus. Derartige elementare Prozessorbefehle lassen sich prozessorspezifisch in Maschinensprache oder Assemblersprache programmieren, allerdings ist das Programm dann nicht portabel. Zur Umgehung dieses Problems benutzt man Hochsprachen, etwa C, C++, FORTRAN oder Pascal. Ein spezielles Übersetzungsprogramm (Compiler) setzt dann das Hochsprachenprogramm in für den Prozessor geeignete Maschinensprache um.

Aufbau

Ein Mikroprozessor besteht aus Registern, einem Rechenwerk, einem Befehlsdecoder sowie einem Steuerwerk. Das Rechenwerk ist für arithmetische und logische Funktionen zuständig, Befehlsdecoder und Steuerwerk sind für die Ausführung der Befehle und die Koordination der Funktionseinheiten zuständig. Die Register bilden eine Art kleiner „Spezialspeicher“ für Zwischenergebnisse (z. B. von Rechenoperationen), auf die besonders schnell zugegriffen werden kann. Zur Erhöhung der Rechengeschwindigkeit können Prozessoren mit Caches oder besonderen (etwa einem Hardwaremultiplizierer) bzw. zusätzlichen (etwa einem Fliesskommarechenwerk) Rechenwerken ausgestattet sein. Zur effizienteren Bearbeitung von Befehlen werden Pipelines verwendet. Alle komplexeren Mikroprozessoren sind interruptfähig, d.h. eine Unterbrechung des Programmablaufes wird durch ein externes Signal bewirkt. Einige (sehr einfach aufgebaute und damit sehr billige) Prozessoren haben keine Interruptfähigkeit, sondern müssen über Software abfragen, ob ein äusseres Ereignis vorliegt. Diese Mikroprozessoren kommen bei extrem preissensitiven Bereichen wie Spielzeug u.ä. zum Einsatz.

Befehlsbearbeitung

Die Befehlsbearbeitung moderner Mikroprozessoren folgt dem Von-Neumann-Zyklus. Die wichtigsten Phasen sind dabei das Laden des Befehls (FETCH), seine Dekodierung (DECODE) und seine Ausführung (EXECUTE). Gelegentlich unterscheidet man auch noch eine Rückschreibphase, in welcher die Rechenergebnisse in bestimmte Register geschrieben werden. Da moderne Mikroprozessoren parallele Techniken wie etwa Pipelining und Superskalarität einsetzen, werden unter Umständen mehrere Befehle gleichzeitig in dieser Weise bearbeitet.

Ungeordnete Befehlsausführung

Die meisten modernen Hochleistungsprozessoren sind in der Lage, Befehle in ungeordneter, d.h. nicht strikt in der vom Programm vorgegebenen Reihenfolge auszuführen. Die Motivation für eine Abweichung von der vorgegebenen Befehlsfolge besteht darin, dass aufgrund von Verzweigungsbefehlen der Programmlauf nicht immer sicher vorhergesehen werden kann. Möchte man Befehle bis zu einem gewissen Grad parallel ausführen, so ist es in diesen Fällen notwendig, sich für eine Verzweigung zu entscheiden und die jeweilige Befehlsfolge spekulativ auszuführen. Es ist dann möglich, dass der weitere Programmlauf dazu führt, dass eine andere Befehlsfolge ausgeführt werden muss, so dass die spekulativ ausgeführten Befehle wieder rückgängig gemacht werden müssen. In diesem Sinne spricht man von einer ungeordneten Befehlsausführung.

Grundprinzip der ungeordneten BefehlsausführungDie Grafik zeigt die wesentlichen Komponenten und das Grundprinzip einer ungeordneten Befehlsausführung. Zunächst erkennt man eine Harvard-Architektur, d.h. eine Trennung von Daten- und Befehlsspeicher, die ein paralleles Laden von Befehlen und ihren Operanden ermöglicht. Es existieren mehrere Rechenwerke, die parallel arbeiten können. Befehle und Operanden werden nun aber nicht direkt in die Rechenwerke eingespeist, sondern zunächst in sogenannte Reservierungs-Stationen. Dabei kann es sich um Befehle handeln, die aufgrund einer Programmverzweigung möglicherweise gar nicht ausgeführt werden müssen. Sobald ein Rechenwerk frei ist, werden Befehl und Operanden aus der zugehörigen Reservierungs-Station geladen, der Befehl ausgeführt und das Ergebnis in einem sogenannten Umbenennungs-Register aufgefangen. Das Zurückhalten des Ergebnisses ist notwendig, da noch nicht klar ist, ob der ausgeführte Befehl überhaupt auszuführen war. Sobald klar ist, dass die Verzweigung korrekt vorhergesagt wurde, sorgt die Komplettierungseinheit dafür, dass die Umbenennungs-Register mit den Architektur-Registern synchronisiert werden. Die Architektur-Register sind die klassischen Prozessor-Register, von denen aus das Ergebnis (ggf. über einen Cache-Speicher) in den Hauptspeicher transportiert wird. Sollte sich herausstellen, dass die Befehle aufgrund einer falsch vorhergesagten Verzweigung nicht auszuführen waren, so werden die Umbenennungs-Register zurückgesetzt. Man spricht dann auch von Branch Recovery.

Adressierungsarten

Übersicht der wichtigsten AdressierungsartenIn modernen Mikroprozessoren werden verschiedene Adressierungsarten für die verwendeten Operanden verwendet. Dabei handelt es sich um verschiedene Methoden zur Berechnung der effektiven logischen Speicheradressen. Die Berechnung der physikalischen Adressen anhand der logischen Adressen ist davon unabhängig und wird in der Regel von einer Memory Management Unit durchgeführt. Das folgende Bild gibt einen Überblick über die die wichtigsten Adressierungsarten.

Registeradressierung

Bei einer Registeradressierung steht der Operand bereits in einem Prozessorregister bereit und muss folglich nicht mehr aus dem Speicher geladen werden. Erfolgt die Registeradressierung implizit, so wird das Register über die Angabe des Opcodes mitadressiert (Beispiel: der Opcode bezieht sich implizit auf den Akkumulator). Bei expliziter Registeradressierung wird die Nummer des Registers im Registerfeld des Opcodes mitgegeben.

Einstufige Adressierung

Bei einstufigen Adressierungsarten kann die effektive Adresse durch eine einzige Adressberechnung ermittelt werden. Es muss also im Laufe der Adressberechnung nicht erneut auf den Speicher zugegriffen werden. Bei unmittelbarer Adressierung enthält der Befehl keine Adresse, sondern den Operanden selbst. Bei direkter Adressierung enthält der Befehl die logische Adresse selbst, es muss also keine Adressberechnung mehr ausgeführt werden. Bei Register-indirekter Adressierung ist die gesuchte logische Adresse bereits in einem Adressregister des Prozessors enthalten. Die Nummer dieses Adressregisters wird über den Opcode übergeben. Bei der indizierten Adressierung erfolgt die Adressberechnung mittels Addition: Der Inhalt eines Registers wird zu einer Basisadresse hinzugerechnet. Bei Programmzähler-relativer Adressierung wird die neue Adresse aus dem aktuellen Wert des Programmzählers und einem Offset ermittelt.

Zweistufige Adressierung

Bei zweistufigen Adressierungsarten sind mehrere Rechenschritte notwendig, um die effektive Adresse zu erhalten. Insbesondere ist im Laufe der Berechnung meist ein zusätzlicher Speicherzugriff notwendig. Als Beispiel sei hier die indirekte absolute Adressierung genannt. Dabei enthält der Befehl eine absolute Speicheradresse. Das Speicherwort, das unter dieser Adresse zu finden ist, enthält die gesuchte effektive Adresse. Es muss also zunächst mittels der absoluten Speicheradresse auf den Speicher zurückgegriffen werden, um die effektive Adresse zu emitteln. Dies kennzeichnet alle zweistufigen Verfahren.

 
RAM
 

Random Access Memory (dt. Speicher mit wahlfreiem Zugriff), abgekürzt RAM, ist ein Speicher, der besonders bei Computern als Arbeitsspeicher Verwendung findet. RAMs werden als integrierte Schaltkreise hauptsächlich in Silizium-Technologie realisiert. RAM wird in allen Arten von elektronischen Geräten eingesetzt.

SIMM
S0-SIMM
SDR-DIMM
DDR-DIMM
Micro-DIMM
RIMM
S0-RIMMWahlfrei bedeutet in diesem Zusammenhang, dass jede Speicherzelle über ihre Speicheradresse direkt angesprochen werden kann, der Speicher also nicht sequenziell oder in Blöcken ausgelesen werden muss (bei grossen Speicherbausteinen erfolgt die Adressierung jedoch nicht über die einzelnen Zellen, sondern über ein Wort, dessen Breite von der Speicherarchitektur abhängt). Das unterscheidet den RAM von blockweise zu beschreibenden Speichern, den so genannten Flash-Speichern. Im Gegensatz zu einem ROM (Read Only Memory) kann RAM sowohl gelesen als auch beschrieben werden.

Der üblicherweise in Computern eingesetzte RAM ist 'flüchtig' (auch: 'volatil'), das heisst, die gespeicherten Daten gehen nach Abschaltung der Stromzufuhr verloren. Es gibt allerdings auch RAM-Typen, die ihre Information auch ohne Stromzufuhr erhalten ('nichtvolatil'). Diese werden NVRAM genannt.

Die flüchtigen RAMs teilen sich in:

Statisches RAM oder SRAM
Dynamisches RAM oder DRAM
Es gibt eine Vielzahl von DRAM-Bauarten, die sich historisch entwickelt haben:

EDO-RAM
SDRAM
DDR-SDRAM
RDRAM

 
ROM
 

ROM (Read-Only-Memory, wörtlich: Nur-Lese-Speicher), gelegentlich auch als Festwertspeicher bezeichnet, ist ein Speicher, der nur lesbar und nicht flüchtig ist, das heisst: er hält seine Daten auch in stromlosem Zustand. Das prädestiniert ihn zur Aufnahme von fest verdrahteten Computerprogrammen wie z. B. dem BIOS. Das Einschreiben von Daten in ein ROM wird als Programmierung des Bausteins bezeichnet und ist nicht mit den Schreibzugriffen in einem Schreib-/Lesespeicher (Random Access Memory) vergleichbar. Zu unterscheiden ist zwischen Bausteinen mit reversibler und irreversibler Programmierung.

Ursprünglich wurden ROMs schon bei der Fertigung „fest verdrahtet“. Da diese Verdrahtung mit einer „Maske“ (einer Art Filmnegativ) auf den rohen Chip direkt aufbelichtet wurde, spricht man hierbei von einem maskenprogrammierten ROM. Da sich dieses Verfahren allerdings nur in Grossfertigung rechnete, wurde eine - ständig wachsende - Familie weiterer Speicherbausteine dieses Typs entwickelt, die auch nach der Fertigung mit Informationen befüllt werden können.

Inzwischen gibt es eine recht grosse Anzahl der verschiedenen Arten von ROM:

PROM - Programmable ROM, einmalig programmierbar
EPROM - Erasable PROM, d.h. löschbar mit UV-Licht
EEPROM - Electrically Erasable PROM
Flash-ROM

 
Festplatten
 

Eine Festplatte (engl. hard disk (HD) oder hard disk drive (HDD)) ist ein magnetisches Speichermedium der Computertechnik. 1973 startete IBM das „Winchester“-Projekt, das das erste Laufwerk mit fest eingebauten Platten (IBM 3340) hervorbrachte. Bis in die 1990er Jahre war deshalb für Festplatten die Bezeichnung Winchester-Laufwerk gebräuchlich. Auf ihr können beliebige Dateien, zum Beispiel des Betriebssystems, von Anwendungsprogrammen, oder persönliche Daten (Dokumente, Videos, Musik, Bilder) dauerhaft gespeichert werden.

Allgemeine technische Daten

Speicherkapazität

Das Fassungsvermögen einer Festplatte wird heute üblicherweise in Gigabyte (GB) angegeben.

Vor allem Festplattenhersteller definieren bei der Angabe der Kapazität ein Gigabyte als 10003Byte = 109Byte = 1.000.000.000Byte, während Computerprogramme ein Gigabyte meist als 10243Byte = 230Byte = 1.073.741.824Byte behandeln. Mit den Binärpräfixen (Mebibyte, Gibibyte) versucht man diese Doppeldeutigkeit zu vermeiden.

Wenn man die Kapazität einer Festplatte, die in "Gigabyte" (10003Byte = 109Byte) angegeben wurde, in Gibibyte (GiB, 10243Byte = 230Byte) umrechnen möchte, so kann man folgenden Umrechnungsfaktor benutzen:

Beispiel:

Anfang 2005 waren Festplatten bis 400 GB (372,53 GiB) Kapazität erhältlich. Im Juni 2005 gab es von Hitachi bereits eine Festplatte mit 500 GB Kapazität für Endkunden zu kaufen.

Baugrössen

1 GByte IBM MicroDrive (1")Die physikalische Grösse von Festplatten wird traditionell in Zoll angegeben und ist keine exakte Grössenangabe, sondern ein Formfaktor. So sind beispielsweise 3,5"-Festplatten exakt 100 mm breit, was knapp 4 Zoll entspricht. Die Grösse der Scheiben in diesem 100 mm breiten Gehäuse liegt aber um die 3,5 Zoll, wobei Serverplatten häufig etwas kleiner sind.

Die zur Zeit verwendeten Formfaktoren reichen von 5,25" bis 0,85", wobei der Trend zu kleineren Festplatten geht. Der 3,5"-Formfaktor ist im Desktop-Bereich der am weitesten verbreitete, in Laptops findet man meist 2,5"-Festplatten, in noch kleineren portablen Geräten (z.B. MP3-Player) häufig 1,8"-Festplatten.

5,25"-Baugrössen sind die ursprünglichen Baugrössen der Festplatten, jedoch ist diese Gattung aber seit 1996/97 ausgestorben. Einige SCSI-Server-Platten, sowie die LowCost-IDE-Platte BigFoot von Quantum waren die letzten Vertreter dieser Spezies. Man unterscheidet Geräte mit voller Bauhöhe (3,5" bzw. ca. 88 mm), die zwei Steckplätze belegen und halber Bauhöhe (1,75" bzw. ca. 44 mm). Die Breite beträgt 146 mm, die Tiefe ist variabel und sollte nicht wesentlich oberhalb von 200 mm liegen.
3,5"-Baugrössen wurden um ca. 1990 eingeführt und werden derzeitig in Desktop-Computern und Servern verwendet, die meisten Platten haben halbe Bauhöhe (1" bzw. ca. 25 mm). Im Serverbereich gibt es auch Platten bis 1,8" Höhe (1,8" bzw. ca. 44 mm). Die Breite beträgt 100 mm, die Tiefe ist variabel und sollte nicht wesentlich oberhalb von 150 mm liegen.
2,5"-Baugrössen finden Verwendung in Notebooks oder Spezialrechnern. Die traditionelle Bauhöhe war 0,5" (12,7 mm), mittlerweile gibt es mit 0,375" (9,5 mm) und 0,25" (6,35 mm) flachere Festplatten und auch Notebooks, die diese flachen Varianten benötigen. Die Breite beträgt 68 mm, die Tiefe beträgt 100 mm. Der Anschluss ist gegenüber den grösseren Bauformen modifiziert, bei IDE wird z.B. ein 44-poliger Anschluss verwendet, der gleichzeitig die Betriebsspannung von +5 Volt zuführt (Pin 1 ist meist auf der Seite der Jumper). Im Gegensatz zu den grösseren Platten kommen diese Platten auch mit nur einer Betriebsspannung aus.
1,8"-Baugrössen werden seit 2003 bei Sub-Notebooks sowie diversen Industrieanwendungen verwendet
1"-Baugrössen sind seit 2002 unter dem Name MicroDrives im Einsatz. Die meisten MicroDrives wurden bis Mitte 2004 als "verkleidete" CompactFlash-Typ-II-Speichereinheiten für digitale Kameras eingesetzt. Hauptnachteil ist die mechanische Empfindlichkeit ausserhalb von Geräten und der hohe Stromverbrauch.
0,85"-Baugrössen sind derzeit (Januar 2005) nur in begrenzten Mengen über die Firma Toshiba verfügbar, welche diese Baugrösse im März 2004 mit einer Kapazität von 4 GigaByte (3,73 GiB) zum erstenmal vorgestellt hat. Ob diese kleinen Bauformen jemals Bestand haben werden, ist fraglich. Flash-Speicher ist in diesem Bereich schon verfügbar und auf Wachstumskurs. Derzeitig ist Flash-Speicher noch teurer, aber wesentlich robuster und sparsamer im Energieverbrauch.

Überblick über die Speicherkapazitäten der verschiedenen Baugrössen

Jahr 5,25" 3,5" 2,5" 1,8" 1,0" 0,85" typ. Modell(e) mit hoher Kapazität Quelle
1983 20 MByte - - - - - 20 MB Festplatte im IBM PC XT
1989 80 MByte - - - - - ?
1995 ? MByte 540 MByte - - - - ?
1997 12 GByte 9 GByte 2 GByte - - - Quantum Bigfoot (12 GB, 5,25"), Nov. 1997 [1]
2000 # >75 GByte ? ? GByte - - - ?
2005 # 500 GByte 120 GByte 60 GByte 8 GByte 6 GByte Hitachi Deskstar 7K500 (500 GB, 3,5"), Juli 2005 [2]
(2007) # 1 TByte = 1024 GByte* ? ? ? 20 GByte* ? ? ? [3]

Anmerkungen:

Angaben beziehen sich immer auf die zum jeweiligen Jahr grösste käuflich erhältliche Festplatte, unabhängig von ihrer Drehzahl oder Schnittstelle
Die Vorhersage der zukünftigen Speicherkapazitäten ist ungenau, daher stellen Angaben mit Jahrenzahlen in Klammern nur grobe Anhaltspunkte dar
Kapazitäten sind Herstellerangaben, d.h. ein Gigabyte ist definiert als 10003Byte = 109Byte = 1.000.000.000Byte, ein Megabyte als 10002Byte = 106Byte
Mit Fragezeichen markierte Einträge bitte verifizieren/ergänzen
- noch nicht verfügbar
* Verwendung von Perpendicular Recording
# Baugrösse veraltet; nicht mehr in Gebrauch

Aufbau und Funktion

Physikalischer Aufbau

Eine Festplatte besteht aus folgenden Bauelementen:

einer oder mehreren drehbar gelagerten Scheiben (engl. Platter)
einem Antrieb für die Scheibe(n)
bewegliche Schreib-/Leseköpfe (Heads)
jeweils ein Lager für die Schreib-/Leseköpfe und die Scheiben
einem Antrieb für die Schreib-/Leseköpfe
der Steuerelektronik für Motor- und Kopfsteuerung
Hochleistungs-DSP für die Schreib/Leseköpfe.
der Schnittstelle zur Verbindung mit dem Computer
einem Festplattencache
Festplatten, welche in Arbeitsplatzrechnern oder in PCs für den privaten Gebrauch verwendet werden – momentan zum grössten Teil Platten mit ATA- oder SATA-Schnittstelle – rotieren mit Geschwindigkeiten von 5.400 bis 7.200 Umdrehungen pro Minute. Vor der Zeit der ATA-Festplatten und im Bereich der Hochleistungsrechner und Server wurden bzw. werden meistens Festplatten mit der technisch überlegenen SCSI-Schnittstelle verwendet, die inzwischen in der Regel 10.000 oder 15.000 Umdrehungen pro Minute erreichen. Bei den 2,5 Zoll-Festplatten, die hauptsächlich in Notebooks zum Einsatz kommen, liegen die Geschwindigkeiten im Bereich von 4.200 bis 7.200 Umdrehungen pro Minute.

In dem Festplattengehäuse befinden sich ein oder mehrere übereinander liegende rotierende Scheiben. Verbaut worden sind bisher 1 bis 12 Scheiben, üblich sind 1 bis 4. Allerdings geht eine höhere Scheibenanzahl in der Regel mit einem höheren Energieverbrauch und einer grösseren Geräuschentwicklung einher. Manchmal werden aus Platzgründen nicht alle Scheibenoberflächen genutzt, sodass Festplatten mit ungerader Schreib-/Lesekopfanzahl entstehen. Um die Nachfrage nach Festplattenmodellen mit kleinerer Kapazität zu befriedigen, können die Hersteller ebenfalls auf diese Weise die Kapazität künstlich beschränken.

Waren die Scheiben früherer Festplatten (bis 2000) kugelgelagert, so werden heute (2005) überwiegend Flüssigkeitslager (engl. „fluid dynamic bearing“ - FDB) verwendet. Diese zeichnen sich durch eine höhere Lebensdauer und geringere Geräuschentwicklung aus.

Die Scheiben bestehen meistens aus Aluminium oder Legierungen. Sie müssen formstabil sein, eine geringe elektrische Leitfähigkeit verringert Wirbelströme.

In älteren Desktopfestplatten von IBM (Deskstar 75GXP/40GV DTLA-30xxxx, Deskstar 60GXP/120GXP IC35Lxxxx) aus den Jahren 2000 bis 2002 kam Glas zum Einsatz. Neuere Modelle der Festplattensparte von IBM (2003 übernommen durch Hitachi) verwenden jedoch wieder Aluminium, mit Ausnahme der Festplatten für den Serverbereich.

Da diese Materialien selbst jedoch keine magnetischen Eigenschaften besitzen, wird zusätzlich eine Eisenoxyd- oder Kobaltschicht von ungefähr einem Mikrometer Stärke aufgetragen. Diese wird zusätzlich von einer Schutzhülle aus Graphit ummantelt, um mechanische Beschädigungen zu vermeiden.

Die Schreib-/Leseköpfe schweben durch ein durch die Rotation der Platten erzeugtes Luftpolster über der Plattenoberfläche. Die Flughöhe liegt jedoch heutzutage (2005) nur im Bereich von Nanometern, sodass die Luft innerhalb des Festplattengehäuses keinerlei Verunreinigungen beinhalten darf. Die Herstellung von Festplatten erfolgt deshalb wie die von Halbleitern in Reinräumen. Wird eine Festplatte in normaler, verunreinigter Luft geöffnet, so sorgen bereits kleinste Staub-/Rauchpartikel, Fingerabdrücke, etc für wahrscheinlich irreparable Beschädigungen der Plattenoberfläche und der Schreib-/Leseköpfe.

Zum Schutz der für Daten benutzten Oberflächen vor dem Aufsetzen der Schreib-/Leseköpfe fahren diese, noch bevor sich beim Ausschalten der Festplatten die Umdrehungsgeschwindigkeit merklich verringert hat, in die sogenannte "Landezone" ("landing zone"), in der sie fixiert werden. Diese Parkposition kann sich ausserhalb der Scheiben befinden oder im Innenbereich der Platten. Die Fixierung geschieht z.B. über einen kleinen Magneten, der den Lesekopf festhält. Traditionellerweise mussten Festplatten explizit vor dem Ausschalten per Befehl vom Betriebssystem geparkt werden. Aber auch heutzutage sollten Festplatten explizit geparkt werden, da mitunter mit dem Autoparken (Parken bei abgeschalteter Versorgung aus der Restenergie der auslaufenden Platten) eine geringere Lebensdauer einhergeht.

Das Parken erhöht auch die Stossfestigkeit der Festplatten für einen Transport oder Umbau. Bei modernen Laptops sorgt ein Beschleunigungssensor für das Parken der Festplatte noch während eines eventuellen freien Falls, um so den Schaden beim Sturz eines Rechners zu begrenzen.

Das Gehäuse der Festplatte ist staubdicht, aber nicht luftdicht abgeschlossen: durch eine kleine Öffnung mit einem Filter kann Luft eindringen oder austreten. Diese Öffnung darf in der Regel nicht verschlossen werden. Da der Luftdruck im Gehäuse mit zunehmender Höhe über dem Meeresspiegel abnimmt, zum Betrieb aber ein Mindestdruck erforderlich ist, dürfen Festplatten nur bis zu einer bestimmten, maximalen Höhe betrieben werden. Diese ist in der Regel im zugehörigen Datenblatt vermerkt.

Speichern und Lesen von Daten

Das Speichern der Daten auf einer Festplatte erfolgt durch die gezielte Magnetisierung kleinster Flächen einer Schicht ferromagnetischen Materials, die entsprechend ihrer Polarität den Wert 0 oder 1 annehmen. Der Schreib-/Lesekopf (Magnetkopf), im Prinzip ein winziger Elektromagnet, polarisiert die einzelnen Sektoren unterschiedlich und speichert so die Daten permanent.

Vor dem Schreiben der Daten werden diese in speziellen Verfahren wie den früher üblichen Verfahren GCR, MFM, RLL und heute üblicherweise mit PRML oder EPRML kodiert. Ein logisches Bit steht daher nicht mehr physikalisch als magnetisierte oder nicht magnetisierte Einheit auf der Plattenoberfläche. Durch die Schreibverfahren wird auch eine Kompression erreicht, so dass die Datendichte steigt.

Sowohl beim Schreiben als auch beim Lesen muss vor dem Zugriff auf einen bestimmten Block der Schreib/Lesekopf der Platte bewegt und anschliessend abgewartet werden, bis durch die Rotation der Platte der Block unter dem Kopf vorbeigeführt wird. Diese mechanisch bedingten Verzögerungen liegen heutzutage bei ca. 5 - 10 ms, was nach Massstäben anderer Computerhardware eine kleine Ewigkeit ist. Daraus ergibt sich die extrem hohe Latenzzeit von Festplatten im Vergleich mit RAM, die noch auf der Ebene der Softwareentwicklung und der Algorithmik berücksichtigt werden muss. Um eine hohe Performanz zu erreichen, muss eine Festplatte soweit wie möglich immer grosse Mengen von Daten in aufeinanderfolgenden Blöcken lesen oder schreiben, weil dabei der Schreib/Lesekopf nicht neu positioniert werden muss. Dies erreicht man, indem man möglichst viele Operationen im RAM durchführt und auf der Platte die Positionierung der Daten auf die Zugriffsmuster abstimmt.

Das Auslesen der Daten wurde bis ca. 1994 durch Induktion des Magnetfelds der magnetisierten Fläche in der Spule des Schreib-/Lesekopfes erreicht. Über die Jahre wurden jedoch die Flächen, auf denen einzelne Bits gespeichert werden, immer kleiner – die Datendichte wurde erhöht.

Um diese Daten auszulesen, werden kleinere und empfindlichere Leseköpfe benötigt. Diese wurden nach 1994 entwickelt: MR-Leseköpfe sowie einige Jahre später GMR-Leseköpfe (Riesenmagnetowiderstand). Der GMR-Lesekopf ist eine Anwendung der Spintronik.

Zusätzlich wurde die Steigerung der Datendichte durch besseres Trägermaterial sowie durch die Optimierung der Schreibverfahren erreicht.

Eine neuere Entwicklung (seit 2004) ist das Perpendicular Recording, das zur Zeit u.a. von Toshiba und Hitachi entwickelt wird, um die Datendichte weiter zu steigern.

Um die Lautstärke der Laufwerke beim Zugriff auf Daten zu verringern, unterstützen die meisten IDE- und SATA-Festplatten, die für den Desktop-Einsatz gedacht sind, „Automatic Acoustics Management“ (AAM). Wird die Festplatte in einem leisen Modus betrieben, werden die Schreib- und Leseköpfe weniger stark beschleunigt, sodass die Zugriffe leiser sind. Das Laufgeräusch des Plattenstabels wird davon nicht verändert, ebenso bleibt die Dauertransferrate von AAM unberührt; jedoch verlängert sich die Zugriffszeit.

Logischer Aufbau

Die magnetische Schicht der Scheiben ist der eigentliche Träger der Informationen. Sie wird auf zylindrischen Spuren magnetisch aufgeprägt, während die Scheibe rotiert. Eine Scheibe enthält typischerweise einige tausend solcher Spuren, meist auch auf beiden Seiten. Die Gesamtheit aller identischen Spuren der einzelnen Platten(oberflächen) nennt man Zylinder. Jede Spur ist in kleine logische Einheiten unterteilt, die man Blöcke nennt. Ein typischer Block enthält 512 Byte an Information. Jeder Block verfügt dabei über Kontrollinformationen (Prüfsummen), über die sichergestellt wird, dass die Information auch korrekt geschrieben oder gelesen wurde. Die Gesamtheit aller Blöcke, die die gleichen Winkelkoordinaten auf den Platten haben, nennt man Sektor. Leider wird der Begriff Sektor häufig fälschlicherweise auch synonym für Block verwendet.

Bei modernen Festplatten ist es normalerweise so, dass die wahre Geometrie, also die Anzahl von Sektoren, Köpfen und Zylindern, die vom im Festplattengehäuse integrierten Controller (im Folgenden „Festplatten-Intelligenz“ genannt) verwaltet werden, nach aussen nicht mehr sichtbar ist. Der Computer, der die Festplatte benutzt, arbeitet dann mit einer virtuellen Festplatte, die völlig andere Geometriedaten aufweist. Dies erklärt, warum z.B. eine Festplatte, die real nur vier Köpfe aufweist, vom Computer mit 255 Köpfen gesehen wird. Ein Grund für solch ein virtuelles Konzept ist, dass man Begrenzungen von PC-kompatibler Hardware überwinden wollte. Weiterhin kann die Festplatten-Intelligenz durch dieses virtuelle Konzept defekte Blöcke ausblenden, um dann einen Block aus einer Reserve-Spur einzublenden. Für den Computer sieht es immer so aus, als wären alle Blöcke defektfrei und nutzbar. Es wird vermutet, dass besagte Reserve-Spuren ca. 10-20% des auf der Festplatte angegebenen Speicherplatzes ausmachen. Dieser Speicherplatz lässt sich durch spezielle Firmware-Versionen nutzen, was dann aber logischerweise die Lebensdauer der Festplatte (bzw. die Datensicherheit) reduzieren kann. Heute übliche Festplatten teilen weiterhin die Platten in Zonen auf, wobei eine Zone mehrere Spuren enthält. Jede Zone hat die gleiche Anzahl Sektoren, unterschiedliche Zonen haben hingegen unterschiedliche Anzahl Sektoren.

Aus Sicht des Betriebssystems können Festplatten durch Partitionen in mehrere Bereiche unterteilt werden. Man kann sich diese als logische Festplatten vorstellen, die durch den Festplattentreiber dem Betriebssystem (und damit evtl. dem Benutzer) gegenüber als getrennte Geräte dargestellt werden. Es ist dabei im Verhalten (von zeitlichen Effekten abgesehen) nicht erkennbar, ob es sich tatsächlich jeweils um eine physikalisch getrennte Festplatte handelt oder lediglich um ein logisches Laufwerk auf einer gemeinsamen Festplatte.

Jede Partition wird vom Betriebssystem gewöhnlich mit einem Dateisystem formatiert. Unter Umständen werden, je nach benutztem Dateisystem, mehrere Blöcke zu Clustern zusammengefasst, die dann die kleinste logische Einheit für Daten sind, die auf die Platte geschrieben werden. Das Dateisystem sorgt dafür, dass Daten in Form von Dateien auf die Platte abgelegt werden können. Ein Inhaltsverzeichnis im Dateisystem sorgt dafür, dass Dateien wiedergefunden werden und hierarchisch organisiert abgelegt werden können. Bei MS-DOS und Windows 9x war die File Allocation Table das übliche Dateisystem.

Schnittstellen

Als Schnittstelle der Festplatte zu anderen Computer-Komponenten werden in der letzten Zeit hauptsächlich die parallelen Schnittstellen ATA (IDE, EIDE) (überwiegend bei Personal Computern) oder SCSI (bei Servern, Workstations und höherwertigen Personal Computern) verwendet.

Mit zunehmender Übertragungsgeschwindigkeit ergeben sich hierbei technische Schwierigkeiten, die für die Übertragungsrate eine obere Grenze setzen (bisher max. 320 MByte/s bei SCSI) und den Aufwand bei der Realisierung erhöhen. Deshalb wird seit einigen Jahren ein Übergang zu seriellen Schnittstellen angestrebt.

Seit 2002 gewinnt das neue Verfahren Serial ATA (S-ATA oder SATA) an Bedeutung. Die Vorteile gegenüber ATA (zur Abgrenzung nun vermehrt P-ATA oder PATA genannt) sind der höhere mögliche Datendurchsatz und die einfachere Verkabelung. 2005 wurden erste Festplatten mit Serial Attached SCSI (SAS) als potentieller Nachfolger von SCSI für den Server- und Storagebereich vorgestellt, über zwei Anschlüsse kann der Datenaustausch hier theoretisch mit bis zu 600 MByte/s erfolgen.

Vor allem bei SCSI-Platten und auch bei neueren S-ATA Festplatten werden sogenannte Queues (Warteschlangen) eingesetzt. Diese reihen die Anfragen an den Datenträger in eine Liste und sortieren sie entsprechend der physikalischen Position auf der Scheibe, um so möglichst viele Daten mit möglichst wenigen Umdrehungen zu lesen. Der festplatteneigene Cache spielt hierbei eine grosse Rolle, da die Queues in diesem abgelegt werden (Siehe auch: Tagged Command Queuing, Native Command Queuing).

Es werden auch universelle Schnittstellen wie FireWire oder USB für den Anschluss externer Festplatten verwendet, hierbei sind jedoch die eingebauten Festplatten selbst mit herkömmlichen (meist ATA oder S-SATA) Schnittstellen ausgestattet, die Signale werden durch eine eigene Elektronik für die nach aussen geführte Schnittstelle umgesetzt.

Eine weitere Option, nämlich die Kommunikation via Fibre-Channel-Interface, ist noch leistungsfähiger und für die Verwendung in Speichernetzwerken (Storage Area Network, SAN) konzipiert. Auch hier werden nicht die Festplatten selbst mit Fibre angesprochen, sondern haben herkömmliche Anschlüsse. Einen konkurrierenden Ansatz verfolgt iSCSI, jedoch unter Verwendung von IP-Netzen.

Datensicherheit

Ausfallrisiken

Zu den typischen Ausfallrisiken gehören:

Die Anfälligkeit von Festplatten ist besonders bei den neuen, sehr schnell drehenden Systemen vorwiegend auf thermische Probleme zurückzuführen.
Beim mechanischen Aufsetzen des Schreib-Lesekopfes (Head-Crash) kann die Festplatte beschädigt werden. Der Kopf schwebt im Betrieb über der Platte und wird durch ein Luftpolster, das durch von der drehenden Scheibe mitgerissene Luft entsteht, am Aufsetzen gehindert. Bei laufendem Betrieb sollte der Computer daher möglichst nicht bewegt werden oder Erschütterungen ausgesetzt sein.
Äussere Magnetfelder können die Sektorierung der Festplatte irreversibel zerstören. Eine Löschung mit einem magnetischen Wechselfeld macht neuere Festplatten unbrauchbar. Diese Wirkung geht auch von statischen Magnetfeldern (z.B. von Permanentmagneten) aus, wenn sie auf die rotierende Festplatte wirken.
Fehler in der Steuerelektronik oder allgemeine Abnutzung führen zu Ausfällen.
Die durchschnittliche Anzahl an Betriebsstunden, bevor eine Festplatte ausfällt, wird bei irreparablen Platten als MTTF (Mean Time To Failure) bezeichnet. Bei Platten, die repariert werden können, wird ein MTBF-Wert (Mean Time Between Failure) angegeben.

Vorbeugende Massnahmen

Als vorbeugende Massnahmen gegen Datenverlust werden daher häufig folgende Massnahmen ergriffen:

Von wichtigen Daten sollte immer eine Sicherungskopie (Backup) auf einem anderen Datenträger existieren.
Systeme, die zwingend hochverfügbar sein müssen und bei denen ein Festplattenfehler keine Betriebsunterbrechung verursachen darf, verfügen meistens über ein RAID. Eine Konfiguration ist z.B. das Mirrorset (RAID 1), bei dem die Daten auf zwei Festplatten gespiegelt werden und sich somit die Ausfallsicherheit erhöht. Effizientere Konfigurationen sind RAID 5 und höher. Ein Stripeset (RAID 0) aus zwei Festplatten erhöht zwar die Geschwindigkeit, verdoppelt jedoch das Ausfallrisiko. RAID 0 ist deshalb keine sinnvolle Massnahme, um Datenverlust zu verhindern.
ATA-Festplatten verfügen seit Einführung von ATA-3 im Jahr 1996 über S.M.A.R.T., eine interne Überwachung der Festplatte auf Zuverlässigkeit. Der Status kann von aussen abgefragt werden. Ein Nachteil ist, dass S.M.A.R.T. kein Standard ist. Jeder Hersteller definiert seine Fehlertoleranz selbst, d.h. S.M.A.R.T. ist nur als allgemeines Richtmittel anzusehen. Ausserdem gibt es Festplatten, deren S.M.A.R.T. Funktionalität selbst dann noch nicht vor Problemen warnt, wenn diese sich bereits im Betrieb durch nicht mehr lesbare Blöcke bemerktbar gemacht haben, man sollte sich also nicht auf S.M.A.R.T. verlassen.
Um durch Überhitzung der Festplatte bedingte Ausfälle zu verhindern, muss diese entsprechend ihrer maximal erlaubten Betriebstemperatur gekühlt werden. In Servern kommen dazu mit Lüftern versehene Wechselrahmen und Backplanes zum Einsatz.

Datenschutz

Soll eine Datei gelöscht werden, wird üblicherweise lediglich im Dateisystem vermerkt, dass der entsprechende Datenbereich nun frei ist. Die Daten selbst verbleiben jedoch physisch auf der Festplatte, bis der entsprechende Bereich mit neuen Daten überschrieben wird. Mit Datenrettungsprogrammen können gelöschte Daten daher oft zumindest zum Teil wiederhergestellt werden.

Auch beim Partitionieren oder gewöhnlichen Formatieren wird der Datenbereich nicht überschrieben, sondern lediglich die Partitionstabelle oder die Beschreibungsstruktur des Dateisystems. Bei einer Low-Level-Formatierung dagegen wird der gesamte adressierbare Bereich einer Festplatte überschrieben.

Um ein sicheres Löschen von sensiblen Daten zu garantieren, bieten verschiedene Hersteller Software an, die beim Löschen den Datenbereich überschreibt. Meistens kann aber auf eine (fast) beliebige und kostenlose Linux-Distribution zurückgegriffen werden, wie zum Beispiel Knoppix, die praktischerweise direkt von CD gestartet werden kann. Des Weiteren gibt es verschiedene Opensource-Programme, die dies ebenfalls erledigen (siehe Weblinks). Wurde die Datei bereits gelöscht, ohne die Daten zu überschreiben, kann auch der komplette freie Speicher der Festplatte überschrieben werden.

Geschichte

1956: IBM stellt das erste magnetische Festplattenlaufwerk vor. Auf 50 Speicherplatten von 61 cm Durchmesser wurde eine Kapazität von 5 Megabyte (MB) erreicht.
1973: IBM startet das "Winchester"-Projekt, das sich damit befasste, einen rotierenden Speicher mit einem fest montierten Medium zu entwickeln (IBM 3340, 30 MB Speicherkapazität, 30ms Zugriffszeit). Beim Starten und Stoppen des Mediums sollten die Köpfe auf dem Medium aufliegen, was einen Lademechanismus überflüssig machte. Namensgeber war das Winchester-Gewehr 3030.
1979: Vorstellung der ersten 8" Winchester-Laufwerke. Diese waren jedoch sehr schwer und teuer (5 MB kosteten mehr als 5.000 Euro); trotzdem stieg der Absatz kontinuierlich.
1980: Verkauf der ersten 5 1/4" Winchester-Laufwerke durch die Firma Seagate Technology mit der Modellbezeichnung ST506 (6 Megabyte Kapazität). Diese Modellbezeichnung (ST506) wurde auch über viele Jahre hinaus der Name für diese neue angewendete Schnittstelle, welche alle anderen Firmen als neuen Standard im PC-Bereich übernommen hatten. Zur gleichen Zeit kam neben dem bereits bestehenden Apple-Microcomputern der erste PC von IBM auf den Markt, dadurch stieg die Nachfrage nach diesen – im Vergleich zu den Winchester-Laufwerken kompakten – Festplatten rasant an.
1986: Spezifikation von SCSI, eines der ersten standardisierten Protokolle für eine Festplattenschnittstelle.
1997: Erster Einsatz des Riesen-Magnetowiderstands (englisch Giant Magnetoresistive Effect (GMR)) bei Festplatten, dadurch konnte die Speicherkapazität stark gesteigert werden. Eine der ersten Festplatten mit GMR-Leseköpfen war die IBM Deskstar 16GP (3,5", November 1997) mit einer Kapazität von 16,8 GB.
2004: 18. November 400 GB-Festplatte (3,5") von Hitachi. Erste Festplatten mit Native Command Queuing von Seagate.
2005: 500 GB-Festplatte (3,5") von Hitachi.


 
Die PC-Tastatur
 
Hier gehts zu der Tastaturübersicht!
 
Netzwerke
 
Im weitesten Sinn zählen alle Methoden, die Informationen von einem Ort zum anderen bringen können - von Brieftauben, Rauchzeichen, Fackelsignale, Fahrradkurieren, Post, bis hin zum Alphorn - zur Datenübertragung. Auch im Computer selbst findet laufend Datenübertragung statt, zum Beispiel von der Festplatte in den Arbeitsspeicher. Die ersten Versuche, Computer zwecks Datenaustausch zu verbinden, gibt es sicherlich bereits seit geraumer Zeit. Zu Anfang waren dies häufig direkte Verbindungen (ähnlich der heutigen seriellen Schnittstelle oder der parallelen Schnittstelle) mit speziellen Link-Programmen. Später erfolgte die Datenübertragung über Telefonleitungen mit Akustikkoppler oder Modems und einfachen Protokollen wie XMODEM, YMODEM, ZMODEM oder sealink-Protokoll. Diese wurden später durch bidirektional arbeitende Protokolle wie Hydra oder Janus ergänzt, die die gleichzeitige Übertragung von Dateien in beide Richtungen ermöglichen. Dabei wurden im Wesentlichen nur Daten im Sinne von Dateien übertragen. Eine erste Vernetzung erfolgte über Mailboxen. Datenübertragung ist heute in der Regel netzwerkbasiert. Dabei wird fast immer das TCP/IP-Protokoll verwendet, auch wenn dieses, bei Modem-Verbindungen, in den Protokollen der niederen Übertragungsschichten (vgl. OSI-Modell) verpackt wird. Geht die Datenübertragung über ein eigenes Netzwerk hinaus und erfolgt die Verbindung mit einem anderen Netzwerk nur zeitweise und verwendet man es hauptsächlich zur Dateiübertragung, so spricht man oft von einer Datenfernübertragung.
 
Netzwerkkarte
 

Jedes Endgerät ist mit dem Verteiler verbunden, die Endgeräte untereinander sind nicht verbunden
Jedes Endgerät ist mit genau zwei anderen verbunden
Alle Endgeräte sind an den Bus angeschlossen
ZelltopologieUnter einem Local Area Network (LAN) versteht man ein Computernetz innerhalb eines räumlich begrenzten Bereiches in der Grösse von maximal etwa 1 km².

Local Area Networks sind grösser als Personal Area Networks, aber kleiner als Metropolitan Area Networks, Wide Area Networks und Global Area Networks.

LANs sind als feste Installation dort zu finden, wo mehrere Computer über kleine Entfernungen an einem bestimmten Ort dauerhaft vernetzt werden sollen. Für einzelne Veranstaltungen wie technikorientierten Kongressen, zum Beispiel dem Chaos Communication Congress, oder LAN-Partys werden sie auch temporär aufgebaut.

Ein LAN kann mittels verschiedener Technologien aufgebaut werden. Ethernet über Twisted-Pair-Kabel, speziell Fast Ethernet mit bis zu 1000 MBit/s (125 MByte/s ) Datendurchsatz (Gigabit-LAN), ist der am weitesten verbreitete Standard. Zunehmend unbedeutender sind Token Ring, FDDI und ARCNET. Drahtlose lokale Netze nennt man Wireless LAN, sie werden meist mittels eines Standards aus der Gruppe IEEE 802.11 realisiert, die zum kabelgebundenen Ethernet weitgehend kompatibel sind.

Tragende Elemente eines LANs sind Repeater, Hubs, Bridges und Switches. In der Regel stellt ein LAN genau eine Broadcast-Domäne dar, also den Bereich eines Rechnernetzes, in dem alle angeschlossenen Geräte mit ihrer Hardware-Adresse (MAC-Adresse) auf Schicht 2 des ISO/OSI-Referenzmodells (data link layer, Sicherungsschicht) direkt miteinander kommunizieren können. Ein Broadcast ist eine Nachricht an alle Domänen-Teilnehmer, der diesen Bereich gewöhnlich auch nicht verlässt.

Ein LAN kann jedoch auch in mehrere Virtual LANs (VLAN) unterteilt werden, um die Netzkommunikation eines einzelnen physikalischen LANs logisch auf zwei oder mehr VLANs aufzuteilen.

Ein Netzteilnehmer kann die Broadcast-Domäne mittels eines Routers (OSI-Referenzmodell: Schicht 3, network layer, Vermittlungsschicht) verlassen, um so Zugang zu anderen Netzen wie zum Beispiel anderen LANs oder dem Internet zu bekommen. Befindet sich im Netz ein Internetrouter, so hat dieser meistens eine im Internet öffentliche IP-Adresse, während den Hosts im LAN private IP-Adressen zugeteilt sind. Damit die Hosts mit dem Internet kommunizieren können, wird auf dem Router Masquerading, ein Spezialfall des NATs, betrieben.

Vor allem in grösseren Netzen werden Router aber auch innerhalb eines LANs eingesetzt, um nicht zu viele Teilnehmer innerhalb einer Broadcast-Domäne zu haben.
 
 
   Anzeigen


Navigation:    ECDL - Betriebssysteme - SHOP - Software Guides - Hardware - Netzwerke - Virus - Grafik - Seminare - IT News
Partner:   Template OK - HTMLopen - SITEopen - PCopen Schweiz - HTMLopen Schweiz - VirtualUniversity.ch - WEB-SET.com - YesMMS - Job und Karriere