close

Anmelden

Neues Passwort anfordern?

Anmeldung mit OpenID

1. Einführung 1.1 Was soll das Spiel? Programmierbare Rechner

EinbettenHerunterladen
BTU Cottbus, Prozessor-Architektur, Kapitel 1, WS 99/00
1.
Einführung
1.1
Was soll das Spiel?
Programmierbare Rechner werden seit 1938 (Konrad Zuse) bzw. kommerziell etwas seit dem Beginn
der 50er Jahre konstruiert.
In das Rechnergeschäft sind damals Firmen eingestiegen, die heute zumindest in dieser Branche kein
Mensch mehr kennt:
Die Firmen Zuse, Nixdorf, AEG, Philips und Siemens in Deutschland. Die Firmen General Electric,
Varian, Control Data, RCA und natürlich IBM in den USA. Dort kamen in den 70er Jahren noch
Digital Equipment, Data General, Cray, Amdahl und andere dazu.
Viele von diesen heute fast vergessenen Namen haben Pionierarbeit in der Rechnerarchitektur
geleistet. An erster Stelle ist vielleicht Gene Amdahl zu nennen, welcher der Vater der 360er und
370er-Serie bei IBM war und danach seine eigene Firma eröffnete, oder Seymour Cray mit seinen
Superrechnern.
Erreicht wurde der technische Fortschritt durch einerseits immer schnellere Schaltelemente, meistens
bipolare Schaltungen, andererseits auch durch die Entwicklung der Rechnerarchitektur. Dazu zählte
vorrangig das "von-Neumann-Bottleneck": Es kann immer nur ein Befehl dekodiert und ausgeführt
werden.
Das Heil wurde in immer komplexeren Befehlssätzen und damit immer komplizierteren Ablaufsteuerungen für die Befehlsausführung gesucht.
Aber die wirklichen Leistungsfortschritte brachte dann wirklich nur die Beschleunigung der
Schaltzeiten von Transistoren und Gattern. Nur mußte man die mit einer mindestens proportionalen
Zunahme der Verlustleistung erkaufen:
Wenn ein Kondensator 100 Mio. mal statt 100 000 mal pro Sekunde aufgeladen und wieder entladen
wird, so wird dazu auch 1000 mal mehr Energie benötigt !
In den 80er Jahren war eine Art Sackgasse erreicht: Einzelne Gatter schalteten in Zeiten von etwa
0,1 ns. Um aber die beim Betrieb auftretende Verlustwärme abzuführen, waren relativ große
Kühlflächen erforderlich. Die in den IBM-Rechnern Mitte der 80er Jahre eingesetzten ICs mußten bis
zu ca. 80 Watt pro Quadratzentimeter an Verlustwärme abführen. Dazu benötigte ein Rechner einen
Starkstrom- Anschluß und Wasserkühlung.
Und man konnte die Schaltungen wegen der Notwendigkeit der Wärmeabfuhr auch nicht mehr
wesentlich dichter machen. Gate-Array-ICs in ECL-Technologie hatten etwa 20 000 bis 30 000
Gatter pro Quadratzentimeter. Da die Bauelemente nicht enger gepackt werden konnten, spielten
nun die Laufzeiten auf den Verbindungsleitungen die eigentliche Begrenzung für die Rechnerleistung.
Ein Signal läuft eben pro Nanosekunde nur ca. 10 cm weit, also in der Schaltzeit der besten ECLGatter gerade mal 1 cm.
Fast allen Rechnerherstellern gemeinsam ist, daß sie die Entwicklung der ersten Mikroprozessoren
Anfang der 70er Jahre nicht ernst genommen haben.
Mehr "ging" nämlich bei der CMOS-Technologie. Zunächst waren MOS- Schaltungen bei gleicher
Strukturgröße mindestens um den Faktor 2 langsamer als bipolare Schaltungen, aber sie kamen mit
wesentlich weniger Verlustleistung aus und konnten deshalb wesentlich höher integriert werden.
Tatsächlich hat es fast 20 Jahre gedauert, bis auf hochintegrierten Prozessoren basierte Rechner so
weit waren, daß sie den Großrechnern ernsthaft gefährlich werden konnten. Das war erst Anfang der
90er Jahre der Fall. Zu diesem Zeitpunkt war es nämlich erstmals möglich, all die
Architekturkomponenten, welche bei Großrechnern "Stand der Technik" waren, gemeinsam auf
einem IC mit ca. 1 Mio. Tran-sistoren unterzubringen.
BTU Cottbus, Prozessor-Architektur, Kapitel 1, WS 99/00
Die mit hochintegrierten RISC-Prozessoren ausgestatteten Workstations erreichten die Rechenleistung von Großrechnern zu wesentlich geringeren Preisen. Und ca. 3 Jahre später waren auch die
Prozessoren für PCs mit Einführung des Intel Pentium so weit.
1995 sagte Prof. Giloi, der deutsche Rechner-Papst:
Man kann heute alles auf einem Chip integrieren, was man für einen Rechner braucht.
Etwa um 1990 war dann der Zeitpunkt gekommen, wo Rechnerarchitektur fast ausschließlich bei der
Prozessorindustrie stattfand.
Fast alle heute gebauten Rechner basieren auf einigen wenigen Chip-Architekturen.
Das sind Intel-Prozessoren, SPARC-Prozessoren (bei Sun entworfen), MIPS Prozessoren und solche
der IBM Power PC-Architektur. Digitale Equipment und Hewlett Packard entwickeln und fertigen
noch eigene Prozessoren. Auch IBM und Silicon Graphics entwickeln noch Prozessoren. AMD und
IBM / Cyrix und (in Europa) SGS Thomson Microelectronics entwickeln Intel-kompatible
Prozessoren.
Die Entwicklung konzentriert sich also auf eine Hand voll Prozessortypen, zumindest was die PCs,
Workstations und Großrechner betrifft.
Es gibt noch einige Entwicklungen massiv paralleler Rechner, die aber auch auf Standardprozessoren
beruhen.
Ist deshalb die Rechnerarchitektur eine exklusive Geheimwissenschaft, weil nur Intel & Co sie
brauchen? Nicht ganz.
Prozessoren werden heute in großem Maße nicht nur in Rechnern eingesetzt, sondern in noch
höherem Maß in sogenannten "eingebetteten Systemen".
Dort wird eine in Software "vergrabene" Aufgabe erledigt. Da die Software von Anfang an bekannt
ist, lohnt es sich dann, den Prozessor auf die Anwendung abzustimmen. Er soll also nicht so
leistungsfähig wie möglich als Reserve für die nächste Softwarelawine von Bill Gates & Co sein,
sondern gerade mal seine Aufgabe sicher, zuverlässig und kostengünstig erledigen.
Für solche "embedded" Anwendungen werden Mikroprozessoren, Mikrocontroller und Signalprozessoren verwendet. Es existieren ganze Typenreihen von Mikrocontrollern und digitalen Signalprozessoren, z. B. von Motorola, Texas Instruments, Siemens und auch Intel. Darüber hinaus ist es
heute auch möglich, Prozessoren anwendungsspezifisch zu konfigurieren oder zu erweitern.
Für den Entwickler von rechnerbasierten Systemen ist eine gute Kenntnis einer Prozessorarchitektur
eine wichtige Voraussetzung. Er muß z. B. sicherstellen, daß der Rechner auch unter ungünstigen
Bedingungen (Interrupts etc.) seine Aufgabe in der vorgesehenen Zeit erledigt, und daß möglichst
auch noch mit geringsten Anforderungen an den Speicherplatz für die Software.
Dies bedeutet oft einen gemeinsamen Entwurf von Hardware und Software mit abgestimmten
Optimierungen auf beiden Seiten.
Und um ein eingebettetes System optimal entwerfen zu können, muß man verstanden haben, was in
einem Prozessor funktioniert.
Document
Kategorie
Technik
Seitenansichten
8
Dateigröße
10 KB
Tags
1/--Seiten
melden