Die Entwicklung des Computers

Download Report

Transcript Die Entwicklung des Computers

Der Bauingenieur Konrad Zuse (1919 – 1995)
hatte 1933 die Idee, die Rechenschemata,
die in seinem Beruf ständig anzuwenden
waren, durch eine Maschine
zu automatisieren.
Er war ein engagierter Tüftler und Bastler.
Er hasste Rechenaufgaben und wollte deshalb einen
universellen Rechenautomaten bauen. Die Genialität
seiner Idee: der Rechenautomat sollte speicher-und
programmierbar sein und damit universal einsetzbar.
Zuse war bei der Flugzeugfirma Henschel angestellt,
aber zum Entsetzen seiner Eltern kündigte er 1938
diesen Job und begann, in ihrem Wohnzimmer die Z1
aufzubauen.
Die Z1 bestand aus 40‘000 kleinen und grossen
Metallplättchen, die mechanisch miteinander
im Wechsel wirkten. Diese hatte Zuse in
Laubsägearbeit selbst hergestellt.
Sein selbst entwickelter binärer Speicher aus Metallplättchen, konnte die zentral angetriebenen Stifte in
zwei verschiedene Positionen schieben - Null
und Eins. Das Programm wurde in 35 mm-Film
gestanzt. Als Taktgeber der Z1 konnte ein Motor
angeschlossen - oder die
komplette Z1 von Hand
angekurbelt werden. Die
Praxistauglichkeit der Z1
scheiterte aber dennoch
an der groben, unpräzisen
Mechanik. Elemente in
Speicher oder Rechenwerk
verklemmten sich - die Z1
hatte keine Zukunft.
Das Original und die Konstruktionspläne der Z1 gingen
bei einem Bombenangriff im 2. Weltkrieg verloren.
Konrad Zuse rekonstruierte seine Erfindung und baute
sie in den Jahren 1987 bis 1989 nach.
Z1 – Reste nach dem Bombenangriff 1944
Konrad Zuse beschloss, die Z2 zu konstruieren.
Die Z2 war jedoch nur ein Testgerät für die
Relaistechnik, woraus dann die Z3 entstand.
Wie auch die Z1, wurde die Z2 von Bomben
zerstört, deshalb existieren auch keine Fotos.
1941 gelang ihm schliesslich der Durchbruch mit
der Z3, dem ersten voll funktionsfähigen
Computer der Welt. Deshalb wird Konrand Zuse
auch als “der Vater des Computers" bezeichnet.
Zuse vor der Z3
 Die Bausteine der Z3 waren Relais. Davon gab es
600 Relais im Rechenwerk sowie 1600 Relais im
Speicherwerk.
 Die Taktfrequenz der Z3 betrug 5-10 Hertz
(Zum Vergleich: Heutzutage besitzen Rechner
eine Taktfrequenz von 1 GHz und mehr).
 Die etwa 1000 KG schwere Z3 hatte eine
Leistungsaufnahme von ca. 4000 Watt
 Die Z3 beherrschte neben den vier
Grundrechenarten noch andere Rechenarten, zum
Beispiel das Wurzelziehen.
 Eine Multiplikation dauerte
4-5 Sekunden.
 Sie konnte schon 15-20
Rechenoperationen in
einer Sekunde durchführen.
 Fest eingebaute
Arbeitsabläufe waren
auf Tastendruck
abrufbar.
Die Materialkosten beliefen sich auf $ 6’500.
Die Z3 wurde für keine reale Anwendung benutzt,
weil ihr Speicher zu klein war. Sie blieb in Zuses
Wohnung, bis sie bei einem Bombenangriff
1944 zerstört wurde.
Die Z4, eine
Weiterentwicklung
ebenfalls aus Relais
aufgebaut, war
beinahe fertig, als
sie wegen der
ununterbrochenen
Bombenangriffe von
Berlin nach
Göttingen, dann in
den Keller eines
kleinen Hauses in
Hinterstein in
Bayern transportiert
wurde.
1950 wurde die Z4 aus ihrem Versteck geholt und
an der ETH Zürich aufgestellt und leicht verbessert.
Sie war damals der einzige funktionierende Computer
Europas. Sie leistete dort ihren Dienst bis 1955,
dann bis 1960 in einem französischen ärodynamischen Institut nahe Basel.
Nach seinen Rechnern arbeitete Zuse am
Plankalkül - der ersten höheren Programmiersprache
der Welt die 1945/1946 entstand. Danach machte
er sich selbstständig. Er gründete eine eigene Firma
in der er Computer konstruierte.
Das 1945 entstandene Buch über den Plankalkül
Er verkaufte von 1949-1970 insgesamt 251 Computer im
Werte von 102 Millionen DM. Doch er hatte kein Glück,
ihm fehlte die Führungskraft und er verzettelte sich in
zu vielen Details in der Konzeption seiner Rechner diese waren brillant, doch er konnte Lieferfristen nicht
einhalten und musste seine Firma aufgeben.
Das Logo von Zuses Firma
1943 hatten der britische Mathematiker Maxwell
Herman Alexander Newman und der Telefoningenieur
Thomas Howard Flowers den “britischen Riesen
fertiggestellt”. Dieser Computer erhielt wegen seiner
Grösse den Decknamen “COLOSSUS”.
 Die Colossus bestand aus 2‘500 Röhren.
 5‘000 Zeichen pro Sekunde konnten von der Maschine
verarbeitet werden.
 Sie hatte einen Stromverbrauch von 4,5 kW/s.
 Der Speicher bestand
aus 5 Zeichen von je
5 Bit.
 Zwischen 1943 und
1946 wurden insgesamt 10 Geräte
gebaut.
Das Gerät wurde unter strenger Geheimhaltung gebaut und 1946 wieder demontiert und
somit vernichtet.
Howard Hathaway Aiken, Mathematikprofessor an
der Harvard University in Boston, erstellte bis
1944, in siebenjähriger Zusammenarbeit mit IBM
am Computation Laboratory in Cambridge
(Massachusets), den "ASCC" (Automatic
Sequence- Controlled Calculator) für die
amerikanische Marine.
Der ASCC (auch MARK I genannt) funktionierte wie die
Z3 über Relais. Er war 16 Meter lang und über 2
Meter hoch. Er konnte eine Multiplikation in
durchschnittlich 6 Sekunden ausführen und war somit
langsamer als die Z3.
Der ENIAC (Electronic Numerical Integrator And
Computer) war der erste elektronische
Allzweckrechner. Er wurde an der Moore School of
Engineering der University of Pennsylvania
entwickelt und vom Ballistics Research Laboratory
der US-Armee finanziert.
Gedacht war er zum Berechnen ballistischer
Tabellen zur Verwendung im laufenden Zweiten
Weltkrieg. Da der Rechner allerdings erst nach
dem Krieg fertiggestellt wurde, übernahm er dann
aber andere Aufgaben. Die wichtigsten Personen
bei der Entwicklung des ENIAC waren der
Physiker John W. Mauchly (1907-1980) und der
Ingenieur J. P. Eckert (1919-1995).
Während der Entwicklung des "ENIAC" erarbeiteten
John Presper Eckert junior und John William Mauchley
den "EDVAC" (Electronic Discret Variable Automatic
Computer). Er war leichter zu programmieren und
universal nutzbar.
Der elektronische Arbeitsspeicher war entweder,
ein mit Quecksilber gefüllter LaufzeitVerzögerungsspeicher, oder Metallscheiben, welche
mit magnetisierbaren Oberflächen überzogen
waren. Ein Programmwechsel war im Gegensatz zum
"ENIAC" sehr einfach.
Man musste das Programm
einfach ins Speicherwerk
laden, wohingegen beim
"ENIAC" grössere Umrüstarbeiten von nöten waren.
Der "EDVAC" war 1952
betriebsbereit.
1948 gilt allgemein als das Jahr, in dem der Transistor
erfunden wurde. Beteiligt an der Erfindung waren
William Shockley, John Bardeen und Walter Brattain,
die 1956 den Nobelpreis dafür erhielten.
Ein Transistor ist ein elektronisches Halbleiterbauelement, das zum Schalten und Verstärken
von elektrischem Strom verwendet wird. Die
Bezeichnung ist eine Kurzform für die englische
Bezeichnung transient resistor, die den Transistor
als einen durch Strom steuerbaren Widerstand
beschreiben sollte.
Wenn man alle Transistoren in sämtlichen bislang
hergestellten Schaltkreisen (Speicher, Prozessoren usw.)
zusammenzählt, ist der Transistor inzwischen diejenige
technische Funktionseinheit, die je von der Menschheit
in den höchsten Gesamtstückzahlen produziert wurde.
Laut Gordon Moore, dem Mitbegründer der Firma Intel,
wurde allein im Jahr 2002 eine Trillion produziert.
1956 stellte Heinz Zemanek den "Mailüfterl" vor.
Der erste volltransistorisierte Rechenautomat der
Welt stammt aus Österreich.
Der Mailüfterl bestand aus 3’000 Transistoren, 5’000
Dioden und 30 km Draht. Mit einer Breite von 4
Metern, einer Höhe von 2,5 Metern und einer Tiefe
von 50 Zentimetern war das Ungetüm gegenüber den
damaligen Röhrenrechnern klein.
Durch die immer besser beherrschten Fertigungstechniken konnten in der Folgezeit immer mehr
Transistoren auf einem Siliziumplättchen (Chip)
untergebracht werden. 1980 wurde die Schwelle von
100’000 Schaltungselementen je Schaltung
überschritten. Noch kleinere Abmessungen und
immer höhere Geschwindigkeiten kennzeichnen die
Entwicklungstendenzen der Mikroelektronik.
Der Chip steckt inzwischen längst nicht
mehr nur in den Computern: Auch Waschmaschinen, Autos, Fernseher werden vom
Chip gesteuert. Ohne Mikroprozessoren
gäbe es keine Mobiltelefone, Airbags
oder Mikrowellengeräte.
In den 70er Jahren wurden schliesslich
integrierte Schaltkreise entwickelt, die die
Verkleinerung der Computer noch weiter
vorantrieben und es erstmalig möglich
machten, „Tischrechner“ zu entwickeln, die
nicht mehr die Grösse eines Schrankes
oder gar eines ganzen Zimmers hatten.
Die Mikrocomputer der ersten Stunde sind
allerdings weder von ihrem Äusseren, noch von
ihren Anwendungsmöglichkeiten mit modernen PCs
zu vergleichen. 1977 brachte Commodore mit dem
PET 2001 einen der ersten Computer für den
Heimgebrauch auf den Markt.
Der PET 2001
Zusammen mit dem Apple I war er einer der ersten in
Serie gebauten Microcomputer überhaupt. PET steht
für Personal Electronic Transactor. Er war der erste
Computer, der im deutschen Versandhandel (u.a.
Quelle) erhältlich war. Der Preis betrug 2999,-- DM.
Der Apple 1
Angestachelt durch den Erfolg der anderen
Firmen stieg IBM 1981 in das PC-Geschäft ein
und rollte den Markt mit Hilfe von Microsoft
und Intel von hinten auf. Als IBM-Partner stieg
Intel zum weltgrössten Chip-Produzenten im 20.
Jahrhundert auf.
Bill Gates entwickelte sich mit seiner Vision von
"einem PC in jedem Haushalt" in den achtziger und
neunziger Jahren zur wichtigsten (und reichsten)
Computer-Persönlichkeit der Welt.
Der Computer-Boom der 90er Jahre kannte keine
Grenzen: Erstmals hat die Informationstechnik und
Telekommunikation 1999 in Deutschland mit mehr als
200 Milliarden DM (100 Milliarden Euro) Umsatz den
Automobilmarkt überholt.
Gebremst wurde diese Entwicklung nur vom Mangel an
Personal. Während andere Branchen ihre Beschäftigten
vor die Tür setzen mussten, suchte die
Informationstechnologie wie verrückt nach Fachleuten.
Schätzungen zufolge
waren in Europa etwa
370’000 Stellen offen.
Die Fachleute fehlten
am Ende des Jahrtausends vor allem
zur Lösung des
gefürchteten
Jahr-2000-Problems.
Einen weiteren Schub erfuhr die Computerindustrie
Ende der 90er Jahre, als das Computernetzwerk
“Internet” für das Massenpublikum
bekannt wurde. Was einst für militärische und
wissenschaftliche Zwecke entworfen wurde,
entwickelte sich innerhalb weniger Jahre zum
weltweiten Kommunikationsnetz für Millionen Nutzer.
Die Zukunft des Computers:
Irgendwann wird man mit den herkömmlichen Methoden
die Chips nicht mehr kleiner machen können. Daher wird
man neue Techniken anwenden, wie die Verwendung von
anatomischen Stoffen (wie Nervenbahnen von Blutegel)
oder die Lichtsignaltechnik. In ferner Zukunft wird es
dann auch Quantencomputer geben, die die heutigen
Computer um das Zigtausendfache an Schnelligkeit und
Effizienz übertreffen werden.
Blutegel
20 Jahre PC - ein technischer Vergleich
Kennzeichen
Apple 2
(1982)
PC Mitte
2002
Steigerung in %
Prozessor (Bits)
8
32
400%
Prozessor (MHz)
1,023
1‘800
176‘000%
RAM (KB)
48
256‘000
533‘300%
Disks Kapazität (KByte)
143
550‘000
384‘600%
31,25
6‘000
19‘200%
6
32
533%
54‘000
1,31 Mio.
2‘427%
Monitor Diagonale
12
19
58,3%
Drucker Seiten (1/min)
0,5
4
800%
Drucker Auflösung (Punkte
pro dpi)
72
1200
1‘667%
6‘250
3‘000
-52%
Disks Datenübertragungsrate (KByte/sec)
Farbgrafik Farbe (Bits)
Farbgrafik (Punkte)
Gesamtpreis (DM)
Zum Abschluss noch ein paar Zitate
„Ich glaube es gibt einen weltweiten Bedarf an vielleicht
fünf Computern“
(Thomas Watson, IBM-Chef, 1943)
„In Zukunft könnte es Computer geben, die weniger als 1,5
Tonnen wiegen“
(Popular Mechanics, 1949)
„Ich habe das ganze Land bereist und mit allen
Experten gesprochen, und ich sage Ihnen:
Datenverarbeitung ist ein Modefimmel, der nicht
einmal das Jahr überstehen wird“
(Lektor für Wirtschaftsbücher Verlag Prentice
Hall 1957)
Der Computer ist die logische Weiterentwicklung des
Menschen: Intelligenz ohne Moral. (John Osborne, engl.
Dramatiker, 1921-1994)
Früher dachten wir, die Welt sei eine Kugel. Heute
wissen wir, sie ist eine Scheibe. (Das
Computerzeitalter ist da und einfach alles Leben gibt's
auf einer DVD)
Lass den Computer für dich arbeiten, aber werde
nie Sklave der technischen Systeme. (Sergio
Pininfarina, italienischer Automobildesigner)
Computer sind die aufregenste Errungenschaft zur
wirksamen Verzögerung der Büroarbeit" Cyril
Northcote Parkinson (1909-1993), englischer
Historiker
So, das war's