Inhalt
- Erste Generation von Computern: 1940er-1950er Jahre: (Vakuumröhren und Plugboards)
- Eigenschaften von Computern der 1. Generation
- Zweite Computergeneration: 1950er bis 1960er Jahre: (Transistoren und Chargenablage)
- Eigenschaften von Computern der 2. Generation
- Dritte Generation von Computern: 1960-1970 (Integrierte Schaltungen und Multiprogrammierung)
- Eigenschaften von Computern der 3. Generation
- Vierte Generation von Computern: 1970er bis heute (Mikroprozessor, Betriebssystem und GUI)
- Eigenschaften von Computern der 4. Generation
- Fünfte Computergeneration: Gegenwart und Zukunft
Alfred ist ein langjähriger Lehrer und Computer-Enthusiast, der mit einer Vielzahl von Computergeräten arbeitet und Fehler behebt.
Generationen von Computern haben Veränderungen erfahren, die auf sich entwickelnden Technologien basieren. Mit jeder neuen Generation wurden Computerschaltungen, -größen und -teile miniaturisiert, die Verarbeitung und Geschwindigkeit verdoppelt, der Speicher vergrößert und die Benutzerfreundlichkeit und Zuverlässigkeit verbessert.
Beachten Sie, dass die für jede Generation angegebene Zeitachse vorläufig und nicht eindeutig ist.Die Generationen basieren tatsächlich auf der Weiterentwicklung der Chip-Technologie und nicht auf einem bestimmten Zeitrahmen.
Die fünf Computergenerationen sind durch den elektrischen Strom gekennzeichnet, der durch die nachstehend aufgeführten Verarbeitungsmechanismen fließt:
- Die erste innerhalb von Vakuumröhren
- Der zweite innerhalb der Transistoren
- Der dritte innerhalb der integrierten Schaltkreise
- Der vierte innerhalb der Mikroprozessorchips
- Das fünfte enthüllte intelligente Geräte, die künstliche Intelligenz können
Erste Generation von Computern: 1940er-1950er Jahre: (Vakuumröhren und Plugboards)
Computer der ersten Generation waren eigentlich die ersten Allzweck- und echten Digitalcomputer. Sie kamen rechtzeitig, um die elektromechanischen Systeme zu ersetzen, die für zugewiesene Aufgaben viel zu langsam waren.
Eine Aufgabe war die Notwendigkeit der US-Armee, Maschinen zu haben, mit denen Artillerie-Abschuss-Tische schnell genug berechnet werden können. Bestehende dauerten fast zwei Tage. Nach Abschluss berechneten die neuen Maschinen diese Tabellendaten in Sekunden. Glücklicherweise oder unglücklicherweise wurden sie erst nach dem Ende des Zweiten Weltkriegs 1946 verfügbar.
Die Computer der ersten Generation verwendeten Vakuumröhren zu Verstärkungs- und Schaltzwecken. Die Röhren bestanden aus versiegelten Glasbehältern von der Größe von Glühbirnen. Das versiegelte Glas ließ den Strom drahtlos von den Filamenten zu den Metallplatten fließen. Und da das System keine beweglichen Teile enthielt, verstärkte der Fluss den Strom, damit der Computer die zugewiesenen Aufgaben bearbeiten konnte. Vakuumröhren starteten und beendeten die Schaltung auch durch Ein- und Ausschalten beim Ein- und Ausschalten.
Diese Computer verfügten nicht nur über Tausende von Widerständen und Kondensatoren, sondern verwendeten auch bis zu und über 17.000 Vakuumröhren, was bedeutete, dass Computerinstallationen ganze Räume abdeckten!
Die Ein- und Ausgabe erfolgte mit Lochkarten, Magnettrommeln, Schreibmaschinen und Lochkartenlesern. Zunächst perforierten die Techniker die Karten manuell mit Löchern. Dies wurde später mit Computern durchgeführt.
Die Anbindung an Systeme der ersten Generation erfolgte über Plugboards und Maschinensprache. Die Techniker verdrahteten Stromkreise, indem sie zahlreiche Kabel an Steckdosen anschlossen.
Dann steckten sie bestimmte Lochkarten hinein und warteten stundenlang auf irgendeine Art von Berechnung, während sie hofften, dass jede der Tausenden von Vakuumröhren die Entfernung überstanden hatte. Damit sie das Verfahren nicht noch einmal durchlaufen.
Diese Maschinen waren für Operationen auf niedriger Ebene vorgesehen, und daher wurde die Programmierung nur mit den Binärziffern 0s und 1s durchgeführt. Die Systeme konnten jeweils nur ein Problem lösen. Assemblersprache und Betriebssystemsoftware waren nicht vorhanden.
Einer der herausragendsten Computer in dieser Zeit war The ENIAC (Elektronischer numerischer Integrator und Computer), das von den Ingenieuren John W. Mauchly und J. Presper Eckert von der University of Pennsylvania entworfen und gebaut wurde. Die Versammlung wurde von einem Team von fünfzig Männern durchgeführt.
Es war 1000-mal schneller als die vorherigen elektromechanischen Computer, aber etwas langsam, wenn es um die Neuprogrammierung ging.
Unter anderem wurde die ENIAC verwendet, um die Machbarkeit von thermonuklearen Waffen, das Abfeuern von ballistischer Artillerie und thermischer Zündung von Motoren und anderswo für Wettervorhersagen zu untersuchen.
Diese Systeme waren enorm groß und besetzten ganze Räume, während sie viel elektrischen Strom verbrauchten. Dadurch erzeugten sie unerträgliche Wärme.
Eine Liste der beliebtesten Computer der ersten Generation:
- Die ENIAC (1946)
- EDSAC (1949)
- EDVAC (1950)
- UNIVAC I (1951)
Der UNIVAC (Universal Automatic Computer), noch von den Ingenieuren John W. Mauchly und J. Presper Eckert, war der erste in derselben Ära, der eher für kommerzielle als für militärische Zwecke entwickelt wurde. Es manipulierte sowohl das Alphabet als auch die Zahlen ziemlich gut und wurde vom USA Census Bureau verwendet, um die allgemeine Bevölkerung aufzuzählen. Es wurde später verwendet, um Gehaltsabrechnungen, Aufzeichnungen, Unternehmensverkäufe und sogar prognostizierte Ergebnisse der Präsidentschaftswahlen im Jahr 1952 zu manipulieren.
Im Gegensatz zu den über 17.000 Vakuumröhren in The ENIAC verwendete UNIVAC I etwas mehr als 5.000 Vakuumröhren. Es war auch halb so groß wie sein Vorgänger und verkaufte über 46 Einheiten.
Eigenschaften von Computern der 1. Generation
Sie:
- Gebrauchte Vakuumröhren für Schaltkreise
- Elektronen emittierendes Metall in Vakuumröhren brannte leicht aus
- Benutzte Magnettrommeln zur Erinnerung
- Waren riesig, langsam, teuer und oft unzuverlässig
- Waren teuer zu betreiben
- Waren machthungrig
- Erzeugte viel Wärme, was zu Fehlfunktionen führen würde
- Es wurde jeweils ein Problem gelöst
- Verwendete Eingabe basierend auf Lochkarten
- Hatten ihre Ausgaben in Ausdrucken angezeigt
- Gebrauchte Magnetbänder
- Verwendete Maschinensprache
- Hatte begrenztes primäres Gedächtnis
- Wurden nur in Maschinensprache programmiert
Zweite Computergeneration: 1950er bis 1960er Jahre: (Transistoren und Chargenablage)
Dies waren Computer, die Transistoren anstelle von Vakuumröhren verwendeten. Sie waren in vielerlei Hinsicht besser als ihre Vorgänger, weil sie scheinbar klein, schnell und kostengünstiger waren.
Transistoren sind mehr oder weniger die Bausteine eines jeden Mikrochips und außerdem zuverlässiger, energieeffizienter und in der Lage, Elektrizität schneller und besser zu leiten.
Transistoren sind wie Vakuumröhren Schalter oder elektronische Gates, mit denen Strom verstärkt oder gesteuert oder elektrische Signale ein- und ausgeschaltet werden. Sie werden Halbleiter genannt, weil sie Elemente enthalten, die zwischen Leitern und Isolatoren liegen.
Transistorhalbleiter wurden 1947 in den Bell Laboratories von den Wissenschaftlern William Shockley, John Bardeen und Walter Brattain erfunden, sahen aber erst Mitte der 1950er Jahre den Tag des Lichts.
Bei Computern der zweiten Generation wurden die Verfahren zur Dateneingabe und -ausgabe weiterentwickelt. Anfänglich ähnelten diese Prozesse den letzten Modellen von Computern der 1. Generation. Sie waren langweilig, weil mehrere Mitarbeiter Lochkarten von Raum zu Raum trugen.
Um den Prozess zu beschleunigen, wurde das Batch-System heraufbeschworen und implementiert. Dabei wurden mehrere Datenaufträge auf mehreren Lochkarten gesammelt und mit einem relativ kleinen und kostengünstigen System auf einzelne Magnetbänder übertragen. Der IBM-1401 war ein solcher Computer. Die Verarbeitung erfolgte dagegen mit einem leistungsstärkeren System wie dem IBM 7094.
Nach Abschluss der Datenmanipulation wurden die Dateien wieder auf ein Magnetband übertragen. Um dies effizient zu tun, wurden das Betriebssystem IBM für das IBM-7094-System und das Fortran-Monitorsystem verwendet. Dies waren die Vorboten der kommenden Betriebssystemsoftware.
Bei Verwendung eines kleineren Systems, z. B. IBM-1401, wurden die Daten als Ausgabe auf mehrere Lochkarten ausgedruckt.
Neben der Entwicklung von Betriebssystemsoftware kamen auch andere kommerzielle Anwendungen in die Regale. Dies war wahrscheinlich auf das allgemeine Upgrade von restriktivem binärbasierten Maschinencode auf Sprachen zurückzuführen, die die symbolische und alphanumerische Codierung vollständig unterstützten. Programmierer konnten nun 1964 in Assemblern und Hochsprachen wie FORTRAN, COBOL, SNOWBALL und BASIC schreiben.
Eigenschaften von Computern der 2. Generation
Sie:
- Gebrauchte Transistoren
- Schneller und zuverlässiger als Systeme der ersten Generation
- Waren etwas kleiner, billiger, schneller
- Erzeugte Wärme, wenn auch etwas weniger
- Verlassen Sie sich immer noch auf Lochkarten und Ausdrucke für die Eingabe / Ausgabe
- Zulässige Assembler- und Hochsprachen
- Gespeicherte Daten in magnetischen Medien
- Waren immer noch teuer
- Benötigte Klimaanlage
- Einführung der Assemblersprache und der Betriebssystemsoftware
Die frühen Großrechner und Supercomputer waren nur einige der Maschinen, die Transistoren nutzten. Beispiele hierfür waren der UNIVAC LARC-Mainframe von Sperry Rand (1960) und der IBM-7030 Stretch-Supercomputer (1961) sowie der CDC 6600-Mainframe (1963).
Andere Beispiele für Computer der 2. Generation:
- IBM-7000
- CDC 3000 Serie
- UNIVAC 1107
- IBM-7094
- MARK III
- Honeywell 400
Dritte Generation von Computern: 1960-1970 (Integrierte Schaltungen und Multiprogrammierung)
Computer der 3. Generation verwendeten anstelle von Transistoren den IC-Mikrochip (Integrated Circuit). Der Halbleiter-IC packte eine große Anzahl von Transistoren, Kondensatoren, Dioden und Gleichrichtern auf ein einzelnes Germanium oder Silizium. Diese wurden dann auf separate Teile einer Leiterplatte gedruckt.
Die Implementierung dieser Computer stand auch im Einklang mit Moores Gesetz (1965), das feststellte, dass die Transistorgröße so schnell schrumpfte, dass 10 Jahre lang alle zwei Jahre die doppelte Anzahl in neue Mikrochips passen würde.
Er passte dieses exponentielle Wachstum nach zehn Jahren auf alle fünf Jahre im Jahr 1975 an.
Der IC versuchte, die umständlichen Verfahren zu lösen, die beim Entwurf der Transistorschaltung erforderlich waren. Die manuelle Verbindung von Kondensatoren, Dioden und Gleichrichtern in Transistoren war zeitaufwändig und nicht vollständig zuverlässig.
Jack Kilby von Texas Instruments und Robert Noyce von Fairchild Corporation entdeckten 1958 und 1959 getrennt die Vorteile integrierter Schaltkreise. Kilby baute seinen IC auf Germanium, während Noyce einen auf einen Siliziumchip baute.
Das erste System, das den IC verwendete, war der IBM 360, der voller Muskeln war, um sowohl kommerzielle als auch wissenschaftliche Aufgaben zu bewältigen.
Neben der Reduzierung der Kosten haben sich die Geschwindigkeit und Leistung eines Computers enorm erhöht, nachdem mehrere Transistoren auf einem einzigen Chip platziert wurden. Seit seiner Erfindung hat sich die IC-Geschwindigkeit alle zwei Jahre verdoppelt, wodurch sowohl die Größe als auch die Kosten von Computern weiter gesunken sind.
Fast alle elektronischen Geräte verwenden heutzutage irgendeine Form von integrierten Schaltkreisen, die auf Leiterplatten angeordnet sind.
Abgesehen von der IC-Schaltung verbesserte sich die Interaktion mit Computern. Anstelle von Lochkartenausdrucken wurden Tastaturen und bessere Eingabeperipheriegeräte verwendet, um Daten einzugeben, die für die Ausgabe über visuelle Anzeigeeinheiten angezeigt wurden.
Computer verwendeten jetzt Betriebssystemsoftware, um Computerhardware und -ressourcen zu verwalten. Dadurch konnten Systeme gleichzeitig verschiedene Anwendungen ausführen. Dies lag an zentralisierten Anwendungen, die die Speicherverteilung überwachten.
Computer wurden aufgrund ihrer Größe und fairen Kosten für das Massenpublikum zugänglich.
Diese Generation leitete auch das Konzept der „Computerfamilie“ ein, das die Hersteller dazu herausforderte, Computerkomponenten zu entwickeln, die mit anderen Systemen kompatibel waren.
Eigenschaften von Computern der 3. Generation
Sie:
- Gebrauchte ICs
- Verwendete Parallelverarbeitung
- Waren etwas kleiner, billiger, schneller
- Gebrauchte Motherboards
- Die Daten wurden über Tastaturen eingegeben
- Die Ausgabe wurde auf den Monitoren visualisiert
- Verwendete Betriebssysteme ermöglichen somit Multitasking
- Vereinfachte Programmiersprachen d.h. BASIC
Die nächste Generation von Großrechnern und Supercomputern nutzte integrierte Schaltkreise (IC). Beispiele hierfür waren der Großrechner Sigma 7 (1966) von Scientific Data Systems sowie die Supercomputer IBM-360 (1964) und CDC 8600 (1969).
Weitere Beispiele für Computer der dritten Generation:
- IBM-360
- Prozessor für personenbezogene Daten (PDP)
- IBM-370
Vierte Generation von Computern: 1970er bis heute (Mikroprozessor, Betriebssystem und GUI)
Die Geburt des Mikroprozessors war gleichzeitig die Geburt des Mikrocomputers. Es entsprach auch dem Moore'schen Gesetz, das ein exponentielles Wachstum von Transistoren und Mikrochips ab 1965 vorhersagte. Diese Generation trägt maßgeblich zur Einführung verschiedener Geräte bei. Die Computer der zweiten Generation, die 1971 begannen, werden heute verwendet.
Intel stellte über seine Ingenieure Ted Hoff, Federico Faggin und Stan Mazor im November 1971 den weltweit ersten Einzelchip-Mikroprozessor vor, den Intel 4004. Er verfügte über 2300 Transistoren und maß 1/8 "mal 1/16".
Was in der ersten Generation einen ganzen Raum füllte, konnte jetzt in die Handfläche passen.
Der neue Mikrochip allein war so leistungsfähig wie der ENIAC-Computer von 1946. Außerdem wurden die meisten Funktionen, die einen Computer aufladen, wie Zentraleinheit, Speicher, Eingabe- und Ausgabesteuerung, zusammengeführt.
Die Hersteller begannen bald, diese Mikrochips in ihre neuen Computer zu integrieren.
1973 wurde der Xerox Alto-Computer von PARC lautlos veröffentlicht. Es war ein echter Personal Computer und verfügte über einen Ethernet-Anschluss, eine Maus und eine Bitmap-grafische Benutzeroberfläche, die erste ihrer Art.
Das letzte Feature war die Motivation für Apple-Computer, ein Unikat zu bauen. Xerox Alto wurde von einem 16-Bit-ALI-Chip TI SN74S181N von Texas Instruments angetrieben.
Von Xerox Alto herausgefordert, begannen ernsthafte Mitarbeiter 1974, als Intel einen 8-Bit-Allzweck-Mikroprozessor namens 8808 entwickelte. Er suchte und bat Gary Kildall, einen Berater, ein Betriebssystem für sein neues Baby zu schreiben. Dies führte zu der festplattenbasierten Betriebssystemsoftware Control Program for Microcomputers (CPM).
1981 stellte International Business Machine seinen ersten Heimcomputer vor, auf dem der 4004-Prozessor lief. Es war als IBM PC bekannt, wobei PC für Personal Computer stand. Sie haben sich mit Bill Gates zusammengetan, der das Disk Operating System von Seattle Computer Product gekauft und mit dem neuen Computer von IBM vertreiben ließ.
Die IBM PC-Architektur wurde zum De-facto-Marktstandardmodell, das andere PC-Hersteller emulierten.
Apple unter Steve Jobs änderte das Software-Spiel, als es 1984 den Apple Macintosh-Computer mit einer verbesserten GUI (Graphical User Interface) herausbrachte, wobei die von Xerox PARC gelernte Interface-Idee verwendet wurde.
Denken Sie daran, dass sowohl das Steuerungsprogramm für Mikrocomputer als auch das Festplattenbetriebssystem befehlszeilenbasierte Betriebssysteme waren, die der Benutzer über die Tastatur mit dem Computer verbinden konnte.
Nach dem Erfolg von Apples GUI hat auch Microsoft eine Shell-Version von Windows in die DOS-Version von 1985 integriert. Windows wurde für die nächsten 10 Jahre so verwendet, bis es als Windows 95 neu erfunden wurde. Dies war eine echte Betriebssystemsoftware mit allem die richtigen Dienstprogramme.
Während Software alltäglich wurde und Unternehmen anfingen, Geld dafür zu verlangen, startete 1991 eine neue Bewegung von Programmierern Linux. Unter der Leitung von Linux Torvalds leisteten sie Pionierarbeit für ein kostenloses Open-Source-Betriebssystemprojekt namens Linux.
Neben Linux wurden andere Open-Source-Betriebssysteme und freie Software für Büro-, Netzwerk- und Heimcomputer vertrieben.
Beispiele für Open Source und freie Software:
- Ubuntu OS
- Mozilla Firefox-Browser
- Öffnen Sie Office
- MySQL
- VLC Media Player
In den 1980er und 2000er Jahren wurden insbesondere PCs und Desktops alltäglich. Sie waren billig und in Büros, Schulen und Wohnungen installiert. Software, die auf diesen Computern lief, wurde auch für kleines Geld oder kostenlos verfügbar.
Beispiele für beliebte PC-Kategorien:
- Desktops
- Alles in einem
- Laptops
- Arbeitsstationen
- Nettops
- Tablets
- Smartphones
Bald zogen Mikroprozessoren aus der Reserve von Desktop-Computern auf andere Plattformen in Unternehmen und Privathaushalten. Zuerst war der Laptop, gefolgt von Tablets und Smartphones, Konsolen, eingebetteten Systemen und Smartcards. Diese Geräte erhöhten die Notwendigkeit, das Internet unterwegs zu nutzen.
Die Verbreitung mobiler Computergeräte verhinderte bald die Dominanz von Desktops. Laut ComScore in der Veröffentlichung Mobile's Hierarchy of Needs vom März 2017 machten Mobiltelefone 60% aller digitalen Minuten weltweit aus.
Eigenschaften von Computern der 4. Generation
Sie:
- Gebrauchte CPUs, die Tausende von Transistoren enthielten
- Waren viel kleiner und auf Desktops, Runden und Handflächen montiert
- Benutzte eine Maus
- Wurden in Netzwerken verwendet
- Waren billig
- Hatte GUI
- Waren sehr schnell
- Registrieren Sie über 19 Milliarden Transistoren in High-End-Mikroprozessoren (vergleiche mit 2.300 in Intel 4004).
Die vierte Generation von Mainframes und Supercomputern entwickelte sich zu leistungsstarken Systemen:
- IBM z9 (2005), z10 (2008) und z13 (2015) sind Beispiele für Mainframes.
- Cray 1 (1975), Fugitsu K (2011), Titan (2013) und Sunway TaihuLight (2016) sind Beispiele für Supercomputer.
Fünfte Computergeneration: Gegenwart und Zukunft
Das Computing der fünften Generation basiert auf dem technologischen Fortschritt, der in den vorherigen Computergenerationen erzielt wurde. Es soll die 4. Industrielle Revolution (4IR) leiten.
Die Implementierung soll die Interaktion zwischen Mensch und Maschine verbessern, indem die menschliche Intelligenz genutzt und die großen Datenmengen genutzt werden, die sich seit Beginn des digitalen Zeitalters angesammelt haben.
Es wird als cyber-physisches System angesehen und ergibt sich aus der Theorie, dem Konzept und der Implementierung von künstlicher Intelligenz (KI) und maschinellem Lernen (ML). AI und ML sind möglicherweise nicht identisch, werden jedoch synonym verwendet, um die Wissenschaft des Herstellens von Geräten und Programmen zu bezeichnen, die intelligent genug sind, um mit Menschen, anderen Computern, der Umwelt und Programmen zu interagieren, indem Big Data abgebaut wird, um festgelegte Ziele zu erreichen.
Die Verbreitung von Computergeräten mit der Möglichkeit, auf normale und wahrscheinlich unterschiedliche Weise, basierend auf den gesammelten Erfahrungen und der Umgebung, selbst zu lernen, zu reagieren und zu interagieren, hat auch dem Konzept des Internet der Dinge (Internet of Things, IoT) Schwung verliehen.
Auf ihrem Höhepunkt und mit den richtigen Algorithmen werden Computer wahrscheinlich ein hohes Maß an tiefem Lernen aufweisen und verarbeiten, von dem auch Menschen lernen können.
Viele KI-Projekte werden bereits umgesetzt, andere befinden sich noch in der Entwicklungsphase. Zu den Pionieren bei der Beschleunigung der KI zählen Google, Amazon, Microsoft, Apple, Facebook und Tesla.
Die ersten Implementierungen sind jetzt auf Smart-Home-Geräten zu sehen, die Aktivitäten über audiovisuelle Geräte automatisieren und in das Haus integrieren sollen, sowie auf selbstfahrenden Autos, die bereits auf den Straßen fahren.
Das größere Ziel in der KI ist es, Geräte zu verwöhnen, um:
- Verstehe die natürliche Sprache
- Menschliche Sprache erkennen
- Sehen Sie die Welt in dreidimensionaler Perspektive
- Spielen Sie interaktive Spiele
- Implementieren Sie Experten-Input in medizinischen und anderen komplexen Bereichen
- Übung heuristische Klassifizierungsanalyse
- Implementieren Sie neuronale Netze
Andere Bereiche, die darauf ausgerichtet sind, KI zu ermöglichen, sind Entwicklungen in:
- Quanten-Computing
- Parallelverarbeitung
Laufende KI-Projekte:
- Virtuelle persönliche Assistenten, z. Siri, Google Now und Braina.
- Intelligente Autos, z.B. Teslas Autopilot-Autos und Googles selbstfahrende Autos.
- Tools zur Nachrichtengenerierung wie Wordsmith werden von Yahoo und Fox verwendet, um Nachrichtenausschnitte zu generieren.
- Computergestützte Diagnose zur Erkennung von Krebs.
Dieser Artikel ist genau und nach bestem Wissen des Autors. Der Inhalt dient nur zu Informations- oder Unterhaltungszwecken und ersetzt nicht die persönliche Beratung oder professionelle Beratung in geschäftlichen, finanziellen, rechtlichen oder technischen Angelegenheiten.