DTSM Datentechnik und Systemmanagement

Aus Jonas Notizen Webseite
Zur Navigation springen Zur Suche springen

Inhaltsverzeichnis

Allgemeine Einführung (#1)

Geschichte (#1.1)

Rechenhilfen und Rechenmittel (#1.1.2)

Der Abakus war einer der frühesten Hilfsmittel zum Addieren und Subtrahieren. (Multiplikation und Division sind auch möglich) Er ist noch in vielen Kinderzimmern und asiatischen Ländern bis heute noch vorzufinden.

Ein großer Meilenstein im Rechnen des 15. Jahrhunderts war der Rechenstab, welche erst mit der Erfindung von elektronischen Taschenrechnern im 20. Jhr. abgelöst wurden.

(Randinfo: Bis zum ende des 19. Jahrhunderts nutzten die Menschen noch sog. Kerbhölzer um zB. Schulden bei Banken zu notieren, indem man die Größe der Schulden in römischen Zahlen einritzte.)

Mechanische Rechenmaschinen (#1.1.3)

Im Zeitalter der mechanischen Rechenmaschinen wurden dir Grundlagen unserer heutigen modernen Rechnersysteme geschaffen.
Viele kühne Ideen, das Rechnen auf Maschinen zu übertragen, scheiterten in früherer Zeit an der Möglichkeit der technischen Umsetzung.

  • (So zB. wurde die Idee wahrscheinlich einer Additionsmaschine von LEONARDO da VINCI (1452 - 1519) erst 1968 durch ROBERTO GUARELLI im Auftrag der IBM umgesetzt.)


Wilhelm Schickard und Blaise Pascal

WILHEM SCHICKARD (1592 - 1635) war einer der Pioniere, der bereits um 1623 die sog. Schickard-Maschine

(eine "Rechenuhr") unter Verwendung der NAPIERschen Rechenstäbe erfand und in einem Brief an Johannes Kepler darüber berichtete.


Obwohl bedeutsam, erfuhr die Schickard-Maschine keine weitere Verbreitung.

Lange Zeit galt deshalb BLAISE PASCAL (1623 - 1662) - Schriftsteller, Philosoph, Mathematiker und Physiker - als der Erfinder der mechanischen Additionsmaschine, der sogenannten Pascaline.
PASCAL entwickelte die Rechenmaschine, um seinen Vater bei der aufwändigen Rechenarbeit eines Steuererhebers zu unterstützen.

WILHELM LEIBNITZ

Bekanntester Deutscher bei der Entwicklung von Rechenmaschinen war GOTTFRIED WILHELM LEIBNITZ (1636 - 1716).

  • Seine Rechenmaschine vereinigte als erste alle vier Grundrechenarten auf direktem Wege mittels Staffelwalzen.
  • LEIBNITZ war auch der erste, der sich um eine Umsetzung des von ihm eingeführten binären Zahlensystems bemühte.
    • Damit gehört er zu den Wegbereitern der modernen Informationsverarbeitung.

Charles Xavier Thomas

Der Elsässer CHARLES XAVIER THOMAS de COLMAR (1785 - 1870) lässt mit dem "Arithomether" die erste industriell gefertige Additionsmaschine entstehen.

  • Von dieser mechanischen Rechenmaschine wurden run 18.000-Stück hergestellt und danach nahezu 100 Jahre lang zahlreiche nachgebaut.

Charles BABBAGE + die "erste ProgrammiererIN der Welt"

Ein weiterer Meilenscheritt hin zur modernen Computertechnik war die Differenzmaschine des englischen Mathematiker CHARLES BABBAGE (1791 - 1871).

  • Mit seine Konzept des Vierspezies-Rechenwerkes, welcher über:
    • Zahlenspeicher für 1000-Zahlen
    • einer Lochkartensteuereinheit für den Programmablauf
    • Datentransport sowie Geräten zur Datenein- und -ausgabe
    • und einem Drucker
  • verfügte, schuf er das Prinzip eines programmierbaren Digitalrechners.

Mit der Idee des bedingten Sprungbefehls und der Schleife in der Programmierung ging die Freunding BABBAGEs, Lady AUGUSTA ADA BRYON (1815 - 1852), zeitgleich als die erste "Programmiererin" in die Geschichte der Datenverarbeitung.

Elektromechanische Rechenmaschienen (#1.1.4)

Im 19. Jhr. leitete HERMANN HOLLERITH, welcher 1924 die Firma IBM gründete, mithilfe seiner Erfindung der Lochkartenmaschine die Äre der elektrotechnischen Massendatenverarbeitung ein.

Initiiert durch die Tastsache, dass die Auswertung der Volkszählung 1880 (USA) mehr als sieben Jahre gedauert hatte, setzte Hollerith zur Auswertung der Daten eine Lochkarte mit 80 Stellen zur Datenspeicherung ein.

  • Zur Auswertung entwickelte er eigene Locher, Zählmaschinen und Sortierer, die 1889 als Patent angemeldet wurden und 1901 auf der Pariser Weltaustellung eine Goldmedaille erhielten.

Gründung von IBM

Im Eilzugtempo eroberte sich diese Erfundung in vielen Ländern wie Österreich, England und Deutschland.
Die von HOLLERITH gegründete Firma wurde über verschiedene Fusionen 1924 zur International Business Maschines Corporation (IBM) umgewandelt.

  • Die Lochkartentechnologie mit ihrer 89-Stellen-Lochkarte wurde in den 1950er und 1960 Jahren zum Business-Standard.

Elektronische Rechenmaschinen (#1.1.5)

Auf der Grundlage des sog. BABBAGEschen Konzeptes setzten sich in den 1950er-Jahren die sog. "von-NEUMANN-Rechnerarchitektur" durch. Die fünf Hauptkomponenten hierbei sind Steuerwerk, Rechenwerk, Speicher, Eingabe und Ausgabe. Nach diesem Prinzip wurden und werden in den verschiedenen Generationen von Basistechnologien Computer gebaut: Relais- und Röhrenrechner als erste Generation, Transistorenrechner in der zweiten, integrierte Schaltkreise in der dritten und schließlich die heutigen Mikro-Chips als vierte Generation.

Software, Programmiersprachen

Entscheidend für die Entwicklung waren aber waren aber nicht nur die Computertechnik, sondern auch die Software.

Maschinencodes (1. Gen) wurden schnell durch

ersetzt. Ähnliches gilt auch für die Betriebssysteme als Basissoftware für das Zusammenwirken der einzelnen Hardwarekomponenten.

Pioniere des modernen Computers

Pioniere des modernen Computers sind in den USA HORWARD H. AIKEN (1900 - 1973) mit seinem "Mark1" und in Deutschland "Z1- bis Z4-Serie".

  • Der erste voll programmierbrare Rechner war allerdings der von ZUSE 1941 in Berlin vorgestelle elektromechanische Computer "Z3".
  • Rechenmaschinen wie die Z4 wurden Anfang der 1950er-Jahre in kontinenaleuropäischen Hochschulen verwendet.

In den 60/70er wurden die Großrechner (Mainframes) immer leistungsfähiger. Markt- und Technologieführer war hierbei IBM, die neben Anlangen für die Privatwirtschaft vor allem Anlangen an Militär- und Forschungsreinrichtungen lieferten.

  • (Neben IBM trieben Universitäten und private Forschungsreinrichtungen, wie die "Bell Laborities" oder "Rank Xerox") die technologische Grundlagenforschung und Weiterentwicklung immer weiter voran)

Personal Computing (#1.1.6)

In den 70er kamen die ersten Mikroprozessoren auf den Markt, die die technische Grundlage des PC bildeten.
Anfang der 80er stelle IBM den ersten PC mit dem Betriebssystem MSDOS, entwickelt von BILL GATES und PAUL ALLEN vor. Anfang als die Antwort auf zunehmende kleine Homecomputer gedacht, bildeten sie später die Grundlage des heutigen PCs.
(Neben IBM PC teilen sich Unternehmen wie Apple, Commodore oder Atari den Markt der Homecomputer)

Obwohl es durch die Einführung des PC ein Computer nun einiges erschwinglicher war, gab es noch ein Problem: Die Programme waren alle sehr schwer und Text-basiert. Dies änderte sich, als Apple 1984 die erste Grafische Benutzeroberläche (GUI) auf den Markt brachte.

Parallel zur Entwicklung des PC traten auch noch andere technologische Entwicklungen voran. 1980 wurde das Ethernet spezifiziert, welches die physikalische Grundlage des Local Area Networks (LAN) bildet.

1985 wurde die erste Version von Microsoft Windows angeboten, welche sich explosionsartig durch die Verbreitung des PCs sowie einfach Bedienbare Programme ausbreitete, und wurde somit Standard.
Aufgrund geschickter Marketingmaßnahmen (zB. kostenloser Internet Explorer) verschwanden auch immer mehr Konkurrenten und konnten sich in einigen Bereichen "einfach zurücklehnen". (zB. Befolgt der IE nur SEHR geringe Standards des W3C-Konsortiums).

Internet (#1.1.7)

1989 wurde von T. Berners-Lee das WorldWideWeb (WWW, W3) entwickelt. Es beinhaltete das HTTP-Protokoll, die Seitenbeschreibungssprache HTML und einen ersten zeichorientierten Browser.
Zuerst war es überwiegend nur für die nutzen der weltweiten Kommunikation oA. genutzt. 1994 fand es aber auch vermehrt private Nutzung:

  • 1994 entwickelte SUN die Programmiersprache Java, welche im Zusammenhang

mit dem Internet für plattformunabhängige Applikationen sorgen sollte.

Überblick Zeitachse (#1.1.8)

Jahr Beschreibung
1935 Konrad Zuse beginnt in Deutschland mit der Entwicklung einer programm-gesteuerten Rechenanlage
1936 Bau einer schreibenden Tabeliermaschine mit auswechselbarem Programm. Der Programmwechsel erfolgte durch Austauschen der Schalttafel.
1941 Zuse stellt der Welt die erste programmgesteuerte Rechenmaschine der Welt, die Z3, vor. Das Programm ist in einem Kinofilmstreifen gelocht. Die Z3 enthält 2600 Fernmelderelais.
1944 Der Harvard MARK I von Hovard H. Aiken rechnet mit 72 Addierwerken zu je 23 Dezimalstellen. Das Gerät besteht aus 700.000 Einzelteilen.
1946 John Eckert und John Mauchly stellen ENIAC, den ersten Elektrorechner der Welt vor. Er enthält 18.000 Elektronenröhren und 15.000 Relais. Die Programmerung erfolgt über Schalttafeln und Stecker.
1949 Entwicklung des MARK II, der mit Magnettrommelspeicher arbeitet.
1952 Der Mark IV erhält einen Ferrit-Kernspeicher
1953 Zweite Rechnergeneration, die nicht mehr mit Röhren, sondern mit Transistoren bestückt ist. Bau der Rechenanlage G1 im Max-Planck-Institut.
1954 Beginn der Massenproduktion von Transistoren und damit Anfang der industriellen Fertigung von Computern.
1956 Als externe Speicher werden Magnetbandgeräte eingesetzt.
1957 Die Programmiersprache FORTRAN wird vorgestellt
1958 Die ersten transistorgesteuerten Computer werden angeboten. Erste EDV-Anlage mit simultaner Bearbeitung mehrerer Programme.
1960 Neben Magnettrommelspeichern werden erstmalig Magnetplattenspeicher verwendet.
1961 Die Programmiersprache COBOL wird präsentiert.
1964 Die "Dritte ComputerGeneration" mit integrierten Schaltkreisen kommt auf den Markt
1966 Texas Instruments erfindet den Thermodrucker
1967 Die ersten Mehrbenutzersysteme (Time-sharing-Rechner) kommen auf den Markt
1970 Erste kommerzielle EDV-Anlage, deren Arbeitsspeicher aus Halbleitern besteht. IBM 370/145
1971 Erster technisch-wissenschaftlicher Taschenrechner "[HP-35" von Hewlett Packard
1974 Der erste frei programmierbare Taschenrechner "[HP-65" wird von Hewlett Packard (HP) vorgestellt (HP-65)
1975 Die ersten Small-Business Computer für kleinere Betriebe kommen auf den Markt
1976 Texas Instruments (TI) stellt den ersten magnetischen Blasenspeicher mit einer Kapazität von 92.000 Bit pro Chip vor. Erste Aktivitäten von Apple (Firmenlogo)
1978 Beginn des Mikrocomputerbooms in den USA, Markteinführer sind Commodore, Tandy, Apple. Das Jahr 1977 wird als das Geburtsjahr der Computer bezeichnet. Gates und Allen gründen MICROSOFT offiziell.
1979 Erster kommerzieller genutzter Computer mit synthetischer Sprache. Die ersten 5.25 Zoll Diskettenlaufwerke kommen auf den Markt.
1980 Seagate bringt eine erste Fesplatte mit 5MB Speicherplatz auf den Markt. Kostenpunkt: 3.500$ !
1981 Das Betriebsystem "CP/M" setzt sich bei Mikrocomputersystemen als Marktführer durch. Microsoft bringt das Betriebssystem MS-DOS 1.0 auf den Markt.
1982 Der Personal-Computer von IBM hält in Europa Einzug und setzte Maßstäbe. MS-DOS 1.1 wird zum Quasi-Standard für 16-Bit-Mikrocomputersysteme. Die Kompatibilität zum IBM-PC wird von den Mitbewerbern in zunehmendem Masse als Werbeargument angeführt. Der PC namens Commodore C64 wird über 20 Millionen mal verkauft.
1983 Microsoft präsentiert sein erstes Word, MS-DOS 2.0 und einen Flight Simulator.
1984 MS-DOS von Microsoft trägt nun die Version 3.1. Die ersten grafischen Benutzeroberflächen entwickelt von Apple erscheinen. (MacOS)
1985 Der Amiga setzt sich als Spielcomputer bei vielen Jugendlichen durch. Apple bringt den ersten Laser-Drucker auf den Markt. Microsoft versucht sich mit Windows 1.0 (Flop)
1986 Das CD-ROM beginnt seinen Siegeszug als Software-Distributionsmittel. SCSI-1 wird standartisiert. Microsoft kommt mit MS-DOS 32.
1987 Der Computer setzt sich allmählich in der Geschäftswelt durch. Apple läutet die MAC II Generation mit ersten Plug and Play Funktionen ein. Microsoft bringt Windows 2.0 und die erste Windows-Anwendung Excel auf den MArkt.
1988 Der EISA-Standard wird standardisiert
1989 Der PCMCIA-Standard wird festgelegt, was dem "Mobilen PC" einen Aufschwung verleiht. Microsoft liefert erstmals Offices auf CD
1990 Das Windows-Zeitalter wird mit Windows 3.0 eingeläutet. Für die Werbung wird über 10 Mio. $ ausgegeben. Gleichzeitig beendet Microsoft die Zusammenarbeit mit IBM.
1991 Apple bringt die ersten MacPowerBooks auf den Markt. Das Internet wird öffentlich und bringt mit dem WWW den großen Durchbruch. Das MS-DOS trägt nun die Version 5.0 und die Programmiersprache Visual BASIC kommt auf den Markt.
1992 Hersteller wie Compaq erobern das Kinderzmmer und den immer stetiger wachsende Home-Markt. Windows 3.1 ist erhältlich.
1993 Die ersten erschwinglichen CD-Brenner erscheinen. Die Plug und Play Spezifikation werden definiert. Windows NT, NT Workstation und Advanced Server bringen Sicherheit ins Netzwerk. Erste Pentium Rechner.
1994 Festplatten erreichen den Gigabyte-Bereich. Alternative Speichermedien wie Iomega Zip Drive (100MB) kommen auf den Markt.
1995 Windows 95 und Office 95 werden massiv von Microsoft beworben und setzen neue Maßstäbe.
1996 Von Microsoft: Windows NT 4.0, Internet Explorer 2.0 und 3.0, Windows CE, [ https://de.wikipedia.org/wiki/Visual_J%2B%2BVisual J++] (Microsofts versuch einer Implementierung von Java), Office 97. Von Netscape: Navigator 2.02 und 3.0
1997 Erste Java-Programme. Erste Pentium-II Rechner. Microsoft Internet Explorer 4.0
1998 Windows 98 wird erstmals als Plug und Play fähig angepriesen. Jedoch unterstützen noch nicht alle Hersteller diesen Standard.
1999 Pentium III wird zum Standard. Wachsende Ängste um Millenniums-Taughlichkeit der Programme und der Hardware. Mit der Angst wird in der Computerbranche viel Geld verdient.
2000 Windows 2000 und Office 2000. Die Ereignisse und Möglichkeiten in der Computer-Branche überschlagen sich. Das Internet wird täglich zum Gesprächsthema und somit auch dessen Sicherheit.
2001 Windows XP kommt heraus, Festplatten für den normalen Benutzer mit 80 und mehr GB sind erhältlich, erste erschwingliche DVD Brenner kommen heraus, Pentium4 wird Industriestandard. AMD wird mit den XP-Prozessoren zum größten Intel-Gegner.
2002 Microsoft setzt Sicherheit als neuen Schwerpunkt. Apaches Webserver besitzt eine Marktdominanz mit über 60% Webserver-Anteil.
2003 Microsoft bringt Windows Server 2003 heraus. SCO verklagt führende Linux-distributoren auf Lizenzgebühren.
2004 Intels Prozessoren überschreiten die 3GHz Taktfrequenz.
2005 Festplatten mit 300GB sind erhältlich.
2006 Noch schneller, größer, besser...

Digitale Informationsverarbeitung (#1.2)

Zahlensysteme dienen dazu, Zahlen nach einem bestimmten Verfahren darzustellen.

  • Wir Menschen nutzen hierzu das Dezimalsystem (0-10).
  • In der elektronischen Datenverarbeitung wird das Dualsystem benutzt, welches nur aus 2 Zahlen (0 und 1) besteht, und deswegen gut mit Stromstößen umsetzbar ist.
  • Zur Darstellung im Computer gespeicherter Daten wird oft das Hexadezimalsystem (0-9, "A"-"F") benutzt, weil Binärzahlen sehr schnell sehr unübersichtlich werden können.

Darstellung der Zahlensysteme (#1.2.1.4)

Schreibweise Binär Dezimal Hexadezimal
Tiefstellung der Basis 11012 1310 D16
Präfix %1101 #13 $D
Postfix 1101b 13d Dh


Informationseinheiten (#1.2.2)

Das Bit, Byte und Word (#1.2.2.2/3/4)

  • Das Bit ist die kleinste Einheit. Sie kann einen Zustand von 0 oder 1 annehmen. (Strom aus/an)
  • Mehrere Bits können zusammen eine Zahl von bis zu 2Anzahl an Bits annhemen. 8 Bits aneinander werden ein Byte genannt.
  • Ein (Daten-)Word ist 16-Bits groß, und somit ist ein DWord 32-Bits groß. Die Bedeutung liegt im Zusammenhang des darstellbaren Zahlenbereichs, sowie den Busbreiten der gängigen Prozessoren in 16- bzw. 32 Bit Technologie zusammen.


Kodierung (#1.2.3)

Problemstellung (#1.2.3.1)

Für den Computer sind alle Informationen, die er verarbeitet, binäre Zahlenströme.

  • Da man aber mit dem Computer mehr machen will, als Berechnungen durchzuführen, muss man ihm die Darstellung der Zeichen "beibringen".
    • Hierzu wird eine Art "Tabelle/Map" benutzt, in der jeder Zahl einm Zeichen zugeordnet ist.

Natürlich gab es einige versuche von verschiedenen Firmen und Ländern, einen eigenen Standard zu entwickeln.
Die heutig üblichen Standards sind jedoch:

ASCII (normale Zeichen) (#1.2.3.2)

Dieser Standard kodiert ein Zeichen mit 8 Bits, das heißt dass es auf 256 Zeichen beschränkt ist. Die ersten 128-Zahlen wurden wie folgt standardisiert:

  • Drucksteuerzeichen
  • gefolgt von Zeichen für die Interpunktion sowie den
  • normalen Zeichen des Alphabets

Der erweiterte Teil des ASCII Codes ist für nationale und andere Sonderzeichen reserviert (128 Bits).

Wegen der Beschränkung der Sonderzeichen, sowie die nicht-Standardisierung der Sonderzeichen von ASCII (Auf jedem Betriebsystem anders dargestellt), wurde der ANSI Code entwickelt.

ANSI (ASCII + Sonderzeichen) (#1.2.3.3)

ANSI basiert auf den ersten 127 Bits der ASCII-Zeichen, verwendet aber 16 Bits für die Darstellung der Zeichen.
Der Wertebereich liegt somit bei 65536 Zeichen.
Dieser Wertebereich ist zwar ausreichend, aber nicht international normiert (d.H. Die Zeichen sind je nach OS/App/Sprache anders), weswegen Unicode entwickelt wurde.

Unicode (Sonderzeichen bekannter Schriftkulturen) (#1.2.3.4)

Unicode ist ziemlich gleich aufgebaut wie ANSI (16 Bits), jedoch ist es überall gleich und unabhängig von OS/App/Sprache.
Somit können Programme problemlos in die meisten Sprachen übersetzt werden. (Java benutzt Unicode)









Computerarchitektur (#2)

Von-Neumann Architektur (#2.1)

Die heutigen Computersysteme haben in der Regel als gemeinsame Basis das gleiche Konzept des Universalrechners, die "Von-Neumann Architektur", welche in 4 Funktionseinheiten aufgeteilt ist:

Dazu kommt noch als Verbindung zwischen Funktionsblöcken der Systembus, welcher wiederum aus dem Steuer- Daten- und Adressbus besteht.

  • An dieser Struktur ändert sich unabhängig von Aufgabenstellung grundsätzlich nichts.
    • Die Anpassung für jedes zu lösende Problem erfolgt mit dem im Speicher abgelegten Programmen, welche Informationen zur Steuerung des Rechners beinhalten.
  • Bei den Informationen wird zwar zwischen Befehlen und Daten unterschieden, es gibt aber nur einen gemeinsamen Speicher für beides. Jede Speicherzelle ist mit einer festen Adresse eindeutig identifizierbar.


Arbeitsweise Von-Neumann Architektur (#2.2)

Ein Programm eines Von-Neumann-Rechners besteht also aus einer Folge von Datenwerten, die im Speicher in Maschinensprache abgelegt sind.
Weil Maschinencode (0 und 1) sehr schwer lesbar sind, wurden Assemblersprachen entwickelt, die jedem codierten Befehl einen Mnemocode (String) zuordnen, der die Bedeutung des Befehls andeuten soll.

Erkennung wesentlichen Komponenten (#2.4)

CPU (Central Processing Unit) (#2.4.1)

Die CPU führt sämtliche Berechnungen durch. Moderne CPUs produzieren viel Wärme und benötigen deswegen einen Kühlkörper.

  • Die zwei größten Hersteller sind Intel und AMD.

RAM (Random Access Memory) (#2.4.2)

Im RAM werden die vom Prozessor aktuell benötigten Programme und Daten in Bytes gespeichert.

  • Da moderne Rechner über viele Millionen Byte RAM verfügen, wird die Kapazität in Megabyte (MB) oder sogar Gigabyte (GB) angegeben
  • Derzeit sind vorallem DDR2 und DDR3 verbaut. (bei neuen Grafikkarten DDR4 und DDR5)

Mainboard (Motherboard) (#2.4.3)

Das Mainboard sorgt dafür, dass alle Teile des Computers verbunden sind.
Zusätzlich besitzt es noch einige Verwaltungs-, Steuerungs- und Überwachungsfunktionen, um einen sicheren Betrieb zu gewährleisten.

  • Die Position von externen Anschlüssen und Sockel wurden Standardisiert.

Gehäuse (Case) (#2.4.4)

Das Gehäuse dient zum Einbauen der verschiedenne Komponenten.

  • Es gibt viele Formen (Desktop, Mini, Midi/Bigtower, ...)

Netzteil (PSU) (#2.4.5)

Das Netzteil wandelt die Netzspannung (230V) in 12,5V und 3,3V Gleichspannung um, und versorgt damit alle wichtigen Komponente.

  • Die Stecker wurden zum Glück auch standardisiert.

Festplatte (Drive) (#2.4.6)

Auf der Festplatte werden Programme und Daten gespeichert, die aktuell vom Prozessor nicht benötigt werden. Die Kapazität wird in Gigabyte (GB) oder auch in Terrabyte (TB) angegeben.

  • Die Speicherung erfolgt durch Magnetismus (HDD), und die Daten gehen auch ohne Strom nicht verloren.

CD/DVD/BD-Laufwerk (#2.4.7)

Früher hatte jeder PC solch ein CD-ROM-Laufwerk, aber durch die heute USB-Technologie, das Internet und dem Platzmangel in Minis und Slim-Notebooks wird es immer weniger verwendet.

  • Früher wurde die Software auch als Diskette mitgeliefert, aber weil diese meist veraltet ist, ist es besser sich die neueste Version vom Internet herunterzuladen.

Anschlüsse (#2.4.8)












Mikroprozessoren (#3)

Die heutigen Prozessoren sind so modern, dass sie Milliarden von Zahlen je Sekunde addieren, subtrahieren, multiplizieren und dividieren.

Aufbau (#3.1.1)

  • ALU (Arithmetic Logic Unit, Rechenwerk): Die ALU ist der eigentliche Rechner. In ihr werden alle arithmetischen und logischen Funktionen/Berechnungen ausgeführt
  • CU (Control Unit, Steuerwerk): Hier sind alle Befehle gespeichert, die der Mikroprozessor ausführen kann
  • Registersatz (Register): Dient zur Speicherung von Daten und Befehlen
  • AU (Address Unit, Addresswerk): Dient zur Berechnung der Adressen (z.B. wo sollen die nächsten Daten geholt werden)

Zur Steigerung der Arbeitsleistung sitzt in der CPU noch ein sog. L1-Cache, welcher für Daten gedacht ist auf den gerade dauerhaft zugergiffen wird. (Extremst Schnell, weil direkt verbaut = kurzer weg, sogar schneller als die Register)

Funktion (#3.1.2)

Nehmen wir an unsere CPU soll eine Rechenaufgabe, wie zB. eine Addition "55 + 18". Nun stellen sich aber einige Fragen:

  • Wie können wir der CPU diese Daten (Zahlen) mitteilen?
    • Dafür ist der DATENBUS zuständig. Über ihn senden wir der CPU die Zahlen/Befehle (in Binärer Form)

400x800px

Weil wir 2 Zahlen einlesen wollen, müssen wir diese mithilfe der CPU-Register zwischenspeichern. (Für die wichtigsten 4 Register hat Intel sogar einen eigenen Namen: AX BX CX DX)

  • Wie können wir die CPU nun aber veranlassen, die im Register liegenden Zahlen zu addieren?
    • Zu diesem Zweck werden nicht nur Zahlen, sondern auch Befehle über den Datenbus eingelesen. Diese Befehle besitzten ein ganz bestimmtes Bitmuster, welches im Steuerwerk (CU) der CPU gespeichert ist. Dieser Assembler-Befehlssatzt ist bei jeder CPU anders.

550x1400px

Aber auch dieser Assembler-Code ist viel zu schwierig, um damit große Programme zu schreiben, weswegen es auch viel höhere Sprachen wie C++ oder VB gibt.

  • Diese werden durch einen Compiler automatisch in den entsprechenden Assemblercode übersetzt.

Da ein Prozessor mehrere Millionen Zeilen eines Programmes / Sekunde verarbeiten kann, wäre eine Festplatte viel zu langsam.

  • Deswegen muss jedes Programm beim starten zuerst in den Arbeitsspeicher geladen werden.

Der Taktgeber (#3.1.3)

Damit eine CPU weiß, wann ein Befehl oder eine Zahl am Datenbus anliegt, muss sie darauf aufmerksam gemacht werden.

  • Dies geschieht Mithilfe einer Leitung, an der eine Spannung angelegt wird sobald wieder Daten eingelesen werden sollen.

Da die CPU ständig Daten verarbeitet, wechselt die Spannung mehrmals pro Sekunde, und es entsteht ein sog. Taktzyklus. Die max. Anzahl an Taktzyklen wird Taktfrequenz genannt, welche bei heutigen Prozessoren in GigaHerz Bereich liegen kann.

  • In diesem Takt arbeiten alle ans Motherboard angeschlossenen Geräte.

Der Addressbus (#3.1.4)

Daten, welche schnell verarbeitet werden müssen (zB. Programme) liegen wie wir ja wissen im Arbeitsspeicher.

  • Im Arbeitsspeicher bekommt jedes einzelne Byte seine eigene Adresse (Meißt in Hex-Zahl dargestellt) auf die wahlfrei und immer gleich schnell zugregriffen werden kann.

Allerdings erfolgt dieser Zugriff auf den Arbeitsspeicher auf einem externem Chip, die sog. Northbridge.

  • Wenn die CPU nun etwas mit dem Arbeitsspeicher machen will, muss die CPU der Northbridge einen Befehl über den Adressbus mitteilen.
    • Die Antwort der Northbridge bekommt die CPU über den Datenbus.

(CPU Befehl --Adressbus-> Northbridge -> Antwort/Rückgabe --Datenbus-> CPU)

  • Die Anzahl der Leitungen bestimmen die Größe des Speichers die adressiert werden kann. (zB. 32Bit)

800x400px

Modernere Prozessoren (#3.2)

Am Anfang gab es viele Prozessorhersteller, wie zB. auch Texas Instruments oder Commodore. Bis heute haben sich aber nur Intel und AMD durchgesetzt.

Anfangs waren Prozessoren fest auf die Platine gelötet.

  • Seit dem Intel 486er haben sich eine Reihe von Standard-Sockel entwickelt, für jede Generation gibt es bei Intel einen neuen Sockeltyp.
  • Nach dem Sockel-7 hat jeder Hersteller seinen eigenen Sockel entwickelt.


Prozessor-Bauformen (#3.2.1)

PGA (#3.2.1.1)

Seit Mitte der 80er haben die CPUs eine sog. PGA-Bauform (Pin Grid Array). (Bis auf wenige Jahre ist auch heutzutage diese Gehäuseform vorherrschend)

SEC (#3.2.1.2)

Mit dem Intel Pentium II wandte sich Intel abrupt von der PGA Bauform ab und verwendete die Single Edge Cartridge mit dem Namen SLOT 1. Auch AMD baute eine zeitlang Prozessoren mit dieser Bauform (Slot A).

Historie Prozessorsockel (#3.2.1.3)

Bezeichnung Beschreibung
Sockel 1 Prozessorsockel mit 238 Pins für Intel 486 SX
Sockel 2 Prozessorsockel ab 486 DX2 mit einer Versorgungsspannung von 5V
Sockel 3 Prozessorsockel mit 237 Pins ab 486 DX4
Sockel 4 Prozessorsockel mit 273 Pins ab Pentium 60 und 66 (P5) mti einer Versorgungspannung von 5V
Sockel 5 Prozessorsockel mit 320 Pins für Pentium-Prozessoren von 75 bis 133 Mhz (P54C) und einer Versorgungspannung von 3.3V und 3.5V
Sockel 6 Angedacht für den 486, wurde aber niemals eingesetzt (235 Pins).
Sockel 7 Nachfolger des Sockel 5 für Pentium-Prozessoren und gängigster Sockel für Prozessoren mit 321 Pins der 5. und 6. Generation von AMD und IBM/Cryix als Super-Socket-7 mit 100MHz FSB
Sockel 8 In diesem Sockel passt nur der Pentium Pro mit 387 Pins von Intel
Slot 1 Dieser Prozessor-Anschluss (242) wurde mit dem Pentium II eingeführt. Er wird auch für den Pentium III verwendet. Da der Prozessor mit L1- und L2-Cache auf einer Leiterplatte in einem Modul untergebracht ist, ähnelt dieser Sockel mehr einem Erweiterungssteckplatz.
Slot 2 Der Slot 2 mit 300 Anschlüssen ist der Highend-Prozessorsockel für Intel Multiprozessoren Pentium II Xeon und Pentium III Xeon.
Sockel 370 Nachdem Pentium III-Prozessoren mit Coppermine-Kern einen integrierten L2-Cache, auf dem Die (Siliziumschicht), haben, ist eine Platine nicht mehr nötig.
Deshalb führte Intel die PGA Bauform ein, die elektrisch und in der Pin-Belegung aber nicht alle kompatibel zueinander sind.
Slot A Der Slot A ist für den Athlon von AMD. Das Slotdesign des Slot A (242 Pins) ist vom Prinzip ein spiegelverkehrter Slot 1
Sockel A Die AMD-Prozessoren Thunderbird und Duron gibt es nur für den Sockel A mit 462 Pins. Der Slot A hat damit bereits wieder ausgedient
Sockel 423 Prozessorsockel mit 423 Pins für den Pentium 4 von 1300 bis 2000 MHz
Sockel 478 Prozessorsockel mit 478 Pins für den Pentium 4 ab 1400 MHz und Celeron ab 1700 MHz
Slot M Um die erfoderliche Bandbreite für die IA-64 Prozessorgeneration (Intel Itanium) zu gewährleisten, führte Intel den Slot M (Merced) ein. Über einen Extra-Stecker werden die Masse-Leitungen an das Prozessor-Gehäuse geführt.
Sockel 603 Intel Xeon Foster
Sockel 604 Intel Xeon 3.06 GHz
Sockel 754 Dieser Sockel diente als erste Plattform für den Athlon 64, wurde dann aber durch den Sockel 939 ersetzt. Der Sockel 754 dient langfristig als Plattform für den AMD Sempron und für die Notebookprozessoren Mobile Athlon 64, Turion 64 und Mobile Sempron.
Sockel 939 Dieser Sockel hat eine doppelte Speicherbandbreite als der S754. Außerdem verwendet er statt dem klassischen FSB durchweg HyperTransport.
Ab AMD Athlon 64 3500+ (2.2 GHz), 3800 (2.4 GHz) und FX-53 (2.4 GHz), alle drei haben zwei Speicherkanäle
Sockel 940 Ursprünglich war der Sockel 940 für den Opteron gedacht. Dann hat AMD diesen Sockel für den Athlon 64 FX-Serie missbraucht. Die nichts anderes als Opterons sind.
Sockel 775 Statt Pins auf der Prozessorunterseite drücken flache Kontakte im Sockel auf kleine Blattfedern und stellen so eine Verbindung her. Dieses Verfahren soll für eine bessere Verbindung sorgen und verbogene Pins vorbeugen. Der Sockel hat insgesamt 775 Kontakte.
AM2 Seit Mai 2006 gilt es für den Athlon 64, Athlon 64 X2 und Semperon mit dem AM2-Sockel und DDR2-Speicherinterface
AM2+ Erweiterung des Sockels AM2 für AMD Phenom X3/X4
AM3(+) Der AM3-Sockel wird für billige Athlons und Phenoms ab 2 Kernen (X2/X4) verwendet.FX-Prozessoren von AMD haben den AM3+-Sockel
Sockel 1366 Ist der neue Sockel (Ende 2008) für die Intel Nehalem Prozessorserie (Core i7).
Der Unterschied zum 775 ist, dass die CPU nicht mehr über den klassischen FSB sonder über eine Punkt-zu-Punkt-Verbindung (QuickPath Interconnect) an den Chipsatz (DDR3) angeschlossen ist.
Sockel 1156 Neuer Sockel für den Intel Core i5 (Lynnfield abgespeckter i7 dafür billiger 3. Quartal 2009) Mehr als die Hälfte der Pins dienen für die Stromversorgung
Sockel 1155 Nachfolger vom 1156 für i3, i5 und i7 mit der Sandy-Bridge-Architektur
Sockel 2011v3 Sockel für Sandy-Bridge-E CPUs (vier Speicherkanäle für DDR3 und 40 PCIe-Lanes)
Sockel 1150 Nachfolger vom 1155 mit der Haswell und Broadwell Architektur
Sockel 1151 Nachfolger vom 1150 für die Skylake und Kabylake

Intel Prozessoren (#3.3)

Der Pentium (#3.3.1)

1993 brachte Intel den ersten 32-Bit Prozessor (Datenbus 64 Bit, Adressbus und Register je 32 Bit).

  • Bis heute enthalten alle Prozessoren jene Kernfunktionen die der Pentium damals besaß.

Dazu gehören:

Multiprocessing (#3.3.1.1)

Bei den ersten Intel Prozessoren musste jede Anwendung geschlossen werden, wenn eine andere Anwendung gestartet wurde.

  • Multiprocessing bedeutet, dass der Prozessor mehrere Anwendungen gleichzeitig verarbeiten kann.

Allerdings kann kein Prozessor zwei Programme gleichzeitig ausführen. Ein Prozessor schaltet immer nur zwischen den verschiedenen Anwendungen hin und her. (Durch die enorme Geschwindigkeit hat es den anschein, als würden alle Programme parallel betrieben werden)
Er muss sich natürlich jedes Mal merken wo er beim Programm aufgehört und wieder starten kann. (Und dies wurde durch den 32 Bit-Adressbus möglich)

Cache (#3.3.1.2)

Die Verwendung der DRAM Technologie (Transistor und Kondensator) beim Arbeitsspeicher ist zwar billig, aber dafür viel zu langsam für heutige Prozessoren.

Der Nachteil ist, dass diese Kondensatoren immer wieder Aufgefrischt werden müssen (ca. jede ~16ms), und der Prozessor während dieser Zeit warten muss.

  • Damit es für die CPU zu keinem Waitstate kommt, wird zwischen der CPU und dem Arbeitsspeicher ein sog. Zwischenspeicher (Cache) eingebaut.
  • Im Unterschied zum Arbeitsspeicher wird beim Cachespeicher die SRAM-Technologie (Static-RAM) verwendet. Bei dieser Technik werden keine Kondensatoren sonder spezielle Schaltungen mit Transistoren verwendet.
    • Dadurch ist kein Auffrischen mehr notwendig und sie sind fast so schnell wie die CPU. Der hohe Preis (ca. 10-fach) verhindert das SRAM als Arbeitsspeicher zum Einsatz kommt.

RAM-Cache (#3.3.1.3)

In jedem Pentium-Prozessor befindet sich ein kleiner Cache (16 KB), der interner Cache (L1-Cache) genannt wird. Allerdings kann dieser Cache mehr als nur Daten zwischenspeichern bis der Prozessor sie benötigt. Der Pentium-Cache beherrscht branch prediction,

womit ein Verfahren zu vorhersage von Programmverzweigungen gemeint ist (Sprungvoraussage). 

(Es gibt auch noch einen externen L2-Cache auf dem Motherboard, welcher heutzutage in der CPU ist)


Pipelines (Befehlswarteschlange) (#3.3.1.4)

Alle CPUs verfügen über eine Pipeline, mit der die Abarbeitungsfolge eines Befehls gemeint ist.
Beim Pentium wurde eine zweite Pipeline (Dual Pipelining) eingebaut. Diese ermöglicht es mehrere Befehle parallel abarbeiten zu können. (Moderne CPUs besitzen sogar mehr als 2)


800x400px 600x700px

Taktfrequenz und Multiplikator (#3.3.1.5)

Bei den ersten Mainboard bestimme der Taktgeber das Arbeitstempo aller Chips. Als Intel Prozessoren mit höherer Taktfrequenz produzieren konnte musste eine Lösung her:

Overdrive-Prozessoren: Diese Prozessoren übernehmen das ankommende Taktsignal und multiplizieren es innherhalb der CPU, so dass die Schaltkreise innerhalb der CPU mit höherem Takt betrieben werden können.
Beispiel: der 3.06-GHz-Intel-Pentium-4 läuft mit einer externen Taktfrequenz von 133 MHz und arbeitet mit einem Multiplikator von 23, woraus sich 3.06-GHz ergeben.

  • Bei früheren Mainboard musste der Multiplikator manuell eingestellt werden, heute funktioniert das aber automatisch.


CPU-Spannung (#3.3.1.6)

In den ersten 10 Jahren wurden alle CPUs mit 5 Volt betrieben, aber mit der Weiterentwicklung und der Steigung der Transistoren in enorme ausmaße erzeugte der Prozessor zu viel Hitze.

Und um diese Verlustleistung entgegen zu wirken, wurde diese Betriebsspannung immer kleiner (Heute: 1.2V).

  • Ähnlich wie bei der Taktfrequenz musste man diese Spannung früher selber einstellen, heute geht es aber automatisch. (Ausnahme: Overclock)

Pentium Pro (#3.3.2)

Der Pentium Pro wurde 1995 von Intel als High-End-Prozessor für Server und Workstation-Anwendungen unter Windows NT entwickelt. Dieser Prozessor besteht aus zwei Silizium-Plättchen. Die eine ist der eigentliche Prozessor, und die 2 ist der Hochgeschwindichkeitsspeicher Level-2-Cache. (Früher auf dem Mainboard) Zusätzlich bot dieser Prozessor nur 4 Pipelines und war mit einer Dynamischen Verarbeitung ausgestattet.

800x400px

Pentium MMX (#3.3.3)

Dieser Prozessor bat 57 neue Befehle und 4 neue Register, die sogenannte MultiMediaExtion. (Heute in jedem Prozessor eingebaut)

  • MMX: 1996 integrierte Intel in den Pentium die sog. Multi Media Extention. Diese bot 57 neue Befehle, welche vorallem für Grafikanwendungen und Spiele zu gute kamen.
  • Split Voltage: geteilte Spannungsversorgung
  • Höhere Taktfrequenzen und Multiplikatoren
  • Verbesserte interne Verarbeitung: zB. Sprungvorhersage

Pentium 2 (#3.3.5)

Dieser Pentium bietet einen größeren L1-Cache sowie die MMX Technologie. Dazu kommt, dass der L2-Cache von der CPU getrennt ist. (SEC-Bauart) Dadurch erreicht Intel eine bessere Ausbeute bei der Produktion, da bei fehlerhaftem Material nicht der gesamte Chip unbrauchbar ist.

Intel Celeron (Pentium 2)

Beim Versuch, größeren Marktanteil zu gewinnen, entwickelte Intel eine abgespeckte Version des Pentium-II für Low-End-PCs. Der unterschied lag im entfernden Gehäuse sowie entferntem L2-Cache. (Da dieser aber sehr langsam ohne Cache war, baute Intel doch einen in späteren Versionen ein)

Pentium 3 (#3.3.8)

Der P3 verbesserte den P2 durch SSE (Streaming SIMD Extenstions), Intels Konkurrenzprodukt zu AMDs 3DNow!TM, eine Reihe interner Verarbeitungs- und Pipelining-Verbesserungen, volle Unterstützung von 100/133-MHz Mainboards sowie verbesserten L2-Cache.

Die neuen 72 MMX-Befehle sollen für eine bessere Leistung für 3D-Spiele, MPEG2-Kodierung sowie ein schnelleres Internet und Datentransfer sorgen.

Die erste Bauform war eine Sonderform des SEC-Gehäuse namens SECC-2. Durch spätere Veränderungen in der Technologie konnte dieser Prozessor jedoch auch im PGA-Gehäuse produziert werden.

Pentium 4 (#3.3.9)

Da keine weitere Leistungssteigerung mehr möglich war, stieg Intel auf eine komplett neue Prozessor-Architektur um: Netburst.

  • Damit die Wärme ein schnell genug abgeführt werden konnte, bieten die jetzigen Mainboard-Sockel eine eigene Kühlkörperhalterung.
  • Auch brauchte der neue Prozessor mehr Power, weswegen ein neuer Netzteil Anschluss für die CPU hermusste. (P4 tauglich)

Die "Netburst Architektur"

Under dem Begriff "Netburst Architektur" werden alle Neuerungen die den P4 betreffen zussamengefasst:

Hyper Pipelined Technology

Die neue Pipeline wurde vom vorgänger-Modell auf 20 Stufen verdoppelt.

  • Die Befehlsverarbeitung wurde dabei in noch kleinere Schritte auf geteilt und hat den ernormen Vorteil, dass sie sehr viele Aufgaben auf einmal und schneller erledigt werden können. Erst durch sie werden die hohen Taktraten möglich.
Advanced Dynamic Execution

Kurz-gesagt: Die Sprungvorhersage der Level-Caches wurde verbessert.

Trace Cache

Bei den bisherigen CPUs wurde der L1-Cache sowohl für Daten als auch Befehle verwedent. Beim P4 gibt es für die Befehle jetzt einen eigenen Trace-Cache. D.h. sobald der Prozessor einen Befehl dekodiert hat, speichert er die dekodierten Operationen (MikroOPs) in diesem Cache ab. Dies hat den enormen Vorteil, dass der P4 direkt auf die dekodierten Befehle zugreifen kann, anstatt sie vom L1-Cache holen und nochmal dekodieren zu müssen. Dieser Trace-Cache kann bis zu 12.000 Operationen speichern.

Rapid Execution Engine

Auch bei den ALUs zur Berechnung einfacher Integer geht Intel einen neuen Weg. Insgesamt besitzt der Pentium 3 ALU-Einheiten, wovon eine herkömmlich und die anderen 2 mit doppelten CPU-Takt arbeiten.

SSE2 (Streaming SIMD Extensions 2)

Dieser Pentium wurde neben der MMX- und SSE-Technologie noch nur 144 neue Cache- und Speicherverwaltungs-Befehle verbessert. Und darüber hinaus wurden die 64-Bit Befehle der MMX Technologie auf 128-Bit erweitert.

Quadspeed

Der Pentium arbeitet zwar mit einem 100MHZ Bus-Takt, jedoch kommt eine völlig neue Technologie namens "Quad Data Rate (QDR)" zum Einsatz, welche es erlaubt, vier Datenpakete während eines einzigen Taktes zu verschicken, sodass die Bandbreite einer Taktrate 400MHz entspricht.

  • Aus diesem Grund wird oft bei den neuen Prozessoren neben dem Takt auch die Bandbreite angegeben (Beim Pentium 3.2 GB/sec).
    • Aus diesem Grund setzte Intel bei der Einführung des P4 ausschließlich auf PC800 Rambus als Arbeitsspeicher.

Pentium 4 "Willamette" (#3.3.9.1)

Der große Preis (zB. wegen dem neuen Mindest-Rambus) sowie der kleinere Cache war der Grund, wieso viele Leute lieber auf AMD-System zurückgriffen.

  • Aus diesem Grund bot Intel es nun auch an, den P4 auch mit SD-Ram zu betreiben. (Sehr langsam)

Erst als 2001 schnellere Versionen ausgeliefert wurden, konnte Intel den Geschwindigkeitsunterschied zu AMD wettmachen.

Pentium 4 "Northwood" (#3.3.9.2)

Dieser Kern war nurnoch mehr 130nm klein, wegen den dementsprechend kleinen Transistoren wurde der Stromverbrauch auch kleiner.
Außerdem wurde der L2-Cache auf 512 kB verdoppelt.

Pentium 4 "Prescott" (#3.3.9.3)

Dieser Kern war nun nurnoch mehr 90nm groß und unterstützte die SSE3-Befehle.

Pentium 4 Extreme Edition "Gallatin" (#3.3.9.4)

2005 brachte Intel eine verbesserte Version des Prescotts, mit 2MB L2-Cache.

Pentium 4 Serie 5xx "Prescott" (2. Gen) (#3.3.9.5)

Nachdem Intel durch verschiedene Maßnahmen (Kupferband, neuer Sockel 775) die Temperaturprobleme in den Griff bekam, wurd ein neuer Anlauf mit dem Prescott-Kern gestartet.

  • Die Pinlose Variante ermöglichte bessere Pindichte und besseres Hochfrequenzverhalten.

Pentium 4 Serie 6xx "Prescott 2M" (#3.3.9.6)

Dieser Pentium löste den vorherigen 5xx ab und behob einige Schwachstellen, die AMD schon lange gelöst hatte. Darunter zählt das vom Athlon 64 eingeführte "Cool'n'Quiet", das den Takt des Prozessors heruntersetzen kann, und natürlich die Unterstützung von 64-Bit-Applikationen. (Ansonsten ist er identisch.)

Pentium D (#3.3.10)

Die magische Grenze von 4GHZ hatte der Pentium 4 wegen Hitzeentwicklung (etc.) nicht erreicht.

  • Deshalb setzte Intel (AMD) auf eine neue Strategie: Mehrkernprozessoren

Beide Prozessoren enthalten jeweils einen Pentium-4-Kern (Prescott) mit jeweils 1MB L2-Cache. Beide Kerne haben einen gemeinsamen Bus zum Chipsatz und teilen sich somit die Bandbreite des Font-Side-Bus (FSB) mit 800MHz.

400x200px

Zusammenfassung Intel Pentium 4 (#3.3.11)

Prozessor Pentium 4 "E" und "J" Pentium 4 6xx-Serie Pentium 4 Extreme Edition Pentium 4 Extreme Edition 3.73-GHz Pentium D und Extreme Edition 840
Kern Prescott Prescott-2M Northwood-2M Prescott-2M 2x Prescott (= 2 Kerne)
Technologie 90nm 90nm 130nm 90nm 90nm
Transistoren 125 Millionen 169 Millionen 169 Millionen 169 Millionen 230 Millionen
Größe 112 mm² 135 mm² 240 mm² 135 mm² 213 mm²
Taktfrequenz (FSB = FrontSideBus) bis 3.8-GHz, 800-MHz FSB / 533-MHz FSB bis 3.6-GHz, 800MHz FSB bis 3.4-GHz, 800-MHz FSB oder bis 3.46-GHz, 1066-MHz FSB 3.73-GHz, 1066-MHz FSB bis 3.2-GHz, 800MHz FSB
Hyper Threading Ja, verbessert (einige Modelle ohne HT) Ja, verbessert Ja Ja, verbessert Pentium D: Nein, Pentium Extreme Edition: Ja
Caches L1-Execution: 12000 µ-Ops
L1-Daten: 16kB
L2-Cache: 1MB
L1-Execution: 12000 µ-Ops
L1-Daten: 16kB
L2-Cache: 2MB
L1-Execution: 12000 µ-Ops
L1-Daten: 512kB
L2-Cache: 2MB
L1-Execution: 12000 µ-Ops
L1-Daten: 16kB
L2-Cache: 2MB
jeweils 2x
L1-Execution: 12000 µ-Ops
L1-Daten: 16kB
L2-Cache: 1MB
Pipeline 31-stufig 31-stufig 20-stufig 31-stufig 31-stufig
NX-Bit Nur "J"-Modelle Ja Nein Ja Ja
EIST J-Modelle: C1E Ja Nein Nein Ja
Befehlssätze MMX, SSE, SSE2, SSE3 MMX, SSE, SSE2, SSE3, EM64T MMX, SSE, SSE2 MMX, SSE, SSE2, SSE3, EM64T MMX, SSE, SSE2, SSE3, EM64T

Sonstige Prozessoren (#3.5)

Es gibt auch Prozessoren die nicht nur für den PC-Einsatz gedacht sind. Meist besitzen diese Server-CPUs einen großen L2-Cache und einen zusätzlichen L3-Cache und sind Multiprozessor-tauglich, was sie relativ teuer macht. (Xeon, Itanium, Opteron)

Neben den Server-Prozessoren gibt es auch so genannte Mobile-CPUs, welche einen geringen Stromverbrauch und eine dynamische Taktung besitzen.

Centrino System (#3.5.1)

Centrino befasst sich nicht nur mit einem einzelnen Prozessor, sondern mit einer Kombination aus Prozessor, Chipsatz und einem WLAN-Modul welche Perfekt aufeinander abgestimmt sind und nur das Logo tragen dürfen, wenn sie von Intel stammen.

Multi-Core-Prozessoren (#3.6)

Bis zum Jahr 2005 versuchten die Prozessorhersteller die Leistung einer CPU mit verschiedenen Maßnahmen (wie Takterhöhung, Cache, neue Befehlssätze, usw.) zu erhöhen.
Probleme, vorallem bedingt durch die große Wärme, machten den Herstellern das Leben schwer.
Damit die Leistungsfähigkeit dennoch gesteigert werden konnte, wählten die Hersteller (mit dem Pentium D oder AMD 64FX) den Weg zu den Mehrkernprozessoren.

Die Leistungssteigerung mit Mehrkernprozessoren beträgt zwischen 0% (bei nicht geeigneter Software) und fast 100% bei optimierter Software.

Intel Core 2 (#3.6.1)

Der Sommer 2006 hat, mit dem Core 2 Duo, wahrscheinlich endgültig eine Trendwende im Prozessor-Markt gemacht.
Trotz weniger Stromaufnahme sowie nicht allzu hoher Taktrate hat Intel die Messlatte so hoch gesetzt, dass die Vorgängermodelle nicht annähernd an die Leistung herankommen.

Anders als beim Athlon 64 X2, bei dem jeder Kern über einen eigenen dedizierten L2-Cache verfügt, greifen beim Intel Core 2 Duo beide Kerne auf ein- und denselben L2 Cache zu. Was anfangs kritisiert wurde, zeigt sich mittlerweile als sehr vorteilhaft, da der L2-Cache dynamisch verteilt werden kann. (D.h. Braucht ein Kern weniger Zwischenspeicher, kann er dem anderen Kern den freien Speicher überlassen.) Außerdem ist die Energie-Verwaltung einfacher.

Trotz der Leistungssteigerung verbraucht der Core 2 Duo nur etwa die Hälfte an Energie wie seine Vorgänger-Reihe Pentium-D. (65-Watt (TDP) im Betrieb oder 75-Watt (TDP) bei der Extreme Edition und 18 Watt im Leerlauf)

Ein Knappes Jahr nach den "Core 2 Duo" brachte Intel den "Core 2 Quad" raus, welches zwei "Core 2 Duo" Kerne in einem Prozessor unterbrachte.

Hyper Threading wurde abgeschafft, da man nun auf real physische Prozessoren zurückgreifen kann.

Intel Core i7 "Bloomfield" (#3.6.2)

Ende 2008 brachte Intel basierend auf der neuen Prozessorarchitektur "Nehalem" eine CPU mit der Kernbezeichnung "Bloomfield" auf den Markt.

Nachdem sich Intel bei den vorhergegangenen CPUs bei der Namensgebung ausgetobt hat, bekam der Nachfolger den Namen Core i7 mit einer Zahl am Anhang.
Die Regel lautet: Je höher die Nummer, desto schneller und teurer ist die CPU.

Die CPU wird im 45-nm-Prozess gefertigt und verfügt wie die AMDs Phenom über einen L3-Cache. Erstmals hat Intel den Speichercontroller

   (Bei AMD schon seit dem K8) direkt auf dem Chip integriert. Die CPU verfügt über 3 parallel nutzbare Speicherkanäle (ähnlich Dualchannel). Als Speichertype kommt ausschließlich DDR3 (offiziell bis 133 MHz (DDR3-1066) zum Einsatz)

Eine eingebaute PCU (Power Control Unit), einer Art Coprozessor soll für eine optimale Energieverwaltung der CPU sorgen. SSE4.2 und ein Revival von HyperThreading (8 virtuelle CPUs) wurde ebenfalls eingebaut.

Die wichtigste Neuerung ist das sog. Quick Path Interconnect (QPI). Hier wurde ein neuer Weg (Konkurrenz zu AMDs HyperTransport) für die Kommunikation der CPU mit dem Chip-Satz eingeschlagen. Statt wie bisher parallel (Front Side Bus) wird hier seriell mit bis zu 20 sog. Lanes gearbeitet. Eine Datenrate von bis zu 12.8GByte/s ist möglich. (Verdopplung zu FSB1066).

Intel Core i3, i5, i7 "Lynnfield" (#3.6.4)

Da der Server_Prozessor "Core i7 (Bloomfield)" eine teure LGA-1366 Platine voraussetze und nicht so gut im Spielesektor-Bereich war wie der "Core 2 Quad" musste eine neue Desktop-CPU her:

Die "Core iX Lynnfield" Reihe unterscheiden sich hauptsächlich dadurch, dass sie nur ein LGA1156-Mainboards voraussetzten und 2 Speicherkanäle statt 3 hatten.

Bei den späteren Modellen wurde auch ein komplett neuer Grafikchip implementiert.

Intel Core i3, i5, i7 "2. Gen. Sandy Bridge" (#3.6.4)

"Sandy Bridge" war der Codename für die neue Architektur der "i3/5/7" Reihe.

Durch neue Features (Displayport, Spannungsversorgung, ...) wurde ein neuer Sockel LGA155 nötig. Da die Kühlerbefestigung wie beim Lynnfield gleich geblieben ist, können die alten Kühler weiter verwendet werden.

Erstmals erlaubt Intel die Verwendung von 8-GByte RAM-Modulen.

Eine Grafikkarte wurde direkt auf dem Prozessorkern mit OpenGL 2.1 und DirectX 10.1 implementiert. (Leider kein OpenGL 4.0/DirectX 11). Auch die integrierte Media-Engine wurde überarbeitet. (H.264-Streams)

Natürlich gab es auch eine neue Befehlserweiterung (AVX, SSE5), dass durch die Verbreiterung des Registers auf 256-Bit eine schnellere Verarbeitung von Fließkommazahlen mit sich bringt.

Intel Core i3, i5, i7 "3. Gen. Ivy Bridge" (#3.6.5)

Die "Ivy Bridge" kam mit einer neuen revolutionären 22nm-Fertigungstechnik auf den Markt.
Auch wurde erstmals der 3D-Transistor genutzt, wodurch mehr CPUs auf einem Wafer produziert werden konnten.
Verbessert wurde vor allem die Speicherunterstützung, PCI-Express Anbindung und neue Grafikeinheit "HD4000".

Intel Core i3, i5, i7 "4. Gen. Haswell Sockel 1150" (#3.6.6)

Nach dem bekannten Musters des Tick-Tock-Modells von Intel brachte Intel im 2. Quartal 2013 eine neue Prozessorgeneration "Haswell" heraus (In diesem entspricht dies ein Tock, also keine neue Fertigungstechnik).

Neben den offensichtlichen Änderungen, wie der Befehlserweiterung "AVX2" und "TSX" sowie der teilweise deutlich aufgebohrten integrierten Grafiklösung, beschränken sich viele Änderungen gerade am CPU-Part eher auf Detailverbesserungen.

Intel Core i3, i5, i7 "5. Gen. Broadwell Sockel 1150" (#3.6.7)

"Broadwell" heißt der, Ende 2014, den Nachfolger der Haswell-Architektur mit einem neuen 14-nm-Verfahren bildet. (Tick)

Kleinere Fertigungsstrukturen haben mehrere Vorzuüge, darunter geringere Verluste der einzelnen Transistoren (ergo weniger Abwärme). Bei gleicher Abwärme erreicht der Chip also einen höheren Takt und damit höhere Perfomance.

Intel Core i3, i5, i7 "6. Gen. Skylake Sockel 1151" (#3.6.8)

Als 6-Generationen werden die Prozessornummer mit einer "6" beginnen und am Ende je nach Verwendung als Desktop- oder Mobile-Chip auf die Buchstaben Y, U, H, K und S enden.

Skylake unterstützt DDR4 (offiziell bis effektiv 2133 MHz) sowie DDR3. Bei den jeweiligen K-Modellen ist darüber hinaus eine Übertaktung des Speicherkontroller möglich.

Bei den Prozessoren für Desktop-PCs sowie nimmt die Grafikeinheit rund 2/3 der rund 122mm² kleinen Fläche ein. Laut Hersteller arbeitet die Grafikeinheit bereits mit DirectX 12 zusammen, welche Microsoft zusammen mit Windows 10 veröffentlicht hat. So soll der HD Graphics 530 auch kommende Spiele in ihrer ganzen Pracht darstellen können.

Intel Core "Kaby Lake Sockel LGA 1151" (#3.6.9)

Kaby-Lake läutet das Ende von Intels Tick-Tock-Modell ein. Die siebte Generationen bietet weder ein neues Herstellungsverfahren noch enthält sie Befehlssatzerweiterungen.

Laut Intel bietet die Kaby-Lake Generation folgende Neuerungen:

  1. Energiebedarf optimiert
  2. Bessere Wiedergabe von 4K-Inhalten
  3. Jardware-Decoder beherrschen VP9- und HEVC-/H.256-Videos mit 10 Bit auflösung pro Kanal für High Dynamic Resolution. (HDR)
  4. Kopierschutzt "HDCP 2.2" unterstützung, sodass unter Windows-10 mit Edge die Wiedergabe von Netflix möglich ist

Intel Core "Coffee Lake Sockel LGA 1151v2" (#3.6.10)

Gegenüber der Kaby-Lake wurden die Coffee-Lake-Prozessoren mit mehr Prozessorkernen versehen und bieten somit eine höhere Perfomance in Spielen und Anwendungen.

  • Ein aktueller Core-i5 Prozessor entspricht somit ungefähr einem Kaby-Lake Core-i7, gleiches gilt für einen aktuellen i3 und einen "alten" i5.
  • Ebenfalls überarbeitet wurden die Mainboard, welche auf den neuen Intel Z370-Chipsatz zurückgreifen können und über zahlreiche Anschlüsse und Technologien wie USB 3.1, DDR4-Arbeitsspeicher sowie mehrere M.2-Anschlüsse verfügen.

Übersicht der Intel-Multicore Prozessor Generationen (2010 bis 2018)

Codename Jahr Generation Prozess Tick/Tock
Westmere 2010 1. Generation 32 nm Tick (Neuer Fertigungprozess)
Sandy Bridge 2011 2. Generation 32 nm Tock (Neue Architektur)
Ivy Bridge 2012 3. Generation 22 nm Tick
Haswell 2013 4. Generation 22 nm Tock
Broadwell 2014/15 5. Generation 14 nm Tick
Skylake 2015/16 6. Generation 14 nm Tock
Kaby Lake 2016/17 7. Generation 14 nm Optimierung
Coffee Lake 2017 8. Generation 14 nm Kaby Lake Refresh
Cannon Lake 2018 TBA 10 nm TBA
Ice Lake 2019 TBA 10 nm TBA










RAM (Random Access Memory) (#4)

Im Ram eines PC´s werden alle gerade laufenden Programme gespeichert. Wahlfreier Zugriff (Random Access) bedeutet, dass auf jedes beliebige Byte des Speichers gleich schnell zugregriffen werden kann. (vgl. Bandlaufwerk)

DRAM (Dynamic RAM) (#4.1)

Das DRAM ist der einfachste, langsamste und billigste Speicherbaustein. Sein Speicherinhalt geht ohne Stromzufuhr verloren. Eine DRAM-Speicherzelle besteht aus einem Transistor und einem Kondensator. Hier wird ein Bit durch die Ladung eines Kondensators dargestellt. Da ein Kondensator seine Ladung verliert, muss jede ~16ns ein Refresh-Zyklus stattfinden.

Auf diesem Prinzip entstanden alle weiteren Speicher-Typen.
DRAM sind seit Mitte der 70er wegen seines günstigen Preises, seiner "hohen" Geschwindigkeit und seiner Fähigkeit, viele Daten auf relativ wenig Raum zu speichern, zum Standard-RAM in allen Computern geworden.

200x300px 200x600px

RAM-Module (#4.2)

DIPP-Chips, 30-polige SIPPS (#4.2.1)

Für die erste Generation von DRAM-Chips wurden DIPPs (Dual Inline Pin Package) verwendet. Diese wurde auf das Mainboard gesteckt, wobei immer eine ganze Reihe gefüllt werden musste um eine Datenbreite von 8 Bit zu erreichen.

Für die nächste Generation wurden die einzelnen DIPPs auf eine externe Platine untergebracht. Der Vorteil dieser 30-poligen SIPPs (Single Inline Pin Package) war die vereinfachte Bestückung des Mainboards.

Das Problem mit den Pins + 30-polige SIMMs

Weil diese Pins sehr leicht brechen konnten, wurden sie in der nächsten Generation weggelassen. Es wurden die 30-poligen SIMMs (Single Inline Memory Modules) entwickelt, welche in einen speziellen SIMM-Sockel eingebaut werden. (Durch eine "Nase" an einer Seite ist ein falscher Einbau nicht möglich.

400px600px

SIMMs und Parität

Frühe RAM-Technologien arbeiteten mit einer Art Fehlererkennung, die Paritätsprüfung. Dies erfolgte über einen weiteren 1 Bit breiten Chip je Speicherbank. Durch das neunte Bit kann die Northbridge die Anzahl der in einem Byte gespeicherten Einsen mit der Anzahl der Einsen vergleichen, die beim Zugriff auf das Byte vorgefunden war. (Nicht mehr notwendig)

72-polige-SIMMs (PS/2-SIMMs) (#4.2.2)

Mit dem erscheinen der 386- und 486- Prozessoren mussten die Hersteller der Speicherbausteine reagieren.
Diese SIMMs hatten für die frühere Zeit eine kürzere Zugriffszeit (60-80ns). Aber das Hauptmerkmal war ein 32-Bit breiten Datenfluss.

400x600px

SDRAM (168-polige DIMMs) (#4.2.3)

Um mit der Entwicklung im Prozessor- und Busbereich mitzuhalten, haben die Hersteller DIMMs entwickelt, die jeweils 64-Bit gleichzeitig liefern konnten.
Da dieser RAM synchron an den Systemtakt gebunden ist, wird nicht mehr von einer Zugriffsgeschwindigkeit gesprochen, sondern wie bei der CPU von einer Taktfrequenz.

400x600px

Double-Data-Rate (#4.2.4)

Mit der Einführung vom Intel P4 und dem AMD Athlon forderten die Hersteller eine Verdopplung (Double-) oder sogar Vervierfachung (Quad-Dumping) des Datendurchsatzes beim Speicher.
Dies wurde erreicht, indem man nicht nur die ansteigende Flanke, sondern auch die abfallende Flanke des Taktsignals für die Datenübertragung nutze. Pro Übertragungszyklus werden theoretisch zweimal Daten übertragen. (Prefetching). Deswegen wird beim angeben des Taktzyklus bei SDRAMs oft die Doppelte Takt-Rate angegeben, also anstatt 200MHz 400MHz.

500x700px

DDR-SDRAM (184-polig) (#4.2.6)

Hierbei handelt es sich um eine Weiterentwicklung des SDR-SDRAMs.
Zwar können DDRs (1. Generation) nur bis zu einer Geschwindigkeit von 200MHz betrieben werden, aber wegen ihrer Verfügbarkeit sowie des Preises wurden sie schnell zum Standard.

Nebenbei: Bei DDR-1, DDR-2 und DDR-3 RAMs wird bei der Bezeichnungs-Zahl die 8x-fache Geschwindigkeit aus Marketing-Gründen verwendet.

300x500px

DDR-2 SDRAM (240-polig) (#4.2.7)

Eine Konsequente Weiterentwicklung des DDR-SDRAMs, wobei anstatt eines Zweifachen-Prefetch ein Vierfache-Prefetch (interner I/O-Takt ist doppelt so schnell) verwendet wird.
Außerdem laufen die DIMMs nur noch mit 1.8V, was auch für mobile Geräte interessant sein sollte.

Interne Verbesserungen sorgen auch für bessere Latenzseiten und hohe Taktrate. Zuerst waren Geschwindigkeiten von bis zu 667MHz geplant, inzwischen sind auch Geschwindigkeiten von bis zu 1250MHz erhältlich.

300x500px 500x700px

DDR-3 SDRAM (240-polig) (#4.2.8)

Die äußeren Abmessungen blieben gleich, um Verwechslungen zu vermeiden wurde die Kerbe nach Links verschoben. Viele Veränderungen gab es allerdings unter der Haube. So verringerte sich die Betriebsspannung auf 1.5V. Die Terminierung befindet sich jetzt auf dem Speicherriegel und ist unter anderem nötig um Reflexionen auf der Signalleitung zu vermeiden.

DDR-3 besitzt nun auch eine Temperaturüberwachung, welche je nach Temperatur die Abschlusswiderstände kalibriert und so für eine sichere Funktion sorgen soll. Ein weiterer, großer Vorteil ist der neue 8-fach Prefetch.

DDR2 vs DDR3 Kerbe 500x700px

DDR-4 SDRAM (288-polig) (#4.2.9)

Seit Mitte 2014 bietet der DDR4-Ram höhere Datentransferraten bei einer kleineren Leistungsaufnahme von 1.2V. Die Referenzspannung zur Unterscheidung von High- und Low-Pegeln ist nicht mehr festgelegt, sonder die handeln die Chips untereinander aus. Damit kompensieren sie äußere Einflüsse durch wechselnde Temperaturen, unterschiedliche lange Busleitungen und unterschiedliche SDRAM-Chips.

300x500px 500x700px

Begriffe (#4.3)

ECC

Viele hochwertige Systeme (Server, Mainframes) verwenden einen sogenannten Fehler-korrigierenden Speicher (Error Correction Code-RAM). Sie werden allerdings nicht von jedem Mainboard unterstützt. Ein Merkmal dieser Rams ist der zusätzliche Speicherbank in der Mitte. (Siehe Paritätsprüfung)

Registered RAM

Werden in den meisten Server und vielen High-End-Workstations eingesetzt. Sie verfügen über Schaltungen, folgerichtig Register genannt, die Steuersignale zwecks Synchronisation mit dem Arbeitsspeicher puffern. Diese Art von Arbeitsspeicher ermöglichen einen hohen Datendurchsatz und die Verwaltung von mehreren Speichermodulen.

Dual-Channel-Architektur

Hierbei werden 2 RAM-Module gleichzeitig genutzt, dass der Datendurchsatz gesteigert wird. Die Northbridge schaltet im zwischen diesen beiden Modulen hin- und her um so die Daten schneller zur CPU zu transportieren. Um diese Architektur zu nutzen dürfen meist nur zwei Steckplätze (meist blau) verwendet werden.

Timingwerte (CL CAS Latency Column Adress Strobe Latency)

Die ersten "Drucke"/hergestellten RAMs einer Produktion haben einen geringen Leistungsanstieg (1 Prozentiger Stellenbereich) gegenüber anderen. Für dieses 1% geben Leistungs-Overclocking-Freaks einiges mehr aus. (Unsinn)


Test von RAM (#4.5)

Mit genügender Sicherheit kann man RAM-Module nur in einem Labor über Stunden oder Tage hinweg testen. Programme für diesen Speichertest bringen meistens nichts.

Wann sollte man einen Speichertest durchführen?

  • Instabilität des Systems
  • Häufung von Bluescreens (Windows)
  • Windows lässt sich nicht installieren

Markenspeicher oder nicht (#4.6)

Es wird geraten, Speicher-Module nur von großen Marken-Hersteller zu kaufen, weil die Ihre Speicherriegel sorgfältig testen.
Auf der Welt gibt es nur 3-4 Speicherhersteller, wenn du einen günstigeren Speicherstick findest liegt es daran, dass es ein ungeprüftes Objekt ist bei dem man nicht so auf die Fehlerfreiheit geschaut hat. Also: Lieber 3-4€ mehr anstatt nochmals kaufen!


BIOS und CMOS (#5)

TODO Bilder und Links hinzufügen

Anmerkung: Referat

Bevor wir die Blätter/den Stoff zum Thema BIOS bekommen haben, mussten wir in 2er-Teams ein Referat über das Thema halten. Meine Version der BIOS-Recherche, die ich im Referat genutzt habe, findet man hier.

Die Funktionen des BIOS (#5.1)

Damit man mit einem PC etwas anfangen kann braucht es Eingabe- (Tastatur, Maus, ...) und Ausgabegeräte (Monitor, Soundkarte, ...).

  • Damit diese Geräte mit der CPU kommunizieren können, müssen sie mit dem Adress- und Daten-bus des Systems verbunden werden.

Hierbei gibt es 2 Chips, die sich um diese Aufgabe kümmern:

  • Die "Southbridge" kümmert sich um die Verwaltung einfacher Ein/Aus-gabe Geräte
  • Die "Northbridge" kümmert sich um die Verwaltung von RAM und PClE-Schnittstellen

Zusammen werden diese 2 Chips unter der Bezeichnung "Chipsatz"' aufgeführt, und sind somit verwantwortlich dass die CPU und alle anderen Geräte untereinander kommunizieren können.

Beispiel: Tastatur (#5.1.1)

Die Tastatur wurde über einen speziellen Chip (Tastaturcontroller) mit den Datenbus verbunden.

  • Bis zum P4 war dieser Chip auf jedem Board vorhanden, jedoch seit ein paar Jahren ist er in die Southbridge integriert worden.

Immer dann, wenn eine Taste gedrückt wird, wird ein Codefolge aus Nullen und Einsen (sog. Scancode) an den Controller geschickt und dort zwischengespeichert, bis die CPU den Controller auffordert diese Daten auf den Datenbus zu legen.

Da aber jeder Tastaturcontroller noch mehr kann, als Daten von der Tastatur zu empfangen und für die CPU zwischen-zu-speichern (zB. LED-Anzeigen für CAPS-LOCK), benötigt man ein Programm mit dem die CPU die Peripherie steuern kann.

  • Diese Programme müssen direkt beim starten des PCs zur Verfügung stehen (wie das BIOS) und dürfen natürlich auch nicht nach dem Ausschalten verloren gehen.

Den Chip, auf dem alle Steuerprogramme für die CPU liegen, nennt man ROM-Chip. (Read-Only-Memory)

  • Auf diesem Chip liegen hunderte kleine Programme, die man zusammenfassend BIOS (Basic Input/Output System) nennt.

Veränderliche BIOS-Daten (#5.1.2)

Neben diesen unveränderlichen Programm-Daten gibt es noch eine ganze Reihe von Daten, die sich je nach installierter Hardware verändern können.

Diese Konfigurations-Daten werden auf einem seperaten CMOS-Chip untergebracht.

CMOS Setup (#5.2)

Der oben genannte CMOS-Chip speichert keine Programme, sondern nur Daten, die vom BIOS gelesen werden um diese Programme zu "vervollständigen".

Alle PCs verfügen über ein Programm, mit dessen Hilfe man diese Daten verändern und anpassen kann.

  • Beim starten des PCs wird hierbei eine kleine Oberfläche (mit einigen geladenen Informationen vom CMOS sowie eventuellen Logo etc.) angezeigt.
    • Wenn man während dieser Zeit ein bestimmte Tastenkombination (meißt DEL oder F2) drückt, kommt man in das CMOS-Setup.

CMOS-Setup Einstellungen (#5.2.1)

Obwohl jeder Hersteller sein eigenes CMOS-Setup-Programm besitzt, unterscheiden sich die Einstellungen meist nur durch dessen Namen.

Award-BIOS AMI-BIOS Inhalte
"Standard CMOS Features" "Standard CMOS Setup/Main" Einstellungen zu den Festplatten- und Disketten-Laufwerken, zur Uhrzeit, Datum, Grafikkarte, Fehlerbehandlung
"Advanced BIOS Features" "Advanced BIOS Setup/Advanced" Boot-Reihenfolge, Cache- und CPU-Einstellungen, Tastatur, RAM.
"Advanced Chipset Features" "Advanced Chipset Setup" Chipsatz-Einstellungen und OnBoard-Komponenten.
"Integrated Peripherals" "Peripheral Setup/Features Setup" USB-, IDE-, SATA-, Sound-Chip-Einstellungen und OnBoard-Komponenten
"PnP/PCI Configuration" "PCI/Plug & Play Setup" Einstellungen für das Verteilen der Systemressourcen (IRQs/DMA) und PCI-Einstellungen
"PC Health Status" "Hardware Monitor" Zeigt Ihnen die aktuellen Werte zu Temperatur, Spannung und Lüfterdrehzahl an.
"Frequency/Voltage Control" "Soft Menu Setup" Taktfrequenz und Betriebsspannung der CPU (Genutzt für's Übertakten)
"Load Fail Safe Defaults" "Load Default Settings" Lädt die sichersten BIOS-Einstellungen, mit denen das System immer funktionieren sollte.
"Load Optimized Defaults" "Autoconfiguration with Optimal Settings" Setz7t die BIOS-CMOS-Einstellungen auf optimierte Standardwerte, mit denen das System am schnellsten läuft.
"Set Supervisor Password" "Change Supervisor Password" Legt ein Passwort für den Zugang zum BIOS-Setup-Programm fest.

Einstellungen zurücksetzen

Bei Schwierigkeiten bietet das BIOS-Setup meist die Möglichkeit, die Standardeinstellungen des Rechner- oder des BIOS-Herstellers zu setzen.
Wenn das nicht möglich ist, kann der CMOS-Speicher durch das kurzzeitige Entfernen der Batterie gelöscht werden, siehe Obere Tabelle. (Dies benötigt aber einige Zeit, bis auch die Kondensatoren entladen sind.)

FLASH BIOS Upgrade (#5.2.2)

Bei modernen Mainboards wird das BIOS in so genannten FLASH-ROM-Chips gespeichert.

  • Diese bieten den Vorteil, dass sie umprogrammiert werden können.

Die aktuelle BIOS-Version wird beim Rechnerstart angezeigt, und im Falle von Windows im Registry-Eintrag HKEY_LOCAL_MACHINE\HARDWARE\DESCRIPTION\System abgespeichert.

BIOS-Hersteller

Auf der gesamten Welt gibt es nur große 3 BIOS-Hersteller:

Früher gab es natürlich auch noch ein paar andere, darunter:

Alle BIOS-Hersteller haben ihren Ursprung in Amerika.

BIOS und Gerätetreiber (#5.3)

Wie wir bereits gehört haben konnte IBM natürlich nicht alle Routinen ins System-BIOS programmieren. Die meisten Geräte, die heute ein moderner PC verwendet, gab es ja noch damals nicht.

Zusatz-ROM (#5.3.1)

Die erste Methode, diesen Geräten ein eigenes BIOS zur Verfügung zu stellen, besteht darin, ein eigenes BIOS (mit den speziellen Produkt-Treibern des Geräts) in die Hardwarekomponente zu integrieren.

  • Dieses BIOS meldet sich beim Booten meist mit bestimmten Informationen und zeigt dadurch an, dass es vorhanden ist.

Diese Methode ist ein muss für Geräte, die direkt beim Starten auch ohne das Betriebssystem angesteuert werden können müssen.

Gerätetreiber (#5.3.2)

Eine andere Methode, um der CPU alle notwendigen Informationen über die Hardwarekomponente zu liefern, sind Gerätetreiber.
Diese Treiber ähneln sehr einem BIOS, sind aber meist auf der Festplatte gespeichert.

  • Hierbei kümmert sich das jeweilige Betriebssystem, diese "Programme" zu laden.
    • Die Informationen, wo sich diese Treiber befinden, holt sich Windows mithilfe der:

Vorteil: Updates sind wesentlich schneller zu bewerkstelligen.
Nachteil: Geräte sind erst ab dem starten des Betriebssystems verfügbar.


POST (Power on Self Test) (#5.4)

Wird ein Rechner eingeschalten, oder ein Reset durchgeführt, starter er ein spezielles Programm, dass ebenfalls im ROM-Chip gespeichert ist und das POST genannt wird. Dieser überprüft die einzelnen Bestandteile des PCs.

Wird während dieses Tests ein Fehler festgestellt, bleibt das System stehen, und der Fehler über folgende Möglichkeiten angezeigt:

  • Ausgabe eines Beep-Codes. (Akustisches Signal, welches durch eine typische Tonfolge auf einen Fehler hinweißt. Bei jedem Mainboard-Hersteller anders!)
  • Ausgabe eines POST-Codes auf einer speziellen Diagnosekarte. (Meist eine 2-Stellige Zahl auf einer Siebensegmentanzeige) (bei hochwertigen Gamer-Mainboards bereits integriert).
  • Direkte BIOS-Fehlermeldung auf den Bildschirm, falls dieser funktioniert

Nach dem absolvierten korrekten Selbsttest wird als letzer Schritt der Interrupt 19 (Urlader, Bootstrap Loader) ausgelöst.
Hierbei wird der Boot-Record von einem Laufwerk in den Speicher übertragen.

  • Der Bootrecord enthält ein Programm zum laden des OS sowie Parameter für das Laufwerk.


UEFI (Unified Extensible Firmware Interface) (#5.5)

UEFI (auf Deutsch ungefähr: "Einheitliches erweiterbare Firmware-Schnittstelle") ist der Nachfolger des herkömmlichen BIOS. Die Grundaufgaben von UEFI sind prinzipiell die gleichen wie beim BIOS, darüber hinaus bietet es aber einige zusätzliche Funktionen:

  • UEFI wurde auf Initiative von Intel, AMD, Microsoft, Hewlett-Packard (HP) und anderen Hardware-Herstellern ins Leben gerufen.
  • Ziel war eine einfacher bedienbare Schnittstelle zu entwickeln, die die grafischen Möglichkeiten moderner Hardware besser als das herkörmmliche BIOS ausnutzt
  • Auf Windows Rechner kommt UEFI ausschließlich auf 64-Bit Betriebssystemen zum Einsatz
  • Darüber hinaus ist UEFI auch mit Linux kompatibel

BIOS und UEFI - Die wichtigsten Unterschiede (#5.5.1)

Das alte BIOS wurde in den 1970er-Jahren entwickelt und kam erstmals 1981 auf dem allerersten IBM-PC zum Einsatz. (MS-DOS Ära)

Der Nachfolger UEFI bietet im Vergleich eine einfachere Benutzerführung und zusätzliche Funktionen, die heute zum Standard gehören. Die wichtigsten Unterschiede:

  • Das alte BIOS ist auf das VGA-Bildformat von 640x480 Pxiel bescrhänkt
  • Das UEFI lässt sich per Maus bedienen
  • Im Unterschied zu BIOS enthält UEFI alle wichtigen Treiber, die für den Windows-Systemstart benötigt werden. (= Schnelleres Booten für Windows)
  • UEFI verfügt zudem über einen Standardtreiber für die Netzwerkkarte, um zB. Firmware-Updates herunterzuladen und installieren. (Beim BIOS muss man es erst herunterladen und selbst flashen)
  • Festplatten werden mit UEFI anders positioniert: Statt nur 4 primären Partitionen (BIOS) lässt UEFI bis zu 128 Partitionen zu.
  • Bei manchen Anbietern kann das UEFI außerdem Spiele, einen RAM-Test oder einen Browser enthalten.

Erweiterungsbus (#6)

TODO Bilder und Links hinzufügen

Um einen PC mit zusätzlichen FUnktionen auszurüsten, hat schon IBM bei seinem ersten Computer Erweiterungssteckplätze eingebaut. Über diese Steckplätze war es der CPU möglich die Karten dementsprechend anzusteuern.

PC-BUS (XT-BUS, bzw. 8-Bit ISA) (#6.1)

Der erste Bus der IBM für seinen ersten Computer entwickelte war der "PC-BUS".
Die Karten wurden mit einem 8-Bit Datenbus und einer Taktfrequenz von 7 MHz betrieben. (Damit war die Taktfrequenz sogar höher als die damalige CPU-Frequenz von 4,77 MHz)

Der Erfolg dieses Systems lag sicher darin, dass Drittanbieter (Compaq, Dell, ...) diesen Bus ohne Zahlung von Lizenzgebühren einfach kopieren durfte. Auch für die Herstellung der Erweiterungskarten wurde keine Lizenzen verlangt.

16-Bit ISA (#6.2)

Als Intel den 286er entwickelte musste ein neuer Erweiterungsbus entworfen werden um den 16-Bit-Datenbuss des Prozessors zu nutzen.

  • Um die Kompatiblität zu älteren Karten nicht zu verlieren, wurde der PC-Bus einfach um eine Steckerleiste erweitert. Die Taktfrequenz blieb gleich.

Systemressourcen (#6.2.1)

Damit Erweiterungskarten mit der CPU kommunizieren können, müssen sie auf Systemressourcen des PCs zugreifen können:

  • E/A-Adressen
  • IRQs
  • DMA-Kanäle
  • Speicheradressen

Auch wenn heute Erweiterungskarten automatisch erkannt werden und die Systemressourcen von System zugewiesen werden (Plug&Play) ist es für einen EDV-Techniker wichtig, im Falle eines Problems die Prozesse etwas genauer zu kennen.

E/A-Adressen (#6.2.1.1)

Wie schon besprochen ist jede Peripherie über einen COntroller mit dem Datenbus und dem Adressbus verbunden. Aber woher weiß nun die CPU, welcher Controller kommunizieren will?

Die Lösung:

  • Mithilfe des Adressbuses und einer zusätzlichen IO/MEM-Leitung informiert die CPU das System, dass sie den Adressbus nicht zur Angabe einer bestimmten Adresse im Speicher benutzen möchte, sondern um mit einer bestimmten Komponente zu kommunizieren.

Wenn die CPU eine Spannung an die IO/MEM-Leitung anlegt und ein bestimmtest Muster auf den Adressbus anlegt (das genau der E/A-Adresse eines bestimmten Controllers entspricht), "erhält dieser Controller das Recht" mit der CPU Daten auszutauschen.

Windows-Gerätemanager

Über den "Geräte-Manager" (von Windows) kann man alle in einem Rechner benutzten E/A-Adressen ansehen.

  • E/A-Adressen sind immer 4-stellige Hexadezimalzahlen.
  • Sehr viele Komponenten verwenden nicht nur eine, sondern gleich mehrere E/A-Adressen. Zwei Geräte dürfen niemals die gleiche E/A-Adresse verwenden.


IRQs (Interrupted Requests) (#6.2.1.2)

Wie kann die Tastatur der CPU mitteilen, dass eine Taste betätigt wurde?

Der PC braucht eine Möglichkeit, die CPU aufzufordern, die Momentane Arbeit einzustellen und die Kommunikation mit einem bestimmtem Gerät aufzunehmen.

  • Dieses Verfahren wird Unterbrechung (Interrupt) genannt.
  • Jede CPU verfügt über eine Interrupt-Leitung.
    • Wenn diese Leitung geladen ist, stoppt die CPU ihre momentane Tätigkeit und wendet sich der Komponennte zu, die für die Unterbrechung gesorgt hat.

Das Problem: Es gibt sehr viele Geräte, die einen Interrupt forden können. Aus diesem Grund wurde ein Interrupt-Controller eingebaut.

(Auf einem sog. "Advanced Programmable Interrupt Controller Chip, kurz APIC-Chip")
  • Die meisten IRQ-Leitungen des Controllers waren bestimmten Komponenten vorbehalten.
    • Wenn zwei Geräte den gleichen IRQ verwendet hätten, wäre es in den meisten Fällen zu einem Systemabsturz gekommen.
    • Aus diesem Grund hat IBM eine eigene, einheitliche Zuordnungstabelle von Gerät->IRQ-Adresse erstellt:
IRQ Funktion
0 Systemtaktgeber
1 Tastatur
2/9 Frei
3 COM 2 / COM 4
4 COM 1 / COM 3
5 LPT2
6 Diskettenlaufwerk
7 LPT1
8 Echtzeituhr
10 Frei
11 Frei
12 Frei
13 Mathe Koprozessor
14 Primäre Festplatte
15 Sekundäre Festplatte

Ein seperater IRQ2 und IRQ9 existiert nicht - dieser Interrupt heißt immer IRQ2/9.

Moderne IRQ-Verwendung

Auch die modernsten Erweiterungskarten benötigen einen IRQ.

  • Bei modernen Systemen werden die IRQs automatisch (Plug&Play) zugeordnet.
  • Die meisten davon können zwar gemeinsam einen gleichen Interrupt verwenden, aber trotzdem kann es vorkommen, dass es zu einem Konflikt kommen kann.


DMA (Direct Memory Access) (#6.2.1.3)

Prozessoren erledigen einen Haufen Arbeit. Deshalb kann der Fall auftreten, dass ein Gerät keinen Zugriff auf den Speicher hat, weil die CPU keine Zeit hat.

  • Beispiel: Soundkarte benötigt Daten -> Musikwidergabe stockt.
  • Mithilfe von DMA können Komponenten im Hintergrund auf den Speicher zugreifen, ohne die CPU stören zu müssen.

Was passiert aber, wenn mehrere Komponenten gleichzeitig zugreifen mächten, oder die CPU plötzlich den Datenbus benötigt? Dieses Problem wurde durch den Einbau des DMA-Controllers gelöst:

  • Der DMA-Chip überträgt die Daten über den externen Datenbus, wenn die CPU beschäftigt ist und gibt in frei, wenn die CPU ihn benötigt.
  • Der DMA-Controller arbeitet ähnlich wie der IRQ-Controller (Die Regeln sind die selben wie bei E/A-Adressen). Es stehen im 4 Leitungen (sog. DMA-Kanäle) zur Verfügung, über die ein DMA Zugriff aktiviert werden kann.

Moderner DMA-Transfer

Heutzutage nutzen nur noch sehr wenige Geräte den klassichen DMA-Transfer (SOundkarte, Diskettenlaufwerk = DMA 2). Die meisten

Speicheradressen (#6.2.1.4)

Einige Erweiterungskarten verfügen auf der Platine über ein eigenes ROM, welche Adressen aus dem Hauptspeicher (RAM) des Systems benötigen.

  • Derartige Karten zeigen beim Booten des Systems meißt ein paar Informationen auf den Bildschirm an.
  • Im Windows-Gerätemanager lassen sich die verwendeten Speicheradressen anzeigen. (Die Regeln sind die selben wie bei E/A-Adressen)


Historische Erweiterungsbusse (#6.3)

Die "erste Generation" an Erweiterungsbusse (8- und 16-Bit-ISA) sind für moderne Systeme zu langsam.
In der laufe der Zeit gab es einige Neuentwicklungen, die aber nur von kurzer Dauer war.

MCA (Microchannel Architecture) (#6.3.1)

Der MCA wurde mit dem Erscheinen des 80386-Prozessors von IBM entwickelt.

  • Er verfügte über einen 32-Bit-Bus und wurde mit 10 MHz betrieben.
  • Dieser Bus verfügte erstmals über die Fähigkeit der automatischen Geräte-Konfiguration.
  • Der MCA war zwar ein hervorrangeder Bus, da er aber unter einer teuren IBM-Lizenz lag verschwand er schon Anfang der 90er wieder.

EISA (Extended ISA) (#6.3.2)

Wegen der "Lizenzierungs-Politik" von IBM schuf eine Gruppe von Klon-Herstellern ein Konkurrenzprodukt zum MCA und nannte es EISA.

  • Um die Kompatiblität zu älteren Karten nicht zu verlieren, wurde der ISA-16-Bus einfach um eine weitere 16-Bit Steckerleiste Steckerleiste erweitert. Die Taktfrequenz von 8 MHz blieb auch gleich.
  • Der EISA überlebte bis etwa Mitte der 90er Jahre

VESA Local Bus (VL-Bus) (#6.3.3)

Mit den erscheinen der grafischen Benutzeroberflächen von Windows konnten die Graffikkarten die Anforderungen nicht mehr erfüllen.

  • Der VLB verwirklichte erstmals das Konzept des "lokalen" Busses, der heute Frontside Bus genannt wird.
  • Betrieben wurde der VLB mit 32-Bit und einer Taktfrequenz von 33 MHz.


PCI (Peripheral Component Interconnect) (#6.4)

Der PCI-Bus wurde von Intel etwa gleichzeitig mit dem Pentium-Prozessor vorgestellt. Die außerordentliche Technologie in Verbindung mit den fehlenden Lizenzgebühren führte dazu, dass PCI rasch zu einem Standard wurde.
Obwohl sich die Geschwindigkeit und Busbreite kaum von seinen Vorgängern unterscheidet (32-Bit, 33 MHz), hatte der PCI-Bus entscheidente Vorteile.

Flexibles Design

PCI arbeitet völlig unabhängig vom jeweiligen Prozessortyp. Sogar die MACs von Apple verwendeten PCI.
Die Hersteller konnten Komponenten mit 32-Bit / 33 MHz oder auch mit 64-Bit und 66 MHz fertigen.

Selbst konfigurierend

PCI-Komponenten benötigen zwar immernoch IRQs und E/A-Adressen, jedoch übernimmt der PCI-Bus die automatische Einstellung dieser Werte.

  • Die "Special Interest Group (SIG)" hat praktisch für alle Komponenten diese Resourcen definiert.
  • PCI verwendet keine einzelnen IRQs, sondern gemeinsam nutzbare "Interruptkanäle" (INT-A, -B, -C und -D).
    • Die Hersteller der PCI-Komponenten konfigurieren diese Interruptkanäle ab Werk und müssen nur in sehr seltenen Fällen geändert werden.
Technische Daten Version 1.0 Version 2.1 / 2.2
Busbreite 32 Bit 32/64 Bit
Bustakt 33 MHz 66 MHz
Max. Übertragungsrate 132 MB/s 533 MB/s

AGP (Accelerated Graphics Port) (#6.5)

Für moderne Spiele oder Programme mit anspruchsvoller Grafik wurde auch der PCI-Bus zu langsam.

  • Deshalb entwickelte Intel einen Super-PCI-Steckplatz, der ausschließlich für Grafikkarten genutzt werden kann: den AGP-Bus.

Ein AGP-Steckplatz ist zwar auch nur ein PCI-Steckplatz, hat aber eine private Verbindung zur Northbridge.
Außerdem vervielfacht AGP die Taktrate über eine Funktion, die Strobing genannt wird und kann so das mehrfache an Signalen über einen Taktzyklus ableiten.
2 Weitere Vorteile von AGP sind:

  • Die Befehle werden mithilfe einer Pipeline (Wartschlange) bearbeiten und
  • die Daten werden über zwei Datenbusse (Sidebanding) übertragen
Busfrequenz Strobe Breite Durchsatz
AGP 1x 66 MHz 1x 32 Bit 264 MByte/s
AGP 2x 66 MHz 2x 32 Bit 528 MByte/s
AGP 4x 66 MHz 4x 32 Bit 1056 MByte/s
AGP 4x 66 MHz 4x 64 Bit 2112 MByte/s
AGP 8x 66 MHz 8x 64 Bit 4224 MByte/s

PCI X (PCI Extended) (#6.6)

PCI X stellt eine erhebliche Erweiterung des aktuellen PCI-Standards dar.

  • PCI X hat 64 statt 32 Bit (und ist deshalb schon um ein vielfaches schneller), ist aber immernoch mit dem "alten" 32-Bit PCI-Stecker kompatibel, da (wie von ISA-8 auf ISA-16) einfach die Steckerbreite erweitert wurde.
Standard Busbreite Taktrate Features Bandbreite
PCI-X 66 64 Bit 66 MHz Hot Plugging, 3.3V 533 MByte/s
PCI-X 133 64 Bit 133 MHz Hot Plugging, 3.3V 1.06 GByte/s
PCI-X 266 64 Bit, opt. mit nur 16 Bit 133 MHz Double-Data-Rate Hot Plugging, 3.3V & 1.5V, ECC supported 2.13 GByte/s
PCI-X 533 64 Bit, opt. mit nur 16 Bit 133 MHz Quad-Data-Rate Hot Plugging, 3.3V & 1.6V, ECC supported 4.26 GByte/s

Derzeit wird PCI-X in herkömmlichen Rechnern kaum realisiert, da zu teuer.

  • Außerdem ist mit dem Erscheinen von PCI Express ein neuer, zwar nicht unbeding schnellerer aber dafür simpler und günstiger, Gegner erschienen:

PCI Express (#6.7)

Intel hat mit der EInführung der Chipsätze i915 und i925 auch einen neuen Erweiterungsbus herausgebracht.

Eigenschaften (#6.7.1)

Bis auf den Kürzel "PCI" hat dieser Bus nichts mit dem "alten" PCI gemeinsam.

  • Die wichtigste Änderung liegt hierbei in der Datenübertragung, welche nicht-mehr parallel sonder jetzt seriell abläuft.
    • Die serielle Punkt-zu-Punkt Verbindung entsteht durch so genannte "Lanes", die jeweils aus zwei unidirektionalen Leitungspaaren bestehen (Eine zum senden und eine zum Empfangen).
    • Damit keine magnetischen Spannungen entstehen, wird mit einer sehr kleinen Spannung gearbeitet.
    • Derzeit sind bei PCIE nur 32 Lanes möglich.

Wie bei fast jedem bisher angesprochenen Erweiterungssteckplatz gibt es auch hier wieder verschiedene Versionen, die zueinander kompatibel sind, da sie nur einen gewissen Bereich erweitern. (Beispiel: Ich kann eine x2-Karte problemlos in einen x8-Slot stecken).
Die PCIE x1-Schnittstelle, welche den normalen PCI-Slot ablösen soll, besitzt samt Stromversorgung, Steuer-, Daten- und Adressbus genau 36 Pins.

Architektur (#6.7.2)

Im Gegensatz zu PCI, mit der "Bus-Topologie", bei der sich alle angeschlossenen Komponenten die verfügbare Bandbreite teilen müssen, werden bei PCI-Express serielle Verbindungen zu einem Switch geschaltet, der sich im Chipsatz befindet.

  • Der Switch verbindet eine PCIE-Baugruppe direkt mit dem Arbeitsspeicher (oder anderen Baugruppen) mit der vollen Bandbreite.

Übertragungsraten (#6.7.3)

Die Übertragimgstecjmol von PCI-Express beruht auf zwei Leitungspaaren (4 Adern), die als Link oder Lane bezeichnet werden:

  • Auf jedem Leitungspaar werden (bei PCIE 1.0/1.1) die elektrischen Signale mit 1,25 GHz übertragen.
    • Pro Richtung lassen sich 2,5 GBit/s (Brutto) übertragen, was 250 MByte/s (Netto) entspricht. (Jedes Datenpacket hat einiges an Frame-Info, damit die Switch-Topologie alle Packete/Quellen managen kann, wie bei normalen TCP/IP-Paketen)
  • Zur Steigerung der Leistung darf ein Gerät auch mehrere Links benutzen.
    • Insgesamt lassen sich bis zu 32 Links bündeln. So ist eine Übertragungskapazität von 80 GBit/s (Brutto) oder 8 GByte/s (netto) erriechbar.
Version Takt Bandbreite pro Link Nettotransferrate pro Link
1.0/1.1 1,25 GHz 2,5 GBit/s 250 MByte/s
2.0 2,5 GHz 5 GBit/s 500 MByte/s
3.0 5 GHz 10 GBit/s 1000 MByte/s

Sonstige Eigenschaften (#6.7.4)