GRUNDLAGEN DER AUTOMATISCHEN INFORMATIONSVERARBEITUNG
I EINFÜHRUNG
1.1 Der Begriff Informatik
• Erstmals 1957 von Karl Steiner verwendet; Zusammengefügt aus „Information“ und „Automatik“
• als Strukturwissenschaft einzuordnen
• Wurzeln in der Mathematik, Physik und Elektrotechnik
• bildet Gegenstände in abstrakte Strukturen ab und deren Prozesse in Algorithmen und ermöglicht maschinelle
Simulation realer Prozesse
• Unterscheidung zwischen Computersystem und Automaten
◦ Computersystem – Algorithmen veränderbar
◦ Automaten – Algorithmen fest ( nicht veränderbar )
• Aufteilung der Software in Anwendungs- & Systemsoftware
◦ Systemsoftware ( z.B. Betriebssystem ) ist notwendige Grundlage für Anwendungssoftware
1.2 Bereiche der Informatik
Technische Informatik • Im Bereich Rechnerarchitektur – technische Konstruktion von Computern
• Im Bereich Systemsoftware – Konzeption und Implementierung von Software,
die die Hardware steuert ( daher hardware-nah und anwendungs-unspezifisch )
Praktische Informatik • Gegenstand ist die Programmierung ( Programmiersprachen und Algorithmen )
• Methoden der Softwareentwicklung
Theoretische Informatik • Erforschen theoretischer Grundlagen
• Mathematische Formalisierung und Komplexitätsabschätzung
Angewandte Informatik • Anwendungsorientierter Einsatz von Rechnern
Disziplinübergreifende • Künstliche Intelligenz
Ausprägungen • Informatik und Gesellschaft
II HARDWARE
2.1 Historische Entwicklung der Hardware
2.1.1 Mechanische Geräte • Erste Rechenmaschinen waren ausschließlich mechanisch konstruiert
• erste Maschine, die alle Grundrechenarten beherrschte, wurde 1673 von Leibniz
vorgestellt
• Gemeinsames Problem dieser mechanischen Rechenmaschinen:
kein Zahlenspeicher
• wichtige Entwürfe waren die Difference Engine ( 1822 ) und
die Analytical Engine ( 1837 ) von Charles Babbage
◦ weitsichtiges Konzept, da frei programmierbar
◦ gilt hinsichtlich der Architektur als Vorläufer der heutigen Computer
2.1.2 Elektromechanische • Basierend auf dem Grundprinzip der Analytical Engine hat Konrad Zuse in den
Rechenmaschinen 30er Jahren mit der Entwicklung begonnen
• Zuse hat die Methode der Gleitkommaberechnung mit Mantisse und Exponent
theoretisch entwickelt und praktisch umgesetzt
• Erste Maschine, Z1 wurde 1937 entworfen und gebaut
• Z3 gilt als erster funktionstüchtiger Computer; Binärrechner mit begrenzter
Programmierfähigkeit, mit Speicher und einer Zentralrecheneinheit
• Der erste dokumentierte Bug ereignete sich am 9.9.1945 um 15:45, bei dem sich
eine Motto ( engl. Bug ) in einem Relais eines Mark II Rechners verklemmte und
eine Fehlfunktion verursachte
2.1.3 Voll-Elektronische • Erster voll-elektronischer Rechner war der ENIAC aus dem Jahre 1946
Rechenmaschinen • verfügte über keinen Befehlsspeicher; Neuprogrammierung erfolgte über neues
Verdrahten
2.1.4 Von-Neumann • Notwendigkeit eines Befehlsspeichers beim ENIAC
Architektur • Stored-Program-Computer besitzt Speicher mit wahlfreiem Zugang (Random
Access Memory)
◦ Daten, Befehle und Programm können hier drauf gespeichert werden
• Stored-Program-Computer wurde von John von Neumann weiter ausgearbeitet
, • Von-Neumann Architektur besitzt:
◦ Hauptspeicher (Memory) – Daten und Befehle / Programme
◦ Zentraleinheit CPU
▪ Steuerwerk – Befehlszeiger (BZ) und Befehlsregister (BR)
▪ Rechenwerk (ALU – Arithmetic Logic Unit) – Ausführung arithmetischer
Operationen
◦ Ein-/Ausgabe – (Input/Output IO)
• Harvard-Archietktur:
◦ Trennung der Speicher für Daten und Programme
◦ Vorteil – Schreiben von Daten kann nicht aus Versehen Code verändern
Von-
Von-Neumann-Architektur Neumann-Zyklus
• Von-Neumann-Zyklus beschreibt, wie die Befehle abgearbeitet werden:
◦ 1) Befehl holen ( fetch ) - aus dem Befehlsregister
◦ 2) Befehl dekodieren ( decode ) - Bereitstellen der Instruktionen für die ALU
▪ 3) Operanden holen
◦ 4) Befehl ausführen ( execute ) - ALU führt die Operation aus
◦ Wenn Ergebnis = Sprunganweisung
▪ 5) Befehlszeiger auf den nächsten Befehl ausgegeben
◦ Wenn Ergebnis =! Sprunganweisung
▪ Abspeichern des Ergebnisses ( store )
▪ 6) Befehlszeiger erhöhen
2.1.5 Entwicklung bis heute • 1950 – 1955
◦ Entwicklung von Röhrenschaltkreisen und Trommelspeichern
• 1955 – 1960
◦ Übergang zu Transistorschaltkreise und Ferritspeicher
• 1960 – 1970
◦ Entwicklung erster integrierter Schaltkreise und Festplatten heutiger Bauart
• 1970 – heute
◦ Einsatz hochintegrierter Schaltkreise, Halbleiterspeicher
2.2 Codierung
• Abbildung des Zeichenvorrats einer Darstellung in den einer anderen Darstellung
• Zeichenvorrat bzw. Code ist die Menge der Zeichen / Symbole die ein Signale annehmen kann
• Codierung selbst ist die Vorschrift der Abbildung; und sollte in der Regel umkehrbar sein
2.2.1 Elementare • Bits ( Binary Digits ) - Elementare Informationseinheit; kann exakt zwei
Dateneinheiten mögliche Werte annehmen
• Byte ( Stück / Biss ) - eine bestimmte Anzahl an Bits; heute üblich 8 Bits
◦ 1KB = 1024 Bytes = 2^10 Bytes : binäres Kilo
◦ 1MB = 1024² Bytes = 2^20 Bytes : binäres Mega
◦ 1GB = 1024³ Bytes = 2^30 Bytes : binäres Giga
◦ etc.
• Word ( Wort ) - nächstgrößere Einheit nach Bytes
◦ grundlegende Dateneinheit zur Organisation eines Computersystems
◦ ein Word kann in einem Operationsschritt/Takt vom Prozessor verarbeitet
werden
◦ Wortlänge definiert den maximal adressierbaren Speicher
, 2.2.2 Elementare Datentypen • Integer ( Ganze Zahl )
◦ short – 2 Byte
◦ long – 4 Byte
• Float ( Gleitkomma Zahl )
◦ Darstellung reeller Zahlen mit endlich vielen Ziffern, daher approximativ
◦ W =V Z * M * b E ; im technischen Bereich mit der Basis b=10, bei der
Computerorientieren Darstellung in der Regel mit Basis b=2
◦ Normalisierte Mantisse liegt vor wenn 1≤M <b
◦ float ( 4 Bytes / 32 Bits )
◦ double ( 8 Bytes / 64 Bits )
◦ Abschneidefehler
▪ Bei Denormalisierung müssen Stellen der Mantisse verschoben werden,
die jedoch aufgrund der begrenzten Stellen abgeschnitten werden
◦ Auslöschungsfehler
▪ Bei der Subtraktion können bei Zahlen, deren ersten k-Stellen identisch
sind, nur p-k Stellen vertrauenswürdig sein
◦ Rundungsfehler
▪ Multuplikation zweier Gleitkommazahlen erfolgt durch Addition der
Exponenten und Multiplikation der Mantissen. Aufgrund einer begrenzten
Stellenzahl werden überschüssige Stellen des Ergebnisses gekürzt,
wodurch ein Rundungsfehler entsteht
◦ Kumulation von Rechenfehlern
▪ Abschneide- und Rundungsfehler kumulieren bei mehreren
nachfolgenden Operationen zu größeren Fehlern
◦ Vergleich von Gleitkommazahlen
▪ Aufgrund von Darstellungsungenauigkeiten können Gkeitkommazahlen
nicht direkt verglichen werden; Verwendung einer ε-Schranke
◦ Schnelligkeit und Genauigkeit
▪ Sofern Schnelligkeit und Genauigkeit eine Rolle spielen, sollten
Gleitkommazahlen vermieden und Integer genutzt werden
• Char ( Zeichen )
◦ wird für betragskleine Zahlen oder Zeichen verwendet (i.d.R. 8 Bits)
◦ Zeichensatz definiert die visuelle Darstellung
▪ EBCDIC – Extended Binary Coded Decimals Interchange Code
• 8 Bit Zeichensatz; vorwiegend auf Großrechnern
▪ ASCII – American Standard Code for Information Interchange
• ISO-7 Bit Zeichensatz
▪ ISO / IEC 8859-1 ( gleichwertig zu latin1 )
• 8 Bit Erweiterung zum ASCII
▪ Unicode ISO 10646
• Ursprünglich 16 Bit, mittlerweile 32 Bit ( UTF )
• Byte-Reihenfolge – Byte-Ordering
◦ Hardwaretechnisch relevant und i.d.R. prozessorabhängig
◦ Little Endian – niedrigstwertigste Byte wird an der niedrigsten
Speicheradresse abgelegt ( A4 B3 C2 D1 )
◦ Big Endian – höchtswertigstes Byte wird an der niedrigsten Speicheradresse
abgelegt ( D1 C2 B3 A4 )
2.3 Architektur-Elemente
2.3.1 Register-Architektur • Daten befinden sich im Hauptspeicher und müssen zur Durchführung in die CPU
geholt werden
• Register dienen als Zwischenspeicher, für kleine Daten ( i.d.R. für ein Word ),
und schnellen Zugriff
• Registersatz - Zusammenfassung aller Register eines Prozessors
• Akkumulator-Register – ermöglicht das Speichern eines Ergebnisses innerhalb
der CPU zur weiteren Verwendung
• Register-Register
◦ Für Operationen wird nur auf Register zugegriffen
◦ schnelle Ausführung, jedoch Load/Store-Architektur benötigt Transfer
Alle Vorteile der Zusammenfassungen von Stuvia auf einen Blick:
Garantiert gute Qualität durch Reviews
Stuvia Verkäufer haben mehr als 700.000 Zusammenfassungen beurteilt. Deshalb weißt du dass du das beste Dokument kaufst.
Schnell und einfach kaufen
Man bezahlt schnell und einfach mit iDeal, Kreditkarte oder Stuvia-Kredit für die Zusammenfassungen. Man braucht keine Mitgliedschaft.
Konzentration auf den Kern der Sache
Deine Mitstudenten schreiben die Zusammenfassungen. Deshalb enthalten die Zusammenfassungen immer aktuelle, zuverlässige und up-to-date Informationen. Damit kommst du schnell zum Kern der Sache.
Häufig gestellte Fragen
Was bekomme ich, wenn ich dieses Dokument kaufe?
Du erhältst eine PDF-Datei, die sofort nach dem Kauf verfügbar ist. Das gekaufte Dokument ist jederzeit, überall und unbegrenzt über dein Profil zugänglich.
Zufriedenheitsgarantie: Wie funktioniert das?
Unsere Zufriedenheitsgarantie sorgt dafür, dass du immer eine Lernunterlage findest, die zu dir passt. Du füllst ein Formular aus und unser Kundendienstteam kümmert sich um den Rest.
Wem kaufe ich diese Zusammenfassung ab?
Stuvia ist ein Marktplatz, du kaufst dieses Dokument also nicht von uns, sondern vom Verkäufer owil. Stuvia erleichtert die Zahlung an den Verkäufer.
Werde ich an ein Abonnement gebunden sein?
Nein, du kaufst diese Zusammenfassung nur für 5,99 €. Du bist nach deinem Kauf an nichts gebunden.