Grundbegriffe

Als lockerer Rundumschlag werden im folgenden einige wichtige Begriffe erwähnt und erklärt, die zum Verständnis des restlichen Skripts nötig sind.

Informatik ist die Wissenschaft von der automatischen Datenverarbeitung.

Die ersten Schritte wurden mit mechanischen Konstruktionen unternommen. Seit etwa der Mitte des Jahrhunderts begann die Entwicklung mit elektronischen Schaltungen. Dies waren anfangs Röhren und Relais, inzwischen fast ausschließlich Halbleiterschaltungen.

Zumindest in Teilbereichen wird in den nächsten Jahren und Jahrzehnten ein Umstieg auf optische Bauteile stattfinden.

Dies alles betrifft aber nur die sogenannte Hardware direkt. Mit Hardware bezeichnet man alle Bestandteile eines Rechensystems, die man anfassen kann: Gehäuse, Stromversorgung (nein, die bitte nicht anfassen!), Platinen, die Bauteile darauf, Diskettenlaufwerke, Disketten, Festplatten, Magnetbänder und so weiter2.1, und kaputtgeht, wenn man mit dem Hammer draufhaut.

Der (künstliche) Gegenbegriff ist die Software. Damit ist alles gemeint, was die Hardware erst mit Leben füllt, nämlich Programme und Daten, also das Wissen eines Computers. Dies Wissen (die Daten) werden meistens unabhängig von der Hardware betrachtet2.2

Ein Informatiker wird sich sicher mehr auf die Softwareseite konzentrieren. Trotzdem muß er auch für die verwendete Hardware ein Grundwissen und Verständnis haben, um sinnvoll arbeiten zu können.

Grundsätzlich sind zwei Arten von Rechnern möglich:

Analogrechner haben nur noch geringe Bedeutung; wenn man von Rechnern oder Computern spricht, meint man im allgemeinen Digitalrechner. Analogrechner rechnen nicht tatsächlich, sondern stellen die Werte von physikalischen oder technischen Problemen wieder als physikalische Werte dar, und zwar meist als elektronische Werte (Spannungen). Hat man beispielsweise ein technisches Gebilde, in dem Drücke und Strömungen vorkommen, und stellt diese Werte in einem Analogrechner durch Spannungen und elektrische Ströme dar, dann kann man den Analogrechner auf das gestellte Problem ,,programmieren``, indem man das gegebene technische System durch elektrische Addierer, Multiplizierer, Invertierer etc. ersetzt. Gibt man nun dem abgebildeten System (auf dem Analogrechner) irgendwelche Randbedingungen vor, kann man von den elektrischen Ausgängen des Analogrechners auf die Reaktionen an den Ausgängen des realen technischen Systems schließen. Analogrechner eignen sich also im wesentlichen nur zur Simulation von physikalischen Systemen und dadurch zur Lösung von gewissen Differentialgleichungen. Die ,,Rechenzeit`` ist klein, die Genauigkeit auch und der ganze Aufwand enorm; die Ergebnisse sind teilweise schwer reproduzierbar und oft höchst unsicher. Zu alledem haben Analogrechner einen sehr begrenzten Einsatzbereich.

Analogrechner hatten ihre große Zeit, als preiswerte Digitalrechner nicht erhältlich waren und für die meisten Probleme der Simulation nicht leistungsfähig genug waren. Der Name Analogrechner kommt daher, daß jeder Größe des originalen Problems eine sich analog verändernde Größe im Simulationsgerät entspricht, also einem hohen Druck im realen System entspricht eine hohe Spannung im Rechner und so weiter.

Digitalrechner dagegen stellen Zahlen durch diskrete Spannungswerte dar anstatt durch analoge, d.h. an jeder Leitung im Digitalrechner werden nicht beliebig viele Spannungen unterschieden, sondern nur eine sehr begrenzte Anzahl.

Im Regelfall werden nur zwei Spannungen unterschieden. Innerhalb der aktuellen Rechner sind das die Spannungen etwa 0 V (0 V-1.5 V) und etwa 5V (4 V-5 V). In der Übertragung zwischen Rechnern beispielsweise kommen auch andere Spannungen vor, wie etwa +12 V und etwa -12 V gegenüber Masse (z.B. RS-232-Schnittstelle bzw. V24 und andere Normen). Den beiden Spannungswerten ordnet man eine 0 und eine 1 zu, so daß man mit den beispielsweise 8 Spannungen (0 oder 5 V) auf 8 Leitungen eine achtstellige Binärzahl (0 oder 1) darstellen kann2.3.

0 V könnte also vereinbarungsgemäß eine logische (gedachte) 0 sein, 5 V soll 1 sein; oder -12 V soll 1 sein und +12 V die 0.

Eine Binärzahl ist eine Zahl im Zweiersystem, in dem alle derzeitigen Computer rechnen. Als normal denkender Mensch rechnet man im Zehnersystem, in dem man die zehn Ziffern von 0 bis 9 zur Verfügung hat. Genauso kann man im Zweiersystem (Binärsystem, Dualsystem) rechnen, wo man nur die beiden Ziffern 0 und 1 hat. Auch wenn man selten etwas davon sieht, rechnen doch alle Computer (auch Taschenrechner) im Zweiersystem. Bevor man allerdings Ergebnisse sieht (wenn überhaupt), werden die Zahlen aus dem Zweiersystem wieder ins Zehnersystem umgewandelt.

Eine Stelle einer Binärzahl (also das, was entweder 0 oder eins sein kann), bezeichnet man als Bit. Das ist einerseits ein Kunstwort (binary digit, also binäre Ziffer), aber andererseits auch ein tatsächlich verwendetes englisches Wort (,,ein Stückchen``).

Einige wenige Bits (heute meist 8) werden zu einem Byte zusammengefaßt. Vier Bit werden oft als nibble bezeichnet; dies entspricht genau einer Ziffer einer Hexadezimalzahl.

Größere Datenmengen werden in runden Zahlen gemessen; aber rund meint nicht rund im Sinne des Zehnersystems, sondern im Zweiersystem: Der Vorsatz kilo bedeutet nicht 1000, sondern 1024 (also $2^{10}$); ein Mega steht für kilo$\ast$kilo$=$1048576 ($2^{20}$); ein Giga steht dementsprechend für kilo$\ast$Mega$=$1073741824 ($2^{30}$); ein Tera steht für kilo$\ast$Giga$=$1099511627776 ($2^{40}$).

Wenn ein Rechner also einen Arbeitsspeicher von 256 MB (Mega Byte) hat, dann stehen im Speicher 256$\ast$1048576$=$268435456 Bytes zu je 8 Bits, also 2147483648 Bits zur Verfügung2.4.

AnyWare@Wachtler.de