Da sitzt man vorm Bildschirm oder zückt sein Smartphone, das Radio funktioniert so, die Auto-Elektronik auch, der Kühlschrank bald genauso - immer größere Teile unserer Umwelt sind vernetzt. Überall sind lauter kleine Rechenmaschinen am Werk, sausen Zahlenkolonnen durch Leitungen oder per Funk durch die Luft. Und in allem steckt reine Mathematik mit 0 und 1. Natürlich ist ein Leipziger dran schuld.
Gottfried Wilhelm Leibniz war es, der das Dualsystem als erster zur Konstruktion von Rechenmaschinen vorschlug. Ein Vorschlag, der seither mehrere Revolutionen ausgelöst hat. Vom Morsealphabet über den Lochstreifen bis zu George Boole, der im 19. Jahrhundert dann die Aussagenlogik schuf, mit der dann die mathematischen Strukturen geschrieben werden konnten, die heute Grundlage für die Digitaltechnik sind. Denn die technische Seite mit den immer mehr miniaturisierten Speichereinheiten und dem immer preiswerteren Speicherplatz ist das eine. Wenn man aber keine mathematisch logischen Funktionen hat, mit denen die Rechenanweisungen in den kleinen Denkmaschinchen vor sich gehen, nutzt einem das nichts.
Und die Computerprogrammierer des 20. Jahrhunderts wussten sehr wohl, wie genial dieser simple Leibnizsche Einfall war, eine binäre Grundstruktur zu schaffen, bei der die Maschine immer nur zwei klare Lösungen hat: 0 und 1, ja und nein, richtig und falsch. Und schon Leibniz wusste, dass sich mit dieser Simplizität auch alles andere darstellen lässt – man muss es nur in klare Formeln packen, logische Gleichungen. Und da setzt dieses Buch an, zu dem sich mit Bernd Steinbach ein Informationstechniker und mit Christian Posthoff ein Informatiker zusammen getan haben, um die Grundlagen dieser “technischen Informatik” zu beschreiben.Wobei das “technisch” vor allem auf den Anwendungsbereich zielt, nicht auf den Inhalt. Die beiden gehen ganz forsch zur Sache und setzen nur Schulwissen voraus. Was natürlich Quatsch ist. Ein bisschen eingehender mit Mengen, Funktionen und mathematischer Logik sollte man sich schon beschäftigt haben. Das Buch wendet sich eher an junge begabte Mathematiker, die sich für einen Studienzweig der Informatik entscheiden möchten. Und die vor allem wissen wollen, woraus die ganzen Programmiersprachen eigentlich bestehen und wie sie funktionieren.
Die mathematische Geburt des Computer-Zeitalters: Wie berechenbar ist die Welt?
Sie sind zwar allgegenwärtig in unserem Alltag …
Algorithmen für Zahlen und Primzahlen – ein Büchlein für Knobler und ein paar Worte über das Dorf Leipzig
Es gibt Bücher, die kann man nicht …
Die Mathematik in der Industriellen Revolution: Von Gauß bis Poincaré
Dass Wirtschaft etwas mit Rechnenkönnen …
Goethe hätte seinen Faust heute ganz bestimmt etwas in dieser Richtung studieren lassen. Da hätte er zwar keine Zeit mehr gehabt, das Gretchen zu verführen, aber der Bursche hätte sich spätestens in der Snowden-Affäre zu Wort gemeldet und – so ähnlich wie die Jungs vom Chaos-Computerclub – gesagt: Wir müssen wissen, was des Pudels Kern ist. Denn als die Forschergemeinde vor rund 60 Jahren anfing, aus Booles Theorie und der Idee von Leibniz eine funktionierende Rechenmaschine zu konstruieren, versteckten und verschlüsselten sie ihre Codes nicht, sondern diskutierten die Grundlagen öffentlich.
Was dann im Nachhinein ein wenig verblüfft, denn damals waren auch die russischen Mathematiker auf der Höhe der Zeit und schufen wichtige Beiträge zur Verbesserung der Algorithmen und zur Konstruktion von Programmen, die mit der Komplexität zurecht kommen. Denn wenn man erst einmal beginnt, binäre Modelle zu entwickeln, stößt man bald auf das Problem der prinzipiellen Komplexität. Das heißt: die notwendige Leistung zum Durchrechnen aller für eine solche Aufgabe möglichen Lösungenswege würde nicht nur die Kapazität der Erde übersteigen, sondern sogar die des Weltalls.Aber Steinbach und Posthoff gehen es geruhsam an, gehen erst einmal auf binäre Funktionen, algebraische Strukturen und Entscheidungsbäume ein. Wer noch gar keine Ahnung hat, wie man mit 0 und 1 überhaupt irgendetwas zustande bekommt, findet hier einen kleinen Einstieg, bekommt die wichtigsten Grundlagen erklärt, bevor es dann langsam in die Modellierung geht: Mengenoperationen, Gleichungssysteme, erste digitale Schaltungen. Da tauchen dann die Begriffe auf, die man vielleicht kennt aus der Welt der Programmierungen mit if und else und while, den englischen Begriffen, die schon in den Basic-Programmen für die Logik der verwendeten Operationen stehen. Im Computer sind das klare Handlungsanweisungen. Wie Weichen bei der Eisenbahn. Bei jeder neuen Weiche kommt der Zug auf ein neues Gleis.
Programmierer haben dieses Denken verinnerlicht, auch wenn sie heute wissen, dass das Problem der Komplexität mit der Weiterentwicklung der Rechenmaschinen und des Internets immer wieder in neuer Form auftaucht. Was dann dazu führt, dass die Informatik längst kein einheitliches Studium mehr ist und einzelne Programmieraspekte sich längst zu eigenständigen Disziplinen entwickelt haben. Bis hin zu den Aktivitäten der NSA, die jedes Verfassungsrecht auf Selbstbestimmung einfach unterlaufen. Aber das ist keine so neue Frage, wie sie zu sein scheint. Denn mit jeder technischen Revolution steht die Frage, ob Technik auch missbraucht werden kann.
Technik selbst ist wertfrei. Sie funktioniert einfach.
EAGLE-Starthilfe: Technische Informatik
Bernd Steinbach, Christian Posthoff, Edition am Gutenbergplatz Leipzig 2014, 14,50 Euro
Und sie funktioniert logisch. Und wer die Logik ein klein wenig begreifen will, findet in diesem Buch einen Leitfaden dazu. Mit etlichen Aufgaben, mit denen man sich den Stoff aneignen kann. Da und dort ist auch ein Wörterbuch mit den mathematischen Fachbegriffen ganz gut, wenn man es in Reichweite hat. Und wen die Logik packt, der sucht sich dann das passende Studium, um neue Welten zu entdecken.
Jedes eine Herausforderung, die zeigt, wie komplex menschliches Denken ist. Und wie faszinierend die Verwandlung (logischen) menschlichen Denkens in simple Rechenprozesse mit 0 und 1. Richtig und falsch.
Keine Kommentare bisher