l'origine d'informatique
Le mot "informatique" a été proposé en 1962 par Philippe Dreyfus pour caractériser le traitement automatique de l'information. Il a été accepté par l'Académie française en avril 1966, avec la définition suivante :
Cet article rappelle en quelques mots les origines de l’informatique et décrit les quatre âges qui ont ponctué l’évolution de l’informatique de son origine à nos jours.
L’ordinateur, inventé en 1945, est une machine complexe qui est utilisé pour effectuer des calculs, traiter des données et réaliser des traitements automatisés. Il trouve donc ses racines dans trois traditions distinctes qui sont à l’origine des concepts de base de l’informatique :
- les machines à calculer,
- le codage,
- l’automatisation.
Les machines à calculer
Depuis des millénaires, l’homme a créé et utilisé des outils pour calculer. Citons en exemple le boulier qui n’est pas une machine à proprement parler mais plutôt un outil car c’est l’homme qui réalise les opérations. Les premières machines mécaniques apparaissent entre le 17ème et le 18ème siècle. La première machine à calculer mécanique réalisant les quatre opérations de base aurait été construite par Wilhelm Schickard (1592-1635) au 16ème siècle. En 1642, Blaise Pascal (1623-1662) réalise la Pascaline, une machine à calculer mécanique qui fut pour sa part commercialisée. Dans le milieu du 20ème siècle, les ingénieurs et scientifiques ont cherché à construire des machines pour le calcul scientifique en s’appuyant sur les technologies électroniques. En 1943, le calculateur ENIAC est utilisé pour calculer les trajectoires de projectiles. D’un poids de 30 tonnes et comportant 17 468 tubes à vide, cette machine additionne 5000 nombres en une seconde. Les calculateurs ne sont pas des ordinateurs car ils n’utilisaient pas le concept de programme.
Information et programmation
Le codage binaire n’est pas une invention récente, il existe en Chine des documents vieux de 4500 ans qui montrent l’usage du système numérique binaire. Le langage binaire est vraiment exploité en Occident dans le courant du 16ème siècle pour crypter des documents. L’algèbre de Boole (1815-1864) définit les fonctions ET, OU et NON qui sont à la base de la logique moderne ; cette algèbre a permis le développement des premiers outils de programmation. Le concept de programmation trouve son origine dans l’utilisation, par Joseph-Marie Jacquard (1752-1834), de cartes perforées pour définir le fonctionnement de métiers à tisser. Le premier dispositif moderne utilisé pour traiter l’information est capable de trier et compter des fiches perforées sur lesquelles les opérateurs ont reporté des données. La machine de l’américain Hermann Hollerith (1860-1929) est utilisée pour réaliser automatiquement les opérations associées au recensement de la population. Cette machine est à l’origine des machines mécanographiques dont l’inventeur crée la "Tabulating Business Machine" (qui deviendra IBM en 1924).
Automates et automatismes
Une des premières machines automatiques connues dans l’Antiquité est la clepsydre, ou horloge à eau. Pendant longtemps, les horloges et les montres sont les principaux dispositifs automatiques connus et utilisés. Le 18ème siècle a vu la naissance de véritables automates mécaniques dont les éléments les plus connus sont les « musiciens artificiels » qui forment de véritables orchestres.
Le développement de l’industrie moderne à la fin du 19ème siècle et au début du 20ème siècle a conduit au développement de divers automatismes industriels. Il a atteint son apogée avec le développement des robots dans les années 1980. Ces matériels, de plus en plus perfectionnés, ont pour objectif de remplacer l’homme dans la réalisation de tâches complexes.
Les pionniers de l'informatique
L'ère des ordinateurs modernes commença avec les développements de l’électronique durant la Seconde Guerre mondiale. Le principe des ordinateurs est inventé en 1945, il est le fruit de travaux britanniques et américains. Trois chercheurs jouent un rôle essentiel dans l’invention de l’ordinateur : Alan Turing (1912-1954), Norbert Wiener (1894-1964), John Von Neumann (1903-1954). Les travaux de ces chercheurs aboutissent à la naissance du premier ordinateur.
Alan Turing est le premier à formaliser le concept d’ordinateur. Il conçoit une machine, désignée machine de Turing , capable d’exécuter, à partir d’un ensemble fini d’états, une procédure bien définie. Cette machine modélise le fonctionnement d'un ordinateur et de sa mémoire. Elle a été développée pour définir le concept d’algorithme et est toujours utilisé en informatique théorique pour résoudre les problèmes de complexité.
John Von Neumann est un mathématicien qui prend conscience du potentiel fourni par les tubes à vide qui peuvent prendre la position 0 ou 1 près de 300 000 fois par seconde. Il conçoit, en 1945, les plans de l’EDVAC qui sont considérés comme les plans de l’ordinateur moderne. En 1948, il conçoit la première machine opérationnelle à l’Université de Manchester sous le nom de « Manchester Mark 1 ».
Norbert Wiener est un mathématicien américain qui fonde en 1948 une nouvelle discipline scientifique,la cybernétique, qui fut l’ancêtre de l’informatique. Le terme cybernétique, science du contrôle et des communications, est dérivé du mot grec kubernetes, ou "pilote", le même mot grec dont nous faisons en fin de compte notre mot « gouverneur ». Cette nouvelle discipline est également à l’origine de la science des systèmes.
Les quatre âges de l'informatique
Le premier âge débute avec l’époque des pionniers et il se termine au milieu des années 60. Les ordinateurs de cette époque fonctionnent sur la base de la technologie des tubes à vide. Développé grâce à des investissements militaires, cet âge a fait évoluer l’informatique vers deux directions :
- la construction de dispositifs matériels de plus en plus sophistiqués où les tubes à vide sont progressivement remplacés par des transistors,
- le développement de logiciels qui s’appuient sur des langages tels que FORTRAN, COBOL, ALGOL et LISP.
Le second âge lui succède jusqu’au milieu des années 70, il correspond sur le plan technologique à la mise au point du circuit imprimé et à la miniaturisation du transistor dans des circuits intégrés. Cette époque est marquée par l’introduction massive de l’informatique dans les entreprises et les grandes administrations.
Le troisième âge débute par la naissance des micro-ordinateurs et l’utilisation de l’informatique dans la plupart des activités quotidiennes. Cette évolution a été rendue possible par les progrès réalisés dans le domaine de la miniaturisation. Au début des années 70, un ingénieur développe un microprocesseur sur une « puce » grande comme une tête de punaise. Au niveau logiciel, le micro-ordinateur est accompagné d’un langage de programmation conçu pour les débutants, le BASIC.
Le quatrième âge débute avec ce millénaire avec l'explosion d'Internet qui bouleverse le mode de fonctionnement de nombreuses organisations en fournissant une quantité quasi illimitée d'informations et en permettant des échanges entre tous les points du globe.


Commentaires
Enregistrer un commentaire