Tarifs et devis

Assistance et initiation

Voir les tarifs

Création de sites

Demande de Devis

Histoire de l'informatique et d'internet.

Un peu d'histoire

Histoire de l'informatique

Source : l'« Informatique » sur Wikipédia (licence CC BY-SA 3.0).

L'informatique est un domaine d'activité scientifique, technique et industriel concernant le traitement automatique de l'information via l'exécution de programmes informatiques par des machines : des systèmes embarqués, des ordinateurs, des robots, des automates, etc.

Ces champs d'application peuvent être séparés en deux branches, l'une, de nature théorique, qui concerne la définition de concepts et modèles, et l'autre, de nature pratique, qui s'intéresse aux techniques concrètes d'implantation et de mise en œuvre sur le terrain. Certains domaines de l'informatique peuvent être très abstraits, comme la complexité algorithmique, et d'autres peuvent être plus proches d'un public profane. Ainsi, la théorie des langages demeure un domaine davantage accessible aux professionnels formés (description des ordinateurs et méthodes de programmation), tandis que les métiers liés aux interfaces homme-machine sont accessibles à un plus large public.


 

Étymologie

En 1957, le terme « Informatik » est créé par l'ingénieur allemand Karl Steinbuch dans son essai intitulé « Informatik: Automatische Informationsverarbeitung », pouvant être rendu en français par « Informatique : traitement automatique de l'information ».

En mars 1962, le terme « Informatique » est utilisé pour la première fois, en France, par Philippe Dreyfus, ancien directeur du Centre national de calcul électronique de Bull, pour son entreprise Société d'Informatique Appliquée (SIA). Ce néologisme est formé par la combinaison du terme « information », réduit à « infor », et du terme « automatique », réduit à « matique ».

Le même mois, Walter Bauer inaugure la société américaine Informatics Inc., qui dépose son nom et poursuit toutes les universités qui utilisent ce mot pour décrire la nouvelle discipline, les forçant à se rabattre sur computer science, bien que les diplômés qu'elles forment soient pour la plupart des praticiens de l'informatique plutôt que des scientifiques au sens propre. L'Association for Computing Machinery, la plus grande association d'informaticiens au monde, approche même Informatics Inc. afin de pouvoir utiliser le mot informatics en remplacement de l'expression computer machinery, mais l'entreprise décline la proposition. La société Informatics Inc., achetée par Sterling Software, cesse ses activités en 1986.

En 1966, en France, l'usage officiel du mot est consacré par l'Académie française pour désigner la « science du traitement de l'information », et largement adopté dès cette époque dans la presse, l'industrie et le milieu universitaire.

En juillet 1968, le ministre fédéral de la Recherche scientifique d'Allemagne, Gerhard Stoltenberg, prononce le mot « Informatik » lors d'un discours officiel sur la nécessité d'enseigner cette nouvelle discipline dans les universités de son pays ; on emploie ce même terme pour nommer certains cours dans les universités allemandes. Le mot informatica fait alors son apparition en Italie et en Espagne, de même qu'informatics au Royaume-Uni.

Le mot « informatique » est ensuite repris par la Compagnie Générale d'Informatique (CGI), créée en 19696.


 

Évolution sémantique

Dans l'usage contemporain, le substantif « informatique » devient un mot polysémique qui désigne autant le domaine industriel en rapport avec l'ordinateur (au sens de calculateur fonctionnant avec des algorithmes), que la science du traitement des informations par des algorithmes.

Les expressions « science informatique », « informatique fondamentale » ou « informatique théorique » sont utilisées pour désigner sans ambiguïté la science, tandis que « technologies de l'information » ou « technologies de l'information et de la communication » désignent le secteur industriel et ses produits. Au niveau des utilisateurs, la manipulation des appareils est parfois assimilée à de la conduite automobile, comme veut le faire entendre l'expression European Computer Driving License (traduction littérale : « permis de conduire un ordinateur »).

Histoire

Depuis des millénaires, l'Homme a créé et utilisé des outils l'aidant à calculer (abaque, boulier...). Pour réaliser des calculs complexes, il a également mis au point des Algorithmique. Parmi les algorithmes les plus anciens, on compte des tables datant de l'époque d'Hammourabi (environ -1750).

Une pascaline, signée par Pascal en 1652, visible au musée des arts et métiers à Paris.
Une pascaline, signée par Pascal en 1652

Si les machines à calculer évoluent constamment depuis l'Antiquité, elles ne permettent pas de traiter un algorithme : c'est l'homme qui doit exécuter les séquences de l'algorithme, au besoin en s'aidant de machines de calculs (comme pour réaliser les différentes étapes d'une Division euclidienne). En 1642, Blaise Pascal imagine une machine à calculer, la Pascaline, qui fut commercialisée et dont sept exemplaires existent dans des musées comme celui des arts et métiers et dont deux sont dans des collections privées (IBM en possède une). Mais il faudra attendre la définition du concept de programmation (illustrée en premier par Joseph Marie Jacquard avec ses métiers à tisser à cartes perforées, suivi de Boole et Ada Lovelace pour ce qui est d'une théorie de la programmation des opérations mathématiques) pour disposer d'une base permettant d'enchaîner des opérations élémentaires de manière automatique.

Mécanographie

Une autre phase importante fut celle de la mécanographie. Dans les années 1880, Herman Hollerith, futur fondateur d'IBM, invente une machine électromécanique destinée à faciliter le recensement en stockant les informations sur une carte perforée. Les trieuses et les tabulatrices furent utilisées à grande échelle pour la première fois par les Américains lors du recensement de 1890 aux États-Unis, à la suite de l'afflux des immigrants dans ce pays dans la seconde moitié du XIXe siècle.

La première entreprise européenne qui a développé et commercialisé des équipements mécanographiques a été créée par l'ingénieur norvégien Fredrik Rosing Bull dans les années 1930 [...].

Les Allemands étaient équipés de machines mécanographiques déjà avant la Seconde Guerre mondiale. Ces équipements étaient installés par ateliers composés de trieuses, interclasseuses, perforatrices, tabulatrices et calculatrices connectées à des perforateurs de cartes. Les traitements étaient exécutés à partir de techniques électromécaniques utilisant aussi des lampes radio comme les triodes. La chaleur dégagée par ces lampes attirait les insectes, et les bugs (terme anglais pour insectes, francisé en « bogue ») étaient une cause de panne courante. Ce n'est qu'à la suite de l'invention du transistor en 1947 et son industrialisation dans les années 1960, que l'informatique moderne a pu émerger.

Naissance de l'informatique moderne

L'informatique moderne commence avant la Seconde Guerre mondiale, lorsque le mathématicien Alan Turing pose les bases d'une théorisation de ce qu'est un ordinateur, avec son concept de machine universelle de Turing. Turing pose dans son article les fondements théoriques de ce qui sépare la machine à calculer de l'ordinateur : la capacité de ce dernier à réaliser un calcul en utilisant un algorithme.

Après la Seconde Guerre mondiale, l'invention du transistor, puis du circuit intégré permettront de remplacer les relais électromécaniques et les tubes à vide qui équipent les machines à calculs pour les rendre à la fois plus petites, plus complexes, plus économiques et plus fiables. [...].

Avec l'architecture de von Neumann, mise en application de la machine universelle de Turing, les ordinateurs dépassent la simple faculté de calculer et peuvent commencer à accepter des programmes plus évolués, de nature algorithmique.

Dans les années 1970, l'informatique a débuté un flirt avec les télécommunications, avec ARPANET, le réseau Cyclades et la Distributed System Architecture de réseau en couches, qui donnera naissance en 1978 au modèle OSI, appelé aussi "OSI-DSA", puis aux protocoles TCP-IP dans les années 1990, grâce à la baisse des prix des microprocesseurs. Les concepts de datagramme et d'informatique distribuée, d'abord jugés risqués, s'imposeront en fait grâce à l'Internet.

Développement des applications informatiques

La série de livres The Art of Computer Programming de Donald Knuth, publiée à partir des années 1960, fait ressortir les aspects mathématiques de la programmation informatique. Edsger Dijkstra, Niklaus Wirth et Christopher Strachey travaillent et publient dans le même sens. Ces travaux préfigurent d'importants développements en matière de langage de programmation.

L'amélioration de l'expressivité des langages de programmation a permis la mise en œuvre d'algorithmes toujours plus sophistiqués, appliqués à des données de plus en plus variées. La miniaturisation des composants et la réduction des coûts de production, associées à une augmentation de la demande en traitements des informations de toutes sortes (scientifiques, financières, commerciales, etc.), ont eu pour conséquence une diffusion de l'informatique dans toutes les couches de l'économie ainsi que dans la vie quotidienne des individus.

Des études en psychologie cognitive et en ergonomie réalisées dans les années 1970 par Xerox ont amené les outils informatiques à être équipés d'interfaces graphiques en vue de simplifier leur utilisation. Une informatique plus décentralisée est promue par les constructeurs souhaitant concurrencer le géant IBM.

La démocratisation de l'utilisation d'Internet – réseau basé sur ARPANET – depuis 1995, a amené les outils informatiques à être de plus en plus utilisés dans une logique de réseau comme moyen de télécommunication, à la place des outils tels que la poste ou le téléphone. Elle s'est poursuivie avec l'apparition des logiciels libres puis des réseaux sociaux et des outils de travail collaboratif (dont Wikipédia n'est qu'un des nombreux exemples). Face à la demande pour numériser photos, musique, les capacités de stockage, de traitement et de partage des données explosent et les sociétés qui ont parié sur la croissance la plus forte l'emportent le plus souvent, en profitant d'une énorme bulle spéculative sur les sociétés d'informatique.

En France, l'informatique n'a commencé à vraiment se développer que dans les années 1960, avec le Plan Calcul. Depuis lors, les gouvernements successifs ont mené des politiques diverses en faveur de la Recherche scientifique, l'Enseignement, la tutelle des Télécommunications, la nationalisation d'entreprises clés.

 

 

 

 

Sources

Photo de la bannière : collection des Archives nationales du Royaume-Uni. Cette image est dans le domaine public. Ordinateur Colossus Mark II. Il fut le premier calculateur électronique fondé sur le système binaire, construit en 1943 (source Wikipédia).

Image titre de la page : auteur j4p4n. Cette image est est sous la licence CC0 1.0 universel (CC0 1.0).

Pascaline : signée par Pascal en 1652, visible au musée des arts et métiers à Paris. Photo de David Monniaux, sous licence CC BY-SA 3.0.