INTRODUCTION A L’INFORMATIQUE
( AUTEUR : GREGORY BOISROND )
( Prérequis au cours d’algorithme )
INFORMATIQUE
DEFINITION
Le mot informatique est un néologisme qui a été créé en 1962 par la combinaison de deux mots:
INFORMATION – AUTOMATIQUE.
C’est l’ensemble des théories et des techniques utilisées dans le traitement automatique de
l’information par des moyens électroniques.
CLASSIFICATION
A partir de cette définition, on peut faire ressortir les différentes branches de l’informatique:
La physique et la technologie
L’analyse
La programmation
L’application
On associera :
Théories et techniques avec Analyse et programmation.
Traitement automatique avec Algorithme.
Moyens électroniques avec ordinateur.
HISTORIQUE DE L’INDORMATIQUE ( DE L’ORDINATEUR )
Depuis l’antiquité, l’homme a utilise plusieurs outil de calcul suivant que ces calculs devenaient
de plus en plus complexes, pour aboutir a l’ordinateur.
Faisons l’historique de cette démarche à partir de quelques grandes dates, de quelques grands
hommes, de quelque grandes compagnies.
-5000 : La première machine à calculer est inventée en Chine. Il s’agit du Boulier
1642 : Blaise Pascal invente la première machine à calculer mécanique pouvant additionner,
soustraire ; La Pascaline.
1694 : Leibnitz y ajoute la multiplication et la division.
Début du XIX eme siècle : La machine analytique
Jusqu’à cette époque, les calculs se faisaient a partir de la machine de Leibnitz, les uns après les
autres manuellement sans enchainement automatique. Charles Babbage, professeur de
mathématiques a Cambridge, conceva une machine pouvant effectuer plusieurs calculs
successivement a partir des données introduites dans la machine, sur carte perforée. La notion
de programme était née.
1880 : La machine a tabuler. Herman Hollerith réalise une machine mécano –graphique reliée à
une machine électrique qui assurait la lecture des cartes perforées. L’ère des machines
électromécanique s’annonçaient. N.B. : Cette machine a été utilisée dans le dépouillement des
résultats du recensement américain en 1881.
INTRODUCTION A L’INFORMATIQUE Page 1 of 8
1885 : Hollerith fonde la Tabulating Machine Company qui sera acheté par Thomas Watts pour
devenir le International Business Machine ( IBM )
Debut du XX eme siècle : Les machines électromécaniques
De nombreux ingénieurs vont réaliser des machines électromécaniques et électromagnétiques.
Notons les travaux du norvégien Bull ( 1924 ), de Bell Laboratories ( 1940 ). Toutes ces machines
exécutent les instructions d’un programme câblé à la vitesse d’une opération par seconde. Leur
technologie repose essentiellement sur les relais et les solénoïdes.
1942 : A Berlin, Friedrich Zuse construit le premier calculateur électronique, le Z3.L’année
suivante, un second modèle le Z4 est utilisé dans le calcul des structures d’avions aux usines
Henschel.
1944 : Howard Aiken, à la tête d’une équipe à l’université de Harvard, construit un calculateur
électronique, le Mack I : 15,40 mètres de long, 4 mètres de haut. Le cout 400000 $. En 1947, la
même équipe réalise une machine deux fois plus rapide ; le Mack II.
1947 : Le physicien Van Neumann présente le concept de programme enregistré. Il utilise les
mémoires du calculateur pour emmagasiner non seulement les données et les résultats
intermédiaires, mais aussi les instructions des programmes.
1951 : 1 ère génération d’ordinateur.
La Remington Rand réalise suivant les idées de Van Neumann l’UNIVAC I, le premier ordinateur.
Depuis, on compte les étapes décisives de l’évolution de l’ordinateur sous le nom de génération.
1960 : 2 ème génération d’ordinateur.
L’utilisation des transistors va marquer la deuxième génération.
1965 : 3 ème génération d’ordinateur.
L’utilisation des circuits intégrés va marquer la troisième génération. La société Digital
Equipement Corporation construit le PDP8. Le procédé Planar mise au point en 1959 par
Fauchild permettait de relier des transistors suivant une structure plane. Texas Instruments mis
à profit ce mode de fabrication pour implanter côte à côte sur un même substrat de nombreux
transistors reliés par des connexions en aluminium. Le système en logique câblé qui en résulte
est si tellement petit qu’il peut être place dans un boitier de quelques mm3 de volume ; d’où le
nom de circuit intégré ou puce.
1973 : 4 ème génération d’ordinateur.
La société française REE construit le premier micro ordinateur, le Micral utilisant une seule puce
comme organe de traitement. Le premier microprocesseur 8088 a été conçu en 1969 par la
société Datapoint de Texas réalisé par Intel.
SCHEMATISATION DU SYSTÈME INFORMATIQUE
Il se divise en deux parties : Le matériel et le logiciel
Le matériel (Hardware)
C’est la partie physique composée de l’ordinateur (Un assemblage d’organes électroniques) et
des divers périphériques qui y sont reliés.
Le logiciel ( Software )
Il se définit par opposition au matériel comme la partie abstraite du système. C’est le
fonctionnement du matériel : Les déplacements, d’électrons, les pulsations électrique … Tout ensemble
d’instructions (binaires) destinées à faire fonctionner le matériel.
INTRODUCTION A L’INFORMATIQUE Page 2 of 8
SYSTEME INFORMATIQUE
MATERIEL LOGICIEL
ORDINATEUR SYSTEME D’EXPLOTATION
Micro-processeur LANGAGE DE PROGRAMMATION
Mémoire interne Machine
ROM D’assemblage
Evolué
RAM
Mémoire externe Orienté objet
Disque dur LOGICIEL D’APPLICATION
PERIPHERIQUE Texte
Périphérique d’entrée Donnée
Périphérique de sortie Graphe
INTRODUCTION A L’INFORMATIQUE Page 3 of 8
DEFINITION DES ELEMENTS DU MATERIEL
ORDINATEUR
C’est un outil de traitement automatique de l’information ( créé par l’homme).
Il traite et mémorise des données par le biais de l’électronique. Il n’est d’aucune intelligence,
mais sa vitesse d’exécution est nettement supérieure à celui d’un homme et sa mémoire est fiable.
Micro-ordinateur : C’est un ordinateur muni d’un micro-processeur comme unique organe de
traitement. Aussi appelé PC ( Personal Computer )
Micro-processeur : C’est une puce électronique ( petit boitier ) contenant un ou plusieurs circuits
intégrés, utilisé comme cerveau d’un mécanisme quelconque. C’est l’unité central de traitement ( UCT
ou CPU : Central Progaming Unit ). Il est encore appelé UAL : Unité Arithmétique et Logique. Il effectue
tout sous forme binaire ; les calculs et la gestion des instructions composant un programme.
Mémoire interne : Ensemble de puces électroniques chargés de stocker les informations ( Données et
programmes ). La mémoire de l’ordinateur se divise en deux parties : Mémoire morte (ROM) et
mémoire vive (RAM)
ROM : Read Only Memory, accessible en lecture seulment. Elle contient des données immuables telles
que la marque de l’ordinateur. Elle ne perd pas son contenu en cas de coupure d’électricité.
RAM : Random Acces Memory, accessible en lecture et en écriture. Elle est utilise pour charger les
données et les programmes qui vont être traite par le micro processeur. C’est une mémoire volatile,
c’est-à-dire qui perd son contenu en cas de coupure de l’électricité.
Mémoire externe : Ce sont des support ( magnétique ) d’information. Habituellement les micro-
ordinateurs sont munis d’un disque dur (Hard disk) de grande capacité ainsi appelé par différence à la
disquette souple ( Floppy disk ) de plus petite capacité mais plus portable. En terme de portabilité, les
supports d’informations sont complètement miniaturise ( Clé USB).
PERIPHERIQUE
Tout organe jouant le rôle d’intermédiaire entre les supports d’informations et l’ordinateur. Ils
sont classes en deux catégories : Les périphériques d’entrée et les peripheriques de sortie. ( Il y en a qui
joue les deux rôles simultanément )
Périphérique d’entrée : Organe permettant de transférer l’information de son support a l’ordinateur.
Cette opération s’appelle la lecture de l’information.
Les plus utilises sont le clavier ( keyboard ) et la souris ( mouse ).
Périphérique de sortie : Organe permettant de transférer l’information de l’ordinateur au support.
Cette opération s’appelle l’écriture de l’information.
Les plus utilises sont le monteur vidéo ( monitor video ) et l’imprimante ( printer)
NB. : Un lecteur de disque ( Disk drive) est un périphérique d’entrée et de sortie car il est accessible en
lecture et en écriture ( sauvegarde des données ).
INTRODUCTION A L’INFORMATIQUE Page 4 of 8
DEFINITION DES ELEMENTS DU LOGICIEL
SYSTÈME D’EXPLOITATION
C’est un logiciel qui joue le rôle d’interface entre les logiciels d’application et le matériel. ( OS :
Operating System ). Les plus utilises sur les PC : MS DOS, Windows. Sur les serveurs ( Ordinateur central
relie avec des stations de travail ( PC ) ) : UNIX, NOVELL …
LANGAGE DE PROGRAMMATION
C’est un ensemble de mots réservés agencés suivant des règles de syntaxes servant à l’écriture
de programmes.
Il existe plusieurs niveaux de langage de programmation :
Langage machine : C’est le langage de plus bas niveau ; le seul qui soit compréhensible par l’ordinateur.
Aussi appelé code machine ou langage binaire. Une suite de bits interprétés par le processeur de
l’ordinateur exécutant un programme.
Langage d’assemblage : Langage de bas niveau très proche du langage machine qui dispose de
commandes alphanumériques permettant de gérer directement le processeur et les mémoires.
Aussi appelé Assembleur, il est spécifique au processeur de l’ordinateur. Un programme écrit en
Assembleur prend beaucoup moins d’espace-mémoire et est exécuté beaucoup plus rapidement qu’un
programme écrit en langage évolué.
Langage évolué : Langage utilisant dans les commandes, des mots réservés empruntés aux langues
courantes ( L’anglais en particulier ).
L’ensemble des lignes de commandes du programme ( Code source) est converti en langage
machine ( Code objet ) au moyen d’un interpréteur ou d’un compilateur qui aussi, constitue un type de
logiciel ( non mentionné car lié au langage de programmation )
Langage orienté objet : langage permettant de réduire au maximum l’écriture des codes sources en
priorisant la manipulation et la réalisation d’objets dont l’agencement aboutira a la tache désirée.
Citons comme exemple d’objets : La création d’une table de données, d’un menu, d’un rapport.
LOGICIELS D’APPLIQUATION ( PROGICIEL ) : Logiciel conçu et commercialisé sur le marché pour
répondre à des besoins multiples.
NB. : Le mot Progiclel est un néologisme créé en 1973, pour designer des logiciels à application vaste,
par la combinaison de deux mots : Produit+ Logiciel. A la différencier des Programmes Maison, conçus
sur mesure pour répondre à un besoin spécifique.
Traitement de texte : Logiciel qui gère des textes ( Word Processing). Exemple Microsoft Word.
Traitement de donnée : Logiciel qui gère des données ( Data Processing). Il existe deux grands sous
catégories : Les SGBD ( Système de gestion de base de données ). Exemple Access. Les tableurs
électroniques. Exemple Excel.
Traitement de graphe : Logiciel qui gère les graphes… Citons en exemple un logiciel de dessin assiste par
ordinateur : Autocad.
INTRODUCTION A L’INFORMATIQUE Page 5 of 8
LE SYSTÈME BINAIRE
Introduit par Leibnitz au XVII eme siècle ; c’est un système de numération en base 2 utilisant
deux chiffres 0 et 1, traduisant chacun un état électrique.
0 : Pas d’impulsion électrique
1 : Impulsion électrique
Ce signal électrique qui ne peut prendre que deux états s’appelle signal logique. Il en est de
même pour une variable : Variable logique ou booléenne.
Circuit logique : On appelle circuit logique, un circuit constitué de composantes électroniques qui
traitent des signaux logiques
Parallèle entre le système décimal et le système binaire
Le système de numérotation le plus répandu est le système en base 10 ou système décimal : les
nombres sont des sommes de multiples de 10 affectés d’un coefficient. Les coefficients étant la
fourchette des 10 chiffres existant : [ 0 à 9 ]
Exemple : 9365 = 9.103 + 3.102 + 6.101 + 5.100
Une base X est constituée d’une suite de nombres qui sont tous des multiples de X. Tout nombre peut
s’écrire comme une combinaison linéaire des nombres de cette base. Les coefficients étant inferieurs a X
Base 10 : ( 100, 101, 102, 103, … 10n ) Base 2 : ( 20, 21, 22, 23, … 2n )
Le système de numérotation en base 2 consiste à écrire un nombre comme une somme de multiples de
2. Le coefficient 1 est attribue aux multiples présents dans la somme, le coefficient 0, aux multiples
absents.
Exemple 11 = 1.23 + 0.22 + 1.21 + 1.20
Unité d’information
En informatique, l’information est quantitative. La plus petite unité d’information est le BIT ( Contraction
de binary digit )
Encodage d’un nombre
Ca consiste à écrire un nombre décimal en binaire.
Exemple le code binaire de 11 est : |1|0|1|1|. 11 est écrit sur 4 cases ou 4 bits.
L’écriture binaire d’un nombre peut être représentée par une application de A vers B. A étant un
ensemble de cases. B étant un doubleton contenant 0 et 1
Exemple Cette application correspond à l’écriture binaire de 5.
5 = |1|0|1|
0 Le nombre d’application de A vers B possible est égal a
(Cardinal de B)(Cardinal de A)
1
INTRODUCTION A L’INFORMATIQUE Page 6 of 8
Ainsi le nombre maximum qu’on peut encoder sur n bits est 2n - 1.
3 est le nombre maximum qu’on peut encoder sur 2 bits. 7 est le nombre maximum qu’on peut encoder
sur 3 bits. 15 sur 4 bits.
Décomposition binaire des nombres de 0 à 15
8 4 2 1
Nombre 23 22 21 20
0 0 0 0 0
1 0 0 0 1
2 0 0 1 0
3 0 0 1 1
4 0 1 0 0
5 0 1 0 1
6 0 1 1 0
7 0 1 1 1
8 1 0 0 0
9 1 0 0 1
10 1 0 1 0
11 1 0 1 1
12 1 1 0 0
13 1 1 0 1
14 1 1 1 0
15 1 1 1 1
NB. : Pour encoder tous les caractères utilisés par un PC (y compris les caractères du clavier), on a du
utiliser 8 bits. C’est pourquoi la plus petite unité d’information après le bit est le byte (ou octet). Un byte
est égal à 8bits.
ASCII : American Standard Code for International Interchange, le code binaire utilisé par les ordinateurs
compatibles aux ordinateurs construits par IBM, peut encoder jusqu’à 256 caractères ( 28 = 256 )
Méthode de conversion d’un nombre décimal en binaire
On divise le nombre par 2 ainsi que les quotients successifs obtenus. L’ensemble des restes
obtenus ( 0 si le quotient est paire, 1 s’il est impaire) et le dernier quotient, réécrit de bas en haut
constitue l’expression binaire du nombre.
Exemple : Décomposition en binaire du nombre 235
DIVISEUR 235 117 58 29 14 7 3
DIVIDANDE 2 2 2 2 2 2 2
QUOTIENT 117 58 29 14 7 3 1
RESTE 1 1 0 1 0 1 1
235 = |1|1|1|0|1|0|1|1|
INTRODUCTION A L’INFORMATIQUE Page 7 of 8
L’espace mémoire occupé par les informations se mesure en d’autres unités dérives du byte :
1 kylobyte = 1.024 bytes ( 210 = 1024 )
1 megabytes = 1024x1024 byes = 1.048.578 bytes ( 220 bytes )
1 gigabytes = 1024x1024x1024 bytes = 1.073.741.824 bytes ( 230 bytes )
Décodage d’un nombre
Ca consiste à convertir un nombre binaire en décimal
Méthode de conversion d’un nombre binaire en décimal
On fait la somme des multiples de 2 correspondants aux cases contenant la valeur 1.
Exemple
|1|0|0|1|1|0|1|0| = 27 + 24 + 23 + 21 = 128 + 16 + 8 + 2 = 154
INTRODUCTION A L’INFORMATIQUE Page 8 of 8