Informatique
Master 1 Droit de l’immobilier,
Définition des termes : Ce cours s’appelle informatique, qu’est-ce qu’est l’informatique ? C’est un
rayon de super marché, industrie, ensemble d’outils que l’on manipule, une science qui répond à la
question « au fait qu’est-ce qu’un calcul ? ».
Il y a des aspects théoriques, rhétoriques, commerciaux dépendant du thème juridique.
Il y a des concepts qui infusent dans l’informatique :
1-Un algorithme qui est un mot à la mode depuis des années, qui peut être un dictateur mais encore
plus une suite d’opérations qui a pour but d’arriver à un résultat. L’analogie qui est faite est une
recette de cuisine, qui est une série d’opérations pour arriver à un résultat. Selon la personne à qui
on s’adresse, on ne l’écrit pas de la même manière comme à un chef, quelqu’un qui cuisine. Si on fait
une suite, ce n’est pas un algorithme. Ex : jeu vidéo n’aboutit pas à un résultat donc n’est pas un
algorithme. On en entend beaucoup parler à propos des réseaux sociaux de comment ils présentent
les données comme Facebook, du choix des publicités et c’est devenu à la mode avec parcours sup
(depuis 2 ans) et y compris dans des cadres qui n’ont pas de sens comme parcours sup il y a une
procédure en fonction de classements des universités avec des algorithmes locaux qui sont secrets.
Cet algorithme est « stupide ».
2-Une machine qui est un objet physique ou imaginaire qui a une évolution donc ne reste pas
statique et transfert des entrées en sorties. Il y a une notion d’entrée et une notion de sortie. Ex :
faire des ordinateurs avec des plantes carnivores qui ont des poils et les deux doivent être excitées
pour que cela se referme. Une machine calcule la conjonction entre les deux entrées. La sortie arrive
si les deux entrées sont fermées. On peut programmer ce que l’on veut avec cela mais cela prend du
temps à se rouvrir. Il y a une évolution dans le temps car si on tire cela se referme et on distingue les
entrées et sorties. Ex : modèles physiques comme le bassin fluvial du Mississipi et pour simuler des
crues, inondations on met de l’eau dans le modèle qui est une machine, on met de l’eau et on voit ce
qui est inondé.
3-Le langage qui est un moyen de communiquer mais c’est un langage spécialisé et artificiel. La
Botanique depuis la classification du milieu du XVIIIème siècle on appelle les animaux par leur nom
courant mais aussi leur nom scientifique avec un langage latin. Le langage ne sert qu’à décrire les
animaux et plantes et est efficace. C’est un ensemble restreint d’expressions qui décrivent quelque
chose comme celui de la botanique qui décrit les plantes, les maths qui décrivent les relations des
grandeurs, les bâtiments, il y a des conventions qui en font un langage comme une flèche signifiant
une sortie.
4-L’information, qui est un concept que l’on manipule mais qui est non formalisé. Qu’est-ce que
l’information ? on peut la quantifier, on peut dire qu’elle a une unité ? Oui il y a une unité
d’information. L’information est si je connais juste un système (objet physique par exemple) et que
quelqu’un d’autre le connait et sait dans quel état il est, cette personne le connait plus que moi. C’est
par exemple 4ème étage et portes fermées. En somme, je connais le système mais une autre personne
aussi, connait son état et donc cette autre personne a plus d’informations que moi. Si je connais un
système, je sais s’il y a des événements, états probables ou non probables. L’information, c’est ce
qui différencie la personne qui connait cet état de celle qui ne le connait pas. On peut le quantifier
car est une quantité physique et lui trouver une place physique est un peu difficile.
,Ces concepts veillent sur le champ de ce qui existe. On peut se demander si le droit est une
machine ? Le droit n’a pas d’action mais le tribunal a des actions avec des humains. Le droit est
informatique mais entre mal dans l’algorithme car il y a rarement une suite pour arriver à un résultat
et on n’a pas créé de langage spécialisé pour le droit.
Partie I : L’aspect historique
Sur l’histoire de l’informatique, il y a le 4ème millénaire avant JC car on a la reconnaissance d’un
langage spécifique crée pour un sujet et en l’occurrence c’est la naissance de l’écriture si on peut dire
cela. L’écriture cunéiforme est étrange, il y avait une graphie dans cette écriture et a évolué vers des
signes avec des traits. Des signes peuvent transcrire un son (syllabe) et il y a d’autres signes qui
renvoient à une chose avant de renvoyer à un son. En français, pour écrire chapeau, on dessine un
chat et une peau. On crée un langage fonctionnant par des sons et n’a rien à voir avec le parler.
Ensuite, le XIVème siècle avant JC, est-ce qu’il n’y avait déjà pas un alphabet en Phénicie et qu’il a
été repris après ? On se met aussi à écrire dans une écriture qui ne fait plus référence à des mots et
les lettres font références à elles-mêmes.
Au Xème siècle en Chine, on va plus loin, le chinois écrit n’est pas une conception du chinois parlé. La
grammaire du chinois écrit n’était pas la grammaire du chinois parlé et le chinois écrit n’était pas fait
pour le chinois parlé. C’est une langue artificielle et permet de communiquer entre des personnes.
On a la trace avant le Vème siècle avant JC avec des bouliers qui sont des machines, avec des entrées
ayant la position des boules au début, puis une évolution temporelles et ensuite les boules à la fin qui
sont un résultat donc la sortie. Ce sont les premières machines et on peut faire plusieurs opérations
différentes. On a le même boulier avec lequel on peut faire toute sorte de calculs (addition, division
par exemple) en utilisant des mouvements différents.
Autour de -500, on part vers la langue et on arrive à un indien vivant dans le nord de l’actuel
Pakistan, Panini (célèbre grammairien de l’Inde antique) écrit un traité sur le sanskrit qui est une
langue aujourd’hui morte mais était là et sert à écrire des hymnes qui expliquent comment faire un
sacrifice. On arrive à comprendre aujourd’hui. Il veut écrire comme les gens du passé mais au final il
a écrit une grammaire. A partir de son époque, tout le monde a écrit le sanskrit, on a là-dedans le
manuel.
Dans les autres langues, l’usage décide mais là non. Il a dû décrire un langage qui lui permet d’écrire
des grammaires et peut écrire des grammaires comme celle du sanskrit. On a un gros problème, on le
résout d’un coup. La première personne qui essaye de donner une grammaire de l’anglais est une
femme et l’anglais est basique, donc on est loin de ce qu’a pu faire Panini. Cela inspire les personnes
de son école car un de ses étudiants a donné une notation pour faire des musiques. La musique
permet de décrire une chose.
C’est compliqué de savoir quand et où on a eu le premier algorithme connu car les scribes qui
faisaient des opérations avaient tendance à dire les opérations et les états intermédiaires. Jusqu’aux
grecs, on apprenait des algorithmes comme des recettes sans les stigmatiser. La tradition donne un
algorithme dont Eudoxe en -375 en Grèce. Il existe aussi l’algorithme d’Euclide et on se demande
quand et dans quel cas il marche et il a été donné une centaine d’années plus tôt.
Dans l’antiquité, on avait des travaux dans le monde, sur les machines, algorithmes, langages ou
encore l’information. Au XVIIème siècle, on commence à rêver d’un langage artificiel mais aussi
essentiel. Une personne qui est Leibniz a essayé de voir s’il était possible de donner à une langue une
caractéristique universelle qui permet d’exprimer les concepts, les pensées par un langage
, symbolique. L’objectif est de construire une langue qui permet de parler de concepts et qu’avec la
forme des mots on peut avoir des pensées conceptuelles. Si une fois que l’on a tous nommé, tous mis
dans un système, on aura déjà tous mis.
En 1801, on invente le métier à tisser Jacquard qui est grand. Il y a des navettes mobiles ou sont
attachés des fils, articulés par des bras et on peut faire bouger les bras pour tisser, faire des motifs. A
Lyon, les gens n’ont jamais réfléchis à ce qu’est une machine et ont inventé une machine
programmée, un opérateur tenait les bras mais après à la place on a un lecteur qui enfonce des tiges
dans une carte perforée et selon les positions du lecteur, cela entraine les bras articulés et donc on a
plusieurs motifs de tissage avec la machine qui est le lecteur. C’est une machine avec un programme.
Si cela se diffuse, on n’a plus besoin des personnes car il y a un lecteur.
Il y a une personne qui a pensé faire autre chose, qui est Charles Babbage, fils d’un riche
commerçant anglais dans le métier à tisser. Il se rend compte que l’on peut faire autre chose que
tisser, faire des trous et on peut faire des calculs. A partir des années 1830 jusqu’aux années 1870, il
propose des idées de machines à calculer et passe sa vie à convaincre des gens pour financer ses
machines à calculer. Dans les années 1890, un groupe a essayer avec des machines de leur époque.
C’est un peu comme un ordinateur qui peut calculer qui fait les calculs de l’époque comme ceux
assez difficiles.
Une traduction en italien a été faite par une de ses amies et rajoute des indices notamment dans un
avec un programme et écrit un essai en 1847 sur cela à quoi cela sert et elle est la première à se
rendre compte du potentiel d’un ordinateur et de son utilité, contrairement à Charles qui pensait
que l’on pouvait ne faire que des calculs mais pas elle et pense que l’on peut avoir des musiques et
tout le reste, c’est elle l’inventrice de l’informatique en quelque sorte. Personne n’a lu ses articles
donc personne n’y a cru.
Une communauté a pris sa place au début du XXème siècle est celle des musiciens. L’informatique
répond à la science de ce qu’est un calcul mais une question intéresse depuis longtemps (avant
Platon) qui est celle de savoir ce qu’est un raisonnement ? A la fin du XIXème siècle, il y avait des
problèmes en maths comme Pythagore mais pas que. On peut faire l’opération à l’envers. On peut
faire un raisonnement ou on fait un calcul pour arriver au résultat.
Est-ce que l’on peut arrêter de raisonner ? Cette question a été posée, on se demande si on peut
remplacer les raisonnements par des calculs ? Au début des années 1930, plusieurs personnes ont
données des notions de calculs encore bonnes et deux d’entre eux ont démontré que tous les
raisonnements ne sont pas remplaçables par des calculs.
Ex : si on a des pièces de puzzles et que l’on a des carrés, cercles et on se demande si avec les pièces
on peut paver le plan donc que tous s’emboite bien. Dans des cas, si on donne des carrés, oui mais si
on donne que des cercles, on ne peut pas car il y aura toujours des trous, cela veut dire que des
choses ne peuvent être calculées.
Alan Turing, théoricien pendant la 2nd guerre mondiale travaille pour les services secrets
britanniques. On construit le premier ordinateur programmable, on pense que Turing n’y a pas
participé mais quelqu’un a fait la théorie de ce que l’on peut faire avec un ordinateur et les voisins
aussi. Un deuxième est construit après la guerre (ordinateur) et à la fin des années 1940 ont été
construits les premiers ordinateurs.
On se demande comment on construit l’information ? on commence à développer des radios et on
se demande étant donné une technologie, combien peuvent faire passer l’information ?