Interfaces : cartes perforées, écran vectoriel et écran matriciel

L’écran tel que nous le connaissons est une des inventions de l’histoire de l’informatique. Il n’a pas toujours été là comme une évidence. Que du contraire.

1/10 | Suivant

Un ordinateur est une machine qui manipule des données contenues dans une mémoire (binaires la plupart du temps) à travers une série d’instructions (on parle d’algorithme) pour obtenir un résultat stocké à nouveau dans une mémoire. Tout ordinateur doit donc comporter des organes d’entrée et de sortie qui permettent à l’utilisateur de placer ses informations dans la mémoire et de les y relire lorsque la machine les a manipulées.

Les premiers ordinateurs n’ont pas d’écran. La plupart du temps leur mission est de crypter/décrypter des messages ennemis ou calculer les fameuses "tables de tir", des manuels permettant de régler les canons sur le champ de bataille en fonction du type de charge, de la vitesse du vent, du point à atteindre. Des calculs complexes, précis et répétitifs qui ont poussé les ingénieurs à trouver des solutions algorithmiques. Pour comprendre les formes particulières qu’ont pris les ordinateurs au cours de l’histoire jusqu’à leurs formes, il faut remonter plus de deux siècles en arrière.

Reprendre le fil

L’origine de l’informatique est souvent posée en 1801, année de commercialisation du métier à tisser Jacquard. Ce métier à tisser révolutionne l’industrie textile en permettant la création de motifs complexes à partir d’une seule et même machine. Le métier Jacquard comporte en effet un système de lecture de cartes perforées, des cartes qui contiennent le "code" de motifs qui sont lus ligne par ligne par la machine, dessinant les motifs qui reposaient autrefois sur le savoir faire des fileuses.

Entre Le métier Jacquard en 1801et les premiers ordinateurs des années 1940, il y aura plus d’un siècle pendant lequel les pionniers se heurtent aux limites de la mécanique. Lourdes et laborieuses à fabriquer, les machines mécaniques demandent des milliers d’heures de travail alors que leur intérêt est juste théorique. Babbage s’intéresse reçoit des fonds du parlement anglais pour construire sa machine mais ses prototypes comportent des erreurs et on finit par lui couper les vivres en 1842. Babbage ne terminera jamais sa machine, dont on n’a conservé que des prototypes inachevés. Sa machine sera finalement reprise par son fils, qui entend démontrer que la vision de son père était correcte, et il produit une machine analytique fonctionnelle... en 1906 avant de la léguer au Musée des Sciences de Londres en 1910.

La première machine à calculer est l’Arithmomètre commercialisée vers 1851, et qui trouve sa place dans de nombreux bureaux comptables. Capables d’additionner, soustraire, multiplier et diviser grâce au cylindre cannelé du philosophe Leibniz. C’est un succès industriel, les calculatrices sont clonées par de nombreux fabricants en Europe et en Amérique. Le déplace des curseurs, puis tourne une manivelle et le résultat s’affiche. L’arithmomètre réalise une seule opération à la fois. Mais que faire si on veut réaliser des calculs plus complexes, ou des calculs en série ?

De la mécanique à l’électromécanique

Comme on l’a vu, l’histoire de l’informatique est liée à l’industrie plus encore qu’à la recherche scientifique : elle restera jusqu’au années 1960 liée à la carte perforée de Jacquard, et étend son domaine d’application avec la tabulatrice, un nouvel outil permettant de compter et de trier des cartes comportant des perforations qui sont autant d’informations structurées sur la surface de la carte.

Herman Hollerit, un ingénieur liée à l’administration américaine dépose en 1887 un brevet pour une machine lisant les cartes perforées destinée à servir au recensement de population de 1990. Il a participé à celui de 1880, qui a demandé 9 ans de dépouillement et d’analyse, et entend bien accélérer le processus grâce à sa machine électro-mécanique et une carte comportant 210 perforations.
Son invention permettra en effet de faire le recensement de 1890 en 3 ans, avec une précision plus grande qu’un dépouillement humain et la possibilité de faire des recherches statistiques de manière beaucoup plus rapide. Combien de femmes dans tel état, combien de personnes d’origine russe dans telle autre, combien de personnes de plus de 30 ans dans telle autre encore ? La machine de Hollerith permet de trier les cartes selon un critère, et d’incrémenter des compteurs, avec au bout du traitement des chiffres précis et des cartes à nouveau employables.

La carte perforée de Hollerith, vers 1890
La carte perforée de Hollerith, vers 1890
La machine de Hollerith
La machine de Hollerith

Hollerith quitte l’administration en 1894 et fonde en 1896 la Tabulating Machine Corporation, qui au bout de plusieurs fusions deviendra IBM en 1924. Entretemps, les cartes perforées auront trouvé leur format définitif, celui imposé par IBM. Un seul autre standard de format de carte est proposé par Rand corporation, mais il ne pourra jamais d’imposer.

La carte perforée IBM, utilisée jusque dans les années 80
La carte perforée IBM, utilisée jusque dans les années 80

IBM devient une compagnie de très grande taille dès 1924, et est un partenaire privilégié de l’état. Ceci lui donne une position dominante et la capacité de produire de la recherche/développement autour de l’informatique naissante. Mais partout dans le monde, la tabulatrice et les cartes perforées se sont imposées dans la manipulation de l’information. Des machines existent, des employés sont formés à leur usages. C’est donc avec cette méthode de stockage de l’information que va avancer l’histoire de l’informatique dans les années 30 et 40, qui sont cruciales.

L’architecture de von Neumann

L’informatique contemporaine nait avec l’architecture de Von Neumann, du nom de l’ingénieur Von Neumann qui formalisa le plan des ordinateurs en 4 parties distinctes, dont une mémoire de stockage qui contient à la fois les données à calculer... et le programme qui va les manipuler. C’est ce dernier point qui est crucial : depuis le métier Jacquard, c’est la machine qui "est" le programme, c’est à dire qui définit comment seront interprétées les données fournies. Les tabulatrices avancées pouvaient être modifiées dans leur traitement en recablant le système de traitement, mais il s’agissait du coup d’un traitement manuel. Pour l’eniac, considéré comme le premier ordinateur, c’est aussi le cas... Une machine, pour être un ordinateur, doit pouvoir être programmée, c’est à dire qu’on doit pourvoir modifier via la mémoire la manière dont elle traite l’information.

Le terme "architecture de von Neumann" est controversé car d’autres chercheurs ont théorisé cette architecture en même temps que lui ou même avant : Konrad Zuse et Turing notamment.

L’informatique entre aussi dans son ère moderne avec l’invention en 1947 du transistor, qui la fait basculer de l’électromécanique à l’électronique, avec des conséquences gigantesques : la miniaturisation, réduction des coups de développement et de consommation seront exponentiels.

Cartes trouées en input et output

Pour communiquer avec les premiers ordinateurs, il fallait se plier à leur logique aussi bien pour leur communiquer des données et commandes, que pour lire les résultats des opérations. Rappelons que les premiers ordinateurs sont aussi appelés "calculateurs" parce que leur tâche première est de réaliser des calculs laborieux avec de grands nombres, qu’ils réalisent plus vite et plus précisément que les hommes. On leur communique des chiffres, un traitement algorithmique et on attend donc d’eux des résultats qui sont... d’autres chiffres.
Avec le ENIAC (1946), par exemple, on programme en connectant des câbles d’un module à un autre.

Le Eniac et deux programmeuses
Le Eniac et deux programmeuses

Ensuite, on communique à travers des cartes dans lesquelles on perfore des trous à des endroits précis. Le ENIAC répond en perforant lui aussi des cartes, qu’on peut interpréter et lister à l’aide de machines mécaniques (des tabulatrices). Le principe des cartes perforées est le plus ancien moyen de stocker des données binaires : il est employé depuis les métiers à tisser Jacquard, dès 1801.

Deux techniciennes préparant des cartes perforées
Deux techniciennes préparant des cartes perforées

Les télétypes

En 1956, Doug Ross propose de connecter une machine à écrire électrique Flexowriter à un ordinateur Whirlwind du MIT. L’expérience se révèle concluante après 5 mois de recherche.

Par la suite, la télétype, qui est employée depuis des dizaines d’années dans le domaine de la communication (on envoie et reçoit des textes via une machine à écrire électrique et connectée en réseau téléphonique), va servir pour monitorer l’activité des ordinateurs. C’est une des premiers interfaces de sortie dynamique, mais uniquement textuelle évidemment. Ici, le fameux modèle 33 (1963). Ils sont utilisés comme terminal, c’est à dire qu’il permettent d’interagir avec le calculateur à distance, sans être en eux-mêmes un ordinateur.

Premiers écrans CRT

L’écran CRT (pour Catode Ray Tube, le gros écran télé que l’on trouvait partout avant que les écrans plats le rende ringard) est l’évolution d’expérimentation débutées vers 1867 avec les tubes de Crookes. En 1897, Ferdinand Braun utilise pour la première fois un tube à rayons cathodiques pour étudier des phénomènes dynamiques, l’enregistrement de phénomènes électriques rapides.

Un tube de Crooks
Un tube de Crooks

Un fil électrique sans un tube en verre sous vide est soumis à une tension très élevée (100.000 volts). Il projette des électrons en direction d’un anode, qu’on récupère sur une surface couverte de phosphore pour que l’oeil puisse avoir le temps de la voir. On concentre et dirige ces rayons avec l’aide d’électro-aimants et on dispose d’un point lumineux qu’on peut faire varier en intensité. L’idée est de visualiser et quantifier des phénomènes électriques, parfois trop rapides pour être observés à l’oeil nu, mais dont la phosphorescence permet de garder la trace.
L’oscilloscope est un pas important dans l’évolution du CRT : en faisant bouger lentement de la gauche vers la droite le point, et le faisant osciller verticalement selon l’intensité du courant électrique, on peut observer une onde, et même mesurer son intensité avec des gradations dessinées sur l’écran.

A partir du moment ou un point lumineux précis peut être déplacé à grande vitesse sur un écran, deux applications vont avancer un court moment en parallèle : l’écran vectoriel et l’écran raster (ou matriciel).

L’écran vectoriel comme stockage

Inventé en 1946, le tube de Williams ne sert pas à visualiser une information mais à la stocker : c’est l’ancêtre de la mémoire vive. Il se trouve qu’il permet aussi de la visualiser sous la forme de point à la surface.
En 1948, l’équipe travaillant sur le prototype "The baby" utilise un tube de Williams pour à la fois afficher et pour stocker 2048 informations binaires.

En 1951, le Ferranti Mark 1 est le premier ordinateur commercialisé. C’est à dire produit en série pour une utilisation non spécifique. Il est lui aussi équipé d’un écran vectoriel qui permet de contrôler les informations binaires stockées en mémoire.

A l’université de Cambridge, en 1952, Alexander Douglas utilise un clavier rotatif de téléphone pour envoyer des instructions à un ordinateur EDSAC, pour jouer à OXO avec lui. La partie est affichée sur un écran vectoriel de 35 X 15 points.

Le OXO de 1952, sur tube de Crooks
Le OXO de 1952, sur tube de Crooks

En 1958, William Higinbotham programmera un jeu de tennis affiché sur un oscilloscope vectoriel (avec un ordinateur analogique Donner Model 30). Il y a même un son quand la balle est frappée.

Le jeu de tennis sur oscilloscope, en 1958
Le jeu de tennis sur oscilloscope, en 1958

En 1960 le PSP1-s offre pour 120.00 dollars un ordinateur avec un écran vectoriel, un clavier pour contrôler l’écriture et recevoir les résultats. C’est sur cette machine large dans ses possibilités que sera écrit le premier jeu vidéo recensé : "SpaceWar !"

Sage et le pointage sur écran

Le système SAGE, pour Semi-Automatic Ground Environment, est déployé par l’armée américaine pour contrôler et intervenir de manière semi-automatique dans l’espace aérien sur tout le territoire des Etats-Unis. C’est un gigantesque déploiement d’ordinateurs associé à des radars et des centres de traitement. L’idée est de pouvoir suivre toute l’activité aérienne et de pouvoir identifier une menace pour y riposter avec la plus grande rapidité possible.

Les images de militaires attablés face à des écrans géants montrant des portions de territoires couverts de signes et de trajectoires, dans les films hollywoodiens, sont en grande partie inspirés de son infrastructure.
Le système SAGE (Semi-Automatic Ground Environment) est reconnu pour être l’un des tout premiers réseaux numériques de l’histoire de l’informatique (mêlant capacités de calcul, interfaces de saisie, interfaces de lecture, téléphonie, modems, téléscripteurs, télégraphie).

Une centaines de terminaux permettent d’intéragir avec l’unité centrale, et chacun de ces terminaux est composé d’un écran vectoriel et d’un pistolet servant à sélectionner des points sur l’écran, de tagguer comme ami ou ennemi des objets volants, et de désigner comme cible un de ces objets, déclenchant la recherche du missile le plus plus proches, le calcul de sa trajectoire et envoyant l’ordre de sa mise à feu. Ce sera une des utilisations les plus poussées de cette technologie.

Une console SAGE, vers 1960
Une console SAGE, vers 1960

L’écran vectoriel sera employé dans les années 60 et 70. Il est précis et lumineux, mais il possède plusieurs inconvénients.
Il est difficile de lui adjoindre des couleurs, et surtout la vitesse de rafraichissement dépend du nombre d’éléments à dessiner, puisque chaque trait est tracé. Pour ces raisons, l’affichage de texte est limité, ainsi que les forme trop complexes. Pour les mêmes raisons, on ne peut pas "remplir" des surfaces, car ça signifierait balayer de larges zones avec le faisceau. Cette technologie fera place à l’écran matriciel dans les années 70.

Ce type d’écran est utilisé par Ivan Sutherland pour son Sketchpad, un logiciel développé en 1963 pour le dessin technique.

L’écran raster

Par opposition à l’écran vectoriel, les écran raster affichent l’information par un balayage constant de gauche à droite et de haut en bas. C’est pour faire court, l’écran de télévision. L’essor de l’écran matriciel est d’ailleurs en grande partie lié à la diffusion télévisuelle. La technologie est la même que l’écran vectoriel, sauf que le balayage de la surface est toujours le même, seule l’intensité du signal change pendant celui-ci. La finesse de l’image est comptée en nombre de lignes, soit le nombre de balayages verticaux. En 1935, un émetteur d’ondes courtes installée sur la tour Eiffel diffuse quelques images en 180 lignes. Les années 40 vont voir la popularité de la télévision exploser.

L’informatique va mettre encore une vingtaine d’année à se saisir de cette technologie, en partie parce que ça ne fait pas sens pour les ingénieurs, qui manipulent des chiffres qu’ils préfèrent voir imprimés, sur des cartes ou des listing, et pas fugacement sur un écran. D’autre part, il faut penser l’organisation de ce nouvel interface, et ce sont des personnages comme Douglas Engelbart, qui vont travailler spécifiquement sur l’interface homme/machine dans les années 60’, qui vont faire des avancées de ce côté.

"Glass Teletype"

En effet, début des années 60, les premiers écrans matriciels sont vus comme une manière commode de remplacer le télétype. Ils sont plus rapide, plus silencieux et ne nécessite pas de chargement de papier, mais aucune autre fonction ne lui est demandée par rapport au listage papier, d’où le nom parfois donnée de "Glass Teletype". Ils se branchent sur le même mode que les télétypes, et reçoivent des messages textuels qu’ils affichent, sans couleur, ni typographie particulière. Dans la première partie des années 70, il vont cependant faire disparaître le télétype.

Écran et souris

Douglas Engelbart, qui travaille au MIT sur l’utilisation des ordinateurs et de leur mise en réseau, est le premier à penser, designer et déposer le brevet de la souris. La souris est évidemment intimement liée à l’écran, puisqu’il s’agit de déplacer un pointeur sur sa surface. La première souris est testée dans ses labos en 1964. Il faudra attendre encore des années avant qu’elle se popularise. La souris à boule et bouton sera commercialisée en 1979.

Le personal computer et sa sortie télé

De jeunes et ambitieux ingénieurs perçoivent le potentiel, au début des années 70, du "Personal computer". Organisés en "computer clubs", certains d’entre eux ont des motivations politiques : les ordinateurs sont des objets techniques puissants et couteux, uniquement détenus par l’état et les grandes compagnies, ce qui leur parait un danger pour la population. Il est donc urgent pour eux de démocratiser l’usage de ordinateurs pour contrecarrer le compexe militaro-industriel et l’état.
Ils cherchent à employer des puces bon marché (comme la MOS 6502), mais le prix des télétypes et des écrans d’ordinateurs est beaucoup trop élevés pour le commun des mortels. Les téléviseurs par contre sont abordables et disponibles partout. Ces concepteurs vont donc munir leur ordinateurs bon marché d’une sortie télé, en utilisant la puce directement comme carte graphique.

En 1976 sort le Apple 1, premier à utiliser une sortie télé, mais aussi le Intecolor 8001, le premier écran couleur grand public.

Le apple I, construit en 1976
Le apple I, construit en 1976

Les ressources déjà limitées de la puce doivent servir, avec cette nouvelle approche, à gérer l’espace de l’écran. Les premières interfaces sont purement textuelles (dans la continuité des télétypes), et il faudra attendre que la loi de Moore rende les puces plus puissantes et moins chères. A partir de la fin des années 70, le rapport entre le cout humain et le cout des machines commence à pencher en faveur des humains et il faut permettre aux utilisateurs de travailler plus rapidement et confortablement avec les machines. On va donc s’intéresser à l’adressage mémoire des pixels, pour afficher des points, des lignes, des formes cliquables sur l’écran.

Le Alto de Rank Xerox, développé à partir de 1973
Le Alto de Rank Xerox, développé à partir de 1973

Le Xérox parc (centre de recherche de Xerox, à Palo Alto) travaille depuis 1973 sur le projet Alto, et utilise la métaphore du bureau - car l’utilisateur visé travaille dessus - pour faciliter l’utilisation des outils informatiques. Le clic sur une icône est transformé en instruction "lancer l’application de traitement de texte". Steve Jobs visite les laboratoires Xerox en 1979 et perçoit le potentiel de cet interface intuitive. Il réoriente le projet de l’ordinateur Lisa, mais en chantier depuis 1978 et pour y intégrer une interface de bureau. Lisa est commercialisé en 1983, mais il est trop cher pour le marché. Jobs, qui se voit contraint d’abandonner le projet Lisa, reprend le projet Macintosh des mains de Jef Raskin, et impose l’usage de la souris. Le Macintosh, premier ordinateur grand public a intégrer la souris, sort en 1984 et sera un vrai boum commercial.

Pour alléger le travail du processeur central, les ingénieurs imaginent un moyen de déléguer à d’autres puces le soin de s’occuper de l’affichage à l’écran. La carte graphique est née, et va monter en puissance dès la fin des années 80. le nombre de points et le nombre de couleurs vont augmenter, puis la 3D va faire son apparition, demandant des cartes graphiques toujours plus puissantes, rivalisant dans la puissance de calcul avec les puces de la carte mère.

La combinaison écran / clavier / souris va subir des évolutions. Taille, précision, prix, performances. A part dans le domaine des loisirs où l’écran tactile apporte une ergonomie différente, cette combinaison reste dominante et l’interfaçage avec l’ordinateur n’a pas dépassé l’écran matriciel depuis les années 80.

Un peu plus d’informations

Sur PCWorld.com

Sur ComputerHistory.org