Interfaces : écran vectoriel, écran matriciel

L’écran apparait dans l’histoire de l’informatique, il n’a pas toujours été là comme une évidence. Que du contraire.

1/10 | Suivant

Un ordinateur est une machine qui manipule des données contenues dans sa mémoire (binaires la plupart du temps) à travers une série d’instructions (on parle d’algorithme) pour obtenir un résultat stocké à nouveau dans sa mémoire. Tout ordinateur doit donc comporter des organes d’entrée et de sortie qui permettent à l’utilisateur de placer ses informations dans la mémoire et de les y relire lorsque la machine les a manipulées.

Les premiers ordinateurs n’ont pas d’écran. La plupart du temps leur mission est de crypter/décrypter des messages ennemis ou calculer les fameuses "tables de tir", des manuels permettant de régler les canons sur le champ de bataille en fonction du type de charge, de la vitesse du vent, de la distance à atteindre. Des calculs complexes, précis et répétitifs qui poussent les ingénieurs à trouver des solutions algorithmiques.

Cartes trouées en input et output

Pour communiquer avec les premiers ordinateurs, il fallait se plier à leur logique aussi bien pour leur communiquer des données et commandes, que pour lire les résultats des opérations. Rappelons que les premiers ordinateurs sont aussi appelés "supercalculateurs" parce que leur tâche première est de réaliser des calculs laborieux avec de grands nombres, qu’ils réalisent plus vite et plus précisement que les hommes. On leur communique des chiffres, un traitement algorithmique et on attend donc d’eux des résultats qui sont... d’autres chiffres.
Avec le ENIAC (1946), par exemple, on programme en connectant des cables d’un module à un autre.

Ensuite, on communique à travers des cartes dans lesquelles on perfore des trous à des endroits précis. Le ENIAC répond en perforant lui aussi des cartes, qu’on peut interépréter et lister à l’aide de machines mécaniques (des tabulateurs). Le principe des cartes perforées est le plus ancien moyen de stocker des données : il est employé depuis les métiers à tisser Jacquard, dès 1801.

Les teletype

En 1956, Doug Ross propose de connecter une machine à écrire électrique Flexowriter à un ordinateur Whirlwind du MIT. L’expérience se révèle concluante après 5 mois de recherche.

Par la suite, la télétype, qui est employée depuis des dizaines d’années dans le domaine de la communication (on envoie et reçoit des textes via une machine à écrire électrique et connectée en réseau, va servir pour monitorer l’activité des ordinateurs. C’est un des premiers interfaces de sortie dynamique, mais uniquement textuel évidemment. Ici, le fameux modèle 33 (1963). Ils sont utilisés comme terminal, c’est à dire qu’il permettent d’interagir avec le calculateur à distance, sans être en eux-mêmes un ordinateur.

Premiers écrans CRT

L’écran CRT (pour Catode Ray Tube, le gros écran télé que l’on trouvait partout avant que les écrans plats le rende ringard) est l’évolution d’expérimentation débutées vers 1867 avec les tubes de Crookes. En 1897, Ferdinand Braun utilise pour la première fois un tube à rayons cathodiques pour étudier des phénomènes dynamiques, l’enregistrement de phénomènes électriques rapides.

Un fil électrique sans un tube en verre sous vide est soumis à une tension très élevée (100.000 volts). Il projette des électrons en direction d’un anode, qu’on récupère sur une surface couverte de phosphore pour que l’oeil puisse avoir le temps de la voir. On concentre et dirige ces rayons avec l’aide d’électro-aimants et on dispose d’un point lumineux qu’on peut faire varier en intensité. L’idée est de visualiser et quantifier des phénomènes électriques.
L’oscilloscope est un pas important dans l’évolution du CRT : en faisant bouger lentement de la gauche vers la droite le point, et le faisant osciller verticalement selon l’intensité du courant électrique, on peut observer une onde, et même mesurer son intensité avec des gradations dessinées sur l’écran.

A partir du moment ou un point lumineux précis peut être déplacé à grande vitesse sur un écran, deux applications vont avancer un court moment en parallèle : l’écran vectoriel et l’écran raster (ou matriciel).

L’écran vectoriel comme stockage

Inventé en 1946, le tube de Williams ne sert pas à visualiser une information mais à la stocker : c’est l’ancêtre de la mémoire vive. Il se trouve qu’il permet aussi de la visualiser sous la forme de point à la surface.
En 1948, l’équipe travaillant sur le prototype "The baby" utilise un tube de Williams pour à la fois afficher et pour stocker 2048 informations binaires.

En 1951, le Ferranti Mark 1 est le premier ordinateur commercialisé. C’est à dire produit en série pour une utilisation non spécifique. Il est lui aussi équipé d’un écran vectoriel qui permet de contrôler les informations binaires stockées en mémoire.

A l’université de Cambridge, en 1952, Alexander Douglas utilise un clavier rotatif de téléphone pour envoyer des instructions à un ordinateur EDSAC, pour jouer à OXO avec lui. La partie est affichée sur un écran vectoriel de 35 X 15 points.

En 1958, William Higinbotham programmera un jeu de tennis affiché sur un oscilloscope vectoriel (avec un ordinateur analogique Donner Model 30). Il y a même un son quand la balle est frappée.

En 1960 le PSP1-s offre pour 120.00 dollars un ordinateur avec un écran vectoriel, un clavier pour contrôler l’écriture et recevoir les résultats. C’est sur cette machine large dans ses possibilités que sera écrit le premier jeu vidéo recensé : "SpaceWar !"

Sage et le pointage sur écran

Le système SAGE, pour Semi-Automatic Ground Environment, est déployé par l’armée américaine pour contrôler et intervenir de manière semi-automatique dans l’espace aérien sur tout le territoire des Etats-Unis. C’est un gigantesque déploiement d’ordinateurs associé à des radars et des centres de traitement. L’idée est de pouvoir suivre toute l’activité aérienne et de pouvoir identifier une menace pour y riposter avec la plus grande rapidité possible.

Les images de militaires attablés face à des écrans géants montrant des portions de territoires couverts de signes et de trajectoires, dans les films hollywoodiens, sont en grande partie inspirés de son infrastructure.
Le système SAGE est reconnu pour être l’un des tout premiers réseaux numériques de l’histoire de l’informatique (mêlant capacités de calcul, interfaces de saisie, interfaces de lecture, téléphonie, modems, téléscripteurs, télégraphie).

Une centaines de terminaux permettent d’intéragir avec l’unité centrale, et chacun de ces terminaux est composé d’un écran vectoriel et d’un pistolet servant à sélectionner des points sur l’écran, de tagguer comme ami ou ennemi des objets volants, et de désigner comme cible un de ces objets, déclenchant la recherche du missile le plus plus proches, le calcul de sa trajectoire et envoyant l’ordre de sa mise à feu. Ce sera une des utilisations les plus poussées de cette technologie.

L’écran vectoriel sera employé dans les années 60 et 70. Il est précis et lumineux, mais il possède plusieurs inconvénients.
Il est difficile de lui adjoindre des couleurs, et surtout la vitesse de rafraichissement dépend du nombre d’éléments à dessiner, puisque chaque trait est tracé. Pour ces raisons, l’affichage de texte est limité, ainsi que les forme trop complexes. Pour les mêmes raisons, on ne peut pas "remplir" des surfaces, car ça signifierait balayer de larges zones avec le faisceau. Cette technologie fera place à l’écran matriciel dans les années 70.

L’écran raster

Par opposition à l’écran vectoriel, les écran raster affichent l’information par un balayage constant de gauche à droite et de haut en bas. C’est pour faire court, l’écran de télévision. L’essor de l’écran matriciel est d’ailleurs en grande partie lié à la diffusion télévisuelle. La technologie est la même que l’écran vectoriel, sauf que le balayage de la surface est toujours le même, seule l’intensité du signal change pendant celui-ci. La finesse de l’image est compté en nombre de lignes, soit le nombre de balayages verticaux. En 1935, un émetteur d’ondes courtes installée sur la tour Eiffel diffuse quelques images en 180 lignes. Les années 40 vont voir la popularité de la télévision exploser.

L’informatique va mettre encore une vingtaine d’année à se saisir de cette technologie, en partie parce que ça ne fait pas sens pour les ingénieurs, qui manipulent des chiffres qu’ils préfèrent voir imprimés, sur des cartes ou des listing, et pas fugacement sur un écran. D’autre part, il faut penser l’interface, et ce sont des personnages comme Douglas Engelbart, qui vont travailler spécifiquement sur l’interface homme/machine dans les années 60’, qui vont faire des avancées de ce côté.

"Glass Teletype"

En effet, début des années 60, les premiers écran matriciels sont vu comme une manière commode de remplacer le teletype, de manière plus rapide, plus silencieuse et sans devoir changer le papier, mais aucune autre fonction ne lui est demandé, d’où le nom parfois donnée de "Glass Teletype". Ils se branchent sur le même mode que les teletype, et reçoivent des messages textuels qu’ils affichent, sans couleur, ni typographie particulière. Dans la première partie des années 70, il vont pratiquement faire disparaître le teletype.

Le personal computer et sa sortie télé

De jeunes et ambitieux ingénieurs perçoivent le potentiel, au début des années 70, du "Personal computer". Ils cherchent à employer des puces bon marché (comme la MOS 6502), mais le prix des teletype et des écrans d’ordinateurs sont beaucoup trop élevés pour le commun des mortels. Les téléviseurs par contre sont abordables et disponibles partout. Ces concepteurs vont donc munir leur ordinateurs bon marché d’une sortie télé, en utilisant la puce directement comme carte graphique.

En 1976 sort le Apple 1, premier à utiliser une sortie télé, mais aussi le Intecolor 8001, le premier écran couleur grand public.

Les compagnies qui naissent autour des ordinateurs personnels vont développer leur offre et des écrans adapté aux ordinateurs vont faire leur apparition dans les années 80’, permettant un affichage plus précis,sur plusieurs modes graphiques, avec de la couleur.

Écran et souris

Douglas Engelbart, qui travaille au MIT sur l’utilisation des ordinateurs et de leur mise en réseau, est le premier à penser, designer et déposer le brevet de la souris. La souris est évidemment intimement liée à l’écran, puisqu’il s’agit de déplacer un pointeur sur sa surface. La première souris est testée dans ses labos en 1964. Il faudra attendre encore des années avant qu’elle se popularise.

La combinaison écran / clavier / souris va subir des évolutions. Taille, précision, prix, performances. A part dans le domaine des loisirs où l’écran tactile apporte une ergonomie différente, cette combinaison reste dominante et l’interfaçage avec l’ordinateur n’a pas dépassé l’écran matriciel depuis les années 80.

Un peu plus d’informations
Sur PCWorld.com

Sur ComputerHistory.org