- Définitions commençant par la lettre O

,  par Hervé BERNARD dit RVB

Objet (langage) : notion apparue dans les années soixante, un objet dans la programmation objet est une entité qui détient des informations et qui a des comportements. Par conséquent, cette entité « sait et fait » des choses. Chaque objet « transporte » donc des données qu’il connaît et des choses qu’il fait. Ainsi, un objet graphique connaît sa taille, sa forme, sa transparence, ses coordonnées dans l’espace de l’écran, sa ou ses couleurs et le nom de son fichier. Mais, il sait aussi ce qu’il doit faire si le curseur de la souris passe au-dessus de lui, comment répondre à un clic de souris, comment agir s’il entre en collision avec un autre objet et qu’elle sera son comportement si l’utilisateur le dépose quelque part. L’intérêt de cette technologie est de permettre la réutilisation des objets en changeant leur paramétrage. De plus, il est possible de les hiérarchiser et de créer des liens de parenté entre eux. Par ailleurs, l’orientation objet a pour avantage de simplifier le débuggage d’un programme interactif. Car supprimer un bug ne risque pas de faire apparaître un nouveau bug comme dans la programmation classique.

Avec la programmation orientée objet, chaque objet est décrit comme appartenant à une classe d’objets abstraite. Celle-ci est définie par les propriétés et les actions des objets qui lui appartiennent. Tandis que dans Director, les objets appartenant à une même famille sont décrits par des scripts parents qui sont définis en trois parties : une liste de propriétés, une fonction et un certain nombre d’actions. Dans un logiciel objet, il suffit de mettre l’objet dans une « boîte » appelée « comportement » pour qu’il l’adopte. Et surtout, il vous suffit de changer le comportement de la boite pour le changer pour tous les objets contenus dans cette boîte mais aussi pour tous les comportements « enfantés » par ce comportement ou encore dépendant hiérarchiquement de ce comportement...

Enfin, la programmation orientée objet permet d’accéder à des notions comme « un chien est une sorte d’animal à quatre pattes ». Le chien héritera alors de tous les comportements des animaux à quatre pattes définis auparavant. Par conséquent, les objets contiennent des objets eux-mêmes contenus par des objets. Autre conséquence, ce type de programmation permet d’accéder à un monde où les objets ne sont plus des choses mais, plutôt des possibilités.

Objet dans PhotoImpact : le mode objet est l’équivalent du calque. Cependant, il a un plus car un objet peut se charger directement dans une image à la manière de la fonction « insérer un fichier dans un traitement de texte » tout en gardant ses attributs de transparence. D’autre part, il simplifie la gestion des trajectoires pour les animations puisqu’il peut assimiler des comportements.

Obturateur : en photographie, une des deux parties de l’appareil photo avec le diaphragme, chargée de gérer l’arrivée de la lumière sur le film. Son fonctionnement est de type binaire. C’est à dire que soit il laisse passer la lumière soit il l’arrête complètement. Sa vitesse indique la durée de son ouverture. Réduire sa vitesse de moitié correspond à la fermeture du diaphragme d’une unité et inversement.

Octet : byte en anglais, unité d’information composée de huit bits. Il y a donc 256 combinaisons possibles de ces éléments binaires d’où les 256 nuances d’une couleur primaire pour une image encodée en 8 bits par couleur primaire.

OCR : (Optical Character Recognition), logiciel de reconnaissance de caractères.

Œil d’un caractère : en typographie, partie imprimante du caractère, sa taille est indépendante de la force du caractère.

Œil humain : il voit environ 7,5 millions de couleurs et l’homme dispose d’une cinquantaine de mots pour les désigner. Pourtant chaque humain retrouve le même rouge dans un échantillonnage avec une précision de trois nanomètres dans des conditions d’éclairages constantes. Par contre dans un groupe, si l’on demande à chacun de désigner la couleur qu’il appelle rouge, la variation est d’environ 30 nanomètres.

La lumière d’un objet est focalisée sur un réseau de 125 millions de cellules réceptrices dans la rétine de chaque œil (bâtonnets et cônes). Ces cellules nerveuses spécialisées émettent des signaux électriques lorsqu’elle reçoivent de la lumière. On sait aussi que la rétine restructure les réponses des photos récepteurs rétiniens avant qu’elles ne soient retransmises au cerveau. Le reste de la rétine et du cerveau proprement dit interprètent ces signaux électriques quand celle-ci reçoit de la lumière. quant à l’extraction des informations biologiquement utile, elle est faite par le cerveau. Le résultat du traitement effectué par le système visuel est la scène perçue avec ses formes, son relief, ses mouvements, ses couleurs et textures.

Les régions du cerveau concernées par la vision sont d’abord le corps genouillé latéral (connecté à des cônes, des bâtonnets via les cellules intermédiaires de la rétine et plutôt dédiées à la taille et au contraste), les régions du cortex situées à l’arrière du cerveau (les yeux sont connectés à cette partie du cerveau par l’intermédiaire d’un relais). Une fois le cortex atteint, ses signaux vont passer à travers les différentes couches du cerveau pour atteindre les aires corticales visuelles. Chacune des aires contient trois ou quatre étape de transmission synaptique entre les neurones. Le lobe occipital renferme au moins une douzaine de ces aires visuelles (chacune grande comme un timbre poste). Il existe, semble-t-il beaucoup d’autres aires visuelles dans les lobes pariétaux et temporaux qui se trouvent juste devant les lobes occipitaux. Dans les étages supérieures du cerveau des aires ne réagissent qu’à la présence d’un bord rectiligne (horizontal, vertical ou oblique). Certaines cellules préfèrent un stimulus stationnaire d’autres un objet en mouvement. Quant à d’autres, elles sont sensibles à la couleur de la lumière qui atteignent la rétine. Puis, notre connaissance des voies visuelles va en s’estompant. Cette description a pu se faire grâce à l’utilisation de micro-électrodes.

Les recherches théoriques sur la vision humaine ont tendance à séparer la question de la définition de celle du nombre de couleurs et du contraste. L’expérience montre que cette division n’existe que partiellement. En effet, ces trois aspects sont beaucoup plus imbriqués que la théorie ne le dit. D’ailleurs, la photographie traditionnelle montrait déjà le chemin. Par exemple, en tirant plus contrasté une photo légèrement floue afin de lui redonner du piqué. Ceci reste vrai dans l’image numérique. Ainsi, la notion de définition et de nombre de couleurs sont très étroitement entrelacées. Entre une image scannée en 1024 x 1024 points en 256 couleurs et une image scannée en 760 x 560 points en 16 millions de couleurs, l’œil humain trouvera qu’elles ont toutes les deux une définition sensiblement identique. Car le modelé apporté par les couleurs supplémentaires compensera la différence de définition. De même, entre une image de 70 Mo et une image de 140 Mo, scannée à partir d’un 4x5 inch. La différence ne se situe plus vraiment dans la définition qui n’est pas deux fois meilleure mais, dans les nuances et le modelé. L’un et l’autre sont bien plus grands dans les hautes et basses lumières pour le fichier de 140 Mo. Ce qui d’une certaine manière renforce la définition de l’image. Ce dernier élément fait l’unanimité, plus le nombre de bits est élevé meilleur est le rendu visuel d’une image.

L’œil est aussi fortement perturbé par la lumière d’ambiance. Il existe des phénomènes curieux comme celui des métamères. Le constructeur automobile Ford en a fait la triste expérience dans les années 50 ou 60 avec un modèle dont la peinture métallisée était très belle en extérieure mais qui devenait une horreur dans les halls d’exposition. Cette voiture n’a donc pas obtenu le succès escompté.

Par ailleurs, l’œil humain est confronté à la persistance rétinienne. Ainsi, si l’on regarde trop longtemps une même image, notre perception de l’image suivante sera influencée par la rémanence des couleurs et des formes de l’image précédente.

Actuellement, les seules recherches à prendre en compte globalement la perception de la couleur sont celles construites autour du CIE-Lab. En effet, c’est le seul système de mesure de la couleur construit sur une base similaire à la perception visuelle humaine. Cependant, la question de la définition est complétement écarté de ce travail.

Le spectre visible par l’œil humain
La longueur d’onde de la lumière visible est située entre 400 et 700 nanomètres. Le bleu est situé entre 400 et 500 nanomètres, le vert entre 500 et 600 nanomètres et le rouge entre 600 et 700 nanomètres, quant au violet il se trouve aux environs de 420 nanomètres tout en précisant que le mauve, par exemple, est absent de cette méthode de séparation des couleurs puisqu’il requiert à la fois une émission dans le rouge et le bleu avec pour certains mauves une légère émission dans le vert.

Pour voir, de nombreuses zones du cerveau sont en cause.
Interpréter une image visuelle est une opération extrêmement complexe. Grâce aux nouvelles technologies d’imagerie médicale, on a pu cependant commencer à mieux évaluer le processus notamment par l’étude du flux sanguin dans notre cerveau. Ainsi, on sait maintenant que les informations en provenance de la rétine arrivent à l’arrière du cortex cérébral dans le cortex visuel puis, cheminent dans deux grandes voies de traitement spécialisées, distinctes anatomiquement. La première correspond à la voie ventrale et sert à identifier ce que l’on voit. Quant à la seconde, la voie dorsale, son rôle est la localisation des objets dans l’espace. En simplifiant, la première voie correspond à la question « QUOI ? » tandis que la seconde correspond à la question « OU ? »

Par ailleurs, l’ensemble du cortex visuel est composé d’une trentaine de zones minimum qui ont chacune leurs rôles comme : la perception des formes, des couleurs, des visages, l’analyse du mouvement, la détermination du sexe de la personne observée... Certaines zones seraient même dédiées à la reconnaissance visuelle des mots écrits. A cela s’ajoute les différentes zones du cerveau responsables du déplacement de l’œil sous forme de saccades ou en mouvements continus sans oublier les zones chargés de la stabilité visuelle pendant les mouvements de la tête...
d’après différents articles parus dans « La Recherche » n°289
Voir aussi la seconde partie de Regard sur l’image, éditions regards & impressions

OEM : (Original Equipment Manufacturer), fournisseur d’un constructeur d’équipements informatiques. Ce terme désigne en fait un sous-traitant.

Offset : technique d’impression monochrome ou couleur héritière de la lithographie. Dans ce procédé, l’encre est appliquée aux zones de l’image gravées sur une plaque est transférée sur le papier par l’intermédiaire d’un cylindre en caoutchouc appelé blanchet avant d’être reproduite sur un support (papier, plastique...).

OLE : (Object Linking and Embedding), liaison et insertion d’objets, protocole d’échange de Microsoft pour appliquer automatiquement à un fichier en provenance d’un logiciel des modifications faites dans un autre programme. Ce protocole est venu compléter, en 1990, Windows 3.0 puis a été ultérieurement intégré dans le monde Mac et dans les autres versions de Windows. OLE est la structure de fichier utilisée dans FlashPix.

Ombre portée : ombre projetée par un sujet éclairé par une source lumineuse ponctuelle et obéissant aux lois de la perspective. Elle varie en fonction de trois facteurs : la distance entre la source d’éclairage et l’objet (plus elle est proche de l’objet, plus elle est grande), de la distance entre l’objet et le plan de projection de l’ombre (plus il est loin, plus elle est grande), de son angle par rapport à l’objet ou de l’angle du plan de projection (variation de la forme).
En numérique, effet d’ombre suivant le contour d’un calque dans Photoshop.

OMPI : (Organistation Mondiale de la Propriété Intellectuelle) ou WIPO en anglais. Cette organisation s’est préoccupé des problèmes liés à la propriété intellectuelle des contenus numériques. Fin 1996, elle a émis un traité qui stipule qu’il est interdit de modifier la partie d’un fichier ayant trait à la propriété intellectuelle : nom d’auteur, copyright, immatriculation.

Ondelette : en numérique, technique de compression d’images quasiment non destructive, longtemps confidentielle, elle est entrain de prendre son essor à travers le standard MPEG4. Elle est à la base du JPEG2000 disponible depuis 2002. Elle est à la base du standard DCI garant de la qualité des images projetées dans les salles de cinéma.
Technologie de compression symétrique, ses temps de compression et de décompression sont identiques, elle est aussi complètement réversible. Selon Analog Devices, l’un des premiers fournisseurs de composants à fournir des circuits de compression utilisant cette technique, il serait possible d’atteindre des taux de 350 sans que l’image soit « sérieusement » dégradée. De plus, pour la transmission par Internet, cette technique a l’avantage d’offrir lors de sa décompression, un affichage progressif. Technique concurrente du format pyramidal (voir ce mot à la lettre P).

Les principes de la compression et de la décompression en ondelettes.
Ce type de compression entre dans la catégorie des codages en sous-bandes mise au point au début des années 1980. Ce codage consiste en une décomposition de la bande de fréquence du signal en sous-bandes pour les traiter séparément en fonction des spécificités de chacune d’entre elles. Pour cela, on utilise deux filtres, l’un passe-bas, l’autre passe-haut pour séparer les basses fréquences (filtre passe-bas, pour le traitement du fond et de l’allure générale) des hautes-fréquences (filtre passe-haut, pour les détails et les contours) de l’image. Cette opération est d’abord effectuée sur les lignes puis, sur les colonnes en sous-échantillonant par deux après chaque filtrage ce qui produit quatre sous-images, quatre fois plus petites que l’originale composée d’une sous-image basse-fréquence contenant une approximation du document original et trois sous-images haute-fréquence qui contiennent respectivement les détails horizontaux, verticaux et diagonaux.
Après ce traitement, selon Hugues Benoit-Cattin du CNRS, cité par Électronique International, 95 à 98 % de l’original se retrouve dans la sous-image basse-fréquence. Par conséquent, si on veut augmenter le taux de compression, il suffit de renouveler l’opération sur la sous-image représentant le fond. Après une deuxième décomposition, plus de 90 % de l’information reste présent dans la sous-image de base qui n’est composée que de 1/16 des pixels de l’image de départ. Quant aux caractéristiques des filtres utilisés, elles sont directement issues de la théorie des ondelettes introduite au début des années 1980 et peaufinée à la toute fin des années 80.
Une fois, cette décomposition effectuée, on passe à la seconde étape : qui est la réduction de la quantité d’information. Celle-ci se fait en deux parties : une allocation binaire et une quantification. Dans un premier temps, il faut d’abord allouer le nombre de bits disponibles et fixés par le taux de compression aux diverses sous-images (dans notre exemple huit) tout en tenant compte des propriétés de chacune d’entre elles et en minimisant les pertes. Cette opération se fait à l’aide d’un algorithme d’allocation binaire qui prend en compte, pour chaque sous-image, la sensibilité fréquentielle de l’œil afin d’attribuer un faible nombre de bits aux sous-images représentant des fréquences peu sensibles. Dans un deuxième temps, les sous-images ou plutôt les coefficients issus de la transformation ondelettes sont quantifiés et codés en accord avec l’algorithme d’allocation des bits.
En ce qui concerne la décompression, elle débute par un décodage de la sous-image basse fréquence, ce qui donne très rapidement un aperçu général et flou de l’image. Ensuite, on ajoute les sous-images par ordre d’importance décroissante pour augmenter la qualité. C’est ce processus qui permet un affichage progressif.

Onduleur : appareil de régularisation de la tension électrique, son rôle est au minimum de supprimer les micro-coupures de courant voire d’alimenter l’ordinateur et ses périphériques en électricité pendant une durée plus ou moins longue après une coupure du secteur.

Open Type : format de polices de caractères universelles conçu par Microsoft, Netscape et Adobe et disponible dans le monde Mac ou Windows. Il combine les technologies dominantes c’est à dire True Type et Type1. Pour cela, Adobe et Microsoft ont croisés leurs technologies réciproques et ont mis cette nouvelle spécification à la disposition de tous les fournisseurs de systèmes d’exploitation et Internet. OpenType gère aussi la compression de ces polices et il minimise les temps de chargement des fontes encapsulées dans les pages Web. Ce format devrait simplifier l’installation des polices et surtout, permettre aux futures versions des Mac et des PC de gérer la typographie au niveau du système d’exploitation. D’un point de vue typographique, plus particulièrement, les polices Open Type vont gérer les glyphes multiples. De plus, dans les alphabets latins, les ligatures pourront se substituer automatiquement aux combinaisons de certaines lettres comme pour l’association fi en remplacement de l’association des lettres f et i. Ce standard de polices permet de contrôler exactement le positionnement des caractères pour joindre leurs déliés ou encore ajuster les lignes de base de polices hétérogènes lorsqu’elles sont utilisées sur une même ligne. Enfin, dernier avantage d’Open Type, il suffira simplement d’installer les fontes sans se préoccuper qu’elles soient PostScript, TrueType ou OpenType.
OpenType remplace les extensions TrueType Open de Microsoft par le format TrueType. Les polices OpenType peuvent regrouper des données vectorielles PostScript ou TrueType dans une enveloppe commune. Une police OpenType est un fichier qui peut être utilisé aussi bien sur Macintosh que sous Windows, sans aucune conversion.

OPI : (Open Prepress Interface) technique de remplacement automatique des fichiers basse-définition utilisé lors de la mise en place par des fichiers haute-définition.

Original de deuxième génération : expression paradoxale qui désigne des originaux négatifs ou des positifs produits par un imageur. On parle aussi d’originaux électroniques.

Original électronique : en numérique, original de deuxième génération.

Orpheline : en typographie, première ligne d’un paragraphe isolée en bas de page ou en bas de colonne à l’opposé de la veuve qui est la dernière ligne isolée.

Ouverture : voir diaphragme.

Ozalid : épreuve bon marché réalisée après la production des films de sélection. Ils servent à vérifier le bon positionnement des éléments d’une mise en page ainsi que le bon ordre des pages.