Hello visiteur mon site utilise des cookies pour les statistiques de fréquentation!

Page sur les transmissions tv

Les standards vidéo analogique



PAL PAL NTSC SECAM Abu Dhabi Madeira Antigues (ancienne) Allemagne (Est) Afghanistan Malawi Antilles Arabie Saoudite Afrique du Sud Maldives Aruba Bénin Albanie Malaisie Bahamas Bulgarie Algérie Malta Barbades Cameroune (ancienne) Allemagne (ouest) Monaco Bermudes Congo Argentine Mozambique Bolivie Côte díIvoire Australie Namibie Birmanie Chypre Autriche Népal Canada Djibouti Azores Netherland Chili égypte Bahrain Nigeria Colombie France Bangladesh Norvège Corée du Sud Gabon Belgique Nouvelle-Guinée Costa Rica Gambia Botswana Nouvelle-Zélande Cuba Grèce Bhoutan oman Curacao Guadeloupe Brésil ouganda équateur Guiana Brunel Pakistan El Salvador Gulana-Fr Cambodge Paraguay états-Unis Hongrie Chine Portugal Guam Iran Corée du Nord Qatar Guatémala Iraq Cyprus-Turk Sabah Haiti Jibuti Danmark Sarawak Hawaï Jordanie Dubal Sierra Leone Honduras Lebanon Espagne Singapoure Iles Cayman Lybie Finlande Sri Lanka Iles Galapagos Luxembourg-Fr Ghana Somalie Iles Vierges Madagascar Gibraltar Soudan Jamaïque Mali Groënland Suède Japon Martinique Hong Kong Suisse Mexique Mauritanie Iles Canarie Swaziland Micronésie Monaco Iles Chanel Tanzanie Midway Island Mongolie Iles Falkland Tchad Nicaragua Morocco Iles Seychelles Thaïllande okinawa Niger Iles Solomon Tibet Panama Nouvelle Calédonie Indes Tonga Pérou Pologne Indonésie Transkei Phillipines Polynésie-Fr Irelande Turquie Ponape Rép. Guyana Iceland Turkménistan Porto Rico Réunion Israël Union des émirats Arabe République Dominicaine Roumanie Italie Uruguay Saïpan Sénégal Jordanie Vatican Samoa Syrie Kénya Vietnam St Kitts Tahiti Koweit Yémen St Thomas Tchécoslovaquie Laös Yougoslavie Surinam Togo Lesotho Zambie Taïwan Tunisie Liberia Zanzibar Trinidad Union états Indépendants(ex-URSS) Luxembourg-All Zimbabwe Vanuatu Uper Volta Macau - Vénézuella Zaïre
La télévision analogique terrestre ou TAT est l'ensemble du réseau de diffusion de terre composé d'émetteurs (pilotes) et de réémetteurs locaux. Ce réseau utilise des ondes dites hertziennes.
Les signaux analogiques SECAM et PAL en Europe, NTSC aux états-Unis d'Amérique ou au Japon des émetteurs sont reçus sur les antennes VHF et UHF individuelles ou collectives qui permettent, suivant les caractéristiques du site, des qualités d'image variables, ayant fait l'objet d'une codification.
Composition d'une image
Les caractéristiques fondamentales de tous les systèmes de télévision ont été en grande partie définies par rapport à des considérations physiologiques de l'oeil humain, telles que :
Détail
La persistance rétinienne : 1 / 20 de seconde.
Le pouvoir de résolution de l'oeil : 1' d'angle environ.
Le nombre d'or : notion de distance normale d'observation d'un objet en fonction de ses dimensions (5 à 7 fois sa diagonale pour un objet rectangulaire, selon les peintres)
Afin d'éviter un effet de scintillement, le principe de structurer l'image en deux trames entrelacées (trame paire et impaire) a été choisi. La période de chaque trame étant de 1 / 50 de seconde, soit celle du réseau électrique.
Pour résoudre le problème du décalage vertical des deux trames sans exiger trop de précision des générateurs de balayage, il a été fixé un nombre impair de lignes ,la première trame démarrant au centre du bord supérieur de l'écran et la seconde au coin supérieur gauche.
Ce système de double trame entrelacées est commun à tous les standards de télévision analogique. La trame est constituée de deux mouvements, l'un horizontal, décrivant une ligne de gauche à droite sur l'image restituée, l'autre vertical, plaçant les lignes les une sous les autres, de haut en bas, ces lignes constituant la trame.
Chacun de ses mouvements comprend deux phases ,une phase utile pendant laquelle se forme le signal utile de traduction de l'image, une phase de suppression lors de laquelle le mouvement du spot s'inverse. Pendant ce temps, le signal est mis à une tension constante de référence : le niveau de suppression.
Détail
Il est nécessaire de synchroniser le mouvement ligne et trame :
par insertion d'un top de synchro ligne
par insertion d'informations de synchro trame.
Dans les principaux standards, le nombre de lignes est de
Détail
625 pour les standards PAL et SECAM
525 pour le standard NTSC en usage au Japon, états-Unis et Canada.
Le nombre d'images par seconde est respectivement de 25 et 30.
La période d'une image est fixée à 40 ms et donc celle d'une trame à 20 ms (Europe).1 / 64 La fréquence de balayage ligne est donc de 625 x 25, soit 15 625 Hz, ou une période de 64 µs. Pour un format 4 / 3 le nombre de points par ligne est de 625 x 4 / 3, soit 833 points.
La bande passante est maximale lorsque l'on alterne les points noirs et blancs, créneau dont la fréquence est la moitié des points transmis :
833 / 2 points x 625 lignes x 25 images / seconde = 6,5 MHz
Ce créneau nécessiterait la transmission d'une dizaine d'harmoniques pour être restitué, en pratique nous observons de grandes zones uniformes qui induisent des fréquences plus faibles. Le temps entre deux points d'une ligne est de t = (1 / 625) x (3 / 4) x 64 µs ; la bande passante d'un système du premier ordre dont le temps de monté à 90 % donne 2,3 x t soit une bande passante de 2,3 / (2 x p x t ) = 4,77 MHz environ qui est une valeur théorique plus proche de la réalité.
Le temps réservé au retour de balayage est utilisé pour transmettre des impulsions assurant la synchronisation des cycles de balayage entre émetteur et récepteur. Ces signaux sont composés de plusieurs phases appelées :
Détail
pré-égalisation
synchro trame
post-égalisation
Afin de contrôler la qualité d'une transmission, des paramètres quantifiables ont été définis ; ils permettent de mesurer des distorsions linéaires ou non, ainsi que le bruit introduit par la transmission.
Pour contrôler et éventuellement corriger les performances d'un système de transmission, on a réservé dans l'ensemble des lignes transmettant l'information vidéo, un certain nombre d'entre elles pour transmettre des signaux de contrôle, dont les lignes test.
Elles permettent de caractériser le réseau et sont insérées au début de la chaîne de transmission pendant les périodes de suppression de la trame. Ces signaux subissent donc les mêmes dégradations que l'image.
Le signal vidéo composite
Détail
Un signal vidéo est constitué de plusieurs parties :
l'information de Luminance d'une dynamique de 700 mV
la synchronisation ligne, impulsion de 300 mV,
l'information de chrominance
un burst de synchronisation pour la sous porteuse chrominance
des informations de synchronisation trame dans certaines lignes.
Sous une charge normalisée 75 o, l'amplitude crête à crête d'un signal vidéo est 1 V. La durée d'une ligne est de 64 µs, soit 15 625 Hz. Le signal utile dure 52 µs, la synchronisation utilise donc 12 µs.

Synthèse des couleurs
Au signal vidéo composite monochromatique, la couleur est gérée en ajoutant une sous porteuse modulée par des signaux de chrominance et ce, afin de constituer un nouveau signal composite CVBS. Pour la télévision couleur, l'image est transmise sous la forme de deux informations complémentaires : la luminance qui exprime la luminosité et les contours des formes visualisées et la chrominance, porteuse de l'information couleur.
Pour des raisons de compatibilité avec les systèmes précédents, l'adjonction de la couleur devait se faire de façon à ne pas perturber le fonctionnement d'un téléviseur noir et blanc. Cette information chromatique avait donc comme obligation d'être positionnée dans un canal de 8MHz, occupé déjà par 5 MHz ou 6 de luminance vidéo ainsi que la sous porteuse audio.
Le signal de luminance Y est une combinaison linéaire des trois couleurs primaires rouge, vert bleu. Disposant de cette information qui représente le signal noir et blanc, deux signaux complémentaires sont nécessaires afin de transmettre la couleur : signaux de chrominance bleu et signaux de chrominance rouge.
Détail
Y = 0,587V + 0,299R + 0,114B
Cb = 0,564 (B – Y)
Cr = 0,713 (R – Y)
systèmes de codage des signaux de chrominance :
Le système NTSC
Le système SECAM
Le système PAL
Emission, modulation d'amplitude et MA-BLR
Le signal vidéo composite (CVS) occupe une largeur de bande d'environ 5 MHz selon le standard utilisé. Ce signal bande de base pourrait moduler en amplitude une porteuse HF (Modulation d'amplitude à double bande) et occuperait alors 10 MHz de bande passante. En principe, l'une des deux bandes peut être supprimée, du fait que chacune d'elle transmet la même information.
Il serait donc possible d'émettre l'information en AM-BLU. Toutefois, le signal vidéo dispose d'information aux fréquences basses auxquelles l'oeil est très sensible, de plus, la difficulté de réaliser des filtres aux fréquences de coupures sévères, sans distorsion de temps de groupe, oblige à utiliser le système à bande latérale réduite : MA-BLR. Cette modulation est donc utilisée sur les émetteurs de télévision hertzienne (TDF).
Dans le cas de la MA-BLR, une bande latérale entière est émise ainsi qu'une partie de la seconde appelée talon. à la réception (dans le téléviseur), il faut s'assurer que la zone latérale réduite n'apparaît pas avec une amplitude double au niveau du démodulateur. Afin de s'affranchir de ce problème, on utilise un filtre à flanc de Nyquist normalisé, le principe consiste à transmettre la moitié du signal sous la porteuse et la moitié au-delà sur une certaine bande de fréquence. Dans la plupart des cas, le signal est traité à une fréquence intermédiaire de 38.9 MHz (sous porteuse image).
En réception le signal est transposé à 38,9 MHz le spectre peut se trouver inversé si la fréquence de l'oscillateur est supérieure à celle du canal(transposition supradyne),cette FI est filtrée par un FoS qui récupère uniquement le signal vidéo (par exemple K6257K de Siemens Matsushita S+M) la bande passante est de 5 MHz environ ; les pertes sont d'environ 6 dB à 38,9 MHz et 33,9 MHz. Une réjection importante est présente à 32,4 MHz pour un FoS adapté au standard L, cela représente une fréquence 6,5 MHz avant la porteuse image située à 38,9 MHz; cette réjection est située sur la sous porteuse son.
Le modulateur MABLR est relativement compliqué à réaliser et n'existe pas de façon intégrée. Il faut utiliser dans ce cas un circuit intégré à modulation double bande en fréquence intermédiaire 38,9 MHz. Cette fréquence normalisée est ensuite filtrée par un FoS au gabarit spécifique dont le flanc est identique mais la bande passante inférieure plus importante afin de laisser passer les différentes sous-porteuses audio qui sont 6,5 MHz pour la monophonie et 5,85 MHz pour la sous-porteuse NICAM.
Le signal FI-MABLR subit ensuite une double transposition, une première à une FI plus élevée de 900 MHz par exemple, afin de pouvoir utiliser un FoS gsm, puis une seconde transposition accordable en UHF. La raie de transposition est alors 900 MHz au-delà de la raie utile et donc plus facile à filtrer que dans une transposition simple ou une raie résiduelle parasite subsisterait 38,9 MHz de part et d'autre du signal utile.
Caractéristiques des principales normes
Standard B / G D L / L' M (états-Unis) VHF bande I 47-68 48,5-100 - 54-88 VHF bande III 174-230 174-230 - 174-216 UHF bande IV et V 470-853 - 471-855 470-890 écart image / son 5,5 MHz 6,5 MHz 6,5 MHz 4,5 MHz Largeur du canal 8 MHz(G) 8 MHz 8 MHz 6 MHz Déviation FM / son FM, 50 kHz FM, 50 kHz AM FM, 25 kHz Nombre de lignes 625 625 625 525 Fréquence ligne 15 625 Hz 15 625 Hz 15 625 Hz 15 750 Hz Bande passante vidéo 5 MHz 6 MHz 5 MHz 4,2 MHz Durée d'une ligne 64 µs 64 µs 64 µs 63,5 µs Durée trame 20 ms 20 ms 20 ms 16,667 ms
PAL : alternance de phase suivant les lignes est un standard historique vidéo couleurs avec 25 images par seconde et 625 lignes par image (576 seulement sont affichées car 8 % des lignes servent à la synchronisation et au transport de certaines données numériques). La définition au standard PAL peut atteindre 720 × 576 lignes (DVD). Il est différent de la norme de télédiffusion qui lui est associée ), laquelle définit la modulation des signaux (L, B, G, K, I).
Mis au point en Allemagne par Walter Bruch (1908-1990), PAL est exploité depuis les années 1960 principalement en Europe, dans certains pays d'Amérique du Sud, en Australie et dans certains pays d'Afrique. Depuis 1995, la totalité des téléviseurs couleurs commercialisés dans les pays exploitant le SECAM intègrent obligatoirement des circuits compatibles PAL .
Historiquement, les concurrents du PAL sont NTSC, d'origine américaine et SECAM, d'origine française.
Diffusion
Le standard PAL s'est largement répandu en Europe, notamment dans la majeure partie de l'Europe de l'ouest (sauf en France laquelle a imposé le SECAM), en Afrique et dans une partie de l'Asie et de l'Amérique du Sud. Dans certaines régions, le standard PAL est obligatoirement associé à une norme spécifique pour sa télédiffusion (conformément à une modulation symbolisée par une lettre : B / G, I, D / K, M ou N).
Détail
PAL B / G
PAL I
PAL D / K
PAL M
PAL N
Description
Le standard PAL est une évolution du standard NTSC et reprend plusieurs brevets issus du standard SECAM lequel en corrigeait les principaux défauts.
Afin d'éliminer les variations de colorimétrie, fréquentes lors de la modulation en NTSC, il a été choisi d'inverser la phase de la porteuse couleur une ligne sur deux : un défaut apparaissant sur une ligne est alors inversé sur la ligne suivante, ce qui entraîne leur annulation mutuelle.
La couleur étant composée de deux informations élémentaires : U = B-Y (différence de bleu) et V = R-Y (différence de rouge), il faut théoriquement deux porteuses (signaux véhiculant une modulation) pour transmettre l'information vidéo.
Pour n'exploiter qu'une seule porteuse (tout comme en NTSC), le signal est modulé en amplitude et en phase avec une seule porteuse, mais en reprenant l'idée de l'alternance des signaux U et V d'une ligne à l'autre (la composante manquante est copiée de la ligne précédente grâce à une ligne à retard de 64 µs mémorisant ce signal, la ligne à retard a trouvé une autre application à la fin des années 1970 en télévision pour le chiffrement analogique où plusieurs retards programmables sont combinés pseudo-aléatoirement sur diverses parties du signal suivant un ordre défini par la clé de chiffrement). La fréquence de cette porteuse est approximativement de 4,43 MHz - 4 433 618,75 Hz, pour le PAL M et le PAL N, cette valeur devient respectivement 3,575611 MHz et 3,582056 MHz) en raison de la bande passante vidéo limitée à 4,2 MHz de ces standards (canaux de 6 MHz comme en NTSC).
Ce point représente la principale différence entre PAL et SECAM. Télédiffusé, le PAL utilise une fréquence unique vidéo modulée principalement en amplitude pour sa sous-porteuse vidéo (et identifiée par sa phase qui alterne de 180° d'une ligne à l'autre, les trames étant identifiées par une salve de lignes initiales déphasées de + ou - 45°), le SECAM module aussi une sous-porteuse unique (mais cette modulation de sous-porteuse chromatique est en fréquences et non en amplitude comme en PAL et NTSC) mais dont la fréquence relative (et la largeur de bande de modulation) alterne suivant la nature du signal transporté (U ou V, en fait Dr ou Db car le modèle colorimétrique est légèrement différent pour pouvoir s'adapter à la bande passante changeante du signal chromatique) : l'identification couleurs de chaque trame (remplacée en 1980 par l'identification des lignes) se fait en SECAM en détectant laquelle des deux fréquences de sous-porteuses est utilisée sur la première ligne, là où en PAL on doit détecter l'alternance de phase (qui n'est détectable qu'en extrémité de ligne lors de la synchro de retour de balayage).
Compatibilité
Du fait de la similitude de synchronisation, le PAL et le SECAM sont aisément compatibles grâce à un transcodeur. Cet appareil conserve les valeurs de résolution et d'affichage (625 lignes et 25 images / seconde) en transcodant uniquement les signaux de chrominance.
En l'absence de transcodeur, les images s'afficheront en noir et blanc.
En revanche, entre le PAL et le NTSC, il convient d'exploiter un convertisseur, lequel va compenser le nombre d'images par seconde (25 ou 30) et la résolution image (525 ou 625 lignes). En dehors des très coûteux équipements professionnels broadcast, un convertisseur PAL / NTSC procure une image de qualité médiocre (effets de saccade, perte de définition, couleurs moins fidèles, bruit de fond).
De ce fait, les séries ont longtemps été tournées en pellicule 16 ou 35 mm en 24 images par seconde plutôt qu'en vidéo, le matériel de télécinéma et les procédés de pull-down étant particulièrement au point dès l'origine de la télévision.
Variantes en télédiffusion et conversion
PAL-N
La variante PAL-N (625 lignes 50 Hz, Chroma à 3.58 Mhz), utilisée en Argentine et Uruguay, utilise le même modèle colorimétrique YDbDr que le SECAM au lieu du modèle YUV, mais ce changement est assez mineur et très facile à adapter.
PAL-M
La variante PAL-M existe pour la compatibilité avec le format NTSC. Il est principalement utilisé sur les réseaux de diffusion câbles et satellites analogiques américains et asiatiques. Cette variante n'est utilisée en diffusion hertzienne terrestre analogique qu'au Brésil.
L'idée de l'alternance des deux composantes chromatiques d'une ligne à l'autre est conservée, mais le format de l'image est adapté pour être compatible avec le NTSC : 525 lignes à 60 Hz au lieu de 625 lignes à 50 Hz et les deux sous-porteuses Y et U / V sont placées aux mêmes fréquences relatives que les deux sous-porteuses I et Q du NTSC.
(le signal Q du NTSC transporte simultanément ses deux composantes colorimétriques sur la même sous-porteuse modulée en amplitude, sans alternance ni ligne à retard, mais en quadrature de phase l'une par rapport à l'autre. C'est son plus gros défaut car la phase est techniquement difficile à détecter et stabiliser précisément, d'autant plus difficile que le signal Q est modulé en amplitude, ce qui est la source des aberrations chromatiques et constants réglages sur les appareils de réception et démodulation NTSC).
PAL-Plus
Cette variante est adaptée au format 6/9. Elle permet de reproduire un signal pour les téléviseurs à écran large respectant l'intégrité des 576 lignes utiles. Cette norme entièrement compatible avec les téléviseurs standard ne peut être reçue qu'avec un décodeur spécifique ou un téléviseur compatible. Elle est de plus aujourd'hui supplantée par la diffusion en numérique d'émissions anamorphosées destinée exclusivement aux téléviseurs 16 / 9.
PAL 60 Hz
Uniquement présent en sortie vidéo d'appareils vidéo domestiques (tels que lecteurs DVD, LaserDisc, consoles de jeux vidéo), ce signal exploite le balayage (synchronisation) du NTSC (525 lignes et 30 images par seconde) et la chrominance PAL. Il permet une relative compatibilité des appareils nord-américains et asiatiques avec certains téléviseurs européens. Il permet de stabiliser l'image mais elle reste en noir et blanc. Certains jeux vidéo permettent de choisir ou non l'affichage en 60 Hz.
Exploitation
Dans toute l'Europe, le standard PAL est exploité par les téléviseurs (au moins via la prise Péritélévision) commercialisés depuis 1995, les lecteurs ou enregistreurs DVD européens, les jeux vidéo et autres lecteurs DivX. La diffusion numérique (satellite, câble numérique, TNT, l'ADSL) TV utilise une source au signal PAL (SD) exploitée par les chaînes de télévision. Les récepteurs numériques peuvent intégrer des circuits et une démodulation analogique PAL (entrée et sortie) pour les rendre compatibles avec les téléviseurs conventionnels.
Dans sa forme télédiffusée, le concurrent SECAM n'est plus exploité qu'en diffusion analogique terrestre et disparaîtra définitivement en 2010 en Europe, avec la numérisation complète des émetteurs (TNT).
NTSC (Comité du système de télévision nationale) est un standard de codage analogique de la vidéo en couleurs lancée aux USA en 1953. Il est adapté aux formats vidéo 525 lignes et 30 images par seconde. Il peut être exploité pour les DVD-vidéo avec une résolution de 720 × 480 lignes. Le standard NTSC est exploité en Amérique du Nord, dans une partie de l'Amérique du Sud (NTSC-M) ainsi que l'Asie, dont le Japon (NTSC-J).
Principes techniques
Dans sa forme professionnelle (captation, caméras, studios, régies) le signal vidéo couleur est composé de deux informations élémentaires combinée au signal noir et blanc (Y): U=B-Y (différence de bleu) et V=R-Y (différence de rouge). En théorie, deux porteuses distinctes sont indispensables pour véhiculer les données de chrominance et de luminance (Y). Afin d'en employer qu'une seule, le signal vidéocomposite est modulé en amplitude et en phase avec une seule porteuse.
La norme de télédiffusion "Q" associée au NTSC transporte donc simultanément ses deux composantes colorimétriques sur la même porteuse modulée en amplitude avec un système de quadrature de phase entre les deux informations de chrominance.
La fréquence de cette porteuse est approximativement de 3,58 MHz (sauf dans la version NTSC-4.43, où elle est de 4,43 MHz ce qui correspond à la porteuse du PAL). Afin de limiter l'influence de la qualité de la réception sur les variations de colorimétrie, ce ne sont pas directement les signaux U et V qui sont modulés, mais une combinaison de ceux-ci nommés I et Q :
I = - 0,2676 * U + 0,7361 * V
Q = + 0.3869 * U + 0.4596 * V
on peut directement obtenir Y, I et Q en fonction de R, G et B :
Y = + 0,299 + 0,587 +0,114 = R
I = + 0,596 - 0,274 -0,322 = G
Q = + 0,212 - 0,523 -0,311 = B
Variante du NTSC : PAL 60 Hz
Il existe une technologie inventée après la guerre par les Américains pour pouvoir lire leurs cassettes vidéo NTSC sur les postes de télévision allemands utilisant la norme PAL. Ce procédé modifie la démodulation à la fréquence porteuse couleur pour 4,43 MHz (le PAL 60). En revanche, l'image reste en définition 525 lignes, elle peut alors être anamorphosée (comprimée verticalement) ou représenter des barres noires en haut et en bas de l'écran. Le signal est alors composé de 60 trames (demi images) par seconde ou 30 images par seconde.
Défauts lors de la télédiffusion
Le standard NTSC a fait l'objet de vives critiques en raison de la médiocrité de la fidélité des couleurs lors de sa réception avec un téléviseur conventionnel (datant d'avant 1990). Ce phénomène engendré par les faiblesses des circuits analogiques de démodulation et recomposition du signal vidéocomposite. En raison d'un déphasage de la chrominance, le phénomène le plus gênant concerne alors la teinte de la peau humaine (les visages varient du verdâtre à l'orangé sombre). Un réglage spécifique existe donc sur tous les téléviseurs NTSC : la fonction hue qui permet de réajuster la phase du signal couleur. Toutefois, ce phénomène est pratiquement inexistant avec les appareils numériques (lecteur DVD, démodulateur câble, satellite, terrestre, ADSL TV, console de jeux vidéo). Ce phénomène n'existe pas chez les deux concurrents européens PAL et SECAM.
Compatibilité
Entre le NTSC et le PAL / SECAM, il convient d'exploiter un convertisseur numérique, lequel va compenser le nombre d'images par seconde (25 ou 30) et la résolution image (525 ou 625 lignes). En dehors des très coûteux équipements professionnels broadcast (diffusion), un convertisseur PAL/NTSC procure une image de qualité médiocre (effets de saccade, perte de définition, couleurs moins fidèles, bruit de fond)
Le terme SECAM signifie séquentiel couleur à mémoire, désigne un standard de codage vidéo analogique en couleurs, inventé par Henri de France et commercialisé à partir de 1967. Adapté aux formats vidéo 625 lignes et 25 images par seconde, le SECAM a été principalement implanté en France (métropolitaine et DoM-ToM), dans les pays de l'Est, en Afrique francophone, les pays de l'ex-URSS et au Moyen-orient. Il est associé selon les pays, à une norme de télédiffusion spécifique (désignée par les lettres L / L', B / G et D / K ou K' / K1).
SECAM L / L' : France métropolitaine, certain programme au Luxembourg.
SECAM B / G : Iran, égypte, Arabie saoudite, Libye, Maroc, Tunisie etc.
SECAM D / K : ancien bloc de l'Est (en train de changement pour PAL), C.E.I., DoM ToM etc.
SECAM K' / K1 : Afrique de l'ouest etc.
Principes techniques
Les trois systèmes de télévision couleurs historiques (NTSC, SECAM et PAL) ont été conçus pour être compatibles avec les normes de télédiffusion en noir-et-blanc antérieures pour des motifs de compatibilité : un ancien téléviseur noir-et-blanc doit pouvoir restituer les émissions émises en couleurs et un téléviseur couleurs doit permettre de restituer des émissions diffusées en noir-et-blanc. Les informations supplémentaires spécifiques à la couleur sont donc rajoutées aux (ou combinées avec les) signaux en noir-et-blanc.
Le signal noir-et-blanc ou luminance ("Y") constitue la première information vidéo à exploiter (première composante du vecteur). Il reste donc deux informations (deux composantes) dites de chrominance, à transmettre. on a choisi de transmettre U=(R-Y)*cte et V=(B-Y)*cte, car l'information de couleur verte G est celle qui est la plus proche de la luminance Y. Le SECAM se distingue des autres normes sur ce point.
En NTSC et PAL, les deux signaux de chrominance (U = cte*(R-Y) et V = cte*(B-Y)) sont transmis simultanément, en Modulation de phase et d'amplitude. Ainsi, pour chaque ligne et donc pour chaque point, on dispose des informations Y, U et V, ce qui permet de reconstituer les 3 composantes primaires R, G et B.
Pour le SECAM, les informations U et V sont transmises alternativement une ligne sur deux. Ainsi :
pour une ligne donnée, on dispose des informations Y (le signal noir-et-blanc, transmis pour chaque ligne) et U=(R-Y)*cte
pour la ligne suivante, on dispose des informations Y et V=(B-Y)*cte
Dans cette formule, le système ne permettrait pas de restituer les trois composantes R, G et B. Toute l'astuce consiste à prendre, pour une ligne donnée,l'information U ou V manquante sur la ligne précédente. à cet effet, une ligne à retard de 64 µs (la durée d'une ligne) mémorise l'information de couleur d'une ligne (U ou V) et la restitue au moment de la réception de la ligne suivante, où combinée à l'information de couleur de cette dernière (resp. V ou U), elle permet enfin d'accéder aux trois composantes du vecteur de couleur.
Ainsi, en SECAM, la résolution en chrominance est moitié moindre que la résolution en luminance (celle de l'image en noir-et-blanc). En pratique, cela ne pose pas de problème particulier, car l'oeil humain présente à peu près les mêmes caractéristiques (meilleure résolution en luminance qu'en chrominance). Il est à noter que cette pratique de la division par deux de la chroma a été reprise dans la norme JPEG et donc par héritage dans les norme MPEG-1,MPEG-2 et MPEG-4.
Un seul signal couleur est transmis par ligne. Cette alternance entraîne une périodicité de quatre trames, cependant l'inversion de la sous-porteuse (toutes les trois lignes, 1 trame sur deux) fait passer cette périodicité à douze trames : il faut donc un groupe de six images pour démoduler complètement le signal couleur, ce qui rend ce format inutilisable et immontable en production audiovisuelle.
Les données de couleur sont transmises en modulation de fréquence, ce qui garantit (uniquement lors de la transmission) une meilleure stabilité des couleurs et diminue la perception de l'information de couleur dans l'image vidéo en noir et blanc. Dans l'explication qui précède, on a considéré pour simplifier que SECAM, tout comme PAL et NTSC, utilise l'espace de couleur YUV. Ce n'est pas tout à fait exact, car en SECAM, les composantes U et V sont mises à l'échelle : les trois composantes sont ainsi exprimées dans l'espace de couleur YDbDr.
Théoriquement meilleur que le PAL pour la télédiffusion hertzienne uniquement en raison d'une consolidation de la chrominance. Les couleurs y sont d'ailleurs à l'oeil nu plus saturée qu'en PAL. Cette saturation d'ailleurs peut baver sur de grande surface rouge ou bleue très saturée.
PAL : Stabilité de la teinte. Instabilité de la saturation. Résolution élevée (jusqu'à 550 points/ligne) mais bridée par les porteuses couleurs à 416 points / lignes. Les téléviseurs équipés de filtre en peigne évolué peuvent déboucher jusqu'à 550 points lignes toutefois sans atteindre réellement cette qualité.
SECAM : Stabilité de la teinte. Stabilité de la saturation. Résolution élevée (jusqu'à 600 points/ligne) mais bridée par les porteuses couleurs à 374 points / lignes sur la quasi totalité des téléviseurs.
Limites techniques et lacunes
L'enregistrement vidéo SECAM en vidéo analogique
Dans le cas de la vidéo grand public (VHS), il existe deux modes de traitement (enregistrement/lecture) du signal couleur SECAM.
Le mode SECAM dans un magnétoscope. L'information couleurs contenue en diffusion sur une porteuse de plus haute fréquence que le signal de base est enregistrée à une fréquence inférieure à la porteuse vidéo, pour des raisons de qualité et de bande passante. Du fait de la modulation en modulation de fréquence, l'idée a été simplement de faire passer la porteuse dans un diviseur de fréquence par 4 (et une multiplication par 4 à la restitution), cela permet d'effectuer le traitement avec un matériel bien moins coûteux que la méthode classique utilisée dans les magnétoscope PAL.
Le second mode dérivé du SECAM est le MESECAM que l'on retrouve dans L'Europe de l'Est, le Moyen-orient, la Tunisie, le Maroc et la Grèce. En outre, il a été exploité en Suisse romande (entre 1978 et 1995). Cette méthode utilise tout simplement du matériel PAL standard et la méthode utilisée pour la conversion de fréquence pour les enregistrement PAL standard plus coûteuse que la méthode simplifiée du SECAM. Le système MESECAM n'existant pas en tant que tel, il s'agit ici de l'utilisation d'un magnétoscope PAL avec un signal SECAM.
Au final, bien que le procédé VHS SECAM soit théoriquement moins cher puisque plus simple, en pratique avec l'augmentation de la diffusion des magnétoscopes,un autre problème est apparu : le matériel pour le territoire français étant différent, il bénéficie moins de la réduction due à la production de masse. De plus, la nécessité de pouvoir lire des cassettes PAL sur des magnétoscope français apparut vite, ce qui fit qu'un grand nombre supportèrent les 2 standards et furent donc équipés des 2 systèmes de décodage
Pour peu que le téléviseur gère le PAL et le SECAM : Un signal SECAM enregistré sur un magnétoscope PAL (c'est donc du MESECAM) puis relu sur un magnétoscope PAL sera en couleurs. Alors qu'un signal PAL enregistré sur un magnétoscope SECAM sera toujours en NB. La lecture des cassettes SECAM avec un magnétoscope PAL est restituée en noir et blanc et inversement. Les tuners analogiques des magnétoscopes VHS PAL avec MESECAM vendus en Suisse Romande étaient modifiés d'origine CCIR B / G. Un petit circuit artisanal avec circuit intégré était rajouté, permettant la réception des normes analogiques L / L', une étiquette était apposée sur l'appareil : "PAL+SECAM". Le tuner devenait multistandard, mais l'appareil enregistrait les chaînes françaises par voie hertzienne terrestre en mode MESECAM. Le standard SECAM a été abandonné à compter du début des années 1980 au profit du PAL par les professionnels (chaînes, producteurs, duplication) dans les domaines de l'exploitation (studios, régies), de l'enregistrement et de l'archivage. Principalement pour des raisons pratiques : le catalogue de matériel PAL était plus important et moins cher.
Inconvénient : l'identifiant couleurs SECAM
Le procédé SECAM accuse un autre défaut. Il concerne le signal d'identification devant permettre au décodeur SECAM du téléviseur couleurs, la restitution d'une image conforme à l'émission. Entre 1965 et 1988, cette transmission a été exploitée en synchronisation avec les lignes du signal vidéo (salve d'identification dite IDENTIFICATIoN LIGNE). Depuis, ce signal a été intégré dans les trames de la vidéo (IDENTIFICATIoN TRAME, ou "Bouteilles").Les téléviseurs datant d'avant 1980 ne disposaient pas systématiquement de ces circuits.
Dans le milieu des années 1960, lors de l'adoption du SECAM par tous les pays membres de l'oIRT, les chaînes de TV de ces pays diffusaient simultanément, les 2 modes d'identification. Quant à la France, elle choisit, en 1967, de diffuser la couleur, uniquement en identification TRAME. Les circuits SECAM des TV fonctionneront obligatoirement avec ce mode de transmission, jusqu'au 1er décembre 1979. Le 14 mars 1978, les chaînes de TV françaises optent, désormais, pour l'identification LIGNE, qui est le mode obligatoire de transmission de la couleur SECAM (dans la perspective de supprimer l'identification TRAME, pour la remplacer par des signaux numériques tels que le télétexte, le VPS, le PDC, le sous-titrage et dans le cas de Canal+, des données destinées pour les décodeurs (droits d'accès), comme pour un signal vidéo analogique PAL).
Histoire
Le SECAM a bien corrigé tous les gros défauts du NTSC et le PAL a été créé à partir du SECAM comme une norme intermédiaire, reprenant l'essentiel des améliorations du SECAM, notamment :
l'ingénieuse séparation séquentielle des composantes de chrominance grâce à l'invention et l'utilisation par Henri de France de la ligne à retard de 64 µs pour permettre la mémorisation des informations de chrominance d'une ligne à l'autre
la modulation de la sous-porteuse de couleur unique (deux porteuses en NTSC, l'une bavant sur l'autre suivant les conditions de transmissions et les distances !), en fréquence pour le SECAM (meilleure stabilité et donc qualité), en amplitude pour le PAL et le NTSC. En fait, dans la 3e version du SECAM, on utilise successivement deux sous-porteuses à 4,40625 MHz et 4,25 MHz
l'utilisation d'une bande élargie pour le signal de chrominance grâce à la sous-porteuse unique en SECAM (idée conservée en PAL) par rapport aux faibles bandes des deux sous-porteuses NTSC
le modèle colorimétrique (pour le signal démodulé) YUV corrigé en fonction de la sensibilité relative plus faible du bleu par rapport au rouge et donc converti en <Y, Dr, Db> avec une bande passante nécessaire plus faible pour le signal de chrominance quand il transporte le delta bleu (ce modèle colorimétrique a été repris aussi dans le PAL)
la distinction des lignes paires et impaires (pour distinguer les lignes émises en <Y, Dr> des lignes émises en <Y, Db> par des fréquences de sous-porteuse distinctes, celle du bleu étant légèrement plus faible et ayant donc une modulation en fréquence sur une largeur de bande plus faible, ce qui aurait permis de coder une bande son améliorée (la stéréo par exemple) ou des données numériques (télétexte, sous-titrage, signaux horaires, téléservices) dans les lignes libres : idée nouvelle non conservée dans le PAL qui utilise une fréquence de sous-porteuse unique pour les lignes paires ou impaires, mais signale les trames couleur modulées en amplitude sans quadrature par une salve initiale comprenant une ligne déphasée de + ou - 45° (suivant la parité de la trame) par rapport à la position de déphasage alternée à 0 ou 180° (ce qui est un système spécifique PAL incompatible avec ses prédécesseurs SECAM et avant lui NTSC, mais n'apporte pas d'amélioration qualitative).
Toutefois, le SECAM a ensuite évolué en tenant compte des remarques des constructeurs du système PAL : l'alternance des fréquences de sous-porteuses pour les lignes paires et impaires a été rendue optionnelle, permettant l'utilisation d'une fréquence de sous-porteuse unique (en conservant toutefois sa modulation en fréquence et non en amplitude comme en PAL) : c'est l'objet de la variante L' du SECAM par rapport à la variante L initiale. [La phrase précédente est complètement fausse. Il y a toujours deux fréquences de sous-porteuses de chrominance en SECAM et cela n'a aucun rapport avec les normes L et L' qui concernent l'écart entre la sous-porteuse son et la sous-porteuse image]. L'identification des trames devient alors obligatoire (faute de quoi les lignes <Y, Dr> et <Y, Db> seraient permutées ce qui aurait eu pour effet de permuter le rouge et le bleu). Cette identification pouvant se faire soit en début de trame sur les salves des premières lignes, ou en début de chaque ligne pour en indiquer la nature. L'identification a été l'objet d'incompatibilités et c'est pourquoi les deux systèmes d'identification ont été employés simultanément, ce qui a mangé la bande passante restante et empêché son utilisation pour le son stéréo (apparu bien plus vite en PAL et en NTSC, les deux systèmes n'ayant pas à coexister simultanément).
on pourrait dire toutefois que le PAL a légèrement amélioré la qualité de couleur pour la composante bleue, en ne réduisant pas sa bande passante, comme en SECAM et simplifié la conception en évitant la double syntonisation sur les deux fréquences de sous-porteuse. Toutefois, en faisant cette opération, si le modèle colorimétrique a été simplifié en <Y, Pr, Pb> avec un traitement égal pour le delta rouge et le delta bleu, le peu qui a été gagné a été perdu par le retour à la modulation d'amplitude comme en NTSC, avec donc une plus forte sensibilité aux perturbations et parasites lors de la transmission et donc plus d'aberrations chromatiques.
Bref, le SECAM a bien été une invention techniquement meilleure, seulement un peu trop en avance par rapport à l'époque et pas suffisamment appuyée par les industriels, une volonté politique (déblocage des programmes TV encore trop contrôlés par le gouvernement et n'a pas dopé assez vite le marché français pour accélérer l'adoption de la couleur qui a été relativement longue en France (de 1967 à 1983) ce qui a considérablement freiné l'achat des récepteurs couleurs en France, malgré la colorisation très précoce d'Antenne 2 en tant que seconde chaîne nationale.
Le SECAM a en fait plus souffert du cadre réglementaire français qui a imposé aux chaînes des émissions avec deux systèmes simultanés d'identification des trames et trop longtemps aussi du manque de liberté de programmation en France avec une ouverture très tardive à la concurrence (problème encore plus critique en Europe de l'Est, Albanie et Grèce où le SECAM avait aussi été adopté dans des pays encore politiquement non démocratisés, de même qu'en Afrique pour cause d'absence de moyens de production suffisants). De fait, c'est le PAL (et ses variantes) qui a le plus gagné comme norme de production commune en raison de sa plus grande proximité à la fois du NTSC et du SECAM en tant que norme intermédiaire combinant la compatibilité avec le NTSC et en partie la qualité colorimétrique supérieure du SECAM.
Le SECAM a été le dernier standard de télévision à être associé à un son stéréophonique. Alors que le NTSC et surtout le PAL ont pu intégrer la stéréo dès les années 1960 (puis les effets Surround à compter du milieu des années 1980), le SECAM a dû attendre l'introduction du procédé audio numérique NICAM à partir de 1994 (son extension à l'ensemble des émetteurs français s'est déroulée jusqu'en 1999). Cela n'est pas dû au codage SECAM proprement dit mais à la norme de modulation française L / L', dernière norme au monde à utiliser la modulation d'amplitude pour transmettre le son, avec modulation positive de l'image.
Le SECAM aurait pu réussir à supplanter le NTSC par exemple en Chine et au Japon, si la France n'avait pas été aussi protectionniste en taxant fortement les téléviseurs asiatiques importés (on se souvient encore en Asie de l'affaire des téléviseurs et magnétoscopes asiatiques bloqués en douane à Poitiers). Empêchés de produire en grand volume des appareils compatibles SECAM, l'Asie a sans problème produit à bas prix des appareils PAL et NTSC et les équipements de réception PAL ont même réussi leur percée aux états-Unis et au Japon (sauf pour la diffusion hertzienne, devenue assez marginale en raison de sa piètre qualité qui a été moteur de la percée des réseaux câblés dans ces pays, dont les abonnés se sont équipés de matériels bi-standards supportant la modulation PAL des réseaux câblés, dans sa variante M à 525 lignes à 60 Hz, pour pleinement profiter de la couleur améliorée, mais aussi du son stéréophonique bien meilleur en PAL qu'en NTSC et du télétexte codable aussi dans la bande passante restante).
La tentative de remplacement du SECAM par la norme D2MAC (modulation vidéo par paquets associée à un son numérique déjà exploitée par satellite et sur le câble) a été vite abandonnée avec l'émergence de la numérisation vidéo (qui deviendra le MPEG) dès 1993.
Le NTSC sera la première norme couleur à disparaître, tant son utilisation a été abandonnée et critiquée, au profit des réseaux câblés. La conversion totale de la télévision hertzienne de NTSC en PAL n'est plus aujourd'hui d'actualité, car les trois systèmes seront remplacés par la télévision numérique. Le SECAM doit normalement mourir en même temps que le PAL, toutefois, il est probable que le PAL survivra plus longtemps en raison de sa compatibilité mondiale avec pratiquement tous les équipements vidéos. Il restera parfois la modulation locale pour les autres appareils et il est probable que celle-ci sera partout en PAL (ou PAL-M aux états-Unis pour sa version 60 Hz), voire aussi de plus en plus en YUV en analogique sans modulation, ou en numérique direct (par une connexion vidéo DVI avec un port son numérique, ou un port HDMI combinant les deux) cette dernière possibilité permettant l'exploitation des protections DRM.
Définition
Le grand public étant plus habitué a parler en définition du type 720*576 qu'en termes de bande passante de "3,6 MHz" pour du 625 lignes, ou qu'en termes de qualité type "500 lignes" essayons de définir une équivalence en définition de Y, Db et Dr.
Les trois systèmes commencent par transformer le signal RVB ou le R le V et le B sont analysés en 576 lignes (488 en NTSC et PAL 60) en disons YUV ici pour simplifier la comparaison.
En SECAM : Puis le Y reste sur 576 lignes. Le U et le V sont ramenés à 288 lignes ou le U provient des lignes paires et le V des lignes impaires (en fait ça change à chaque demi images).
Le Y est modulable en amplitude sur 6 MHz dans un canal 7 MHz en France pour rester compatible avec les téléviseur à la norme L (norme noir et blanc 625 lignes) .Le U et le V en fréquence sur ce même canal de manière alternative à respectivement 4,40625 MHz et 4,25 MHz
En SECAM la durée d'une ligne est de 64 µs dont 52 µs Dès lors le SECAM est bridé à :
Y = 3600000 / 25 / 625*(52/64)*2 ⇒ 374 valeurs discrètes Y par lignes.
U et V sont modulés en fréquence un ligne sur 2 donc respectivement à 4,40625 / 2 MHz et 4,25 / 2 MHz on à donc.
U= (4406250 / 2) / 25 / 625*(52 / 64)*2 ⇒ 229 valeurs discrètes U pour deux lignes.
V= (4250000 / 2) / 25 / 625*(52 / 64)*2 ⇒ 221 valeurs discrètes V pour deux lignes.
En PAL :
Y = 4000000 / 25 / 625*(52 / 64)*2 ⇒ 416 valeurs Y lignes.
U = V = (2570000 / 2) / 25 / 625*(52 / 64)*2 ⇒ 133 valeur U par lignes, 133 valeurs V par lignes.
En NTSC :
Y =(3200000) / 30 / 525*(52 / 64)*2 ⇒ 330
U =V = (1500000) / 30 / 525*(52 / 64)*2 ⇒ 206
Définitions effectives des composites
- SECAM PAL NTSC Y 374*576 416*576 330*488 U 229*288 133*576 154*488 V 221*288 133*576 154*488
D2-mac
Alors qu'avec le système PAL toutes les informations (signal noir et blanc, couleur et son stéréo) sont transmises simultanément et nécessitent plusieurs porteuses et des équipements de filtrage pour les séparer à la réception. En D2-MAC toutes les composantes de l'image sont transmises successivement après compression temporelle.
Le D2-MAC ou D2 Mac Paquets est une norme de télévision intermédiaire entre analogique et numérique du fait qu'elle combine un signal vidéo analogique et un traitement numérique avec un signal audio numérique proche du format de télédiffusion terrestre Nicam.
Le D2 Mac est compatible avec le format 16 / 9 ainsi qu'avec la TVHD (une norme spécifique a été définie à cet effet : HD Mac).
Ce système intègre des circuits électroniques et des logiciels intégrés. Il consiste à traiter la vidéo analogique en comprimant selon une base de temps, les composantes de luminance et de chrominance pour juxtaposer séquentiellement ces signaux. Le signal audio est numérique et codé au format MIC.
Les laboratoires français du CCETT (Centre commun d'études de télédiffusion et télécommunications) ont fait évoluer le D2 Mac par un multiplexage numérique de données au mode paquet. La terminologie officielle de la norme est D2-MAC / Packet (norme ETSI : ETS 300 250). Le préfixe D2 signifie duobinaire demi-débit car le codage en ligne des données est réalisé par un code dit duobinaire. Le terme demi-débit est introduit car il y a eu plusieurs variantes :
D2-MAC contient des données à 10,125 Mbit/s
Toutefois, la norme D2 Mac est abandonnée le 1erjanvier 2000 au profit du DVB MPEG-2.
Le standard D2-MAC mis au point à partir de 1985, a arrêté sa diffusion depuis le 1erjuillet 2006
HD-mac
HD-mac est une norme de transmission analogique de la télévision à Haute définition qui fut proposée par la Commission européenne en 1986.
C'est un membre de la famille des standards mac (Multiplex of Analog Components). Il faisait partie intégrante du projet Eureka 95 et constituait une première tentative de la CEE de déployer la télévision à Haute définition (TVHD) en Europe. C'était un mélange complexe de signaux vidéo analogiques, multiplexés avec une partie numérique comprenant le son et des données d'assistance au décodage (DATV). Il fournissait 25 images au format 16 / 9 par seconde, chacune comprenant 1250 lignes, dont 1152 réellement visibles à l'écran. Le balayage était entrelacé, aboutissant à une fréquence de trame de 50 hz, comme pour les émissions PAL / SECAM classiques. Le signal était construit au moyen d'un encodeur D2-mac modifié.
Convention de notation
largeur x hauteur [type de balayage : i ou p] / nombre d'images complètes par seconde
Ainsi, le format 1280x720p / 60 diffuse à chaque seconde 60 images de 1280 pixels de large sur 720 de haut, en balayage progressif: les lignes sont transmises dans l'ordre naturel: 1,2,3,4,....
Le format des émissions européennes en définition standard est 720x576i / 25, soit 25 images par seconde de 720 pixels de large sur 576 de haut, en balayage entrelacé : les lignes impaires 1, 3, 5 ... sont regroupées dans la trame impaire, transmise en premier, puis celle-ci est suivie de la trame paire avec les lignes 2,4,6,... Il y a donc deux trames par image soit une fréquence de trame de 25 x 2 = 50 Hz.
Un recepteur HD-mac produisait un signal au format utile 1440x1152i / 25, soit exactement le double des résolutions horizontales et verticales de la définition standard et contenant théoriquement quatre fois plus d'informations au total.
HD-mac pouvait être décodé par des récepteurs D2-mac, mais en SDTV: dans ce mode, la résolution affichable se réduisait à la définition standard de 576 lignes (entachées de certains artefacts). Pour extraire la pleine résolution du signal, un décodeur HD-mac spécifique était requis.
Transmission
Dans le cas du HD-mac, le canal de transmission doit garantir une bande passante d'au moins 11.14 MHz en bande de base. La norme évoque la possibilité de faire passer le signal dans des canaux à 8 Mhz, mais dans ce cas, les données d'assistance ne peuvent plus être décodées correctement et on ne peut en tirer qu'une image en définition standard, au moyen d'un récepteur D2-mac. Pour conserver toutes ses qualités au signal, il faut donc tabler sur un espacement standard des canaux de 12 MHz sur un réseau câblé. Pour la transmission par satellite, du fait de l'élargissement du spectre provoqué par la modulation de fréquence, la capacité d'un transpondeur complet devait être utilisée, soit 27 à 36 MHz de largeur de bande. A noter que la situation est similaire en définition standard : un transpondeur ne peut héberger qu'une seule chaîne analogique. Le passage en HD ne constitue donc pas un handicap particulier dans ce contexte.
Tribulations du standard
En mai 1986, les travaux sur la norme HD-mac furent officiellement lancés. Il s'agissait de contrer la proposition japonaise, soutenue par les américains et qui aurait conduit à faire du système conçu par la NHK une norme mondiale. Cette initiative visait bien entendu à préserver la compétitivité de l'industrie européenne, mais également à produire un standard compatible avec la fréquence de trame de 50 Hz utilisée par la majorité des pays du monde. A vrai dire, le 60 hz de la proposition japonaise n'était pas sans causer quelques inquiétudes aux américains eux-mêmes, car leur infrastructure en définition standard, basée sur le NTSC M, reposait sur une fréquence réelle de 59.94Hz. Cette différence apparement mineure était en fait susceptible de provoquer des difficultés non négligeables.
Au mois de septembre 1988, les japonais effectuaient la première retransmission des jeux olympiques en haute définition, au moyen de leur procédé Hi-Vision (la NHK produisait des programmes à ce format depuis 1982). Simultanément, durant ce même mois de septembre, l'Europe présentait pour la première fois une alternative crédible, sous la forme d'une chaîne complète de transmission HD-mac, à l'IBC 88 à Brighton .
A l'occasion des Jeux olympiques d'hiver de 1992 et des Jeux olympiques d'été de 1992, des démonstrations publiques de diffusion en HD-mac eurent lieu. 60 récepteurs HD-mac pour les jeux d'Albertville et 700 pour les jeux de Barcelone furent mis en place dans les "Eurosites" afin de démontrer les possibilités du standard. Un Vidéoprojecteur tritube HD 1152 lignes était employé pour restituer une image de quelques mètres de large. on trouvait également quelques téléviseurs cathodiques HD 16 / 9 Thomson "Space system". Le projet pouvait aussi utiliser des téléviseurs à Rétroprojecteur. De plus, quelque 80000 possesseurs de récepteurs D2-mac furent en mesure de suivre la retransmission (en définition standard, toutefois). on estime que 350.000 personnes en Europe purent voir cette démonstration de TVHD européenne. Ce projet était financé par la CEE. Le signal, après conversion en PAL, était exploité par des opérateurs officiels .
Le spectre disponible en UHF étant rare, HD-mac n'était exploitable "de facto" que par les opérateurs du câble et des satellites, qui étaient moins limités en bande passante. Cependant, le standard ne devint jamais populaire parmi les opérateurs. De ce fait, la Haute définition analogique ne put jamais remplacer les émissions conventionnelles aux formats SECAM, rendant les récepteurs HD-mac peu attractifs aux yeux des consommateurs potentiels.
Il avait été imposé à tous les opérateurs de satellite de forte puissance d'utiliser le standard mac à partir de 1986. Cependant, le lancement de satellites de moyenne puissance par SES et l'utilisation du PAL leur permit de contourner le HD-mac, réduisant ainsi leur cout de diffusion. HD-mac (la variante haute définition du mac) demeura malgré tout pour les liens intercontinentaux par satellite.
Le standard HD-mac fut abandonné en 1993 et, depuis lors, tous les efforts de l'Union européenne et de l'UER ont été concentrés sur le système DVB (Digital Video Broadcasting), qui est capable de transmettre aussi bien la définition standard que la haute définition.
Détails techniques
La réduction de bande passante
Le signal était capturé à la cadence de 50 images complètes par seconde (balayage progressif), chacune d'entre elles bénéficiant d'une définition de 2048×1152 pixels (il pouvait donc être décrit par la notation 2048x1152p/50). L'image était au format 16 / 9, avec des pixels carrés. Cette qualité, cependant, n'était disponible qu'en studio, par exemple pour des applications telles que le cinéma électronique, ou comme source d'entrée pour l'encodeur HD-mac qui ne pouvait transmettre qu'une partie réduite de ce flux d'informations vidéo.
on commençait par un rééchantillonage qui ramenait la résolution horizontale à 1440 pixels, soit le double des 720 points de la SD.
Pour accroître la résolution horizontale, dans la norme D2-mac, il suffit d'augmenter la bande passante. C'était facile à réaliser dans la mesure où, contrairement au PAL,le son n'est pas transmis sur une sous-porteuse séparée, mais multiplexé avec l'image. Malheureusement, il était plus complexe d'augmenter la définition verticale, car la fréquence de ligne devait être maintenue à 15.625 Hz pour rester compatible avec le D2-mac. Ceci laissait trois possibilités:
50 images par seconde avec 288 lignes pour les scènes en mouvement rapide (mode 20 ms)
25 images par seconde avec 576 lignes pour les scènes en mouvement modéré (mode 40 ms)
12,5 images per seconde avec la totalité des 1152 lignes pour les mouvements lents (mode 80 ms)
Le choix à l'encodage se faisait non pas pour l'image entière, mais individuellement, sur chacun des petits blocs de 16x16 pixels qui la composaient. on insérait ensuite dans le flux numérique DATV intégré au multiplex mac les informations permettant de contrôler la méthode de reconstruction que le décodeur devrait utiliser. Pour décoder complètement l'image, la partie analogique du signal mac devait être numérisée, puis relue plusieurs fois à partir d'une mémoire.
Le mode 20 ms offre une définition temporelle améliorée, mais le mode 80 ms est le seul à offrir une haute définition spatiale, au sens où on l'entend habituellement. Il tire parti de sa cadence réduite de 12,5 i / s pour répartir le contenu de l'image HD sur 2 images SD, soient 4 trames de 20 ms = 80 ms, ce qui justifie son appellation.
Mais cela est insuffisant, car une image HD contient l'équivalent de 4 images SD. Pour aller plus loin, on ne conserve qu'un pixel sur deux de chaque ligne horizontale. Ce sous-échantillonnage est réalisé "en quinconce" : si sur chaque ligne les pixels sont numérotés indépendament de 1 à 1440, sur la première ligne on conserve les pixels 1,3,5... Sur la ligne suivante, on prend les pixels 2,4,6... Puis à la ligne suivante à nouveau 1,3,5.. De cette manière, on conserve de l'information sur toutes les colonnes de l'image HD. A la réception, chaque pixel manquant est entouré de 4 pixels transmis sauf sur les bords de l'image et peut être remplacé par une interpolation à partir de ceux-ci.
Le cumul de ces opérations aboutissait à une compression d'un facteur 4:1 qui permettait au signal haute définition de passer au travers d'un canal D2-mac standard. Le décodeur était alors en mesure de reconstruire à partir de ces informations une image au format 1440x1152i / 25, entrelacée, avec une fréquence de trame de 50 Hz et toujours au format 16 / 9, mais cette fois avec des pixels rectangulaires.
Note: La norme ne spécifie pas explicitement le format de l'image que doit délivrer le récepteur. Ainsi un système capable d'un balayage à 100 Hz, par exemple, aurait pu tirer un meilleur parti des informations produites par le mode 20 ms...
Le balayage progressif
on se réfère généralement aux systèmes européens comme à des standards 50 hz (fréquence de trame). Il faut cependant réaliser qu'aucun élément de l'image n'est rafraichi à cette fréquence. Un point fait forcément partie d'une trame paire ou impaire et une seule trame d'un type donné est transmise à chaque image. Le rafraichissement se fait donc à la cadence d'image, soit seulement 25 fois par seconde. Le mode 20 ms du HD-mac implique un véritable rafraichissement à 50 Hz, d'où l'interêt des caméras 50P (la norme prévoit aussi la possibilité d'un balayage 100 Hz entrelacé).
Il faut signaler que l'encodeur pouvait travailler en mode opératoire Caméra, dans lequel les trois modes de codage étaient exploités,mais également en mode opératoire film, qui ne recourait pas au mode de codage 20 ms. Dans ce cas, il était possible de se contenter d'une source 50 hz entrelacée à l'entrée du décodeur.
Les images théoriquement produites par ces caméras (2048x1152p / 50) représentaient un débit de pixels presque deux fois plus élevé que celles du sytème Hi-Vision (1920x1035i / 30), mais le format HD-mac ne pouvait en retransmettre qu'une fraction ,le système MUSE en japonais, également basé sur des techniques de sous-échantillonage, imposait des restrictions de même nature).

Les standards vidéo numérique


Utilisation des principaux formats de diffusion numérique dans le monde
Le Advanced Television Systems Committee (ATSC) est le groupe qui a contribué au développement du nouveau standard de télévision numérique aux états-Unis, qui porte le même nom. Celui-ci a été aussi adopté par le Canada, le Mexique et la Corée du Sud. Il doit remplacer le système analogique NTSC actuel. Il peut produire des images de type Wide Screen 16:9 de résolution maximum 1920 × 1080 pixels, soit six fois mieux que l'ancien système NTSC. Différentes tailles d'image sont supportées. Jusqu'à six canaux virtuels SDTV peuvent être inclus dans une émission simple. ATSC se vante également d'avoir une qualité audio de type cinéma parce qu'elle emploie le format Dolby Digital (AC-3) qui fournit du 5.1 surround. Un nombre important de services de type données peuvent également être fournis.
ATSC coexiste avec les normes DVB et ISDB.
Les diffuseurs ATSC doivent maintenir un signal analogique sur deux canaux séparés, parce que le système ATSC exige l'utilisation d'un canal entier de 6 MHz. Celui-ci a été critiqué car il est considéré comme compliqué et cher à mettre en oeuvre et à employer. Beaucoup d'aspects de l'ATSC sont brevetés, comme le codage audio AC-3 et la modulation VSB.Les standards ATSC sont souvent ambigus, un exemple est la norme EIA-708 pour les sous-titres.
OFDM
L'OFDM est un procédé de codage de signaux numériques par répartition en fréquences orthogonales sous forme de multiples sous-porteuses. Cette technique est le meilleur moyen actuellement pour lutter contre les canaux sélectifs en fréquence. Ces canaux se manifestent en présence de trajets multiples et en haut débit. C'est la raison pour laquelle on trouve cette technique largement adoptée dans la plupart des applications à très haut débit.
DMT et COFDM désignent le même principe avec en plus un codage de l'information pour ce dernier).
L'OFDM est un procédé de codage numérique des signaux qui est utilisé entre autres pour les systèmes de transmissions mobiles à haut débit de données. L'OFDM est particulièrement bien adapté aux canaux de transmission radio sur longues distances sans transmissions d'onde multiples (échos), il permet alors de réduire sensiblement les interférences inter-symboles. Par contre il peut devenir inutilisable dans le cas où les échos sont forts, il faut alors utiliser COFDM.
L'OFDM (ou une technique comparable) est utilisé dans :
Principe
Le principe de l'OFDM consiste à répartir sur un grand nombre de sous-porteuses le signal numérique que l'on veut transmettre. Comme si l'on combinait le signal à transmettre sur un grand nombre de systèmes de transmission indépendants et à des fréquences différentes.
Pour que les fréquences des sous-porteuses soient les plus proches possibles et ainsi transmettre le maximum d'information sur une portion de fréquences donnée, l'OFDM utilise des sous-porteuses orthogonales entre elles. Les signaux des différentes sous-porteuses se chevauchent mais grâce à l'orthogonalité n'interfèrent pas entre elles.
En codage orthogonal, l'espacement entre chaque sous-porteuse doit être égal à Δf = k / (TU)hertz, où TU secondes est la durée utile d'un symbole et k est un entier positif, généralement égal à 1. Par conséquent, avec N sous-porteuses, la largeur totale de la bande passante sera de B ≈ N·Δf (Hz).
L'orthogonalité permet également une haute efficacité spectrale, le débit total s'approchant du débit de Nyquist, la bande passante étant quasiment utilisée dans son intégralité. Le multiplexage orthogonal produit un spectre de fréquence presque plat (typique d'un bruit blanc), ce qui entraîne un minimum d'interférences avec les canaux adjacents. Un filtrage séparé de chaque sous-porteuse n'est pas nécessaire pour le décodage, une Transformée de Fourier FFT étant suffisante pour séparer les porteuses entre elles.
Le signal à transmettre est généralement répété sur différentes sous-porteuses. Ainsi dans un canal de transmission avec des chemins multiples où certaines fréquences seront détruites à cause de la combinaison destructive de chemins, le système sera tout de même capable de récupérer l'information perdue sur d'autres fréquences porteuses qui n'auront pas été détruites. Chaque sous-porteuse est modulée indépendamment en utilisant des modulations numériques : QPSK, QAM-4, QAM-16, QAM-64,
Ce principe permet de limiter l'interférence entre symboles. Pour l'éliminer, on peut ajouter un intervalle de garde (c'est-à-dire une période pendant laquelle il n'y a aucune transmission) après chaque symbole émis, très grand devant le délai de transmission (la distance séparant l'émetteur du récepteur divisée par la vitesse de la lumière).
Le décodage OFDM nécessite une synchronisation très précise de la fréquence du récepteur avec celle de l'émetteur. Toute déviation en fréquence entraîne la perte de l'orthogonalité des sous-porteuses et crée par conséquent des interférences entre celles-ci. Cette synchronisation devient difficile à réaliser dès lors que le récepteur est en mouvement, en particulier en cas de variation de vitesse, de direction ou si de nombreux échos parasites sont présents.
Description mathématique
L'équivalent passe-bas d'un signal OFDM est exprimé ainsi :
v (t) = N-1Σk=0 Ikei2πkt / T, 0 ≤ t < T

{Ik} sont les symboles de donnée
N est le nombre de sous-porteuses
T la durée du bloc OFDM.
L'espacement entre porteuses de 1 / T Hz rend les sous-porteuses orthogonales entre elles ,cette propriété est exprimée ainsi :
1 / T ∫0T (ei2πk1t / T) * (ei2πk2t / T) dt = 1 / T ∫0T ei2π(k2 - k1) t / T dt = {1, k1 = k20, k1 ≠ k2}
où (.)*
correspond à l'opérateur conjugué complexe.
Pour éviter l'interférence inter-symboles dans un environnement de propagation multichemins
un intervalle de garde -Tg ≤ t < 0
où Tg est la période de garde, est inséré avant le bloc OFDM
Pendant cet intervalle, un préfixe cyclique est transmis
Ce préfixe cyclique est égal au dernier Tg du bloc OFDM
Le signal OFDM avec le cyclique préfixe est donc
v (t) = N-1Σk=0 Ikei2πkt / T, -Tg ≤ t < 0
Le signal passe-bas ci-dessus peut soit être constitué de valeur réelles ou complexes.
Pour le signal à valeurs réelle celui-ci est généralement transmis en bande de base et exprimé ainsi
s (t) = R {v (t) ei2πƒct}
Le signal en bande de base à valeurs complexes est par contre modulé à une fréquence supérieure ƒc.
COFDM
COFDM est un procédé qui associe un codage de canal OFDM et une modulation numérique des signaux individualisés.
Principe
Le principe de l'OFDM consiste à diviser le canal en sous-canaux et à effectuer une transmission sur chacun d'eux par modulation numérique. Cette méthode permet de corriger des multitrajets longs mais ne suffit pas si ces multitrajets sont forts, certaines fréquences (donc certains sous-canaux) peuvent alors être très fortement atténués. Si en plus le récepteur est fixe, comme c'est le cas par exemple pour la télévision terrestre, ces interférences vont se prolonger rendant impossible l'utilisation des sous-canaux concernés.
Afin de résoudre ce problème, COFDM utilise un codage correcteur d'erreur associé à un entrelacement entre fréquences. on parvient ainsi à se rapprocher des performances d'un canal sans écho.
Applications
Cette méthode est employée notamment par la norme DVB-T utilisée en France pour la télévision numérique terrestre.
Les systèmes de radiodiffusion numérique DAB et DMB utilisent également le procédé de codage de canal COFDM.
T-DMB
La T-DMB est un système de diffusion numérique terrestre basé sur le Digital Audio Broadcasting (DAB) créé en Corée du Sud et développé et standardisé dans ce même pays, ainsi que par le projet européen EUREKA 147, regroupant des diffuseurs, constructeurs, centres de recherches et opérateurs. Ce système est déjà totalement utilisé en Corée du Sud et au Brésil et les normes sur lesquelles il est construit permettent la réception optimisées des signaux télévisuels sur tout type d'appareil multimédia mobile, disposant d'un tuner compatible. Cet avantage unique a eu pour effet de faire de la Corée du Sud, le pays du Monde ayant la plus forte pénétration de l'usage de la télévision.
Description
Ce mode de diffusion est très robuste en mobile grâce à la modulation utilisée (DQPSK). Il a été développé pour la diffusion de la télévision en mobilité sur des appareils de petites dimensions tels que des téléphones mobiles ou des PDA.
Ce mode est standardisé à l'ETSI depuis juin 2005 sous les numéros TS 102 427 et TS 102 428. Cette norme a été amendée en 2009 pour y ajouter un profil radio. Le T-DMB fait partie intégrante des trois profils de récepteur de radio numérique définis dans le cadre du projet Eureka 147.
Ce standard est conçu pour transmettre des services de radio ou de télévision. Le T-DMB utilise un codage audio et vidéo très performants. Le T-DMB permet également de diffuser des applications interactives BIFS . Les composantes audio, vidéo et BIFS sont synchronisés grâce au MPEG4-SL et sont transportées dans un flux MPEG-2 TS. Le T-DMB permet de diffuser 9 services radio ou 3 services de télévision par multiplexe.
ISDB
L'ISDB est une norme japonaise de diffusion de télévision et radio numérique. Elle comporte plusieurs sous-normes, qui sont l'ISDB-T (pour la diffusion dite terrestre), l'ISDB-S (pour la diffusion par satellite) et l'ISDB-C (pour la diffusion par câble). L'ISDB-T est elle-même découpée en deux normes dites 1seg et 13seg, la première étant prévue pour la réception sur appareil mobile.
Cette norme est principalement utilisée au Japon et au Brésil. Elle fut définie par l'ARIB, une organisation de standardisation japonaise. La vidéo diffusée est encodée au format MPEG-2.
L'accès conditionnel, qui permet de n'autoriser que certains terminaux à afficher certaines chaînes (pour la télévision payante par exemple), est défini dans la norme ARIB STD-B25. Cet accès conditionnel fait appel à l'algorithme de chiffrement par bloc MULTI2.
DVB
Digital Video Broadcasting (abrégé en DVB et qu'on pourrait traduire par diffusion vidéo numérique), est un ensemble de normes de télévision numérique édictées par le consortium européen DVB et utilisées dans un grand nombre de pays. Ses principales concurrentes sont les normes ATSC et les norme ISDB .
Historique
Le projet DVB a commencé la première phase de son travail en 1993 à la même période où en Amérique du Nord, le forum "Grand Alliance" organise également le même type de développements, avec en ligne de mire, la télévision numérique puis la Haute Définition. Il faut souligner que certains acteurs impliqués participent à la fois aux deux forums concurrents mais dont les objectifs sont similaires, notamment les Européens Philips Consumer Electronics et Thomson Consumer Electronics. Cette double implication favorise successivement l'adoption de plusieurs normes parmi lesquelles, le MPEG-2, les modulations QPSK et OFDM ainsi qu'une série de brevets dont les licences sont pratiquement mises en commun. Le projet DVB exploite également l'expérience acquise par les mêmes acteurs pour le développement, le lancement et l'exploitation des normes analogiques de télévision améliorée en Europe : le D2 Mac, le HD Mac
La philosophie du projet DVB
Détail
La tâche principale consiste à développer une suite complète de technologies de diffusion de télévision numérique par satellite, par câble et par antenne radio sous forme de pré-standardisation
Plutôt qu'associer un unique programme par canal (ou fréquence porteuse) de télédiffusion, le système DVB doit s'apparenter à un récipient qui transporte une combinaison de sources vidéo, audio et données multimédias. Il doit être ouvert (compatible) et évolutif vers la SDTV (résolution standard), l'EDTV (résolution améliorée) et la future HD TV, le format 16 / 9, le son multicanal surround et pouvoir véhiculer toute forme de média numérique à venir
L'objectif consiste à définir une série de normes au standard ETSI pour les "couches physiques" (combinaison des données de contenus diffusés), la correction d'erreurs (compensation en réception) et le transport (transmission) pour chaque mode de diffusion
Un rapport ETSI doit décrire les principaux systèmes de bande de base représentant des options pour la transmission
Dans la mesure du possible, afin de réduire les coûts industriels, le DVB doit intégrer des points communs entre les différentes plates-formes de diffusion et déboucher sur des solutions accessibles au marché grand public.
Le projet de DVB n'a pas pour but de réinventer mais consister à réemployer, officialiser et harmoniser les normes ouvertes existantes, dès lors qu'elles sont disponibles.
Technique
Démystification
Bien que les normes DVB ne définissent qu'une partie du processus de la télévision numérique, ces normes représentent une grosse partie de ces technologies.
Avec l'arrivée de l'encodage de la vidéo et de l'audio, il devenait possible de transmettre plus de services dans une bande passante devenue bien trop étroite pour les fournisseurs de contenu désirant offrir plus de chaînes, ainsi que des chaînes plus ciblées.
MPEG2 permettant enfin une qualité broadcast, il suffisait donc de définir une norme permettant l'interopérabilité des équipements depuis l'encodage et jusqu'au décodeur final (terminal) installé chez le téléspectateur.
En sortie de studio, le signal numérique n'est pas encore exploitable pour la transmission télévisuelle. Ces signaux sont traités par des encodeurs afin de séparer la vidéo, la ou les pistes audio(s) ainsi que le télétexte. L'encodage comprend aussi une partie compression de données et pour cela, la plus utilisée aujourd'hui est encore la norme MPEG-2 qui se voit lentement remplacée par la norme MPEG-4.
Ensuite, tous ces services encodés sont multiplexés afin d'y ajouter d'autres fonctionnalités telles que les sous-titres DVB, les applications interactives, l'accès conditionnel permettant la protection du contenu, la protection de l'individu par type de contenu (enfant, adulte) et sa commercialisation.
Durant le processus de multiplexage, les différents services (chaînes, jeux, radio) sont assemblés en flux de transport (TS, Transport Stream) par l'adjonction des tables DVB. Chaque TS peut ainsi transporter jusqu'à 20 chaînes de télévision, voire plus, dépendamment du mode de transport et de la qualité d'encodage voulus.
Une fois ce processus terminé, ces flux sont transmis soit sous la forme d'un bouquet numérique vers les clients finaux qui devront donc posséder un décodeur (Set-top box) compatible qui fera le processus inverse : démultiplexage, vérification des droits d'accès, décodage et transmission vers la télévision, soit par un modulateur PAL, soit par une sortie Peritel (SCART) ou encore sous la forme d'un signal composite pour la vidéo et analogique pour l'audio.
Globalement, la norme DVB entre donc en jeu depuis la mise en multiplex jusqu'à la sortie du décodeur final.
Diffusion des programmes
Le DVB est surtout une norme qui concerne la signalisation diffusée dans le flux (les tables DVB), ainsi que la couche matérielle en fonction du mode de transmission qui permet à tout décodeur DVB de retrouver les programmes reçus.Par définition, elle enrichit les normes utilisées pour la transmission numérique sans réinventer la roue. Les différents canaux numérisés (de télévision principalement, mais aussi de radio) sont multiplexés : ils sont séparés en audio, en vidéo, en données, découpés en paquets, les différents paquets, provenant d'une ou plusieurs sources, sont transmis en série, en utilisant la technique FIFo .
Un programme de TV se compose donc du flux de la composante vidéo, du flux de la composante audio, du flux des sous-titres en français, du flux des sous-titres en anglais etc. Chacun de ces paquets est appelé flux élémentaire et est estampillé d'un numéro unique d'identification, ou Packet IDentifier (PID). En sortie du multiplexeur se trouve donc soit un MPTS contenant plusieurs programmes, soit un SPTS contenant un seul programme. Les tables DVB servent à définir chacun de ces flux élémentaires et à les associer les uns aux autres.
MPEG2 PSI (Program Specific information)
PID Abbr Nom Description 0x0000 PAT Program Association Table Liste les PMT et la NIT 0x0001 CAT Conditional Association Table Fournit les informations sur le système d'accès conditionnel, ainsi que la localisation de l'EMM 0xnnnn PMT Program Map Table Identifie et indique la localisation des flux contenus dans chaque service, ainsi que la localisation du PCR pour chacun des services
DVB SI (Service Information)
PID Abbr Nom Description 0x0010 NIT Network Information Table Fournit les informations au sujet du réseau physique 0x0011 SDT Service Description Table Décrit les services du système 0x0011 BAT Bouquet Association Table Décrit les services d'un bouquet (n'est donc pas limité à un seul réseau). 0x0012 EIT Event Information Table Décrit les événements des services : par exemple nom de l'événement, heure de départ, durée etc. 0x0014 TDT Time Definition Table Fournit l'information sur la date et l'heure au format UTC. 0x0014 ToT Time offset Table Fournit l'information sur la date et l'heure au format UTC, ainsi que le fuseau horaire.
Particularité
PMT
on peut trouver une ou plusieurs PMT par TS.Mais c'est soit l'un, soit l'autre.S'il y a plusieurs PMT dans un TS, il y en aura autant que de services présents.
NIT et SDT
La NIT et la SDT fournissent différentes informations, selon que la table transmet les informations du flux Transport Stream courant, ou bien celle des autres flux TS présents sur le réseau. on parle alors de NIT Actual ou SDT Actual pour le flux sur lequel le décodeur est syntonisé.
EIT
En raison de la quantité d'informations à transporter, la table EIT est divisée en plusieurs sous-divisions.
Détail
EIT actual p / f fournit les informations sur les évènements présents et suivants pour le présent Transport stream
EIT actual sch fournit les informations futures sur les évènements à venir sur le présent Transport Stream
Les descripteurs
Pour permettre au décodeur de gérer efficacement les flux élémentaires, une série de descripteurs sont définis par DVB et sont inclus dans les tables.Ces descripteurs définissent par exemple le type du flux élémentaire vidéo (MPEG2, MPEG4), le type du flux élémentaire audio (MPEG1, MPEG2 ), mais aussi le langage de l'audio, ou bien encore le type du service.
Type de service
DVB définit aussi quel est le type de chaque service. En effet, il est apparu utile, pour ne pas dire nécessaire, de pouvoir classer les services en fonction du type de contenu, afin de permettre, entre autres, un meilleur agencement des services avec les applications spécifiques présentes sur le décodeur du client final.
Liste de services les plus courants
Type Définition 0x01 Digital television service 0x02 Digital radio sound service 0x03 Teletext service 0x06 Mosaic service 0x11 MPEG-2 HD digital television service 0x16 MPEG-4 SD digital television service 0x19 MPEG-4 HD digital television service
Numérotation
Pour une navigation simplifiée, l'utilisateur dispose d'une télécommande numérique permettant d'appeler une chaîne par son numéro. Si aucune numérotation n'est définie, il est dès lors impossible de reconstituer le service pour la majorité des décodeur, même si certains d'entre eux permettent d'associer un PID audio et un PID vidéo avec un PID PMT.
Pour faire l'économie de la numérotation (1 à 999 défini par la norme) il est possible d'utiliser une application qui fera une liste des programmes par type et offrira une page de navigation. C'est le cas pour la plupart des applications radio et pour les applications interactives. Mais il reste toujours possible d'assigner un numéro pour une radio numérique, voire une application.
Voie de retour
La voie de retour est le moyen mis en oeuvre pour permettre la mise en application d'un certain nombre de services interactifs.
Par exemple permettre aux téléspectateurs de réagir sur un sujet en direct par l'adjonction d'une fenêtre posant une question multi-choix.
Mais aussi, la voie de retour permet d'interroger le décodeur sur son état, ou bien la carte d'accès conditionnel et bien d'autres encore, comme les statistiques audimat.
Dans la plupart des pays européens, il est interdit d'utiliser la voie de retour sur un client spécifique pour en obtenir des informations de marketing. Cependant, pour des opérations de maintenance, ou plus simplement d'amélioration des services, des sondages ponctuels sont effectués par secteur pour peaufiner la mise en oeuvre de nouveaux services.
Un certain nombre de normes DVB définissent, ou plutôt complètent, les spécifications existantes pour la voie de retour.
Cette voie de retour peut être n'importe quel moyen de transmission, même si aujourd'hui les opérateurs satellite utilisent le téléphone, tandis que les opérateurs câble utilisent le modem DoCSIS, alors que les opérateurs ADSL disposent par défaut d'une connexion bi-directionnelle.
Les normes
Afin de fournir une norme propre à chaque technologie de transmission, une norme existe pour chacune d'elles afin d'assurer une transmission parfaite des données depuis son point d'origine jusqu'au décodeur du client final, en respectant les spécificités propres à chaque média de transport.
En plus de définir la manière de transporter un flux DVB d'un point A vers un point B, plusieurs autres normes définissent l'interactivité, les sous-titres, l'accès conditionnel et bien d'autres.
Donc, pour un réseau donné, plusieurs normes seront mises en application pour se conformer au standard.
La liste des normes s'organise par champs d'application.
Liste des normes de la version 10 au mois d'août 2007 Normes Description - Transmission DVB-S Transmission satellite DVB-S2 Transmission satellite version 2 DVB-C Transmission câble DVB-CS Transmission satellite DVB-T Transmission terrestre DVB-T2 Transmission terrestre version 2 DVB-H Récepteur portable DVB-SH Récepteur portable transmission par satellite DVB-MDS Transmission satellite multipoint DVB-DSNG Transmission satellite temporaire - Multiplexage DVB-SI Définition des tables DVB-DATA Diffusion des données DVB-SSU Mise à jour logicielle des récepteurs DVB-TVA Enregistreur digital personnel DVB-GSE Données génériques - Encodage des sources DVB-MPEG Utilisation d'un système MPEG2 - Sous-titrage DVB-SUB Sous-titres - Interactivité DVB-NIP Service interactif, protocole non spécifié DVB-RCC Service interactif par câble DVB-RCP Service interactif par réseau commuté DVB-RCD Service interactif par DECT DVB-RCL Service interactif par LMDS DVB-RCG Service interactif par GSM DVB-RCCS Service interactif par satellite DVB-RCS Service interactif par satellite DVB-RCT Service interactif par transmission terrestre DVB-RCGPRS Service interactif par GPRS - MHP DVB-MHP Plate-forme multimédia DVB-PCF Contenu au format pour portable - Protection du contenu / Gestion des droits DVB-CPCM Protection du contenu / Gestion des droits - Interfaçage DVB-PDH Réseau PDH DVB-SDH Réseau SDH DVB-ATM Réseau ATM DVB-HAN Réseau HAN DVB-HLN Réseau HLN DVB-CI Interface commune pour l'accès conditionnel DVB-PI Interface pour CATV / SMATV et ASI DVB-IRDI Interface entrée / sortie décodeur - Protocole internet DVB-IPTV Par réseau IP DVB-IPDC IP datacast sur réseau DVB-H - Accès conditionnel DVB-CSAS Support de l'encryptage et de l'accès conditionnel DVB-SIM Simulcrypt - Analyse et mesure DVB-M Analyse et mesure des flux DVB / MPEG
DVB-C
La norme DVB-C est l'application de la norme DVB aux transmissions par câble.
Cette norme tient compte des caractéristiques d'une transmission sur câble :
La bande disponible est réduite : 8 MHz, il va donc falloir une efficacité spectrale importante
Le signal est protégé et amplifié, le rapport signal à bruit est bon
Les perturbations sont dues aux échos causés par une mauvaise adaptation de la prise utilisateur.
Pour obtenir une bonne efficacité spectrale, on utilise une modulation QAM-64 associée à un égaliseur linéaire ou DFE basés sur le critère du zero-forcing afin d'annuler l'interférence inter-symbole.
La norme DVB-C n'est pas compatible avec la norme DVB-T. Cependant, Philips, Technisat, Loewe, Sony, Metz,... commercialisent en Europe des TV avec tuner mixte DVB-T / DVB-C intégré, ce qui évite les récepteurs DVB-C externes pour les chaînes de TV en clair (ou cryptées, avec interface commune). Au Benelux, JVC commercialise aussi une série de TV LCD mais seulement MPEG-2.
En France, les téléviseurs fabriqués à partir de 2009 pour se voir appliquer le logo HD-TV, doivent nécessairement décoder le MPEG-4 HD et disposer d'un tuner TNT HD (DVB-T), mais les constructeurs anticipent en installant en plus le fameux tuner mixte DVB-T/DVB-C.
DVB-T
DVB-T pour Digital Video Broadcasting – Terrestrial est une norme de diffusion de la télévision numérique par liaisons hertziennes terrestres. Il s'agit de l'une des normes de la famille DVB qui comprend des normes de diffusion de la télévision numérique par différents moyens. Le DVB-T définit la méthode de transmission des services télévisés (audio, vidéo et données) ,il utilise une modulation OFDM avec une concaténation du codage de canal .
Principe
Cette norme tient compte des caractéristiques d'une transmission hertzienne :
bande disponible réduite : 8 MHz en TV
atténuation forte au niveau du récepteur, le rapport signal à bruit (SNR) est limité à 18,6 dB environ
interférence avec les canaux adjacents
Interférence Inter-Symboles (IIS) importante liée à des multitrajets longs (distance de propagation importante)
présence de bruit impulsif (dû aux moteurs, équipements électriques).
Pour une modulation classique, on serait limité par le SNR à une QPSK-6 ou QAM-25 et l'IIS s'étendrait sur plusieurs centaines de symboles. Il est donc préférable d'utiliser une modulation de type OFDM.
En l'occurrence, la présence éventuelle d'échos forts dus aux mauvaises conditions de réception (antennes non dégagées) impose le COFDM.
La norme DVB-T permet de mettre en place des réseaux isofréquence synchrones, ce qui permet d'économiser les fréquences en utilisant la même fréquence pour des émetteurs qui couvrent des zones adjacentes. Ce principe de réseau nécessite une synchronisation parfaite temporelle et fréquentielle de tous les émetteurs du réseau et est totalement transparent pour le récepteur.
Alternatives
Le T-DMB utilise un entrelacement temporel qui permet une meilleure correction des évanouissements rapides et donc une utilisation mobile. Par contre, la bande utilisée est plus étroite et l'efficacité spectrale réduite à cause du recours à une modulation QPSK.
ATSC est utilisé en Amérique du Nord.
ISDB-T est utilisé en Amérique du Sud.
DVB-H
Le DVB-H est un système de radiodiffusion numérique destiné à une réception sur terminal mobile. Les principales technologies concurrentes du DVB-H sont le T-DMB et l'ISDB-T .
Description technique
DVB-H est un standard de transmission vidéo élaboré par le projet DVB et édités par l'ETSI ou le CENELEC . DVB-H est une adaptation du DVB-T, le système pour la télévision terrestre numérique (TNT ), aux exigences des récepteurs de poche. DVB-H offre un canal descendant à haut débit utilisable tel quel ou en complément des réseaux de télécommunication mobiles.
Le codec vidéo utilisé est le MPEG-4 AVC. Les codecs audio possibles sont AAC, HE-AAC, HE-AAC v2.
La modulation numérique COFDM permet de résister aux échos et ainsi renforcer la réception mobile.
La technique de multiplexage par intervalle de temps permet de réduire la consommation électrique pour les petits terminaux, la partie réception radio n'ayant à fonctionner que pendant l'intervalle de temps dévolu au programme sélectionné.
Chaque intervalle de temps inclut des datagrammes IP qui peuvent contenir jusqu'à 2 Mbits de données incluant les éléments de contrôle d'un code de Reed-Solomon.
Le système DVB-H a été validé par l'ETSI et est conseillé par L'EBU.
Bien que spécifié pour des récepteurs fixes ou lents (piétons) le DVB-H fonctionnerait correctement dans des véhicules jusqu'à 70 km/h, d'après l'opérateur .
Le standard DVB-H ne décrit que la partie de transmission de ce système imaginé par DVB sans indiquer les moyens d'exploitation des services IP ainsi transportés. Dans ce cadre, DVB propose une série de spécifications dites IP DataCast ( DVB-IPDC ), spécifications concurrentes du standard BCAST de l'oMA ( open Mobile Alliance ).
Il est à noter que les émissions mobiles (DVB-H) sont émises en polarisation verticale particulièrement dans les grandes agglomérations car elles sont mieux reçues dans ce mode de polarité.
Spécifications Datacast IP
Les spécifications IPDC over DVB-H décrivent donc un ensemble de composants qui visent à permettre le déploiement d'une offre commerciale de télévision mobile basée sur l'Internet Protocol . En effet, il est probable qu'une telle offre aura tout intérêt à tirer avantage des possibilités de communication symétrique bidirectionnelles et du système avancé de facturation offerts par les réseaux de téléphonie mobile . Dans cette optique, DVB-IPDC définit un système hybride combinant un réseau de radiodiffusion unidirectionnelle adapté à la télévision numérique mobile avec un réseau de communication mobile bidirectionnel de type GPRS ou UMTS .
DVB-IPDC est composé d'un ensemble de spécifications individuelles qui prises ensemble forment un système complet. Les points abordés sont : l'architecture du système, la description des principaux cas d'utilisation, le transport et l'interprétation de métadonnées sur le système (tables PSI / SI ), le guide de programmes électronique utilisé pour la découverte et la sélection de services, le système d'achat et de protection de services, les protocoles de distribution des contenus (content delivery protocol, CDP).
DVB-IPDC a été initialement développé pour être utilisé avec DVB-H au niveau de la couche physique, mais il est maintenant prévu que le système puisse être utilisé avec d'autres systèmes DVB de télévision numérique mobile (comme DVB-SH) et même d'une manière générale comme couche supérieure de tout système à base d'IP.
La plupart des spécifications ont d'ores et déjà été approuvées par l'ETSI. L'ensemble des documents est librement téléchargeable sur le site .
Fréquences
DVB-H est conçu pour travailler dans les bandes de fréquences suivantes :
Détail
VHF-III (174-230 MHz ) en cohabitation avec le DVB-T et le T-DAB
UHF-IV / V (470-830 MHz ) en cohabitation avec le DVB-T
Bande L (plage de 1,452 à 1,492 GHz ) Cette gamme de fréquences est aujourd'hui utilisée pour le T-DAB et le S-DAB
Des chaînes DVB-H peuvent coexister avec des chaînes DVB-T dans le même multiplex .Cependant certaines conditions sont nécessaires pour que cette compatibilité soit assurée. Il faut que le champ du signal DVB-T soit beaucoup plus important car on passe d'une réception par antenne fixe de toit à une réception sur une petite antenne avec aucun gain. Il faut également que la modulation soit changée car les choix techniques de la modulation sont pour une réception fixe alors qu'il faut une réception mobile.
La cohabitation entre le DVB-T et le DVB-H sur des canaux est difficile à réaliser car il y a une telle différence de champ entre la réception fixe de toit et la réception mobile dans un appartement que les récepteurs DVB-T se retrouvent désensibilisé. La norme spécifiant la fabrication des récepteurs indique que le différentiel de champ ne doit pas dépasser 29 dB alors que dans le cas de figure DVB-H / DVB-T, le différentiel est de 39 dB au minimum. Malgré la différence entre DVB-H et DVB-T, les récepteurs DVB-T peuvent afficher le niveau et la qualité de réception, lorsqu'ils détectent une émission DVB-H, mais ne peuvent, en général, pas mémoriser le signal. Lors d'une recherche automatique, ils "sautent" ce signal. Certains appareils DVB-T mémorisent le multiplex DVB-H, en le considérant comme radio, mais ne décodent pas les chaînes.
DVB-S
La norme DVB-S (Digital Video Broadcasting - Satellite) est l'application de la norme DVB aux transmissions par satellite.
Cette norme tient compte des caractéristiques d'une transmission satellite :
Détail
La bande disponible est relativement large : 36 MHz,
Canal de type AWGN
Signal fortement atténué et dominé par le bruit
Transmission en ligne directe.
Il faut donc utiliser une transmission efficace à faible rapport signal à bruit : on utilise une modulation QPSK associée à des codes évolués : un codage convolutif efficace pour réduire le taux d'erreur suivi d'un entrelaceur et d'un code de Reed-Solomon.
Des fabricants commercialisent en Europe des télévisions avec tuners DVB intégrés mixtes. Ces appareils permettent aux téléspectateurs de recevoir directement sans récepteur externe les chaînes de TV en clair (ou cryptées avec l'interface commune DVB-CI), par satellite, en MPEG 4 AVC ou MPEG 2, en HD ou SD.
DVB-S2
Le DVB-S2 est le standard le plus récent en matière de transmission du contenu multimédia par satellite. Il a été conçu, entre autres, pour remplacer la norme existante de diffusion de la vidéo numérique par satellite, le DVB-S. Le DVB-S2 a été développé en 2003 et a été ratifié par l'ETSI en mars 2005. Il est basé sur le DVB-S et le standard utilisé par les SNG.
Le nouveau standard couvrira aussi une gamme de services bien plus étendue que la seule diffusion tels que les services interactifs avec une voie retour via satellite. Dans ce cas et pour les utilisateurs grand public, la voie retour est assurée grâce a un autre standard, comme le DVB-RCS. La norme DVB-S2 permet aussi de réaliser des communications point-a-point ou point-a-multi-point lors des transmissions occasionnelles de certains événements.
afin de garantir la qualité de service requise par les différentes applications et d'exploiter les ressources spectrales d'une manière plus efficace, le DVB-S2 adopte a la fois un codage adaptatif et une constellation adaptative. ainsi et pour un service donné, la forme d'onde évolue d'une manière dynamique en fonction des conditions de propagation. Quatre schémas de modulation sont alors proposées, ces schémas sont données par la QPSK, 8PSK, 16 aPSK et 32 aPSK, la mise en forme étant assurée par un filtre en racine de Cosinus Surélevé avec des roll-off de 0.2, 0.25 ou 0.35. Dans le cas des modulations 16aPSK et 32aPSK le rapport des rayons entre les différentes sous-constellations est adapté aux taux de codage afin assurer de meilleures performances en puissance.
augmentation du débit
Le DVB-S est un protocole relativement ancien (1997), conçu pour prendre en compte des limitations techniques plutôt importantes, notamment en termes de bruit de phase dans les récepteurs.
De telles limitations étant dépassées aujourd'hui, un des enjeux de la norme DVB-S2 est d'augmenter le débit de transmission, en permettant l'utilisation de modulations plus performantes par exemple. Le DVB-S2 bénéficie également des dernières innovations en termes de codage grâce a l'utilisation de codes LDPC.
Un problème majeur des transmissions satellite est que la qualité du canal est très dépendante de la météo a laquelle est soumise le récepteur, ainsi que de la distance du satellite (dans le cas des satellites non-géostationnaire). Par exemple la transmission est meilleure par temps clair que par temps pluvieux. Dans le cas d'un satellite non-géostationnaire, la transmission est bien meilleure quand le satellite est au zenit que lorsqu'il est a l'horizon.
Ces variations dans la qualité du canal obligent donc a dimensionner un système de transmission en fonction des pires conditions possibles : le système est sous optimal le reste du temps. Cette utilisation sous-optimale concerne cependant plus de 90% de l'utilisation du système.
Le DVB-S2 prévoit donc des systèmes de modulation et de codage adaptatifs, ce qui permet de modifier les paramètres de transmission (modulation et codage) en fonction des paramètres courant de transmission. on parle de VCM et de aCM.
Services interactifs
Le DVB-S2 prévoit des systèmes de services interactifs.
Modulation
Les modulations utilisées pour la norme DVB-S2 sont des modulations de type aPSK. Ces modulations ont des enveloppes constantes, ce qui permet de dimensionner au mieux les amplificateurs embarqués dans les satellites et donc de gagner une place et une masse précieuses.
Les modulations utilisées sont les modulations QPSK, 8PSK, 16aPSK et 32aPSK.
Codage
Le codage canal adopté est une concaténation d'un code en bloc du type BCH et d'un code LDPC avec un processus de décodage itératif. La taille de l'entrelaceur est de 64800.
Trame DVB-S2
Dans le protocole DVB-S2, les données sont transmises sous formes de trames. ainsi, entre deux trames, la modulation et le codage peuvent être modifiées, ce qui permet de mettre en place des systèmes d'aCM ou de VCM.
Un trame est donc constituées :
D'un header : de symboles transmis grâce a une modulation très robuste (PI / 2-BPSK). Ces symboles transmettent les informations de modulation et de codage sur la partie "données" de la trame. Grâce a la modulation robuste employée, ces symboles peuvent être utilisés par le récepteur pour se synchroniser (en symboles, en phase et en fréquence).
D'une partie données. Deux types de trames peuvent être utilisées : les trames normales (64 800 bits) ou les trames courtes (16 200 bits). a noter que ce sont les tailles de trames en bits après codage, les trames binaires décodées auront donc des tailles variables en fonction du codage utilisé. Le nombre de symboles de la trame "physique" dépendra lui de la modulation utilisée.
modes de compatibilité avec le DVB-S
Le DVB-S2 prévoit un mode de compatibilité pour pouvoir commencer a être déployé en utilisant les mêmes récepteurs que ceux déployés pour le DVB-S. Dans ce cas, les récepteurs DVB-S pourront continuer a être utilisés avec les mêmes performances, tandis que les récepteurs DVB-S2 bénéficieront d'une performance accrue (utilisation d'une constellation 8PSK au lieu d'une simple QPSK). Dans ce cas, la transmission DVB-S2 ne se fait pas au maximum des possibilités.
Performances
Le tableau résume les performances des différents schémas que propose le standard. aucune perte liée aux imperfections du canal ou aux amplificateurs non linéaires n'est prise en compte lors de l'évaluation des performances. Cette perte est fonction de la constellation adoptée mais aussi du mode de transmission: mode mono-porteuse ou mode multi-porteuse.
La table 13 du standard décrit les différentes configurations DVB-S2 avec les C / N requis pour une transmission QEF .
Modcod C / N(dB) Efficacité Spectrale (dB) QPSK 1 / 4 -2,35 0,363143 QPSK 1 / 3 -1,24 0,486258 QPSK 2 / 5 -0,30 0,586573 QPSK 1 / 2 1,00 0,732487 QPSK 3 / 5 2,23 0,880224 QPSK 2 / 3 3,1 0,979445 QPSK 3 / 4 4,03 1,101831 QPSK 4 / 5 4,68 1,1757 QPSK 5 / 6 5,18 1,225676 QPSK 8 / 9 6,2 1,308482 QPSK 9 / 10 6,42 1,324898 8PSK 3 / 5 5,50 1,31851 8PSK 2 / 3 6,62 1,467136 8PSK 3 / 4 7,91 1,650461 8PSK 5 / 6 9,35 1,83597 8PSK 8 / 9 10,69 1,960009 8PSK 9 / 10 10,98 1,984598 16aPSK 2 / 3 8,97 1,953479 16aPSK 3 / 4 10,21 2,197575 16aPSK 4 / 5 11,03 2,344904 16aPSK 5 / 6 11,61 2,444579 16aPSK 8 / 9 12,89 2,609735 16aPSK 9 / 10 13,13 2,642475 32aPSK 3 / 4 12,73 2,74318 32aPSK 4 / 5 13,64 2,927087 32aPSK 5 / 6 14,28 3,051509 32aPSK 8 / 9 15,69 3,25767 32aPSK 9 / 10 16,05 3,298539
La diversité des schémas de codage canal et de modulation permet au standard DVB-S2 de s'adapter a un large champ d'applications dont les exigences sont différentes.
Dans le cas des services de diffusion de la vidéo et de la vidéo haute définition, la nouvelle norme permet un gain de 25% et 30% en efficacité spectrale par rapport aux standards existants équivalents.
L'adoption d'une forme d'onde adaptative dans le cas d'une transmission point-a-point interactive est bien plus intéressante. Les échanges des informations relatives au canal de propagation permettent de sélectionner la constellation et le taux de codage les plus appropriés aux conditions de propagation. Cette solution améliore la capacité d'un transpondeur bord d'un facteur qui varie entre 100% et 200%. En plus du gain obtenu en capacité, la liaison adaptative permet de garantir une meilleure disponibilité du système. L'échange des informations relatives aux conditions de propagation peut s'effectuer soit via le satellite même ou bien a travers une infrastructure terrestre.

Ultra HD Premium
C'est la certification officielle la plus élevée pour un téléviseur UHD. Elle est délivrée par l'Ultra HD Alliance aux téléviseurs.
Ultra Haute Définition offrant a minima les caractéristiques suivantes :
Résolution d'affichage : 3840 x 2160 pixels
Profondeur de couleurs : 10 bits
Espace colorimétrique : entrée HDMI compatible Rec.2020 et capacité à afficher 90% ou plus de l'espace colorimétrique DCI-P3 espace colorimétrique utilisé pour le cinéma numérique, couvrant environ 85% du spectre visible par l'oeil humain
Compatibilité HDR : luminosité maximale d'au moins 1000 cd / m² avec un niveau de noir inférieur ou égal à 0,05 cd / m² pour les téléviseurs LED ou luminosité maximale d'au moins 540 cd / m² avec un niveau de noir inférieur ou égal à 0,0005 cd / m² pour les téléviseurs OLED. La norme retenue est le standard ouvert connu sous l'appellation HDR 10
HDR10
>Il s'agit d'un standard basé sur une plate-forme ouverte, baptisé HDR 10 parce qu'il utilise une échelle de quantification des couleurs sur 10 bits. Chaque fabricant de téléviseurs qui l'utilise peut l'implémenter comme il le souhaite, elle est parfois mentionnée sous le terme HDR 1000 par certains fabricants de téléviseurs LCD LED. C'est la norme HDR retenue par l'UHD Alliance pour l'attribution du label Ultra HD Premium et l'étalonnage des films commercialisés sur support Blu-ray UHD. Elle est en concurrence avec le Dolby Vision, un standard HDR propriétaire développé par les laboratoires Dolby, utilisant notamment une quantification sur 12 bits.
HDR10+
Ce standard HDR a été développé par l'UHD Alliance pour concurrencer le Dolby Vision. Comme ce dernier, le standard HDR10+ exploite des métadonnées dynamiques intégrées au flux vidéo pour que le diffuseur compatible puisse en optimiser l'affichage, scène par scène. Ce standard ouvert est soutenu notamment par la 20th Century Fox, Panasonic Corporation et Samsung.
Dolby Vision
Le Dolby Vision est une technologie HDR développée par les laboratoires Dolby qui va plus loin que le standard HDR10. Elle propose une quantification sur 12 bits et surtout un véritable workflow, processus de mise en oeuvre du standard avec un contrôle rigoureux depuis l'étalonnage du master en post-production jusqu'au visionnage, seule garantie que l'image diffusée au spectateur final sera véritablement conforme à l'originale voulue par le réalisateur.
Hybrid Log Gamma ( HLG )
Il s'agit d'un standard HDR libre de droit développé conjointement par la BBC et la NHK pour la diffusion de programmes TV avec des images à large plage dynamique. Ce standard a été adopté par le consortium DVB, par l'ITU ainsi que par le HDMI Forum.
HDR, HDR Pro
La mention HDR et ses dérivées HDR Pro, HDR Plus ne constituent pas un label de qualité officiel ni une norme clairement définie. Apposée sur un téléviseur, elle indique donc que celui-ci offre une plage dynamique plus large qu'un téléviseur standard qui est limité à 100 nits ou 100 candelas / m². Les marques dont les téléviseurs ne satisfont pas à tous les critères du label Ultra HD Premium mais qui offrent quand même un pic de luminosité supérieur à 100 nits utilisent donc cette appellation pour se démarquer des téléviseurs standards. Dans leurs fiches techniques, certains fabricants ajoutent, en plus de la mention HDR, la luminosité maximale du téléviseur, exprimée en nits.
Dolby Vision
Contrairement au standard HDR 10, qui est ouvert, le Dolby Vision est une norme propriétaire. Cela implique donc d'utiliser du matériel certifié Dolby Vision pour la post-production, la diffusion broadcast, support physique et l'affichage. C'est une contrainte sur toute la chaîne de production et de diffusion de l'image, mais c'est ce qui garantit que l'affichage final, sur le téléviseur ou via un vidéoprojecteur compatible, sera absolument conforme à la vision du réalisateur. En effet, le standard Dolby Vision permet au(x) créateur(s) du film d'étalonner précisément la luminosité, le contraste et les couleurs de chaque plan et d'ajouter à l'image ainsi "calibrée" des métadonnées qui seront en bout de chaîne interprétées par le téléviseur compatible Dolby Vision pour qu'il affiche l'image telle qu'elle à été voulue par ses créateurs. Le processeur Dolby Vision intégré au téléviseur ou au vidéoprojecteur est même en mesure d'adapter le rendu de l'image en fonction des caractéristiques techniques spécifiques du dispositif d'affichage dans lequel il est intégré.
Avec le standard HDR 10, rien de tel. On n'est pas assuré qu'un film tourné avec une caméra capturant des pics de luminosité atteignant par exemple 2000 nits sera étalonné avec un moniteur compatible, ni que le rendu sur un téléviseur compatible HDR 10 mais plafonné à 1000 nits sera conforme à la vision du réalisateur.
En outre, la technologie Dolby Vision est d'ores et déjà compatible avec un codage sur 12 bits contre 10 bits pour le HDR 10 et peut prendre en charge des images dont l'intensité lumineuse atteint 10 000 nits, Bien que les meilleurs moniteurs professionnels n'atteignent aujourd'hui que 4000 nits et que les meilleurs téléviseurs dépassent à peine les 1000 nits, le Dolby Vision se positionne d'emblée comme une technologie d'avenir, capable d'appréhender et d'exploiter les évolutions des caméras de tournage, du matériel de production et des diffuseurs à venir.
Le Dolby Vision modifie notre appréhension des films, des séries et des jeux vidéos en améliorant l'intensité lumineuse, le contraste et les couleurs pour délivrer une image ultra-réaliste. En exploitant pleinement le potentiel des nouvelles technologies de projection cinéma et les capacités des téléviseurs de nouvelle génération, la technologie Dolby Vision délivre des contenus avec une plage dynamique étendue, ainsi qu'un espace colorimétrique ou gamut de couleurs plus important. L'image qui en résulte est si détaillée et si réaliste qu'on en viendrait à oublier qu'on regarde un écran.
Les normes actuelles concernant la diffusion d'images vidéo et le cinéma sont basées sur les limites imposées par des technologies obsolètes et nécessitent une altération du contenu original avant qu'il puisse être diffusé : cela provoque une importante réduction de l'espace colorimétrique, de l'intensité lumineuse et du contraste capturés par les caméras modernes. La technologie Dolby Vision s'attaque directement à ce problème en garantissant que la vision de l'équipe créative sera fidèlement reproduite par les écrans des téléviseurs, les ordinateurs ou les appareils portables compatibles Dolby Vision.
Le Dolby Vision est le complément naturel du Dolby Atmos. Les deux combinés donnent aux équipes créatives responsables des films, des jeux vidéo et des émissions de télévision des outils pour créer un résultat fidèle à leur vision, afin d'offrir aux spectateurs une expérience réellement immersive et sans le moindre compromis.
La technologie Dolby Vision permet d'exploiter au maximum de leurs capacités les téléviseurs, consoles de jeux, ordinateurs et appareils portables compatibles.
Il existe trois façons d'améliorer la qualité des films, des séries télévisées et des jeux vidéo :
Améliorer la définition en augmentant le nombre de pixels dans l'image : UHD 4K, 8K et plus
Améliorer la fluidité en augmentant le nombre d'images affichées par seconde
Améliorer la qualité même des pixels affichés : plage dynamique étendue, large
Les téléviseurs UHD-4K possèdent plus de pixels et les nouvelles normes destinées à ces téléviseurs Ultra Haute Définition définissent également une fréquence d'affichage plus importante. Cependant, ces normes ne permettent pas à chaque pixel de représenter toute la plage de luminosité existant dans la nature. La technologie Dolby Vision est la solution proposée par les laboratoires Dolby pour relever ce défi, en concurrence avec le HDR 10.
Dans la nature, l'échelle de couleurs et de luminosité est bien plus riche et plus étendue que celle que les téléviseurs, les disques Blu-ray et les salles de cinéma peuvent reproduire.
Sur la photo de cette fleur, la luminance ou intensité lumineuse n'est que de 145 nits pour le fond de l'image, dans sa partie la plus sombre, mais elle atteint 14 700 nits dans la partie jaune la plus éclairée des pétales.
Les normes TV et Blu-ray actuelles limitent la luminance à un maximum de 100 nits et un minimum de 0,117 nits, ce qui limite également l'espace colorimétrique ou gamut couleur délivré par la source ou l'écran. L'image reproduite par les téléviseurs standards est donc très très loin d'offrir la richesse des images perçues par l'oeil humain. Ces limites avec lesquelles doivent composer les téléviseurs haute définition actuels sont l'héritage des téléviseurs à tubes cathodiques d'antan.
Comment définir la plage dynamique nécessaire
L'équipe de recherche en image des laboratoires Dolby a conduit une série d'expériences auprès d'un groupe de spectateurs afin de répondre à cette question. Différents tests ont permis aux chercheurs de déterminer les préférences des spectateurs concernant le niveau de noir, le niveau de blanc et le contraste. Ils est ressorti de cette expérience qu'un système capable de reproduire une intensité lumineuse allant de 0 à 10 000 nits satisfaisait 90% des personnes du panel.
La représentation des couleurs sur les téléviseurs actuels est un autre problème de taille, lié aux restrictions d'intensité lumineuse et d'espace colorimétrique.
colorimetrie
Sur ce diagramme en deux dimensions, la surface colorée représente toutes les couleurs perceptibles par l'oeil humain. Le plus petit triangle (en pointillés) correspond à l'espace colorimétrique utilisé pour les programmes de la TNT HD et les disques Blu-ray et reproduit par les téléviseurs HD et les vidéoprojecteurs actuels. Le plus grand triangle représente l'espace colorimétrique retenu pour le standard UHD HDR 10 et correspond aux couleurs que la technologie Dolby Vision est en mesure de reproduire.
Cependant, une représentation en deux dimensions de l'espace colorimétrique est trop restrictive et ne permet pas de prendre en compte la luminance, qui constitue en quelque sorte le volume de couleur, intensité lumineuse / saturation, par analogie avec le volume sonore.
diagramme
Sur ce second diagramme, l'espace colorimétrique est représenté sur 3 dimensions : les teintes sur les axes horizontaux x et y, la luminosité / saturation sur l'axe vertical ( Y ). Cette représentation fait apparaître de manière beaucoup plus évidente le gain apporté par les technologies HDR 10 et Dolby Vision par rapport à l'espace colorimétrique des contenus HD actuels.
Il faut savoir que sur l'écran d'un téléviseur, l'affichage fonctionne par synthèse additive de trois couleurs primaires sur le même principe que la vision humaine. Chaque pixel est en fait constitué de trois sous-pixels : un rouge, un vert, un bleu. La couleur de chaque pixel affiché est donc déterminée par l'intensité lumineuse de chaque sous-pixel.
pixel
Pour afficher un pixel blanc, chacun de ses sous-pixels est poussé à son niveau d'intensité maximum. Le problème qui se pose avec une intensité lumineuse limitée à 100 nits comme c'est le cas pour les téléviseurs HD et les disques Blu-ray, c'est que plus la couleur à afficher est claire, plus elle s'approche du blanc : les couleurs les plus claires sont alors moins saturées. Par exemple, le bleu saturé le plus clair affiché par un téléviseur ou un vidéoprojecteur standard est de 7 nits, ce qui signifie qu'un ciel bleu ne sera jamais aussi clair et saturé qu'il devrait l'être.
Avec une intensité lumineuse pouvant atteindre 4 000 nits sur les moniteurs actuels utilisés en post-production et jusqu'à 10 000 nits dans un proche avenir, les réalisateurs ont la possibilité de représenter un véritable ciel bleu, lumineux et saturé, pour un résultat beaucoup plus naturel.
Quelle quantification utiliser
Après avoir établi que le Dolby Vision devrait pouvoir couvrir une intensité lumineuse allant de 0 à 10000 nits, l'équipe Dolby s'est mise en quête du moyen le plus efficace pour diffuser cette importante plage dynamique.
Dans le système actuel avec une intensité lumineuse maximale de 100 nits, la vidéo est encodée en 8 bits par composante couleur, avec une courbe gamma. Utiliser la même approche nécessiterait 14 bits pour une plage dynamique multipliée par un facteur 100. Fort heureusement, l'oeil humain est moins sensible aux variations d'intensité dans les zones lumineuses qu'il ne l'est dans les zones sombres. C'est pourquoi Dolby a développé une nouvelle fonction de transfert électro-optique permettant d'encoder l'intégralité des 10000 nits sur 12 bits seulement au lieu de 14, sans ajouter le moindre artefact. Cette nouvelle quantification est standardisée sous la norme SMPTE ST-2084 pour être utilisée dans divers standards et applications liés au HDR.
Quantification 10 bits Vs 12 bits
La vision humaine présente une sensibilité différente selon les niveaux de luminosité : elle est ainsi particulièrement sensible aux petites variations sur de vastes zones de luminosité presque uniformes. Le graphique ci-dessous illustre les différences entre une quantification sur 10 bits et une quantification sur 12 bits. La ligne pointillée noire matérialise le seuil de perception humaine au-dessus duquel le spectateur moyen peut distinguer les différences entre deux valeurs de luminance contiguës. On réalise ici clairement qu'avec une échelle de luminance quantifiée sur 10 bits, les différents paliers de luminosité sont perceptibles par l'oeil humain, ce qui se traduit à l'image par un phénomène de postérisation.
niveau
Sur des scènes naturelles, le bruit peut masquer cette différence, mais sur des zones de l'image telles qu'un ciel bleu apparaîtront des bandes ou des contours si le degré de quantification est insuffisant. La quantification sur 12 bits évite cet écueil en abaissant les différences entre deux valeurs de luminance contiguës aux limites du seuil de perception de l'oeil humain.
postérisation
Le phénomène de postérisation est très marqué. En augmentant la quantification de l'échelle de gris, et par conséquent la profondeur de couleurs affichables, le dégradé est plus nuancé. L'image de droite montre un dégradé parfaitement lissé, avec une transition douce entre les différentes teintes affichées, sans démarcation visible entre deux nuances.
Dolby Vision : comment ça marche
Les réalisateurs de films et de séries télévisées racontent des histoires, les concepteurs de jeux vidéos créent des environnements immersifs et une expérience captivante. Pour tous ces créateurs, composer avec les limites imposées par les normes de diffusion actuelles constitue un véritable défi. Au fil des cinquante dernières années, Dolby a travaillé de concert avec les studios Hollywoodiens mais aussi les cinémas et les fabricants d'équipements vidéo, afin de rendre ces histoires et ces expériences vidéoludiques aussi réalistes que possible. Les innovations apportées par Dolby sont nombreuses, de la réduction de bruit à la diffusion surround en 5.1 puis en 7.1 haute résolution, pour en arriver aujourd'hui aux technologies Dolby Vision et Dolby Atmos.
La technologie Dolby Vision fournit aux réalisateurs et aux coloristes ou aux concepteurs de jeux et développeurs d'effets visuels les outils nécessaires pour représenter très précisément des couleurs plus vives, une lumière plus intense et des ombres plus détaillées. Créant ainsi une expérience plus réelle et plus captivante pour le spectateur.
La vision du créateur sous les yeux du spectateur
Les limites des systèmes actuels ne sont que le résultat naturel des restrictions inhérentes aux normes applicables aux téléviseurs et aux disques Blu-ray, héritées des limitations de la technologie CRT. L'intensité lumineuse maximale possible pour un Blu-ray ou une émission de télévision est toujours de 100 nits. Mais les téléviseurs les plus récents peuvent atteindre 300 à 500 nits. Ils sont donc réglés en usine pour étirer l'intensité lumineuse du contenu qu'ils affichent afin d'exploiter tout leur potentiel, ce qui produit une distorsion de l'image originale. Chaque fabricant y va de sa recette personnelle pour adapter l'image reçue aux caractéristiques de ses téléviseurs en modulant l'intensité lumineuse de façon différente. Les films, les séries TV et les jeux peuvent avoir un rendu complètement différent d'un téléviseur à l'autre, avec un résultat parfois très éloigné de l'image originale telle qu'elle a été masterisée en studio.
La technologie Dolby Vision permet de résoudre ce problème. Les équipes qui créent le contenu procèdent à l'étalonnage des couleurs en utilisant des moniteurs de référence compatibles Dolby Vision. Ces derniers offrent une plage dynamique largement supérieure ainsi qu'un espace colorimétrique bien plus étendu, pour assurer la production d'un master haute-fidélité. L'image étalonnée en Dolby Vision contient des métadonnées relatives au système utilisé pour créer la version finale du contenu. Comme chaque téléviseur compatible Dolby Vision est méticuleusement calibré par le fabricant et les techniciens Dolby, il est en mesure d'utiliser ces métadonnées afin d'offrir la restitution la plus fidèle possible au contenu original, en exploitant au maximum ses capacités d'affichage, sans générer de distorsion visuelle dans l'image.
Dolby a conçu la technologie Dolby Vision afin de rendre aussi simple que possible son intégration à la création de contenu et à sa diffusion.
La création de contenu
Le processus de mise en oeuvre du Dolby Vision est très proche de celui de l'étalonnage colorimétrique utilisé par les réalisateurs. Le but est de restituer les images capturées par la caméra avec la plus grande exactitude possible et de limiter les compromis créatifs lors de la phase d'étalonnage et de mastering.
Le moniteur de référence Dolby Vision HDR pouvant atteindre une intensité lumineuse de 4000 nits est utilisé pour les réglages de couleurs et de luminosité. Le but du processus d'étalonnage Dolby Vision est de saisir les intentions de l'artiste à travers les couleurs de l'image. Les réalisateurs, les coloristes et les éditeurs se basent sur ce système d'étalonnage et s'aident de ces moniteurs afin de créer l'image la plus saisissante possible, tirant ainsi complètement avantage de tout ce que les diffuseurs modernes ont à offrir.
Lorsque l'étalonnage est terminé, le système Dolby Vision analyse l'image et sauvegarde les métadonnées dynamiques décrivant toutes les décisions créatives concernant la restitution de l'image HDR, plan par plan. Le CMU ou unité d'organisation du contenu organise le contenu en se basant sur un moniteur de référence offrant une intensité lumineuse standard de 100 nits, pour créer une version exploitable en SDR, avec les métadonnées HDR à part. Une fois la version SDR approuvée, les images et les métadonnées peuvent alors être exportées. Les métadonnées dynamiques peuvent ensuite être utilisées pour diffuser le master Dolby Vision sur les écrans compatibles, permettant ainsi de développer tout le potentiel d'un téléviseur Dolby Vision. Un téléviseur SDR se contentera d'afficher l'image sur une plage dynamique standard, ignorant les métadonnées. Une TV offrant une intensité lumineuse de 600 nits diffusera une superbe image. Un modèle affichant une intensité lumineuse de 1200 nits offrira une image encore plus saisissante. Les deux écrans se baseront sur les mêmes métadonnées afin de restituer les images de référence en Dolby Vision de manière à ce qu'elles soient le plus proches possible des images originales.
Les mêmes algorithmes utilisés par le CMU pour l'étalonnage en studio peuvent également être utilisés pour créer un standard de compatibilité pour la diffusion en direct de contenus étalonnés en Dolby Vision.
La création de jeux
Pour intégrer la technologie Dolby Vision il faut simplement :
que les graphismes soient élaborés dans le but d'être étalonnés en Dolby Vision
des moniteurs de référence conçus pour le contenu en Dolby Vision
des moteurs de jeu compatibles Dolby Vision
Dolby travaille en collaboration avec les principaux créateurs de moteurs de jeu afin de s'assurer que ces moteurs sont compatibles avec la technologie Dolby Vision.
Diffusion / Transmission
La technologie Dolby Vision ne requiert aucun nouveau codec et peut être diffusée avec les codecs standards HEVC et AVC. Le signal Dolby Vision complet peut être encodé dans un flux HEVC Main-10 ou bien dans deux couches AVC ou HEVC avec une moindre quantification, avec les métadonnées. Le signal est ainsi compatible avec une large gamme de téléviseurs, ordinateurs et appareils portables. L'afficheur final utilise les métadonnées pour reconstituer et diffuser le signal intégral, en utilisant les décodeurs vidéo existants.
Dolby travaille avec les organisations responsables des normes de diffusion, telles que la Blu-Ray Disc Association, DVB, MPEG, UltaViolet / DECE , SCSA, afin de s'assurer que le contenu Dolby Vision peut être diffusé de manière standardisée dans tous ces écosystèmes.
Dolby Vision : du côté du spectateur
Le Dolby Vision est compatible avec de nombreuses configurations matérielles et peut donc être intégré sur un grand nombre de diffuseurs : téléviseurs OLED haut de gamme offrant des niveaux de noirs profonds, téléviseurs LCD à boîte quantique et dans un futur proche, ordinateurs et appareils mobiles. Dolby travaille aux côtés de ses partenaires dans l'industrie audiovisuelle afin de proposer des solutions faciles à intégrer, tant au niveau matériel que logiciel.
Les téléviseurs OLED LG HDR compatibles Dolby Vision offrent une profondeur de noir inégalée avec des niveaux de gradation subtils, permettant d'afficher de nombreux détails dans les zones les plus sombres de l'image.
Décoder et recomposer l'image
Le Dolby Vision est compatible avec de nombreux codecs vidéo et fonctionne notamment avec les décodeurs HEVC et AVC. Il existe de multiples méthodes pour encoder et décoder les signaux Dolby Vision. En fonction des besoins du créateur du contenu et des capacités du diffuseur, le signal Dolby Vision peut être diffusé via un unique flux HEVC Main 10 ou deux flux AVC-8, HEVC-8 ou encore HEVE-10.
Un flux Dolby Vision HEVC Main 10 peut être décodé par un décodeur HEVC standard, puis pris en charge par un module Dolby Vision afin de reproduire l'intégralité des 12 bits du signal Dolby Vision original. Un flux double couches AVC ou HEVC Dolby Vision est séparé en deux, de façon a envoyer le flux de base et le flux amélioré vers des décodeurs séparés. Le module de recomposition Dolby Vision est ensuite chargé de réassembler le signal dans son intégralité.
Gestionnaire d'affichage
Le gestionnaire d'affichage est réglé spécifiquement pour chaque diffuseur : le gestionnaire connaît donc l'intensité lumineuse maximale et minimale de l'écran, ainsi que l'espace colorimétrique et toutes les caractéristiques de l'afficheur nécessaires à la diffusion du contenu. Les métadonnées accompagnant le signal vidéo Dolby Vision transportent les informations concernant le système utilisé pour l'étalonnage original du contenu ainsi que toutes les informations particulières en rapport avec le signal. En utilisant ces métadonnées, le gestionnaire d'affichage Dolby Vision transforme l'intégralité du signal de façon intelligente afin de produire la meilleure image possible sur le diffuseur utilisé.
L'une des différences majeures entre l'approche opérée par Dolby Vision et les autres solutions HDR réside justement dans la présence de métadonnées accompagnant chaque image, depuis son enregistrement jusqu'à son affichage sur l'écran du spectateur.
Le standard HDR classique ne contient que des métadonnées statiques utilisées pour décrire les propriétés du moniteur de référence utilisé pour créer le contenu ainsi que quelques informations basiques relatives à la luminosité.
Le Dolby Vision met en oeuvre des métadonnées dynamiques générées lors de la création même du contenu, capturant ainsi les propriétés dynamiques de chaque scène. Avec ces informations, le gestionnaire d'affichage Dolby Vision est en mesure d'adapter de manière beaucoup plus précise le contenu diffusé aux propriétés graphiques du diffuseur. Les nuances sont ainsi parfaitement conservées, ce qui est essentiel notamment pour reproduire fidèlement les tons chair.

Haut de page