(!LANG : un composant multimédia représentant. Le son n'est pas le dernier composant du multimédia

Composants multimédia

Qu'est-ce que le multimédia ? Multi – plusieurs, Médias – environnement. Il s'agit d'une interface homme-machine qui utilise différents canaux de communication naturels à l'homme : texte, graphiques, animation (vidéo), informations audio. Ainsi que des chaînes virtuelles plus spécialisées qui font appel à différents sens. Examinons de plus près les principaux composants du multimédia.

1. Texte. Représente un signe ou une information verbale. Les symboles textuels peuvent être des lettres, des symboles mathématiques, logiques et autres. Le texte peut être non seulement littéraire, le texte peut être un programme informatique, une notation musicale, etc. Dans tous les cas, il s'agit d'une séquence de caractères écrite dans une langue.

Les mots du texte n’ont aucune ressemblance visible avec ce qu’ils signifient. Autrement dit, ils s'adressent à la pensée abstraite et, dans notre tête, nous les recodons en certains objets et phénomènes.

En même temps, le texte est toujours précis et précis, il est fiable comme moyen de communication. Sans texte, l'information cesse d'être spécifique et sans ambiguïté. Ainsi, le texte est abstrait dans sa forme, mais concret dans son contenu.

Un article scientifique, une publicité, un journal ou un magazine, une page Web sur l'Internet mondial, une interface de programme informatique et bien plus encore sont basés sur des informations textuelles. En supprimant le texte de l’un de ces produits d’information, nous détruirons en fait ce produit. Même dans une publicité, sans parler des prospectus, des périodiques et des livres, l'essentiel est le texte. L’objectif principal de la grande majorité des documents imprimés est de transmettre certaines informations aux personnes sous forme de texte.

Le texte peut être plus que simplement visuel. La parole est aussi du texte, des concepts codés sous forme de sons. Et ce texte est bien plus ancien que celui écrit. L'homme a appris à parler avant d'écrire.

2. Informations visuelles ou graphiques. Il s’agit de tout le reste des informations qui proviennent de la vision, statiques et non codées dans le texte. En tant que moyen de communication, l'image est plus ambiguë et vague ; elle n'a pas la spécificité du texte. Mais cela présente d’autres avantages.

a) Richesse de l'information. Lors d'une visualisation active, le destinataire perçoit simultanément de nombreuses significations, significations et nuances. Par exemple, sur une photographie, les expressions faciales des personnes, leurs poses, l’arrière-plan environnant, etc. peuvent en dire long. Et chacun peut percevoir différemment la même image.

b) Facilité de perception. Regarder une illustration demande beaucoup moins d’efforts que lire le texte. L’effet émotionnel souhaité peut être obtenu beaucoup plus facilement.

Les graphiques peuvent être divisés en deux types : la photographie et le dessin. Une représentation photographiquement précise du monde réel donne au matériau authenticité et réalisme, et c'est sa valeur. Le dessin est déjà une réfraction de la réalité dans la conscience humaine sous forme de symboles : courbes, figures, leurs couleurs, composition et autres. Un dessin peut avoir deux fonctions :

a) clarification visuelle et ajout d'informations : sous forme de dessin, de schéma ou d'illustration dans un livre - le but est le même ;

b) création d'un certain style, aspect esthétique de la publication.

3. Animation ou vidéo, c'est-à-dire que le mouvement est le plus souvent utilisé pour résoudre deux problèmes.

a) Attirer l'attention. Tout objet en mouvement attire immédiatement l’attention du spectateur. C'est une propriété instinctive, car... un objet en mouvement peut être dangereux. Par conséquent, l’animation est un facteur important pour attirer l’attention sur la chose la plus importante.

Dans ce cas, des moyens simples pour attirer l’attention suffisent. Ainsi, pour les bannières sur Internet, des mouvements élémentaires répétés de manière cyclique sont généralement utilisés. Les animations complexes sont même contre-indiquées, car les sites Web sont souvent surchargés de graphiques. Et cela irrite et fatigue le visiteur.

b) Création de divers supports d'information : vidéos, présentations, etc. La monotonie n'est pas de mise ici. Il est nécessaire de contrôler l’attention du spectateur. Et cela nécessite des éléments tels qu'un scénario, une intrigue, une dramaturgie, même sous une forme simplifiée. Le développement de l'action dans le temps a ses propres étapes et ses propres lois (qui seront discutées plus loin).

4. Le son. Les informations sonores sont adressées à un autre organe sensoriel - non pas à la vision, mais à l'audition. Bien entendu, il a ses propres spécificités, son propre design et ses propres caractéristiques techniques. Bien que dans la perception de l’information, on puisse remarquer de nombreuses similitudes. La parole est un analogue de l’écriture, les arts visuels peuvent dans une certaine mesure être comparés à la musique et des sons naturels et non traités sont également utilisés.

La différence significative est qu’il n’y a pas de son statique. Le son est toujours constitué de vibrations dynamiques de l’environnement qui présentent certaines caractéristiques de fréquence, d’amplitude et de timbre.

L'oreille humaine est très sensible au spectre harmonique des vibrations sonores et à la dissonance des harmoniques. Par conséquent, obtenir un son informatique numérisé de haute qualité reste un défi technique. Et de nombreux experts considèrent que le son analogique est plus « vivant » et plus naturel que le son numérique.

5. Canaux virtuels qui font appel à d'autres sens.

Ainsi, une alerte vibratoire dans un téléphone mobile ne fait pas appel à la vision et à l’ouïe, mais au toucher. Et ce n’est pas exotique, mais un canal d’information commun. Que quelqu'un veut parler à l'abonné. Les sensations tactiles (tactiles) sont également utilisées à d'autres fins : il existe divers simulateurs, des gants spéciaux pour les jeux informatiques et pour les chirurgiens, etc.

Dans les cinémas 4D apparus récemment, l'effet de la présence du spectateur dans le film est obtenu par divers moyens inédits auparavant : sièges mobiles, éclaboussures au visage, rafales de vent, odeurs.

Il existe même des canaux de communication et de contrôle qui impliquent directement les cellules nerveuses, le cerveau humain. Ils sont développés pour les personnes handicapées et les personnes handicapées. Après une formation, une personne est capable de contrôler le mouvement des points sur l’écran grâce au pouvoir de la pensée. Et aussi (plus important encore) donner mentalement des commandes qui mettent le fauteuil roulant spécial en mouvement.

Ainsi, la réalité virtuelle passe progressivement de la science-fiction à la vie quotidienne.

Multimédia est un ensemble de matériels et de logiciels qui assurent la création d'effets sonores et visuels, ainsi que l'influence humaine sur l'avancement du programme qui implique leur création.

Au départ, les ordinateurs ne pouvaient « fonctionner » qu’avec des chiffres. Un peu plus tard, ils ont « appris » à travailler avec des textes et des graphiques. Ce n’est que dans la dernière décennie du XXe siècle que l’ordinateur a « maîtrisé » le son et les images animées. Les nouvelles capacités informatiques sont appelées multimédia ( multimédia- environnement multiple, c'est-à-dire un environnement constitué de plusieurs composantes de nature différente).

Un exemple frappant de l'utilisation des capacités multimédias sont diverses encyclopédies, dans lesquelles l'affichage du texte d'un article particulier est accompagné de l'affichage d'images associées au texte, de fragments de films, d'un son synchrone du texte affiché, etc. Le multimédia est largement utilisé dans les programmes éducatifs, éducatifs et de jeux. Des expériences menées sur de grands groupes d'étudiants ont montré que 25 % du matériel entendu reste en mémoire. Si le matériel est perçu visuellement, alors 1/3 de ce qui est vu est mémorisé. Dans le cas d'effets combinés sur la vision et l'audition, la proportion de matériel acquis s'élève à 50 %. Et si la formation s'organise par le dialogue, interactif(interaction) entre l'étudiant et les programmes de formation multimédia, jusqu'à 75% du matériel est absorbé. Ces observations sont très prometteuses pour l'application des technologies multimédias dans le domaine de l'éducation et dans de nombreuses autres applications similaires.

L'un des types de multimédia est considéré comme ce qu'on appelle l'espace cybernétique.

Le développement de l'hypertexte et systèmes multimédia sont

Souvent, le concept de « multimédia » (en général, un terme très controversé) est décrit comme la présentation d'informations sous la forme d'une combinaison de texte, de graphiques, de vidéo, d'animation et de son. En analysant cette liste, nous pouvons dire que les quatre premiers composants (texte, graphiques, vidéo et animation) sont diverses options d'affichage d'informations par des moyens graphiques appartenant à un environnement (et non à « plusieurs environnements » ou multimédia), à savoir - à l’environnement de la perception visuelle.

Ainsi, dans l'ensemble, on ne peut parler de multimédia que lorsqu'une composante audio s'ajoute aux moyens d'influencer les organes de la vision. Bien entendu, on connaît actuellement des systèmes informatiques capables d'influencer la perception tactile humaine et même de créer des odeurs inhérentes à certains objets visuels, mais jusqu'à présent, ces applications ont des applications hautement spécialisées ou en sont à leurs balbutiements. Par conséquent, on peut affirmer que les technologies multimédias d'aujourd'hui sont des technologies visant à transmettre des informations, affectant principalement deux canaux de perception : la vision et l'audition.

Étant donné que les descriptions des technologies multimédias sur les pages imprimées accordent injustement beaucoup moins d'attention à la composante audio qu'aux technologies de transmission d'objets graphiques, nous avons décidé de combler cette lacune et avons demandé à l'un des principaux spécialistes russes dans le domaine de l'enregistrement audio numérique d'expliquer comment l'audio est créé pour le contenu multimédia. Sergueï Titov.

Presse informatique : On peut donc dire que le concept de « multimédia » n'existe pas sans la composante sonore. Sergey, pourriez-vous nous dire comment ce contenu multimédia particulier est créé ?

Sergueï Titov : En principe, nous percevons environ 80 % de toutes les informations sur le monde extérieur par la vision et moins de 20 % par l’ouïe. Cependant, il est impossible de se passer de ces 20 %. Il existe de nombreuses applications multimédias où le son vient en premier et donne le ton à l'ensemble de l'œuvre. Par exemple, le plus souvent, un clip vidéo est réalisé pour une chanson spécifique, plutôt qu'une chanson écrite pour la vidéo. Ainsi, dans l’expression « série audiovisuelle », c’est le mot « audio » qui vient en premier.

Si l'on parle de la composante audio du multimédia, elle a deux aspects : du point de vue du consommateur et du point de vue du créateur. Apparemment, c'est l'aspect de la création de contenu multimédia qui est intéressant pour un magazine informatique, puisqu'il est précisément créé à l'aide de la technologie informatique.

En ce qui concerne les moyens de créer du contenu audio, il convient de noter que le processus de production nécessite une résolution fondamentalement plus élevée lors de l'enregistrement des fichiers que lors de l'étape de consommation, et par conséquent, un équipement de meilleure qualité est requis.

Ici, nous pouvons faire une analogie avec le graphisme : un concepteur peut ensuite présenter une image en basse résolution, par exemple pour la publier sur Internet, et en même temps supprimer certaines informations, mais le processus de développement et d'édition est inévitablement effectué. en tenant compte de toutes les informations disponibles, disposées en couches. La même chose se produit lorsque l’on travaille avec le son. Par conséquent, même si nous parlons d'un studio amateur, nous devrions au minimum parler d'équipement de niveau semi-professionnel.

Lorsque nous parlons de résolution du système, nous entendons en réalité deux paramètres : la précision de la mesure de l'amplitude du signal et la fréquence de quantification, ou taux d'échantillonnage. En d’autres termes, nous pouvons mesurer l’amplitude du signal de sortie avec une grande précision, mais nous le faisons très rarement et nous perdons par conséquent beaucoup d’informations.

PC : Comment fonctionne le processus de création d’une échelle ?

ST.: Toute image sonore est créée à partir de certains éléments constitutifs. Tout comme un DJ dans une discothèque fonctionne avec un certain ensemble de composants initiaux à partir desquels il construit un programme continu, de même une personne qui compose quelque chose dispose de certains matériaux initiaux qu'elle édite et combine dans une image finie. Si nous parlons de musique dans sa forme pure, la tâche consiste d'abord à capturer ces éléments, puis à les assembler en une seule image. C'est ce qu'on appelle en général le mixage.

Si nous parlons de doublage d'une certaine séquence vidéo (en fait, nous pouvons parler ici de contenu multimédia), alors vous devez collecter les éléments qui composent la bande sonore, puis les « lier » à l'image, éditer ces éléments et mettez-les en correspondance mutuelle; dans ce cas, les éléments individuels en question doivent être disposés sous une forme pratique pour le travail.

Les programmes informatiques créent une interface où se trouvent les mêmes pistes et un mixeur avec une règle. Sous chacune de ces lignes se trouve son propre élément, qui est sujet à certaines modifications. Ainsi, nous créons un champ sonore synthétisé, fonctionnant avec des éléments existants, et comme cette tâche est, en principe, créative, nous devons être capables de modifier ces éléments à l'aide de certains types de traitements - du simple montage (couper, trier, coller) au complexe , lorsque des éléments individuels peuvent être allongés ou raccourcis, lorsque le caractère du son de chaque signal peut être modifié.

PC : Quel logiciel est nécessaire pour effectuer ce travail et quel matériel informatique spécial est nécessaire ?

ST.: Un équipement informatique spécial n'est en fait qu'une carte d'entrée-sortie, bien que certaines exigences s'appliquent bien entendu à d'autres systèmes de postes de travail. Les logiciels permettant d'organiser le processus d'enregistrement et d'édition sonore existent en grande quantité : des systèmes amateurs bon marché aux systèmes semi-professionnels et hautement professionnels. La plupart de ces programmes ont une architecture de plug-in et nécessitent des performances élevées de la part de l'ordinateur et des sous-systèmes de mémoire disque suffisamment puissants. Le fait est que la résolution de problèmes multimédias dans le but de produire plutôt que de reproduire du contenu nécessite des machines dotées d’une grande quantité de RAM et d’un processeur puissant. Le paramètre le plus important ici n'est pas tant la puissance élevée du processeur, mais le bon équilibre de la machine en termes de fonctionnement des sous-systèmes de disque. Ces derniers sont généralement des périphériques SCSI, préférables lorsqu'il est nécessaire de fonctionner avec des flux de données qui ne doivent pas être interrompus. Par conséquent, les interfaces IDE ne sont pratiquement pas utilisées. Un IDE peut avoir un taux de transfert en rafale très élevé mais un faible taux de transfert soutenu.

Dans le même temps, l'interface IDE permet au disque de transférer des données, de les accumuler dans un tampon, puis de les extraire du tampon. SCSI est conçu différemment et même si la vitesse de transfert des paquets est faible, la vitesse de streaming restera élevée.

Il convient également de noter que les tâches ci-dessus nécessitent de très grandes quantités d'espace disque. Je vais donner un exemple simple : un fichier mono 24 bits, même à de faibles taux d'échantillonnage, par exemple 44,1 kHz, occupe 7,5 Mo par piste et par minute.

PC : Existe-t-il une technologie permettant de stocker ces données de manière plus compacte ?

ST.: Il s’agit d’un PCM (Pulse Code Modulation) linéaire qui ne peut en aucun cas être compressé. Il peut ensuite être compressé en MP3 par exemple, mais pas au stade de la production, mais au stade de la distribution. Au stade de la production, nous sommes amenés à travailler avec des signaux linéaires et non compressés. Permettez-moi de reprendre l'analogie avec Photoshop. Afin de construire une composition graphique, le concepteur doit avoir une compréhension complète de ce qui est stocké dans chaque calque, avoir accès à chaque calque et l'ajuster séparément. Tout cela conduit au fait que le format Photoshop PSD occupe une quantité d'espace décente, mais vous permet de revenir en arrière et d'apporter des corrections à chaque calque à tout moment sans affecter tous les autres. Au moment où l'image est complètement construite, elle peut être présentée dans un autre format, compressée avec ou sans perte, mais, je le répète, seulement lorsque l'étape de production est complètement terminée. La même chose se produit avec le son : vous ne pouvez mixer une composition sonore que si vous disposez d'informations complètes sur tous les composants du signal.

Comme je l'ai déjà dit, pour créer une image sonore, vous avez besoin d'une bibliothèque de sources correspondant à la tâche sur laquelle vous travaillez. Par conséquent, le producteur vidéo a davantage besoin de divers bruits et effets préenregistrés, et le DJ a besoin de ce qu'on appelle les boucles (éléments répétitifs caractéristiques de la musique de danse). Tout ce matériel doit être stocké sous forme de fichiers compréhensibles par le programme correspondant qui travaille avec eux. Ensuite, il faut un système acoustique pour contrôler tout cela, et le programme doit donc permettre de manipuler ce matériau source, qui est en fait la partie créatrice du processus. En utilisant un système informatique comme outil d'entrée-sortie et un programme comme outil, l'utilisateur, conformément à son instinct intérieur, édite le matériel source : augmente ou diminue le volume des éléments individuels, modifie la coloration du timbre. Grâce au processus de mixage, l'ingénieur du son doit obtenir une image sonore équilibrée qui a une certaine valeur esthétique. Comme vous pouvez le constater, l'analogie avec le graphisme est perceptible même au niveau terminologique. Et la valeur de cette image dépend entièrement de l'expérience, du goût et du talent de cet ingénieur du son (bien sûr, sous réserve de la disponibilité d'équipements de haute qualité).

PC : Jusqu'à présent, nous nous sommes référés à une image purement sonore, mais en parlant de multimédia, il est nécessaire de considérer quels moyens existent pour réunir le son et l'image. Que faut-il pour cela ?

ST.: Bien sûr, vous avez besoin d'une carte d'entrée/sortie vidéo, par exemple une avec un format de sortie MPEG ou Quick time (si nous parlons de multimédia, alors Quick time sera plus pratique).

PC : Je pense qu'il serait intéressant d'envisager un certain nombre de tâches pratiques de doublage vidéo et, à l'aide d'exemples précis, de découvrir quel équipement et quels logiciels sont nécessaires pour des tâches de différents niveaux de complexité. On pourrait commencer par analyser les options permettant de créer un film de présentation peu coûteux...

Par exemple, considérons ce cas : il y a un film vidéo tourné avec une caméra amateur, et le microphone de cette caméra a déjà enregistré des répliques et des dialogues. Nous devons maintenant utiliser cela pour réaliser un film de présentation attrayant avec un doublage semi-professionnel. De quoi aurez-vous besoin pour cela ?

ST.: Si nous sommes confrontés à la tâche d'atteindre une certaine perception du matériel sonore (même un film amateur), nous devons ajouter beaucoup au matériel source : nous avons besoin d'effets sonores, de musique de fond, ce qu'on appelle le bruit de fond (de l'anglais arrière-plan - arrière-plan, arrière-plan) et ainsi de suite. Par conséquent, dans tous les cas, il est nécessaire que plusieurs pistes soient lues simultanément, c'est-à-dire lire plusieurs fichiers en même temps. En même temps, nous devrions avoir la possibilité de régler le timbre de ces fichiers au cours du processus de production et de les éditer (allonger, raccourcir, etc.).

Il est important de noter que le système doit permettre l'expérimentation, afin que l'utilisateur puisse voir si un effet donné semble approprié pour un emplacement donné. Le système devrait également permettre de combiner avec précision les effets sonores avec le contexte sonore, d'ajuster le panorama (si l'on parle de son stéréo), etc.

PC : Eh bien, la tâche est claire et les exigences relatives à l'équipement sont claires... Maintenant, j'aimerais avoir une idée de quel équipement spécifique et quel logiciel peut être recommandé pour résoudre un tel problème et combien cela coûtera approximativement l'utilisateur.

ST.: En principe, nous avons besoin d'une sorte d'éditeur vidéo, mais si je comprends bien, c'est un sujet distinct et nous devons aujourd'hui nous concentrer sur le composant audio. Quoi qu'il en soit, dans la tâche que vous avez décrite ci-dessus, la séquence audio est subordonnée à la séquence vidéo. Nous supposerons donc que nous disposons d’une séquence vidéo et n’analyserons pas comment elle est montée. Nous considérons la version originale, lorsqu'il y a une séquence vidéo finale et une séquence audio brute. Dans ce brouillon de séquence audio, vous devez rayer certaines lignes, en remplacer certaines par de nouvelles, etc. Peu importe qu'il s'agisse d'un film de présentation ou d'un film de jeu amateur, nous devrons y insérer des effets audio artificiels. Cela est dû au fait que le son de nombreux événements dans le cadre, enregistrés à l'aide du microphone d'une caméra vidéo, semblera, comme on dit, peu convaincant.

PC : Où d’autre pouvez-vous obtenir ces sons si ce n’est à partir d’événements réels ?

ST.: Il s’agit de toute une direction appelée sound design, qui consiste à créer des sons qui, une fois reproduits, donneraient une image sonore convaincante, en tenant compte des caractéristiques de la perception des sons par le spectateur. De plus, l'image met l'accent sur certains sons qui, en réalité, sonnent différemment. Bien sûr, si nous parlons de cinéma amateur et de doublage semi-professionnel, certaines opportunités sont alors réduites, mais dans ce cas, les tâches qui nous attendent sont les mêmes que celles des professionnels.

Dans tous les cas, en plus d’éditer le brouillon, il est nécessaire d’ajouter quelques effets spéciaux.

PC : Alors, de quel équipement avons-nous besoin pour résoudre ce problème ?

ST.: J'insiste encore une fois sur le fait que nous parlons d'un niveau semi-professionnel, c'est-à-dire de la production d'un film amateur à domicile ou de la production de films pour les studios de télévision par câble, qui, en général, sont des tâches similaires. Afin de résoudre la plupart des problèmes d'une telle post-production, vous avez besoin d'une machine Pentium III - 500 MHz, de préférence 256 RAM, sous-système de disque SCSI ; le sous-système vidéo ne joue pas de rôle particulier, mais il est souhaitable que certains décodeurs vidéo compressés matériels y soient installés ; En conséquence, vous avez besoin d'une carte d'entrée-sortie ; pour le travail amateur le plus simple, il peut s'agir d'une SoundBlaster. En tant que complexe relativement bon marché, vous pouvez considérer le logiciel Nuendo, qui fonctionnera avec presque toutes les cartes et, par exemple, le SoundBlaster bon marché pour 150 $. Bien entendu, il faut dire ici tout de suite qu'un tel système aura des capacités très limitées en raison de la mauvaise qualité de la carte SoundBlaster, qui possède des amplificateurs de microphone de très mauvaise qualité et un ADC/DAC de très mauvaise qualité.

PC : J'aimerais savoir ce que Nuendo vous permet de faire ?

ST.: Nuendo est un progiciel doté d'une architecture de plug-in et conçu pour résoudre des problèmes de production audio, et se concentre spécifiquement sur les tâches de création « d'audio pour vidéo », c'est-à-dire, pourrait-on dire, qu'il est conçu spécifiquement pour résoudre des problèmes multimédias. problèmes. Le programme fonctionne simultanément avec le son et l'image, l'image étant un composant secondaire. Nuendo fonctionne sous Windows NT, Windows 98 et BE OS. Ce programme coûte 887 $.

Le programme offre la possibilité de visualiser des images vidéo décomposées dans le temps et un système multipiste pour éditer et mixer l'image sonore.

Une caractéristique du progiciel est sa flexibilité et vous pouvez travailler sur une large gamme de matériel peu coûteux. Il existe une croyance répandue selon laquelle les systèmes sérieux ne fonctionnent que sur des équipements dotés de coprocesseurs DSP spécialisés. Le logiciel Nuendo prouve le contraire, car il fournit non seulement des outils pour la production audio professionnelle, mais ne nécessite pas non plus de matériel spécialisé ni de coprocesseurs spéciaux pour ses besoins.

Nuendo fournit 200 pistes pour le mixage et prend en charge le son surround d'une manière qui rend de nombreux systèmes très pâles en comparaison avec Nuendo.

Nuendo fournit un traitement en temps réel de haute qualité sur le même processeur qui exécute la station de travail elle-même. Bien entendu, la vitesse de traitement dépendra du poste de travail sélectionné, mais l'avantage du programme est qu'il s'adapte aux différentes puissances des processeurs. Il y a quelques années à peine, un traitement audio sérieux était impensable sans DSP. Mais aujourd’hui, les ordinateurs de bureau disposent de processeurs natifs suffisamment puissants pour résoudre les problèmes de traitement en temps réel. Évidemment, la possibilité d'utiliser un ordinateur ordinaire pour résoudre des problèmes spécifiques, sans coprocesseurs DSP, ajoute de la flexibilité au système.

Nuendo est un système orienté objet (c'est-à-dire un système qui fonctionne avec des objets métaphoriques : télécommande, indicateur, piste, etc.), qui vous permet d'éditer facilement et entièrement des fichiers audio dans des projets de complexité variable, offrant une solution très pratique. et une interface réfléchie. Des outils de glisser-déposer sont disponibles pour une variété de tâches et sont particulièrement utilisés lors du traitement des fondus enchaînés.

Une caractéristique importante du programme est le système de fonctions d'édition presque illimité Undo & Redo. Nuendo propose bien plus que de simples opérations Annuler/Rétablir : chacun des segments audio possède son propre historique d'édition, et le système est organisé de telle manière qu'après plusieurs centaines de modifications Annuler/Rétablir, la taille maximale du fichier requise pour stocker un segment n'augmente jamais. à plus du double de celui du volume original.

L'une des plus grandes forces du programme est sa capacité à prendre en charge le son surround. Le système dispose non seulement d'un outil parfait pour éditer la position de la source sonore, mais prend également en charge les effets surround multicanaux.

PC : Quelles sont les actions de l'utilisateur de ce programme pendant le processus de doublage ?

ST.: Nous écoutons la bande sonore que nous avons déjà et voyons quelles informations nous devons supprimer et quelles informations nous devons modifier.

PC : S’il s’agit d’un film amateur, de combien de pistes aurions-nous besoin ?

ST.: D'après mon expérience, il s'agit de 16 à 24 pistes.

PC : Que peut-on placer sur un si grand nombre de pistes ?

ST.: Faites le calcul par vous-même : une piste est occupée par des brouillons, la seconde par des effets spéciaux, la troisième par de la musique de voix off, et ce n'est pas seulement de la musique, mais aussi des dialogues, des commentaires, etc. Quand tout cela est mis ensemble, c’est exactement le nombre de pistes.

De plus, 16 voire 24 titres, c'est un nombre relativement petit. Dans les films professionnels, leur nombre peut dépasser la centaine.

PC : Quelles autres options pourriez-vous recommander pour un usage semi-professionnel, par exemple pour composer un film de présentation à la maison ?

ST.: Une option abordable que je suggérerais d’envisager est une combinaison de la carte DIGI-001 et du logiciel Pro Tools 5 LE. Cette option est nettement meilleure en termes de qualité de la carte E/S et un peu moins bonne en termes de logiciel.

Il existe actuellement une version pour Mac OS et l'autre jour, une version pour Windows NT est publiée (j'espère qu'au moment de la publication de ce magazine, la version Windows de ce programme apparaîtra en Russie). Le matériel pour Windows et Mac OS est absolument le même.

PC : Est-il possible de dire qu'après la sortie de la version Windows, ce sera une solution moins chère du fait que le poste de travail lui-même coûtera moins cher ?

ST.: On croit souvent à tort qu'une station de voix off sur PC coûte moins cher qu'une solution basée sur Macintosh. Mais l’idée selon laquelle il existe des stations bon marché basées sur PC et des stations coûteuses basées sur Macintosh est également fausse. Il existe des systèmes spécifiques pour résoudre des problèmes spécifiques, et le fait est qu'il est parfois très difficile de construire un système basé sur PC pour résoudre les problèmes liés à la création de contenu multimédia, car à partir d'un ensemble aléatoire de pièces bon marché compatibles IBM, il est très difficile d'assembler une machine qui donnerait des performances optimales...

Quel que soit le type de poste de travail qui fonctionnera dans le système, DIGI 001 offrira des fonctionnalités beaucoup plus avancées que le SoundBlaster, et la carte, avec le Pro Tools 5.0 LE « mathématique », ne coûte que 995 $, soit à peu près le même montant. identique à la solution précédente avec le SoundBlaster le moins cher.

De plus, si la solution Nuendo plus SoundBlaster est une option dont les capacités sont limitées par une carte bon marché et que le logiciel a des capacités très larges, alors la solution basée sur DIGI 001 plus Pro Tools 5.0 LE est une carte beaucoup plus puissante, et le logiciel est un peu plus modeste en termes de capacités que Nuendo. Pour bien comprendre de quoi nous parlons, nous énumérerons les avantages de cette solution du point de vue de la carte E/S. DIGI 001 est un ADC-DAC 24 bits, la possibilité d'écouter simultanément 24 pistes, la présence de huit entrées au lieu de deux sur la carte, etc. Ainsi, si, par exemple, lors de l'enregistrement d'une présentation, vous devez enregistrer une scène dans laquelle six personnes parlent dans six microphones, DIGI 001 se chargera de cette tâche. Ajoutez à cela la sortie indépendante vers les moniteurs et le travail avec des fichiers 24 bits, tandis qu'avec Nuendo et le SaundBlaster bon marché, vous ne pouvez travailler qu'avec des fichiers 16 bits...

Pro Tools 5 LE vous permet de faire presque la même chose que Nuendo : effectuer un montage non linéaire, les mêmes manipulations avec les fichiers audio, et il existe également un mini-séquenceur qui vous permet également d'enregistrer de la musique à l'aide d'instruments MIDI.

PC : Alors, quelle est la différence entre les tâches professionnelles et semi-professionnelles et quel matériel nécessitent-elles ?

ST.: Tout d’abord, je pourrais parler du système Pro Tools. Afin d'éviter d'éventuelles questions, je tiens à souligner encore une fois : il faut faire la distinction entre Digidesign Pro Tools en tant que marque et Pro Tools en tant qu'équipement. La marque Pro Tools couvre toute une gamme de produits. Le système le plus simple de cet ensemble est précisément DIGI 001, dont nous avons parlé lors de la description des tâches semi-professionnelles. Il s'agit de l'option la plus simple parmi toute une gamme de produits, qui se termine par des systèmes fonctionnant sur des dizaines de postes de travail connectés à un seul réseau.

PC : Choisissons une option qui peut être utilisée pour le doublage de films professionnels simples, de séries télévisées, etc.

ST.: Le prochain système que nous pourrions envisager est Pro Tools 24. Pour bien comprendre les problèmes que ce système résout, notons que la dernière série "Xena" a été doublée en utilisant cette technique.

Il existe des versions pour Mac OS et Windows NT. Si nous parlons des exigences pour les stations NT, alors il doit s'agir d'une machine sérieuse, par exemple IBM Intelli Station M PRO, 512 RAM. La documentation indique que la configuration minimale requise pour le processeur est un Pentium II 233, mais en réalité, pour travailler, vous avez besoin d'au moins un Pentium II 450 et, bien sûr, d'un système de disque SCSI, et un accélérateur à deux ports est nécessaire pour extraire 64 pistes. simultanément.

Pro Tools 24 est un ensemble de cartes de processeur de signal personnalisées basées sur Motorola. Il est important de noter que ce système est basé sur des coprocesseurs, c'est-à-dire que le processeur de la machine effectue le travail associé aux entrées/sorties et à l'affichage des graphiques sur l'écran, et que tout le traitement du signal est effectué sur des coprocesseurs spécialisés DSP (Digital Signal Processing). Cela permet de résoudre des problèmes de mixage assez complexes. C’est cette technologie qui est utilisée pour réaliser ce qu’on appelle les blockbusters. Par exemple, pour doubler le Titanic (uniquement des effets !), un système de 18 postes de travail connectés à un réseau a été utilisé.

La bande originale de films comme Titanic est un paysage sonore incroyablement complexe et variable dans le temps. Si vous analysez un extrait de cinq à dix minutes d'un tel film, riche en sons, et notez tous les sons qui y sont utilisés, vous obtiendrez une liste de centaines de noms. Bien sûr, tous ces sons ne sont pas audibles à partir d'une cassette VHS, et beaucoup ne soupçonnent même pas à quel point l'image sonore est créée dans le film. (De plus, la plupart de ces sons sont créés synthétiquement et n’existent pas dans la nature.)

PC : Vous avez abordé la question du remplacement des sons naturels par des sons plus convaincants. Où peut-on acheter de telles bibliothèques de sons et combien coûtent-elles ?

ST.: Le coût de ces bibliothèques varie de cinquante dollars et plus à plusieurs milliers de dollars. De plus, tous ces sons sont principalement utilisés pour une production simple au niveau du réseau câblé. Pour les films professionnels, même à petit budget (sans parler des plus chers), tous les sons sont enregistrés indépendamment.

PC : Pourquoi les sons de la bibliothèque standard ne conviennent-ils pas à un film professionnel ?

ST.: En gros, je parle de la manière dont cela se fait en Occident ou de la manière dont cela devrait être fait, car dans notre pays, à cause de la pauvreté, nous économisons très souvent sur des choses sur lesquelles nous ne pouvons pas économiser. Le fait est qu'un long métrage reflète un certain plan individuel du réalisateur, et il est souvent quasiment impossible de trouver dans les bibliothèques un son qui correspond pleinement à ce plan.

PC : Mais le son peut être édité, et les possibilités pour cela, comme vous le dites, sont très larges ?

ST.: Le timbre sonore existe. Vous pouvez accentuer ou affaiblir certaines composantes de ce timbre, mais vous ne pouvez pas le modifier radicalement. C'est pourquoi tous les bruits d'un film professionnel sont enregistrés « à partir de zéro », et cela est fait par des professionnels. Laissez-moi vous donner un exemple : dans le célèbre film « Batman Returns », il y avait le bruit de la voiture de Batman. Dites-moi s'il vous plaît, dans quelle bibliothèque puis-je trouver ce son ? De plus, si nous parlons de son stéréo et de technologie Surround, alors chaque image sonore est tout simplement unique. Par exemple, si un hélicoptère vole vers le spectateur et revient, il est évident qu'une telle image sonore est liée à l'intrigue. Dans ce cas, il n'est pas nécessaire d'enregistrer des sons réels - le plus souvent, ils sont créés de manière synthétique.

PC : Pourquoi n’est-il pas possible d’enregistrer des sons issus de processus physiques réels et de les présenter exactement tels qu’ils se produisent dans la vie ? Pourquoi avez-vous besoin d’en utiliser d’autres, synthétiques à la place ?

ST.: Nous n’avons pas besoin de recréer exactement le son de processus physiques réels, comme vous le dites. Si une bombe explose à trois mètres du premier plan, ce que le spectateur doit transmettre n’est pas le son réellement entendu par un soldat qui se trouve à proximité du lieu de l’explosion ! Nous devons véhiculer une certaine image conventionnelle qui permettra au spectateur d'imaginer la réalité ; en même temps, nous nous concentrons sur les particularités de sa perception, sur les accents artistiques dont nous avons besoin, etc.

Le son est l'élément le plus expressif du multimédia. Le monde des sons entoure constamment une personne. On entend le bruit des vagues, le bruissement des feuilles, le rugissement des cascades, le chant des oiseaux, les cris des animaux, les voix des gens. Ce sont tous les sons de notre monde.

L'histoire de cet élément d'information pour une personne est aussi ancienne que les précédentes (texte, image). Initialement, l'homme a créé des appareils avec lesquels il essayait de reproduire des sons naturels à des fins pratiques, notamment pour la chasse. Ensuite, les sons dans sa tête ont commencé à former une certaine séquence qu'il souhaitait préserver. Les premiers instruments de musique apparaissent (l'un des plus anciens est le krin chinois). Peu à peu, il y a eu un processus de formation d'un langage dans lequel les mélodies nées pouvaient être enregistrées et ainsi conservées pendant longtemps. Les premières tentatives pour développer un tel « alphabet musical » ont été faites dans l’Égypte ancienne et en Mésopotamie. Et sous la forme sous laquelle nous le connaissons aujourd'hui (sous forme de notation musicale), le système d'enregistrement de la musique s'est développé au XVIIe siècle. Ses fondations ont été posées par Guido d'Arezzo.

Parallèlement, les systèmes d'enregistrement et de stockage du son étaient améliorés. L'homme a appris à sauvegarder et à reproduire non seulement la musique, mais aussi tous les sons environnants. Le son a été enregistré pour la première fois en 1877 sur un phonographe inventé par Thomas Edison. L'enregistrement prenait la forme d'indentations sur une feuille de papier montée sur un cylindre rotatif. Edison a été le premier à apprendre à sa machine à dire « bonjour » à voix haute dans un microphone. Ce mot a été entendu lorsqu'une aiguille reliée à un microphone répétait l'enregistrement réalisé sur papier. La méthode d'enregistrement mécano-acoustique a duré jusque dans les années 1920, lorsque les systèmes électriques ont été inventés. L'utilisation pratique de l'enregistrement sonore a également été facilitée par deux inventions révolutionnaires :

· invention de la bande magnétique en plastique en 1935 ;

· développement rapide de la microélectronique dans les années 60.

Le développement rapide de la technologie informatique a donné à ce processus un nouvel élan de développement. Le monde des sons s'est progressivement connecté au monde numérique.

Il existe deux méthodes principales de synthèse sonore dans les cartes son :

synthèse d'ondes de table(WaveTable, WT), basé sur la reproduction d'échantillons - sons préenregistrés numériquement d'instruments réels. La plupart des cartes son contiennent un ensemble intégré de sons d'instruments enregistrés dans la ROM ; certaines cartes permettent d'utiliser des enregistrements qui sont également chargés dans la RAM. Pour obtenir le son de la hauteur souhaitée, ils utilisent une modification de la vitesse de lecture de l'enregistrement ; des synthétiseurs complexes utilisent une lecture parallèle de différents échantillons et un traitement sonore supplémentaire (modulation, filtrage) pour reproduire chaque note.



Avantages: son réaliste des instruments classiques, facilité de production sonore.

Défauts: un ensemble rigide de sons pré-préparés, dont beaucoup de paramètres ne peuvent pas être modifiés en temps réel, de grandes quantités de mémoire pour les échantillons (parfois jusqu'à des centaines de Ko par instrument), le son inégal des différents modèles de synthétiseur en raison de différents ensembles de normes instruments.

modulation de fréquence(Frequency Modulation, FM) – synthèse basée sur l'utilisation de plusieurs générateurs de signaux avec modulation mutuelle. Chaque générateur est contrôlé par un circuit qui régule la fréquence et l'amplitude du signal et représente l'unité de base de la synthèse : l'opérateur. Les cartes son utilisent la synthèse à deux opérateurs (OPL2) et à quatre opérateurs (OPL3). Le schéma de connexion des opérateurs (algorithme) et les paramètres de chaque opérateur (fréquence, amplitude et loi de leur évolution dans le temps) déterminent le timbre du son. Le nombre d'opérateurs et leur schéma de contrôle déterminent le nombre maximum de timbres synthétisés.

Avantages: il n'est pas nécessaire d'enregistrer les sons des instruments à l'avance et de les stocker en ROM, la variété des sons obtenus est grande, il est facile de répéter le timbre sur différentes cartes avec des synthétiseurs compatibles.

Défauts: il est difficile d'assurer un timbre suffisamment harmonieux sur toute la gamme sonore, l'imitation du son d'instruments réels est extrêmement grossière, il est difficile d'organiser un contrôle fin des opérateurs, c'est pourquoi les cartes son utilisent un circuit simplifié avec un petit gamme de sons possibles.

Si la composition nécessite le son d'instruments réels, la méthode de synthèse d'ondes est mieux adaptée ; pour créer de nouveaux timbres, la méthode de modulation de fréquence est plus pratique, bien que les capacités des synthétiseurs FM sur les cartes son soient assez limitées.

Aujourd'hui, le terme « multimédia » est assez clair : il s'agit d'une combinaison de méthodes bien connues de transmission d'informations, telles que les images, la parole, l'écriture, les gestes. Cette combinaison est, en règle générale, profondément réfléchie, assemblée à partir de différents éléments qui se complètent pour créer une image globale intelligible. Tout cela peut être observé sur presque toutes les ressources d'information, par exemple un fil d'actualité avec des photographies ou des vidéos jointes. Le projet peut être soit clairement formé, lorsque l'histoire est construite par le créateur et se déroule de manière linéaire, soit il existe plusieurs autres types, comme l'interactivité et le transmédia, qui rendent l'intrigue non linéaire et créent des opportunités pour l'utilisateur de créer son propre projet. propre scénario. Tout cela est une fonctionnalité avancée supplémentaire pour créer un contenu plus intéressant auquel l'utilisateur voudra revenir encore et encore.

L'essentiel du concept de « multimédia » est que la combinaison d'éléments multimédias de base est basée sur un ordinateur ou toute technologie numérique. Il s'ensuit que les composants standards du multimédia ont une signification plus large. Vaughan, T. Multimedia: Making it work (7e éd.). New Delhi : Mac-Graw Hill. 2008. pp.1-3, 25-40, 53-60 :

1. Texte. La langue écrite est le moyen de transmission d’informations le plus courant et constitue l’une des principales composantes du multimédia. À l’origine, il s’agissait de supports imprimés tels que les livres et les journaux qui utilisaient différentes polices pour afficher les lettres, les chiffres et les caractères spéciaux. Malgré cela, les produits multimédias incluent des photos, de l'audio et de la vidéo, mais le texte peut être le type de données le plus courant trouvé dans les applications multimédias. En outre, le texte offre également la possibilité d’étendre le pouvoir traditionnel de l’écriture en le reliant à d’autres médias, le rendant ainsi interactif.

un. Texte statique. Dans le texte statique, les mots sont disposés pour bien s'intégrer dans l'environnement graphique. Les mots sont intégrés dans les graphiques de la même manière que les graphiques et les explications sont placés sur les pages d'un livre, ce qui signifie que les informations sont bien pensées et qu'il est possible non seulement de regarder les photographies, mais également de lire les informations textuelles. Kindersley, P. (1996). Multimédia : Le guide complet. New York : NSP..

b. Hypertexte. Un système de fichiers hypertexte est constitué de nœuds. Il contient du texte et des liens entre les nœuds qui définissent des chemins qu'un utilisateur peut utiliser pour accéder au texte de manière incohérente. Les liens représentent des associations de sens et peuvent être considérés comme des références croisées. Cette structure est créée par l'auteur du système, bien que dans les systèmes hypertextes plus complexes, l'utilisateur puisse définir ses propres chemins. L'hypertexte offre à l'utilisateur une flexibilité et un choix lorsqu'il se déplace dans le matériel. Des phrases et des paragraphes bien formatés, l'espacement et la ponctuation contribuent également à la lisibilité du texte.

2. Le son. Le son est l'élément le plus sensoriel du multimédia : c'est la parole directe dans n'importe quelle langue, du murmure au cri ; c'est quelque chose qui peut procurer du plaisir à écouter de la musique, créer un effet spécial ou une ambiance de fond saisissant ; c'est quelque chose qui peut créer une image artistique, en ajoutant l'effet de la présence d'un narrateur à un site de texte ; vous aidera à apprendre à prononcer un mot dans une autre langue. Le niveau de pression acoustique est mesuré en décibels, qui doivent se situer dans la plage d'un volume sonore suffisant pour être perçu par l'oreille humaine.

un. Interface numérique des instruments de musique (Musical Instrument Digital Identifier - MIDI). MIDI est une norme de communication développée au début des années 1980 pour les instruments de musique électroniques et les ordinateurs. Il s'agit d'une représentation abrégée de la musique stockée sous forme numérique. MIDI est l'outil le plus rapide, le plus simple et le plus flexible pour composer des partitions dans un projet multimédia. Sa qualité dépend de la qualité des instruments de musique et des capacités du système audio. Vaughan, T. Multimédia : Faire fonctionner cela (7e éd.). New Delhi : Mac-Graw Hill. 2008. pp.106-120

b. Son numérisé et enregistré (Digital Audio). L'audio numérisé est un échantillon dans lequel chaque fraction de seconde correspond à un échantillon audio stocké sous forme d'informations numériques en bits et en octets. La qualité de cet enregistrement numérique dépend de la fréquence à laquelle les échantillons sont prélevés (taux d'échantillonnage) et du nombre de nombres utilisés pour représenter la valeur de chaque échantillon (profondeur de bits, taille de l'échantillon, résolution). Plus un échantillon est prélevé souvent et plus de données sont stockées à son sujet, meilleures sont la résolution et la qualité de l'audio capturé lors de sa lecture. La qualité de l'audio numérique dépend également de la qualité de la source audio d'origine, des périphériques de capture prenant en charge le logiciel et des capacités de lecture de l'environnement.

3. Images. Il représente un élément important du multimédia, car on sait qu'une personne reçoit la plupart des informations sur le monde par la vision, et l'image est toujours ce qui visualise le texte Dvorko, N. I. Fondamentaux de la réalisation de programmes multimédias. SPbSUP, 2005. ISBN5-7621-0330-7. - Avec. 73-80. Les images sont générées par ordinateur de deux manières, sous forme d'images raster et également sous forme d'images vectorielles Vaughan, T. Multimedia : Making it work (7e éd.). New Delhi : Mac-Graw Hill. 2008. pages 70-81.

un. Images raster ou Bitmap. La forme la plus courante de stockage d’images sur un ordinateur est le raster. Il s'agit d'une simple matrice de petits points appelés pixels qui constituent une image raster. Chaque pixel est composé de deux couleurs ou plus. La profondeur de couleur est déterminée par la quantité de données en bits utilisée pour déterminer le nombre de couleurs, par exemple, un bit correspond à deux couleurs, quatre bits correspondent à seize couleurs, huit bits correspondent à 256 couleurs, 16 bits correspondent à 65 536 couleurs, etc. Selon les capacités matérielles, chaque point peut afficher plus de deux millions de couleurs. Une grande taille d’image signifie que l’image paraîtra plus réelle par rapport à ce que l’œil voit ou au produit original. Cela signifie que les proportions, la taille, la couleur et la texture doivent être aussi précises que possible.

b. Images vectorielles. La création de telles images repose sur le dessin d’éléments ou d’objets tels que des lignes, des rectangles, des cercles, etc. L’avantage d’une image vectorielle est que la quantité de données requise pour représenter l’image est relativement faible et ne nécessite donc pas une grande quantité d’espace de stockage. Une image consiste en un ensemble de commandes qui sont exécutées en cas de besoin. Une image raster nécessite un nombre spécifique de pixels pour produire la hauteur, la largeur et la profondeur de couleur appropriées, tandis qu'une image vectorielle repose sur un nombre relativement limité de commandes de dessin. L’inconvénient de la qualité des images vectorielles est le niveau limité de détails pouvant être représenté dans l’image. La compression est utilisée pour réduire la taille du fichier d'une image, ce qui est utile pour stocker un grand nombre d'images et augmenter la vitesse de transfert des images. Les formats de compression utilisés à cet effet sont GIF, TIFF et JPEG Hillman, D. Multimédia : Technologie et applications. New Delhi : Galgotia. 1998..

4. Vidéo. Il est défini comme l'affichage d'événements réels enregistrés sur un écran de télévision ou un écran d'ordinateur. L'intégration de vidéo dans des applications multimédias est un moyen puissant de transmettre des informations. Il peut inclure des éléments de personnalité qui manquent à d’autres médias, comme l’affichage de la personnalité du présentateur. Les vidéos peuvent être classées en deux types : vidéo analogique et vidéo numérique.

un. Vidéo analogique. Ce type de données vidéo est stocké sur tout support non informatique, tel que les cassettes vidéo, les disques laser, les films, etc. Ils sont divisés en deux types, vidéo analogique composite et composante :

je. La vidéo analogique composite regroupe tous les composants vidéo, y compris la luminosité, la couleur et la synchronisation, combinés en un seul signal. En raison de la composition ou de la combinaison des composants vidéo, la qualité vidéo résultante perd en couleur, réduit la clarté et entraîne une perte de performances. La perte de productivité signifie une perte de qualité lors de la copie à des fins d'édition ou à d'autres fins. Ce format d'enregistrement était utilisé pour enregistrer des vidéos sur bande magnétique telle que Betamax et VHS. La vidéo composite est également susceptible de perdre en qualité d’une génération à l’autre.

ii. La vidéo analogique composante est considérée comme plus avancée que la vidéo composite. Il prend les différents composants de la vidéo, tels que la couleur, la luminosité et la synchronisation, et les décompose en signaux individuels. S-VHS et HI-8 sont des exemples de ce type de vidéo analogique, dans lequel la couleur et la luminosité sont stockées sur une piste et les informations sur une autre. Au début des années 1980, Sony a lancé un nouveau format vidéo portable et professionnel qui stockait les signaux sur trois pistes distinctes.

b. La vidéo numérique est le média multimédia le plus intéressant et constitue un outil puissant pour rapprocher les utilisateurs d'ordinateurs du monde réel. La vidéo numérique nécessite une grande quantité d'espace de stockage, car si une image couleur fixe de haute qualité sur un écran d'ordinateur nécessite un mégaoctet ou plus d'espace de stockage, l'image doit être redimensionnée au moins trente fois par seconde et la mémoire de stockage nécessite trente mégaoctets pour une seconde de vidéo. Ainsi, plus l’image est remplacée, meilleure est la qualité vidéo. La vidéo nécessite une bande passante élevée pour transmettre des données dans un environnement réseau. Il existe des systèmes de compression vidéo numérique pour cela. Il existe des normes de compression vidéo telles que MPEG, JPEG, Cinepak et Sorenson. En plus de la compression vidéo, il existe des technologies de streaming telles qu'Adobe Flash, Microsoft Windows Media, QuickTime et Real Player qui offrent une lecture vidéo de qualité acceptable sur une faible bande passante Internet. QuickTime et Real Video sont les plus couramment utilisés pour une large distribution. Les formats vidéo numériques peuvent être divisés en deux catégories : vidéo composite et vidéo composante.

je. Les formats d'enregistrement numérique composite codent les informations dans un système binaire (0 et 1). Il conserve certaines des faiblesses de la vidéo composite analogique, telles que la couleur et la résolution de l'image, ainsi que les pertes de qualité lors de la création de copies.

ii. Le composant numérique n'est pas compressé et offre une qualité d'image très élevée, ce qui le rend très coûteux.

iii. La vidéo peut faire beaucoup de choses. Les enregistrements vidéo peuvent améliorer la compréhension d’un sujet si l’explication est cohérente. Par exemple, si nous voulons montrer des pas de danse utilisés dans différentes cultures, une vidéo reflétera cela plus facilement et plus efficacement. Vaughan, T. Multimédia : Faire fonctionner cela (7e éd.). New Delhi : Mac-Graw Hill. 2008. pp.165-170

Aujourd'hui, le multimédia se développe très rapidement dans le domaine des technologies de l'information. La capacité des ordinateurs à traiter différents types de médias les rend adaptés à un large éventail d'applications et, plus important encore, de plus en plus de personnes sont capables non seulement de visualiser divers projets multimédias, mais également de les créer elles-mêmes.