Cos'è la multimedialità quali sono le componenti principali della multimedialità. Le componenti principali della presentazione multimediale delle informazioni

Oggi, il termine "multimedia" è abbastanza comprensibile: è una combinazione in sé di metodi ben noti per trasmettere informazioni, come immagini, parole, scrittura, gesti. Questa combinazione è, di regola, profondamente ponderata, assemblata da diversi elementi che si completano a vicenda per creare un'immagine comune e comprensibile. Tutto questo può essere visto in quasi tutti risorsa informativa, come un feed di notizie con foto o video allegati. Il progetto può essere sia ben formato, quando la storia è costruita dal creatore e procede in modo lineare, sia ci sono anche molti altri tipi, come l'interattività e il transmedia, che rendono la trama non lineare e creano opportunità per l'utente di creare il proprio copione. Tutto questo è funzionalità avanzate aggiuntive per la creazione di contenuti più interessanti su cui l'utente vorrà tornare ancora e ancora.

La cosa principale nel concetto di "multimedia" è che la combinazione di elementi multimediali di base si basa su un computer o su qualsiasi tecnologia digitale. Ne consegue che i componenti standard del multimedia hanno un significato più esteso Vaughan, T. Multimedia: Making it work (7a ed.). Nuova Delhi: Mac-Graw Hill. 2008.pp.1-3, 25-40, 53-60:

1. Testo. Il linguaggio scritto è il modo più comune per trasmettere informazioni, essendo uno dei componenti principali della multimedialità. Inizialmente, erano i media stampati come libri e giornali che utilizzavano una varietà di caratteri per visualizzare lettere, numeri e caratteri speciali. Indipendentemente da ciò, i prodotti multimediali includono foto, audio e video, ma il testo può essere il tipo di dati più comune che si trova nelle applicazioni multimediali. Inoltre, il testo offre anche l'opportunità di estendere il potere tradizionale della scrittura collegandolo ad altri media, rendendolo interattivo.

un. Testo statico. Nel testo statico, le parole sono disposte per adattarsi bene all'ambiente grafico. Le parole sono incorporate nei grafici nello stesso modo in cui i grafici e le spiegazioni sono sulle pagine di un libro, cioè le informazioni sono ben congegnate ed è possibile non solo vedere le foto, ma anche leggere le informazioni testuali Kindersley, P. (1996). Multimedia: la guida completa. New York: DC..

B. Ipertesto. Il file system ipertestuale è costituito da nodi. Contiene testo e collegamenti tra nodi che definiscono percorsi che l'utente può utilizzare per accedere al testo in modo incoerente. I link rappresentano associazioni di significato e possono essere pensati come riferimenti incrociati. Questa struttura è creata dall'autore del sistema, sebbene nei sistemi ipertestuali più complessi l'utente possa definire i propri percorsi. L'ipertesto offre all'utente flessibilità e scelta mentre si sposta attraverso il materiale. Frasi e paragrafi ben formattati, spaziatura e punteggiatura influiscono anche sulla leggibilità del testo.

2. Suono. Il suono è l'elemento più sensuale della multimedialità: è un discorso diretto in qualsiasi lingua, dai sussurri alle urla; è qualcosa che può offrire il piacere di ascoltare musica, creare un effetto speciale di sottofondo o un'atmosfera suggestiva; questo è qualcosa che può creare un'immagine artistica, aggiungendo l'effetto della presenza del narratore a un sito testuale; aiutarti a imparare a pronunciare una parola in un'altra lingua. Il livello di pressione sonora è misurato in decibel, che dovrebbe rientrare nei limiti di una sufficiente percezione del volume del suono da parte dell'orecchio umano.

un. Interfaccia digitale di strumenti musicali (Musical Instrument Digital Identifier - MIDI). Il MIDI è uno standard di comunicazione sviluppato all'inizio degli anni '80 per strumenti musicali elettronici e computer. È una rappresentazione abbreviata della musica memorizzata in forma numerica. Il MIDI è lo strumento più veloce, più semplice e più flessibile per la creazione di punteggi di progetti multimediali. La sua qualità dipende dalla qualità degli strumenti musicali e dalle capacità del sistema audio. Vaughan, T. Multimedia: farlo funzionare (7a ed.). Nuova Delhi: Mac-Graw Hill. 2008.pp.106-120

B. Suono digitalizzato e registrato (Digital Audio). L'audio digitalizzato è un campione in cui ogni frazione di secondo corrisponde a un campione audio memorizzato come informazione digitale in bit e byte. La qualità di questa registrazione digitale dipende dalla frequenza con cui vengono prelevati i campioni (frequenza di campionamento) e da quanti numeri vengono utilizzati per rappresentare il valore di ciascun campione (profondità di bit, dimensione del campione, risoluzione). Più spesso viene preso un campione e più dati vengono memorizzati su di esso, migliore è la risoluzione e la qualità del suono catturato quando viene riprodotto. La qualità dell'audio digitale dipende anche dalla qualità della sorgente audio originale, dai dispositivi di acquisizione che supportano il software e dalla capacità di riprodurre l'ambiente.

3. Immagine. È una componente importante della multimedialità, poiché è noto che una persona riceve la maggior parte delle informazioni sul mondo attraverso la visione e l'immagine è sempre ciò che visualizza il testo Dvorko, N. I. Fondamenti di regia di programmi multimediali. Impresa unitaria statale di San Pietroburgo, 2005. ISBN 5-7621-0330-7. - Con. 73-80. Le immagini sono generate al computer in due modi, come immagini raster e anche come immagini vettoriali Vaughan, T. Multimedia: Making it work (7a ed.). Nuova Delhi: Mac-Graw Hill. 2008.pp.70-81.

un. Immagini raster o bitmap. Il modulo di archiviazione più comune per le immagini su un computer è un raster. È una semplice matrice di minuscoli punti chiamati pixel che formano un'immagine bitmap. Ogni pixel è composto da due o più colori. La profondità del colore è determinata dalla quantità di dati in bit utilizzati per determinare il numero di colori, ad esempio, un bit significa due colori, quattro bit significa sedici colori, otto bit mostrano già 256 colori, 16 bit danno 65536 colori e così via . A seconda delle capacità hardware, ogni punto può visualizzare più di due milioni di colori. Un'immagine grande significa che l'immagine sembrerà più reale di ciò che l'occhio vede o del prodotto originale. Ciò significa che le proporzioni, le dimensioni, il colore e la consistenza devono essere il più accurate possibile.

B. Immagine vettoriale. La creazione di tali immagini si basa sul disegno di elementi o oggetti, come linee, rettangoli, cerchi e così via. Il vantaggio di un'immagine vettoriale è che la quantità di dati richiesta per rappresentare l'immagine è relativamente piccola e quindi non richiede una grande quantità di spazio di archiviazione. Un'immagine è costituita da un insieme di comandi che vengono eseguiti quando necessario. Un'immagine bitmap richiede un certo numero di pixel per produrre l'altezza, la larghezza e la profondità del colore appropriate, mentre un'immagine vettoriale si basa su un numero relativamente limitato di comandi di disegno. Il degrado della qualità delle immagini vettoriali è il livello limitato di dettaglio che può essere rappresentato in un'immagine. La compressione viene utilizzata per ridurre la dimensione del file di un'immagine, utile per memorizzare un numero elevato di immagini e aumentare la velocità di trasmissione delle immagini. I formati di compressione utilizzati a questo scopo sono GIF, TIFF e JPEG Hillman, D. Multimedia: tecnologia e applicazioni. Nuova Delhi: Galgozia. 1998..

4. Video. È definita come la visualizzazione di eventi reali registrati su uno schermo televisivo o sul monitor di un computer. L'incorporamento di video in applicazioni multimediali è un potente strumento per trasmettere informazioni. Può includere elementi della personalità che mancano ad altri media, come mostrare la personalità del presentatore. Il video può essere classificato in due tipi, video analogico e video digitale.

un. Video analogico (video analogico). Questo tipo di dati video viene archiviato su qualsiasi supporto non informatico come videocassette, dischi laser, nastri, ecc. Si dividono in due tipologie, video compositi e component analogici:

io. Il video composito (Composite Analog Video) ha tutti i componenti video, inclusi luminosità, colore e temporizzazione, combinati in un unico segnale. A causa della composizione o della combinazione di componenti video, la qualità video perde colore, nitidezza e di conseguenza una perdita di prestazioni. Perdita di prestazioni significa perdita di qualità durante la copia per la modifica o altri scopi. Questo formato di registrazione è stato utilizzato per registrare video su nastro magnetico come Betamax e VHS. Il video composito è anche soggetto a perdita di qualità da una generazione all'altra.

ii. Il video analogico componente (Component Analog Video) è considerato più avanzato del composito. Prende i vari componenti di un video, come colore, luminosità e tempistica, e li suddivide in segnali individuali. S-VHS e HI-8 sono esempi di questo tipo di video analogico, in cui il colore e la luminosità sono memorizzati su una traccia e le informazioni su un'altra. All'inizio degli anni '80, Sony ha rilasciato un nuovo formato video professionale portatile che memorizzava i segnali su tre tracce separate.

B. Il video digitale (Digital Video) è lo strumento multimediale più interessante, un potente strumento per avvicinare gli utenti di computer al mondo reale. Il video digitale richiede molto spazio di archiviazione, perché se un'immagine fissa a colori di alta qualità sullo schermo di un computer richiede uno o più megabyte di spazio di archiviazione, l'immagine deve essere modificata almeno trenta volte al secondo e lo spazio di archiviazione richiede trenta megabyte per un secondo di video. Pertanto, più volte viene sostituita l'immagine, migliore è la qualità del video. Il video richiede un'elevata larghezza di banda per trasmettere dati in un ambiente di rete. Esistono schemi di compressione video digitale per questo. Esistono standard di compressione video come MPEG, JPEG, Cinepak e Sorenson. Oltre alla compressione video, esistono tecnologie di streaming come Adobe Flash, Microsoft Windows Media, QuickTime e Real Player che forniscono una riproduzione video accettabile con larghezza di banda Internet ridotta. QuickTime e Real Video sono i più comunemente usati per l'ampia distribuzione. I formati video digitali possono essere suddivisi in due categorie, video composito e video componente.

io. I formati di registrazione digitale compositi codificano le informazioni in formato binario (0 e 1). Mantiene alcuni dei punti deboli del video composito analogico, come il colore e la risoluzione dell'immagine, nonché la perdita di qualità durante l'esecuzione delle copie.

ii. Il formato digitale del componente non è compresso e ha un aspetto molto alta qualità immagini, il che lo rende molto costoso.

iii. Il video può in molte aree. Le registrazioni video possono migliorare la comprensione dell'argomento quando pertinente alla spiegazione. Ad esempio, se vogliamo mostrare passi di danza usati in culture diverse, un video rifletterà questo in modo più semplice ed efficace. Vaughan, T. Multimedia: farlo funzionare (7a ed.). Nuova Delhi: Mac-Graw Hill. 2008.pp.165-170

Oggi, il multimediale si sta sviluppando molto rapidamente nel campo della tecnologia dell'informazione. La capacità dei computer di gestire vari tipi di media li rende adatti a un'ampia gamma di applicazioni e, soprattutto, sempre più persone hanno l'opportunità non solo di guardare vari progetti multimediali, ma anche di crearli da soli.

Spesso il concetto di "multimediale" (generalmente un termine molto controverso) è descritto come la presentazione di informazioni sotto forma di una combinazione di testo, grafica, video, animazione e suono. Analizzando questo elenco, possiamo dire che i primi quattro componenti (testo, grafica, video e animazione) sono diverse opzioni per la visualizzazione di informazioni con mezzi grafici che appartengono a un ambiente (e non a "molti ambienti", o multimediali), ovvero - all'ambiente visivo.

Quindi, in linea di massima, è possibile parlare di multimedialità solo quando una componente audio viene aggiunta ai mezzi per influenzare gli organi visivi. Naturalmente, sono attualmente noti sistemi informatici che possono anche influenzare la percezione tattile umana e persino creare odori inerenti a determinati oggetti visivi, ma finora queste applicazioni hanno applicazioni altamente specializzate o sono nella loro infanzia. Pertanto, si può sostenere che le tecnologie multimediali odierne sono tecnologie che mirano a trasmettere informazioni, interessando principalmente due canali di percezione: visione e udito.

Poiché le descrizioni delle tecnologie multimediali sulle pagine di stampa prestano ingiustamente molta meno attenzione alla componente audio che alle tecnologie per il trasferimento di oggetti grafici, abbiamo deciso di colmare questa lacuna e abbiamo chiesto a uno dei massimi esperti russi nel campo della registrazione del suono digitale di raccontarci noi su come viene creata una sequenza audio per contenuti multimediali - Sergej Titov.

ComputerPress: Quindi, possiamo dire che il concetto di "multimediale" non esiste senza una componente sonora. Sergey, potresti dirci come viene creata esattamente questa parte del contenuto multimediale?

Sergej Titov: In linea di principio, percepiamo circa l'80% di tutte le informazioni sul mondo esterno con l'aiuto della vista e meno del 20% - con l'aiuto dell'udito. Tuttavia, è impossibile fare a meno di questo 20%. Ci sono molte applicazioni multimediali in cui il suono è al primo posto ed è lui che dà il tono all'intero lavoro. Ad esempio, molto spesso viene creato un video clip per un brano specifico, piuttosto che un brano viene scritto sotto il video. Pertanto, nell'espressione "serie audiovisiva" è la parola "audio" che viene prima.

Se parliamo della componente sonora della multimedialità, allora ci sono due aspetti: dal punto di vista del consumatore e dal punto di vista del creatore. Apparentemente, è l'aspetto della creazione di contenuti multimediali che interessa una rivista di informatica, poiché viene creato utilizzando la tecnologia informatica.

Parlando dei mezzi per creare contenuti audio, va notato che il processo di produzione richiede una risoluzione fondamentalmente più alta durante la registrazione dei file rispetto alla fase di consumo e, di conseguenza, sono necessarie apparecchiature di qualità superiore.

Qui puoi tracciare un'analogia con la grafica: un designer può successivamente inviare un'immagine a bassa risoluzione, ad esempio, per la pubblicazione su Internet, e allo stesso tempo scartare alcune informazioni, ma il processo di sviluppo e modifica viene inevitabilmente eseguito tenendo conto di tutte le informazioni disponibili e disposte a strati. La stessa cosa accade quando si lavora con il suono. Pertanto, anche se parliamo di uno studio amatoriale, allora, come minimo, dovremmo parlare di apparecchiature di livello semi-professionale.

Parlando di risoluzione del sistema, in realtà intendiamo due parametri: l'accuratezza della misurazione dell'ampiezza del segnale e la frequenza di quantizzazione, o Sampling Rate. In altre parole, possiamo misurare l'ampiezza del segnale di uscita in modo molto accurato, ma lo facciamo molto raramente e di conseguenza perdiamo la maggior parte delle informazioni.

KP: Come avviene il processo di creazione di una riga sonora?

ST: Qualsiasi immagine sonora viene creata da alcuni elementi costitutivi. Proprio come un dj in una discoteca opera con un certo insieme di componenti iniziali, da cui costruisce un programma continuo, così una persona impegnata nello spartire qualcosa ha dei materiali iniziali che modifica e riunisce in un'immagine finita. Se parliamo di musica nella sua forma più pura, all'inizio il compito è fissare questi elementi e poi raccoglierli in un'unica immagine. Questo, in generale, è chiamato convergenza.

Se stiamo parlando di dare voce a qualche sequenza video (infatti qui si può parlare di contenuti multimediali), allora è necessario raccogliere gli elementi che compongono la colonna sonora, e poi “attaccarli” all'immagine, modificare questi elementi e portare loro in corrispondenza reciproca; mentre i singoli elementi, di cui in questione, deve essere collocato in una forma conveniente per il lavoro.

I programmi per computer creano un'interfaccia in cui ci sono le stesse tracce e un mixer con un righello. Sotto ciascuno di questi sovrani c'è il proprio elemento, che è soggetto a una o all'altra modifica. Pertanto, creiamo un certo campo sonoro sintetizzato, operando con gli elementi esistenti, e poiché questo compito è fondamentalmente creativo, dovremmo essere in grado di modificare questi elementi utilizzando vari tipi di elaborazione - dal semplice montaggio (tagliare, ordinare, incollare) al complesso , quando i singoli elementi possono allungarsi o accorciarsi, quando è possibile modificare la natura del suono di ogni segnale.

KP: Di quale software hai bisogno per fare questo lavoro e quale hardware speciale per computer è necessario?

ST: L'hardware del computer dedicato è essenzialmente solo una scheda I/O, sebbene altri sistemi di workstation abbiano ovviamente determinati requisiti. C'è un'enorme quantità di software per organizzare il processo di registrazione e montaggio: da sistemi amatoriali economici a sistemi semi-professionali e altamente professionali. La maggior parte di questi programmi ha un'architettura plug-in, richiede prestazioni elevate dal computer e sottosistemi di memoria su disco sufficientemente potenti. Il fatto è che per risolvere problemi multimediali ai fini della produzione, e non della riproduzione dei contenuti, sono necessarie macchine con una grande quantità di RAM e un processore potente. Il parametro più significativo qui non è tanto l'elevata potenza del processore quanto il buon equilibrio della macchina in termini di sottosistemi di dischi. Questi ultimi sono tipicamente dispositivi SCSI, da preferire quando si tratta di flussi di dati che non devono essere interrotti. Pertanto, le interfacce IDE non vengono praticamente utilizzate. Un IDE può avere una velocità di trasferimento burst molto alta ma una velocità di trasferimento di mantenimento bassa.

Allo stesso tempo, l'interfaccia IDE prevede che il disco possa fornire dati, accumulandoli in un buffer e quindi pompandoli fuori dal buffer. SCSI funziona in modo diverso e, anche se la velocità di burst è bassa, la velocità di streaming sarà comunque alta.

Va inoltre notato che le attività di cui sopra richiedono quantità molto grandi di spazio su disco. Farò un semplice esempio: un file mono a 24 bit, anche a basse frequenze di campionamento, come 44,1 kHz, occupa 7,5 MB per traccia al minuto.

KP: Esiste una tecnologia per archiviare questi dati in modo più compatto?

ST:È un PCM lineare (Pulse Code Modulation), che non puoi comprimere. Può quindi essere compresso in MP3, ad esempio, ma non in fase di produzione, ma in fase di distribuzione. In fase di produzione, siamo tenuti a lavorare con segnali lineari non compressi. Ancora una volta, darò un'analogia con Photoshop. Per costruire una composizione grafica, il designer deve avere una comprensione completa di ciò che è memorizzato in ogni livello, avere accesso a ciascun livello e regolarlo separatamente. Tutto ciò porta al fatto che il formato PSD di Photoshop occupa una discreta quantità, ma permette di tornare indietro in qualsiasi momento e apportare correzioni ad ogni livello senza intaccare tutti gli altri. Nel momento in cui il quadro è completamente costruito, può essere presentato in un formato diverso, compresso con perdita o senza perdita, ma, ripeto, solo quando la fase di produzione è completamente completata. La stessa cosa accade con il suono: puoi ridurre la composizione del suono solo se hai informazioni complete su tutti i componenti del segnale.

Come ho detto prima, per creare un'immagine sonora, è necessaria una libreria di sorgenti appropriata per l'attività su cui stai lavorando. Di conseguenza, il produttore video ha bisogno di una varietà di rumori ed effetti preregistrati e il DJ ha bisogno dei cosiddetti loop (elementi ripetitivi caratteristici della musica dance). Tutto questo materiale deve essere archiviato sotto forma di file comprensibili per il programma corrispondente che funziona con essi. Inoltre, è necessario un sistema acustico per controllare tutto questo e il programma, di conseguenza, deve consentire di manipolare questo materiale sorgente, che, di fatto, è la parte creativa del processo. Utilizzando il sistema informatico come mezzo di input-output e il programma come strumento, l'utente, secondo il suo istinto interiore, modifica il materiale sorgente: aumenta o diminuisce il volume dei singoli elementi, cambia il timbro. Come risultato del processo di mixaggio, il tecnico del suono deve ottenere un'immagine sonora equilibrata che abbia un certo valore estetico. Come puoi vedere, l'analogia con la grafica è evidente anche a livello terminologico. E se questa immagine varrà qualcosa dipende interamente dall'esperienza, dal gusto, dal talento di questo ingegnere del suono (ovviamente, soggetta alla disponibilità di apparecchiature di alta qualità).

KP: Finora ci siamo riferiti a un'immagine puramente sonora, tuttavia, parlando di multimedialità, è necessario considerare quali mezzi esistono per unire suono e immagine. Cosa è necessario per questo?

ST: Ovviamente è necessaria una scheda I/O video, ad esempio, con un formato di output MPEG o Quick time (se parliamo di multimedia, Quick time sarà più conveniente).

KP: Credo che sarebbe interessante considerare una serie di attività pratiche per dare voce a una sequenza video e, utilizzando esempi specifici, scoprire quale attrezzatura e quale software sono necessari per compiti di vari livelli di complessità. Potremmo iniziare con un'analisi delle opzioni per creare un film di presentazione economico ...

Consideriamo ad esempio il seguente caso: c'è un film video girato da una telecamera amatoriale e le battute e i dialoghi sono già stati registrati sul microfono di questa telecamera. Ora dobbiamo realizzare un film di presentazione attraente con doppiaggio semi-professionale basato su questo. Cosa sarà necessario per questo?

ST: Se ci si trova di fronte al compito di raggiungere una certa percezione del materiale sonoro (anche se si tratta di un film amatoriale), molto è necessario aggiungere al materiale di partenza: effetti sonori, musica di sottofondo, i cosiddetti rumori di sottofondo (da sfondo inglese - sfondo, sfondo) e così via. Pertanto, in ogni caso, diventa necessario avere più tracce in riproduzione contemporaneamente, cioè leggere più file contemporaneamente. Allo stesso tempo, dovremmo essere in grado di regolare la natura del timbro di questi file durante il processo di produzione e modificarli (allungare, accorciare, ecc.).

È importante notare che il sistema dovrebbe consentire la sperimentazione in modo che l'utente possa vedere se un determinato effetto suona correttamente per una determinata posizione. Il sistema dovrebbe anche consentire l'adattamento preciso degli effetti sonori al contesto sonoro, il pan (in stereo) e così via...

KP: Bene, il compito è chiaro e i requisiti per l'attrezzatura sono chiari ... Ora vorrei avere un'idea di quale attrezzatura specifica e quale software può essere raccomandato per risolvere un problema del genere e approssimativamente quanto costerà l'utente.

ST: In linea di principio, abbiamo bisogno di una sorta di editor video, ma questo, a quanto ho capito, è un problema separato e oggi dovremmo concentrarci sulla componente audio. In ogni caso, nel compito che hai descritto sopra, la sequenza sonora è subordinata alla sequenza video. Pertanto, assumeremo di avere una sequenza video e non analizzeremo come viene modificata. Consideriamo la versione originale, quando c'è una sequenza video finale e una sequenza audio approssimativa. In questa bozza di sequenza audio, devi cancellare alcune righe, sostituirne alcune con nuove e così via. Non importa se stiamo parlando di un film di presentazione o di un gioco amatoriale: dovremo inserire degli effetti audio artificiali al suo interno. Ciò è dovuto al fatto che il suono di molti eventi nel frame, registrato utilizzando il microfono della videocamera, suonerà, come si suol dire, poco convincente.

KP: E dove altro puoi ottenere questi suoni, se non da eventi reali filmati?

ST: Questa è un'intera direzione chiamata sound design, che consiste nel creare tali suoni che, una volta riprodotti, darebbero un'immagine sonora convincente, tenendo conto delle caratteristiche della percezione dei suoni da parte dello spettatore. Inoltre, c'è una cosiddetta sottolineatura drammatica nell'immagine di alcuni suoni che in realtà suonano in modo diverso. Certo, se parliamo di cinema amatoriale e doppiaggio semiprofessionale, alcune opportunità si rivelano ridotte, ma i compiti che ci attendono in questo caso sono gli stessi dei professionisti.

In ogni caso, oltre a modificare la bozza, è necessario aggiungere degli effetti speciali.

KP: Quindi, quale attrezzatura abbiamo bisogno per risolvere questo problema?

ST: Sottolineo ancora una volta che si tratta di un livello semiprofessionale, cioè della produzione di un film amatoriale in casa o della produzione di film per gli studi televisivi via cavo, che, in generale, sono compiti vicini. Per risolvere la maggior parte dei compiti di tale post-produzione, è necessaria una macchina Pentium III - 500 MHz, preferibilmente 256 RAM, un sottosistema di dischi SCSI; il sottosistema video non svolge un ruolo speciale, ma è auspicabile che vi sia installato un qualche tipo di decodificatore hardware per video compresso; di conseguenza, è necessaria una scheda I/O, per il lavoro amatoriale più semplice può essere SoundBlaster. Come complesso relativamente economico, puoi considerare il prodotto software Nuendo, che funzionerà con quasi tutte le schede e, ad esempio, un SoundBlaster economico per $ 150. Certo, qui c'è da dire subito che un sistema del genere avrà capacità molto limitate a causa della bassa qualità della scheda SoundBlaster, che ha amplificatori microfonici di qualità molto bassa e un ADC/DAC di qualità molto scadente.

KP: Vorrei sapere cosa ti permette di fare Nuendo?

ST: Nuendo è un pacchetto software che ha un'architettura plug-in ed è progettato per risolvere i problemi di produzione audio, ed è focalizzato specificamente sui compiti di creazione di "audio per video", cioè, si potrebbe dire, è progettato specificamente per la risoluzione di problemi multimediali. Il programma funziona con il suono e l'immagine allo stesso tempo, mentre l'immagine è un componente secondario. Nuendo funziona su Windows NT, Windows 98 e BE OS. Questo programma costa $ 887.

Il programma offre la possibilità di visualizzare un'immagine video scomposta nel tempo e un sistema multitraccia per l'editing e il missaggio dell'immagine sonora.

Una caratteristica del pacchetto software è la sua flessibilità e puoi lavorare su un'ampia gamma di hardware poco costoso. È opinione diffusa che i sistemi seri vengano eseguiti solo su hardware con coprocessori DSP specializzati. Il software Nuendo dimostra il contrario, poiché non solo fornisce strumenti per la produzione audio professionale, ma non richiede hardware specializzato e coprocessori speciali per le sue esigenze.

Nuendo fornisce 200 tracce mix, supporta il suono surround in un modo che fa impallidire molti sistemi rispetto a Nuendo.

Nuendo fornisce un'elaborazione in tempo reale di alta qualità sullo stesso processore della workstation stessa. Naturalmente, la velocità di elaborazione dipenderà dalla workstation selezionata, ma il vantaggio del programma sta nel fatto che si adatta a diverse capacità del processore. Alcuni anni fa, un'elaborazione audio seria era impensabile senza un DSP. Ma oggi i computer desktop hanno i propri processori sufficientemente potenti da gestire le attività di elaborazione in tempo reale. Ovviamente, la possibilità di utilizzare un computer convenzionale per risolvere problemi specifici senza la necessità di coprocessori DSP aggiunge flessibilità al sistema.

Nuendo è un sistema orientato agli oggetti (ovvero un sistema che opera con oggetti metaforici: telecomando, indicatore, traccia, ecc.), che consente di modificare facilmente e completamente file audio in progetti di varia complessità, fornendo un sistema molto conveniente e interfaccia premurosa. Gli strumenti di trascinamento della selezione sono disponibili per una varietà di attività e sono particolarmente utilizzati durante la gestione delle dissolvenze incrociate.

Una caratteristica importante del programma è il sistema quasi illimitato di funzioni di modifica Annulla e Ripristina. Nuendo offre molto di più delle semplici operazioni Annulla e Ripristina: ciascuno dei segmenti audio ha la propria cronologia di modifica e il sistema è organizzato in modo tale che, dopo diverse centinaia di modifiche Annulla e Ripristina, la dimensione massima del file richiesta per memorizzare un segmento non sarà mai più che raddoppia rispetto al volume iniziale.

Uno dei maggiori punti di forza del programma è la sua capacità di supportare il suono surround. Il sistema non solo dispone di uno strumento perfetto per modificare la posizione della sorgente sonora, ma supporta anche effetti surround multicanale.

KP: Quali sono le azioni dell'utente di questo programma nel processo di doppiaggio?

ST: Ascoltiamo la colonna sonora che abbiamo già e vediamo quali informazioni dobbiamo rimuovere e cosa dobbiamo modificare.

KP: Se parliamo di un film amatoriale, di quante tracce potremmo aver bisogno?

ST: Nella mia esperienza, si tratta di 16-24 tracce.

KP: Cosa può essere posizionato su un numero così grande di tracce?

ST: Pensa tu stesso: una traccia è occupata da bozze, la seconda - da effetti speciali, la terza - da musica fuori campo, e questa non è solo musica, ma anche dialoghi, commenti e così via. Quando tutto questo viene messo insieme, risulta proprio un tale numero di tracce.

Inoltre, 16 o anche 24 tracce sono un numero relativamente piccolo. Nei film professionali, il loro numero può superare ben più di cento.

KP: Quali altre opzioni consiglieresti per un uso semiprofessionale, diciamo, per lo stesso doppiaggio di film di presentazione a casa?

ST: Un'opzione economica che suggerirei di prendere in considerazione è una combinazione della scheda DIGI-001 e di Pro Tools 5 LE. Questa opzione è significativamente migliore in termini di qualità della scheda I/O e leggermente più scadente nel software.

Attualmente esiste una versione per Mac OS e una versione per Windows NT è in uscita proprio l'altro giorno (spero che quando questa rivista sarà pubblicata, la versione Windows di questo programma apparirà anche in Russia). L'hardware per Windows e Mac OS è esattamente lo stesso.

KP: Si può dire che dopo la comparsa della versione Windows questa sarà una soluzione più economica per via del fatto che la workstation stessa costerà meno?

ST: L'idea sbagliata che una stazione audio per PC costi meno di una soluzione Macintosh è comune. Ma anche l'opinione che esistano stazioni economiche basate su PC e costose stazioni basate su Macintosh è sbagliata. Esistono sistemi specifici per risolvere problemi specifici, e il fatto è che a volte è molto difficile costruire un sistema basato su PC per risolvere problemi legati alla creazione di contenuti multimediali, poiché è molto difficile assemblare una macchina da un set casuale di parti economiche compatibili con IBM che darebbero prestazioni ottimali...

Indipendentemente dal tipo di workstation che funzionerà nel sistema, DIGI 001 fornirà molte più funzionalità rispetto a SoundBlaster, e la scheda costa solo $ 995 insieme a Pro Tools 5.0 LE "matematica", cioè all'incirca la stessa quantità quanto e la soluzione precedente con il SoundBlaster più economico.

Allo stesso tempo, se la soluzione Nuendo plus SoundBlaster è un'opzione in cui le possibilità sono limitate da una scheda economica e il software ha capacità molto ampie, allora la soluzione basata su DIGI 001 plus Pro Tools 5.0 LE è molto più potente board e il software è leggermente più modesto in termini di capacità rispetto a Nuendo. Per chiarire di cosa stiamo parlando, elenchiamo i vantaggi di questa soluzione dal punto di vista della scheda I/O. DIGI 001 è un ADC-DAC a 24 bit, la possibilità di ascoltare 24 tracce contemporaneamente, la presenza di otto ingressi invece di due sulla scheda, ecc. Quindi, se, ad esempio, durante la registrazione di una presentazione, è necessario registrare una scena in cui sei persone parlano in sei microfoni, il DIGI 001 si occuperà di questo compito. Aggiungi a quell'uscita monitor indipendente più la gestione dei file a 24 bit, mentre Nuendo e l'economico SoundBlaster funzionano solo con file a 16 bit...

Pro Tools 5 LE consente di fare quasi come Nuendo: eseguire modifiche non lineari, le stesse manipolazioni con i file audio, oltre a un mini-sequencer che consente anche di registrare musica utilizzando strumenti MIDI.

KP: Quindi qual è la differenza tra attività professionali e attività semiprofessionali e quale attrezzatura è necessaria per esse?

ST: Prima di tutto, potrei parlare del sistema Pro Tools. Per evitare possibili domande, voglio sottolineare ancora una volta: è necessario distinguere tra Digidesign Pro Tools come marchio e Pro Tools come attrezzatura. Sotto il marchio Pro Tools nasconde un'intera gamma di prodotti. Il sistema più semplice di questo set è esattamente il DIGI 001, di cui abbiamo parlato descrivendo compiti semi-professionali. Questa è la versione più semplice di un'intera linea di prodotti che termina con sistemi basati su decine di workstation legate in un'unica rete.

KP: Scegliamo un'opzione che può essere utilizzata per il doppiaggio di semplici film professionali, programmi TV e così via.

ST: Il prossimo sistema che potremmo prendere in considerazione è Pro Tools 24. Per chiarire quali compiti risolve questo sistema, notiamo che l'ultima serie di Xena è stata doppiata usando questa tecnica.

Esistono versioni sia per Mac OS che per Windows NT. Se parliamo dei requisiti per le stazioni NT, questa dovrebbe essere una macchina seria, ad esempio IBM Intelli Station M PRO, 512 RAM. La documentazione afferma che i requisiti minimi per un processore sono Pentium II 233, ma in realtà è necessario almeno un Pentium II 450 e, ovviamente, un sistema di dischi SCSI, e serve un acceleratore a due porte per estrarre 64 tracce contemporaneamente.

Pro Tools 24 è un insieme di schede specializzate per processori di segnale basate su Motorola. È importante notare che questo sistema si basa su coprocessori, ovvero il processore della macchina esegue il lavoro associato all'input-output e alla visualizzazione della grafica sullo schermo e tutta l'elaborazione del segnale viene eseguita su coprocessori DSP (Digital Signal Processing) specializzati. Ciò consente di risolvere problemi di informazione piuttosto complessi. È questa tecnologia che viene utilizzata per doppiare i cosiddetti blockbuster. Quindi, ad esempio, per il punteggio del Titanic (solo effetti!) è stato utilizzato un sistema di 18 postazioni di lavoro in rete.

La colonna sonora di film come Titanic è un paesaggio sonoro straordinariamente complesso e variabile nel tempo. Se analizzi un estratto ricco di suoni da cinque a dieci minuti da un film del genere e annoti tutti i suoni che vengono utilizzati lì, ottieni un elenco di centinaia di nomi. Naturalmente, tutti questi suoni non vengono ascoltati da un nastro VHS e molti non sospettano nemmeno quanto sia complessa l'immagine sonora creata nel film. (Inoltre, la maggior parte di questi suoni sono creati sinteticamente e non esistono in natura.)

KP: Hai sollevato il problema della sostituzione dei suoni naturali con altri più convincenti. Dove posso trovare queste librerie di suoni e quanto costano?

ST: Il costo di tali biblioteche - da cinquanta dollari e oltre, fino a diverse migliaia di dollari. Allo stesso tempo, tutti questi suoni vengono utilizzati principalmente per la semplice produzione a livello di reti via cavo. Per i film professionali, anche a basso budget (per non dire costosi), tutti i suoni vengono registrati in modo indipendente.

KP: E perché i suoni della libreria standard non sono adatti per un film professionale?

ST: In linea di principio parlo di come si fa in Occidente, o di come si dovrebbe fare, perché nel nostro Paese, a causa della povertà, spesso si risparmia su cose su cui non si può risparmiare. Il fatto è che un lungometraggio riflette una certa intenzione individuale del regista, e spesso è quasi impossibile trovare nelle librerie un suono che corrisponda pienamente a questa intenzione.

KP: Ma il suono può essere modificato e le possibilità per questo, come dici, sono molto ampie?

ST: Esiste una cosa come il timbro del suono. Puoi enfatizzare o indebolire alcune componenti di questo timbro, ma non puoi cambiarlo radicalmente. Ecco perché tutto il rumore di un film professionale viene registrato da zero e i professionisti lo fanno. Per farti un esempio: nel famoso film "Batman Returns" c'era il suono dell'auto di Batman. Puoi dirmi in quale libreria si trova questo suono? Inoltre, se parliamo di suono stereo e tecnologia Surround, ogni immagine sonora è semplicemente unica. Ad esempio, se un elicottero vola verso lo spettatore e torna indietro, è ovvio che tale immagine sonora è legata alla trama. In questo caso, non è necessario registrare suoni reali: molto spesso vengono creati sinteticamente.

KP: Perché è impossibile registrare suoni da processi fisici reali e presentarli esattamente come si verificano nella vita? Perché hai bisogno di usarne altri sintetici?

ST: Non abbiamo bisogno di ricreare accuratamente il suono dei processi fisici reali, come dici tu. Se una bomba esplode a tre metri dal primo piano, lo spettatore non ha bisogno di trasmettere il suono che sente effettivamente un soldato che si trova vicino al luogo dell'esplosione! Dobbiamo trasmettere una sorta di immagine condizionale che permetta allo spettatore di immaginare la realtà; allo stesso tempo, ci concentriamo sulle peculiarità della sua percezione, sugli accenti artistici di cui abbiamo bisogno, e così via.

Componenti multimediali

Cos'è la multimedialità? Multi - molto, Media - ambiente. Questa è un'interfaccia uomo-macchina che utilizza vari canali di comunicazione naturali per una persona: testo, grafica, animazione (video), informazioni audio. Oltre a canali virtuali più specializzati che accedono a vari sensi. Diamo un'occhiata più da vicino ai componenti principali della multimedialità.

1. Testo. Rappresenta segni o informazioni verbali. I simboli di testo possono essere lettere, segni matematici, logici e di altro tipo. Il testo può essere non solo letterario, il testo è un programma per computer, una notazione musicale, ecc. In ogni caso, è una sequenza di caratteri scritti in una lingua.

Le parole del testo non hanno alcuna apparente somiglianza con ciò che rappresentano. Cioè, sono indirizzati al pensiero astratto, e nella testa li ricodifichiamo in determinati oggetti e fenomeni.

Allo stesso tempo, il testo ha sempre accuratezza e concretezza, è affidabile come mezzo di comunicazione. Senza testo, le informazioni cessano di essere specifiche, non ambigue. Pertanto, il testo è astratto nella forma, ma concreto nel contenuto.

Un articolo scientifico, una pubblicità, un giornale o una rivista, una pagina Web di Internet globale, un'interfaccia di un programma per computer e molto altro si basano su informazioni testuali. Rimuovendo il testo da uno qualsiasi di questi prodotti informativi, distruggeremo effettivamente questo prodotto. Anche in una pubblicità, per non parlare di prospetti, periodici, libri, la cosa principale è il testo. L'obiettivo principale della stragrande maggioranza dei materiali stampati è trasmettere determinate informazioni a una persona sotto forma di testo.

Il testo può essere qualcosa di più di un semplice aspetto visivo. Il discorso è anche testo, concetti codificati come suoni. E questo testo è molto più antico di quello scritto. L'uomo ha imparato a parlare prima di poter scrivere.

2. Informazioni visive o grafiche. Questo è tutto il resto delle informazioni che arrivano attraverso la visione, statiche e non codificate nel testo. Come mezzo di comunicazione, l'immagine è più ambigua e indefinita, non ha la specificità del testo. Ma ha altri vantaggi.

a) Una ricchezza di informazioni. Con la visione attiva, il destinatario percepisce simultaneamente molti significati, significati e sfumature. Ad esempio, in una fotografia, le espressioni facciali delle persone, dalla posa, dallo sfondo circostante, ecc. possono dire molto. E tutti possono percepire la stessa immagine in modo diverso.

b) Facilità di percezione. Viene impiegato molto meno sforzo per visualizzare un'illustrazione rispetto alla lettura del testo. L'effetto emotivo desiderato può essere ottenuto molto più facilmente.

La grafica può essere suddivisa in due tipi: fotografia e disegno. La rappresentazione fotograficamente accurata del mondo reale conferisce al materiale credibilità e realismo, e questo è il suo valore. Un disegno è già una rifrazione della realtà nella mente umana sotto forma di simboli: curve, figure, loro colorazione, composizione e così via. Un disegno può avere due funzioni:

a) chiarimento visivo e aggiunta di informazioni: sotto forma di disegno, diagramma o illustrazione in un libro - l'obiettivo è lo stesso;

b) creazione di un certo stile, aspetto estetico della pubblicazione.

3. Animazione o video, ovvero il movimento L'animazione al computer viene spesso utilizzata per risolvere due problemi.

a) Attira l'attenzione. Qualsiasi oggetto in movimento cattura immediatamente l'attenzione dello spettatore. Questa è una proprietà istintiva, perché. un oggetto in movimento può essere pericoloso. Pertanto, l'animazione è importante come fattore per attirare l'attenzione sulla cosa più importante.

In questo caso, sono sufficienti semplici mezzi per attirare l'attenzione. Quindi, per i banner su Internet, vengono solitamente utilizzati movimenti elementari ripetuti ciclicamente. Le animazioni complicate sono persino controindicate poiché i siti Web sono spesso sovraccarichi di grafica comunque. E questo irrita e stanca il visitatore.

b) Creazione di vari materiali informativi: video, presentazioni, ecc. La monotonia non va bene qui. È necessario controllare l'attenzione dello spettatore. E questo richiede cose come sceneggiatura, trama, drammaturgia, anche in una forma semplificata. Lo sviluppo dell'azione nel tempo ha le sue fasi e le sue leggi (di cui parleremo più avanti).

4. Suono. Le informazioni sonore sono indirizzate a un altro organo di senso, non alla vista, ma all'udito. Naturalmente ha le sue specificità, il suo design e le sue caratteristiche tecniche. Sebbene nella percezione delle informazioni, puoi notare molte somiglianze. Il discorso funge da analogo della scrittura, le belle arti possono essere paragonate in una certa misura alla musica, vengono utilizzati anche suoni naturali e non elaborati.

La differenza essenziale è che non c'è suono statico. Il suono è sempre fluttuazioni dinamiche del mezzo, che hanno una certa frequenza, ampiezza e caratteristiche timbriche.

L'orecchio umano è molto sensibile allo spettro armonico delle vibrazioni sonore, alla dissonanza degli armonici. Pertanto, ottenere un suono di computer digitalizzato di alta qualità è ancora un compito tecnicamente difficile. E molti esperti considerano il suono analogico più “vivo”, naturale rispetto al suono digitale.

5. Canali virtuali che fanno appello ad altri sensi.

Sì, vibrante cellulare non si riferisce alla vista e all'udito, ma al tatto. E questo non è esotico, ma un canale di informazione comune. Sul fatto che qualcuno voglia parlare con l'abbonato. Le sensazioni tattili (tattili) vengono utilizzate anche per altri scopi: ci sono vari simulatori, guanti speciali per giochi per computer e per chirurghi, ecc.

Nei cinema 4D apparsi di recente, l'effetto della presenza dello spettatore nel film si ottiene con vari mezzi che prima non venivano utilizzati: sedie mobili, schizzi in faccia, raffiche di vento, odori.

Esistono persino canali di comunicazione e controllo in cui le cellule nervose, il cervello umano, sono direttamente coinvolte. Sono progettati per persone con disabilità, persone con disabilità. Una persona dopo l'allenamento è in grado di controllare il movimento dei punti sullo schermo con il potere del pensiero. E anche (cosa più importante) impartire mentalmente comandi che mettono in moto una sedia a rotelle speciale.

In questo modo, realta virtuale dalla finzione si trasforma gradualmente in una parte della vita quotidiana.

Inviare il tuo buon lavoro nella knowledge base è semplice. Usa il modulo sottostante

Gli studenti, i dottorandi, i giovani scienziati che utilizzano la base di conoscenze nei loro studi e nel loro lavoro ti saranno molto grati.

Ministero della Pubblica Istruzione della Federazione Russa

Università dei Sistemi di Controllo e della Radioelettronica

Multimedia

e i suoi componenti

Saggio di programmazione

compilato

controllato

    • 1. Che cos'è la multimedialità? 3
    • 2. Che cos'è un CD-ROM? 3
      • 2.1. Un po' di storia. 4
      • 2.2. Parametri delle unità CD-ROM. 4
      • 2.3. Tasso di trasferimento. 4
      • 2.4. Tempo di accesso. 5
      • 2.5. memoria cache. 6
    • 3. Schede video. 6
      • 3.1. Adattatore monocromatico MDA. 6
      • 3.2. Adattatore grafico a colori CGA. 7
      • 3.3. Editor grafico avanzato EGA. 7
      • 3.4. Adattatori VGA. 7
      • 3.5. Standard XGA e XGA-2. otto
      • 3.6. Adattatori SVGA. otto
    • 4. Suono. 8
      • 4.1. Schede audio a 8 e 16 bit. otto
      • 4.2. Colonne. otto
  • 5. Prospettive. 10
  • Tabelle. 11
  • Letteratura. 13

1. Cos'è la multimedialità?

Il concetto di multimedia copre un'intera gamma di tecnologie informatiche relative all'audio, al video e ai modi per archiviarli. In termini più generali, è la capacità di combinare immagine, suono e dati. Fondamentalmente, la multimedialità implica l'aggiunta di una scheda audio e di un'unità CD-ROM al computer.

Microsoft ha creato il Multimedia PC Marketing Council per stabilire standard per i computer multimediali. Questa organizzazione ha creato diversi standard, emblemi e marchi MPC che potevano essere utilizzati dai produttori i cui prodotti soddisfano i requisiti di questi standard. Ciò ha permesso di creare hardware comune e prodotti software nella multimedialità per sistemi compatibili con IBM.

Recentemente, l'MPC Marketing Council ha trasferito la sua autorità al Multimedia PC Working Group della Software Publishers Association, che comprendeva molte organizzazioni membri del consiglio e ora è il legislatore di tutte le specifiche MPC. La prima cosa che ha fatto questo gruppo, ha adottato i nuovi standard MPC.

Il Consiglio ha sviluppato i primi due standard multimediali, chiamati MPC Livello 1 e MPC Livello 2. Nel giugno 1995, dopo la creazione del gruppo Software Publishers Association (SPA), questi standard sono stati integrati da un terzo - MPC Livello 3. Questo standard definisce i requisiti minimi per multimedia-computer (vedi tabella 1, pagina 11).

Successivamente, diamo un'occhiata più da vicino ai singoli componenti (immagine, suono e dati) dei contenuti multimediali.

1. Che è successocd- rom?

Un CD-ROM è un supporto di archiviazione ottico di sola lettura in grado di memorizzare fino a 650 MB di dati, che equivalgono a circa 333.000 pagine di testo o 74 minuti di audio di alta qualità, o una combinazione di entrambi. Un CD-ROM è molto simile ai normali CD audio e puoi anche provare a riprodurlo su un normale lettore audio. Tuttavia, sentirai solo rumore. L'accesso ai dati archiviati su un CD-ROM è più veloce dei dati archiviati su floppy disk, ma comunque significativamente più lento rispetto ai moderni dischi rigidi. Terminecd- romsi riferisce sia ai CD stessi che ai dispositivi (unità) in cui le informazioni vengono lette dal CD.

La portata dei CD-ROM si sta espandendo molto rapidamente: se nel 1988 ne sono state registrate solo poche decine, oggi sono state rilasciate diverse migliaia di titoli di un'ampia varietà di dischi tematici - dai dati statistici sulla produzione agricola mondiale ai giochi educativi per bambini in età prescolare. Molte piccole e grandi aziende private e organizzazioni governative producono i propri CD di informazioni di interesse per esperti in determinati campi.

2.1. Un po' di storia.

Nel 1978, Sony e Philips hanno unito le forze per sviluppare moderni CD audio. Philips aveva già sviluppato un lettore laser a quel tempo e Sony aveva molti anni di ricerca nel campo della registrazione e produzione audio digitale.

Sony ha insistito sul fatto che il diametro dei CD fosse uguale a 12 e Philips ha proposto di ridurlo.

Nel 1982, entrambe le aziende hanno pubblicato uno standard che definiva i metodi di elaborazione del segnale, come registrarli e la dimensione del disco - 4,72, che è ancora utilizzata oggi. Le dimensioni esatte del CD sono le seguenti: diametro esterno - 120 mm, diametro del foro centrale - 15 mm, spessore - 1,2 mm. Si dice che tali dimensioni siano state scelte perché la Nona Sinfonia di Beethoven è stata completamente collocata su un disco del genere. La collaborazione di queste due aziende negli anni '80 ha portato alla creazione di standard aggiuntivi per quanto riguarda l'uso delle tecnologie per la registrazione dei dati informatici. Sulla base di questi standard, sono state create moderne unità per lavorare con i compact disc. E se nella prima fase gli ingegneri hanno lavorato su come scegliere la dimensione del disco per la più grande delle sinfonie, ora programmatori ed editori stanno pensando a come spremere più informazioni in questo piccolo cerchio.

2.2. Parametri delle unità CD-ROM.

I parametri riportati nella documentazione per le unità CD-ROM ne caratterizzano principalmente le prestazioni.

Le caratteristiche principali delle unità CD-ROM sono la velocità di trasferimento e il tempo di accesso ai dati, la disponibilità di buffer interni e la loro capacità, e il tipo di interfaccia utilizzata.

2.3. Tasso di trasferimento.

La velocità di trasferimento dei dati determina la quantità di dati che l'unità può leggere dal CD al computer in un secondo. L'unità di misura di base per questo parametro è il numero di kilobyte di dati trasferiti al secondo (KB/s). Ovviamente questa caratteristica riflette la velocità massima di lettura del drive. Maggiore è la velocità di lettura, meglio è, ma ricorda che ci sono altri parametri importanti.

Secondo il formato di registrazione standard, ogni secondo dovrebbero essere letti 75 blocchi di dati da 2048 byte utili. La velocità di trasferimento dati in questo caso dovrebbe essere pari a 150 Kb/s. Questa è la velocità di trasmissione standard per i dispositivi CD-DA, chiamata anche velocità singola. Il termine "single speed" significa che i CD sono registrati in formato CLV (Centry Line Speed); in questo caso la velocità di rotazione del disco cambia in modo che la velocità lineare rimanga costante. Poiché, a differenza dei CD musicali, i dati possono essere letti da un disco CD-ROM a una velocità arbitraria (purché la velocità sia costante), è del tutto possibile aumentarla. Ad oggi vengono prodotti azionamenti in cui le informazioni possono essere lette a velocità diverse, multipli della velocità accettata per gli azionamenti a velocità singola (vedere tabella 2, pagina 11).

2.4. Tempo di accesso.

Il tempo di accesso ai dati per le unità CD-ROM viene determinato allo stesso modo dei dischi rigidi. È uguale al ritardo tra la ricezione del comando e il momento in cui viene letto il primo bit di dati. Il tempo di accesso è misurato in millisecondi e la sua classificazione standard per le unità 24x è di circa 95 ms. Questo si riferisce al tempo di accesso medio, poiché il tempo di accesso effettivo dipende dalla posizione dei dati sul disco. Ovviamente, quando si lavora sulle tracce interne del disco, il tempo di accesso sarà inferiore rispetto alla lettura delle informazioni dalle tracce esterne. Pertanto, nelle schede tecniche per le unità, viene fornito il tempo di accesso medio, definito come valore medio durante l'esecuzione di più letture casuali di dati dal disco.

Minore è il tempo di accesso, meglio è, soprattutto nei casi in cui i dati devono essere trovati e letti rapidamente. Il tempo di accesso ai dati su CD-ROM è in costante diminuzione. Si noti che questo parametro è molto peggiore per le unità CD-ROM che per i dischi rigidi (100 - 200 ms per i CD-ROM e 8 ms per i dischi rigidi). Una differenza così significativa è dovuta a differenze fondamentali nel design: i dischi rigidi utilizzano più testine e la gamma del loro movimento meccanico è inferiore. Le unità CD-ROM utilizzano un singolo raggio laser e viaggia lungo l'intero disco. Inoltre, i dati sul CD vengono scritti lungo una spirale e, dopo aver spostato la testina di lettura per leggere questa traccia, è ancora necessario attendere che il raggio laser colpisca l'area con i dati necessari.

I dati nella tabella 3 (pagina 12) sono tipici per i dispositivi di fascia alta. All'interno di ciascuna categoria di unità (con la stessa velocità di trasferimento dati) possono essere presenti dispositivi con un valore del tempo di accesso superiore o inferiore.

2.5. memoria cache.

Molte unità CD-ROM hanno buffer o cache incorporati. Queste tamponi sono chip di memoria installati sulla scheda dell'unità per la registrazione dei dati letti, che consentono di trasferire grandi quantità di dati a un computer in una chiamata. In genere, la capacità del buffer è di 256 KB, anche se esistono modelli con dimensioni sia più grandi che più piccole (più sono, meglio è!). Di norma, i dispositivi più veloci hanno buffer più grandi. Questo viene fatto per velocità di trasmissione dati più elevate. La capacità del buffer interno consigliata è di almeno 512 KB, che è il valore standard per la maggior parte dei dispositivi a ventiquattro velocità.

2. Schede video.

La scheda video genera segnali di controllo del monitor. Con l'avvento della famiglia di computer PS/2 nel 1987, IBM ha introdotto nuovi standard per i sistemi video, che hanno quasi subito sostituito quelli vecchi. La maggior parte delle schede video supporta almeno uno dei seguenti standard:

MDA (adattatore per display monocromatico);

CGA (adattatore grafico a colori);

EGA (adattatore grafico avanzato);

VGA (array di grafica video);

SVGA (Super VGA);

XGA (array grafico esteso).

Tutti i programmi progettati per computer compatibili con IBM sono progettati per questi standard. Ad esempio, all'interno dello standard Super VGA (SVGA), diversi produttori offrono diversi formati di immagine, ma 1024768 è lo standard per le applicazioni di immagini avanzate.

3.1. Adattatore monocromatico MDA.

Il primo e più semplice adattatore video era un adattatore monocromatico conforme alla specifica MDA. Sulla sua scheda, oltre al dispositivo di controllo del display stesso, c'era anche un dispositivo di controllo della stampante. L'adattatore video MDA forniva solo la visualizzazione di testo (caratteri) con una risoluzione orizzontale di 720 pixel e una risoluzione verticale di 350 pixel (720350). Era un sistema orientato all'output dei personaggi; non poteva visualizzare immagini grafiche arbitrarie.

3.2. Adattatore grafico a colori CGA.

Per molti anni, l'adattatore grafico a colori CGA è stato l'adattatore video più comune, anche se ora le sue capacità sono molto lontane dall'essere perfette. Questo adattatore aveva due gruppi principali di modalità operative: alfanumerico, o simbolico (alfanumerico - UN/ n), e grafico con indirizzamento di tutti i punti (tutto punto indirizzabile - ANNO DOMINI). Ci sono due modalità caratteri: 25 righe di 40 caratteri ciascuna e 25 righe di 80 caratteri (entrambe funzionano con sedici colori). In entrambe le modalità grafica e caratteri, per formare i caratteri vengono utilizzate matrici da 88 pixel. Ci sono anche due modalità grafiche: colore con risoluzione media (320200 pixel, 4 colori in una tavolozza su 16 possibili) e bianco e nero con alta risoluzione (640200 pixel).

Uno degli svantaggi degli adattatori video CGA è l'aspetto di sfarfallio e "neve" sugli schermi di alcuni modelli. sfarfallio si manifesta nel fatto che quando il testo si sposta sullo schermo (ad esempio, quando si aggiunge una riga), i caratteri iniziano a "strizzare l'occhio". Neve sono punti lampeggianti casuali sullo schermo.

3.3. Editor grafico avanzato EGA.

L'editor grafico avanzato EGA, che è stato interrotto con l'introduzione dei computer PS/2, consisteva in una scheda grafica, una scheda di espansione della memoria delle immagini, un set di moduli di memoria delle immagini e un monitor a colori ad alta risoluzione. Uno dei vantaggi di EGA era la possibilità di costruire un sistema su base modulare. Poiché la scheda grafica funzionava con qualsiasi monitor IBM, poteva essere utilizzata sia con monitor monocromatici che con monitor a colori a prima risoluzione, nonché con monitor a colori a risoluzione più elevata.

3.4. Adattatori VGA.

Nell'aprile 1987, in concomitanza con il rilascio della famiglia di computer PS/2, IBM introdusse la specifica VGA (matrice grafica video), che divenne presto lo standard accettato per i sistemi di visualizzazione dei PC. In effetti, lo stesso giorno, IBM ha rilasciato un'altra specifica per i sistemi di visualizzazione MCGA a bassa risoluzione e ha lanciato l'adattatore video ad alta risoluzione IBM 8514.

3.5. Standard XGA e XGA-2.

Alla fine di ottobre 1990, IBM ha annunciato il rilascio di una scheda video XGA Schermo Adattatore/ UN per il sistema PS / 2 e nel settembre 1992 il rilascio di XGA-2. Entrambi i dispositivi sono adattatori a 32 bit di alta qualità con la possibilità di trasferire loro il controllo del bus (autobus maestro) progettato per computer con un bus MCA. Sviluppati come una nuova forma di VGA, offrono una risoluzione più elevata, più colori e prestazioni significativamente più elevate.

3.6. Adattatori SVGA.

Con l'avvento degli adattatori video XGA e 8514/A, i concorrenti di IBM hanno deciso di non copiare queste risoluzioni VGA, ma di iniziare a produrre adattatori più economici con una risoluzione superiore alla risoluzione dei prodotti IBM. Questi adattatori video costituivano la categoria Super VGA, o SVGA.

Le capacità di SVGA sono più ampie di quelle delle schede VGA. All'inizio SVGA non era uno standard. Questo termine significava molti sviluppi diversi da parte di varie aziende, i cui requisiti per i parametri erano più severi dei requisiti per VGA.

4. Suono.

4.1. Schede audio a 8 e 16 bit.

Il primo standard MPC richiedeva l'audio a "8 bit". Ciò non significa che le schede audio debbano essere inserite in uno slot di espansione a 8 bit. La profondità di bit caratterizza il numero di bit utilizzati per la rappresentazione digitale di ciascun campione. Con otto bit, il numero di livelli discreti del segnale audio è 256 e, se si utilizzano 16 bit, il loro numero raggiunge 65.536 (in questo caso, ovviamente, la qualità del suono tanto sta migliorando). La rappresentazione a 8 bit è sufficiente per la registrazione e la riproduzione discorsi, ma la musica richiede 16 bit.

4.2. Colonne.

Presentazioni commerciali di successo, lavori multimediali e MIDI richiedono altoparlanti stereo di alta qualità. Gli altoparlanti standard sono troppo grandi per un desktop.

Spesso le schede audio non forniscono potenza sufficiente per gli altoparlanti. Anche 4 W (come con la maggior parte delle schede audio) non sono sufficienti per pilotare altoparlanti di fascia alta. Inoltre, gli altoparlanti convenzionali creano campi magnetici e, se posizionati vicino a un monitor, possono distorcere l'immagine sullo schermo. Gli stessi campi possono alterare le informazioni registrate sul dischetto.

Per risolvere questi problemi, gli altoparlanti per i sistemi informatici dovrebbero essere piccoli e ad alta efficienza. Devono essere dotati di protezione magnetica, ad esempio sotto forma di schermi ferromagnetici nell'alloggiamento o compensazione elettrica dei campi magnetici.

Oggi vengono prodotti decine di modelli di altoparlanti, da dispositivi in ​​miniatura economici di Sony, Koss e LabTech a grandi unità autoalimentate come Bose e Altec Lansing. Per valutare la qualità dell'altoparlante, è necessario avere un'idea dei suoi parametri.

Risposta in frequenza (frequenza risposta). Questo parametro rappresenta la banda di frequenza riprodotta dall'altoparlante. La gamma più logica sarebbe da 20 Hz a 20 kHz: corrisponde alle frequenze percepite dall'orecchio umano, ma nessun altoparlante può riprodurre perfettamente i suoni di tutta questa gamma. Pochissime persone sentono suoni superiori a 18 kHz. L'altoparlante di altissima qualità riproduce suoni nella gamma di frequenza da 30 Hz a 23 kHz, mentre i modelli più economici sono limitati a suonare nella gamma da 100 Hz a 20 kHz. La risposta in frequenza è il parametro più soggettivo, poiché lo stesso, da questo punto di vista, gli altoparlanti possono suonare in modo completamente diverso.

Distorsione non lineare (TDH - Distorsione Armonica Totale). Questo parametro determina il livello di distorsione e rumore che si verifica durante l'amplificazione del segnale. In poche parole, la distorsione è la differenza tra il segnale sonoro inviato all'altoparlante e il suono che si sente. La quantità di distorsione viene misurata in percentuale e un livello di distorsione dello 0,1% è considerato accettabile. Per apparecchiature di alta qualità, un livello di distorsione dello 0,05% è considerato lo standard. Alcuni altoparlanti hanno distorsioni fino al 10% e per le cuffie - 2%.

Potenza. Questo parametro è solitamente espresso in watt per canale e indica la potenza elettrica in uscita fornita agli altoparlanti. Molte schede audio hanno amplificatori integrati con un massimo di 8 watt per canale (in genere 4 watt). A volte questa potenza non è sufficiente per riprodurre tutte le sfumature del suono, quindi molti altoparlanti hanno amplificatori incorporati. Tali altoparlanti possono essere commutati per amplificare il segnale proveniente dalla scheda audio.

3. Prospettive.

Quindi, il mondo sta chiaramente vivendo un boom multimediale. A un tale ritmo di sviluppo, quando stanno emergendo nuove direzioni e altre che sembravano molto promettenti diventano improvvisamente non competitive, è difficile compilare anche recensioni: le loro conclusioni possono diventare imprecise o addirittura superate dopo pochissimo tempo. Le previsioni sull'ulteriore sviluppo dei sistemi multimediali sono tanto più inattendibili. La multimedialità aumenta notevolmente la quantità e migliora la qualità delle informazioni che possono essere archiviate in forma digitale e trasmesse nel sistema “uomo-macchina”.

Tabelle.

Tabella 1. Standard dei media.

processore

Pentium a 75 MHz

disco fisso

floppy drive

3,5 pollici 1,44 MB

3,5 pollici 1,44 MB

3,5 pollici 1,44 MB

Dispositivo di archiviazione

Velocità singola

doppia velocità

quadrupla velocità

Risoluzione adattatore VGA

640480,

640480,

65536 colori

640480,

65536 colori

Porti

I/O

Seriale, Parallela, Gioco, MIDI

Seriale, Parallela, Gioco, MIDI

Software

Microsoft Windows 3.1

Microsoft Windows 3.1

Microsoft Windows 3.1

Data di accettazione

Tabella 2. Velocità di trasferimento dati nelle unità CD-ROM

Tipo di guida

Velocità di trasferimento dati, byte/s

Velocità di trasferimento dati, KB/s

Singola velocità (1x)

Due velocità (2x)

Tre velocità (3x)

Quattro velocità (4x)

Sei velocità (6x)

Otto velocità (8x)

Dieci velocità (10x)

Dodici velocità (12x)

Sedici velocità (16x)

Diciotto velocità (18x)

Trentadue velocità (32x)

100 velocità (100x)

1 843 200 - 3 686 400

Tabella 3. Tempi di accesso standard per i dati nelle unità CD-ROM

Tipo di guida

Tempo di accesso ai dati, ms

Singola velocità (1x)

Due velocità (2x)

Tre velocità (3x)

Quattro velocità (4x)

Sei velocità (6x)

Otto velocità (8x)

Dieci velocità (10x)

Dodici velocità (12x)

Sedici velocità (16x)

Diciotto velocità (18x)

Ventiquattro velocità (24x)

Trentadue velocità (32x)

100 velocità (100x)

Letteratura.

Scott Mueller, Craig Zecker. Aggiornamento e riparazione del PC. - M.: Williams Publishing House, 1999. - 990 pagine.

S. Novoseltsev. Multimedia - sintesi di tre elementi//Computer Press. - 1991, n. 8. - pp. 9-21.

Documenti simili

    Applicazioni della multimedialità. Principali vettori e categorie di prodotti multimediali. Schede audio, CD-ROM, schede video. software multimediale. L'ordine di sviluppo, funzionamento e applicazione di strumenti di elaborazione delle informazioni di vario tipo.

    test, aggiunto il 14/01/2015

    Una speciale scheda elettronica che permette di registrare suoni, riprodurli e creare software utilizzando un microfono. La quantità di memoria della scheda video. Principali caratteristiche degli scanner. Risoluzione e densità ottiche, profondità del colore.

    abstract, aggiunto il 24/12/2013

    Nodi principali. Schede video dello standard MDA. Adattatore monocromatico Hercules E altri adattatori video: CGA, EGA, MCGA, VCA, XGA, SVGA e VESA Local Bus. Acceleratore hardware 2D. Test della scheda video. cambiamenti tecnologici nel riempimento e nella progettazione delle tavole.

    abstract, aggiunto il 14/11/2008

    Diversi tipi definizione del termine "multimediale". Le tecnologie multimediali come una delle aree più promettenti e popolari dell'informatica. Multimedialità su Internet. Computer grafica e suoni. Varie applicazioni multimediali.

    tesina, aggiunta il 19/04/2012

    Utilizzo di esempi grafici professionali. Applicazione di prodotti multimediali. Rappresentazione lineare e strutturale dell'informazione. Risorse multimediali di Internet. Software multimediale per computer. Creazione ed elaborazione dell'immagine.

    tesina, aggiunta il 03/04/2013

    Potenziali capacità del computer. Ampia applicazione della tecnologia multimediale. Il concetto ei tipi di multimedialità. Interessanti dispositivi multimediali. Occhiali 3D, webcam, scanner, gamma dinamica, multimedia e tastiera laser virtuale.

    abstract, aggiunto il 04/08/2011

    Il sistema operativo Microsoft con un'interfaccia personalizzata è Windows XP. Funzionamento di programmi applicativi standard: blocco note, editor grafico Paint, word processor WordPad, calcolatrice, compressione dati, agente di compressione, strumenti multimediali standard.

    test, aggiunto il 25/01/2011

    Aspetti teorici dell'ambiente di programmazione Delphi. L'essenza del concetto di ciclo di vita, le caratteristiche del modello a spirale. Scopo del programma "Editor grafico", le sue funzioni principali. Lavorare con un editor grafico, documentare il programma.

    tesina, aggiunta il 16/12/2011

    Caratteristiche delle capacità grafiche dell'ambiente di programmazione Lazarus. Analisi delle proprietà di Tela, Penna, Pennello. Essenza dei metodi per disegnare un'ellisse e un rettangolo. Funzionalità dei componenti Image e PaintBox. Implementazione del programma "Editor grafico".

    tesina, aggiunta il 30/03/2015

    Caratteristiche della scheda video. Il processore grafico è il cuore della scheda video, che caratterizza la velocità dell'adattatore e la sua funzionalità. Sviluppo di una mappa didattica e tecnologica per la riparazione di schede video. Riparazione scheda video a casa.

Il suono è l'elemento più espressivo della multimedialità. Il mondo dei suoni circonda costantemente una persona. Sentiamo il suono della risacca, il fruscio delle foglie, il fragore delle cascate, il canto degli uccelli, le grida degli animali, le voci delle persone. Tutti questi sono i suoni del nostro mondo.

La storia di questo elemento di informazione per una persona è antica quanto le precedenti (testo, immagine). Inizialmente, l'uomo ha creato dispositivi con i quali ha cercato di riprodurre i suoni naturali per i suoi scopi pratici, in particolare per la caccia. Poi i suoni nella sua testa hanno cominciato a prendere forma in una certa sequenza che voleva mantenere. Apparvero i primi strumenti musicali (uno dei più antichi è il krin cinese). A poco a poco, andava avanti il ​​processo di formazione di una lingua, in cui sarebbe stato possibile registrare e quindi preservare a lungo le melodie nate. I primi tentativi di sviluppare un tale "alfabeto musicale" furono fatti nell'antico Egitto e in Mesopotamia. E nella forma in cui lo conosciamo oggi (sotto forma di notazione musicale), il sistema di fissazione della musica si sviluppò nel XVII secolo. Le sue fondamenta furono poste da Guido d'Arezzo.

Allo stesso tempo, sono stati migliorati i sistemi di registrazione e archiviazione del suono. L'uomo ha imparato a salvare e riprodurre non solo la musica, ma anche tutti i suoni circostanti. Il suono fu registrato per la prima volta nel 1877 sul fonografo inventato da Thomas Edison. Il disco sembrava delle depressioni su un foglio di carta montato su un cilindro rotante. Edison è stato il primo a insegnare alla sua auto a dire "ciao" ad alta voce in un microfono. Questa parola è stata udita quando un ago collegato a un microfono ha ripetuto la registrazione fatta su carta. Il metodo meccanico-acustico di registrazione del suono è durato fino agli anni '20, fino all'invenzione degli impianti elettrici. Applicazione pratica La registrazione del suono è stata facilitata anche da due invenzioni rivoluzionarie:

l'invenzione del nastro magnetico in plastica nel 1935;

· il rapido sviluppo della microelettronica negli anni '60.

Il rapido sviluppo della tecnologia informatica ha dato a questo processo un nuovo impulso allo sviluppo. Il mondo dei suoni è stato progressivamente connesso con il mondo digitale.

Nelle schede audio, ci sono due metodi principali di sintesi del suono:

sintesi wavetable(WaveTable, WT), basato sulla riproduzione di campioni - suoni preregistrati digitalmente di strumenti reali. La maggior parte delle schede audio contiene un set integrato di suoni strumentali registrati nella ROM, alcune schede consentono l'uso di registrazioni caricate ulteriormente nella RAM. Per ottenere un suono dell'altezza desiderata, viene utilizzata una modifica nella velocità di riproduzione della registrazione, i sintetizzatori complessi utilizzano la riproduzione parallela di campioni diversi per riprodurre ogni nota e un'elaborazione del suono aggiuntiva (modulazione, filtraggio).



Vantaggi: Il realismo del suono degli strumenti classici, la facilità di ottenere il suono.

Screpolatura: un insieme rigido di timbri pre-preparati, molti dei quali non possono essere modificati in tempo reale, grandi quantità di memoria per i campioni (a volte fino a centinaia di KB per strumento), suono ineguale di diversi modelli di sintetizzatore a causa di diversi set di standard strumenti.

modulazione di frequenza(Frequency Modulation, FM) - sintesi basata sull'utilizzo di più generatori di segnali con modulazione reciproca. Ogni generatore è controllato da un circuito che regola la frequenza e l'ampiezza del segnale ed è l'unità di sintesi di base: l'operatore. Le schede audio utilizzano la sintesi a due operatori (OPL2) e quattro operatori (OPL3). Lo schema di connessione dell'operatore (algoritmo) ed i parametri di ciascun operatore (frequenza, ampiezza e legge della loro variazione nel tempo) determinano il timbro del suono. Il numero di operatori e il loro schema di controllo determinano il numero massimo di timbri sintetizzati.

Vantaggi: non c'è bisogno di pre-registrare i suoni degli strumenti e memorizzarli in ROM, si ottiene un'ampia varietà di suoni, è facile ripetere il timbro su varie schede con sintetizzatori compatibili.

Screpolatura: è difficile fornire un timbro sufficientemente armonioso nell'intera gamma sonora, l'imitazione del suono di strumenti reali è estremamente ruvida, è difficile organizzare un controllo fine degli operatori, ecco perché le schede audio utilizzano un circuito semplificato con un piccolo gamma di suoni possibili.

Se la composizione richiede il suono di strumenti reali, il metodo di sintesi delle onde è più adatto, ma per creare nuovi timbri, il metodo di modulazione di frequenza è più conveniente, sebbene le capacità dei sintetizzatori FM sulle schede audio siano piuttosto limitate.

Condividere