Indice
1. Introducción
2. Transmisión de vídeo: vídeo digital.
3. Formato MPEG
4. Soluciones de vídeo
5. Conclusiones
1. Introducción
2. Transmisión de vídeo: vídeo digital.
3. Formato MPEG
4. Soluciones de vídeo
5. Conclusiones
1. Introducción
La transmisión de vídeo sobre redes de telecomunicaciones está llegando al punto de convertirse en un sistema habitual de comunicación debido al crecimiento masivo que ha supuesto Internet en estos últimos años. Lo estamos utilizando para ver películas o comunicarnos con conocidos, pero también se usa para dar clases remotas, para hacer diagnósticos en medicina, videoconferencia, distribución de TV, vídeo bajo demanda, para distribuir multimedia en Internet... Debido a la necesidad de su uso que se plantea en el presente y futuro, se han proporcionado distintas soluciones y sucesivos formatos para mejorar su transmisión.Pero hoy, ya hemos oído hablar negativamente de los sistemas actuales de distribución de vídeo debido a su dudosa calidad en redes como Internet.Estas aplicaciones normalmente demandan un elevado ancho de banda y a menudo crean cuellos de botella en las redes. Este es el gran problema al que esta sometida la transmisión de vídeo. ¿Por qué es el vídeo tan problemático?
¿Qué es el vídeo?El vídeo no es nada más que la reproducción en forma secuencial de imágenes, que al verse con una determinada velocidad y continuidad dan la sensación al ojo humano de apreciar el movimiento natural. Junto con la imagen, el otro componente es el sonido.
2. Transmisión de vídeo: vídeo digital.
La transmisión digital y la distribución de información audiovisual permite la comunicación multimedia sobre las redes que soportan la comunicación de datos, brindando la posibilidad de enviar imágenes en movimiento a lugares remotos. Pero no es todo tan bonito a la hora de transmitirlo por red, debido a que nos encontramos con sucesos como lentitud entre la reproducción de imágenes, errores de transmisión, o perdidas de datos...Existen dos formas de transmisión de datos, analógico y digital. Una de las características del vídeo es que está compuesto por señales analógicas, con lo que se pueden dar las dos formas de transmisión. En los últimos años la transmisión de datos se ha volcado hacia el mundo digital ya que supone una serie de ventajas frente a la transmisión analógica. Al verse la información reducida a un flujo de bits, se consigue una mayor protección contra posibles fallos ya que se pueden introducir mecanismos de detección de errores, se elimina el problema de las interferencias, podemos disminuir el efecto del ruido en los canales de comunicación, conseguir codificaciones más óptimas y encriptado, mezclar con otros tipos de información a través de un mismo canal, y poder manipular los datos con ordenadores para comprimirlos, por ejemplo.Además si queremos difundir el vídeo por vías digitales tendremos que digitalizarlo, con lo que debe ser capturado en su formato analógico y almacenado digitalmente logrando así que sea menos propenso a degradarse durante la transmisión.Existen dos tipos de redes de comunicación, de conmutación de circuitos y de conmutación de paquetes. En la conmutación de circuitos, donde la comunicación está permanentemente establecida durante toda la sesión, un determinado ancho de banda es asignado para la conexión, y el tiempo de descarga del vídeo puede predecirse, pero tienen la desventaja de que las sesiones son punto a punto y limitan la capacidad de usuarios.En la conmutación de paquetes pueden acomodarse más fácilmente las conferencias multipunto. Aquí el ancho de banda esta compartido pero es variable, lo que supone una importante mejora puesto que, si el bit rate (o número de bits por segundo) es fijo la calidad de la imagen variará dependiendo del contenido de los fotogramas. Debe de cumplirse que el ancho de banda, la resolución, y la compresión de audio sean idénticos para cada cliente que recibe el vídeo, lo que dificulta la configuración del sistema.El vídeo es muy sensible al retardo de la red, ya que puede provocar cortes en las secuencias. La pérdida de alguna información en el vídeo sin comprimir no es muy relevante, ya que al perderse un fotograma, el siguiente fotograma proporciona la suficiente información para poder interpretar la secuencia. En cambio el vídeo comprimido es mucho más sensible a errores de transmisión, ya que las técnicas de compresión que se valen de la redundancia espacial y temporal pueden perder la información de esta redundancia y los efectos de la falta de datos pueden propagarse en los próximos fotogramas. Es por eso que actualmente la comunicación con vídeo vía Internet no prometen una elevada fiabilidad de transmisión.Algunas técnicas de compresión compensan esta sensibilidad a la pérdida de datos enviando la información completa sobre un fotograma cada cierto tiempo, incluso si los datos del fotograma no han cambiado. Esta técnica también es útil para los sistemas de múltiples clientes, para que los usuarios que acaban de conectarse, reciban las imágenes completas.Nos podemos preguntar cuál es la tecnología de red adecuada para las aplicaciones de vídeo, pero siempre dependeremos del entorno en el que trabajemos. Por ejemplo si disponemos de una alto ancho de banda el tipo de red adecuada seria ATM; para un entorno de red de área local podríamos usar Fast Ethernet, y actualmente para que el usuario de Internet, ADSL. Pero la solución para resolver el cuello de botella del ancho de banda del vídeo no está en un solo tipo de red, sino en una infraestructura de red flexible que pueda manejar e integrar diferentes redes y que deje paso también a futuras redes sin cambiar el hardware. También debe ser capaz de negociar las variables de ancho de banda, resolución, número de fotogramas por segundo y algoritmo de compresión de audio. Así que se necesita un nodo que permita la interconectividad entre todas las redes. Es el MCU (unidad de control multipunto). Cada red- RDSI, IP, ASTM- usa protocolos específicos que definen la naturaleza de las ráfagas de vídeo. Las combinaciones de protocolos y estándares son muchas: para vídeo H.261 o H.263, CIF o QCIF, de 7.5 fps a 30 fps; y para audio G.711, G.728, G.722 o G.723. Por ejemplo en una conferencia múltiple el número de posibles combinaciones de estándares y protocolos es muy elevado y puede saturar el MCU. Muchos MCU no son capaces de negociar todas estas variables, forzando a los terminales de los clientes a reducir sus protocolos al más bajo común denominador de todos los participantes, bajando así la calidad del vídeo.
DigitalizaciónLa información a digitalizar será la de las imágenes. Cada cuadro de la imagen es muestreado en unidades de pixeles, con lo que los datos a almacenar serán los correspondientes al color de cada pixel.Tres componentes son necesarias y suficientes para representar el color y para ser interpretado por el ojo humano. El sistema de codificación de color usado es el RGB (Red, Green, Blue). Para digitalizar una señal de vídeo analógico es necesario muestrear todas la líneas de vídeo activo. La información de brillo y color son tratadas de forma diferente por el sistema visual humano, ya que es más sensible al brillo que al color. Con lo que se usa un componente especial para representar la información del brillo, la luminancia, una para el color y la saturación, la crominancia. Cada muestra de color se codifica en señal Y-U-V (Y- luminancia, U y V crominancia) partiendo de los valores del sistema RGB. Con este sistema las diferencias de color pueden ser muestreadas sin resultados visibles, lo que permite que la misma información sea codificada con menos ancho de banda.Un ejemplo de conversión de señal analógica de televisión en color a una señal en vídeo digital sería:Sistema PAL : 576 líneas activas, 25 fotogramas por segundo, para obtener 720 pixels y 8 bit por muestra a 13,5Mhz:
Luminancia(Y): 720x576x25x8 = 82.944.000 bits por segundo
Crominancia(U): 360x576x25x8 = 41.472.000 bits por segundo
Crominancia(V): 360x576x25x8 = 41.472.000 bits por segundo
Número total de bits: 165.888.000 bits por segundo (aprox. 166Mbits/sg). Ninguno de los sistemas comunes de transmisión de vídeo proporcionan transferencias suficientes para este caudal de información Las imágenes de vídeo están compuestas de información en el dominio del espacio y el tiempo. La información en el dominiodel espacio es provista por los pixels, y la información en el dominio del tiempo es provista por imágenes que cambian en el tiempo. Puesto que los cambios entre cuadros colindantes son diminutos, los objetos aparentan moverse suavemente. El valor de luminancia de cada pixel es cuantificado con ocho bits para el caso de imágenes blanco y negro. En el caso de imágenes de color, cada pixel mantiene la información de color asociada; una imagen completa es una composición de tres fotogramas, uno para cada componente de color, así los tres elementos de la información de luminancia designados como rojo, verde y azul, son cuantificados a ocho bits.Pero la transmisión digital de vídeo tiene también alguna desventaja respecto a la analógica, por ejemplo, en una videoconferencia, cuando distintos usuarios envían sonido al mismo tiempo, si el proceso fuera analógico las distintas ondas se sumarían y podríamos escuchar el conjuntos de todas ellas. Al ser digital, los datos llegan en paquetes entremezclados, lo que dificulta la compresión.
Tipos comprimido/descomprimidoComo hemos dicho para cada punto de la imagen se le asigna un determinado número de bits que representarán el color de dicho punto. Si la imagen es en blanco y negro, bastará un bit para representarlo, mientras que para 256 colores serán necesarios 8 bits. De esta forma tendremos la imagen digitalizada, pero almacenar esta información dependerá del número de pixels que utilicemos por imagen. Por ejemplo una imagen de 640 x 480 puntos con 256 colores ocupan 300 Kb, y si tenemos una secuencia de vídeo a 25 fotogramas por segundo significaría que un solo segundo ocuparía 7.500 Kb. Y todo esto sin contar el audio.La información de vídeo compuesta de esta manera posee una cantidad tremenda de información; por lo que, para transmisión o almacenamiento, se requiere de la compresión de la imagen.La compresión del vídeo generalmente implica una pérdida de información y una consecuente disminución de calidad. Pero esto es aceptable porque los algoritmos de codificación están diseñados para descartar la información redundante o que no es perceptible por el ojo humano. Aunque sabemos que la calidad del vídeo es inversamente proporcional al factor de compresión.La compresión es un arma de doble filo, ya que el vídeo comprimido es más sensible a los errores. Un error en vídeo comprimido puede hacer ilegible la imagen, con lo que se añade redundancia para recuperar esa información.El vídeo comprimido en general debe transmitir información por un canal más pequeño del que necesitaría para ser transmitido y poder ser visualizado en tiempo real. Así la información de audio y vídeo deben ser procesadas por los codecs antes de ser transmitidos. Los codecs derivan de las palabras compresor y descompresor, y son los módulos de software que permiten la compresión y descompresión de los ficheros de audio y vídeo para que puedan ser transmitidos por redes de baja velocidad.La digitalización y la compresión pueden darse conjuntamente y en tiempo real para facilitar la comunicación y la interacción.Los codecs más utilizados son los siguientes: Microsoft Video1, Microsoft RLE, Intel Indeo R2, Intel Indeo R3, Intel YUV9, CinePak, Captain Crinch, Creative Compressor.Las señales recibidas deben ser decodificadas antes de poder ser visualizadas por el usuario. Durante este proceso se puede producir:- lo que se llama "vídeo fantasma" o suavización de imagen, que es la forma con la que los codecs compensan los elevados flujos de información. Cuando ocurre esto, el codec comprime la información reduciendo el "frame rate" (número de imágenes por segundo), el cual puede hacer que los movimientos rápidos parezcan borrosos. El codec también modifica la resolución para comprimir la información lo cual puede hacer que la imagen se vea desplazada. Entonces, para reducir estos efectos, se disminuye el flujo de información visual.
También puede darse un retardo de audio.En la red de Internet por ejemplo la mayoría de los usuarios están conectados a velocidades de 56.6 kilobits por segundo (Kbps), 33.6 kbps o 28.8 kbps, y el vídeo descomprimido para ser enviado en calidad broadcast requiere un ancho de banda de red de 160 megabits por segundo (Mbps), en calidad CD requiere aproximadamente 2.8 Mbps, y con los modems actuales sería imposible conseguir las velocidades requeridas para su transmisión. Aquí es donde juegan un papel importante los codecs.Los codecs se optimizan para conseguir la mayor calidad posible en bajos índices de transferencia. Son usados para codificar el vídeo en tiempo real o pregrabado y ser mandado por la red para que el usuario final solamente con una aplicación que lo descomprima podrá al instante visionar en su terminal.
CompresiónLa técnica de compresión de vídeo consiste de tres pasos fundamentalmente, primero el preprocesamiento de la fuente de vídeo de entrada, paso en el cual se realiza el filtrado de la señal de entrada para remover componentes no útiles y el ruido que pudiera haber en esta. El segundo paso es la conversión de la señal a un formato intermedio común (CIF), y por último el paso de la compresión. Las imágenes comprimidas son transmitidas a través de la línea de transmisión digital y se hacen llegar al receptor donde son reconvertidas al formato común CIF y son desplegadas después de haber pasado por la etapa de post-procesamiento.Mediante la compresión de la imagen se elimina información redundante. Se ayuda de la redundancia espacial y temporal. La redundancia temporal es reducida primero usando similitudes entre sucesivas imágenes, usando información de las imágenes ya enviadas. Cuando se usa esta técnica, sólo es necesario enviar la diferencia entre las imágenes, es decir las zonas de la imagen que han variado entre dos fotogramas consecutivos, lo que elimina la necesidad de transmitir la imagen completa. La compresión espacial se vale de las similitudes entre pixeles adyacentes en zonas de la imagen lisas, y de las frecuencias espaciales dominantes en zonas de color muy variado. El método para eliminar las redundancias en el dominio del tiempo pueden ser eliminadas mediante el método de codificación de intercuadros, que también incluye los métodos de compensación/estimación del movimiento, el cual compensa el movimiento a través de la estimación del mismo.En el otro extremo, las redundancias en el dominio espacio es llamado codificación intracuadros, la cual puede ser dividida en codificación por predicción y codificación de la transformada usando la transformada del coseno.La transformada del coseno o DCT es una implementación específica de la transformada de Fourier donde la imagen es transformada de su representación espacial a su frecuencial equivalente. Cada elemento de la imagen se representa por ciertos coeficientes de frecuencia. Las zonas con colores similares se representan con coeficientes de baja frecuencia y las imágenes con mucho detalle con coeficientes de alta frecuencia. La información resultante son 64 coeficientes DCT. El DCT reordena toda la información y la prepara para la cuantización.El proceso de cuantización es la parte del algoritmo que causa pérdidas. La cuantización asigna un número de bits específico a cada coeficiente de frecuencias y entonces comprime los datos asignando unos cuantos bits a los coeficientes de alta frecuencia. sin que lo note el observador. Los parámetros de la cuantización son optimizados, pero el proceso aún deteriora la calidad del vídeo. Generalmente se acepta que un factor de compresión de 2:1 (aproximadamente 10Mb/seg), se pueden apreciar visualmente algunas pérdidas en la integridad del vídeo.
El proceso de decodificación es básicamente el inverso del proceso de codificación. La compresión del audio está descrita por tres parámetros: ratio de muestreo (numero de muestras por segundo), bits por muestra (numero de bits para representar cada valor), y número de canales (mono o estéreo). Los estándares de vídeo digital más conocidos son: MPEG, Quicktime, AVI, MOV, real vídeo, ASF...Y para vídeo analógico: NTSC, PAL, SECAM
3. Formato MPEG
Hace algunos años podíamos pensar en la comunicación mediante video digital en tiempo real, pero sólo imaginarlo. Hoy en día puede decirse que es una realidad. Pero no está todo logrado. Tenemos la posibilidad de solicitar una película de cine desde casa, y que se nos sea servida inmediatamente via satélite. Pero no sólo queremos eso, queremos poder disfrutar de la comunicación multimedia y a bajo precio. Ahora mismo esto significa que a través de Internet ya que es la red que nos llega a todos hasta la puerta de nuestras casas. Pero no nos vale ver a nuestro amigo en blanco y negro, o estático, o borroso, queremos verlo como si lo tuviéramos delante. Y para esto, todavía tendremos que esperar un poco. Y es que no puede circular un camión por un carril de bicicleta; al menos hasta que no ensanchemos el carril.
Trabajo enviado por:Luis
luloss[arroba]hotmail.com