domingo, 7 de junio de 2009

¿Qué es un Sistema?

sistema es un conjunto de "elementos" relacionados entre sí, de forma tal que un cambio en un elemento afecta al conjunto de todos ellos. Los elementos relacionados directa o indirectamente con el problema, y sólo estos, formarán el sistema que vamos a estudiar.
Características de los sistemas
Un sistema es un conjunto de objetos unidos por alguna forma de interacción o
Interdependencia. Cualquier conjunto de partes unidas entre sí puede ser considerado un sistema, desde que las relaciones entre las partes y el comportamiento del todo sea el foco de atención. Un conjunto de partes que se atraen mutuamente (como el sistema solar), o un grupo de personas en una organización, una red industrial, un circuito eléctrico, un computador o un ser vivo pueden ser visualizados como sistemas.
Realmente, es difícil decir dónde comienza y dónde termina determinado sistema. Los límites (fronteras) entre el sistema y su ambiente admiten cierta arbitrariedad. El propio universo parece estar formado de múltiples sistema que se compenetran. Es posible pasar de un sistema a otro que lo abarca, como también pasar a una versión menor contenida en él.
De la definición de Bertalanffy, según la cual el sistema es un conjunto de unidades recíprocamente relacionadas, se deducen dos conceptos: el propósito(u objetivo) y el de globalizo(o totalidad. Esos dos conceptos reflejan dos características básicas en un sistema. Las demás características dadas a continuación son derivan de estos dos conceptos.

a) Propósito u objetivo:Todo sistema tiene uno o algunos propósitos u objetivos. Las unidades o elementos (u Objetos. , como también las relaciones, definen una distribución que trata siempre de alcanzar un objetivo.
b)Globalismo o totalidad: todo sistema tiene una naturaleza orgánica, por la cual una acción que produzca cambio en una de las unidades del sistema, con mucha probabilidad producirá cambios en todas las otras unidades de éste. En otros términos, cualquier estimulación en cualquier unidad del sistema afectará todas las demás unidades, debido a la relación existente entre ellas. El efecto total de esos cambios o alteraciones se presentará como un ajuste del todo al sistema. El sistema siempre reaccionará globalmente a cualquier estímulo producido en cualquier parte o unidad. Existe una relación de causa y efecto entre las diferentes partes del sistema. Así, el Sistema sufre cambios y el ajuste sistemático es continuo. De los cambios y de los ajustes continuos del sistema se derivan dos fenómenos el de la entropía y el de la homeostasia.
c)Entropía:Es la tendencia que los sistemas tienen al desgaste, a la desintegración, para el relajamiento de los estándares y para un aumento de la aleatoriedad. A medida que la entropía aumenta, los sistemas se descomponen en estados más simples. La segunda ley de la termodinámica explica que la entropía en los sistemas aumenta con el correr del tiempo, como ya se vio en el capítulo sobre cibernética.
A medida que aumenta la información, disminuye la entropía, pues la información es la base de la configuración y del orden. Si por falta de comunicación o por ignorancia, los estándares de autoridad, las funciones, la jerarquía, etc. de una organización formal pasan a ser gradualmente abandonados, la entropía aumenta y la organización se va reduciendo a formas gradualmente más simples y rudimentarias de individuos y de grupos. De ahí el concepto de negentropía o sea, la información como medio o instrumento de ordenación del sistema.
d) Homeostasis:Es el equilibrio dinámico entre las partes del sistema. Los sistemas tienen una tendencia adaptarse con el fin de alcanzar un equilibrio interno frente a los cambios externos del medio ambiente.
La definición de un sistema depende del interés de la persona que pretenda analizarlo. Una organización, por ejemplo, podrá ser entendida como un sistema o subsistema, o más aun un supersistema, dependiendo del análisis que se quiera hacer: que el sistema
Tenga un grado de autonomía mayor que el subsistema y menor que el supersistema.
Por lo tanto, es una cuestión de enfoque. Así, un departamento puede ser visualizado como un sistema, compuesto de vario subsistemas(secciones o sectores) e integrado en un supersistema(la empresa), como también puede ser visualizado como un subsistema compuesto por otros subsistemas(secciones o sectores), perteneciendo a un sistema
(La empresa), que está integrado en un supersistema (el mercado o la comunidad. Todo depende de la forma como se enfoque.
El sistema totales aquel representado por todos los componentes y relaciones necesarios para la realización de un objetivo, dado un cierto número de restricciones. El objetivo del sistema total define la finalidad para la cual fueron ordenados todos los componentes y relaciones del sistema, mientras que las restricciones del sistema son las limitaciones introducidas en su operación que definen los límites (fronteras) del sistema y posibilitan explicar las condiciones bajo las cuales debe operar
El término sistema es generalmente empleado en el sentido de sistema total.
Los componentes necesarios para la operación de un sistema total son llamados subsistemas, los que, a su vez, están formados por la reunión de nuevo subsistemas más detallados. Así, tanto la jerarquía de los sistemas como el número de los subsistemas dependen de la complejidad intrínseca del sistema total.
Los sistemas pueden operar simultáneamente en serie o en paralelo.
No hay sistemas fuera de un medio específico (ambiente): los sistemas existen en un medio y son condicionados por él.
Medio (ambiente) es el conjunto de todos los objetos que, dentro de un límite específico pueden tener alguna influencia sobre la operación del Sistema.
Los límites (fronteras) son la condición ambiental dentro de la cual el sistema debe operar.


Tipos de sistemas

Existe una gran variedad de sistema y una amplia gama de tipologías para clasificarlos, de acuerdo con ciertas características básicas.
En cuanto a su constitución, los sistemas pueden ser físicos o abstractos:
a) Sistemas físicos o concretos, cuando están compuestos por equipos, por maquinaria y por objetos y cosas reales. Pueden ser descritos en términos cuantitativos de desempeño.
b)Sistemas abstractos, cuando están compuestos por conceptos, planes, hipótesis e ideas. Aquí, los símbolos representan atributos y objetos, que muchas veces sólo existen en el pensamiento de las personas.
En realidad, en ciertos casos, el sistema físico (hardware)opera en consonancia con el sistema abstracto(software).
Es el ejemplo de una escuela con sus salones de clases, pupitres, tableros, iluminación, etc.
(sistema físico)para desarrollar un programa de educación(sistema abstracto);o un centro de procesamiento de datos, en el que el equipo y los circuitos procesan programas de instrucciones al computador.

En cuanto a su naturaleza, los sistemas pueden ser cerrados o abiertos:
a)Sistemas cerrados: Son los sistemas que no presentan intercambio con el medio ambiente que los rodea, pues son herméticos a cualquier influencia ambiental. Así, los sistemas cerrados no reciben ninguna influencia del ambiente, y por otro lado tampoco influencian al ambiente.
No reciben ningún recurso externo y nada producen la acepción exacta del término. Los autores han dado el nombre de sistema cerrado a aquellos sistemas cuyo comportamiento es totalmente determinístico y programado y que operan con muy pequeño intercambio de materia y energía con el medio ambiente. El término también es utilizado para los sistemas completamente estructurados, donde los elementos y relaciones se combinan de una manera peculiar y rígida produciendo una salida invariable. Son los llamados sistemas mecánicos, como las máquinas.
b)Sistemas abiertos: son los sistemas que presentan relaciones de intercambio con el ambiente, a través de entradas y salidas. Los sistemas abiertos intercambian materia y energía regularmente con el medio ambiente. Son eminentemente adaptativos, esto es, para sobrevivir deben reajustarse constantemente a las condiciones del medio.

Mantienen un juego recíproco con las fuerzas del ambiente y la calidad de su estructura es óptima cuando el conjunto de elementos del sistema se organiza, aproximándose a una operación adaptativa. La adaptabilidad es un continuo proceso de aprendizaje y de auto-organización.
Los sistemas abiertos no pueden vivir aislados. Los sistemas cerrados-esto es, los sistemas que están aislados de su medio ambiente- cumplen el segundo principio de la termodinámica que dice que "una cierta cantidad, llamada entropía, tiende a aumentar a un máximo".
La conclusión es que existe una "tendencia general de los eventos en la naturaleza física en dirección a un estado de máximo desorden". Sin embargo, un sistema abierto "mantiene así mismo, un continuo flujo de entrada y salida, un mantenimiento y sustentación de los componentes, no estando a lo largo de su vida en un estado de equilibrio químico y termodinámico, obtenido a través de un estado firme llamado homeostasis".

¿Qué es una señal?

• Una señal es una función de una o más variables físicas que contiene información acerca del comportamiento o la naturaleza de algún fenómeno.

• Es una función que contiene información sobre el estado ó comportamiento de un sistema físico.
Según el rango de variabilidad de la variable independiente, la señal puede ser:

1) Continua en el tiempo f(t), t Î [a,b]

2) Discreta en el tiempo: f(t) Î{to,t1,...,tn}

Según el rango de variabilidad de la amplitud, la señal puede ser:

1) Continua en amplitud
2) Discreta en amplitud


Ejemplos de aplicaciones de señales:

• Los voltajes en circuitos eléctricos
• Nuestra voz
• El índice Dow Jones semanal
• Ingeniería Biomédica
• Telecomunicaciones
• Acústica, Sonar, Radar
• Física Nuclear
• Proceso Digital de Imágenes


Tipos de señales

Señales Continuas y Discretas

Una señal x(t) es una señal continua si está definida para todo el tiempo t. Una señal discreta es una secuencia de números, denotada comúnmente como x[n], donde n es un número entero. Una señal discreta se puede obtener al muestrear una señal continua.

Descripción de señales en el dominio del tiempo


Valor Medio (en un intervalo T)
Valor Medio temporal
Valor Medio Cuadrático
Varianza

SEÑALES CONTINUAS

Por una señal continua entenderemos una función continua de una o varias dimensiones. Ejemplos de distintos tipos de señales podemos encontrar en los muy diversos aparatos de medida asociados al estudio de la física, química, biología, medicina, etc. Así por ejemplo, los distintos tipos de electro gramas que son usados en medicina son señales unidimensionales, ya que se representan por una o varias curvas en función del tiempo. Sin embargo, los distintos tipos de radiografías son señales bidimensionales y los resultados de la tomografía axial computerizada y la resonancia nuclear magnética son señales tridimensionales.
Haciendo uso del lenguaje matemático podemos decir que toda señal es una función matemática que toma un valor en cada punto del espacio en el que esta definida. Los resultados matemáticos sobre la aproximación de funciones, nos permiten expresar que cualquier función continua y periódica definida sobre una región finita del espacio puede ser aproximada por una suma infinita de términos, en donde cada término tiene una contribución a la formación de la señal que es independiente y ortogonal a cualquier otro término del desarrollo.

Existen distintas posibilidades a la hora de construir este tipo de aproximaciones, pero por distintos motivos la más usada ha sido aquella en que los términos tienen una significación como señales ondulatorias puras. Es decir, cada término es la contribución de una determinada frecuencia/longitud de onda a la formación de la señal. Así pues toda señal puede ser analizada desde dos puntos de vista, como una función continua sobre un espacio de valores de medida o como una función definida sobre un espacio de frecuencias. En esta lección estudiaremos las propiedades de cada una de estas representaciones y la relación existente entre ellas.

Una señal continua o señal en el tiempo-discreto es una señal que puede expresarse como una función cuyo dominio se encuentra en el conjunto de los números reales, y normalmente es el tiempo. La función del tiempo no tiene que ser necesariamente una función continua.
La señal es definida sobre un dominio que puede ser o no finito, sobre el cual a cada posible valor del dominio le corresponde un único valor de la señal. La continuidad de la variable del tiempo implica que el valor de la señal puede precisarse para cualquier punto arbitrario del tiempo perteneciente al dominio.

En muchas disciplinas se establece por convención que una señal continua debe tener siempre valores finitos, lo que tiene sentido sobre todo en el caso de las señales físicas.
Para algunos propósitos, las singularidades infinitas son aceptables siempre que la señal sea integrable sobre un intervalo finito. Por ejemplo, la señal definida por t − 1 no es integrable en el intervalo temporal ( − 1,1), mientras que t − 2 sí lo es.
Una señal analógica es continua por naturaleza. Las señales discretas utilizadas en el procesamiento digital de señales, pueden obtenerse mediante el muestreo y la cuantización de señales continuas.
Una señal continua también puede definirse sobre una variable independiente diferente al tiempo. Una de ellas es el espacio, y es particularmente útil en el procesamiento de imágenes, donde se utilizan dos dimensiones espaciales.

SEÑALES DISCRETAS.

• Las señales discretas se caracterizan por estar definidas solamente para un conjunto numerable de valores de la variable independiente.
• Se representan matemáticamente por secuencias numéricas.
• En la práctica suelen provenir de un muestreo periódico de una señal analógica

Las señales digitales se obtienen a partir de la cuantización de las señales discretas resultantes del muestreo de las señales analógicas.

Señales Analógicas y Digitales

Si una señal continua x(t) puede tomar cualquier valor en un intervalo continuo, entonces esa señal recibe el nombre de señal analógica. Si una señal discreta x[n] puede tomar únicamente un número finito de valores distintos, recibe el nombre de señal digital.


Señales Reales y Complejas

Una señal x(t) es real si sus valores son números reales, y una señal x(t) es compleja si sus valores son números complejos, es decir: x(t) = x1(t) + jx2(t).


Señales Determinísticas y Aleatorias

Las señales determinísticas son aquellas cuyos valores están completamente especificados en cualquier tiempo dado y por lo tanto, pueden modelarse como funciones del tiempo t. Las señales aleatorias son aquellas que toman valores aleatorios (al azar) en cualquier tiempo dado y deben ser caracterizadas estadísticamente.

Señales Pares e Impares

Una señal es par si se cumple que x(-t) = x(t) para todo t. Es impar si x(-t) = -x(t) para todo t. Cualquier señal puede ser expresada como una suma de dos señales, una de las cuales es par y la otra impar:
x(t) = xe(t) + xo(t)

donde

xe(t) = 0.5{x(t) + x(-t)}
xo(t) = 0.5{x(t) - x(-t)}


Señales Periódicas y No Periódicas

Una señal continua es periódica con periodo T si existe un valor positivo T tal que

x(t + T) = x(t) para todo t

Cualquier señal que no sea periódica se llama no periódica o aperiódica. El valor más pequeño de T que satisface esta ecuación se llama periodo fundamental.

El recíproco del periodo fundamental es la frecuencia fundamental, se mide en Hertz (ciclos por segundo) y describe qué tan seguido la señal periódica se repite.

La frecuencia angular, medida en radianes por segundo, se define como

Una señal discreta x[n] es periódica si satisface la condición:

x[n] = x[n + N] para todos los enteros n

donde N es un número entero. El valor más pequeño de N que satisface esta ecuación se llama periodo fundamental. La frecuencia angular fundamental, medida en radianes, se define por

Señales de Energía y Potencia

Señales de Energía:

Son señales que tienen energía finita, por lo que son limitadas en tiempo.
Se define la energía como : E = S x(n) 2


Se dice que una señal es de energía, si y sólo si la energía total de la señal satisface la condición

0 < E < ∞ Señales de Potencia: Se describen en términos de potencia las señales Periódicas, o Aleatorias estacionarias o no limitadas en t. Se define la potencia como Se dice que una señal es de potencia, si y sólo si la potencia promedio de la señal satisface la condición 0 < P < ∞ Para el caso continuo: Para el caso discreto:

Clasificación de Señales Junto con las clasificaciones de señales mostradas a continuación, es importante entender la Clasificación de Sistemas. Tiempo Continuo vs. Tiempo Discreto Como el nombre lo sugiere, esta clasificación se puede establecer, después de saber si el eje del tiempo (eje de las abscisas) es discreto o continuo (figura 1). Una señal continua en el tiempo tendrá un valor para todos los números reales que existen en el eje del tiempo. En contraste a esto, una señal discreta en el tiempo es comúnmente creada utilizando el Teorema de Muestreo para discretizar una señal continua, de esta manera la señal nada mas tendrá valores en los espacios que tienen una separación igual y son creados en el eje del tiempo. Figura 1 Análogo vs. Digital La diferencia entre lo análogo y lo digital es muy similar a la diferencia entre el tiempo continuo y el tiempo discreto. Sin embargo, en este caso, la diferencia es con respecto al valor de la función (eje de las ordenadas) (figura 2). Análogo corresponde al eje y continuo, mientras lo digital corresponde al eje y discreto. Un ejemplo de una señal digital es una secuencia binaria, donde la función solo tiene valores de cero o uno. Figura 2 Periódico vs. Aperiódico Señales periódicas se repiten con un periodo T, mientras las señales aperiódicas o no periódicas no se repitenPodemos definir una función periódica mediante la siguiente expresión matemática, donde t puede ser cualquier número y T es una constante positiva: El periodo, es el valor más pequeño de T que permita la validación de la ecuación 1. (a) Una señal periódica con periodo T0 (b) Una señal Aperiódica Causal vs. Anticausal vs. Nocausal Las señales causales son señales que tienen valor de cero en el tiempo negativo, y las señales anticausales tienen valor cero en el tiempo positivo. Las señales nocausales son señales con valor de cero en el tiempo positivo y negativo(figura 4). (a) Una señal causal (b) Una señal anticausal (c) Una señal nocausal Par vs. Impar Una señal par es cualquier señal f(t) que satisface f(t) f(−t). las señales pares se pueden detectar fácilmente por que son simétricas en el eje vertical. Una señal impar, es una señal f que satisface f(t) =−(f(−t)) (a) Una señal par (b) Una señal impar Usando las definiciones de par e impar, podemos demostrar que cualquier señal se puede escribir como una combinación de una señal par e impar. Cada señal tiene una descomposición par-impar. Para demostrar esto, no tenemos más que examinar una ecuación. f(t) = ½ (f(t) +f(−t)) + 1/2 (f(t) −f(−t)) Al multiplicar y sumar esta expresión, demostramos que lo explicado anteriormente es cierto. También se puede observar que f(t) +f(−t) satisface a una función par, y que f(t) −f(−t) satisface a una función impar . Ejemplo 1 (a) Esta señal será descompuesta usando la descomposición Par-Impar (b) Parte Par: e(t) = 1/2 (f(t) +f(−t)) (c) Parte Impar: o(t) = 1/2 (f(t) −f(−t)) (d) Revisa: e(t) +o(t) =f(t) Determinístico vs. Aleatorio Una señal determinística es una señal en la cual cada valor está fijo y puede ser determinado por una expresión matemática, regla, o tabla. Los valores futuros de esta señal pueden ser calculados usando sus valores anteriores teniendo una confianza completa en los resultados. Una señal aleatoria, tiene mucha fluctuación respecto a su comportamiento. Los valores futuros de una señal aleatoria no se pueden predecir con exactitud, solo se pueden basar en los promedios de conjuntos de señales con características similares (a) Señal Determinística

Tamaño finito vs. Tamaño infinito

Como el nombre lo implica, las señales se pueden caracterizar dependiendo de su tamaño el cual puede ser infinito o finito. Casi todas las señales finitas se utilizan cuando se tiene una señal discreta o se tiene una secuencia de valores. En términos matemáticos, f(t) es una señal de tamaño finito si tiene un valor que no sea cero en un intervalo finito t1<f(t) <t2 donde t1>−∞ y t2<∞. Se puede ver un ejemplo en figura 9. De igual manera, una señal de tamaño infinito f(t), es definida con valores no-cero para todos los números reales: ∞≤f(t) ≤−∞.
Señal sinusoidal
Se muestra el espectro de una señal sinusoidal muestreada, y se varía la frecuencia de la señal para identificar las réplicas espectrales.

En el panel superior se representan las formas de ondas temporales de la señal continua y de la señal muestreada, y en panel inferior el espectro de la señal muestreada. La frecuencia de muestreo es fs = 5 kHz, y el eje frecuencia del panel inferior tiene una escala de 1 kHz por división: está centrado en 0 Hz, el margen izquierdo corresponde a ―5 kHz, y el margen derecho a +5 kHz.


Muestreo

El muestreo consiste en el proceso de conversión de señales contínuas a señales discretas en el tiempo. Este proceso se realizada midiendo la señal en momentos periódicos del tiempo.
El número de muestras por segundo se conoce en inglés como el bit-rate.
Si el bit-rate es lo suficientemente alto, la señal muestreada contendrá la misma información que la señal original. Respecto a esto, el criterio de Nyquist asegura que para que la señal muestreada contenga la misma información que la contínua, la separación mínima entre dos instantes de muestreo debe ser 1/(2 W) , siendo W el ancho de banda de la señal. Dicho de otra forma, que la frecuencia de muestreo debe ser mayor o igual que 2 W.

Otro concepto básico relacionado con la codificación de la voz es la cuantificación
Cuantificación

La cuantificación es la conversión de una señal discreta en el tiempo evaluada de forma contínua a una señal discreta en el tiempo discrétamente evaluada. El valor de cada muestra de la señal se representa como un valor elegido de entre un conjunto finito de posibles valores.
Se conoce como error de cuantificación (o ruido), a la diferencia entre la señal de entrada (sin cuantificar) y la señal de salida (ya cuantificada), interesa que el ruido sea lo más bajo posible. Para conseguir esto, se pueden usar distintas técnicas de cuantificación:
· Cuantificación uniforme
· Cuantificación logarítmica
· Cuantificación no uniforme
· Cuantificación vectorial

Cuantificación uniforme

En los cuantificadores uniformes (o lineales) la distancia entre los niveles de reconstrucción es siempre la misma, como se observa en la siguiente figura:
No hacen ninguna suposición acerca de la naturaleza de la señal a cuantificar, de ahí que no proporcionen los mejores resultados. Sin embargo, tienen como ventaja que son los más fáciles y menos costosos de implementar.
En la siguiente figura se ve un ejemplo de cuantificación uniforme:

Cuantificación logarítmica

Las señales de voz pueden tener un rango dinámico superior a los 60 dB, por lo que para conseguir una alta calidad de voz se deben usar un elevado número de niveles de reconstrucción. Sin embargo, interesa que la resolución del cuantificador sea mayor en las partes de la señal de menor amplitud que en las de mayor amplitud. Por tanto, en la cuantificación lineal se desperdician niveles de reconstrucción y, consecuentemente, ancho de banda. Esto se puede mejorar incrementando la distancia entre los niveles de reconstrucción conforme aumenta la amplitud de la señal.
Un método sencillo para conseguir esto es haciendo pasar la señal por un compresor logarítmico antes de la cuantificación. Esta señal comprimida puede ser cuantificada uniformemente. A la salida del sistema, la señal pasa por un expansor, que realiza la función inversa al compresor. A esta técnica se le llama compresión. Su principal ventaja es que es muy fácil de implementar y funciona razonáblemente bien con señales distintas a la de la voz.
Para llevar a cabo la compresión existen dos funciones muy utilizadas: Ley-A (utilizada principalmente en Europa) y ley-µ(utilizada en EEUU).
Ley-A :
Ley-µ :

En la mayoría de los sistemas telefónicos, A se fija a 87.56 y µ a 255.
La siguiente figura muestra la gráfica de la ley-µ para distintos valores de µ:
Cuantificación no uniforme

El problema de la cuantificación uniforme es que conforme aumenta la amplitud de la señal, también aumenta el error. Este problema lo resuelve el cuantificador logarítmico de forma parcial. Sin embargo, si conocemos la función de la distribución de probabilidad, podemos ajustar los niveles de recontrucción a la distribución de forma que se minimice el error cuadrático medio. Esto significa que la mayoría de los niveles de reconstrucción se den en la vecindad de las entradas más frecuentes y, consecuentemente, se minimice el error (ruido).
La siguiente figura representa la cuantificación no uniforme:
En la práctica, se puede usar una estimación de la distribución para diseñar los cuantificadores. Esta estimación se puede obtener a partir de los datos a cuantificar de forma iterativa.
Cuantificación vectorial

En los métodos anteriores, cada muestra se cuantificaba independientemente a las muestras vecinas. Sin embargo, la teoría demuestra que ésta no es la mejor forma de cuantificar los datos de entrada. Resulta más eficiente cuantificar los datos en bloques de N muestras. El proceso es sencillamente una extensión de los anteriores métodos escalares descritos anteriormente. En este tipo de cuantificación, el bloque de N muestras se trata como un vector N-dimensional.
En la siguiente figura vemos un ejemplo de cuantificación vectorial (VQ) en dos dimensiones:
El plano XY está dividido en seis regiones distintas. El vector de entrada (con dos componentes) se reemplaza se reemplaza por el centroide i (representa todos los vectores de una determinada región i) de la región a la que pertenece.
La cuantificación vectorial ofrece mejores resultados que la cuantificación escalar, sin embargo, es más sensible a los errores de transmisión y lleva consigo una mayor complejidad computacional.
En el siguiente apartado encontrará la clasificación general de los codificadores de voz.

Clasificación de los codificadores de voz
Los codificadores de voz se clasifican en tres grandes grupos, a saber:
· codificadores de la forma de onda
· vocoders
· codificadores híbridos
En el primer grupo, codificadores de forma de onda, se engloban aquellos codificadores que intentan reproducir la forma de la onda de la señal de entrada sin tener en cuenta la naturaleza de la misma. Estos, en función de en qué dominio operen, se dividen en:
· codificadores en el dominio del tiempo
· codificadores en el dominio de la frecuencia
Este tipo de codificadores proporcionan una alta calidad de voz a bit rates medios, del orden de 32 kb/s. Sin embargo, no son útiles cuando se quiere codificar a bajos bit rates.
En el grupo de vocoders están aquellos codificadores que sí tienen en cuenta la naturaleza de la señal a codificar, en este caso la voz, y aprovechan las características de la misma para ganar en eficiencia. Permiten trabajar con muy bajos bit rates, pero la señal de voz que producen suena demasiado sintética.



No hay comentarios:

Publicar un comentario