Un nuevo algoritmo de compresión de imágenes digitales sin pérdida de datosalgoritmo INA
- Larrauri Villamor, Juan Ignacio
- Javier García-Zubía Director/a
Universitat de defensa: Universidad de Deusto
Fecha de defensa: 12 de de desembre de 2014
- Manuel Alonso Castro Gil President
- Diego López de Ipiña González de Artaza Secretari/ària
- Martín Llamas Nistal Vocal
Tipus: Tesi
Resum
El objetivo de esta tesis es el desarrollo y presentación de un nuevo método de compresión de imágenes estáticas sin pérdida de datos que permite obtener mayores ratios de compresión que los métodos universales. Este algoritmo es aplicado a imágenes fijas bidimensionales y de continuos tonos en escala de grises y en color. La mayoría de los métodos tradicionales sin pérdida de datos utilizan técnicas de eliminación o reducción de la redundancia existente en los datos (píxeles), aplicando métodos basados en modelos estadísticos (Huffman Coding, Arithmetic Coding, ...), modelos de diccionario (LZ77, LZW, etc.), modelos de predicción (FELICS, JPEG, etc.) o modelos basados en transformadas Wavelets. Los ratios de compresión alcanzados por estos métodos en imágenes fotográficas oscilan desde 1,5:1 a 2:1, considerándose estos últimos como resultados muy aceptables. Alternativamente, proponemos un nuevo método basado fundamentalmente en tres procesos consecutivos: segmentación, estructura de árbol binario y codificación transversal. El primer proceso consiste en la segmentación de la imagen en bloques de píxeles de longitud fija o variable, el segundo proceso realiza el tratamiento de los píxeles del cada bloque obtenidos en el proceso anterior mediante un nuevo algoritmo de compresión basado en estructura de datos en forma de árbol binario y por último, una codificación transversal de la estructura de árbol genera los códigos binarios de salida. La unidad de tratamiento de la imagen es el bloque y por cada bloque se ejecutan los tres procesos secuencialmente hasta procesar la imagen completa Este método, en el caso de imágenes fotográficas de continuos tonos, se aproxima a ratios de compresión de 2:1. El alcance del algoritmo ha sido evaluado utilizando un conjunto de imágenes estándares de diferente fuente o naturaleza (fotográficas, satélite, médicas, texto escaneadas, etc.). Los resultados experimentales han sido comparados con los métodos universales y especialmente con respecto al método JPEG-LS (ISO/IEC 14495, 2000) propuesto como estándar. La implementación de este método en una plataforma PC se realiza completamente en niveles lógicos de programación, sin requisitos de dispositivos de hardware. Adicionalmente, el algoritmo propuesto podría ser implementado en plataformas hardware y sistemas embebidos sin necesidad de ningún cambio de funcionalidad.