“Conocimiento software>compresión de datos

¿Cómo un archivo de computadora con mucha información con mucha información?

2013/11/19
Una computadora critica un archivo (o una colección de archivos) que contiene mucha información utilizando Algoritmos de compresión sin pérdidas . Estos algoritmos funcionan identificando y eliminando la redundancia en los datos sin perder ninguna información original. Cuando descomprime el archivo, los datos originales se reconstruyen perfectamente.

Aquí hay un desglose del proceso:

1. Detección de redundancia: El algoritmo de compresión analiza los datos, buscando patrones de repetición, secuencias de datos similares o información predecible. Por ejemplo, un archivo de texto podría tener muchas palabras o frases repetidas, una imagen puede tener grandes áreas de color similar y un programa podría tener bloques de código repetitivo.

2. Transformación de datos: Una vez que se identifica la redundancia, el algoritmo transforma los datos en una representación más compacta. Esto a menudo involucra técnicas como:

* codificación de longitud de ejecución (RLE): Reemplaza las secuencias repetidas de caracteres o bytes con un recuento y el elemento repetido. Por ejemplo, "AAABBBCC" se convierte en "3A3B2C".

* Codificación de Huffman: Asigna códigos más cortos a elementos de datos más frecuentes y códigos más largos a los menos frecuentes. Esto reduce el tamaño general de los datos.

* Codificación de diccionario (LZ77, LZ78, Lempel-Ziv): Construye un diccionario de secuencias de datos previamente encontradas. En lugar de almacenar la secuencia repetidamente, el algoritmo hace referencia a la entrada de la secuencia en el diccionario, reduciendo significativamente la redundancia. Este es un componente central de muchos algoritmos de compresión populares como DeFlate (utilizado en zip).

* Transformación de los cuentos de madriguera (bwt): Reordres los datos para crear largas ejecuciones de caracteres similares, lo que facilita que otras técnicas de compresión funcionen de manera efectiva. Esto se usa en algoritmos como BZIP2.

3. Codificación de datos: Los datos transformados se codifican en un formato binario, a menudo incluyendo un encabezado que contiene metadatos como los nombres de archivos originales, los tamaños, las marcas de tiempo y el método de compresión utilizado.

4. Almacenamiento: Los datos comprimidos, incluido el encabezado, se escriben en el archivo zip.

¿Por qué es eficiente con archivos grandes?

Cuantos más datos hay, más probabilidades tendrá de contener redundancia. Los algoritmos de compresión son altamente efectivos para explotar esta redundancia. Es probable que un archivo grande tenga muchos patrones de repetición o secuencias predecibles, lo que permite reducciones de tamaño significativas. Por ejemplo, un archivo de texto grande que contiene una frase repetida se comprimirá de manera mucho más efectiva que un archivo de texto corto y único.

En resumen, criticar un archivo no reduce mágicamente el contenido * información *, solo hace una representación más * eficiente * de esa información al eliminar la redundancia. Cuanto más redundancia, mayor será la relación de compresión.

compresión de datos
Cómo utilizar una unidad Zip en un Mac
Cómo comprimir un archivo Rar Linux Mint
Cómo crear un disco Zip de arranque
Mac Compresión Herramientas
Cómo Zip archivos de gran tamaño
Cómo Comprimir archivos Flash
¿Cómo un archivo Zip desde Outlook VBA
Cómo comprimir archivos con 7 -Zip
Conocimiento de la computadora © http://www.ordenador.online