“Conocimiento Hardware>Estaciones de Trabajo

¿Cómo difieren la computación y distribuida paralela en términos de su enfoque para procesar tareas de manera eficiente?

2012/8/14
Tanto la computación paralela como la computación distribuida apuntan a un procesamiento de tareas eficiente, pero difieren significativamente en su enfoque:

Computación paralela:

* Enfoque: Realización de múltiples cálculos * simultáneamente * dentro de un solo sistema informático. Esto aprovecha múltiples unidades de procesamiento (núcleos, hilos, etc.) dentro de la misma máquina.

* Comunicación: La comunicación entre las unidades de procesamiento es relativamente rápida y eficiente porque comparten el mismo espacio de memoria (o al menos tienen una interconexión de alta velocidad). El intercambio de datos a menudo es sencillo.

* Modelo de programación: A menudo implica el uso de técnicas como instrucciones multiproceso, multiprocesamiento o SIMD (instrucción única, múltiples datos). Las bibliotecas como OpenMP, MPI (aunque también se usan en distribución) y CUDA se usan comúnmente.

* escalabilidad: Limitado por los recursos físicos (número de núcleos, memoria, ancho de banda de E/S) de una sola máquina. Agregar más potencia de procesamiento requiere obtener una máquina más potente.

* Ejemplo: Ejecutar una simulación compleja utilizando múltiples núcleos en una sola estación de trabajo de alta gama.

Computación distribuida:

* Enfoque: Realización de múltiples cálculos * simultáneamente * en múltiples computadoras independientes (nodos) conectados por una red.

* Comunicación: La comunicación entre nodos se basa en una red (por ejemplo, Ethernet, Infiniband), que es inherentemente más lento y más compleja que la comunicación interna dentro de una sola máquina. El intercambio de datos requiere mecanismos de comunicación explícitos. La latencia de la red y el ancho de banda se convierten en factores críticos.

* Modelo de programación: A menudo implica el uso de técnicas de paso de mensajes (por ejemplo, MPI) o arquitecturas de nada compartido (por ejemplo, usar bases de datos). La coordinación entre nodos es más desafiante.

* escalabilidad: Puede escalar a problemas muy grandes agregando más computadoras a la red. El límite teórico es mucho más alto que la computación paralela en una sola máquina.

* Ejemplo: Un motor de búsqueda web a gran escala, donde muchos servidores trabajan juntos para indexar y recuperar páginas web. La computación en la nube es un ejemplo destacado de computación distribuida.

Diferencias clave resumidas:

| Característica | Computación paralela | Computación distribuida |

| ----------------- | --------------------------------------- | ------------------------------------------- |

| Hardware | Máquina única, Múltiples procesadores | Múltiples máquinas independientes |

| comunicación | Memoria rápida y compartida (a menudo) | Más lento, basado en la red |

| escalabilidad | Limitado por recursos de una sola máquina | Altamente escalable |

| Complejidad | Relativamente más simple para programar | Significativamente más complejo para programar |

| Compartir datos | Más fácil, a menudo implícito | Comunicación más compleja y explícita |

En algunos casos, puede combinar ambos enfoques, utilizando un clúster de computadoras (computación distribuida) donde cada computadora en sí realiza cálculos paralelos. Esto ofrece lo mejor de ambos mundos:alta escalabilidad y utilización eficiente de los recursos individuales de la máquina.

Estaciones de Trabajo
¿El entretenimiento hoy en día es más trabajo duro que trabajo?
Los distintos tipos de computadoras
¿Qué es la capacidad de trabajo?
¿Por qué el término estación de trabajo se aplica a las computadoras personales ordinarias que están conectadas una red?
¿Cómo se escribe un correo electrónico para la experiencia laboral?
¿Qué significa el libro de trabajo en términos de la computadora?
What operating system uses Top for the task manager?
¿Qué es el sistema de cara web?
Conocimiento de la computadora © http://www.ordenador.online