Presentation is loading. Please wait.

Presentation is loading. Please wait.

Memoria Compartida Distribuida M.C. Juan Carlos Olivares Rojas Julio, 2009.

Similar presentations


Presentation on theme: "Memoria Compartida Distribuida M.C. Juan Carlos Olivares Rojas Julio, 2009."— Presentation transcript:

1 Memoria Compartida Distribuida M.C. Juan Carlos Olivares Rojas jcolivar@antares.itmorelia.edu.mx http://antares.itmorelia.edu.mx/~jcolivar Julio, 2009

2 Agenda 4.1 Configuraciones de MCD. 4.2 Modelos de consistencia. 4.3 MCD en base a páginas. 4.4 MCD en base a variables. 4.5 MCD en base a objetos.

3 Memoria Una de las principales características de una computadora es la capacidad que tienen para almacenar datos e información. El primero en tener la idea de almacenar un programa en una computadora fue Jonh Von Neumman (participante en la ENIAC). Él utilizó la memoria para almacenar datos y programas.

4 Memoria El otro modelo de arquitectura de computadoras conocida como Arquitectura Harvard, existe una memoria especial para datos y otra memoria para programas. Esto hace que los circuitos sean más eficientes pero más costosos a la vez. La gran mayoría de la computadoras (incluyendo las PC) utilizan la arquitectura Von Neumman.

5 Concepto de memoria La memoria principal puede ser considerada como un arreglo lineal de localidades de almacenamiento de un byte de tamaño. Cada localidad de almacenamiento tiene asignada una dirección que la identifica. La memoria principal es el lugar donde el CPU lee las instrucciones a ejecutar, así como algunos datos a emplear.

6 Memoria

7 ¿Por qué es importante la memoria? Programas = Algoritmos + Estructuras de Datos Estructuras de Datos (pilas, listas, colas, etc.) son memoria.

8 Memoria

9 La memoria se puede ver como un casillero en el cual se almacena información. La memoria puede ser estática o dinámica dependiendo de cómo se gestione. La memoria está divida en secciones de código, datos estáticos, Pila y el Heap (monton).

10 Memoria

11 Conceptos de memoria Todo sistema operativo tiene un mapa de memoria que indica como están administrada la memoria y que partes se pueden ocupar. La filosofía del administrador de memoria consiste en optimizar el uso de este recurso, ya que la memoria es uno de los componentes críticos de todo sistema de cómputo.

12 Mapa de Memoria

13 Memoria La principal problemática de la memoria principal es que no es persistente. Por este motivo se tienen que implementar estrategias de almacenamiento y recuperación de información. Las operaciones básicas que se realizan sobre una memoria son dos: lectura (r) y escritura (w).

14 Memoria Las operaciones anteriores son a nivel usuario. A nivel sistema se tienen llamadas al sistema como malloc, free, allocate, etc. También debe proporcionar opciones de bloqueo y desbloqueo (protección). La ley de Parkinson dice: “los programas se expanden hasta llenar la memoria disponible para contenerlos”.

15 Memoria No por tener el doble de memoria instalada en un sistema legado, este será el doble de rápido. La memoria física es utilizado por muchos procesos en lugar de la memoria virtual. Todo proceso necesita memoria física para poderse ejecutar.

16 Administrador de memoria Sirve para tener un control sobre los lugares donde están almacenados los procesos y datos que actualmente se están utilizando. Las políticas de administración de memoria generalmente son duras, es decir no modificables, pero se pueden configurar algunos parámetros para su mejor uso.

17 Administrador de Disponibilidad

18 Ejemplos de memoria Las tendencias actuales sobre el manejo de memoria indican el uso en diversas aplicaciones: Portapapeles: permite guardar datos y transferirlo a otros programas. Uso de base de datos en memoria. Algunas versiones de MySQL Lite permiten hacerlo.

19 Ejemplos de memoria Las computadoras actuales permiten guardar los datos al apagar una computadora, para tener un mejor desempeño (hibernación, suspensión). Los punteros permiten desplazarnos por las localidades de memoria. Una variable es una localidad de memoria.

20 Mecanismos de Asignación Un mecanismo de asignación determina la cantidad de bloques (particiones) que serán administrados en la memoria. El esquema básico de asignación consiste en particionar (dividir) la memoria en diferentes partes. Existen 3 mecanismos de Asignación:

21 Asignación de una partición

22 Asignación de dos particiones

23 Asignación de Múltiples Particiones

24 Estrategias de asignación de memoria Una estrategia de asignación de memoria determina el lugar donde será cargado un nuevo proceso en base a un criterio. Las estrategias de asignación son: Primer ajuste. Siguiente ajuste Mejor ajuste Peor ajuste

25 Complejidad de los mecanismos y estrategias de asignación Cualquier método para manejar la disponibilidad de la memoria presenta inconvenientes como: Fragmentación Overhead Relocalización de programas Trashing (sacar un programa inmediatamente después de haber sido asignado memoria)

26 Segmentación

27 Paginación

28

29 Concepto de Memoria virtual Es un método mediante el cual, un sistema operativo simula tener mas memoria principal que la que existe físicamente. Para implementar la memoria virtual se utiliza un medio de almacenamiento secundario de alta velocidad de acceso, generalmente en disco duro de la maquina. Se utiliza la paginación como método de administración de memoria básica y algún mecanismo de intercambio.

30 Espacio de Direcciones en Windows Espacio de Direcciones de 32-bit (4 GB) –2 GB espacio de usuarios –2 GB sistema operativo Espacio de Direcciones de 64-bit –7192 GB espacio de usuario (Itanium) –8192 GB espacione de usuario (x64) –~6000 GB sistema operativo 2 GB Espacio de Procesos de Usuario 2 GB Sistema Kernel/HAL drivers Sistema de cache Único por proceso Systemwide Espacio de Direcciones De 32-bit

31 Mecanismos de Memoria Virtual Existen 2 métodos para cargar programas en memoria: Demanda de página: consiste en iniciar la ejecución de los procesos sin páginas cargadas, estas se irán cargando conforme el proceso las demande. Prepaginación: consiste en que el sistema operativo predice cuales páginas se ocuparán durante la ejecución de un proceso.

32 Algoritmos de descarga (Reemplazo) Se utiliza para determinar cuales páginas serán descargadas hacia el disco duro cuando se quiera cargar nuevas paginas y no haya memoria libre. Existen 3 algoritmos básicos: MIN FIFO LRU

33 Swap El swap es la forma en como se intercambia una partición de memoria por otra. Generalmente se utiliza en técnicas basadas en paginación. Se ocupa de una administración adecuada del sistema de archivos para permitir paginación.

34 Swap Un ejemplo claro de intercambio es la famosa función de intercambio int swap(int a, int b) { int aux = a; a = b; b = aux; }

35 Agenda 4.1.1 De circuitos, basados en bus, anillo o con conmutador.

36 Memoria Compartida Distribuida La principal problemática que se presenta entre dos o más procesos sean locales o distribuidos al compartir recursos es que cada proceso tiene su propio espacio de direcciones. Cuando se trata de procesos locales al estar físicamente en el mismo hardware el espacio de direcciones se vuelve sencillo la compartición. Esto no es sencillo en procesos distribuidos.

37 Memoria Compartida Distribuida En un Sistema Operativo Distribuido, una computador ejecuta los procesos en su memoria propia, pero en caso de necesitar más memoria utilizará los recursos disponibles de otra computadora. La Memoria compartida distribuida ayuda a que no se formen los famosos cuellos de botella, facilita el diseño y construcción de sistemas distribuidos.

38 Memoria Compartida Distribuida Visión general de la MCD

39 Memoria Compartida Distribuida El esquema más básico de compartición de datos en Sistemas Distribuidos es el paso de mensajes (e.g. sockets). La problemática es la latencia y la garantía de acceso (puede llegar o no el mensaje). Existen tres formas básicas de lograr compartición de memoria en ambientes distribuidos: por hardware, por sistema operativo o a nivel de usuario (software).

40 Memoria Compartida Distribuida

41 La compartición de memoria se da por diversos esquemas, siendo las más comunes: por paginación, por variables compartidas y por objetos. El diseño de la granularidad de compartición así como la sincronización y manejo de consistencia son elementos importantes en el diseño de mecanismos de memoria compartida.

42 Replicación (a) páginas distribuidas en 4 máquinas (b) CPU 0 lee página 10 (c) CPU 1 lee página 10 Memoria Compartida Distribuida

43 Pseudo-Compartición

44 Memoria compartida en IPC La forma más rápida de comunicar dos procesos es que compartan una zona de memoria compartida. Las primitivas para manipular memoria compartida son: shmget para crear una zona d ememoria compartida o utilizar una ya creada, shmctl para acceder y modificar la información administrativa y de control, shmat para unir una zona de memoria compartida a un proceso, y shmdt para separa una zona previamente unida.

45 Memoria compartida #include int shmget(key, size, shmflg); int shmid; if((shmid = shmget(IPC_PRIVATE, 4096, IPC_CREAT | 0600)) == -1) /*Error al crear memoria compartida*/

46 Memoria compartida int shmctl(shmid, cmd, buf) cmd indica la operación la cual puede ser: IPC_STAT, IPC_SET, IPC_RMID, SHM_LOCK, SHM_UNLOCK. struct shmid_s *buf smctl(shmid, IPC_RMID, 0);

47 Memoria compartida char *shmat(shmid, shmaddr, shmflg); int shmdt(shmaddr); float *memoria; shmid = shmget(llave, MAX * sizeof(float), IPC_CREAT | 0600); memoria = shmat(shmid, 0, 0); /*Operar memoria*/ shmdt(memoria); shmctl(shmid, IPC_RMID, 0);

48 Arquitecturas de MCD Existen varías formas de implantar físicamente memoria compartida distribuida, a continuación se describen cada una de ellas. Memoria basada en circuitos: existe una única área de memoria y cada micro tiene su propio bus de datos y direcciones (en caso de no tenerlo se vuelve un esquema centralizado)

49 MCD basa en circuitos

50 Arquitecturas de MCD ¿Diferencias entre UMA y NUMA? MCD basada en bus: en este esquema los micros comparten un bus de datos y direcciones por lo que es más barato de implementar, se necesita tener una memoria caché grande y sumamente rápida. MCD basada en anillos: es más tolerante a fallos, no hay coordinador central y se privilegia el uso de la memoria más cercana

51 MCD basada en bus

52 MCD basada en anillo

53 Arquitecturas de MCD MCD basada en conmutador: varios micros se conectan entre sí en forma de bus formando un grupo, los grupos están interconectados entre sí a través de un conmutador. Cuando se realiza una operación de memoria se intenta realizar dentro del grupo, de lo contrario pasa al conmutador para que lo redireccione a otro grupo. No existe un arquitectura de MCD óptima.

54 MCD basada en conmutador

55 Agenda 4.1 Configuraciones de MCD. 4.2 Modelos de consistencia. 4.3 MCD en base a páginas. 4.4 MCD en base a variables. 4.5 MCD en base a objetos.

56 Modelos de Consistencia La principal problemática de la compartición de memoria en ambientes distribuidos consiste en el manejo de la consistencia ya que varios procesos distribuidos pueden estar escribiendo en la zona de memoria compartida pudiendo invalidar el contenido de las lecturas que acaban de hacer algunos procesos. Para prevenir esta problemática se han planteado muchos mecanismos que permiten evitar la inconsistencia de los datos.

57 Modelos de Consistencia Una forma básica pero costosa es el manejo de replicación sólo se debe considerar la granularidad de la réplica así como la reintegración de las modificaciones. Se deben considerar el tipo de datos que se están compartiendo: páginas, variables, objetos, etc.

58 Agenda 4.2.1 Estricta, causal, secuencial, débil, de liberación y de entrada.

59 Consistencia Estricta Este modelo es el más robusto pero sumamente difícil de implementar. Cualquier lectura a la localidad de memoria x retorna el valor almacenado por la última operación de escritura (antes de la lectura). Supone la existencia de un tiempo global. Determinar cuál fue la escritura más reciente no siempre es posible.

60 Consistencia Estricta En un solo procesador la consistencia estricta es lo esperado. P(X, t1): A =1 …. P(y, t2): A = 5 ….. P(z, t3): print(A) --> 5 ¿Se puede implantar en SOD?

61 Consistencia Causal Como se vio en la segunda unidad la sincronización del tiempo es complicado en SOD, por este motivo se sugiere que la consistencia de los datos modificados sea de forma causal. Si un proceso desea leer (read) un dato en memoria existirá siempre un proceso que haya escrito (write) previamente en memoria. De esta forma siempre se tiene el último valor escrito.

62 Consistencia Causal Si dos procesos escriben espontáneamente y simultáneamente una variable, estos accesos no están relacionados causalmente. La implementación de este esquema se da a través de grafos de dependencia para determinar cuáles operaciones son dependientes de otras y cuáles son concurrentes.

63 Consistencia Secuencial Fue propuesta por Lamport en 1977 y basa su funcionamiento en que la consistencia estricta es prácticamente imposible de implementar en un sistema distribuido y que la experiencia demuestra que a un programador le bastan modelos más débiles. Este modelo basa su funcionamiento en ordenar (“seriabilizar”) los accesos de memoria, de esta forma se evitan inconsistencias.

64 Consistencia Secuencial Se necesita de un coordinador central que maneje la secuencialidad de las operaciones. La principal problemática es que el orden impuesto puede ser diferente al orden real o deseado. En muchos casos el problema de la seriabilización es no determinista.

65 Consistencia Secuencial Dos ejecuciones del mismo programa podrían no arrojar el mismo resultado a menos que se utilicen operaciones explicitas de sincronización

66 Consistencia PRAM El modelo Pipelined RAM basa su funcionamiento en que las escrituras realizadas por un proceso, son recibidas por el resto en el orden en el cual éstas fueron ejecutadas, no obstante, las escrituras realizadas por diferentes procesos pueden ser vistas en órdenes diferentes por todos ellos.

67 Consistencia PRAM Tanto P1 como P2 escriben datos, al mismo tiempo P3 y P4 leen los valores, como P3 depende de P2 el primer valor es el último escrito aunque puede visualizar después el otro valor de P1. P4 depende de P1 por eso tiene el primer valor, pero puede acceder al del otro proceso. P1: W(x)1 P3: R(x)2 R(x)1 P2: R(x)1 W(x)2 P4: R(x)1 R(x)2 Una sucesión correcta de eventos con Consistencia PRAM

68 Consistencia Débil Fue propuesta por Dubois en 1986 y basa su funcionamiento en que los modelos anteriores de consistencia se consideran aún restrictivos porque requieren que las escrituras de un proceso se vean en orden. Esto no siempre es necesario. Por ejemplo, cuando se está en una región crítica no es necesario propagar valores intermedios sino los valores finales.

69 Consistencia Débil Para poder implantar este modelo se necesita de una variable de sincronización. Los accesos a las variables de sincronización son secuencialmente consistentes: todos los procesos ven todos los accesos a las variables de sincronización en el mismo orden.

70 Consistencia Débil No se permite el acceso a ninguna variable de sincronización hasta que todas las escrituras previas se hayan completado: Hacer una sincronizacion después de operaciones de escritura obliga a que los nuevos valores se propaguen a todas las memorias. El hacer una operación de sincronización antes de leer los datos, le garantiza a un proceso que leerá los últimos valores.

71 Consistencia Débil Además, la operación de sincronización garantiza que las escrituras locales sean propagadas a todas las otras máquinas y se actualiza la memoria actual con escrituras hechas remotamente. Existen variantes a este modelo como los modelos de consistencia relajada, de liberación y de entrada por mencionar algunos.

72 Agenda 4.1 Configuraciones de MCD. 4.2 Modelos de consistencia. 4.3 MCD en base a páginas. 4.4 MCD en base a variables. 4.5 MCD en base a objetos.

73 Agenda 4.3.1 Diseño, replica, granularidad, consistencia, propietario y copias.

74 MCD basada en Páginas En este esquema se tiene un único espacio de direcciones virtuales para todo el sistema. Cuando ocurre un fallo de página implica acceder a memoria disponible en otra computadora. La idea es que los programas no deban de ser modificados. Un ejemplo de este esquema es el sistema Igvy.

75 MCD basada en páginas Esquema general de MCD basada en páginas

76 Diseño de MCD basada en Páginas Se recomienda tener múltiples copias de páginas para mejorar rendimiento* Cada página tiene asociado: –Un estado: R (sólo lectura) o W (lectura/escritura) –Un propietario: el último proceso que la modificó Página W sólo 1 copia en máquina propietaria

77 Diseño de MCD basada en Páginas Página R copia en varias máquinas (1 propietaria) Lectura: –Si tiene copia local: lee de la misma –Si no: la solicita a propietario y la marca R Si el propietario la tenía W, la pasa a R (degradación)

78 Diseño de MCD basada en páginas Otros factores a considerar son: Replicación Estructura Localización de los datos Políticas de escritura Política de reemplazo de páginas Modelos de consistencia

79 Diseño de MCD basada en páginas Se recomienda replicar sólo las páginas R o bien, todas las páginas con la problemática de la reintegración. En cuestión de localización de los datos se debe tomar en cuenta si se va a hacer local, esquema centralizado o distribuido. En cuanto a políticas de reemplazo se utiliza ampliamente LRU.

80 Agenda 4.1 Configuraciones de MCD. 4.2 Modelos de consistencia. 4.3 MCD en base a páginas. 4.4 MCD en base a variables. 4.5 MCD en base a objetos.

81 MCD en base a variables En este esquema la granularidad es más fina ya que sólo se comparten variables que han sido marcados previamente en el código del programa. Tanto el compilador como el entorno de ejecución se encargan del acceso y compartición de las variables compartidas. Ejemplos: Munin y Midway

82 MCD en base a variables Se recomienda la duplicación. Ésta puede ser parcial o total. El Algoritmo de actualización es sumamente importante. No hay compartición falsa dado que todos los procesos acceden a datos protegidos y consistentes dado que la variable compartida monitoriza los accesos de escritura.

83 Munin Se basa en objetos del software (usa MMU). Declaraciones con “shared”. Una variable compartida por página (por defecto). Instrucciones normales de lectura y escritura. No hay métodos de protección especiales.

84 Munin Se manejan regiones críticas. Clases de variables: –Variables ordinarias. –Variables de datos compartidos. –Variables de sincronización.

85 Munin Categorías de variables: –Exclusiva para lectura. –Migratoria. –De escritura compartida. –Convencional.

86 Midway Compartir estructuras de datos individuales. C, C++ o ML convencional con información adicional. Mantiene consistentes las variables compartidas de manera eficiente.

87 Agenda 4.1 Configuraciones de MCD. 4.2 Modelos de consistencia. 4.3 MCD en base a páginas. 4.4 MCD en base a variables. 4.5 MCD en base a objetos.

88 MCD en base a objetos Nace como respuesta a la creciente popularización de los lenguajes orientados por objetos. Los datos se organizan y son transportados en unidades de objetos, no unidades de páginas. Ejemplos: Linda y Orca

89 ¿Qué son los objetos? Estructura de datos encapsulada definida por el programador. Se componen de datos internos (estado) y operaciones o métodos. Cumplen con la propiedad de ocultamiento de la información, por lo que contribuyen con la modularidad.

90 MCD basados en objetos No existe una memoria lineal en bruto. La localización y administración de los objetos es controlada por el sistema de tiempo de ejecución. Los objetos se pueden duplicar o no. En caso de duplicarse, hay que decidir cómo se harán las actualizaciones. Evitan el compartimiento falso.

91 MCD basado en Objetos Sus principales desventajas son que no soportan programas multiprocesadores antiguos y el costo adicional que genera el acceso indirecto a los datos.

92 El Sistema Linda El acceso a memoria se hace mediante un pequeño conjunto de primitivas que se agregan a los lenguajes existentes. Las ventajas son que no hay que aprender un nuevo lenguaje, es sencillo de implantar y es portable. Se basa en un espacio de n-adas global a todo el sistema.

93 Las n-adas de Linda Son análogas a las estructuras de C. Las operaciones sobre ellas son restringidas; sólo se soportan cuatro operaciones: out(“matrix-I”, i, j, 3.14) in(“abc”, 2, ?i) read(“abc”, 2, ?i) eval(X,Y,Z), con X,Y,Z expresiones.

94 El Sistema Orca El acceso a memoria se basa en un esquema de objetos protegidos. Consta del lenguaje, el compilador y el sistema de tiempo de ejecución. Se basa en Módula 2. Los objetos son pasivos y no se soporta la herencia.

95 El Sistema Orca Cada operación consta de una lista (protección, bloque de enunciados). Cuenta con una operación fork, en la que se basa la distribución de objetos. Las operaciones son atómicas y secuencialmente consistentes. Usa sincronización de la exclusión mutua y sincronización de condiciones.

96 Referencias Márquez, Francisco (2004). UNIX Programación Avanzada. Tercera edición, México, Alfaomega Ra-Ma. Colouris, George, Dollimore, Jean, Kindberg, Tim (2001). Sistemas Distribuidos Conceptos y Diseño. 3a. Edición. España, Pearson Addison- Wesley.

97 Referencias Deitel, Harvey, Deitel, Paul (2004). Java Como Programar. Quinta Edición. México, Pearson Prentice Hall. Tanenbaum, Andrew (1996). Sistemas Operativos Distribuidos. México, Prentice Hall. Tanenbaum, Andrew, Van Steen, Maarten (2006). Distributed Systems Principles and Paradigms. Estados Unidos, Pearson Prentice Hall.

98 Referencias Solomo, D. y Polze, A. (2009), Windows Operating System Internals. Tutorial de Sistemas Operativos 2. (2009) Instituto Tecnológico de la Paz. http://sistemas.itlp.edu.mx/tutoriales/sistemasop erativos2/ http://sistemas.itlp.edu.mx/tutoriales/sistemasop erativos2/ Cardinale, Y. (2009) Memoria Compartida Distribuidad, Universidad Simón Bolívar.


Download ppt "Memoria Compartida Distribuida M.C. Juan Carlos Olivares Rojas Julio, 2009."

Similar presentations


Ads by Google