Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > CIENCIAS TECNOLOGICAS > TECNOLOGIA DE LOS ORDENADORES >

DISPOSITIVOS DE ALMACENAMIENTO



26 tesis en 2 páginas: 1 | 2
  • DISEÑO, IMPLEMENTACION Y EVALUACION DE UN SISTEMA DE FICHEROS TRANSACCIONAL CON SEPARACION DE DATOS Y METADATOS .
    Autor: PIERNAS CANOVAS JUAN.
    Año: 2004.
    Universidad: MURCIA.
    Centro de lectura: FACULTAD DE INFORMATICA.
    Centro de realización: FACULTAD DE INFORMATICA.
    Resumen: Esta tesis describe el diseño, implementación y evaluación de un nuevo sistema de ficheros transaccional que hemos denominado «DualFS». Nuestro objetivo es mejorar el rendimiento de los sistemas de ficheros que existen en la actualidad garantizando, al mismo tiempo, una rápida recuperación de la consistencia tras una caída del sistema. El diseño del nuevo sistema de ficheros se basa en una separación completa de los bloques de datos y de metadatos y en un tratamiento especializado de los bloques de metadatos. La separación se consigue almacenando los bloques en dos particiones adyacentes de un mismo disco, denominadas «dispositivo de datos» y «dispositivo de metadatos». El dispositivo de datos se divide en varios grupos entre los que se reparten los bloques de datos de los ficheros «regulares». El de metadatos, en cambio, es un «registro» que permite, por un lado, una escritura secuencial eficiente de los bloques de metadatos y, por otro lado, una rápida recuperación de la consistencia tras una caída. Basándonos en las características particulares del nuevo diseño, hemos añadido al sistema de ficheros tres mecanismos con objeto de mejorar aún más su rendimiento. Estos mecanismos son: la «afinidad de directorio», la «lectura anticipada de metadatos» y la «reubicación dinámica de metadatos». El primero de ellos se utiliza para reducir el tiempo de las operaciones de lectura/escritura dentro del dispositivo de datos, el segundo persigue mejorar el tiempo de las operaciones de lectura en general y el tercero se utiliza para evitar que se degrade la eficiencia de la lectura anticipada. Tras implementar y ajustar el nuevo sistema de ficheros, hemos comparado su rendimiento con el de otros sistemas de ficheros de propósito general ampliamente utilizados en la actualidad. Los resultados obtenidos demuestran que DualFS puede reducir, hasta en un 98%, el tiempo de las operaciones de E/S y que es, en la gran mayoría de los casos, el mejor sistema de ficheros para tratar cargas de trabajo que son comunes en muchos entornos actuales como servidores web, de correo y noticias, desarrollo de programas, etc.
  • SISTEMA DE ALMACENAMIENTO AUTONOMICO BASADO EN APRENDIZAJE AUTOMATICO .
    Autor: HIDROBO TORRES FRANCISCO JAVIER.
    Año: 2003.
    Universidad: POLITECNICA DE CATALUÑA.
    Centro de lectura: UPC.
    Centro de realización: ARQUITECTURA DE COMPUTADORS.
    Resumen: In this thesis, we presented a system able to improve the I/O performance in an automatic way. In order to obtain the autonomic operation, we propose a system able to predict the behavior of the applications with regard to files access pattern. On the other hand, the system is able to propose di erent data placements and to predict the performance that will be obtained with these new distributions. Finally, with this information the system is able to decide if exist some better distribution and therefore to implement it. This system is build by three independent modules. The first one is able to learn the behavior of a workload in order to reproduce its behavior later on, without a new execution, even when the workload behavior change slightly or data placement is modified. The second module is a drive modeler that is able to learn how a storage drive works in an automatic way, just executing some synthetic tests once the disk is initially installed. Finally, the third module generates a set of placement alternatives and uses previous modules to predict the performance each alternative will achieve. We tested the system with synthetic and real workloads, in all cases the system was able to detect when were necessary or not to make some change to improve the I/O performance. And, more important, the system predictions were precise and the di erence between real behavior and predicted behavior was below 10%.
  • UNA CONTRIBUCIÓN AL CONTROL DE LA CONGESTIÓN EN REDES DE INTERCONEXIÓN CON CONMUTACIÓN WORMHOLE .
    Autor: BAYDAL CARDONA ELVIRA.
    Año: 2002.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: El control de la congestión es un problema clásico en el marco de las redes de interconexión. Sin embargo, las soluciones ya existentes, y diseñadas para las redes de interconexión de computadores masivamente paralelos, adolecen de inconvenientes que se analizan en esta tesis. Por ello, la principal aportación de la Tesis es la propuesta de una familia de mecanismos de control de la congestión para redes de interconexión del tipo n-cubo k-ario. Estos mecanismos trabajan únicamente con información local al nodo, sin necesidad de transmitir información de control por la red ni emplear señales o redes auxiliares. Los mecanismos diseñados se evalúan exhaustivamente, comparándolos con otras propuestas previas, obteniendo como conclusión que son capaces de evitar la degradación de prestaciones motivada por la congestión en todos los casos analizados, así como de mejorar el rendimiento (mayor productividad sin incrementar las latencias de los mensajes antes de la saturación) en muchos casos. Asimismo, los nuevos mecanismos propuestos en la Tesis mejoran las propuestas previas.
  • DESCOMPOSICIONS DE GRAFS EN ARBRES .
    Autor: LÓPEZ MASIP SUSANA-CLARA.
    Año: 2002.
    Universidad: POLITECNICA DE CATALUÑA .
    Centro de lectura: MATEMÁTICAS.
    Centro de realización: FACULTAD DE MATEMÁTICAS Y ESTADÍSTICA.
  • ESTUDIO Y CONSTRUCCIÓN DE ESTRUCTURAS TOPOLÓGICAS IDÓNEAS PARA LA MODELIZACIÓN DE REDES DE INTERCONEXIÓN .
    Autor: CANALE BETANCOURT EDUARDO ALBERTO.
    Año: 2002.
    Universidad: POLITECNICA DE CATALUÑA.
    Centro de lectura: MATEMÁTICAS.
    Centro de realización: FACULTAD DE MATEMÁTICAS Y ESTADÍSTICA.
    Resumen: En esta tesis se estudia el problema grado-diámetro, o problema (Delta-De), surgido del intento diseñar topologáis eficientes para redes de interconexión en circuitos de integración a muy grande escala. El mismo consiste en hallar el máximo número de vértices que puede tener un grafo con grado máximo Delta y diámetro De fijos. Hemos organizado la tesis en nueve capítulos más uno con conclusiones. Los primeros dos capítulos son una introducción y un repaso de los dos conceptos y resultados básicos de la teoría de grafos. El resto de los capítulos está dividido en dos partes una para digrafos y otra para grafos. La primera consta de cuatro capítulos (números, 3,4,5 y 6). Los primeros tres tratan del problema en el contexto de los digrafos unilateralmente conexo, esto es, aquellos para los cuales entre dos vértices existe un camino dirigido que los une sin importar el vértice origen y el final. El último capítulo trata el problema para digrafos cuando se considera como grado la suma de los grados de salida y de entrada. En el Capítulo 3 se establece cotas superiores al estilo de Moore, tanto para el caso general como para el caso bipartido y para p--ciclos generalizados. Mejoramos dichas cotas para digrafos con grado de entrada y salida 2 y diámetro unilateral 2 y para p--ciclos generalizados con diámetro unilateral p impar. Encontramos diagrafos de Moore para el caso de digrafos bipartidos con diámetros unilaterales 2 y 3. En el Capítulo 4 establecemos cotas inferiores a digrafos con grado y diámetro unilateral fijos y pequeños, usando diferentes técnicas como la de digrafos de voltaje, diagrafos producto, unión de ciclos y duplicación de vértices. En el Capítulo 5 damos cotas inferiores que son asintóticamente mejores que las conocidas hasta ahora, cuando el grado tiende a infinito y el diámetro unilaterial permanece fijo. También estudiamos el comportamiento del operador línea en el contexto unilateral. En el Capítulo 6 resolvemos una conjetura propuesta por S.Perennes para p-ciclos generalizados para digrafo bipartitos con diámetro unilateral impar o con diámetro unilateral par y multigrado subyacente regular.
  • ARQUITECTURA MULTIAGENTE PARA E/S DE ALTO RENDIMIENTO EN CLUSTERS .
    Autor: PÉREZ HERNÁNDEZ M. SANTOS.
    Año: 2002.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: La E/S constituye en la actualidad uno de los principales cuellos de botella de los sistemas distribuidos de propósito general, debido al desequilibrio existente entre el tipo de cómputo y de E/S. Una de las soluciones propuestas para este problema ha sido el uso de la E/S paralela. En esta área, se han originado un gran número de bibliotecas de E/S paralela y sistemas de ficheros paralelos. Este tipo de sistemas adolecen de algunos defectos y carencias. Muchos de ellos están concebidos para máqunas paralelas y no se integran adecuadamente en entornos distribuidos y clusters. El uso intensivo de clusters de estaciones de trabajo durante estos últimos años hace que este tipo de sistemas no sean adecuados en el escenario de computacional actual. Otros sistemas, que se adaptan a este tipo de entornos, no incluyen capacidades de reconfiguración dinámica, por lo que tienen una funcionalidad limitada. Por último, la mayoría de los sistemas de E/S que utilizan diferentes optimizaciones de E/S, no ofrecen flexibilidad a las aplicaciones para hacer uso de las mismas, intentando ocultar al usuario este tipo de técnicas. No obstante, a fin de optimizar las operaciones de E/S, es importante que las aplicaciones sean capaces de describir sus patrones de acceso, interactuando con el sistema de E/S. En otro ámbito, dentro del área de los sistemas distribuidos se encuentra el paradigma de agentes, que permite dotar a las aplicaciones de un conjunto de propiedades muy adecuadas para su adaptación a entornos complejos y dinámicos. Las características de este paradigma lo hacen a priori prometedor para abordar algunos de los problemas existentes en el campo de la E/S paralela. Esta tesis propone una solución a la problemática actual de E/S a través de tres líneas principales: 1,- El uso de la teoría de agentes en sistemas de E/S de alto rendimiento. 2,- La definición de un formalismo que permita la reconfiguración dinámica de nodos de almacenamiento en un cluster. 3,- El uso de técnicas de optimización de E/S configurables y orientadas a las aplicaciones.
  • CONTRIBUCIÓN AL DISEÑO DE ALGORITMOS DE ENCAMINAMIENTO EN REDES DE ESTACIONES DE TRABAJO .
    Autor: SANCHO PITARCH JOSÉ CARLOS.
    Año: 2002.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INFORMÁTICA .
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INFORMÁTICA APLICADA.
    Resumen: El objetivo principal de la tesis es la mejora de las técnicas de encaminamiento en clusters y redes de estaciones de trabajo sin la necesidad del empleo de recursos adicionales, ni la modificaicón de los conmutadores o interfaces de red, sino que el simple hecho de modificar la estrategia de cómputo de tablas de encaminamiento sea suficiente para mejorar significativamente las prestaciones de la red, facilitando así su aplicación a cualquier tecnología de red comercial. Para la consecución de este objetivo, la principal contribución de esta Tesis ha consistido en una nueva metodología de cómputo de las tablas de encaminamiento del algoritmo up*/down/ que se basa en la construcción de un árbol de expansión en profundidad (DFS) frente al árbol de expansión en amplitud (BFS) utilizado por la metodología original. Dicha metodología permite que la eliminación de ciclos en el grado de dependencia de canales se realice imponiendo menor número de restricciones de encaminamiento, lo que ocnduce a una sensible mejora de prestaciones del algoritmo up*/down* resulante. Complementariamente, se ha propuesto distintas heurísticas para la selección del modo raíz del árbol de expansión y, en el caso de la nueva metodología, para la secuenciación de los nodos en el árbol. Otras contribuciones de la tesis han consistido en un nuevo algoritmo de distribución de rutas para encaminamiento fuente: un nuevo algoritmo de encaminamiento genérico alternativo al up*/down* y, a diferencia de éste, eficaz tanto en redes con topología regular como irregular, y finalmente, una estrategia simple y eficaz de cómputo de las tablas de encaminamiento del algoritmo up*/down* para redes InfiniBand, soslayando así los inconvenientes impuestos por el estándar para el soporte a dicho algoritmo. La evaluación de las estrategias propuestas se ha realizado por simulación en el contexto de redes Myrinet e InfiniBand, habiéndose puesto de manifiesto la validez las mismas para la mejora de prestaciones de la red.
  • OPTIMIZACIÓN DE CLUSTERS COMO PLATAFORMAS MULTIMEDIA UTILIZANDO CLIENTES PREDICTIVOS MULTIHILO .
    Autor: OLIVARES MONTES TERESA.
    Año: 2002.
    Universidad: CASTILLA-LA MANCHA.
    Centro de lectura: ESCUELA POLITÉCNICA SUPERIOR .
    Centro de realización: ESCUELA POLITÉCNICA SUPERIOR DE ALBACETE.
    Resumen: En esta tesis doctoral se pretende hacer un estudio de los problemas principales de los clusters de computadoras utilizando aplicaciones multimedia. Enfrentamos la dos partes, arquitectura y aplicaciones y, además, lo hacemos de una forma "real", sin simulaciones. Se va a partir de una plataforma real, formada por un cluster de alta velocidad, y de una aplicación multimedia totalmente flexible como para emular el patrón de tráfico de otras. Esta aplicación va a inyectar la carga multimedia al cluster y va a exigir unos requisitos particulares. El gran reto actual de los cluster es la entrada/salida de alto rendimiento, ya que la computación de alto rendimiento está conseguida. Expondremos los principales problemas y daremos una solución que mejore los resultados obtenidos inicialmente. En entrada/salida existen numerosos e interesantes trabajos. Todos han intentado aportar alguna novedad, con el propósito de mejorar algún punto negro de la entrada/salida. En nuestro trabajo se ha hecho un estudio exhaustivo de todos esos trabajos con el fin de plantear un nuevo método híbrido de adelantamiento de datos para arquitecturas cliente-servidor, en uno de los sistemas de ficheros en red más utilizado actualmente, NFS (network File System). Pero no sólo va a ser un planteamiento algorítmico y teórico, sino que se va a implementar en el mismo núcleo del sistema operativo, donde NFS aparece como módulo, y se realizarán los experimentos para confirmar las mejoras de la implementación desarrollada. Inicialmente, nos planteamos la posibilidad de cambiar la forma de trabajar del servidor, pero después realizmos el traslado al cliente, mucho más manejable y abierto a mejoras de este tipo. Planteamos el diseño de la técnica híbrida de prefetching, una técnica basada en grafos de acceso, con el propósito de adelantar datos no sólo del fichero actual que se está leyendo (que eso ya se hacía) sino, también, a través de distintos ficheros. Presentamos también los resultados con este nuevo cliente predictivo y obtenemos una importante reducción en los tiempo de lectura, y unos valores importantes en la ganancia conseguida. Por lo tanto, queda demostrada la utilidad de técnicas de este tipo para el sistema NFS.
  • EARLY VISION AND ARTIFICIAL NEURAL NETWORKS .
    Autor: CORCHADO RODRÍGUEZ EMILIO SANTIAGO.
    Año: 2001.
    Universidad: SALAMANCA.
    Centro de lectura: FÍSICA.
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: Esta memoria presenta un método para derivar reglas de aprendizaje, a partir de funciones de densidad de probabilidad empleando redes neuronales. Esta tesis persenta una investigación centrada en el uso de redes neuronales artificiales, con aprendizaje principalmente no supervisado, empleando conjuntos de datos visuales. A lo largo de la memoria se muestran nuevas arquitecturas de redes neuronales cuyas características se analizan primero en conjuntos de datos artificiales y posteriormente en conjuntos de datos reales. Debemos destacar dos temas principalmente: * El primero es la derivación de reglas de aprendizaje obtenidas a través de principios probabilísticos. Esto ha dado lugar a la obtención de un método que provoca que la respuesta de la red sea globalmente ordenada y en una nueva manera de llevar a cabo la técnica estadística denominada Búsqueda de Proyecciones Exploratorias (Exploratory Projection Pursuit). * El Segundo punto consiste en la aplicación de estas nuevas arquitecturas a conjuntos de datos visuales. Esta es un tema de investigación abierto al cual nosotros pensamos que hemos aportado resultados bastante significativos.
  • TÉCNICAS DE CARACTERIZACIÓN, MODELADO YGENERACIÓN DE CARGA DE ACCESO AL SISTEMA DE ALMACENAMIENTO .
    Autor: GÓMEZ REQUENA M. ENGRACIA.
    Año: 2000.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: UNIVERSIDAD POLITÉCNICA DE VALENCIA.
    Resumen: El trabajo presentado en esta tesis doctoral es una contribución al análisis, modelado y generación sintética de la carga de acceso a disco. Esta contribución tiene de novedosa la aportación de soluciones actuales en la caracterización de la carga basadas en procesos auto-similares. En la tesis se demuestra que las llegadas a disco tienen un comportamiento auto-similar, hay una gran cantidad de ráfagas es un amplio rango de escalas temporales. Además también se muestra que se puede observar un comportamiento análogo en las direcciones de accesos a disco. Las peticiones se agrupan en zonas del espacio de direccionamiento, de forma que estas zonas reciben una gran cantidad de accesos, mientras que hay otras zonas con un número reducido de accesos. Este comportamiento en el espacio también puede ser descrito mediante procesos auto-similares. A partir del conocimiento adquirido sobre la carga de disco, se implementa un generador de carga de disco. Este generador demuestra que el uso de modelos auto-similares para modelar la carga de disco, permite generar carga más cercana a la carga real que los modelos tradicionales. Ademas se comprueba que esta propiedad tiene una alta influencia en las prestaciones obtenidas en el sistema de almacenamiento. Por tanto, resulta muy conveniente incluirla en los modelos de carga para realizar evaluaciones de prestaciones realistas.
  • FACTORES DE DISEÑO EN REDES DE ALMACENAMIENTO DE ALTAS PRESTACIONES .
    Autor: MOLERO PRIETO XAVIER.
    Año: 2000.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: Las redes de almacenamiento son redes dedicadas de altas prestaciones que interconectan servidores y dispositivos de almancenamiento. El uso de estas redes desliga el concepto de almacenamiento del concepto, de servidor, a la vez que facilita la compartación del espacio de almacenamiento entre múltiples servidores sin afectar a las prestaciones de la red de comunicaciones que une los servidores a los clientes. Asimismo, las redes de almacenamiento eliminan las lilmitaciones de escalabilidad de prestaciones y distancia, así como las referidas a la tolerancia a fallos, impuestas por los sistemas de almacenamiento tradicionales basados en buses paralelos. El trabajo presentado en esta tesis doctoral es una contribución al diseño de la red de interconexión que enlaza servidores y dispositivos de almancenamiento. En concreto, este trabajo analiza el efecto de varios factores sobre las prestaciones de estos sistemas. Primero, se identifican y evalúan las principales carcterísticas de una arquitectura de conmutador adaptada a las necesidades de las redes de almacenamiento. En segundo lugar, se analizanl as propiedades de un conjunto de topologías, tanto adaptadas a la estructura de edificios como a entornos departamentales. Este análisis incluye, además, un estudios obre la escalabilidad de las topologías para edificios. Asimismo, se ha estudiado la degradación de prestaciones producida por el fallo de enlaces de la red de interconexión en los dos contextos anteriores. Finalmente, se proponen varias políticas para gestionar los mensajes de control presentes en estas redes a fin de mejorar sus prestaciones.
  • FIJADO FOTORREFRACTIVO EN LINBO3.FE, CARACTERIZACION Y APLICACIONES.
    Autor: MIGUEL SANZ EVA MONICA DE.
    Año: 1999.
    Universidad: AUTONOMA DE MADRID.
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS DE LA UAM.
    Resumen: La tesis recoge un estudio exhaustivo de las siguientes propiedades que caracterizan a los hologramas fijados en Niobato de Litio dopado con Hierro (LiNbO3:Fe): a) Estudio del tiempo de vida de los hologramas fijados en función de la temperatura de trabajo, del contenido de Hidrógeno, del estado de reducción de las impurezas de Hierro, y del espaciado medio de las franjas del holograma. Este estudio permite determinar cual será el tiempo de vida útil de cualquier holograma fijado en este material dadas las condiciones del cristal, el ángulo de grabado y la temperatura de trabajo. b) Determinación de la luminosidad final del holograma fijado en función de las características del cristal. Se ha estudiado la relación entre la eficiencia del holograma tras el grabado y su eficiencia después del fijado, en función del estado de oxidación del cristal y el espaciado de las franjas. Se pone de manifiesto la gran importancia del efecto fotovoltaico para obtener alta luminosidad. c) Se estudian los parámetros relevantes para la aparición de hologramas mezcla al grabar secuencialmente en el cristal dos hologramas con distintos ángulos de grabado, así como la importancia final de los hologramas mezcla según la secuencia de procesos realizados para obtener los hologramas fijados. d) Variación de la luminosidad del holograma fijado dependiendo de la intensidad de la iluminación usada para su revelado. Estos estudios han permitido conocer las condiciones idóneas para la realización de dispositivos holográficos, tanto respecto al grabado del holograma como al cristal a utilizar como soporte. Se llegan a determinar las condiciones en que debe grabarse el holograma a temperatura ambiente, conocida la concentración de Hidrógeno y la concentración efectiva de trampas del cristal, para que una vez fijado y revelado el holograma posea máxima luminosidad (100% de eficiencia de difracción) y dure el mayor tiempo posible (tiempos de vida media del orden de 50-100 años). Se ha implementado por primera vez, según nuestro conocimiento, un correlador óptico fijado y se han estudiado sus características diferenciales. Igualmente se han realizado pruebas que han permitido determinar las condiciones de fabricación de un filtro interferencial fotorrefractivo de alta reflectividad para una longitud de onda de 1500nm.
  • TEST DE LAS MEMORIAS DE ACCESO-ALEATORIO RAM.
    Autor: AZIMANE MOHAMED.
    Año: 1999.
    Universidad: GRANADA .
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: Esta tesisdoctoral recoge importantes soluciones para resolver el problema del test de las memorias de acceso aleatorio independientemente del tipo de las memorias, del diseño de las celdas de la matriz de elementos de la memoria y el diseño de decodificador. Se han introducido nuevos modelos de faltas que explican el comportamiento defectuoso de celdas adyacentes, y se han explicado a nivel eléctronico algunos defectos físicos modelados por faltas. Se han generado procedimientos de test conlocalización y distinción de las faltas. Estos procedimientos de test son independientes del diseño cel decodificador. Se han detectado todos los modelos de fatas tanto a nivel del decodificador como a nivel de la matriz de elementos de la memoria. Se ha introducido una modficación en lo que es usual en los algoritmos galope. Concretamente se ha dividido la matriz de elementos de la memoria en diferentes conjuntos de celdas, las pares, las impares, las celdas del primer y el segundo grupo para-impar. Esta divisiónpermite distinguir entre celdas de la memoria y abrir unnuevo camino para la generación de nuevos algoritmos de test capaces de cubir el máximo rango de faltas. De este modo, se ha definido el estado lógico de la matriz de elementos de la memoria, y se han detectado todas las faltas conocidas. SE hanintroducido nuevos estados lógicos de la matriz de elementos de la memoria con respecto a los usuales de los algoritmos galope; estos estados pemiten estructurar aun más los algoritmos y conocer los pasos de test aplicados y los valores esperados del contenido de la memoria. Los algorimos DITEC- y DITEC+ aplican adicionalmente los nuevos estados lógicos 01,10,0011,1100. Se han expuesto también los detalles de la aensibilidad de las faltas y se ha destacdo la idea de distancia entre los elementos galope de sensibilización de detección, además de su influencia en el cubrimiento de las faltas de acoplamiento. Se ha reducido el tiempo de test de las memorias ya que el algortimo DITEC- es de complejidad menor que todos los conocidos. Gracias a la idea del estado lógico de la matriz de elementos se ha llegado a cubir el máximo rango de faltas en un timepo de test reducido. Se ha mostrado la gran improtancia del tiempo de propagación de las faltas de acoplamiento, y la influencia de los defectos físicos en el cubrimiento de faltas en los algorimos galope. Se ha tenido en cuenta, por primera vez, el tiempo de propagación de las faltas de acoplamiento.Se han estimualdo mediante PSPICE ejemplos de defectos que demuestran la diferencia enpropagación de las faltas de acoplamiento con retardos de propagación. Como solución del problema de cubrimiento de las faltas de acoplamiento se ha generado un nuevo algoritmo de test para la detección de las faltas de acoplamiento con retardo de propagación mayor que el tiempo de acceso a memoria. Este algoritmo, basado en los nuevos estados lógicos de la matriz de elementos de la memoria 01,10,0011 y 1100 cubre completamente las faltas en las memorias RAM en un tiempode test reducido. En términos globales, se ha llegado a cubir comletamente el test de las memorias de acceso aleatorio, grarntizando al usuario final memorias libres de fallos y para los ingenieros diseñadors de test el uso fácil tanto de los procedimientos de test como del TETEADOR DITEC-,
  • "UN SISTEMA GENERICO DE GESTION DE DATOS REPLICADOS PARA COMPUTACION MOVIL" .
    Autor: ALONSO NOGUEIRO LUIS ALFREDO.
    Año: 1999.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INFORMATICA.
    Centro de realización: FACULTAD DE INFORMATICA.
    Resumen: En este trabajo se aborda el problema de la compartición de datos. Este entorno se caracteriza por una conectividad escasa y extremadamente cara. Como consecuencia se utilizan tecnicas de replicación. Para mejorar el rendimiento y la flexibilidad de dichas técnicas se utilizan tecnicas de orientación a objetos, con ello se consigue utilizar la semántica propia de cada tipo de datos, acrecentándose la flexibilidad y rendimiento del sistema. También se instrumenta un sistema transaccional para aplicaciones criticas.
  • ANÁLISIS DE RENDIMIENTO Y PERSPECTIVAS DE MERCADO DE LOS SUBSISTEMAS DE ALMACENAMIENTO EN DISCO MAGNÉTICO PARA GRANDES SITEMAS.
    Autor: RODEÑO ARRÁEZ MIGUEL JESÚS.
    Año: 1999.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIÓN.
    Centro de realización: E.T.S.I. DE TELECOMUNICACIÓN .
    Resumen: En esta tesis doctoral se analizan el rendimiento de los subsistemas de disco magnético de 31 Centros de Procesos de Datos (CPD) de España y los criterios de compra de estos CPD, en base a una encuesta original realizada a los responsables de estos centros y a estudios y simulaciones de rendimiento. Se comparan los datos de rendimiento de 180 subsistemas de varios proveedores (IBM, EMC, Comparex y STK), entre los años 1992 a 2000, analizando y discutiendo la tasa de entrada/salida, las estadísticas de memoria caché, los componentes del tiempo de respuesta, el tipo de carga (DB2, Adabas, IMS, TSO) tanto en procesos online como batch, etc. Se llega a las conclusiones siguientes: los datos y gráficas de rendimiento proporcionadas por los fabricantes y los simuladores son suficientemente exactos; Adabas y DB2 son los tipos de carga que proporcionan un peor tiempo de respuetas; los subsistemas de disco en España tienen una densidad de acceso (operaciones de entrada/ salida por segundo por GB) mayor que la habitual en el resto del mundo; EMC e IBM son líderes en rendimiento. Se comparan los datos de subsistemas contratados a los cuatro proveedores citados, analizando y discutiendo los motivos y criterios de compras, el crecimiento e demanda en diversas plataformas, los parámetros para evaluar técnicamente los subsistemas, etc., llegando, entre otras, a las siguirntes conclusiones: la disponibilidad (incluyendo la copia remota) es el principal criterio de compra; NT es la plataforma que más crece, seguida de Unix; IBM fue líder en cuota de mercado en 1992-1995, EMC en 1996-1997 y Comparex en 1998-1999.
  • "ASPECTOS DE TOLERANCIA A FALLOS EN UN SISTEMA DE FICHEROS DISTRIBUIDO Y PARALELO MEDIANTE ESQUEMA DE REDUNDANCIA" .
    Autor: VEGA VEGA RAIMUNDO E..
    Año: 1999.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INFORMATICA.
    Centro de realización: FACULTAD DE INFORMATICA.
    Resumen: Esta tesis tiene por objetivo principal proponer esquemas de redundancia de datos para que un Sistema de ficheros Distribuido y paralelo dé servicios tolerantes a fallos. Para dar alcance al objetivo principal de esta tesis se propone un modelo de subsistema de E/S redundante compuestos por una jerarquia de dispositivos software redundante denominados VRAID y RAID. Tanto el dispositivo VRAID como RAID pueden soportar la avería de un componente y continuar con sus servicios. Para ello se propone una estrategia de trabajo degradado. Adicionalmente ambos dispositivos permiten la reconstrucción de los datos de un componente averiado mediante una politica de reconstrucción propuesta en esta tesis. Se propone el concepto de acción para la gestión de ambos dispositivos. El modelo de subsistema de E/S redundante propuesto fue evaluado mediante tecnicas de simulacion.
  • GESTION DE MEMORIA EN SERVIDORES DE VIDEO BAJO DEMANDA.
    Autor: GARCIA MARTINEZ ALBERTO.
    Año: 1998.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INGENIEROS DE TELECOMUNICACION.
    Resumen: La principal contribución de esta Tesis es la presentación, estudio y análisis de viabilidad de una nueva técnica para la gestión de memoria en servidores de vídeo bajo demanda. Nuestra propuesta, Gestión de Memoria por Dispositivo de Almacenamiento, GMPDA, consiste en la reserva de un número fijo y pequeño de zonas de memoria por cada dispositivo de almacenamiento empleado. GMPDA permite conseguir un importante ahorro de memoria en comparación con las técnicas empleadas habitualmente, doble zona de memoria y única zona de memoria, que están basadas en la reserva de una cierta cantidad de memoria por cada cliente servido. GMPDA puede utilizarse para el servicio determinista de clientes intolerantes, con distintos métodos de control de admisión y con distintos esquemas de distribución de datos en los dispositivos de almacenamiento. De entre los requisitos exigidos para su aplicación, destacamos la necesidad de que la planificación sea cíclica, y que tanto la red como los clientes permitan el envío a ráfagas de los contenidos. Para asegurar que el mecanismo de gestión de las zonas de memoria puede llevarse a cabo sin pérdida de información, es necesario realizar algunas pruebas cada vez que un nuevo cliente desea ser admitido en el sistema. Las condiciones añadidas pueden forzar el rechazo de algunos clientes, por lo que su aplicación puede dar lugar a una disminución en el rendimiento. Veremos, no obstante, que esta disminución será de poca importancia si los parámetros que gobiernan el comportamiento de GMPDA son elegidos apropiadamente. A lo largo de todo el desarrollo de esta Tesis se ha tenido muy en cuenta la presencia de contenidos heterogéneos en los servidores reales. Los problemas que plantean estos contenidos para la aplicación de GMPDA han sido solucionados mediante dos variaciones en el esquema básico de GMPDA: la agrupación de ciclos y el incremento en el número de zonas empleadas por dispositivo de almacenamiento. También se ha contemplado con detalle la posibilidad de que el servidor esté compuesto por varios discos. Además del estudio teórico de GMPDA, se han realizado una serie de experimentos con un simulador que modela un servidor de contenidos heterogéneos, con planificación cíclica, diversas estrategias en el control de admisión, y la posibilidad de disponer de un número variable de discos. Los resultados obtenidos nos indican que GMPDA ofrece un rendimiento muy similar al que se consigue con estrategias de gestión de memoria basadas en reserva por cliente, con una disminución de entre uno y dos órdenes de magnitud en la cantidad de memoria requerida. Otras aportaciones presentadas están relacionadas con las estrategias de distribución de contenidos heterogéneos en múltiples discos, y con el control de admisión mediante simulación de clientes intolerantes.
  • SOPORTE DE SISTEMAS OPERATIVOS PARA GESTION DE TRAFICO DE DISCO CON REQUISITOS DE TIEMPO REAL.
    Autor: MOLANO VIVAS ANASTASIO.
    Año: 1998.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INGENIEROS DE TELECOMUNICACION .
    Resumen: Esta Tesis se enmarca en el campo de los sistemas operativos de tiempo real y pretende como objetivo mejorar el soporte que ofrecen los sistemas operativos actuales para la gestión de tráfico de disco bajo requisitos de tiempo real, logrando una aplicación eficaz de los modelos teóricos de planificación de sistemas de tiempo real para la gestión de tráfico de disco. Este trabajo de investigación se ha centrado fundamentalmente en el soporte de sistema operativo para cargas de trabajo muy heterogéneas, en donde se combinan operaciones de E/S de disco isócronas, junto a operaciones aperiódicas, todas ellas bajo requisitos de tiempo real. Anticipamos que muchas de las aplicaciones futuras que precisen de soporte específico para gestión de tráfico de disco en tiempo real tendrán este tipo de requisitos (e.g. un sistema C3I con facilidades multimedia, en donde hayan de consultarse registros texto de una base de datos residente en disco bajo requisitos estrictos de tiempo, a la vez que recuperarse información multimedia). La implementación de un soporte adecuado para la gestión de tráfico de disco conlleva al rediseño de partes importantes del sistema operativo, tal es el caso del sistema de ficheros o de los manejadores de dispositivos. En esta Tesis se cubren todos los aspectos del desarrollo de un sistema de ficheros de tiempo real, pasando por el diseño, la implementación sobre sistemas operativos de tiempo real, y la evaluación de prestaciones sobre aplicaciones tipo y aplicaciones reales. Se presenta un novedoso modelo de planificación basado en reservas de ancho de banda de disco, que permite la asignación de un ancho de banda de disco determinado a una aplicación dada mediante la contabilización y el control en tiempo de ejecución, por parte del sistema de ficheros, del número de accesos a disco realizado por la aplicación a lo largo del tiempo, un alojamiento adecuado de los bloques de datos en la superficie del disco, y la implementación de una política de planificación que garantiza la consecución de los plazos de ejecución. Este modelo consigue crear una capa de abstracción que protege a una aplicación dada de posibles interferencias frente a otras aplicaciones, consiguiendo solucionar el problema de garantizar el acceso a disco en tiempo real para un conjunto de aplicaciones que se encuentren accediendo al disco de forma simultánea con diferentes requisitos en cuanto a ancho de banda y tiempo de respuesta requeridos.
  • MODELADO ANALITICO DEL COMPORTAMIENTO DE LAS MEMORIAS CACHE.
    Autor: FRAGUELA RODRIGUEZ BASILIO.
    Año: 1998.
    Universidad: A CORUÑA.
    Centro de lectura: INFORMATICA.
    Resumen: El principal cuello de botella que limita las tasas de computación que pueden alcanzar los sistemas actuales radica en la diferencia creciente de velocidad entre el procesador y las memorias. Para responder a este problemas se ha dotado a los computadores de una jerarquía de niveles de memoria donde los niveles más cercanos al procesador, las memorias caché, juegan un papel fundamental. Las aproximaciones más típicas para el estudio de estas memorias, las simulaciones guiadas por trazas y la monitorización hardware, tienen problemas de flexibilidad y de requerimientos de tiempos de computación elevados, además de dar poco información sobre el comportamiento de los programas. Una tercera técnica, el modelado analítico, supera esto problemas pero tradicionalmente, ha sido poco precisa. En esta tesis proponemos una serie de técnicas, para el modelo analítico del comportamiento de estas memorias. Realizamos un desarrollo sistemático y modular que posibilita su aplicación uncódigo cualquiera siguiendo metodos bien estructurados. Además, soportamos patrones de acceso tantos regulares como irregulares, habiendo sido estos últimos muy poco estudiados hasta la fecha, a pesar de revestir un gran interés por su complejidad y su efecto negativo sobre el rendimiento del sistema. Ilustramos nuestra técnica aplicándose a una serie de códigos típicos que incluyen patrones irregulares siguiendo un orden de complejidad creciente. Así mismo demostramos tanto la utilidad (al proponer mejoras en los códigos o las memorias) como la precisión del modelo. Esta última es mucho mayor que la de los modelos analíticos del comportamiento de memorias propuestas hata el momento, pese a que modelamos códigos mucho más complejos que los empleados en la bibliografía. Una segunda parte de la tesis consiste en el desarrollo de algoritmos que posibiliten la aplicación automática de nuestras técnicas de modelado, de forma que éstas puedan ser utilizadas en un compilador u otro tipo de entorno automático de optimización. Estas técnicas se diseñan para algoritmos con patrones de acceso regulares y se validan aplicando un sencillo analizador que hemos construido a una serie de códigos típicos. Los resultados obtenidos son también muy satisfactorios tanto en lo tocante a los tiempos de computación requeridos como a los niveles de precisión de la predicción.
  • COOPERATIVE CACHING AND PREFETCHING IN PARALLEL/DISTRIBUTED FILE SYSTEMS.
    Autor: CORTES ROSELLO ANTONIO.
    Año: 1997.
    Universidad: POLITECNICA DE CATALUÑA.
    Centro de lectura: INFORMATICA.
    Centro de realización: DEPARTAMENTO: ARQUITECTURA DE COMPUTADORES PROGRAMA DE DOCTORADO: ARQUITECTURA Y TECNOLOGIA DE COMPUTADORES.
26 tesis en 2 páginas: 1 | 2
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia