Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > CIENCIAS TECNOLOGICAS > TECNOLOGIA DE LOS ORDENADORES >

ARQUITECTURA DE ORDENADORES



168 tesis en 9 páginas: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9
  • DISEÑO, EVALUACION Y OPTIMIZACION DE LA TRANSFORMADA WAVELET PARA CODIFICACION DE VIDEO MEDICO EN ARQUITECTURAS MONOPROCESADOR .
    Autor: BERNABE GARCIA GREGORIO.
    Año: 2004.
    Universidad: MURCIA.
    Centro de lectura: UNIVERSIDAD DE MURCIA.
    Centro de realización: UNIVERSIDAD DE MURCIA.
    Resumen: El aumento espectacular del uso de aplicaciones multimedia en las diferentes especialidades médicas y del volumen de información médica (imágenes y vídeos) en los hospitales actuales, ponen de manifiesto la necesidad de las técnicas de compresión para reducir tanto la cantidad de información almacenada como los datos a transmitir. La información médica cuenta con propiedades particulares (seguridad, privacidad, disponibilidad, calidad, etc), y medidas legales que no hacen más que aumentar los espacios de almacenamiento y el ancho de banda necesario para transmitir la información. Los estándares tradicionales de compresión de imágenes y vídeo se han basado en la transformada discreta del coseno. Diversos inconvenientes y la aparición de la transformada discreta de wavelet han originado nuevas vías de investigación. En este trabajo presentamos un nuevo codificador de vídeo médico con pérdida de información basado en la transformada de wavelet 3D. El codificador obtiene grandes tasas de compresión y una calidad excelente desde el punto de vista médico, ya que no se aprecian diferencias y no aumenta el grado de distorsión en los vídeos reconstruidos. La ejecución de las aplicaciones multimedia en tiempo real en un ordenador personal es uno de los principales inconvenientes que presentan dichas aplicaciones. En esta tesis se desarrollan varias propuestas para permitir la compresión y transmisión en tiempo real de la transformada de wavelet 3D en arquitecturas monoprocesador. En las diferentes propuestas se hará uso de lasextensiones multimedia, técnicas de división en bloques (blocking), reuso de operaciones en punto flotante, desenrrollado de bucles o técnicas de pre-búsqueda. La integración de las propuestas anteriores supone un primer paso para la automatización de la convergencia entre las aplicaciones multimedia y las extensiones multimedia. Con la llegada de las nuevas arquitecturas monoprocesador que permiten ejecutar simultáneamente múltiples hilos (Simultaneous Multithreading (SMT)), se realizan varias propuestas que explotan de forma eficiente el paralelismo a nivel de hilos. Las distintas propuestas se diferencian en la forma de realizar la descomposición de la aplicación original. La codificación de vídeo médico basada en la transformada de wavelet 3D obtiene mejores resultados cuando se realiza una descomposición funcional que en el caso de una descomposición basada en el dominio de los datos. Los compiladores actuales no son capaces de llevar a cabo una paralelización automática eficaz basada en una descomposición funcional, ya que se requiere un conocimiento del funcionamiento de la aplicación. Por tanto, las diferentes propuestas que obtienen los mayores beneficios se obtienen mediante la intervención directa del programador o paralelización manual. En resumen, en esta tesis se propone un codificador de vídeo médico basado en la transformada de wavelet 3D que aumenta la tasa de compresión entre un 40% y un 70% para una misma calidad de las secuencias de vídeo reconstruidas. A su vez, el tiempo de ejecución se reduce en un 363 %.
  • TECNICAS ARQUITECTONICAS DE ENTRADA/SALIDA PARA SISTEMAS OPERATIVOS INTEGRADOS .
    Autor: FERNANDEZ MUÑOZ JAVIER.
    Año: 2004.
    Universidad: CARLOS III DE MADRID.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR .
    Centro de realización: UNIVERSIDAD CARLOS III DE MADRID.
    Resumen: En esta tesis se propone una arquitectura de E/S para sistemas integrados, es decir, aquellos que tienen que dar soporte tanto a clientes con requisitos temporales como a clientes de propósito general. La arquitectura propuesta se divide en dos componentes principales: - Un planificador de disco multipolítica. - Un gestor de caché de disco multipolítica. El planificador de disco propuesto en esta tesis consta de diversas colas de peticiones divididas en dos niveles. De esta forma se consigue que el número de peticiones servidas por cada categoría sea proporcional a la cantidad de recursos reservados. Todo ello respetando los plazos de respuesta de las peticiones que lo requieran. El gestor de caché multipolítica propuesto gestiona los bloques mediante diversas listas de reemplazo, una por cada tipo de peticiones. Además, se proponen dos nuevos algoritmos de caché especializados en servir flujos multimedia Un algoritmo basado en intervalos, pensado para flujos de velocidad constante y un algoritmo basado en la expulsión de los bloques de caché por rondas pensado para flujos de velocidad variable La evaluación realizada muestra que la solución propuesta es capaz de mantener a la par el rendimiento relativo de cada categoría con el porcentaje de recursos asignados, todo esto sin descuidar el rendimiento global del sistema. Además demuestra que el sistema es lo suficientemente flexible para aceptar cualquier configuración.
  • CONTRIBUCION AL MODELADO DE ASPECTOS DE GESTION DE APLICACIONES DISTRIBUIDAS BASADAS EN COMPONENTES EN EL MARCO DE LA ARQUITECTURA MDA (MODEL DRIVEN ARCHITECTURE) .
    Autor: PIGNATON DA SILVA RONEY.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S.I. DE TELECOMUNICACIONES.
    Centro de realización: ETSI DE TELECOMUNICACIONES .
    Resumen: La tecnología de componentes está asumiendo un importante papel en muchos dominios del desarrollo software debido a su capacidad para proporcionar una considerable mejora de la productividad, permitiendo el desarrollo de sistemas software más flexibles y con una mejor capacidad de mantenimiento y evolución, desplegados sobre una variedad de plataformas tecnológicas. Para disminuir la complejidad y heterogeneidad introducida por la diversidad del entorno computacional, MDA (Model Driven Architecture) surge como un nuevo marco de modelado para la especificación de sistemas con independencia de la tecnología, a través del uso de modelos formales expresados con UML (Unified Modelling Language). En ese contexto, los aspectos funcionales de aplicaciones basadas en componentes software son formalizados a través de una extensión del lenguaje de UML para EDOC (Enterprise Distributed Object Computing). Sin embargo, los aspectos no funcionales relacionados con la "Calidad de Servicio" (Quality of Service-QoS) no han sido tratados con el formalismo adecuado para que puedan ser utilizados en el contexto de MDA. La calidad de servicio es un término genérico que describe distintos aspectos del sistema y que proporciona una manera de medir, cuantitativa o cualitativamente, cómo de bien el sistema proporciona sus prestaciones. Como resultado, el proceso de transformación de modelos, considerado el principio fundamental para implementar todo el potencial del marco de modelado de MDA, no puede ser aplicado. Por ello, es necesario extender los lenguajes de modelado con nuevos conceptos con el objetivo de permitir a los diseñadores la especificación formal de la información QoS necesaria en cada nivel de MDA. Esta Tesis Doctoral propone un conjunto de contribuciones que posibilitan la especificación de esa información QoS a través de los diferentes niveles del marco de modelado de MDA. Para alcanzar ese objetivo, esta Tesis Doctoral define un conjunto de extensiones de UML para: Extender MDA con el objetivo de crear nuevo marco de modelado QoS que proporcione la capacidad para especificar y gestionar los aspectos QoS de aplicaciones basadas en componentes distribuidos con independencia de la plataforma tecnológica. Además, este trabajo define una metodología para aplicar esas extensiones con el objetivo final de generar los modelos de especificación de los mecanismos de monitorización e instrumentación en una variedad de plataformas, incluyendo CORBA, J2EE, .NET, etc.
  • CLASIFICADORES JERARQUICOS EN CRITERIOS DE VECINDAD PARA EL RECONOCIMIENTO DE CARACTERES MANUSCRITOS.
    Autor: SORALUCE ARRIOLA IRATXE.
    Año: 2003.
    Universidad: PAIS VASCO.
    Centro de lectura: FACULTAD DE INFORMATICA.
    Centro de realización: FACULTAD DE INFORMATICA.
    Resumen: El objetivo de esta tesis ha sido diseñar un sistema de clasificación eficiente para el reconocimiento off-line de caracteres manuscritos aislados. El sistema de clasificación propuesto consiste en la combinación en serie de distintos clasificadores basados en criterios de vecindad. Los clasificadores basados en criterios de vecindad producen una tasa de aciertos satisfactoria en el reconocimiento de caracteres, sin embargo, su coste computacional es elevado. Mediante los clasificadores jerárquicos construidos, se consigue mantener la mejor tasa de aciertos alcanzada con clasificadores como el k-NN y el k-NCN reduciendo mucho su coste computacional. Estos resultados se pueden comprobar mediante la experimentación llevada a cabo para dígitos, letras mayúsculas y letras minúsculas de la base datos NIST (National Institute of Standards and Technology). La característica extraída de los caracteres ha sido el zoning y se han aplicado tres preprocesos para normalizar los caracteres y mejorar el proceso de reconocimiento. Además, en este trabajo se presenta una revisión bibliográfica de los métodos y técnicas más utilizadas para llevar a cabo las fases de preproceso, extracción de características y clasificación en el reconocimiento de caracteres.
  • DISEÑO DE ARQUITECTURAS SOFTWARE PARA LA CONSTRUCCION DE SISTEMAS DE REALIDAD VIRTUAL .
    Autor: CAPILLA SEVILLA RAFAEL.
    Año: 2003.
    Universidad: REY JUAN CARLOS.
    Centro de lectura: E.S. DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA.
    Centro de realización: UNIUVERSIDAD DE SEVILLA.
    Resumen: EN ESTA TESIS SE PROPONE EL USO DE ARQUITECTURAS SOFTWARE APLICADAS AL DISEÑO Y DESARROLLO DE SISTEMAS DE REALIDAD VIRTUAL. LAS ARQUITECTURAS SOFTWARE REPRESENTAN UNA MODERNA TÉCNICA DE DISEÑO, DE LAS CUALES, SUS PRINCIPALES VENTAJAS ES PODER CONSTRUIR FAMILIAS DE SISTEMAS SOFTWARE A PARTIR DE UN MISMO DISEÑO GRACIAS A LA IDENTIFICACION DE PARTES COMUNES Y VARIABLES (I.E.: PUNTOS DE VARIACION) EN UN CONJUNTO DE SISTEMAS SIMILARES O PERTENECIENTES A UN MISMO DOMINIO. ESTE PROCESO SE DENOMINA DE PERSONALIZACION DE LA ARQUITECTURA. POR OTRA PARTE, SE PROPONE EL ESTUDIO DE LOS SISTEMAS DE REALIDAD VIRTUAL COMO UN TIPO DE SISTEMAS COMPLEJOS CUYAS CARACTERISTICAS LOS DIFERENCIAN DE OTRO TIPO DE SISTEMAS MAS TRADICIONALES Y CUYO DESARROLLO RESULTA COMPLEJO Y COSTOSO DEBIDO A CIERTOS FACTORES COMO SON: USO DE DISPOSITIVOS HARDWARE ESPECIALES, DISEÑO Y MODELADO 3D, PROCESAMIENTO GRAFICO COMPLEJO, INTERACCION MULTIMODAL O PRESENCIA DEL USUARIO EN LA ESCENA VIRTUAL. DEBIDO A QUE EL DESARROLLO DE ESTOS SISTEMAS ES ALTAMENTE MONOLITICO Y POCO FLEXIBLE, SE PROPONE EL USO DE ARQUITECTURAS SOFTWARE PARA FACILITAR EL DISEÑO E IMPLEMENTACION. HASTA AHORA, LOS DISEÑOS EXISTENTES BASADOS EN ARQUITECTURAS SOFTWARE PROPUESTAS PARA SISTEMAS DE REALIDAD VIRTUAL ERAN POCO FLEXIBLES, NO SOPORTABAN LA PERSONALIZACIÓN, ESTAN POBREMENTE DESCRITAS LAS PARTES DEL SISTEMA Y RESULTAN DIFICILES DE MANTENER Y EVOLUCIONAR A LO LARGO DEL TIEMPO. EN ESTE TRABAJO SE ANALIZA TANTO EL DOMINIO DE LOS SISTEMAS VR COMO UN CONJUNTO DE APLICACIONES EXISTENTES EN VARIOS LENGUAJES (VRML, JAVA 3D, VEGA, FREEVR) PARA DERIVAR EN UNA ARQUITECTURA SOFTWARE ADECUADA A LOS SISTEMAS DE REALIDAD VIRTUAL. ASIMISMO SE PROPONE LA DESCRIPCION DE LA ARQUITCTURA USANDO LA NOTACION STANDAR UML Y UN CONJUNTO DE PUNTOS DE VARIACION QUE POSIBILITE EL PROCESO DE PERSONALIZACION DE LA ARQUITECTURA. ESTOS ASPECTOS NO HAN SIDO PROPUESTOS EN TRABAJOS ANTERIORES PARA SISTEMAS DE REALIDAD VIRTUAL. GRACIAS A LA ARQUITECTURA PROPUESTA, EN LA CUAL SE DETALLAN Y SEPARAN CLARAMENTE LAS PARTES DE UN CONJUNTO DE SISTEMAS DE REALIDAD VIRTUAL TANTO INMERSIVOS COMO NO INMERSIVOS (EXCEPTO LOS DISTRIBUIDOS Y LOS BASADOS EN LA CUEVA DE REALIDAD VIRTUAL), LA VALIDACION DEL TRABAJO SE REALIZA MEDIANTE LA CONSTRUCCION DE UN SISTEMA VR CONSISTENTE EN UNA IGLESIA VIRTUAL CON UN RECORRIDO PREDEFINIDO EN LA CUAL EL PROCESO DE DISEÑO SE HA REALIZADO MUY RAPIDO MEDIANTE EL PROCESO DE PERSONALIZACION DEL SISTEMA PROPUESTO. ASIMISO Y EN EL CASO DE LA PROGRAMACION, HA SIDO POSIBLE REUTILIZAR PARTES DE CODIGO CORRESPONDIENTES A ELEMENTOS DE LA ARQUITECTURA QUE HAN SIDO PERSONALIZADOS EN EL PROCESO DE DISEÑO. DE ESTA MANERA SE OBTIENE UN DESARROLLO MAS MODULAR Y MAS FACILMENTE MANTENIBLE
  • DISEÑO DE MECANISMOS EFICIENTES PARA LA GESTION DE SUBREDES INFINIBAND .
    Autor: BERMUDEZ MARIN AURELIO.
    Año: 2003.
    Universidad: CASTILLA-LA MANCHA.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR DE ALBACETE .
    Centro de realización: ESCUELA POLITECNICA SUPERIOR DE ALBACETE.
    Resumen: El objetivo principal de esta Tesis Doctoral es contribuir al desarrollo de mecanismos de asimilación de cambios topológicos para la arquitectura de red InfiniBand. En una primera fase, se ha desarrollado y validado un modelo de esta arquitectura, haciendo uso de la herramienta de modelado y simulación OPNET Modeler. Sobre esta plataforma, se ha diseñado y evaluado un primer prototipo de mecanismo de gestión. Su evaluación nos ha permitido identificar los principales cuellos de botella en el proceso de adaptación al cambio. A continuación, se han propuesto mecanismos optimizados para cada una de las tareas involucradas en dicho proceso: la detección del cambio topológico, la adquisición de la nueva topología de la red, el cómputo de nuevas rutas y la distribución de tablas de encaminamiento actualizadas a los conmutadores de la red. El resultado es un mecanismo de gestión totalmente compatible con la especificación de InfiniBand, fácilmente implementable en sistemas comerciales, y casi transparente desde el punto de vista de las aplicaciones a las que da servicio la red.
  • ALGORITMOS HÍBRIDOS PARA LA MODELIZACIÓN DE SERIES TEMPORALES CON TÉCNICAS AR-ICA .
    Autor: GÓRRIZ SÁEZ JUAN MANUEL.
    Año: 2003.
    Universidad: CADIZ.
    Centro de lectura: ESCUELA POLITÉCNICA SUPERIOR.
    Centro de realización: ESCUELA POLITÉCNICA SUPERIOR DE ALGECIRAS.
  • TÉCNICAS DE COMPILACIÓN PARA LA PARALELIZACIÓN DE CÓDIGOS IRREGULARES .
    Autor: EXPÓSITO SINGH DAVID.
    Año: 2003.
    Universidad: SANTIAGO DE COMPOSTELA.
    Centro de lectura: FÍSICA.
    Centro de realización: FACULTAD DE FÍSICA.
    Resumen: La temática general de esta tesis es el desarrollo de nuevas estrategias que permiten aumentar el rendimiento en la ejecución de códigos irregulares. Hemos particularizado nuestro estudio a sistemas multiprocesadores, donde es necesario hacer un especial hincapié en dos factores que determinan de forma más importante la eficiencia de un programa: la extracción eficiente del paralelismo y la explotación, también eficiente, de la jerarquía de memoria. Debido a la estructura de esta clase de códigos, parte del proceso de análisis debe ser realizado durante la ejecución del programa. Por este motivo, un factor adicional que es necesario considerar lo supone el diseño de nuevas rutinas de análisis que minimicen su coste durante la ejecución del programa. Las principales contribuciones realizadas en esta tesis son el desarrollo de diversas técnicas que permiten caracterizar el conjunto de accesos a memoria realizados por un código irregular, una nueva estrategia de análisis de dependencias con la que podemos determinar la no existencia de conflictos de acceso a memoria entre dos códigos irregulares, un conjunto de técnicas de paralelización y mejora de la localidad, y un esquema de organización de las distintas propuestas en un árbol de decisión, que permite determinar la solución más eficiente en función de las características del problema considerado.
  • ESQUELETOS PARALELOS PARA LA TECNICA DE RAMIFICACION Y ACOTACION .
    Autor: DORTA GONZALEZ MARIA ISABEL.
    Año: 2003.
    Universidad: LA LAGUNA.
    Centro de lectura: FACULTAD DE FISICA Y MATEMATICAS.
    Centro de realización: FACULTAD DE FISICA Y MATEMATICAS.
    Resumen: En un gran número de problemas combinatorios, el tiempo empleado para obtener una solución usando un computador secuencial es muy alto. Una forma de solventar este inconveniente consiste en utilizar la computación paralela. En un computador paralelo, varios procesadores colaboran para resolver simultáneamente un problema en una fracción del tiemp requerido por un sólo procesador. Entre los componentes claves necesarios para que sea posible la aplicación de la computación paralela están la arquitectura, el sistema operativo, los compiladores de lenguajes de programación, y, el más importante de todos, el algoritmo paralelo. Ningún problema se puede resolver en paralelo sin un algoritmo paralelo, puesto que los algoritmos paralelos son el núcleo de la computación paralela. El objetivo de la memoria de tesis doctoral era el desarrollo de una metodología de trabajo para abordar la resolución de problemas de optimización combinatoria mediante la técnica de Ramificación y Acotación utilizando paralelismo. Partiendo de casos concretos se generalizó una forma de trabajar que dio lugar a la resolución de problemas diversos. Para ello, se utilizó el concepto de esqueleto presentado por Murray Cole en 1987.
  • Application Network Deployment in the Internet .
    Autor: ARDAIZ VILLANUEVA OSCAR.
    Año: 2003.
    Universidad: POLITECNICA DE CATALUÑA.
    Centro de lectura: ARQUITECTURA DE COMPUTADORS.
    Centro de realización: ARQUITECTURA DE COMPUTADORS.
    Resumen: Una red de aplicación esta constituida por un conjunto de servidores de aplicación esparcidos por la Internet, conectados y coordinados para proveer servicios con una latencia baja. Servicios de nivel de aplicación de reciente creación están constantemente apareciendo. Sin embargo el proceso para tener operativo un servicio proveído por red de aplicación requiere la instalación manual de un conjunto de servidores de aplicación y la configuración manual de las conexiones entre ellos. El objetivo de este trabajo es obtener una solución a este problema. La solución requiere en primer lugar un infraestructura de servicio programable, en la cual los servidores de aplicación puedan ser activados en cualquier localización de la Internet. Tal infraestructura esta compuesta de recursos distribuidos por toda la Internet donde los proveedores de servicios pueden arrancar y parar los servidores, y conectarlos o desconectarlos, todo ello remotamente. En segundo lugar la redes de aplicación deben de ser desplegadas "situadas u ordenadas para un eficiente servicio" adaptándose a variaciones de la demanda, en vez de ser activadas sin coordinación. Esta tesis tiene dos contribuciones principales, en primer lugar, se propone un marco para el despliegue de redes de aplicación, que ha sido validado a través de su implementación y experimentos. En segundo lugar se propone un mecanismo para el despliegue de redes de aplicación basado en multicast y la asignación de recursos iniciada por ellos mismos, que ha sido validado por simulaciones. El marco para el despliegue de redes de aplicación Xweb permite desplegar redes de aplicación en una infraestructura de servicios de Internet programable. Su implementación ha demostrado que las infraestructuras programables requieren mecanismos adicionales para el despliegue de redes de aplicación, tales como mecanismos que permitan la partición de recursos de manera más estricta, o mecanismos para el ligado de los servicios con los recursos de manera dinámica, o entornos de ejecución de programas más seguros. Se realizaron experimentos en los que se desplegaron redes de aplicación comunes como redes de servicios de proxy caches, o redes de servidores de chat, demostrando que el marco Xweb permite desplegar redes de aplicación en un periodo de tiempo mucho menor que lo era posible anteriormente a través de operaciones manuales. También se descubrió que la mayor parte de ese tiempo era debido a la fase de distribución de código, por lo tanto técnicas como la replicación o el caching de código contribuirían a disminuir ese tiempo todavía más. El mecanismo de inyección multicast para el despliegue de redes de aplicación en la Internet esta basado por un lado en multicast y por otro en la asignación de recursos iniciada por los propios recursos de tal manera que es muy distribuido y por lo tanto adecuado a la Internet. A través de simulaciones se ha demostrado que la eficiencia en la asignación de recursos es tan buena como con mecanismos centralizados para un rango de cargas de recursos amplio. Además la contención por los recursos no es tan importante como se temía. Y finalmente este mecanismo tiene como ventajas una disminución del coste de comunicaciones y una disminución de los costes computacionales en los gestores de despliegue.
  • CÓMPUTO PARALELO EN REDES LOCALES DE COMPUTADORAS .
    Autor: TINETTI FERNANDO GUSTAVO.
    Año: 2003.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIERÍA.
    Centro de realización: ESCUELA DE DOCTORADO Y DE FORMACIÓN CONTINUADA.
    Resumen: En esta tesis se presentan la evaluación de los problemas y reproponen soluciones para el cómputo paralelo en las redes de computadoras instaladas, teniendo en cuenta sus características de cómputo y comunicaciones. Más específicamente, analizando las características de las redes locales como plataformas de cómputo paralelo y las aplicaciones de álgebra lineal, se proponen principios de paralelización de problemas que son a la vez: específicamente orientados a cómputo paralelo en las redes locales de computadoras y suficientemente sencillos para ser aplicados a una amplia gama de problemas. Los principios de paralelización propuestos se utilizan específicamente para el problema de la multiplicación de matrices en el contexto de la biblioteca BLAS (Basic Linear Álgebra Subroutines). Además, se prueba de manera experimental su rendimiento en redes locales homogéneas y heterogénas obteniendo resultado satisfactorio en la mayoría de los casos, utilizando la máxima capacidad disponible de rendimiento de cómputo y comunicaciones. En el contexto específico de las redes locales homogéneas, se compara el rendimiento paralelo con el que se obtiene con la biblioteca ScaLAPACK (Scalable LAPACK, o Scalable Linear Álgebra PACKage), que es la biblioteca con los algoritmos más optimizados en cuanto a plataformas de cómputo paralelo con memoria distribuida. En este cso, no solamente se compara el rendimiento de la multiplicaicón de matrices en paralelo, sino que también se aplican de los principios de paralelización al problema de factorización LU de matrices, que también se compara con la alternativa que implementa ScaLAPACK. También dentro de esta tesis se propone e implementa una única operación de pasaje de mensajes broadcast directamente orientada al aprovechamiento de las características d elas redes Ethernet utilizadas para la de interconexión de computadoras en las redes locales. Se prueba también por experimentación que el rendimiento obtenido con esta implementación de la rutina broadcast aprovecha al máximo el rendimiento disponible de la red de interconexión.
  • SINTONIZACIÓN DINÁMICA DE APLICACIONES PARALELAS/DISTRIBUIDAS .
    Autor: MORAJKO ANNA.
    Año: 2003.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIERIA.
    Centro de realización: ESCUELA DE DOCTORADO Y DE FORMACIÓN CONTINUADA.
    Resumen: El objetivo principal de las aplicaciones paralelas/distribuidas es resolver el problema considerado del modo más rápido posible utilizando los recursos disponibles. Por lo tanto, el rendimiento se convierte en uno de los aspectos más importantes. El método clásico de mejorar el rendimiento se basa en el análisis de la información de rendimiento obtenida durante la ejecución de la aplicación. Los programadores deben analizar dicha información buscando problemas de rendimiento, determinando las causas de dichos problemas y cambiando el código fuente manualmente. Esta aproximación requiere un elevado grado de experiencia en programación paralela para ser llevada a cabo de modo eficiente. Además, esta aproximación no es fiable cuando las aplicaciones o los entornos de ejecución tienen un comportamiento dinámico. Así pues, es necesario desarrollar nuevas aproximaciones que mejoren el rendimiento sin la intervención del usuario y adapten el comportamiento de la aplicación a las condiciones dinámicas que se puedan presentar en tiempo de ejecución. Esta tesis aborda el problema de la sintonización automática y dinámica de aplicaciones paralelas y distribuidas. La solución propuesta incluye las fases de monitorización, análisis de rendimiento y sintonización en tiempo de ejecución. Todos estos pasos son realizados de forma atomática, dinámica y continua durante la ejecución. Por tanto, los programadores únicamente deben centrarse en el desarrollo de la aplicación y quedan liberados de las fases relacionadas con el análisis de rendimiento. Con este objetivo se ha desarrollado un entorno denominado MATE (Monitoring, Analysisi and Tuning Environment) que proporicona tales funcionalidades. El entorno ha sido probado con un amplio conjunto de aplicaciones y ha probado la viabilidad y efectividad de la metodología de sintonización dinámica.
  • IMPLEMENTABLE MODELS FOR REPLICATED AND FAULT-TOLERANT GEOGRAPHICALLY DISTRIBUTED DATABASES. CONSISTENCY MANAGEMENT FOR GLOBDATA .
    Autor: IRÚN BRIZ LUIS.
    Año: 2003.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: DPTO. SISTEMAS INFORMÁTICOS Y COMPUTACIÓN.
    Resumen: Los protocolos de actualización perezosa han demostrado tener comportamientos inadecuados a causa de sus altas tasas de abortos en escenarios con un alto grado de conflictos en los Accesos a la información. El presente trabajo aborda los protocolos de actualización perezosa desde un punto de vista crítico con respecto a su aplicabilidad en bases de datos distribuidas. Para ello, se incluye un resultado de incompatibilidad entre "preza" y "serializabilidad", que Demuestra la necesidad de relajar las garantías transaccionales proporcionadas por protocolos de difusión no-ávida. Por otro lado, también se incluye en este trabajo un estudio del problema de la tasa de abortos desde un punto de vista estadístico, que sirve como base para una nueva aproximación "no tan perezosa", basada en el comportamiento estadístico de la tasa de abortos. En este sentido, una descripción exhaustiva de dicho protocolo es también incluida, junto con resultados experimentales de su implementación, que son también usados para validar experimentalmente los razonamientos usados. El protocolo propuesto produce menores tasas de abortos que los protocolos de actualización Perezosa, incrementando al mismo tiempo -en determinados escenarios- la productividad del sistema. Una expresión para esta mejora es también justificada convenientemente. Por último, los mismos principios son usados para proporcionar un mecanismo de recuperación "no-válida" de errores, que evita el bloqueo de cualquier nodo existente en el sistema (incluso el reincorporado), así como la gestión de "log's" en los nodos supervivientes.
  • EJECUCIÓN ESPECULATIVA BASADA EN PREDICCIÓN DE VALORES .
    Autor: PIÑUEL MORENO LUIS.
    Año: 2002.
    Universidad: COMPLUTENSE DE MADRID.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA - UNIVERSIDAD COMPLUTENSE.
    Resumen: Recientemente propuesta, la predicción de valores, ha sido objeto de númerosos estudios a lo largo de los últimos años; no obstante, sigue mostrando algunas debilidades que han de ser resueltas para hacer viable su incorporación a los futuros procesadores. Esta tesis explora la capacidad de la predicción de valores y la ejecución especulativa como mecanismo para mitigar los efectos debidos a las dependencias de datos en los procesadores superescalares, y propone nuevas soluciones a algunos de los problemas que aún plantea, principalmente coste y consumo de energía. En concreto, las mejoras propuestas se enmarcan dentro de los siguientes objetivos: reducción del tamaño de las tablas de predicción; reducción del uso de las tablas en los predictores híbridos; mejora de la gestión del predictor; y configuración y gestión adecuadas el pipeline.
  • ALGORITMOS EVOLUTIVOS PARALELOS PARA OPTIMIZACIÓN MULTIOBJETIVO Y MULTIMODAL. APLICACIÓN AL DIAGNÓSTICO DE LA FIBRILACIÓN AURICULAR PAROXÍSTICA .
    Autor: TORO NEGRO FRANCISCO JESÚS DE .
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: E.T.S.I. INFORMÁTICA.
    Resumen: Esta tesis trata de la aplicación de algoritmos evolutivos paralelos a problemas de optimización multiobjetivo y multimodal, y el estudio del rendimiento de estos algortimos en un cluster de computadores. Se ha diseñado un nuevo algoritmo evolutivo multiobjetivo denominado SFGA (Single Front Genetic Algorithm) con selección de Pareto elitista. Se ha realizado una paralelización de dicho algoritmo según un modelo de subpoblaciones, mediante el cual se ha podidoo explorar el rendimiento de una hibridación de clasificación Pareto-local y Pareto-global. Por último se ha diseñado un nuevo algoritmo evolutivo paralelo para optimización multimodal, utilizando también un modelo de subpoblaciones. Los algoritmos diseñados se han aplicado a la optimización y ajuste automático de dos esquemas de clasificación, basados en un algoritmo KNN (K-nearest-neighbourn) y en reglas de decisión respectivamente, utilizados en el diagnóstico de la Fibrilación Auricular Paroxística.
  • LOCALIZACIÓN DE OBJETOS PLANOS EN EL ESPACIO .
    Autor: RAMOS COZAR JULIAN.
    Año: 2002.
    Universidad: MALAGA .
    Centro de lectura: INFORMÁTICA.
    Centro de realización: E.T.S.I. INFORMÁTICA.
    Resumen: En esta tesis se presentan dos métodos para la localización de objetos planos en el espacio tridimensional. El primero, que buscará precisión y velocidad, está basado en técnicas de calibración. El proceso completo se ha dividido en cuatro etapas: elección de las marcas, segmentación de las marcas y cálculo de sus centroides, cálculo de los ángulos que definen la orientación y cambio al sistema de coordenadas del mundo. Para cada una de ellas se ha dado una descripción completa del procesamiento realizado, las fuentes de error y ruido que pueden aparecer y cómo tratarlos. Los algoritmos se han adaptado y probado en entornos de escenografía virtual. El segundo, sin ignorar el obtener programas eficientes y precisos, está más enfocado a la identificación de los objetos mediante su contorno. Para ello, se han generalizado invariantes a las transformaciones de semejanza a ciertas transformaciones proyectivas y las afines. Las primera se pueden usar para modelar el proceso de formación de imágenes en la cámara. Las segundas, aunque también se utilizan para simular el comportamiento de una cámara, se emplean en más tipos de aplicaciones. La generalización directa de los invariantes sigue originando métodos complejos, por lo que se han encontrado propiedades de estas transformaciones para hacer los problemas más simples. Los resultados obtenidos con imágenes reales han demostrado la aplicabilidad y validez los algoritmos.
  • FUNCIONES ELEMENTALES EN PROCESADORES MULTIMEDIA Y REDUCCIÓN DE RANGO .
    Autor: GONZÁLEZ PEÑALVER MARIO ALBERTO.
    Año: 2002.
    Universidad: MALAGA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: E.T.S.I. INFORMÁTICA.
    Resumen: La tesis presentada propone soluciones para mejorar la computación de funiones elementales mediante el algoritmo CORDIC y la evolución del polinomios, haciendo uso de las características de las extensiones multimedia presentes en la mayoría de los procesadores de propósito general con un modelo SIMD y arquitecturas VLIW. Por otro lado se aborda el problema de la reducción de rango, operación esta última necesaria para la evaluación de la mayoría de las funciones elementales. Se proponen soluciones a esta reducción, por una parte aplicadas al algoritmo CORDIC, y por otra al caso general, haciendo uso de una reducción aditiva implementada para la evaluación de un gran número de funciones elementales.
  • MEJORA DEL RENDIMIENTO Y LA ESCALABILIDAD DE LOS MULTIPROCESADORES DE MEMORIA COMPARTIDA-DISTRIBUIDA BASADOS EN DIRECTORIOS .
    Autor: ACACIO SÁNCHEZ MANUEL EUGENIO .
    Año: 2002.
    Universidad: MURCIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: A pesar de que a través del uso de protocolos de coherencia de caché basados en directorios podemos llevar a cabo la realización de multiprocesadores de memoria compartida escalables y de alto rendimiento, más allá de los límites de los protocolos basados en fisgoneo, existen una serie de factores que limitan el número máximo de nodos que una máquina cc-NUMA puede ofrecer con una buena relación coste/rendimiento. Dos de estos factores son la sobrecarga de circuitería que supone el uso de los directorios, principalmente la cantidad de memoria necesaria para almacenar esta información, y las largas latencias de los fallos de L2 que caracterizan alos multiprocesadores cc-NUMA actuales. En la presente tesis presentamos una serie de propuestas cuyo objetivo es el de paliar estos dos problemas. En primer lugar presentamos una nueva organización para el directorio, que hemos denominado directorio de dos niveles, a través de la cual se consigue reducir de forma significativa la sobrecarga de memoria introducida por la información de directorio sin que ello suponga una pérdida de rendimiento. Además, presentamos el concepto de agrupamiento multicapa y derivamos tres nuevos códigos de compartición comprimidos con menores requerimientos en cuanto a memoria se refiere que los propuestos con anterioridad. A continuación añadimos a la arquitectura de directorio de dos niveles un tercer nivel que integramos, junto con una caché para datos compartidos, dentro de chip del procesador como una forma de acelerar significativamente los fallos de L2. Esta nueva arquitectura de nodo que derivamos a partir de una clasificación de los fallos de L2 en función del trabajo realizado por el directorio para resolverlos, consigue obtener importantes reducciones en la componente de la latencia debida al directorio para todas las categorias de la clasificación. Por último, presentamos también dos técnicas basadas en el uso de predictores que trata de eliminar completamente el acceso al directorio de la ruta crítica de los fallos 3-hop y upgrade. A través de la primera de las técnicas, que hemos denominado predicción de propietario, tratamos de enviar directamente la orden de transferencia requerida para un fallo 3-hop, desde el propio nodo peticionario hata el nodo propietario. La segunda de las técnicas, llamada predicción de compartidores, trata de hacer lo propio con los mensajes de invalidación que se envían en cada fallo upgrade. Además técnicas requieren el desarrollo de los predictores adecuados para cada uno de los casos, así como la introducción de una serie de cambios en el protocolo de coherencia que garanticen la correcta resolución de las nuevas situaciones que surgen al usar la predicción.
  • REDUCCIÓN DE LA PENALIZACIÓN DE LOS SALTOS CONDICIONALES MEDIANTE ESTIMACIÓN DE CONFIANZA .
    Autor: ARAGÓN ALCARAZ JUAN LUIS.
    Año: 2002.
    Universidad: MURCIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: La penalización asociada a las predicciones incorrectas de saltos resulta en una degradación del rendimiento y en un aumento del consumo de energía del procesador, ya que se procesan muchas instrucciones que no realizan trabajo efectivo. El objetivo principal de esta Tesis es la reducción de dicha penalización mediante el uso de la estimación de confianza. Concretamente, aumentando la precisión de la predicción de saltos, acelerando el proceso de recuperación de los saltos mal predichos y, finalmente, disminuyendo el consumo de energía que conlleva la ejecución de instrucciones pertenecientes al camino incorrecto. Inicialmente, se propone un mecanismo de inversión selectivo de las predicciones de saltos, con el fin de mejorar la precisión de un predictor de saltos base. Este mecanismo se basa en el hecho de que muchas predicciones tienen una alta probabilidad de ser incorrectas, con lo que se pueden evitar invirtiendo selectivamente su resultado, de acuerdo a ciertos parámetros del procesador. La principal novedad de este mecanismo es el uso de la predicción de valores para guiar el proceso de estimación de confianza. A continuación, se propone un mecanismo para aumentar el rendimiento mediante la reducción de la penalización asociada a una predicción incorrecta. Este mecanismo trata de mantener un caudal alto de ejecución de instrucciones inmediatamente tras la detección de un salto mal predicho. Para ello, busca, decodifica y hace renombramiento de aquellas instrucciones del camino alternativo, cuando se trata de saltos predichos con confianza baja, al mismo tiempo que se ejecuta el camino predicho. Finalmente, se propone un mecanismo para reducir el consumo de energía debido al procesamiento de instrucciones del camino incorrecto. Para ello, se limita dinámicamente la actividad de las unidades de búsqueda y decodificación, a la vez que se evita la selección de instrucciones del camino incorrecto, dependiendo del nivel de confianza asignado a las predicciones de saltos, con el objetivo de obtener un compromiso óptimo entre consumo y rendimiento.
  • EL COMERCIO ELECTRÓNICO EN EL SECTOR DE LA DISTRIBUCIÓN Y SECTOR DE ELECTRODOMÉSTICOS .
    Autor: JIMÉNEZ SABIO JOSE CARLOS.
    Año: 2002.
    Universidad: NACIONAL DE EDUCACION A DISTANCIA.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: ESCUELA TECNICA SUPERIOR DE INGENIEROS INDUSTRIALES.
    Resumen: El impacto del Comercio Electrónico penetra tanto en las empresas de distribución y del sector de electrodomésticos como en la sociedad en su conjunto, y las empresas (grandes, medianas y pequeñas) accedan a nuevas oportunidades, donde además se amplían las fronteras geográficas. Este trabajo, tras introducir las bases teóricas y prácticas sobre las que se asienta, su impacto y transformación tecnológica, política y sociológica, permitiendo obtener el suficiente conocimiento del Comercio Electrónico tradicional (EDI) y por Internet. El punto de partida de esta tesis ha sido el estudio de los modelos clásicos de la cadena de valor del Comercio Electrónico, sus tipos, el estudio de sus efectos como la eliminación de intermediarios y como está destinada a transformar de forma radical los modelos de empresa de la distribución y del electrodoméstico. Para ello se presenta el análisis del comportamiento de las empresas y ciudadanos: sus cambios, su mayor respeto por la ecología y medioambientales, sus derechos y exigencias (garantías, post-venta, reciclaje, pre-venta, etc.) y además elementos. Se aportan en este análisis todos los elementos y agentes que intervienen en el Comercio Electrónico, particularizando al sector de la distribución y del electrodoméstico, dotando de suficientes herramientas para el conocimiento y posible puesta en marcha de las empresas de distribución en la venta por la red. Como consecuencia de lo anterior, se propone un novedoso y original modelo de la cadena de valor para el sector de la distribución y del electrodoméstico, que se adapta a las nuevas necesidades de la sociedad dentro del Comercio Electrónico. Se demuestra, en contra de la opinión de los expertos, de la necesidad de la existencia del detallista fuerte ó P.V.R. También se sugiere un nuevo modelo funcional para el B2B/B2C, para su desarrollo en plataformas integrales del Comercio Electrónico para el sector de la distribución y del electrodoméstico. Se estudia y analiza todos los agentes intervinientes, estableciéndose sus relaciones, apareciendo por primera vez un nuevo elemento Broker ó corredor. Previamente se desarrolla una propuesta original de los pasos a seguir y se plantea un plan estratégico, con las suficientes herramientas, para que la integración del Comercio Electrónico de las empresas de distribución y del electrodomésticos sea un éxito. Se ha realizado un estudio del sector de electrodomésticos en España con sus carencias y virtudes sobre el uso de Internet y del Comercio Electrónico, se analiza el gran atraso y sus recelos a la hora de su implantación. Se plantea la necesidad de invertir en Nuevas Tecnologías: Software (modelos ERP, CRM, SCM, etc.), infraestructuras y hardware. Se demuestra lo poco que invierte las empresas de distribución y del electrodoméstico en Tecnologías de la Información y su falta de gestión. Se plantea un plan estratégico a seguir por ellos, para salir de su atraso. Finalmente se apunta principalmente como continuidad del trabajo, el seguimiento de novedoso modelo propuesto de la cadena de valor, estudiándose en un futuro la evolución de los mayoristas y detallistas débiles, su desaparición en beneficio de los detallistas fuertes de la cadena de valor, en función de los cambios que se produzcan en la sociedad. Se proporciona un modelo funcional para el B2B/B2C, donde sirve de soporte para seguir las relaciones y evoluciones de los agentes intervinientes como los brokers ó corredores, etc., de dicho modelo funcional para el Comercio Electrónico del sector de la distribución y del electrodoméstico.
168 tesis en 9 páginas: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia