Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > CIENCIAS TECNOLOGICAS > TECNOLOGIA DE LOS ORDENADORES >

REDES DE ORDENADORES



28 tesis en 2 páginas: 1 | 2
  • ENHANCED FAULT MANAGEMENT METHODS FOR PROTECTED TRAFFIC SERVICES IN GMPLS NETWORKS .
    Autor: CALLE ORTEGA EUSEBI.
    Año: 2003.
    Universidad: GIRONA.
    Centro de lectura: ESCOLA POLITECNICA SUPERIOR.
    Centro de realización: ESCOLA POLITECNICA SUPERIOR.
    Resumen: New network technology enables increasingly higher volumes of information to be carried. Various types of mission-critical, higher-priority traffic are now transported over these networks. In this scenario, when offering better quality of service, the consequences of a fault in a link or node become more pronounced. However, IP based networks still do not have the same degree of reliability offered by traditional telecommunication networks (for instance telephone networks). In our opinion, achieving such reliability will be crucial in the success or failure of a wide range of services that should eventually substitute current telecommunication networks. Multiprotocol Label Switching (MPLS) and the extended Generalized MPLS (GMPLS) provide fast mechanisms for recovery from failures by establishing redundant Label Switch Paths as backup paths. With these backups, traffic can always be redirected in case of failure. The main objective of this thesis is to improve some of the current MPLS/GMPLS fault recovery methods, in order to support the protection requirements of the new Internet services. Therefore, the definition and evaluation of the quality of protection provided by each fault recovery model is a main objective of this work. Some parameters, such as fault recovery time, packet loss or resource consumption, all within the scope of this quality of protection, are considered. Throughout this work, different analyses and experimental results supporting these decisions are presented. In this thesis a review and detailed comparison of the MPLS fault recovery methods are presented. Path protection methods (global backups, reverse backups and 1+1 methods), as well as segment protection and local methods are included in this analysis. The fault recovery process is also analyzed, differentiating how path protection methods are created and managed in case of a failure. The extension of these mechanisms to optical networks using GMPLS control plane is also taken into account. In order to evaluate the quality of protection, two novel concepts are introduced and analyzed: the network failure probability and the failure impact. The physical network provides an initial value of the network protection level in terms of network reliability and availability. A proposal to evaluate network reliability is introduced while a formulation to calculate the failure impact (the QoS degradation in terms of packet loss and delay) is presented. A proposal to reduce the failure probability and failure impact as well as the enhancement of some current routing algorithms in order to achieve better protection are explained. A review of the traffic services protection requirements and a new classification, based on the failure probability and failure impact values, is also provided in this work. Results, show that path protection schemes improve network reliability. Segment/local protection schemes reduce the network failure impact. Minimum impact with maximum reliability can be achieved using local protection throughout the entire network. However, it is not scalable in terms of resource consumption. In this case our failure probability model can be used to minimize the required resources. Results demonstrate the reduction of the failure impact combining segment protection and our network reliability evaluation model in different network scenarios. In summary, an in-depth analysis is carried out and a formulation to evaluate the network protection level is presented. This evaluation is based on network reliability maximization and failure impact reduction in terms of QoS degradation. A scalable proposal in terms of resource consumption, detailed and experimentally analyzed, offers the required level of protection in different network scenarios for different traffic services.
  • DYNAMIC MANAGEMENT AND RESTORATION OF VIRTUAL PATHS IN BROADBAND NETWORKS BASED ON DISTRIBUTED SOFTWARE AGENTS .
    Autor: VILA TALLEDA PERE.
    Año: 2003.
    Universidad: GIRONA.
    Centro de lectura: ESCOLA POLITECNICA SUPERIOR.
    Centro de realización: ESCOLA POLITECNICA SUPERIOR.
    Resumen: Network management is a wide field including topics as diverse as fault restoration, network utilisation accounting, network elements configuration, security, performance monitoring, etc. This thesis focuses on resource management of broadband networks that have the mechanisms for performing resource reservation, such as Asynchronous Transfer Mode (ATM) or Multi-Protocol Label Switching (MPLS). Logical networks can be established by using Virtual Paths (VP) in ATM or Label Switched Paths (LSP) in MPLS, which we call generically Logical Paths (LP). The network users then use these LPs, which can have pre-reserved resources, to establish their communications. Moreover, LPs are very flexible and their characteristics can be dynamically changed. This work focuses, in particular, on the dynamic management of these logical paths in order to maximise the network performance by adapting the logical network to the offered connections. In this scenario, there are several mechanisms that can affect and modify certain features of the LPs (bandwidth, route, etc.). They include load balancing mechanisms (bandwidth reallocation and re-routing) and fault restoration (utilisation of backup LPs). These two mechanisms can modify the logical network and manage the resources (bandwidth) of the physical links. Therefore, due to possible interferences, there is a need to co-ordinate these mechanisms. Conventional resource management, using a logical network, performs a centralised recalculation of the whole logical network periodically (e.g. every hour / day). This brings the problem that the logical network readjustments do not happen when a problem occurs. Moreover, there is a need of maintaining a centralised network overview. Management is becoming more difficult and complex due to increasing network sizes and speeds and new service requirements. Network administrators need more and more powerful applications to facilitate their decisions and, despite their experience, they are prone to mistakes. That is why there is a trend in the network management field towards automating and distributing the network management mechanisms. In this thesis, a distributed architecture, based on a Multi-Agent System (MAS), is proposed. The main objective of this architecture is to perform joint resource management at a logical network level, integrating the bandwidth reallocation and LP re-routing with pre-planned restoration and spare bandwidth management. This is performed continuously, not periodically, when a problem is detected (an LP is congested, i.e. it is rejecting new user connections because it is already saturated with user connections) in a completely distributed way, i.e. without any central network overview. Therefore, the proposed architecture performs small rearrangements in the logical network and thus it is continuously being adapted to the user demands. The proposed architecture also considers other objectives, such as scalability, modularity, robustness, simplicity and flexibility. The proposed MAS is structured in two layers of agents: The network Monitoring (M) agents and the Performance (P) agents. All these agents are situated at different network nodes, where the computing facilities are. There is one P agent and several M agents on every node. The M agents are subordinated to the P agents, therefore the proposed architecture can be seen as a hierarchy of agents. Each agent is responsible for monitoring and controlling the resources they are assigned to. Each M agent is assigned to an LP and each P agent is responsible for a node and the outgoing physical links. M agents' main tasks are the detection of congestion in the LPs and the switchover mechanism when a failure occurs. They must react quickly when an event occurs; therefore, they are pure reactive agents. Each P agent maintains a node status and keeps track of the established LPs starting at or going through that particular node. For every physical link, it maintains the status of the established LPs, the bandwidth assigned to them, the spare bandwidth reserved for the backup paths, the backup paths configuration, the available bandwidth on the link, etc. They are responsible for receiving the failure alarms from other P agents and also from the lower layer. Each P agent also maintains a partial logical network view and communicates and collaborates with other P agents. We have performed several experiments, using a connection level distributed simulator of our own design. The results show that our architecture is capable of performing the assigned tasks of detecting congestion, dynamic bandwidth reallocation and re-routing in a co-ordinated way with the pre-planned restoration and the spare capacity management. The distributed architecture offers a suitable scalability and robustness due to its flexibility and modularity.
  • PROGRAMACION DE SISTEMAS DISTRIBUIDOS EN ENTORNOS DE REDES FRACCIONABLES .
    Autor: HERAS QUIROS PEDRO DE LAS.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: FACULTAD DE INFORMATICA .
    Centro de realización: FACULTAD DE INFORMATICA.
    Resumen: La programación de sistemas distribuidos que se comunican a través de redes de ordenadores que pueden fraccionarse se enfrenta a problemas añadidos a los que se encuentran cuando la red no está sometida a este tipo de disfunciones. La probabilidad de que ocurra este tipo de fallos de la red aumenta cuando el sistema distribuido está compuesto por muchos nodos, especialmente en redes entre pares (Peer-to-Peer), en las que los nodos están constantemente entrando y saliendo del sistema, por lo que sus recursos no siempre están disponibles. La arquitectura de redes superpuestas entre pares estructuradas VDAR que describe esta tesis está diseñada con el objetivo de proporcionar una infraestructura de comunicaciones para la programación de sistemas distribuidos en entornos de redes fraccionables que están compuestos por muchos nodos. La arquitectura VDAR emplea varios algoritmos de encaminamiento geométrico para ofrecer un servicio de encaminamiento basado en claves sobre una topología formada por la triangulación de Delaunay. La arquitectura VDAR se extiende mediante tres estilos arquitectónicos que aportan importantes mejoras respecto a las propiedades de la arquitectura básica, entre las que caben destacar las siguientes: mayor tolerancia a los fraccionamientos de la red, menor latencia extremo a extremo mediante la adaptación a la topologÌa de la red subyacente, y reducción del número de veces que hay que reconstruir la topología de la red superpuesta. Por último, esta tesis aporta una arquitectura para un servicio de tipo Editor/Subscriptor (Publish/Subscribe) que utiliza el servicio de encaminamiento basado en claves proporcionado por las redes VDAR para realizar la difusión de los eventos. Gracias en parte a las propiedades de la arquitectura de redes VDAR y en parte a la propia arquitectura del servicio Editor/Subscriptor, el servicio diseñado permite enmascacar el fraccionamiento de la red y ser escalable en cuanto al número de categorías de eventos soportadas y el número de subscriptores/editores.
  • DETECCIÓN DE INTRUSIONES EN REDES BASADA EN ANOMALÍAS MEDIANTE TÉCNICAS DE MODELADO DE PROTOCOLOS .
    Autor: ESTÉVEZ TAPIADOR JUAN MANUEL.
    Año: 2003.
    Universidad: GRANADA.
    Centro de lectura: E.T.S. INGENIERÍA INFORMÁTICA.
    Centro de realización: E.T.S. INGENIERÍA INFORMÁTICA.
    Resumen: El trabajo de tesis doctoral presentado en esta memoria supone una contribución a las soluciones existentes para el problema de la detección de intrusiones en redes basada en anomalías. Los objetivos de mayor importancia alcanzados con este trabajo pueden resumirse en los puntos siguientes: 1. Se ha efectuado un análisis crítico de las soluciones existentes para el problema de la detección de anomalías en sistemas de detección e intrusiones en redes. A través de él han sido identificados, clasificados y discutidos los principales enfoques actuales en este campo. En suma, se puede concluir que definir una noción de lo que significa "el comportamiento normal de una red de comunicaciones" es un problema para el que en la actualidad se dispone únicamente de soluciones imprecisas y parcialmente satisfactorias. Como consecuencia, la detección de eventos anómalos a partir de tales esquemas ofrece unos resultados ineficaces para su aplicación real. 2. Como alternativa, ha sido propuesta una arquitectura, denominada LAND, para la concepción y desarrollo de técnicas NIDS basadas en la detección de usos anómalos de protocolos de red. Contrariamente a las aproximaciones existentes y basadas en el modelado conjunto de toda la actividad de la red, la idea subyacente a esta propuesta consiste en considerar exclusivamente las relaciones establecidas entre entidades paritarias durante el proceso de la comunicación. Este enfoque conduce a un modelado y monitorización autónomos de cada protocolo de red. Con independencia de los resultados experimentales, han sido identificadas algunas ventajas en esta propuesta, tales como: (a) Una mayor simplicidad y precisión téorica de las técnicas. (b) La posibilidad de introducir de una forma natural la especificación del protocolo como herramienta adicional para efectuar la detección. (c) Una mayor versatilidad y modularidad del sistema global de detección. (d) La posibilidad de concebir técnicas de detección generales y aplicables a toda una familia de protocolos de características similares. 3. En el contexto de la arquitectura LAND, se ha propuesto una técnica de detección basada en el uso de autómatas de estados finitos probabilísticos (PFSA). El esquema se compone de una etapa inicial de parametrización y cuantización, cuyo objetivo es transformar cada PDU del protocolo en un elemento de un espacio finito. La teoría de cadenas de Markov es utilizada posteriormente como marco de trabajo para la estimación de los parámetros asociados al autómata. Para efectuar la detección, se ha propuesto un procedimiento cuyo fin es medir el grado de normalidad de la secuencia de PDU entrantes a partir del modelo estimado para el protocolo. La técnica anterior ha sido aplicada al caso del protocolo TCP, detallándose el proceso de construcción de cada una de las etapas que la componen. Su evaluación arroja resultados muy positivos en lo tocante a la eficacia de la detección. 4. Los protocolos de la capa de aplicación constituyen actualmente uno de los vehículos más utilizados para el transporte de actividades hostiles contra un sistema. En particular, HTTP destaca debido al papel que desempeña en el marco actual de los servicios telemáticos, así como por la cantidad de vulnerabilidades que periódicamente son descubiertas en los servidores. En el contexto de la arquitectura LAND, ha sido planteado el problema de la detección de anomalías en protocolos de la capa de aplicación, con especial énfasis en el caso de HTTP. En este sentido, ha sido discutida y evaluada una técnica de detección descrita en la bibliografía para esta problemática. Ésta será utilizada como modelo de referencia con el que cotejar los resultados obtenidos por las sucesivas propuestas realizadas en esta tesis. 5. Se ha presentado el concepto de modelado estocástico aplicado a protocolos de la capa de aplicación como un enfoque para la construcción de técnicas de detección de anomalías. De acuerdo con él, se asume que la estructura de cada PDU responde a la realización de un proceso estocástico subyacente y susceptible de ser modelado. Tres técnicas basadas en este principio, y progresivamente más completas, han sido exploradas: (a) El modelado estocástico básico, o BSM, como primera aproximación a la aplicación del paradigma estocástico a tráfico de la capa de aplicación. (b) El modelado estocástico segmentado, o PSM, en el que se introduce una etapa de partición de la PDU en diferentes segmentos de acuerdo con su función sintáctica. (c) El modelado estocástico estructural, o SSM, que supone la hibridación del esquema anterior con técnicas basadas en la especificación del protocolo. 6. Las tres técnicas propuestas, BSM, PSM y SSM, han sido evaluadas y comparadas entre sí y con el modelo de referencia comentado en el punto 4. En general, todas ellas suponen una mejora con respecto a los resultados obtenidos por las técnicas actuales de detección de anomalías. En el caso de SSM, además, los puntos de operación en los que se sitúa el detector (en términos de tasa de detección frente a la tasa de falsas alarmas generadas) permiten considerar factible su aplicación en entornos reales. 7. Alternativamente a las técnicas de carácter estocástico, se ha presentado un enfoque de naturaleza geométrica basado en la transformación de cada PDU en un elemento perteneciente a un cierto espacio vectorial. Esta transformación es tal que las PDU similares quedan condensadas en regiones bien delimitadas del espacio. Se ha propuesto el uso de una medida de distancia para estimar el grado de normalidad de una PDU transformada, dando así lugar a la técnica que ha sido denominada N3. 8. Adicionalmente, ha sido propuesto el detector CN3, basado en la incorporación de una etapa de agrupamiento vectorial del modelo usado en N3, con objeto de mejorar la eficiencia computacional de éste. Debido a las peculiaridades de la problemática que nos ocupa, ha sido necesario diseñar procedimientos alternativos a los existentes para efectuar este proceso. 9. La evaluación de las técnicas N3 y CN3 con tráfico HTTP confirma la eficacia de la detección exhibida por éstas, si bien con un coste computacional significativamente superior al requerido por las técnicas de carácter estocástico. 10. Finalmente, las técnicas de detección que han sido propuestas en esta memoria pueden entenderse como metodologías generales aplicables a diversos protocolos. Pese a que en este trabajo únicamente ha sido mostrada su aplicación a ejemplos representativos, las pautas a seguir en otros casos son las mismas que las aquí discutidas.
  • DISEÑO E IMPLEMENTACION DE UNA ARQUITECTURA MULTIPROPOSITO BASADA EN AGENTES INTELIGENTES: APLICACION A LA PLANIFICACION AUTOMATICA DE AGENDAS Y AL CONTROL DE PROCESOS .
    Autor: GONZALEZ GONZALEZ EVELIO JOSE.
    Año: 2003.
    Universidad: LA LAGUNA.
    Centro de lectura: ESCUELA TECNICA SUPERIOR DE INGENIERIA INFORMATI.
    Centro de realización: ESCUELA TECNICA SUPERIOR DE INGENIERIA INFORMATICA.
    Resumen: El concepto de agente ha cobrado una enorme importancia en nuestros días siendo aplicado a campos tan diversos como el transporte de material militar, la gestión de información o la reserva de billetes de avión a través de Internet. Sin embargo, a fecha de hoy, se carece de una definición formal aceptada universalmente sobre el mismo. Las definiciones existentes suelen hacer hincapié en características como las de autonomía, toma de la iniciativa e inteligencia. En la mayoría de los casos un único agente no es suficiente para llevar a cabo una tarea compleja. Lo más habitual es emplear un sistema de agentes que se comuniquen entre sí y que colaboren para llevar a cabo esta tarea. Estas sociedades de agentes son los sistemas multiagentes (MAS).Los objetivos de esta tesis son el estudio en profundidad de los aspectos relacionados con el campo de los agentes y su tecnología asociada, la determinación a partir de dicho estudio las tecnologías consideradas como más avanzadas, el desarrollo de una plataforma de agentes que cubra los aspectos iniciales de estas arquitecturas y, finalmente, la aplicación de esta plataforma a dos campos lo suficientemente diversos para demostrar la versatilidad de la arquitectura propuesta: la planificación automática de agendas (organización de reuniones internas y reserva de material) en el escenario de un grupo de investigación universitario y por otra parte la identificación y control de sistemas en tiempo real.Respecto al objetivo del diseño de una plataforma de agentes y tras la realización de un primer prototipo de MAS basado en el intercambio de mensajes KQML, se llegó a la constatación de la existencia de un estandar de arquitectura de MAS que, si bien no cumplía todos los requisitos iniciales del trabajo, sí lo hacía en un alto grado. Dicho estandar es el FIPA, a partir del cual se diseñaron e implementaron los sistemas multiagentes presentados en este trabajo. En estos sistemas se ha incluido una ontología basada en un lenguaje de marcas de alta expresividad semántica (concretamente el DAML+OIL), el cual ha sido considerado como uno de los campos punteros en los MAS. De este modo se permite una interoperabilidad más racional entre los agentes de los sistemas implementados, dotando de cierta capacidad de inteligencia e inferencia a los sistemas, alejándolos de una mera resolución distribuida de sistemas. Precisamente la integración de estos lenguajes es uno de los puntos novedosos de este trabajo, demostrándose enormemente útiles, puesto que permite a un sistema multiagente manejar información no declarada de forma explícita.Tras un recorrido por estos lenguajes de representación del conocimiento y de las tecnologías actuales de MAS, se dedican sendos capítulos a los sistemas multiagentes implementados. En primer lugar el MAS para la gestión de agendas en el entorno de un grupo de investigación universitario, concretamente el Grupo de Computadoras y Control de la Universidad de La Laguna, aunque es fácilmente aplicable a otras organizaciones jerarquizadas similares. Este sistema se encarga de determinar el mejor horariopara la organización de reuniones y proporcionar un mecanismo de reserva de los recursos comunes dentro del grupo. Se ha escogido este problema por ser un campo clásico en el campo de los MAS, así como por el gran número y variedad de agentes involucrados. En este sentido se han aportado variaciones sobre algoritmos basados en mecanismos de votación y de regateo. Se ha dotado al sistema de una capacidad de aprendizaje mediante árboles de identificación. Esta técnica permite al sistema aprender a partir del comportamiento anteriormente manifestado por los usuarios sobre si una nueva reunión planteada sería o no del gusto de los usuarios afectados, actuando en consecuencia para dificultar o no las nuevas reuniones planteadas. El otro MAS implementado es el dedicado a la identificación y control de procesos en tiempo real. Esto se consigue adoptando la configuración basada en los reguladores autoajustables (STR) que determinase los mejores parámetros para los diferentes controladores: P, PI y asignación de polos. En su diseño, además de las ontologías (también codificada en DAML+OIL), se ha empleado la herramienta Evenet2000 (descrita en un apéndice de este trabajo). Esta herramienta fue diseñada inicialmente, en el contexto de este trabajo, para el entrenamiento de redes neuronales de arquitectura arbitraria empleando la técnica de Grafo de Flujo de Señal. No obstante se ha mostrado como una herramienta útil en problemas de optimización en general y asociados al control en particular. Además permite demostrar la facilidad de inclusión de software ajeno al del propio diseño del sistema. Con dicho sistema se han controlado dos plantas diferentes: una planta de control de nivel de agua en un depósito y una planta de tanques interconectados. Para ambos sistemas implementados se ha descrito la facilidad de inclusión de otros agentes, pudiendo éstos estar codificados en otros lenguajes diferentes al Java (lenguaje en el que se ha implementado los sistemas) y/o por otros programadores, con lo que se consigue uno de los puntos más interesantes de los sistemas multiagente: la posibilidad de ampliación según un nuevo paradigma de programación: la programación orientada a agentes (AOP).
  • CONTRIBUCIÓN A LAS METODOLOGÍAS PARA LA EVALUACIÓN DE LA CALIDAD DE SERVICIO EN REDES HETEROGÉNEAS .
    Autor: Bellido Triana Luis.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S. DE INGENIEROS DE TELECOMUNICACION.
    Centro de realización: E.T.S. DE INGENIEROS DE TELECOMUNICACION.
    Resumen: Actualmente, existe en nuestra sociedad una demanda por conocer la calidad en los servicios de telecomunicaciones, ligada principalmente a la defensa de los derechos de los usuarios de estos servicios. Esto es debido en gran medida a la evolución experimentada por los servicios de telecomunicaciones en los últimos años, en los que se ha pasado de un modelo de servicio centrado en la telefonía, hacia nuevos y diversos modelos y arquitecturas funcionales de provisión basadas en redes multiservicio, que hacen más necesario el control sobre la calidad de servicio (QoS) que se ofrece, en un mercado con una gran diversidad de proveedores. Al mismo tiempo, el modelo del servicio ofrecido a los usuarios está cambiando. Concretamente, el servicio de acceso a Internet, desde el punto de vista del usuario, es en realidad un punto de acceso para la utilización de múltiples servicios, como correo electrónico, navegación por web, o videoconferencia. Estos servicios, a su vez, pueden ser el soporte de otro tipo de servicios de valor añadido, como banca, educación o juegos on-line. Este modelo de servicio compuesto, puede hacer que el enfoque empleado en la evaluación de la calidad de servicio seguido en los servicios tradicionales sea inapropiado. El objetivo de la presente Tesis Doctoral es, precisamente, contribuir a la evaluación de la calidad en los servicios ofrecidos sobre redes IP. La contribución se ha concretado en una metodología para la evaluación y el seguimiento de la calidad que permite obtener información comparable, pertinente y actualizada, destinada a los usuarios finales, sobre la calidad de los servicios ofrecidos por los distintos proveedores. La metodología incluye en primer lugar la definición de una clasificación de servicios y un conjunto de modelos conceptuales de QoS relacionados con su evaluación. La meta perseguida es la ubicación de los componentes subjetivos y objetivos relacionados con la evaluación y la concreción del enfoque necesario en cada caso de aplicación de la metodología. Seguidamente, se propone un sistema genérico de evaluación y seguimiento de QoS basado en la combinación de la evaluación subjetiva de la calidad percibida, la consolidación de medidas de la QoS realizadas por proveedores y usuarios y una información adecuada al usuario sobre la QoS ofrecida por los proveedores, que le permita mejorar su satisfacción en el uso de los servicios. Por último, se analizan en detalle los subsistemas encargados de las medidas realizadas por proveedores y usuarios y el subsistema encargado de proporcionar la información al usuario, proponiendo soluciones en distintos niveles que faciliten la implantación de un sistema de evaluación para los servicios de acceso a Internet.
  • REDADA. REEMPLAZAMIENTO DINAMICO DE SOFTWARE MEDIANTE GRUPOS DE PROCESOS EN SISTEMAS DISTRIBUIDOS.
    Autor: CENTENO GONZALEZ JOSE.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S. DE INGENIEROS DE TELECOMUNICACION.
    Centro de realización: E.T.S. DE INGENIEROS DE TELECOMUNICACION.
    Resumen: El requisito de alta disponibilidad presente en determinadas aplicaciones hace que éstas precisen de un funcionamiento ininterrumpido. Son un ejemplo las aplicaciones de mercados bursátiles, el software de control de tráfico aéreo, o el encargado de las operaciones realizadas con tarjetas de crédito. Dichas aplicaciones necesitan ocasionalmente cambios y actualizaciones en su código, que deben realizarse sin detener su ejecución. A la técnica que permite cambiar el código de una aplicación sin parar su funcionamiento se la conoce como Reemplazo Dinámico de Software. Se presenta aquí un enfoque al problema en el marco de los sistemas distribuidos. En él se plantea el empleo de la tecnología de los grupos de procesos cooperativos, habitual en otros campos de los sistemas distribuidos, pero nunca empleada para proporcionar reemplazo dinámico de código. Bajo este enfoque se construye la arquitectura ReDADA, haciendo especial énfasis en que resulte sencilla de utilizar, de propósito general y flexible. Para demostrar la factibilidad de la arquitectura presentada, se muestra la forma de implementar la misma en el marco de las aplicaciones distribuidas programadas según el Anexo de Sistemas Distribuidos del Manual de Referencia del Lenguaje Ada.
  • ESTRATEGIAS DE PRUEBA DE LINEAS DE PRODUCTO DE SISTEMAS DE TIEMPO REAL ESPECIFICADOS CON DIAGRAMAS DE ESTADOS JERARQUICOS .
    Autor: MELLADO TORIO JULIO.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S. DE INGENIEROS DE TELECOMUNICACION.
    Centro de realización: ETSI TELECOMUNICACION.
    Resumen: Las Líneas de Producto Software han aparecido en la ingeniería del software como una técnica cuyo objetivo es el de poder crear diferentes variantes software a partir de una infraestructura común, del mismo modo que se hace en otros sectores industriales. Un aspecto que hasta ahora no se ha investigado con tanta extensión es el de las Pruebas de Línea de Producto Software. La cuestión fundamental es decidir hasta qué punto es posible probar las diferents variantes de forma común. En el caso más optimista, probando una funcionalidad sobre la parte general se podría dar por probada sobre todas las variantes. Por contra, en el caso más pesimista, las pruebas de una Línea de Producto Software serían exactamente iguales que las pruebas de varios productos independientes que se hicieran de forma separada. Como término medio, aunque se pruebe la misma funcionalidad en todas las variantes, se podrian reutilizar por ejemplo la arquitectura de pruebas, los casos de prueba, el entorno de pruebas, etc. Buscando dar una solución al problema de las pruebas de Líneas de producto Software de tiempo real, la Tesis Doctoral propone un método de pruebas basado en los diagramas de estados jerárquicos del lenguaje UML para definir los casos de prueba. Se propone una técnica para asegurar la correspondencia (trazabilidad) de los requisitos con los casos de prueba, estructurándolos de forma semejante a los requisitos y estudiando cómo las variantes de los requisitos impactan sobre los diferentes elementos de prueba. También se define dentro del método un flujo de actividades, cuyo objetivo es la automatización de las pruebas para así poder probar las diferentes variantes de la Línea de Producto Software de forma eficiente. Este método tiene tres fases: el Diseño de Pruebas, donde se agrupan en clases de prueba los requisitos tanto genéricos como específicos de cada variante, y se modela cada clase de prueba mediante diagramas de estados jerárquicos y, si es preciso, escenarios en los cuales se incluyen de forma explícita sus requisitos asociados. En la fase de Implementación de Pruebas, estos diagramas se describen por medio de tablas de estados y eventos, con la información adicional necesaria (los datos de prueba) para generar automáticamente el código con los casos de prueba ejecutables. En la fase final de Ejecución de Pruebas, se realiza el caso de prueba sobre el sistema real y se registra el resultado obtenido. Como aportación final, se propone un metamodelo donde se muestran todos los elementos del método de pruebas y las relaciones que existen entre ellos. Para comprobar que la solución propuesta al problema de las pruebas de Líneas de Producto Software de Tiempo real es satisfactoria, se ha elegido una doble estrategia consistente en la aplicación del método sobre un caso industrial real y en la elaboración de un conjunto de herramientas software prototipo, con las cuales se ha demostrado la validez del método propuesto y se ha delimitado su alcance. El caso industrial real escogido ha sido el de una Línea de Productos Software Tiempo Real de sistemas de control del tráfico ferroviario, en el que el autor desarrolla desde hace diez años su actividad profesional, lo cual da a esta Tesis Doctoral un marcado carácter industrial, tanto por la relevancia práctica del tema elegido como por reflejar una experiencia de aplicación industrial real. Las herramientas software desarrolladas, tanto en el caso de aplicación industrial real, como en el ámbito de la Tesis Doctoral, sirven de soporte a la generación de casos de prueba a partir de los modelos de diagramas de estados, la ejecución automatizada de las pruebas, el análisis de los resultados o veredictos de las pruebas y la medición de cobertura de requisitos alcanzada en las pruebas.
  • METODOLOGÍA PARA LA INCORPORACIÓN DE MEDIDAS DE SEGURIDAD EN SISTEMAS DE INFORMACIÓN DE GRAN IMPLANTACIÓN: CONFIANZA DINÁMICA DISTRIBUIDA Y REGULACIÓN DEL NIVEL DE SERVICIO PARA SISTEMAS Y PROTOCOLOS DE INTERNET .
    Autor: MUÑOZ ESTEBAN JUAN JESÚS.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S. DE INGENIEROS DE TELECOMUNICACIÓN.
    Centro de realización: E.T.S. DE INGENIEROS DE TELECOMUNICACIÓN.
    Resumen: Los orígenes de Internet y su propio talante han conducido a un modelo de servicio un tanto confiado, que arrastra una imagen de inseguridad. Se dispone de multitud de tecnologías de demostrada solvencia técnica, que resuelven problemáticas en ámbitos concretos, pero que no se integran en un modelo global de seguridad. A la utilización de la red para difundir con excesiva rapidez elementos dañinos, como los virus, se suman de forma creciente otros comportamientos abusivos, como el envío masivo de correo electrónico con fines comerciales (spam) o incluso fraudulentos (phishing). Estos excesos en el envío de mensajes provocan despilfarros de recursos y afectan a la productividad de los usuarios finales, quienes se procuran herramientas para paliar su problema localmente. Todas las solicitudes de servicio se tratan por igual, sin más limitación que la propia capacidad de los equipos y enlaces de comunicaciones, sin tener en cuenta la reputación del interlocutor, aceptando identidades fácilmente usurpables. Esta tesis plantea cubrir el espacio entre la autenticación fehaciente del cliente, que requiere despliegues costosos y no inmediatos, y la confianza ciega en cualquier usuario o equipo atribuida al mero hecho de estar conectado a la red y exhibir una dirección. Cada servidor será capaz de valorar la confianza que le merecen sus clientes en función de las experiencias acumuladas directamente o recogidas de terceros. Esa confianza dependerá de la fiabilidad con que se les pueda vincular a sus mensajes, y su adecuada utilización del sistema, determinada por la exposición de un volumen suficiente de sus mensajes y solicitudes al análisis de los usuarios finales y de otras herramientas complementarias. Resulta imprescindible poder atribuir cada mensaje al remitente correcto. Pero si sólo se conocen parámetros de la propia red, su usurpación permitiría inhabilitar cualquier medida, por lo que se necesitan limitaciones preventivas en el consumo de recursos. Se plantea que los clientes que deseen alcanzar un mayor crecimiento de su confianza y carezcan de credenciales puedan, partiendo de un intercambio inicial de claves y encadenando autenticaciones oportunistas, graduar el coste que deseen asumir para minimizar las restricciones que se les apliquen. Para ello el servidor enviará los cambios en forma de retos, y el cliente contribuirá a aumentar la fiabilidad empleando tiempo en su resolución. Este mecanismo reduce además la rentabilidad de posibles ataques. La confianza se proyectará en una política de seguridad no orientada a la concesión o denegación del acceso a datos o al uso de los recursos, sino a la gradación del nivel de servicio permitido. Éste variará dinámicamente y de forma consensuada entre la denegación conjunta y un máximo global. Se propone un modelo dinámico y distribuido, descrito mediante la "lógica subjetiva" de Audum Jøsang, que permite representar los conceptos de confianza e incertidumbre en un valor (wAc(ti)) denominado opinión. La opinión, calculada en base al comportamiento reciente del cliente, resumen la confianza que merece, y de ella se calculan las restricciones que procedan. Además se puede intercambiar con terceros, constituyéndose federaciones en las que se apliquen políticas comunes de contención que acoten el consumo global de recursos. El álgebra asociada permite ponderar las opiniones ajenas y previas, y combinarlas mediante las operaciones denominadas recomendación y consenso bayesiano. Además se introducen en el modelo, también con este mecanismo, los resultados de herramientas externas como los filtros, listas negras, etc. El comportamiento global del sistema se corresponde a la amortiguación que ejerce un filtro paso bajo con un tope limitador. En Dinámica de Sistemas este tipo de sistema realimentado de primer orden corresponde al modelo de crecimiento logístico, utilizado para estudiar epidemias, y se caracteriza por la forma sigmoidal que delimita la velocidad de propagación o difusión, siendo inocuo para usuarios asiduos. Los ámbitos de aplicación de esta propuesta son muy amplios, y en general la gestión de despliegue y posterior administración es mínima, manteniendo compatibilidad con clientes no modificados. Se propone su utilización como medida preventiva y complementaria en la lucha contra el spam en Internet, la priorización de la difusión de contramedidas o la prevención de ataques de denegación de servicio en web services, entre otras posibilidades.
  • COMUNICACIÓN EFICIENTE EN REDES DE AREA LOCAL PARA PROCESAMIENTO PARALELO EN CLUSTERS.
    Autor: DIAZ GARCIA ANTONIO FRANCISCO.
    Año: 2000.
    Universidad: GRANADA.
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: En esta tesis se propone un interfaz de comunicación eficiente para Clusters de Computadores Personales conectados con Fast Ethernet y bajo el sistema operatvo Linux. Las soluciones propuestas recientemente para aproximar tanto la latencia como el ancho de banda disponible por las aplicaciones a la capacidad real del hardware de la red, corresponden a dos estrategias diferentes: -Mejorar las prestaciones de las capas TCP/IP -Proponer nuevas interfaces de red en las que se sustituyen las capas TCP/IP por otras alternativas que suponen un overhead menor. Dentro de esta ultima opcion, tambien se pueden distinguir otras dos alternativas: (1) desarrollar capas de comunicación con un soporte más eficiente por parte del sistema operativo. (2)implementar interfaces de comunicación a nivel de usuario. Por ejemplo, esta segunda alternativa ha sido considerada por varias compañias(Intel, Microsoft, y Compaq), que han propuesto la Virtual Interface Architecture como un estandar emergente para la comunicación en clusters. Entre las variantes descritas,la interfaz propuesta y desarrollada en esta tesis se puede incluir entre las que sustituyen las capas TCP/IP por una capa de comunicación que hace un uso eficiente de los recursos de comunicación implementados en el nucleo del sistema operativo. Frente a una interfaz de comunicación a nivel de usuario, se ha optimizado el soporte que el S.O. Ofrece para la comunicación,manejando los mensajes a nivel del nucleo, y accediendo a los servicios de comunicación a traves de llamadas al sistema. La alternativa de proporcionar una interfaz al nivel del usuario trata de eliminar la mediacion del S.O. En la gestion del mensaje, evitando las llamadas al S.o. En el proceso de emisión y recepción mediante una integracion mas proxima entre las aplicaciones y la tarjeta de red. Para permitir el acceso a la tarjeta de red sin violar los mecanismos de proteccion del S.O. Usualmente se restringen los servicios de comunicación, mediante distintas estrategias, de forma que solo puedan ser utilizados por una sola aplicación paralela Para que un sistema de comunicación llegue a ser utilizado ampliamente y a generalizarse, debe ser lo suficientemente robusto y satisfacer una serie de requisitos que garanticen un carácter de proposito general. Entre estos requisitos estan: soportar multiarea y multiusuario, proporcionar proteccion entre aplicaciones, cuyo respectivo trafico de comunicación debe aislarse, y permitir el envio fiable de mensajes evitando los problemas causados por los overruns de los buffers o los paquetes perdidos o dañados. El S.O. Proporciona una serie de servicios relacionados con la gestion de la memoria, la planificación de procesos, etc. Que ha sido diseñados y evaluados cuidadosamente para optimizar el uso de la CPU, evitar los bloqueos, y proporcionar estabilidad al sistema. Así, se garantiza el acceso protegido a la tarjeta de red (NIC) y la extensión de las propiedades de los sistemas multitarea, multiusuario a las aplicaciones paralelas. Tambien se ha impuesto a la interfaz que hemos desarrollado el requisito de la portabilidad del sistema entre plataformas Linux, para disponer de un sistema de comunicación realmente util y aplicable en la practica. Este requisito supone una restriccion sobre la posibilidad de modificar del driver de la tarjeta de la red, a diferencia de otros sistemas propuestos anteriormente, tambien basados en un soporte eficiente del S.O. Para las comunicaciones, y en los que las modificaciones efectuadas en el driver de la tarjeta han supuesto serias limitaciones para su difusion.
  • EFFICIENT ALGORITMMS TO IMPLEMENT FAILURE DETECTORS AND SOLVE CONSENSUS IN DISTRIBUTED SYSTEMS .
    Autor: LARREA ALAVA MIKEL.
    Año: 2000.
    Universidad: PAIS VASCO.
    Centro de lectura: INFORMATICA.
    Centro de realización: FACULTAD DE INFORMATICA DE SAN SEBASTIAN.
  • CONTRIBUCION A LA ESPECIFICACION Y GESTION INTEGRADA DE LA CALIDAD DE SERVICIO EN APLICACIONES DE OBJETOS DISTRIBUIDOS .
    Autor: ASENSIO PEREZ JUAN IGNACIO.
    Año: 1999.
    Universidad: VALLADOLID.
    Centro de lectura: INGENIEROS DE TELECOMUNICACION.
    Centro de realización: E.T.S.I. TELECOMUNICACION.
    Resumen: ESTA TESIS DOCTORAL PROPONE CONTRIBUCIONES DESTINADAS A SOLUCIONAR EL PROBLEMA DE LA GESTIÓN INTEGRADA DE LA CALIDAD DE SERVICIO EN APLICACIONES DE OBJETOS DISTRIBUIDOS. TOMANDO CONCEPTOS PROVENIENTES DEL MODELO DE REFERENCIA PARA PROCESAMIENTO DISTRIBUIDO ABIERTO(RM-ODP) Y DE LOS TRABAJOS SOBRE CALIDAD DE SERVICIO DE ISO/ITU-T, EN ESTA TESIS SE DEFINEN EXTENSIONES DEL DENOMINADO LENGUAJE UNIFICADO DE MODELADO(UML) QUE PERMITEN: -ESPECIFICAR INFORMACION DE CALIDAD DE SERVICIO ACERCA DE APLICACIONES DE OBJETOS DISTRIBUIDOS QUE SEAN COMPATIBLES CON LOS CONCEPTOS Y PRINCIPIOS DE RM-ODP. -MODELAR LA INSTRUMENTACIÓN DE MECANISMOS DE MONITORIZACIÓN DE LA INFORMACION ESPECIFICADA DE CALIDAD DE SERVICIO EN APLICACIONES DE OBJETOS DISTRIBUIDOS DE MANERA TRANSPARENTE A LOS DESARROLLADORES DE LOS ASPECTOS FUNCIONALES DE LA APLICACIÓN A MONITORIZACION. ESTAS EXTENSIONES SE HAN DEFINIDO TENIENDO EN CUENTA LA NECESIDAD DE INTEGRAR LA GESTION DE CALIDAD DE SERVICIO DE APLICACIONES DE OBJETOS DISTRIBUIDOS EN SISTEMAS DE GESTION DE OTROS TIPOS DE RECURSOS.
  • DESIGN OF IMPLEMENTABLE SOLUTIONS FOR LARGE SCALE ELECTRONIC VOTING SCHEMES.
    Autor: RIERA JORBA ANDREU.
    Año: 1999.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIERIA .
    Centro de realización: ESCUELA DE DOCTORADO Y FORMACIÓN CONTINUADA.
    Resumen: Esta tesis proporciona soluciones prácticas a los principales problemas abiertos en el campo de los esquemas criptográficos de votación electrónica, en particular entornos con un gran número de votantes.Todas las soluciones propuestas conducen a un diseño de fácil implementación. Para hcer frente a la escalabilidad del sistema, proponemos un modelo distribuido de colegios electorales electróncios, coordinados mediante una jerarquía de centros de recuento y de autoridades de votación. Para garantizar el anonimato de los votos, usamos un método basado en sobres digitales que protegen la privacidad de los votos. A través del pradigma de agentes móviles, los votos son mezclados enlas urnas digitales antes de que estas sean abiertas. Proponemos una técnica, basada en tarjetas inteligentes, para evitar la coerción y la compra de votos. Dicha técnica, a diferencia de las propuestas previas, no sacrifica la mobilidad de los votantes. Finalmente, mejoramos la eficiencia de los métodos existentes para permitir quejas públicas (sin revelar el voto emitido) por parte de votantes que detectan algún tipo de fraude respecto al tratamiento de su voto.
  • ARQUITECTURA INTEGRADA TMN PARA LA GESTION DE REDES DE TRANSMISION SDH MULTIFABRICANTE .
    Autor: KOEHN ROGERIO.
    Año: 1999.
    Universidad: A CORUÑA.
    Centro de lectura: INFORMATICA.
    Centro de realización: FACULTAD DE INFORMATICA- UNIVERSIDAD DE A CORUÑA.
    Resumen: La Tesis Doctoral aborda la gestion de red SDH dentro del marco TMN. Se propone la definición de una arquitectura de gestion de red que posibilita una vision integrada de las redes de transmisión SDH multifabricante, solucionando aspectos aun no definidos y/o propietarios en la gestión de estos equipos. El analisis que se realiza muestra por un lado las aportaciones y facilidades que la tecnologia SDH dispone para crear la TMN con el fin de su gestión de red. Por otro lado se verifica el limitado grado de estandarización en las implementaciones reales de esta tecnologia, lo que dificulta disponer de una gestión integrada cuando se trata de una red compuesta por elementos de red SDH de varios fabricantes. Se propone una arquitectura agente/gestos TMN que facilite esta integracion. Paralelamente, se evaluan las actuales recomendaciones para la gestión SDH, que definen el modelo de información aportando una visión pragmatica de las implementaciones actuales y del grado de complejidad de las normas. Asi mismo, se definen las pautas que permiten evaluar el grado de aplicabilidad de la arquitectura TMN en la red SDM.
  • SOPORTE DE REDES ACTIVAS PARA UN SERVICIO INTEGRADO DE MULTIPUNTO FIABLE CON CONTROL DE CONGESTION.
    Autor: SEDANO RUIZ M. FELISA.
    Año: 1998.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INFORMATICA.
    Resumen: Las limitaciones de las tecnologías de red actuales, identificadas en la Agencia de Proyectos de Investigación Avanzados para la Defensa (DARPA) durante 1995, han originado recientemente una propuesta de modelo de red denominado Redes Activas. El objetivo es disponer de una tecnología de red que permita que nuevos servicios de red sean desarrollados e instalados rápidamente sin modificar los nodos de la red. Un servicio de red que se puede beneficiar de esta tecnología es la transmisión de datos en multipunto con diferentes grados de fiabilidad. Esta tesis realiza propuestas originales conducentes a solucionar parte de las limitaciones actuales en el ámbito de Redes Activas y multipunto fiable con control de congestión. En primer lugar, se especificará un servicio genérico de multipunto fiable que proporcione diferentes clases de sesiones y grados de fiabilidad. Partiendo de la definición del servicio genérico especificado, se diseñará un protocolo de comunicaciones sobre la tecnología de Redes Activas que proporcione dicho servicio. El protocolo diseñado estará dotado de un mecanismo de control de congestión para que la fuente ajuste dinámicamente el tráfico inyectado a las condiciones de carga de la red. En esta tesis se pretende también profundizar en el estudio y análisis de la tecnología de Redes Activas, experimentando con dicha tecnología para proporcionar una realimentación a sus diseñadores. Como aportación adicional de este trabajo, se validarán los objetivos anteriores mediante una implementación piloto de las entidades de protocolo y de su interfaz de servicio.
  • ESTUDIO Y DESARROLLO DE UN ESQUEMA CRIPTOGRAFICO PARA REALIZAR VOTACIONES SEGURAS SOBRE UNA RED LOCAL.
    Autor: BORRELL VIADER JOAN.
    Año: 1996.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: CIENCIAS .
    Centro de realización: DEPARTAMENTO: INFORMATICA PROGRAMA DE DOCTORADO: GRAFICOS, IMAGENES DIGITALES E INTELIGENCIA ARTIFICIAL.
    Resumen: LA TESIS PRESENTA EL DISEÑO DE UN ESQUEMA CRIPTOGRAFICO QUE PERMITE LLEVAR A CABO VOTACIONES SOBRE UNA RED LOCAL DE ORDENADORES. DICHO ESQUEMA GARANTIZA LOS PRINCIPIOS DE PRIVACIDAD, DEMOCRACIA, CORRECCION E IMPARCIALIDAD DE LAS VOTACIONES QUE REGULA, ASEGURANDO ADEMAS LA LIBERTAD DE COMPORTAMIENTO (ABSTENCION, VOTOS NULOS, ...) DE LOS VOTANTES. LA BAJA COMPLEJIDAD CRIPTOGRAFICA Y DE COMUNICACIONES DEL ESQUEMA PERMITE SU IMPLEMENTACION SOBRE UNA RED DE ORDENADORES USUAL. ACOMPAÑA AL DISEÑO DEL ESQUEMA UN ANALISIS DETALLADO DEL MISMO PARA DIRIGIR SU DESARROLLO REAL SOBRE UNA RED LOCAL, CON LA UTILIZACION DE LLAMADAS A PROCEDIMIENTOS REMOTOS SOBRE TCP/IP Y LA HERRAMIENTA DE DESARROLLO DE APLICACIONES SEGURAS "SECUDE".
  • SEGURIDAD EN REDES LOCALES DE COMUNICACION DE DATOS. CONTRIBUCION A LA SEGURIDAD DE REDES 802.3/ETHERNET EXTENDIDAS.
    Autor: RECACHA CASTRO FRANCISCO.
    Año: 1996.
    Universidad: POLITECNICA DE CATALUÑA.
    Centro de lectura: INGENIEROS DE TELECOMUNICACION.
    Centro de realización: DEPARTAMENTO: MATEMATICA APLICADA Y TELEMATICA PROGRAMA DE DOCTORADO: MATEMATICA DISCRETA Y TELEMATICA.
    Resumen: EN ESTA TESIS SE TRATA EL PROBLEMA DE INTEGRACION DE SERVICIOS Y MECANISMOS DE SEGURIDAD EN LA COMUNICACION DE DATOS SOBRE REDES DE AREA LOCAL EXTENDIDAS DEL TIPO ETHERNET/802.3. SE PROPONE EN ESTE TRABAJO UN MECANISMO DE ENCADENAMIENTO PARA CIFRADORES EN BLOQUE PARTICULARMENTE EFICIENTE Y POR TANTO ATRACTIVO PARA APLICACION EN REDES LOCALES. SE PROPONEN TAMBIEN UNA ARQUITECTURA DE SEGURIDAD PARA EL TIPO DE REDES CONSIDERADO Y UNA FAMILIA DE PROTOCOLOS DE SEGURIDAD MEDIANTE LOS CUALES SE PROTEGEN LAS COMUNICACIONES. PARA LA EVALUACION DE LOS DIFERENTES PROTOCOLOS DISEÑADOS, Y PARA REALIZAR UNA COMPARACION CON OTRAS ALTERNATIVAS EXISTENTES EN LA LITERATURA, SE PRESENTAN UNA SERIE DE RESULTADOS OBTENIDOS MEDIANTE UN SIMULADOR DESARROLLADO AL EFECTO. EN ESTA EVALUACION DE PRESTACIONES SE INCIDE EN LA DEGRADACION DEL ANCHO DE BANDA Y DEL RETARDO DE LA RED PRODUCIDA POR LA INTEGRACION DE LOS DIFERENTES PROTOCOLOS ESTUDIADOS EN LOS MECANISMOS DE COMUNICACION ORIGINALES. FINALMENTE SE APUNTAN ALGUNAS LINEAS DE CONTINUACION DE ESTE TRABAJO A DESTACAR EL ESTUDIO DE MECANISMOS SIMILARES PARA APLICACION EN REDES LOCALES DIFERENTES A LAS CONSIDERADAS, EN REDES METROPOLITANAS Y EN REDES EXTENSAS DE GRAN VELOCIDAD.
  • DISEÑO DE UNA RED DE ORDENADORES APLICADA AL CONTROL DE PROCESOS REMOTOS.
    Autor: ROSA HERRANZ JULIO LUIS.
    Año: 1996.
    Universidad: ALICANTE.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR.
    Centro de realización: DEPARTAMENTO: INGENIERIA DE SISTEMAS Y COMUNICACIONES PROGRAMA DE DOCTORADO: INFORMATICA APLICADA .
    Resumen: SE DISEÑA UNA RED DE ORDENADORES DEDICADA AL CONTROL DISTRIBUIDO DE PROCESOS QUE TIENEN LUGAR EN PUNTOS GEOGRAFICAMENTE DISPERSOS. LA INTERCONEXION DE LOS SISTEMAS RED SE REALIZA MEDIANTE UNA SUBRED DE COMUNICACIONES DIGITALES DE RADIO. UN PROCEDIMIENTO MIXTO DE ACCESO AL CANAL PROPORCIONA AGILIDAD EN LA GESTION DE INCIDENCIAS EN LA RED DE ORDENADORES Y EVITA COLISIONES EN EL MEDIO CUANDO EXISTE INFORMACION VOLUMINOSA QUE TRANSMITIR. PARA MODELAR LOS ASPECTOS DE CONTROL DE LOS PROTOCOLOS DE NIVEL SE UTILIZAN MAQUINAS DE ESTADOS FINITOS (MEF), DEFINIENDO UN PROCESO GENERADOR DE ENTRADAS Y OTRO DE SALIDAS A LA MEF PARA REALIZAR UNA ESPECIFICACION FORMAL COMPLETA. LA UTILIZACION DE ESTA RED DE ORDENADORES COMO PLATAFORMA PARA REALIZAR UN CONTROL DISTRIBUIDO SOBRE ESTACIONES DE REGISTRO SISMICO, PERMITE COMPROBAR EXPERIMENTALMENTE LOS PLANTEAMIENTOS EFECTUADOS EN LA TESIS Y PONER DE MANIFIESTO LAS VENTAJAS QUE PROPORCIONA UNA SOLUCION DE ESTAS CARACTERISTICAS. ESTA IMPLEMENTACION PUEDE LLEVARSE A CABO GRACIAS DISEÑO DE UN SISTEMA INFORMATICO, DEDICADO A EFECTUAR EL CONTROL LOCAL SOBRE LAS ESTACIONES REMOTAS Y CAPAZ DE ATENDER, SIMULTANEAMENTE, LAS COMUNICACIONES EN LA RED. EL SISTEMA PROPUESTO ESTA BASADO EN UNA ARQUITECTURA MULTICOMPUTADOR, QUE LE PERMITE ABORDAR LA EJECUCION DE DISTINTAS TAREAS DE FORMA INDEPENDIENTE Y CON UNA COMUNICACION AGIL ENTRE LAS MISMAS.
  • EVALUACION DE PRESTACIONES MEDIANTE TECNICAS DE DESCRIPCION. FORMULA DE LA EMULACION DE RED LOCAL SOBRE ATM.
    Autor: VIDAL CATALA JOSE R..
    Año: 1996.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INGENIEROS DE TELECOMUNICACION.
    Centro de realización: DEPARTAMENTO: COMUNICACIONES PROGRAMA DE DOCTORADO: TELECOMUNICACIONES.
    Resumen: EL MODO DE TRANSFERENCIA ASINCRONO (ATM) ES EL COMUNMENTE ACEPTADO COMO SOPORTE DE LA RDSI DE BANDA ANCHA, Y HA SIDO CONCEBIDO PARA INTEGRAR EN UNA UNICA RED DIVERSOS TIPOS DE SERVICIOS DE TELECOMUNICACION, UNO DE LOS CUALES ES EL SERVICIO DE DATOS, REQUERIDO POR LAS APLICACIONES QUE OPERAN SOBRE LAS REDES DE ORDENADORES CONVENCIONALES. SE HAN PROPUESTO DIVERSOS METODOS PARA LA INTEGRACION DEL SERVICIO DE DATOS EN ATM. EN ESTA TESIS SE HA ABORDADO EL ESTUDIO DE LA EMULACION DE RED LOCAL, COMO SOLUCION AL PROBLEMA DE LA CONECTIVIDAD Y LA DIFUSION, Y EL ESTUDIO DE LA CATEGORIA DE SERVICIO ABR, COMO SOLUCION AL PROBLEMA DE LA GESTION DEL TRAFICO DE DATOS. UN ASPECTO FUNDAMENTAL DEL RENDIMIENTO DE ESTA SOLUCION DE INTERCONEXION ES EL QUE ALCANZA EL PROTOCOLO DE LA CAPA DE TRANSPORTE SOBRE ABR. POR ESTA RAZON, SE HA EVALUADO EL RENDIMIENTO DE TCP SOBRE LA CATEGORIA DE SERVICIO ABR, TANTO DESDE EL PUNTO DE VISTA DE LA INFLUENCIA DE LOS ALGORITMOS ABR EN EL RENDIMIENTO DE TCP, COMO DE LA INFLUENCIA DEL TRAFICO GENERADO POR TCP EN EL RENDIMIENTO DE DICHOS ALGORITMOS. EL ESTUDIO SE HA REALIZADO SOBRE ABR CON LOS ALGORITMOS EPRCA DIFERENCIA, CAPC Y ERICA, Y HAN SIDO DETERMINADAS LAS PRINCIPALES LIMITACIONES DE CADA UNO DE ELLOS,. ASIMISMO, SE HAN PROPUESTO Y EVALUADO DOS MODIFICACIONES AL ALGORITMO ERICA PARA OPTIMIZAR EL RENDIMIENTO DE TCP SOBRE ABR CON ESTE ALGORITMO: UNA CONSISTENTE EN EL FILTRADO DE LOS PARAMETROS DE ESTIMACION DEL CONMUTADOR, Y OTRA BASADA EN DESCARTE SELECTIVO. ES ESTUDIO SE HA REALIZADO POR SIMULACION. PARA EL DESARROLLO DEL MODELO DE SIMULACION SE HA ADOPTADO UN ENFOQUE BASADO EN EL LENGUAJE DE DESCRIPCION FORMAL SDL. PARA ELLO SE HA ELABORADO UNA METODOLOGIA PARA LA DESCRIPCION EN SDL DE MODELOS DE SIMULACION DE REDES DE COMUNICACIONES, QUE HA SIDO APLICADA AL DESARROLLO DE MODELOS QUE CONTIENEN LAS CAPAS DE PROTOCOLOS DEL SISTEMA EN ESTUDIO.
  • USO DE UNA RED LOCAL EN LA GESTION DE HISTORIAS CLINICAS INFORMATIZADAS.
    Autor: FRANCO CLEMENTE M. TERESA.
    Año: 1995.
    Universidad: ZARAGOZA.
    Centro de lectura: MEDICINA.
    Centro de realización: DEPARTAMENTO: MEDICINA Y PSIQUIATRIA PROGRAMA DE DOCTORADO: MEDICINA FAMILIAR Y COMUNITARIA .
    Resumen: LA TESIS DOCTORAL TRATA DE UNA EXPERIENCIA DE INFORMATIZACION DE LA HISTORIA CLINICA GENERAL HOSPITALARIA, MEDIANTE UN SISTEMA MULTIUSUARIO DE RED LOCAL, EMPLEANDO PROTOCOLOS SEMIESTRUCTURADOS. EL TRABAJO DE LA TESIS VERSA SOBRE EL ESTUDIO DEL SOPORTE FISICO DE LA INFORMACION CLINICA, SIN ANALIZAR SU CONTENIDO. EL ESTUDIO SE HA LLEVADO A CABO EN EL HOSPITAL REINA SOFIA DE TUDELA DURANTE EL AÑO 1993, CON 13700 HISTORIAS CLINICAS ABIERTAS. LA HIPOTESIS DE TRABAJO ES "PARA QUE UN SISTEMA DE INFORMATIZACION DEL REGISTRO CLINICO SEA EFICAZ Y EFICIENTE, ES NECESARIO QUE PUEDA SER COMPARTIDO EN TIEMPO REAL". LOS PROTOCOLOS DE RECOGIDA DE DATOS SE ESTRUCTURARON SIGUIENDO LAS DIVISIONES CLASICAS DE LOS REGISTROS CLINICOS CONVENCIONALES, RESPETANDO LOS ESQUEMAS DE LAS HISTORIAS CLINICAS PREEXISTENTES. SE DISEÑO UNA RED DE AREA LOCAL CON TOPOLOGIA EN ESTRELLA Y SOFTWARE NOVELL NETWARE 3.11 , CON 10 ESTACIONES DE TRABAJO ACTIVAS A UN TIEMPO Y SERVIDOR DEDICADO. SE UTILIZO UNA APLICACION MULTIUSUARIO DE DISEÑO PROPIO, BASADA EN LENGUAJE "C" DE MICROSOFT , Y CLIPPER 5.01 , CON SISTEMA JERARQUIZADO DE ACCESOS (NIVELES Y CODIGOS DE ACCESO) Y BLOQUEO-LIBERACION AUTOMATICA DE REGISTROS, PARA EVITAR ESCRITURAS E INFORMACIONES INCONSISTENTES. LOS RESULTADOS ANALIZARON EL 100% DE LAS HISTORIAS GENERADAS POR PACIENTES HOSPITALIZADOS EN MEDICINA INTERNA, EL 50% DE LOS PACIENTES VISTOS EN PRIMER DIA EN CONSULTAS EXTERNAS DE MEDICINA INTERNA, EL 32% DE LOS INGRESOS QUIRURGICOS Y EL 100% DE LOS INFORMES RADIOLOGICOS, ANATOMOPATOLOGICOS, ENDOSCOPICOS, ERGOMETRICOS Y ECOCARDIOGRAFICOS. LAS CONCLUSIONES, QUE DAN RESPUESTA A LAS HIPOTESIS PLANTEADAS, PERMITEN VALORACION GLOBAL: ES NECESARIO ADAPTAR LA ESTRUCTURA DE RED Y LOS PROTOCOLOS A LAS NECESIDADES DE CADA UNIDAD O SERVICIO, SIN EXISTIR UNA SOLUCION VALIDA PARA TODOS.
28 tesis en 2 páginas: 1 | 2
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia