Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > MATEMATICAS > CIENCIA DE LOS ORDENADORES >

DISEÑO Y COMPONENTES DE SISTEMAS DE INFORMACION, 2



245 tesis en 13 páginas: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13
  • MODELIZACIÓN CARTOGRÁFICA PARA LA EVALUACIÓN DE PROCESOS DE EROSIÓN DEL SUELO. APLICACIÓN A UN ÁREA DEL SUDESTE PENINSULAR .
    Autor: ZANCAJO JIMENO JOSÉ JULIO.
    Año: 2003.
    Universidad: SALAMANCA.
    Centro de lectura: INGENIEROS AGRONOMOS.
    Centro de realización: E.T.S.I. AGRÓNOMOS.
    Resumen: El avance informático acaecido en los últimos años ha abierto nuevas espectativas en el mundo de la ingeniería que deben ser explorados, con el fin de proporcionar nuevos y más precisos resultados, utilizando las grandes posibilidades de cálculo y análisis. En este sentido, este trabajo de investigación pretende ahondar en el uso de estas tecnologías en el campo de la modelización y simulación cartográfica de factores y procesos ambientales, aprovechando una de las características más importantes de los mismos: su posición en el espacio. Para ello hemos trabajado, dentro del factor suelo, en uno de los procesos que más interés tiene para la humanidad por su trascendencia directa: los problemas de erosión. El objetivo será diseñar una estructura de datos que, mediante su implementación en una Base de Datos Espacial, permita realizar las simulaciones cartográficas de los procesos de erosión del suelo, con el fín, no sólo de conocer su impacto, sino de evaluarlos y situarlos en el contexto físico natural y socio-económico en el que se producen.
  • APORTACIONES A LA TELEASISTENCIA DE PACIENTES RENALES CRÓNICOS .
    Autor: PRADO VELASCO MANUEL A..
    Año: 2003.
    Universidad: SEVILLA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIEROS.
    Centro de realización: ESCUELA SUPERIOR DE INGENIEROS.
    Resumen: La insuficiencia renal crónica terminal (RCT) en España presenta una prevalencia de aproximadamenta 900 personas por cada millón de habitantes (pmp). Este valor está creciendo a un ritmo superior al 4% anual. Las cifras son similares o incluso peores en otros países industrializados, como EEUU, donde la tasa de prevalencia, de acuerdo con su tendencia de crecimiento promedio del 7%, puede superar las 1500 pmp. La población que sufre esta enfermedad presenta un estado de salud y una calidad de vida muy limitados, con una morbilidad elevada, y otras patologías relacionadas, como la diabetes mellitus y la enfermedad cardiovascular. El coste sanitario de esta enfermedad es elevado y está creciendo a un ritmo superior al de su prevalencia, debido entre otros motivos, al creciente porcentaje de personas mayores que la sufre. La terapia sustitutiva renal (RRT) es el principal tratamiento de la IRCT, y aunque el conocimiento y los resultados clínicos de esta terapia han mejorado sustancialmente desde la década de los 70, la tasa de mortalidad y la calidad de vida de los pacientes en RRT periódica, presentan todavía valores inaceptables que pueden ser mejorados, según muchos investigadores. Es difícil encontrar soluciones a esta problemática, limitando a la vez el incremento de la carga sanitaria asociada, de manera compatible con los recursos económicos disponibles, mediante el actual modelo centralizado de asistencia. La telemedicina surge como un nuevo modelo, complementario con el existente, con capacidad para desarrollar soluciones viables en al asistencia al diagnóstico y a la aplicación de terapias, entre otras posibilidades, en diferentes patologías y grupos poblacionales. El objetivo principal de la presente Tesis Doctoral consiste en el desarrollo de una solución metodológica y tecnológica a la teleasistencia renal, que facilite la mejora de las RRT y la supervisión y asistencia al paciente, con el fin de mejorar su calidad de vida y reducir la tasa de mortalidad. Con este fin, se realizan también aportaciones a la mejora de la adecuación de la diálisis. Los resultados obtenidos adquieren una mayor relevancia en el marco de la arquitectura computacional del sistema de teleasistencia que se presenta, pero su interés no se encuentra limitado a ésta. Debido a la importancia de la terapia de hemodiálisis, y a la problemática de subdosificación que presentan algunos pacientes, se presentan también aportaciones enfocadas a la mejora de la eficiencia de los hemodializadores, y a la selección de estos, para reducir el riesgo de subdosificación.
  • PROPUESTA DE UNA ARQUITECTURA DE RED CORPORATIVA Y SU APLICACIÓN A LA REINGENIERÍA ADMINISTRATIVA.
    Autor: RODRÍGUEZ MOREDA ÁNGEL.
    Año: 2003.
    Universidad: VALLADOLID.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIONES.
    Centro de realización: ESCUELA TÉCNICA SUPERIOR INGENIEROS DE TELECOMUNICACIÓN DE MADRID.
    Resumen: Esta tesis doctoral propone contribuciones destinadas a la definición de una arquitectura de Red Corporativa que responda a la necesidad de simplificar los procesos implicados en el diseño, implantación y mantenimiento de este tipo de Redes, aportando además un elevado grado de adaptación a la Organización a la que soporta, lo que permite su aplicación para facilitar procedimientos específicos de reingeniería administrativa en el ámbito de las Administraciones Públicas. Para ello partiendo de conceptos de diseño de redes, en los que se atiende a la convergencia entre comunicaciones e informática, conceptos de middleware para la generación de entornos de trabajo de usuario y conceptos de trabajo en grupo, se ha expuesto en esta tesis la mencionada arquitectura que incorpora las siguientes contribuciones: *La definición de una estructura canónica como elemento básico de agregación de la arquitectura de la Red Corporativa, de forma que ésta se constituye sobre la base de un conjunto de las mencionadas estructuras, que permiten ser tratadas de manera independiente. *El diseño de una capa de middleware cooperativo que constituye el nivel de interoperabilidad de la arquitectura, basado en agentes configuradores, que permiten la adaptación de la Red tanto a la Organización como a los usuarios, ofreciendo a éstos últimos una plataforma de mecanismos básicos de cooperación. La arquitectura propuesta en esta tesis se ha orientado a facilitar los procesos de reingeniería administrativa en el ámbito de las Administraciones Públicas, que persiguen básicamente, flexibilizar su estructura organizativa, mediante la aplicación de procesos de cambio graduales y realimentados.
  • XEDU: UN MODELO PARA LA ESPECIFICACIÓN DE LAS COMPONENTES ESTÁTICA Y DINÁMICA DE UNA APLICACIÓN INSTRUCTIVA .
    Autor: BUENDÍA GARCÍA FÉLIX.
    Año: 2003.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: E.T.S. INFORMÁTICA APLICADA.
    Resumen: Las aplicaciones instructivas consisten en conjuntos de recursos y actividades que implementan experiencias orientadas a satisfacer ciertos objetivos de aprendizaje. Desde un punto de vista tecnológico, el desarrollo de este tipo de aplicaciones puede abordarse desde diversas perspectivas. Existen disciplinas como el Diseño Instructivo enfocadas a la aplicación práctica de las teorías y estrategias de aprendizaje. Sin embargo, el Diseño Instructivo se ha limitado con frecuencia a la realización de productos que funcionan en entornos tecnológicos concretos, difícilmente reutilizables y adaptables a otros contextos de aprendizaje. También se pueden citar un buen número de tecnologías que se han utilizado para desarrollar aplicaciones educativas, com los sistemas hipermedia, las técnicas de inteligencia artificial o la especificación de metadatos educativos. De nuevo, se observa que su utilización se ha enfocado habitualmente al desarrollo de productos en un contexto específico (p.e., hipermedias educativos o turores inteligentes) o no se ha prestado excesiva atención a los aspectos instructivos. El enfoque elegido en este trabajo consiste en aportar un modelo conceptual que permita representar los requerimientos de tipo instructivo desde un punto de vista formal con el fin de facilitar su realización tecnológica, pero sin limitarla a un producto o entorno concreto. Este enfoque está próximo a las iniciativas de EML ("Educational Modelling Languages") con las que comparte características como la definición de un modelo de información o el uso de notaciones que pemiten su realización, pero aportando elementos originales como la representación de los requerimientos de tipo funcional. En definitiva, esta tesis propone un modelo denominado Xedu que permite representar las características fundamentales de una aplicación instructiva, desde una doble perspectiva. Por un lado, mediante un Modelo de Información que describe las entidades y relaciones que forman parte de una aplicación instructiva. Por otro lado, mediante un Modelo de Comportamiento que especifica cómo se manejan y comportan estas entidades y relaciones en un cierto contexto de aprendizaje.
  • ESPECIFICACIÓN Y EVALUACIÓN DE UN ALGORITMO DE SINCRONIZACIÓN DE GRUPO DE FLUJOS MULTIMEDIA .
    Autor: BORONAT SEGUÍ FERNANDO.
    Año: 2003.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIÓN .
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DE TELECOMUNICACIÓN.
    Resumen: En esta Tesis se presenta un algoritmo de sincronización de grupo de flujos multimedia, basado en técnicas de realimentación y la utilización de una referencia de tiempo global común a todos los sistemas involucrados en una aplicación multimedia. Dicho algoritmo trata de solucionar el problema de la sincronización de grupo de flujos en aplicaciones multimedia no críticas como, por ejemplo, las de aprendizaje a distancia o televigilancia. No sólo se ocupa de la sincronización local entre flujos en un mismo receptor, sino que garantiza también la reproducción simultánea (sincronizada), de todos los flujos en todos los receptores al mismo tiempo. Como ejemplo podríamos citar una aplicación de aprendizaje a distancia, en la que, por ejemplo, el profesor o tutor envíe un vídeo de una película (flujo de contenido almacenado) y, al mismo tiempo, en determinados instantes, pueda hacer comentarios (flujo de contenido en directo) sobre las imágenes que se están viendo de la película y los estudiantes discutir dichos comentarios o incluso contestar al profesor. Otro ejemplo podría ser el de una aplicación de televigilancia con cámaras de vídeo y sensores distribuidos en una red de datos, que envían información a una sala de control donde se almacena y represta dicha información de forma sincronizada. El algoritmo propuesto se basa en la utilización de los protocolos RTP y RTCP, definiendo nuevas estructuras de datos de éste último y modificando algunas ya existentes, para que los equipos que se comunican puedan intercambiar información esencial para dicho algoritmo. También hace uso del protocolo NTP como referencia de tiempo global. Se presenta una plataforma de evaluación y los resultados de evaluar en dicha plataforma el comportamiento del algoritmo, tanto objetiva como subjetivamente, mostrando un comportamiento satisfactorio sobre configuraciones punto-multipunto y multipunto-multipunto, con varias fuentes y varios receptores de flujos multimedia.
  • ANÁLISIS DE RESTRICCIONES EN EL NIVEL CONCEPTUAL: GENERACIÓN AUTOMÁTICA DE TRANSACCIONES SEGURAS .
    Autor: PASTOR CUBILLO M. ÁNGELES.
    Año: 2003.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: DEPARTAMENTO DE SISTEMAS INFORMÁTICOS Y COMPUTACIÓN.
    Resumen: El modelado conceptual representa una de las etapas más importantes en el diseño de información; esta actividad permite obtener una descripción abstracta de la realidad que es objeto de estudio, descripción que será utilizada en etapas posteriores de la construcción del sistema, así como en interfaces hombre-sistema. Actualmente está aceptada la opinión de que el modelado conceptual debe integrar el modelado de la estructura del sistema así como el modelado de sus reglas de evolución. Esta tesis se enmarca en el campo de investigación citado, aportando soluciones a problemas abiertos en la literatura. Las aportaciones más relevantes del trabajo se resumen a continuación: * Una variante del Modelo Entidad Relación Extendido (ERE) como herramienta de modelado a la que se han incorporado: - Instrucciones dinámicas que permiten especificar el comportamiento que se debe seguir en caso de borrados de elementos de información. - Un lenguaje lógico de primer orden que permite expresar restricciones y consultas sobre los estados del esquema. - Un lenguaje transaccional que incluye la sintaxis de las operaciones de creacción y borrado sobre los tipos de objetos de un esquema y el lenguaje para definir el esquema de las transacciones. * Un análisis de las restricciones definidas en un esquema ERE con respecto a cada operación posible, del que resulta una clasificación de cada par así formado: esta clasificación se basa en criterios de comprobación de la integridad (si se ve afectada o no la restricción y, si es que sí, si siempre se ve afectada - independientemente de la ocurrencia de la operación, o no), y en el caso de que sí se vea afectada, se aplican criterios de mantenimiento de la integridad; si es posible la restauración de la integridad incorporando nuevas operaciones junto a la operación estudiada en una misma transacción, o si no se puede restaurar. En este último caso se establece si es posible evitar la violación de la integridad con controles en la transacción, que pueden incluir consultas al estado para determinar si una operación de inserción puede violar o no la integridad, de manera que si va a violar la integridad, no se ejecute ninguna operación. * Definiciones de conceptos como transacción segura, transacción segura y mínima, dependencia para inserción directa e indirecta y ciclo. * Presentación de un algoritmo que acepta un esquema ERE sin ciclos y genera el conjunto de transacciones seguras y mínimas de inserción y borrado sobre todos los tipos de objetos de dicho esquema: se esboza la solución para la generación de las transacciones especiales para los ciclos. * Presentación de la metodología a seguir para diseñar aplicaciones utilizando un algoritmo generador de transacciones seguras y mínimas.
  • GENERACIÓN AUTOMÁTICA DE RESÚMENES DE TEXTO PARA EL ACCESO A LA INFORMACIÓN .
    Autor: MAÑA LÓPEZ MANUEL J..
    Año: 2003.
    Universidad: VIGO.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: ESCUELA SUPERIOR DE INGENIERÍA INFORMÁTICA.
    Resumen: En esta memoria de tesis se proponen nuevas formas de generación, aplicación y evaluación de resúmenes indicativos, abordando tanto el ámbito de los resúmenes monoducumento como el de los multidocumento. La finalidad de estos resúmenes es la de convertirse en una ayuda eficaz para los usuarios de sistemas de acceso a la información. El marco de aplicación, en el que los documentos pueden ser de muy distintas características, requiere un sistema robusto, moderadamente independiente del género, dominio, estructura y escala de los textos. La utilización de técnicas de extracción de frases garantiza esa independencia. Para la generación de resúmenes monodocumento se han utilizado métricas estadísticas y posicionales. La personalización del resumen se basa en la consulta de usuario y la expansión de la misma utilizando WordNet. Los resúmenes generados de esta forma han sido evaluados en un marco de recuperación /ah. En la evaluación se utilizaron recursos disponibles y muy difundidos en el ámbito de la RI: las colecciones TREC. La ventaja que aporta esta marco experimental es que se pueden llevar a cabo evaluaciones sistemáticas y comparables sobre grandes colecciones de documentos. Los resultados de esta evaluación muestran la efectividad de los resúmenes adaptados a la consulta. Respecto a los resúmenes multidocumento, se propone su aplicación a un entorno de RI con agrupamiento de los resultados de la búsqueda. La información común y los aspectos particulares que se observan en los grupos de documentos relacionados semánticamente se presentan por separado en dos resúmenes. Los resúmenes de los documentos se centran en las diferencias relevantes que caracterizan a cada uno de ellos respecto a la información común proporcionada por el grupo al que pertenecen. El sistema segmenta los textos, tratando de identificar los temas tratados en cada documento y de averiguar el grado de cohesión entre los mismos. Estos resúmenes han sido evaluados en un experimento donde los usuarios llevan a cabo una tarea de búsqueda interactiva. Los resultados muestran que, utilizados conjuntamente con un agrupamiento de los resultados de la búsqueda, los resúmenes así generados pueden constituir una alternativa viable y efectiva a la interfaz clásica de lista ordenada de los sistemas de RI.
  • ESPECIFICACIÓN DEL INTERFAZ DE USUARIO: DE LOS REQUISITOS A LA GENERACIÓN AUTOMÁTICA .
    Autor: MOLINA MORENO PEDRO JUAN.
    Año: 2002.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: FACULTAD DE INFORMÁTICA .
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: El desarrollo de interfaces de usuario es una tarea que consume grandes cantidades de recursos. Por otro lado, las técnicas de modelado conceptual han demostrado ser muy valiosas para incrementar el nivel de abstracción a la hora de construir sistemas, sin embargo, históricamente dejaban de lado el modelado de la interfaz de usuario. La presente tesis proporciona una extensión para la especificación de interfaces de usuario sobre modelos conceptuales orientados a objetos. El modelo propuesto explora los lenguajes de patrones conceptuales como herramientas para la elicitación de requisitos, especificación y generación de código. Como herramientas de soporte, se han construido editores de modelos, especificaciones, prototipos y generadores de código. Todo ello, ha sido refinado y validado empíricamente en un entorno industrial tras varios ciclos de desarrollo iterativo. El proceso de desarrollo de interfaces de usuario propuesto reduce drásticamente los tiempos de desarrollo así como los recursos necesarios gracias a las técnicas de generación de código y prototipación rápida introducidas. El análisis basado en Modelización Conceptual y apoyado sobre técnicas de generación de código acerca un poco más la utopía del Paradigma de la programación Automática enunciada por Balzer. Más aún, la construcción de sistemas pierde características de artesanía para convertirse en un método de ingeniería de producción de software que asegura la calidad del producto software.
  • VALIDACIÓN DE REQUISITOS DE USUARIO MEDIANTE TÉCNICAS DE TRANSFORMACIÓN DE MODELOS Y PROTOTIPACIÓN AUTOMÁTICA DE INTERFACES DE USUARIO .
    Autor: SÁNCHEZ DÍAZ JUAN.
    Año: 2002.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: Cuando se desarrolla un sistema basado en ordenador la primera tarea, y quizás la más importante de todo el proceso, consiste en captar las necesidades de los clientes y usuarios. Este proceso se llama genéricamente Ingeniería de Requisitos y ha sido reconocido como la etapa crucial de todo el proceso de desarrollo. Los escenarios son una herramienta valiosa para capaturar y comprender requisitos y para analizar las interacciones entre personas y ordenantes. Un proceso estándar de ingeniería de requisitos basado en la utilización de escenarios tiene dos tareas principales. La primera, genera a partir de los escenarios especificaciones que describen el comportamiento del sistema. La segunda consiste en validar los escenarios con los usuarios mediante técnicas de simulación o prototipado. Ambas tareas son tediosas si no están soportadas por una herramienta automática o semiautomática. En este trabajo presentamos una propuesta metodológica y la herramienta asociada que la de soporte dentro del campo de la ingeniería de requisitos. Ambas están basadas en el lenguaje unificado de modelado (UML), extendido con la introducción de los "Message Sequence Chart" (MSCs). Como los MSCs pueden verse como una extensión de los diagramas de secuencia añadiendo los correspondientes estereotipos, la aproximación puede considerarse consistente con UML desde el punto de vista notacional. Un proceso claro, preciso e interativo permite derivar de forma semi-automática prototipos de interface de usuario a partir de escenarios. Además, se genera una especificación formal del comportamiento del sistema que se representa mediante diagramas de transición entre estados. Los diagramas describen el comportamiento dinámico de los objetivos de interface y de control asociados a cada caso de uso o a cada MSC. El método contiene seis etapas: las tres primeras requieren la asistencia del analista, mientras que las últimas convierten el proceso de validación de escenarios en un proceso totalmente automatizado mediante la prototipación.
  • APROXIMACIÓN METODOLÓGICA FORMAL PARA EL DISEÑO Y DESARROLLO DE SISTEMAS INTERACTIVOS BASADOS EN EL ESTILO DE MANIPULACIÓN DIRECTA .
    Autor: RODRÍGUEZ ALMENDROS M. LUISA.
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA.
    Resumen: Los Sistemas Interactivos están cada vez más orientados hacia la manipulación de la información en un entorno gráfico. Estas aplicaciones se basan en el estilo de interacción de manipulación directa, el cual se caracteriza por una representación continua de los objetos, utilizando de dispositivos de entrada para realizar acciones físicas sobre los objetos y acciones rápidas, incrementales y reversibles con resultados visibles inmediatamente. Todas estas características hacen que el tratamiento y gestión de la información sea intuitivo para el usuario, pero sin embargo, complica el diseño y desarrollo de estos sistemas. Las técnicas formales pueden ayudar a la descripción de este tipo de sistemas centrándose en los aspectos relevantes del modelo de interacción. En este trabajo, proponemos una aproximación metodológica formal para diseñar y desarrollar Sistemas Interactivos que utilizan el estilo de manipulación directa basada en una visión del conjunto de objetos que constituyen el sistema, las relaciones que se establecen entre dichos objetos y los estímulos a los que son receptores los objetos. Para conseguir este objetivo hemos definido el concepto de modelo sintáctico de manipulación directa basado en los objetos y las relaciones, y hemos desarrollado una metodología de especificación MOORE (Modelado orientado a objetos, relaciones y estímulos) y un lenguaje de especificación MORELES (Lenguaje de especificación para Sistemas Interactivos basado en objetos, relaciones y estímulos). El propósito es que este marco formal ayude a los usuarios a entender el comportamiento de estos sistemas, y a los desarrolladores a su diseño y desarrollo. Además, queremos contemplar comportamientos complejos que se producen bajo el estilo de manipulación directa, tales como manipulación en 3D, consultas dinámicas y búsquedas en bases de datos visuales con representación de los objetos (apuntado con los dedos, pasando por arriba o moviendo determinadas áreas de la pantalla), etc. Palabras Clave: Interacción Persona Ordenador, Diseño de Sistemas Interactivos, Manipulación directa, Métodos formales, Especificación de relaciones espaciales, Lenguajes de especificación, Técnicas de interacción.
  • UN MODELO DE INTEGRACIÓN EVOLUTIVO ENTRE SISTEMAS DE INFORMACIÓN Y SISTEMAS DE AYUDA A LA DECISIÓN .
    Autor: HURTADO TORRES M. VISITACIÓN.
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: INFORMÁTICA .
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA.
    Resumen: En la actual "sociedad de la información", durante el proceso de automatización de toma de decisiones se debe contar con información proveniente de diferentes fuentes de datos heterogéneas y distribuidas, entre ellas las del sistema de información. Sin embargo es habitual en las organizaciones desarrollar los Sistemas de Ayuda a la Decisión al margen del Sistema de Información. Ello acarrea una sere de inconvenientes para la organización por redundancia, falta de homogeneización, pérdida de la información generada durante y después del proceso de decisión y además estos sistemas no cuentan con mecanismos evolutivos que permitean su adecuada adaptación a los cambios del entorno. Por ello se ha desarrollado un modelo conceptual sistémico que permite compartir información entre estos dos tipos de sistema. Este modelo posibilita por un lado la representación del conocimiento manejado en el proceso de toma de decisión, y por otro permite la adaptabilidad de dicha información cuando cualquiera de los dos tipos de sistemas evolucionen, sirviendo como soporte a la propagación de los cambios estructurales de dichos sistemas. En el trabajo se realiza una revisión de la concepciones y desarrollo de los sistemas de información y los sistemas de ayuda a la decisión. Se analiza y comparan diversos formalismos para la representación del conocimiento intercambiado entre los sistemas organizacionales indicados y de los formalismos más adeucados para la obtención de esquemas conceptuales de la información integrada. Se propone a este respecto la utilización de unas ontologías especiales basadas en el modelo orientado a objetos, que homogeneizan los modelos de datos de las fuentes y la semántica de los mismos. En el modelo, a través de éstas ontologías se obtiene una caracterización explícita de la semántica de los dominios de información propios de cada decisión, estableciéndose a la par un vocabulario compartido que puede ser utilizado como lenguaje para intercambiar conocimiento entre los distintos departamentos o secciones de la organización. Se facilita el seguimiento y propagación del cambio, basándose en los mecanismos semánticos y evolutivos del modelo (las denominadas acciones evolutivas, restricciones, metarestricciones). Además, el modelo a través de las diferentes interfaces gráficas, asiste al desarrollador durante el proceso de creación y modificación de las ontologías del dominio de aplicación. En la representación formal del Modelo de Integración Evolutivo IS-DSS, se ha utilizado la Teoría de grafos para la formalización de las estructuras conceptuales de las ontologías utilizadas. Con el objetivo de demostrar la viabilidad y funcionalidad de la aplicación, se ha construido un prototipo de algunas de las interfaces de la herramienta basada en el modelo de integración evolutivo.
  • NUEVO PROCEDIMIENTO GEOMÉTRICO DE SEPARACIÓN CIEGA DE FUENTES BASADO EN EL PARTICIONAMIENTO DEL ESPACIO DE OBSERVACIONES .
    Autor: RODRÍGUEZ ÁLVAREZ MANUEL.
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: En muchas aplicaciones de tratamiento y transmisión de señal, las señales captadas en los receptores puden ser mezclas de señales procedentes de varias fuentes. Dichas fuentes emiten las señales, que se transmiten a través de un medio material, el cual puede alterarlas, interfiriendo entre ellas o añadiéndoles ruido. El problema de la Separación Ciega de Fuentes (Blind Sources Separation - BSS) consiste en tratar de reconstruir las señales originales (So1, …, Sop) partiendo de las señales mezcladas (e1,..,ep) sin saber ni la naturaleza de las señales originales ni cómo se han mezclado o interferido entre ellas. A priori, el número de fuentes de señal, no tiene porqué coincidir con el número de observaciones. La mezcla de señales tiene lugar en el medio en que se propagan y en los sensores. El problema de separación ciega de fuentes fue enunciado por primera vez en 1985 por los profesores Hérault, Jutten y Ans del Laboratorio de Tratamiento de Imágenes y Reconocimiento de Formas del Instituto Nacional Politécnico de Grenoble (Francia), y desde que fuera planteado el problema, éste ha suscitado el interés de muy diversos investigadores en el campo del tratamiento de señales. El concepto de la separación ciega de fuentes ha abierto un capítulo de gran relevancia en la Teoría de Señales, con aplicaciones en una gran diversidad de campos (radiocomunicaciones, procesamiento de voz y de imágenes, biomedicina, sensores inteligentes, etc.). Se han desarrollado diferentes técnicas para intentar resolver este problema, con mayor o menor éxito. Dado que la mezcla de señales tiene lugar o bien en el medio en que se propagan, o bien en los sensores que captan las señales, se han realizado diferentes modelados del problema para poder abordar su resolución. En casi todas ellas, para representar la influencia que el medio material o canal de transmisión realiza sobre las señales, se hace uso de algún modelo del mismo. Un modelado muy típico, consiste en sustituir dicha influencia por una matriz de dimensión p*p, denominada Matriz de Mezcla. Este modelado lleva implícito el hecho de que el número de fuentes de señal sea igual que el de observaciones, no siendo así en algunos casos, dado que se podría plantear el problema tener más fuentes de señal que observaciones (si p es el número de fuentes de señal y q el número de observaciones, sería p < q), en cuyo caso el problema sería irresoluble, si bien hay autores que utilizan métodos geométricos para resolver este caso, denominado overcomplete (sobrecompleto) en la bibliografía sobre separación de fuentes. Otro modelado es el de una Mezcla Lineal Instantántea en el cual considera que tanto el medio material como los sensores tienen un comportamiento de respuesta o función de transferencia lineal, en la que los valores de mezcla de las observaciones dependen de los valores de las fuentes originales en ese mismo instante de tiempo y no en instantes de tiempos anteriores (lo cual daría lugar a una mezcla llamada convolutiva). En las presente Tesis se propone un nuevo algoritmo basado en la participación del espacio de observaciones de las mezclas que facilita la determinación de los ejes ICA, a partir de los que se puede determinar la matriz de mezcla.
  • SISTEMA SOPORTE PARA LA CLASIFICACIÓN DE DOCUMENTOS DE TEXTO UTILIZANDO RAZONAMIENTO BASADO EN CASOS .
    Autor: VILLAR FLECHA JOSÉ RAMÓN.
    Año: 2002.
    Universidad: LEON.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: ESCUELA DE INGENIERÍAS.
    Resumen: Este trabajo está embebido en el proyecto de investigación LEO38/UA, subvencionado por la Junta de Castilla y León, y realizado en colaboración con la empresa Fundación Hullera Vasco Leonesa. El proyecto supone implementar con arquitectura multiangente el sistema documental de la empresa. Se abordó el diseño de este proyecto utilizando Ingeniería del Conocimiento, con el fin de no variar la forma de trabajar de la empresa substancialmente. En la clasificación de textos se optó por un conjunto de métodos de clasificación en paralelo, el primero de ellos utilizando extracción de información. El segundo método, objeto del presente trabajo, es un clasificador que utiliza como inferencia el Razonamiento Basado en Casos. La hipótesis que se realiza es este clasificador permitirá disponer de un clasificador de bajo conste de entrenamiento, que representará la experiencia del usuario clasificador, permitirá resolver problemas de rutina en el trabajo a éstos. En este trabajo se realiza un estudio del estado del arte de diversos aspectos que influyen en el diseño de sistemas de clasificación de información, a saber, representación de documentos, recuperación de información, y clasificación de textos. Además, revisa la situación del modelo de razonamiento utilizado y la tecnología de sistemas de agentes.
  • MODELADO DE SISTEMAS MULTI-AGENTE .
    Autor: GÓMEZ SANZ JORGE J..
    Año: 2002.
    Universidad: COMPLUTENSE DE MADRID .
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: El desarrollo de Sistemas Multi-Agente (SMA) plantea nuevas cuestiones respecto a los procesos de ingeniería de software existentes al integrar conceptos procedentes del campo de la inteligencia artificial distribuida, como la autonomía y el modelado del estado mental de los agentes, la organización e interaciones de los agentes, o la definición de los objetivos que persiguen y las tareas que realizan los agentes dentro del SMA. El objetivo de esta tesis es definir una metodología para el desarrollo de SMA que integre resultados de investigación del área de tecnología de agentes con un proceso de desarrollo de software bien establecido, en nuestro caso el Rational Unified Process (RUP). Esta metodología parte de la definición de un conjunto de meta-modelos que definen los elementos que constituyen un SMA desde distintos puntos de vista, y que permiten construir un lenguaje para especificación de Sma. Así, la especificación del SMA se estructura en cinco aspectos: la definición, control y gestión del estado mental de cada agente, las interacciones entre los agentes, la organización del SMA, el entorno en el que están situados los agentes, y las tareas y objetivos asignados a cada agente. La integración del lenguaje de especificación de SMA en las prácticas de ingeniería se consigue definiendo un conjunto de actividades que guían al ingeniero durante las fases de análisis y diseño indicando qué resultados hay que producir. Este proceso está soportado por un conjunto de herramientas generadas a partir de la especificación de los meta-modelos con una herramienta de meta-modelado (MetaEdit+). Para facilitar el modelado de SMA se proporciona un entorno gráfico para la creación de especificaciones de SMAs y su validación automática (de acuerdo a las restricciones impuestas por los meta-modelos). Como complemento a esta herramienta, se ha definido un proceso genérico mediante el cual se parametrizan e instancian armazones software de SMA a partir de las especificaciones del SMA concreto. La aplicabilidad de este lenguaje, las herramientas de soporte y su integración en los procesos de ingeniería han sido probadas en varios casos de estudio en diferentes dominio, como gestión del PC, compra/venta de acciones en bolsa, o un instante para un procesador de texto, destacando una aplicación a un sistema real de filtrado colaborativo de información.
  • AREA DE PROFUNDIZACIÓN EN FARMACOECONOMIA .
    Autor: DOMÍNGUEZ CASTRO ANA.
    Año: 2002.
    Universidad: COMPLUTENSE DE MADRID.
    Centro de lectura: FARMACIA.
    Centro de realización: ESCUELA NACIONAL DE SANIDAD.
    Resumen: OBJETIVOS Establecer un Área de Profundización en Farmacoeconomía con los recursos más importantes sobre este tema disponibles en Internet y un sistema validado con criterios explícitos de evaluación de la calidad de los web de centros y organizaciones sobre temas farmacoeconómicos de los países de la Unión Europea, Estados Unidos y Canadá, incluidos en el área de profundización. METODOLOGÍA Estudio descriptivo el ámbito del mismo los 24 países dela OECD y dentro de estos principalmente de la Unión Europea, Estados Unidos y Canadá, desde el año 1990 en el que se identificaron instituciones y centros relacionados con farmacoeconomía y economía de la salud, a través de Internet mediante de los distintos tipos de buscadores. Se diseño y valido de un cuestionario de calidad de la información contenida en Internet. Se llevo a cabo la evaluación de la calidad de los centros de farmacoeconomía y economía de la salud en internet. RESULTADOS Mediante el establecimiento del área de profundización en farmacoeconomía se ha identificado información de 31 centros de farmacoeconomía y economía de salud, 17 revistas, 28 libros, 21 bases de datos de medicamentos, 15 boletines de temas farmacoeconómicos, además de la inclusión de artículos, boletines bimensuales y noticias de salud y se ha publicado un web en internet con la dirección: http://www.isciii/ens-farmaeconomía. Únicamente para tres items la Q de Cochram no figura como estadísticamente significativa. El coeficiente fiabilidad obtenido en el cuestionario fue de 0,90 y el valor obtenido en la correlación de Pearson fue de 0,812. Los centros considerados mejores de acuerdo a valoración a través del cuestionario fueron el instituto Leonard Davis de la universidad de Pensilvania y el Centros de Economía de la Salud de la universidad de York. DISCUSIÓN Los criterios empleados en la evaluación son similares a los de otros sistemas de evaluación y los resultados del estudio coincidentes con otros estudios de similares características. CONCLUSIONES Es necesario un sistema validado, con criterios explícitos, para evaluar la calidad de la información en internet. Los criterios más frecuentemente utilizados en la evaluación de la calidad de páginas web sanitarias son: credibilidad, contenido, descripción, vínculos, diseño, interactividad y salvaguarda. PALABRAS CLAVE Farmaeconomía, economía de la salud, internet, calidad.
  • SISTEMA DE APOYO A LA EXPLOTACIÓN OPERACIONAL DE PESQUERÍAS BASADO EN TÉCNICAS DE INTELIGENCIA ARTIFICIAL Y TELEDETECCIÓN .
    Autor: IGLESIAS NUÑO ALFONSO.
    Año: 2002.
    Universidad: SANTIAGO DE COMPOSTELA.
    Centro de lectura: FÍSICA.
    Centro de realización: FACULTAD DE FÍSICA.
    Resumen: El sector pesquero gallego se ha visto amenazado recientemente por diversos acontecimientos tales como desastres ecológicos, políticas de cuotas, paros biológicos y ampliación de las zonas económicas exclusivas de los países ribereños. Además, acuerdos comerciales con otros países introducen en el mercado pescado de otros países a precios muy bajos. Para mantener la competitividad de la flota gallega, pensamos que es necesario disponer de la tecnología más avanzada y de la mayor cantidad de información posible. En este ámbito de aplicación, los nuevos sensores remotos son unas herramientas privilegiadas si los utilizamos como fuentes de información de las condiciones biológicas del entorno pesquero. En el trabajo que aquí presentamos, aplicamos sistemas conexionistas para la predicción y optimización de los recursos disponibles, empleando para ello datos de campo procedentes de barcos colaboradores y de teledetección. El objetivo final del sistema es reducir los tiempos de búsqueda de pesquerías, con el consiguiente ahorro de combustible que ello conlleva, y aumentando dentro de las posibilidades legales el volumen de capturas. Las razones económicas no son las únicas que nos motivan a realizar este trabajo, el lanzamiento de nuevos satélites (Orbview-2) con su consiguiente tratamiento digital de la información así como los nuevos paradigmas neuronales y neuro-difusos aquí empleados, son nuevos retos que pretendemos abordar desde un punto de vista práctico. En una primera fase se realiza el procesado de la información correspondiente a: temperatura superficial del mar, concentración de clorofila-A y anomalía altimétrica. Con el objetivo de detectar gradientes térmicos susceptibles de agrupar cardúmenes de especies con interés económico, se han implementado con éxito dos filtros pasa-alta (DoG y Cluster-Snade). Por tanto, a partir de las imágenes de dos años completos (98 y 99) y de los ya comentados datos de campo, se ha generado un amplio sistema de información que incluye una base de datos relacional formada por parámetros medioambientales, coordenadas geográficas y capturas. En un estudio previo de los datos disponibles realizando mediante las Redes de Kohonen y el Análisis de Componentes Principales se ha comprobado que las variables anomalía térmica y frentes térmicos contienen información redundante. Se ha elegido la variable anomalía térmica en detrimento de los frentes térmicos por disponer de un mayor número de patrones. Empleando el sistema de información antes mencionado, hemos diseñado nuestro sistema de apoyo a la toma de decisiones. Nuestro problema se caracteriza por la falta de modelos globales y locales, la inexistencia de una base de conocimiento y por unas variables poco interrelacionadas (si excluimos las anomalías y frentes térmicos). Debido a estas razones, nos hemos decantado por algoritmos propios de la tendencia conexionista dentro del campo de la Inteligencia Artifical. El conjunto de entrenamiento resultante se ha empleado en el proceso de aprendizaje del nuevo paradigma neuronal aparecido recientemente, las Redes Funcionales (modelo separabilidad). Además, hemos empleado para realizar una comparativa el novedoso sistema híbrido neuro-difuso ANFIS, así como las clásicas redes neuronales Backpropagation y RBF. En las diferentes pruebas realizadas con las redes funcionales y el ANFIs, se han observado varios casos de sobreentrenamiento. Los mejores resultados se corresponden a las redes neuronales clásicas y a sistemas híbridos ANFIS sencillos. Hemos conseguido diseñar, por tanto, varias herramientas capaces de predecir cuáles son las zonas óptimas de pesca en función de la información aportada por diferentes satélites. Los resultados obtenidos han sido validados empleando patrones distintos de los usados en el entrenamiento.
  • UN MODELO ARQUITECTÓNICO EVOLUTIVO PARA SISTEMAS SOFTWARE BASADOS EN AGENTES .
    Autor: PADEREWSKI RODRÍGUEZ PATRICIA.
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: E.T.S. DE INGENIERÍA INFORMÁTICA.
    Resumen: Desde hace años, la complejidad de los sistemas que necesitamos modelar ha crecido bastante, la aparición de Internet, la distribución de los distintos recursos tanto hardware como software dentro de las empresas, los continuos cambios en la tecnología, la necesidad de reutilziar sistemas antiguos y muchas otras causas, amplifican la complejidad del desarrollo de los sistemas software actuales. Por otro lado, se pretende crear sistemas software con calidad. Esta calidad se consigue gracias a la utilización de un proceso de desarrollo natural, flexible y evolutivo. Debemos desarrollar sistemas que sean capaces de adaptarse a los cambios que puedan sufrir mientras está en funcionamiento, siempre preservando su integridad y consistencia. Para ello se deben proporcionar a los equipos de desarrollo de software modelos y herramientas adecuados que permitan construir los sistemas software de una forma gradual, de forma que puedan ser modificados en cualquier momento, según las necesidades de sus usuarios. En esta tesis se define de forma general un modelo arquitectónico para el desarrollo de sistemas software basados en agentes. Se describen cada uno de los elementos que componen la estructura de un sistema software así como su funcionamiento y, como resultado destacable obtenemos un modelo de comunicación y coordinación entre agentes, que, una vez generalizado, da lugar a un nuevo patrón de diseño que llamamos PDN (Precondition Dynamic Notifier). En la estructura de un sistema software se incorporan las transacciones y los mecanismos necesarios para su gestión. Además se aborda la problemática asociada al concepto de transación. Un aspecto destacable, que constituye uno de los principales objetivos, es que se introduce el proceso de evolución dentro del modelo, de forma que se desarrollen sistemas software que sean capaces de adaptarse, de modificarse de acuerdo a nuevos requisitos del usuario o a cambios en el entorno. Para ello, se utiliza un sistema especial que llamamos Metasistema. El Metasistema es un sistema software responsable de comprobar que las modificaciones que de desea realizar el equipo de desarrollo sobre un determinado sistema software no viola los invariantes de éste. Es decir, un sistema software siempre tiene que quedar en un estado íntegro, consistente después de cualquier modificación. Por ello, se describe detalladamente el conjunto de acciones estructurales o de evolución realizadas por el Metasistema y la lista de los invariantes que deben cumplirse en un sistema software. Así mismo, se presenta un prototipo que permite desarrollar sistemas y ejecutarlos y un lenguaje de descripción de sistemas
  • UNA APROXIMACIÓN EFICIENTE A LA BÚSQUEDA DE VECINOS EN ESPACIOS MULTIDIMENSIONALES A TRAVÉS DEL ARBOL Q .
    Autor: JURADO MALAGA ELENA.
    Año: 2002.
    Universidad: EXTREMADURA.
    Centro de lectura: ESCUELA POLITÉCNICA SUPERIOR.
    Centro de realización: ESCUELA POLITÉCNICA.
    Resumen: Esta Tesis se ha desarrollado en el ámbito de las bases de datos. Su principal aportación es el diseño de un nuevo algoritmo de búsqueda por similitud, que aprovecha al máximo las características del particionamiento del espacio de datos inducido por el árbol Q, un método de acceso multidimensional. La resolución de este problema nos permite ahondar en las ventajas del árbol Q, descubriendo en él nuevas perspectivas no contempladas en el diseño inicial de la estructura, entre otras, su aplicación a problemas típicamente planteados en la base de datos multimedia. El algoritmo permite acelerar los procesos de búsqueda por contenido en imágenes o documentos.
  • LENGUAJES E INTERFACES DE ALTO NIVEL PARA DATA MINING CON APLICACIÓN PRÁCTICA EN ENTORNOS FINANCIEROS .
    Autor: CARRASCO GONZÁLEZ RAMÓN ALBERTO.
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: INFORMÁTICA .
    Centro de realización: UNIVERSIDAD DE GRANADA.
    Resumen: Las bases de datos del mundo real además de contener una cantidad ingente de información, frecuentemente son incompletas y tienen una mala calidad de datos. Por otro lado, muchas veces es innecesario obtener resultados (reglas, agrupaciones, etc.) con un alto grado de precisión ya que tanto las especificaciones del usuario, como los mismos datos, son imprecisos en sí. Por esta razón, en esta memoria se proponen técnicas de Soft Computing que combinan la versatilidad de la Lógica Difusa para representar y gestionar los datos imprecisos con otras técnicas como las Redes Neuronales Artificiales para resolver el problema de Data Mining (DM) de forma efectiva. El objetivo de esta memoria es construir un sistema, que esté soportado en un modelo teórico, e implementarlo sobre un SGBD real de tal manera que sea posible la resolución de los problemas que se pueden considerar entran dentro del ámbito de DM. Se hace especial hincapié en la resolución de problemas propios del sector financiero. Se puede describir el contenido de esta memoria explicando brevemente los contenidos de los capítulos: CAPÍTULO 1 Se introduce la motivación y planteamiento del problema, los objetivos y la estructura de esta memoria. CAPÍTULO 2 Se da una visión global de DM como un conjunto de técnicas orientadas a obtener un conocimiento implícito que sea de interés a partir de los datos existentes en la base de datos, explicándose las principales técnicas existentes. Posteriormente se da una visión práctica de DM, con especial referencia al sector financiero detallando software comercial aplicado al efecto. CAPÍTULO 3 Se hace una introducción a las bases de datos relacionales y a la teoría de Conjuntos Difusos, fijando las bases y notación sobre la que va a estar soportada una parte de esta memoria. Luego se incluyen los principales modelos publicados para dar solución al tratamiento de la información "imprecisa" en base de datos relacionales, especialmente aquéllos que utilizan la teoría de Conjuntos Difusos. En particular, se centra en el modelo GEFRED, sobre el que se basa este trabajo. También se incluye un modelo de implantación práctica de GEFRED, llamado FIRST. El interface que usa para el acceso de forma flexible a los datos es el lenguaje FSQL. Sobre este modelo práctico se ha construido una arquitectura cliente-servidor de FSQL implementada sobre Oracle®. Por último, se hace una comparativa entre GEFRED y su implementación FIRST. CAPÍTULO 4 Al confrontar un modelo que entra dentro del ámbito del "Soft Compunting" como es GEFRED, con los problemas de DM, surge el problema de que el modelo no es lo suficientemente flexible respecto a la variedad de datos que puede tratar. Por tanto, se procede a la redefinición teórica del modelo, surgiendo, lo que se ha venido en llamar GEFRED* que salva las limitaciones expuestas. Posteriormente, se trasladan los cambios que conlleva GEFRED* a su implementación que pasa a llamarse FIRST*. La implementación práctica que se ha llevado a cabo de este nuevo modelo se expone en este capítulo. Seguidamente se hace una comparativa de todos los modelos surgidos, hasta ahora en el desarrollo de esta memoria, pudiéndose verificar la bondad del modelo aquí propuesto. Finalmente se introducen algunos ejemplos de definiciones y usos de nuevos tipos de datos dentro del ámbito de FIRST*. CAPÍTULO 5 Una vez solucionado el problema de gestionar la información, cualquiera que sea su forma se ha ce un estudio de la posible utilidad de FIRST* en el marco de las distintas técnicas de DM, a saber: clustering, caracterización, clasificación difusa y de unas nuevas dependencias difusas entre atributos, aquí definidas, llamadas dependencias globales difusas. Para la resolución de todas estas técnicas se proponen soluciones novedosas. Basándose en dichas soluciones, se amplia el modelo FIRST* para que integre u optimice dichas funcionalidades propias de DM, creándose un nuevo modelo, que se va a venir en llamar, dmFIRST. Para este nuevo modelo se define un nuevo lenguaje de alto nivel, para la realización de DM, llamado dmFSQL. Dicho lenguaje aprovecha todo el potencial que da el usar los distintos tipos difusos del esquema, por lo que no tiene limitación alguna sobre los tipos de datos sobre los que pueda realizar DM. Su sintaxis es similar a la de FSQL y además tiene una propiedad importantísima: permite el aplicar resultados previso en el proceso actual de DM. CAPÍTULOS 6 Se expone una solución de arquitectura cliente-servidor para dmFSQL, con dos ejes fundamentales desarrollados, la dmFMB y el Servidor dmFSQL. A continuación, se expone la implementación hecha del Servidor dmFSQL, que ha sido desarrollado siguiendo estrictamente una metodología que entra dentro del ámbito del a Ingeniería de Software. De esta forma, el resultado final del producto no solo han sido los códigos fuente y objeto, sino también un modelo de datos y otro de procesos. La implementanción finalmente se ha hecho en PL/SQL© de Oracle©. Finalmente, se propone el uso del servidos dmFSQL, ya implementado, en primer lugar, para crear un sistema de decisión de compra-venta de acciones dentro del ámbito del análisis técnico bursátil y, en segundo lugar, para un estudio aplicado a la economía social de Andalucía.
  • EVOLUCION DEL CONCEPTO DE CONOCIMIENTO DESDE LA PIRAMIDE INFORMACIONAL. PROPUESTA DE SERVICIO DE GESTION DEL CONONOCIMIENTO CIENTIFICO PARA INSTITUCIONES DE EDUCACION SUPERIOR .
    Autor: MOROS RAMIREZ ANGEL ELIO.
    Año: 2002.
    Universidad: CARLOS III DE MADRID.
    Centro de lectura: F. DE HUMANIDADES,COMUNICACION Y DOCUMENTACION.
    Centro de realización: UNIVERSIDAD CARLOS III DE MADRID .
    Resumen: El "Servicio de Gestión de Conocimiento Científico para las Instituciones de Educación Superior (SGCC-IES)", pretende ser una plataforma que organice y reúna toda la producción de conocimiento científico de profesores e investigadores de cualquier instituto de educación superior, que incluya servicios de e-books, revistas, tesis, tesinas y Proyectos de fin de carrera, en versión electrónica, entre otros tipos de materiales que contribuya a la consolidación del proceso social para crear conocimiento del conocimiento, en este sentido se propone utilizar una plataforma de consulta con el fin de proveer facilidades para su acceso. Es una estrategia basada prioritariamente en tres fases (datos, información y conocimiento) representada por la pirámide informacional, y la estimulación del uso de las TIC, como modelo de regulación flexible, incorporando el concepto de Servicios de Información Universal dentro del contexto de la Sociedad del Conocimiento. En este ámbito, es necesario construir una visión propia de lo que se puede esperar de estas tecnologías, definir las condiciones más idóneas para insertarse en estos procesos y avanzar en el debate en torno a las implicaciones sociales y económicas de este nuevo paradigma sobre el futuro del desarrollo en los servicios de información.
245 tesis en 13 páginas: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia