Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > FISICA > OPTICA >

TRATAMIENTO DIGITAL DE IMAGENES



101 tesis en 6 páginas: 1 | 2 | 3 | 4 | 5 | 6
  • Animación Comportamental de Personajes Inteligentes 3D basada en miniMin-HSP (Heuristic Search Planning) .
    Autor: Lozano Ibáñez Miguel.
    Año: 2004.
    Universidad: VALENCIA.
    Centro de lectura: Salón de Grados de Facultad de Farmacia.
    Centro de realización: ETSE (Escuela Técnica Superior de Ingenierías).
    Resumen: El marco de trabajo de la presente tesis reside en el problema de animación comportamental asociado a personajes 3D autónomos, embebidos en entornos virtuales 3D de naturaleza dinámica. La autonomía de este tipo de criaturas virtuales,de cara a proporcionar comportamientos realistas, ha sido modelada mediante la integración de técnicas de planificación basadas en búsqueda heurística (capítulo 5, miniMin-HSP), para las cuales se ha definido el marco de simulación 3D adecuado (capítulo 4), con lo que finalmente conseguimos una arquitectura orientada al control de personajes 3D, independientemente de laaplicación o EV3D. El punto central del sistema miniMin-HSP diseñado apunta a la habilidad de planificar y reaccionar en entornos dinámicos 3D, considerado como un punto central de todo comportamiento inteligente. Para ello, el sistema deberá garantizar unaplanificación eficiente de las acciones del personaje, además de una ejecución/animación robusta. Así conseguimos modelar la toma de decisiones del personaje, considerado como el principal proceso cognitivo de este tipo de agentes 3D, y animar el comportamiento resultante.
  • DETECCION DE RASGOS EN IMAGENES CON RUIDO. UNA APROXIMACION CON FUNCIONES LISA EN PROCESOS PUNTUALES ESPACIALES .
    Autor: LORENZO VALENTIN GIL.
    Año: 2004.
    Universidad: JAUME I DE CASTELLON.
    Centro de lectura: E.T.S. DE TECNOLOGIA Y CIENCIAS EXPERIMENTALES.
    Centro de realización: E.T.S. DE TECNOLOGIA Y CIENCIAS EXPERIMENTALES.
    Resumen: En esta tesis doctoral se retoma un problema de interés real, como es la detección de agrupaciones de puntos -que denominamos rasgos- en imágenes digitalizadas, que se encuentran en compañía de otros puntos que no son de interés, a estos los denominamos ruido. Se pretende separar y clasificar. Las últimas aportaciones hechas en este campo, se dirigen a considerar ausencia de modelo de probabilidad que originó la distribución espacial de los puntos en la imagen, utilizándose distancias al k-ésimo vecino más cercano, haciendo variar el valor de k y utilizando el algoritmo EM. Otros trabajos, que sirven como punto departida, definen funciones locales que recogen características de segundo orden alrededor de cada individuo. Uniendo estas dos ideas, ¿por qué no aplicar y calcular vectores de funciones LISA asociadas a cada individuo, que recojan características de segundo orden, por tanto de agregación del patrón puntual, y clasificar funciones en rasgo y ruido, que al hacer corresponder con los puntos originales éstos queden clasificados?. Esta es la motivación de la tesis doctoral y el desarrollo es el proceso que se ha seguido hasta obtener resultados satisfactorios. En particular, la tesis comienza con un capitulo sobre los conceptos básicos en procesos puntuales espaciales. Continua presentando las técnicas hasta ahora utilizadas para posteriormente desarrollar la metodología necesaria sobre funciones LISA individuales de segundo orden. Se presentan dos capítulos, basados en estudios de simulación y casos reales, en los que se analizan los métodos multivariantes de escalamiento multidimensional y cluster, así como distintos tipos de distancias entre funciones LISA.
  • DETECCION DE ANOMALIAS EN EL DESARROLLO DEL MAIZ EN UN REGADIO MEDITERRANEO A PARTIR DE SU COMPORTAMIENTO ESPECTRAL .
    Autor: ANANE MAKRAM B NOUREDDINE.
    Año: 2003.
    Universidad: LLEIDA.
    Centro de lectura: ESCUELA TECNICA SUPERIOR DE INGENIERIA AGRARIA.
    Centro de realización: CENTRO DE INVESTIGACION Y TECNOLOGIA AGROALIMENTARIA DE ARAGON.
    Resumen: Para el control y la gestión del regadío, la conservación del medio y la sostenibilidad de los sistemas agrarios se precisa información exhaustiva y multidisciplinaria del territorio. La teledetección y los Sistemas de Información Geográfica (SIG) permiten tener esta información de forma periódica y actualizada, así como manejarla a tiempo real. Además, la teledetección es una herramienta eficaz para la localización y caracterización de los cultivos, ofreciendo un recubrimiento espacial de todo el territorio. Sin embargo, faltan métodos y procedimientos que exploten las posibilidades de la teledetección y los SIG en la detección, seguimiento y control de áreas con desarrollo anormal del cultivo. Localizar estas zonas permitirá actuar directamente sobre ellas ajustando el suministro de insumos y ofreciendo una mayor protección del medio y un mayor margen neto. En esta línea se enmarca la presente Tesis cuyos objetivos son determinar la posibilidad de detectar y cartografiar anomalías de desarrollo en parcelas de maíz a partir de variaciones en su comportamiento espectral, y determinar la localización preferente del maíz en un regadío. El regadío de Flumen (Huesca) ha sido el área de estudio elegida. En este regadío mediterráneo existen problemas de salinidad-sodicidad del suelo que afectan al desarrollo de los cultivos. Las imágenes Landsat TM disponibles en el Centro de Investigación y Tecnología Agroalimentaria de Aragón correspondientes a primavera y verano del periodo 1996-1999 han permitido analizar el comportamiento espectral de los principales cultivos del regadío, maíz, girasol, arroz, trigo, cebada y alfalfa, y seleccionar al maíz como cultivo en el que detectar espectralmente problemas de desarrollo. Para ello, se ha establecido una metodología sencilla basada en el NDVI que detecta los diferentes estados de vigor y desarrollo vegetativo que presentan las parcelas de maíz del regadío. Además, dicha metodología permite identificar las parcelas que presentan problemas de desarrollo y las que no, así como localizar y estimar la superficie de maíz con anomalía en el desarrollo dentro de cada parcela. Cinco de las treinta y cuatro parcelas analizadas presentan problemas en el desarrollo. En estas cinco parcelas la superficie anómala varía entre el 23% y el 100% de la superficie total de la parcela. La metodología desarrollada se ha utilizado para determinar la localización preferente del maíz en el regadío. Ello requiere conocer con exactitud la localización anual del maíz, por lo que se han ensayado para 1999 distintas clasificaciones supervisadas multitemporales en las que se ha variado el número y fecha de las imágenes Landsat utilizadas. Las mayores exactitudes se han obtenido con cinco imágenes (marzo-abril-junio-julio-agosto), si bien esta combinación no presenta diferencias apreciables en exactitud con las combinaciones de cuatro imágenes, combinaciones que suponen un ahorro considerable tanto en precio de imágenes como en tiempo de tratamiento invertido. Los mapas de maíz de 1996 a 1999 han permitido establecer, en función de la permanencia del cultivo a lo largo de estos años y del vigor vegetativo que presenta el maíz, las zonas preferentes para la implantación del cultivo. El 32% de toda la superficie con maíz en 1996-1999 presenta preferencia alta y muy alta, el 50% preferencia media y el 18% restante preferencia baja y muy baja, existiendo una cierta relación entre preferencia y aptitud del suelo para el cultivo de maíz. Este trabajo deja constancia de la utilidad de las imágenes Landsat TM para detectar y cartografiar en Flumen anomalías de desarrollo en parcelas de maíz y determinar la localización preferente del cultivo. La metodología presentada es extensible a otros regadíos y cultivos de características similares a los aquí estudiados.
  • PROCESAMIENTO DE IMÁGENES MEDIANTE REDES NEURONALES ARTIFICIALES .
    Autor: FERNÁNDEZ MUÑOZ JUAN ALVARO.
    Año: 2003.
    Universidad: EXTREMADURA.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: ESCUELA DE INGENIERIAS INDUSTRIALES.
    Resumen: En la presente Tesis, se definen estructuras neuronales específicas para la realización del procesado de imágenes. Se adoptaron los algoritmos clásicos de tratamiento de imágenes a las estructuras neuronales aumentando el rendimiento del proceso mediante la utilización de estructuras multicapa y el ajuste adaptivo de los parámetros de las funciones de salida neuronal. Se ha difundido,a sí mismo una estructura neuronal que es capaz de realizar la transformada de Focurier, a partir de la de Hartley, en dos dimensiones, facilitando la realización de un procesado en el dominio de la frecuencia.
  • HASH METHODS IN NATURAL IMAGE STATISTICS AND COMPRESSION .
    Autor: KOROUTCHEV KOSTADIN.
    Año: 2003.
    Universidad: AUTONOMA DE MADRID.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR.
    Centro de realización: ESCUELA POLITÉCNICA SUPERIOR.
    Resumen: La tesis trata del uso de la función hash aproximada aplicada en dos áreas: Por un lado compresión fractal y codebook y por otro estadística de imágenes naturales. La primera parte de la tesis trata la compresión fractal y codebook. Estas compresiones también sirven para comprobar la existencia de la función hash en norma L_sup. La existencia de la función hash aplicable a datos multi-dimensionales, que preserve la vecindad, está lejos de ser trivial y la existencia de la misma se debe a la estadística específica de los bloques de las imágenes naturales. La aceleración que proporcione el hash es de unas 5 veces superior que los mejores métodos de compresión fractal conocidos. La segunda parte de la tesis utiliza el método de aceleración, desarrollado en la primera parte, para hacer estadística de 4x4 bloques de la base de imágenes naturales de van Hatearen. El resultado es que las partes del código fractal son muy independientes estadísticamente, con distribución trivial del brillo y el perfiel de los bloques. La mayor parte de la información está contenida en el contraste, que puede servir como comprobación estadística de la hipótesis de Marr del año 1981. A partir de la evidencia empírica, se deriva una formula explícita para la probabilidad del bloque. Otro resultado consiste en la evidencia de que no existe algoritmo que pueda hacer este tipo de estadística con la misma precisión (30dB) con mayor tamaño de los bloques.
  • DESARROLLO DE UN MÉTODO DIGITAL PARA LA MEDICIÓN Y PREDICCIÓN DE TAMAÑOS DENTARIOS: APLICACIONES PARA DETERMINAR ALTERACIONES EN EL ÍNDICE DE BOLTON .
    Autor: PAREDES GALLARDO VANESSA .
    Año: 2003.
    Universidad: VALENCIA.
    Centro de lectura: MEDICINA.
    Centro de realización: UNIVERSIDAD COMPLUTENSE MADRID.
    Resumen: Debido a que la predicción de tamaños dentarios en dentición mixta es un objetivo en la Ortodoncia, la presente Tesis Doctoral consiste en la puesta a punto de un Método Digital para la medición de tamaños, así como su comparación con el Método Tradicional. El Método Digital permite, una vez las imágenes han sido digitalizadas, la toma de medidas directas: tamaños mesiodistales, anchura bicanina, bimolar y longitud de arcada, así como medidas indirectas: el índice de Bolton, discrepancia oseodentaria, diferencia en la anchura bicanina, en la bimolar y longitud de arcada, sí como medidas indirectas: el índice de Bolton, discrepancia oseodentaria, diferencia en la anchura bicanina, en la bimolar, en la longitud de arcada, el cociente de la arcada dentaria y las asimetrias de los dientes contralaterales. Igualmente, este procedimiento nos permite realizar la predicción de los tamaños de los dientes no erupcionados mediante unas listas de anchuras medias y dientes de referencia introducidos en el Programa. La muestra seleccionada fue de 100 pares de modelos en detección, permanente, 70 correspondian a hobmres y 30 a mujres. La mayor parte de ellos, no habian recibido ningún tratamiento de Ortodoncia. Los resultados para ambos métodos fueron muy similares entre sí, salvo unas diferencias de tres décimas de milímetro para la anchura biomolar y para la longitud de arcada. Para la predicción de tamaños dentarios, la combinación del incisivo central superior y del primer molar inferior fue, de todos los dientes de referencia, la que obtuvo los mejores resultados, con un elevado porcentaje de predicciones buenas y un bajo número de predicciones aceptables o regulares. Las conclusiones de nuestro trabajo muestran como el Método Digital introducido permite la medición de todas las medidas directas e indirectas con exactitud, sensibilidad, sencillez, rapidez y de manera automática. Asimismo, el éxito de la predicción de este método fue, para la totalidad de la arcada dentaria superior del 76% y del 83% para la inferior.
  • RECONOCIMIENTO AUTOMÁTICO MEDIANTE PATRONES BIOMÉTRICOS DE HUELLA DACTILAR .
    Autor: SIMÓN ZORITA DANILO.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INGENIEROS DE TELECOMUNIACIÓN .
    Centro de realización: E.T.S.I.TELECOMUNICACIÓN-UPM.
    Resumen: Esta Tesis Doctoral trata el reconocimiento automático de personas a partir de sus patrones biométricos de huella dactilar. Los objetivos planteados en este trabajo de investigación abarcan: el estudio de la técnicas y sistemas de reconocimiento de huellas dactilares, el diseño de algoritmos de procesado para la mejora de la calidad de imagen y para la extracción de características, el diseño de algoritmos para el reconocimiento de patrones de minucias de huella dactilar y la implementación práctica de ellos en un sistema completo de verificación. La necesidad de evaluar el funcionamiento del sistema de reconocimiento obliga a la adquisición de bases de datos de huellas dactilares específicas, atendiendo al tipo de dispositivo utilizado durante la captura de las imágenes. Concretamente, en esta Tesis se han adquirido tres bases de datos utilizando dos tipos de captadores: un sensor de semiconductor y un senso óptico. La Tesis se divide en tres partes. En la primera parte, se expone el plan de desarrollo de la misma y se ha una revisión de conocimientos para reflejar y ubicar el ámbito de la investigación. La segunda parte constituye el núcelo de la Tesis. Se describen con detalle: el funcionamiento del sistema de reconocimiento de huellas dactilares implementando, las etapas de procesado necesarias para generar el patrón biométrico y la etapa de reconocimiento de patrones. La tercera parte de la Tesis se dedica a la presentación de los resultados obtenidos en la evaluación de los sistemas inicialmente propuestos y en la evaluación del sistema finalmente implementado. Se hace un análisis de los resultados obtenidos con el esquema de mejora de imagen y con el esquema completo de verificación. También se analiza la influencia que tienen algunos factores de variabilidad en el proceso de adquisición de las huellas, como son, la posición del dedo sobre la superficie del sensor y el nivel de calidad de las imágenes obtenidas. Los resultados se presentan en función de las bases de datos utilizadas: MCYT no supervisada y MCYT supervisada atendiendo a la calidad de imagen. Finalmente, en los dos últimos capítulos de la Tesis, se extraen las conclusiones y se plantean las líneas futuras de investigación derivadas del trabajo realizado.
  • RECONSTRUCCIÓN DE LA GEOMETRÍA TRIDIMENSIONAL DE UNA ESCENA A PARTIR DE MÚLTIPLES VISTAS.
    Autor: CUENCA HERNÁNDEZ CARMELO.
    Año: 2003.
    Universidad: LAS PALMAS DE GRAN CANARIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: Esta tesis trata sobre la reconstrucción de la geometría tridimensional de una escena a partir de múltiples vistas 2D. Para la reconstrucción, las entradas al sistema son un conjunto de imágenes 2D, de una escena real 3D, adquiridas con cámaras desde diferentes localizaciones. La salida de la reconstrucción es una descripción de la geometría 3D de los objetos de la escena. Proporcionamos dos tipos de descripciones dependiendo de la estructura de la escena: la primera, restringida a superficies con geometría cilíndrica, es una malla de triángulos en el espacio que constituye una descripción de las superficies de los objetos; mientras que, la segunda describe una escena mediante una nube no estructurada de puntos tridimensionales. El proceso de reconstrucción los estudiamos a través de las estapas que intervienen en él. La primera etapa consiste en determinar características de los objetos. Para ello, proponemos un detector de esquinas morfológico que permite la detección de esquinas. Las localizaciones de estas características constituyen la entrada a un segundo proceso. Proponemos técnicas que incluyen la utilización de patrones esféricos de calibración, y técnicas para solventar los inconvenientes cuando las disparidades son pequeñas. La descripción de la geometría intrínseca a cada par de cámaras consecutivos, obtenidas en la etapa anterior, nos permite plantear una parametrización que integra, en una técnica mixta, esquemas de difusión, similares al propuesto por Nagel-Enkelmann y resultados de la geometría epipolar. De todo este proceso, resulta un conjunto de cartas de disparidad densas que representan el movimiento aparente de los objetos. Con las cartas de disparidad, en la siguiente actividad, construimos secuencias de puntos en correspondencia. Estudiamos diferentes heurísticas para la formación de las secuencias de puntos en correspondencia. Estas consecuencias de puntos en correspondencia sirven para reconstruir una nube de puntos tridimensionales de partida. Para el caso que el objeto a reconstruir tenga geometría cilíndrica, proporcionamos una descripción de la superficie 3D del objeto mediante una malla de triángulos. Por múltiples razones (ruido de adquisición, discretización de la señal, errores aritméticos..) las reconstrucciones 3D de los objetos, en general, presentan irregularidades. Para corregir estas irregularidades, presentamos dos métodos variacionales. El primer método de regularización es sólo aplicable cuando el conjunto de los objetos a reconstruir presentan geometría cilíndrica. El segundo método de regularización es aplicable a cualquier escena 3D descrita por una nube de puntos 3D.
  • DETECCIÓN DE CONTORNOS MEDIANTE ALGORITMOS GENÉTICOS Y MODELOS DEFORMABLES PARA LA CALIFICACIÓN MORFOLÓGICA .
    Autor: GONZÁLEZ VELASCO HORACIO MANUEL.
    Año: 2002.
    Universidad: EXTREMADURA.
    Centro de lectura: CIENCIAS .
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: La Tesis propone una metodología para obtener los contornos lateral, frontal y posterior de animales de raza bovina independientemente de su posición o rotación en la imagen y de la escala de la misma. Para ello se parte de una base de datos con los contornos de un número de reses elevado con los cuales obtener unos contornos aproximadamente estándar. A partir de ellos y después de obtener una imagen de los gradientes se busca el contorno del animal mediante un ajuste genético, donde se han tenido en cuenta las transformaciones necesarias para hacer la imagen de la res insensible a rotaciones, traslaciones y cambios de escala.
  • PROPOSICIÓN, VALIDACIÓN Y PRUEBA DE UNA METODOLOGÍA MORFOLÓGICA PARA EL ANÁLISIS DE DATOS HIPERESPECTRALES QUE INTEGRA INFORMACIÓN ESPACIAL Y ESPECTRAL .
    Autor: PLAZA MIGUEL ANTONIO J..
    Año: 2002.
    Universidad: EXTREMADURA.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR.
    Centro de realización: ESCUELA POLITÉCNICA.
    Resumen: Esta tesis, presenta un nuevo método automático para el análisis y clasificación de imágenes hiperespectrales que considera la información espacial y espectral de forma combinada. El método se basa en conceptos de morfología matemática, una técnica clásica de análisis de imágenes que ha sio extendida al caso de imágenes multidimensionales. La evaluación del método con imágenes hiperespectrales simulados revela que las operaciones morfológicas extendidas pueden se utilizadas para extraer "endmenbers" a partir de los objetos presentes en la escena. El ajuste de las propiedades espaciales de las operaciones morfológicas permite adaptar el método a aplicaciones muy diversas, siendo su funcionamiento muy robusto en presencia de ruido. Por otra parte, los experimentos realizados con imágenes reales demuestran que el método proporciona resultados superiores a los obtenidos utilizando algunas técnicas estándar de análisis hiperespctral. Con objeto de facilitar el análisis de imágenes hiperespectrales de gran dimensionalidad de forma rápida y precisa, se proponen dos arquitecturas VLSI, basadas en arrays de sistólicos, para soportar las operaciones morfológicas extendidos realizados por el método planteado.
  • DETECTION OF LANDMINES FROM MEASURED INFRARED IMAGES USING THERMAL MODELING OF THE SOIL .
    Autor: LÓPEZ MARTÍNEZ PAULA.
    Año: 2002.
    Universidad: SANTIAGO DE COMPOSTELA.
    Centro de lectura: FÍSICA.
    Centro de realización: FACULTAD DE FÍSICA.
    Resumen: El difundido uso de nuevas, pequeñas, y virtualmente indetectables minas antipersonales plásticas supone un importante problema técnico para las operaciones de eliminación de minas. Los sistemas basados en radar constituyen una alternativa prometedora, pero muestran una mala respuesta en la detección de objetos enterrados a poco profundidad debido a las reflexiones provenientes de la interfaz aire-tierra. Es precisamente en este contexto donde la utilización de técnicas de termografía dinámica de infrarrojo (IR) ha demostrado ser una herramienta de gran utilidad. En este trabajo hemos considerado el problema de la detección de minas terrestres a partir de imágenes medidas de infrarrojo. La termografía dinámica de IR está basada en la caracterización de los suelos en función de su respuesta térmica ante un cierto estímulo, esto es lo que se conoce como la improta térmica del terreno. Perturbaciones en la impronta térmica esperada constituyen fuertes indicativos de la presencia de objetos extraños en el terreno. El sistema de detección de minas que proponemos en esta tesis está basado en el modelado térmico del suelo. Esta información se usará no sólo para detectar la presencia de minas, sino también para extraer información adicional acerca de la naturaleza del objeto que será de gran utilidad durante el proceso posterior de eliminación de la mina. Por otra parte, cualquier sistema comercial de detección de minas debe cumplir los requisitos generales de portabilidad, tamaño reducido, velocidad, fiabilidad y bajo coste. Estas características sólo pueden lograrse mediante la proyección del sistema final en una arquitectura hardware dedicada. En este trabajo mostramos como el modelo térmico del suelo que proponemos puede ser proyectado de forma conveniente en una arquitectura de elementos de procesamiento distribuidos con conectividad local. La tesis está organizada de la siguiente forma: En el primer capítulo analizamos el estado del arte en detección de minas, presentando las principales ventajas e inconvenientes de las técnicas actuales. En este contexto, se introducen las técnicas basadas en infrrarojo, considerando los aspectos referentes a su ámbito de aplicación y a las alternativas propuestas hasta la fecha. En el segundo capítulo se introduce el modelo térmico del suelo y se analiza la evolución del contraste térmico medido en superficie entre una mina y su entorno durante un ciclo de 24 horas. Este análisis nos llevará a la conclusión de cuales son los momentos del día idóneos en términos de detección. Basándonos en este modelo se propone un sistema de indentificación de minas consistente en dos etapas, la detección de los objetos sospechosos, y la clasificación de los mismos. La fase de detección es abordada en el capítulo 3. Para ello, se propone una arquitectura de redes neuronales celulares. La red propuesta es entrenada convenientemente por medio de técnicas estocásticas de optimización de tal forma que es posible ajustar su comportamiento para distintas situaciones de entrada. Durante el entrenamiento se tendrán en cuenta consideraciones acerca de la robustez de la solución ante fenómenos de mismatching lo que garantizará tanto su posible implementación a nivel electrónico como su robustez ante la presencia de ruido durante el proceso de adquisición. La fase de clasificación se considera en el Capítulo 4. La teoría de problemas inversos es utilizada para proponer un procedimiento de reconstrucción de la configuración interna del suelo. Para la estimación de la profundidad de enterramiento de las minas es posible utilizar un procedimiento simplificado al considerar que solo existe un conjunto finito de posibles valores de la profundidad debido a la discretización del modelo. Sin embargo, para la estimación de las propiedades térmicas de los objetos es necesario utilizar la teoría de problemas inversos no-lineales, ya que estas propiedades pueden tomar cualquier valor. Finalmente, en el capítulo 5 se realiza la validación del modelo para distintos escenarios y condiciones de calentamiento, y se presentan los resultados del sistema propuesto para un escenario de pruebas real al aire libre con minas antipersonales y anti-tanque, tanto en superficie como a distintas profundidades, y con distintos contenidos de metal.
  • REPRODUCCIÓN Y DIFUSIÓN DIGITAL DE OBJETOS ARTÍSTICOS .
    Autor: MANCILLA ABRIL M. ISABEL.
    Año: 2002.
    Universidad: GRANADA .
    Centro de lectura: BELLAS ARTES.
    Centro de realización: FACULTAD DE BELLAS ARTES.
    Resumen: Esta investigación se centra fundamentalmente en estudiar aplicando al campo de las nuevas tecnologías de la imagen tres nociones fundamentales: Deseo, A-copio y difusión masiva. A partir de ellas se establece un arco conceptual y pragmático que trata de poner de manifiesto las contradiciones que se dan actualmente en la valoración ambivalente de las imágenes y de sus reproducciones, así como de la utilización poco rigurosa de ciertos términos asociados a los medios de reproducción masiva. Para ello es necesario hacer un repaso exhaustivo de la evolución de las tecnologáis que han hecho posible el a-copio de imágenes y su posterior difusión así como un estudio etimológico del origen de los términos usados en este proceso.
  • LOS LIBROS DE CORO EN PERGAMINO E ILUSTRADOS DE LA ABADÍA DEL SACROMONTE DE GRANADA. ESTUDIO HISTÓRICO, MEDIOAMBIENTAL, DE MATERIALES Y TÉCNICAS .
    Autor: BUENO VARGAS JAVIER .
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: BELLAS ARTES.
    Centro de realización: FACULTAD DE BELLAS ARTES.
    Resumen: El presente trabajo de investigación aborda, desde una perspectiva y metodología multidisciplinar, el estudio de 42 libros de coro, de gran valor artístico, histórico y cultural, pertenecientes fundamentalmente a los SS. XVII y XVIII, conservados en la Abadía del Sacromonte de Granada. El autor inicia su andadura haciendo referencia a la historia del monumento, cuyo origen así como las causas que lo motivaron fueron determinantes para la creación de esta importantísima colección, hoy en desuso y en un estado de conservación lamentable. A continuación, aborda en profundidad el análisis de las condiciones medioambientales actuales del espacio en que se guardan y sus efectos sobre los citados libros; el estudio físico-químico de los materiales que componen estas obras en su totalidad, aplicando distintas técnicas: los soportes proteínicos (piel viva, tratada, cuero, pergamino), el proceso de escritura (tipo de letra y notación musical), las ilustraciones miniadas (iniciales, escenas y orlas), su técnica de ejecución y sus materiales (pigmentos y aglutinantes, todos analizados mediante la aplicación de espectrografías de infrarrojos y análisis estratigráficos), el proceso de encuadernación y cosido, así como los elementos de adorno y protección de las cubiertas artísticamente realizados en metal (esquineras y bollones). El texto, bien elaborado y muy correctamente redactado, se completa con una riquísima colección de imágenes en color y blanco y negro, esquemas, tablas y unas fichas descriptivas de los libros e iniciales analizadas insertas en el texto y con un CD de extraordinaria calidad que se convierte en un magnífico e imprescindible complemento visual. Asimismo hay que destacar el apéndice documental, en el que se recogen 456 referencias relacionadas con el objeto de la investigación, extraídas de diferentes libros existentes en el Archivo de la Abadía del Sacromonte. Se completa con una ajustada bibliografía puesta al día.
  • DIGITALIZACIÓN TRIDIMENSIONAL DE OBJETOS PARA LA GENERACIÓN AUTOMÁTICA DE IMÁGENES DE REFERENCIA EN PROCESOS DE CORRELACIÓN ÓPTICA .
    Autor: RODRIGUEZ MIGUEL FRANCISCO JAVIER.
    Año: 2002.
    Universidad: BARCELONA.
    Centro de lectura: FÍSICA.
    Centro de realización: FACULTAD DE FÍSICA.
    Resumen: Los procesos de reconocimiento de objetos por correlación óptica requieren del conocimiento a priori de la imagen exacta del objeto que se desea detectar. Esta tesis doctoral tiene como finalidad estudiar las técnicas basadas en la información extraída de dos imágenes, técnicas de esterovisión, para conseguir la digitalización tridimensional de objetos. Esta digitalización, una vez completada, nos permitirá generar una base de vistas planas diferentes del objeto digitalizado. La base de imágenes conseguida será, posteriormente, utilizada con el fin de obtener el reconocimiento de objetos desde cualquier punto de vista.
  • 3D RECONSTRUCTION OF THE CORONARY TREE USING BIPLANE SNAKES .
    Autor: CAÑERO MORALES CRISTINA.
    Año: 2002.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIERIA .
    Centro de realización: ESCUELA DE DOCTORADO Y DE FORMACIÓN CONTINUADA.
    Resumen: Esta tesis explora los problemas de la reconstrucción 3D de los vasos coronarios a partir de angiografías: calibración, extracción de los vasos a partir de las imágenes, y reconstrucción 3D del vaso. La calibración se divide en dos procedimientos: El primer procedimiento corrige la distorsión geométrica, y el segundo se concentra en la estimación de los parámetros extrínsecos e intrínsecos del sistema de adquisición. La distorsión geométrica} introducida por el intensificador de imagen se corrige mediante la definición de un nuevo modelo de polinomios para la distorsión. La principal ventaja de esta aproximación es que la distorsión se puede corregir para cualquier vista, eliminando así la necesidad de calibrar para cada adquisición. Respecto la estimación de la geometría de adquisición}, mostramos que las asunciones hechas por otros investigadores a la hora de estimar los parámetros extrínsecos sólo son válidas en casos muy restringidos, y por tanto introducen un alto grado de error. Por ello, proponemos un modelo nuevo, más general y flexible, para calibrar los parámetros del brazo C. Gracias a este modelo, podemos obtener una estimación precisa de la geometría de adquisición. Después de calibrar, los siguientes pasos de esta tesis se refieren a la detección de los vasos y a la reconstrucción 3D. Debido a la baja relación señal-ruido de las imágenes de angiografías, la segmentación de los vasos} no es un problema trivial de resolver. Nosotros desarrollamos un filtro de difusión anisotrópica para mejorar el resultado de las segmentación de los vasos.Este filtro escoge automáticamente la escala del tensor de difusión para cada píxel y consigue un realce selectivo de los vasos. A partir de los puntos detectados del vaso, la reconstrucción 3D, se consigue aplicando técnicas parecidas a las de la visión estéreo, pero evitando el problema de la determinación de las correspondencias de puntos} del objeto en las dos imágenes. Para ello, definimos los snakes biplanos, que son modelos deformables consistentes en una curva tridimensional que se deforma en el espacio para adaptar sus proyecciones a los vasos en las imágenes. Esta técnica resuelve el problema de las correspondencias de puntos de forma inherente, y tiene un buen comportamiento cuando las condiciones de adquisición no se conocen con gran precisión. Los métodos propuestos son extensamente validados usando phantoms y secuencias reales de angiografías adquiridas con un sistema monoplano de angiografías y la inestimable y ayuda de los médicos del Hospital Universitari "Germans Tries i Pujol".
  • DISEÑO DE PROCESADORES ÓPTICOS MULTICANAL. APLICACIÓN AL PROCESADO DE TEXTURAS .
    Autor: BARBE FARRE JOAQUIM.
    Año: 2002.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: CIENCIAS.
    Centro de realización: ESCUELA DE DOCTORADO - FACULTAD DE CIENCIAS.
    Resumen: En este se ha trabajado y se ha estudiado la adaptación de tres procesores ópticos, ampliamente utilizados en el área para aplicarlos a tareas de caracterización, clasificación, segmentación y seudocoloración de texturas. Gracias a la velocidad de procesado de las arquitecturas propuestas dichas aplicaciones han podido implementarse para qu operen en tiempo real. El primer procesador óptico adaptado fue un difractómetro convergente, arquitectura basada en la del correlador de transformadas conjuntas (JTC). El procesador óptico construido permitió obtener ópticamente el espectro de potencia de las imágenes de texturas utilizadas para los procesos de caracterización y clasificación. Con el fin de poder cambiar dinámicamente las imágenes en el procesador se utilizó un modulador de luz, configurando en amplitud, para su representación. Los espectros de potencias, captados mediante una cámara CCD, fueron digitalizados para realizar su análisis y procesado en el ordenador. Los otros dos procesadores utilizados fueron dos adaptaciones del correlador convergente. A diferencia del difractómetro convergente, este tipo de procesadores permiten conservar la localización en el dominio espacial de la información procesada, lo que permitió desarrollar además de aplicaciones de caracterización y clasificación de texturas, aplicaciones de seudocoloración y segmentación. La utilización de moduladores espaciales de luz para representar tanto la escena como los filtro permitieron cambiar ambas imágenes de forma dinámica. Con el fin de poder realizar las aplicaciones de procesado de texturas propuestas en tiempo real fue necesario modificar la arquitectura del correlador para que permitiera procesar más de un canal de forma paralela. Producto de esa necesidad se desarrollaron dos métodos que permiten convertir un correlador óptico en multicanal. El primer método propuesto utiliza luz monocromática y se basa en aprovechar el paralelismo inherente de la luz para multiplexar espacialmente varios canales de frecuenca en un único filtro de fase. Cada canal de frecuencia es codificado utilizando una fase lineal distinta. La luz, al atravesar el filtro, es desviada en distintas direcciones, obteniendo en el plano de correlación los distintos canales demultiplexados espacialmente. El segundo método propuesto consiste en multiplexar los canales utilizando tres longitudes de onda distintas. Para ello, el sistema óptico es iluminado con una fuente de luz blanca. La adaptación del filtro se realiza adosando una diapositiva en color al modulador del plano de Fourier. En el modulador del filtro, configurado en amplitud, se presentan simultáneamente un conjunto de tres canales de frecuencia. La luz al atravesar el filtro es modulada en amplitud por el modulador y en longitud de onda por la diapositiva en color. Una cámara CCD en color situada en el plano de correlación es el dispositivo encargado de realizar la demultiplexión de los tres canales. En las aplicaciones del procesado de texturas desarrolladas fueron utilizando tres bancos de filtros distintos, un banco de filtros pasa-banda basado en funciones de Gabor, otro formado por sectores anulares y dos bancos diseñados específicamente para aplicaciones de seudocoloreado de frecuencias espaciales. Con todos ellos se obtuvieron excelentes resultados en las diversas aplicaciones desarrolladas.
  • PROCESADOR ÓPTICO BASADO EN PANTALLAS DE CRISTAL LÍQUIDO PARA EL RECONOCIMIENTO DE PATRONES EN COLOR POR CORRELACIÓN TRIDIMENSIONAL .
    Autor: NICOLÁS ROMAN JOSEP.
    Año: 2002.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: En esta tesis se propone y se estudia una arquitectura para el reconocimiento óptico a tiempo real de imágenes en color. Dicho estudio se divide en tres partes principales: la definición de un formalismo para describir las imágenes en colo mediante funciones tridimensionales, de las cuales una contiene la distribución de color de cada pixel, la construcción y optimización de un correlador óptico basado en moduladores espaciales de luz a tiempo real, y el desarrollo e implementación óptica de una técnica de codificación de funciones tridimensionales. La primera parte del estudio se refiere a la optimización del correlador óptico. El primer aspecto que se considera es la obtención de modulación de sólo amplitud para la escena del correlador, y la obtención de modulación de solo fase para el filtro del correlador. Para ello se propone analizar la modulación de luz elípticamente polarizada y elegir los estados de polarización que conducen a la modulación de solo amplitud o de solo fase. También se propone un procedimiento para el alineado de los diferentes elementos del correlador, dado que el alineado es un factor crucial para el correcto funcionamiento de un correlador óptico. El procedimiento propuesto está basado en la utilización de escenas de prueba cuya reconstrucción en el plano de correlación se ve dramáticamente afectada por los desajustes de los diferentes elementos. La segunda parte del estudio es la formulación de funciones tridimensionales para el reconocimiento de imágenes en color. Se define la transformada de Fourier y la correlación para estas funciones. Se interpreta el espectro de Fourier de la distribución de color en términos de magnitudes colorimétricas como son el tono, la saturación y la intensidad. Asimismo, se extienden algunos filtros típicos de la correlación tal y como el filtro de solo fase. En el caso de imágenes en color, la uniformización de la magnitud del espectro de Fourier 3D se traduce en un realce de los contornos presentes en la respuesta impulsional, junto con la normalización de la intensidad y la saturación de los colores. Finalmente, en la tercera parte de la tesis, se propone una técnica para codificar la correlación de funciones tridimensionales en el correlador óptico diseñado. La técnica propuesta consiste en representar los diferentes canales de las funciones 3D mediante redes portadoras, del mismo periodo y dirección, pero con fases distintas. Se demuestra matemáticamente que se puede obtener tanto el espectro de Fourier 3D como la correlación 3D, asimismo se presentan resultados experimentales, tanto de transformada de Fourier como de reconocimiento por correlación 3D.
  • PROCESADO ANISÓTROPO DE CAMPOS TENSORIALES Y SU APLICACIÓN AL FILTRADO Y SEGMENTACIÓN DE IMÁGENES MÉDICAS.
    Autor: RODRÍGUEZ FLORIDO MIGUEL ÁNGEL.
    Año: 2002.
    Universidad: LAS PALMAS DE GRAN CANARIA.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIÓN.
    Centro de realización: E.T. SUPERIOR DE INGENIEROS DE TELECOMUNICACIÓN.
    Resumen: En esta tesis nos ocupamos del problema del filtrado y segmentación de campos tensoriales multidimensionales. Por campos tensoriales, entendemos al conjunto de campos de datos en el que a cada punto le corresponde un tensor. De esta manera, si el tensor es de orden cero, el campo tensorial se reduce a un campo escalar multidimensional, como por ejemplo una secuencia 3D de resonancias magnéticas. Si el tensor asociado a cada punto es de orden uno, en cada punto tenemos un vector, y nos referimos a un campo vectorial, como por ejemplo, un mapa de flujo óptico. Es por tanto una visión más general del procesado de datos, pues generaliza el caso particular de los escalares y los vectores. Para contribuir al procesado general de estos campos de datos, hemos propuesto un modelo de filtrado anisótropo adaptativo. Básicamente, la idea es descomponer el campo de datos de entrada en una base de filtros, y combinarlos linealmente dirigidos por una medida de la estructura local, de manera que el filtro va adaptando su forma localmente. La medida de la complejidad local se codifica por medio de un tensor de estructura, cuyos autovectores nos indican las direcciones principales en cada punto. La generalización de este tensor de estructura para campos vectoriales, y en general campos tensoriales, nos permite generalizar el esquema del filtrado anisótropo adaptativo al caso general de tensores. La estimación de algunos parámetros de filtro son obtenidos por el valor de frecuencia local, calculando con un conjunto de bancos de filtros de cuadratura, centrados en diferentes frecuencias, que cubran la mayor parte del espectro. Se proponen también varias aplicaciones de este modelo de filtrado sobre imágenes médicas, tanto escalares (CT, MRI), como tensoriales de segundo orden (DT-MRI), y su comparación con una técnica de difusión anisótropa para el caso escalar. En la parte final de la Tesis se propone una alternativa de segmentación al modelo clásico de Máximo a Posteriori (MAP), utilizando el modelo de filtrado anisótropo adaptativo para suavizar el campo de probabilidades a posteriori (campo vectorial), antes de clasificar con el MAP. Para preservar las restricciones típicas de un campo de probabilidad, proyectamos ortogonalmente sobre el hiper-plano de probabilidad. Nuestro modelo constituye una alternativa a los modelos ya existentes en el procesado de campos escalares multidimensionales, y una técnica no iterativa para el filtrado de datos no escalares.
  • UN MARCO LEGAL PARA LA NORMALIZACIÓN GEOMÉTRICA DE DATOS TENSORIALES Y SUS APLICACIONES AL REGISTRADO DE IMÁGENES MÉDICAS .
    Autor: SUÁREZ SANTANA EDUARDO MANUEL.
    Año: 2002.
    Universidad: LAS PALMAS DE GRAN CANARIA.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIONES.
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DE TELECOMUNICACIÓN.
    Resumen: El registrado consiste en encontrar la correspondencia espacial entre dos sistemas coordenados con un campo escalar definido en cada uno. En particular, el registrado no rígido es una operación crucial para la medicina guiada por imágenes. Sus aplicaciones van desde el seguimiento de patologías a través de estudios clínicos a la cirugía guiada por imágenes, mediante el registrado de datos preoperativos con datos intraoperativos. Además, el registrado no rígido es también necesario para incluir conocimiento a priori en los algoritmos de procesado de imágenes médicas y, especialmente, en esquemas de segmentación. Las aproximaciones más comunes al registrado no rígido vienen en la forma de puntos, curvas, superficies y medidas de semejanza basadas en vóxeles. Métodos basados en vóxels son aquellos que usan directamente el contenido de la imagen y no simplemente la reducen a un conjunto de características que dirigan el registrado. Son por tanto generalmente robustos y sus resutados pueden ser bastante exactos. Por otra parte, tienen una alta complejidad computacional y es sólo en los últimos años que han aparecido aplicaciones prácticas de estos métodos. Los métodos basados en vóxels corresponden a dos importantes familias: template matching y esquemas variacionales. El primero ha sido popular hace años debido a su simplicidad conceptual. Sin embargo, en su formulación convencional no es suficientemente potente para asumir las necesidades desafiantes del registrado de imágenes médicas. Los métodos variacionales descansan en la minimización de un funcional (Energía) que es normalmente formualda como la adición de dos términos: el acople de datos y la regularización, el primero forzando a la semejanza entre ambos conjuntos de datos (destino, y origen deformado con el campo estimado) ser máxima mientras el segundo fuerza el campo estimado a completar algunas restricciones (usualmente forzando a coherencia espacial-suavidad). Opuestos a los métodos variacionales, template matching no impone ninguna restricción en los campos resultantes que, además, debido al movimiento discreto de las máscaras son campos discretos. Estos hechos han conducido a una popularidad creciente de los métodos variaciones para el registrado mientras que el template matching ha perdido su posición en esta batalla. Los estudios acerca de medidas de semejanza han mostrado de hecho el poder de las medidas basadas en entropía. Por otro lado, su principal inconveniente en registrado no rígido es la estimación de la función de densidad de probabilidad conjunta, que debe ser conocida para el desplazamiento de cada vóxel y calculada en pequeños vecindarios de dichos vóxeles. El estado del arte de registrado no rígido conjuntamente con medidas de semejanza basadas en entropía es aún área con bastante lagunas. Esta tesis estudia nuevas aproximaciones de ajsute de máscaras al problema de registrado, así como la inclusión eficiente de medidas de semejanza basadas en entropía en tales esquemas. Además, se centra en estos esquemas analizando y mostrando sus esquivalencias. Finalmente, propone un esquema de registrado que trata con ambos, mostrando su eficacia.
  • ALGUNAS APLICACIONES DE LA GEOMETRÍA ESTOCÁSTICA EN PROCESO DIGITAL DE IMÁGENES .
    Autor: ZAPATER VERDUCH M. VICTORIA.
    Año: 2002.
    Universidad: VALENCIA.
    Centro de lectura: MATEMÁTICAS.
    Centro de realización: FACULTAD DE MATEMÁTICAS.
    Resumen: En este trabajo se han utilizado técnicas de proceso de imagen aplicadas a 2 tipos de imágenes médicas, más específicamente imágenes oftalmológicas. El primer tipo de imagen es de endotelio corneal humano. El endotelio corneal, es una de las capas que integra la córnea. En un endotelio sano, las células que lo forman cumplen ciertas condiciones de regularidad en área y forma. En el capítulo 2 es analizada una muestra de endotelios corneales en base a su descripción granulométrica desde dos puntos de vista: el global y el local (célula a célula). Hay una primera parte en que una oftalmóloga establece una muestra de endotelas sanos o "control" y la salud del resto de endotelio se evalúa comparándolos con ellos. También se analiza la muestra sin establcer tal grupo de referencia realizando un análisis clúster de la muestra total. En el capítulo 3 se propone una descripción del endotelio mediante el patrón puntual formado por los centroides de sus células. Son establecidas algunas medidas de -- entre patrones puntuales resultado de algunos tantos de comparación de las distancias D y E. A partir de las anteriores -- se realiza un análisis clúster de la muestra de endotelios. En el capítulo 4 se aborda el problema de la segmentación del árbol vascular --- en imágenes de fondo de ojo dentro del contexto de la Teoría de conjuntos difusos. Se han considerado tres métodos de segmentación de esta estructura y, a partir de ellos, se han generado tres funciones de pertenencia a vasos. Es decir, el árbol vascular ha pasado a ser un conjunto difuso y se pretende asociar al difuso un ocnjunto nítido -- que sea representativo o lo que es lo mismo, una segmentación, mediante el promedio de sus alfa-cortes. Para ello emplearemos algunas definiciones de conjunto medio existentes en la Teoría de Conjuntos Aleatorios compactos.
101 tesis en 6 páginas: 1 | 2 | 3 | 4 | 5 | 6
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia