Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > FISICA > OPTICA >

TRATAMIENTO DIGITAL DE IMAGENES, 3



101 tesis en 6 páginas: 1 | 2 | 3 | 4 | 5 | 6
  • RECONOCIMIENTO DE FORMAS MANUSCRITAS CON MODELOS OCULTOS DE MARKOV .
    Autor: TRAVIESO GONZÁLEZ CARLOS MANUEL.
    Año: 2001.
    Universidad: LAS PALMAS DE GRAN CANARIA.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIÓN .
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE TELECOMUNICACIÓN.
    Resumen: El principal objetivo de esta tesis es demostrar que mediante los modelos ocultos de Markov se pude modelar patrones con la información secuencial que existe en las aplicaciones manuscritas para el reconocimiento de las mismas. Para ello, se han creado cuatro bases de datos para comprobar esta teoría, en particular se han creado de dígitos, letras minúsculas y mayúsculas, palabras y firmas, en las que han intervenido un total de 310 escritores obteniendo 83580 muestras. Estas muestras han sido adquiridas mediante un sistema off-line, es decir, después de haber sido escritas se han escaneado y preprocesado para la eliminar el posible rudio, binarizar las imágenes, y normalizar su tamaño. La clasificación de estos patrones se quiere realizar con los modelos ocultos de Markov (HMM), ya que se pretende analizar la información existente en la secuencia temporal de las muestras, siendo éste, un buen clasificador de secuencias. Por eso, la extracción de parámetros se ha basado en el contorno o envolvente, siguiendo el trazado de este mediante diferentes tipo de técnicas para detectar cual de ellas produce los parámetros más discriminantes. Finalmente, sólo hay que ajustar el clasificador para estos parámetros y obtener la tasa de reconocimiento correspondiente. La ventaja que ofrece es el uso de la misma técnica para todas las aplicaciones manuscritas, que hasta llegar a ser extrapolable a otro pico de técnicas con información secuencial. Comparando los resultados obtenidos con la literatura actual, se puede concluir que, cuando más complicada es la aplicación manuscrita (firmas) mejor discrimina, incluso superando a los resultados encontrados. Y para aplicaciones más sencillas (dígitos) esta tasa es ligeramente inferior, aunque bastante significativa.
  • TRATAMIENTO DE IMÁGENES DIGITALES: AGRUPACIÓN DE HISTOGRAMAS .
    Autor: ATAE ALLAH ZAKARIA.
    Año: 2001.
    Universidad: GRANADA.
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: La presente tesis doctoral se enmarca dentro del campo del procesamiento de imágenes digitales, principalmente en tres áreas: teoría de la información, filtrado, y detección de bordes. El núcleo teórico de este trabajo se centra en la agrupación de niveles de gris en histogramas locales por medio de un nuevo algoritmo de agrupación llamado CLOSE (Clustering by Local Separation). Se estudian algunas de sus propiedades más relevantes y se analiza su robustez por medio del análisis matemático de la probabilidad de fallo. Como una aplicación derivada del algoritmo propuesto, se presenta un nuevo filtro no lineal llamado CF (Cluster Filter) para la eliminación del ruido Gaussiano. Sobre cada píxel se centra una ventana deslizante cuyo histograma local es particionado en grupos gracias al algoritmo CLOSE. La salida del filtro CF es el nivel medio del grupo en el que se encuentra el píxel central. Se presenta y estudia la aplicación del algoritmo CLOSE en teoría de la información, definiendo la entropoía agrupada como una variante mejorada de la entropia clásica de Shannon. Esta variante tiene la ventaja de no sufrir el efecto de saturación en los casos de histogrmas locales dispersos causados por ruidos, degradaciones o desenfoques de la imagen. Otra medidas entrópicas son también susceptibles de modificación por el mismo método, como la divergencia de Jensen Shannon agrupada, cuyas propiedades son analizadas. Como aplicaciones prácticas de las medidas entrópicas agrupadas la tesis presenta dos métodos de detección de bordes. El primero consiste en la detección de máximos locales de la entropía agrupada de una ventana deslizante, y el segundo es una variante de un método existente basado en la divergencia de Jensen-Shannon, que se consigue mejorar gracias a la agrupación CLOSE.
  • ALGORITMOS DE RECONOCIMIENTO DE PATRONES EN IMÁGENES PARA LA CARACTERIZACIÓN DE JAMÓN DE CERDO IBÉRICO .
    Autor: DURÁN MARTÍN-MERÁS M. LUISA.
    Año: 2001.
    Universidad: EXTREMADURA.
    Centro de lectura: ESCUELA POLITÉCNICA SUPERIOR.
    Centro de realización: ESCUELA POLITÉCNICA DE CÁCERES.
    Resumen: Esta Tesis Doctoral es el primer estudio científico dentro de la nueva línea de investigación interdisciplinar iniciada como consecuencia de la colaboración entre el Área de Tecnología de los Alimentos de la Facultad de Veterinaria y el Grupo de Imagen Digital de la Escuela Politécnica de la Universidad de Extremadura. Se basa en la búsqueda de técnicas de visión por computador aplicables a la tipificación de productos ibéricos, concretamente en jamones. La filosofía inicial del trabajo fue la estimación automática de parámetros significativos que estaban siendo determinados por otros mecanismos. Así, en una primera etapa, tratada en el capítulo 3, la labor de investigadora se ha centrado en la posibilidad de utilizar técnicas computerizadas de segmentación de imágenes para la determinación del contenido de grasa intramuscular del jamón utilizando imágenes planas de lonchas del mismo. Tarea que, hasta el momento se lleva a cabo mediante análisis químicos. En la segunda etapa, que se trata en el capítulo 4, el objetivo es alcanzar la misma finalidad que los expertos en Tecnología de los Alimentos pero utilizado parámetros matemáticos que no tienen una contrapartida en el dominio de la aplicación. En particular, se intenta clasificar el jamón en categorías pre-establecidas según la raza y la alimentación del animal. El trabajo de investigación consiste, no sólo en la propuesta de nuevos algoritmos de visión artificial para la clasificación de jamón ibérico, sino también en la evaluación, sobre esta aplicación, de técnicas clásicas de análisis de imágenes que presentan un comportamiento satisfactorio en problemas similares. Los capítulos 1 y 2 son capítulos introductorios en los que se hace una breve revisión de los diferentes campos tecnológicos en los que se enmarca esta tesis doctoral. El primer capítulo describe las características propias del cerdo ibérico y sus productos derivados, así como su importancia para el desarrollo económico de la Comunidad Autónoma de Extremadura, con el fin de acercar al lector a la problemática existente en la tipificación de los productos derivados del cerdo Ibérico y la falta de metodologías objetivas, sencillas y no destructivas para su aplicación sistemática en las cadenas de producción de las industrias cárnicas. El capítulo 2 introduce aspectos relacionados con los sistemas de visión por computador. La primera parte presenta una revisión de aplicaciones de la visión por computador a otros campos de la ciencia y, en particular, a la tecnología de los alimentos. Posteriormente, se describen las etapas comunes de un sistema de reconocimiento de patrones en imágenes que, genéricamente, podrían asociarse a una etapa de extracción de características y otra de clasificación. Para cada etapa, se lleva a cabo una breve descripción de técnicas de bajo nivel que están relacionadas con la consecución de la finalidad de este trabajo. El capítulo 3 trata de probar si es viable el diseño de un algoritmo que pueda estimar el nivel de grasa intramuscular de un jamón ibérico, tanto fresco como curado, a partir de una imagen de un filete del mismo. El capítulo engloba la descripción de las imágenes utilizadas así como los algoritmos propuestos, la presentación de los resultados obtenidos y la discusión de los mismos. Todos los algoritmos tienen como finalidad la obtención de una imagen binaria que represente grasa y fondo a partir de la cual se determina el porcentaje de grasa sobre cada muestra. Se aborda el estudio de tres tipos de métodos: técnicas de segmentación por umbral que calculen dicho umbral a partir del histograma de la imagén, técnicas que incorporan información espacial en la determinación del umbral y técnicas basadas en lógica borrosa. En el capítulo 4 el enfoque se orienta hacia la clasificación del jamón ibérico en categorías previamente establecidas, relacionadas con el tipo de alimentación y cruce racial del cerdo ibérico. Está claramente demostrado que la raza y la alimentación son factores importantes a la hora de establecer las diferentes categorías de calidad final del jamón ibérico. Así, puede decirse que tanto la raza como la alimentación determinan en gran medida características tales como cantidad y distribución de la grasa intramuscular, así como su composición. Estas características condicionan algunas otras, tales como el brillo, la jugosidad, la fluidez de la grasa, etc.., que generalmente se determinan mediante análisis sensoriales, tanto con la apreciación visual, como gustativa. Esta discriminación, en el trabajo que se presenta, se lleva a cabo mediante algoritmos de análisis de texturas. Se verifica la eficiencia de características de textura comúnmente utilizadas para clasificar imágenes en otras aplicaciones. De esta forma pudimos comprobar que técnicas que habitualmente son satisfactorias en otras aplicaciones (coeficientes propuestos por Haralick y otros estadísticos de segundo orden, y la energía y entropía de paquetes de ondículas) fracasaban en nuestro propósito. Esto nos lleva a proponer dos aproximaciones específicas para esta aplicación. La primera se basa en el análisis del histograma de la matriz de concurrencia combinada con reglas de producción. La segunda combina otras características de textura, basadas en el cálculo de estadísticos de primer orden sobre imágenes filtradas o paquetes de ondículas, utilizando selectores de características y clasificadores más sofisticados.
  • ARQUITECTURAS ESPECÍFICAS PARA LA IMPLEMENTACIÓN DE PRIMITIVAS MORFOLÓGICAS .
    Autor: PUJOL PÉREZ FRANCISCO ANTONIO.
    Año: 2001.
    Universidad: ALICANTE.
    Centro de lectura: ESCUELA POLITÉCNICA SUPERIOR.
    Centro de realización: ESCUELA POLITÉCNICA SUPERIOR - UNIVERSIDAD DE ALICANTE.
    Resumen: Aunque inicialmente fue desarrollada como una herramienta para analizar formas geométricas en imágenes binarias, la Morfología Matemática se ha convertido en un potente instrumento en el tratamiento de imágenes, empleando operadores capaces de manejar tareas sofisticadas de procesado de imágenes con carácter general. En esta línea, la memoria de tesis presentada está enmarcada dentro del campo de la paralelización de algoritmos de visión y, en concreto, se aborda esta cuestión en Morfología Matemática. El objetivo central de la investigación es la implementación de primitivas morfologicas sobre arquitectura de alto rendimiento que aumenten la velocidad de los filtros morfológicos clásicos y que permitan operar en tiempo real. El análisis llevado a cabo se aplica al caso de entornos dinámicos para robots móviles, proponiendo una arquitectura específica basada en Procesadores Digitales de Señal para el tratamiento de las operaciones morfológicas. Entre las numerosas aplicaciones del procesamiento rápido de imágenes en un entorno de trabajo real, mostramos una técnica para la determinación de las trayectorias de mínimo riesgo que un robot móvil puede seguir en una escena. Con este fin, se ha aportado un procedimiento para extraer el mapa del terreno de la imagen utilizando las operaciones de Morfología Matemática, y, seguidamente, se ha descrito un algoritmo rápido para el trazado de trayectorias en entornos dinámicos. Finalmente, con el objetivo de robustecer el sistema considerado, se desarrolla un algoritmo para la evitación de obstáculos mediante el cálculo de la distancia entre un robot móvil y la estación de control.
  • TIPIFICACIÓN Y CARTOGRAFÍA DE VEGETACIÓN EN ECOSISTEMAS DE DEHESA MEDIANTE SENSORES REMOTOS .
    Autor: GONZÁLEZ DUGO M. PATROCINIO.
    Año: 2001.
    Universidad: CORDOBA.
    Centro de lectura: INGENIEROS AGRÓNOMOS .
    Centro de realización: ETSIAM.
    Resumen: El uso de sensores remotos en el estudio de ecosistemas de vegetación dispersa como la dehesa presenta una especial dificultad motivada por la heterogeneidad y complejidad de estos sistemas. En este trabajo se ha evaluado la capacidad del sensor Thematic Mapper del satélite Landsat-5 para clasificar y cuantificar la cobertura vegetal de un amplio territorio, situado al norte de la provincia de Córdoba, en el que el paisaje predominante es la dehesa de encinar. En primer lugar se ha establecido una clasificación de las dehesas según su cobertura arbórea y de matorral, seleccionando tres leyendas en las que se incrementa sucesivamente el nivel de detalle en la definición de las clases. Mediante una clasificación multiespectral supervisada, que ha incluido siete bandas calculadas por distintos procedimientos, se han diferenciado las clases de dehesa de los demás usos del suelo, con una precisión basante ajustada. Asimismo se han distinguido zonas de dehesa clara, densa y con alta cobertura de encimar. La precisión obtenida en la clasificación del matorral no ha sido suficientemente ajustada en todas las clases como para permitir un seguimiento de este estrato a gran escala. Con el fin de superar el problema de abundancia de píxeles mixtos, que presentan este tipo de ecosistemas en sensores de resolución media, se ha aplicado un modelo lineal de mezclas espectrales a la imagen de la zona de estudio. Para ello, en primer lugar se ha evaluado la dimensión real de los datos, mediante el análisis de los autovalores de sus componentes principales y usando una transformación que maximiza la señal frente al rudio, ambos han arrojado el mismo resultado de cuatro componentes como máximo. Se ha elegido la cubierta arbórea, pasto seco, suelo desnudo y un cuarto factor de sombra que engloba todos los cambios de iluminación en las cubiertas anteriores. Cinco métodos de localización de los vectores puros representativos de estas cubiertas se han comparado. Los dos métodos que extraen los factores de la propia imagen han obtenido los mejores resultados, frente a los tres métodos, espectroscopía de campo, bibliotecas espectrales y espectroscopía del infrarrojo cercano, en los que el origen de los factores es externo. Entre los internos, el algoritmo de rotación de factores IKSFA (Iterative Key Set Factor Analysis) obtiene un error más bajo que el modelo calculado usando la hipótesis del recinto convexo. Se han estimado las fracciones de cobertura arbórea, pasto seco y suelo desnudo, en cada píxel de la zona clasificada previamente como dehesa , y la primera fracción ha sido validada con datos medidos sobre una fotografía aérea de la misma época por un contador automático de árboles. El coeficiente de determinación obtenido es de 0,76, comprobándose una sobrevaloración medida de la cobertura arbórea de cuatro puntos. Usando las parcelas de validación se ha calculado una regresión PLS que ha obtenido un r2 de 0,80, lo que abre una interesante línea de trabajo, complementaria a los modelos de mezclas espectrales.
  • INSPECCIÓN TRIDIMENSIONAL DE PIEZAS MEDIANTE VISIÓN ARTIFICIAL. TÉCNICAS DE PROCESAMIENTO Y ESTRATEGIAS DE PLANIFICACIÓN PARA INCREMENTAR LA PRECISIÓN EN LA MEDIDA .
    Autor: GARCIA DOLLA DAVID.
    Año: 2001.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: E.T.S.I. INDUSTRIALES.
    Resumen: La presente tesis doctoral se orienta al estudio de técnicas para mejorar la precisión en la medida en el marco de un sistema estereoscópico dotado de iluminación láser. El campo de aplicación se centra en la inspección de elementos específicos de piezas de material metálico con características tridimensionales y pequeñas dimensiones, desde un punto de vista tridimensional genérico. En primer lugar, se estudian los factores que influyen en la precisión obtenida. Para ello se analiza el diseño del sistema y su calibración, observando la variación de la incertidumbre según se consideran modelos más próximos a las condiciones reales de inspección. Además, se analiza en detalle una metodología de evaluación cuantitativa de los algoritmos de extracción de características, basada en técnicas de análisis de la varianza, la cual se aplica al análisis de la proyección de la línea láser en las imágenes y a los algoritmos de extracción de esquinas empleados en la calibración por ser éstos los algoritmos más críticos en cuanto a precisión. En segundo lugar, se han desarrollado estrategias que permiten optimizar las condiciones bajo las cuales se realiza la inspección. Para ello, se aprovecha al máximo el conocimiento del sistema para introducir restricciones, tanto geométricas como de iluminación, sobre las medidas obtenidas de forma que se pueda detectar la presencia de datos erróneos. El enfoque utilizado se basa en la discretización de la superficie de la pieza y en los modelos obtenidos en la calibración. En esta misma línea, se ha diseñado un modelo de iluminación que sirve como base para desarrollar un novedosos algoritmo de planificación de la inspección. Este algoritmo se caracteriza por no incluir restricciones en las características de la pieza o el tipo de medida, además de proporcionar soluciones parciales en caso de no poder alcanzar una solución completa. Además, permite incorporar con gran flexibilidad restricciones adicionales. Así, el sistema de planificiación se completa con un algoritmo que prevé la aparición de reflejos internos en la pieza. Finalmente, se ha desarrollado un sistema de inspección de acuerdo a los criterios anteriores, que ha servido para estudiar y validar los planteamientos analizados.
  • ALGORITMOS ITERATIVOS DE TOMOGRAFÍA TRIDIMENSIONAL EN MICROSCOPÍA ELECTRÓNICA DE TRANSMISIÓN .
    Autor: SÁNCHEZ SORZANO CARLOS ÓSCAR.
    Año: 2001.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIÓN.
    Centro de realización: E.T.S.I. TELECOMUNICACIÓN UPM.
    Resumen: Los análisis de partículas aisladas por microscopía electrónica de transmisión constituyen una poderosa herramienta para la realización de estudios estructurales de macromoléculas biológicas. La amplia variedad de complejos y condiciones experimentales en los que se pueden efectuar los análisis la convierten en una técnica estructural atractiva. Sin embargo, esta metodología se enfrenta a graves dificultades en la calidad de las imágenes obtenidas. Las presente tesis aborda esta cuestión desde una perspectiva de procesamiento digital de imágenes. El problema resuelto es la identificación de una estructura tridimensional compatible con el conjunto de proyecciones medido con el microscopio, empleando para ello una técnica iterativa de tomografía tridimensional que opera en el espacio real (Algebraic Reconstruction Technique, ART). Tres han sido los pilares de la presente tesis: por una parte, la optimización sistemática de los parámetros implicados en la reconstrucción; por otra, la corrección de la función de transferencia del microscopio (llamada en el campo CTF, Contrast Transfer Function); por último, la inclusión de información a priori en el propio algortimo de reconstrucción. La combinación de estos tres factores ha proporcionado importantes mejoras, superiores a 10-15 angstroms de resolución, tal y como lo demuestran los experimentos llevados a cabo tanto con volúmenes artificiales, phantoms, como con proteínas reales. Adicionalmente se ha extendido el método de reconstrucción en el espacio real para el tratamiento de imágenes de cristales biológicos.
  • MEDICAL IMAGE REGISTRATION BASED ON A CREASENESS MEASURE .
    Autor: LLORET VILALLONGA DAVID.
    Año: 2001.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIERÍA .
    Centro de realización: ESCUELA DE DOCTORADO Y FORMACIÓN CONTINUADA - UNIVERSITAT AUTÒNOMA DE BARCELONA.
    Resumen: Esta tesis trata de la puesta en correspondencia automática de imágenes médicas. Proponemos un algoritmo genérico, aplicable a imágenes con una característica determinada: que contengan estructuras en forma de valle o de cresta. Estas estructuras se extraen automáticamente mediante un operador diseñador para detectar su forma. Ejemplos de este tipo de estructuras son los huesos con TC y RM, capilares en imágenes oftalmológicas y los sulci en ecografías. Una vez se han extraído éstas, una de las imágenes se transforma iterativamente mediante una aproximación jerárquica hasta que la función que detecta el alineamiento llega a un máximo. Hemos presentado informes completos del funcionamiento de este algoritmo para varias modalidades y condiciones de adquisición. En primer lugar, lo hemos aplicado a la puesta en correspondiencia de TC con RM. Hemos participado en un proyecto para evaluar nuestro algoritmo para un centenar de imágenes, comparándolo con otros métodos, y los resultados, para algunas modalidades, han sido destacados. Otro campo de aplicación han sido las imágenes oftalmológicas. En esta modalidad, nuestro algoritmo funcionó mejor y más rápido que los algoritmos existentes hasta la fecha, y además ha podido ser aplicado a secuencias largas de imágenes SLO. Ejecutamos pruebas exhaustivas para conseguir una convergencia rápida y segura, lo que hizo posible, en colaboración con otro grupo, construir un primer prototipo real para un hospital. Finalmente, hemos explorado diferentes problemas de puesta en correspondencia en el área de las ecografías intra-operativas. Después de construir un sistema informático para capturar y localizar las imágenes en tiempo real, empezamos nuestros experimentos con un cerebro humano in vitro. Conseguimos construir un volumen con las imágenes, y alinearlo con una imagen RM del mismo. Además, conseguimos registrar las imágenes individuales de las ecografías con los volúmenes. PALABRAS CLAVES Puesta en correspondencia, cresta, imagen médica, TC, MR, ecografía, retinografía.
  • CONTRIBUTIONS TO SHAPE AND TEXTURE FACE SIMILARITY MEASUREMENT .
    Autor: PUJOL TORRAS ALBERT.
    Año: 2001.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIERIA .
    Centro de realización: ESCUELA DE DOCTORADO Y DE FORMACIÓN CONTINUADA.
    Resumen: Esta tesis propone mejoras en métodos de proyección lineal, con la finalidad de medir de forma precisa la similitud entre dos caras. Al mismo tiempo muestra como algunas de las ideas exitosamente aplicadas en el campo de reconocimiento basado en visitas, pueden extenderse de forma sencilla cuando únicamente consideramos información geométrica de caras. Se proponen dos mejoras basados en visitas: estas se basan en considerar como afectan las oclusiones de las imágenes al proceso de codificación de las mismas, y como la información topología de las imágenes puede introducirse en los modelos de proyección reduciendo de este modo el tamaño de los conjuntos de aprendizaje requeridos para sintonizar estos modelos, atenuando de esta forma el problema de la generalización. Por otro lado se aborda la utilización de información de forma para caracterizar medidas de similitud facial. En este trabajo se muestra como los descriptores basados en crestas y valles de la imagen son apropiados para caracterizar información de forma, proponiendo un modelo formal basado en las distancias de Hausdorff, el cual nos permitirá desarrollar medidas adecuadas para el reconocimiento de caras. Utilizando este marco, este trabajo introduce las medidas supervisadas de Hausdorff, donde distorsiones geométricas medidas en un conjunto de aprendizaje, son utilizadas para determinar o aprender como deberían medirse estas distorsiones en un futuro, mejorando de esta forma el comportamiento de los sistemas automáticos de reconocimiento de caras. Como consecuencia del marco formal introducido, esta tesis desarrolla también el proceso de construcción de prototipos geométricos y mapas auto-organizativos, coherentes con las medidas de Hausdorff. Por último este trabajo analiza como el proceso de caricaturización de las caras afecta a los sistemas computacionales de reconocimiento de caras.
  • CONTRIBUCIÓN AL ESTUDIO Y DESARROLLO DE ARQUITECTURAS PARA INTER-CONEXIONADO ÓPTICO DE SEÑALES Y RECONOCIMIENTO DE IMÁGENES.
    Autor: GAMO ARANDA FRANCISCO JAVIER.
    Año: 2000.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIONES.
    Centro de realización: E.T.S. ING. TELECOMUNICACIÓN.
    Resumen: Esta tesis describe diferentes aproximaciones para implementar interconexiones ópticas y sistemas de reconocimiento remoto de imágenes. El objetivo común en todos estos sitemas es demostrar la capacidad de la Óptica de realizar tareas de conmutación y computación, tradicionalmente realizadas mediante sus equivalentes electrónicos. El primer conjunto de sistemas incluye Hologramas Generados por Ordenador de tipo Transformada de Fourier, y diferentes clases de Moduladores Espaciales de Luz, que sierven para crear generadores de puntos luminosos fijos y dinámicos empleados en propósitos de interconexiones ópticas. El segundo sistema demuestra una red de interconexión acusto-óptica. La matriz de interconexión 12 x 12 es implementada por medio de un sistema de laboratorio de 1,2 Gigabits/s, con control global por ordenador desde un único ordenador de laboratorio. El último sistema describe una arquitectura de transmisión de imagen por fibra, con reconocimiento neuronal. Este sistema es la primera versión de uno más ambicioso, donde se pretende implementar la etapa de computación (al menos, parcialmente) por medios ópticos, aprovechando el conocimiento sobre interconexiones ópticas previamente adquirido.
  • "SHAPE BASED AUTOMATIC IMAGE COMPARISON" .
    Autor: LISANI ROCA JOSE LUIS.
    Año: 2000.
    Universidad: ISLAS BALEARES .
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR.
    Centro de realización: ESCOLA POLITECNICA SUPERIOR.
    Resumen: El tema de esta tesis es el desarrollo de una nueva tecnica para la extracción y reconocimiento de formas. La mayoria de las tecnicas utilizadas no son nuevas, sin embargo, el uso que se hace de ellas si lo es. Las formas de las imágenes se definen como elementos locales e invariantes por cambio de contraste, en particular, se trata de trozos de lineas de nivel. Estas lineas de nivel pueden extraerse de la imagen digital original o tras una interpolación bilineal de sus niveles de gris. En ambos casos la propiedad de monotonia de los conjuntos de nivel permite la construccion de un arbol de inclusión de curvas. La siguiente etapa consiste en la suvizacion de las curvas extraidas. Un filtrado afin invariante, equivalente a la evolucion producida pour una EDP basada en la curvatura (AMSS), es aplicado a todas las curvas de la imagen. A partir de las curvas filtradas se extrae una informacion local (puntos de inflexion, bitangentes, etc), que permite la codificación de trozos de curva con distintos grados de invariancia(rotación-translacion, euclidea o afin). Un diccionario de codigos es creado entonces y, finalmente, la busqueda de un pedazo de curva en la imagen se reduce a la búsqueda de una palabra-código en el diccionario.
  • INTERFEROMETRIA DE PATRON DE SPECKLE ELECTRONICO PARA LA MEDICION DE LA COMPONENTE EN PLANO DEL ESFUERZO MECANICO.
    Autor: ROMAM DOPAZO JUAN FELIX.
    Año: 2000.
    Universidad: SANTIAGO DE COMPOSTELA.
    Centro de lectura: FISICA.
    Centro de realización: ESCOLA UNIVERSITARIA DE OPTICA E OPTOMETRIA.
    Resumen: En este trabajo se han diseñado tres nuevos interferómetros de patrón de speckle electronico para la medición de la componente en plano de la deformación mecanica(mechanical strain) de objetos sometidos a esfuerzos (mechanical stress). Las medidas se obtienen a partir de la substracción digital de las imágenes registradas antes y después de la modificación del objeto. Los dos primeros interferómetros propuestos suponen una mejora, respecto a las tecnicas existentes, en cuanto a la determinación de la deformación en plano (pure in plane strain), pero no logran, en una medida directa, discriminarla totalmente de la deformación fuera de plano. El tercer interferómetro, sin embargo, permite realizar dicha discriminación. Hasta el momento, ningún instrumento óptico ofrecía este tipo de ventaja. Las técnicas empleadas proporcionan medias en tiempo real y sin contacto con la superficie del objeto. Se presentan diferentes resultados experimentales que prueban la validez de las hipótesis teóricas así como una revisión bibliografica discutiendo las dificultades que diversas tecnicas de metrologia optica para la medición de las deformaciones mecanicas en plano. Tambien se presentan diez apéndices que describen diversos aspectos tecnicos y teoricos de este trabajo.
  • DESARROLLO DE MODELOS COMPUTACIONALES DE REPRESENTACIÓN DE SECUENCIAS DE IMÁGENES Y SU APLICACIÓN A LA ESTIMACIÓN DEL MOVIMIENTO.
    Autor: CHAMORRO MARTÍNEZ JESUS.
    Año: 2000.
    Universidad: GRANADA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: E.T.S. INGENIERIA INFORMÁTICA.
    Resumen: En esta tesis se han desarrollado modelos de representación capaces de reflejar (i) que se percibe y (ii) hacia donde se mueve lo que se percibe. Para ello se ha estudiado la invarianza estadísitca a lo largo de un rango de frecuencias como medio para localiar rasgos de interés, proponiendo modelos que permiten, de forma separada, representar formas y movimientos. Ambos esquemas se han validado mediante su aplicación a la estimación del flujo optico. Para representar formas 2D se ha introducido el concepto de "patrón visual" definido en base a con frecuencia estadística en un rango de frecuencias espaciales indexadas en el tiempo. Se ha demostrado que los patrones visuales asi definidos consiguen extraer formas 2D, poniendo de manifiesto su bondad a la hora de asociar estructuras similares distanciadas en el tiempo, así como su capacidad de generar respuestas separadas para secuencias de objetos superpuestos. Para represenar movimientos se ha introducido el concepto de "patrón de movimiento" definido en base a una congruencia estadística a lo largo de un rango de frecuencias espacio-temporales. Se ha demostrado que estos patrones responden factoriamente ante desplazamiento sin cruce oclusiones y transparencias. Se ha mostrado que este segundo diseño permite una generalización para el caso 2D y 3D, validando a la congruencia estadística a lo largo de bandas de frecuencia como medio para detectar, además de movimiento, rasgos en imágenes 2D y 3D. Se ha propuesto una metodología para la estimación del flujo óptico en base a los modelos propuestos que permite la representación de velocidades multiples.
  • SEGMENTACION ESPACIO-TEMPORAL DE IMÁGENES MEDIANTE ESTRUCTURAS JERARQUICAS DE ENLACE ADAPTATIVO .
    Autor: RODRIGUEZ FERNANDEZ JUAN ANTONIO.
    Año: 2000.
    Universidad: MALAGA.
    Centro de lectura: INGENIEROS DE TELECOMUNICACION.
    Centro de realización: E.T.S. INGENIEROS DE TELECUMUNICACION.
    Resumen: Esta tesis presenta una nueva tecnica de segmentación espacio-temporal de imágenes para entornos reales. Los metodos existentes funcionan sólo bajo unas condiciones muy restrictivas que impiden su aplicación a un amplio conjunto de situaciones reales. El objetivo es conseguir un sistema tan resistente como sea posible que funcione para un conjunto amplio de diferentes entornos, sin imponer excesivas restricciones a priori. Además, el sistema debe funcionar en un ordenador personal sin necesidad de hardware especifico, por lo que resulta deseable desarrollar un método cuya carga computacional asociada esté acotada por un valor razonable. Desafortunadamente, la mayor parte de las tecnicas de segmentación existentes presentaron importantes dificientes al ser aplicadas sobre secuencias capturadas en condiciones de trabajo reales no controladas. Esto ocurría por la complejidad de las escenas o porque dichos metodos partian de una serie de limitaciones que no se suelen cumplir bajo estas condiciones. Algunos algoritmos ofrecieron resultados aceptables a pesar de todo, pero su complejidad, traducida en un elevado tiempo de proceso, resultó excesiva para aplicaciones en tiempo real. El metodo propuesto se ha desarrollado para evitar estos problemas. Para empezar, no depende de ninguna restricción y trabaja de forma jerárquica para mantener acotado el tiempo de proceso. Consiste en estabilizar adaptativamente estructuras piramidales construidas sobre fotogramas consecutivos de una secuencia para conseguir una segmentación consistente a lo largo de esta. Cuando la estabilización ha concluido, cada nodo de una estructura cualquiera esta enlazando a una region homogenea de pixeles pertenecientes al fotograma empleado para construirla, pero tambien a la misma region en fotogramas precedentes. Asi, las regiones no solo son consistentes en el espacio, sino tambien en el tiempo.
  • RECONSTRUCCION DE SUPERFICIES EN ENTORNOS DE LUZ ESTRUCTURADA: APLICACIÓN A ESPALDAS HUMANAS .
    Autor: MARTINEZ SOTOCA JOSE.
    Año: 2000.
    Universidad: VALENCIA.
    Centro de lectura: FISICA.
    Centro de realización: FACULTAD DE FISICAS.
    Resumen: EN ESTA TESIS SE REALIZA UN ESTUDIO DE LA VIABILIDAD Y DISEÑO DE UN SISTEMA DE RECONSTRUCCION DE SUPERFICIES CON EL FIN DE DETECTAR DEFORMACIONES DE ESPALDAS MEDIANTE TECNICAS DE VISION ARTIFICIAL. PARA ELLO,SE DESARROLLA UN MONTAJE BASADO EN LA GEOMETRIA PARALLAX A FIN DE OBTENER INFORMACION 3D UTILIZANDO LA TECNICA DE LUZ ESTRUCTURADA. SE ANALIZAN LAS DIFERENTES FUENTES DE ERROR DEL SISTEMA Y SU INFLUENCIA SOBRE LA FORMA DE LA SUPERFICIE, A TRAVES DE SU CURVATURA MEDIA Y GAUSSIANA. SE APLICA SOBRE ESPALDAS DEFORMADAS, OBTENIENDO DIFERENTES DESCRIPTORES QUE NOS RELACIONAN LA FORMA QUE ADOPTA LA COLUMNA VERTEBRAL Y SU REPERCUSION SOBRE LA SUPERFICIE. ASI MISMO, SE REALIZA UNA RECONSTRUCCION DE LA CURVA DE COLUMNA EN EL ESPACIO, ANALIZANDO LA CURVATURA, LA TORSION Y EL TIEDRO DE FRENET PARA DIFERENTES CASOS. CON ESTA INFORMACION SE BUSCA QUE EL ESPECIALISTA TENGA UN APOYO A LA HORA DE PREDECIR LA ENFERMEDAD EN SUS PRIMEROS ESTADIOS Y ESTABLECER SU DIAGNOSTICO.
  • APORTACIONES DEL TRATAMIENTO DE IMÁGENES A LA DOSIMETRIA EN RADIOTERAPIA .
    Autor: DIEZ DOMINGO SERGIO.
    Año: 2000.
    Universidad: VALENCIA.
    Centro de lectura: FISICA.
    Centro de realización: FACULTAD DE FISICA.
    Resumen: SE PROPONEN TECNICAS DE TRATAMIENTO DE IMÁGENES QUE DISMINUYEN EL ERROR EN LOS TRATAMIENTOS DE RADIOTERAPIA PARA SITUARLOS EN EL 5% RECOMENDADO POR LA ICRU. A TRAVES DEL ANALISIS DE LAS IMÁGENES TOMOGRAFICAS ADQUIRIDAS EN UN SIMULADOR TAL SE DEMUESTRA QUE LA CALIDAD GEOMETRICA ES MAS DETERMINANTE QUE LA PROPIA CALIDAD DE IMAGEN. SE DESARROLLA UN SISTEMA TOMOGRAFICO CAPAZ DE RECONSTRUIR VOLUMENES GRANDES A PARTIR DE RECONSTRUCCIONES PARCIALES. EL MOVIMIENTO FISIOLOGICO DE PACIENTE SE INCORPORA AL CALCULO POR MEDIO DE PROCEDIMIENTO DE ANALISIS BASADO EN CORRELACIONES CON FILTROS ADAPTADOS. SE PROPONEN TECNICAS DE CORRECION GEOMETRICA DE IMÁGENES Y DE DETECCION AUTOMATICA DE DIFERENCIAS. SE DESARROLLA UN SOFTWARE COMPLETO DE TDI CIENTIFICA, INCLUYENDO UNA IMPLEMENTACION DICOM QUE QUEDA COMO FREEWARE.
  • DESARROLLO DE UN MODELO PARA LA ESTIMACION DE LA EVAPOTRANSPIRACION EN CULTIVOS DE COBERTURA INCOMPLETA: APLICACIÓN AL VIÑEDO .
    Autor: ARTIGAO CASTILLO M. MAR.
    Año: 2000.
    Universidad: VALENCIA.
    Centro de lectura: FISICA.
    Centro de realización: FACULTAD DE FISICA.
    Resumen: EL OBJETIVO DE ESTE TRABAJO ES LA ESTIMACION DE LA EVAPOTRANSPIRACION PARA LO CUAL SE COMBINAN IMÁGENES LANASAT-TM Y NOAA-AVHRR. EL METODO UTILIZADO PARTE DE LA ECUACION DE BALANCE DE ENERGIA, UTILIZANDO UN MODELO BICAPA QUE MODELIZA LOS INTERCAMBIOS DE FLUJO DE CALOR SENSIBLE EN BASE A UNA FORMULACION DE RESISTENCIAS AERODINAMICAS QUE SE DEFINEN COMO UNA ASOCIACION EN SERIE. PARA LA SUPERPOSICION DE LAS IMÁGENES DE SATELITE QUE PROVIENEN DE DISTINTOS SENSORES, SE PROPONEN UNA METODOLOGIA BASADA EN TECNICAS DE CORRELACION UTILIZANDO PARA ELLO UN FILTRO DE WIENER. A PARTIR DE LA IMAGEN LANDSAT SE CLASIFICA LA ZONA DE ESTUDIO Y SE ELABORA UN MAPA DE EMISIVIDADES PONDERADA PARA LA FRACCION DE COBERTURA VEGETAL. MIENTRAS QUE LA IMAGEN NOAA PERMITE. DETERMINAR LA TEMPERATURA APLICANDO UN MODELO SPLIT-WINDOW ADAPTADO A LA ZONA DE ESTUDIO. LAS RESISTENCIAS AERODINAMICAS SE UTILIZAN PARA ELABORAR UNA IMAGEN DE COEFICIENTE "B" PARA EL VIÑEDO QUE, JUNTO CON LA IMAGEN DE TEMPERATURA PERMITE OBTENER UNA IMAGEN FINAL DE EVAPOTRANSPIRACION.
  • COMPRESIÓN REVERSIBLE Y TRANSMISIÓN DE IMÁGENES .
    Autor: GONZÁLEZ RUÍZ VICENTE.
    Año: 2000.
    Universidad: ALMERIA .
    Centro de lectura: ESCUELA POLITÉCNICA SUPERIOR.
    Centro de realización: ESCUELA POLITECNICA SUPERIOR.
    Resumen: En este trabajo de investigación se han estudiado diferentes soluciones al problema de la compresión sin pérdida de imágenes digitales y al problema de la transmisión de imágenes digitales sobre canales de comunicación lentos tipo Internet. Por este motivo, se han evaluado los principales algoritmos de compresión sin pérdidas de compresión de texto y de imágenes y de transmisión progresiva de imágenes. En el campo de la compresión de texto, los algoritmos LZW y PBT + aritha han sido intensivamente analizados.Par aLZW (Lempel Ziv Welch) diferentes propuestas de búsqueda de cadenas en el diccionario han sido consideradas.El compresor PBT + aritha (Transofrmada Basada en Predicción y codificación aritmética adaptativa) ha sido diseñado y evaluado. Los resultados demuestran que PBT es capaz de eliminar adecuadamente la correlación estadística unidimensional entre los puntos de una imagen. En el marco de la compresión de imágenes, se ha diseñado un compresor secuencial llamado BPN+aritha que utiliza una red neuronal que utiliza una red neuronal que aprende de sus errores usando el algortimo de retropropagación del terror y condificación aritmética adaptativa. Los resultados demuestran que una red neuronal totalmente desentrenada puede llegar a ser un buen predictor espacial. Finalmente, la problemática de la transmisión progresiva de imágenes ha sido abordada.Se trata de un campo muy interesante y con importantes aplicaciones en teleastronomía, telediagnóstico, etc.S e hace necesario el uso de transformaciones que permitan priorizar la información visulamente más importante.Las transformadas estudiadas son la de Walsh-Hadamard (WHT), la discreta del coseno (DCT) y la transformada wavelet discreta (DWT), en concreto la transformada Secuencial + Prediccion Unitaria (U(S+P)T) que resulta ser finalmente la más adecuada. Diferentes alternativas de transmisión de los coeficientes transformados son planteados, resultando que la transmisión por planos de bits es la que mejores reconstrucciones progresivas consigue. Seguidamente se estudia y evalúa un compresor de planos de bits progresivo llamado SPIHT (Set Partitioning In Hierarchical Trees). U(S+P)T+SPIHT resulta ser un magnífico compresor de imágenes (especialemtne para las de origen astronómico) y además permite la reconstrucción progresiva de la imagen recibida. El trabajo de investigación realizados en este último campo ha permitido el diseño de un software de transmisión progresivo de imágenes conformato FITS muy usado en astronomía. Respecto de la situación actual, con dicho software el astrónomo puede ver en un timpo menor lo que un telescopio remoto está captando, mientras esté conectado a una computadora accesible desde Internet.
  • ESTUDIO DE LA PROBLEMÁTICA DE LA CRACTERIZACIÓN DEL OLIVAR MEDIANTE SENSORES REMOTOS .
    Autor: PINILLA RUÍZ CARLOS.
    Año: 2000.
    Universidad: CORDOBA.
    Centro de lectura: INGENIEROS AGRÓNOMOS.
    Centro de realización: E.T.S. INGENIEROS AGRÓNOMOS Y MONTES.
    Resumen: La Tesis plantea la problemática que presenta la identificación fiable de los cultivos de olivar a partir de imágenes Landsat-TM. Con este tipo de imágenes, en las que la resolución espacial no permite reconocer por su forma las copas de los árboles, lo usual es el análisis multiespectral recurriendo a técnicas de clasificación.Pero los marcos tradicionales de cultivo en los olivares del sur de España dejan descubierta una gran proporción de suelo desnudo, por lo que la contribución radiométrica de éste prevalece sobre la del material vegetal, lo que termina repercutiendo en una identificación deficiente. El trabajo desarrolla un procedimiento de normalización adiométrica, que el autor denomina vegetalización, basado en un modelo geométrico de reflectancia desarrollado expresamente para el olivar, en el que se deduce la componente de reflectancia exclusivamente debida al cultivo en función de la reflectancia total y la del suelo desnudo, así como de la topografía del terreno y su orientación relativa con respecto a la situación instantánea del Sol y del sensor. La clasificación supervisada de las imágnes normalizadas por vegetalización proporcionan resultados significativamente mejores que los obtenidos a partir de la imagen original o incluso de la imagen normalizada topográficamente siguiendo los procedimientos.
  • CARDIAC WORKSTATION AND DYNAMIC MODEL TO ASSIST IN CORONARY TREE ANALYSIS.
    Autor: TOLEDO MORALES RICARDO JUAN.
    Año: 2000.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIERIA .
    Centro de realización: ESCUELA DE DOCTORADO, Y FORMACION CONTINUA-UNIVERSITAT AUTONOMA DE BARCELONA.
    Resumen: Esta tesis trata sobre el analisis automatico de las arterias coronarias mediante el uso de modelos deformables. El trabajo surge como consecuencia de la realizacion previa de un proyecto de I+D internacional en el campo de teletrabajo y multimedia aplicado a medicina (imagen radiologica). Despues del desarrollo y validacion de una estacion de trabajo multimedia se constato la conveniencia de incorporar nuevas herramientas, provenientes del campo de la vision por ordenador. El objetivo de estas herramientas es faciliar al medico la valoracion de las imágenes de diagnostico. El trabajo realizado forma parte de un sistema de ayuda al diagnostico que a su vez forma parte de un sistema de telemedicina. Dado que la estacion del trabajo fue desarrollada para imagen radiologica estatica, el primer paso es la adaptacion de la misma a la modalidad de imagen cardiologica. El siguiente objetivo es la construccion de un modelo tridimensional computerizado con capacidad para incorporar informacion anatomica y dinamica de las arterias. El modelo es necesario debido a que las imágenes de angiografia presentan un alto grado de dificultad cuando se las trata con tecnicas de vision por computador. Para la construccion del modelo se trataran varios problemas relativos a la vision por ordenador. Se abordan problemas de vision, desde los de bajo nivel como la deteccion de los vasos hasta los de alto nivel como la interpretacion de la imagen. Se proponen ideas novedosas en el campo de los modelos deformables (snakes) combinados con tecnicas de estimacion durante el proceso de construccion del modelo. Se propone y utilizan metodos de aprendizaje estadisticos para disminuir la gran dependencia de los snakes repecto al detector de bajo nivel que se utilice. El objetivo es incrementar la habilidad de los snakes en el proceso de deteccion de las arterias. Se desarrolla un nuevo mapa estadistico de energia potencial y una nueva forma de minimizacion de energia. Se demuestra la aplicación de los snakes para la reconstruccion tridimensional de los vasos. Se desarrolla tambien un grafo como elemento de almacenamiento y representacion del modelo. Finalmente se presenta la evoluacion de los metodos de segmentacion de los vasos y la validacion del modelo, que han resultado satisfactorios.
101 tesis en 6 páginas: 1 | 2 | 3 | 4 | 5 | 6
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia