Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > FISICA > OPTICA >

TRATAMIENTO DIGITAL DE IMAGENES, 2



101 tesis en 6 páginas: 1 | 2 | 3 | 4 | 5 | 6
  • MODELO INTERPOLATIVO PUNTO-SUPERFICIE PARA CALIBRADO DE CÁMARAS EN VISIÓN ARTIFICIAL .
    Autor: OTERO GÓMEZ JUAN JOSÉ.
    Año: 2002.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
  • FENÓMENO DE SEMIOSIS EN LOS LENGUAJES GRÁFICOS NO LINEALES .
    Autor: VILCHIS ESQUIVEL LUZ CARMEN ALICIA.
    Año: 2001.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: BELLAS ARTES.
    Centro de realización: FACULTAD DE BELLAS ARTES.
    Resumen: Esta investigación tiene como objeto de estudio lo diseñado gráficamente en el contexto de la tecnología digital desde dos relaciones interdisciplinarias: hermenéutica, en tanto permite la comprensión de la acción comunicativa desde su definición como texto y su materialización en discursos, y semiótica, en tanto se explica el sentido de la comunicación a apartir de sus dimensiones sintáctica, semántica y pragmática. Así se proponen la exégesis de lo diseñado y la acción de diseñar desde el fenómeno de semiosis en los conceptos de proyecto y excedente de sentido determinados tanto por la necesidad como por la intencionalidad de comunicar un mensaje en la compleja codificación del lenguaje gráfico hipertextual. La tesis aporta estructuras analíticas alternativas de la gramática visual, del proceso de diseño y el proceso de comunicación en las condicionantes de fragmentación y aleatoriedad que caracterizan los mensajes configurados, percibidos e interpretados desde las dimensiones espacio-temporales, de interacción y navegación propias de la comunicación gráfica no lineal.
  • ALGORITMO DE COMPRESIÓN SIN PÉRDIDAS DE IMÁGENES A COLOR BASADO EN SEGMENTACIÓN .
    Autor: SERRANO GOTARREDONA CARMEN.
    Año: 2001.
    Universidad: SEVILLA.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: ESCUELA SUPERIOR DE INGENIEROS DE SEVILLA.
    Resumen: En esta tesis se presenta un algoritmo original para la compresión sin pérdidas de imágenes en color. Este algoritmo ha sido desarrollado con vistas a la compresión de imágenes biomédicas o, más en concreto, fotografías digitales de quemadruas. Las ideas principales en que se funda el algoritmo son la segmentación de la imagen mediante el crecimiento de regiones,la transformación entera del espacio de representación del color y la predicción basada en el contexto.Con respecto al crecimiento de regiones, el algoritmo aporta una forma novedosa de llevar a cabo el crecimiento de regiones en tres dimensiones. El algoritmo presentado consigue una mejora sustancial, en cuanto a tasas de compresión, con respecto a los más moderno estándares de compresión sin pérdidas.Así, las imágenes comprimidas con el estándar de compresión sin pérdidas JPEG-LS (Joint Photographic Experts Gropup-Lossless) ocupan en media, 1,17 bits/píxel más que cuando se comprimen con el algortimo propuesto. A su vez,la fotografías digitales de quemaduras ocupan 3,11 bits/píxel más al comprimirlas con JPEG-LS.
  • ALGORITMOS JERARQUICOS PARA SEGMENTACION DE IMÁGENES EN COLOR .
    Autor: MOLINA CONDE ANTONIO IGNACIO.
    Año: 2001.
    Universidad: MALAGA.
    Centro de lectura: INGENIEROS DE TELECOMUNICACION.
    Centro de realización: E.T.S.I. TELECOMUNICACION.
    Resumen: La manipulacion de imágenes en color supone, frente al de las imágenes de escala de grises, un considerable incremento tanto en el volumen de datos a manejar como en la complejidad de las operaciones que han de realizarse. A pesar de esto, el papel del color esta cobrando relevacia en el area de la vision por computador en los ultimos años. La segmentacion es la etapa crucial en todo sistema de vision por computador, tanto por la importancia de sus resultados como por la dificultad del problema. Esta demostrado que las tecnicas multirresolucion proporcionan un mejor comportamiento que las convencionales. Sin embargo, si dichas tecnicas se implementan con estructuras de datos regulares, piramides o poligonos foveales, aparecen ciertos problemas que limitan y condicionan la precision de los resultados. Esto se debe a que en estas estructuras la resolucion vara de manera preestablecida, sin tener en cuenta las caracteristicas de la escena. En este sentido, en la presente tesis se propone una tecnica de segmentacion jerarquica, que proporciona en cada nivel de resolucion particiones irregulares de la escena. Esta se basa en la representacion jerarquica de la imagen mediante una sucesion de grafos de adyacencia, que permiten explotar las relaciones de proximidad y similitud entre las regionies vecinas. Asi pues, la imagen se procesa botton-up, de manera que la estructura resultante es una piramide irregular. Dado que los resultados son siempre sensibles al espacio de color en el que representan las imágenes, se ha investigado el comportamiento de la tecnica de segmentacion frente a imágenes representadas en los diferentes espacios de color aceptados como uniformes: R´G´B´, Y´U´V´, CIELAB Y CIELUV. Para ello, se han considerado distintas metricas, las cuales se utiliza para cuantificar en las imágenes. Ademas, tomando como nucleo la tecnica anterior, se han desarrollado dos metodos: el primero, para procesar imágenes multirresolucion de fovea desplazable, que presentan un perfil de resolucion variante a lo largo del campo de vision. El segundo, para procesar selectivamente piramides regulares, ofreciendo un notable comportamiento cuando se trabaja con escenas ruidosas. Finalmente, dada la revelancia del espacio CIELAB en multiples aplicaciones, se han abordado el problema de la no linealidad de la transformacion a partir del RGB, que requiere el calculo de raices cubicas. Para ello, se proponen diferentes metodos numericos basados en interpolacion polinomica para la transformacion entre dichos espacios.
  • METODOS HIBRDOS DE PROCESADO DE LA INFORMACION EN IMÁGENES DE BORDES. ALGUNAS APLICACIONES.
    Autor: MANZANARES ITUARTE ANA.
    Año: 2001.
    Universidad: COMPLUTENSE DE MADRID.
    Centro de lectura: FISICA.
    Centro de realización: DEPARTAMENTO DE OPTICA, FACULTAD DE CIENCIAS FISICAS, UCM.
    Resumen: En esta memoria se han estudiado metodos hibridos (opticos y digitales) para procesamiento de la informacion de imágenes de bordes degradados y sus posibles aplicaciones para caracterizacion de imágenes degradadas. Estudio teoricos. Se han desarrollado y propuesto modelos matematicos originales para la representacion analitica de objetos-borde con presencia de degradacion. Se han estudiado las propiedades matematicas de dichas funciones y se ha caracterizado el parametro o indice de degradacion. Se han obtenido funciones asociadas al procesamiento de imágenes de bordes degradados, considerando un sistema optico formador de imágenes lineal e isoplanatico. Estas funciones son: funcion de ensanchamiento de borde (ESF), funcion de transferencia de modulacion (MTF), funcion de ensachamiento de linea (LSF), funcion de reduccion del contraste (CRF). Se han definido las condiciones de optimizacion de la funcion LSF que representa el sistema optico formador de imágenes limitado por la difraccion (pupila circular de radio unidad) en condiciones de iluminacion coherente. Estas condiciones permiten generalizar a funciones LSF asociadas a degradacion arbitrara. Se han establecido criteros de resolucion especificos al problema de resolucion de objetos-bordes degradados basados en sus LSF asociadas, tanto para dos bordes con igual degradacion como para degradaciones distintas. Se ha caracterizado analiticamente la funcion de transmitancia asociada a un filtro solo defase (POF) para correlacion de bordes degradados. Estudios experimentales. 1)Sistema optico operando en condiciones de iluminacion con luz pseudo-termica, para la obtencion y procesamiento de imágenes de bordes degradados aplicando tecnicas de desenfoque. Estos resultados han sido comparados con los modelos teoricos, demostrando la validez de la representacion propuesta. Se ha aplicado el procedimiento a la caracterizacion de la profundidad de foco en sistemas con desenfoque. Se ha discutido la aplicabilidad del modelo a sistemas particulares que operan con degradacion como el sistema visual humano. 2)Correlador hibrido para la obtencion de correlacion de bordes degradados operando con iluminacion difusa. Se ha obtenido un filtro holografico solo de fase adaptado a un borde recto (sin degradacion). Se han obtenido registros para la correlacion de bordes degradados. Se ha establecido un procedimiento para la caracterizacion sistematica de la degradacion basada en los datos de los maximos de intensidad de la señal de correlacion. Se han obtenido resultados en funcion de distintas aperturas del correlador. Se ha demostrado que para esta operación especifica la correlacion se optimiza trabajando con un correlador de pequeña apertura (d
  • SEGMENTATION, CLASSIFICATION AND MODELIZATION OF TEXTURES BY MEANS OF MULTIRESOLUTION DECOMPOSITION .
    Autor: LUMBRERAS RUIZ FELIPE.
    Año: 2001.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIERIA.
    Centro de realización: ESCUELA DE DOCTORADO Y FORMACION CONTINUADA-UNVIERSITAT AUTONOMA DE BARCELONA.
    Resumen: El analisis de texturas es un area de estudio interesante con suficiente peso especifico dentro de los diferentes campos que componen la vision por ordenador. En este trabajo hemos desarrollado metodos especificos para resolver aspectos importantes de dicha area. El primer acercamiento al tema viene de la mano de un problema de segmentación de un tipo de texturas muy concreto como son las imágenes microscopicas de laminas de marmol. Este primer tipo de imágenes se componen de un conjunto de granos cuyas formas y tamaños sirven a los especialistas para indentificar,catalogar y determinar el origen de dichas muestras. Identificar y analizar los granos que componen tales imágenes de manera individual necesita de una etapa de segmentacion. En esencia, esto implica la localizacion de las fronteras representadas en este caso por valles que separan zonas planas asociadas a los granos. De los diferentes metodos estudiados para la deteccion de dichos valles y para el caso concreto de imagnes petrograficas son los basados en tecnicas de morfologia matematica los que han dado mejores resultados. Ademas, la segmentacion requiere un filtrado previo para el que se han estudiado nuevamente un conjunto de posibilidades entre las que cabe destacar los algoritmos multirresolucion basados en wavelets. El segundo problema que hemos atacado en este trabajo es la clasificacion de imágenes de textura. En el tambien hemos utilizado tecnicas multirresolucion como base para su resolucion. A diferencia de otros enfoques de carácter global que encontramos extensamente en la literatura sobre texturas, nos hemos centrado en problemas donde las diferencias visuales entre las clases de dichas texturas son muy pequeñas. Y puesto que no hemos establecido restricciones fuertes en este analisis, las estrategias desarrolladas son aplicables aun extenso espectro de texturas, como pueden ser las baldosas ceramicas, las imágenes microscopias de pigmentos de efecto, etc. El enfoque que hemos seguido para la clasificacion de texturas implica la consecucion de una serie de pasos. Hemos centrado nuestra atencion en aquellos pasos asociados con las primeras etapas del proceso requeridas para identificar las caracteristicas importantes que definen la textura, mientras que la clasificación final de las muestras ha sido realizada mediante metodos de clasificacion generales. Para abordar estos primeros pasos dentro del analisis hemos desarrollado una estrategia mediante la cual las caracteristicas de una imagen se ajustan a un modelo que previamente hemos definido, uno de estre varios modelos que estan ordenados por complejidad. Estos modelos estan asociados a algoritmos especificos y sus parametros asi como a los calculos que de ellos se derivan. Eligiendo el modelo adecuado, por tanto evitamos realizar los calculos que no nos aportan informacion util para la clasificacion. En un tercer enfoque hemos querido llegar a una descripcion de textura que nos permita de forma sencilla su clasificación y su sintesis. Para conseguir este objetivo hemos adoptado por un modelo probabilistico. Dicha descripcion de la textura nos permitirá la clasificación a traves de la comparacion directa de modelos, y tambien pondremos, a partir del modelo probalistico, sintetizar nuevas imágenes. Para finalizar, comentar que en ls dos lineas de trabajo que hemos expuesto, la segmentacion y la clasificacion de texturas, hemos llegado a soluciones practicas que han sido evaluadas sobre problemas reales con éxito y ademas las metodologias propuestas permiten una facil extension o adaptacion a nuevos casos. Como lineas futuras asociadas a estos temas trataremos por un lado de adaptar la segmentacion a imágenes que poco o nada tienen que ver con las texturas en las que se perseguira la deteccion de sujetos y objetos dentro de escenas, como apuntamos mas adelante en esta misma memoria. Por otro lado, y relacionado con la clasificacion, abordamos un problema todavia sin solucion como es el de la ingenieria inversa en pigmentos de efecto, en otras palabras la determinación de los constituyentes en pinturas metalizadas, y en el que utilizaremos los estudios aquí presentados como base para llegar a un posible solucion.
  • UN MODELO SINTATICO PARA EL RECONOCIMIENTO, SEGMENTACION Y MODELIZACION DE SIMBOLOS TEXTURADOS EN DOCUMENTOS GRAFICOS.
    Autor: SANCHEZ ALBALADEJO GEMA.
    Año: 2001.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIERIA.
    Centro de realización: ESCUELA DOCTORADO Y FORMACION CONTINUADA.
    Resumen: El analisis de documentos es una de las areas cientificas de referencia de la vision por Computador. Se ocupa de la identificacion de entidades graficas en un documento, impreso o en formato vectorial para su posterior almacenamiento, edicion, validacion o comprension de sus caracteristicas. Areas como la arquitectura, cartografia, ingenieria,urbanismo, etc. Se han beneficiado de los resultados cientificos del analisis de documentos graficos que son transferidos a entornos CAD cada vez mas avanzados. Dentro de analisis de documentos graficos el reconocimiento de simbolos es un problema complejo y en el que existen todavia retos importantes para la comunidad cientifica. El reconocimiento de simbolos dentro del contexto en el que se enmarque el documento. Los simbolos los podemos dividir en dos clases principalmente, los basados en prototipos y los texturados, es decir simbolos que tienen alguna de sus partes formada por una textura estructurada. Las texturas estructuradas se definen por uno o varios elementos o texels que se distribuyen en el espacio siguiendo unas reglas de emplazamiento. En nuestro modelo de textura estructurada consideraremos que estos texels son poligonos cerrados o segmentos de linea. Analogamente, un plano o documento a reconocer se modeliza por medio de un grafo de regiones de adyacencia, en el que los nodos representan los poligonos encontrados en el plano y las aristas las relaciones entre ellos. El trabajo realizado tiene dos partes bien diferenciadas, la segmentacion y el reconocimiento de texturas. En la primera, segmentamos texturas por medio de un clustering jerarquico sobre el grafo que representa el plano. De esta manera obtenemos una serie de clusters de poligonos similares con reglas de emplazamiento similares. Asi, los clusters donde encontramos un numero suficiente de elementos estan formando una textura y su represetante es el poligono y la vecindad medios calculados. Cuando es una textura y su representante es el poligono y la vecindad medios calculados. Cuando es una textura compuesta y esta formada por mas de un texel encontramos clusters solapados, y cada uno de ellos nos indica uno de los texels que firman la textura. La segunda fase infiere una representacion de la textura a partir de los representantes de los clusters. Esta representacion es una gramatca de grafo que permite producciones de error. El proceso de inferencia gramatical se realiza teniendo en cuenta los texels que forman la textura y sus reglas de emplazamiento. A partir de ellas se calculan de forma automatica a los ciclos cerrados que forman estas vecindades y se generan las reglas de la gramatica de grafo. Al final se introducen producciones de error para tolerar texturas distorsionadas por texels partidos o fusionados. Una vez la gramatica ha sido calculada se reconoce el simbolo representado por ella mediante un parsser que analiza un grafo de entrada y recorre los nodos del mismo que cumplen las reglas de la gramatica agrupandolos en uno o varios clusters que seran las ocurrencias del simbolo en el grafo presentado. En resumen, en este trabajo proponemos soluciones para segmentar, mediante el clustering de formas, texturas estructuradas, y modelizar y reconocer un simbolo texturado mediante una gramatica de grafo y el analisis sintactico que podemos realizar con ella sobre un grafo, respectivamente. Palabras clave: analisis de documentos graficos, reconocimientos de simbolos, texturas estructuradas, reconocimiento sintactico, gramaticas de grafo.
  • MODELOS DE INTERACCION LATERAL EN COMPUTACION ACUMULATIVA PARA LA OBTENCIÓN DE SILUETAS .
    Autor: FERNÁNDEZ CABALLERO ANTONIO.
    Año: 2001.
    Universidad: NACIONAL DE EDUCACION A DISTANCIA.
    Centro de lectura: CIENCIAS .
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: El trabajo objeto de esta tesis doctoral consiste en el estudio, diseño y realización práctica de un sistema de computación acumulativa con interacción lateral, destinado a las segmentación de los objetos deformables en movimiento en secuencias de imágenes. Los mecanismos de computación utilizados están inspirados en la biología. La arquitectura diseñada, modular, distribuida y parcialmente autoprogramable, consigue realizar tareas complejas. En este caso, la extracción de siluetas deformables en secuencias de imagen. Esta operación se realiza mediante módulos de computación simples inspirados en el efecto acumulativo que se produce en las conexiones sinápticas. Estos son los módulos de computación acumulativa, a los que se ha añadido como aportación principal de esta tesis, una interacción lateral. O puede verse, a tenor de un extenso conjunto de pruebas realizadas los resultados obtenidos, que el método mejora la capacidad computacional de forma significativa, permitiendo abordar aplicaciones que son enormente costosas si se acomenten con algoritmos de estructura menos biológica. Se consigue abordar problemas complejos mediante estructuras simples. El sistema desarrollado solventa el problema de extracción de siluetas en secuencias de imagen continuas de forma satisfactoria. De hecho, se consigue segmentar las distintas siluetas que aparecen en la escena, separándolas del fondo de forma independiente, a pesar de que éstas estén compuestas de varias zonas con distintos niveles de gris. Los pasos más significativos seguidos para la consecución de la solución ofrecida son: A,- preprocesamiento de las imágenes de entrada. B,- segmentación a partir de las bandas de nivel de ris. C,- computación acumulativas para la identificación de manchas móviles. D,- eliminación del fondo de la imagen mediante interacción lateral. E,- fusión de manchas en objetos mediante interacción lateral.
  • APLICACIÓN DE TECNICAS DE ACELERACION PARA VISUALIZAR MODELOS MULTIRRESOLUCION .
    Autor: BELMONTE FERNANDEZ OSCAR.
    Año: 2001.
    Universidad: VALENCIA.
    Centro de lectura: FISICA.
    Centro de realización: FACULTAD DE FISICA.
    Resumen: LAS MALLAS DE TRIANGULOS SE HAN CONVERTIDO DE FACTO EN EL ESTANDAR PARA MODELAR SUPERFICIES. UNA DE LAS PRINCIPALES RAZONES ES LA SENCILLEZ DEL ALGORITMO DE DIBUJADO DE ESTA PRIMITIVA GRAFICA, DE FACIL IMPLEMENTACION EN HARDWARE, UN OBJETO SE MODELACON UN UNICO NIVEL DE DETALLE DETERMINADO PO LA CANTIDAD DE TRIANGULOS UTILIZADO PARA CONSTRUIRLO. ESTE NIVEL DE DETALLE UNICO ES LA MAYOR PARTE DEL TIEMPO INADECUADO EN UNA APLIACION DE INFORMATICA GRAFICA EN TIEMPO REAL. SI EL OBJETO ESTA MUY PROXIMO AL OBSERVADOR EL NIVEL DE DETALLE PUEDE SER INSUFICIENTE. SI EL OBJETO ESTA ALEJADO LA CALIDAD DE DETALLE SE PIERDE. EL MODELADO MULTIRRESOLUCION REPRESENTA UN OBJETO CON MULTIPLES APROXIMACIONES Y PERMITE EXTRAER LA MAS ADECUADA DE TODAS SEGÚN CRITERIOS DEPENDIENTES DE LA APLICACIÓN. UN MODELO MULTIRRESOLUCION ESTA FORMADO POR LOS DATOS QUE REPRESENTAN ESTOS OBJETOS Y LOS ALGORITMOS DE EXTRACCION DE ESTOS DATOS. EN ESTA TESIS SE PRESENTA EL PRIMER MODELO MULTIRRESOLUCION QUE UTILIZA LA PRIMITIVA TIRA DE TRIANGULOS TANTO EN LA ESTRUCTURA DE DATOS DEL MODELO. COMO EN EL ALGORITMO DE EXTRACCION DEL NIVEL DE DETALLE. LA UTILIZACION DE ESTA PRIMITIVA SE DIRIGE AL FIN DEL MODELADO MULTIRRESOLUCIÓN, DISMINUIR LA CANTIDAD DE INFORMACION QUE ES NECESARIO ENVIAR AL SISTEMA GRAFICO PARA DIBUJAR UN OBJETO COMO UNA MALLA DE TRIANGULOS.
  • PROCESAMIENTO DIGITAL DE IMÁGENES DE SATELITES PARA LA OBTENCION DE MAPAS DE RADIACION SOLAR. APLICACIÓN A CATALUÑA .
    Autor: FLORES TOVAR HENRY.
    Año: 2001.
    Universidad: POLITECNICA DE CATALUÑA.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Resumen: En el presente trabajo se emplea un modelo estadistico para la determiancion de la radiación solar global superficial a traves de imágenes NOAA AVHRR, las cuales presentan una amplia cobertura conjuntamente con una adecuada resolucion espacial (del orden de 1.1 km2 en el nadir). El proceso se divide en tres pasos, el primero consiste en un procedimiento de detección de nubes, en el segundo se obtiene el albedo planetario visible y se determinan los indices de nubosidad para cada pixel de la imagen de satelite, los cuales son utilizados en el tercer paso para la aplicación del modelo estadistico. Los coeficientes de regresion del modelo se determinan a partir de los datos de once estaciones de medicion en superficie (estaciones de calibración) ubicadas en Cataluña. Una vez obtenidos los coeficientes para cada una de las estaciones de calibración, se aplica el metodo Kriging de interpolacion en superficie, para obtener el campo de coeficientes de la zona de estudio para luego aplicar el modelo y obtener el mapa de radiación solar global. Las estimaciones realizadas por el modelo se compararon con datos de otras diez estaciones de medicion en superficie (estaciones de validación) en Cataluña para comprobar la validez de los resultados. Este modelo fue comprobado durante 12 meses consecutivos del año 1998,obteniendo una excelente correlación entre la estimación realizada por el modelo y los registros de las estaciones de validacion, al obtenerse un coeficiente de determinacion superior a 0.98 en todos los casos, conjuntamente con un error cuadratico medio entre 9.7% y 15.9% y un bias que varia entre -9.8% y 1.2%. Adicionalmente, la radiación solar global horaria estimada por medio de satelite, se comparo con la obtenida mediante interpolación en superficie de los datos de las estaciones de medición y con las mediciones realizadas por piranometros en las estaciones de validación. En el sur de Cataluña la estimacion realizada por satelite (rmse 5.3% y -10.2%) y la obtenida mediante interpolacion de datos en superficie (rmse 3.0 -14.6%) son de igual calidad. Mientras que en el norte, la estimacion realizada por satelite es mucho mas rpecisa (rmse 6.9%) que la obtenida mediante interpolacion de los datos en superficie (rmse 11.4%-15.5%). Los valores de radiación solar global determinados por satélite, producen estimaciones especiales mucho más precisas que aquellas obtenidas mediante interpolación en superficie de los datos de las estaciones de medicion, especialmente en regiones donde la densidad de estaciones de medicion es muy baja o en regiones donde simplemente no se cuentan con estaciones de medicion. Esto se debe principalmente, a que los datos obtenidos por satelite, al ser espacialmente continuos y presentar una adecuada resolucion espectral, toman en cuenta variaciones especiales y locales de la radiacion solar global, mientras que la interpolacion en superficie de los datos de estaciones de medicion no tiene en consideracion.
  • PROCESADO DE IMÁGENES POR TECNICAS DE MULTIPLEXADO. APLICACIÓN AL RECONOCIMIENTO DE OBJETOS TRIDIMENSIONALES .
    Autor: ESTEVE TABOADA JOSE JUAN.
    Año: 2001.
    Universidad: VALENCIA.
    Centro de lectura: FISICA .
    Centro de realización: FACULTAD DE FISICA-UNIVERSITAT DE VALENCIA.
    Resumen: En este trabajo se han desarrollado varias aplicaciones, empleando tecnicas de multiplexado, dentro del campo del procesado óptico de imágenes. Empleado el multiplexado en longitud de onda, hemos extendido las capacidades de reconocimiento de un corrector optico iluminado con luz blaca al caso de la invariancia a escala hasta una relación de escalas de 2:1. El color del pico de detección que aparece en el plano de correlación nos indica automaticamente el tamaño que presenta el objeto de referencia. Empleando el mismo correlador iluminado con luz blanca hemos propuesto una aplicación que permite obtener, en la misma posición espacial y en tiempo real, las diferentes comonentes wavelet de una función de entrada.Cada componente wavelet aparece en un itervalo distinto de longitudes de onda. Tambien hemos propuesto un dispositivo experimental que permite detectar la distancia a la que se encuentra un objeto de referencia sobreuna escena tridimensional. La localizacion se realiza en tiempo real sin necesidad de ningun procesado intermedio de la imagen de entrada. Por otra parte, empleando la tecnica de multiplexado espacial, hemos propuesto un sistema optico que permite reconocer objetos tridimensionales. El dispositivo experimental, que ésta basado en la técnica de la perfilometría por transformada de Fourier, es extraordinariamente sencillo, y la detección se puede obtener en tiempo real, ya que no necesita ningún procesado intermedio de la imagen de entrada. Además, se ha propuesto dos extensiones de las capacidades de reconocimiento de este sistema optico. Por un lado, hemos extendido el reconocimiento de objetos tridimensionales al caso de la invarianza a escala. Podemos detectar, tambien en tiempo real, un objeto tridimensional independientemente del tamaño que éste presente, dentro de unos ciertos limites, sobre la escena de entrada.
  • PROPAGACIÓN DE LA INCERTIDUMBRE EN MODELOS DE TELEDETECCIÓN: ESTIMACIÓN DE LA EMISIÓN DE GASES DEBIDA A LA BIOMASA QUEMADA .
    Autor: MORENO RUIZ JOSE ANDRES.
    Año: 2001.
    Universidad: ALMERIA.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR.
    Centro de realización: E. POLITECNICA SUPERIOR.
  • CONTRIBUCIONES AL ANALISIS AUTOMATICO Y SEMIAUTOMATICO DE ECOGRAFIA FETAL TRIDIMENSIONAL MEDIANTE CAMPOS ALEATORIOS DE MARKOV Y CONTORNOS ACTIVOS. AYUDAS AL DIAGNOSTICO PRECOZ DE MALFORMACIONES.
    Autor: MARTIN FERNANDEZ MARCOS.
    Año: 2001.
    Universidad: VALLADOLID.
    Centro de lectura: INGENIEROS DE TELECOMUNICACION.
    Centro de realización: ETS. DE TELECOMUNICACION.
    Resumen: La deteccion automatica de estructura en aplicaciones de imagen medica es de informe importancia para la construccion de herramientas que permitan conseguir medidas volumétricas de tales estructuras y de esta forma, sirvan como verdaderas ayudas al diagnostico. En este trabajo se plantea un metodo inedito para la construccion de una de estas herramientas, concretamente, la medida "in vivo" del volumen encerrado en un riñon humano, cuando este es iluminado mediante una serie volumetrica de secciones ecograficas. La dificultad propia de interpretación de tales imágenes incluso por un experto ecografista, hacen que el problema no puede abordarse mediante metodos tipicamente empleados a la literatura. El metodo aquí propuesto opera seccion a seccion extrayendo los contornos del riñon en cada una de ellos. Es un método probabilístico y exteriormente Bayesiano. Concretamente, se plantea una función de probabilidad que incorpora el conocimiento "a priori" del problema. Basicamente, esta función impone la restrincción de suavidad en el contorno, como es procedente en la gran mayoria de estructuras naturales. Por otra parte, se define una función de merosimilitud, lo cual impone un comportamiento probalistico a los datos, condicionado a la posición del contorno del riñon. En esta segunda funcion se hace uso de un modelo empirico de los datos ecograficos, asi como del gradiente de tales datos. El modelo incluye, por ultimo, y como extension nometrica del conocimiento " a priori", un termino que impone suavidad a lo largo de la direccion de profundidad, los experimentos realizado a la tesis validar el modelo a pesar de la baja calidad de este tipo de imágenes. Finalmente, la tesis incluye un conjunto de aportacones teoricas-practicas llevada a cabo por el autor.
  • NUEVOS MODELOS DE REDES AUTOORGANIZADAS CON APLICACIÓN AL RECONOCIMIENTO DE PATRONES Y AL PROCESAMIENTO DE IMÁGENES .
    Autor: LÓPEZ RUBIO EZEQUIEL.
    Año: 2001.
    Universidad: MALAGA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: E.T.S.I. INFORMÁTICA.
    Resumen: En esta tesis se hace un estudio de dos modelos de redes neuronales artificiales autoorganizadas: el mapa autoorganizado de Kohonen (SOFM) y el mapa autoorganizado de subespacios adaptativos (ASSOM). Se realizan varias aplicaciones de estas redes a problemas de reconocimiento de patrones y procesamiento de imágenes, que ponen de manifiesto determinadas limitaciones de dichos modelos. Para dar superar estas limitaciones, se proponen dos nuevos modelos neuronales: el grafo dinámico autoorganizado (SODG), como alternativa al SOFM que utiliza una topología dinámica, y el mapa autoorganizado del análisis de componentes principales (PCASOM) como alternativa al ASSOM que hace uso del análisis de componentes principales.
  • DESCRIPCIÓN DE TEXTURAS. APLICACIONES A SU COMPRESIÓN Y CLASIFICACIÓN .
    Autor: EPIFANIO LÓPEZ IRENE.
    Año: 2001.
    Universidad: VALENCIA.
    Centro de lectura: MATEMÁTICAS.
    Centro de realización: FACULTAD DE MATEMÁTICAS.
    Resumen: Se ha tratado el problema de la representación de texturas tanto para su clasificación como para la compresión de imágenes naturales (constituidos por múltiples texturas) dentro del contexto de transform coding. Para ello, en primer lugar, se ha presentado una primera conexión entre los conjuntos aleatorios cerrados y el análisis de texturas. De esta manera, las texturas se han descrito empleando funciones de distribución de contacto y K-funciones. En segundo lugar, se ha propuesto una aproximación posibilística para la clasificación de texturas. Según esta asociaríamos a una nuevas textura grados de pertenencia a cada una de las clases. Se han planteado diversas alternativas para la obtención de dichas etiquetas posibilísticas, entre las que podríamos resaltar (para el problema en cuestión) el uso de los p-valo-res obtenidos con determinados tests. En cuanto al segundo de los problemas considerados (el de la compresión), primeramente se ha propuesto una transformación lineal que contempla simultáneamente aspectos estadísticos y psicovisuales, de manera que consigue reducir la redundancia estadística y perceptual presente en las imágenes naturales, facilitándose y justificándose así el uso de la cuantización escalar. A pesar de los buenos resultados obtenidos, la mencionada transformación es una primera opción que se ha mejorado utilizando una transformación no lineal inspirada en aspectos perceptuales. Con ella logramos eliminar las correlaciones perceptuales y disminuir en gran medida las estadísticas, consiguiendo imágenes descodificadas de calidad satisfactoria. Se ha propuesto además un método para invertirla empleando métodos de integración numérica de sistemas de ecuaciones diferenciales.
  • ANÁLISIS Y PARAMETRIZACIÓN DEL TERRITORIO PARA GESTIÓN DEL HÁBITAT EN CONSERVACIÓN .
    Autor: MARTÍN HERRERO JULIO.
    Año: 2001.
    Universidad: VIGO.
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: La adecuada gestión del hábitat es un factor clave en la conservación de la biodiversidad, y la pérdida de conectividad es una de sus principales amenazas. Por ello urge el desarrollo de métodos de análisis realista de la estructura espacial del territorio en función de la calidad del hábitat. Se diseña una metodología de análisis específica y sistemática. La calidad del hábitat viene dada por la composición de los tipos existentes y por la morfología del terreno sobre el que se presentan. Por ello se necesitan herramientas para identificar los tipos de cubiertas presentes en el territorio, y la información morfológica relevante: altura, pendiente y orientación. Se usa inteligencia artificial (clasificación de patrones) en imágenes de teledetección, y visión artificial (reconocimiento y seguimiento de líneas) sobre cartografía tradicional, junto con métodos numéricos específicos, como un nuevo sistema de interpolación para isohipsas. El análisis de tanta información presenta tal complejidad que no se han descrito todavía métodos de análisis que consideren todos los niveles de descripción que incluye. Se desarrollan algoritmos con los que obtener nuevos índices de medida de la estructura espacial de la calidad del hábitat. Se les dota de validez mediante modelos estocásticos con los que establecer el grado de correlación entre dichos índices y la dinámica de las poblaciones de interés. Los modelos estocásticos para la simulación de los procesos de dispersión, forrajeo y reproducción se plantean con el máximo grado de interacción posible con la estructura espacial del hábitat. La correlación entre las medidas geométricas o espaciales y los resultados de las simulaciones estocásticas se usa como medida fiable, dada la independencia en la metodología, para determinar qué índices son los más adecuados como indicadores de la calidad del hábitat para una gestión razonable del territorio.
  • SEGMENTACIÓN Y CLASIFICACIÓN DE IMÁGENES EN COLOR. APLICACIÓN AL DIAGNÓSTICO DE QUEMADURAS .
    Autor: ACHA PIÑERO BEGOÑA.
    Año: 2001.
    Universidad: SEVILLA.
    Centro de lectura: ESCUELA SUPERIOR DE INGENIEROS.
    Centro de realización: ESCUELA SUPERIOR DE INGENIEROS DE SEVILLA.
    Resumen: Esta tesis desarrolla un sistema de diagnóstico automático del grado de una quemadura a través de una fotografía digital. Para llevarlo a cabo establece, en primer lugar, los protocolos de adquisición de la imagen, es decir, las condiciones técnicas y clínicas para obtener la imagen a partir de la cual diagnosticar. En segundo lugar, se desarrollan y comparan cinco algoritmos de segmentación, cuyas misiones consisten en aislar la quemadura del resto de elementos de la imagen. Para llevar a cabo la segmentación la información que se ha tenido en cuenta es el color. A continuación, a partir de la zona segmentada se obtienen una serie de descriptores que representarán las características de color y textura de la misma. De entre estos descriptores se seleccionarán aquéllos con mayor poder discriminatorio. A los píxeles pertenecientes a la zona segmentada se les calculan los descriptores anteriores, y éstos constituirán las entradas a un clasificador, que obtendrá como resultado el grado de la quemadura. El clasificador empleado es una red neuronal artificial.
  • ANÁLISIS DE LA NUBOSIDAD POR CAPTACIÓN DIGITAL DE IMÁGENES DESDE SUPERFICIE .
    Autor: URIARTE ARECHABALA JOSE IGNACIO.
    Año: 2001.
    Universidad: PAIS VASCO.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INGENIEROS INDUSTRIALES DE BILBAO.
    Resumen: El principal objetivo de este trabajo es la aportación de un método original, con medios instrumentales económicos, para la segmentación de las nubes presentes en una imagen digital del cielo. Se trata del primer paso en el reconocimiento automático de las nubes presentes en una escena captada desde la superficie planetaria. La utilización de un sistema captador disponible en el mercado de consumo (cámara digital de resolución estándar más un ordenador personal) permite desarrollar el método con una financiación muy razonable. Entre las diversas aplicaciones posibles destaca la comparación entre la segmentación objetiva que realiza el sistema desarrollado y la observación visual subjetiva. La idea básica para conseguir una segmentación mejorada y superior a la tradicional observación subjetiva de la nubosidad, es comparar las características colorimétricas y de brillantez de cada punto perteneciente a la imagen captada actualmente, y las de un modelo construido previamente.
  • ROBUST SUBSPACE LEARNING FOR COMPUTER VISION .
    Autor: TORRE FRADE FERNANDO DE LA.
    Año: 2001.
    Universidad: RAMON LLULL .
    Centro de lectura: INGENIERIA ELECTRÓNICA E INFORMÁTICA.
    Centro de realización: E.T.S. D'ENGINYERIA ELECTRÓNICA I INFORMÁTICA LA SALLE.
    Resumen: El análisis de componentes principales (ACP) y la descomposición en valores singulares (DVS) son dos de las técnicas, basadas en la teoría de subespacios, más utilizadas en la reducción de la dimensionalidad, filtrado, modelado de datos, etc. Aunque conocidas desde hace más de 100 años, estas técnicas han sido introducidas en el campo de la visión por ordenador en los años 80 para resolver problemas como el reconocimiento, la estructura a partir de movimiento o el seguimiento. Sin embargo, ACP o DVS derivan de una estimación mínimo cuadrática que queda sesgada en presencia de outliers, una situación común en conjuntos de datos reales. En la primera parte de esta tesis, se introduce el aprendizaje robusto de subespacios, un nuevo método para reducir la influencia de los intra-sample outliers (outliers que aparecen a nivel de pixel). El resultado de este trabajo mostrará el beneficio de utilizar técnicas basadas en la estadística robusta cuando intra-sample outliers o medidas de incertidumbre quieren incorporarse en la formulación de ACP o DVS. La segunda parte de esta tesis aborda el problema del aprendizaje de dependencias ente dos ó más conjuntos de datos de elevada dimensión y con un número limitado de muestras. Se propone el análisis de componentes acoplados (ACA) para el aprendizaje de dependencias entre dos conjuntos, en el espacio de parámetros ocultos en lugar del espacio de observación (imagen). Adicionalmente se extiende ACA para modelar las dependencias temporales derivados en el análisis dinámico de componentes acopladas. Para tener en cuenta los outliers y posibles valores perdidos, el problema se formula en términos de estadística robusta. Finalmente, las técnicas de aprendizaje basadas en subespacio se aplican al problema del seguimiento y modelado de la cara. Los capítulos finales exploran el uso de modelos personales faciales basados en la apariencia (MPFA) para producir resultados más rápidos, fiables, específicos y robustos que con los modelos más genéricos. El capítulo 4 introduce el análisis de componentes parameterizado para aprender automáticamente un modelo facial personal de apariencia 2D y de esta manera evitar el largo, aburrido y muchas veces erróneo proceso manual de colección de datos. Una vez aprendido el modelo, se ha investigado el uso de técnicas determinísticas y estocásticas para realizar el seguimiento. En concreto, se hace uso del filtrado de partículas para obtener una inicialización automática, una recuperación de los fallos de seguimiento, para permitir el cambio entre modelos y modelar las no linealidades. Para finalizar, se investigan aplicaciones de MPFA a la videoconferencia, detección de la fatiga del conductor, animación virtual de actores, etc.
  • DESARROLLO DE NUEVAS REPRESENTACIONES Y ALGORITMOS PARA LA OBTENCIÓN DE DISPARIDADES EN VISIÓN ESTÉREO .
    Autor: MAYORAL MALMSTRÖM RAFAEL.
    Año: 2001.
    Universidad: PUBLICA DE NAVARRA.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: E.T.S.I.I. Y T..
    Resumen: La visión tridimensional es la parte de la visión por computador que se ocupa de la obtención de la estructura tridimensional de una escena. Se trata de un problema mal planteado de inversión de la óptica proyectiva. Las distintas técnicas existentes tienen como objetivo convertir, a través de un proceso general de regularización, dicho problema en otro que pueda resolverse. La presente tesis se centra en los métodos pasivos, que realizan la regularización utilizando conocimiento a priori acerca del entorno. En la primera parte se aborda la determinación de disparidades para píxeles seleccionados, es decir, sólo se obtiene información de distancia para algunos puntos del espacio. Se formula una función de mérito y una vez planteada dicha función, se desarrollan diversas técnicas basadas en la aplicación de redes neuronales artificiales y de programas evolutivos para optimizarla. La segunda parte del trabajo se centra en la determinación de disparidades para todos los píxeles de las imágenes. Se especifica un modelo para las soluciones que incluye las suposiciones acerca del entorno. Se presentan y analizan diferentes alternativas para el aprovechamiento de los datos de las imágenes. Utilizando dichos datos, se desarrolla un algoritmo que resuelve el problema línea a línea minimizando un error de correspondencia dentro del marco creado por el modelo impuesto a las soluciones y sin la necesidad de términos de penalización.
101 tesis en 6 páginas: 1 | 2 | 3 | 4 | 5 | 6
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia