Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > CIENCIAS TECNOLOGICAS > TECNOLOGIA DE LAS TELECOMUNICACIONES >

INTERNET E INTRANET



55 tesis en 3 páginas: 1 | 2 | 3
  • ANALISIS DESCRIPTIVO DE NUEVOS MEDIOS EN INTERNET: DIARIOS DIGITALES, PORTALES, BUSCADORES Y DIRECTORIOS, BITÁCORAS O WLBLOGS, REDES CIUDADANAS Y COMUNIDADES VIRTUALES .
    Autor: ALONSO RUIZ JAIME.
    Año: 2004.
    Universidad: PONTIFICIA DE SALAMANCA.
    Centro de lectura: UNIVERSIDAD PONTIFICIA DE SALAMANCA.
    Centro de realización: FACULTAD DE COMUNICACIÓN.
    Resumen: La hipótesis de partida de esta tesis doctoral es demostrar que Internet es un espacio o ámbito de comunicación en donde es posible percibir la presencia y consolidación de lo que hemos conceptualizado como nuevos medios o formas de comunicación: diarios digitales, portales, buscadores o directorios, bitácoras o weblogs, redes ciudadanas y comunidades virtuales. En la primera parte de la investigación, se elabora un discurso teórico/conceptual sobre la naturaleza de Internet, en donde se abordan cuestiones tales como lo virtual y la comunicación virtual, así como la distinción entre modo y forma de comunicación. Dada la ausencia de metodología sobre este objeto de estudio (tanto de Internet en general como de los nuevos medios), se propone una metodología fundamentalmente exploratoria (motivada por la novedad el tema) con elementos propios de la metodología descriptiva. Para proceder al estudio de campo -basado en la selección de una muestra representativa de cada una de las categorías mediáticas- se ha propuesto un modelo de análisis en donde cada uno de los criterios es fruto de la reflexión teórico-reflexiva elaborada en la primera parte. La investigación concluye en una afirmación positiva de la hipótesis de partida de la investigación: Internet, como espacio de comunicación, muestra la consolidación de nuevos medios o formas de comunicación. El resto de conclusiones que se desprenden de la investigación arrojan elementos que sirven para describir de manera global la naturaleza, características y dinámicas de los nuevos medios, tales como la flexibilidad, complejidad e innovación; así como una extensa gama de conclusiones de carácter individual, que son de utilidad para conocer las peculiaridades específicas de cada nuevo medio.
  • Determinación de tendencias en un portal web utilizando técnicas no supervisadas. Aplicación a sistemas de recomendaciones basados en filtrado colaborativo.
    Autor: Martín Guerrero José David.
    Año: 2004.
    Universidad: VALENCIA.
    Centro de lectura: ESCOLA TÈCNICA SUPERIOR D'ENGINYERIA.
    Centro de realización: Facultat de Física y ETSE de la Universitat de València. CMS, Liverpool John Moores University..
    Resumen: La competencia que existe en la oferta de servicios web, así como la gran cantidad de usuarios que acceden usualmente a Internet, lo que supone una considerable cantidad de datos, hacen posible recomendar diferentes servicios web a usuarios individuales. Esto ha llevado al desarrollo de los sistemas de recomendaciones como uno de los campos de investigación más importantes dentro del modelado de usuarios. Los sistemas de recomendaciones sugieren a los usuarios aquellos servicios en los que probablemente estarán interesados. Existen recomendadores de diferentes tipos, siendo en ocasiones complicado escoger el más adecuado y asegurar su funcionamiento. Algunos recomendadores se basan en asociaciones entre diferentes productos, servicios o páginas web (por ejemplo, relaciones Bayesianas en recomendadores para buscar usuarios similares en función de los servicios que soliciten, como hace Amazon.com), mientras que otros sistemas se basan en la previa caracterización de grupos de usuarios similares. La presente Tesis Doctoral propone el uso de técnicas no supervisadas para determinar los diferentes comportamientos que presentan los usuarios que se conectan a un portal web. Estas técnicas funcionan sin la necesidad de ningún tipo de conocimiento a priori, permitiendo establecer grupos que aglutinan a usuarios similares en su comportamiento. Esta fase de agrupamiento es utilizada para realizar recomendaciones a los usuarios del portal. La justificación de este trabajo proviene del desarrollo de una metodología completa para llevar a cabo recomendaciones a usuarios individuales de portales web, así como de las diferentes aportaciones noveles que se han realizado en diversas partes de esta metodología.
  • Nuevas técnicas de control y gestión de tráfico en Internet para proporcionar Calidad de Servicio extremo a extremo .
    Autor: Cano Baños MarÍa Dolores.
    Año: 2004.
    Universidad: POLITECNICA DE CARTAGENA.
    Centro de lectura: E.T.S. de Ingeniería de Telecomunicación.
    Centro de realización: E.T.S. de Ingeniería de Telecomunicación.
    Resumen: Entre las razones que deben motivar a los proveedores de servicios para emplear la arquitectura de Servicios Diferenciados (Differentiated Services, DiffServ) destacan su gran escalabilidad y su sencilla implementación. La arquitectura DiffServ responde a las necesidades de Calidad de Servicio (Quality of Service, QoS) en las redes IP actuales trasladando toda la complejidad a la frontera de la red y en mejor caso, hasta las propias fuentes de tráfico. Dejando así los mecanismos a utilizar en nodos interiores tan sencillos como sea posible. De las distintas clases de servicio definidas dentro de la arquitectura DiffServ, destaca el servicio asegurado (Assured Service, AF). Éste congrega a un mayor número de aplicaciones y en consecuencia más tráfico. Un usuario que contrate un servicio asegurado espera que se le garantice el ancho de banda que ha contratado y además, tiene la convicción de que el tráfico que genere en exceso también se transmitirá si hay recursos disponibles. Para poder ofrecer a los usuarios esta clase de servicio, habrá que poner especial atención en dos puntos clave: las técnicas empleadas para acondicionar el tráfico y los métodos de planificación y gestión de las colas en los nodos de la red. Los objetivos de esta tesis doctoral han sido: " En primer lugar, la evaluación comparativa de prestaciones de las técnicas existentes para la implementación del servicio asegurado: técnicas de acondicionado de tráfico y de planificación y gestión de las colas de los nodos DiffServ. " En segundo lugar, la propuesta y evaluación de nuevos métodos de acondicionado y de gestión de colas que suplan los defectos de los métodos conocidos y sean capaces de ofrecer un servicio asegurado con todas las garantías al usuario final. El trabajo comenzó con una revisión del estado de la técnica. Las primeras propuestas de acondicionadores de la literatura especializada presentan carencias notables. Cabe destacar el algoritmo de ventana deslizante temporal (Time Sliding Window, TSW) como una referencia clásica. Otros algoritmos como el TSW mejorado (Enhanced TSW, ETSW), el acondicionador inteligente, el acondicionador justo o el acondicionador de marcado aleatorio, intentaron aliviar los efectos que producían sobre las prestaciones finales parámetros como la heterogeneidad de contratos entre los usuarios, la variabilidad de los tiempo de ida y vuelta, etc. En algunos casos llegaron a garantizar los contratos de forma rigurosa, pero la mayoría de las veces a cambio de presentar un esquema no escalable o de requerir una señalización demasiado elevada. En el tema de la gestión de colas de los nodos, la propuesta más importante fue el esquema RIO (Random Early Drop In & Out). Con este algoritmo, paquetes con niveles de precedencia distintos se trataban de modo diferente en las colas de los nodos de la red. Aunque este esquema supuso un avance en el desarrollo del servicio asegurado, sus prestaciones eran muy mejorables. De este primer estudio concluimos que no existía ningún algoritmo de acondicionado del tráfico que pudiese garantizar los contratos de los usuarios y a la vez distribuir el ancho de banda en exceso de modo justo entre las distintas fuentes de tráfico que componen un agregado. Estas conclusiones han sido el punto de partida para el trabajo desarrollado. A continuación, analizamos en detalle las prestaciones de algunos de los algoritmos de acondicionado existentes, en concreto centramos el estudio en los algoritmos TSW y LB (Leaky Bucket). Previo a este estudio hallamos las pautas de configuración de ambos, puesto que una de las principales dificultades que presentan es la configuración de parámetros. De los resultados del estudio se desprende que, con una configuración correcta, LB ofrece al usuario un contrato garantizado. No obstante, la distribución el ancho de banda entre las fuentes no se realiza de modo justo (en sentido equitativo) cuando hay diversidad de tiempos de ida y vuelta. TSW, por su parte, aún con una configuración óptima no garantiza de un modo preciso los contratos. Como ventaja frente a LB, TSW reparte de un modo más justo el ancho de banda no contratado cuando hay variabilidad de tiempos de ida y vuelta. Ante la duda de escoger uno u otro, abogamos por el primero puesto que el primer objetivo a cumplir debe ser asegurar el contrato del usuario. El siguiente paso ha sido el desarrollo de un nuevo acondicionador de tráfico denominado Counters Based (CB). Su principal característica es su sencilla implementación. En comparación con los dos acondicionadores clásicos anteriores, CB garantiza estrictamente el ancho de banda contratado por los usuarios en situaciones heterogéneas. Además, es el que distribuye de modo más justo (equitativo) el ancho de banda en exceso cuando hay poca variabilidad de tiempos de ida y vuelta entre las fuentes. Sin embargo, no es capaz de realizar un reparto justo en una situación de gran variabilidad de tiempos de ida y vuelta. Sin olvidar la importancia de los mecanismos de planificación y gestión de las colas que todos los nodos de un dominio de Servicios Diferenciados deben incorporar, desarrollamos una nueva propuesta para implementar el comportamiento por saltos del servicio asegurado. La idea de la que partimos fue eliminar cualquier tipo de interferencias entre los distintos paquetes pertenecientes a este servicio. Así nace la gestión de doble cola Dual Queuing (DQ). Aplicando DQ, los paquetes con mismo nivel de precedencia se sitúan en la misma cola. En nuestro caso, dado que sólo trabajamos con dos niveles tendremos dos colas. La probabilidad de servir una cola, la de más precedencia, es igual a la carga de red que sirve ese nodo. Mientras la otra cola se sirve con probabilidad complementaria. Es importante remarcar que este esquema se aleja de la definición dada inicialmente para el AF PHB (Assured Forwarding Per Hop Behavior), ya que según nuestro esquema los paquetes se pueden servir fuera del orden de llegada. Desde nuestro punto de vista, este hecho no es un inconveniente porque cualquier pérdida de secuencia en paquetes TCP queda resulta por el propio funcionamiento de este protocolo en el destino. El estudio de prestaciones lo realizamos utilizando CB para acondicionar el tráfico, dando lugar a la pareja CBDQ. Tras realizar simulaciones en diferentes escenarios con diversidad de contratos y tiempos de ida y vuelta, se demostró que la pareja CBDQ presenta unas prestaciones muy superiores a TSW-RIO, LB-RIO y CB-RIO. Los índices de justicia obtenidos para CBDQ en todos los escenarios son muy elevados y al mismo tiempo, los contratos de los usuarios quedaron plenamente garantizados. Con el objetivo de encontrar un acondicionador que, independientemente del esquema de gestión de las colas, permitiera completar las expectativas del servicio asegurado, pensamos una posible mejora al acondicionador CB de manera que lograse un reparto justo, en sentido equitativo, del ancho de banda en exceso. El resultado fue el acondicionador Counters Based Modified (CBM). CBM penaliza a las fuentes que generan demasiado tráfico en exceso descartando paquetes de menor precedencia en el propio acondicionador. El algoritmo de descarte es del tipo RED (Radom Early Drop). En concreto, cada vez que un paquete se marca como out se comprueba el número de paquetes out entre paquetes in consecutivos. Si este número está por debajo de un umbral mínimo el paquete out se transmite a la red. Si este número está por encima de un umbral máximo el paquete out se descarta. Por último, si este número está entre ambos umbrales el paquete out se descarta con probabilidad p. Después de detallar el método para configurar estos parámetros, pasamos al estudio de prestaciones. CBM fue analizado en topologías de uno y dos cuellos de botella. En ambos casos, se realizaron simulaciones en diferentes escenarios: variedad de contratos, variedad de tiempos de ida y vuelta, efecto de fuentes best-effort sobre fuentes con tráfico asegurado y por último, repercusión sobre las prestaciones si un nodo del dominio no implementa DiffServ (sólo para la topología de dos cuellos de botella), con el fin de evaluar la robustez del sistema. El estudio de prestaciones mediante simulación reportó los siguientes resultados. En una topología de un único cuello de botella, CBM no sólo asegura los contratos de modo estricto sino que además distribuye el ancho de banda en exceso de modo justo entre las fuentes de tráfico. Lo que viene representado por unos sumamente elevados índices de justicia. Estas notables prestaciones no se ven afectadas por la variabilidad de los contratos, de los tiempos de ida y vuelta o por la competencia entre fuentes best-effort y fuentes con servicio asegurado por los recursos de la red. Para la topología de dos cuellos de botella, los resultados muestran que se siguen asegurando los contratos. En un caso peor, por ejemplo cuando uno de los nodos del dominio no implementa DiffServ, los contratos se garantizan al 70%. Por su parte, el reparto del ancho de banda en exceso se realiza en media de modo justo e incluso en las situaciones más adversas, presenta unas prestaciones comparativamente superiores a las de sus antecesores. En resumen, un buen acondicionado de tráfico con el acondicionador CBM, situado junto a las fuentes de tráfico pero fuera del alcance del usuario final, demostró ser pieza clave para garantizar un servicio asegurado. Para afrontar el problema del reparto proporcional del ancho de banda en exceso, proponemos el nuevo acondicionar de tráfico PETER (Proportional Excess Traffic conditionER). En concreto, PETER es una función policía que se aplica en el acondicionador tras marcar los paquetes IP. Para el funcionamiento de PETER es necesario definir el valor ideal como el ratio entre la capacidad del enlace de entrada al troncal del nodo frontera y la carga de red que este nodo sirve. El valor de ideal es fijo a menos que un usuario se dé de alta, se dé de baja o modifique su contrato. Este valor se calcula en el nodo frontera y, mediante señalización en el bucle de abonado, se envía a los acondicionadores de tráfico situados junto a las fuentes pero fuera del alcance de los usuarios finales. Cada acondicionador observa el ratio número de paquetes out entre número de paquetes in, denominado mi. Como se demuestra en este capítulo, si ideal es igual a mi, entonces cada fuente consume el ancho de banda en exceso en proporción al ancho de banda que ha contratado. Por otro lado, si mi mayor que ideal, la fuente i está consumiendo más ancho de banda en exceso del que le corresponde. Así, el funcionamiento de PETER en cada uno de los acondicionadores se basa en comprobar si la igualdad se cumple y si no, descartar paquetes para que la fuente disminuya el caudal. El estudio de prestaciones mediante simulación se desarrolló en una topología de un cuello de botella. Como en capítulos anteriores, los escenarios utilizados presentan variedad de contratos, variedad de tiempos de ida y vuelta e incremento en el número de fuentes. Además, se analizaron las prestaciones de PETER para cargas de red entre el 20% y el 90%. El estudio demostró que los contratos quedaban plenamente garantizados en todos los casos y para todas las cargas de red. Además, el reparto del ancho de banda en exceso se realizaba de modo proporcional al contrato de cada fuente. Este hecho vino representado por un índice de justicia notablemente alto para cargas de red entre el 20% y el 80%. Desde un punto de vista innovador, PETER consigue de un modo práctico y más sencillo que el de otras propuestas alcanzar los objetivos de un servicio asegurado con reparto proporcional del ancho de banda excedente. Para finalizar, llevamos a cabo un breve estudio experimental de las soluciones disponibles en la actualidad en encaminadores (routers) comerciales para ofrecer calidad de servicio en las redes IP. El trabajo se desarrolló sobre una plataforma de prueba compuesta por cuatro routers Cisco 2600 y dos PC con sistema operativo Linux y dos tarjetas de red cada uno. Se llevaron a cabo pruebas para tres implementaciones del AF PHB: una única cola FIFO (First In First Out) con WRED (Weighted RED), CBWFQ (Class Based WFQ) sin WRED y CBWFQ con WRED. Para cada uno de ellos se utilizaron tres escenarios: igualdad de contratos, variabilidad de contratos y aumento del número de fuentes. El acondicionado del tráfico (marcado) se realizó en los nodos frontera con el algoritmo token bucket, pues es el único que existe en equipos comerciales. El estudio proporcionó los siguientes resultados. Para todas las implementaciones se garantizan los contratos. Para los dos primeros casos (FIFO con WRED y CBWFQ sin WRED), el ancho de banda en exceso no se distribuye de forma justa (ni en sentido equitativo ni proporcional) si hay variedad de contratos. En el último caso (CBWFQ con WRED) se logra garantizar los contratos y distribuir el ancho de banda en exceso de modo justo. Sin embargo, sería imposible seguir este esquema en una red real por su demostrada falta de escalabilidad. En consecuencia, es necesario adaptar los equipos existentes a las nuevas tendencias en el ámbito de la calidad de servicio en redes IP como las mostradas en capítulos anteriores. Si se opta por ofrecer una diferenciación de servicios con garantías a los usuarios de Internet, es fundamental el acondicionado del tráfico, a ser posible en las propias fuentes. Las propuestas presentadas en esta tesis han demostrado su validez al respecto, y probablemente su aplicación pueda extenderse a nuevos entornos como las redes 3G/4G o los nodos frontera de las redes ópticas.
  • CONTRIBUCIÓN A LA DISTRIBUCIÓN DE CONTENIDOS MULTIMEDIA SOBRE REDES PEER-TO-PEER .
    Autor: MOZO VELASCO B. ALBERTO.
    Año: 2004.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S. INGENIEROS TELECOMUNICACIÓN.
    Centro de realización: E.T.S. INGENIEROS TELECOMUNICACIÓN.
    Resumen: Los sistemas cooperativos se despliegan sobre solapamientos de red con el objetivo de compartir ancho de banda, un recurso que hasta el momento no ha sido compartido masivamente. Estos sistemas construyen un solapamiento de red entre pares para coordinar los diferentes nodos (red de control), y una red de distribución para el contenido. En los sistemas cooperativos más populares actualmente (SplitStream-Scribe sobre Pastry y Bayeux sobre Tapestry), las dos redes comparten la misma topología, siendo el árbol de distribución del contenido, un subconjunto de la topología de la red de control. En estos sistemas, el árbol de distribución es fácil de construir, pero cuando el número de nodos receptores interesados es un subconjunto de todos los nodos conectados a la red de control, las soluciones actuales obligan a participar en la distribución a un gran número de nodos intermedios no interesados en la recepción del contenido. En un escenario de nodos heterogéneos, en cuanto a ancho de banda se refiere, el ancho de banda de subida necesario para reenviar un flujo multimedia a un número N de hijos dentro de un árbol de distribución, puede no estar disponible en los nodos no interesados. Si construimos un árbol específico de distribución, aparece una pequeña sobrecarga durante la construcción, pero no obligamos a participar a nodos no interesados en la recepción del contenido. Sin embargo, si construimos el árbol de distribución usando la red de control, e incluyendo a los nodos no interesados en recibir el flujo, entonces serán retransmitidas copias extra del flujo multimedia en la red física. Por lo tanto, cuando el flujo multimedia consume un ancho de banda significativo (por ejemplo ví-deo o audio en formato streaming), nuestra solución es más efectiva desde el punto de vista de la red y de los nodos participantes. Nuestra solución (denominada protocolo HBTP) permite construir árboles específicos con una topología independiente de la topología de la red de control. Los árboles solo se construyen por los nodos interesados en recibir el flujo multimedia, y éstos pue-den ser totalmente heterogéneos en cuanto a sus recursos (principalmente ancho de banda). El proceso de construcción del árbol es totalmente distribuido y altamente escalable, generando una sobrecarga baja en la red. La construcción del árbol se realiza en paralelo en dos vertientes: (a) los nodos ya enganchados al árbol, publican la información sobre los huecos disponibles en el árbol; (b) los nuevos nodos localizan los huecos disponibles. La publicación y localización de huecos se puede construir sobre el solapamiento cooperativo estructurado Chord usando la primitiva de almacenamiento de pares menor que clave, valor mayor que y una ligeramente modificada primitiva de búsqueda. Asimismo nuestra solución puede ser aplicada para construir árboles multiflujo.
  • INCREMENTO CRITICO DEL CONTENIDO DE LA WEB SEMANTICA MEDIANTE POBLADO AUTOMATICO DE ONTOLOGIAS .
    Autor: CONTRERAS CINO JESUS.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: FACULTAD DE INFORMATICA.
    Centro de realización: FACULTAD DE INFORMATICA, UNIVERSIDAD POLITECNICA DE MADRID.
    Resumen: La Web Semántica puede convertirse en la siguiente revolución en la sociedad de la información, comparable con la reciente popularización de la web e Internet. La Web Semántica ofrece contenido online semánticamente anotado de manera formal, posibilitando así su procesamiento automático mediante software. Uno de los retos de esta web es la disponibilidad de una masa crítica del contenido semántico, y éste constituye la motivación principal de esta tesis. Esta tesis propone una arquitectura para diseño de sistemas de adquisición automática de contenido en la Web Semántica. Su objetivo concreto es proporcionar un marco para el desarrollo de sistemas para el procesamiento de contenido actual de la WWW y convertirlo en contenido semánticamente anotado para que los agentes y las aplicaciones de la Web Semántica puedan procesarlo. En la propuesta de la arquitectura se parte del supuesto de la existencia de relaciones entre las estructuras que puedan presentar las fuentes y el uso de distintas tecnologías para la extracción de información, entre las que se incluyen: procesamiento de lenguaje natural, de aspecto visual, de expresiones reguares, etc.. La arquitectura permite el uso de todas ellas en un marco de cooperación basado en un control estratégico y parametrizable de la tarea de extracción e instanciación de contenido semántico.
  • DISEÑO Y DESARROLLO DE APLICACIONES BASADAS EN CONOCIMIENTO PARA LA WEB .
    Autor: ARGÜELLO CASTELEIRO MERCEDES.
    Año: 2003.
    Universidad: SANTIAGO DE COMPOSTELA.
    Centro de lectura: FÍSICA.
    Centro de realización: FACULTAD DE FÍSICA.
    Resumen: El trabajo de la tesis doctoral está orientado al desarrollo de herramientas que faciliten el prototipo rápido e iterativo de aplicaciones basadas en conocimiento para la Web. En este proyecto se propone que la construcción de los prototipos de base en la reutilización de componentes software distribuidos en librerías. Nuestros objetivos son: 1,- Proponer una arquitectura Web centrada en agilizar el proceso de desarrollo de prototipos. 2,- Construir, al menos, dos prototipos que demuestren la validez de nuestra propuesta. Los dominios de ambos prototipos a desarrollar serán dominios reales, tales como el dominio de la Ingeniería de Conocimiento y de la medicina. El primer prototipo se centrará en facilitar el proceso de adquisición de conocimiento para aplicaciones Web. Se configurará para diseñar y desarrollar ontologías y bases de conocimiento, así como interoperar con otros sistemas de representación de conocimiento. El segundo prototipo se planteará como un sistema de ayuda al diagnóstico médico para la Web.
  • "ESTUDIO EXPLORATORIO DE LAS CONDICIONES DE "USABILIDAD" DE SITIOS WEB EDUCATIVOS EN IDIOMA ESPAÑOL, DE ACCESO LIBRE EN IBEROAMERICA" .
    Autor: MUELAS DE PALACIO ESTELA NOEMI .
    Año: 2003.
    Universidad: NACIONAL DE EDUCACION A DISTANCIA.
    Centro de lectura: EDUCACION.
    Resumen: El objetivo de la Tesis consistió en realizar un estudio exploratorio acerca de las condiciones de ussabilidad en Sitio Web educativos, de modo tal que: 1) su concimientonos permitiera comprender e interpretar el estado actual de dichas condiciones, 2) sus resultados nos posibilitara sugerir estrategias de intervención que mejoren las debilidades observadas, favoreciendo el desarrollo de acciones de capacitación que ayuden a resolver los problemas encontrados. A fin de centrar la cuestión , comenzamos la revisión bibliográfica de una serie de conceptos-hipertextos, interfasemnavegación, visualización, interactividad, artefacto cognitivo, cognición distribuida, etc.- que nos permitieron formalizar un mapa de relaciones con el fin de distinguirlos entre sí, para avanzar luego sobre el concepto de usabilidad y su aplicabilidad en los Sitios Web educativos. Partiendo de la aceptación de que la usabilidad es una propiedad del artefacto en relación con su diseño no es un una propiedad pedagógica, nuestra investigación intentó identificar qué características en el diseño, en los contenidos, en la comunicación poseen los Sitios Web en relación a su intencionalidad educativa, de forma de arribar a una posible comprensión del estado actual y sus tendencias de los Sitios Web como ambientes de aprendizaje y su ajuste a los principios básicos de usabilidad. Se realizó un trabajo de campo que consistió en la observación de las peculiaridades y las tendencias actuales del estado de usabilidad de los sitios Web educatiovs, utilizando una guía de usablidad diseñada a tal efecto. Otro aspecto importante que se destació a partir de la exploración realizada, se relaciona con la exixtencia de Sitios Educativos en español: si bien la presencia del español en Internet ha aumentado, aún no ha llegado a un nivel acorde con su población en el mundo real. Los dos países de producción de contenidos que más se destacan son España y Argentina. El posterio proceso de análisis, comprensión e interpretación de los datos recogidos permitió: 1) indicar la aún baja sensibilidad hacia los temas de diseño y usabilidad en el ámbito de los Sitios Web educativos, 2) señalar las dificultades relacionadas con el diseño de Sitios Web educativos (los aspectos listados se relacionan, en mayor o menor medida, con la semiología , los sistemas audiovisuales, la psicología cognitiva, la economía y la ingeniería informática), 3)establecer posibles criterios y recomendaciones para mejorar la usabilidad de los Sitios Web educativs, por ende, mejorar la calidad y hacer más efectiva su intencionalidad didáctica , y 4) esbozar posibles acciones eficaces de capacitación en diseño de Sitios Weeb educativos desde la óptica del Diseño Centrado en el Estudiante, destinado a quienes en nuestro trabajo denominamos "autodidactas" y que son represntados por docentes o alumnos de nivel superior responsables del diseño de Sitios educativos.
  • LOS SISTEMAS DE INTERCAMBIO DE USUARIO A USUARIO (P2P) EN INTERNET. ANÁLISIS DE UNA LÓGICA DE DISTRIBUCIÓN, INTERCAMBIO Y REPRODUCCIÓN DE PRODUCTOS CULTURALES .
    Autor: CALVI JUAN CARLOS RAMON.
    Año: 2003.
    Universidad: COMPLUTENSE DE MADRID.
    Centro de lectura: CIENCIAS DE LA INFORMACIÓN.
    Centro de realización: FACULTAD DE CIENCIAS DE LA INFORMACIÓN.
    Resumen: La tesis aborda la cuestión de la distribución, el intercambio y la reproducción de productos culturales en Internet a través de los llamados Sistemas de Intercambio de Usuario a Usuario o Peer to Peer (P2P), y los problemas que estos sistemas suscitan a los distintos sectores de las Industrias Culturales. El trabajo comienza con un análisis de la formación histórica de Internet como el sistema técnico sobre el cual operan los Sistemas P2P, conjuntamente al proceso de convergencia con el sistema de telecomunicaciones. Asimismo, describe la "geopolítica de Internet", que determina quiénes, dóndo y cómo se conectan a la mimsa, esto es, las condiciones tecnológicas, económicas, políticas y sociales, tales como los desequilibrios estructurales en los niveles de conectividad, en el flujo de información, y en el predominio de unas lenguas sobre otras en la Red. Todo ello define el contexto general dentro del cual operan los Sistemas P2P, y determina a su vez las posibilidades y limitaciones del proceso de distribución, intercambio y reproducción de productos culturales en Internet. A continuación desarrolla el núcleo de la investigación sobre los Sistemas P2P modélicos, a partir del estudio de sus estructuras técnicas y económicas, el marco político-normativo que regula su funcionamiento así como los usos sociales que estos sistemas permiten articular. Esto comprende dos períodos: el primero sobre el desarrollo de los sistemas modélicos Napster y Gnutella; y el segundo sobre el desarrollo de los últimos sistemas modélicos Kazaa y Morpheus. Posteriromente analiza cómo los Sistemas P2P inciden sobre los distintos sectores de las Industrias Culturales que operan en Internet, los problemas de realización económica de sus productos culturales que éstos encuentran, y las estrategias que se están llevando a cabo por medio de la regulación político-normativa para el control de la distribución, el intercambio y la reproducción de productos culturales en la Red. Por último, la tesis concluye con un análisis comparativo entre las lógicas fundamentales de las Industrias Culturales y la lógica P2P, señalando las principales similitudes y diferencias entre estas lógicas, e identificando aquellos rasgos distintivos de la lógica presente en la distribución, el intercambio y la reproducción de productos culturales en Internet frente a las lógicas de mercantilización de los mismos, para vislumbrar, de forma provisional, el futuro desarrollo de los Sistemas P2P.
  • PERSISTENCIA DE LOS MODELOS Y TÉCNICAS DEL DISEÑO GRÁFICO EN LA CONFIGURACIÓN DE LA PAGINA WEB .
    Autor: GARCÍA GUARDIA M. LUISA.
    Año: 2003.
    Universidad: COMPLUTENSE DE MADRID.
    Centro de lectura: CIENCIAS DE LA INFORMACIÓN.
    Centro de realización: FACULTAD CIENCIAS DE LA INFORMACIÓN.
    Resumen: El objetivo de esta tesis es comprobar mediante un método de investigación si es verdadera o falsa la siguiente hipótesis: Existe la persistencia de un modelo para la creación de un espacio iconográfico en las páginas web de inicio generadas por los profesionales, que puede condicionar la difusión de otras posibles estructuras. Los aspectos a estudiar dentro del espacio icónico de la página web son los referidos al diseño gráfico, la navegación, legilibilidad, diseño de gráfico e inografía y contenidos. La metodología empleada se realiza sobre quince páginas web muy visitadas por los navegantes, en concreto se analiza la home de cada una de ellas. El método se compone de cuatro fases: un estudio descriptivo funcional, la comparación del espacio pictórico y el espacio icónico en la pantalla, la correlación entre profesionales y estudiantes según criterios de usabilidad (a éstos se les añaden cuestiones estéticas sobre diseño gráfico) y comparación entre los datos obtenidos en el estudio descriptivo funcional y el estudio entre profesionales y estudiantes. Finalmente se propone un modelo constructivo para realizar páginas web denominado "conocimiento elástico", el cual es una herramienta para crear estructuras maleables que permitan una adaptación personalizada según los deseos del navegante. En las páginas constructivas se presenta la información de manera fraccionadas, obligando al usuario a interactuar con los diferentes módulos con el objetivo de componer una unidad singular. Se puede ampliar la información (textual, visual, Vídeo, etc.), dependiendo de las preferencias del navegante.
  • CONTRIBUCIÓN AL ESTUDIO DE QOS PARA SERVICIOS MULTIMEDIA EN TIEMPO REAL SOBRE REDES IP. PROPUESTA PARA LA ADAPTACIÓN DE SATÉLITES GEOESTACIONARIOS PARA LA PROVISIÓN DE ESTOS SERVICIOS.
    Autor: SÁNCHEZ ESGUEVILLAS ANTONIO JAVIER.
    Año: 2003.
    Universidad: VALLADOLID.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIONES.
    Centro de realización: ETSIT.
    Resumen: Los servicios multimedia en tiempo real representan un tipo de aplicaciones con una importancia creciente. Principalmente comprenden la voz y el vídeo, y pueden complementarse con servicios relacionados que mejoran la experiencia del usuario, como la mensajería instantánea y presencia, compartición de datos y aplicaciones, mundos virtuales (interfaces 3D,..). Todos representan un medio potente de comunicación que forman los bloques necesarios para aplicaciones avanzadas como el trabajo colaborativo o el entretenimiento u ocio. El principal reto que afrontan las tecnologías de VoIP es el de la calidad de servicio (QoS). Esto es una consecuencia directa de la ya mencionada integración de voz y datos en una sola red. Los servicios de tiempo real, requieren garantías estrictas de ciertos parámetros de calidad. Los servicios puros de voz pueden proveerse sobre redes de banda estrecha. No obstante, el uso de vídeo requiere la utilización de redes de banda ancha y específicamente de redes de acceso de banda ancha. De todas ellas, probablemente el satélite es la más retadora desde un punto de vista de QoS, especialmente los satélites geoestacionarios. Esto es debido al muy elevado retardo producido por la propagación. Teniendo en cuenta todas estas consideraciones, el objetivo de la tesis doctoral es la provisión de servicios multimedia de comunicaciones en tiempo real sobre redes IP, y particularmente sobre satélites geoestacionarios. A tal efecto, se han propuesto algunas adaptaciones y técnicas para optimizar el transporte de multimedia IP en tiempo real sobre satélites geoestacionarios, de tal manera que la calidad de servicio está garantizada y los valores límites fijados por los organismos de estandarización sean respetados (sin estas técnicas estos valores están por encima de los umbrales permitidos). Se ha prestado especial atención al parámetro de retardo, para el que se ha derivado un modelo detallado, con el objetivo de evaluar mejor qué contribuciones al retardo total pueden ser mejoradas. Por otro lado, y de forma adicional, hay ciertos servicios que si se proveyesen siguiendo el modelo y arquitectura de las redes terrestres, requerirían un doble salto de satélite. Un ejemplo típico de esto es la multiconferencia, en la que todos los usuarios se conectan a un servidor centralizado. Este servidor ofrece el mezclado y conmutación de todos los flujos multimedia que una vez procesados son distribuidos de vuelta entre todos los participantes. El retardo asociado a este doble salto de satélite, no puede ser tolerado por un servicio en tiempo real. Esto impide que un satélite pueda ofrecer este tipo de servicios y por lo tanto representa una importante desventaja para la tecnología. En este trabajo de investigación, se han propuesto nuevas técnicas para resolver este problema y evitar dicho doble salto.
  • ANÁLISIS METODOLÓGICO DE CURSOS Y RECURSOS PARA EL APRENDIZAJE DE INGLÉS COMO SEGUNDA LENGUA A TRAVÉS DE LA WORLD WIDE WEB .
    Autor: SEIZ ORTIZ RAFAEL.
    Año: 2003.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INGENIERÍA DEL DISEÑO.
    Centro de realización: E.T.S. DE INGENIERÍA DEL DISEÑO.
    Resumen: La World Wide Web de Internet se ha utilizado, prácticamente desde sus inicios, para el aprendizaje y la enseñanza de idiomas, en especial del inglés, con multitud de cursos y recursos. Sin embargo, hoy en día resulta muy difícil localizar, categorizar y, por lo tanto, aplicar, tales recursos, con una perspectiva pedagógica o en un contexto de aprendizaje concreto. Por ello, existe la necesidad de analizar el medio de la Web y sus recursos educativos, con criterios sólidos desde el punto de vista metodológico y pedagógico para el aprendizaje de idiomas. Así pues, la presente tesis doctoral, a través de una serie de preguntas de investigación, pretende diseñar un método de análisis pedagógico, aplicable a la World Wide Web y a los cursos y recursos en línea, en el contexto del aprendizaje de inglés como segunda lengua. En primer lugar, se reflexiona sobre las características generales y la trascendencia del entorno de Internet y la Web. Después, se repasa el estado de la cuestión, a través de una revisión de la literatura, en busca de intentos anteriores de establecer un marco pedagógico de análisis de la Web para el aprendizaje de idiomas. Seguidamente, se lleva a cabo un estudio teórico de algunos de los temas de investigación y hallazgos clave en el ámbito de las principales disciplinas que tienen algo que aportar al análisis propuesto: Aprendizaje de Lenguas, Asistido por Ordenador (ALAO/CALL), Adquisición de Segundas Lenguas (ASL/SLA), Pedagogía y Metodología en la enseñanza de lenguas y Psicología educativa. Esos temas y hallazgos sirven para proponer y desarrollar, a continuación, una herramienta de análisis pedagógico de recursos en línea, que consiste en una base de datos diseñada con el programa Microsoft Access, que se ha denominado WIRESLAB (Web-based Interactive Resources for English as a Second Language Analytical Base). Esta herramienta es útil para profesores y estudiantes (en la enseñanza Aplicada) y para autores de material educativo (en el desarrollo de recursos de aprendizaje en la Web). También se ilustra el uso real de herramienta, mediante el análisis de un corpus de 45 sitios Web interactivos para el aprendizaje de inglés como segunda lengua. Todo ello sirve para llevar a cabo una propuesta de marco teórico de análisis pedagógico de la Web en tanto que entorno educativo para el aprendizaje de lenguas.
  • PROPUESTA DE UNA METODOLOGÍA PARA ANALIZAR LOS FACTORES QUE INCIDEN EN EL COMPORTAMIENTO DE COMPRA A TRAVÉS DE INTERNET .
    Autor: ANDRADES CALDITO LIDIA.
    Año: 2002.
    Universidad: EXTREMADURA.
    Centro de lectura: CIENCIAS ECONÓMICAS Y EMPRESARIALES.
    Centro de realización: FACULTAD CIENCIAS ECONÓMICAS Y EMPRESARIALES.
    Resumen: Análisis del comportamiento de compra de los consumidores desde la perspectiva de los modelos globales de comportamiento del consumidor (alonso, 2000). Contrastación empírica de las hipótesis planteadas utilizando los modelos cluster de clase catente y los modelos de ecuaciones estructurales.
  • BASES PREVIAS AL DESARROLLO DEL GUIÓN GRÁFICO PARA UN SITO WEB MULTIMEDIA .
    Autor: FERNÁNDEZ COCA ANTONIO.
    Año: 2002.
    Universidad: ISLAS BALEARES.
    Centro de lectura: ESCUELA POLITÈCNICA SUPERIOR.
    Centro de realización: ESCOLA POLITÈCNICA SUPERIOR.
    Resumen: Esta tesis doctoral plantea herramientas que facilitan el desarrollo del guión gráfico en un sitio web multimedia. Con el objeto de lograrlo, parte de objetivos específicos tales como: 1,- Establecer un proceso de análisis de la tendencia del usuario, tanto directo como indirecto, al que nos dirigimos. 2,- Plantear un proceso que permita conocer la metáfora de un sitio web. 3,- Desarrollar un modelo de trabajo que nos indique datos acerca de la imagen latente dada por la idea y el concepto de nuestro documento Web. 4,- Conocer los elementos y recursos relacionados con la parte previa a la construcción del guión gráfico. 5,- Proponer un modelo de plantilla de guión gráfico basada en el aprovechamiento de todos los puntos desarrollados en el contenido de esta investigación. Buscando desarrollar la consecución de estos objetivos se plantan tres zonas de trabajo que titulamos "usuarios", "fundamentos previos" y "guión gráfico". Éstas se presentan en modo de tres cuadernos independientes, buscando facilitar su lectura bien de manera secuencial; de forma libremente elegida por el tribunal o bien siguiendo otro modelo estructurado por este aspirante al grado de doctor. Las zonas antes indicadas se compondrán, a su vez, de partes, fases, evaluaciones, conclusiones, aportaciones y referencias bibliográficas propias. A su vez depositamos un cuarto cuaderno que bajo el título de "Introducción y conclusiones" aglutina tanto los resultados conseguidos como las conclusiones y temas propuestos para futuras investigaciones. Las prácticas realizadas para lograr llegar a los objetivos marcados han sido realizadas sobre unos quinientos sujetos pertenecientes a las universidades de las Islas Baleares, Autónoma de Barcelona, Santiago de Compostela, Coruña, Rovira i Virgili de Tarragona. Estas prácticas han sido apoyadas con fundametnos teóricos previos en los que también se han comparado herramientas empleadas en otros soportes de manera en la que hemos observado paralelismos, divergencias, problemas y posibles soluciones frente al soporte Web. También se han establecido elementos correlacionados con estas mismas herramientas así como con otras con las que pudieran tener relación. La correlación antes indicada también ha efectado a las cuatro áreas de conocimiento analizadas: informática, psicología, comunicación y bellas artes.
  • DERECHO A LA INFORMACIÓN EN LOS PORTALES Y BUSCADORES DE LA WEB .
    Autor: JARAMILLO CASTRO OSCAR.
    Año: 2002.
    Universidad: COMPLUTENSE DE MADRID.
    Centro de lectura: CIENCIAS DE LA INFORMACIÓN.
    Centro de realización: FACULTAD CIENCIAS DE LA INFORMACIÓN.
    Resumen: A casi 50 años de la Declaración Universal de los Derechos del Hombre, ocurrida en 1948, Internet surge como una nueva realidad, en la que el Derecho a la información se transforma en uno de los ejes del debate ético - moral. Esta preocupación surge no sólo de los intentos de censura y control por parte de las autoridades políticas, sino que también de problemas tales como el acceso a la tecnología y aspectos netamente relacionados con la forma de navegar. Al respecto, el 7202% de las personas llegan a una página WEB, a través de sólo tres buscadores (Yahoo, Altavista y Excyte). De esta manera - y entendiendo por derecho a la información como la facultad de investigar, recibir y difundir mensajes - cabe preguntarse si esta intermediación dificulta el derecho a la información. Dicho de otra manera, el objeto de esta investigación es: ¿Existe derecho a la información en los grandes buscadores de Internet, como Yahoo, Alta Vista, Excyte y Lycos?. Debido a que existen cerca de 4 millones 800 mil websites en la red, el nivel de información disponible llega a tal punto, que una de las principales dificultades es encontrar la información requerida. Es por eso que el papel desempeñado por los buscadores es esencial, dentro del cyberespacio. Sólo Yahoo cuenta con unos 100 millones de usuarios y una capitalización en el mercado de 55.56 billones de dólares. Asimismo en noviembre de 1999, el informativo electrónico Noticas Intercom aseguró que la compañía One Zero demandó a Alta Vista por posible violación de contrato, lo que "ilustra los complejos acuerdos que se encuentran bajo los enlaces de algunas páginas WEB". En la nota se agrega que Alta Vista compra conexiones a cientos de proveedores, que van desde Reuters, Rolling Stone hasta Yack. Es por eso que el tema del derecho a la información en los buscadores cobra real relevancia, porque esta intermediación es parte esencial del proceso comunicativo que se lleva a cabo en Internet. De ahí depende que una WEB quede en un desvio en el tramo principal de la supercarretera de la información
  • COMUNICACIÓN Y DISEÑO WEB: LA EXPERIENCIA DEL USUARIO EN LAS TIENDAS ELECTRÓNICAS .
    Autor: RAMOS SERRANO MARINA.
    Año: 2002.
    Universidad: MALAGA.
    Centro de lectura: CIENCIAS DE LA COMUNICACIÓN.
    Centro de realización: FACULTAD DE CIENCIAS DE LA COMUNICACIÓN.
    Resumen: Esta Tesis centra su atención en buscar el planteamiento adecuado para que la comunicación y el diseño web sean factores decisivos en el establecimiento de una estrategia comercial en Internet. Concretamente se ha centrado en conocer las particularidades de Internet como canal de ventas. Se trata de conocer cual es la experiencia real del usuario para identificar las dificultades y oportunidades de las empresas que establecen su estrategia comercial en Internet. Desde la perspectiva del Diseño centrado en el usuario y la usabilidad, se analizan nueve tiendas virtuales. Veinticuatro usuarios realizan tareas representativas de alquileres compra on-line. La metodología utilizada es Test de usabilidad. El objetivo es conocer la experiencia real del usuario cuando compra a través de Internet.
  • SUPERVISIÓN REMOTA DE PROCESOS COMPLEJOS VIA INTERNET MEDIANTE TÉCNICAS DE DATA MINING VISUAL. APLICACIÓN A UNA PLANTA PILOTO INDUSTRIAL .
    Autor: DOMÍNGUEZ GONZÁLEZ MANUEL.
    Año: 2002.
    Universidad: OVIEDO.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: ESCUELA POLITÉCNICA SUPERIOR DE INGENIERÍA DE GIJÓN.
    Resumen: La implantación en la industria de sistemas de monitorización y supervisión de procesos ha tenido en los últimos años un gran crecimiento, debido fundamentalmente a la evolución de la instrumentación industrial, a la incorporación de equipos informáticos a los procesos y a la mejora continua de las redes de comunicación. Todo esto ha facilitado la disponibilidad en los procesos productivos de más información, tanto inmediata como histórica, lo que facilita su análisis desde un punto de vista más global e integrador, a la vez que aumenta su complejidad. Esta evolución, unida al creciente desarrollo de las tecnologías de la información y de las comunicaciones, de la cual el exponente más relevante es Internet, permite pensar en su utilización en los procesos industriales, para su supervisión. En esta tesis se desarrolla una metodología para la utilización de Internet en el ámbito industrial, con el fin de facilitar la operación, explotación y supervisión de procesos industriales complejos, de forma remota y deslocalizada. Su implementación se lleva a cabo sobre una planta piloto industrial y se evalúa el rendimiento de todo el sistema, mediante la definición de una métrica para evaluar el tiempo de acceso de los usuarios, que permite comparar comportamientos para distintos tipos de conexiones y extraer conclusiones para el rediseño de todo el conjunto. La incorporación de Internet a la supervisión plantea nuevos problemas derivados del tipo de procesos con los que se trata (complejos, deslocalizados y de alta dimensionalidad), así como de las propias características de Internet, (tiempos de acceso variables, falta de sincronización, etc.). La complejidad y la elevada dimensionalidad de los datos dificulta la supervisión convencional, recurriéndose entonces a técnicas de visualización avanzadas, a través de Mapas Topológicos Autoorganizados (SOM), con el fin de extraer el conocimiento oculto en los datos. Su aplicación se realiza para la visualización de los estados y transiciones por los que evoluciona la planta, mediante mapas de distancias. Para la detección de fallos o de desviaciones en los valores de las variables, se recurre a la representación de los residuos, analizando su problemática y aportando un nuevo algoritmo basado en el conocimiento apriorístico del estado en que se está cuando se produce el fallo.
  • AUTOMATIZACION DE TAREAS EN EL WEB. UNA PROPUESTA BASADA EN ESTANDARES .
    Autor: LUQUE CENTENO VICENTE.
    Año: 2002.
    Universidad: CARLOS III DE MADRID.
    Centro de lectura: ESCUELA POLITÉCNICA SUPERIOR .
    Centro de realización: UNIVERSIDAD CARLOS III DE MADRID.
    Resumen: Actualmente millones de usuarios en todo el mundo se ven abocados a realizar cada día tareas en Internet, manejando de forma repetida un conjunto cada vez mayor de remotas aplicaciones que se encuentran accesibles en el Web. Para todas estas labores, la gran mayoría de las personas apenas cuenta con la única ayuda de los Browsers, lo cual confiere al proceso de navegación una alta necesidad de interacción por parte del usuario, en lo que habitualmente se conoce como navegación manual. Sin embargo, ello a menudo implica un esfuerzo demasiado elevado para muchas personas, especialmente cuando el volumen de datos es grande o la complejidad de su manejo requiere muchas interacciones con el Browsers. Desarrollar programas que naveguen automatizadamente por el Web, manipulando inteligentemente la información disponible en Internet es una necesidad cada vez más demandada en numerosas entornos. Sin embargo, el desarrollo de este tipo de programas tradicionalmente se ha afrontado con técnicas que implican un alto coste de desarrollo y un elevado coste de mantenimiento, además de tener una vida demasiado corta y ser muy sensibles a pequeñas modificaciones a las páginas accedidas. En este trabajo se proponen nuevas técnicas basadas en estándares para reducir el coste de estos desarrollos y mejorar la estabilidad de estos programas.
  • CONTRIBUCIONES AL MODELADO DEL USUARIO EN ENTORNOS ADAPTATIVOS DE APRENDIZAJE Y COLABORACIÓN A TRAVÉS DE INTERNET MEDIANTE TÉCNICAS DE APRENDIZAJE AUTOMÁTICO .
    Autor: GAUDIOSO VÁZQUEZ ELENA.
    Año: 2002.
    Universidad: NACIONAL DE EDUCACION A DISTANCIA.
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS, UNED .
    Resumen: Hoy en día, es evidente el auge que ha experimentado el uso de los servicios de Internet en la enseñanza y muy especialmente en el campo de la enseñanza a distancia. Esta circunstancia ha provocado un aumento en el desarrollo de sistemas que tratan de favorecer el estudio a través de este medio. Este tipo de aplicaciones superan el aislamiento de los alumnos y de los profesores, ofreciendo servicios de comunicación y cooperación. Con la mejora de estos servicios se ha favorecido el desarrollo de cursos basados en el aprendizaje cooperativo. De esta forma se permite que tanto alumnos como profesores colaboren entre sí. Este planteamiento ha mejorado el modelo tradicional de educación a distancia dando a los alumnos la oportunidad de interactuar con sus compañeros y participar en un espacio de aprendizaje compartido. Estas nuevas oportunidades tecnológicas demandan una revisión de los modelos educativos en los que se basan este tipo de enseñanzas, así como los sistemas informáticos que los facilitan. Dada la dispersidad de fuentes de información y de usuarios en los cursos impartidos a través de Internet, los sistemas desarrollados hasta el momento tratan de adaptar la respuesta que dan al usuario en base a ciertas características del mismo, tales como, conocimientos de partida, preferencias o intereses. Estos sistemas pertenecen al campo de los llamados Sistemas Adaptativos de Enseñanza a través de Internet. No obstante, hemos detectado que este tipo de sistemas no aprovechan realmente las ventajas que ofrecen los servicios de comunicación en Internet. En concreto, del estudio realizado en esta tesis, se deduce que el desarrollo de un entorno adaptativo de aprendizaje y colaboración a través de Internet, requiere resolver las siguientes cuestiones: caracterización de un planteamiento educativo adecuado para las tareas de cooperación, caracterización de una plataforma de cooperación a través de Internet, obtención y análisis de los datos de interacción del usuario para comprender su comportamiento con el sistema, construcción y actualización eficiente de modelos de usuario dinámicos y flexibles; y la definición, a partir de los modelos construidos, de las tareas de adaptación necesarias que permitan facilitar la cooperación entre usuarios en Internet. Nuestro objetivo final es solventar algunas de las limitaciones que presentan los sistemas ya desarrollados, mediante la construcción de modelos de usuarios abiertos y flexibles. Dichos modelos deben contener información acerca de las interacciones del usuario. Esta información debe recogerse de la forma más transparente posible, evitando que sea el usuario el que nos la proporcione. Debe ser capaces, además, de incluir de manera dinámica cualquier nueva información que se les introduzca, con vistas a mejorar el sistema con nuevas tareas de adaptación. En este trabajo estableceremos un marco adecuado para el desarrollo de modelos del usuario que cumplan estos requisitos mediante la inclusión en los mismos de técnicas de aprendizaje automático.
  • COMUNICACIÓN PÚBLICA DE LA CIENCIA: ESPERANZAS Y DIFICULTADES ANTE LA NUEVA SOCIEDAD DEL CONOCIMIENTO. RECURSOS DE DIVULGACIÓN EN INTERNET DE LAS UNIVERSIDADES ESPAÑOLAS .
    Autor: RIAL GARCÍA ANTONIO.
    Año: 2002.
    Universidad: SEVILLA.
    Centro de lectura: CIENCIAS DE LA INFORMACIÓN.
    Centro de realización: FACULTAD DE CIENCIAS DE LA INFORMACIÓN.
    Resumen: En la primera parte, la tesis hace una aportación al estudio de las circunstancias históricas que han dificultado la comunicación pública de la ciencia, entendida ésta como el conjunto de conocimientos obtenidos de forma racional y sistemática. Se hace referencia, entre otros problemas, a las dificultades que entraron en el siglo XVII los primeros filósofos experimentales como Galileo o Copérnico a causa de la Inquisición; a las propias limitaciones que impuso Newton a la divulgación del Saber cuando estuvo al frente de la Royal Society; a la sumisión del desarrollo científico al poder político y económico; o la propia estructura de la carrera científica, que no estimula a los científicos a difunidr sus hallazgos a la sociedad. En la segunda parte se revela, mediante un trabajo de campo, la escasa atención que dedican los portales en Internet de sesenta y ocho universidades españolas a la divulgación pública de sus propias investigaciones. Se completa para cada universidad un cuestionario de elaboración propia en la que se estudian mediante diez variables la mayor o menor información que ofrecen estas páginas sobre; noticias universitarias, noticias científicas, revistas científicas propias, artículos científicos, divulgación de tesis, libros editados en cada centro, bibliotecas en línea, congresos, oficinas de transferencia de los resultados de investigación; y memorias de investigación. Entre las conclusiones, la tesis reclama un esfuerzo decidido de las administraciones y de la propia universidad para poner de forma gratuita a través de Internet todas y cada una de las investigaciones científicas, que en su mayor parte están financiadas con dinero público y pertenecen, por ende, al acervo cultural común.
  • PORTAL DEVELOPMENT USING INTERACTIVE WEB SERVICES .
    Autor: RODRÍGUEZ JIMENEZ JUAN JOSE.
    Año: 2002.
    Universidad: PAIS VASCO .
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: En esta tesis se conciben los portales como plataformas de integración. Este enfoque plantea varios desafios, en especial respecto a la integración y mantenimiento de los portales. El doctorando combina principios de construcción de software basado en componentes con basados en modelos con el fin de proponer el desarrollo de portales, centrados en los servicios web interactivos (SWI). En la tesis se aborda, tanto la definición de un SWI, su realización por medio de "WRAPPERS", así como la --- de los SWI dentro de un portal. Además, se presenta el marco de desarrollo ATARIX que impigmenta el enfoque propuesto.
55 tesis en 3 páginas: 1 | 2 | 3
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia