Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > CIENCIAS TECNOLOGICAS >

TECNOLOGIA DE LAS TELECOMUNICACIONES



133 tesis en 7 páginas: 1 | 2 | 3 | 4 | 5 | 6 | 7
  • Aplicaciones de líneas de retardo WDM al procesado óptico de señales eléctricas.
    Autor: VIDAL RODRÍGUEZ BORJA.
    Año: 2004.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: Dep. Comunicaciones .
    Centro de realización: Universidad Politécnica de Valencia.
    Resumen: La Tesis Doctoral "Aplicaciones de líneas de retardo WDM al procesado óptico de señales eléctricas" se enmarca dentro de las investigaciones en el campo de los sistemas radio fibra. El objetivo de la Tesis es la propuesta y el estudio de arquitecturas de conformación de haces en agrupaciones de antenas y de filtrado de señales eléctricas basadas en técnicas ópticas WDM. Para ello se han propuesto nuevas arquitecturas que han sido validadas experimentalmente para demostrar su viabilidad. La Tesis esta dividida en cinco capítulos. Los dos primeros capítulos son introductorios. El primero introduce el marco en el que se desarrolla la Tesis, los sistemas radio-fibra. En el segundo capítulo se revisa el estado del arte en conformación óptica de haces y filtrado fotónico de señales de microondas. El tercer capítulo esta dedicado a conformación óptica de haces, en él se propone una nueva técnica basada en el uso combinado de la periodicidad espectral del AWG y medios ópticos dispersivos. Esta nueva línea de retardo permite obtener arquitecturas de conformación óptica de haces con capacidad de gestionar multiples haces simultáneamente. En este capítulo también se estudian distintas configuraciones de líneas de retardo basadas en este concepto así como sus respectivas ventajas e inconvenientes. El cuarto capítulo está centrado en el filtrado óptico de señales eléctricas. En él se han propuesto dos nuevas arquitecturas de filtros sintonizables y reconfigurables basados en AWG y en conmutadores ópticos, respectivamente. Se presentan técnicas que permiten mejorar la eficiencia de los filtros WDM al optimizar la relación entre el número de coeficientes del filtro y el número de componentes necesarios. Otra nueva funcionalidad que se propone es la posibilidad de obtener filtros con la capacidad de suprimir armónicos. También se proponen arquitecturas para implementar coeficientes negativos en sistemas incoherentes.
  • NUEVOS ALGORITMOS DE FILTRADO ADAPTATIVO MEDIANTE COMBINACION ADAPTATIVA Y SUS APLICACIONES .
    Autor: ARENAS GARCIA JERONIMO.
    Año: 2004.
    Universidad: CARLOS III DE MADRID.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR .
    Centro de realización: UNIVERSIDAD CARLOS III DE MADRID.
    Resumen: Las técnicas de filtrado adaptativo constituyen una herramienta fundamental del procesado de señal, siendo de gran importancia en múltiples aplicaciones en el ámbito de las telecomunicaciones: cancelación de ruido y de ecos acústicos y eléctricos, igualación de canales de comunicaciones, recepción en sistemas CDMA, codificación de voz, compresión y restauración de imágenes, detección radar, etc. La principal limitación de estos esquemas radica en que sus prestaciones se ven sujetas a compromisos de diferente naturaleza. En esta Tesis Doctoral se presenta una metodología de combinación de filtros que permite atenuar, de manera sencilla, intuitiva y eficaz, los distintos compromisos a los que se ven sujetos los esquemas adaptativos. Esta metodología, que está inspirada en un principio de origen biológico, consiste en la combinación adaptativa de filtros con características diferentes, de manera que el filtro resultante conserve las mejores propiedades de cada uno de los componentes. Para ello, es necesario actualizar cada filtro individual de acuerdo a sus propias reglas, mientras que los parámetros que caracterizan la mezcla deben optimizarse (muy rápidamente) de acuerdo con algún criterio de comportamiento global. Esta Tesis contiene también el desarrollo de esta metodología, analizando sus posibilidades en varias de las aplicaciones del filtrado adaptativo. Los resultados obtenidos demuestran el gran potencial y versatilidad de la metodología propuesta.
  • EXTENSIONES DE ALGORITMOS LOCALES PARA CLASIFICACION .
    Autor: MORA JIMENEZ INMACULADA.
    Año: 2004.
    Universidad: CARLOS III DE MADRID.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR.
    Centro de realización: UNIVERSIDAD CARLOS III DE MADRID.
    Resumen: En esta Tesis se proponen y valoran un conjunto de algoritmos de aprendizaje para el diseño de clasificadores locales. Se presenta una nueva variante de los clasificadores k-NN ("k-Nearest Neighbors") que tiene su origen en el clasificador de Bayes para mínimo error. La formulación de este nuevo clasificador permite desarrollar algoritmos de aprendizaje que conducen al diseño de clasificadores con prestaciones superiores a las de otros esquemas de estructura similar pero más convencionales. Para su uso con el esquema anterior, o incluso con cualquier otro tipo de clasificador máquina, se presentan nuevas técnicas de Selección de Muestras que hemos denominado técnicas de "Relajación de Objetivos", y cuyo denominador común es la selección de las muestras próximas a la frontera de clasificación, lo que presenta cierta analogía con las Máquinas de Vectores Soporte (SVM). Dada la aplicabilidad general de las estrategias propuestas, estudiamos su utilización en un esquema general de clasificación local, las Redes Neuronales de Funciones de Base Radiales, y demostramos que, aparte de ventaja en prestaciones para arquitecturas comunes, el tamaño de la red construida con nuestra propuesta suele ser inferior al obtenido con la tecnología SVM ante tasas de acierto comparables.
  • REDES NEURONALES PARA PROBLEMAS DE DECISION ASIMETRICOS CON INFORMACION INCOMPLETA. APLICACION A LA TELEDETECCION .
    Autor: GUERRERO CURIESES ALICIA.
    Año: 2003.
    Universidad: CARLOS III DE MADRID.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR.
    Centro de realización: UNIVERSIDAD CARLOS III DE MADRID.
    Resumen: El trabajo realizado se basa en el diseño de estructuras y algoritmos para problemas de decisión no-MAP (Maximum A Posteriori Probability) mediante dos nuevas familias paramétricas de funciones objetivo o de coste: una para casos binarios y su extensión a casos con duda, y otra más general para casos de múltiples clases; ambas caracterizadas por ser capaces de conseguir estimaciones precisas en valores predefinidos de las probabilidades a posteriori de las clases. Se demuestra que los algoritmos de aprendizaje basados en la minimización por gradiente estocástico de dichas funciones de coste, centran el proceso de aprendizaje en una región arbitrariamente estrecha de la frontera de decisión. Se analiza también, tanto de forma teórica como práctica, cómo utilizar dichas funciones de coste para poder incorporar en la clasificación la información proporcionada por los datos no-etiquetados. Otra parte importante de la tesis se fundamenta en el problema de la falta de información a priori disponible. En esas situaciones, una aproximación puede consistir en obtener la mejor clasificación para las peores condiciones iniciales posibles. Es lo que se denomina estrategia miniMax. Se propone un algoritmo de recursión iterativa con un punto fijo en la solución miniMax, que hace que la clasificación sea robustafrente a posibles cambios que se puedan producir en las probabilidades a priori de las clases. Además, se analiza cómo funciona dicho algoritmo al combinarlo con otras aproximaciones al problema, basadas en re-estimación de probabilidades a priori. El problema de localización de errores en algunas clases, se aborda modularizando de forma automática estructuras neuronales tipo GSP (Generalized Softmax Perceptron). Se presenta también una técnica de post-procesado muy sencilla que, a partir de un filtrado del mapa de probabilidades a posteriori, consigue mejorar de forma significativa la tasa de acierto obtenida por un clasificador GSP. Finalmente, se comprueba la validez de las diferentes aproximaciones propuestas, tanto de forma separada como conjunta, sobre dos bases de datos procedentes de imágenes del satélite Landsat y también sobre otros conjuntos de datos reales (uno de ellos correspondiente a diagnosis médica y otro a clasificación de textos).
  • CONTRIBUCIÓN AL DISEÑO DE REDES MÓVILES DE TERCERA GENERACIÓN CON TECNOLOGÍA WCDMA .
    Autor: PORTILLA FIGUERAS JOSE ANTONIO.
    Año: 2003.
    Universidad: CANTABRIA.
    Centro de lectura: E.S.T.I. INDUSTRIALES Y DE TELECOMUNICACION.
    Resumen: La Tesis Doctoral que se desarrolla contribuye al deseño y dimensionamiento estratégico de la red de acceso UTRAN de la red UMTS. El objetivo se ha centrado en dicha parte de la red puesto que es en ella donde se incurre en el mayor porcentaje de los costes totales de despliegue y operación. En la Tesis se proponen dos contribuciones diferentes pero altamente interralacionadas entre si. La primera, considera el estudio del diseño del radio celular en los sistemas WCDMA. En la literatura, habitualmente se trata el problema del diseño celular bajo una perspectiva monoservicio y dando mayor relevancia a la cobertura y a las limitaciones por potencia, ya sea en rango o por el control de potencia. Por otra parte, existen pocos estudios relativos a la capacidad celular que traten de combinaciones de servicio en el dimensionamiento y éstos principalmente consideran la asignación previa de capacidades a cada servicio, no abordando los criterios de optimización. Es esta línea se presenta en esta Tesis doctoral un modelo matemático con su correspondiente algoritmo, denominado reducido, que permite estimar de manera cuasi-óptima el radio celular para cualquier combinación de servicios con sus correspondientes parámetros. La segunda aportación se centra en el campo de la planificación estratégica de redes de 3G. Para ello se ha desarrollado una herramienta, DIDERO 3G, que es capaz de estimar el número y localizaciones de los Nodos B así como el número de multiplexores y controladores correspondientes.
  • TÉCNICAS POLINÓMICAS EN PROCESADO DE SEÑAL: APLICACIONES EN INTERPOLACIÓN, MODELADO Y COMUNICACIONES .
    Autor: IBÁÑEZ DÍAZ JESÚS M..
    Año: 2003.
    Universidad: CANTABRIA.
    Centro de lectura: ESCUELA TÉCNICA SUPERIOR DE INGENIEROS INDUSTRIA.
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INGENIEROS INDUSTRIALES Y DE TELECOMUNICACIONES.
    Resumen: La presente Tesis analiza las prestaciones de las técnicas polinómicas de interpolación (en especial de los splines) cuando se tienen en cuenta parámetros de diseño reales, como pueden ser el sobremuestreo, la precisión finita y el coste computacional. El hecho de que, en ciertos casos prácticos, las prestaciones de dichas técnicas sean superiores a las obtenidas mediante los métodos convencionales basados en el Teorema de Muestreo, sirve de motivación y justificación para la búsqueda, en esta Tesis, de técnicas polinómicas novedosas aplicables a la interpolación-reconstrucción de señales, al modelo de sistema son lineales y a las comunicaciones digitales. Como primera aportación, se propone una nueva familia de splines, denominada alfa-splines, que incrementa la flexibilidad aportada por la interpolación spline, al permitir una transición parametrizada entre splines de órdenes arbitrarios. Así, se han desarrollado las expresiones de las bases alfa-spline y los algoritmos de interpolación correspondientes. Dada la difusión e importancia de la interpolación lineal y de la interpolación spline cúbica, se estudia en detalle un caso particular de la interpolación alfa-spline que proporciona una solución de compromisos entre ambas técnicas, pues a su reducido coste computacional se une la posibilidad de controlar ciertas características de la interpolación, como la suavidad, la varianza o el área residual. Dadas las ventajas aportadas por la familia alfa-spline, se amplía su uso al problema del modelado no lineal. En concreto, se propone una extensión del modelo lineal a tramos canónicos mediante el empleo de la base alfa-spline como función de activación, obteniéndos un modelo que preserva las propiedades de simplicidad y capacidad de aproximación originales y que aporta las características de derivabilidad y suavidad propias de la interpolación alfa-spline. Además de la presentación del modelo alfa-spline y de su metodología de entrenamiento, en esta Tesis se propone su empleo en el modelado de transistores y en el modelado de amplificaciones de potencia de radiofrecuencia. En este último caso se hace uso de medidas temporales entrada-salida obtenidas mediante una técnica de caracterización novedosa, basada en submuestreo, que permite conocer el comportamiento del amplificador cuando se excita con señales de gran ancho de banda y envolvente no constante. Sin duda este es un aspecto de extrema importancia en los actuales sistemas de comunicaciones digitales de banda ancha que emplean modulaciones complejas. Finalmente, se abrodan algunos aspectos del problema de las comunicaciones digitales aprovechando el conocido paralelismo entre las mismas y la interpolación funcional. Se propone, dadas sus especiales características, la utilización de las bases spline, y de las bases spline, y de las bases alfa-spline desarrolladas en esta Tesis, como filtros conformadores, posibilitando implmetnar sistemas adaptados y libres de interferencia entre símbolos con una destacable simplicidad tanto computacional como hardware. Esta metodología es susceptible de ser extendida a pulsos de forma arbitraria, lo que abre la puerta a nuevos diseños. Así mismo, se propone una generalización de la teoría de parejas biortogonales que incluye la restricción de respuesta frecuencial global positiva, lo que permite su descomposición en dos filtros adaptados. Esta técnica permite una implementación FIR en transmisión y recepción manteiendo las condiciones de ISI nula y adaptación, tal y como se comprueba en varias aplicaciones prácticas presentadas. En definitiva, esta Tesis aporta una serie de técnicas polinómicas en el ámbito del procesado de señal, propone afrontar determinados problemas desde una perspectiva distinta a la propocionada por el Teorema de Muestreo, y presenta, en ese contexto, numerosas aplicaciones prácticas de interpolación-reconstrucción de señales, de modelado de dispositivos no lineales y de comunicaciones digitales.
  • ANÁLISIS DE ESTABILIDAD GLOBAL DE CIRCUITOS CON DOS FRECUENCIAS AUTÓNOMAS. APLICACIÓN A DIVISORES DE FRECUENCIA.
    Autor: ARAÑA PULIDO VÍCTOR ALEXIS.
    Año: 2003.
    Universidad: LAS PALMAS DE GRAN CANARIA.
    Centro de lectura: SALÓN DE ACTOS DEL EDIFICIO DE TELECOMUNICACIÓN.
    Centro de realización: EDIFICIO DE TELECOMUNICACIÓN.
    Resumen: El objetivo es el análisis de estabilidad local y global de circuitos que presentan dos oscilaciones estables, y la fabricación de un prototipo que muestre la viabilidad práctica. Para la obtención de las soluciones estacionarias se ha utilizado técnicas en el dominio del tiempo y de la frecuencia, centrándose en la integración directa, el balance armónico, la sonda de medida o generador auxiliar y la envolvente compleja. Se ha extendido el método a señales cuasiperiódicas de tres frecuencias base y se propone diferentes criterios para reducir el número de componentes espectrales, de forma que disminuya el tiempo de cómputo de la matriz jacobiana y su inversa, necesarias en el análisis. El análisis de estabilidad local en el dominio del tiempo se realiza a través del cálculo de los exponentes de Lyapunov. En el dominio de la frecuencia se aplica el diagrama de Nyquist a soluciones periódicas y cuasiperiódicas de dos frecuencias. El análisis de estabilidad global utiliza la técnica de balance armónico combinada con la sonda de medida y un método de continuación, para obtener los diagramas de bifurcación. La aplicación de las diferentes técnicas a un circuito sencillo permite obtener las bases para abordar el diseño de un divisor de frecuencia de doble banda. A continuación, se desarrolla los diferentes entornos de simulación para el diseño y optimización, de forma que puedan ser aplicados en un programa comercial de diseño de circuitos de microondas. Finalmente, se realiza las medidas que confirman la viabilidad práctica de este tipo de circuitos como divisor de frecuencia de doble banda. Thesis Abstract Global stability analysis of circuits with two autonomous frequencies. Application to frequency dividers. The objective is the analysis of local and global stability of circuits that show two stable oscillations, and the construction of a prototype to prove its practical viability. To obtain the stationary solutions, techniques in time and frequency domain have been used, focusing in the direct integration, the harmonic balance, the auxiliary generator and the complex envelope. The method has been extended to quasiperiodic signals with three base frequencies. Several criteria are proposed to reduce the number of spectral components, in such a way that the time used to compute the jacobian matrix and its inverse, needed in the analysis, is decreased. The local stability analysis in time domain is made using the Lyapunov exponents calculation. In frequency domain, the Nyquist diagram is applied to periodic and quasiperiodic solutions of two frequencies. The global stability analysis uses the harmonic balance technique combined with the measurement probe and a continuation method to obtain the bifurcation diagrams. Applying different techniques to a simple circuit allows us to obtain the design of a dual band frequency divider. After that, the different simulation environments used for the design and optimisation were developed. This was addressed so that it was easy to apply them in microwave circuits design commercial programs. Finally, the measurements needed to confirm the practical viability of this type of circuits as dual band frequency dividers are made.
  • TIME-RESPONSE ANALYSIS OF STREAMING APPLICATIONS IN RESOURCE-CONSTRAINED SYSTEMS .
    Autor: GROBA GONZÁLEZ ÁNGEL MANUEL.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S.I. TELECOMUNICACIÓN .
    Centro de realización: E.T.S.I. TELECOMUNICACIÓN.
    Resumen: El trabajo presentado en esta tesis se centra en el desarrollo de una herramienta de análisis de la respuesta temporal de aplicaciones de flujo continuo de datos ejecutadas en entornos con recursos restringidos. Un ejemplo muy típico de este tipo de sistemas es el de las aplicaciones de procesamiento de audio y video digitales en terminales de electrónica de consumo. De estos dispositivos los usuarios esperan fundamentalmente una buena calidad de funcionamiento a bajo coste, características que tienden a ser contrapuestas. Dado que la calidad de percepción está muy ligada a la respuesta en el tiempo del sistema, un mecanismo de análisis que trate el compromiso entre tiempo de respuesta y recursos disponibles puede resultar muy útil. La herramienta desarrollada puede resultar interesante para diseñadores de aplicaciones, ya que les permite estimar, por ejemplo, cuáles son los mínimos recursos necesarios para mantener un cierto nivel de calidad en una aplicación bajo diferentes condiciones de funcionamiento. También podría ser útil si es ejecutada de forma automática en un sistema para estimar de antemano, por ejemplo, cómo la aceptación de una nueva aplicación podría afectar a la calidad general de funcionamiento del mismo, lo que podría utilizarse como criterio de admisión para mejorar la robustez. Aunque en la literatura pueden encontrarse un gran número de técnicas de análisis de respuesta en el tiempo para diferentes tipos de sistemas de tiempo real, e incluso para sistemas multimedia como subconjunto de sistemas de tiempo real acríticos, las particulares características de algunas de las más modernas aplicaciones multimedia de flujo de datos empotradas en dispositivos de electrónica de consumo imponen ciertas reglas de funcionamiento que hacen necesarias adaptaciones específicas de los métodos de análisis existentes. En concreto, se requiere que el tamaño de los buffers sea lo más pequeño posible, dentro de márgenes operativos razonables, lo que suele implicar que ocasionalmente éstos puedan llegar a llenarse o vaciarse completamente. Cuando una tarea tiene su buffer de entrada vacío, ésta se bloquea por la entrada y no puede ejecutarse ante la falta de datos. A su vez, cuando una tarea tiene su buffer de salida lleno, ésta se bloquea por la salida y tampoco ejecuta para evitar la pérdida de datos previamente almacenados. Dado que en el mismo procesador pueden ejecutarse varias tareas concurrentemente, se les suelen asignar diferentes prioridades para su planificación. En este escenario, las tareas bloqueadas por la entrada y/o por la salida pueden provocar efectos de inversión de prioridades, los cuales dependerán del tamaño de los buffers. Todas estas peculiaridades influyen sobre la respuesta temporal de la aplicación y, por tanto, han sido tenidas en cuenta en los modelos de análisis. También se ha desarrollado en esta tesis un mecanismo ejemplo de análisis que permite estimar el comportamiento temporal del bus de comunicaciones empotrado en una plataforma comercial de procesamiento multimedia, gestionado mediante un algoritmo round-robin ponderado y jerárquico. Este comportamiento podrá, pues, ser incorporado al análisis temporal de aplicaciones de flujo de datos que se ejecuten en la mencionada plataforma. El método de análisis de la respuesta en el tiempo desarrollado en esta tesis ayudará a los diseñadores de aplicaciones a encontrar una asignación adecuada de parámetros como prioridades de tareas o tamaños de los buffers para asegurar los plazos de respuesta, minimizar las necesidades de memoria o impedir pérdidas de datos, en la medida de lo posible. Esto evitará el uso de lentas técnicas de diseño basadas en prueba y error en aquellos casos que se ajusten a las restricciones del modelo de análisis aplicadas en este trabajo.
  • EFFICIENT MULTIPATH MITIGATION IN NAVIGATION SYSTEMS .
    Autor: SELVA VERA JESUS.
    Año: 2003.
    Universidad: POLITECNICA DE CATALUÑA.
    Centro de lectura: UPC.
    Centro de realización: DEPT. TEORIA DEL SENYAL I COMUNICACIONS.
    Resumen: El objetivo principal de la tesis es el desarrollo de técnicas eficientes para la mitigación del multicamino en sistemas de navegación. A lo largo de la misma, el principio de máxima verosimilitud es utilizado repetidamente con objeto de derivar estimadores asintóticamente eficientes del retardo de la señal de navegación en presencia de multicamino. La complejidad de la estimación es reducida de dos formas. Por una parte, las técnicas de compresión de datos producen implementaciones en el receptor de menor complejidad. Por otra, la implementación eficiente de métodos iterativos de tipo Newton permite calcular los estimadores de máxima verosimilitud en un número pequeño de operaciones. La primera parte de la tesis es dedicada a exponer los fundamentos de la sincronización en receptores de navegación y al estado del arte en mitigación del multicamino. A continuación se procede a exponer varios resultados sobre la interpolación de señales de banda limitada en un intervalo finito, que más adelante harán posible el diseño de estimadores eficientes. Después de esta parte introductoria, se presentan métodos de compresión de datos aplicables a una señal de navegación DS-CDMA que ha sido corrompida por el multicamino. Los métodos de las Componentes Principales y de las Componentes Canónicas son las herramientas teóricas empleadas en la derivación de los mismos. Una vez que los métodos de compresión han sido investigados, se procede a diseñar métodos de cálculo de los estimadores de máxima verosimilitud eficientes. Para ello, se proponen los métodos de tipo Newton. Aunque estos métodos son los más eficientes en problemas de optimización sin restricciones, no son habitualmente utilizados debido a que requieren el cálculo del gradiente y el hessiano de la función de coste o una aproximación del último. Sin embargo, en esta parte de la tesis se presenta un método simbólico que permite la derivación de expresiones compactas de estas diferenciales. De esta forma se hace posible el cálculo por medio de métodos tipo Newton de los estimadores de máxima verosimilitud en un número pequeño de operaciones. En la última parte de la tesis, los resultados anteriores son aplicados a la mitigación del multicamino en un receptor equipado con una antena y con una agrupación de antenas, respectivamente. Para un receptor con una sola antena se discuten dos canales, el estático y el canal con desvanecimiento lento. Se presenta un ejemplo numérico completo en el caso estático en el que se evalúa la máxima precisión alcanzable por medio de procesado de señal en un receptor convencional. La medida de la calidad de la estimación utilizada es el error cuadrático medio. En el caso con desvanecimiento lento, otro ejemplo numérico muestra que la precisión alcanzable es mejor que en el caso estático con un pequeño incremento en la complejidad. Para un receptor equipado con una agrupación de antenas se presentan estimadores de máxima verosimilitud y se aplican métodos de subespacio que requieren una estructura polinómica, respectivamente. Para los estimadores de máxima verosimilitud, la cuestión principal es cómo modelar la agrupación de antenas de forma que el estimador sea capaz de distinguir réplicas de la señal de navegación con separación en retardo pequeña, siendo al mismo tiempo robusto frente a errores de calibración. Se presentan tres modelos de la agrupación de antenas: el modelo determinista, el modelo estructurado en ángulos y el modelo estructurado en ángulos y errores de calibración. Para los métodos de subespacio se diseña una técnica de interpolación que es una combinación de la técnica de interpolación de agrupaciones y el método de las componentes principales. Utilizando esta nueva interpolación se diseña un algoritmo TLS-ESPRIT en el que es interpolado un intervalo continuo de frecuencias.
  • ESTUDIO Y CARACTERIZACIÓN DE DISPOSITIVOS FOTONICOS BASADOS EN FENOMENOS MAGNETO-OPTICOS Y FOTOINDUCIDOS.
    Autor: PEREDA CUBIAN DAVID.
    Año: 2003.
    Universidad: CANTABRIA.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: E.T.S.I.I. Y T..
    Resumen: Este trabajo de tesis se centra en la caracterización de los efectos de los dispositivos fotónicos sobre la polarización de la luz por medio de interacciones de carácter magneto-óptico, como los efectos Faraday y Kerr magneto-optico. A su vez, se realiza un estudio detallado de dispositivos que aumentan la sensibilidad de los efectos magneto-ópticos, como los medios multicapa magneto-dieléctricos y las microcavidades semimagnéticas (SSM), donde se producen igualmente interacciones de carácter foto-inducido. La teoría clásica de polarización no permite un adecuado estudio de los dispositivos despolarizantes, en los que varía el grado de polarización. La teoría de grupos es una herramienta algebraica que posibilita un análisis más profundo de la teoría de la polarización, unificando el estudio de la polarización y de los dispositivos fotónicos mediante la introducción de la matriz de coherencia del dispositivo. Dicha teoría se aplica al estudio y a la caracterización de tejidos biológicos, materiales muy absorbentes y despolarizantes. Este estudio puede permitir el desarrollo de nuevos métodos de detección patológica en tejidos mediante método ópticos no invasivos. La teoría de grupos permite la aplicación de la descomposición en Quaternions por medio de las matrices de Pauli a la separación de los diferentes efectos básicos que tienen lugar en el interior de un dispositivo fotónico no despolizante, caracterizado por una matriz de Jones. Esta descomposición permite obtener una parametrización de los diferentes efectos de tipo birrefringentes y discroico en el dispositivo y se aplica al estudio experimental de una fibra monomodo dopada con tierras raras en presencia de una corriente eléctrica. La sensibilidad a las interacciones de carácter magneto-óptico como el efecto Faraday en dispositivos de fibra óptica es baja. Debido a esto, se realiza una búsqueda de nuevos tipos de dispositivos que permitan obtener mayores valores de rotación. Entre estos dispositivos se encuentran los medios multicapa magneto-dieléctricos y las SSM. Los medios multicapa alternan materiales magneto-ópticos y dialéctricos y permiten obtener rotaciones elevadas en presencia de un campo magnético, y también se pueden utilizar como sensores de temperatura. Finalmente, se estudian las SSM, dispositivos cuyo diseño se basa en el acoplo de la resonancias de una cavidad Fabry-Perot y la transición excitónica de un pozo cuántico. En presencia de un campo magnético, las rotaciones son mayores que en ningún otro dispositivo, pero presentan una fuerte dependencia con la temperatura. Para conseguir rotaciones son mayores que en ningún otro dispositivo, pero presentan una fuerte dependencia con la temperatura. Para conseguir rotaciones elevadas a temperaturas ambiente, en el caso no lineal el campo magnético es eliminado y sustituido por una señal de bombeo que produce una serie de efectos no lineales en el interior de la SSM (saturación, blue sift y seudo-efecto Zeeman), dando como resultado la aparición de una rotación de foto-inducida. Als rotaciones obtenidas en ambos casos han sido medidas experimentalmente. Además, utilizando las matrices de Yeh ampliadas se comprueba que en el interior de la SSM se produce el efecto de mezcla de cuatro ondas, efecto no lineal que genera una nueva señal, así como una fuerte amplificación de la señal de entrada. Esto permite que las SSMs funcionen como conversores de longitud de onda y amplificadores ópticos.
  • COMUNICACIONES MARÍTIMAS. LA SEGURIDAD DE LA VIDA HUMANA EN LA MAR .
    Autor: ARGUINCHONA MONASTERIO JORGE.
    Año: 2003.
    Universidad: PAIS VASCO.
    Centro de lectura: NAUTICA.
    Centro de realización: E.T.S.NAUTICA Y MAQUINAS NAVALES.
    Resumen: Se presenta un desarrollo histórico y técnico del desarrollo de la comunicación en la mar y su importancia con relación a la seguridad de las personas en la mar. Así como, la aplicación de los avances tecnológicos en la comunicación al medio marino.
  • DISEÑO TEÓRICO Y EXPERIMENTAL DE FILTROS PASO BANDA MICROSTRIP BASADOS EN ANILLOS ACOPLADOS CON TÉCNICAS DE SUPRESIÓN DE ARMÓNICOS .
    Autor: GRIOL BARRES AMADEU.
    Año: 2003.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INGENIEROS DE TELECOMUNICACIÓN.
    Centro de realización: E.T.S.I. TELECOMUNICACIÓN.
    Resumen: Esta tesis doctoral se enmarca dentro del campo de investigaicón de los dispositivos de filtrado implementados de forma distribuida en tecnología microtira. En concreto, y dentro de las numerosas topologías distribuidas utilizadas para aplicaciones de filtrado, la tesis se ha centrado en el estudio, diseño e implementación de filtros paso banda empleando como estructura básica el anillo microstrip. Las propiedades resonantes de estos anillos microstrip los convierte en unos excelentes condidatos para el desarrollo de filtros en tecnología impresa, aunque, en contraposición, su naturaleza distribuida se va a traducir en la prsencia de múltiples bandas pasantes o armónicos. En este sentido, uno de los principales objetivos de la tesis ha sido estudiar y combinar diferentes técnicas para la atenuación de estos armónicos. La primera parte de la tesis se ha centrado en estudiar y caracterizar el dispositivo central de la investigación, el anillo microstrip. Esta caracterización se llevó a cabo mediante la obtención de la envolvente de campo eléctrico para los distintos modos resonantes que se establecen en las estructuras implementadas con anillos microstrip que, a su vez, fueron clasificadas en función del tipo de excitación empleada para alimentar la estructura, edge-coupled o side-coupled. A la vez también, se estudian diferentes aplicaciones de estos circuitos en anillos y entre ellas, por supuesto, la aplicación de filtrado. La segunda parte de la tesis doctoral se ha dedicado al estudio de diferentes técnicas que permitan al atenuación de los armónicos superiores de la estructura básica. Así, se propone una primera técnica basada en el control, mediante parámetros de las etapas de excitación, de las distribuciones de campo y modos de acoplo que excitan el anillo. Las características y propiedades de esta técnica, para la supresión de espurios, fueron comprobadas tanto teórica como experimentalmente. La segunda técnica de supresión de armónicos consiste en la introducción en la estructura de anillos de ciertas discontinuidades, colocadas tanto en cascada o directamente en las pistas que forman el anillo. Así, se han estudiado los efectos de la introducción de estructuras de salto de impedancia y filtros spurline en el senco de los filtros paso banda implementados con anillos acoplados. Estos efectos han demostrado, tanto en simulación como experimentalmente, su capacidad para obtener mejores respuestas globales en términos, fundamentalmente, de ancho de banda de rechazo. La propuesta de una nueva técnica de eliminación de armónicos se fundamentó en el uso de las denominadas estructuras Electromagnetic Bandgap (EBG) que se pueden definir como estructuras periódicas que presentan ciertas bandas de frecuencia donde la propagación no está permitida. Así y en un paso previo, se han analizado el comportamiento y características de estas estructuras EBG y los resultados de la introducción de defectos, rotura de periodicidad, en las mismas. En un segundo paso, este tipo de estructuras EBG han sido propuestas para la atenuación de espuriso en filtros paso banda con anillos microstrip. Esta investigación se acompañó tanto de resultados de simulación como de resultados experimentales. Finalmente, se ha estudiado la posiblidad de aumentar las prestaciones de los diseños, obteniendo filtros con anillos activos, mediante la introducción de amplificadores MMIC que además ayudan a eliminar espurios, y filtros sintonizables.
  • DIGITAL IMAGE DATA HIDING USING SIDE INFORMATION .
    Autor: BALADO PUMARIÑO FÉLIX.
    Año: 2003.
    Universidad: VIGO .
    Centro de lectura: INGENIEROS DE TELECOMUNICACIÓN.
    Centro de realización: ESCOLA TÉCNICA SUPERIOR DE ENXEÑEIROS DE TELECOMUNICACIÓNS.
    Resumen: La robustez es una cuestión clave para muchas aplicaciones potenciales de las tecnologías de ocultación de datos (watermarking). La propuesta de usar información lateral en el codificador ha significado un avance significativo en la búsqueda de métodos de ocultación de datos más eficientes. Sin embargo, en la práctica no se ha fundamentado suficientemente el auténtico impacto derviado de las ventajas teóricas de esta idea fundamental. Desde este punto de partida, esta tesis provee una nueva evaluación de la robustez de las tecnologías de ocultación de datos más relevantes, poniendo énfasis en su implantación en aplicaciones reales. Con este fin se comparan métodos que usan información lateral, tales como Dither Modulation (DM) y DM con compensación de distorisón (DC-DM, SCS) -realización práctica y quasi-óptima del esquema teórico estudiado por Costa-, con los métodos anteriores basados en técnicas de espectro ensanchado y que no usan información lateral. El entorno de comparación usa distorsiones aditivas aleatorias y la probabilidad de error en el decodificador. Los distintos métodos se comparan usando simulaciones con el método de Monte Carlo, utilizando tanto imágenes reales como datos sintéticos. Para confirmar nuestros resultados, se dan análisis teóricos precisos de la mayoría de los métodos considerados. Se estudian extensiones multidimensionales de los mismos para ofrecer una visión más completa de las comparaciones. Los resultados muestran que los métodos que usan información lateral ofrecen un redimiento mejor para niveles de distorisón moderados y bajos, siendo por otra parte más sensibles al nivel y tipo de ataque. Además, se demuestra la imposibilidad de optimizar a priori estos métodos, lo que añade una visión menos optimista de su rendimiento potencial. Las conclusiones de esta comparación permiten la propuesta y análisis de métodos de ocultación de datos basados en la cuantificación de una proyección. Spread-Transform Dither Modulation (STDM) resulta ser un caso particular del método de proyección cuantificada (Quantized Projection, QP). Sin embargo, la filosofía en que se basan los métodos de proyección cuantificada es diferente de la de STDM, ya que el tratamiento de la distorsión es mucho más restrictivo. Se obtiene que QP funciona mejor que STDM en condiciones realistas. Se demuestra cómo optimizar los métodos de proyección cuantificada, para los que se proveen análisis teóricos de los mismos. Además, se estudia la posible generalización a subespacios de esta familia de métodos, mostrando que la mejor opción es la proyección a subespacios escalares. Por último, se estudia el uso de codificación de canal para la ocultación de datos con y sin información lateral. Se muestra que las estrategias previas basadas en espectro ensanchado, que usaban diversidad concatenada con codificación de canal, se pueden mejorar usando en exclusiva técnicas avanzadas de decodificación iterativa. Usando esta metodología se ilustra que los análisis de capacidad efectuados con anterioridad pueden ser pesimistas para espectro ensanchado, mientras que constituyen un límite fundamental para los métodos que usan información lateral. A pesar de esto, el uso de codificación de canal revela el auténtico potencial de estos últimos. Un contratiempo importante es que, con respecto a los métodos de espectro ensanchado, su buen desempeño depende mucho más del tipo de canal atacante, que generalmente no es conocido. Para solventar esta cuestión, se presenta una nuev o método para efectuar decodificación ciega de códigos decodificables iterativamente, usando el esquema quasi-óptimo DC-DM.
  • VIDEO INDEXING USING MULTIMODAL INFORMATION .
    Autor: ALBIOL COLOMER ALBERTO.
    Año: 2002.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: ESCUELA TÉCNICA SUPERIOR DE INGENIEROS DE TELECOM.
    Centro de realización: ESCUELA TÉCNICA DE INGENIEROS DE TELECOMUNICACIÓN.
    Resumen: La presente tesis se centra el del desarrollo de algoritmos para el indexado de secuencias de vídeo empleando información de distintas modalidades: audio e imagen. La tesis se divide en dos partes. En la primera parte, se propone un sistema para la detección de tomas de vídeo en las que aparezcan caras humanas. Como resultado del sistema de detección se obtendrá un valor de confianza que se utiliza en un sistema global de indexación y búsqueda de secuencias de vídeo. El sistema global conocido como ViBE ha sido desarollado en la Universidad de Purdue y emplea diferentes características adicionales para realizar las búsquedas. La segunda parte de la tesis se centra en el reconocimiento de personas en secuencias de vídeo, con el fin de poder indexar aquellas partes donde un determinado personaje aparece. El reconocimiento se realiza empleando distintas modalidades. En primer lugar se empela únicamente información de imagen. Para ello, se propone un sistema combinado de detección-reconocimiento de caras. En segundo lugar, se considera únicamente información relativa al audio. En este caso, se han implementado técnicas de reconocimiento de personas basadas en la voz. Finalmente, se propone un sistema híbrido que emplea los resultados de las distintas modalidades audio-imagen, para crear un sistema multimodal más robusto y con mayor fiabilidad. En la tesis también se tratan otros aspectos relacionados con los sistemas anteriores. Por ejemplo, se hace un estudio sobre sistemas de detección de piel en imagen. Este paso se emplea en los distintos sistemas de detección de caras como paso previo para centrar la búsqueda. También se presenta un sistema para poder localizar aquellas partes de las secuencias de vídeo donde probablemente se va a encontrar un personaje hablando, y por tanto se pude aplicar el reconocimiento audiovisual.
  • EL PROFESIONAL DE LA INFORMACIÓN Y LA TELEENSEÑANZA: DISEÑO DE UN DOCTORADO VIRTUAL .
    Autor: BARBA MERINO M. LOURDES.
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: BIBLIOTECONOMÍA Y DOCUMENTACIÓN.
    Centro de realización: FACULTAD DE DOCUMENTACIÓN.
    Resumen: Se realiza un estado de la cuestión de la implantación de la modalidad de Teleenseñanza en las universidades y centros de educación superior de los países de habla hispana e inglesa, con el objetivo último de ofrecer un modelo válido de enseñanza virtual adaptado a los estudios de tercer ciclo, centrando la atención en los estudios relacionados directa o indirectamente con la disciplina de Biblioteconomía y Documentación. Para ello se analizan diferentes fuentes de información que puedan acercarnos a la realidad actual de la implantación de la modalidad de teleenseñanza. Inicialmente se estudian los orígenes y la terminología utilizada, ya que es muy heterogénea (enseñanza a distancia, enseñanza virtual, "e-learning", etc.). Se continua con un estudio exhaustivo de los "sitios web" de todos los centros docentes universitarios y de especialización de cada uno de los 21 países de habla hispana sometidos a estudio y los seis de habla inglesa (Australia, Canadá, Estados Unidos, Irlanda, Nueva Zelanda y Reino Unido). Los resultados se recogen en una base de datos que cuenta con 2666 direcciones de universidades, de las que se han analizado 106, que eran las ofrecían cursos de especialización en Biblioteconomía y Documentación a través de enseñanza virtual. Otro análisis realiza un recorrido por la legislación de cada país sometido a estudio, y las instituciones o secciones correspondientes creadas para atender las necesidades generadas por la educación a distancia a través de las TIC. En el último de los estudios realizados se analizan todos los proyectos existentes sobre Teleenseñanza aplicada a la universidad o estudios de especialización que se financian o han sido financiado por parte de la UE. Son un total de 32. Como conclusión práctica se aplican los resultados obtenidos de todos los análisis previos a la presentación de un modelo de Doctorado Virtual para los estudios de tercer ciclo. Las conclusiones obtenidas sirven para constar básicamente que es una forma idónea para facilitar la especialización y la formación continua saltando las barreras geográficas; el éxito y la actualidad del "e-learning"; la importancia de entenderlo como una modalidad de enseñanza; así como de adaptar los recursos y las herramientas (profesorado, planificación de la docencia, apuntes, contenidos, interacción con y entre los alumnos, bibliografía, evaluación, etc.) para facilitar, garantizar y mejorar la formación ofrecida. Por último, se presentan las líneas futuras de investigación más necesarias y críticas para el desarrollo de esta modalidad de enseñanza, que son la necesidad urgente de una legislación y/o acuerdos internacionales sobre el "copyright" y la homologación de las titulaciones de acceso, así como el desarrollo de contenidos específicos para la enseñanza a través de ordenador, y la adaptación de la biblioteca virtual para ello.
  • NUEVOS ALGORITMOS BASADOS EN NUCLEOS PARA MINERIA DE DATOS .
    Autor: PARRADO HERNANDEZ EMILIO.
    Año: 2002.
    Universidad: CARLOS III DE MADRID.
    Centro de lectura: ESCUELA POLITECNICA SUPERIOR.
    Centro de realización: UNIVERSIDAD CARLOS III DE MADRID.
    Resumen: Esta tesis doctoral pretende aumentar la utilidad de los métodos de aprendizaje automático basados en núcleos dentro de la minería de datos. En concreto, se aporta una colección de algoritmos que mejoran la escalabilidad de dichos métodos, posibilitan un análisis multirresolución de los datos y facilitan la interpretabilidad del resultado del aprendizaje. Estos algoritmos se aplican en problemas de clasificación y de agrupamiento de patrones. Con respecto a la escalabilidad de los algoritmos, los experimentos muestran reducciones del tamaño de máquina de hasta dos órdenes de magnitud con respecto a los métodos de núcleos encontrados en la literatura, conservando las excelentes prestaciones de capacidad de generalización de estos últimos. El análisis multirresolución se consigue mediante la combinación en la misma máquina de nodos con diferentes tipos de función núcleo, dedicándose cada tipo al análisis a una diferente granularidad. La interpretabilidad del aprendizaje se facilita mediante una nueva familia de algoritmos basados en proyecciones interpretables al espacio de características. Algunos de los algoritmos desarrollados se han probado con éxito en tareas de minería de datos tales como la clasificación de documentos, la autoorganización de colecciones de textos y la detección de puntos críticos en señales de electrocardiogramas.
  • LAS INFLUENCIAS EN LA FILMOGRAFIA DE CRUZ DELGADO Y SUS REPERCUSIONES .
    Autor: YEBENES CORTES M. PILAR.
    Año: 2002.
    Universidad: EUROPEA DE MADRID.
    Centro de lectura: FACULTAD DE CIENCIAS DE LA COMUNICACION.
    Centro de realización: FACULTAD DE CIENCIAS DE LA COMUNICACION.
    Resumen: Estudio que ubica la obra de Cruz Delgado -Autor de Títulos de animación como Los viajes de Guilliver, Los Cuatro Músicos de Bremen ó D. Quijote de la Mancha- En el Panorama del cine español de animación. Cuenta sus inicios como artista y su actual presencia en la escuela de cine de Madrid (ECAM), del mismo modo, ahonda en el trabajo de los miembros de su equipo.
  • LA DISTRIBUCIÓN DE FORMAS EN IMÁGENES NATURALES .
    Autor: GOUSSEAU YANN.
    Año: 2002.
    Universidad: LAS PALMAS DE GRAN CANARIA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: FACULTAD DE INFORMÁTICA.
    Resumen: En esta tesis se abordan diferentes aspectos científicos de la formación y clasificación de las imágenes naturales de escenas reales que se caracterizan por su complejidad. Se aborda el problema desde un punto de vista esencialmente estadístico, analizando la ditribución del tamaño de los objetos presentes en la imagen. Por un objeto, siguiendo el principio de la morfología matemática, entendemos una componente conexa de un binivel (el conjunto resultante de hacer la substracción entre dos conjuntos de nivel). La primera contribución importante de la tesis es que obtenemos que la distribución de tamaños de los objetos en imágenes naturales sigue fielmente una ley de probabilidad potencial, este resultado es de gran interés pues indica, que pese a la gran diversidad de imágenes naturales posibles, su configuración sigue un cierto orden preestablecido. Una consecuencia importante de este resultado es que una imagen natural vista como una función, posee fuertes irregularidades en el sentido de que la variación total de dicha función no es finita. Otros aspectos que estudiamos es el efecto estadístico de los fenómenos de oclusión que resultan de la opacidad de los objetos y de su posición relativa con respecto al observador (la cámara). Para ello, generalizamos el denominado modelo de hojas muertas introducido por Matheron. Utilizando este modelo mostramos la relación que existe entre el tamaño de los objetos visibles después de la oclusión con respecto al tamaño de los objetos que intervienen en la oclusión. Finalmente, estudiamos el problema de la síntesis de imágenes. Primero, mostramos como, a partir de un pequeño número de principios simples deducidos de las propiedades físicas de los objetos, es posible crear un gran abánico de imágenes abstractas de gran impacto visual. En segundo lugar, usando el principio de oclusión del "modelo de hojas muertas", desarrollamos un algoritmo para sintetizar texturas, ello permite en muchos casos, crear, a partir de un trozo de textura ejemplo, una réplica a cualquier tamaño de esa textura, que siendo puntualmente diferente, representa visualmente la misma información textural. Esta técnica es completamente nueva y pone en evidencia la importancia de los conjuntos de nivel de las imágenes como elementos de base en el estudio estructural de las imágenes naturales.
  • ANÁLISIS Y OPTIMIZACIÓN DE CIRCUITOS NO LINEALES CONMUTADOS MEDIANTE TÉCNICAS DE TIEMPO DISCRETO .
    Autor: ÁGUILA LÓPEZ FRANCISCO DEL.
    Año: 2002.
    Universidad: POLITECNICA DE CATALUÑA.
    Resumen: Poder predecir el comportamiento de un circuito antes de su implementación física es cada vez más imprescindible para el diseñador. A partir de una simulación previa se pueden realizar modificaciones que lleven a que un circuito cumpla mejor con las espectativas deseadas. Por otro lado, con el paso del tiempo, los circuitos son cada vez más complejos, lo que requiere desarrollar nuevas técnicas de análisis. Así, la conmutación en circuitos ha permitido diseñar fuentes de alimentación más eficaces que las fuentes lineales con la consiguiente ventaja en cuanto a tamaño, potencia disipada en los elementos de cirucito conmutados también se han extendido en el campo de la radiofrecuencia dando lugar a amplificadores de potencia muy eficaces. En este contexto aparecen también fenómenos no lineales cuya influencia no es despreciable en el comprotamiento del cirucito, por lo que deben ser tratados adecuadamente por las herramientas CAD de simulación. Mientras en el régimen transitorio es importante en algunas aplicaciones, la mayoría de los parámetros característicos se miden en régimen permanente. Este es el caso de la distorsión, potencia entregada, ganancia o impedancia de entrada y salida. Por este motivo cobran esencial interés los métodos de simulación que obtienen la solución en régimen estacionario de una manera más eficiente que la consistente en esperar la extinción del transitorio. En esta tesis se propone un nuevo método temporal discreto para la determinación directa del régimen permanente y la optimización de cirucitos conmutados que incorporen elementos no lineales. El circuito queda descrito mediante un conjunto de ecuaciones asociadas a cada topología según el estado de los conmutadores. El nexo de unión entre una topología y la siguiente es la conservción de determinadas magnitudes. Se realiza una discretización temporal de las ecuaciones que describen el circuito. Haciendo uso de la suposición de periodicidad, se obtiene un sistema de ecuaciones algebraico no lineal, donde las incógnitas a determinar son las muestras de las variables de control de las alinealidades de un periodo. También se abordan circuitos que adolecen del problema de condiciones iniciales inconsistentes debidas a los cambios que se producen en la topología del circuito y que provocan saltos bruscos en las variables de estado, así como la no observabilidad del estado del circuito a partir de la variable de control de la no linealidad. La formulación obtenida permite asimismo el cálculo de la sensibilidad de la solución respecto a cualquier parámetro de diseño. Esto permite la aplicación del método al diseño y la optimización de cirucitos, pudiéndose abordar problemas como, por ejemplo, la maximización de la eficiencia de un circuito. Además, el rendimiento de la optimización se mejora mediante un procedimiento que permite la inserción de las condiciones de diseño en el sistema de ecuaciones que resulta del problema de análisis. Esto da lugar a una formulación que es equivalente a un problema de análisis evitando el problema del tiempo de cálculo de tener que resolver repetidamente un sistema de ecuaciones no lineales en cada iteración de la optimización.
  • A UNIFIED FRAMEWORK FOR COMMUNICATIONS THROUGH MIMO CHANNELS .
    Autor: PÉREZ PALOMAR DANIEL.
    Año: 2002.
    Universidad: POLITECNICA DE CATALUÑA.
133 tesis en 7 páginas: 1 | 2 | 3 | 4 | 5 | 6 | 7
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia