Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > MATEMATICAS > CIENCIA DE LOS ORDENADORES >

DISEÑO Y COMPONENTES DE SISTEMAS DE INFORMACION



245 tesis en 13 páginas: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13
  • Definición de un Conjunto de Métricas para Asegurar la Calidad de los Almacenes de Datos .
    Autor: Serrano Martín Manuel Ángel.
    Año: 2004.
    Universidad: CASTILLA-LA MANCHA.
    Centro de lectura: Escuela Superior de Informática de Ciudad Real.
    Centro de realización: Escuela Superior de Informática de Ciudad Real.
    Resumen: Actualmente se pueden almacenar grandes cantidades de datos, pero estos datos no proporcionan información. Para resolver este problema, las organizaciones están adoptando la tecnología de almacenes de datos, de forma, que éstos se han convertido en una de las tendencias más importantes de la informática empresarial. El desarrollo de un almacén de datos, definido como una colección de datos orientados a temas, integrados y no volátiles, que soportan la gestión de la toma de decisiones, es una tarea difícil y llena de riesgos, a pesar de contar con diferentes propuestas de ciclos de vida y técnicas para su desarrollo. Es esencial poder asegurar la calidad de la información que contiene el almacén de datos ya que éste se ha convertido en la principal herramienta para la toma de decisiones estratégicas. Como es lógico, la calidad del esquema del almacén de datos tiene una gran influencia en la calidad de la información y este trabajo se centra en la calidad del esquema de datos multidimensional a nivel conceptual y lógico. Una forma de asegurar la calidad de los diseños de almacenes de datos es mediante la utilización de métricas específicas para este propósito. En esta tesis se presentan las métricas que hemos diseñado para asegurar la calidad de los esquemas lógicos y conceptuales de almacenes de datos. Todo el proceso de diseño de las métricas ha incluido las siguientes tareas:- Definición de un marco para la obtención de métricas validas. - Definición de métricas - Validación teórica de las métricas propuestas siguiendo las principales tendencias existentes para tal fin, como son los marcos formales basados en propiedades y los basados en la teoría de la medida. - Validación empírica de las métricas definidas utilizando tanto los tests estadísticos clásicos, como diferentes técnicas basadas en el aprendizaje automático (machine learning). - Diseño de una herramienta para la captura y visualización de las métricas propuestas
  • Evaluación de sistemas españoles de recuperación de información distribuida en Internet .
    Autor: Benito Amat Carlos.
    Año: 2004.
    Universidad: VALENCIA.
    Centro de lectura: Facultad de Medicina.
    Centro de realización: Facultad de Medicina.
    Resumen: El conjunto de espacios informativos que, colectivamente, se denomina Internet, plantea serios desafíos desde el punto de vista de la documentación y la recuperación de información. Se introduce este conjunto de problemas con una revisión de la evolución de Internet que, más que centrarse en los desarrollos técnicos, atiende a la progresiva configuración de su contenido informativo. Desde este punto de vista, Internet parece haber evolucionado en sentido centrífugo desde un estado de homogeneidad temática hasta un universo de gran heterogeneidad. Este acercamiento permite caracterizar de forma conveniente el universo documental que alberga y sus propiedades, que lo diferencian mucho del universo documental tradicional, alrededor de documentos y fuentes de información estructurados. Tras esta revisión, se examinan los sistemas para la recuperación de la información distribuída desarrollados en cada uno de los espacios que han venido integrándose en Internet y, especialmente, los del espacio Web. Más que disponerlos en orden cronológico, se propone una clasificación funcional de estos sistemas y se atiende a las ventajas e inconvenientes de cada modelo. El análisis del rendimiento de los sistemas españoles de recuperación de información en Internet se realiza mediante 3 estudios complementarios. En una primera fase, la caracterización de espacio Web español, que parte de la extracción de una muestra de sedes y la investigación de su composición cualitativa y cuantitativa. La segunda fase aborda el estudio del ajuste cualitativo y cuantitativo entre ese espacio informativo y los sistemas de recuperación; parte de una selección e investiga sus métodos de recopilación, su esquema de datos y sus mecanismos de indización. Por último, el estudio del rendimiento emplea a usuarios reales que expresan sus solicitudes de información y, posteriormente, juzgan la relevancia de los resultados obtenidos en los procesos de búsqueda, permitiendo el cálculo de exhaustividad y precisión de cada sistema. Los resultados globales sugieren que, tanto por su bajo nivel de cobertura (con aportes global y específico muy pequeños) como por sus cifras reducidas de exhaustividad relativa y precisión, los sistemas españoles de recuperación de información distribuida en Internet no garantizan una recuperación eficiente ni eficaz de los documentos del espacio Web español.
  • FMESP: Marco de Trabajo Integrado para el Modelado y la Medición de los Procesos Software .
    Autor: García Rubio Félix Óscar.
    Año: 2004.
    Universidad: CASTILLA-LA MANCHA.
    Centro de lectura: Escuela Superior de Informática Ciudad Real.
    Centro de realización: Escuela Superior de Informática Ciudad Real.
    Resumen: Actualmente la calidad de cualquier producto software no puede ser asegurada simplemente inspeccionando el producto por sí mismo o aplicando controles de calidad estadísticos. Esta afirmación se basa en que existe una correlación directa entre la calidad del proceso y la calidad del producto obtenido. Dado que la calidad del producto final va a estar afectada en gran medida por la forma de obtener ese producto, es decir, por el proceso, una de las grandes preocupaciones de las empresas hoy en día es la mejora de sus procesos software. A la hora de satisfacer los requisitos de calidad de los procesos software es necesario que produzcan los resultados esperados, que estén correctamente definidos y que sean mejorados en función de los objetivos de negocio, muy cambiantes ante la gran competitividad existente actualmente. Estos son los objetivos de la Gestión del Proceso Software que, para ser aplicada de forma efectiva, supone asumir cuatro responsabilidades clave: Definir, Medir, Controlar y Mejorar el Proceso. Teniendo en cuenta estas responsabilidades, para poder promover la mejora de los procesos es muy importante considerar la gestión integrada del Modelado de los Procesos Software, con el fin de capturar las características principales del proceso que se lleva a cabo, identificando las actividades necesarias, los responsables de llevarlas a cabo, los productos obtenidos, etc. y de la Medición y Evaluación de los Procesos Software, que constituye un paso previo fundamental para poder llevar a cabo su mejora, mediante la detección de los aspectos de un proceso software que se pueden mejorar. Para ello es necesario proporcionar un marco efectivo para la medición de los procesos y productos software en una organización. Considerando las ideas anteriores, en esta tesis se define el marco de trabajo FMESP (Framework for the Modeling and Evaluation of Software Processes), que integra el modelado y la medición de los procesos software proporcionando la base conceptual y tecnológica necesaria para llevar a cabo la mejora de los mismos. Desde el punto de vista del modelado se facilita la representación de forma consistente y homogénea de los procesos software. Desde el punto de vista de la medición se proporciona la base para una medición efectiva de los procesos y productos software al realizarse de forma integrada y sistemática mediante el uso de una misma conceptualización y de un conjunto adecuado de herramientas software. La medición del proceso software se complementa con la definición, validación teórica y empírica de un conjunto de métricas para la evaluación de la mantenibilidad de los modelos de procesos software. Los elementos que constituyen FMESP son: 1) Un Marco Conceptual para la representación y gestión del conocimiento relacionado con los procesos software desde el punto de vista de su modelado y medición. El marco conceptual constituye la herramienta necesaria para representar y medir los procesos de una forma integrada, abordando la especial complejidad de integrar estos dos aspectos clave de la gestión de los procesos. 2) Un Entorno de Ingeniería del Software (EIS) constituido por dos herramientas integradas que dan soporte al marco conceptual: METAMOD para la gestión de la arquitectura conceptual; y GenMETRIC para la gestión de la medición del software. El entorno propuesto es flexible, ya que puede incorporar una gran variedad de herramientas, al disponer de un repositorio de metadatos que puede ser compartido entre todas ellas.
  • Propuesta de modelo integrado de sistema de información para la gestión de unidades básicas de enfermería en el marco IE-GIP. Aplicación al sistema sanitario del ejército español.
    Autor: GRAU GADEA GONZALO FRANCISCO.
    Año: 2004.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: Dep. Organizacion de Empresas.
    Centro de realización: Universidad Politécnica de Valencia .
    Resumen: El Sistema de Información Sanitario para la Fuerzas Armadas se fundamenta en la consideración de la asistencia sanitaria como un todo, identificando un siste-ma en el que su cualidad principal viene dada por la interdependencia de las partes que lo integran y el orden en que subyace tal interdependencia. Este en-foque de la prestación asistencial lleva a plantear el hecho de que el flujo de un paciente por el sistema sanitario genera una gran cantidad de información de su proceso asistencial, que tendrá que estar estructurada y sistematizada, de forma que pueda ser accesible de forma rápida y fácil. La consecución de este objetivo requiere la puesta en marcha de un nuevo sis-tema de organización sanitaria. Para la confección del nuevo modelo integrado se parte de los conceptos propios de Integración Empresarial, revisando prime-ro las diversas metodologías existentes sobre Integración Empresarial, para pos-teriormente revisar los diversos modelos existentes de Integración en los Siste-mas Sanitarios. El modelo que se presenta está centrado en el primer nivel asistencial, el de las Unidades de Enfermería, el más próximo al individuo, con el soporte del Mapa de Procesos y del Mapa de Datos de la Unidad de Enfermería que posibilitan el diseño de un sistema de información que pueda fácilmente interconectar los distintos niveles asistenciales responsables de la asistencia sanitaria. En la propuesta, una vez definido el concepto de Proceso Asistencial, se proce-de dentro de una organización sanitaria, a identificar y clasificar los procesos en tres niveles (Estratégicos, Claves y de Soporte). Por otra parte, el modelo de datos debe responder al flujo o intercambio de in-formación que se produce entre los distintos procesos implicados en la asisten-cia de un proceso clínico. A la hora de definir este modelo, se ha tenido presente que el resultado global de la atención asistencial realizada a un paciente, con-formará el Historial Electrónico de Salud (HES).
  • Acercando el Conocimiento en la Web a los Agentes Software. Un Marco de Trabajo para la Construcción de Wrappers Semánticos.
    Autor: Arjona Fernández José Luis.
    Año: 2004.
    Universidad: SEVILLA.
    Centro de lectura: Escuela Técnica Superior de Ingeniería Informáti.
    Centro de realización: Escuela Técnica Superior de Ingeniería Informática .
    Resumen: En los últimos años la web se ha consolidado como uno de los repositorios de información más importantes. Un gran reto para los agentes software ha sido tratar con esa cantidad, poco manejable de datos, para extraer información con significado. Este proceso es difícil por las siguientes razones: en primer lugar, la información en la web tiene como objeto su consumo por sereshumanos y no contiene una descripción de su semántica, lo que ayudaría a los agentes entenderla; en segundo lugar, la web cambia continuamente, lo que tiene generalmente un impacto en la presentación de la información pero no en su semántica; por último, es un enorme repositorio con 4200 Terabytes de información lista para ser consumida. Los miembros de The Distributed Group han estado trabajando en sistemas distribuidos desde 1997. Concretamente, han trabajado en modelos de interacción multipartitos que proporcionan al programador los mecanismos adecuados para describir interacciones complejas desde un punto de vista conceptual. Los resultados obtenidos se han materializado en publicacionesen revistas importantes y tesis doctorales. El trabajo de investigación en esta memoria abrió una nueva línea de investigación en el grupo. Su objetivo es facilitar el diseño e implementación de agentes software. Actualmente, esta línea de investigación se refuerza con la tesis de Joaquín Peña, en la que se están desarrollando mecanismos para describir abstractamente las interacciones complejas en sociedades multi-agentes. En esta memoria presentamos un nuevo marco de trabajo para la extracción de información con significado de la web sintáctica actual. Sus principales ventajas son: asocia semántica a la información extraída, mejorando la interoperabilidad del agente; trata los cambios en la web, potenciando la adaptabilidad; además, establece una separación de responsabilidades en la tarea de extracción, automatizando el desarrollo de extractores de conocimiento distribuidos. Por último, el detallado estudio del trabajo relacionado demuestra que nuestra propuesta constituye una contribución original
  • Contribución al Diseño de una Arquitectura de Terminal para Aplicaciones de Usuario con Soporte de Adaptación y Calidad de Servicio en Redes Móviles Heterogéneas Basadas en IP .
    Autor: Armuelles Voinov Iván Pablo.
    Año: 2004.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S. Ingenieros de Telecomunicación.
    Centro de realización: E.T.S. Ingenieros de Telecomunicacion.
    Resumen: La Tesis Doctoral propone contribuciones al diseño de una arquitectura de terminal itinerante de redes móviles heterogéneas integradas basadas en IP. En las contribuciones son empleados el soporte de QoS y la adaptación como métodos para ofrecer un servicio de transporte persistente ante los cambios frecuentes del entorno de movilidad. En la actualidad son múltiples las propuestas planteadas que anticipan la integración de distintos tipos de redes de acceso, especialmente aquellas cuyo diseño tiende a la introducción de los protocolos de la Internet para la realización de distintas funcionalidades (encaminamiento, gestión de movilidad, seguridad, AAA, etc). Entre las ventajas pronosticadas por la integración se encuentran la posibilidad de mantener a los usuarios "conectados siempre de la mejor manera posible", esto es disponer de las infraestructuras de comunicaciones más apropiadas dentro del contexto de movilidad del usuario para el disfrute de un mejor servicio de transporte de datos. Dichas propuestas se preocupan por resolver los retos que la integración implica para las redes de acceso prestando escasa atención al dispositivo móvil, el terminal, a través del cual el usuario accede a las redes. En ello radica la principal motivación de la Tesis Doctoral. Las primeras aportaciones de la Tesis consisten en un análisis de varias propuestas de integración de redes móviles heterogéneas basadas en IP con el fin de obtener los requisitos básicos que debe cumplir cualquier terminal de usuario para dichos entornos. Los resultados del análisis consisten en un modelo de referencia de arquitectura de sistemas de comunicaciones integrados y un modelo de referencia de arquitectura de terminal genérico, además de los requisitos deducidos. De esta forma se logra determinar una arquitectura específica de terminal TCP/IP que cumple con los requisitos de integración y se inspira en los modelos de referencia. Las siguientes aportaciones, más relevantes aún, consisten en la especificación de los componentes funcionales introducidos en la arquitectura de terminal. El primer componente, ubicado en el Plano de Control, es el Servicio Gestor del Contexto de Movilidad que se encarga de la definición del entorno instantáneo del terminal móvil, recopilando información de las redes de acceso circundantes, la especificación del contexto de movilidad y la configuración del servicio de transporte persistente de los flujos de datos de una aplicación de usuario. Las contribuciones concluyen con los componentes propios del Plano de Datos de Usuario que consisten en una Interfaz de QoS Común que habilita el soporte de QoS de extremo a extremo y la adaptación para los flujos de las aplicaciones. Y, por último, el Procesador de QoS que está encargado de la intermediación entre la interfaz y los distintos proveedores de QoS, además de la monitorización de la QoS ofrecida a los flujos de datos.
  • INTERCONEXION DE SISTEMAS DE MEMORIA COMPARTIDA DISTRIBUIDA .
    Autor: JIMENEZ MERINO JOSE ERNESTO.
    Año: 2003.
    Universidad: REY JUAN CARLOS.
    Centro de lectura: E.S. DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA .
    Centro de realización: E.S. DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA.
    Resumen: Una memoria compartida distribuida (MCD) es una abstracción de una memoria compartida por todos los procesos de un sistema distribuido. La MCD es accesible por todos los procesos mediante operaciones de lectura y escritura sobre variables de la misma. Un sistema de MCD es el conjunto formado por todos los procesos del sistema y la MCD. Una característica importante de la MCD es la coherencia de las operaciones en la memoria. El criterio elegido para mantener coherente la MCD (al que llamamos modelo de coherencia) es el que determinará la semántica asociada a dichas operaciones. Un aspecto de la MCD que no ha sido tratado hasta ahora es el estudio de los modelos de coherencia resultantes de la interconexión de diferentes sistemas de MCD. En esta tesis abordamos dicho estudio presentando, en primer lugar, un protocolo que implanta un sistema de MCD con coherencia secuencial, causal o caché, eligiendo dicha coherencia mediante un parámetro con igual valor en todos los procesos del sistema. Este protocolo permite también: (1) la interconexión, mediante la ejecución simultánea, de un sistema secuencial con otro causal, demostrándose que la coherencia resultante es causal, y (2) la interconexión, mediante la ejecución simultánea, de un sistema caché con otro secuencial, demostrándose que en este caso la coherencia resultante es caché. También demostramos que el protocolo permite cambiar dinámicamente la coherencia del sistema que implanta simplemente cambiando el valor del parámetro elegido. En segundo lugar, esta tesis se centra en el estudio de interconexiones de sistemas de MCD pero independientemente de cómo sea el protocolo que implanta cada sistema. En concreto, esta tesis aborda la interconexión de sistemas de MCD cuyo modelo de coherencia resultante es el mismo que el modelo de los sistemas a interconectar. Para ello, presentamos un marco donde formalmente describir dicha interconexión, demostrando que sólo los sistemas cuyos protocolos implantan modelos de coherencia "rápidos" pueden ser interconectados. Por último, demostramos que los sistemas con memoria causal, caché y pRAM pueden ser interconectados (en la mayoría de los casos con ciertas restricciones), presentando en cada caso un protocolo de interconexión.
  • DESARROLLO DE ALGORITMOS PARA LA ESTRUCTURACION DINAMICA DE INFORMACION Y SU APLICACION A LA DETECCION DE SUCESOS .
    Autor: PONS PORRATA AURORA.
    Año: 2003.
    Universidad: JAUME I DE CASTELLON.
    Centro de lectura: E.S. DE TECNOLOGIA Y CIENCIAS EXPERIMENTALES.
    Centro de realización: ESCUELA SUPERIOR DE TECNOLOGIA Y CIENCIAS EXPERIMENTALES.
    Resumen: La motivación fundamental de esta tesis es el problema de la detección de tópicos, cuyo objetivo es identificar en un flujo continuo de noticias, aquéllas que pertenecen a un nuevo tópico o a uno conocido previamente. En el trabajo se presenta un sistema de detección de tópicos en línea, denominado JERARTOP, que va más allá de un sistema tradicional de detección, ya que permite identificar no sólo los tópicos presentes en un flujo de noticias sino también los posibles sucesos más pequeños que ellos comprenden. Este sistema clasifica, además, en un conjunto de temáticas pre-definidas a cada tópico detectado y proporciona un resumen de los contenidos asociados en cada uno de ellos. Con este fin, se proponen tres nuevos algoritmos de agrupamiento incrementales: Compacto Incremental, Fuertemente Compacto Incremental y Jerárquico Incremental que construyen grupos disjuntos, solapados y jerarquías de grupos respectivamente. Estos algoritmos permiten la manipulación de objetos mezclados, no imponen restricciones a la función de semejanza ni a la forma de los grupos y son independientes del orden de presentación de los objetos. Además se propone un método de construcción automática de resúmenes a partir de una partición de conjuntos de documentos. Nuestro método emplea el cálculo de los testores típicos como su operación primaria y, a partir de ellos, construye el resumen de cada grupo.
  • Caracterización del conocimiento en diseño de microarquitecturas orientadas a objetos .
    Autor: Garzás Parra Javier.
    Año: 2003.
    Universidad: CASTILLA-LA MANCHA.
    Centro de lectura: Escuela Superior de Informática .
    Centro de realización: Escuela Superior de Informática.
    Resumen: Dada la experiencia adquirida durante años de investigación y desarrollo de sistemas orientados a objetos existen hoy numerosas técnicas y métodos que facilitan su diseño. Pero no todo el conocimiento en ingeniería del software es estudiado, es tan accesible o está difundido de igual forma. Podemos sorprendernos a este respecto si realizamos el siguiente ejercicio... ¿cuál es y dónde está el enorme conocimiento práctico en Diseño de micro arquitecturas Orientadas a Objetos (OO), basado en la experiencia acumulada en el desarrollo de sistemas software durante todos estos años y aplicable en la mayor parte de proyectos? Principios, refactorizaciones, mejores prácticas y otros similares son una evolución en la forma de aplicar, estructurar, etc., el conocimiento en diseño, por lo que el valorar su incorporación en los procesos de ingeniería del software supone un paso en su perfeccionamiento y evolución. Pero en el camino hacia esta incorporación se encuentran aún serios problemas. Las diferencias entre estos otros elementos no están claras, muchos son el mismo concepto denominado de distinta forma, contienen distinto tipo de conocimiento, son conceptos difusos y no tienen una interpretación unificada, tampoco existe un método sistemático que los organice y que sea capaz de formar una guía de aplicación del mismo, de comparar sus componentes y clasificarlos.Como solución a la problemática detectada proponemos caracterizar los elementos de conocimiento de micro arquitecturas de diseño OO, definiendo su interrelación e incorporación en metodologías de diseño. En esta tesis se propone una ontología que aglutina el conocimiento existente en la mejora de la calidad del diseño de micro arquitecturas orientadas a objetos, un conjunto de métricas y un método de aplicación.
  • ENTORNOS ROBUSTOS DE PROGRAMACIÓN DISTRIBUIDA .
    Autor: MARTEL JORDÁN ERNESTINA DE LOS ANGELES.
    Año: 2003.
    Universidad: LAS PALMAS DE GRAN CANARIA.
    Centro de lectura: TELECOMUNICACIONES.
    Centro de realización: EDIFICIO DE ELECTRÓNICA Y TELECOMUNICACIÓN.
    Resumen: La programación de la configuración es un enfoque ampliamente aceptado para construir aplicaciones distribuidas mediante componentes. De acuerdo con este enfoque la aplicación distribuida se construye en dos fases: programación y configuración. En la fase de programación se proporciona la funcionalidad de la aplicación mediante los lenguajes de programación y middleware adecuados. En la fase de configuración se define la estructura de la aplicación en términos de componentes, propiedades y relaciones. Actualmente cada lenguaje de programación y middleware define herramientas propias de configuración, no existiendo un entorno común que permita configurar cualquier aplicación distribuida independientemente de su plataforma. Esta tesis propone un entorno de programación distribuida, el EPDA (Environment for Programming Distributed Applications), que proporciona las prestaciones básicas para la configuración, instalación y arranque de aplicaciones distribuidas basadas en componentes. La principal aportación de este trabajo es que el EPDA es genérico, y por tanto se puede adaptar a diferentes plataformas distribuidas. La arquitectura del EPDA sigue el modelo cliente/servidor, proporcionando así movilidad al usuario. Además con el fin de facilitar la configuración en sistemas con requisitos de alta disponibilidad, el entorno puede proporcionar su funcionalidad de forma robusta, es decir, continúa operativo aunque se produzcan fallos en nodos de la red. Esta robustez se consigue mediante replicación activa del servidor de configuración, elemento que gestiona tanto los datos de configuración almacenados en una base de datos replicada, como el arranque de las aplicaciones distribuidas. Aparte de esto, en cualquier instante se pueden incorporar nuevas réplicas al servidor con lo que se pueden sustituir réplicas que fallen o incluso actualizar la implementación del servidor sin necesidad de detener el servicio. A nivel de usuario, el acceso a los servicios del EPDA se realiza mediante una interfaz gráfica que gestiona la comunicación con el grupo de réplicas de forma transparente. La adaptación del EPDA a diferentes plataformas distribuidas y su análisis, nos ha conducido a automatizar esta adaptación mediante una herramienta de generación de entornos.
  • CARACTERIZACION DE UN MODELO DE GESTION DEL CONOCIMIENTO PARA LA ADMINISTRACION PUBLICA ESPAÑOLA .
    Autor: PEREZ SANJUAN OLGA.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S.I. TELECOMUNICACION.
    Centro de realización: E.T.S.I. TELECOMUNICACION.
    Resumen: Esta tesis se centra en analizar la existencia de una relación entre la gestión del conocimiento que se realiza en la Administración Central Española y las Competencias Esenciales de dicha Administración. Para ello, este trabajo parte de la teoría de recursos y capacidades y de la teoría del conocimiento, analizando la relación que existe entre las mismas y entre sus principales conceptos: aprendizaje organizativo, gestión del conocimiento, capital intelectual y competencias esenciales, al mismo tiempo que se analizan los principales modelos existentes, así como sus posibles limitaciones para su utilización en la Administración Pública. Una vez realizado el análisis se decide diseñar un modelo de gestión del conocimiento que se adapte a las peculiaridades de la Administración y en el que se unan los conceptos de las dos teorías utilizadas: la del conocimiento y la de recursos y capacidades. Este modelo se caracteriza principalmente por dos aspectos: · Dividir los recursos y capacidades intelectuales en racionales y emocionales y, por lo tanto, por utilizar esa misma clasificación para las Competencias Esenciales y para el Capital Intelectual. · Vincular la gestión del conocimiento a las competencias esenciales de la Administraciones Públicas. Este modelo se ha probado en la Administración Central del Estado Español, para lo que ha sido necesario establecer un método de recogida de información a través de Internet y partiendo del diseño de un cuestionario que los principales aspectos de las competencias esenciales y de la gestión del conocimiento. Posteriormente, con los resultados obtenidos se realiza un estudio estadístico en tres fases: análisis descriptivo, análisis de correlaciones y análisis cluster, lo que permite sacar una serie de conclusiones que permiten extender el conocimiento en esta materia.
  • CONTRIBUCION METODOLOGICA AL CAMBIO ORGANIZATIVO PARA LA OBTENCION DE ESTRUCTURAS FLEXIBLES Y AJUSTADAS MEDIANTE LA UTILIZACION DE LOS SISTEMAS DE INFORMACION COMO HERRAMIENTA DE CAMBIO .
    Autor: PASCUAL MIGUEL FELIX.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: E.T.S.I. TELECOMUNICACION.
    Centro de realización: E.T.S.I. TELECOMUNICACION.
    Resumen: El presente trabajo de tesis se enmarca dentro del tema general de "Cambio Organizativo" y trata de contribuir al desarrollo de un modelo que permita, tras determinar la situación organizativa actual e identificada la necesidad de cambio, facilitar la evolución hacia un modelo de organización flexible y ajustada por medio de la utilización del sistema de información y comunicación (SIC) y de las tecnologías de la información y las comunicaciones (TIC) que le dan soporte como herramienta básica de cambio. Para cubrir el objetivo planteado, se ha comenzado por llevar a cabo una revisión de trabajos anteriores sobre la materia, planteando un modelo de interacción que incorpora aspectos que consideramos nuestra aportación conceptual específica dentro del tema que abordamos. Asimismo, se ha realizado un trabajo empírico sobre un total de 111 empresas, como base para el contraste del propio modelo. La tesis se ha estructurado en ocho capítulos y anexos. En el capítulo I, se presenta una visión del alcance y contenido del trabajo realizado, haciendo especial referencia a los objetivos que se persiguen. Hemos optado por describir en este capítulo el tema específico de la tesis, de forma que se facilite y oriente la lectura de los restantes capítulos del documento. En el capítulo II caracterizamos las dimensiones más relevantes de un nuevo medio económico: la diferenciación y el cambio continuo y proponemos, en función de éstas, tres capacidades clave para la supervivencia organizativa en el mismo, tres factores clave del éxito: capacidad de innovación, de aprendizaje y de renovación organizativa. En los capítulos III al V, se establece el marco conceptual que permite desarrollar la investigación desde una perspectiva fuerte y coherente, revisándose las principales aportaciones y trabajos de otros autores. Constituyen por tanto nuestra mayor aportación a nivel conceptual. Este análisis lo hacemos a partir de cinco dimensiones organizativas: estrategia, procesos y cultura (capítulo III), estructura (capítulo IV) y sistemas y tecnologías de la información (capítulo V). Para cada una de estas dimensiones realizamos convergentemente un análisis caracterizado por el mismo patrón: limitaciones que en estos dominios presenta el modelo tradicional de gestión; conveniencia de un modelo de gestión más flexible y ajustado. Los capítulos IV y V se centran en el análisis de las dimensiones estructura organizativa y sistemas de información y comunicaciones, respectivamente, debido a la especial importancia que se les concede en este trabajo de investigación ya que se constituyen como las definidoras por excelencia del modelo flexible y ajustado. El capítulo VI presenta el modelo de relaciones entre las diferentes variables independientes y dependientes que configuran el mismo así como las hipótesis de trabajo. En el capítulo VII, se desarrolla el trabajo empírico, se presenta el planteamiento seguido en la investigación y recoge la validación del modelo e hipótesis y las conclusiones del análisis cuantitativo realizado. Finalmente hemos recogido en el capítulo VIII las conclusiones, aportaciones específicas que consideramos que constituyen el resultado principal de la tesis doctoral presentada, sus limitaciones y las líneas futuras de investigación propuestas. Los resultados del trabajo realizado permiten extraer importantes conclusiones sobre las relaciones entre la adopción del modelo de organización flexible y ajustada y los factores clave del éxito identificados y sobre la medida en que el Sistema y las Tecnologías de la Información y Comunicaciones contribuyen a la adopción del modelo flexible y ajustado en las organizaciones.
  • APLICACION DE ENTORNOS VIRTUALES PARA LA EXPLORACION Y BUSQUEDA DE INFORMACION .
    Autor: PEREZ VAZQUEZ CESAR.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: FACULTAD DE INFORMATICA.
    Centro de realización: FACULTAD DE INFORMATICA.
    Resumen: El volumen creciente de información disponible a través de redes informáticas hace cada vez más difícil el seleccionar, asimilar y utilizar la información de interés que queda oculta en una enorme cantidad de información no relevante. Una posible solución a este problema la constituyen las herramientas de exploración de la información que permiten analizar colecciones de documentos y descubrir su estructura temática, incluso cuando el usuario tiene un conocimiento limitado del dominio y de su lenguaje especializado, o no tiene un objetivo bien definido, y le facilitan la exploración interactiva del conjunto de documentos. En esta tesis se plantea la aplicación de entornos virtuales tridimensionales para el desarrollo de herramientas de exploración de información. En ella se propone un modelo del proceso de espacialización, que representa una colección de documentos textuales en forma de modelo tridimensional explorable, y se proponen algoritmos para su aplicación en este proceso. Un estudio experimental nos permite seleccionar los algoritmos que mejor conservan la estructura de la información, y analizar su comportamiento. En una segunda fase, se aplican los algoritmos seleccionados para el desarrollo de una herramienta 3D experimental de exploración. Su utilización por parte de sujetos experimentales muestra una significativa ventaja en la rapidez de ejecución de tareas de búsqueda de información, frente a herramientas clásicas textuales y bidimensionales.
  • ALGORITMOS GENÉTICOS PARA LA SEPARACIÓN DE SEÑALES EN MEDIOS LINEALES Y NO LINEALES .
    Autor: ROJAS RUIZ FERNANDO JOSÉ.
    Año: 2003.
    Universidad: GRANADA.
    Centro de lectura: ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTI.
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA.
    Resumen: Existen numerosas situaciones en el mundo real en que los datos que podemos observar y cuantificar tan sólo guardan una cierta relación desconocida con los datos que en realidad son objeto de interés. Por otra parte, resulta evidente la acentuada tendencia en la comunidad científica de confiar la solución de problemas reales a paradigmas basados en modelos biológicos. De alguna forma, se trata de imitar el razonamiento humano o los comportamientos observados en la naturaleza. Tal es el caso de las técnicas basadas en redes neuronales, razonamiento mediante lógica difusa o los paradigmas que mimetizan los procesos de evolución natural. En esta última categoría se encuadran los algoritmos genéticos, que implementan procedimientos de búsqueda y optimización sobre el espacio de soluciones basándose en el principio de “supervivencia del más dotado” (Darwin 1859). El presente trabajo de tesis doctoral se centra en resolver el problema de la separación ciega de señales para diferentes tipos de mezclas lineales y no lineales, aplicando técnicas basadas en evolución, más concretamente algoritmos genéticos. Se presentan dos algoritmos denominados GABSS y PNL-GABSS para la separación de señales en mezclas lineales y mezclas no lineales (modelo post-no-lineal), respectivamente. En el primer caso (mezcla lineal) la solución al problema se limita a encontrar los coeficientes de una matriz de coeficientes lineales que multiplicada por las señales mezcladas nos devuelva las señales originales . La solución propuesta en esta tesis doctoral para este caso, basada en algoritmos genéticos, es la de encontrar una solución que corresponde a una matriz de separación que maximice una determinada función que evalúa la independencia de un conjunto de estimaciones. En cuanto a la situación en que la mezcla no es lineal, encontrar las componentes independientes sin más no es condición suficiente para hallar la solución al problema de la separación de señales y necesitamos información adicional. En esta investigación hemos asumido que el modelo es el post-no-lineal. Este modelo impone la restricción de que las señales mezcladas se generan a partir de las fuentes tras una mezcla lineal seguida de una transformación no lineal en cada canal. De esta forma, las componentes independientes que se obtienen coinciden de nuevo con las fuentes buscadas. Los algoritmos propuestos han sido validados rigurosamente mediante simulaciones experimentales y análisis estadístico de los resultados, mostrando la eficacia de este nuevo enfoque en el problema de la separación ciega de señales.
  • EVOLUCIÓN DE ESQUEMAS EN BASES DE DATOS ODMG .
    Autor: DELGADO NEGRETE CECILIA.
    Año: 2003.
    Universidad: GRANADA .
    Centro de lectura: INFORMÁTICA.
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA.
    Resumen: La aparición en 1993 de la primera versión de las especificaciones de ODMG vino a solucionar uno de los principales problemas que habían tenido hasta ese momento las bases de datos orientadas a objetos: La falta de un estándar para la definición y manipulación de objetos. Sin embargo, actualmente, este estándar no dispone de ningún soporte explícito para la evolución de esquemas. La evolución de esquemas se define como el proceso de aplicar cambios al esquema de una base de datos de manera consistente y propagar esos cambios a las instancias mientras la base de datos está en operación. Desde mediados de la década de 1980 se han venido desarrollando diferentes trabajos en los que se proponen mecanismos para soportar evolución de esquemas en base de datos orientadas a objetos. Sin embargo, la falta de un estándar para este tipo de datos ha favorecido que la mayoría de estas propuestas fueran desarrolladas para modelos de objetos particulares. Uno de los principales factores que han contribuido al éxito de las bases de datos relacionales ha sido el disponer de un modelo matemático formal, lo cual permite que todos los elementos del modelo estén definidos sin contradicciones y sin ambigüedades. En esta tesis se presenta un tratamiento formal para el modelo de objetos propuesto en el estándar ODMG que intenta evitar cualquier interpretación errónea de las características definidas para este modelo de datos. Además, este tratamiento formal sirve como marco para el desarrollo de soluciones al problema de la evolución de esquemas ODMG. En el proceso de la evolución de esquemas en bases de datos orientadas a objetos, hay que tener en cuenta dos tipos de cuestiones: La semántica del cambio, que se refiere a los efectos que un cambio de esquemas tiene sobre la manera en que un sistema organiza la información; y la propagación del cambio, relacionada con la forma en que un cambio de esquema se propaga a los objetos almacenados en la base de datos. Para solucionar la primera cuestión, se define un conjunto de axiomas, en el contexto del modelo de objetos de ODMG, que tienen en cuenta las peculiaridades propias del modelo de objetos, especifican invariantes que garantizan la consistencia de un esquema antes y después de una actualización y proponen soluciones a los conflictos provocados por la herencia múltiple. Además, se propone un conjunto de operaciones primitivas que describen los cambios básicos que se pueden llevar a cabo en un esquema ODMG. Respecto a la segunda cuestión, se propone un mecanismo de versiones que conserva esquemas antiguos y para conseguir esta funiconalidad se han utilizado técnicas de definición de esquemas externos. El prinicpio básico del mecanismo es que cuando se solicita un cambio sobre un esquema externo, en vez de modificar el esquema se define uno nuevo que refleje la semántica del cambio. Por último, una vez definido el marco de referencia en el que se va llevar a cabo la evolución de esquemas ODMG, se desarrollan los algoritmos que permiten implementar sobre un esquema externo los cambios básicos correspondientes a las operaciones primitivas definidas con anterioridad. Una de las características fundamentales del mecanismo de definición de esquemas externos que se utiliza es el uso del repositorio para su definición. Teniendo encuenta esto, la especificación de los algoritmos se basa en la utilización de un conjunto de operadores genéricos de actualización que permiten modificar la información contenida en él; además, se necesitarán los operadores usuales de álgebra de objetos. Los operadores que se porponen modifican la información contenida en el repositorio, de manera que queda constancia de todos los cambios de esquema que se produzcan en cualquier momento.
  • FUNDAMENTOS DEL ANÁLISIS EN COMPONENTES INDEPENDIENTES BASADO EN MÉTODOS GEOMÉTRICOS .
    Autor: THEIS FABIAN JOACHIM.
    Año: 2003.
    Universidad: GRANADA.
    Centro de lectura: INFORMÁTICA.
    Centro de realización: E.T.S. DE INGENIERÍA INFORMÁTICA.
    Resumen: En muchas aplicaciones de tratamiento y transmisión de señal, las señales captadas en los receptores pueden ser mezclas de señales procedentes de varias fuentes. Dichas fuentes emiten las señales, que se transmiten a través de un medio material, el cual puede alterarlas, interfiriendo entre ellas o añadiéndoles ruido. El problema de ls Separación Ciega de Fuentes (Blind Sources Separation - BSS) consiste en tratar de reconstruir las señales originales (So1, ..Sop) partiendo de las señales mezcladas (e1,..ep) sin saber ni la naturaleza de las señales originales ni cómo se han mezclado o interferido entre ellas. A priori, el número de fuentes de señal, no tiene porqué coincidir con el número de observaciones. La mezcla de señales tiene lugar en el medio en que se propagan y en los sensores. El problema de separación ciega de fuentes fue enunciado por primera vez en 1985 por los profesores Hérault, Jutten y Ans del Laboratorio de Tratamiento de Imágenes y Reconocimiento de Formas del Instituto Nacional Politécnico de Grenoble (Francia), y desde que fuera planteado el problema, éste ha suscitado el interés de muy diversos investigadores en el campo del tratamiento de señales. El concepto de la separación ciega de fuentes ha abierto un capítulo de gran relevancia en la Teoría de Señales, con aplicaciones en una gran diversidad de campos (radiocomunicaciones, procesamiento de voz y de imágenes, biomedicina, sensores inteligentes, etc.). Se han desarrollado diferentes técnicas para intentar resolver este problemas, con mayor o menor éxito. Dado que la mezcla de señales tiene lugar o bien en el medio en que se propagan, o bien en los sensores que captan las señales, se han realizado diferentes modelados del problema para poder abordar su resolución. En casi todas ellas, para representar la influencia que el medio material o canal de transmisión realiza sobre las señales, se hace uso de algún modelo del mismo. Un modelado muy típico, consiste en sustituir dicha influencia por una matriz de dimensión p*p, denominada Matriz de Mezcla. Este modelado lleva implícito el hecho de que el número de fuentes de señal sea igual que el de observaciones, no siendo así en algunos casos, dado que se podría plantear el problema tener más fuentes de señal que observaciones (si p es el número de fuentes de señal y q el número de observaciones, sería p menor q), en cuyo caso el problema sería irresoluble, si bien hay autores que utilizan métodos geométricos para resolver este caso, denominado overcomplete (sobrecompleto) en la bibliografía sobre separación de fuentes. Otro modelado es el de una Mezcla Lineal Instantánea en el cual considera que tanto el medio material como los sensores tienen un comportamiento de respuesta o función de transferencia lineal, en la que los valores de mezcla de las observaciones dependen de los valores de las fuentes originales en ese mismo instante de tiempo y no en instantes de tiempos anteriores (lo cual daría lugar a una mezcla llamada convolutiva).
  • EL PROBLEMA DE LA FUSION DE COLECCIONES EN LA RECUPERACIÓN DE INFORMACIÓN MULTILIGÜE Y DISTRIBUIDA: CALCULO DE LA RELEVANCIA DOCUMENTAL EN DOS PASOS .
    Autor: MARTINEZ SANTIAGO FERNANDO.
    Año: 2003.
    Universidad: NACIONAL DE EDUCACION A DISTANCIA.
    Centro de lectura: E.T.S. INGENIERIA INFORMATICA.
    Centro de realización: ESCUELA TECNICA SUPERIOR DE INGENIERIA INFORMATICA .
    Resumen: En esta Tesis se propone un nuevo enfoque, cálculo de la relevancia documental en dos pasos, para afrontar el conocido problema de la fusión de colecciones o simplemente mezcla de resultados. En breve, la fusión de colecciones está relacionada con la Recuperación de Información la cual, frente a una necesidad de información del usuario, debe responder con una lista de documentos relevantes para la consulta dada. En ocasiones, la obtención de tal lista de documentos debe obtenerse a partir de la fusión o mezcla de varias listas obtenidas con independencia las unas de las otras, y es en ese aspecto en el cual se centra el presente trabajo, ilustrando la bondad del método propuesto en dos escenarios: Recuperación de Información Multiligüe y Recuperación de Información Distribuida. Una hipótesis que se defiende en este texto es que dada una determinada necesidad de información, tanto la puntuación como la posición alcanzada por dos documentos pertenecientes a dos colecciones distintas no es comparable debido principalmente a que la relevancia asignada a un documento no es un valor absoluto, sino muy al contrario, fuertemente dependiente de la colección a la cual pertenece tal documento. Por otra parte, es posible percibir la unión de todos los documentos devueltos par cada motor de búsqueda como una nueva colección de tamaño reducido y pequeño vocabulario, ya que sólo los términos que aparecen en la consulta formulada por el usuario son de interés en esta nueva colección. En virtud de estas dos simplificaciones, tal colección puede ser reindexada y contrastada con la consulta del usuario, obteniendo así una nueva única lista de documentos puntuados en relación con esta nueva colección creada, indexada y contada en tiempo de ejecución. Los resultados obtenidos muestran que el método propuesto es estable, consiguiendo simpre una mejora respecto a otros enfoque cifrada entre el 20% y el 40%, con independencia de parámetros como el número de colecciones, el esquema de pesado, el tamaño de consultas, los idiomas presentes o las técnicas de expansión de consultas.
  • PERSPECTIVAS DE UTILIZACIÓN Y CONTROL DE APLICACIONES DE DISEÑO ASISTIDO MEDIANTE SISTEMAS DE RECONOCIMIENTO DE VOZ .
    Autor: LAZARO CAÑEDO-ARGUELLES EUGENIO.
    Año: 2003.
    Universidad: NACIONAL DE EDUCACION A DISTANCIA.
    Centro de lectura: E.T.S. INGENIEROS INDUSTRIALES.
    Resumen: La evolución de los medios informáticos en los úñtimos años es espectacular. Esta evolución, en el campo del diseño asistido por ordenador, lo ha sido aún más. Sin embargo, el manejo de las aplicaciones de diseño es cada día más compleja, requiriendo una gran preparaciónd el usuario. Los nuevos entronos informáticos que se preveen para un futuro no muy lejano pueden conseguir que el manejo de estos equipos, y en especial las aplicaciones de diseño resulte más "amigable". Entre los nuevos entronos, uno que va cobrando cada día más fuerza es el del manejo a través de órdenes impartidas por un micrófono, es decir, el de los sistemas de reconocimiento de voz. Este nuevo entorno está alcanzando un cierto desarrollo y los fabricantes de sotfware hacen notables esfuerzos en esta dirección. La aplicación de este entrono al campo del diseño asistido por ordenador abre nuevas posibilidades que conviene analizar detenidamente, para definir o que deberán ser en el futuro estas aplicaciones
  • PROPUESTA DE UN MODELO DE CONOCIMIENTO PARA EL USO DE CUESTIONARIOS EN LA EVALUACIÓN DE LA USABILIDAD.
    Autor: GARCÍA BARRIOCANAL ELENA.
    Año: 2003.
    Universidad: ALCALA.
    Centro de lectura: ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTIC.
    Centro de realización: ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA (UNIVERSIDAD DE ALCALÁ).
    Resumen: La usabilidad de un sistema es la propiedad que resume la calidad del mismo desde el punto de vista de la Interacción Persona--Ordenador. Los cuestionarios constituyen una de las técnicas más utilizadas para evaluar la usabilidad, y permiten medir directamente la satisfacción e indirectamente otros factores de usabilidad. Sin embargo, el diseño de cuestionarios de usabilidad con las características apropiadas es un proceso costoso y que requiere cierta experiencia en el área, y la falta de medios comunes para diseminar los resultados limitan las posibilidades de análisis y meta--análisis de las evaluaciones. En esta tesis se propone un modelo de conocimiento sobre el uso de los cuestionarios en la evaluación de usabilidad que permita, por un lado, facilitar el diseño semi--automatizado de cuestionarios específicos, y, por otro lado, servir para el análisis y descubrimiento por técnicas automatizadas de los datos resultantesde las evaluaciones. Para ello, se especifica un modelo basado en lógica de descripciones, y se evalúa su validez formal y epistemológica, así como su factibilidad técnica para las tareas de automatización mencionadas. El documento donde se resume el trabajo está dividido en seis capítulos. En el primero de ellos se elabora una introducción general al trabajo realizado y se precisan los objetivos perseguidos y alcanzados, así como las principales aportaciones originales conseguidas y el método de trabajo seguido. En el segundo capítulo se describe el estado de las actuales investigaciones y trabajos desarrollados en los campos de interés en los que se enmarca esta tesis, básicamente el uso de cuestionarios en la evaluación de la usabilidad y las técnicas de inteligencia artificial y representaciones de conocimiento llevadas a cabo en el área. En el tercer capítulo se elabora el planteamiento del problema a la luz del estado del arte, y en función de los problemas detectados se enumeran los requisitos deseables del modelo. El capítulo cuarto se dedica a la descripción del modelo de conocimiento que refleja el papel de los cuestionarios en la evaluación de la usabilidad. El modelo se ha dividido en varios sub-modelos que abarcan los aspectos necesarios para cubrir la realidad de la aplicación de dichos cuestionarios. En el quinto capítulo se procede a la validación del modelo generado. La validación se ha realizado desde tres puntos de vista diferentes, con el objeto de evaluar los objetivos propuestos en el capítulo uno. Se procede, por tanto, a realizar una validación formal del modelo, una validación de su adecuación epistemológica y una validación de la factibilidad técnica del modelo, para la que se han desarrollado dos casos de estudio concretos, que muestran cómo gracias al modelo elaborado se pueden abordar losproblemas enumerados en el tercer capítulo de este documento. Para finalizar, se concluye el trabajo realizado y se sintetiza cómo se han resuelto los problemas detectados y se han alcanzado los objetivos perseguidos. Además se detallan aspectos del modelo que pueden ser ampliados y se incluyen nuevas líneas de trabajo futuras que han surgido durante la realización del modelo.
  • OBTENCIÓN AUTOMÁTICA DEL ENTORNO EN LA VERIFICACIÓN MODULAR DE SISTEMAS REACTIVOS .
    Autor: RIVA ÁLVAREZ CLAUDIO DE LA.
    Año: 2003.
    Universidad: OVIEDO.
    Centro de lectura: INFORMATICA.
    Centro de realización: DEPARTAMENTO DE INFORMÁTICA DE LA UNIVERSIDAD DE OVIEDO.
    Resumen: El enfoque modular es una de las técnicas más adecuadas para aliviar el problema de la explosión combinatoria de estados en la verificación de sistemas reactivos. El análisis del sistema completo se traslada al análisis de los componentes que forman el sistema. En embargo, previamente a la verificación de cada componente, es encesario especificar los entornos con los que interacciona cada uno. En esta tesis se desarrollan dos métodos para la generación automática de los entornos (restricciones) que se puede utilizar en la verificación de cada componente. En el primero de ellos, la extracción de restricciones se realiza de forma independiente para cada componente del sistema usando la información de su entorno. Las restricciones generadas especifican relaciones entre los eventos del entorno del componente. La segunda, es una ampliación de la anterior, y permite la generación de restricciones para varios componentes del sistema. En este caso, las restricciones obtenidas en un componente dado están basadas en las generadas previamente en otro u otros componentes del sistema, y permiten especificar comportamientos más exactos del entorno. Ambas técnicas se evalúan con un caso práctico de tamaño real y se comparan con al especificación manual de restricciones.
245 tesis en 13 páginas: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia