Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > MATEMATICAS > ESTADISTICA >

TECNICAS DE PREDICCION ESTADISTICA



55 tesis en 3 páginas: 1 | 2 | 3
  • Aplicación de métodos estadísticos multivariantes para la modelación y la monitorización de un reactor discontinuo secuencial para el tratamiento de aguas residuales .
    Autor: AGUADO GARCÍA DANIEL.
    Año: 2004.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: Universidad Politécnica de Valencia.
    Centro de realización: Universidad Politécnica de Valencia .
    Resumen: Como consecuencia del incremento de los problemas de eutrofización en ríos, lagos y costas, se ha producido en las últimas décadas un notable aumento del interés por la eliminación de nutrientes en las aguas residuales previamente a su vertido en los sistemas naturales. Inicialmente, la eliminación de la materia orgánica y el nitrógeno presente en el agua residual se realizaba por medio de procesos biológicos mientras que el fósforo se eliminaba mediante procesos químicos. Sin embargo, las ventajas que presenta la eliminación biológica de fósforo han contribuido a que gradualmente este proceso haya sido implantado cada vez en más estaciones depuradoras de aguas residuales (EDARs). El control de un proceso tan complejo como es el tratamiento de las aguas residuales con eliminación biológica de fósforo, exige conocer las variables de calidad que definen la eficacia del mismo (concentración de ortofosfatos, de amonio, demanda química de oxígeno, ...). Los métodos existentes para la medición de estas variables en tiempo real suponen fuertes inversiones y elevados costes de mantenimiento. Por otro lado, existen otras variables (variables de proceso: pH, conductividad, ...) que se pueden medir en tiempo real por medio de sensores robustos, de bajo coste y que requieren poco mantenimiento, pero que no suministran de forma directa información del funcionamiento del proceso. El elevado número de variables de proceso que actualmente se registran en tiempo real en EDARs modernas, hace necesaria la utilización de técnicas que permitan extraer la información contenida en la gran cantidad de datos registrados. El objetivo principal de la presente tesis ha sido estudiar las posibilidades de utilización de las variables de proceso para obtener información acerca de la evolución de las variables de calidad, así como sobre la evolución del proceso a lo largo del tiempo, mediante la aplicación de métodos estadísticos multivariantes. De esta forma, se pretende detectar cualquier anomalía que pueda ocurrir (causa especial de variabilidad que puede provocar un funcionamiento inaceptable o inusual del proceso y/o un efluente de baja calidad) y ayudar en la identificación de su origen, obviando la utilización de las sondas de calidad cuyo elevado coste hace inviable su disponibilidad en la mayor parte de las EDARs existentes. El trabajo realizado se ha centrado en el estudio de un reactor discontinuo secuencial (SBR) a escala de laboratorio operado para la eliminación biológica de fósforo de las aguas residuales. Se trata de un proceso por lotes (discontinuo), en el que se alternan condiciones anaerobias y aerobias para favorecer el crecimiento de las bacterias acumuladoras de polifosfatos. Para el análisis "a posteriori", es decir, de lotes (ciclos) ya finalizados, se han estudiado y comparado dos enfoques: el propuesto por Nomikos y MacGregor (1995) y el propuesto por Wold et al. (1998). Debido a las limitaciones presentadas por el nivel de observación del enfoque de Wold et al. (1998) en el conjunto de datos utilizado, se han propuesto y analizado dos alternativas para mejorarlo: una consistente en reemplazar la regresión en mínimos cuadrados parciales (PLS) por un análisis de componentes principales (PCA), y la segunda consistente en realizar un preprocesamiento diferente y reemplazar el PLS por un PCA para extraer la información relevante del proceso.
  • Anàlisi estadística espacial i temporal en Epidemiologia .
    Autor: Abellán Andrés Juan José.
    Año: 2004.
    Universidad: VALENCIA.
    Centro de lectura: Facultat de Matematiques.
    Centro de realización: Universitat de València.
    Resumen: This Ph.D. thesis is presented as a digest of publications. It is composed of seven articles; five of them are devoted to the analysis of spatial processes, whereas the remaining two deal with temporal stochastic processes. The context of all papers is Epidemiology and Public Health. In what follows, the reference and a brief summary are provided for each paper. • J. Ferrándiz, J. J. Abellán, A. López-Quílez, P. Sanmartín, H. Vanaclocha, O. Zurriaga, M. A. Martínez-Beneito, I. Melchor, J. Calabuig. 2002. Geographical distribution of the cardiovascular mortality in Comunidad Valenciana (Spain). En GIS for Emergency Preparedness and Health Risk Reduction editat per D. Briggs, P. Forer, L. Jarup, R. Stern. Dordrecht, Holanda: Kluwer Academic Publishers. Capítol 15. Pàgines 267-282. Summary: Geographical Information Systems have revealed as a powerful tool in many areas. In Epidemiology, they are particularly useful in surveillance tasks via disease mapping since clusters of areas of high risk of disease can be quickly detected. However, it is often necessary querying large databases as well as using statistical methods to estimate risk in the set of units that compose the region of interest. In this chapter we recall the importance of integrating statistical techniques that require heavy computation in Geographical Information Systems. • J. Ferrándiz, A. López-Quílez, V.Gómez-Rubio, P. Sanmartín, M. A. Martínez-Beneito, I. Melchor, H. Vanaclocha, O. Zurriaga, F. Ballester, J. M. Gil, S. Pérez-Hoyos, J. J. Abellán. Statistical relationship between hardness of drinking water and cerebrovascular mortality in Valencia: a comparison of spatiotemporal models. 2002. Environmetrics. 14: 491-510. Summary: The statistical detection of environmental risk factors in Public Health studies is usually difficult due to the weakness of their effects and their confounding with other covariates. Small area geographical data brings the opportunity of observing health response in a wide variety of exposure values. Temporal sequences of these geographical datasets are crucial to gain statistical power in detecting factors. The spatiotemporal models required to perform the statistical analysis have to allow for spatial and temporal correlations which are more easily modelled via hierarchical structures of hidden random factors. These models have produced important research activity during the last decade, the most promising line being Bayesian analysis via Markov chain Monte Carlo. Practical issues without a clear answer still remain. Model comparison is one of those with most practical relevance. In this paper we perform the analysis of hierarchical spatiotemporal models to evaluate the protective effect of Calcium and Magnesium in drinking water against cerebrovascular mortality. Our data register yearly mortality counts from 1990 to 1995 in a municipality scale but we are not sure which temporal aggregation would be adequate. Many small counts might introduce computational artifacts leading to inaccurate conclusions. We compare hierarchical models of diverse structure for different temporal aggregation settings via pseudo-Bayes factor and Deviance Information criteria. We carry out a sensitivity analysis of our main conclusions to ascertain their validity independently of the arbitrary degree of data aggregation and model structure. • J. J. Abellán, O. Zurriaga, M. A. Martínez-Beneito, J. Peñalver, T. Molins. Incorporación de la metodología geoestadística a la vigilancia de la gripe en una red centinela. 2002. Gaceta Sanitaria. 16(4): 324-33. Summary: The main goal of this work was to assess the usefulness of geostatistics to provide a descriptive map of the incidence of influenza from the weekly data reported by the health surveillance network of the País Valencià. The analysis was performed with data from three influenza seasons (period ellapsed from week 40th of one year to the 20th of the next) 1997-98, 1998-99, and 1999-2000. Kriging was used to analyse the geographical distribution of influenza. It provides an estimate of the incidence rates at any point from the rates observed in several other points. Goodness of fit was assess by cross-validation. Disease maps of incidence were plotted. The measures of goodness of fit, the reduced mean and variance, showed values close to those considered optimum (0 and 1, respectively) for most of the weeks. However, in the last season we obtained relatively bad results in 12 of the 20 weeks. The estimated rates were coherent from both the spatial and temporal perpectives, even though time was not included in the model. Since the results obtained were considered acceptable, and both resources and computing time were considered affordable, the mapping was included among the tasks routinely performed with the data on influenza from the regional surveillance network. • J. J. Abellán, M. A. Martínez-Beneito, O. Zurriaga, G. Jorques, J. Ferrándiz, A. López-Quílez. Procesos puntuales como herramienta para el análisis de posibles fuentes de contaminación. 2002. Gaceta Sanitaria. 16(5): 445-9. Summary: The analysis of a point pattern involves techniques that allow us to analyse the distribution of a set of events occurred over a region. In Epidemiology, this problem arises in point source analysis. This article briefly introduces the analysis of point patterns and then it is applied to the analysis of an outbreak of legionaire’s disease that happened in Alcoi between late September and early October 2000. The aim is twofold: to confirm the environmental origin of the outbreak and to assess the areas with the highest risk of disease. The results confirmed the environmental origin of the outbreak, and pinpointed the areas with the highest risk of disease. Action by the regional health authorities against devices emitting aerosols to the atmosphere, focused on those areas. Outbreaks ceased afterwards. • J. J. Abellán, C. Armero, D. Conesa, J. Pérez-Panadés, M. A. Martínez-Beneito, O. Zurriaga, M. J. García-Blasco, H. Vanaclocha. Analysis of the Renal Transplant Waiting List in the País Valencià (Spain). TR06-2003. Departament d’Estadística i Investigació Operativa, Universitat de València. Sota revisió en Statistics in Medicine. Summary: In this paper we analyse the renal transplant waiting list of the País Valencià in Spain, using Queueing Theory. The customers of this queue are patients with end-stage renal failure waiting for a kidney transplant. We set up a simplified model to represent the flow of the customers through the system, and perform Bayesian inference to estimate parameters in the model. Finally, we consider several scenarios by tuning the estimations achieved and computationally simulate the behaviour of the queue under each one. The results indicate that the system could reach equilibrium at some point in the future and the model forecasts a slow decrease in the size of the waiting list in the short and middle term. • C. Armero, J. J. Abellán, D. Conesa, J. Pérez-Panadés, O. Zurriaga, M. A. Martínez-Beneito, H. Vanaclocha, M. J. García-Blasco. Waiting for a Kidney in the País Valencià (Spain). TR05- 2003. Departament d’Estadística i Investigació Operativa, Universitat de València. Sota revisió en Biometrics. Summary: Bayesian bulk service queues have been used to analyse congestion on the waiting list for renal transplants in the País Valencià, Spain between 1997 and 1999. The main characteristics of the queueing model are the arrivals of patients onto the waiting list, the process of donations and the number of kidneys, one or two, provided by each donor. Estimation of the acceptance, donation and transplantation rates is performed. Predictions are provided for the number of new people entering the waiting list and for the number of donors and transplants. The congestion in the system is also analysed by comparing the acceptance rate with the transplantation rate. Some outlines on model checking and sensitivity analysis to prior distributions are discussed. • J. Ferrándiz, J. J. Abellán, V. Gómez-Rubio, A. López-Quílez, P. Sanmartin, C. Abellán, M. A. Martínez-Beneito, I. Melchor, H. Vanaclocha, O. Zurriaga, F. Ballester, J. M. Gil, S. Pérez- Hoyos, R. Ocaña. Spatial analysis of the relationship between mortality from cardiovascular and cerebrovascular disease and drinking water hardness. 2004. Environmental Health Perspectives. 112(9): 1037-1044. Summary: Previous published scientific papers have reported a negative correlation between drinking water hardness and cardiovascular mortality. Some ecologic and case-control studies suggest the protective effect of calcium and magnesium concentration in drinking water. In this article we present an analysis of this protective relationship in 538 municipalities of Comunidad Valenciana (Spain) for the period 1991–1998. We used the Spanish version of the Rapid Inquiry Facility developed under the European Environment and Health Information System (EUROHEIS) research project. The strategy of analysis used in our study conforms to the exploratory nature of the RIF that is used as a tool to obtain quick and flexible insight into epidemiologic surveillance problems. This article describes the use of the RIF to explore possible associations between disease indicators and environmental factors. We used exposure analysis to assess the effect of both protective factors – calcium and magnesium– on mortality from cerebrovascular (ICD9 430–438) and ischemic heart (ICD9 410–414) diseases. This study provides statistical evidence of relationship between mortality from cardiovascular diseases and hardness of drinking water. This relationship is stronger in cerebrovascular disease than in ischemic heart disease, is more pronounced for women than for men, and is more apparent with magnesium than with calcium concentration levels. Nevertheless, the protective nature of these two factors is not clearly established. Our results suggest the possibility of protectiveness but cannot be claimed as conclusive. The weak effects of these covariates make it difficult to separate them from the influence of other socioeconomic and environmental factors. We have also performed disease mapping of standardised mortality ratios to detect clusters of municipalities with high risk. Further standardisation by levels of calcium and magnesium in drinking water shows changes in the maps when we remove the effect of these covariates.
  • EVALUACION DE LA CONTAMINACION EN LA CUENCA ALTA DEL RIO SALI DULCE. ESTUDIO ESTADISTICO DE LOS CONTAMINANTES DEL EMBALSE DEL RIO HONDO (PROVINCIAS DE TUCUMAN Y SANTIAGO DEL ESTERO, REPUBLICA ARGENTINA).
    Autor: WERENITZKY DANIEL.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: ESCUELA TECNICA SUPERIOR DE INGENIEROS DE MONTES.
    Centro de realización: ESCUELA TECNICA SUPERIOR DE INGENIEROS DE MONTES .
    Resumen: En el presente trabajo se estudia, por primera vez desde el punto de vista estadístico, el proceso de contaminación de la cuenca del río Salí-Dulce, mediante el análisis de la evolución espacial y temporal de los parámetros físico-químicos del agua. El proceso de contaminación estudiado, se produce en la sección alto del río, principalmente al cruzar la zona agrícola e industrial de la provincia de Tucumán, antes de desembocar en el lago del embalse del Río Hondo, en el límite con el territorio de la provincia de Santiago del Estero. Se analiza la información obtenida en el marco del proceso de monitoreo de la calidad de las aguas, efectuado por la Universidad Nacional de Santiago del Estero, en cuatro localidades de la cuenca. Durante los años 1997 y 1998 en los embalses de El Cadillal y Escaba y en la hidroeléctrica Pueblo Viejo en Tucumán, y en los años 1995 al 2000, en el embalse de Río Hondo en Santiago del Estero. El proceso de análisis se realiza en etapas sucesivas, que involucran el análisis exploratorio y descriptivo univariante, bivariante y multivariante. El análisis comparativo, espacial y temporal entre embalses, se realiza con cada variable separadamente y mediante el empleo de índices de calidad de agua y un índice trófico. La situación de las localidades, y el hecho de ser tres de ellas lagos artificales formados por los diques Escaba, El Cadillal y Río Hondo, admite el enfoque metodológico comparativo, pocas veces logrado en datos ambientales. En el análisis geoespacial y temporal de la evolución de la calidad del agua en Río Hondo se emplean algoritmos simples de interpolación y diagramas de cotorno para representar los diferentes estados de calidad que asume la masa de agua. Para simular la evolución estacional del agua en Río Hondo, se han empleado procesos de remuestreo que han permitido el ajuste de modelos de regresión a fin de estimar los datos faltantes, necesarios en la simulación.
  • MODELLING RISKS IN DISEASE MAPPING (MODELIZACION DE RIESGOS EN LA REPRESENTACION CARTOGRAFICA DE ENFERMEDADES) .
    Autor: IBAÑEZ BEROIZ BERTA.
    Año: 2003.
    Universidad: PUBLICA DE NAVARRA.
    Centro de lectura: E.T.S.I. INDUSTRIALES Y DE TELECOMUNICACION.
    Centro de realización: ESCUELA TECNICA SUPERIOR DE INGENIEROS INDUSTRIALES Y DE TELECOMUNICACION.
    Resumen: La presentación geográfica de los riesgos de mortalidad es una herramienta básica en el análisis de datos de mortalidad. El creciente interés por la distribución de ciertas enfermedades entre los epidemiólogos y profesionales de la salud pública y el desarrollo de programas informáticos han dado lugar a grandes avances en este campo. En esta tesis se propone una estrategia de análisis de datos de mortalidad basada en la causa de la presencia de sobredispersión (en inglés, "overdispersion"), fenómeno que surge cuando el modelo homogéneo de Poisson no recoge toda la variabilidad presente en los datos. En esta memoria se consideran tres modelos: el modelo discreto de mixturas de Poisson, que incorpora la variabilidad extra en un modelo de Poisson mediante un efecto aleatorio de distribución discreta, los modelos markovianos, que permiten incorporar la dependencia espacial en los riesgos y el modelo de Poisson inflado en cero, que sirve para analizar causas de mortalidad muy poco comunes. Para el modelo discreto de mixturas de Poisson, se proponen distintos métodos para la construcción de intervalos de confianza para los riesgos que están basados en técnicas asintóticas y bootstrap. En particular, los intervalos de confianza BC-bootstrap alcanzan unas probabilidades de cobertura parecidas a las nominales. Para detectar la posible existencia de dependencia espacial, se propone el uso de un test score desarrollado para diversos modelos markovianos (modelos CAR) desde un enfoque empírico-Bayesiano, que se caracteriza por ser simple ya que sólo requiere ajustar el modelo nulo y además es potente. Finalmente, para contrastar la necesidad de utilizar el modelo de Poisson inflado en cero, se construye un contraste bootstrap-paramétrico que es potente y tiene mejores propiedades que los correspondientes test score y test de la razón de verosimilitudes derivados en este contexto.
  • TECNICAS DE COKRIGEADO PARA EL ANALISIS ECONOMICO. ESTIMACION DE PRECIOS DE BIENES INMUEBLES EN EL CASCO HISTORICO DE LA CIUDAD DE TOLEDO .
    Autor: LARRAZ IRIBAS BEATRIZ.
    Año: 2003.
    Universidad: CASTILLA-LA MANCHA.
    Centro de lectura: FACULTAD DE CIENCIAS JURIDICAS Y SOCIALES.
    Centro de realización: FACULTAD DE CIENCIAS JURIDICAS Y SOCIALES DE TOLEDO.
    Resumen: Rompiendo con la clásica suposición de independencia de las variables aleatorias muestrales de la inferencia tradicional, esta tesis doctoral está basada en la necesidad de tener en cuenta la dependencia espacial existente entre dichas variables aleatorias en caso de que, efectivamente, la presencia e autocorrelación haya sido contrastada. Sus principales aportaciones se refieren al ámbito de la Estadística Espacial univariante no lineal así como al lineal multivariante. En el primer caso se plantean y demuestran técnicas de estimación espacial univariante no lineales (krigeado no lineal) y en el segundo, técnicas de estimación espacial lineal multivariante (cokrigeado lineal) capaces de beneficiarse de la información aportada por otros procesos estocásticos relacionados con el de interés . Dicho beneficio se refiere a la mayor precisión de la estimación multivariante frente a la univariante, así como de la estimación univariante no lineal frente a la lineal. También se plantean el diseño de redes de observación en el ámbito multivariante, mediante el que se obtendría el conjunto de localizaciones que proporcionarían la menor varianza del error de estimación posible. Finalmente, surge la idea de estudiar el mercado inmobiliario, ya que los precios de vivienda de una ciudad, que en sí mismos constituyen un proceso estocástico, presentan una clara correlación espacial, es decir, en el precio, además de la calidad y el estado de la vivienda, influye claramente la localización geográfica en la que ésta se encuentre situada. Ampliando el punto de vista al ámbito multivariante se procede al análisis de otro proceso estocástico, el de los precios de locales comerciales, ya que éstos presentan una clara correlación entre ellos y a su vez con los precios de viviendas. Dicho estudio ha sido realizado en el casco histórico de la ciudad de Toledo, mediante la estimación cokrigeada de precios de bienes inmuebles en el mismo.
  • FECHADO DEL 'CICLO DE AMBIENTE' DE LA ECONOMÍA ESPAÑOLA .
    Autor: FARIÑA GÓMEZ BEATRIZ.
    Año: 2003.
    Universidad: VALLADOLID.
    Centro de lectura: FACULTAD DE CIENCIAS ECONÓMICAS Y EMPRESARIALES .
    Centro de realización: FACULTAD DE CIENCIAS ECONÓMICAS Y EMPRESARIALES.
    Resumen: En este trabajo doctoral se propone un nuevo concepto de ciclo económico, el ciclo de ambiente, señal latente y oculta tras un conjunto muy amplio y variado de indicadores económicos y socioeconómicos y fruto de los co-movimientos entre estos indicadores en su evolución desde sus mínimos a sus máximos cíclicos y viceversa. Así, se entiende que una economía se encuentra en fase de aceleración cuando el ambiente que recogen estos indicadores apunta a una mejoría generalizada del ritmo de crecimiento, y se encuentra en fase de desaceleración o ralentización cuando así lo recoja el ambiente de la actividad económica. Por tanto, se definen los puntos de giro como aquéllos en los que el ambiente de la economía cambia. En primer lugar, de cada indicador simple se recoge la información cíclica (puntos de giro y duraciones de fases) creando para cada uno de ellos una serie poligonal estandarizada que une los puntos de giro de su ciclo de crecimiento. El conjunto de estas series poligonales constituye la denominada "nube de ambiente" que recoge las distintas fases del ciclo de ambiente. Además, se construye un indicador resumen de la nube de ambiente, el Ciclo Mediano, que permite establecer una primera cronología de puntos de giro. En segundo lugar, esta nube es modelizada para cada mes utilizando distribuciones beta cuyos parámetros se estiman en cada corte transversal. La estimación de estos parámetros y el examen de su comportamiento y su evolución en el tiempo permite identificar las características muestrales de las distribuciones mensuales y las pautas de comportamiento cíclico tanto en las fases ascendentes o de aceleración como en las descendentes o de desaceleración. Por último, dicha clasificación inicial del periodo temporal en fases cíclicas se complementa con un procedimiento algorítmico basado en el "Algoritmo de probabilidad recursiva de Neftçi" que permite estimar y predecir la ocurrencia de un punto de giro. Con este procedimiento se sintetiza la información que aporta el indicador adelantado del ciclo de ambiente utilizado en nuestro caso, un índice de difusión, con la valoración inicial proporcionada por el indicador resumen de ambiente, el Ciclo Mediano, y finalmente se obtiene el fechado definitivo del ciclo de ambiente de la economía española.
  • APORTACIONES A LA INFERENCIA NO PARAMÉTRICA EN MODELOS ADITIVOS GENERALIZADOS Y EXTENSIONES. APLICACIONES EN MEDIOAMBIENTES Y SALUD .
    Autor: ROCA PARDIÑAS JAVIER.
    Año: 2003.
    Universidad: SANTIAGO DE COMPOSTELA.
    Centro de lectura: MATEMÁTICAS.
    Centro de realización: FACULTAD DE MATEMÁTICAS.
    Resumen: Este trabajo de Tesis Doctoral se ha centrado en el estudio de la inferencia de los modelos aditivos generalizados (GAM), y la metodología propuesta se ha extendido apropiadamente para tratar algunas generalizaciones interesantes de los GAM. Los principales objetivos son, de forma resumida, los que siguen: 1,- Desarrollo de la metodología que permite la incorporación, en los GAM, de la función link desconocida y la inclusión de posibles interacciones entre el efecto de las covariables continuas. 2,- Desarrollo de mecanismos que permitan , de forma automática, la elección de las ventanas de suavización utilizadas en la estimación del modelo. 3,- Desarrollo de técnicas de remuestreo bootstrap para la obtención de intervalos de confianza de las estimaciones resultantes, e implementación práctica de los tests de interacción. 4,- Incorporación de técnicas de aceleración computacional (Binning) en nuestros algoritmos de estimación: Este aspecto es fundamental en la aplicación práctica de nuestros modelos en base de datos con tamaños muestrales elevados. 5,- Validación de la metodología propuesta en muestras de tamaño finito mediante estudios de simulación. 6,- Aplicación a datos reales en medioambiente y salud. En este contexto, de resolvió estadísticamente ciertos tópicos de interés en el campo de la Epidemiología (estimación no paramétrica de las curvas Odds-Ratio, ..) y del campo del medioambiente (obtención de ecuaciones de predicción para series temporales binarias, ..). 7,- Desarrollo de software que pueda ser utilizado de manera adecuada por todos aquellos profesinales de interesados en la utilización de la metodología propuesta.
  • PROCESOS MORFODINÁMICOS EN LA PROXIMIDAD DE DIQUES DE ABRIGO Y SU INFLUENCIA EN LA OPERATIVIDAD PORTUARIA .
    Autor: SANCHEZ BADORREY ELENA.
    Año: 2003.
    Universidad: GRANADA.
    Centro de lectura: INGENIEROS DE CAMINOS.
    Centro de realización: ESCUELA SUPERIOR DE INGENIEROS DE CAMINOS, CANALES Y PUERTOS.
    Resumen: La Tesis analiza los procesos morfodinámicos inducidos por la reflexión de grupos de olas regulares en estructuras reflejantes en el rango de profundiades intermedias y en condiciones de incidencia oblicua. Para ello se analiza la estructura espacial y temporal de las principales magnitudes hidrodinámicas tanto en la región no viscosa como en la capa límite de fondo. El oleaje ha sido modelado en el régimen de Stokes con profundidad constante y asumiendo que el parámetro de Stokes y el parámetro de modulación son del mismo orden. Las magnitudes analizadas son: campo euleriano de velocidades, velocidad de transporte de masa, campo de presiones, nivel medio y los flujos de energía, masa y momento. Así mismo se analiza y compara con el caso monocromático la estructura y variabilidad temporal de las componentes diagonales y no diagonales del tensor de radiación. En la capa límite del fondo, se analizan además las siguientes corrientes residuales: deriva euleriana, derivada de Stokes, y "streaming". Para su su descripción se han definido dos regímenes oscilatorios de promedio: el régimen débilmente no-estacionario y el régimen estacionario. La metodología empleada se basa en la expansión de las coordenadas espaciales del problema en serie de potencias del parámetro de modulación y en método WKBJ. La estructua del potencial de velocidades se ha supuesto de tipo armónico en tiempo y en espacio. Los resultados indican que en función de la escala de tiempo utilizada, las cantidades analizadas pueden presentar modulaciones en las escalas de la onda corta y del grupo. En el régimen débilmente no-estacionario existen, además, posibles supermo-dulaciones del orden de Km., que resultan de la interacción de las ondas largas libres y vinculadas generadas durante la reflexión. Los resultados obtenidos se aplican al estudio de la posible influencia de la reflexión de los grupos en la operatividad portuaria. En particular, en la operatividad de los canales de acceso a puertos de una vía. Siguiendo las directrices del PIANC y del USACE, para la evaluación de esta influencia se ha propuesto un método probabilista. El método se basa en el análisis de la variabilidad espacial y temporal de las principales variables aleatorias que influyen durante el tránsito de un barco por un canal de navegación. Se distinguen: variables ambientales (oleaje, viento, corrientes), morfodinámicas (variaciones del fondo) y de maniobra (respuesta del barco,..). En relación con la duración del tránsito se clasifican en: variables de corto, medio y largo periodo. Esta clasificación permite definir las escalas de estado del problema. Para el cálculo de la probabilidad de parada durante el tránsito se calcula el dominio de parada de la ecuación de verificación de los modos de parada del canal. Para ello se proponen dos niveles de aproximación: 1,- Verificación de estado en la que los términos de la ecuación de verificación se modelan estadísticamente a partir de valores nominales o distribuciones de probabilidad características de las escalas de estado. 2,- Verificación instantáneo en la que los términos de la ecuación de verificación se modelan en función de distribuciones de probabilidad características de las escalas de variabilidad de corto periodo más significativas. El modelo propuesto permite el cálculo de la probabilidad de parada en tiempo real y puede ser utilizado como herramienta para la gestión del tráfico marítimo y la mejora de la explotación porturaria.
  • MODELO DE DISTRIBUCIÓN POTENCIAL DE USOS FORESTALES EN SIERRA DE ARACENA Y ANDÉVALO OCCIDENTAL (HUELVA) .
    Autor: ANAYA ROMERO MARÍA.
    Año: 2003.
    Universidad: SEVILLA.
    Centro de lectura: FARMACIA.
    Centro de realización: FACULTAD DE QUÍMICA (UNIVERSIDAD DE SEVILLA).
    Resumen: El área forestal de Sierra de Aracena y Andévalo Occidental (Huelva), se ha utilizado como zona piloto para el desarrollo de un modelo de distribución potencial de los principales usos forestales existentes en la zona. El desarrollo de dicho modelo se ha basado en la hipótesis de que la distribución de las formaciones forestales está determinada por aspectos ecológicos (como el clima, el suelo o la naturaleza de la roca), geomorfológicos (como la fisiografía, la topografía o los procesos erosivos) o antrópicos. Para su realización se han usado métodos estadísticos integrados en un Sistema de Información Geográfica (SIG). Un SIG permite trabajar con numerosos mapas en formato digital y conectar esta información espacial con bases de datos ambientales (NOAA, 1997). Mediante un SIG es posible elaborar modelos de procesos o fenómenos a partir de información espacial facilitando la interpretación de procesos naturales, por lo general complejos y poco proclives a la invetigación in situ. La zona de estudio, fue seleccionada como área piloto porque se disponía de suficiente información ambiental previa sobre el medio físico utilizada en este trabajo procede de la cartografía de unidades geomorfoedáficas de la Sierra de Aracena y el Andévalo, realizadas respectivamente por Núñez (1998) y Martínez-Zavala (2001), las cuales forman parte de los inventarios de levantamiento de información ambiental que viene realizando la Consejería de Medio Ambiente (Junta de Andalucía) durante los últimos años. Como fuente de información sobre la distribución actual de las especies forestales se ha utilizado el Mapa de Usos y Coberturas Vegetales de Andalucía (Moreíra & Fernández-Palacios, 1995). Además, se han utilizado otras fuentes de información como los registros de estaciones termo-pluviométricas, el modelo digital de elevaciones (MDE) y la cartografía publicada dentro del proyecto MAGNA por el ITGE. Una vez revisada y procesada la información recopilada previamente existente, ésta se ha integrado en una base de datos y a su vez en SIG. A continuación se ha realizado un tratamiento estadístico de los datos. Con el objeto de obtener la mayor fiabilidad en el cálculo del área potencial de las formaciones forestales, se han aplicado tres métodos estadísticos de predicción a una muestra del territorio: regresión logística, red neuronal y árbol de decisión. Finalmente, se seleccionó el método de regresión logística para calcular el modelo de distribución potencial de usos forestales en el área de la Sierra de Aracena y Andévalo Occidental. Los resultado de la regresión logística se extrapolaron a la totalidad del territorio estudiado. Como resultado final se ha obtenido una cartografía digital de la presencia potencial de las principales formaciones forestales, y se ha generado una propuesta de usos forestales del área de estudio. Los datos expuestos en la presente memoria forman parte de los resultados obtenidos durante la realización del proyecto Propuesta metodológica para la realización de un modelo de distribución potencial del proyecto Propuesta metodológica para la realización de un modelo de distribución potencial de usos forestales basado en parámetros geomorfoedáficos, climáticos y topográficos, realizado mediante un convenio suscrito entre la Consejería de Medio Ambiente de la Junta de Andalucía y el Departamento de Cristalografía, Mineralogía y Química Agrícola de la Universidad de Sevilla.
  • ANALISIS DISCRIMINANTE DISCRETO CON SUAVIZACIÓN DE LAS CORRESPONDENCIAS MULTIPLES .
    Autor: PRUÑONOSA REVERTER JOSE VICENTE.
    Año: 2003.
    Universidad: VALENCIA.
    Centro de lectura: MATEMÁTICAS.
    Centro de realización: FACULTAD DE MATEMÁTICAS.
  • MODELIZACIÓN DE LA BIOMASA AÉREA DE EJEMPLARES DE QUEBRACHO BLANCO EN DOS LOCALIDADES DEL PARQUE CHAQUEÑO SECO.
    Autor: PECE MARTA GRACIELA DEL VALLE.
    Año: 2003.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INGENIEROS DE MONTES.
    Centro de realización: E.T.S.I. DE MONTES.
    Resumen: Se conoce bien la acción de los gases de efecto invernadero en la modificación del clima y también se conoce que uno de los gases más influyentes es el CO2. Para evitar que ocasionen problemas mayores en el futuro se debe regular su concentración en la atmósfera. Las áreas forestales juegan un papel fundamental por la capacidad de transformar el carbono del CO2 de la atmósfera en biomasa viva, actuando como sumideros de carbono. Se considera que la cantidad de carbono fijado por el ecosistema forestal es, aproximadamente, el 50% de la materia orgánica seca. Los países desarrollados, principales fuentes emisoras de CO2, se comprometieron voluntariamente a reducir la tasa de emisión de carbono a la atmósfera, hasta llegar a un 5% por debajo de las emisiones de 1990, en el período 2008-2012. Uno de los mecanismos para lograrlo es a través de proyectos de desarrollo limpio establecidos en el Protocolo de Kioto (Proyectos acordados con países en vía de desarrollo). Por su parte, los países en vía de desarrollo, entre los que se encuentra Argentina, tienen la posibilidad de utilizar la acción de los bosques como sumideros de carbono para captar fondos a través de estos proyectos de mecanismos de desarrollo limpio. Para poder participar de estos proyectos es necesario conocer la cantidad de carbono que fijas las especies y por lo tanto su biomasa. En este trabajo se estudia la biomasa del Quebracho blanco (Aspidosperma quebracho-blanco Shlecht), una de las principales especies del Parque Chaqueño Seco, en dos localidades de la provincia de Santiago del Estero (Argentina). Los modelos utilizados fueron modelos lineales y no lineales generalizados y modelos mixtos generalizados, no empleados hasta el momento en la estimación de biomasa. Se ha respetado la distribución original de los datos al considerar la distribución gama para modelar la biomasa de la especie nativa quebrachos blanco. Se han utilizado predictores lineales y no lineales que incluyen el diámetro normal y la altura total, variables que generalmente se miden en los inventarios forestales, con diferentes funciones de enlace que relacionan el componente aleatorio con el predictor lineal. Para la selección del modelo más adecuado se han utilizado criterios de información basados en la función de verosimilitud tales como el criterio de información de Akaike y el criterio del R2 para modelos lineales generalizados, basado en la distancia del Kullback-Leibler. Con dicho modelos se ha conseguido una buena precisión en las estimaciones de la biomasa área total, debido a que se consideraron diversas estrategias metodológicas que contemplan la estructura de la información disponible. Se llega a la conclusión que el modelo no lineal generalizado con componente aleatorio gama y predictor no lineal que incluye diámetro y altura, con función de enlace identidad es el más adecuado para representar la biomasa del quebracho blanco en cada una de las zonas muestreadas.
  • MÉTODOS ESTADÍSTICOS Y ECONOMÉTRICOS PARA LA DETERMINACIÓN DEL PRECIO DE LA VIVIENDA .
    Autor: FUENTES JIMÉNEZ ANTONIO MIGUEL.
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS. UNIVERSIDAD DE GRANADA.
    Resumen: El mercado inmobiliario y la evolución del precio de la vivienda son una constante preocupación y causa de estudio, ya que es un sector muy importante en el tejido económico de un país. En esta memoria se estudia el mercado inmobiliario en España, particularizándoloo en la ciudad de Melilla, urbe de tamaño pequeño, que tiene problemas inmobiliarios derivados, sobre todo, de su situación geográfica y socioeconómica. Se consideran los métodos estadísticos y econométricos para determinar las características y determinantes del precio de la vivienda en la ciudad de Melilla. Se introduce la metodología hedónica para estimar la ecuación que relaciona el precio de la vivienda con sus características, y posteriormente hallar los precios implícitos de cada una de las características. Utilizamos los sistemas de redes neuronales artificiales como alternativa a los métodos estadísticos de modelización y herramienta de predicción del precio del bien vivienda. Los resultados obtenidos, utilizando la metodología hedónica y las redes neuronales, muestran una mejor estimación del precio de la vivienda que los métodos tradicionales de valoración inmobiliaria.
  • REPRESENTACIÓN Y SIMULACIÓN DE PROCESOS FRACTALES MULTIPARAMÉTRICOS .
    Autor: FERNÁNDEZ PASCUAL ROSAURA.
    Año: 2002.
    Universidad: GRANADA.
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: En diversas áreas de aplicación interesa investigar el comportamiento conjunto de dos fenómenos físicos aleatorios relacionados por una ecuación dada en términos de operadores. El objetivo de esta investigación se centra en el estudio de los problemas de reconstrucción, extrapolación y filtrado inversos asociados a una clase de campos aleatorios definidos mediante filtros lineales fraccionarios en términos de ruido blanco. Se propone una aproximación funcional basada en la formulación de dichos problemas mediante campos aleatorios generalizados y sus desarrollos débiles en términos de wavelets transformadas definidas mediante los filtros lineales fraccionarios que relacionan la clase de campos aleatorios considerada con ruido blanco. Dichos desarrollos inducen respectivas expansiones en serie para los operadores de covarianza de los campos aleatorios de entrada y salida. Las soluciones a los problemas de reconstrucción y extrapolación se formulan entonces en términos de estos desarrollos en serie definidos mediante las correspondientes bases de Riesz duales. Bajo ciertas condiciones, las soluciones definidas en sentido débil se interpretan en sentido fuerte. El truncamiento de las series anteriores conduce a una aproximación finito-dimensional del problema. El estudio del problema de filtrado se desarrolla en el mismo contexto de campos aleatorios generalizados pseudowavelets y se estudian condiciones sobre el orden de singularidad del ruido de observación para que sea posible regularizar el problema. Se realizan estudios de simulación para modelos pertenecientes a la familia de movimiento Browniano fraccionario y ruido blanco integrado fraccionariamente. En particular se analiza el roden de truncamiento en función de la regularidad de los campos aleatorios de entrada y de salida y de la base de wavelets considerada. Para el problema de filtrado también se analiza la influencia de la regularidad del ruido de observación sobre la calidad de las estimaciones. Finalmente se estudian procesos relacionados con la ecuación de Black-Scholes, considerando un modelo diferencial para el log-precio defindio sobre tiempo fractal. Se aplican los resultados de los capítulos anteriores extendidos al caso de dominio con geometría fractal, para obtener una aproximación débil de la solución de los problemas de extrapolación y filtrado asociados al proceso de precios generalizado sobre tiempo fractal.
  • MODELOS PARA LA PRECIPITACIÓN DIARIA EN EL MARCO DE LOS MODELOS LINEALES GENERALIZADOS .
    Autor: ASÍN LAFUENTE JESÚS.
    Año: 2002.
    Universidad: ZARAGOZA.
    Centro de lectura: CENTRO POLITÉCNICO SUPERIOR.
    Resumen: En la memoria se desarrollan modelos estadísticos que permiten caracterizar, en un grado adecuado, el comportamiento de la precipitación diaria en un observatorio. La modelización elegida representa el proceso de lluvia mediante dos componentes, la ocurrencia de precipitación, representada por una variable binaria, y la cantidad medida en los días lluviosos, cada una de las cuales requiere construir un submodelo. En ambos casos, la distribución de la variable de interés no es Gaussiana y su valor esperado depende de covariables atmosféricas; por esto, el marco de los modelos lineales generalizados (GLM) y sus extensiones que permiten considerar la dependencia entre respuesta sucesivas, resulta un esquema de modelización adecuado. En el capítulo 1 se hace una revisión bibliográfica de los modelos de precipitación y una presentación de la familia de modelos a utilizar. El capítulo 2 de la memoria se dedica al análisis de las herramientas de crítica de los modelos y a hacer una propuesta de valoración de los mismos. Se propone una metodología que tiene en cuenta, además de las medidas habituales, la capacidad de los modelos para clasificar correctamente las observaciones, reproducir el ciclo estacional, la evolución interanual de la lluvia o la distribución de la longitud de las rachas seca y húmeda. El capítulo 3 se dedica a la construcción de modelos y al análisis de su capacidad para ajustar las series de precipitación de cuatro observatorios de la cuenca del Ebro con diferentes características climáticas e información atmosférica dispar. Los modelos de ocurrencia considerados son cadenas de Markov cuyas probabilidades de transición se estiman mediante regresión logística. La estrategia de construcción estudia, en pasos sucesivos, la significación de diferentes convariables: indicadores de ocurrencia en los días previos, armónicos para representar el ciclo anual y covariables climática. Se obtienen así, modelos con distinto nivel de información: homogéneos, no homogéneos que reflejan, sólo, la estacionalidad, modelos que usan la información registrada en un observatorio termopluviométrico y, por último, modelos con la información, tanto de superficies como de la troposfera, medida en observatorios de primer orden. El modelo para la cantidad registrada en un día húmedo es una extensión de tipo condicional con distribución de error Gamma. La capacidad de ajuste de este modelo es inferior a la del modelo de ocurrencia aunque, contando con la información suficiente, se encuentran modelos adecuados que producen ajustes de un grado superior al logrado por otros autores en observatorios de características similares. El objetivo del capítulo 4 es ensayar la predicción de la precipitación para un periodo de 24 horas, utilizando la información disponible hasta las 18h., del día anterior. Se ajusta un modelo global y modelos diferenciados para tres épocas del año. Éstos tienen la ventaja de una mayor sencillez de estructura del predictor pero no logran mejoras importantes en el grado de éxito en la predicción. El modelo estadístico de previsión de ocurrencia para el aeropuerto de Zaragoza tiene un grado de éxito mayor que el obtenido directamente de las previsiones proporcionadas por el modelo numérico HIRLAM que usa el INM. El modelo de cantidad no resulta útil para predecir, ya que, con la información disponible en el día previo, produce un grado de ajuste insuficiente. El capítulo 5 desarrolla un procedimiento estadístico de "downscaling" de la precipitación, a escala diaria y local, que permite obtener proyecciones a largo plazo de la lluvia en un escenario de cambio climático. Para ello utiliza los valores de las variables meteorológicas proporcionados por el modelo de circulación general (GCM) CGCM1, del Canadian Centre for Climate Modelling and Analysis. El modelo estadístico emplea las anomalías bien representadas por el GCM. Su diagnóstico como modelo útil, requiere valorar si, utilizado con las covariables generadas por el GCM en la situación climática actual, produce un régimen de precipitación análogo al observado. Comprobado su funcionamiento satisfactorio, se realiza una proyección de la lluvia para el periodo 2090-2100, en el escenario IS92a. El procedimiento propuesto genera series de lluvia diaria, lo que permite evaluar los cambios en el comportamiento agregado y, también, en la distribución de las rachas o en la cantidad medida en un día húmedo.
  • ELABORACIÓN DE UN MODELO ESTADÍSTICO DE PREDICCIÓN EN TIEMPO REAL A CORTO PLAZO DE NIVELES DE O3 Y NO2 EN LA CIUDAD DE BILBAO .
    Autor: AGIRRE BASURKO ELENA.
    Año: 2002.
    Universidad: PAIS VASCO.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: ESCUELA DE INGENIEROS DE BILBAO.
    Resumen: En la citada tesis se ha elaborado un modelo estadístico de predicción, en tiempo real, de niveles de O3 y NO2 a ocho horas vista en la ciudad de Bilbao. Las técnicas desarrolladas para el diseño y construcción del modelo han sido las dos siguientes: el método de regresión lineal múltiple y el perceptrón multicapa. Basándose en dichas técnias se han construido tres modelos de predicción, cuyos resultados han sido comparados con las observaciones y persistencia utilizándose para ello los estadísticos del Kit de Evaluación del Modelo. El modelo MLP2 basado en la aplicación del perceptrón multicapa es el modelo que mejor resultados ha obtenido, salvo en las predicciones a dos y tres horas vista, en las cuales el modelo que mejor se ajusta es el modelo LR, basado en el uso del método de regresión lineal múltiple. Así, se ha deducido un modelo mixto denominado Modelo Global, que combina ambos modelos en función de la predicción que se ha de calcular. Asimismo, se ha estudiado la importancia de las variables de entrada del modelo, y se ha demostrado la bondad de las predicciones en función de los valores de las variables de contaminación, meteorología y tráfico en el instante en el que se realiza la predicción.
  • MIXTURAS DE DISTRIBUCIONES: MODELIZACIÓN DE EXPERIENCIAS CON ASIMETRÍA EN LOS DATOS .
    Autor: ATIENZA MARTÍNEZ NIEVES.
    Año: 2002.
    Universidad: SEVILLA.
    Centro de lectura: MATEMÁTICAS.
    Centro de realización: FACULTAD DE MATEMÁTICAS.
    Resumen: En este trabajo se propone un modelo de mixturas mixtas de tres componentes, pertenecientes a las familias de distribuciones lognormal, Gramma y Weibull, para ajustar variables que presentan distribuciones con asimetría positiva. SE aborda la cuestión de identicabilidad del modelo a través del estudio de la identificabilidad de la clase de mixturas finitas generada a partir de la unión de las tres familias, proporcionando una nueva condición suficiente de identificabilidad. Se estudian las propiedades de los EMV de los parámetros del modelo presentando resultado que permiten verificar las condiciones dadas por Recher y Walker (1984) en mixturas finitas generadas a partir de uniones de familias exponenciales y de uniones de una nueva clase de familais, las familias denominadas tipo N. Por último, se aborda el problema del cálculo de dichos estimadores a partir del algorítmo EM, presentando como ilustración de la metodología una aplicación para la variables estancia hospitalaria.
  • KERNAL SMOOTHING: TEORIA Y APLICACIONES .
    Autor: MONTENEGRO CONCHA MIGUEL ANGEL.
    Año: 2001.
    Universidad: JAUME I DE CASTELLON.
    Centro de lectura: TECNOLOGIA Y CIENCIAS EXPERIMENTALES .
    Centro de realización: ESCUELA SUPERIOR DE TECNOLOGIA Y CIENCIAS EXPERIMENTALES.
    Resumen: La tesis consiste en formalizar, ordenar y completar las tecnicas no parametricas de smoothing, en su mayor sentido, tanto teorico como practico, poniendo especial enfasis en los llamados Kernels smoothing y comparando diferentes tecnicas de suavizamiento. En particular se expone la teoria asintótica, y los kernels óptimos que de ella se derivan, se propone una familia de kernel no negativos y se comparan ambos tipos de kernels. Se abordan además los tres elementos importantes de esta teoria, a saber: a)La estimación en los bordes b)La elección del parámetro de smooting c)Utilización del bandwidth adaptativo Finalmente la teoría desarrollada anteriormente se aplica a problemas en procesos puntuales, en cambios de divisas y en problemas medioambientales. Unto a la tesis se han hecho programas computacionales para el calculo usado en ella y se ha elaborado una librería para usar desde Splus.
  • ELBOOTSTRAP EN LA ESTIMACIÓN DE LA FUNCIÓN DE DISTRIBUCIÓN EN POBLACIONES FINITAS .
    Autor: LOMBARDÍA CORTIÑA M. JOSÉ.
    Año: 2001.
    Universidad: SANTIAGO DE COMPOSTELA.
    Centro de lectura: MATEMÁTICAS.
    Centro de realización: FACULTAD DE MATEMÁTICAS.
    Resumen: Entre las ramas de la estadística, el muestreo en poblaciones finitas es notable por su interés en la práctica. Nos encontramos rodeados de poblaciones finitas, en las que habitualmente deseamos conocer alguna característica: distribución de la población en relación con la actividad profesional, superficie agrícola por cultivo en todo el territorio español, ... En este texto presentamos la población finita como una muestra aleatoria simple de un modelo de superpoblación, que puede estar basado en el conocimiento de un fenómeno natural que influye en la distribución de la población. En gran parte de las situaciones se dispone de información auxiliar, y parece natural postular un modelo teórico de dependencia que relacione esta variable auxiliar con la variable de interés en la población finita. En los últimos años se ha producido un crecimiento interés en el estudio de la función de distribución en poblaciones finitas. Chambers y Dunstan (1986) construyeron un estimador a partir de los residuos de un modelo de regresión lineal, considerado éste como modelo de superpoblación. Este estimador constituye uno de los pilares en la estimación de la función de distribución en poblaciones finitas. En este trabajo proponemos un método de remuestreo bootstrap, fácil de implementar, para aproximar el sesgo y la varianza del error de predicción del estimador paramétrico y no paramétrico de Chambers y Dunstan, pues las expresiones exactas se desconocen y las asintóticas son expresiones analíticas complicadas que en la práctica también se desconocen. Además, este método de remuestreo nos permite construir intervalos de confianza alternativos a los obtenidos a partir de la distribución asintótica del error de predicción y aproximar el parámetro ventana necesario para la construcción de la versión no paramétrica del estimador. En el Capítulo 1 de la memoria se presentan los posibles enfoques para hacer inferencia en poblaciones finitas, prestando especial atención a la estimación de la función de distribución en una población finita determinada. También se describen los métodos de remuestreo bootstrap más recientes recogidos en la literatura de muestreo. En el Capítulo 2 y 3 se desarrolla el mecanismo de remuestreo bootstrap que permitirá estudiar el comportamiento del estimador de Chambers y Dunstan, y construir intervalos de confianza para la función de distribución en la población finita, bajo un modelo de superpoblación paramétrico y no paramétrico, respectivamente. En cada capítulo se prueba teóricamente la consistencia de los estimadores bootstrap bajo el modelo de trabajo considerado, completando estos resultados con un amplio estudio de simulación. En el estudio de simulación trabajamos condicionados a una población finita particular, por la afinidad de este planteamiento con el estudio de un problema real. En el Apéndice se indican futuras líneas de investigación y las herramientas básicas utilizadas para los desarrollos teóricos.
  • ALGORITMOS GENÉTICOS Y PREDICCIÓN DE LA COMPOSICIÓN DE LA DEMANDA TURÍSTICA .
    Autor: HERNÁNDEZ LÓPEZ MONTSERRAT.
    Año: 2001.
    Universidad: LA LAGUNA.
    Centro de lectura: CIENCIAS ECONÓMICAS Y EMPRESARIALES .
    Centro de realización: FACULTAD DE CIENCIAS ECONÓMICAS Y EMPRESARIALES.
    Resumen: En los últimos años se ha relantizado el número de turistas que vistan la isla de Tenerife, lo que puede ser indicativo de la fase de consolidación alcanzada por la demanda turística de este destino. En estos casos, cobra importancia la predicción, no ya del número global de visitantes en las futuras temporadas, sino del vector de características de cada uno de los turistas venideros, para una mejor adecuación entre la oferta y la demanda. Este tipo de predicción no es cubierta por las técnicas econométricas habituales; pero si puede ser afrontada mediante los algoritmos genéticos. Esta investigación no solo plantea este nuevo enfoque predictivo en el uso de los algoritmos genéticos sino también una nueva estrategia en su funcionamiento que permite la incorporación de información cualitativa sobre el contexto en el que aplica.
  • REDUCCIÓN DE DIMENSIÓN EN REGRESIÓN LOGÍSTICA FUNCIONAL .
    Autor: ESCABIAS MACHUCA MANUEL.
    Año: 2001.
    Universidad: GRANADA.
    Centro de lectura: CIENCIAS.
    Centro de realización: FACULTAD DE CIENCIAS.
    Resumen: En multitud de disciplinas científicas resulta de especial relevancia conocer la probabilidad de ocurrencia de determinados sucesos o más concretamente predecir una variable respuesta dicotómica en función de la información que proporcionan un conjunto de variables relacionadas con ella. La técnica estadística más utilizada para este objetivo es el modelo de regresión logística, cuyo desarrollo sigue proporcionando hoy día resultados notables. Un problema al que es muy sensible el modelo de regresión logística es el de la multicolinealidad o alta dependencia existente entre las covariables del modelo, que hace que no se pueda encontrar solución apropiada a la estimación de los parámetros del mismo. Otro problema que se presenta está en la necesidad de explicar la variable dependiente del modelo con el menor número de regresores posible. Para la resolución de estos dos problemas se proponen la utilización de un número reducido de componentes principales que permiten una estimación adecuada de los parámetros del modelo logístico en presencia de multicolinealidad. En los últimos años se han desarrollado numerosas técnicas conducentes a modelizar variables que evolucionan en el tiempo. El desarrollo de los procesos estocásticos ha permitido la generalización de técnicas multivariantes a este campo como son el caso del análisis en componentes principales funcional (ACPF) y del modelo de regresión lineal funcional para predecir una variable respuesta es dicotómica el modelo lineal no es adecuado para explicar este hecho por lo que se introduce el modelo de regresión logística funcional. Se proponen además diversas formas de estimación aproximada, así como soluciones a los distintos problemas que surgen basadas en componentes principales funcional.
55 tesis en 3 páginas: 1 | 2 | 3
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia