Cibernetia > Tesis doctorales
Búsqueda personalizada

Índice > MATEMATICAS > ESTADISTICA >

ANALISIS DE DATOS



37 tesis en 2 páginas: 1 | 2
  • ANÁLISIS DE FACTORES DE RIESGO EN HIPERTENSIÓN ARTERIAL. UNA VISIÓN MATEMÁTICA.
    Autor: NÚÑEZ GONZÁLEZ EDUARDO.
    Año: 2003.
    Universidad: LAS PALMAS DE GRAN CANARIA.
    Centro de lectura: ESCUELA DE ENFERMERÍA DE TEGUISE (LANZAROTE).
    Centro de realización: FACULTAD DE INFORMÁTICA Y MATEMÁTICAS.
    Resumen: Se trata de una aplicación de la matemática a ciencias de la vida, un estudio bioestadístico de factores de riesgo en hipertensión arterial. El diseño es de tipo caso-control. Se aplican diversos métodos matemáticos a una base de datos, recogidos en la isla de Lanzarot. Las distintas metodologías empleadas con punteras en análisis de datos y en esta memoria se esclarece alguno de sus aspectos, se pulen e iimplementan, también se incluyen aspectos comparativos e innovadores. Se desarrolla ampliamente e emplementa, conjuntamente para casos y controles, las transformaciones de Box y Cox, destinadas a conseguir normalidad en un conjunto de datos. Para el análisis comparativo se implementa un método no paramétrico, como es el de las permutaciones bootstrap, e comparando sus resultados con métodos más clásicas como el test de la t de Student. Se desarrollan metodología no paramétrica, cuyos resultados se comparan con otros métodos paramétricos, para estimación de curvas ROC. Continuando en esta línea utiliza análisis discriminante. El estudio multivariante de factores de riesgo se lleva a cabo utilizando regresión logística. Por último se desarrolla e implementa, utilizando metodología bootstrap, un método (Setyerberg, Harrel y otros) de corrección de errores en regresión logística, producidos por la escasez de datos. La memoria consta de cuatro capítulos, el primero es una introducción y análsis del estado del arte sobre hipertensión arterial sus causas y consecuencias. El segundo es un amplio desarrollo matemático de todos los métodos a emplear, reseñados en el párrafo anterior. En el tercer capítulo se presentan los resultados de las metodologías desarrolladas en el capítulo anterior, a los datos mencionados al principio de este resumen. Por último, en el cuarto capítulo, se analizan tanto los métodos en si mismos, como los resultados y se extraen conclusiones.
  • METODOS DE VISUALIZACION ESTADISTICA APLICADOS AL PROCESAMIENTO DE DATOS PROVENIENTES DE ACCIDENTES DE TRAFICO.
    Autor: LEDESMA MOURIÑO RUBEN DANIEL.
    Año: 2001.
    Universidad: VALENCIA.
    Centro de lectura: PSICOLOGIA .
    Centro de realización: FACULTAD DE PSICOLOGIA.
    Resumen: En esta tesis se aborda la Investigación Estadistica de Accidentes de Tráfico -IEAT- desde una perspectiva metodológica, enfatizando los aspectos relativos al proceso y análisis de datos asociado a la disciplina. En ese contexto, se presentan los Métodos de visualización Estadistica-MVE- y se evalúa la utilidad de tales recursos en la IEAT. Se consideran en modo particular los denominados metodos graficos dinamicos, interactivos o de manipulacion directa, incorporados en programas de DataDesk y Vista. Finalmente, se introducen desarrollos informaticos en MVE aplicados a la visualización de modelos exploratorios para datos categoricos -Análisis de Correspondencias Simples y Multiples-, ejemplificando el funcionamiento de las herramientas mediante aplicaciones a datos reales provenientes de accidentes de trafico.
  • LAS MEDIDAS DE DIVERGENCIA EN CONTRASTES DE BONDAD DE AJUSTE CON PONDERACIÓN EN LAS CLASES .
    Autor: LANDÁBURU JIMÉNEZ ELENA.
    Año: 2001.
    Universidad: COMPLUTENSE DE MADRID.
    Centro de lectura: MATEMÁTICAS .
    Centro de realización: FACULTAD DE CC. MATEMÁTICAS.
    Resumen: En las últimas dos décadas han surgido, en el análisis de datos categóricos, nuevas familias de estadísticos, basadas en medidas de divergencia, para la validación de modelos que mejoran, en algún sentido, a los estadísticos ya existentes de la ji-cuadrado de Pearson y del cociente de verosimilitudes. Estas medidas de divergencia utilizadas se han venido considerando como medidas cuantitativas de discriminación entre dos poblaciones, caracterizadas por sus respectivas distribuciones de probabilidad, pero sin tener en cuenta la importancia de los resultados asociados al experimento bajo en consideración, respecto a un fin determinado. El objetivo central de la memoria es abordar problemas de bondad de ajuste, bajo el supuesto que los datos estén bien o mal clasificados y tanto bajo hipótesis nula simple como compuesta, cuando las clases compuesta se requerirá la estimación del parámetro desconocido mediante estimadores de mínima divergencia, que tendrán en cuenta las diferentes ponderaciones.
  • TECNICAS DE REDUCCIÓN DE LA DIMENSIÓN EN ANÁLISIS DISCRIMINANTE .
    Autor: HERNÁNDEZ ESTRADA ADOLFO.
    Año: 2000.
    Universidad: CARLOS III DE MADRID.
    Centro de lectura: ESCUELA POLITÉCNICA SUPERIOR.
    Centro de realización: UNIVERSIDAD DE CARLOS III DE MADRID.
    Resumen: El objetivo de esta memoria es el estudio del problema de reducción en análisis discriminante mediante transformaciones y el desarrollo de nuevos métodos de reducción de la dimensión en análisis discriminante no pramétrico, mediante transformaciones lineales. El capítulo 1 presenta el problema estadístico de clasificación. Se introduce el análisis discriminante lineal y su forma reducida, y se describe el problema de la dimensionalidad. En el capítulo 2 se definen las transformaciones reductoras de la dimensión. Se propone un algoritmo efectivo de reducción de la dimensión y se particulariza al caso de transformaciones lineales. En el capítulo 3 se aplica este algoritmo a ciertos modelos paramétricos y semiparamétricos de interés, considerando transformaciones lineales, y se desarrollan las propiedades de consistencia y robustez de la regla discriminante lineal. En el capítulo 4 se aborda la reducción de la dimensión mediante transformaciones lineales en un problema de clasificación no paramétrico. Se introducen dos funcionales y se estudian las propiedades de sus versiones muestrales. El capítulo termina con la aplicación a varios conjuntos de datos reales y simulados. Por último, algunas posibles extensiones quedan recogidas en el capítulo 5.
  • LA CONSTRUCCIÓN DEL SIGNIFICADO DE LA DISTRIBUCCIÓN NORMAL A PARTIR DE ACTIVIDADES DE ANÁLISIS DE DATOS.
    Autor: TAUBER LILIANA MABEL.
    Año: 2000.
    Universidad: SEVILLA.
    Centro de lectura: CIENCIAS DE LA EDUCACIÓN .
    Centro de realización: UNIVERSIDAD DE SEVILLA.
    Resumen: Esta memoria consta de 9 capítulos. En el primero se realiza una contextualización del objeto de estudio: enseñanza y aprendizaje de la distribución normal en un curso introductorio de estadística universitaria,en el que se utiliza el ordenador como herramienta didáctica. Sé completa con los capítulos 2 y 3, en los cuales se realiza una revisión de las investigaciones relacionadas con el tema y se describe el marco teórico adoptado, así como los objetivos, fases de la investigación y los instrumentos de recogida de datos y técnicas de análisis. En el capítulo 4, se realiza un análisis epistérmico de libros de texto dirigidos a estudiantes de carreras humanas y sociales. En los capítulos 5 y 6 se organiza y analiza una secuencia de enseñanza específica sobre el tema y se describe y analiza la observación de la trayectoria didáctica y la evolución en el significado personal de los alumnos. En los capítulos 7 y 8 se analizan los instrumentos de evaluación, un cuestionario y una prueba de ensayo con ordenador,y se describen los resultados y conclusiones obtenidas. En el capítulo 9, se describen las aportaciones y limitaciones del estudio proporcionando además algunas sugerencias sobre futuras líneas de investigación relacionadas con este objeto de estudio. La memoria finaliza con una serie de anexos en los que se incluye el material entregado al alumno, los instrumentos de evaluación los ficheros de datos y las actividades desarrolladas.
  • ELEMENTOS ACTUARIALES Y FINANCIEROS DEL SEGURO DE VIDA: METODOS DE ANALISIS .
    Autor: SANCHEZ LOPEZ JOSE M..
    Año: 1999.
    Universidad: COMPLUTENSE DE MADRID.
    Centro de lectura: CIENCIAS ECONOMICAS Y EMPRESARIALES .
    Centro de realización: UNVI. COMPLUTENSE DE MADRDI; FAC. DE CC. ECONOMICAS Y EMPRESARIALES.
    Resumen: Se analizan todos los procesos necesarios en la operaciones de seguro de vida. Se destaca el carácter estocástico y financiero de las relaciones y equilibrios tanto en las operaciones como a nivel global de empresa. Se realiza un análisis de mortalidad con enfoque actuarial. Se estudian los aspectos financieros de las empresas aseguradoras en el ramo de vida. Se investiga sobre las distribuciones representativas de la siniestralidad y sobre los modelos globales. Finalmente, se expone una metodología integradora que selecciona, adapta y enlaza todos los métodos necesarios para desarrollar específicamente la actividad completa de una aseguradora de vida.
  • MORTALIDAD Y MORBILIDAD HOSPITALARIA DEL AREA SANITARIA DE ALGECIRAS. AÑOS 1995-1996 .
    Autor: GARCÍA ORTEGA CESÁREO.
    Año: 1998.
    Universidad: CADIZ.
    Centro de lectura: MEDICINA.
    Resumen: FUNDAMENTO La mortalidad hospitalaria, los reingresos y los grupos relacionados con el diagnóstico (GRD) han sido propuestos como indicadores de calidad y eficiencia en los hospitales. MATERIAL Y MÉTODO Análisis del conjunto mínimo básico de datosal alta hospitalaria (CMBDH) del hospital del Servicio Andaluz de Salud de Saludde Algeciras de los años 1995-1996. Obtención de los indicadores de morbimortalidad clásicos, reingresos y GRD. Posteriormente confección de nuevos indicadores multivariados mediante la técnica de análisis de componentes principales para evaluar el comportamiento de los servicios del hospital. RESULTADOS Y CONCLUSIONES De los 24613 altas analizadas se deduce que el hospital de Algeciras presta una aistencia sanitaria de calidad elevada y eficiente. El análisis de componentes principales permite crear nuevos indicadores sanitarios con elevada potencia de síntesis y clasificación. El CMBDH es una base de datos util tanto para la gestión sanitaria como para la Salup Pública en general.
  • MODELIZACION DE LA CALIDAD POST-VENTA DE UN PRODUCTO. APLICACION A LA FIABILIDAD DE LOS BILLETES DE BANCO.
    Autor: LEON MARTINEZ FERNANDO.
    Año: 1997.
    Universidad: POLITECNICA DE MADRID.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: DEPARTAMENTO: INGENIERIA NUCLEAR .
    Resumen: El objeto de la Tesis es desarrollar un modelo estadistico de calidad-fiabilidad para la fase post-fabricación de los billetes de banco. El modelo permite determinar la calidad de los billetes nuevos utilizando técnicas estadisticas de control de calidad industrial y además determinar la vida de los billetes aplicando técnicas de fiabilidad. El modelo de vida de los billetes se basa en la distribución de probabilidad tipo Weibull. A partir de ella se determinan las variables: vida media, tiempo de retorno y número de ciclos emisión-retorno de los billetes, que son importantes para un Banco Emisor, ya que definen el estado de la circulación de billetes nuevos. El modelo también permite realizar previsiones sobre la evolución del sistema de circulación de billetes aplicando el análisis univariante de series temporales.
  • ANALISIS DE REGRESION CON DATOS CENSURADOS. APLICACION AL ESTUDIO DE FACTORES PRONOSTICO EN LA SUPERVIVENCIA AL CANCER DE MAMA.
    Autor: MARTINEZ ALZAMORA NIEVES.
    Año: 1997.
    Universidad: POLITECNICA DE VALENCIA.
    Centro de lectura: INGENIEROS INDUSTRIALES.
    Centro de realización: DEPARTAMENTO: ESTADISTICA E I. OPERATIVA PROGRAMA DE DOCTORADO: ESTADISTICA.
    Resumen: En este trabajo se ha comprobado que en el análisis de datos censurados, mediante el modelo de regresión log-lineal, una incorrecta estimación del parámetro de dispersión puede tener importantes repercusiones sobre la estimación de los percentiles extremos. Para obviar este problema se ha propuesto un nuevo modelo de regresión, generalización del modelo log-lineal clásico, en el cual se asume que el parámetro de dispersión puede depender de los factores pronóstico en base a una relación log-lineal. Se ha desarrollado un algoritmo para la estimación máximo-verosímil del modelo propuesto y se ha utilizado este modelo para estudiar, en base a una muestra de 1756 pacientes recogida en el Hospital General de Valencia, la influencia de distintos factores pronóstico en la supervivencia de las pacientes operadas de cáncer de mama.
  • APLICACION DE REDES NEURONALES ARTIFICIALES AL TRATAMIENTO DE DATOS INCOMPLETOS.
    Autor: NAVARRO PASTOR JOSE BLAS.
    Año: 1997.
    Universidad: AUTONOMA DE BARCELONA.
    Centro de lectura: PSICOLOGIA.
    Centro de realización: DEPARTAMENTO: PSICOBIOLOGIA Y METODOLOGIA EN CIENCIAS DE LA SALUD PROGRAMA DE DOCTORADO: PSICOPATOLOGIA INFANTIL Y JUVENIL.
    Resumen: El objetivo de la tesis es comparar la eficacia de las redes neuronales artificiales del tipo perceptrón multicapa y función base radial con la de los métodos estadísticos tradicionales, en el análisis de matrices de datos incompletos tanto a nivel univariado como en la generación de modelos de clasificación. Para conseguir el objetivo planteado se diseña un complejo experimento de simulación estadística en el que se manipulan el tipo de variable que contiene la información faltante y el nivel de correlación entre dicha variable y el resto de variables registradas. Los tipos de variable estudiados son binaria y ordinal con distribución equiprobable y no equiprobable, y cuantitativa con distribución normal y asimétrica. A cada variable se le aplican diversas técnicas de imputación de los valores desconocidos, entre las que cabe destacar la imputación de la media o la moda, del valor predicho por un modelo de regresión lineal o logística, del valor predicho por una red neuronal artificial perceptrón multicapa y por una red de función base radial. En la estimación de modelos de clasificación, aparte de las técnicas comentadas se aplican otros procedimientos como la eliminación de los registros incompletos y la codificación de los valores faltantes con la inclusión de variables indicadoras de la presencia/ausencia de valor. Los resultados permiten obtener un esquema de decisión que guía el análisis estadístico de matrices de datos incompletos.
  • LA PREDICCION DEL FRACASO EMPRESARIAL. APLICACION AL RIESGO CREDITICIO BANCARIO.
    Autor: ARQUES PEREZ ANTONIO.
    Año: 1996.
    Universidad: MURCIA.
    Centro de lectura: CIENCIAS ECONOMICAS Y EMPRESARIALES .
    Centro de realización: DEPARTAMENTO: METODOS CUANTITATIVOS PARA LA ECONOMIA PROGRAMA DE DOCTORADO: ECONOMIA .
    Resumen: LOS MODELOS DE PREDICCION DEL FRACASO EMPRESARIAL PROPORCIONAN UNA FORMA DE PROBAR EL CONTENIDO INFORMATIVO DE LOS DATOS CONTABLES SOBRE LA SOLVENCIA DE LA EMPRESA, AL MEDIR LA RELACION ENTRE LOS DATOS Y EL FRACASO. EN ESTE TRABAJO SE ANALIZA LA SITUACION DE SOLVENCIA DE LA EMPRESA A PARTIR DE SUS RATIOS ECONOMICOS Y FINANCIEROS, SELECCIONANDO AQUELLOS QUE SEAN PORTADORES DE UNA MAYOR CAPACIDAD DIFERENCIADORA DE LA SITUACION DE SOLVENCIA FRENTE A LA DE INSOLVENCIA, PARA ELABORAR UN MODELO DE ANALISIS BASADO EN UN CONJUNTO DE RATIOS QUE ENGLOBEN TODOS LOS ASPECTOS RELEVANTES, Y QUE SEA CAPAZ DE OFRECER UN DIAGNOSTICO PORMENORIZADO SOBRE CADA UNA DE LAS PROBLEMATICAS SELECCIONADAS, ASI COMO SOBRE LA POSICION DE RIESGO GLOBAL DE LA SOLVENCIA DE LA EMPRESA. CON ESTE FIN, A TRAVES DE LAS TECNICAS ESTADISTICAS DE ANALISIS DE DATOS, TANTO A NIVEL UNIVARIANTE COMO MULTIVARIANTE, SE PRESENTA UNA METODOLOGIA DE ESTUDIO EXTENSIBLE A DIFERENTES SITUACIONES, CONCRETADA EN UN MODELO DE VALORACION DEL RIESGO EN LOS PRESTAMOS BANCARIOS A EMPRESAS. LA FINALIDAD ULTIMA DE ESTE ESTUDIO ES OFRECER UNA HERRAMIENTA ADICIONAL DE ANALISIS SUSCEPTIBLE DE SER INCORPORADA CON FIABILIDAD A LOS SISTEMAS DE RIESGOS.
  • APLICACIONES DE LAS METRICAS DE WASSERSTEIN AL ANALISIS DE DATOS.
    Autor: RODRIGUEZ RODRIGUEZ JESUS M..
    Año: 1996.
    Universidad: VALLADOLID.
    Centro de lectura: CIENCIAS.
    Centro de realización: DEPARTAMENTO: ESTADISTICA E INVESTIGACION OPERATIVA PROGRAMA DE DOCTORADO: ESTADISTICA E INVESTIGACION OPERATIVA .
    Resumen: SE DAN APLICACIONES DE LAS METRICAS DE WASSERSTEIN A LA ESTADISTICA Y AL ANALISIS DE DATOS. LAS APLICACIONES SE BASAN EN LA COMPARACION DE UNA DISTRIBUCION CON UNA FAMILIA DE DISTRIBUCIONES DE REFERENCIA, MEDIANTE LA OBTENCION DE LA DISTRIBUCION MAS CERCANA. DE ESA FORMA SE OBTIENEN UNA FAMILIA DE ESTADISTICOS PARA LA REALIZACION DE CONTRASTES DE BONDAD DE AJUSTE, DE LOS QUE ADEMAS SE ESTUDIA SU DISTRIBUCION ASINTOTICA. ADEMAS SE DAN RESULTADOS SOBRE LA EXISTENCIA DE LA NORMAL MAS CERCANA A UNA DISTRIBUCION, ASI COMO LA DE LA UNIFORME SOBRE UN CONVEXO, AMBAS EN EL CASO MULTIVARIANTE. ASIMISMO SE DAN APLICACIONES PARA EL CONTRASTE DE BONDAD DE AJUSTE MULTIVARIANTE, Y A LA BUSQUEDA DE ESTRUCTURAS; INTRODUCIENDO LO QUE SE LLAMAN SUBESPACIOS MAS INFORMATIVOS.
  • TESTS AND MODELS FOR DETECTING AND EXPLAINING OVERDISPERSION.
    Autor: UGARTE MARTINEZ M. DOLORES.
    Año: 1995.
    Universidad: PUBLICA DE NAVARRA.
    Centro de lectura: CIENCIAS.
    Centro de realización: DEPARTAMENTO: ESTADISTICA E INVESTIGACION OPERATIVA PROGRAMA DE DOCTORADO: ESTADISTICA E INVESTIGACION OPERATIVA.
    Resumen: EN ESTA TESIS SE PROPONEN TESTS Y MODELOS PARA DETECTAR Y EXPLICAR LA VARIABILIDAD EXTRA, PRESENTE PARTICULARMENTE EN FAMILIAS UNIPARAMETRICAS DONDE LA VARIANZA VIENE ESPECIFICADA POR LA MEDIA. LA MONOGRAFIA SE DEDICA AL ESTUDIO DE LA DISTRIBUCION BINOMIAL NEGATIVA COMO DISTRIBUCION ALTERNATIVA A LA DISTRIBUCION DE POISSON, QUE CON FRECUENCIA PRESENTA VARIABILIDAD EXTRA. EN PARTICULAR, SE APORTA UNA NUEVA CARACTERIZACION DE ESTA DISTRIBUCION ASI COMO DIFERENTES TESTS C(ALFA) PARA CONSTRASTAR LA HOMOGENEIDAD DE SUS PARAMETROS. EN CUANTO A LA DETECCION DE LA VARIABILIDAD EXTRA, SE OBTIENEN TESTS DEL GRADIENTE QUE LA DETECTAN EN UNA FAMILIA EXPONENCIAL NATURAL. EN LA MEMORIA SE PROPONEN TAMBIEN OTROS MODELOS DE PROBABILIDAD MAS FLEXIBLES ALTERNATIVOS AL MODELO DE POISSON Y SE TRATAN ALGUNAS EXTENSIONES DE LOS MODELOS BINOMIALES NEGATIVOS PROPUESTOS POR RAMARISHNAN Y MEETER (1993) PARA EL ESTUDIO DE TABLAS DE CONTINGENCIA. ADEMAS SE CONSIDERAN LAS DISTRIBUCIONES EN SERIES DE POTENCIAS MODIFICADAS COMO POSIBLES DISTRIBUCIONES SUBYACENTES A LAS CELDILLAS DE UNA TABLA Y SE PRESENTAN LOS CORRESPONDIENTES MODELOS LOG-LINEALES. LOS RESULTADOS SE ILUSTRAN CON DIFERENTES EJEMPLOS.
  • "ANALISIS DE PRIMERAS ENTREVISTAS DE MRI MEDIANTE EL SISTEMA DE CODIFICACION DEL CONTROL DE LA COMUNICACION RELACIONAL".
    Autor: CUEVA LOPEZ CHAVES FERNANDO.
    Año: 1993.
    Universidad: PONTIFICIA DE SALAMANCA.
    Centro de lectura: CIENCIAS HUMANAS Y SOCIALES.
    Centro de realización: DEPARTAMENTO: PSICOLOGICO PROGRAMA DE DOCTORADO: PSICOLOGIA GENERAL.
    Resumen: SE ANALIZAN 42 PRIMERAS ENTREVISTAS, REALIZADAS POR 4 TERAPEUTAS EXPERTOS Y 12 PRIMERAS ENTREVISTAS DE TERAPEUTAS INEXPERTOS, SIGUIENDO EL MODELO DEL MRI, MEDIANTE EL SISTEMA DE CODIFICACION DEL CONTROL DE LA COMUNICACION RELACIONAL (RCCCS), COMPARANDO LA COMBINACION DE PROPORCIONES ENTRE LAS VARIABLES IMPLICADAS EN LOS INTENTOS DE DEFINICION DE LA RELACION: INTENTOS DE DOMINIO ( ), INTENTOS DE NEUTRALIDAD ( ) E INTENTOS DE SUMISION ( ) Y LAS IMPLICADAS EN LA DEFINICION EFECTIVA DE LA RELACION: DOMINIO EFECTIVO ( ), NEUTRALIDAD EFECTIVA ( ) Y SUMISION EFECTIVA ( ) DESDE EL PUNTO DE VISTA DEL TERAPEUTA Y DEL CLIENTE PARA CADA UNO DE LOS RESULTADOS TERAPEUTICOS POSIBLES, EXITO, ABANDONO Y FRACASO. EN LA PRIMERA PARTE DE LA INVESTIGACION SE COMPARAN LOS RESULTADOS DE LAS 42 PRIMERAS ENTREVISTAS OBTENIDOS EN LA FASE DE RECOGIDA DE INFORMACION CON LOS OBTENIDOS EN LA FASE DE PRESCRIPCION. SE CONCLUYE QUE EXISTE UNA COMBINACION DE PROPORCIONES, EN TERAPEUTA Y CLIENTE, CARACTERISTICA DE LA FASE DE RECOGIDA DE INFORMACION. TAMBIEN, QUE UNA COMBINACION DE PROPORCIONES, EN LA FASE DE PRESCRIPCION SEMEJANTE A LA DE LA FASE DE RECOGIDA DE INFORMACION, EN TERAPEUTA Y CLIENTE, ESTA RELACIONADA CON EL ABANDONO O EL FRACASO DE LA TERAPIA. EN LA SEGUNDA PARTE SE COMPARAN LAS ENTREVISTAS DE TERAPEUTAS EXPERTOS CON LAS DE LOS INEXPERTOS, CONCLUYENDOSE QUE NO HAY MUCHAS DIFERENCIAS ENTRE TERAPEUTAS EXPERTOS E INEXPERTOS. ESTAS SE DAN SOBRE TODO EN LOS INTENTOS DE CONTROL DE LA FASE DE PRESCRIPCION DE ENTREVISTAS CON EXITO, PERO NO REPERCUTEN EN LA COMBINACION DE PROPORCIONES DE CONTROL EFECTIVO.
  • SISTEMA POTENCIADO DE ANALISIS DE DATOS CATEGORIZADOS Y DE SELECCION DE MODELOS LOG-LINEALES .
    Autor: ESPEJO MOHEDANO ALBERTO ROBERTO.
    Año: 1993.
    Universidad: MALAGA.
    Centro de lectura: INFORMATICA.
    Centro de realización: DEPARTAMENTO: LENGUAJES Y CIENCIAS DE LA COMPUTACION PROGRAMA DE DOCTORADO: TECNOLOGIA DE LA INFORMACION Y LAS COMUNICACIONES.
    Resumen: EL SISTEMA POTENCIADO DE ANALISIS DE DATOS CATEGORIZADOS (SPADC) TIENE COMO OBJETIVO AUTOMATIZAR DE FORMA COMPLETA LOS PROCESOS DE ESPECIFICACION DE UN CONJUNTO DE MODELOS LOG-LINEALES ATENDIENDO A LAS CARACTERISTICAS Y PECULIARIDADES DE LOS DATOS, Y CONSIDERANDO EL PROBLEMA AÑADIDO, SI EXISTIERA, DE TABLAS DISPERSAS. SE INTRODUCEN ALGUNOS CRITERIOS ORIGINALES QUE RESUELVEN LOS PROBLEMAS MAS USUALES CON LOS QUE SE ENCUENTRA UN USUARIO NO EXPERTO EN EL ANALISIS DE DATOS CATEGORIZADOS, PONIENDO A SU DISPOSICION UN ENTORNO GRAFICO DE TRABAJO AMABLE Y DE FACIL UTILIZACION PARA NO HABITUADOS EN EL CAMPO INFORMATICO. LAS TECNICAS EN SELECCION DE MODELOS DE SPADC SE ADAPTAN A LA NATURALEZA DE CADA CONJUNTO DE DATOS, ENLAZANDO DE FORMA ADECUADA UN METODO DE SELECCION AUTOMATICA DE MODELOS CON METODOS PROPIOS DE VERIFICACION, CONTROL Y CORRECCION AUTOMATICA DE TABLAS DE CONTINGENCIA DISPERSAS. INCLUYE TAMBIEN OTRAS HERRAMIENTAS COMO UN EDITOR DE DATOS CATEGORIZADOS, Y UN GENERADOR DE CORRIENTES DE CONTROL DE PAQUETE ESTADISTICO BMDP.
  • CUESTIONES NOTABLES EN LA CONSTRUCCION Y COMPARACION DE ARBOLES DE DECISION.
    Autor: MUNDUATE DEL RIO M. ARANZAZU.
    Año: 1992.
    Universidad: PUBLICA DE NAVARRA.
    Centro de lectura: CIENCIAS.
    Centro de realización: DEPARTAMENTO: METODOS ESTADISTICOS PROGRAMA DE DOCTORADO: ESTADISTICA E INVESTIGACION OPERATIVA .
    Resumen: EL CONTENIDO DE ESTE TRABAJO SE DESARROLLA EN CINCO CAPITULOS. EN EL PRIMERO TITULADO "DEPENDENCIA ENTRE VARIABLES Y DESEMEJANZA ENTRE POBLACIONES", SE PRESENTAN LOS CONCEPTOS PREVIOS, LA NOTACION UTILIZADA Y LAS MEDIDAS DE DESEMEJANZA EMPLEADAS. EN EL SEGUNDO "METODOS DE CLASIFICACION" SE PLANTEAN LOS PRINCIPALES METODOS DE CLASIFICACION CENTRANDO EL TEMA EN LOS ALGORITMOS DE CONSTRUCCION DE ARBOLES DE DECISION. PASANDO AL TERCER CAPITULO, VISTA LA CONSTRUCCION DE UN ARBOL SE ESTUDIAN DISTINTAS MEDIDAS PARA EVALUAR LA CALIDAD DEL MISMO. A PARTIR DE ESTAS MEDIDAS, COMBINANDOLAS, SE ESTUDIAN EN LOS CAPITULOS IV Y V LA FORMA DE SELECCION DEL ARBOL OPTIMO. PRIMERAMENTE LAS CONDICIONES GENERALES PARA LA OPTIMIZACION Y A CONTINUACION DIFERENTES METODOS BASADOS EN LA COMBINACION DE DISTINTAS MEDIAS DE CALIDAD. PREVIAMENTE SE ESTUDIA LA VARIACION, POR EFECTO DEL PROCESO DE PODA, EN ALGUNAS DE ESTAS MEDIDAS DE CALIDAD (ESTADISTICO X2, COEFICIENTE DE CRAMER, COEFICIENTE DE CONTINGENCIA, COEFICIENTE T DE TSCHUPROW).
  • EL CRITERIO DE INFORMACION DE AKAIKE EN EL ANALISIS DE DATOS CATEGORIZADOS.
    Autor: INGA SANTIVAÑEZ ROSA M..
    Año: 1991.
    Universidad: COMPLUTENSE DE MADRID.
    Centro de lectura: MATEMATICAS.
    Centro de realización: DEPARTAMENTO: ESTADISTICA E INVESTIGACION OPERATIVA PROGRAMA DE DOCTORADO: ESTADISTICA E INVESTIGACION OPERATIVA.
    Resumen: LA MEMORIA ESTA ESTRUCTURADA EN 4 CAPITULOS. EN EL CAPITULO 1 SE DESARROLLA EL ESTADISTICO ASOCIADO AL CRITERIO DE INFORMACION DE AKAIKE EN MODELOS RESTRINGIDOS Y NO RESTRINGIDOS. ADEMAS SE RELACIONA EL CRITERIO DE AKAIKE CON LOS METODOS BASADOS EN LA DIVERGENCIA DE KULLBACK. EN EL CAPITULO 2 SE ANALIZA UNA TABLA DE CONTINGENCIA DE TRES FACTORES DE CLASIFICACION, DANDO SOLUCION A LOS PROBLEMAS DE HOMOGENEIDAD, INTERACCION E INDEPENDENCIA. EN EL CAPITULO 3 SE RESUELVE EL PROBLEMA DE DETERMINACION DE UN CONJUNTO OPTIMO DE VARIABLES EXPLICATIVAS, TANTO EN EL CASO DE NUMERO REDUCIDO DE VARIABLES COMO EN EL CASO DE NUMERO GRANDE DE VARIABLES. FINALMENTE, EN EL CAPITULO 4 SE APLICAN LOS RESULTADOS DE LOS CAPITULOS ANTERIORES EN EL ANALISIS DE LOS SIGUIENTES PROBLEMAS REALES: 1) ANALISIS DE TABLAS DE CONTINGENCIA APLICADO A DATOS DEL PARO EN ESPAÑA EN 1990. 2) SELECCION DEL CONJUNTO OPTIMO DE VARIABLES EXPLICATIVAS DE UNA VARIABLE RESPUESTA APLICADO AL ANALISIS DE LA FECUNDIDAD EN ESPAÑA.
  • EL PROBLEMA DE LA ESTIMACION DEL NUMERO DE FACTORES EN LOS METODOS DE EXTRACCION DEL ANALISIS FACTORIAL: APLICACION AL ANALISIS DE DATOS CON EL SPSS.
    Autor: RUIZ DIAZ MIGUEL ANGEL .
    Año: 1991.
    Universidad: AUTONOMA DE MADRID.
    Centro de lectura: PSICOLOGIA.
    Centro de realización: DEPARTAMENTO: PSICOLOGIA BASICA, SOCIAL Y METODOLOGIA.
  • DETECCION Y ANALISIS DEL COMPONENTE ENDOGENO C.N.V.
    Autor: TURBANY OSET JAUME.
    Año: 1991.
    Universidad: BARCELONA .
    Centro de lectura: PSICOLOGIA.
    Centro de realización: DEPARTAMENTO: DEPARTAMENTO DE METODOLOGIA DE LAS CIENCIAS DEL COMPORTAMIENTO - FACULTAD DE PSICOLOGIA - UNIVERSIDAD DE BARCELONA.
    Resumen: EL EXPERIMENTO CLASICO EVOCADOR DE LA ONDA CNV CONSISTE EN LA PRESENTACION CONSECUTIVA DE DOS ESTIMULOS. EL PRIMERO ADVIERTE AL SUJETO DE LA APARICION DE UN SEGUNDO ESTIMULO, TRAS EL QUE DEBERA REALIZAR ALGUN TIPO DE ACCION, GENERALMENTE MOTORA (WALTER ET ALS., 1964). LA ONDA ELECTRICA REGISTRADA EN EL INTERVALO DE ESTOS DOS ESTIMULOS, MEDIANTE LA UTILIZACION DE ELECTRODOS SITUADOS EN LA SUPERFICIE DEL CUERO CABELLUDO, ES LA QUE SE IDENTIFICA COMO MACROCOMPONENTE CNV. TODOS LOS REGISTROS DE FENOMENOS BIOELECTRICOS REALIZADOS EN EL SER HUMANO SE ENFRENTAN CON UN PROBLEMA FUNDAMENTAL: LA PRESENCIA DE RUIDO ACOMPAÑANDO A LA SEÑAL ELECTRICA QUE SE DESEA REGISTRAR. LA EXTRACCION DE LA SEÑAL DEL RUIDO SE HA SOLVENTADO, TRADICIONALMENTE, REGISTRANDO GRAN CANTIDAD DE ENSAYOS INDIVIDUALES, Y PROMEDIANDO LOS VALORES OBTENIDOS EN CADA PUNTO T DE LA SERIE TEMPORAL. ESTE PROCEDIMIENTO, COMUNMENTE UTILIZADO EN LA MAYORIA DE LABORATORIOS, PRESENTA GRAVES INCONVENIENTES DE APLICACION POR LO QUE RESPECTA AL COMPLEJO CNV. SIGUIENDO LA SUGERENCIA REALIZADA POR TUKEY (1978), SE PROPONE EN ESTA TESIS LA UTILIZACION, CONJUNTAMENTE CON EL PROMEDIADO, DE ALGUNA TECNICA DE SUAVIZADO (TUKEY, 1977; VELLEMAN Y HOAGLIN, 1981). LA APLICACION DE ESTAS TECNICAS PRODUCE UN CAMBIO EN LA PERSPECTIVA DE LA ESTIMACION DE LA SEÑAL, SUSTITUYENDO EL PROMEDIADO TRANSVERSAL CLASICO QUE UTILIZA EL PROMEDIADO SIMPLE POR OTRO LONGITUDINAL.
  • ANALISIS DE CORRESPONDENCIAS. UNA GENERALIZACION PARA DATOS ORDINALES MULTIVARIANTES.
    Autor: BUSTO GUERRERO JOSE JAVIER.
    Año: 1990.
    Universidad: SEVILLA.
    Centro de lectura: CIENCIAS ECONOMICAS Y EMPRESARIALES .
    Centro de realización: DEPARTAMENTO: ECONOMIA APLICADA PROGRAMA DE DOCTORADO: ECONOMIA APLICADA.
    Resumen: SE PROPONE UNA GENERALIZACION DEL ANALISIS DE CORRESPONDENCIAS PARA DATOS ORDINALES MULTIVARIANTES, UTILIZANDO UNA FUNCION PERDIDA QUE ES UNA GENERALIZACION DEL ANALISIS DE COMPONENTES PRINCIPALES. PARA LA SOLUCION DEL PROBLEMA SE PROPONE UN ALGORITMO DE OPTIMIZACION NO LINEAL SUJETO A RESTRICCIONES LINEALES DE DESIGUALDAD Y PRESENTAMOS EL CORRESPONDIENTE PROGRAMA DE ORDENADOR EN LENGUAJE DE PROGRAMACION "GAUSS". SE APLICA LA TECNICA PROPUESTA A OCHO VARIABLES CATEGORICAS ORDENADAS CORRESPONDIENTES A LOS GASTOS FAMILIARES DE DIECISIETE PAISES EUROPEOS.
37 tesis en 2 páginas: 1 | 2
Búsqueda personalizada
Manuales | Tesis: Ordenadores, Circuitos integrados...
english
Cibernetia