El cálculo de Probabilidades y la Inferencia Estadística, son, de las herramientas más útiles para poder determinar, desde los datos muestrales, conclusiones referentes a toda la población. En esta obra, presentamos los aspectos básicos de ambas teorias, dando un enfoque unificado y permitendo la compresión global de los temas. El texto, se dirige a estudiantes y profesionales en ciencias económicas, ciencias de la salud, etc. En este mismo volumen, se recopilan las ideas centrales del cálculo de probabilidades, recogiendo de una forma sencilla, el concepto fundamental de variables aleatorias, y función de distribución enlazando directamente, con las herramientas conocidas del análisis matemático y aclarando, que los espacios de probabilidad inducidos en el campo real, para posteriormente, desarrollar las distribuciones más notables, tanto en el caso discreto, como en el caso continuo. El desarrollo dado a la teoría del cálculo de probabilidades, nos sirve también, para dar los grandes fundamentos de la Inferencia Estadística, desde el punto de vista clásico. Con ello, podemos determinar las distribuciones en el muestreo de estadísticos fundamentales, como la media y varianza muestral. El núcleo fundamental del desarrollo de la Inferencia Estadística, lo reservamos para la teoría de la estimación puntual, formulando las propiedades de un buen estimador, para posteriormente, buscar las conculusiones, desde el punto de vista de la estimación por intervalos, y finalmente concluyendo con las ideas básicas y fundamentales de la teoría de Newman-Pearson, y buscando su aplicación a los parámetros desconcocidos de las distribuciones notables, desarrolladas en el cálculo de probabilidades.
Aquest text docent correspon als materials docents de l'assignatura que s'imparteix a la Universitat de Barcelona dins la seva pròpia àrea d'ensenyament
En esta tesis doctoral se justifica la necesidad de aplicar nuevas técnicas de uso de información auxiliar que están apareciendo en los últimos años, a la estimación de parámetros funcionales. Así en este trabajo se estudia una de estas técnicas, la calibración, que desde su surgimiento ha sido seguida por muchos autores y organismos públicos de estadística, para la elaboración de algunas de las encuestas más importantes, en la estimación de la media y comparando los distintos enfoques de calibración. Posteriormente, se analiza el problema de la estimación de la función de distribución bajo cualquier diseño muestral cuando existe información auxiliar proporcionada por una o varias variables que están relacionadas con la variable objeto de estudio. Después de analizar los estimadores conocidos de la función de distribución se construyen diversos estimadores de calibración para este parámetro, desarrollando sus propiedades bajo una amplia variedad de situaciones. También se compara la precisión de estos estimadores formulados con los que se describen al principio del capítulo. La última parte de la tesis está destinada a la estimación de un parámetro no lineal como es el cuantil. Después de analizar el problema, se utilizan los estimadores calibrados obtenidos para la función de distribución para la construcción de estimadores puntuales y de intervalos de confianza para un cuantil. Todos estos desarrollos teóricos están acompañados con estudios prácticos muy completos que ponen de manifiesto las buenas propiedades de los estimadores de calibración formulados.
Con este documento docente los autores pretenden que el lector adquiera aprendizajes referidos a la interpretación de datos y aprenda el funcionamiento de algunas herramientas informáticas para realizar los cálculos estadísticos. El texto se estructura en torno a un problema de investigación sobre el cual se plantean y resuelven distintas cuestiones. Desde un punto de vista operativo, se muestra cómo obtener los cálculos mediante cuatro aplicaciones informáticas como son SPSS 12.0.1, Statgraphics 5.1, Minitab 14 y Microsoft Excel 2002. Con una perspectiva conceptual, en el texto se comentan los diferentes problemas, los índices estadísticos y se proporcionan pautas para alcanzar conclusiones. Si bien es un documento destinado a los alumnos del primer ciclo universitario que se inician en la estadística, también resultará útil para los alumnos de segundo y tercer ciclo (doctorado, posgrado y másters).
Los modelos lineales constituyen una de las metodologías estadísticas más ampliamente utilizadas en la modelización y el análisis de datos de todo tipo. Se introducen en campos tan diversos como la experimentación industrial, la construcción y validación de tests psicológicos o el análisis de datos de chips de DNA de la moderna era post-genómica. Los modelos lineales se encuentran además en la base de técnicas tan populares como la regresión y el análisis de la varianza. En la práctica, si deseamos utilizar estas técnicas sin errores y con la profundidad necesaria, es preciso un exhaustivo conocimiento de los conceptos y propiedades de los modelos lineales subyacentes. En este libro se explican estos fundamentos y se desarrollan sus aplicaciones prácticas con todo detalle..Además de las dos técnicas principales, el temario contiene técnicas de diagnóstico del modelo, regresión robusta y análisis de componentes de la varianza. Numerosos ejemplos y ejercicios de cada concepto o técnica ayudan en su estudio. En especial, se desarrollan todos los ejemplos utilizando R, un software libre de gran potencia y muy apreciado entre los estadísticos de todo el mundo.
En esta obra se aborda, desde un punto de vista puramente práctico, el análisis de la prueba de conformidad y de la comparación de dos medias, en el esquema de grupos independientes y en el de medidas repetidas y, asimismo, el análisis de correlación. Cada procedimiento se analiza tanto desde la perspectiva paramétrica como no paramétrica. Es de destacar, el análisis de los supuestos de los diferentes procedimientos, que son básicos para la correcta elección del modelo a utilizar. Finalmente, resaltar que todos los análisis se realizan mediante cálculo manual y mediante el programa R.