Vista previa del material en texto
1 I- ESTADÍSTICA Y PSICOLOGÍA Dra. Mariela Ventura Prof. Titular Cátedra de Estadística Aplicada a la Psicología y Psicoestadística Inferencial 2017 La Estadística como instrumento metodológico para la producción de conocimiento científico Aun siendo la estadística una ciencia extremadamente técnica y sofisticada, el término también tiene un sentido vulgar. La palabra estadística evoca esas tablas de datos, y esas gráficas que de vez en cuando aparecen en periódicos de revistas, o en los anuarios, para comunicar datos económicos, electorales o demográficos. Aunque el resumen de grandes cantidades de datos es gracias a la estadística, el campo de esta ciencia es bastante más amplio. La estadística actual no es solo un conjunto de técnicas para resumir y transmitir información cuantitativa sino que sirve también y fundamentalmente para hacer inferencias, generalizaciones y extrapolaciones de un conjunto relativamente pequeño de datos –de una muestraa un conjunto mayor, población-. Una de las aplicaciones más importantes en la actualidad, y en psicología, es el trabajo de adquisición de conocimientos mediante esta técnica en la investigación científica. Casi siempre en nuestras investigaciones llegamos a un punto en el que es necesario, trabajar con una gran cantidad de datos, de números para describir la situación que estamos midiendo. A veces, también necesitamos extraer generalizaciones de estos datos. La Estadística proporciona las técnicas para esta tarea. Por ejemplo, desde un proyecto institucional subsidiado por la SPU, 17 alumnos bajo mi dirección están explorando la situación de Tucumán en cuanto a las problemáticas psicosociales prevalentes, ya relevamos datos de 4 escuelas, de los que seleccionamos una muestra en tamaño considerable (500 casos), y con los medios apropiados para que puedan ser abarcables desde lo material fáctico y también económico. A diferencia de lo que ocurre con otras ciencias, la estadística posee la importante peculiaridad de, por un lado, ser ella misma una ciencia, una ciencia formal perteneciente a las matemáticas, y por otro, 2 de servir de instrumento metodológico para el desarrollo de otras ciencias, como la psicología, que es una ciencia fáctica. Hemos dicho que la Estadística “Engloba una serie de procedimientos que nos permiten el análisis de datos, entendiendo al mismo, como diría Pardo, A y Rafael San Martín, como el conjunto de procedimientos diseñados para 1) seleccionar datos, 2) caracterizarlos y 3) extraer conclusiones (inferencias) de ellos”. Este conjunto de procedimientos –análisis de datos- se aplica en todas las ciencias: biología, psicología, economía, antropología, medicina, etc.), pero no pertenece a ninguna de ellas sino a la estadística. El análisis de datos debe ser entendido como una herramienta metodológica al servicio de la investigación empírica. Lo importante de él es que nos permite la producción de conocimiento científico, y en la universidad es hoy una cosa que es muy valorada y le da visibilidad como centro de formación, por eso la tendencia es que cada vez los estudiantes se incorporen antes a los proyectos de investigación. Las ciencias pueden clasificarse en formales y en empíricas. En las formales, como las matemáticas, por ejemplo, no hay necesidad de entrar en contacto con el mundo real, basta con establecer una serie de postulados sobre entidades abstractas y proceder por deducción lógica. En las ciencias empíricas, como la psicología, por ejemplo, el objetivo es el encontrar relaciones de tipo general (leyes) capaces de explicar el comportamiento de uno o varios eventos reales, cuando se dan en circunstancias apropiadas. Y a diferencia de los que ocurre en las ciencias formales, esas leyes solo pueden ser descubiertas y verificadas observando el mundo real. Pero es imposible observar lo que ocurre en todo un conjunto de elementos o población, por ello se procede a escoger un sub conjunto más pequeño y se procede por una generalización inductiva. Mientras que en la ciencias formales se procede por deducción lógica, se llega a conclusiones verdaderas por premisas verdaderas, en las ciencias empíricas, intenta ir desde lo que se considera verdadero para un conjunto reducido de observaciones hasta la afirmación de que eso mismo es verdad para el total de observaciones de la misma clase, por una generalización inductiva. 3 Por supuesto que este salto, de lo específico a lo general tiene un riesgo: No hay dos observaciones iguales, hay una multiplicidad de factores, que intervienen alterando la similitud y la diferencia. Esto por ejemplo, no es un gran problema en la física, donde las observaciones entre sí varían muy poco y el error al hacer la inferencia es muy reducido. En cambio en ciencias como las nuestras, las ciencias empíricas llamadas ciencias sociales (psicología, sociología, economía, etc.) las distintas observaciones no pueden ser sometidas a un control riguroso y presentan variaciones; las fuentes de variaciones son varias y difíciles de identificar y por ende, de controlar. Y por ello, necesitan un conjunto de procedimientos o una metodología especial para actuar inductivamente, y este conjunto es lo que llamamos análisis de datos. La más importante aplicación del análisis de datos, por lo tanto está relacionada con el concepto de incertidumbre, entendida como la tendencia de un resultado a variar cuando se efectúan repetidas observaciones del mismo tipo bajo condiciones idénticas. En situaciones deterministas, donde una misma causa siempre produce el mismo resultado (un cuerpo que se mueve a una velocidad constante v durante un tiempo t recorre un espacio e), el álgebra o el análisis matemático bastan para encontrar el nivel de comprensión buscado. Por el contrario, en situaciones aleatorias, donde una misma causa puede producir cualquiera de un conjunto de resultados posibles (lanzar una moneda al aire es un resultado paradigmático, el tiempo de reacción frente a un estímulo, etc.) es necesario recurrir al análisis de datos y a los instrumentos proporcionados por la estadística para poder extraer conclusiones fiables. La Estadística nos permite analizar los datos (es decir, las mediciones) desde dos perspectivas diferenciadas e interrelacionadas. La primera se centra en la descripción; la segunda en la inferencia. Un poco de historia… Parecería ser que todas las fases de la vida humana y todas las ciencias hubieran contribuido de alguna manera en su historia. La estadística es más bien la confluencia a lo largo de más de dos siglos de cierto número de corrientes tributarias procedente de muchas regiones diferentes. Así, la teoría de la probabilidad tuvo su origen en el de la ruleta; la recopilación de hechos estadísticos nació con la necesidad estatal de soldados y dinero. Los modernos estudios sobre la mortalidad, con los efectos de las pestes del siglo XVII; la teoría de los errores se creó en la astronomía; la teoría de 4 la correlación en la biología; la del diseño experimental en la agricultura; la teoría del análisis y ordenación de elementos en la psicología y la teoría de los métodos de las ji cuadrado en la sociología. Las dos grandes funciones de la estadística son pues, la descripción y la realización de inferencias, que reflejan la propia historia del desarrollo de esta ciencia. La estadística actual es el producto del encuentro (siglo XIX) de dos ramas distintas del saber: la antigua estadística y el cálculo de probabilidades (juegos de azar). Etimológicamente la palabra estadística procede de la palabra Estado. Ya en la antigüedad los egipcios y los romanos querían tener un conocimiento preciso de la cantidad de habitantes y de sus posesiones, es decir del estado de sus naciones (de ahí la raíz del término). Paraello hacían recolecciones de los datos, y tenían que resumirlos de una forma comprensiva. Con el surgimiento de los Estados modernos, adquirió una importancia creciente, comienzan a realizar censos de la población y a recopilar datos demográficos, sociales, y económicos. Hasta el siglo XIX, la Estadística es una ciencia descriptiva, que utiliza modas y gráficos. Para sintetizar datos sociales y demográficos.Sin embargo, las conclusiones extraídas se agotaban en el propio conjunto de datos observados. Es decir, que hasta el siglo XIX, la Estadística es una ciencia descriptiva. A partir del siglo XIX comienza a hacerse una ciencia normativa para poder generalizar a partir de los datos, prever la evolución de las variables y guiar la toma de decisiones en un ambiente de incertidumbre. Esta transformación es posible con la incorporación del concepto de probabilidad. Con el cálculo de probabilidades podíamos ya hacer inferencias sobre entidades no observadas, y brindó el instrumento adecuado para extrapolar los datos a partir de unas pocas observaciones reales. Esta apareció por primera vez en el campo de la Astronomía, donde se quería estudiar el trayecto de las estrellas, y e observaba que por más experiencia que tuvieran los observadores, siempre se medía con una diferencia, con error. A partir de estas muestras querían calcular la mejor estimación de su valor verdadero. Y así fue cómo surgieron métodos que permitirían estimar características a partir de las muestras. Este problema llevó a Gauss, uno de los más grandes científicos del siglo XIX, a introducir el modelo de la distribución normal, como modelo de la distribución de los errores. También dentro de este campo inferencial, fueron importantes: Galton, en los problemas de la 5 herencia; pero fundamentalmente, Karl Pearson y Ronald Fisher. Para llevar a cabo el análisis de variables psicológicas con procedimientos estadísticos es necesario medir.Recordemos que la clave de todo proceso de medición está en determinar cuál es el tipo de relaciones presentes en el sistema empírico a medir y cuál es el sistema formal que permite una representación numérica apropiada a esas relaciones. Ellos fueron creadores de modelos que nos permitieron analizar estos datos. Las dos funciones de la estadística, descriptiva e inferencial, reflejan como dijimos las dos partes que reflejan también su proceso histórico, pero también pueden revelar la profundidad de los análisis que realizan o incluso, las fases de estudio, puesto que para hacer un estudio inferencial primero hay que hacer un estudio descriptivo. El estudio descriptivo realiza la descripción de los datos, mientras que uno inferencial, comienza con la descripción pero luego aborda la inferencia. “Estadística es la ciencia que se ocupa de la ordenación y análisis de datos procedentes de muestras y de la realización de inferencias a las poblaciones de las que éstas proceden”. La estadística resultaría una materia muy fácil si la atención pudiera imitarse a las medidas descriptivas. Tal vez una función mucho más importante de la estadística, es la inducción, consistente en inferir propiedades desde una muestra para una población, a partir de resultados conocidos. La inducción estadística implica un pensamiento mucho más complejo que el de la descriptiva, consistente en inferir propiedades. La estadística inductiva se basa directamente en la teoría de la probabilidad, que es una rama de las matemáticas. Esta disciplina matemática proporciona una base racional para efectuar inferencias e inducciones. Existen además razones de orden práctico de por qué es conveniente trabajar con menos casos y a partir de allí realizar inferencias. Por ejemplo, cuando se le pide opinión a los sujetos sobre las elecciones, es suficiente encuestar a una muestra representativa. En otras ocasiones, es necesario generalizar porque no se puede definir la población o ésta es infinita. Vamos a ver en esta segunda parte del año, lo que se refiere a la función inferencial de la estadística. La Estadística Inferencial consta de una serie de procedimientos que permiten a partir de un conjunto reducido de datos 6 (muestra) establecer afirmaciones sobre el conjunto total de los datos (población). Como se verá, este salto inductivo es el propósito fundamental de la Estadística Inferencial, pero por supuesto, como dice Pardo y San Martín, no es un salto que pueda darse en el vacío. Si como hemos dicho establecer inferencias significa establecer afirmaciones sobre la población a partir de unos pocos datos muestrales, el valor que tengan nuestras inferencias estará condicionado: 1) por la calidad de las herramientas que usemos para hacer este salto inductivo y 2) por el parecido que hay entre la población y la muestra en la que nos apoyemos para establecer nuestras afirmaciones. Por eso, tan importante como tener una buena técnica de análisis para realizar las inferencias es “seleccionar” apropiadamente los datos que van a analizar para dar una buena base de apoyo a la inferencia. Entonces, el tema del muestreo es fundamental en esta función de la estadística. Para que lleguemos a conclusiones válidas es necesario que nuestra muestra sea representativa de nuestra población, es decir, seleccionar muestras en las que existe alguna garantía de que cualquier elemento de la población ha tenido la oportunidad de formar parte de ellas. El hecho de no trabajar con muestras adecuadas puede llevar nuestras predicciones al fracaso. Hemos dicho que el objeto de la estadística Inferencial es extraer conclusiones o conjeturas generales a partir de unos pocos datos particulares. Estas conclusiones de tipo general se refieren a los parámetros de alguna población, y cuando nos referimos a los datos particulares estamos hablando de los estadísticos. Estos son dos conceptos claves de los que tenemos que hablar. Un parámetro es un valor numérico que describe una característica de una población. Por ejemplo, tenemos una población de varones mayores de 30 años a los que les vamos a aplicar una prueba de inteligencia. Comparten entre ellos la característica de ser varones y de tener más de 30 años además de otras, que en este momento no estamos considerando: estado civil, estudios, si trabaja, NSE, etc. si medimos por ejemplo “Comprensión lectora” vamos a obtener tantos elementos numéricos como elementos forman parte de la población. Si ahora calculamos el promedio (un solo número) de todos los valores numéricos de la población habremos definido 7 un parámetro, es decir, habremos descrito numéricamente una característica de la población: el CI medio de los varones mayores de 30 años. O por ejemplo, tenemos una población de depresivos. Si nos centramos además en la característica “Sexo”, por ejemplo, podríamos contar cuántos son varones y cuántos son mujeres. De allí podríamos definir un parámetro como la proporción de varones y la proporción de mujeres en la población de pacientes depresivos. Así pues existen valores numéricos como la media, la varianza, o la proporción (y otros) que cuando se refieren a alguna característica poblacional reciben el nombre de parámetros. Hay dos aspectos de los parámetros que me gustaría resaltar: 1) Son en general, valores poblacionales desconocidos, es decir, las poblaciones son tan grandes que raramente se puede acceder a ellas en su totalidad. Por ende, esto impide el cálculo sobre el total de los elementos. 2) Son valores numéricos constantes (no variables) , solo pueden tomar un valor concreto cuando se define su población y su característica. A los parámetros se los identifica con letras griegas minúsculas como µ, σ, etc. Un estadístico es un valor numérico que describe una característica de una muestra. De esa población de varones por ejemplo, puedoextraer una muestra de n sujetos. En esa muestra podemos definir y medir, por ejemplo, la característica inteligencia. Según las distintas combinaciones de muestras que extraigamos, obtendremos un estadístico X . Mientras el parámetro es por lo general desconocido, el estadístico en cambio, puede ser calculado concretamente. Es decir, que es de los estadísticos que nos vamos a servir para formarnos una idea de los valores poblacionales (parámetros) desconocidos. Este proceso de atribuir a un parámetro el valor tomado por su correspondiente estadístico se conoce con el nombre de estimación. La estimación es un concepto importante en la Estadística Inferencial. El proceso estadístico inferencial 8 Cuando un investigador realiza un estudio estadístico, ante la imposibilidad práctica de recoger toda la información poblacional, se ve en la disyuntiva de analizar sólo una parte y quedarse con esa información, o bien, de extender los resultados de esa parte al conjunto mayor al que pertenece. Dado que el interés científico se centra, generalmente, en una conclusión válida para la totalidad y no para una parte, la segunda alternativa parece ser la más adecuada. Proceso Inferencial La realización de una inferencia estadística implica el pasaje de lo conocido (propiedades de la muestra) a lo desconocido (propiedades de la población a la que pertenecen los datos analizados en la muestra). Su principal base se apoya en: o La Teoría de la Medida, que tiene por objeto el estudio de los diferentes modelos que permiten establecer reglas para una correcta asignación de números a los hechos que se pretende medir. Solo si la medición es correcta, tiene sentido el proceso inferencial posterior, en el que confluyen diversos cuerpos de conocimiento. o La Teoría de la Probabilidad, que se ocupa del estudio de los fenómenos aleatorios, es decir, de aquellos acontecimientos quese manifiestan de dos o más maneras pero cuya forma de presentación en una situación particular no puede ser pronosticada con certeza. o La Teoría del Muestreo, que brinda herramientas útiles para seleccionar muestras probabilísticas a partir de las cuales se iniciará el proceso inferencial. Este proceso implica la estimación de las propiedades de cantidades masivas de datos con una precisión calculada a partir de muestras probabilísticas. La función inferencial de la Estadística surge de la confluencia de dos disciplinas independientes, la Teoría de la Probabilidad y la Estadística (dedicada originariamente a llevar registros ordenados de los datos del Estado). La unión de ambas en el siglo XIX dio lugar a una nueva ciencia, interesada fundamentalmente en estudiar cómo obtener conclusiones de la investigación empírica mediante el uso de modelos matemáticos. Por un lado, sabemos que la Estadística se ocupa de la regularidad en los conjuntos de fenómenos naturales, que manifiestan una tendencia a agruparse alrededor de cierto centro de gravedad. El estudio de la regularidad es el punto de unión entre ambas disciplinas. Con la 9 incorporación de la Teoría de la Probabilidad, la Estadística ha expandido su radio de acción a muchos campos de la investigación científica, entre ellos el de la Psicología. Por otro, la Teoría de la Probabilidad estudia los fenómenos aleatorios y permite la evaluación de la ocurrencia de las diferentes formas de presentación de los mismos. Importancia del muestreo aleatorio en el proceso inferencial Es evidente que de una población es posible extraer más de una muestra diferente del mismo tamaño. Esto significa que el valor del estadístico variará de acuerdo a los valores concretos que hayan sido elegidos. Así, de una población cualquiera de tamaño N, es posible extraer N muestras diferentes de tamaño n. si en cada una de esas Nn muestras calculamos un estadístico, nos encontramos que el valor no será siempre el mismo, esto es, el valor variará de una muestra a otra. Esto quiere decir que un estadístico no es un valor numérico constante sino una variable, ya que el valor concreto que tendrá será de acuerdo a los valores con los que se haya calculado. Pero un estadístico no es solo una variable. Es una variable aleatoria. Al extraer aleatoriamente y con reposición una muestra de tamaño n de una población de tamaño N, el primer elemento de esa muestra puede ser cualquiera, el segundo también, el tercero también, etc. en consecuencia, cada elemento de la muestra puede ser concebido como una variable aleatoria (la combinación de una o más variables aleatorias es otra variable aleatoria). Ahora bien, si un estadístico es función de los n elementos de una muestra, y cada uno de esos elementos son variables aleatorias, un estadístico será también una variable aleatoria. Ya hemos señalado que para que el proceso sea consistente en obtener conclusiones sobre la población, a partir de información contenida en la muestra es de importancia esencial que éstas sean representativas. Y esto se logra con un muestreo adecuado. Vamos a definir el muestreo como el proceso seguido para extraer una muestra de una población. Este puede ser de dos tipos: probabilístico o no probabilístico. 10 En el muestreo probabilístico se conoce la probabilidad o puede calcularse la probabilidad asociada a cada una de las muestras (o elementos) que esposible extraer de una población. Cada elemento poblacional tiene Parámetro Estadístico Valor poblacional Valor muestral Desconocido Calculable, concreto Constante Variable Aleatoria Letras griegas minúsculas µ, σ Letras latinas mayúsculas X , S, P Habíamos dicho que el objeto de la Estadística Inferencial es extraer conjeturas o conclusiones o afirmaciones generales, universales, a partir de unos pocos datos particulares. Problemas de los que se ocupa comúnmente la Estadística Inferencial Estas inferencias se refieren sobre todo a dos aspectos, los dos grandes temas delos que se ocupa la Estadística Inferencial: 1) La Estimación de Parámetros 2) El contraste de Hipótesis Mediante la Estimación de Parámetros se intenta dar respuesta a la pregunta ¿Cuál es el valor de tal parámetro? Con el Contraste de Hipótesis se intenta dar respuesta a la pregunta: ¿es razonable que el parámetro adopte un tal valor? Ambas formas de inferencia son equivalentes y nos permiten llegar a una misma conclusión. Podríamos decir que son como dos caras de una misma moneda, ya que en la estimación de parámetros utilizamos al información muestral para formarnos alguna idea sobre una propiedad de la población ; en el contraste de hipótesis establecemos una afirmación sobre la población que intentamos comprobar a partir de la información muestral. 1) Estimación de parámetros Cada estadístico describe la muestra que se midió y tiene unparámetro equivalente que describe la población a la que ésta pertenece. La Estadística, con ayuda del cálculo de probabilidades, resuelve el problema de la estimación del valor de un parámetro a partir del valor conocido de un estadístico. 11 2) Prueba de hipótesis La Estadística brinda herramientas para afrontar el problema de la verificación de las hipótesis. La prueba (o contraste) de hipótesis es el procedimiento estadístico que permite establecer, con un grado de probabilidad determinable, si una hipótesis científica es consistente con la información muestral obtenida. Como todo procedimiento inferencial, requiere de muestras probabilísticas a fin de extender los resultados hacia las poblaciones respectivas. Mediante la estimación de parámetros intentamos dar respuesta a la pregunta: ¿Cuál es el valor de tal parámetro?; con el contraste de hipótesis, a la pregunta: ¿Es razonable que este valor sea el valor del parámetro de la población? Ambas formas de inferencia sonequivalentes, o podemos decir, son dos caras de una misma moneda: en la estimación de parámetros utilizamos la información muestral para formarnos alguna idea sobre alguna propiedad de la población; en el contraste de hipótesis establecemos una afirmación sobre la población y después recurrimos a la información muestral para comprobar si nuestra afirmación es compatible con ella. Legitimidad del uso de la Estadística Inferencial en Psicología El propósito de la investigación psicológica es producir conocimientos acerca de los seres humanos. Por lo tanto, es fundamental que en un estudio de ese tipo, a partir de premisas psicológicas se llegue a conclusiones psicológicas. Hoy en día las técnicas estadísticas son utilizadas con frecuencia, pero al atribuir números a manifestaciones psicológicas se hace indispensable efectuar también un procedimiento inverso, es decir, interpretar psicológicamente los resultados numéricos obtenidos. La Psicología moderna ha reconocido la importancia de la medida en la investigación que se realiza en muchos de sus campos de aplicación. De hecho, los modelos matemáticos juegan un importante papel en distintas áreas de esta ciencia (experimental, social, industrial, pedagógica, etc.). Como dijimos anteriormente, la Estadística implica el estudio de la regularidad en conjuntos de fenómenos naturales que se presentan de maneras diferentes y en tal sentido se vincula con la teoría de la probabilidad. Ahora bien, la dispersión de los datos provenientes de la medición de variables psicológicas presenta cierta “regularidad”, similar a la de los fenómenos estudiados por la Estadística. 12 Por este motivo, es legítimo el uso de métodos estadístico el campo de la Psicología, aunque cabe una importante aclaración: sólo cuando va acompañado de una actitud crítica y reflexiva que implique el empleo adecuado de los mismos. Si no es así se corre el riesgo de llegar a conclusiones aparentemente rigurosas pero intrínsecamente engañosas. Otro aspecto a tener en cuenta es el nivel de generalización de los resultados. Las conclusiones no deben rebasar el límite de la población motivo de estudio. Para lograr mayor generalización es necesario trabajar con nuevas muestras que representen a otras poblaciones. En conclusión, la aplicación de la Estadística a problemas concretos no comporta un procedimiento de rutina que lleva directamente a la prueba o a la medida correcta. No hay nada en los procedimientos estadísticos o matemáticos que nos permita verificar la validez de nuestro proceder. Más allá de la legitimidad del uso de las herramientas teóricas que nos brinda esa ciencia, el valor de los nuevos conocimientos científicos que obtengamos está condicionado no sólo por la elección de determinados instrumentos estadísticos, o por la semejanza que pueda existir entre la población y la muestra seleccionada, sino también -y esto es fundamental- por la calidad de la conexión entre los resultados estadísticos y el tema que se analiza, inserto -en nuestro caso- en el ámbito de la Psicología. Definiciones básicas * Inferencia: Conclusión a la que se llega por razonamiento. * Inferencia estadística: Conclusión sobre las propiedades de una población a partir de la información contenida en una muestra probabilística extraída de la misma. * Población: Conjunto de elementos (personas, objetos, entidades abstractas, etc.) que poseen una o más características específicas en común. * Muestra: Subconjunto de una población. * Muestra probabilística: Muestra seleccionada de una población mediante un procedimiento probabilístico. Fenómeno aleatorio Hecho que -repetidamente observado en condiciones similares- oscila en sus manifestaciones, por lo que su forma de presentación en una situación particular no puede ser pronosticada con certeza. Probabilidad teórica 13 Número de veces en que se presenta un determinado acontecimiento dividido por el total de resultados igualmente probables. Su fórmula es: P(A) = n(A) / N Propiedades de la probabilidad *El valor de la probabilidad debe estar entre 0 y 1, inclusive. La probabilidad es 0 si el evento no puede ocurrir y 1 si es seguro que ocurra. *La suma de las probabilidades de todos los resultados posibles debe ser igual a la unidad. * Parámetro: Valor numérico que describe una característica de la población. * Estadístico: Valor numérico que describe una característica de la muestra con el propósito de caracterizar a la población de la que forma parte. * Estimación de un parámetro: Conclusión probabilística acerca de un valor descriptivo de la población a partir de cálculos que se basan en una muestra aleatoria extraída de la misma. * Hipótesis: Supuesto, conjetura. * Hipótesis científica: Conjetura de interés científico susceptible de verificación. Es una proposición que se formula a modo de ensayo y provisoriamente. * Prueba de hipótesis: Procedimiento estadístico que permite establecer, con un grado de probabili- dad determinable, si una hipótesis científica es consistente con la información muestral obtenida. Fundamento que sostiene el enfoque de todas las unidades desarrolladas a continuación: La aplicación de técnicas inferenciales en el campo de la Psicología sólo tiene validez cuando se realiza la necesaria conexión entre las conclusiones propias 14 de la Estadística y el tema de estudio (no estadístico), a fin de lograr una interpretación coherente y plena de sentido. Bibliografía Amón, J. (1991). Estadística para Psicólogos 1. Madrid: Ed. Pirámide. Prólogo. Introducción Botella, J., León, O. y San Martín, R. (1999) Análisis de datos en Psicología I . Madrid, España: Pirámide. Blalock Jr., H. (1998). Estadística Social. México: Fondo de Cultura Económi- ca. Capítulos I y II Cortada de Kohan, N. (1994). Diseño estadístico: Para investigadores de las ciencias sociales y de la conducta. Bs. As: EUDEBA. Cap.I Cortada de Kohan, N., Macbeth, G. y López Alonso, A. (2008). Técnicas de investigación científica. Con aplicaciones en: Psicología, Ciencias Sociales, Ciencias de la Educación. Buenos Aires: Lugar Editorial. Capítulo 1. Pardo, A. y San Martín, R. (1994). Análisis de datos en Psicología II. Madrid: Pirámide.Introducción. Saleme, H. Fichas de cátedra Psicoestadística Inferencial y Estadística Aplicada a la Psicología, Facultad de Psicología (UNT), 2016.