Vista previa del material en texto
Física 1. Física de las partículas y teoría estándar Física de las partículas: En la física de partículas, se considera que la materia es el conjunto de todas las partículas existentes y que la antimateria es una forma de materia menos frecuente formada por antipartículas. La partícula que entra en contacto con su antipartícula se da una aniquilación mutua (no significa destrucción, sino una transformación devolviendo la energía que fue dada para materializarlo en forma de protón). ➔ Propiedades cuánticas: Masa, Spin, Carga, Color. ○ Spin: Propiedad cuántica que presentan las partículas elementales, las compuestas y los núcleos. El spin puede ser entero o semientero. ○ Carga de color: propiedad relacionada con el modo en que algunas partículas interaccionan. Teoría Estándar: ● Fermiones: Presentan spin semientero y cada fermión tiene una antipartícula correspondiente. Se conocen dos tipos de fermiones fundamentales ○ Quarks: 6 sabores: UP/DOWN (1º generación); CHARM/STRANGE (2º generación); TOP/BUTTOM (3º generación). Presentan Color, cada sabor de quark se puede presentar en tres colores posibles (rojo, verde o azul), que se intercambian continuamente. Forman partículas compuestas sin carga de color neta (incoloro). Las correspondientes antipartículas pueden tener tres anticolores posibles (antirojo, antiverde o antiazul). ○ Leptones: ELECTRÓN/ELECTRÓN NEUTRINO (1º generación); MUÓN/MUÓN NEUTRINO (2º generación); TAU/TAU NEUTRINO (3º generación). Los neutrinos son neutros y su masa es muy baja, los demás tienen carga eléctrica y masa considerable. ● Bosones: Tienen spin entero. Son mediadores de las fuerzas (intercambio de bosones entre fermiones). Con cada fuerza fundamental evidenciada en la naturaleza se corresponde por un supuesto tipo de bosón fundamental. Según el Modelo Estándar, existen cuatro fuerzas fundamentales en el Universo: la fuerza fuerte, la fuerza débil, la fuerza electromagnética y la fuerza gravitacional. - La fuerza gravitacional es la más débil de todas las fuerzas y presenta rango infinito. El fenómeno gravitatorio no puede ser explicado por la Teoría Estándar y no se incluye dentro de la misma. - La fuerza electromagnética es de alcance infinito, pero esta fuerza es mucho más intensa que la gravitacional. - Las fuerzas fuerte y débil solo actúan a corta distancia. La fuerza fuerte es la más fuerte de todas estas fuerzas. ○ Fotones: Son las partículas de intercambio responsables de la fuerza electromagnética. Así, dos partículas cargadas interactúan por intercambio de fotones. Es portadora de todas las formas de radiación electromagnética, incluyendo los rayos gamma, los rayos X, la luz ultravioleta, la luz visible, la luz infrarroja, las microondas y las ondas de radio. ○ Gluones: Son las partículas de intercambio responsables de la fuerza fuerte, que mantiene unidos a los quarks formando partículas compuestas sin carga color (como los protones y los neutrones, por ejemplo). El intercambio de un gluón entre dos quarks (o dos antiquarks) genera un cambio de color entre dichos quarks (o antiquarks). Este intercambio continuo de color mediado por gluones es el mecanismo que subyace a la fuerza fuerte. ○ Bosones W y Z: Son las partículas de intercambio responsables de la fuerza débil. La interacción débil está involucrada en la transmutación de quarks (cambio de sabor). Así, esta interacción está involucrada en muchos decaimientos de partículas nucleares, que implican el cambio de sabor de un quark en otro. ● Hadrones: Partículas compuestas por quarks y/o antiquarks que permanecen unidos gracias a la fuerza nuclear fuerte entre ellos. hay dos tipos de hadrones: ○ Bariones: Están compuestos por tres quarks (o antiquarks) con carga de color diferente (formando una carga neutra o blanca). Ejemplo: Neutrones y protones. Los bariones tienen spin semientero (fermiones compuestos). ○ Mesones: Formados por un quark y un antiquark. Ejemplo: Piones (responsables de mantener unidos a los protones y los neutrones en el núcleo, continuamente los neutrones del núcleo se transforman en protones y viceversa, por intercambio de piones). Los mesones tienen spin entero (bosones compuestos). 2. Núcleo atómico y Radiactividad. Un nucleído es una especie atómica que se caracteriza por la composición de su núcleo. Se lo representa con el símbolo químico del elemento correspondiente (X), y arriba a la izquierda el número de nucleones (A). Nótese que el símbolo químico ya define el número de nucleones al estado de protón (Z) quedando por lo tanto automáticamente definido el número de neutrones (N) (el número atómico (Z) y el número másico (A) definen a un átomo de un elemento). Las partículas elementales y la interacción entre ellas son las que forman la materia. A los nucleídos se los puede clasificar en isótopos, isóbaros, isótonos o isómeros. ● Isótopos: Átomos de un mismo elemento (igual Z), con distinto número másico (A) y distinta cantidad de neutrones (N). Ejemplo, y .Cargando… Cargando… ● Isóbaros: Átomos de diferente elemento (Z), distinta cantidad de neutrones (N) e igual número másico (A=Z+N). Ejemplo, y .Cargando… Cargando… ● Isótonos: Átomos de diferente elemento (Z), con distinto número másico (A) e igual cantidad de neutrones (N). Ejemplo, y .Cargando… Cargando… ● Isómeros: La única diferencia entre dos nucleidos está en su nivel energético. Átomos de un mismo elemento (igual Z), con igual número másico (A) e igual cantidad de neutrones (N). Ejemplo, y Cargando… Cargando… Radiactividad: En la tabla de nucleidos, se relacionan el número de protones (Z) con el número de neutrones (N) y se observa que, en general, son radiactivas las sustancias que no presentan un balance correcto entre protones y neutrones: cuando el número de neutrones es excesivo o demasiado pequeño respecto del número de protones se hace más difícil que la fuerza residual, descripta por la cromodinámica cuántica y debida al intercambio de quarks, en especial de piones, pueda mantenerlos unidos. Este desequilibrio se corrige mediante la liberación del exceso de neutrones y/o protones en forma de partículas, radiación alfa o beta. Así, un núcleo pasa de un estado excitado de mayor energía a otro de menor energía que puede seguir siendo inestable y dar lugar a la emisión de más radiación alfa o beta, además de la gamma (emisión de fotones). ● Estabilidad nuclear y energía de unión: La masa del núcleo es menor que la suma de las masas que tienen los nucleones cuando están separados (defecto de masa). A este defecto de masa equivalente a la energía que mantiene unidos a los nucleones en el núcleo formado se la denomina energía de unión (B en MeV). Z: nº de protones; N: nº de neutrones; mp: masa del protón (u.m.a) ; mn: masa del neutrón; mh: masa del átomo (u.m.a). Cuanto mayor es la energía de unión, mayor será la estabilidad del núcleo. El valor de B así calculado, sólo permite comparar la estabilidad de nucleídos isóbaros. Cuando es necesario comparar la estabilidad entre cualquier tipo de nucleídos se debe utilizar la energía de unión por nucleón (B/A en MeV): Cuanto mayor sea la energía de unión por nucleón, mayor estabilidad del núcleo, o sea, mayor energía se debe aportar para arrancar un nucleón del núcleo en estudio. ● Formas de radiación: ○ Desintegración Alfa: Este tipo de radiación la emiten elementos pesados situados al final de la tabla de nucleidos (A>150 y N=84) El Qα representa la energía liberada en el proceso de desintegración y se distribuye entre la energía cinética (Ec) de la partícula α y la Ec del núcleo hija que adquiere velocidad de retroceso (Qα=Eα+ Er) y rondará los 4-9 MeV. El proceso de desintegración alfaes monoenergético ya que el tipo de núcleo que se esté desintegrando emite partículas alfa con la misma energía. ○ Desintegración Beta negativa (β-): Es una emisión de partículas nucleares de masa igual a la del electrón y de una velocidad comparable con la de la luz. Estas se generan a partir de la transformación espontánea de un neutrón y, consecuentemente, la ganancia de un protón. Como resultado se origina la emisión de una partícula β- y un antineutrino (ῡ). El elemento emisor aumentará su número atómico (Z) en una unidad pero su número másico (A) quedará igual, ya que la cantidad de neutrones disminuye en una unidad, mientras que la cantidad de protones aumenta también en una unidad. La energía liberada en la desintegración (Qβ -) es igual a la diferencia de masas entre el núcleo madre (X) y el núcleo hija (Y), y se distribuye entre la Ec de la partícula β- y la Ec del antineutrino. Los nucleídos madre e hija son isóbaros. ○ Desintegración beta positiva (β+): Es una emisión de positrones (e+) que son considerados como la antipartícula del electrón dado que tienen su misma masa pero carga de signo opuesto. Esta desintegración se caracteriza por la conversión de un protón en un neutrón con la emisión de un neutrino. El elemento emisor disminuirá su número atómico (Z) en una unidad pero su número másico (A) quedará igual. Para que este tipo de desintegración ocurra, la energía liberada en la desintegración (Qβ +) debe ser mayor o igual a 1,02 MeV, que es la energía necesaria para materializar el positrón (β+). La Qβ + es igual a la suma de la Ec de la partícula β+, la Ec del neutrino y 1,02 Mev. Los nucleídos madre e hija son isóbaros. ○ Desintegración captura electrónica: Es un proceso de desintegración que ocurre en un átomo cuando el núcleo con exceso de protones, captura un electrón de los orbitales próximos a él (normalmente de la capa más interna). A consecuencia de esto, un protón se transforma en un neutrón y se emite un neutrino dando lugar a una transmutación. Es un proceso alternativo a la desintegración beta positiva. Puede ser incluso el único posible cuando la energía disponible para la emisión radiactiva es inferior a los 1,022 MeV requeridos para materializar el positrón. La vacante electrónica debida a la captura del electrón puede ser ocupada por algún electrón de un nivel de energía externo. Esta reacomodación de electrones resulta en un exceso de energía que puede ser liberada por la emisión de un fotón (rayos X). ○ Desintegración gamma (𝛾): Este tipo de radiación consiste en la emisión de fotones (radiación electromagnética) de longitud de onda asociada corta y con un gran poder de penetración en la materia. En este tipo de desintegración el núcleo no pierde su identidad sino que se desprende de la energía en exceso y pasa a otro estado de menor energía emitiendo fotones muy energéticos llamados rayos gamma. El elemento emisor no varía su Número Másico (A) ni su Número Atómico (Z) pero pierde una determinada cantidad de energía. * Indica un estado excitado del nucleído. El Qγ es igual a la energía del fotón emitido (E=hν) ● Decaimiento radiactivo: El decaimiento radiactivo es un proceso espontáneo en el cual la cantidad inicial de átomos disminuye con el tiempo (ya que se transforman por desintegración). El resultado es la emisión de radiación y la aparición de un nuevo núcleo, así como la liberación de la correspondiente energía de decaimiento. La periodicidad de este tipo de procesos es característica para cada isótopo de cada elemento. donde: ● N(t) es el número de radionucleidos existentes en un instante de tiempo t. ● N0 es el número de radionucleidos existentes en el instante inicial t=0. ● λ es la constante de desintegración radiactiva. Un parámetro muy importante en el ámbito de los estudios con elementos radiactivos es la actividad (A), que es el número de núcleos que desintegran en la unidad de tiempo. Es decir, es la velocidad de desintegración. La actividad depende del número de núcleos presentes (N) en la fuente y de la constante de desintegración (λ). Teniendo en cuenta las últimas dos expresiones matemáticas presentadas, podemos decir también que: Para linealizar esta ecuación exponencial, basta con aplicar logaritmo natural a ambos lados de la igualdad: Otro parámetro útil es el período de semidesintegración (T½), que es el tiempo necesario para que el número de núcleos radiactivos presentes en una muestra se reduzca a la mitad. 3. Mecánica clásica vs Mecánica cuántica. La física clásica puede estudiar partículas y ondas como fenómenos diferentes. Las partículas son objetos con masa (considerados puntuales) cuyo comportamiento es descripto por la mecánica newtoniana. Las ondas son propagaciones de alguna perturbación en el espacio, sufren los fenómenos conocidos como difracción e interferencia. Fue la luz el fenómeno que puso en crisis la separación conceptual entre partículas y ondas. Para la Mecánica Clásica: ● El tiempo y el espacio son absolutos ● Se puede determinar la posición y la velocidad de los cuerpos. ● Energía de movimiento explicada por el modelo de partículas impenetrables o por el modelo de ondas (mutuamente excluyentes). El comienzo de la Mecánica Cuántica surge en el intento de explicar resultados experimentales que parecían ser incompatibles con la Mecánica Clásica. Estos son algunos fenómenos que la Mecánica Clásica no pudo explicar y que dieron lugar al desarrollo de la Mecánica Cuántica: ● La radiación del cuerpo negro: La materia caliente en estado condensado (sólido o líquido) emite radiación de diferentes energías en forma continua. Una superficie que sea capaz de absorber energía de todas las longitudes de onda posibles de la radiación electromagnética se asume que es también un muy buen emisor de cualquier energía posible. A este tipo de superficie ideal se la llama cuerpo negro. La intensidad de radiación emitida NO es uniforme para todas las longitudes de onda, y además el espectro de intensidad irradiada para diferente longitudes de onda cambia con la temperatura: a mayores temperaturas la energía total irradiada es mayor, pero además el pico máximo se mueve hacia longitudes de onda (𝛾) menores. Los resultados que predecía la ley de Rayleigh-Jeans concordaba bastante con los resultados experimentales a longitudes de onda grandes. Pero la curva empírica demuestra que a longitudes de onda pequeñas la intensidad tiende a cero, mientras que con esta ley basada en la Mecánica Clásica se predecían valores que tendían a infinito. A este resultado se lo conoce como “Catástrofe Ultravioleta”. Max Planck dedujo una función empírica que concuerda muy bien con los resultados experimentales, tanto a pequeñas como a grandes longitudes de onda. Además, planteó la existencia de osciladores en la superficie del cuerpo negro, asociados a las cargas de las moléculas. Luego, asumió que: ○ La energía está cuantizada: las radiaciones producidas por los osciladores que vibran a una frecuencia dada pueden tener sólo ciertos valores de energía, proporcionales a la frecuencia. ○ Los osciladores emiten o absorben energía en cantidades discretas (cuantos) y lo hacen cuando cambia su estado cuántico. ● El efecto fotoeléctrico: El fenómeno es la emisión de electrones que ocurre cuando sobre un material dado incide una radiación electromagnética. Se observaba que se generaba una corriente eléctrica entre dos esferas cargadas eléctricamente si la superficie de una de ellas se iluminaba con una luz determinada. Se planteó que la corriente generada se debía a que la energía de esta luz arrancaba electrones del material iluminado. Los resultados hallados en los experimentosmostraban que: ○ Los electrones se emitían inmediatamente. ○ El aumento de la intensidad de la luz provocaba un aumento en el número de electrones, pero no de su energía cinética máxima. ○ La luz roja no lograba generar corriente, no arrancar electrones, no importa cuán alta fuera su intensidad. ○ Una luz muy poco intensa de luz violeta lograba arrancar electrones, que si bien eran pocos, presentaban muy alta energía cinética. De acuerdo a esta teoría, la luz más intensa debía tener más energía, y por lo tanto generar más corriente independientemente de su color. Einstein postuló que la luz estaría compuesta por paquetes energéticos, llamados fotones. El fotón sería la entidad que Planck llamó cuanto desde un planteo matemático y teórico pero sin confiar en que algo así pudiera darse en la naturaleza. La energía del fotón depende de la frecuencia (a mayor frecuencia, mayor energía y menor longitud de onda). ● Los espectros de líneas de los gases: Si la luz emitida por sólidos o líquidos calientes atraviesa un prisma es descompuesta en luces de diferentes colores formando un espectro continuo. Pero cuando este tipo de ensayos se realizó con gases se vio que el espectro resultante no es continuo, sólo aparecen algunos colores en forma de líneas discretas formando lo que se conoce como espectro de línea. Las líneas espectrales fueron interpretadas como transiciones electrónicas entre diferentes estados energéticos en el átomo. Pero esta interpretación presentaba un problema a la física clásica ya que si en el átomo había diferentes niveles energéticos en los que se encontraban los electrones, estos, al estar girando alrededor del núcleo deberían irradiar energía (las cargas aceleradas irradian energía electromagnética) y por lo tanto deberían perderla quedando inestables hasta caer en forma de espiral al núcleo. Es decir, no hay un modelo clásico que pudiera explicar la estabilidad de los electrones en órbitas y dar cuenta de los espectros de líneas. Fue el físico Niels Bohr, aprovechando el concepto de fotón y de niveles de energía, hizo una propuesta explicativa novedosa hoy conocida como “el átomo de Bohr”. Postuló que: ○ El electrón se movería alrededor del núcleo en órbitas circulares sin emitir radiación. ○ Cada órbita estable tendría una energía definida ○ Un átomo sólo irradiaría energía, en forma de fotón, cuando un electrón se mueva de una órbita a otra ○ El momento angular del electrón (L) estaría cuantizado y sería múltiplo entero de h/2π , siendo L = mvr = nh/2π donde n puede ser 1, 2, 3, … correspondiendo cada n a un valor de radio permitido (luego se llamaría a este n, número cuántico principal). Cuando un átomo pasa de un nivel de energía a otro, emite un fotón cuya energía es igual a la diferencia de energía de los niveles energéticos inicial y final. Desde esta nueva concepción se puede considerar que: http://www.nobelprize.org/nobel_prizes/physics/laureates/1922/bohr-bio.html ○ El espectro de líneas de un elemento es el resultado de la emisión de fotones con energía específica (esto es frecuencia determinada y color determinado si se da la energía en el espectro visible) ○ La emisión de este fotón se da cuando la energía interna del átomo cambia una cantidad igual a la energía de ese fotón ○ Si esto es así, cada átomo podría existir teniendo solo un conjunto definido de valores de energía interna posibles, y estos niveles energéticos posibles son propios de cada átomo. Nuevo modelo atómico: La mecánica cuántica deja un nuevo modelo de átomo, en el que no hay lugares certeros donde se pueda encontrar un electrón. Este modelo plantea la existencia de orbitales atómicos, es decir, los estados físicos estacionarios no representan la posición concreta de un electrón en un lugar dado del espacio, sino que representan una región del espacio en torno a núcleo atómico en la que la probabilidad de encontrar al electrón es elevada. ● Las propiedades ondulatorias de algunas partículas: Se observó que átomos o electrones que eran asumidos como partículas (esto implica que son localizables en regiones concretas del espacio), podían exhibir, en algunas condiciones experimentales, un comportamiento ondulatorio (esto es que eran capaces de generar patrones interferencia). ○ Doble rendija: En este experimento se hizo incidir un haz de electrones sobre una pantalla a través de una doble rendija. Sobre la pantalla se observó un patrón de interferencia. La teoría clásica no predice la formación de un patrón de interferencia sino que de acuerdo con ella se esperaría que los electrones, asumidos como partículas (localizables en regiones concretas del espacio), impacten en la pantalla en dos zonas definidas por la ubicación de las rendijas que atraviesan. De estos resultados complejos y aparentemente contradictorios surge lo que se llamó dualidad onda-partícula. Dado que desde la mecánica cuántica se postula que la luz está compuesta por fotones cuyo comportamiento está determinado por propiedades de propagación de ondas asociadas, De Broglie, analógicamente, analizó la posibilidad de que una partícula cualquiera tuviera asociada una onda. Si una partícula actúa como una onda, debe poder asociarse a esta partícula una frecuencia y una longitud de onda determinada. De Broglie planteó entonces que una partícula con masa en reposo m, moviéndose a velocidad v, debe tener una longitud de onda asociada λ en relación a su cantidad de movimiento p = mv. La interpretación de Copenhagen: Los sistemas físicos no tiene propiedades definidas, antes de ser medidos, así la mecánica cuántica sólo predice probabilidades de que una medición pueda producir un determinado resultado. La medición misma afecta el sistema causando que el conjunto de probabilidades se reduzca a uno de los tantos valores posibles. A esta particularidad se la conoce como “colapso de la función de onda”. Así el llamado Principio de Incertidumbre de Heisenberg señala que la posición y momento de una partícula no pueden ser simultáneamente medidas con precisión, hay un mínimo para el producto de las incertezas de estos parámetros. Lo mismo ocurre para el producto de las incertezas en energía y tiempo. O sea, mientras mas conozco su posición menos conozco su velocidad y viceversa. ● Función de onda cuántica: Cada partícula está representada en la mecánica cuántica por una función de onda 𝛙 (posición y tiempo), siendo 𝛙*𝛙 una medida de la probabilidad de encontrar a la partícula en una dada posición en un determinado tiempo. La función de onda es continua, y representa toda la información medible de la partícula. Esta función de onda es parte de la Ecuación de Schrödinger que permite cálculos energéticos de la partícula. Esta ecuación cumple, en la Mecánica Cuántica, el lugar conceptual que cumplen las Leyes de Newton y el principio de conservación de la energía en la Mecánica Clásica: predice el comportamiento de un sistema cuántico. Los números cuánticos que caracterizan a los elementos de la tabla periódica surgen al resolver la ecuación de Schrödinger aplicando restricciones o condiciones de contorno adecuadas para cada situación física. Para la Mecánica Cuántica: ● El tiempo y el espacio no son absolutos ● No se puede determinar la posición y la velocidad de los cuerpos ● La energía de movimiento se explica bajo el modelo de partículas impenetrables ó por el modelo de ondas siendo indistinguibles ambos procesos. 4. Introducción a la Metrología. La medición es un proceso que consiste en obtener experimentalmente uno o varios valores que pueden atribuirse “razonablemente” a una magnitud. Ante la necesidad de realizar la medida de una magnitud, elegiremos un instrumento que creemos que será adecuado para la determinación deseada. En este proceso de medición intervendrán tres elementos: ● El mensurando (objeto a medir) ●El instrumento ● El operador El resultado de esa interacción será el valor de la medida de la magnitud o propiedad que queremos obtener. Lo que debe quedar claro es que la medida de una cantidad de magnitud, es el resultado de un proceso que ocurre llamado medición y no una propiedad o atributo del cuerpo. Debemos aceptar entonces que si se repite el proceso, el número podrá ser diferente ya que en su determinación influyen infinidad de parámetros. Todo proceso de medición conlleva una serie de errores experimentales y siempre habrá una incertidumbre en la determinación del valor de la magnitud medida. Todo valor medido debe ser expresado de la siguiente manera: X ± ΔX Siendo: X el valor de la magnitud ΔX un valor que expresa la calidad de la medida. Las Medidas únicas son aquellas en las que se obtiene un sólo resultado como producto de la medición de alguna magnitud. Aquellas mediciones que conllevan a obtener varios resultados (del mismo mensurando) se denominan Medidas Múltiples. ● Medidas Directas: El valor de la magnitud a medir resulta de una única interacción, mediada por el operador, entre el mensurando y el instrumento debidamente calibrado. ● Medidas Indirectas: El valor de la magnitud a determinar resulta de operaciones matemáticas que involucran uno o más valores de magnitudes que se miden directamente. Límite de detección: Mínima cantidad de magnitud que es necesaria para registrar una lectura con un sistema de medida. Ejemplo, en una balanza es la mínima cantidad de masa para que ésta registre una lectura distinta de cero. Sensibilidad: Cuanto menor sea la cantidad de magnitud que discrimina un sistema de medida decimos que dicho sistema es más sensible. Apreciación o aproximación: Mínima cantidad de magnitud que es capaz de asignar un método de medida (mínima cantidad que se aprecia con el instrumento). A mayor sensibilidad, menor será el error de apreciación. Calibración: La calibración establece que cantidad de magnitud corresponde a la unidad de lectura de un instrumento de medida. Por ello se realiza con un material cuyo valor de magnitud sea conocido. ● Patrón: Es el que define la unidad de una magnitud. Tiene un valor determinado de magnitud y una incertidumbre asociada. Un patrón debe ser “inalterable” y reproducible a través del tiempo. ● Material de referencia: Es un material o sustancia que tiene un comportamiento conocido respecto de la magnitud a medir y lleva una incertidumbre asociada mayor que el patrón. Permite la calibración de un instrumento o sistema de medición. Incertidumbre: La incertidumbre es un parámetro asociado al resultado de una medición que caracteriza al rango de valores que podrían ser razonablemente asignados a un mensurando. Es un intervalo, que representa una estimación adecuada de una zona de valores entre los cuales se supone que se encuentra el valor verdadero del mensurando. El valor de la incertidumbre es el primer índice de la calidad de una medida (cuanto menor sea la incertidumbre de la medida, esta tendrá mejor calidad). Errores en la mediciones: ● El “valor verdadero” de una medida es algo abstracto e imposible de medir y conocer ● Se denomina Error a la diferencia entre el valor verdadero y el valor obtenido ● Para una medida única debe informarse el resultado y será acompañado por su error como “un indicador de calidad” de la medida. ○ Error absoluto: Es la diferencia entre el valor medido y el valor verdadero de la magnitud medida. Ya que no conocemos el valor verdadero no podemos calcular el error absoluto. El Ea se “estima” mediante la sensibilidad, franja de indeterminación o error de apreciación del instrumento de medida (posee unidades). ■ En el caso de las medidas directas, el estimador del error absoluto es el error de apreciación. Para esta estimación se utiliza el máximo error de apreciación posible para el instrumento como indicador de la calidad (ΔX). ■ En el caso particular de una medida indirecta donde ésta proviene de sumas y/o restas exclusivamente dicho indicador de calidad, se calculará como la suma de los errores absolutos de todas las medidas directas involucradas. ■ En el caso particular de una medida indirecta donde ésta proviene de multiplicaciones y/o divisiones exclusivamente que el error relativo de la medida indirecta, se calculará como la suma de los errores relativos de todas las medidas directas involucradas. Luego, a partir del relativo se podrá calcular el error absoluto. ○ Error relativo: Es la diferencia entre el valor medido y el valor verdadero de la medida relacionado con el valor verdadero. Como el valor verdadero no lo conocemos y asumimos que la diferencia con el valor experimental es pequeña, se lo calcula como (no posee unidades): Cargando… Al multiplicarlo por 100 obtenemos el Er porcentual (%). Este método varía en función del valor del mensurando y permite comparar métodos para medir un mismo mensurando. Luego de los resultados obtenidos, podemos deducir que los errores relativos dependen tanto del valor del mensurando como de la apreciación del instrumento utilizado. Esto deberá tenerse presente al momento de elegir el instrumento. Teniendo en cuenta los errores relativos, el receptor de la información decidirá, según sus exigencias, cuál es el método o instrumento que se adecua a sus necesidades. ○ Error sistemático: Es un corrimiento constante en una franja de indeterminación siempre en la misma dirección y sentido. Se puede conocer. Una vez determinado se emplean para corregir el valor obtenido en una medición. Hay tres tipos: Instrumental (error de cero en una balanza), personal (error de paralaje, criterio de enrase) y del método (incorporar un tester a un circuito). ○ Error aleatorio o casual: Es el error que aparece de manera aleatoria. Su valor puede estimarse mediante la estadística. Puede reducirse pero no anularse. Está en todas las metodologías, pero por la sensibilidad del instrumento si este no es muy sensible puedo no notarlo pero sigue estando. ○ Error espurio o equivocación: Se hace a referencia a una acción cometida durante el proceso de medición que no se corresponde con el protocolo que se debía seguir. Errores de este tipo invalidan la medición, por lo que si estos son detectados por el operador en una medición, ese resultado debe ser descartado. Medidas múltiples: Al disponer de múltiples medidas, los valores experimentales se pueden visualizar mediante la confección de un histograma de distribución de frecuencias. Si una distribución es normal, los valores oscilan alrededor de un único valor central. Cuando el número de determinaciones es razonablemente grande, el histograma se asemeja a la curva de Gauss (continuo y discreto). ● N: Es el número de datos que conforman la muestra. ● Media Poblacional (𝜇): Es la medida de la población. Se estima con la media (Xm) de la muestra. ● Desvío Estándar de la población (𝜎): Se estima con la desviación estándar (S) de la muestra. Indica la dispersión de los datos alrededor del valor medio. El valor de la medida será expresado con la media (X) y la incertidumbre será estimada a partir del estadístico S. Entonces la expresión será: Media ± kS Donde k=2 para expresar que el valor medio se encuentra comprendido en ese valor con una probabilidad de 0,955 o una confianza del 95,5%. kS se expresa con 2 cifras significativas y el último dígito del XM debe ser del mismo orden de magnitud que la cifra menor del indicador de calidad. Exactitud: La exactitud es una propiedad de una metodología que se cumple cuando ésta es simultáneamente veraz y precisa. ● Veracidad o justeza: es el grado de concordancia entre el promedio de una serie de mediciones y el valor del mensurando. Un método se considera veraz cuando la media de un número infinito de valores medidos de un mismo mensurando se aproxima a unvalor de referencia (si bien no es posible realizar infinitas determinaciones, la definición está asociada a una buena estimación de la medida con un gran número de ellas). Está asociado al error aleatorio. ● Precisión: es el grado de concordancia entre mediciones sucesivas del mismo mensurando, es decir, la proximidad entre sí de valores medidos obtenidos en mediciones repetidas de un mismo mensurando bajo condiciones específicas como por ejemplo: el procedimiento, el operador, el sistema de medida, las condiciones de operación, el lugar físico y el momento temporal. Está asociado al error sistemático. 5. Electrostática La carga eléctrica es una propiedad de la materia, al igual que la masa, tanto una como otra modifican el espacio que las rodea. A diferencia de la interacción gravitatoria que se da en un solo sentido (atracción), la interacción eléctrica se puede dar en dos sentidos, atracción y repulsión. Esto significa que dos trozos de materia se comportarán distinto uno respecto del otro dependiendo de la carga que presente cada uno de ellos. En el caso de la interacción eléctrica, la atracción se dará entre dos cuerpos con carga opuesta y lo contrario (repulsión) sucederá para cuerpos con carga del mismo signo. Por convención el protón posee carga positiva, mientras que el electrón tiene carga negativa quedando así constituidos los signos de las cargas. Con lo cual, dos cargas del mismo tipo, ambas positivas o ambas negativas, se repelen entre sí mientras que una carga positiva y una negativa se atraen. Actualmente sabemos que estas cargas pueden estar relacionadas con partículas conocidas más elementales, el protón y el neutrón son combinaciones de quarks que tienen cargas equivalentes a 1/3 y 2/3 (positivas o negativas) de la carga del electrón. Los estudios sobre las interacciones entre cargas eléctricas llevan implícitos dos principios muy importantes: el principio de conservación de la carga (la suma algebraica de todas las cargas eléctricas de cualquier sistema cerrado es constante) y el de la unidad de carga (la magnitud de la carga del electrón o del protón es una unidad natural de carga). Toda cantidad observable de carga eléctrica es siempre un múltiplo entero de esta unidad básica, por lo que se dice que la carga está cuantizada. Ley de Coulomb: Da cuenta de la fuerza electrostática que puede darse al menos entre dos cargas puntuales. La magnitud de cada una de las fuerzas eléctricas con que interactúan dos cargas puntuales es directamente proporcional al producto de las cargas e inversamente proporcional al cuadrado de la distancia a que las separa. La dirección de las fuerzas que las dos cargas ejercen una sobre la otra sigue la línea que las une. Si las cargas tienen igual signo, las fuerzas son de repulsión (A), mientras que, si las cargas tienen diferente signo, las fuerzas son de atracción (B). La ley de Coulomb describe sólo la interacción de cargas puntuales. Cuando dos cargas ejercen fuerzas simultáneamente sobre una tercera carga, la fuerza total que actúa sobre esa carga es la suma vectorial de las fuerzas que las dos cargas ejercerían individualmente, esta propiedad se conoce como principio de superposición de fuerzas. Ejemplo: Campo: Es el espacio modificado por algo, donde algo es aquello que genera una perturbación en el espacio y el tiempo, ya sea una carga, una masa, una temperatura, etc. En función de la perturbación, podemos hallar campos escalares y campos vectoriales. Una función que describe el comportamiento de magnitudes que se definen en todo su punto de una región del espacio. ● La dirección de la línea de campo en cada punto del espacio es tangente al campo en dicho punto. ● Las líneas de campo jamás se cruzan, si lo hicieran significa que en un punto del espacio habría dos direcciones para el campo. Campo eléctrico: Es el espacio modificado por la presencia de cargas, es un campo que existe y que actúa. Una carga eléctrica produce o causa un campo eléctrico, este campo tiene determinada magnitud en un punto dado del espacio, y si en ese punto se coloca alguna otra carga eléctrica puntual, ésta sentirá el campo generado por la carga anterior, o sea, el campo ejerce fuerza neta sobre la segunda carga. Para averiguar si existe un campo eléctrico en un punto del espacio se utiliza la llamada carga de prueba (pequeña y positiva: tan pequeña que el campo que ella puede generar es despreciable frente al campo a testear, y positiva por convención). Si una carga de prueba experimenta una fuerza eléctrica en algún lugar del espacio, entonces allí existe un campo. El campo, al igual que la fuerza eléctrica, es una magnitud vectorial. La intensidad de campo en un punto se define como el cociente entre la fuerza que experimenta una carga de prueba en ese punto del espacio y el valor de dicha carga de prueba. Es decir, la intensidad de campo eléctrico es la fuerza eléctrica por unidad de carga. También se puede decir que la fuerza eléctrica que siente una carga se puede calcular como F = q.E. Si la carga es positiva, la fuerza que la carga experimenta tiene el mismo sentido que el campo, si la carga es negativa la fuerza y el campo tiene sentidos opuestos. La carga positiva es una fuente de campo (los vectores campo eléctrico salen de ella), mientras que la carga negativa es un sumidero de campo (los vectores campo eléctrico llegan a ella). Propiedades del campo eléctrico: ● Simetría: Para cada punto por encima de una o más cargas habrá un punto equivalente por debajo, es decir la simetría se da desde la línea que une las cargas. ● Campo cercano: Muy cerca de una carga, el campo que prevalece es el que genera dicha carga, es decir, las líneas son radiales y esféricamente simétricas. ● Campo lejano: Muy lejos del sistema de cargas, el patrón debe parecerse al de una carga puntual de valor igual a la suma de las cargas del sistema, es decir, las líneas serán radiales a menos que la sumatoria de las cargas sea cero. ● Punto nulo: Por este punto, en el que el valor del campo es cero, no deben pasar líneas de campo (campo nulo). Líneas de campo eléctrico o líneas de fuerza: ● Una línea de campo eléctrico es una recta o curva imaginaria trazada de manera tal que siempre sea tangente a la dirección del vector campo eléctrico en cada punto, para cada punto está definido un sentido y dirección. ● Las líneas de campo jamás se cruzan, si lo hicieran, esto implicaría que en un punto del espacio habría dos direcciones para el campo. ● El número de líneas por unidad de área es proporcional a la magnitud del campo eléctrico en una dada región. ● Las líneas de campo deben comenzar en una carga positiva (o en el infinito) y terminar en una carga negativa (o en el infinito). ● El número de líneas que se originan en una carga positiva o terminan en una carga negativa debe ser proporcional a la magnitud de la carga. Dipolos eléctricos: Un dipolo es un arreglo de dos cargas puntuales de igual magnitud y signo opuesto separadas una determinada distancia. El arreglo como un todo es electricamente neutro, su distribucion de cargas lo hace comportar como un dipolo. La fuerza entre ambas cargas es muy grande. cuando se las somete a un campo eléctrico se mantienen unidas. Los dipolos, por poseer cargas, son capaces de generar un campo eléctrico. A la magnitud utilizada para caracterizar dipolos se la conoce como momento dipolar eléctrico (p), y se calcula como el producto de la carga q por la separación d, tal que: El momento dipolar es una cantidad vectorial cuya dirección sigue el eje del dipolo desde la carga negativa hacia la positiva. Si sobre las cargas del dipolo aparecen dos fuerzas iguales en magnitud pero de sentidos contrarios, de modo tal que la fuerza neta resulta nula, esto implica que el dipolo no se desplaza enel campo externo. Sin embargo, las fuerzas aparecidas no se encuentran actuando sobre la misma recta, por lo que se genera sobre el dipolo un torque o par de fuerzas (tendencia de una fuerza a rotar un objeto sobre su eje). Este torque puede calcularse como el producto vectorial entre la fuerza eléctrica y la distancia que separa a las cargas. Pero resulta más conveniente evaluarlo como el producto vectorial entre el momento dipolar (que caracteriza al dipolo) y el campo al cual está sometido. Momento de torsión: Este momento de torsión es máximo cuando el momento dipolar y el campo eléctrico son perpendiculares, y es cero si son paralelos (o antiparalelos). Este momento de torsión, por supuesto tiene a hacer girar al dipolo para “alinearlo” con el campo eléctrico. Conductores y Dieléctricos ● Conductores: Aquellos materiales que permiten que cargas eléctricas se muevan. El campo eléctrico de un conductor, en una situación electrostática, siempre es cero. es decir las cargas tienen movimiento neto cero, por lo tanto el campo eléctrico en todos los puntos dentro del conductor es cero. ● Dieléctricos: Aquellos materiales que no permiten el movimiento de carga eléctrica con facilidad. ○ Polar: Es una polarización que se da particularmente en moléculas polares y tiene lugar en materiales que presentan dipolos permanentes (aún en ausencia de campo eléctrico externo son dipolos). Cuando estos materiales están en presencia de un campo eléctrico externo, el dipolo se mantiene pero se reorienta (torque). ○ No Polar: Es una polarización causada por la polarización transitoria. Al no estar sometidos a un campo eléctrico no se presentan como dipolos, pero si se presenta un campo eléctrico ocurre una polarización inducida por este. El campo generado por estos dipolos (permanentes o inducidos) es opuesto al campo externo. Como consecuencia, el campo neto de debilita. Flujo eléctrico Se denomina flujo eléctrico al campo eléctrico que “pasa a través” de un área determinada. El flujo eléctrico puede interpretarse matemáticamente como el producto escalar entre el vector área (siempre perpendicular a la superficie considerada) y el vector campo eléctrico que representa al campo que “atraviesa” dicha superficie. Superficie cerrada donde ΔS representa una porción de área “atravesada” por el campo eléctrico E. Dado que es un producto escalar, el flujo será mínimo (cero) cuando el vector área y el vector campo eléctrico sean perpendiculares y máximo cuando dichos vectores sean paralelos. En cualquier otro caso, el flujo variará en función del ángulo entre ambos vectores. El flujo eléctrico total a través de cualquier superficie cerrada que encierra una carga, es proporcional a la carga eléctrica total encerrada por dicha superficie. Sin importar la forma de esta superficie, sin duda estará “atravesada” por el campo eléctrico. Así, se la puede dividir en infinitas pequeñas áreas y por cada unidad de área se puede calcular el flujo correspondiente. Este flujo será entrante si la superficie encierra una carga negativa y será saliente si, en cambio, encierra una carga positiva. Luego, integrando (hablamos de una integral de superficie) se podrá conocer el flujo neto total. Al ser esta superficie una superficie cerrada es de esperar que el flujo total en toda la superficie sea directamente proporcional a la carga encerrada e independientemente del tamaño de la superficie que encierra dicha carga, ya que todo el campo que esta carga genere (sea entrante o saliente) debe “atravesar” la superficie sin importar el tamaño de la misma. Esto es lo que se conoce como Ley de Gauss. Donde Q es la carga encerrada. Esta ecuación habla de flujo eléctrico pero a través de una superficie “gaussiana”, esto es una superficie cerrada. Superficie gaussiana: una delgada esfera con carga en su superficie distribuidas de manera homogénea. Se puede demostrar que la ley de Gauss es totalmente equivalente a la ley de Coulomb, solo expresa de modo diferente la relación entre carga eléctrica y campo eléctrico. Energía potencial eléctrica La energía potencial es entendida como la capacidad de un sistema de hacer trabajo proveniente de su configuración espacial (con configuración espacial nos referimos a todos los elementos con masa o con carga según el caso) que dispuestos en el espacio den como resultado el campo que se ejerce sobre el objeto que estemos analizando. Si dejamos una carga en un campo eléctrico, la carga se mueve porque el campo hace trabajo sobre ella. Este trabajo, por provenir de una fuerza conservativa, se puede expresar en términos de energía potencial eléctrica, y esta energía dependerá de la posición de la carga en el campo eléctrico, es decir, cuando la carga está colocada en un determinado punto en el campo eléctrico, tiene energía potencial eléctrica que podrá ser utilizada para moverse. Cuando lo haga la carga pasará de un estado de una determinada energía eléctrica a un estado con menor energía potencial eléctrica, ya que el movimiento es espontáneo y por acción del campo eléctrico que ha ejercido sobre ella una fuerza (conservativa). El trabajo realizado por el campo es igual a la disminución de energía potencial: El trabajo se expresa como el negativo del cambio de energía potencial ya que, como se ha dicho antes, el campo hace un trabajo sobre la carga determinando su movimiento y de esta manera disminuye su energía potencial, con lo cual si evaluamos la diferencia entre la energía potencial final respecto de la inicial obtendremos una clara disminución y la diferencia será negativa. Se puede definir a la energía potencial eléctrica como el trabajo realizado por el campo eléctrico sobre una carga que se mueve en dicho campo. Si la carga se mueve desde a hasta b, el trabajo que el campo realiza sobre ella es Ua-Ub. Si Ua es mayor que Ub, el campo realiza trabajo positivo sobre la carga cuando esta “cae” de un punto de mayor energía potencial (a) a uno de menor energía potencial (b). Ahora bien, esta misma situación puede ser evaluada desde otro punto de vista. Es decir, se puede considerar cuánto trabajo se tendría que hacer para “subir” una carga desde b hasta a (un ejemplo de esto podría ser el acercar dos cargas positivas a pesar de la repulsión). Para mover la partícula con carga habrá que ejercer una fuerza externa igual y opuesta a la fuerza del campo eléctrico y realizar trabajo positivo. Entonces, podemos también definir a la energía potencial, Ua-Ub, como el trabajo que debe realizar una fuerza externa para mover una carga desde b hasta a contra la fuerza eléctrica. Como la fuerza externa es siempre contraria a la fuerza eléctrica y el desplazamiento también ocurre en la dirección contraria, la definición de energía potencial eléctrica es equivalente en ambos casos. Potencial electrico: El potencial eléctrico representa la cantidad de trabajo por unidad de carga necesario para mover dicha carga de un punto a otro, es decir es energía potencial eléctrica por unidad de carga: Para un par de cargas: ●Si la fuerza entre las cargas es repulsiva (las cargas tienen igual signo), el trabajo externo necesario para sobrepasar la repulsión electrostática y la energía interna del sistema son positivos ●Si la fuerza entre las cargas es atractiva, el trabajo externo es negativo. ●Si q es +, el potencial es + ●Si q es -, el potencial es - ●En el infinito y donde el campo sea cero, el potencial es cero. Superficies equipotenciales: Una superficieequipotencial es una superficie tridimensional en la que el potencial eléctrico no varía. Esto es, si se mueve una carga de prueba muy lentamente de un punto a otro de una superficie equipotencial, la energía potencial eléctrica no cambia, esto es, el campo eléctrico no realiza trabajo. El vector campo eléctrico es siempre perpendicular a la superficie equipotencial, de modo tal que la fuerza eléctrica sea perpendicular al desplazamiento. Puntos de campo cero significan que si allí se encuentra una carga esta no sentirá fuerza alguna y por lo tanto no se moverá. Sin embargo que el campo sea cero no implica que no se haya realizado trabajo para llevar la carga hasta allí, con lo cual el potencial no tiene por qué ser cero. Y al revés, zonas de potencial cero implican que no se ha hecho trabajo para colocar una carga en dicho lugar (por ejemplo zonas intermedias entre cargas positivas y negativas de igual magnitud), sin embargo, el campo en estas zonas puede ser importante, esto es, una carga ubicada en este lugar claramente se moverá. Por convención: ● El potencial cercano a una carga generadora positiva es positivo y el potencial cercano a una carga generadora negativa, es negativo. ● Una carga positiva irá de un lugar de mayor potencial a uno de menor potencial potencial. Una carga negativa irá de un lugar de menor potencial a uno de mayor potencial. 6. Electricidad FEM (fuente, E, Volt, F. electromotriz): diferencia de potencial cuando no circula corriente. Entrega una energía potencial o voltaje para que las cargas se muevan. ΔV= R x I Realiza trabajo sobre la carga que la atraviesa resultando en un aumento de su energía potencial. Pot. Eléctrico= (E.pot/q)/tiempo = watts Consumo ---- watts/hora = E. Potencia ---- watts = Pot. Energía potencial: Expresa la diferencia de energía que hay entre el borne - y el borne +. Resistencia: obstáculo al paso de la carga en el circuito, genera un gasto de energía. Intensidad: es una magnitud escalar, indica la cantidad de carga que circula por unidad de tiempo, teniendo una dirección y sentido. Corriente eléctrica: Flujo de cargas eléctrica que atraviesan un área transversal por unidad de tiempo. i= [Amp]= C/seg. Densidad de corriente: Corriente por unidad de área de sección transversal. volumen= área x longitud ● Si se mueve una carga, adquiere una velocidad. v= dist. / tiemp. Volumen = Vel. x Área Conductancia (G): Al circular corriente por un cuerpo, este va a ofrecer una conductancia, la cual depende de las características geométricas del cuerpo y de su conductividad (o) ● Conductividad (o): depende de forma directa con el área y de forma indirecta con la longitud. Es una constante física propia de cada material determinado , por sus propiedades atómicas y depende de la temperatura. Refleja que tan buen conductor es un material determinado. G= A/L x o R= L/A x p La conductancia es la inversa de la Resistencia: G=1/R La conductancia es la inversa a la Resistividad: o=1/p ● Resistividad (p): Es la razón de las magnitudes del campo eléctrico y la densidad de corriente. Los buenos conductores tienen poca resistividad; los buenos aislantes tienen alta resistividad. Ley de Ohm: La energía que se gaste al atravesar un obstáculo en el paso es proporcional a la I x R. E= I x R - La diferencia de potencial que aparece en los extremos del conductor es proporcional a la corriente que circula por el. La resistencia es el factor de proporcionalidad . R= V/I Leyes de Kirchhoff. ● Ley para uniones o nodos: En una unión de un circuito en donde puede dividirse la corriente, la suma de las corriente que entran al nodo debe ser igual a la suma de las corriente que salen del mismo. Es decir, la suma de las corrientes en cualquier unión es igual a cero. Σ I=0 ● Ley para mallas o espiras: La suma algebraica de las diferencias de potencial en cualquier malla o espira, incluso las asociadas a la fem y las de elemento con resistencia, debe ser igual a cero. Σ V=0 Instrumentos de medición: ● Tester: usado como AMPERÍMETRO: Permite conocer la Itotal que pasa por el mismo. Se conecta en serie a la parte del circuito donde me interesa conocer la intensidad de corriente. ● Tester: usado como VOLTÍMETRO: Permite conocer el voltaje entre los puntos donde se encuentra conectado. Se conecta en paralelo a la parte del circuito donde me interesa conocer la caída de potencial. Circuito en SERIE Circuito en PARALELO ● Req = R1 + R2 +...+ Rn ● Itotal= I1 = I2= … = In ● Δv=Δv1 + Δv2 + … + Δvn ● Req= (1/R1 + 1/R2 + … + 1/Rn)^-1 ● Itotal= I1 + I2 + … + In ● Δv= Δv1 = Δv2 = … = Δvn Capacitores: Son dispositivos diseñados para almacenar energía eléctrica. Están constituidos por dos placas, una + y otra -, separadas por vacío/aire, conectadas por sus extremos, generando un diferencia de potencial entre ellas. Su Δv=0 , hasta que se cargue y se iguale con la FEM. No circula corriente entre las placas y conducen la corriente eléctrica mientras se cargan o descargan, si se la conecta a un circuito funciona como FEM. Capacitancia (C): Es la medida de la capacidad de almacenamiento de carga eléctrica por unidad de potencial eléctrico, Cuán fácil o difícil sea de cargar un capacitor. C= Q/ |Δv| ● A mayor C, se carga más rápido con un Δv chico. ● Como también depende del área de las placas y la distancia que las separe. A mayor A, mayor C, pero a menor D, mayor C. Cuando las placas están muy próximas, el campo eléctrico entre ellas es uniforme y se considera despreciable en los bordes. ● Densidad de carga: se define como la carga por unidad de área en cada una de las placas. d= Q/A Según gauss: E x A = Q/ ε Al ser constante el campo, se puede relacionar con el potencial: |Δv|=E x d Energía Almacenada: La energía potencial eléctrica almacenada es exactamente igual a la cantidad de trabajo requerido para cargarlo, es decir, para separar las cargas opuestas en los conductores, cuanto mayor sea la cantidad de cargas separadas, mayor es el trabajo que se debe realizar y mayor será la energía almacenada. Puede considerarse que toda la energía potencial almacenada reside y es acumulada en el campo eléctrico creado a partir de las cargas almacenadas en los conductores y que se encuentra entre ellas. Se puede definir como, densidad de energía. Capacitores en circuito: En paralelo: Las cargas fluyen de una placa a la otra gracias al trabajo realizado por la batería, este flujo de carga cesa cuando el potencial acumulado por cada capacitor es igual al de la batería. La igualdad de potencial obtenido al final no implica que los capacitores tienen la misma carga. En serie: Todos los capacitores deben llegar a la misma carga Q, esto no implica que sus potenciales sean iguales. Además, la sumatoria de los potenciales de todos los capacitores deber ser igual al potencial de la pila. Dieléctricos: Es un material aislante que ubicado entre ambas placas reduce la diferencia de potencial entre ellas. Posee dos funciones: ● Resuelve el problema mecánico de mantener las dos placas físicamente separadas. ● Incrementa la capacidad de almacenamiento y por lo tanto incrementa también la energía almacenada en el capacitor. Depende del material utilizado. Hay dos tipos: ● Polares: poseen momentos dipolares permanentes. En ausencia de un campo eléctrico están orientados al azar. Serie Paralelo ➢ Qt= Q1 + Q2 + … + Qn ➢ Δv= V1 + V2 + … Vn ➢ Siendo V=Q/C Ceq= ( 1/C1 + 1/C2 + … + 1/CN)^-1 ➢ Qt= Q1 + Q2 + ...Qn ➢ Vt= V1 + V2 + … + Vn ➢ Siendo Ceq x V = C1 x V + C2 x V Ceq = C1 + C2 + … + Cn Bajo la acción de un campo eléctrico, se produce la orientación de las moléculas. Generando un campo opuesto y de menor magnitud. ● No polares: No poseen momentos dipolares permanentes. Los momentosdipolares son inducidos por el campo eléctrico aplicado, se orientan de igual manera que un dieléctrico polar, y producen el mismo efecto. En presencia de un campo se polariza. Al disminuir el campo eléctrico en donde se encuentra, disminuye el campo entre las placas y logró almacenar más cargas, es decir, al disminuir el Δv , hace que vuelva a tener más espacio para almacenar carga y volver a llevar el Δv=FEM. Campos generados por un dieléctrico: Un dieléctrico que tiene momentos dipolares eléctricos predominante en la dirección del campo eléctrico, se dice que está polarizado por el E. El efecto neto de la polarización es la creación de una carga superficial sobre las caras de las placas. Esta carga ligada al dieléctrico produce un campo opuesto a la dirección del original. Capacitores dieléctricos: 7. Electroforesis Una carga eléctrica inmersa en un campo eléctrico experimenta una fuerza de atracción o repulsión , como describe la Ley de Coulomb: En un medio donde el campo eléctrico es homogéneo, el módulo de la fuerza eléctrica que resulta sobre la carga depende tanto de la intensidad del campo eléctrico como del valor de la carga en estudio. En un primer instante, como consecuencia de la fuerza eléctrica, la partícula cargada experimenta una aceleración inicial y como resultado la misma comienza a moverse. Cuando la partícula se encuentra inmersa en un fluido (en el caso de la electroforesis, este medio corresponde al buffer de corrida) aparece sobre ella una fuerza de rozamiento, ya que el fluido en el que se mueve la partícula se opone a su movimiento. La fuerza de rozamiento es proporcional a la velocidad de la partícula, tiene igual dirección que la fuerza eléctrica pero sentido opuesto. Es así que la fuerza neta que actúa sobre la partícula será entonces la resultante entre la fuerza eléctrica y la de rozamiento, y resulta igual a la diferencia entre ambas. Esta resultante será la que determinará su migración en el medio de corrida. La fuerza de rozamiento no es constante ya que se incrementa a medida que aumenta la velocidad de la partícula, y consecuentemente disminuye progresivamente la aceleración. Llega un momento en que la fuerza de rozamiento adquiere la misma magnitud que la fuerza eléctrica. Dado que ambas fuerzas tienen igual dirección pero sentidos contrarios, la resultante sobre la partícula será igual a cero. En consecuencia, a partir de este momento, la partícula no experimentará aceleración alguna y se moverá a velocidad constante siendo esta velocidad la máxima que alcanza en el seno del fluido bajo un campo eléctrico uniforme. Dado que esta situación se alcanza a los pocos segundos, se puede asumir que la velocidad es constante durante todo el desplazamiento. Propiedades del medio. La velocidad que adquiere una partícula cargada eléctricamente cuando está sometida a un campo eléctrico depende de la partícula - carga, tamaño y forma-, de la viscosidad del medio y la intensidad del campo eléctrico aplicado. También se encuentra condicionado por la difusión natural así como también por la temperatura de trabajo. Asimismo, el pH del medio y la fuerza iónica pueden afectar la velocidad de la partícula modificando su carga neta o produciendo un apantallamiento de su carga, respectivamente. ● Movilidad electroforética La movilidad electroforética (μ) de una molécula cargada que se mueve en un campo eléctrico, se define como el cociente entre la velocidad de la misma y el campo eléctrico aplicado. Es decir, es la velocidad que adquiere la partícula por unidad de campo eléctrico aplicado. Se puede representar como: Donde q (carga) depende del pH y la fuerza iónica, mientras que el kf (coeficiente de fricción) depende del tamaño y forma de la partícula, de la viscosidad y de la temperatura. Carga: La carga se desplazará en el medio hacia el polo que posee carga opuesta como consecuencia de la fuerza de atracción eléctrica: las moléculas cargadas positivamente se desplazarán hacia el cátodo (polo negativo) y las cargadas negativamente se desplazarán hacia el ánodo (polo positivo). Los aminoácidos son anfolitos, pueden variar su carga neta y comportarse como aniones o cationes dependiendo del pH del medio en que se encuentran. El pH influye sobre la carga que adquieren los grupos ácidos y básicos presentes en las moléculas. Las moléculas biológicas suelen presentar grupos con características de ácido o de base débil. Por lo tanto, se ionizan parcialmente en solución coexistiendo en equilibrio distintas especies. El punto isoeléctrico, pI, es el pH en el cual la carga neta de la molécula es nula, es decir el pH que corresponde a movilidad electroforética (µ) igual a cero. Cuando el pH es menor al pI, su forma iónica predominante es en forma de catión (migra hacia el cátodo), cuando el pH es mayor al pI su forma iónica predominante es en forma de anión (migra hacia el ánodo), cuando el pH se iguala al pI, su forma iónica predominante es en forma de ión anfótero, es decir, no presenta movimiento. Además de esto la movilidad electroforética depende de la fuerza iónica. La fuerza iónica es una medida de las cargas en una solución, estima la actividad de los electrolitos en solución según su carga y concentración. Una mayor fuerza iónica, da cuenta de una mayor concentración de iones en la solución. En el caso de la electroforesis la presencia de electrolitos en el entorno de la partícula cargada tiende a contrarrestar la migración de la partícula en estudio, puesto que los contraiones tienden a moverse en sentido opuesto por su carga. Por ello, la velocidad que alcanza la partícula en un medio con muchos electrolitos será inferior a la que alcanzaría en un entorno con un menor número de cargas totales. Se puede pensar como un apantallamiento de la carga neta de la partícula como consecuencia de los contraiones que la rodean. Coeficiente de fricción: mide la resistencia intrínseca debida a las características de cada molécula. La influencia en la migración de la partícula está dada por la forma (mientras más pequeña la partícula, mayor migración), por el tamaño (a mayor tamaño y forma más irregular o si la proteína está desplegada, menor corrida) y por la viscosidad y temperatura. La temperatura puede afectar la velocidad con la que se desplaza la partícula de 3 diferentes formas. En primer lugar, hay que considerar que la viscosidad del buffer es una constante física que depende de la temperatura, por ende el coeficiente de fricción variará según cuál sea el valor del coeficiente de viscosidad del medio a la temperatura de trabajo (a mayor viscosidad, mayor kf, lo que disminuye la movilidad electroforética, y a menor temperatura, mayor viscosidad, mayor kf y menor movilidad electroforética). En segundo lugar, la energía cinética intrínseca de las moléculas, que determina el fenómeno de difusión, está en directa relación con la temperatura. Por último, dadas ciertas condiciones de temperatura puede evaporarse solvente del buffer lo cual altera su fuerza iónica. Por lo tanto bajo iguales condiciones de corrida (igual buffer de corrida -fuerza iónica, pH y viscosidad-, igual campo eléctrico, igual temperatura), partículas que difieran en carga, tamaño y/o forma migrarán a distinta velocidad, y por ende recorrerán distinta distancia durante un mismo período de tiempo. Este es el fenómeno físico en que se fundamenta la técnica separativa denominada electroforesis. Efecto Joule: En todo circuito eléctrico, el movimiento de cargas a través de la resistencia supone la realización de un trabajo que involucra una pérdida de energía. Esta pérdida de energía por unidad de tiempo, es la potencia disipada en la resistencia y en el caso de la electroforesis es el calor disipado en el soporte. Las corridas electroforéticas puedenrealizarse a voltaje o a intensidad constante, si se dispone de una fuente de poder que lo permita. Si durante la corrida la resistencia R del soporte se mantuviera constante, cualquiera de las dos variables experimentales que fijemos (voltaje o intensidad), la otra también se mantendrá constante y daría lo mismo fijar una u otra. Ahora bien, en la práctica esto no sucede. A medida que transcurre la corrida electroforética, la resistencia del soporte (papel o acetato de celulosa) va disminuyendo debido a que los poros del mismo se impregnan con buffer y aumenta la conductividad (recordar que conductividad y resistividad están en relación inversa). ● A voltaje constante, el aumento de la intensidad de corriente produce un aumento del calor disipado por unidad de tiempo (efecto Joule) y por lo tanto habrá mayor evaporación de solvente; en consecuencia aumentará la fuerza iónica y a causa de esto disminuirá la movilidad. La distancia recorrida será menor. ● Si trabajamos en condiciones de intensidad constante, la disminución de la resistencia, traerá como consecuencia una disminución del voltaje. En estas condiciones, en consecuencia, el calor disipado por efecto Joule es menor. Para obtener una mayor distancia recorrida por la sustancia (probablemente ello sea necesario en ciertas condiciones) deberíamos incrementar el tiempo de la corrida. Sin embargo, esto no es beneficioso porque trae aparejado un incremento de la difusión natural de las sustancias y por ende, una pérdida de resolución. Flujo electroendosmótico: En algunos soportes (por ejemplo: el papel) poseen en su composición grupos químicos que pueden presentar propiedades ácidas o básicas. Los mismos pueden hallarse ionizados en determinadas condiciones de pH adquiriendo carga. Se produce, entonces, un efecto de polarización de las cargas del buffer que está en contacto con el soporte. Por ejemplo, en el caso del papel los grupos carboxilos a pH cercanos o mayores a su pKa estarán ionizados (en forma de carboxilatos) por lo que presentan una carga neta negativa. Los contraiones positivos que neutralizan dichas cargas estarán libres de moverse junto con el buffer por lo que el buffer en contacto directo con el soporte presentará una carga neta positiva debido a la polarización de la solución. Cuando se aplica una diferencia de potencial al sistema, los iones positivos se mueven hacia el cátodo arrastrando consigo su esfera de solvatación. Por ende existe un flujo neto de la solución que se transmite a todas las moléculas arrastrándolas hacia el cátodo. En consecuencia la migración de cualquier sustancia presente en el soporte se verá arrastrada hacia el cátodo independientemente de cuál sea su carga. 8. Magnetismo Un campo magnético puede definirse como la forma en que se modifica el espacio por la presencia de un cuerpo con propiedades magnéticas. Es decir, describe la dirección e intensidad de la fuerza magnética que sentirá un cuerpo con propiedades magnéticas en cada punto del espacio. Características: ● La dirección del vector campo magnético en un punto es tangente a las líneas de campo. ● El número de líneas por unidad de área es proporcional a la magnitud del campo magnético en una dada región. ● Las líneas de campo no se cruzan. ● Las líneas de campo siempre se cierran sobre sí mismas. Magnitud: Para definir la magnitud del campo magnético en un punto, hay que considerar una carga de prueba (partícula pequeña con carga positiva) en movimiento, que se desplaza a una velocidad V. Dirección y sentido: En cualquier posición, la dirección de B se define como aquella en la que tiende a apuntar el polo norte de la aguja de una brújula. Fuerza magnética sobre cargas en movimiento: ● Es proporcional a la magnitud de la carga afectada. ● Es proporcional a la magnitud del campo magnético. ● Es proporcional a la velocidad de la partícula. ● La fuerza que ejerce el campo magnético tiene una dirección perpendicular a la dirección de la velocidad de la carga y del campo magnético (área formado entre estos dos). Movimiento de partículas cargadas en un campo magnético Conductor: La fuerza magnética total sobre el conductor es igual a la suma de las fuerzas magnéticas individuales sobre las cargas en movimiento. Materiales magnéticos: ● Ferromagnetismo: Presentan un alineamiento mayor y más fuerte que el resto de los materiales magnéticos. Pueden permanecer alineados sin campo magnético externo. Quedan magnetizados. Son los imanes permanentes. ● Paramagnetismo: Materiales con momento dipolar magnético permanente que nunca se alinean espontáneamente. En ausencia de un campo magnético externo, están ubicados al azar. Al aplicarse un campo magnético los dipolosCargando… experimentan un torque que tiene a alinear μ con , produciendo unaCargando… magnetización paralela a .Cargando… ● Diamagnetismo: Materiales sin momento dipolar magnético permanente. Al aplicarse un campo magnético se inducen momentos dipolares magnéticos en losCargando… átomos o moléculas. Sin embargo, los dipolos magnéticos inducidos se oponen a .Cargando… Ley de Ampere: El campo magnético en el espacio alrededor de una corriente eléctrica, es proporcional a la corriente eléctrica que constituye su fuente (de la misma forma que el campo eléctrico en el espacio alrededor de una carga, es proporcional a esa carga que constituye una fuente). Sea cual fuere el área que uno elija, el campo magnético sólo dependerá de la intensidad de corriente que la atraviesa. La integral de línea de un campo magnético alrededor de un loop cerrado cualquiera es igual al producto del flujo de carga transportada por la superficie unida por el camino cerrado. 9. Electromagnetismo El electromagnetismo es un único fenómeno. Originalmente electricidad y magnetismo fueron pensados como fuerzas separadas e independientes, pero esta visión ha cambiado. Hay cuatro efectos resultantes de las interacciones eléctricas y magnéticas, estos pueden resumirse como: ● Las cargas eléctricas se atraen o repelen unas a otras con una fuerza proporcional al cuadrado de la distancia entre ellas. ● Los polos magnéticos se atraen o se repelen unos a otros de manera similar y siempre ocurren de a pares norte-sur. ● Una corriente eléctrica en un cable crea un campo magnético circular alrededor de dicho cable cuya dirección depende de la dirección de la corriente. ● Una corriente es inducida en una espira de cable cuando este se mueve desde o hacia un campo magnético, o cuando un magneto es movido desde o hacia él, siendo la dirección de la corriente dependiente de la dirección del movimiento. Ley de Faraday: La FEM inducida en una espira cerrada es igual al negativo de la relación de cambio con respecto del tiempo del flujo magnético a través de la espira. Es decir, cuando el imán se acerca a la espira, el flujo del campo magnético que la atraviesa es mayor y al alejarse, el flujo del campo magnético a través de la espira vuelve a disminuir. Es decir, se obtiene corriente inducida en la espira del circuito que contiene al galvanómetro, sólo cuando el flujo del campo magnético a través del área que encierra a la espira cambia con el tiempo. Ley de Lenz: El sentido de la corriente inducida (dada por la FEM que se induce) es tal que siempre se opone al cambio que la produce. Es decir, la “aparición” de la FEM inducida contrarresta la perturbación provocada sobre el sistema. Cuando se acerca un polo Norte a la espira, en ella debe generarse un polo Norte de manera de contrarrestar (rechazar) al Polo Norte que se acerca y así se deberá gastar cierta energía para poder acercar dicho Polo Norte, lo contrario sucederá cuando se quiera alejar el Polo Norte de la espira, se generará en ella un Polo Sur de manera que se deberá gastar cierta energía para alejar el Polo Norte delimán. Esa Energía gastada no se pierde, sino que, aparece en la espira en forma Energía Potencial Eléctrica (UE).(Responsable de la aparición FEM inducida y por lo tanto de la corriente inducida). Corriente alterna: Si se hace girar una espira rectangular con rapidez angular (w) constante en un campo magnético constante, habrá un cambio de flujo magnético porque la dirección del área de la espira cambia cuando esta gira. Si a este dispositivo se lo conecta a un circuito, la FEM inducida que varía sinusoidalmente da lugar a lo que se conoce como corriente alterna. La magnitud de esta corriente alterna y si dirección varían también en forma sinusoidal. Cuando el plano de la espira resulta perpendicular al campo magnético (ángulos de 0º y 180º), el flujo presenta valores máximos y mínimos, la rapidez de cambio instantánea es nula y la FEM es nula. La FEM será máxima cuando el plano de la espita esté paralelo al campo magnético (ángulos de 90º o 270º), el flujo cambia con mayor rapidez. Corriente de desplazamiento : Sea cual fuere el área que elijamos en unCargando… conductor, se cumple la Ley de Ampere. Mientras circula corriente, entre las placas de un capacitor (donde no hay corriente) hay campo magnético, ¿por qué?. Durante la carga del capacitor el campo eléctrico aumenta a medida que se acumula carga en sus placas. La corriente de conducción que lleva las cargas produce un campo magnético. Aparece así en la Ley de Ampere un nuevo concepto, denominado Corriente de Desplazamiento Id, que es proporcional al cambio en el flujo eléctrico: El es igual a la corriente de conducción.Cargando… Ecuaciones de Maxwell: Un campo magnético que varía con el tiempo se comporta como fuente de campo eléctrico y un campo eléctrico que varía con el tiempo actúa como fuente de campo magnético. La descripción completa del comportamiento de los fenómenos electromagnéticos está hoy día concentrada en 4 ecuaciones: ● Ley de Gauss para Campo Eléctrico: Da cuenta de que en una superficie cerrada el flujo eléctrico solo depende de la carga encerrada. ● Ley de Gauss para Campo Magnético: Describe que el flujo magnético en una superficie cerrada es nulo. ● Ley de Ampere (modificada): Establece que tanto la corriente de inducción como la corriente de desplazamiento actúan como fuentes de campo magnético. ● Ley de inducción de Faraday: Describe como un campo magnético que varía en un tiempo induce un campo eléctrico. 10. Ondas Movimiento armónico: Es el movimiento periódico que realiza un resorte ideal fijo en un extremo y asociado a una masa puntual en el otro extremo. La energía del sistema se mantiene constante y varía entre la energía cinética (en los extremos vale cero y en la posición de equilibrio es máxima) y entre la energía potencial elástica (en los extremos es máxima y en la posición de equilibrio es cero). Imaginemos que tenemos un resorte en estado de equilibrio al que se le aplica una fuerza externa para estirarlo. El resorte realizará una fuerza contraria al desplazamiento, que aumentará a medida que nos alejamos del punto de equilibrio. Algo análogo sucede si aplicamos una fuerza externa para comprimir dicho resorte. Esta fuerza realizada por el resorte se denomina fuerza restauradora. ● Ley de Hooke: Para la gran mayoría de los resortes, la fuerza restauradora es directamente proporcional al cambio de longitud del resorte respecto a su longitud en equilibrio (que llamaremos, longitud natural). En forma de ecuación, esta relación se expresa de la siguiente manera: donde x representa la distancia que se estiró (o comprimió) el resorte respecto a su longitud natural. k es la constante de proporcionalidad, denominada constante de resorte. Cuanto mayor sea el valor de k, más rígido o más fuerte será el resorte. El signo menos indica que la fuerza restauradora del resorte actúa en dirección opuesta al desplazamiento. Esta ley se cumple únicamente en resortes ideales, donde cuyo comportamiento muestra esta relación lineal entre fuerza y desplazamiento. Movimiento armónico simple (MAS): Si no existe fricción y el resorte no supera los límites de elasticidad, la masa puntual asociada a su extremo se moverá con un movimiento constante. El MAS está caracterizado por: X( ) = A· cos (ω₀· t + ⲫ) ● Amplitud (A): Representa la magnitud del desplazamiento máximo o la distancia de un objeto respecto a su posición de equilibrio. Depende de las condiciones iniciales del sistema. ● Periodo (T): Cantidad de tiempo necesaria para que el objeto en movimiento logre completar un ciclo de oscilación. Todo ciclo de oscilación está formado por un trayecto igual a cuatro amplitudes. ● Frecuencia (F): Es el número de ciclos de oscilación que realiza un objeto en una unidad de tiempo. Por lo tanto, podemos decir que la frecuencia es matemáticamente la inversa del periodo. T = 1/f ● Frecuencia angular (ω₀): Es la frecuencia en radianes. f = ω₀ / 2π ω₀ = √k /m Donde k es la constante del resorte y m la masa. ● Fase (ⲫ): Depende de las condiciones iniciales del sistema. Movimiento armónico amortiguado: Mantiene una amplitud constante porque no hay pérdida de energía en el sistema. Aunque en las aplicaciones prácticas siempre hay pérdida de energía por presencia de fuerzas no conservativas, como la fuerza de rozamiento. En sistemas oscilantes no conservativos, la fuerza de rozamiento se opone a la fuerza restauradora que genera el MAS, actuando como fuerza amortiguadora. La presencia de una fuerza de rozamiento determina que la energía del sistema disminuya, disminuyendo consecuentemente la amplitud de las oscilaciones en función del tiempo. donde b es la constante de fricción y m la masa del resorte. En presencia de una fuerza amortiguadora, la frecuencia del sistema también disminuye. Movimiento armónico simple forzado: Si queremos evitar que la amplitud de la oscilación disminuya con el tiempo, podemos entregar al sistema oscilante una cierta cantidad de energía, de modo tal de compensar la pérdida de energía por amortiguación aplicando una fuerza externa oscilante. En un sistema forzado, la oscilación ocurre con la frecuencia de la fuerza externa aplicada (ω') y no con ω0 (es independiente del sistema). La amplitud de dicha oscilación dependerá no sólo de la fuerza externa y su frecuencia sino también de las características del sistema (m y ω0). Cuanto más parecidas son ω0 y ω', mayor es la amplitud del movimiento. En dichas condiciones se transmite una mayor cantidad de energía al sistema. A la frecuencia ω' a la que la amplitud del desplazamiento se hace máxima se dice que se produce resonancia en amplitud. Cuando es la amplitud de la velocidad la que se hace máxima se dice que se produce resonancia en energía. Estrictamente la resonancia se alcanza cuando la frecuencia del sistema (ω0) y la frecuencia de oscilación de la fuerza externa oscilante aplicada (ω´) son iguales. Movimiento ondulatorio: Todas las ondas son el resultado de una perturbación generada por una fuente. Un pulso es una perturbación de corta duración generada en un punto de un medio material, que se transmite por dicho medio. Podemos generar un pulso, por ejemplo, realizando una rápida sacudida en el extremo de un resorte o de una cuerda, lanzando una piedra al agua de un estanque, dando un golpe a una mesa o produciendo una detonación en el aire. Ondas: Las propagaciones de las perturbaciones transfieren energía progresivamente desde un punto a otro inmediatamente conectado. Estas perturbaciones se propagan a lo largo del tiempo y del espacio haciendo que las propiedades del medio varíen en función del tiempo y del espacio. ● Ondas periódicas: la perturbación local que las origina se produce en ciclos repetitivos. Son producidas por trenes de pulso de iguales características. ● Ondasno periódicas: la perturbación que las origina se da aisladamente o, en el caso de que se repita, las perturbaciones sucesivas tienen características diferentes. En todos los casos, las ondas son situaciones físicas producidas en algún lugar del espacio, propagadas a través del espacio y detectadas posteriormente en algún otro lugar del espacio. Tienen, por tanto, un componente temporal (t=tiempo) y un componente espacial (x=ubicación) característico. En función de la dirección de propagación de la perturbación y la dirección de propagación de la onda, podemos establecer la siguiente clasificación: ● Ondas transversales: Son ondas donde la dirección de propagación de la onda es transversal a la dirección de la perturbación. Por ejemplo: luz ● Ondas longitudinales: Son aquellas ondas donde la dirección de propagación de la onda es paralela a la dirección de la perturbación. Por ejemplo: sonido. ● Ondas mixtas: presentan un componente transversal y uno longitudinal. Por ejemplo: olas del mar. Parámetros de una onda: Cargando… Como las ondas se mueven, tienen una rapidez de onda o velocidad, determinada por Cargando… Fenómenos ondulatorios: ● Interferencia: Cuando dos ondas se encuentran, se genera una onda combinada cuyo desplazamiento en cualquier punto es igual a la suma de los desplazamientos de las ondas individuales. La interferencia es, entonces, la suma física de las ondas. Cuando dos pulsaciones de onda de la misma amplitud se encuentran y están en fase, se interfieren constructivamente. Cuando las pulsaciones se superponen exactamente, hay interferencia constructiva total. Cuando las pulsaciones en interferencia tienen amplitudes opuestas y se superponen exactamente, hay interferencia destructiva total. ● Reflexión: Se da cuando la onda choca contra un objeto, o llega a una frontera con otro medio y se desvía, al menos en parte, nuevamente al medio original. Si el extremo de la cuerda está fijo, la pulsación reflejada se invierte. Ello se debe a que la pulsación hace que la cuerda ejerza una fuerza hacia arriba sobre la pared, y la pared ejerce una fuerza igual y opuesta sobre la cuerda. La fuerza hacia abajo crea la pulsación reflejada invertida. Si por el contrario el extremo donde se produce la reflexión está libre, se genera una pulsación no invertida. Si el extremo está fijo Si el extremo NO está fijo ● Refracción: En términos más generales, cuando una onda choca con una frontera, la onda no se refleja totalmente. Más bien, una parte de la energía de la onda se refleja y una parte se transmite o absorbe. Cuando una onda cruza una frontera y penetra en otro medio, por lo general su rapidez cambia porque el nuevo medio tiene distintas características. Si la onda transmitida ingresa oblicuamente (angulada) en el nuevo medio, se moverá en una dirección distinta de la de la onda incidente. Este fenómeno se denomina refracción. ● Difracción: Se refiere a la flexión de las ondas en torno al borde de un objeto y no está relacionada con la refracción. En general, los efectos de la difracción sólo son evidentes cuando el tamaño del objeto o la abertura que difracta es aproximadamente igual o menor que la longitud de onda. ● Dispersión: Proceso por el cual ondas de distinta frecuencia se separan unas de otras. Aunque la luz no se dispersa en el vacío, cuando entra en algún medio sus ondas si se separan. Es por ello los prismas separan la luz solar para dar un espectro de color. Ondas estacionarias: Si la cuerda se sacude con la frecuencia determinada, puede verse una forma de onda constante, o una serie de curvaturas uniformes que no cambian de lugar en la cuerda. Se debe a interferencia con las ondas reflejadas, que tienen la misma longitud de onda, amplitud y rapidez que las ondas incidentes. En dichas condiciones, el flujo neto de energía por la cuerda es cero, es decir la energía se mantiene estacionaria en las curvas. Aquellos puntos que permanecen inmóviles en todo momento se denominan nodos, y son el producto de la interferencia por superposición de ondas iguales pero opuestas. En todos los demás puntos, la onda estacionaria oscila con la misma frecuencia. Aquellos puntos donde se produce superposición con interferencia constructiva máxima se denominan antinodos. Cuando el sistema oscilante se impulsa con una de sus frecuencias naturales o resonantes, se le transfiere el máximo de energía. Las frecuencias naturales de un sistema son las frecuencias con que el sistema vibra. La condición de impulsar un sistema con una frecuencia natural se denomina resonancia. 11. Modelo ondulatorio: ● Naturaleza de la luz: La propagación de la luz es explicada desde el modelo ondulatorio, en tanto la producción y detección de luz se entiende como efectos cuánticos. Onda luminosa: interfiere con materia. Se propaga en ella pero no se genera y no se absorbe. Espectro de emisión y absorción: representación de cuánta luz se emite o absorbe en función de la longitud de frecuencia de onda. ● La luz como onda electromagnética: Newton concluyó que la luz era corpuscular y era una onda rectilínea. Estaba compuesta de corpúsculos que se movían a través de materia (éter), la cual era excitada con vibraciones características. Solo pudo explicar los fenómenos de Reflexión, Refracción y Dispersión, pero no podía explicar la difracción de la luz. Huygens considera a la luz como onda longitudinal. Difundió la teoría ondulatoria,, concluyendo que la luz al ingresar en materiales más densos (éter) disminuye su velocidad. Deduciendo así las leyes para los fenómenos de Reflexión, Refracción y pudiendo explicar la doble refracción, denominada fenomeno de Polarizacion de la luz. Young enunció el principio de Interferencia, el cual decía que cuando la luz ingresaba por las rendijas, cada una de ellas es interferida con la luz de la otra y aparece un patrón de interferencia en la pantalla (bandas claras o oscuras). Definiendo así a la luz como fotón de onda. Maxwell descubre la conexión entre fenómenos eléctrico y magnéticos, denominando a la luz como onda electromagnética, predeciendo la velocidad de la luz. ● Ondas electromagnéticas: Conformadas por un campo eléctrico y un campo magnético, perpendiculares entre sí. Los cuales vibran en fase y a su vez son perpendiculares con la dirección de propagación de la onda. Las perturbaciones eléctricas y magnética vibran de una manera armónica simple. Luz = Onda transversal Longitud de onda (λ): Distancia entre 2 puntos de igual fase. Dipolos oscilantes: Son cargas en movimiento, de distinto signos pero con una distancia determinada, las cuales provocan una vibración. Si se genera un cambio en la distancia, también cambiará el vector del campo. Este cambio del campo se genera en un movimiento armónico simple, induciendo también al magnetico a cambiar, así siguen estando en fase los dos, y produciendo una onda electromagnética. La frecuencia y la amplitud del dipolo, da la frecuencia y amplitud de la onda. ● Espectro electromagnético: Se denomina espectro electromagnético a la distribución energética del conjunto de las ondas electromagnéticas. Referido a un objeto se denomina espectro electromagnético o simplemente espectro a la radiación electromagnética que emite (espectro de emisión) o absorbe (espectro de absorción) una sustancia. https://es.wikipedia.org/wiki/Onda_electromagn%C3%A9tica https://es.wikipedia.org/wiki/Radiaci%C3%B3n_electromagn%C3%A9tica https://es.wikipedia.org/wiki/Espectro_de_emisi%C3%B3n https://es.wikipedia.org/wiki/Espectro_de_absorci%C3%B3n A mayor λ, menor frecuencia, menor energía. =C/λ C= λ x (solo en el vacío) V= λ x (cuando no está en el vacío) ● Óptica: Aborda la producción de luz, como se propaga y los mecanismosde detección. Estudia la producción de imágenes, la interacción de la luz con la materia, como onda electromagnética. Rayo de luz: vector perpendicular al plano de propagación de la onda. Apunta en la dirección de propagación. Frente de onda: superficie donde se una cada onda en fase. Son circulares, pero como la fuente de onda está muy lejos se ven planos con los rayos atravesandolos. La fuente se aleja dependiendo la longitud de la onda. ● Reflexión de la luz: La reflexión es el cambio de dirección de una onda, que, al entrar en contacto con la superficie de separación entre dos medios cambiantes, regresa al medio donde se originó. Dioptrio: plano que separa dos medios distintos (espejo). Normal: recta perpendicular al dioptrio. https://es.wikipedia.org/wiki/Onda i= ángulo de incidencia: ángulo que se genera del rayo de luz incidente con la normal. r= ángulo de refracción: ángulo que se genera del rayo de luz refractado con la normal. Reflexión difusa Reflexión especular ● Refracción de la luz: Es el cambio de velocidad y dirección de una onda cuando pasa de un medio transparente a otro. Cuando la luz ingresa a un medio material, disminuye la velocidad y cambia su dirección acercándose a la normal. El cambio de dirección se debe al hecho de que la luz viaja con distinta rapidez en medios diferentes. Este cambio en la dirección de la propagación de la onda se describe con el ángulo de refracción . El índice de refracción (n) es una medida de la rapidez de la luz en un material transparente;es una medida de la densidad óptica del material. La velocidad de la luz en un medio material es menor que en el vacío, por eso se establece un índice (n) para cada material, que depende de la naturaleza del medio y de la temperatura. n1 y n2: índices de refracción= C/V > 1 A menor longitud de onda, mayor índice. A menor temperatura, mayor índice. Ley de Snell: es la relación entre los ángulos y la rapidez de la luz en los medios Sen Ө2 = V2 Sen Ө1 = V1 Sen Ө1 x n1 = Sen Ө2 x n2 si: el medio 1 es ópticamente mas denso que el primero (n2 n1), entonces elCargando… rayo se refracta HACIA LA NORMAL. el medio 2 es ópticamente menos denso que el primero (n2 n1), entonces elCargando… rayo se refracta ALEJÁNDOSE DE LA NORMAL. La ley de Snell establece que , para un rayo que pasa de un medio ópticamente más denso a uno menos denso (n2 n1), cuanto mayor sea el ángulo de incidencia, mayorCargando… será el ángulo de refracción.Conforme aumenta el ángulo de incidencia, el rayo refractado se aleja mas de la normal. Sin embargo existe un límite, en el cual para cierto ángulo de incidencia llamado ángulo crítico el ángulo de refracción es 90° y el rayo refractado se dirige a lo largo de la interfase entre los 2 medios. si el ángulo de incidencia es mayor al ángulo crítico, la luz ya no se refracta si no que se refleja internamente= REFLEXIÓN INTERNA TOTAL. Snell para ángulo crítico: . sen = . sen 90°Cargando… Cargando… Cargando… Esto se puede explicar con el principio de Huygens: Cualquier frente de onda, cuando el rayo avanza, cada punto del frente se convierte en un nuevo visor, generando otro frente de onda que avanza. Si la onda que se propaga tiene una frecuencia con una velocidad determinada entonces los frentes de onda tendrán la misma frecuencia y velocidad. Para un medio homogéneo (si el medio es el mismo). Si la velocidad cambia, el primer frente llega primero emitiendo una onda con velocidad mayor, cuando llega el segundo frente emite una onda con menor velocidad a la anterior y así con cada frente que llegue. Por esto se genera un cambio en la dirección del rayo. Luego este sale con distinta dirección pero con un mismo ángulo. ● Dispersión natural de la luz: Al incidir con un con un rayo de luz sobre un prisma, se descompone en cada rayo con su longitud de onda y su respectivo color, esto se debe a que cada longitud de onda va a una velocidad distinta, entonces tienen frecuencias distintas. Se define un índice de refracción (n) para cada longitud de onda. Este depende de la frecuencia de la onda electromagnética. Tiene que haber mucha diferencia de velocidades para que la diferencia en los ángulos de refracción sea importante y se vea la separación de ondas. Esparcimiento o Scattering: La dispersión es una propiedad de cada tipo de onda. El fenómeno depende de la interacción entre la onda electromagnética y del tamaño de las partículas presentes en el medio. Las longitudes de onda más cerca del color rojo atraviesan las partículas y las longitudes de onda más cerca del color violeta chocan con las partículas y reflejan. ● Interferencia: El fenómeno hace referencia a toda situación en las que dos o más ondas se encuentran en el espacio. Cuando se suman o se restas se ve en el efecto de interferencia, zonas de sombra y zonas de luz. Sombra: se anulan dos ondas. Luz: se suman dos ondas. Ondas constructivas:Cuando dos ondas provenientes de dos o más fuentes llegan a un punto en fase (coincide el valle de una con el valle de la otra), la amplitud de onda resultante es la suma de las amplitudes de las ondas individuales, es decir se refuerzan mutuamente. Pueden difereris en sus distancias, pero con longitudes de ondas enteras (1λ,2λ,3λ…). Esto se denomina Interferencia Constructiva. Ondas destructivas: las ondas provenientes de las dos fuentes llegan al punto de encuentro exactamente medio ciclo fuera de fase, la cresta de una onda llega al mismo tiempo que el valle de la otra, la amplitud resultante es la diferencia entre las amplitudes individuales. Si las amplitudes son iguales, la amplitud total es cero. Esto se denomina Interferencia Destructiva. Experiencia de Young. Como el frente de onda proveniente del foco F1 que llega a ambas ranuras es el mismo, cada ranura se comporta como una fuente puntual, y las dos fuentes así obtenidas S2 y S3 están en fase, generando un frente de onda, las cuales se van a sumar o restar, obteniendo un patrón de interferencia sobre la pantalla, observándose luz y sombra. Camino óptico: es la distancia que recorre el índice de refracción en ese medio. C.O. = n x d Máximo de orden 0: Si los caminos ópticos son iguales las dos ondas llegan en fase al punto de encuentro, recorren la misma distancia, se puede observar en el centro de la pantalla (interferencia constructiva). Primer mínimo: Si los caminos ópticos son distintos es decir sus ondas están desfasadas y llegan ½ long fuera de fase al punto de encuentro, se destruyen mutuamente, la suma da cero. Se puede observar en la pantalla como una sombra. (interferencia destructiva) Máximo de orden 1: Los caminos ópticos son distintos, las ondas están desfasadas 1 long, y sus múltiplos, y así llegan al punto central. En la pantalla se puede observar como una banda clara. (interferencia constructiva) 12. Polarimetría La polarización electromagnética es un fenómeno que puede producirse en un haz de luz y que determina que el vector campo eléctrico resultante oscile en un plano determinado, denominado plano de polarización. En un plano perpendicular al plano de polarización vibra en fase el vector campo magnético. El plano de polarización se define por dos vectores, uno de ellos paralelo a la dirección de propagación de la onda y otro perpendicular a dicha dirección y que indica la dirección del campo eléctrico. La luz linealmente polarizada es en la cual el campo eléctrico vibra en la misma dirección en todo momento en un punto específico. Una sustancia es ópticamente activa cuando gira el plano de polarización de la luz transmitida. Cuando la rotación del plano se produce en sentido horario se dice que la sustancia es dextrógira y cuando ocurre en sentido antihorario, es levógira. La actividad ópticade un material se debe a la asimetría en la forma de sus moléculas, por presencia de centros quirales o planos de quiralidad. La polarimetría permite medir el ángulo de rotación del plano de polarización de luz linealmente polarizada cuando atraviesa sustancias ópticamente activas. ● Leyes de Biot: Son las leyes que describen la interacción entre la luz linealmente polarizada y las sustancias ópticamente activas. Medio sólido Medio líquido Solución de soluto Estas leyes relacionan el ángulo de rotación (α) del plano de polarización, medido en grados sexagesimales, con la naturaleza y geometría del sistema ópticamente activo atravesado. l representa el paso óptico, es decir la longitud del recorrido donde la luz interacciona con el material. En general para líquidos y soluciones se mide en decímetros y para sólidos en milímetros. δ representa la densidad y se expresa en gramos por mililitro. c representa la concentración, expresada generalmente en gramos por mililitro. La actividad óptica de la sustancia está reflejada por el poder rotatorio específico, [α]Tλ, que en general se expresa en ° mL dm-1 g-1 y da idea de la rotación ocurrida cuando los demás parámetros toman valores unitarios. El poder rotatorio específico es una propiedad física característica de las sustancias ópticamente activas y está definido para una longitud de onda y una temperatura determinada. Dependiendo si se trata de una sustancia dextrógira o levógira, el poder rotatorio específico se considerará positivo o negativo respectivamente. En el caso de que existiese más de un material con actividad óptica interactuando con la luz polarizada, el ángulo total de rotación obtenido puede considerarse la sumatoria de los procesos de rotación individuales. ● Polarímetro de Laurent: La fuente de luz debe ser monocromática (luz de una única longitud de onda) debido a que el poder rotatorio específico está definido para una longitud de onda determinada. En caso de no contar con una fuente de luz monocromática puede salvarse el inconveniente colocando, antes del polarizador, un monocromador; es decir, un dispositivo óptico que, por distintos mecanismos, permita seleccionar y transmitir una estrecha banda de longitudes de onda. El polarizador es un dispositivo destinado a producir luz linealmente polarizada a partir de luz natural. Los materiales dicroicos tienen la particularidad de absorber de modo diferencial la luz conforme a su plano de polarización. Sobre estos polarizadores puede definirse una dirección particular, llamada eje de transmisión, que corresponde al plano de polarización de la luz linealmente polarizada que es transmitida. Las componentes perpendiculares al eje de transmisión son especialmente absorbidas (el sistema se comporta como opaco), mientras que las componentes paralelas a dicho eje son transmitidas (el sistema se comporta como transparente). La semilámina retardadora de media longitud de onda cubre sólo la mitad del polarizador, ésta es una característica del diseño del polarímetro de Laurent. Una lámina retardadora, retardador o lámina de onda, es un dispositivo óptico de material transparente que altera el estado de polarización de la luz polarizada que lo atraviesa. Típicamente se trata de un cristal birrefringente. Al iluminar perpendicularmente una de las caras paralelas al eje óptico de la lámina retardadora con un haz de luz monocromática linealmente polarizada, el material descompone dicha luz en haces donde el campo eléctrico es paralelo al eje de óptico y en haces donde el campo eléctrico es perpendicular al mencionado eje. Se pueden definir entonces dos rayos luminosos dentro del cristal (birrefringencia, doble refracción) que compartirán la misma dirección, dado el tallado de la lámina, pero que poseen diferente velocidad. Para cada uno de estos rayos, denominados ordinario y extraordinario, se define un índice de refracción diferente, es decir, una velocidad de propagación diferente; por lo que cada uno tendrá una longitud de onda distinta dentro del cristal ya que la frecuencia es constante y depende de la fuente emisora. Si el espesor de la lámina, el grado de birrefringencia del material y la longitud de onda con la que se ilumina son los adecuados, uno de los rayos se retrasa media longitud de onda respecto del otro, de modo tal que al emerger del cristal se recombinan ambos rayos, componiendo nuevamente luz linealmente polarizada pero con un plano de vibración diferente, simétrico al de la luz incidente respecto de la dirección del eje óptico. La función del analizador consiste en determinar el plano de polarización de la luz que es transmitida luego de interactuar con la muestra contenida en el tubo portamuestra. Por lo que, de la luz que llega al analizador, sólo las componentes paralelas al eje de transmisión del mismo serán transmitidas hacia el ocular. la ley de Malus relaciona la intensidad de luz transmitida (It) por en analizador con la intensidad de luz proveniente de un polarizador (I0) y el ángulo entre el eje de transmisión del analizador y el plano de polarización de la luz incidente (θ). Entonces, es posible aumentar o disminuir la intensidad de luz que se transmite por el analizador modificando el ángulo que forman su eje de transmisión y el plano de polarización incidente, es decir rotando el analizador. ● Cálculo de pureza mediante polarimetría: Para estudiar la pureza de una muestra sólida, una vez aislada, se debe hallar un solvente en el cual sea soluble, tomando siempre la precaución de conocer las propiedades ópticas del solvente elegido. A partir de la medición de los ángulos de rotación del plano de vibración de la luz linealmente polarizada producidos por las diluciones de distinta concentración de la muestra y aplicando las Leyes de Biot, es posible calcular la pureza de una muestra. Para ello se debe tener en cuenta la naturaleza de la impureza: si es activa o no, si es dextrógira o levógira, etc. La Ley de Biot para soluciones establece que: Donde: α = ángulo rotado, medido con el polarímetro; [α] ST= Poder rotatorio específico del soluto; l = paso óptico o longitud del tubo portamuestra; c = concentración del soluto en la solución; [α]SV= Poder rotatorio específico del solvente; δ =Densidad del solvente. Si estudiamos la relación existente entre el ángulo rotado y la concentración del soluto en la solución, la ordenada al origen nos brindará información acerca de la actividad óptica del solvente, de modo que siempre que trabajemos con agua u otro solvente inactivo, ésta debería valer cero; mientras que si el solvente presenta actividad óptica, esto se verá reflejado en el valor de la ordenada al origen (cc=0), positivo o negativo de acuerdo a si se trata de un solvente ópticamente activo dextrógiro o levógiro respectivamente. Por otra parte, será la pendiente la que nos brinde información acerca de la pureza de la muestra, dado que este término comprende, en realidad, a la sumatoria de todos los poderes rotatorios específicos de las sustancias con actividad óptica presentes mezcladas en la solución multiplicadas por el valor del paso óptico. Podemos decir que la sumatoria de las fracciones de concentración de cada uno de los componentes será siempre uno. El nombre con el que se conoce a la fracción de muestra (CM/CT) es factor de pureza y si multiplicamos este valor por 100, obtenemos el porcentaje de pureza. En este caso, y asumiendo que se encuentran disueltas en un solvente ópticamente inactivo, la ecuación de la Ley de Biot, quedaría expresada como: . Si combinamos las dos ecuaciones anteriores donde los datos conocidos son: a) el ángulo rotado (se mide), b) el poder rotatorio específico de la muestra (obtenido de bibliografía), c) el poder rotatorio específico de la impureza (obtenido de bibliografía) y, d) la concentración total (la cual esresponsable de la actividad óptica medida), podremos despejar el factor de pureza(CM/CT), para posteriormente calcular el porcentaje de pureza de nuestra muestra. En el caso de que la impureza sea ópticamente inactiva ([α]I = 0), y recordando que Fp = CM/CT, entonces: α =([α]M * Fp * l) * cT Podremos luego calcular el porcentaje de pureza a partir del análisis de la pendiente del gráfico confeccionado con los valores experimentales de ángulo rotado en función de concentración total. m = [α]M * Fp * l Podemos entonces despejar Fp ya que obtenemos m a partir del gráfico, [α]M es dato y l lo hemos podido medir. Finalmente, el porcentaje de pureza se obtiene multiplicando Fp por 100%. 13. Refractometría: ● Refractómetro de Abbe: Es un instrumento de amplio uso que permite determinar índices de refracción. La determinación del índice de refracción mediante el uso del Refractómetro de Abbe aprovecha la formación del ángulo límite luego de que la luz incidente atraviesa la sustancia X e incide en el prisma rectangular. Si el rayo S incide en el punto I, paralelo a la cara BC del prisma y rasante a la superficie de separación entre ambos medios (sustancia X – prisma), se refractará en el medio más refringente (prisma) con un ángulo de refracción igual al ángulo límite (L). Luego continuará su trayectoria dentro del prisma y al llegar a la cara AB se refractará nuevamente, y el rayo, llamado S’ abandonará el prisma formando un ángulo a con la normal a dicha cara. Cuando incide un rayo P en el punto I, con un ángulo de incidencia menor de 90°, forma dentro del prisma un ángulo de refracción L´ menor que el límite (L). De este modo el rayo alcanza la cara AB en I´´, un punto situado a la izquierda de I´. Esto es válido para cualquier otro rayo que incida en la cara BC con un ángulo menor de 90°. Por lo tanto el rayo S define la situación extrema de refracción en el prisma. El rayo emergente de la cara AB del prisma señala el límite de separación entre las regiones de luz y sombra. Cada muestra en estudio tendrá un cierto índice de refracción y por ende para cada muestra existirá un cierto ángulo límite. Esto implica que para cada índice de refracción ensayado el límite luz-sombra en la cara AB del prisma tendrá una posición diferente. El refractómetro de Abbe está diseñado de forma tal que tiene la capacidad de traducir la posición del límite luz-oscuridad en la cara AB en un índice de refracción. En el refractómetro se mide entonces el valor del ángulo α. Luego, conociendo el índice de refracción del prisma (N) y su ángulo de refringencia (ω) se puede determinar el valor del ángulo límite (L) y finalmente, mediante la ecuación de Snell, calcular el nX de la sustancia en estudio. Suponiendo que el rayo S abandona el prisma saliendo a la derecha de la normal a la cara AB, queda formado un triángulo ITI’, donde el ángulo L es externo a dicho triángulo y su relación con los ángulos internos establece que: Sabemos que los ángulos internos de un triángulo suman 180°, y que un ángulo llano tiene 180°, por lo que: Si incide un rayo rasante a la hipotenusa del prisma, aplicando ley de Snell, tendremos: Donde nX es el índice de refracción de la sustancia colocada en el refractómetro y N es el índice de refracción del prisma. Luego, nuevamente aplicando Snell para la segunda refracción (cara AB del prisma): Entonces, midiendo α y con los datos de naire y N, se puede calcular el ángulo β: ○ El sistema óptico del refractómetro puede poseer un espejo para reflejar la luz proveniente de una fuente de iluminación y un anteojo formado por: una lente objetivo, una lente ocular, un retículo enfocable y los prismas de Amici. El retículo tiene forma de círculo y está cruzado por dos líneas Al observar por el retículo, se visualizan zonas de luz y sombra separadas por la línea límite luz – sombra, determinada por el rayo emergente de la cara AB del prisma (ver Figura 2 y Figura 6b) Recordando que: Reemplazando y cancelando (teniendo en cuenta que la frecuencia no varía, pues depende exclusivamente de la fuente emisora): . . nX es el índice de refracción. Es un número adimensional resultante del cociente de velocidades o de longitudes de onda. 15. Modelo corpuscular y Espectroscopías Cuando el electrón pasa de un nivel de energía a otro, emite un fotón cuya energía es igual a la diferencia de energía de los niveles energéticos inicial y final. En condiciones normales el electrón permanecerá en una "órbita" en la cual la energía total del sistema será la mínima posible. Si en este estado se excita el sistema de alguna manera (recibe energía en forma de luz, calor o descarga eléctrica), el electrón pasará a una "órbita" tal que la energía total del sistema será mayor. Se dice entonces que el átomo se encuentra en un estado electrónico excitado. Inmediatamente después, el átomo tenderá a volver a su estado normal (fundamental), devolviendo la energía que había adquirido, que será igual a la diferencia entre los estados electrónicos inicial y final. Los átomos excitados pueden devolver la energía absorbida en forma de radiación electromagnética de tipo UV – Visible, puesto que los valores de la diferencia de energía de los electrones entre sus estados excitado y basal se corresponden con los de la energía de las radiaciones de estas regiones del espectro electromagnético. La radiación devuelta va a ser de longitudes de onda específicas, de acuerdo con las transiciones que estén permitidas en cada elemento. Dado que la energía de un fotón es: E = hf Ef-Ei = hf Este modelo presenta dificultades para explicar en forma completa los resultados experimentales, por ejemplo no puede explicar de por qué ciertas líneas espectrales son más brillantes unas que otras, tampoco el desdoblamiento de líneas espectrales y toma al electrón como teniendo posiciones y momento determinados simultáneamente. La energía radiante provoca transiciones entre los estados cuánticos de un sistema material. Dichos estados cuánticos pueden referir a: -Estado electrónico (basal, excitado) -Estado vibracional (tijereteo, aleteo,etc) -Estado rotacional -Orientación del momento magnético ● Técnicas espectroscópicas: Se basan en la absorción y/o emisión de energía transportada por las radiaciones electromagnéticas. Se fundamentan en el comportamiento corpuscular de la luz, pero sin dejar de considerar características ondulatorias de la radiación electromagnética como frecuencia o longitud de onda. Las principales interacciones en que se basan las técnicas espectroscópicas son: - Fenómenos de Absorción - Procesos de Emisión - Resonancia magnética Absorción: Excitación Emisión: Desexcitación En la espectroscopía de absorción se considera el mecanismo de excitación mediante el cual uno o más electrones pasan de un estado basal a otro de mayor energía. Este fenómeno ocurre cuando coincide la energía del fotón incidente con la diferencia energética entre dos niveles cuánticos. En la espectroscopía de emisión se detecta la desexcitacion de uno o más electrones que pasan de un estado de mayor energía a otro de menor energía, emitiendo la diferencia de energía en forma de fotón. Cada “salto” energético se corresponde únicamente con la energía cuantizada de un fotón que exhibe una determinada frecuencia (o longitud de onda). De este modo, el patrón de absorción o emisión de una sustancia dependerá de los niveles energéticos que posea y nos permitirá identificarlas. La respuesta del sistema frente a la acción de la radiación electromagnética se representa en diagramas llamados ESPECTROS. El conjunto de radiaciones emitidas constituye el espectrode emisión y es característico de cada elemento. Si se puede aislar una de estas longitudes de onda, su intensidad estará relacionada con la cantidad de átomos excitados presentes (La intensidad de las líneas de emisión es directamente proporcional a la concentración). Si suponemos que la proporción de átomos excitados es siempre la misma, podremos establecer una relación entre la concentración de la solución y la cantidad de átomos excitados. Para este propósito existe el fotómetro de llama. para cuantificar diversos cationes metálicos mediante su excitación por exposición al calor de la llama y posterior aislamiento y detección de las radiaciones electromagnéticas emitidas en la desexcitación. ● Fotometría de llama: Su función es para cuantificar diversos cationes metálicos mediante su excitación por exposición al calor de la llama y posterior aislamiento y detección de las radiaciones electromagnéticas emitidas en la desexcitación. La relación directa entre emisión y concentración se mantiene sólo a concentraciones relativamente bajas del metal, del orden de los microequivalentes/litro. Más allá de esos niveles, la llama se satura y se pierde la proporcionalidad entre lectura y concentración. Durante una determinación en el fotómetro de llama ocurren los siguientes fenómenos: ● Nebulización, mediante un sistema adecuado, de la muestra líquida en microgotas. ● Mezcla de las microgotas con el combustible y el oxidante. ● Vaporización del solvente a la temperatura de la llama (1700 - 3000 °C) ● Atomización de las entidades moleculares. Las moléculas (por ej. NaCl) a la temperatura de la llama se disocian atomizándose. En el ejemplo mencionado se obtendría Cl2 gaseoso y Na atómico al estado de vapor. ● Excitación de las entidades atómicas. La temperatura de la llama es suficiente para excitar determinados átomos como los pertenecientes a los elementos alcalinos y alcalinotérreos. ● Desexcitación con emisión de fotones. La luz emitida por el elemento, de una o varias longitudes de onda que le son características, son aisladas por un filtro óptico (589 nm para el Na+ y 766 nm para el K+). Su intensidad es medida por un detector, obteniéndose entonces una señal eléctrica proporcional a la concentración del catión en la muestra. Esta señal eléctrica puede ser procesada y leída en una escala analógica o digital. ● Niveles energéticos en las moléculas: Las moléculas, además de los niveles energéticos electrónicos, tienen otros niveles energéticos cercanos entre sí. Esto determina que las líneas de absorción se desdoblen en BANDAS. Cada nivel de energía vibracional se desdobla en distintos niveles de energía rotacionales. ● Colores de las cosas: Los cuerpos transparentes transmiten y los cuerpos opacos reflejan. En los cuerpos transparentes todo lo que no se absorbe se transmite, cuando observamos en un gráfico un pico es donde la luz se absorbe (veo negro), donde observamos un valle es donde se transfiere (veo color). Ejemplo: Rojo Ponceau Ácido: ● Emisión molecular: ○ Fluorescencia: Un cuerpo al desexcitarse emite luz (fotones). Parte de esta energía que absorbió se gasta en vibraciones, rotaciones, etc. Y el restante de esta energía libera fotones de menor energía que la energía que se absorbe. ■ Corrimiento de Stokes: La energía que absorbe la molécula es mayor que la que se emite (fotón), o sea, de una mayor longitud de onda, por lo que se corre la banda de emisión (la diferencia de energía se gastó en vibrar y rotar). ○ Fosforescencia: El mecanismo físico que rige este comportamiento es el mismo que para la fluorescencia, no obstante la principal diferencia con esta es que hay un retraso temporal entre la absorción y la reemisión de los fotones de energía. En la fosforescencia, las sustancias continúan emitiendo luz durante un tiempo mucho más prolongado, aún después del corte del estímulo que la provoca, ya que la energía absorbida se libera lenta (incluso muchas horas después) y continuamente. https://es.wikipedia.org/wiki/F%C3%ADsica https://es.wikipedia.org/wiki/Fluorescencia https://es.wikipedia.org/wiki/Fot%C3%B3n ● Resonancia Magnética: Cada átomo tiene asociado un valor de momento magnético, ocasionado por el movimiento del núcleo (portador de una carga eléctrica) al girar sobre sí mismo. El fenómeno de resonancia magnética surge de la interacción entre radiación electromagnética y el momento magnético de partículas en presencia de un campo magnético externo. Son los núcleos de los átomos los que participan en el proceso de absorción y no los electrones exteriores. El campo magnético externo define dos niveles energéticos distintos para cada una de las orientaciones del momento magnético. Los núcleos absorben radiación electromagnética en un campo magnético intenso como resultado del desdoblamiento de los niveles de energía inducidos por el campo magnético. De este modo queda cuantizada la energía de cada orientación, haciendo que una partícula absorba o emita radiación electromagnética del rango de las radiofrecuencias al cambiar la orientación de su momento magnético. Los distintos entornos magnéticos y electrónicos de cada núcleo hacen que los momentos magnéticos “sientan” con mayor o menor intensidad el campo magnético aplicado, creando cuantizaciones distintas y por lo tanto, absorciones/emisiones distintas en el rango de las radiofrecuencias. 16. Espectrofotometría La espectrofotometría es una serie de técnicas analíticas que se fundamentan con la espectroscopía atómica y molecular. Donde nos permiten obtener información a partir del análisis de las distintas interacciones de las radiaciones electromagnéticas con la materia. La Mecánica Cuántica nos dice que la luz está compuesta de fotones. Cada uno de los cuáles tiene una energía: Efotón = h⋅ν = h⋅c/λ Cuando decimos que una sustancia química absorbe luz de longitud de onda (λ), esto significa que las moléculas de esa sustancia absorben fotones de esa longitud de onda. Entonces esa molécula absorbe un fotón en este intervalo espectral, se excita pasando un electrón de un orbital del estado fundamental a un orbital excitado de energía superior. De esta manera la molécula almacena la energía del fotón: A + h⋅ν → A* E(A*) = E(A) + Efotón Esto es lo que ocurre en una solución cuando un haz de luz monocromática (luz de una sola longitud de onda) atraviesa la misma ( si consideramos que el material donde está contenido es transparente y no absorbe parte de la luz que le inside). Parte de la intensidad de esa luz (Io) será absorbida por las moléculas que están en dicha solución (Ia), parte se refleja (Ir) y parte será transmitida (It). Y como se debe cumplir el principio de conservación de la energía; ● Ley de Lambert y Beer: Establece que cuando pasa luz monocromática por un medio homogéneo, la disminución de la intensidad del haz de luz incidente es proporcional al espesor del medio y la concentración, lo que equivale a decir que la intensidad de la luz transmitida disminuye exponencialmente al aumentar aritméticamente el espesor del medio absorbente y también la concentración. Sustituyendo a dl por dc (variación de la concentración), la ecuación queda como: La variación (disminución) de la intensidad es directamente proporcional al espesor del material interpuesto (l) y a una constante k propia de cada material, llamada coeficiente de absorción. quedando como: De modo que la intensidad de luz monocromática transmitida por la solución de una sustancia determinada decrece en forma geométrica cuando su concentración aumenta en forma aritmetica. Si se repite la experiencia variando a la vez el espesor y la concentración de la solución, cambiando además la base e a base decimal, obteniéndose la siguiente expresión:Esta expresión se conoce con el nombre de Ley de Lambert - Beer, donde a es una constante denominada absortividad. Esta ley se cumple trabajando a bajas concentraciones y en presencia de luz monocromática. Por lo que la relación entre la Transmitancia (T) y la concentración (c) es: La transmitancia decae en forma exponencial con la concentración. La misma relación se mantiene para T% (que es la T expresada en porcentaje) y concentración. La absortividad (a) es una constante propia de cada sustancia que depende de la longitud de onda, la temperatura y el solvente con que se trabaje. El valor numérico de a depende de las unidades de concentración empleadas. Si c se expresa en g/mL, se obtiene la absortividad específica (ao) y [ a ] = mL . (gr . cm) -1. Si c se expresa en moles por litro, se obtiene absortividad molar o coeficiente de extinción molar, y sus unidades serán L . (mol . cm)-1. Si se representa gráficamente Abs = f ( c ) el gráfico teórico obtenido mostrará una relación lineal entre las dos variables, siempre que se trabaje con luz monocromática y a bajas concentraciones. Sin embargo, en la práctica esta relación se cumple para algunas sustancias pero para otras no. Si se trabaja con una sustancia determinada y al medir la absorbancia de distintas concentraciones de dicha sustancia se obtiene una representación lineal entre las absorbancias y las correspondientes concentraciones, entonces esa sustancia cumple la Ley de Lambert-Beer en el rango de concentraciones usadas. ● Desviación de la Ley de Lambert-Beer: Experimentalmente se comprueba que la ley de Lambert-Beer se cumple particularmente cuando la solución es diluida. No obstante son comunes las desviaciones debidas a factores de orden físico, químico o instrumental. La principal causa física de desviación es que la absortividad varía con el índice de refracción de la solución, lo que se pone en evidencia a concentraciones elevadas. Como factor de orden químico se puede citar la variación de algunas estructuras en función de la concentración; como por ejemplo al diluir una solución de dicromato. Los iones dicromato presentan absorción máxima a 450 nm, en tanto que los iones cromato lo hacen a 375 nm, por lo que al efectuar las diluciones de soluciones de dicromato se debe mantener el nivel de acidez a fin de no variar la estructura química. En lo referente a desviaciones de índole instrumental debe mencionarse que las radiaciones que llegan a la cubeta se apartan en mayor o menor grado de la condición de ser “cuasi” monocromáticas, como lo establece la ley de L. Beer. Cada instrumento, según su calidad, hace llegar a la cubeta una banda de longitudes de onda, conocida como banda instrumental; cuanto más estrecha es ésta la desviación que se produce es menor. A concentraciones elevadas la gráfica se inclina hacia este eje, dando lugar a desviaciones negativas, que son indeseables pues conducen a un error relativo en concentración cada vez más grande. En regla general, cuanto menos monocromática sea la radiación utilizada, más se desvía la relación entre absorbancia y concentración. Espectrofotómetro: ● Instrumentación: El espectrofotómetro es el instrumento que nos permite medir valores de absorbancia o transmitancia de determinadas muestras a una longitud de onda seleccionada. En líneas generales, la fuente de luz proporciona un haz policromático que es colimado al atravesar la ranura de entrada. Este haz llega a un sistema de monocromación, con cuyo selector de longitud de onda, se aísla un haz monocromático de la longitud de onda deseada. Luego, el rayo de luz monocromático incide perpendicularmente sobre la pared de la cubeta que contiene la muestra. Al salir de la muestra, el haz de luz transmitido impacta sobre el detector, donde la intensidad luminosa se convierte en intensidad eléctrica mediante un proceso electrónico. Por último, dicha señal se transforma en una lectura de transmitancia porcentual o absorbancia que aparece en el display. ● Controles: Para informar un resultado confiable es necesario estar seguros de que el equipo utilizado funcione correctamente. Por ello se realizan los controles espectrofotométricos. Éstos permiten controlar y analizar determinados parámetros y verificar si se encuentran dentro de los rangos de aceptabilidad establecidos, o bien en caso contrario, proceder a calibrar o a reparar. 1. Luz espuria: El objetivo es comprobar que no llegue al detector luz que no atraviese la muestra. Esto puede ocurrir por reflexiones internas dentro de la cubeta; La luz que pase por arriba de la muestra (arriba del menisco) cuando el volumen cargado es insuficiente; Entrada de luz externa; Mal diseño de cubetas o uso de cubetas incorrectas; etc. La luz espuria se mide en porcentaje de transmitancia y es importante que dicho porcentaje sea bajo. De lo contrario, se pueden producir desviaciones de la linealidad instrumental, dado que llega al detector más luz de la que debería. El porcentaje máximo aceptado de luz espuria es del 1 %. Se utiliza una cubeta de obstrucción de paso de luz (que es una cubeta pintada de negro, o sea, un cuerpo negro) o bien una solución hiperconcentrada de colorante. En todos los casos se leerá la transmitancia contra una cubeta con agua, a la λ seleccionada dentro del visible. El valor leído representa directamente el % de luz espuria. 2. Volumen mínimo: El objetivo es verificar el mínimo volumen de muestra por el cual pase todo el haz de luz, de modo de que ésta no pase por encima del menisco. Se busca minimizar el volumen de muestra a utilizar al mínimo necesario, con el fin de ahorrar muestra y reactivo. Colocamos volúmenes crecientes de una solución coloreada y medimos la absorbancia del tubo. El volumen en el cual la lectura se estabiliza es el volumen mínimo. El volumen de trabajo será un 20% mayor al volumen mínimo. 3. Control de cubetas: El objetivo es comprobar la similitud de las cualidades ópticas entre cubetas, de modo de poder utilizar varias en el proceso de medida sin que este se vea afectado. Llenamos una cubeta con solución coloreada (con el volumen seleccionado para trabajar) y registramos el % de transmitancia obtenido. Luego procedemos de igual manera con el resto de las cubetas a testear. Para poder utilizar indistintamente las cubetas, la diferencia de T% entre ellas debe ser menor o igual al 1%. 4. Centro de banda: El objetivo es verificar la concordancia entre la longitud de onda fijada con el selector en el equipo (aquella que se lee en el display) y la longitud de onda que efectivamente llega a la muestra. Realizamos el barrido espectral de una sustancia de referencia, cuyo espectro de absorción es conocido. Luego verificaremos que la longitud de onda de máxima absorbancia leída con el espectrofotómetro se corresponda con la longitud de onda de máxima absorbancia teórica de la sustancia de referencia utilizada. Las condiciones que debe cumplir la sustancia de referencia es que sea una sustancia conocida con un espectro conocido con uno o más picos de absorción estrechos y bien definidos que correspondan con la zona que se va a trabajar. Además, se deben conocer de antemano las longitudes de onda de máxima absorción. Luego de realizado el control, el resultado puede indicar que la λ real y la leída coincidan o bien puede haber una diferencia entre ambas. Esa diferencia se la conoce como desplazamiento o corrimiento de la longitud de onda y se mide en nm. Si esta es pequeña y entra dentro del rango de aceptabilidad estipulado se la puede considerar como error sistemático y corregir. En caso contrario de debe realizar un ajuste de la escala de longitudes de onda por parte del servicio técnico. 5. Linealidad fotométrica: El objetivo es comprobar que el equipo responda linealmente y evaluar hasta que valores de absorbancia la respuesta del equipo es lineal.Procedemos empleando una sustancia de referencia que sabemos “cumple con la ley de Lambert-Beer”. Se realizan distintas diluciones y las medimos en el espectrofotómetro que estamos testeando. Con estos datos, realizamos un gráfico de absorbancia medida en función de la concentración (expresada en % de dilución respecto de la SM) y observamos la correlación. 6. Veracidad: Las fallas que pueden ocasionar que no se cumpla este control pueden ser: Envejecimiento de la lámpara; Agotamiento del fototubo; Defecto en la calibración de la longitud de onda; Elevada absorción por parte de las cubetas; Muestra mal centrada respecto del sistema óptico del instrumento. Para proceder medimos la absorbancia de una solución estándar de referencia en un espectrofotómetro calibrado y comparamos dicho valor con la absorbancia obtenida para esa solución en el equipo que queremos controlar. Calculamos la veracidad fotométrica a través del error fluorométrico porcentual: . Se considera aceptable un error fotométrico de ±Cargando… 5%. La solución estándar tiene que tener un valor de absorbancia estable, presentar un pico ancho de absorción y poseer un alto coeficiente de extinción molar. 7. Precisión: Su objetivo es evaluar la repetibilidad de una serie de medidas de absorbancia realizadas con una misma solución. Utilizamos la serie de datos obtenidos en el control de veracidad y calculamos el coeficiente de variación porcentual: . Se considera aceptable un CV% menor a 1%.Cargando… ● Barrido espectral: La gráfica del conjunto de valores de absorbancia de una sustancia vs diferentes longitudes de onda constituye una curva característica conocida como barrido espectral. Un barrido espectral se obtiene trabajando con una misma solución coloreada (de concentración constante) y midiendo los valores de absorbancias correspondientes a distintas longitudes de onda seleccionadas dentro de un determinado rango de trabajo. El perfil de los barridos espectrales representa cómo interactúa la sustancia a radiación electromagnética de las longitudes de onda evaluadas, siendo este perfil propio de cada sustancia. Una zona de pico en el barrido espectral representa un rango de radiaciones de determinadas longitudes de onda que la sustancia absorbe, mientras que un valle representa un rango de radiaciones de longitudes de onda para las cuales hay nula absorción. En primer lugar, como los barridos espectrales son propios de cada sustancia, pueden emplearse para identificar sustancias incógnitas. Por lo general, cuando se busca identificar una sustancia coloreada se realiza un barrido espectral a lo largo de todo el rango visible (400 a 700 nm). Debe disponerse de antemano de un espectro de la “supuesta” sustancia, con el cual comparar el barrido espectral de la sustancia en estudio. Por otro lado, en tanto los barridos espectrales nos permite visualizar la variación de la absorbancia con la longitud de onda de la radiación electromagnética, mediante el análisis de los barridos podemos elegir una longitud de onda óptima de trabajo cuando busquemos cuantificar una sustancia o bien evaluar si cumple con la Ley de Lambert-Beer en determinadas condiciones. Este tema lo desarrollaremos en los capítulos siguientes. ● Elección de longitud de onda óptima de trabajo: Siempre se deberá elegir una longitud de onda a la cual la sustancia en estudio absorba considerablemente la luz incidente, es decir, donde la absortividad sea alta. De esta forma, aunque la concentración de la sustancia sea baja, obtendremos un valor de absorbancia distinto de cero. Desde un punto de vista teórico, elegir una longitud de onda de trabajo en la cual la sustancia tenga un máximo de absorbancia confiere mayor sensibilidad en las lecturas, un límite de detección más bajo y un menor error en las mediciones. En la práctica, debe evitarse hacer mediciones en zonas donde pequeñas variaciones de longitud de onda provoquen grandes cambios en la absortividad, y por lo tanto, en la absorbancias de las sustancia. Por ello, a veces se prefiere sacrificar sensibilidad pero asegurarnos que pequeñas variaciones en la longitud de onda no modifiquen apreciablemente la absortividad. Por lo tanto, para elegir la longitud de onda óptima de trabajo se tendrán en cuenta los siguientes criterios: ● Se prefiere un máximo de absorbancia, dado que así se obtiene mayor sensibilidad en las lecturas ● Hay que evitar en lo posible, trabajar en regiones del espectro donde hay cambios bruscos de absorbancia, ya que un pequeño desplazamiento en la longitud de onda puede causar un error grande en la correspondiente lectura. Ensayo de Biuret: En condiciones alcalinas, las moléculas que posean dos o más enlaces peptídicos (al menos tripéptidos) forman un complejo azul violáceo con las sales de cobre. El reactivo de Biuret contiene sulfato de cobre en medio alcalino. Los enlaces peptídicos de las proteínas reaccionan con el ion cúprico y dan un complejo coloreado con un máximo de absorción a 540 nm. La absorbancia de esta solución coloreada es proporcional a la concentración de proteínas totales presentes en la muestra, en un rango comprendido entre 0,1 y 100,0 g de proteína por litro de solución. Protocolo de trabajo: ● Tubo muestra: Es el tubo en el que se genera la reacción entre el analito (cuya concentración se desea determinar) y el reactivo (el cual está en exceso siempre para no limitar la formación del producto coloreado). La presencia de un solvente o sustancias presentes en la muestra que no sean específicamente el analito pueden absorber a la longitud de onda de trabajo y por lo tanto contribuir a la absorbancia total leída. Para distinguir el valor de absorbancia que corresponde únicamente al producto coloreado debemos preparar otros tubos cuyas absorbancias se usarán para corregir el valor de absorbancia del tubo muestra. ● Tubo blanco de muestra: Se utiliza para medir la posible absorbancia correspondiente a todo aquello que no constituye nuestro analito y que está formando parte de la muestra, o sea, contiene a la muestra pero no al reactivo. ● Tubo testigo: Contiene al analito y al reactivo en concentraciones conocidas. Suele hacerse varios tubos testigo con distintas concentraciones. Como se conoce previamente la concentración de testigo en cada tubo, a partir de los valores de concentración de testigo y los valores de absorbancias corregidas de los tubos testigo se podrá confeccionar un gráfico de calibración de Abs : f (cc) que permitirá encontrar una relación matemática entre la concentración del analito de interés y los valores de absorbancia correspondientes. Mediante la ecuación de la recta, podremos traducir el valor de absorbancia corregido de la muestra a su valor de concentración. Esta concentración representa la concentración de producto coloreado en el tubo Muestra. Como sabemos de antemano la estequiometría de la reacción colorimétrica y el factor de dilución de la muestra en el tubo, podremos calcular finalmente el valor del analito en la muestra original. ● Tubo blanco de reactivo: Contiene el reactivo, sin presencia de analito. Por lo tanto la medida de absorbancia de éste será descontada a la del tubo de muestra y a la del tubo de testigo para obtener por diferencia el valor de la absorbancia debida solamente a la muestra o al testigo, según corresponda. ● Tubo de referencia o blanco de solvente: Este tubo puede contener agua o el solvente que se utilice en la reacción y que estará presente en todos los tubos. Contra este tubo se leerán todos los demás tubos, es decir con él se llevará a cero de absorbancia y será la referencia. 17. Fluidos Los gases y líquidos se clasifican como fluidos. La característica fundamental de los fluidos es la denominada fluidez. A diferencia de los sólidos, los fluidos son incapaces de resistir esfuerzos cortantes (o esfuerzos tangenciales). Cuando sometemos uncuerpo sólido a la acción de un esfuerzo cortante, experimenta una deformación bien definida. Por el contrario, los fluidos se deforman continuamente bajo la acción de los esfuerzos cortantes y fluyen. Una diferencia entre los gases y los líquidos es que estos son compresibles, o sea, se comprimen fácilmente, en cambio los líquidos soportan la compresión. ● Densidad: Cantidad de masa en un determinado volumen de sustancia. δ=masa/volumen (unidades g/cm³ y Kg/m³). ● Peso específico: Peso de una sustancia por unidad de volumen. ⍴=peso/volumen (unidades N/m³ y dina/cm³) ● ⍴= δ. g (gravedad) Presión: Se manifiesta cuando actúa sobre una superficie o área apareciendo como producto de esto una fuerza, siendo las fuerzas perpendiculares al área sobre la cual la presión ejerce su acción. Podemos definirlo como siendo α el ánguloCargando… formado entre ambos vectores (fuerza y área). Cuando el vector fuerza es perpendicular al vector área, la presión es 0; cuando el vector fuerza es paralelo al vector área, la presión es máxima. La unidad de la presión es Pascal=N/m² y Baria=dina/cm². ● Principio de Pascal: El incremento de presión en los fluidos se transmite de igual manera en toda dirección a todas las partes del fluido y las paredes del recipiente. La presión hidrostática incrementa con la profundidad, incrementa con la densidad del fluído y se incrementa si aumenta g. Puntos de igual profundidad, se encuentran a igual presión (principio general de la hidrostática). ● Medición de presiones: ○ Manómetro de tubo cerrado: Informa presiones absolutas. P=⍴.△h ○ Manómetro de tubo abierto: Informa presiones manométricas. P=Patm+⍴.△h ● Flotación y Principio de Arquímedes: Un objeto flota sobre un líquido ya que aparece una fuerza de abajo hacia arriba igual al peso del volumen del fluido desalojado por el cuerpo (principio de Arquímedes). El origen de este “empuje” es la diferencia de presiones (ya que las partes de un mismo cuerpo que estén a mayor profundidad estarán sometidas a mayor presión que la parte menos profunda) originando una fuerza hacia arriba que se opone al peso del cuerpo. El empuje depende de la densidad del líquido y de su volumen que se desplazó al sumergir el material, NO depende del peso del objeto. Cuando el empuje le gana al peso, este flota. Si el peso le gana al empuje el objeto queda sumergido en el fluído hasta llegar al fondo. Densimetría: ● Densidad absoluta (δ): Magnitud referida a la cantidad de masa de materia contenida en un determinado volumen, con unidades Kg/m³ y g/cm³. El volumen que ocupe una determinada masa de una sustancia dependerá de la temperatura y la presión; por lo tanto, al informar un valor de densidad será necesario aclarar a qué presión y a qué temperatura fue realizada la determinación. Cargando… ● Densidad relativa (Dr):Expresa la relación entre la densidad absoluta de una sustancia X (δx ) y la de una sustancia patrón (δp) o de referencia, lo cual da como resultado una magnitud sin unidades. Es necesario conocer la densidad absoluta de la sustancia utilizada como patrón para las condiciones de temperatura y presión en las que fue realizada la determinación. Cargando…Cargando… Cargando… Los métodos para determinar la densidad son: ● Picnometría: Es un método que permite determinar la densidad relativa de una muestra respecto de un material de referencia. Según la ecuación de densidad relativa, si medimos la masa X en el mismo picnómetro que la masa p, Vx y Vp serán iguales. De esta manera se llega a que la densidad relativa de x es igual a la relación de masas de un mismo volumen de x y de una muestra patrón (Dr=mx/mp). Densidad relativa de líquidos: Si se utiliza agua como material de referencia, la ecuación puede expresarse de la siguiente manera: donde Pv es masa del picnómetro vacíoCargando… Densidad relativa de sólidos insolubles en agua: Si a la masa del picnómetro lleno con agua (Pv+agua) se le suma la masa del sólido (mx) y se le sustrae la masa del picnómetro que contiene agua y sólido (Pv+agua+x), se obtiene la masa de agua que ocupa el mismo volumen que ocupa la cantidad de sólido (mVagua=Vx). La relación de masas: mx/ mVagua=Vx es equivalente a la densidad relativa del sólido respecto del agua (Drx). Nota: no es necesario llenar todo el picnómetro con sólido, pero es importante que el sólido ocupe bastante volumen del picnómetro (en lo posible más de la mitad) para cometer menor error relativo en la determinación de masas. Cargando…Cargando… Densidad relativa de sólidos solubles en agua: Para determinar la densidad de un sólido soluble en agua respecto del agua, se debe determinar la densidad de éste respecto de un patrón en el que sea insoluble (δx /δp-ins). Además, se debe determinar la densidad de ese patrón respecto del agua (δp-ins /δagua). El producto de ambas densidades será la densidad relativa del sólido respecto al agua. Cargando… ● Areometría: Es un método que permite medir la densidad absoluta mediante la utilización de un instrumento llamado areómetro que se fundamenta en el principio de Arquímedes. El areómetro flota libremente en el líquido X, entonces podemos decir que ha llegado a un equilibrio de fuerzas. Esto implica que el empuje recibido es igual al peso del areómetro. Para que un areómetro nos permita medir, es imprescindible que flote parcialmente sumergido y que el enrase (interfase líquido-aire) quede ubicado en la zona de la escala del vástago. Cada areómetro puede medir un rango de densidades. Para un areómetro dado, cuanto mayor sea la densidad del líquido en el cual flota (δx) menor será su volumen sumergido (Vs), necesario para generar un empuje que compense su peso. La siguiente ecuación representa la variación de la altura sumergida en función de la densidad de la solución en que está flotando el areómetro (siendo Vb el volumen del bulbo, la sección transversal del vástago sea S, e Y la altura sumergida del vástago en un líquido cuyo peso específico es δx. Cuando la muestra está muy diluida, tanto que su valor de densidad queda por fuera de la escala del densímetro, a la muestra conocida se le agrega un volumen conocido de un líquido cuya densidad sea conocida, y de este modo lograr que la cantidad de muestra alcance para nuestro método de medición. Donde δdil es la densidad medida, Vt es el volumen final de la muestra diluida, δsv es la densidad del solvente utilizado a la temperatura de trabajo (dato), Vsv es el volumen de solvente utilizado y Vx es el volumen de muestra original que se diluyó. Nociones de Hidrodinámica: Tipos de Fluidos: ● Según su variación de densidad frente a la variación de presión: pueden ser COMPRESIBLE (gas) o INCOMPRESIBLE (líquido). ● Según su variación de energía: puede ser VISCOSO (pierden energía) o NO VISCOSO (no pierden energía). - Línea de corriente (no se cruzan): Trayectoria de una partícula que se mueve y es paralela a la velocidad en cada punto. - Tubo del flujo: Región del fluido limitado por líneas de corrientes. “Donde están más apretadas las líneas de corriente, MAYOR VELOCIDAD (menor superficie).” Tipos de fluidos según su régimen: ● Estable o estacionario: la velocidad en un punto es constante en función del tiempo. ● Variable: la velocidad varía con el tiempo con una función única. ● Turbulento: la velocidad varía en el tiempo con una función indefinida. Ecuación de continuidad: ● Por ley de conservación de masas: Q = S.ν = cte ν1.S1 = ν2.S2 A mayor S, menor V. Si cambia el sistema, cambia Q. El caudal en un sistema determinado permanece constante. Es decir, el caudal de entrada es igual al caudal de salida para ese sistema. Qe=Qs Fluidos Ideales: Los fluidos ideales son construcciones teóricasque presentan menor complejidad que los fluidos reales. ● NO VISCOSOS: no poseen fricción interna. ● INCOMPRESIBLES: no varía su volumen. Teorema de Bernoulli: El volumen de líquido desplazado es: A . Δl = Vol El trabajo neto para lograrlo es: W = p1 . A1 . Δl1 - p2 . A2 . Δl2 O bien: W = (p1 - p2). Vol W = ΔEc + ΔEp Distribuyendo: Dividiendo cada término por Vol llegamos a la expresión del teorema de Bernoulli P + ½ δ .V^2 + δ . g . h = k ENERGÍA ACUMULADA COMO PRESIÓN ENERGÍA CINÉTICA ENERGÍA POTENCIAL GRAVITATORIA ENERGÍA TOTAL DEL SISTEMA El Teorema de Bernoulli se basa en la Ley de Conservación de la Energía aplicada a fluidos. FLUIDOS REALES: Viscosidad: Resistencia interna a fluir: Régimen laminar: se aplica una fuerza tangencial en la placa superior y dejando fija la ultima lamina inferior (v=0), las placas de fluido se moverán y se genera un gradiente de velocidad como consecuencia del rozamiento. Gradiente de velocidad: La velocidad aumenta con la distancia (L) a medida que nos alejamos, su variación disminuye. Existe un gradiente de velocidad que es inverso de la pendiente en cualquier punto de esa representación: Y=dv/dL La viscosidad absoluta está definida por la ley de Newton; “ la fuerza tangencial que una capa ejerce sobre la contigua es proporcional al área de la superficie de contacto y al gradiente de la velocidad normal a la dirección de deslizamiento”. T: tensión de corte. F: Fuerza tangencial. A: área de contacto entre las capas. dv/dr: gradiente de velocidad. η: Coeficiente de viscosidad. Unidades: Pas . seg, Poise, Centipoise. Clasificacion de Fluidos: ● Newtonianos:la relación entre la magnitud de la tensión de corte o cizalla y el gradiente de velocidad es lineal. El coeficiente de viscosidad es constante (independiente de la velocidad de corte y de tiempo) por lo tanto se denomina coeficiente de viscosidad absoluto. ● No newtonianos: el coeficiente de viscosidad depende del gradiente de la velocidad y, en algunos casos, del tiempo en que dicho gradiente se aplica. En estos casos hablamos de un coeficiente de viscosidad aparente. El coeficiente se calcula como el cociente entre la tensión de corte y el gradiente de velocidad en cada punto: ηap = 𝜏 / dv/dr FLUIDO VISCOSO: ● No se conserva la energía mecánica. P1+½.δ.ν12+ρ.h1 > P2+½.δ.ν22+ρ.h2 No hay fuerzas conservativas (fricción). Teorema de Bernouilli modificado: P1 + ½.δ.ν12 + ρ.h1 = P2 + ½.δ.ν22 + ρ.h2 + WFR/Vol P1 = P2 + WFR/Vol (ley de Poiseuille) Ley de Poiseuille: En un tubo por el que circula un líquido viscoso a velocidad constante actúan: Fuerza por presión: Fp= (P1-P2).S Fuerza por rozamiento: Fr= -η.A.(dv/dr) - Igualando las ecuaciones y teniendo en cuenta la ecuación de continuidad: Q= ΔP.π.r4 / 8.L.η - Despejando ΔP y teniendo en cuenta la ecuación de continuidad: ΔP= v.8.l.η /r2 Analisis del regimen: - Velocidad crítica:Es la velocidad a partir de la cual el régimen deja de ser laminar y pasa a ser turbulento. Vc=2000 m/d.D (entre 2000 y 3000). EN TRANSICIÓN. Vc<2000 m/d.D LAMINAR. Vc>3000 m/d.D TURBULENTO. - Número de Reynolds: Es un número adimensional que permite caracterizar el régimen de un fluido. Experimentalmente se comprueba que hasta un R de 2000 se cumplen condiciones de flujo laminar. Experiencia n°2: Diámetro del tanque = 30 cm Altura de líquido en el tanque = 20 cm. r = 0,10 cm. l 1-2 = 60 cm. l total = 70 cm. δ = 1,0 g/cm3 η = 0,01 poise. Longitud (cm) Caudal Promedio (mL/seg) ΔH promedio (cm) Velocidad Promedio (cm/seg) 60 1,06 16,4 33,74 - De 0 a 30 cm: Ec=0 es cuando el fluido está dentro del tanque. - De 30 a 60 cm: Ec>0 cuando el fluido está en el caño. Cada vez que se agregue un caño es una línea nueva de Ec. No varía la Ep. porque está todo el tubo y el caño en la misma altura. Parto de la altura del tubo y hasta que no cambio del tubo al caño no disminuye la presión. Gráfico con todas las energías: Cuando el líquido entra en el tubo, de la energía total acumulada en el tanque, una parte (en este caso muy pequeña) se transforma en energía cinética y otra se gastará como trabajo contra la fuerza de fricción durante el trayecto del líquido por el tubo hasta la salida. Como resultado final la energía total del líquido a la salida del tubo es menor que la que tenía en el tanque debido a la presencia de fuerzas no conservativas (fricción). 18. Tensión superficial La tensión superficial se origina debido a la diferencia de interacciones moleculares la cual tiene 2 o 3 fases en juego (de las cuales, la fase aérea siempre está presente), su alcance es de 3 a 5 veces el diámetro molecular. - Fuerza de cohesión: Entre moléculas de la misma sustancia - Fuerza de adhesión: Entre moléculas de sustancias diferentes Deberá realizarse trabajo para llevar una molécula desde el seno del líquido a la superficie libre. La zona que comprende de 3 a 5 diámetros moleculares desde la superficie libre tendrá una ENERGÍA POTENCIAL MAYOR que las que estén en el seno del líquido, ya que las moléculas tienden a ubicarse en el seno del líquido para tratar de REDUCIR su ENERGÍA POTENCIAL, aunque siempre habrá moléculas en la superficie. El sistema tiende espontáneamente a reducir su energía, en este caso, reduciendo la SUPERFICIE a la MÍNIMA posible. Por lo que, al incrementar la superficie, aumenta la energía del sistema. Una masa dada del líquido, suponiendo un estado de “ingravidez”, tendrá a adoptar la forma esférica, ya que esta forma permite tener un determinado volumen con la menor superficie posible. Si se introduce un anillo de alambre con un bucle flexible de hilo en una solución jabonosa y se perfora la película superficial del interior del bucle del hilo, el sistema evoluciona espontáneamente a un estado de menor energía, o sea, la superficie de la solución jabonosa SE REDUCE, algunas moléculas se reubican en el seno del líquido minimizando así su energía potencial. La fuerza de adhesión entre la solución jabonosa y el hilo, y entre la solución jabonosa y el alambre exterior posibilita el fenómeno observado. Coeficiente de tensión superficial: y es el coeficiente de tensión superficial, y se define como la fuerza que ejerce una superficie por unidad de longitud. Se multiplica por 2 ya que tenemos 2 superficies sobre las que actúa la Fy. - Fy es: - Siempre tangente a la interfase - Siempre está orientada de modo tal de tender a reducir la interfase - Es proporcional al perímetro - Es perpendicular al perímetro en cada punto Si colocamos una pequeña pesa (dF) y consideramos que la varilla se va desplazando a velocidad constante de una posición de equilibrio a otra lentamente sin acelerar hasta detenerse, y que además el desplazamiento de dx es muy pequeño, podemos suponer en todo momento que: entonces, es decir, Incrementar el área de un dA implicó realizar un dW, ese trabajo fue necesario para ubicar nuevas moléculas en la superficie del líquido que estaban en el seno del mismo y así incrementar el área: vista lateral Entonces, podemos decir que: Así vemos que y también puede definirse como el trabajo necesario para incrementar una superficie en una unidad. - Unidades de y: N/m ó J/m² (MKS) ; Dina/cm ó ergio/cm² (cgs) - y depende de: La naturaleza de los medios en contacto; La temperatura Cuerpo apoyado en la superficie libre de un líquido: Vemos que un sistema se encuentra en equilibrio. Considerando despreciable y quela densidad del sólido es mayor que la densidad del líquido (δ sólido > δ líquido), se cumple que: Para que un cuerpo esté en equilibrio sobre la superficie libre del líquido, la componente vertical de Fγ (Fγy) debe ser igual al peso del cuerpo. La modificación del γ, el Peso del cuerpo o el perímetro de aplicación de la fuerza de tensión conducirán a un cambio en el equilibrio, con una deformación de la superficie distinta y la generación de un nuevo ángulo β. Casos: Cargando… Hemos denominado como F૪ (vector verde) a la sumatoria de todos los vectores rojos. Cada vector rojo es un (dF૪ ) aplicado en un punto del perímetro. ● Se coloca un nuevo cuerpo sobre la planchuela: - Mismo perímetro: misma cantidad de vectores rojos (dF૪ ) - Mismo líquido: mismo módulo de vectores rojos (dF૪ ) - Misma F૪ (vector verde) - Distinto peso - Distinto ángulo β - Distinta componente F૪(y) (vector azul) ● La planchuela se corta a la mitad y se monta una sobre otra: - Menor perímetro: menor cantidad de vectores rojos (dF૪ ) - Mismo líquido: mismo módulo de vectores rojos (dF૪ ) - Menor F૪ (vector verde) - Mismo peso - Distinto ángulo β - Misma componente F૪(y) (vector azul) ● Agregado de un surfactante (menor ૪): - Mismo perímetro: misma cantidad de vectores rojos (dF૪ ) - Distinto líquido: menor módulo de vectores rojos (dF૪ ) - Menor F૪ (vector verde) - Mismo peso - Distinto ángulo β - Misma componente F૪(y) (vector azul) Tensioactivos: Son sustancias que al agregarse en un determinado líquido, inciden sobre la tensión superficial del mismo, modificando el coeficiente de tensión superficial. Los tensioactivos pueden producir el efecto de: - Aumentar el y: - Tipo I: Estas tienden a solvatarse fuertemente, lo cual es equivalente a aumentar el grado asociación del agua. Ej: Sales iónicas en agua. - Disminuir el y: - Tipo II: Si el solvente no solvata fuertemente un soluto se produce una disminución de las interacciones intermoleculares del líquido. Ej: Alcohol. - Tipo III: Algunas sustancias, en bajas concentraciones, disminuyen bruscamente la tensión superficial. Se conocen como surfactantes. Se caracterizan por ser moléculas anfipáticas o anfifílicas. Las cabezas polares se orientan hacia el medio hidrofílico y las regiones no polares se ubican hacia el aire (no polar) Ej: Jabón. Cuando la superficie libre de una solución acuosa se completa (satura) con moléculas del surfactante, un nuevo agregado de éste ya no se podrá ubicar en la superficie. Las nuevas moléculas de surfactante se ubicarán en el seno de la solución pero lo harán formando MICELAS. La máxima concentración de surfactante que se puede agregar sobre una solución acuosa sin que en ella se formen MICELAS en su interior, recibe el nombre de CONCENTRACIÓN MICELAR CRÍTICA (CMC). Ley de Laplace: La Ley de Laplace relaciona la diferencia de presión a ambos lados de una interfase en estado de equilibrio y la tensión superficial que se opone a la deformación de dicha interfase, con la curvatura de la misma. Matemáticamente la curva se traduce como: Siendo R el radio. A mayor curvatura, el radio es menor. En el caso de 2 dimensiones, para una superficie curva quedan definidos 2 RADIOS DE CURVATURA, correspondientes a 2 PLANOS PERPENDICULARES entre sí. La curvatura media de la superficie en el punto “O” (punto en el cual las 2 curvas se unen) queda definido como: C tendrá el mismo valor para cualquier par de planos que pasen por “O” y sean perpendiculares entre sí. - Un círculo con radio infinito es una línea recta. - Una esfera con radio infinito es un plano. Cuando no hay diferencia de presión (ΔP = 0), la superficie es plana (radio de curvatura infinito) Cuando la diferencia de presión se incrementa, aumenta la curvatura de la superficie, esto es, disminuye el radio de curvatura de la superficie. Ejemplo: tenemos un recipiente con un líquido: - P1 tiende a aumentar la interfase - P2 tiende a disminuir la interfase - P3 tiende a disminuir la interfase - P4 tiende a aumentar la interfase - La Tensión superficial (TS) tiende a disminuir la interfase (en todos los casos) En una situación estática, habrá un equilibrio de fuerzas en cada punto de la superficie (dA). Por ejemplo en el caso de la burbuja, en cada punto de la superficie de esta burbuja se cumplirá que: ∑ F = 0 P1 . dA = P2 . dA + Fγ⊥ Donde: - P1.dA es la fuerza debida a la presión interna, la cual se dirige hacia el exterior. - P2.dA es la fuerza debida a la presión externa, la cual se dirige hacia el interior. - Fγ⊥ es la fuerza debida a la tensión superficial, es tangente a la interfase, por lo que se debe considerar la componente dirigida hacia el interior y aplicada en ese punto, el cual tiende a contrarrestar la deformación. Luego de esto, la expresión de la Ley de Laplace queda como: Donde: K es el número de interfases en el elemento de superficie considerado y R1 y R2 son los 2 radios de curvatura de la superficie considerada. ● Ley de Laplace para gotas y burbujas: ● Ley de Laplace para pompas: ● Ley de Laplace para cilindros: Intuitivamente podemos deducir que si una interfase es plana no existe diferencia de presiones entre ambos lados de la misma. Si una superficie tiene curvatura es de esperar que la presión del lado cóncavo sea mayor y por eso la superficie se deforma. Si una interfase se deforma la fuerza de tensión superficial interviene para oponerse a esa deformación. ● Ley de Laplace para pompas conectadas: La presión en el interior de la pompa más grande es menor, por lo tanto el aire fluirá de la pequeña a la grande y el equilibrio se alcanzará cuando la curvatura de las dos pompas se igualen. La pompa pequeña consistirá en una pequeña sección de superficie de una esfera cuyo radio de curvatura sea igual al radio de curvatura de la pompa grande resultante. Ángulo de contacto: Si tenemos una superficie sólida en contacto con un líquido, llamamos ángulo de contacto a aquel formado entre esa superficie y la recta tangente a la interfase líquido-aire que parte del punto de contacto entre estas 3 fases. θ siempre incluye al líquido. El ángulo de contacto dependerá de la naturaleza de los medios puestos en contacto. Sistemas conformados por el mismo líquido y diferentes soportes o mismo soporte y diferentes líquidos tendrán distintos ángulos de contacto Situación A: Moja Situación B: No moja Situación C: No moja ni Moja La superficie de un líquido en la proximidad de una pared sólida se curva diferente según sea la relación de la tensión interfacial sólido-vapor (γSV) y sólido-líquido (γSL). Capilaridad: ● Ley de Jurin: El sistema evolucionará hasta alcanzar el equilibrio El sistema evolucionará hasta alcanzar el equilibrio, por lo que el líquido se desplazará de zonas de mayor presión (3) a la zona de menor presión (2) y el líquido ascenderá para ganar presión en (2). El líquido ascenderá por el capilar hasta que la presión en (2) se iguale a la presión en (1) y llegue al equilibrio. Quedando la Ley de Jurin como: Cargando… Cargando… Cargando… 19. Viscosimetría La viscosidad es una propiedad tanto de líquidos como de gases y refiere a la resistencia de éstos a fluir. Sabemos que esta resistencia a fluir es consecuencia de fuerzas intermoleculares que se dan entre moléculas de la sustancia que fluye. La mecánica de fluidos no se centra en el comportamiento molecular sino en lo que le ocurre a “una porción del fluido”. Es decir, cuando estudiemos fluidos en movimiento, aplicaremos la Hipótesis del Continuo y consideraremos que el fluido es un medio continuo, despreciando las discontinuidades que genera la estructura molecular del mismo. Cuando un fluidofluye puede hacerlo con régimen laminar o turbulento (nos ocuparemos de los casos de flujo laminar, esto es, consideraremos que el fluido que fluye lo hace moviéndose como capas contiguas que rozan unas con otras). El grado de fluidez de una sustancia se puede determinar mediante un coeficiente denominado coeficiente de viscosidad o viscosidad dinámica (η). Cuanto mayor sea ese coeficiente menor será la fluidez. La viscosidad dinámica está definida por la ley de Newton de la viscosidad, en la cual se enuncia que: “La fuerza tangencial que una capa de fluido ejerce sobre la contigua es proporcional al área de la superficie de contacto y al gradiente de la velocidad normal a la dirección de deslizamiento de las capas”. ● Viscosidad absoluta: Si F es la fuerza de fricción entre las capas, A el área de contacto entre capas, y dv/dx el gradiente de velocidad en la dirección normal al movimiento, la viscosidad η queda expresada como: El término F/A se conoce como tensión de corte. Su valor representa la tensión cortante necesaria para mantener el flujo laminar entre dos capas paralelas. Los fluidos para los cuales el η es constante (tal como lo establece la ley de Newton) se denominan newtonianos y al graficar tensión de corte en función del gradiente de velocidad obtenemos una recta cuya pendiente es el coeficiente de viscosidad. Los fluidos, para los cuales esto no se cumple se denominan no newtonianos, y su viscosidad varía con el gradiente de velocidad. En este último caso se habla de viscosidad aparente ηa la cual se calcula según la ecuación para cada valor de velocidad de corte. . . ● Viscosidad cinemática: Es el cociente entre la viscosidad y la densidad másica del fluido. Métodos para medir el coeficiente de viscosidad: ● Viscosímetro capilar (Ostwald, Ubbelohde ó Cannon-Fenske): En este instrumento se mide el tiempo de escurrimiento de un volumen fijo de líquido a través de un capilar. ● Viscosímetro tipo Saybolt: Este viscosímetro mide el tiempo de escurrimiento de un volumen fijo de un líquido a través de un agujero en el fondo de un contenedor; se utiliza para líquidos muy viscosos ● Viscosímetro de caída de bola ó de Stokes: En estos dispositivos se mide el tiempo que tarda en caer una esfera de metal a través de una columna de líquido cuya viscosidad se quiere determinar. También se utiliza para líquidos muy viscosos. ● Viscosímetro rotacional: Este viscosímetro consta de dos cilindros coaxiales o de un cono y un plato, uno de los cuales gira a una determinada velocidad y el otro permanece fijo. La muestra se coloca entre los dos dispositivos y opone (frente al cizallamiento impuesto) una resistencia proporcional a su viscosidad. Esta resistencia produce en el rotor un momento angular en oposición, el cual puede ser determinado. Se utiliza para cualquier tipo de líquido, de alta o baja viscosidad, newtoniano o no newtoniano. Viscosímetro Capilar: El viscosímetro capilar o viscosímetro de Oswald está compuesto por dos ramas, una gruesa y una delgada que contiene un capilar muy delgado conectado a dos olivas, A y B. Es importante destacar que nuestro análisis se centrará en los fenómenos que ocurren en la zona del capilar. Cuando se introduce un fluido en el viscosímetro y se establece una diferencia de altura entre las columnas de líquido de las ramas, se generará una diferencia de presión (P0 y P1). Esta diferencia de presión impulsará el movimiento del fluido. En la situación inicial (t = 0), cuando el líquido está en reposo, la energía total del sistema por unidad de volumen (Etotal/Vol) estará acumulada como diferencia de presión generada por la diferencia de altura de líquido entre las ramas (ΔP impulsor). Recuerden que si analizamos energía por unidad de volumen estamos analizando presiones. En el momento en que se inicie el movimiento del fluido, una parte de esta energía acumulada por unidad de volumen (Etotal/Vol) se transformará en energía cinética por unidad de volumen (Ecinética/Vol) y otra parte se utilizará para vencer a las fuerzas de fricción:. . La proporción en la que se reparte la Etotal/Vol en Ecinética/Vol y Efricción/Vol depende de la geometría del tubo por el cual fluye el líquido y de la viscosidad del fluido. Cuanto más pequeño sea el radio del tubo, mayor será el gasto de presión necesaria para vencer a las fuerzas de fricción y por ende menor será lo que reste de Etotal/Vol para convertirse en Ecinética/Vol. Por lo tanto, el fluido se moverá con menor velocidad. En el viscosímetro de Ostwald, el tubo por el que fluye el líquido es un capilar cuyo radio es sumamente pequeño. Esto implica que el gasto de Efricción/Vol es muy grande (casi el 100% de la Etotal/Vol). Esto implica que la fracción de Etotal/Vol que se transforma en Ecinética/Vol se pueda considerar despreciable y que en consecuencia se pueda asumir que toda la Etotal/Vol del sistema se utilizará para vencer la fuerza de rozamiento (Efricción/Vol). Por lo tanto, haciendo esta aproximación antes mencionada, podemos estimar que el ΔP fricción es igual al ΔP impulsor. Dado que el ΔP impulsor es la diferencia de presión entre las dos columnas de líquido y que ΔP = Δh.g.ρ. podemos reemplazamos en la ecuación el ΔP fricción por Δh.g.ρ. De este modo obtenemos una expresión matemática que nos permite calcular la viscosidad cinemática del fluido conociendo la geometría del capilar y midiendo el tiempo que tarda una dada porción de fluido en pasar de un enrase a otro del viscosímetro: . . En nuestro sistema, la longitud l y el radio r se refieren a las dimensiones del capilar del viscosímetro y el volumen V es el volumen entre enrases de la oliva A. Es decir, l, r y V son parámetros propios del viscosímetro. Ahora bien, Δh es la diferencia de altura de líquido entre las ramas del viscosímetro. Si se carga siempre el viscosímetro con el mismo volumen de líquido, la magnitud del Δh será siempre la misma y podemos considerarla como un valor conocido. En consecuencia, la ecuación puede reducirse a: Donde k es la constante del viscosímetro y engloba a los parámetros geométricos y la fuerza impulsora del movimiento: Como puede observarse, cuanto más viscoso sea un fluido, mayor será el tiempo que tarda en fluir en un viscosímetro dado y en consecuencia, el tiempo de escurrimiento medido será mayor. Al medir viscosidades cinemáticas en este tipo de viscosímetros se puede proceder de tres maneras: - La constante k es provista por el fabricante del viscosímetro y cuando se lo adquiere comercialmente, k se entrega junto con el certificado de calibración. - Se puede realizar la calibración del viscosímetro (con un fluido patrón) que se va a utilizar y obtener así k. - Se mide la viscosidad cinemática relativa. Por supuesto, para realizar esto último los tiempos de escurrimiento del líquido de referencia y del líquido en estudio deben determinarse en el mismo viscosímetro. Se debe plantear la ecuación [Nc]=k·t para ambos fluidos y establecer su relación. Considerando que k es la misma para ambas ecuaciones, el cociente entre los tiempos es igual al cociente entre las viscosidades cinemáticas, es decir a la viscosidad cinemática relativa: Luego, con el valor conocido de [ηc] del fluido de referencia se obtiene el [ηc] del fluido estudiado. Cada viscosímetro tiene un rango de viscosidades cinemáticas para que se cumpla la Ley de Poiseuille (la cual solo es válida cuando el régimen del flujo es laminar). Si se trabaja por debajo de la viscosidad cinemática mínima para un viscosímetro, la velocidad del flujo será alta y el régimen será turbulento, y si se trabaja por encima de la máxima, el tiempo de escurrimiento será demasiado largo y hará muy dificultosa la medida. Viscosímetro de caída de bolas: Cuandose determina la viscosidad con el Método de caída de bola o Método de Stokes, para que la medición sea válida es importante que la velocidad de caída de la esfera en el seno del líquido sea constante durante el tiempo en que se está llevando a cabo la determinación. Es por esto que los enrases del tubo de Stokes están ubicados de manera tal que cuando la esfera pase el primer enrase ya haya alcanzado su velocidad límite. - En los primeros momentos del desplazamiento (velocidad igual a cero, v=0) se puede estimar que el cuerpo posee una aceleración máxima. Esta aceleración da como resultado un abrupto aumento de su velocidad. En este instante (v=0) la Fr será nula ya que, como mencionamos anteriormente, esta fuerza es proporcional a la velocidad del cuerpo. - A medida que la esfera aumenta su velocidad, la Fr crece, y consecuentemente la velocidad aumenta cada vez menos (la aceleración va disminuyendo), esto es, la aceleración se hace cada vez más pequeña. Llegará un momento en el que la fuerza neta que actúa sobre el cuerpo será nula, es decir que las fuerzas ascendentes (E y Fr) serán iguales en magnitud a las fuerzas descendentes (en este caso P). En este momento, la aceleración será cero y el cuerpo continuará moviéndose pero su velocidad será constante. Se dice que la partícula alcanzó la “velocidad límite” (máxima posible) y se cumple que: Es importante destacar que la velocidad límite que alcanza el cuerpo en el seno del fluido depende de la viscosidad y densidad del fluido, y de la densidad y dimensión del cuerpo. Es por ello que conociendo la densidad del cuerpo, el peso del cuerpo, y la densidad del fluido en el que este se coloca, con solo medir la velocidad límite se puede conocer la viscosidad del fluido. La viscosidad absoluta del fluido se puede calcular a partir de la siguiente ecuación: Si se deja caer una esfera en el fluido cuya viscosidad se quieren conocer, y se permite recorra un espacio tal que se asegure que la Vlim haya sido alcanzada, la Vlim se obtendrá midiendo el tiempo (t) que tarda el cuerpo en atravesar un espacio comprendido entre dos enrases (e): La ecuación del movimiento de la esfera es: Donde, como F es la diferencia entre el peso y el empuje F = m.g - E , k = 6.π.η.r y dv/dt es la variación de la aceleración de la esfera en el tiempo. Si integramos llegamos a la ecuación, la cual describe cómo varía la velocidad de la esfera en el líquido en función del tiempo. Podemos ver que luego de un cierto tiempo se alcanza la velocidad límite. A partir de ese punto es válido el análisis matemático para calcular la viscosidad adecuadamente: ● Sedimentación: se produce una sedimentación. Se entiende por sedimentación al proceso por el cual un material sólido en movimiento se deposita en el fondo del recipiente que lo contiene o lo transporta, producto de cambiar la posición de la esfera en el tiempo. La sedimentación a gravedad normal (g) se produce si la densidad de la partícula (δp) es mayor que la densidad del disolvente (δL). La velocidad de sedimentación será constante a lo largo de todo el proceso de sedimentación y se conoce como velocidad límite. La ecuación que determina su valor surge de la igualación de las fuerzas intervinientes en el proceso Siendo η el coeficiente de viscosidad del medio, r el radio de la partícula y Vsed la velocidad de sedimentación de la partícula. ● Centrifugación: La centrifugación es un método que se basa en las distintas velocidades de desplazamiento de las partículas en un medio líquido al ser sometidas a un campo centrífugo. Sirve para separar tanto sólidos-líquidos como líquidos-líquidos no miscibles entre ellos. Cuando en una separación sólido-líquido el objetivo es lograr una solución pura libre de partículas sólidas el proceso se denomina clarificación. Cuando se desea obtener una suspensión pero con mayor contenido de sólido que la original se trata de un proceso de espesamiento. Se puede concluir que la velocidad de sedimentación es proporcional a la aceleración centrípeta, e inversamente al coeficiente de fricción que a su vez depende de la viscosidad del solvente y del tamaño y forma de la partícula. De todas maneras, tengamos en cuenta que, como sucede en la sedimentación, si la densidad del sólido es igual a la densidad del líquido, el término del paréntesis se hace igual a cero y por lo tanto la velocidad será cero - Coeficiente de sedimentación (S) S nos permite caracterizar una partícula, pues si consideramos que la mayoría de las centrifugaciones se hacen en medio acuoso (cuya viscosidad y densidad son prácticamente invariables), este coeficiente depende solamente de las características de la partícula (masa, volumen específico y forma y tamaño) Sabiendo que el número de Avogadro (NA) es igual a la masa del soluto por su peso molecular (PM), podemos hacer el siguiente arreglo matemático: Es importante destacar que los valores de coeficientes de sedimentación no son aditivos, ya que dependen tanto de la masa como de la forma que tengan las moléculas, por ejemplo, los ribosomas procariotas están formados por dos subunidades, una 50 S y otra 30 S. Sin embargo, el valor final del conjunto del ribosoma no es 80 S, sino 70. - Factor de centrifugación (G) En síntesis, es el número de veces que la aceleración centrípeta supera a la fuerza de gravedad. Siendo rpm la velocidad del rotor en revoluciones por minuto y r el radio del rotor. Tipos de centrifugación: - Centrifugación diferencial: Es una centrifugación puramente preparativa, en la cual se obtienen dos fases, la fase de sedimentos o pellet (parte inferior del tubo), y el sobrenadante. Esta técnica se fundamenta en separar partículas con diferentes coeficientes de sedimentación (S), en el pellet quedarán las partículas de mayor densidad. Si al sobrenadante se lo expone a una nueva centrifugación pero de mayor tiempo, se conseguirá un nuevo pellet con sedimentos que corresponden al nuevo fraccionamiento. - Centrifugación analítica: Se aplica a sustancias lo más puras posible y la finalidad es analítica. Las centrífugas usadas están provistas de sistemas ópticos capaces de detectar la sedimentación de la partícula en cada momento. - Centrifugación en gradiente de densidad: Cuando las partículas de la muestra presentan un coeficiente de sedimentación similar, entonces se los hace sedimentar exclusivamente por su densidad. Para ello se arma en un tubo de centrífuga un gradiente de densidad y se siembra la muestra en la parte superior. Las partículas se moverán hasta encontrar la franja donde la densidad del líquido es igual a la densidad de la partícula. En esa franja la velocidad de sedimentación se hace cero y la partícula finalmente se detiene.