Logo Passei Direto
Material
¡Estudia con miles de materiales!

Vista previa del material en texto

Física 
 
1. Física de las partículas y teoría estándar 
 
Física de las partículas: 
 
En la física de partículas, se considera que la ​materia​ es el conjunto de todas las partículas 
existentes y que la ​antimateria​ es una forma de materia menos frecuente formada por 
antipartículas. La partícula que entra en contacto con su antipartícula se da una aniquilación 
mutua (no significa destrucción, sino una transformación devolviendo la energía que fue 
dada para materializarlo en forma de protón). 
 
➔ Propiedades cuánticas:​ Masa, Spin, Carga, Color. 
 
○ Spin​: Propiedad cuántica que presentan las partículas elementales, las 
compuestas y los núcleos. El spin puede ser entero o semientero. 
○ Carga de color​: propiedad relacionada con el modo en que algunas partículas 
interaccionan. 
 
Teoría Estándar: 
 
● Fermiones:​ Presentan spin semientero y cada fermión tiene una antipartícula 
correspondiente. Se conocen dos tipos de fermiones fundamentales 
○ Quarks:​ 6 sabores: UP/DOWN (1º generación); CHARM/STRANGE (2º 
generación); TOP/BUTTOM (3º generación). Presentan Color, cada sabor de 
quark se puede presentar en tres colores posibles (rojo, verde o azul), que se 
intercambian continuamente. Forman partículas compuestas sin carga de 
color neta (incoloro). Las correspondientes antipartículas pueden tener tres 
anticolores posibles (antirojo, antiverde o antiazul). 
○ Leptones​: ELECTRÓN/ELECTRÓN NEUTRINO (1º generación); 
MUÓN/MUÓN NEUTRINO (2º generación); TAU/TAU NEUTRINO (3º 
generación). Los neutrinos son neutros y su masa es muy baja, los demás 
tienen carga eléctrica y masa considerable. 
 
 
● Bosones:​ Tienen spin entero. Son mediadores de las fuerzas (intercambio de 
bosones entre fermiones). Con cada fuerza fundamental evidenciada en la 
naturaleza se corresponde por un supuesto tipo de bosón fundamental. 
 
Según el Modelo Estándar, existen cuatro fuerzas fundamentales en el Universo: la 
fuerza fuerte, la fuerza débil, la fuerza electromagnética y la fuerza gravitacional. 
 
 
- La fuerza gravitacional es la más débil de todas las fuerzas y presenta rango 
infinito. El fenómeno gravitatorio no puede ser explicado por la Teoría 
Estándar y no se incluye dentro de la misma. 
- La fuerza electromagnética es de alcance infinito, pero esta fuerza es mucho 
más intensa que la gravitacional. 
- Las fuerzas fuerte y débil solo actúan a corta distancia. La fuerza fuerte es la 
más fuerte de todas estas fuerzas. 
 
○ Fotones:​ Son las partículas de intercambio responsables de la ​fuerza 
electromagnética​.​ ​Así, dos partículas cargadas interactúan por intercambio 
de fotones. Es portadora de todas las formas de radiación electromagnética, 
incluyendo los rayos gamma, los rayos X, la luz ultravioleta, la luz visible, la 
luz infrarroja, las microondas y las ondas de radio. 
○ Gluones:​ ​Son las partículas de intercambio responsables de la ​fuerza fuerte​, 
que mantiene unidos a los quarks formando partículas compuestas sin carga 
color (como los protones y los neutrones, por ejemplo). El intercambio de un 
gluón entre dos quarks (o dos antiquarks) genera un cambio de color entre 
dichos quarks (o antiquarks). Este intercambio continuo de color mediado por 
gluones es el mecanismo que subyace a la fuerza fuerte. 
○ Bosones W y Z:​ S​on las partículas de intercambio responsables de la ​fuerza 
débil​. La interacción débil está involucrada en la transmutación de quarks 
(cambio de sabor). Así, esta interacción está involucrada en muchos 
decaimientos de partículas nucleares, que implican el cambio de sabor de un 
quark en otro. 
 
● Hadrones:​ Partículas compuestas por quarks y/o antiquarks que permanecen unidos 
gracias a la ​fuerza nuclear fuerte ​entre ellos. hay dos tipos de hadrones: 
 
○ Bariones:​ Están compuestos por tres quarks (o antiquarks) con carga de 
color diferente (formando una carga neutra o blanca). Ejemplo: ​Neutrones ​y 
protones​. Los bariones tienen spin semientero (fermiones compuestos). 
○ Mesones:​ Formados por un quark y un antiquark. Ejemplo: ​Piones 
(responsables de mantener unidos a los protones y los neutrones en el 
núcleo, continuamente los neutrones del núcleo se transforman en protones y 
viceversa, por intercambio de piones). Los mesones tienen spin entero 
(bosones compuestos). 
 
2. Núcleo atómico y Radiactividad. 
 
Un ​nucleído es una especie atómica que se caracteriza por la composición de su núcleo. 
Se lo representa con el símbolo químico del elemento correspondiente (​X​), y arriba a la 
izquierda el número de nucleones (​A​). Nótese que el símbolo químico ya define el número 
de nucleones al estado de protón (​Z​) quedando por lo tanto automáticamente definido el 
número de neutrones (​N​) (el ​número atómico (​Z​) y el ​número másico (​A​) definen a un 
 
átomo de un elemento). Las partículas elementales y la interacción entre ellas son las que 
forman la materia. 
A los nucleídos se los puede clasificar en isótopos, isóbaros, isótonos o isómeros. 
● Isótopos: Átomos de un mismo elemento (igual Z), con distinto número másico (A) y 
distinta cantidad de neutrones (N). Ejemplo, y .Cargando… Cargando… 
● Isóbaros:​ Átomos de diferente elemento (Z), distinta cantidad de neutrones (N) e 
igual número másico (A=Z+N). Ejemplo, y .Cargando… Cargando… 
● Isótonos:​ Átomos de diferente elemento (Z), con distinto número másico (A) e igual 
cantidad de neutrones (N). Ejemplo, y .Cargando… Cargando… 
● Isómeros:​ La única diferencia entre dos nucleidos está en su nivel energético. 
Átomos de un mismo elemento (igual Z), con igual número másico (A) e igual 
cantidad de neutrones (N). Ejemplo, y Cargando… Cargando… 
 
 
 
Radiactividad: 
 
En la tabla de nucleidos, se relacionan el número de protones (Z) con el número de 
neutrones (N) y se observa que, en general, son radiactivas las sustancias que no 
presentan un balance correcto entre protones y neutrones: cuando el número de neutrones 
es excesivo o demasiado pequeño respecto del número de protones se hace más difícil que 
la fuerza residual, descripta por la cromodinámica cuántica y debida al intercambio de 
quarks, en especial de piones, pueda mantenerlos unidos. Este desequilibrio se corrige 
mediante la liberación del exceso de neutrones y/o protones en forma de partículas, 
radiación alfa o beta. Así, un núcleo pasa de un estado excitado de mayor energía a otro de 
 
menor energía que puede seguir siendo inestable y dar lugar a la emisión de más radiación 
alfa o beta, además de la gamma (emisión de fotones). 
 
● Estabilidad nuclear y energía de unión: 
 
La masa del núcleo es menor que la suma de las masas que tienen los nucleones cuando 
están separados (defecto de masa). A este defecto de masa equivalente a la energía que 
mantiene unidos a los nucleones en el núcleo formado se la denomina ​energía de unión​ (B 
en MeV). 
 
Z: nº de protones; N: nº de neutrones; mp: masa del protón (u.m.a) ; mn: masa del neutrón; mh: masa del átomo 
(u.m.a)​. 
 
Cuanto mayor es la energía de unión, mayor será la estabilidad del núcleo. 
 
El valor de B así calculado, sólo permite comparar la estabilidad de nucleídos isóbaros. 
Cuando es necesario comparar la estabilidad entre cualquier tipo de nucleídos se debe 
utilizar la ​energía de unión por nucleón​ (B/A en MeV): 
 
Cuanto mayor sea la energía de unión por nucleón, mayor estabilidad del núcleo, o sea, 
mayor energía se debe aportar para arrancar un nucleón del núcleo en estudio. 
 
● Formas de radiación: 
 
○ Desintegración Alfa: 
Este tipo de radiación la emiten elementos pesados situados al final de la tabla de nucleidos 
(A>150 y N=84) 
 
El Q​α​ representa la energía liberada en el proceso de desintegración y se distribuye entre la 
energía cinética (Ec) de la partícula α y la Ec del núcleo hija que adquiere velocidad de 
retroceso (Q​α​=E​α​+ Er) y rondará los 4-9 MeV. El proceso de desintegración alfaes 
monoenergético ya que el tipo de núcleo que se esté desintegrando emite partículas alfa 
con la misma energía. 
 
○ Desintegración Beta negativa (β-): 
 
Es una emisión de partículas nucleares de masa igual a la del electrón y de una velocidad 
comparable con la de la luz. Estas se generan a partir de la transformación espontánea de 
un neutrón y, consecuentemente, la ganancia de un protón. Como resultado se origina la 
emisión de una partícula β​-​ y un antineutrino (ῡ). El elemento emisor aumentará su número 
atómico (Z) en una unidad pero su número másico (A) quedará igual, ya que la cantidad de 
neutrones disminuye en una unidad, mientras que la cantidad de protones aumenta también 
en una unidad. 
 
La energía liberada en la desintegración (Q​β​
-​) es igual a la diferencia de masas entre el 
núcleo madre (X) y el núcleo hija (Y), y se distribuye entre la Ec de la partícula β​-​ y la Ec del 
antineutrino. Los nucleídos madre e hija son isóbaros. 
 
○ Desintegración beta positiva (β+): 
Es una emisión de positrones (e​+​) que son considerados como la antipartícula del electrón 
dado que tienen su misma masa pero carga de signo opuesto. Esta desintegración se 
caracteriza por la conversión de un protón en un neutrón con la emisión de un neutrino. El 
elemento emisor disminuirá su número atómico (Z) en una unidad pero su número másico 
(A) quedará igual. 
 
Para que este tipo de desintegración ocurra, la energía liberada en la desintegración (Q​β​
+​) 
debe ser mayor o igual a 1,02 MeV, que es la energía necesaria para materializar el 
positrón (β​+​). La Q​β​
+​ es igual a la suma de la Ec de la partícula β​+​, la Ec del neutrino y 1,02 
Mev. Los nucleídos madre e hija son isóbaros. 
 
○ Desintegración captura electrónica: 
Es un proceso de desintegración que ocurre en un átomo cuando el núcleo con exceso de 
protones, captura un electrón de los orbitales próximos a él (normalmente de la capa más 
interna). A consecuencia de esto, un protón se transforma en un neutrón y se emite un 
neutrino dando lugar a una transmutación. Es un proceso alternativo a la desintegración 
beta positiva. Puede ser incluso el único posible cuando la energía disponible para la 
emisión radiactiva es inferior a los 1,022 MeV requeridos para materializar el positrón. 
 
 
La vacante electrónica debida a la captura del electrón puede ser ocupada por algún 
electrón de un nivel de energía externo. Esta reacomodación de electrones resulta en un 
exceso de energía que puede ser liberada por la emisión de un fotón (rayos X). 
 
○ Desintegración gamma (𝛾): 
Este tipo de radiación consiste en la emisión de fotones (radiación electromagnética) de 
longitud de onda asociada corta y con un gran poder de penetración en la materia. En este 
tipo de desintegración el núcleo no pierde su identidad sino que se desprende de la energía 
en exceso y pasa a otro estado de menor energía emitiendo fotones muy energéticos 
llamados rayos gamma. El elemento emisor no varía su Número Másico (A) ni su Número 
Atómico (Z) pero pierde una determinada cantidad de energía. 
 
*​ Indica un estado excitado del nucleído. El Qγ es igual a la energía del fotón emitido (E=hν) 
 
● Decaimiento radiactivo:​ ​El decaimiento radiactivo es un proceso espontáneo en el 
cual la cantidad inicial de átomos disminuye con el tiempo (ya que se transforman 
por desintegración). El resultado es la emisión de radiación y la aparición de un 
nuevo núcleo, así como la liberación de la correspondiente energía de decaimiento. 
La periodicidad de este tipo de procesos es característica para cada isótopo de cada 
elemento. 
 
donde: 
● N(t) es el número de radionucleidos existentes en un instante de tiempo t. 
● N​0​ es el número de radionucleidos existentes en el instante inicial t=0. 
● λ es la constante de desintegración radiactiva. 
Un parámetro muy importante en el ámbito de los estudios con elementos radiactivos es la 
actividad (A)​, que es el número de núcleos que desintegran en la unidad de tiempo. Es 
decir, es la velocidad de desintegración. 
 
La actividad depende del número de núcleos presentes (N) en la fuente y de la constante de 
desintegración (λ). 
 
Teniendo en cuenta las últimas dos expresiones matemáticas presentadas, podemos decir 
también que: 
 
Para linealizar esta ecuación exponencial, basta con aplicar logaritmo natural a ambos lados 
de la igualdad: 
 
 
Otro parámetro útil es el período de semidesintegración (T½), que es el tiempo necesario 
para que el número de núcleos radiactivos presentes en una muestra se reduzca a la mitad. 
 
 
3. Mecánica clásica vs Mecánica cuántica. 
 
La física clásica puede estudiar partículas y ondas como fenómenos diferentes. Las 
partículas son objetos con masa (considerados puntuales) cuyo comportamiento es 
descripto por la mecánica newtoniana. Las ondas son propagaciones de alguna 
perturbación en el espacio, sufren los fenómenos conocidos como difracción e interferencia. 
Fue la luz el fenómeno que puso en crisis la separación conceptual entre partículas y ondas. 
Para la Mecánica Clásica: 
 
● El tiempo y el espacio son absolutos 
● Se puede determinar la posición y la velocidad de los cuerpos. 
● Energía de movimiento explicada por el modelo de partículas impenetrables o por el 
modelo de ondas (mutuamente excluyentes). 
 
 
El comienzo de la Mecánica Cuántica surge en el intento de explicar resultados 
experimentales que parecían ser incompatibles con la Mecánica Clásica. Estos son algunos 
fenómenos que la Mecánica Clásica no pudo explicar y que dieron lugar al desarrollo de la 
Mecánica Cuántica: 
 
● La radiación del cuerpo negro:​ La materia caliente en estado condensado (sólido 
o líquido) emite radiación de diferentes energías en forma continua. Una 
superficie que sea capaz de absorber energía de todas las longitudes de onda 
posibles de la radiación electromagnética se asume que es también un muy 
buen emisor de cualquier energía posible. A este tipo de superficie ideal se la 
llama cuerpo negro. La intensidad de radiación emitida NO es uniforme para 
todas las longitudes de onda, y además el espectro de intensidad irradiada para 
diferente longitudes de onda cambia con la temperatura: a mayores 
temperaturas la energía total irradiada es mayor, pero además el pico máximo se 
mueve hacia longitudes de onda (𝛾) menores. 
Los resultados que predecía la ley de Rayleigh-Jeans concordaba bastante con los 
resultados experimentales a longitudes de onda grandes. Pero la curva empírica 
demuestra que a longitudes de onda pequeñas la intensidad tiende a cero, mientras 
que con esta ley basada en la Mecánica Clásica se predecían valores que tendían a 
infinito. A este resultado se lo conoce como “Catástrofe Ultravioleta”. 
Max Planck dedujo una función empírica que concuerda muy bien con los resultados 
experimentales, tanto a pequeñas como a grandes longitudes de onda. Además, 
planteó la existencia de osciladores en la superficie del cuerpo negro, asociados a 
las cargas de las moléculas. Luego, asumió que: 
○ La energía está cuantizada: las radiaciones producidas por los 
osciladores que vibran a una frecuencia dada pueden tener sólo 
ciertos valores de energía, proporcionales a la frecuencia. 
○ Los osciladores emiten o absorben energía en cantidades discretas 
(cuantos) y lo hacen cuando cambia su estado cuántico. 
 
● El efecto fotoeléctrico:​ El fenómeno es la emisión de electrones que ocurre 
cuando sobre un material dado incide una radiación electromagnética. Se 
observaba que se generaba una corriente eléctrica entre dos esferas cargadas 
eléctricamente si la superficie de una de ellas se iluminaba con una luz 
determinada. Se planteó que la corriente generada se debía a que la energía de 
esta luz arrancaba electrones del material iluminado. Los resultados hallados en 
los experimentosmostraban que: 
○ Los electrones se emitían inmediatamente. 
○ El aumento de la intensidad de la luz provocaba un aumento en el 
número de electrones, pero no de su energía cinética máxima. 
 
○ La luz roja no lograba generar corriente, no arrancar electrones, no 
importa cuán alta fuera su intensidad. 
○ Una luz muy poco intensa de luz violeta lograba arrancar electrones, 
que si bien eran pocos, presentaban muy alta energía cinética. 
De acuerdo a esta teoría, la luz más intensa debía tener más energía, y por lo tanto 
generar más corriente independientemente de su color. Einstein postuló que la luz 
estaría compuesta por paquetes energéticos, llamados fotones. El fotón sería la 
entidad que Planck llamó cuanto desde un planteo matemático y teórico pero sin 
confiar en que algo así pudiera darse en la naturaleza. La energía del fotón depende 
de la frecuencia (a mayor frecuencia, mayor energía y menor longitud de onda). 
● Los espectros de líneas de los gases:​ Si la luz emitida por sólidos o líquidos 
calientes atraviesa un prisma es descompuesta en luces de diferentes colores 
formando un espectro continuo. Pero cuando este tipo de ensayos se realizó con 
gases se vio que el espectro resultante no es continuo, sólo aparecen algunos 
colores en forma de líneas discretas formando lo que se conoce como espectro 
de línea. Las líneas espectrales fueron interpretadas como transiciones 
electrónicas entre diferentes estados energéticos en el átomo. Pero esta 
interpretación presentaba un problema a la física clásica ya que si en el átomo 
había diferentes niveles energéticos en los que se encontraban los electrones, 
estos, al estar girando alrededor del núcleo deberían irradiar energía (las cargas 
aceleradas irradian energía electromagnética) y por lo tanto deberían perderla 
quedando inestables hasta caer en forma de espiral al núcleo. Es decir, no hay 
un modelo clásico que pudiera explicar la estabilidad de los electrones en órbitas 
y dar cuenta de los espectros de líneas. 
Fue el físico ​Niels Bohr​, aprovechando el concepto de fotón y de niveles de energía, 
hizo una propuesta explicativa novedosa hoy conocida como “el átomo de Bohr”. 
Postuló que: 
○ El electrón se movería alrededor del núcleo en órbitas circulares sin emitir 
radiación. 
○ Cada órbita estable tendría una energía definida 
○ Un átomo sólo irradiaría energía, en forma de fotón, cuando un electrón 
se mueva de una órbita a otra 
○ El momento angular del electrón (L) estaría cuantizado y sería múltiplo 
entero de h/2π , siendo L = mvr = nh/2π donde n puede ser 1, 2, 3, … 
correspondiendo cada n a un valor de radio permitido (luego se llamaría a 
este n, número cuántico principal). 
Cuando un átomo pasa de un nivel de energía a otro, emite un fotón cuya energía es 
igual a la diferencia de energía de los niveles energéticos inicial y final. 
Desde esta nueva concepción se puede considerar que: 
 
http://www.nobelprize.org/nobel_prizes/physics/laureates/1922/bohr-bio.html
○ El espectro de líneas de un elemento es el resultado de la emisión de fotones 
con energía específica (esto es frecuencia determinada y color determinado 
si se da la energía en el espectro visible) 
○ La emisión de este fotón se da cuando la energía interna del átomo cambia 
una cantidad igual a la energía de ese fotón 
○ Si esto es así, cada átomo podría existir teniendo solo un conjunto definido 
de valores de energía interna posibles, y estos niveles energéticos posibles 
son propios de cada átomo. 
Nuevo modelo atómico:​ La mecánica cuántica deja un nuevo modelo de átomo, en el 
que no hay lugares certeros donde se pueda encontrar un electrón. Este modelo 
plantea la existencia de orbitales atómicos, es decir, los estados físicos estacionarios 
no representan la posición concreta de un electrón en un lugar dado del espacio, 
sino que representan una región del espacio en torno a núcleo atómico en la que la 
probabilidad de encontrar al electrón es elevada. 
● Las propiedades ondulatorias de algunas partículas:​ ​Se observó que átomos o 
electrones que eran asumidos como partículas (esto implica que son localizables en 
regiones concretas del espacio), podían exhibir, en algunas condiciones 
experimentales, un comportamiento ondulatorio (esto es que eran capaces de 
generar patrones interferencia). 
○ Doble rendija: En este experimento se hizo incidir un haz de electrones sobre 
una pantalla a través de una doble rendija. Sobre la pantalla se observó un 
patrón de interferencia. La teoría clásica no predice la formación de un 
patrón de interferencia sino que de acuerdo con ella se esperaría que los 
electrones, asumidos como partículas (localizables en regiones concretas del 
espacio), impacten en la pantalla en dos zonas definidas por la ubicación de 
las rendijas que atraviesan. De estos resultados complejos y aparentemente 
contradictorios surge lo que se llamó dualidad onda-partícula. 
Dado que desde la mecánica cuántica se postula que la luz está compuesta por 
fotones cuyo comportamiento está determinado por propiedades de propagación de 
ondas asociadas, De Broglie, analógicamente, analizó la posibilidad de que una 
partícula cualquiera tuviera asociada una onda. Si una partícula actúa como una 
onda, debe poder asociarse a esta partícula una frecuencia y una longitud de onda 
determinada. De Broglie planteó entonces que una partícula con masa en reposo ​m​, 
moviéndose a velocidad ​v​, debe tener una longitud de onda asociada λ en relación a 
su cantidad de movimiento p = ​mv​. 
 
La interpretación de Copenhagen:​ Los sistemas físicos no tiene propiedades definidas, 
antes de ser medidos, así la mecánica cuántica sólo predice probabilidades de que una 
medición pueda producir un determinado resultado. La medición misma afecta el sistema 
causando que el conjunto de probabilidades se reduzca a uno de los tantos valores 
posibles. A esta particularidad se la conoce como “colapso de la función de onda”. 
 
Así el llamado Principio de Incertidumbre de Heisenberg señala que la posición y momento 
de una partícula no pueden ser simultáneamente medidas con precisión, hay un mínimo 
para el producto de las incertezas de estos parámetros. Lo mismo ocurre para el producto 
de las incertezas en energía y tiempo. O sea, mientras mas conozco su posición menos 
conozco su velocidad y viceversa. 
● Función de onda cuántica:​ Cada partícula está representada en la mecánica 
cuántica por una función de onda 𝛙 (posición y tiempo), siendo 𝛙*𝛙 una medida de 
la probabilidad de encontrar a la partícula en una dada posición en un determinado 
tiempo. La función de onda es continua, y representa toda la información medible de 
la partícula. 
Esta función de onda es parte de la Ecuación de Schrödinger que permite cálculos 
energéticos de la partícula. Esta ecuación cumple, en la Mecánica Cuántica, el lugar 
conceptual que cumplen las Leyes de Newton y el principio de conservación de la 
energía en la Mecánica Clásica: predice el comportamiento de un sistema cuántico. 
Los números cuánticos que caracterizan a los elementos de la tabla periódica 
surgen al resolver la ecuación de Schrödinger aplicando restricciones o condiciones 
de contorno adecuadas para cada situación física. 
 
Para la Mecánica Cuántica: 
● El tiempo y el espacio no son absolutos 
● No se puede determinar la posición y la velocidad de los cuerpos 
● La energía de movimiento se explica bajo el modelo de partículas impenetrables ó 
por el modelo de ondas siendo indistinguibles ambos procesos. 
 
4. Introducción a la Metrología. 
La medición es un proceso que consiste en obtener experimentalmente uno o varios valores 
que pueden atribuirse “razonablemente” a una magnitud. Ante la necesidad de realizar la 
medida de una magnitud, elegiremos un instrumento que creemos que será adecuado para 
la determinación deseada. En este proceso de medición intervendrán tres elementos: 
● El mensurando (objeto a medir) 
●El instrumento 
● El operador 
El resultado de esa interacción será el valor de la medida de la magnitud o propiedad que 
queremos obtener. Lo que debe quedar claro es que la medida de una cantidad de 
magnitud, es el resultado de un proceso que ocurre llamado medición y no una propiedad o 
atributo del cuerpo. Debemos aceptar entonces que si se repite el proceso, el número podrá 
ser diferente ya que en su determinación influyen infinidad de parámetros. Todo proceso de 
medición conlleva una serie de errores experimentales y siempre habrá una incertidumbre 
en la determinación del valor de la magnitud medida. 
Todo valor medido debe ser expresado de la siguiente manera: 
X ± ΔX 
 
 Siendo: 
X el valor de la magnitud 
ΔX un valor que expresa la calidad de la medida. 
 
Las Medidas únicas son aquellas en las que se obtiene un sólo resultado como producto de 
la medición de alguna magnitud. Aquellas mediciones que conllevan a obtener varios 
resultados (del mismo mensurando) se denominan Medidas Múltiples. 
 
● Medidas Directas:​ ​El valor de la magnitud a medir resulta de una única interacción, 
mediada por el operador, entre el mensurando y el instrumento debidamente 
calibrado. 
● Medidas Indirectas:​ E​l valor de la magnitud a determinar resulta de operaciones 
matemáticas que involucran uno o más valores de magnitudes que se miden 
directamente. 
 
Límite de detección:​ Mínima cantidad de magnitud que es necesaria para registrar una 
lectura con un sistema de medida. Ejemplo, en una balanza es la mínima cantidad de masa 
para que ésta registre una lectura distinta de cero. 
 
Sensibilidad:​ Cuanto menor sea la cantidad de magnitud que discrimina un sistema de 
medida decimos que dicho sistema es más sensible. 
 
Apreciación o aproximación:​ Mínima cantidad de magnitud que es capaz de asignar un 
método de medida (mínima cantidad que se aprecia con el instrumento). A mayor 
sensibilidad, menor será el error de apreciación. 
 
Calibración:​ La calibración establece que cantidad de magnitud corresponde a la unidad de 
lectura de un instrumento de medida. Por ello se realiza con un material cuyo valor de 
magnitud sea conocido. 
● Patrón:​ Es el que define la unidad de una magnitud. Tiene un valor determinado de 
magnitud y una incertidumbre asociada. Un patrón debe ser “inalterable” y 
reproducible a través del tiempo. 
 
● Material de referencia:​ Es un material o sustancia que tiene un comportamiento 
conocido respecto de la magnitud a medir y lleva una incertidumbre asociada mayor 
que el patrón. Permite la calibración de un instrumento o sistema de medición. 
 
Incertidumbre:​ La incertidumbre es un parámetro asociado al resultado de una medición que 
caracteriza al rango de valores que podrían ser razonablemente asignados a un 
mensurando. Es un intervalo, que representa una estimación adecuada de una zona de 
valores entre los cuales se supone que se encuentra el valor verdadero del mensurando. El 
valor de la incertidumbre es el primer índice de la calidad de una medida (cuanto menor sea 
la incertidumbre de la medida, esta tendrá mejor calidad). 
 
Errores en la mediciones: 
● El “valor verdadero” de una medida es algo abstracto e imposible de medir y conocer 
● Se denomina Error a la diferencia entre el valor verdadero y el valor obtenido 
● Para una medida única debe informarse el resultado y será acompañado por su error 
como “un indicador de calidad” de la medida. 
 
○ Error absoluto:​ Es la diferencia entre el valor medido y el valor verdadero de 
la magnitud medida. Ya que no conocemos el valor verdadero no podemos 
calcular el error absoluto. El Ea se “estima” mediante la sensibilidad, franja 
de indeterminación o error de apreciación del instrumento de medida (posee 
unidades). 
■ En el caso de las medidas directas, el estimador del error absoluto es 
el error de apreciación. Para esta estimación se utiliza el máximo 
error de apreciación posible para el instrumento como indicador de la 
calidad (ΔX). 
■ En el caso particular de una medida indirecta donde ésta proviene de 
sumas y/o restas exclusivamente dicho indicador de calidad, se 
calculará como la suma de los errores absolutos de todas las medidas 
directas involucradas. 
■ En el caso particular de una medida indirecta donde ésta proviene de 
multiplicaciones y/o divisiones exclusivamente que el error relativo de 
la medida indirecta, se calculará como la suma de los errores relativos 
de todas las medidas directas involucradas. Luego, a partir del 
relativo se podrá calcular el error absoluto. 
○ Error relativo:​ Es la diferencia entre el valor medido y el valor verdadero de la 
medida relacionado con el valor verdadero. Como el valor verdadero no lo 
conocemos y asumimos que la diferencia con el valor experimental es 
pequeña, se lo calcula como (no posee unidades): 
Cargando… 
Al multiplicarlo por 100 obtenemos el Er porcentual (%). 
Este método varía en función del valor del mensurando y permite comparar 
métodos para medir un mismo mensurando. ​Luego de los resultados 
obtenidos, podemos deducir que los errores relativos dependen tanto del 
valor del mensurando como de la apreciación del instrumento utilizado. Esto 
deberá tenerse presente al momento de elegir el instrumento. Teniendo en 
 
cuenta los errores relativos, el receptor de la información decidirá, según sus 
exigencias, cuál es el método o instrumento que se adecua a sus 
necesidades. 
○ Error sistemático:​ Es un corrimiento constante en una franja de 
indeterminación siempre en la misma dirección y sentido. Se puede conocer. 
Una vez determinado se emplean para corregir el valor obtenido en una 
medición. Hay tres tipos: Instrumental (error de cero en una balanza), 
personal (error de paralaje, criterio de enrase) y del método (incorporar un 
tester a un circuito). 
○ Error aleatorio o casual:​ Es el error que aparece de manera aleatoria. Su 
valor puede estimarse mediante la estadística. Puede reducirse pero no 
anularse. Está en todas las metodologías, pero por la sensibilidad del 
instrumento si este no es muy sensible puedo no notarlo pero sigue estando. 
○ Error espurio o equivocación:​ Se hace a referencia a una acción cometida 
durante el proceso de medición que no se corresponde con el protocolo que 
se debía seguir. Errores de este tipo invalidan la medición, por lo que si estos 
son detectados por el operador en una medición, ese resultado debe ser 
descartado. 
 
Medidas múltiples:​ Al disponer de múltiples medidas, los valores experimentales se pueden 
visualizar mediante la confección de un histograma de distribución de frecuencias. Si una 
distribución es normal, los valores oscilan alrededor de un único valor central. Cuando el 
número de determinaciones es razonablemente grande, el histograma se asemeja a la 
curva de Gauss (continuo y discreto). 
● N: Es el número de datos que conforman la muestra. 
● Media Poblacional (𝜇): Es la medida de la población. Se estima con la media (Xm) de 
la muestra. 
 
● Desvío Estándar de la población (𝜎): Se estima con la desviación estándar (S) de la 
muestra. 
 
Indica la dispersión de los datos alrededor del valor medio. 
El valor de la medida será expresado con la media (​X​) y la incertidumbre será estimada a 
partir del estadístico ​S​. Entonces la expresión será: 
 
Media ± kS 
Donde ​k​=2 para expresar que el valor medio se encuentra comprendido en ese valor con 
una probabilidad de 0,955 o una confianza del 95,5%. ​kS​ se expresa con 2 cifras 
significativas y el último dígito del ​X​M​ debe ser del mismo orden de magnitud que la cifra 
menor del indicador de calidad. 
Exactitud:​ La exactitud es una propiedad de una metodología que se cumple cuando ésta es 
simultáneamente veraz y precisa. 
 
● Veracidad o justeza:​ es el grado de concordancia entre el promedio de una serie de 
mediciones y el valor del mensurando. Un método se considera veraz cuando la 
media de un número infinito de valores medidos de un mismo mensurando se 
aproxima a unvalor de referencia (si bien no es posible realizar infinitas 
determinaciones, la definición está asociada a una buena estimación de la medida 
con un gran número de ellas). Está asociado al error aleatorio. 
● Precisión:​ ​es el grado de concordancia entre mediciones sucesivas del mismo 
mensurando, es decir, la proximidad entre sí de valores medidos obtenidos en 
mediciones repetidas de un mismo mensurando bajo condiciones específicas como 
por ejemplo: el procedimiento, el operador, el sistema de medida, las condiciones de 
operación, el lugar físico y el momento temporal. Está asociado al error sistemático. 
 
5. Electrostática 
 
La carga eléctrica es una propiedad de la materia, al igual que la masa, tanto una como otra 
modifican el espacio que las rodea. A diferencia de la interacción gravitatoria que se da en 
un solo sentido (​atracción​), la interacción eléctrica se puede dar en dos sentidos, atracción 
y repulsión. Esto significa que dos trozos de materia se comportarán distinto uno respecto 
del otro dependiendo de la carga que presente cada uno de ellos. En el caso de la 
 
interacción eléctrica, la atracción se dará entre dos cuerpos con carga opuesta y lo contrario 
(​repulsión​) sucederá para cuerpos con carga del mismo signo. 
Por convención el protón posee carga positiva, mientras que el electrón tiene carga negativa 
quedando así constituidos los signos de las cargas. Con lo cual, dos cargas del mismo tipo, 
ambas positivas o ambas negativas, se repelen entre sí mientras que una carga positiva y 
una negativa se atraen. Actualmente sabemos que estas cargas pueden estar relacionadas 
con partículas conocidas más elementales, el protón y el neutrón son combinaciones de 
quarks que tienen cargas equivalentes a 1/3 y 2/3 (positivas o negativas) de la carga del 
electrón. 
Los estudios sobre las interacciones entre cargas eléctricas llevan implícitos dos principios 
muy importantes: el principio de conservación de la carga (la suma algebraica de todas las 
cargas eléctricas de cualquier sistema cerrado es constante) y el de la unidad de carga (la 
magnitud de la carga del electrón o del protón es una unidad natural de carga). Toda 
cantidad observable de carga eléctrica es siempre un múltiplo entero de esta unidad básica, 
por lo que se dice que la carga está cuantizada. 
 
Ley de Coulomb:​ Da cuenta de la fuerza electrostática que puede darse al menos entre dos 
cargas puntuales. 
La magnitud de cada una de las fuerzas eléctricas con que interactúan dos cargas 
puntuales es directamente proporcional al producto de las cargas e inversamente 
proporcional al cuadrado de la distancia a que las separa. 
 
La dirección de las fuerzas que las dos cargas ejercen una sobre la otra sigue la línea que 
las une. Si las cargas tienen igual signo, las fuerzas son de repulsión (A), mientras que, si 
las cargas tienen diferente signo, las fuerzas son de atracción (B). 
 
 
La ley de Coulomb describe sólo la interacción de cargas puntuales. Cuando dos cargas 
ejercen fuerzas simultáneamente sobre una tercera carga, la fuerza total que actúa sobre 
esa carga es la suma vectorial de las fuerzas que las dos cargas ejercerían individualmente, 
esta propiedad se conoce como principio de superposición de fuerzas. Ejemplo: 
 
 
Campo:​ ​Es el espacio modificado por algo, donde algo es aquello que genera una 
perturbación en el espacio y el tiempo, ya sea una carga, una masa, una temperatura, etc. 
En función de la perturbación, podemos hallar campos escalares y campos vectoriales. Una 
función que describe el comportamiento de magnitudes que se definen en todo su punto de 
una región del espacio. 
● La dirección de la línea de campo en cada punto del espacio es tangente al campo 
en dicho punto. 
● Las líneas de campo jamás se cruzan, si lo hicieran significa que en un punto del 
espacio habría dos direcciones para el campo. 
 
Campo eléctrico:​ Es el espacio modificado por la presencia de cargas, es un campo que 
existe y que actúa. Una carga eléctrica produce o causa un campo eléctrico, este campo 
tiene determinada magnitud en un punto dado del espacio, y si en ese punto se coloca 
alguna otra carga eléctrica puntual, ésta sentirá el campo generado por la carga anterior, o 
sea, el campo ejerce fuerza neta sobre la segunda carga. Para averiguar si existe un campo 
eléctrico en un punto del espacio se utiliza la llamada ​carga de prueba​ (pequeña y positiva: 
tan pequeña que el campo que ella puede generar es despreciable frente al campo a 
testear, y positiva por convención). Si una carga de prueba experimenta una fuerza eléctrica 
en algún lugar del espacio, entonces allí existe un campo. 
El campo, al igual que la fuerza eléctrica, es una magnitud vectorial. La intensidad de 
campo en un punto se define como el cociente entre la fuerza que experimenta una carga 
de prueba en ese punto del espacio y el valor de dicha carga de prueba. Es decir, la 
intensidad de campo eléctrico es la fuerza eléctrica por unidad de carga. También se puede 
 
decir que la fuerza eléctrica que siente una carga se puede calcular como ​F = q.E​. Si la 
carga es positiva, la fuerza que la carga experimenta tiene el mismo sentido que el campo, 
si la carga es negativa la fuerza y el campo tiene sentidos opuestos. 
 
La carga positiva es una fuente de campo (los vectores campo eléctrico salen de ella), 
mientras que la carga negativa es un sumidero de campo (los vectores campo eléctrico 
llegan a ella). 
 
 
Propiedades del campo eléctrico: 
● Simetría:​ Para cada punto por encima de una o más cargas habrá un punto 
equivalente por debajo, es decir la simetría se da desde la línea que une las cargas. 
● Campo cercano:​ Muy cerca de una carga, el campo que prevalece es el que genera 
dicha carga, es decir, las líneas son radiales y esféricamente simétricas. 
● Campo lejano:​ Muy lejos del sistema de cargas, el patrón debe parecerse al de una 
carga puntual de valor igual a la suma de las cargas del sistema, es decir, las líneas 
serán radiales a menos que la sumatoria de las cargas sea cero. 
● Punto nulo:​ Por este punto, en el que el valor del campo es cero, no deben pasar 
líneas de campo (campo nulo). 
 
Líneas de campo eléctrico o líneas de fuerza: 
● Una línea de campo eléctrico es una recta o curva imaginaria trazada de manera tal 
que siempre sea tangente a la dirección del vector campo eléctrico en cada punto, 
para cada punto está definido un sentido y dirección. 
● Las líneas de campo jamás se cruzan, si lo hicieran, esto implicaría que en un punto 
del espacio habría dos direcciones para el campo. 
● El número de líneas por unidad de área es proporcional a la magnitud del campo 
eléctrico en una dada región. 
● Las líneas de campo deben comenzar en una carga positiva (o en el infinito) y 
terminar en una carga negativa (o en el infinito). 
● El número de líneas que se originan en una carga positiva o terminan en una carga 
negativa debe ser proporcional a la magnitud de la carga. 
 
 
 
 
 
 
 
 
Dipolos eléctricos:​ ​Un dipolo es un arreglo de dos cargas puntuales de igual magnitud y 
signo opuesto separadas una determinada distancia. El arreglo como un todo es 
electricamente neutro, su distribucion de cargas lo hace comportar como un dipolo. La 
fuerza entre ambas cargas es muy grande. cuando se las somete a un campo eléctrico se 
mantienen unidas. 
 
 
 
Los dipolos, por poseer cargas, son capaces de generar un campo eléctrico. 
 
A la magnitud utilizada para caracterizar dipolos se la conoce como ​momento dipolar 
eléctrico ​(​p​), y se calcula como el producto de la carga q por la separación d, tal que: 
 
El momento dipolar es una cantidad vectorial cuya dirección sigue el eje del dipolo desde la 
carga negativa hacia la positiva. 
 
Si sobre las cargas del dipolo aparecen dos fuerzas iguales en magnitud pero de sentidos 
contrarios, de modo tal que la fuerza neta resulta nula, esto implica que el dipolo no se 
 
desplaza enel campo externo. Sin embargo, las fuerzas aparecidas no se encuentran 
actuando sobre la misma recta, por lo que se genera sobre el dipolo un ​torque​ o par de 
fuerzas (tendencia de una fuerza a rotar un objeto sobre su eje). Este torque puede 
calcularse como el producto vectorial entre la fuerza eléctrica y la distancia que separa a las 
cargas. Pero resulta más conveniente evaluarlo como el producto vectorial entre el 
momento dipolar (que caracteriza al dipolo) y el campo al cual está sometido. 
 
 
Momento de torsión: ​Este momento de torsión es máximo cuando el momento dipolar y el 
campo eléctrico son perpendiculares, y es cero si son paralelos (o antiparalelos). Este 
momento de torsión, por supuesto tiene a hacer girar al dipolo para “alinearlo” con el campo 
eléctrico. 
 
Conductores y Dieléctricos 
● Conductores:​ Aquellos materiales que permiten que cargas eléctricas se muevan. 
El campo eléctrico de un conductor, en una situación electrostática, siempre es cero. 
es decir las cargas tienen movimiento neto cero, por lo tanto el campo eléctrico en 
todos los puntos dentro del conductor es cero. 
● Dieléctricos:​ Aquellos materiales que no permiten el movimiento de carga eléctrica 
con facilidad. 
○ Polar:​ Es una polarización que se da particularmente en moléculas polares y 
tiene lugar en materiales que presentan dipolos permanentes (aún en 
ausencia de campo eléctrico externo son dipolos). Cuando estos materiales 
están en presencia de un campo eléctrico externo, el dipolo se mantiene pero 
se reorienta (torque). 
○ No Polar:​ Es una polarización causada por la polarización transitoria. Al no 
estar sometidos a un campo eléctrico no se presentan como dipolos, pero si 
se presenta un campo eléctrico ocurre una polarización inducida por este. 
El campo generado por estos dipolos (permanentes o inducidos) es opuesto al 
campo externo. Como consecuencia, el campo neto de debilita. 
 
Flujo eléctrico​ ​Se denomina flujo eléctrico al campo eléctrico que “pasa a través” de un área 
determinada. 
El flujo eléctrico puede interpretarse matemáticamente como el producto escalar entre el 
vector área (siempre perpendicular a la superficie considerada) y el vector campo eléctrico 
que representa al campo que “atraviesa” dicha superficie. 
 
 
Superficie cerrada donde ΔS representa una porción de área “atravesada” por el campo 
eléctrico E. 
Dado que es un producto escalar, el flujo será mínimo (cero) cuando el vector área y el 
vector campo eléctrico sean perpendiculares y máximo cuando dichos vectores sean 
paralelos. En cualquier otro caso, el flujo variará en función del ángulo entre ambos 
vectores. 
 
 
El flujo eléctrico total a través de cualquier superficie cerrada que encierra una carga, es 
proporcional a la carga eléctrica total encerrada por dicha superficie. 
Sin importar la forma de esta superficie, sin duda estará “atravesada” por el campo eléctrico. 
Así, se la puede dividir en infinitas pequeñas áreas y por cada unidad de área se puede 
calcular el flujo correspondiente. Este flujo será entrante si la superficie encierra una carga 
negativa y será saliente si, en cambio, encierra una carga positiva. Luego, integrando 
(hablamos de una integral de superficie) se podrá conocer el flujo neto total. 
 
Al ser esta superficie una superficie cerrada es de esperar que el flujo total en toda la 
superficie sea directamente proporcional a la carga encerrada e independientemente del 
tamaño de la superficie que encierra dicha carga, ya que todo el campo que esta carga 
genere (sea entrante o saliente) debe “atravesar” la superficie sin importar el tamaño de la 
misma. Esto es lo que se conoce como ​Ley de Gauss. 
 
Donde Q es la carga encerrada. Esta ecuación habla de flujo eléctrico pero a través de una 
superficie “gaussiana”, esto es una superficie cerrada. 
Superficie gaussiana: una delgada esfera con carga en su superficie distribuidas de manera 
homogénea. 
Se puede demostrar que la ley de Gauss es totalmente equivalente a la ley de Coulomb, 
solo expresa de modo diferente la relación entre carga eléctrica y campo eléctrico. 
Energía potencial eléctrica 
La energía potencial es entendida como la capacidad de un sistema de hacer trabajo 
proveniente de su configuración espacial (con configuración espacial nos referimos a todos 
los elementos con masa o con carga según el caso) que dispuestos en el espacio den como 
resultado el campo que se ejerce sobre el objeto que estemos analizando. 
Si dejamos una carga en un campo eléctrico, la carga se mueve porque el campo hace 
trabajo sobre ella. Este trabajo, por provenir de una fuerza conservativa, se puede expresar 
en términos de energía potencial eléctrica, y esta energía dependerá de la posición de la 
carga en el campo eléctrico, es decir, cuando la carga está colocada en un determinado 
punto en el campo eléctrico, tiene energía potencial eléctrica que podrá ser utilizada para 
moverse. Cuando lo haga la carga pasará de un estado de una determinada energía 
eléctrica a un estado con menor energía potencial eléctrica, ya que el movimiento es 
espontáneo y por acción del campo eléctrico que ha ejercido sobre ella una fuerza 
(conservativa). 
El trabajo realizado por el campo es igual a la disminución de energía potencial: 
 
El trabajo se expresa como el negativo del cambio de energía potencial ya que, como se ha 
dicho antes, el campo hace un trabajo sobre la carga determinando su movimiento y de esta 
manera disminuye su energía potencial, con lo cual si evaluamos la diferencia entre la 
energía potencial final respecto de la inicial obtendremos una clara disminución y la 
diferencia será negativa. 
 
Se puede definir a la ​energía potencial eléctrica como el trabajo realizado por el campo 
eléctrico sobre una carga que se mueve en dicho campo. Si la carga se mueve desde a 
hasta b, el trabajo que el campo realiza sobre ella es Ua-Ub. 
 
Si Ua es mayor que Ub, el campo realiza trabajo positivo sobre la carga cuando esta “cae” 
de un punto de mayor energía potencial (a) a uno de menor energía potencial (b). 
Ahora bien, esta misma situación puede ser evaluada desde otro punto de vista. Es decir, 
se puede considerar cuánto trabajo se tendría que hacer para “subir” una carga desde b 
hasta a (un ejemplo de esto podría ser el acercar dos cargas positivas a pesar de la 
repulsión). Para mover la partícula con carga habrá que ejercer una fuerza externa igual y 
opuesta a la fuerza del campo eléctrico y realizar trabajo positivo. Entonces, podemos 
también definir a la energía potencial, Ua-Ub, como el trabajo que debe realizar una fuerza 
externa para mover una carga desde b hasta a contra la fuerza eléctrica. Como la fuerza 
externa es siempre contraria a la fuerza eléctrica y el desplazamiento también ocurre en la 
dirección contraria, la definición de energía potencial eléctrica es equivalente en ambos 
casos. 
 
 
Potencial electrico: 
El potencial eléctrico representa la cantidad de trabajo por unidad de carga necesario para 
mover dicha carga de un punto a otro, es decir es energía potencial eléctrica por unidad de 
carga: 
 
Para un par de cargas: 
 
 
 
 
●Si la fuerza entre las cargas es repulsiva 
(las cargas tienen igual signo), el trabajo 
externo necesario para sobrepasar la 
repulsión electrostática y la energía 
interna del sistema son positivos 
●Si la fuerza entre las cargas es atractiva, 
el trabajo externo es negativo. 
 
●Si q es +, el potencial es + 
●Si q es -, el potencial es - 
●En el infinito y donde el campo 
sea cero, el potencial es cero. 
 
Superficies equipotenciales:​ U​na superficieequipotencial es una superficie tridimensional en 
la que el potencial eléctrico no varía. Esto es, si se mueve una carga de prueba muy 
lentamente de un punto a otro de una superficie equipotencial, la energía potencial eléctrica 
no cambia, esto es, el campo eléctrico no realiza trabajo. El vector campo eléctrico es 
siempre perpendicular a la superficie equipotencial, de modo tal que la fuerza eléctrica sea 
 
perpendicular al desplazamiento. Puntos de campo cero significan que si allí se encuentra 
una carga esta no sentirá fuerza alguna y por lo tanto no se moverá. Sin embargo que el 
campo sea cero no implica que no se haya realizado trabajo para llevar la carga hasta allí, 
con lo cual el potencial no tiene por qué ser cero. Y al revés, zonas de potencial cero 
implican que no se ha hecho trabajo para colocar una carga en dicho lugar (por ejemplo 
zonas intermedias entre cargas positivas y negativas de igual magnitud), sin embargo, el 
campo en estas zonas puede ser importante, esto es, una carga ubicada en este lugar 
claramente se moverá. 
Por convención: 
● El potencial cercano a una carga generadora positiva es positivo y el potencial 
cercano a una carga generadora negativa, es negativo. 
● Una carga positiva irá de un lugar de mayor potencial a uno de menor potencial 
potencial. Una carga negativa irá de un lugar de menor potencial a uno de mayor 
potencial. 
 
 
6. Electricidad 
 
FEM​ (fuente, E, Volt, F. electromotriz): diferencia de potencial cuando no circula corriente. 
Entrega una energía potencial o voltaje para que las cargas se muevan. 
ΔV= R x I 
 
Realiza trabajo sobre la carga que la atraviesa resultando en un aumento de su energía 
potencial. 
Pot. Eléctrico= (E.pot/q)/tiempo = watts 
Consumo ---- watts/hora = E. 
Potencia ---- watts = Pot. 
 
Energía potencial:​ Expresa la diferencia de energía que hay entre el borne ​-​ y el borne ​+. 
Resistencia:​ obstáculo al paso de la carga en el circuito, genera un gasto de energía. 
Intensidad:​ es una magnitud escalar, indica la cantidad de carga que circula por unidad de 
tiempo, teniendo una dirección y sentido. 
 
Corriente eléctrica:​ Flujo de cargas eléctrica que atraviesan un área transversal por unidad 
de tiempo. i= [Amp]= C/seg. 
 
Densidad de corriente:​ Corriente por unidad de área de sección transversal. 
 
volumen=​ área x longitud 
 
● Si se mueve una carga, adquiere una velocidad. 
v= dist. / tiemp. 
Volumen = Vel. x Área 
 
Conductancia (G)​:​ Al circular corriente por un cuerpo, este va a ofrecer una conductancia, la 
cual depende de las características geométricas del cuerpo y de su conductividad (o) 
● Conductividad (o):​ depende de forma directa con el área y de forma indirecta con la 
longitud. Es una constante física propia de cada material determinado , por sus 
propiedades atómicas y depende de la temperatura. Refleja que tan buen conductor 
es un material determinado. 
G= A/L x o R= L/A x p 
La conductancia es la inversa de la Resistencia: ​G=1/R 
La conductancia es la inversa a la Resistividad: ​o=1/p 
● Resistividad (p):​ Es la razón de las magnitudes del campo eléctrico y la densidad de 
corriente. Los buenos conductores tienen poca resistividad; los buenos aislantes 
tienen alta resistividad. 
 
Ley de Ohm:​ La energía que se gaste al atravesar un obstáculo en el paso es proporcional 
a la I x R. ​E= I x R 
- La diferencia de potencial que aparece en los extremos del conductor es 
proporcional a la corriente que circula por el. 
La resistencia es el factor de proporcionalidad . ​R= V/I 
 
 
Leyes de Kirchhoff. 
● Ley para uniones o nodos:​ En una unión de un circuito en donde puede dividirse la 
corriente, la suma de las corriente que entran al nodo debe ser igual a la suma de 
las corriente que salen del mismo. Es decir, la suma de las corrientes en cualquier 
unión es igual a cero. 
Σ I=0 
● Ley para mallas o espiras:​ La suma algebraica de las diferencias de potencial en 
cualquier malla o espira, incluso las asociadas a la fem y las de elemento con 
resistencia, debe ser igual a cero. 
Σ V=0 
Instrumentos de medición: 
● Tester: usado como AMPERÍMETRO:​ ​Permite conocer la Itotal que pasa por el 
mismo. Se conecta en serie a la parte del circuito donde me interesa conocer la 
intensidad de corriente. 
● Tester: usado como VOLTÍMETRO:​ ​Permite conocer ​el voltaje entre los puntos 
donde se encuentra conectado. Se conecta en paralelo a la parte del circuito donde 
me interesa conocer la caída de potencial. 
 
Circuito en SERIE Circuito en PARALELO 
● Req = R1 + R2 +...+ Rn 
● Itotal= I1 = I2= … = In 
● Δv=Δv1 + Δv2 + … + Δvn 
● Req= (1/R1 + 1/R2 + … + 1/Rn)^-1 
● Itotal= I1 + I2 + … + In 
● Δv= Δv1 = Δv2 = … = Δvn 
 
Capacitores:​ Son dispositivos diseñados para almacenar energía eléctrica. Están 
constituidos por dos placas, una + y otra -, separadas por vacío/aire, conectadas por sus 
extremos, generando un diferencia de potencial entre ellas. Su ​Δv=0 ​, hasta que se cargue 
y se iguale con la FEM. 
 
No circula corriente entre las placas y conducen la corriente eléctrica mientras se cargan o 
descargan, si se la conecta a un circuito funciona como FEM. 
 
Capacitancia (C):​ Es la medida de la capacidad de almacenamiento de carga eléctrica por 
unidad de potencial eléctrico, Cuán fácil o difícil sea de cargar un capacitor. 
C= Q/ |​Δv| 
● A mayor C, se carga más rápido con un Δv chico. 
● Como también depende del área de las placas y la distancia que las separe. A 
mayor A, mayor C, pero a menor D, mayor C. ​Cuando las placas están muy 
próximas, el campo eléctrico entre ellas es uniforme y se considera despreciable en 
los bordes. 
 
● Densidad de carga​:​ se define como la carga por unidad de área en cada una de las 
placas. 
d= Q/A 
Según gauss: E x A = Q/​ ​ε 
Al ser constante el campo, se puede relacionar con el potencial: ​|​Δv|=E x d 
 
 
Energía Almacenada:​ La energía potencial eléctrica almacenada es exactamente igual a la 
cantidad de trabajo requerido para cargarlo, es decir, para separar las cargas opuestas en 
los conductores, cuanto mayor sea la cantidad de cargas separadas, mayor es el trabajo 
que se debe realizar y mayor será la energía almacenada. 
 
 
Puede considerarse que toda la energía potencial almacenada reside y es acumulada en el 
campo eléctrico creado a partir de las cargas almacenadas en los conductores y que se 
encuentra entre ellas. Se puede definir como, ​densidad de energía. 
 
 
Capacitores en circuito: 
 
En paralelo:​ Las cargas fluyen de una placa a la otra gracias al trabajo realizado por la 
batería, este flujo de carga cesa cuando el potencial acumulado por cada capacitor es igual 
al de la batería. 
La igualdad de potencial obtenido al final no implica que los capacitores tienen la misma 
carga. 
En serie:​ Todos los capacitores deben llegar a la misma carga Q, esto no implica que sus 
potenciales sean iguales. Además, la sumatoria de los potenciales de todos los capacitores 
deber ser igual al potencial de la pila. 
 
 
 
Dieléctricos:​ Es un material aislante que ubicado entre ambas placas reduce la diferencia de 
potencial entre ellas. 
Posee dos funciones: 
● Resuelve el problema mecánico de mantener las dos placas físicamente separadas. 
● Incrementa la capacidad de almacenamiento y por lo tanto incrementa también la 
energía almacenada en el capacitor. Depende del material utilizado. 
Hay dos tipos: 
● Polares:​ ​poseen momentos dipolares permanentes. En ausencia de un campo 
eléctrico están orientados al azar. 
 
 
 
Serie Paralelo 
➢ Qt= Q1 + Q2 + … + Qn 
➢ Δv= V1 + V2 + … Vn 
➢ Siendo V=Q/C 
Ceq= ( 1/C1 + 1/C2 + … + 1/CN)^-1 
➢ Qt= Q1 + Q2 + ...Qn 
➢ Vt= V1 + V2 + … + Vn 
➢ Siendo Ceq x V = C1 x V + C2 x V 
Ceq = C1 + C2 + … + Cn 
Bajo la acción de un campo eléctrico, se produce la orientación de las moléculas. 
Generando un campo opuesto y de menor magnitud. 
 
● No polares:​ ​No poseen momentos dipolares permanentes. 
 
Los momentosdipolares son inducidos por el campo eléctrico aplicado, se orientan 
de igual manera que un dieléctrico polar, y producen el mismo efecto. En presencia 
de un campo se polariza. Al disminuir el campo eléctrico en donde se encuentra, 
disminuye el campo entre las placas y logró almacenar más cargas, es decir, al 
disminuir el ​Δv ​, hace que vuelva a tener más espacio para almacenar carga y volver 
a llevar el ​Δv=FEM. 
 
Campos generados por un dieléctrico:​ ​Un dieléctrico que tiene momentos dipolares 
eléctricos predominante en la dirección del campo eléctrico, se dice que está polarizado por 
el E. 
El efecto neto de la polarización es la creación de una carga superficial sobre las caras de 
las placas. 
Esta carga ligada al dieléctrico produce un campo opuesto a la dirección del original. 
 
Capacitores dieléctricos: 
 
 
 
 
7. Electroforesis 
 
 
Una carga eléctrica inmersa en un campo eléctrico experimenta una fuerza de atracción o 
repulsión , como describe la Ley de Coulomb: 
 
En un medio donde el campo eléctrico es homogéneo, el módulo de la fuerza eléctrica que 
resulta sobre la carga depende tanto de la intensidad del campo eléctrico como del valor de 
la carga en estudio. 
 
En un primer instante, como consecuencia de la fuerza eléctrica, la partícula cargada 
experimenta una aceleración inicial y como resultado la misma comienza a moverse. 
Cuando la partícula se encuentra inmersa en un fluido (en el caso de la electroforesis, este 
medio corresponde al buffer de corrida) aparece sobre ella una fuerza de rozamiento, ya 
que el fluido en el que se mueve la partícula se opone a su movimiento. La fuerza de 
rozamiento es proporcional a la velocidad de la partícula, tiene igual dirección que la fuerza 
eléctrica pero sentido opuesto. Es así que la fuerza neta que actúa sobre la partícula será 
entonces la resultante entre la fuerza eléctrica y la de rozamiento, y resulta igual a la 
diferencia entre ambas. Esta resultante será la que determinará su migración en el medio de 
corrida. 
La fuerza de rozamiento no es constante ya que se incrementa a medida que aumenta la 
velocidad de la partícula, y consecuentemente disminuye progresivamente la aceleración. 
Llega un momento en que la fuerza de rozamiento adquiere la misma magnitud que la 
fuerza eléctrica. Dado que ambas fuerzas tienen igual dirección pero sentidos contrarios, la 
resultante sobre la partícula será igual a cero. En consecuencia, a partir de este momento, 
la partícula no experimentará aceleración alguna y se moverá a velocidad constante siendo 
esta velocidad la máxima que alcanza en el seno del fluido bajo un campo eléctrico 
uniforme. Dado que esta situación se alcanza a los pocos segundos, se puede asumir que 
la velocidad es constante durante todo el desplazamiento. 
Propiedades del medio. 
La velocidad que adquiere una partícula cargada eléctricamente cuando está sometida a un 
campo eléctrico depende de la partícula - ​carga​, ​tamaño​ y ​forma​-, de la ​viscosidad del 
medio​ y la ​intensidad del campo eléctrico​ aplicado. 
 
También se encuentra condicionado por la ​difusión natural ​así como también por la 
temperatura ​de trabajo. Asimismo, el ​pH ​del medio y la ​fuerza iónica ​pueden afectar la 
 
velocidad de la partícula modificando su carga neta o produciendo un apantallamiento de su 
carga, respectivamente. 
● Movilidad electroforética 
La movilidad electroforética (​μ​) de una molécula cargada que se mueve en un campo 
eléctrico, se define como el cociente entre la velocidad de la misma y el campo eléctrico 
aplicado. Es decir, es la velocidad que adquiere la partícula por unidad de campo eléctrico 
aplicado. Se puede representar como: 
 
Donde ​q ​(carga) depende del pH y la fuerza iónica, mientras que el ​k​f ​(coeficiente de 
fricción) depende del tamaño y forma de la partícula, de la viscosidad y de la temperatura. 
 
Carga:​ La carga se desplazará en el medio hacia el polo que posee carga opuesta como 
consecuencia de la fuerza de atracción eléctrica: las moléculas cargadas positivamente se 
desplazarán hacia el ​cátodo​ (polo negativo) y las cargadas negativamente se desplazarán 
hacia el ​ánodo​ (polo positivo). Los aminoácidos son anfolitos, pueden variar su carga neta y 
comportarse como aniones o cationes dependiendo del pH del medio en que se encuentran. 
El ​pH​ influye sobre la carga que adquieren los grupos ácidos y básicos presentes en las 
moléculas. Las moléculas biológicas suelen presentar grupos con características de ácido o 
de base débil. Por lo tanto, se ionizan parcialmente en solución coexistiendo en equilibrio 
distintas especies. El ​punto isoeléctrico​, pI, es el pH en el cual la carga neta de la 
molécula es nula, es decir el pH que corresponde a movilidad electroforética (µ) igual a 
cero. Cuando el pH es menor al pI, su forma iónica predominante es en forma de catión 
(migra hacia el cátodo), cuando el pH es mayor al pI su forma iónica predominante es en 
forma de anión (migra hacia el ánodo), cuando el pH se iguala al pI, su forma iónica 
predominante es en forma de ión anfótero, es decir, no presenta movimiento. 
Además de esto la movilidad electroforética depende de la ​fuerza iónica​. La fuerza iónica 
es una medida de las cargas en una solución, estima la actividad de los electrolitos en 
solución según su carga y concentración. Una mayor fuerza iónica, da cuenta de una mayor 
concentración de iones en la solución. En el caso de la electroforesis la presencia de 
electrolitos en el entorno de la partícula cargada tiende a contrarrestar la migración de la 
partícula en estudio, puesto que los contraiones tienden a moverse en sentido opuesto por 
su carga. Por ello, la velocidad que alcanza la partícula en un medio con muchos electrolitos 
será inferior a la que alcanzaría en un entorno con un menor número de cargas totales. Se 
puede pensar como un apantallamiento de la carga neta de la partícula como consecuencia 
de los contraiones que la rodean. 
 
Coeficiente de fricción:​ mide la resistencia intrínseca debida a las características de cada 
molécula. La influencia en la migración de la partícula está dada por la forma (mientras más 
pequeña la partícula, mayor migración), por el tamaño (a mayor tamaño y forma más 
 
irregular o si la proteína está desplegada, menor corrida) y por la viscosidad y temperatura. 
La ​temperatura​ puede afectar la velocidad con la que se desplaza la partícula de 3 
diferentes formas. En primer lugar, hay que considerar que la viscosidad del buffer es una 
constante física que depende de la temperatura, por ende el coeficiente de fricción variará 
según cuál sea el valor del coeficiente de viscosidad del medio a la temperatura de trabajo 
(a mayor viscosidad, mayor ​k​f, ​lo que disminuye la movilidad electroforética, y a menor 
temperatura, mayor viscosidad, mayor ​k​f ​y menor movilidad electroforética). En segundo 
lugar, la energía cinética intrínseca de las moléculas, que determina el fenómeno de 
difusión, está en directa relación con la temperatura. Por último, dadas ciertas condiciones 
de temperatura puede evaporarse solvente del buffer lo cual altera su fuerza iónica. 
 
Por lo tanto bajo iguales condiciones de corrida (igual buffer de corrida -fuerza iónica, pH y 
viscosidad-, igual campo eléctrico, igual temperatura), partículas que difieran en carga, 
tamaño y/o forma migrarán a distinta velocidad, y por ende recorrerán distinta distancia 
durante un mismo período de tiempo. Este es el fenómeno físico en que se fundamenta la 
técnica separativa denominada ​electroforesis​. 
 
Efecto Joule:​ ​En todo circuito eléctrico, el movimiento de cargas a través de la resistencia 
supone la realización de un trabajo que involucra una pérdida de energía. Esta pérdida de 
energía por unidad de tiempo, es la potencia disipada en la resistencia y en el caso de la 
electroforesis es el calor disipado en el soporte. 
Las corridas electroforéticas puedenrealizarse a voltaje o a intensidad constante, si se 
dispone de una fuente de poder que lo permita. Si durante la corrida la resistencia R del 
soporte se mantuviera constante, cualquiera de las dos variables experimentales que 
fijemos (voltaje o intensidad), la otra también se mantendrá constante y daría lo mismo fijar 
una u otra. Ahora bien, en la práctica esto no sucede. A medida que transcurre la corrida 
electroforética, la resistencia del soporte (papel o acetato de celulosa) va disminuyendo 
debido a que los poros del mismo se impregnan con buffer y aumenta la conductividad 
(recordar que conductividad y resistividad están en relación inversa). 
● A ​voltaje constante​, el aumento de la intensidad de corriente produce un aumento 
del calor disipado por unidad de tiempo (efecto Joule) y por lo tanto habrá mayor 
evaporación de solvente; en consecuencia aumentará la fuerza iónica y a causa de 
esto disminuirá la movilidad. La distancia recorrida será menor. 
 
● Si trabajamos en condiciones de ​intensidad constante​, la disminución de la 
resistencia, traerá como consecuencia una disminución del voltaje. En estas 
condiciones, en consecuencia, el calor disipado por efecto Joule es menor. Para 
obtener una mayor distancia recorrida por la sustancia (probablemente ello sea 
necesario en ciertas condiciones) deberíamos incrementar el tiempo de la corrida. 
Sin embargo, esto no es beneficioso porque trae aparejado un incremento de la 
difusión natural de las sustancias y por ende, una pérdida de resolución. 
 
 
Flujo electroendosmótico:​ ​En algunos soportes (por ejemplo: el papel) poseen en su 
composición grupos químicos que pueden presentar propiedades ácidas o básicas. Los 
mismos pueden hallarse ionizados en determinadas condiciones de pH adquiriendo carga. 
Se produce, entonces, un efecto de polarización de las cargas del buffer que está en 
contacto con el soporte. Por ejemplo, en el caso del papel los grupos carboxilos a pH 
cercanos o mayores a su pKa estarán ionizados (en forma de carboxilatos) por lo que 
presentan una carga neta negativa. Los contraiones positivos que neutralizan dichas cargas 
estarán libres de moverse junto con el buffer por lo que el buffer en contacto directo con el 
soporte presentará una carga neta positiva debido a la polarización de la solución. 
 
Cuando se aplica una diferencia de potencial al sistema, los iones positivos se mueven 
hacia el cátodo arrastrando consigo su esfera de solvatación. Por ende existe un flujo neto 
de la solución que se transmite a todas las moléculas arrastrándolas hacia el cátodo. En 
consecuencia la migración de cualquier sustancia presente en el soporte se verá arrastrada 
hacia el cátodo independientemente de cuál sea su carga. 
 
8. Magnetismo 
 
Un campo magnético puede definirse como la forma en que se modifica el espacio por la 
presencia de un cuerpo con propiedades magnéticas. Es decir, describe la dirección e 
intensidad de la fuerza magnética que sentirá un cuerpo con propiedades magnéticas en 
cada punto del espacio. 
Características: 
● La dirección del vector campo magnético en un punto es tangente a las líneas de 
campo. 
● El número de líneas por unidad de área es proporcional a la magnitud del campo 
magnético en una dada región. 
● Las líneas de campo no se cruzan. 
● Las líneas de campo ​siempre​ se cierran sobre sí mismas. 
 
Magnitud:​ Para definir la magnitud del campo magnético en un punto, hay que considerar 
una ​carga de prueba ​(partícula pequeña con carga positiva) ​en movimiento​, que se 
desplaza a una velocidad V. 
 
 
Dirección y sentido:​ En cualquier posición, la dirección de B se define como aquella en la 
que tiende a apuntar el polo norte de la aguja de una brújula. 
 
Fuerza magnética sobre cargas en movimiento: 
● Es proporcional a la magnitud de la carga afectada. 
● Es proporcional a la magnitud del campo magnético. 
● Es proporcional a la velocidad de la partícula. 
● La fuerza que ejerce el campo magnético tiene una dirección perpendicular a la 
dirección de la velocidad de la carga y del campo magnético (área formado entre 
estos dos). 
 
 
 
 
 
 
 
 
Movimiento de partículas cargadas en un campo magnético 
 
 
 
Conductor:​ La fuerza magnética total sobre el conductor es igual a la suma de las fuerzas 
magnéticas individuales sobre las cargas en movimiento. 
 
Materiales magnéticos: 
 
 
● Ferromagnetismo:​ Presentan un alineamiento mayor y más fuerte que el resto de los 
materiales magnéticos. Pueden permanecer alineados sin campo magnético 
externo. Quedan magnetizados. Son los imanes permanentes. 
● Paramagnetismo:​ Materiales con momento dipolar magnético permanente que 
nunca se alinean espontáneamente. En ausencia de un campo magnético externo, 
están ubicados al azar. Al aplicarse un campo magnético los dipolosCargando… 
experimentan un torque que tiene a alinear μ con , produciendo unaCargando… 
magnetización paralela a .Cargando… 
● Diamagnetismo:​ Materiales sin momento dipolar magnético permanente. Al aplicarse 
un campo magnético se inducen momentos dipolares magnéticos en losCargando… 
átomos o moléculas. Sin embargo, los dipolos magnéticos inducidos se oponen a 
.Cargando… 
 
 
 
Ley de Ampere:​ El campo magnético en el espacio alrededor de una corriente eléctrica, es 
proporcional a la corriente eléctrica que constituye su fuente (de la misma forma que el 
campo eléctrico en el espacio alrededor de una carga, es proporcional a esa carga que 
constituye una fuente). Sea cual fuere el área que uno elija, el campo magnético sólo 
dependerá de la intensidad de corriente que la atraviesa. 
 
La integral de línea de un campo magnético alrededor de un loop cerrado cualquiera es 
igual al producto del flujo de carga transportada por la superficie unida por el camino 
cerrado. 
 
 
9. Electromagnetismo 
 
El electromagnetismo es un único fenómeno. Originalmente electricidad y magnetismo 
fueron pensados como fuerzas separadas e independientes, pero esta visión ha cambiado. 
Hay cuatro efectos resultantes de las interacciones eléctricas y magnéticas, estos pueden 
resumirse como: 
● Las cargas eléctricas se atraen o repelen unas a otras con una fuerza proporcional 
al cuadrado de la distancia entre ellas. 
● Los polos magnéticos se atraen o se repelen unos a otros de manera similar y 
siempre ocurren de a pares norte-sur. 
 
● Una corriente eléctrica en un cable crea un campo magnético circular alrededor de 
dicho cable cuya dirección depende de la dirección de la corriente. 
● Una corriente es inducida en una espira de cable cuando este se mueve desde o 
hacia un campo magnético, o cuando un magneto es movido desde o hacia él, 
siendo la dirección de la corriente dependiente de la dirección del movimiento. 
 
Ley de Faraday:​ La FEM inducida en una espira cerrada es igual al negativo de la relación 
de cambio con respecto del tiempo del flujo magnético a través de la espira. 
 
Es decir, ​cuando el imán se acerca a la espira, el flujo del campo magnético que la atraviesa 
es mayor y al alejarse, el flujo del campo magnético a través de la espira vuelve a disminuir. 
Es decir, se obtiene corriente inducida en la espira del circuito que contiene al 
galvanómetro, sólo cuando el flujo del campo magnético a través del área que encierra a la 
espira cambia con el tiempo. 
 
 
Ley de Lenz:​ El sentido de la corriente inducida (dada por la FEM que se induce) es tal que 
siempre se opone al cambio que la produce. Es decir, la “aparición” de la FEM inducida 
contrarresta la perturbación provocada sobre el sistema. 
 
 
Cuando se acerca un polo Norte a la espira, en ella debe generarse un polo Norte de 
manera de contrarrestar (rechazar) al Polo Norte que se acerca y así se deberá gastar 
cierta energía para poder acercar dicho Polo Norte, lo contrario sucederá cuando se quiera 
alejar el Polo Norte de la espira, se generará en ella un Polo Sur de manera que se deberá 
gastar cierta energía para alejar el Polo Norte delimán. Esa Energía gastada no se pierde, 
sino que, aparece en la espira en forma Energía Potencial Eléctrica (UE).(Responsable de 
la aparición FEM inducida y por lo tanto de la corriente inducida). 
 
Corriente alterna:​ Si se hace girar una espira rectangular con rapidez angular (w) constante 
en un campo magnético constante, habrá un cambio de flujo magnético porque la dirección 
del área de la espira cambia cuando esta gira. Si a este dispositivo se lo conecta a un 
circuito, la FEM inducida que varía sinusoidalmente da lugar a lo que se conoce como 
corriente alterna. La magnitud de esta corriente alterna y si dirección varían también en 
forma sinusoidal. 
 
Cuando el plano de la espira resulta perpendicular al campo magnético (​ángulos de 0º y 
180º), el flujo presenta valores máximos y mínimos, la rapidez de cambio instantánea es 
nula y la FEM es nula. La FEM será máxima cuando el plano de la espita esté paralelo al 
campo magnético (ángulos de 90º o 270º), el flujo cambia con mayor rapidez. 
 
 
Corriente de desplazamiento :​ Sea cual fuere el área que elijamos en unCargando… 
conductor, se cumple la Ley de Ampere. Mientras circula corriente, entre las placas de un 
capacitor (donde no hay corriente) hay campo magnético, ¿por qué?. Durante la carga del 
capacitor e​l campo eléctrico aumenta a medida que se acumula carga en sus placas. La 
corriente de conducción que lleva las cargas produce un campo magnético. Aparece así en 
la Ley de Ampere un nuevo concepto, denominado Corriente de Desplazamiento I​d,​ que es 
proporcional al cambio en el flujo eléctrico: 
 
 
 
 
El es igual a la corriente de conducción.Cargando… 
 
Ecuaciones de Maxwell:​ U​n campo magnético que varía con el tiempo se comporta como 
fuente de campo eléctrico y un campo eléctrico que varía con el tiempo actúa como fuente 
de campo magnético. La descripción completa del comportamiento de los fenómenos 
electromagnéticos está hoy día concentrada en 4 ecuaciones: 
● Ley de Gauss para Campo Eléctrico:​ Da cuenta de que en una superficie cerrada el 
flujo eléctrico solo depende de la carga encerrada. 
 
● Ley de Gauss para Campo Magnético:​ Describe que el flujo magnético en una 
superficie cerrada es nulo. 
 
● Ley de Ampere (modificada):​ Establece que tanto la corriente de inducción como la 
corriente de desplazamiento actúan como fuentes de campo magnético. 
 
● Ley de inducción de Faraday:​ Describe como un campo magnético que varía en un 
tiempo induce un campo eléctrico. 
 
 
 
 
 
 
10. Ondas 
 
Movimiento armónico:​ ​Es el movimiento periódico que realiza un resorte ideal fijo en un 
extremo y asociado a una masa puntual en el otro extremo. La energía del sistema se 
mantiene constante y varía entre​ la energía cinética​ (en los extremos vale cero y en la 
posición de equilibrio es máxima) y entre ​la energía potencial elástica​ (en los extremos es 
máxima y en la posición de equilibrio es cero). 
 
Imaginemos que tenemos un resorte en estado de equilibrio al que se le aplica una fuerza 
externa para estirarlo. El resorte realizará una fuerza contraria al desplazamiento, que 
aumentará a medida que nos alejamos del punto de equilibrio. Algo análogo sucede si 
aplicamos una fuerza externa para comprimir dicho resorte. Esta fuerza realizada por el 
resorte se denomina ​fuerza restauradora​. 
 
 
● Ley de Hooke:​ Para la gran mayoría de los resortes, la fuerza restauradora es 
directamente proporcional al cambio de longitud del resorte respecto a su longitud en 
equilibrio (que llamaremos, longitud natural). En forma de ecuación, esta relación se 
expresa de la siguiente manera: 
 
donde x representa la distancia que se estiró (o comprimió) el resorte respecto a su 
longitud natural. k es la constante de proporcionalidad, denominada constante de 
resorte. Cuanto mayor sea el valor de k, más rígido o más fuerte será el resorte. El 
signo menos indica que la fuerza restauradora del resorte actúa en dirección 
opuesta al desplazamiento. Esta ley se cumple únicamente en resortes ideales, 
donde cuyo comportamiento muestra esta relación lineal entre fuerza y 
desplazamiento. 
 
 
Movimiento armónico simple (MAS):​ Si no existe fricción y el resorte no supera los límites de 
elasticidad, la masa puntual asociada a su extremo se moverá con un movimiento 
constante. El MAS está caracterizado por: 
X(​ ​) = A· cos (ω₀· t + ⲫ) 
● Amplitud (A):​ Representa la magnitud del desplazamiento máximo o la distancia de 
un objeto respecto a su posición de equilibrio. Depende de las condiciones iniciales 
del sistema. 
● Periodo (T):​ ​Cantidad de tiempo necesaria para que el objeto en movimiento logre 
completar un ciclo de oscilación. Todo ciclo de oscilación está formado por un 
trayecto igual a cuatro amplitudes. 
● Frecuencia (F):​ Es el número de ciclos de oscilación que realiza un objeto en una 
unidad de tiempo. Por lo tanto, podemos decir que la frecuencia es 
matemáticamente la inversa del periodo. 
T = 1/f 
● Frecuencia angular (ω₀):​ Es la frecuencia en radianes. 
f = ω₀ / 2π 
ω₀ = √k /m 
Donde k es la constante del resorte y m la masa. 
● Fase (ⲫ):​ Depende de las condiciones iniciales del sistema. 
 
Movimiento armónico amortiguado:​ Mantiene una amplitud constante porque no hay pérdida 
de energía en el sistema. Aunque ​en las aplicaciones prácticas siempre hay pérdida de 
energía por presencia de fuerzas no conservativas, como la ​fuerza de rozamiento​. En 
sistemas oscilantes no conservativos, la fuerza de rozamiento se opone a la fuerza 
restauradora que genera el MAS, actuando como ​fuerza amortiguadora​. La presencia de 
una fuerza de rozamiento determina que la energía del sistema disminuya, disminuyendo 
consecuentemente la amplitud de las oscilaciones en función del tiempo. 
 
donde b es la constante de fricción y m la masa del resorte. 
En presencia de una fuerza amortiguadora, la frecuencia del sistema también disminuye. 
 
Movimiento armónico simple forzado:​ ​Si queremos evitar que la amplitud de la oscilación 
disminuya con el tiempo, podemos entregar al sistema oscilante una cierta cantidad de 
energía, de modo tal de compensar la pérdida de energía por amortiguación aplicando una 
fuerza externa oscilante. En un sistema forzado, la oscilación ocurre con la frecuencia de la 
fuerza externa aplicada (​ω'​) y no con ω​0​ (es independiente del sistema). 
 
 
La amplitud de dicha oscilación dependerá no sólo de la fuerza externa y su frecuencia sino 
también de las características del sistema (m y ω​0​). Cuanto más parecidas son ω​0​ y ω', 
mayor es la amplitud del movimiento. En dichas condiciones se transmite una mayor 
cantidad de energía al sistema. 
 
A la frecuencia ω' a la que la amplitud del desplazamiento se hace máxima se dice que se 
produce ​resonancia en amplitud.​ Cuando es la amplitud de la velocidad la que se hace 
máxima se dice que se produce​ resonancia en energía.​ Estrictamente la resonancia se 
alcanza cuando la frecuencia del sistema (ω​0​) y la frecuencia de oscilación de la fuerza 
externa oscilante aplicada (ω´) son iguales. 
 
Movimiento ondulatorio:​ ​Todas las ondas son el resultado de una perturbación generada por 
una fuente. Un ​pulso ​es una perturbación de corta duración generada en un punto de un 
medio material, que se transmite por dicho medio. Podemos generar un pulso, por ejemplo, 
realizando una rápida sacudida en el extremo de un resorte o de una cuerda, lanzando una 
piedra al agua de un estanque, dando un golpe a una mesa o produciendo una detonación 
en el aire. 
 
Ondas:​ Las propagaciones de las perturbaciones transfieren energía progresivamente 
desde un punto a otro inmediatamente conectado. Estas perturbaciones se propagan a lo 
largo del tiempo y del espacio haciendo que las propiedades del medio varíen en función del 
tiempo y del espacio. 
 
● Ondas periódicas:​ la perturbación local que las origina se produce en ciclos 
repetitivos. Son producidas por trenes de pulso de iguales características. 
● Ondasno periódicas:​ la perturbación que las origina se da aisladamente o, en el 
caso de que se repita, las perturbaciones sucesivas tienen características 
diferentes. 
En todos los casos, las ondas son situaciones físicas producidas en algún lugar del espacio, 
propagadas a través del espacio y detectadas posteriormente en algún otro lugar del 
espacio. Tienen, por tanto, un ​componente temporal​ (t=tiempo) y un ​componente espacial 
(x=ubicación) característico. 
En función de la dirección de propagación de la perturbación y la dirección de propagación 
de la onda, podemos establecer la siguiente clasificación: 
 
● Ondas transversales:​ Son ondas donde la dirección de propagación de la onda 
es transversal a la dirección de la perturbación. Por ejemplo: luz 
● Ondas longitudinales:​ Son aquellas ondas donde la dirección de propagación de 
la onda es paralela a la dirección de la perturbación. Por ejemplo: sonido. 
● Ondas mixtas:​ presentan un componente transversal y uno longitudinal. Por 
ejemplo: olas del mar. 
Parámetros de una onda: 
 
Cargando… 
Como las ondas se mueven, tienen una rapidez de onda o velocidad, determinada por 
Cargando… 
Fenómenos ondulatorios: 
● Interferencia:​ ​Cuando dos ondas se encuentran, se genera una onda combinada 
cuyo desplazamiento en cualquier punto es igual a la suma de los desplazamientos 
de las ondas individuales. La interferencia es, entonces, la suma física de las ondas. 
Cuando dos pulsaciones de onda de la misma amplitud se encuentran y están en 
fase, se interfieren constructivamente. Cuando las pulsaciones se superponen 
exactamente, hay interferencia constructiva total. Cuando las pulsaciones en 
 
interferencia tienen amplitudes opuestas y se superponen exactamente, hay 
interferencia destructiva total. 
 
● Reflexión:​ Se da cuando la onda choca contra un objeto, o llega a una frontera con 
otro medio y se desvía, al menos en parte, nuevamente al medio original. Si el 
extremo de la cuerda está fijo, la pulsación reflejada se invierte. Ello se debe a que 
la pulsación hace que la cuerda ejerza una fuerza hacia arriba sobre la pared, y la 
pared ejerce una fuerza igual y opuesta sobre la cuerda. La fuerza hacia abajo crea 
la pulsación reflejada invertida. Si por el contrario el extremo donde se produce la 
reflexión está libre, se genera una pulsación no invertida. 
 
Si el extremo está fijo Si el extremo NO está fijo 
 
● Refracción:​ ​En términos más generales, cuando una onda choca con una frontera, la 
onda no se refleja totalmente. Más bien, una parte de la energía de la onda se refleja 
 
y una parte se transmite o absorbe. Cuando una onda cruza una frontera y penetra 
en otro medio, por lo general su rapidez cambia porque el nuevo medio tiene 
distintas características. 
 
Si la onda transmitida ingresa oblicuamente (angulada) en el nuevo medio, se 
moverá en una dirección distinta de la de la onda incidente. Este fenómeno se 
denomina refracción. 
 
● Difracción:​ ​Se refiere a la flexión de las ondas en torno al borde de un objeto y no 
está relacionada con la refracción. En general, los efectos de la difracción sólo son 
evidentes cuando el tamaño del objeto o la abertura que difracta es 
aproximadamente igual o menor que la longitud de onda. 
 
 
● Dispersión:​ ​Proceso por el cual ondas de distinta frecuencia se separan unas de 
otras. Aunque la luz no se dispersa en el vacío, cuando entra en algún medio sus 
ondas si se separan. Es por ello los prismas separan la luz solar para dar un 
espectro de color. 
 
 
 
Ondas estacionarias:​ S​i la cuerda se sacude con la frecuencia determinada, puede verse 
una forma de onda constante, o una serie de curvaturas uniformes que no cambian de lugar 
en la cuerda. Se debe a interferencia con las ondas reflejadas, que tienen la misma longitud 
de onda, amplitud y rapidez que las ondas incidentes. En dichas condiciones, el flujo neto 
de energía por la cuerda es cero, es decir la energía se mantiene estacionaria en las 
curvas. 
 
Aquellos puntos que permanecen inmóviles en todo momento se denominan nodos, y son el 
producto de la interferencia por superposición de ondas iguales pero opuestas. En todos los 
demás puntos, la onda estacionaria oscila con la misma frecuencia. Aquellos puntos donde 
se produce superposición con interferencia constructiva máxima se denominan antinodos. 
 
 
Cuando el sistema oscilante se impulsa con una de sus frecuencias naturales o resonantes, 
se le transfiere el máximo de energía. Las frecuencias naturales de un sistema son las 
frecuencias con que el sistema vibra. La condición de impulsar un sistema con una 
frecuencia natural se denomina resonancia. 
 
 
11. Modelo ondulatorio: 
 
 
● Naturaleza de la luz: 
La propagación de la luz es explicada desde el modelo ondulatorio, en tanto la 
producción y detección de luz se entiende como efectos cuánticos. 
 
 
Onda luminosa:​ interfiere con materia. Se propaga en ella pero no se genera y no se 
absorbe. 
 
 
Espectro de emisión y absorción:​ representación de cuánta luz se emite o absorbe en 
función de la longitud de frecuencia de onda. 
 
● La luz como onda electromagnética: 
Newton​ concluyó que la luz era corpuscular y era una onda rectilínea. Estaba compuesta 
de corpúsculos que se movían a través de materia (éter), la cual era excitada con 
vibraciones características. Solo pudo explicar los fenómenos de Reflexión, Refracción y 
Dispersión, pero no podía explicar la difracción de la luz. 
Huygens​ considera a la luz como onda longitudinal. Difundió la teoría ondulatoria,, 
concluyendo que la luz al ingresar en materiales más densos (éter) disminuye su velocidad. 
 
Deduciendo así las leyes para los fenómenos de Reflexión, Refracción y pudiendo explicar 
la doble refracción, denominada fenomeno de Polarizacion de la luz. 
Young ​enunció el principio de Interferencia, el cual decía que cuando la luz ingresaba por 
las rendijas, cada una de ellas es interferida con la luz de la otra y aparece un patrón de 
interferencia en la pantalla (bandas claras o oscuras). Definiendo así a la luz como fotón de 
onda. 
Maxwell ​descubre la conexión entre fenómenos eléctrico y magnéticos, denominando a la 
luz como onda electromagnética, predeciendo la velocidad de la luz. 
 
● Ondas electromagnéticas: 
Conformadas por un campo eléctrico y un campo magnético, perpendiculares entre sí. Los 
cuales vibran en fase y a su vez son perpendiculares con la dirección de propagación de la 
onda. Las perturbaciones eléctricas y magnética vibran de una manera armónica simple. 
Luz = Onda transversal 
 
Longitud de onda (λ):​ Distancia entre 2 puntos de igual fase. 
 
Dipolos oscilantes: ​ Son cargas en movimiento, de distinto signos pero con una distancia 
determinada, las cuales provocan una vibración. Si se genera un cambio en la distancia, 
también cambiará el vector del campo. Este cambio del campo se genera en un movimiento 
armónico simple, induciendo también al magnetico a cambiar, así siguen estando en fase 
los dos, y produciendo una onda electromagnética. 
La frecuencia y la amplitud del dipolo, da la frecuencia y amplitud de la onda. 
 
● Espectro electromagnético: 
Se denomina espectro electromagnético a la distribución energética del conjunto de las 
ondas electromagnéticas​. Referido a un objeto se denomina espectro electromagnético o 
simplemente espectro a la ​radiación electromagnética​ que emite (​espectro de emisión​) o 
absorbe (​espectro de absorción​) una sustancia. 
 
 
https://es.wikipedia.org/wiki/Onda_electromagn%C3%A9tica
https://es.wikipedia.org/wiki/Radiaci%C3%B3n_electromagn%C3%A9tica
https://es.wikipedia.org/wiki/Espectro_de_emisi%C3%B3n
https://es.wikipedia.org/wiki/Espectro_de_absorci%C3%B3n
A mayor λ, menor frecuencia, menor energía. 
​ =C/λ 
C= λ x ​(solo en el vacío) 
V= λ x ​(cuando no está en el vacío) 
 
● Óptica: 
Aborda la producción de luz, como se propaga y los mecanismosde detección. Estudia la 
producción de imágenes, la interacción de la luz con la materia, como onda 
electromagnética. 
 
Rayo de luz:​ vector perpendicular al plano de propagación de la onda. Apunta en la 
dirección de propagación. 
 
Frente de onda:​ superficie donde se una cada onda en fase. Son circulares, pero como la 
fuente de onda está muy lejos se ven planos con los rayos atravesandolos. La fuente se 
aleja dependiendo la longitud de la onda. 
 
● Reflexión de la luz: 
La reflexión es el cambio de dirección de una ​onda​, que, al entrar en contacto con la 
superficie de separación entre dos medios cambiantes, regresa al medio donde se originó. 
 
Dioptrio:​ plano que separa dos medios distintos (espejo). 
Normal:​ recta perpendicular al dioptrio. 
 
https://es.wikipedia.org/wiki/Onda
i= ángulo de incidencia:​ ángulo que se genera del rayo de luz incidente con la normal. 
r= ángulo de refracción:​ ángulo que se genera del rayo de luz refractado con la normal. 
 
 
 ​ Reflexión difusa Reflexión especular 
 
 
● Refracción de la luz: 
Es el cambio de velocidad y dirección de una onda cuando pasa de un medio transparente a 
otro. 
Cuando la luz ingresa a un medio material, disminuye la velocidad y cambia su dirección 
acercándose a la normal. 
El cambio de dirección se debe al hecho de que la luz viaja con distinta rapidez en medios 
diferentes. Este cambio en la dirección de la propagación de la onda se describe con el 
ángulo de refracción . 
 
El índice de refracción (n) es una medida de la rapidez de la luz en un material 
transparente;es una medida de la densidad óptica del material. 
La velocidad de la luz en un medio material es menor que en el vacío, por eso se establece 
un índice (n) para cada material, que depende de la naturaleza del medio y de la 
temperatura. 
n1 y n2: índices de refracción= C/V > 1 
A menor longitud de onda, mayor índice. 
A menor temperatura, mayor índice. 
 
Ley de Snell: ​es la relación entre los ángulos y la rapidez de la luz en los medios 
Sen Ө2 ​= ​V2 
Sen Ө1 = V1 
 
Sen Ө1 x n1 = Sen Ө2 x n2 
 
si: el medio 1 es ópticamente mas denso que el primero (n2 n1), entonces elCargando… 
rayo se refracta HACIA LA NORMAL. 
 el medio 2 es ópticamente menos denso que el primero (n2 n1), entonces elCargando… 
rayo se refracta ALEJÁNDOSE DE LA NORMAL. 
 
La ley de Snell establece que , para un rayo que pasa de un medio ópticamente más denso 
a uno menos denso (n2 n1), cuanto mayor sea el ángulo de incidencia, mayorCargando… 
será el ángulo de refracción.Conforme aumenta el ángulo de incidencia, el rayo refractado 
se aleja mas de la normal. Sin embargo existe un límite, en el cual para cierto ángulo de 
incidencia llamado ángulo crítico el ángulo de refracción es 90° y el rayo refractado se dirige 
a lo largo de la interfase entre los 2 medios. 
si el ángulo de incidencia es mayor al ángulo crítico, la luz ya no se refracta si no que se 
refleja internamente= REFLEXIÓN INTERNA TOTAL. 
 
Snell para ángulo crítico: . sen = . sen 90°Cargando… Cargando… Cargando… 
 
 
 
 
 
 
 
 
Esto se puede explicar con el​ principio de Huygens​: Cualquier frente de onda, cuando el 
rayo avanza, cada punto del frente se convierte en un nuevo visor, generando otro frente de 
onda que avanza. 
Si la onda que se propaga tiene una frecuencia con una velocidad determinada entonces los 
frentes de onda tendrán la misma frecuencia y velocidad. Para un medio homogéneo (si el 
medio es el mismo). 
 
Si la velocidad cambia, el primer frente llega primero emitiendo una onda con velocidad 
mayor, cuando llega el segundo frente emite una onda con menor velocidad a la anterior y 
así con cada frente que llegue. Por esto se genera un cambio en la dirección del rayo. 
Luego este sale con distinta dirección pero con un mismo ángulo. 
 
 
 
 
● Dispersión natural de la luz: 
 
 
Al incidir con un con un rayo de luz sobre un prisma, se descompone en cada rayo con su 
longitud de onda y su respectivo color, esto se debe a que cada longitud de onda va a una 
velocidad distinta, entonces tienen frecuencias distintas. 
Se define un índice de refracción (n) para cada longitud de onda. Este depende de la 
frecuencia de la onda electromagnética. Tiene que haber mucha diferencia de velocidades 
para que la diferencia en los ángulos de refracción sea importante y se vea la separación de 
ondas. 
Esparcimiento o Scattering: 
La dispersión es una propiedad de cada tipo de onda. El fenómeno depende de la 
interacción entre la onda electromagnética y del tamaño de las partículas presentes en el 
medio. Las longitudes de onda más cerca del color rojo atraviesan las partículas y las 
longitudes de onda más cerca del color violeta chocan con las partículas y reflejan. 
 
● Interferencia: 
El fenómeno hace referencia a toda situación en las que dos o más ondas se encuentran en 
el espacio. Cuando se suman o se restas se ve en el efecto de interferencia, zonas de 
sombra y zonas de luz. 
 
Sombra: se anulan dos ondas. 
Luz: se suman dos ondas. 
 
Ondas constructivas:​Cuando dos ondas provenientes de dos o más fuentes llegan a un 
punto en fase (coincide el valle de una con el valle de la otra), la amplitud de onda 
resultante es la suma de las amplitudes de las ondas individuales, es decir se refuerzan 
mutuamente. Pueden difereris en sus distancias, pero con longitudes de ondas enteras 
(1λ,2λ,3λ…). Esto se denomina Interferencia Constructiva. 
 
 
 
Ondas destructivas: ​las ondas provenientes de las dos fuentes llegan al punto de encuentro 
exactamente medio ciclo fuera de fase, la cresta de una onda llega al mismo tiempo que el 
valle de la otra, la amplitud resultante es la diferencia entre las amplitudes individuales. Si 
las amplitudes son iguales, la amplitud total es cero. Esto se denomina Interferencia 
Destructiva. 
 
Experiencia de Young. 
Como el frente de onda proveniente del foco F1 que llega a ambas ranuras es el mismo, 
cada ranura se comporta como una fuente puntual, y las dos fuentes así obtenidas S2 y S3 
están en fase, generando un frente de onda, las cuales se van a sumar o restar, obteniendo 
un patrón de interferencia sobre la pantalla, observándose luz y sombra. 
 
Camino óptico:​ es la distancia que recorre el índice de refracción en ese medio. 
C.O. = n x d 
Máximo de orden 0: ​Si los caminos ópticos son iguales las dos ondas llegan en fase al 
punto de encuentro, recorren la misma distancia, se puede observar en el centro de la 
pantalla (interferencia constructiva). 
 
 
Primer mínimo: ​Si los caminos ópticos son distintos es decir sus ondas están desfasadas y 
llegan ½ long fuera de fase al punto de encuentro, se destruyen mutuamente, la suma da 
cero. Se puede observar en la pantalla como una sombra. (interferencia destructiva) 
 
Máximo de orden 1: ​Los caminos ópticos son distintos, las ondas están desfasadas 1 long, y 
sus múltiplos, y así llegan al punto central. En la pantalla se puede observar como una 
banda clara. (interferencia constructiva) 
 
 
12. Polarimetría 
 
La polarización electromagnética es un fenómeno que puede producirse en un haz de luz y 
que determina que el vector campo eléctrico resultante oscile en un plano determinado, 
denominado plano de polarización. En un plano perpendicular al plano de polarización vibra 
en fase el vector campo magnético. El plano de polarización se define por dos vectores, uno 
de ellos paralelo a la dirección de propagación de la onda y otro perpendicular a dicha 
dirección y que indica la dirección del campo eléctrico. La luz linealmente polarizada es en 
la cual el campo eléctrico vibra en la misma dirección en todo momento en un punto 
específico. 
 
 
 
Una sustancia es ópticamente activa cuando gira el plano de polarización de la luz 
transmitida. Cuando la rotación del plano se produce en sentido horario se dice que la 
sustancia es dextrógira y cuando ocurre en sentido antihorario, es levógira. La actividad 
ópticade un material se debe a la asimetría en la forma de sus moléculas, por presencia de 
centros quirales o planos de quiralidad. La polarimetría permite medir el ángulo de rotación 
del plano de polarización de luz linealmente polarizada cuando atraviesa sustancias 
ópticamente activas. 
● Leyes de Biot:​ Son ​las leyes que describen la interacción entre la luz linealmente 
polarizada y las sustancias ópticamente activas. 
 
 Medio sólido 
 
Medio líquido 
 
Solución de soluto 
 
 
Estas leyes relacionan el ángulo de rotación (α) del plano de polarización, medido en grados 
sexagesimales, con la naturaleza y geometría del sistema ópticamente activo atravesado. ​l 
representa el paso óptico, es decir la longitud del recorrido donde la luz interacciona con el 
material. En general para líquidos y soluciones se mide en decímetros y para sólidos en 
milímetros. ​δ ​representa la densidad y se expresa en gramos por mililitro. ​c​ representa la 
concentración, expresada generalmente en gramos por mililitro. La actividad óptica de la 
sustancia está reflejada por el poder rotatorio específico, ​[α]​Tλ​, que en general se expresa 
en ° mL dm​-1​ g​-1​ y da idea de la rotación ocurrida cuando los demás parámetros toman 
valores unitarios. El poder rotatorio específico es una propiedad física característica de las 
sustancias ópticamente activas y está definido para una longitud de onda y una temperatura 
determinada. Dependiendo si se trata de una sustancia dextrógira o levógira, el poder 
rotatorio específico se considerará positivo o negativo respectivamente. 
En el caso de que existiese más de un material con actividad óptica interactuando con la luz 
polarizada, el ángulo total de rotación obtenido puede considerarse la sumatoria de los 
procesos de rotación individuales. 
 
● Polarímetro de Laurent: 
 
 
La ​fuente de luz​ debe ser monocromática (luz de una única longitud de onda) debido a que 
el poder rotatorio específico está definido para una longitud de onda determinada. En caso 
de no contar con una fuente de luz monocromática puede salvarse el inconveniente 
colocando, antes del polarizador, un monocromador; es decir, un dispositivo óptico que, por 
distintos mecanismos, permita seleccionar y transmitir una estrecha banda de longitudes de 
onda. 
El ​polarizador​ es un dispositivo destinado a producir luz linealmente polarizada a partir de 
luz natural. Los materiales dicroicos tienen la particularidad de absorber de modo diferencial 
la luz conforme a su plano de polarización. 
Sobre estos polarizadores puede definirse una dirección particular, llamada eje de 
transmisión, que corresponde al plano de polarización de la luz linealmente polarizada que 
es transmitida. 
 
 
Las componentes perpendiculares al eje de transmisión son especialmente absorbidas (el 
sistema se comporta como opaco), mientras que las componentes paralelas a dicho eje son 
transmitidas (el sistema se comporta como transparente). 
La ​semilámina retardadora de media longitud de onda​ cubre sólo la mitad del 
polarizador, ésta es una característica del diseño del polarímetro de Laurent. Una lámina 
retardadora, retardador o lámina de onda, es un dispositivo óptico de material transparente 
que altera el estado de polarización de la luz polarizada que lo atraviesa. Típicamente se 
trata de un cristal birrefringente. 
Al iluminar perpendicularmente una de las caras paralelas al eje óptico de la lámina 
retardadora con un haz de luz monocromática linealmente polarizada, el material 
descompone dicha luz en haces donde el campo eléctrico es paralelo al eje de óptico y en 
haces donde el campo eléctrico es perpendicular al mencionado eje. Se pueden definir 
entonces dos rayos luminosos dentro del cristal (birrefringencia, doble refracción) que 
compartirán la misma dirección, dado el tallado de la lámina, pero que poseen diferente 
velocidad. Para cada uno de estos rayos, denominados ordinario y extraordinario, se define 
un índice de refracción diferente, es decir, una velocidad de propagación diferente; por lo 
que cada uno tendrá una longitud de onda distinta dentro del cristal ya que la frecuencia es 
constante y depende de la fuente emisora. Si el espesor de la lámina, el grado de 
birrefringencia del material y la longitud de onda con la que se ilumina son los adecuados, 
uno de los rayos se retrasa media longitud de onda respecto del otro, de modo tal que al 
emerger del cristal se recombinan ambos rayos, componiendo nuevamente luz linealmente 
polarizada pero con un plano de vibración diferente, simétrico al de la luz incidente respecto 
de la dirección del eje óptico. 
La función del ​analizador​ ​consiste en determinar el plano de polarización de la luz que es 
transmitida luego de interactuar con la muestra contenida en el tubo portamuestra. Por lo 
que, de la luz que llega al analizador, sólo las componentes paralelas al eje de transmisión 
del mismo serán transmitidas hacia el ocular. 
la ley de Malus relaciona la intensidad de luz transmitida (I​t​) por en analizador con la 
intensidad de luz proveniente de un polarizador (I​0​) y el ángulo entre el eje de transmisión 
del analizador y el plano de polarización de la luz incidente (θ). 
 
Entonces, es posible aumentar o disminuir la intensidad de luz que se transmite por el 
analizador modificando el ángulo que forman su eje de transmisión y el plano de 
polarización incidente, es decir rotando el analizador. 
 
 
 
● Cálculo de pureza mediante polarimetría:​ ​Para estudiar la pureza de una muestra 
sólida, una vez aislada, se debe hallar un solvente en el cual sea soluble, tomando 
siempre la precaución de conocer las propiedades ópticas del solvente elegido. A 
partir de la medición de los ángulos de rotación del plano de vibración de la luz 
linealmente polarizada producidos por las diluciones de distinta concentración de la 
muestra y aplicando las Leyes de Biot, es posible calcular la pureza de una muestra. 
Para ello se debe tener en cuenta la naturaleza de la impureza: si es activa o no, si 
es dextrógira o levógira, etc. 
 
La Ley de Biot para soluciones establece que: 
 
Donde: α = ángulo rotado, medido con el polarímetro; [α]​
ST​= Poder rotatorio específico del 
soluto; l = paso óptico o longitud del tubo portamuestra; c = concentración del soluto en la 
solución; [α]​SV​= Poder rotatorio específico del solvente; δ =Densidad del solvente. 
 
Si estudiamos la relación existente entre el ángulo rotado y la concentración del soluto en la 
solución, la ordenada al origen nos brindará información acerca de la actividad óptica del 
solvente, de modo que siempre que trabajemos con agua u otro solvente inactivo, ésta 
debería valer cero; mientras que si el solvente presenta actividad óptica, esto se verá 
reflejado en el valor de la ordenada al origen (cc=0), positivo o negativo de acuerdo a si se 
trata de un solvente ópticamente activo dextrógiro o levógiro respectivamente. Por otra 
parte, será la pendiente la que nos brinde información acerca de la pureza de la muestra, 
dado que este término comprende, en realidad, a la sumatoria de todos los poderes 
 
rotatorios específicos de las sustancias con actividad óptica presentes mezcladas en la 
solución multiplicadas por el valor del paso óptico. 
Podemos decir que la sumatoria de las fracciones de concentración de cada uno de los 
componentes será siempre uno. 
 
El nombre con el que se conoce a la fracción de muestra (C​M​/C​T​) es factor de pureza y si 
multiplicamos este valor por 100, obtenemos el porcentaje de pureza. En este caso, y 
asumiendo que se encuentran disueltas en un solvente ópticamente inactivo​, la 
ecuación de la Ley de Biot, quedaría expresada como: 
. 
Si combinamos las dos ecuaciones anteriores donde los datos conocidos son: a) el ángulo 
rotado (se mide), b) el poder rotatorio específico de la muestra (obtenido de bibliografía), c) 
el poder rotatorio específico de la impureza (obtenido de bibliografía) y, d) la concentración 
total (la cual esresponsable de la actividad óptica medida), podremos despejar el factor de 
pureza(C​M​/C​T​), para posteriormente calcular el porcentaje de pureza de nuestra muestra. 
 
 
En el caso de que la impureza sea ópticamente inactiva ([α]I = 0), y recordando que Fp = 
C​M​/C​T​, entonces: ​α =([α]​M​ * Fp * l) * c​T 
Podremos luego calcular el porcentaje de pureza a partir del análisis de la pendiente del 
gráfico confeccionado con los valores experimentales de ángulo rotado en función de 
concentración total. ​m = [α]​M​ * Fp * l 
Podemos entonces despejar Fp ya que obtenemos ​m​ a partir del gráfico, ​[α]​M​ es dato y ​l​ lo 
hemos podido medir. 
Finalmente, el porcentaje de pureza se obtiene multiplicando Fp por 100%. 
 
13. Refractometría: 
 
● Refractómetro de Abbe:​ ​Es un instrumento de amplio uso que permite determinar 
índices de refracción. La determinación del índice de refracción mediante el uso del 
Refractómetro de Abbe aprovecha la formación del ángulo límite luego de que la luz 
incidente atraviesa la sustancia X e incide en el prisma rectangular. 
 
 
Si el rayo S incide en el punto I, paralelo a la cara BC del prisma y rasante a la superficie de 
separación entre ambos medios (sustancia X – prisma), se refractará en el medio más 
refringente (prisma) con un ángulo de refracción igual al ángulo límite (L). Luego continuará 
su trayectoria dentro del prisma y al llegar a la cara AB se refractará nuevamente, y el rayo, 
llamado S’ abandonará el prisma formando un ángulo a con la normal a dicha cara. 
 
Cuando incide un rayo P en el punto I, con un ángulo de incidencia menor de 90°, forma 
dentro del prisma un ángulo de refracción L´ menor que el límite (L). De este modo el rayo 
alcanza la cara AB en I´´, un punto situado a la izquierda de I´. Esto es válido para cualquier 
otro rayo que incida en la cara BC con un ángulo menor de 90°. Por lo tanto el rayo S define 
la situación extrema de refracción en el prisma. El rayo emergente de la cara AB del prisma 
señala el límite de separación entre las regiones de luz y sombra. Cada muestra en estudio 
 
tendrá un cierto índice de refracción y por ende para cada muestra existirá un cierto ángulo 
límite. Esto implica que para cada índice de refracción ensayado el límite luz-sombra en la 
cara AB del prisma tendrá una posición diferente. El refractómetro de Abbe está diseñado 
de forma tal que tiene la capacidad de traducir la posición del límite luz-oscuridad en la cara 
AB en un índice de refracción. 
En el refractómetro se mide entonces el valor del ángulo α. Luego, conociendo el índice de 
refracción del prisma (N) y su ángulo de refringencia (ω) se puede determinar el valor del 
ángulo límite (L) y finalmente, mediante la ecuación de Snell, calcular el n​X​ de la sustancia 
en estudio. Suponiendo que el rayo S abandona el prisma saliendo a la derecha de la 
normal a la cara AB, queda formado un triángulo ITI’, donde el ángulo L es externo a dicho 
triángulo y su relación con los ángulos internos establece que: 
 
Sabemos que los ángulos internos de un triángulo suman 180°, y que un ángulo llano tiene 
180°, por lo que: 
 
 
Si incide un rayo rasante a la hipotenusa del prisma, aplicando ley de Snell, tendremos: 
 
Donde n​X​ es el índice de refracción de la sustancia colocada en el refractómetro y N es el 
índice de refracción del prisma. 
Luego, nuevamente aplicando Snell para la segunda refracción (cara AB del prisma): 
 
 
Entonces, midiendo α y con los datos de naire y N, se puede calcular el ángulo β: 
 
 
○ El sistema óptico del refractómetro puede poseer un espejo para reflejar la luz 
proveniente de una fuente de iluminación y un anteojo formado por: una lente 
objetivo, una lente ocular, un retículo enfocable y los prismas de Amici. El retículo 
tiene forma de círculo y está cruzado por dos líneas 
 
Al observar por el retículo, se visualizan zonas de luz y sombra separadas por la línea límite 
luz – sombra, determinada por el rayo emergente de la cara AB del prisma (ver Figura 2 y 
Figura 6b) 
Recordando que: 
 
Reemplazando y cancelando (teniendo en cuenta que la frecuencia no varía, pues depende 
exclusivamente de la fuente emisora): 
. . 
n​X​ es el índice de refracción. Es un número adimensional resultante del cociente de 
velocidades o de longitudes de onda. 
 
 
 
15. Modelo corpuscular y Espectroscopías 
Cuando el electrón pasa de un nivel de energía a otro, emite un fotón cuya energía es igual 
a la diferencia de energía de los niveles energéticos inicial y final. ​En condiciones normales 
el electrón permanecerá en una "órbita" en la cual la energía total del sistema será la 
mínima posible. Si en este estado se excita el sistema de alguna manera (recibe energía en 
forma de luz, calor o descarga eléctrica), el electrón pasará a una "órbita" tal que la energía 
total del sistema será mayor. Se dice entonces que el átomo se encuentra en un estado 
electrónico excitado. Inmediatamente después, el átomo tenderá a volver a su estado 
normal (fundamental), devolviendo la energía que había adquirido, que será igual a la 
diferencia entre los estados electrónicos inicial y final. Los átomos excitados pueden 
devolver la energía absorbida en forma de radiación electromagnética de tipo UV – Visible, 
puesto que los valores de la diferencia de energía de los electrones entre sus estados 
excitado y basal se corresponden con los de la energía de las radiaciones de estas regiones 
del espectro electromagnético. La radiación devuelta va a ser de longitudes de onda 
específicas, de acuerdo con las transiciones que estén permitidas en cada elemento​. Dado 
que la energía de un fotón es: 
E = h​f 
Ef-Ei = h​f 
 
Este modelo presenta dificultades ​para explicar en forma completa los resultados 
experimentales, por ejemplo no puede explicar de por qué ciertas líneas espectrales son 
más brillantes unas que otras, tampoco el desdoblamiento de líneas espectrales y toma al 
electrón como teniendo posiciones y momento determinados simultáneamente. La energía 
radiante provoca transiciones entre los ​estados cuánticos​ de un sistema material. Dichos 
estados cuánticos pueden referir a: 
-​Estado electrónico​ (basal, excitado) 
-​Estado vibracional​ (tijereteo, aleteo,etc) 
-​Estado rotacional 
-​Orientación del momento magnético 
 
 
 
● Técnicas espectroscópicas:​ Se basan en la absorción y/o emisión de energía 
transportada por las radiaciones electromagnéticas. Se fundamentan en el 
comportamiento corpuscular​ de la luz, pero sin dejar de considerar características 
ondulatorias de la radiación electromagnética como frecuencia o longitud de onda. 
Las principales ​interacciones​ en que se basan las técnicas espectroscópicas son: 
- Fenómenos de Absorción 
- Procesos de Emisión 
- Resonancia magnética 
 
Absorción: Excitación​ ​Emisión: Desexcitación 
 
En la ​espectroscopía de absorción​ se considera el mecanismo de ​excitación​ mediante el 
cual uno o más ​electrones​ pasan de un estado basal a otro de mayor energía. Este 
fenómeno ocurre cuando coincide la energía del fotón incidente con la diferencia energética 
entre dos niveles cuánticos. 
 
En la ​espectroscopía de emisión​ se detecta la ​desexcitacion​ de uno o más ​electrones 
que pasan de un estado de mayor energía a otro de menor energía, emitiendo la diferencia 
de energía en forma de fotón. 
 
Cada “salto” energético se corresponde únicamente con la energía cuantizada de un fotón 
que exhibe una determinada frecuencia (o longitud de onda). De este modo, el patrón de 
absorción o emisión de una sustancia dependerá de los niveles energéticos que posea y 
nos permitirá identificarlas. 
 
La respuesta del sistema frente a la acción de la radiación electromagnética se representa 
en diagramas llamados ESPECTROS. 
 
El conjunto de radiaciones emitidas constituye el espectrode emisión y es característico de 
cada elemento. Si se puede aislar una de estas longitudes de onda, su intensidad estará 
 
relacionada con la cantidad de átomos excitados presentes (La intensidad de las líneas de 
emisión es directamente proporcional a la concentración). 
 
Si suponemos que la proporción de átomos excitados es siempre la misma, podremos 
establecer una relación entre la concentración de la solución y la cantidad de átomos 
excitados. Para este propósito existe el ​fotómetro de llama​. para cuantificar diversos 
cationes metálicos mediante su excitación por exposición al calor de la llama y posterior 
aislamiento y detección de las radiaciones electromagnéticas emitidas en la desexcitación. 
 
● Fotometría de llama: ​ ​Su función es para cuantificar diversos cationes metálicos 
mediante su excitación por exposición al calor de la llama y posterior aislamiento y 
detección de las radiaciones electromagnéticas emitidas en la desexcitación. ​La 
relación directa entre emisión y concentración se mantiene sólo a concentraciones 
relativamente bajas del metal, del orden de los microequivalentes/litro. Más allá de 
esos niveles, la llama se satura y se pierde la proporcionalidad entre lectura y 
concentración. 
 
Durante una determinación en el fotómetro de llama ocurren los siguientes fenómenos: 
● Nebulización, mediante un sistema adecuado, de la muestra líquida en microgotas. 
● Mezcla de las microgotas con el combustible y el oxidante. 
● Vaporización del solvente a la temperatura de la llama (1700 - 3000 °C) 
● Atomización de las entidades moleculares. Las moléculas (por ej. NaCl) a la 
temperatura de la llama se disocian atomizándose. En el ejemplo mencionado se 
obtendría Cl​2​ gaseoso y Na atómico al estado de vapor. 
● Excitación de las entidades atómicas. La temperatura de la llama es suficiente para 
excitar determinados átomos como los pertenecientes a los elementos alcalinos y 
alcalinotérreos. 
 
● Desexcitación con emisión de fotones. 
La luz emitida por el elemento, de una o varias longitudes de onda que le son 
características, son aisladas por un filtro óptico (589 nm para el Na​+​ y 766 nm para el K​+​). 
Su intensidad es medida por un detector, obteniéndose entonces una señal eléctrica 
proporcional a la concentración del catión en la muestra. Esta señal eléctrica puede ser 
procesada y leída en una escala analógica o digital. 
 
 
● Niveles energéticos en las moléculas: 
 
 
 
 
Las moléculas, además de los niveles energéticos electrónicos, tienen otros niveles 
energéticos cercanos entre sí. Esto determina que las líneas de absorción se desdoblen en 
BANDAS. 
Cada nivel de energía vibracional se desdobla en distintos niveles de energía rotacionales. 
 
● Colores de las cosas:​ Los cuerpos transparentes transmiten y los cuerpos opacos 
reflejan. En los cuerpos transparentes todo lo que no se absorbe se transmite, 
cuando observamos en un gráfico un pico es donde la luz se absorbe (veo negro), 
donde observamos un valle es donde se transfiere (veo color). Ejemplo: Rojo 
Ponceau Ácido: 
 
 
● Emisión molecular: 
○ Fluorescencia:​ Un cuerpo al desexcitarse emite luz (fotones). Parte de esta 
energía que absorbió se gasta en vibraciones, rotaciones, etc. Y el restante 
de esta energía libera fotones de menor energía que la energía que se 
absorbe. 
■ Corrimiento de Stokes:​ La energía que absorbe la molécula es mayor 
que la que se emite (fotón), o sea, de una mayor longitud de onda, 
por lo que se corre la banda de emisión (la diferencia de energía se 
gastó en vibrar y rotar). 
○ Fosforescencia:​ ​El mecanismo ​físico​ que rige este comportamiento es el 
mismo que para la ​fluorescencia​, no obstante la principal diferencia con esta 
es que hay un retraso temporal entre la absorción y la reemisión de los 
fotones​ de energía. En la fosforescencia, las sustancias continúan emitiendo 
luz durante un tiempo mucho más prolongado, aún después del corte del 
estímulo que la provoca, ya que la energía absorbida se libera lenta (incluso 
muchas horas después) y continuamente. 
 
 
https://es.wikipedia.org/wiki/F%C3%ADsica
https://es.wikipedia.org/wiki/Fluorescencia
https://es.wikipedia.org/wiki/Fot%C3%B3n
● Resonancia Magnética:​ Cada átomo tiene asociado un valor de momento magnético, 
ocasionado por el movimiento del núcleo (portador de una carga eléctrica) al girar 
sobre sí mismo. El fenómeno de resonancia magnética surge de la interacción entre 
radiación electromagnética y el momento magnético de partículas en presencia de 
un campo magnético externo. Son los núcleos de los átomos los que participan en el 
proceso de absorción y no los electrones exteriores. 
El campo magnético externo define dos niveles energéticos distintos para cada una de las 
orientaciones del momento magnético. 
 
Los núcleos absorben radiación electromagnética en un campo magnético intenso como 
resultado del desdoblamiento de los niveles de energía inducidos por el campo magnético. 
De este modo queda cuantizada la energía de cada orientación, haciendo que una partícula 
absorba o emita radiación electromagnética del rango de las radiofrecuencias al cambiar la 
orientación de su momento magnético. 
Los distintos entornos magnéticos y electrónicos de cada núcleo hacen que los momentos 
magnéticos “sientan” con mayor o menor intensidad el campo magnético aplicado, creando 
cuantizaciones distintas​ ​y por lo tanto, absorciones/emisiones distintas en el rango de las 
radiofrecuencias. 
 
 
16. Espectrofotometría 
La espectrofotometría es una serie de técnicas analíticas que se fundamentan con la 
espectroscopía atómica y molecular. Donde nos permiten obtener información a partir del 
análisis de las distintas interacciones de las radiaciones electromagnéticas con la materia. 
 
La Mecánica Cuántica nos dice que la luz está compuesta de fotones. Cada uno de los 
cuáles tiene una energía: 
 
E​fotón​ = h⋅ν = h⋅c/λ 
 
Cuando decimos que una sustancia química absorbe luz de longitud de onda (λ), esto 
significa que las moléculas de esa sustancia absorben fotones de esa longitud de onda. 
Entonces esa molécula absorbe un fotón en este intervalo espectral, se excita pasando un 
electrón de un orbital del estado fundamental a un orbital excitado de energía superior. De 
esta manera la molécula almacena la energía del fotón: 
 
 ​ A + h⋅ν → A* 
 E​(A*)​ = E​(A)​ + E​fotón 
 
Esto es lo que ocurre en una solución cuando un haz de luz monocromática (luz de una sola 
 
longitud de onda) atraviesa la misma ( si consideramos que el material donde está 
contenido es transparente y no absorbe parte de la luz que le inside). 
 
 
Parte de la intensidad de esa luz (Io) será absorbida por las moléculas que están en dicha 
solución (Ia), parte se refleja (Ir) y parte será transmitida (It). 
 
Y como se debe cumplir el principio de conservación de la energía; 
 
● Ley de Lambert y Beer:​ Establece que cuando pasa luz monocromática por un 
medio homogéneo, la disminución de la intensidad del haz de luz incidente es 
proporcional al espesor del medio y la concentración, lo que equivale a decir que la 
intensidad de la luz transmitida disminuye exponencialmente al aumentar 
aritméticamente el espesor del medio absorbente y también la concentración. 
Sustituyendo a dl por dc (variación de la concentración), la ecuación queda como: 
 
 
La variación (disminución) de la intensidad es directamente proporcional al espesor del 
material interpuesto (l) y a una constante k propia de cada material, llamada coeficiente de 
absorción. 
 
quedando como: 
 
 
De modo que la intensidad de luz monocromática transmitida por la solución de una 
sustancia determinada decrece en forma geométrica cuando su concentración aumenta en 
 
forma aritmetica. 
 
Si se repite la experiencia variando a la vez el espesor y la concentración de la solución, 
cambiando además la base e a base decimal, obteniéndose la siguiente expresión:Esta expresión se conoce con el nombre de ​Ley de Lambert - Beer,​ donde a es una 
constante denominada ​absortividad​. Esta ley se cumple trabajando a bajas 
concentraciones y en presencia de luz monocromática. Por lo que la relación entre la 
Transmitancia (T) y la concentración (c) es: 
 
La ​transmitancia​ decae en forma exponencial con la concentración. La misma relación se 
mantiene para T% (que es la T expresada en porcentaje) y concentración. 
 
La absortividad (a) es una constante propia de cada sustancia que depende de la longitud 
de onda, la temperatura y el solvente con que se trabaje. 
 
El valor numérico de a depende de las unidades de concentración empleadas. Si c se 
expresa en g/mL, se obtiene la absortividad específica (a​o​) y [ a ] = mL . (gr . cm)​
-1​. Si c se 
expresa en moles por litro, se obtiene absortividad molar o coeficiente de extinción molar, y 
sus unidades serán L . (mol . cm)​-1​. 
 
 
 
 
Si se representa gráficamente Abs = f ( c ) el gráfico teórico obtenido mostrará una relación 
lineal entre las dos variables, siempre que se trabaje con luz monocromática y a bajas 
concentraciones. Sin embargo, en la práctica esta relación se cumple para algunas 
sustancias pero para otras no. Si se trabaja con una sustancia determinada y al medir la 
absorbancia de distintas concentraciones de dicha sustancia se obtiene una representación 
lineal entre las absorbancias y las correspondientes concentraciones, entonces esa 
sustancia cumple la Ley de Lambert-Beer en el rango de concentraciones usadas. 
 
 
 
● Desviación de la Ley de Lambert-Beer:​ ​Experimentalmente se comprueba que la ley 
de Lambert-Beer se cumple particularmente cuando la solución es diluida. No 
obstante son comunes las desviaciones debidas a factores de orden​ ​físico, químico 
o instrumental. 
La principal causa física de desviación es que la absortividad varía con el índice de 
refracción de la solución, lo que se pone en evidencia a concentraciones elevadas. 
 
Como factor de orden químico se puede citar la variación de algunas estructuras en función 
de la concentración; como por ejemplo al diluir una solución de dicromato. 
 
Los iones dicromato presentan absorción máxima a 450 nm, en tanto que los iones cromato 
lo hacen a 375 nm, por lo que al efectuar las diluciones de soluciones de dicromato se debe 
mantener el nivel de acidez a fin de no variar la estructura química. 
 
 
En lo referente a desviaciones de índole instrumental debe mencionarse que las radiaciones 
que llegan a la cubeta se apartan en mayor o menor grado de la condición de ser “cuasi” 
monocromáticas, como lo establece la ley de L. Beer. Cada instrumento, según su calidad, 
hace llegar a la cubeta una banda de longitudes de onda, conocida como banda 
instrumental; cuanto más estrecha es ésta la desviación que se produce es menor. A 
concentraciones elevadas la gráfica se inclina hacia este eje, dando lugar a desviaciones 
negativas, que son indeseables pues conducen a un error relativo en concentración cada 
vez más grande. En regla general, cuanto menos monocromática sea la radiación utilizada, 
más se desvía la relación entre absorbancia y concentración. 
 
Espectrofotómetro: 
 
● Instrumentación:​ ​El espectrofotómetro es el instrumento que nos permite medir 
valores de absorbancia o transmitancia​ ​de determinadas muestras a una longitud de 
onda seleccionada. En líneas generales, la fuente de luz proporciona un haz 
policromático que es colimado al atravesar la ranura de entrada. Este haz llega a un 
sistema de monocromación, con cuyo selector de longitud de onda, se aísla un haz 
monocromático de la longitud de onda deseada. Luego, el rayo de luz 
monocromático incide perpendicularmente sobre la pared de la cubeta que contiene 
la muestra. Al salir de la muestra, el haz de luz transmitido impacta sobre el detector, 
donde la intensidad luminosa se convierte en intensidad eléctrica mediante un 
proceso electrónico. Por último, dicha señal se transforma en una lectura de 
transmitancia porcentual o absorbancia que aparece en el display. 
 
 
 
● Controles:​ ​Para informar un resultado confiable es necesario estar seguros de que el 
equipo utilizado funcione correctamente. Por ello se realizan los controles 
espectrofotométricos. Éstos permiten controlar y analizar determinados parámetros y 
verificar si se encuentran dentro de los rangos de aceptabilidad establecidos, o bien 
en caso contrario, proceder a calibrar o a reparar. 
1. Luz espuria:​ El objetivo es comprobar que no llegue al detector luz que no 
atraviese la muestra. Esto puede ocurrir por reflexiones internas dentro de la 
cubeta; La luz que pase por arriba de la muestra (arriba del menisco) cuando 
el volumen cargado es insuficiente; Entrada de luz externa; Mal diseño de 
cubetas o uso de cubetas incorrectas; etc. 
La luz espuria se mide en porcentaje de transmitancia y es importante que 
dicho porcentaje sea bajo. De lo contrario, se pueden producir desviaciones 
de la linealidad instrumental, dado que llega al detector más luz de la que 
debería. El porcentaje máximo aceptado de luz espuria es del 1 %. 
Se utiliza una cubeta de obstrucción de paso de luz (que es una cubeta 
pintada de negro, o sea, un cuerpo negro) o bien una solución 
hiperconcentrada de colorante. En todos los casos se leerá la transmitancia 
contra una cubeta con agua, a la λ seleccionada dentro del visible. El valor 
leído representa directamente el % de luz espuria. 
2. Volumen mínimo:​ El objetivo es verificar el mínimo volumen de muestra por 
el cual pase todo el haz de luz, de modo de que ésta no pase por encima del 
menisco. Se busca minimizar el volumen de muestra a utilizar al mínimo 
necesario, con el fin de ahorrar muestra y reactivo. 
Colocamos volúmenes crecientes de una solución coloreada y medimos la 
absorbancia del tubo. El volumen en el cual la lectura se estabiliza es el 
volumen mínimo. El volumen de trabajo será un 20% mayor al volumen 
mínimo. 
 
3. Control de cubetas:​ El objetivo es comprobar la similitud de las cualidades 
 
ópticas entre cubetas, de modo de poder utilizar varias en el proceso de 
medida sin que este se vea afectado. Llenamos una cubeta con solución 
coloreada (con el volumen seleccionado para trabajar) y registramos el % de 
transmitancia obtenido. Luego procedemos de igual manera con el resto de 
las cubetas a testear. Para poder utilizar indistintamente las cubetas, la 
diferencia de T% entre ellas debe ser menor o igual al 1%. 
4. Centro de banda:​ El objetivo es verificar la concordancia entre la longitud de 
onda fijada con el selector en el equipo (aquella que se lee en el display) y la 
longitud de onda que efectivamente llega a la muestra. Realizamos el barrido 
espectral de una sustancia de referencia, cuyo espectro de absorción es 
conocido. Luego verificaremos que la longitud de onda de máxima 
absorbancia leída con el espectrofotómetro se corresponda con la longitud de 
onda de máxima absorbancia teórica de la sustancia de referencia utilizada. 
Las condiciones que debe cumplir la sustancia de referencia es que sea una 
sustancia conocida con un espectro conocido con uno o más picos de 
absorción estrechos y bien definidos que correspondan con la zona que se 
va a trabajar. Además, se deben conocer de antemano las longitudes de 
onda de máxima absorción. 
 
Luego de realizado el control, el resultado puede indicar que la λ real y la 
leída coincidan o bien puede haber una diferencia entre ambas. Esa 
diferencia se la conoce como desplazamiento o corrimiento de la longitud de 
onda y se mide en nm. Si esta es pequeña y entra dentro del rango de 
aceptabilidad estipulado se la puede considerar como error sistemático y 
corregir. En caso contrario de debe realizar un ajuste de la escala de 
longitudes de onda por parte del servicio técnico. 
5. Linealidad fotométrica:​ El objetivo es comprobar que el equipo responda 
linealmente y evaluar hasta que valores de absorbancia la respuesta del 
equipo es lineal.Procedemos empleando una sustancia de referencia que 
sabemos “cumple con la ley de Lambert-Beer”. Se realizan distintas 
diluciones y las medimos en el espectrofotómetro que estamos testeando. 
Con estos datos, realizamos un gráfico de absorbancia medida en función de 
 
la concentración (expresada en % de dilución respecto de la SM) y 
observamos la correlación. 
 
6. Veracidad:​ Las fallas que pueden ocasionar que no se cumpla este control 
pueden ser: Envejecimiento de la lámpara; Agotamiento del fototubo; Defecto 
en la calibración de la longitud de onda; Elevada absorción por parte de las 
cubetas; Muestra mal centrada respecto del sistema óptico del instrumento. 
Para proceder medimos la absorbancia de una solución estándar de 
referencia en un espectrofotómetro calibrado y comparamos dicho valor con 
la absorbancia obtenida para esa solución en el equipo que queremos 
controlar. Calculamos la veracidad fotométrica a través del error fluorométrico 
porcentual: . Se considera aceptable un error fotométrico de ±Cargando… 
5%. La solución estándar tiene que tener un valor de absorbancia estable, 
presentar un pico ancho de absorción y poseer un alto coeficiente de 
extinción molar. 
7. Precisión:​ Su objetivo es evaluar la repetibilidad de una serie de medidas de 
absorbancia realizadas con una misma solución. Utilizamos la serie de datos 
obtenidos en el control de veracidad y calculamos el coeficiente de variación 
porcentual: . Se considera aceptable un CV% menor a 1%.Cargando… 
 
● Barrido espectral:​ ​La gráfica del conjunto de valores de absorbancia de una 
sustancia vs diferentes longitudes de onda constituye una curva característica 
conocida como barrido espectral. Un barrido espectral se obtiene trabajando con una 
misma solución coloreada (de concentración constante) y midiendo los valores de 
absorbancias correspondientes a distintas longitudes de onda seleccionadas dentro 
de un determinado rango de trabajo. El perfil de los barridos espectrales representa 
cómo interactúa la sustancia a radiación electromagnética de las longitudes de onda 
evaluadas, siendo este perfil propio de cada sustancia. Una zona de pico en el 
barrido espectral representa un rango de radiaciones de determinadas longitudes de 
onda que la sustancia absorbe, mientras que un valle representa un rango de 
radiaciones de longitudes de onda para las cuales hay nula absorción. 
En primer lugar, como los barridos espectrales son propios de cada sustancia, 
pueden emplearse para identificar sustancias incógnitas. Por lo general, cuando se 
 
busca identificar una sustancia coloreada se realiza un barrido espectral a lo largo 
de todo el rango visible (400 a 700 nm). Debe disponerse de antemano de un 
espectro de la “supuesta” sustancia, con el cual comparar el barrido espectral de la 
sustancia en estudio. 
Por otro lado, en tanto los barridos espectrales nos permite visualizar la variación de 
la absorbancia con la longitud de onda de la radiación electromagnética, mediante el 
análisis de los barridos podemos elegir una longitud de onda óptima de trabajo 
cuando busquemos cuantificar una sustancia o bien evaluar si cumple con la Ley de 
Lambert-Beer en determinadas condiciones. Este tema lo desarrollaremos en los 
capítulos siguientes. 
 
● Elección de longitud de onda óptima de trabajo:​ S​iempre se deberá elegir una 
longitud de onda a la cual la sustancia en estudio absorba considerablemente la luz 
incidente, es decir, donde la absortividad sea alta. De esta forma, aunque la 
concentración de la sustancia sea baja, obtendremos un valor de absorbancia 
distinto de cero. Desde un punto de vista teórico, elegir una longitud de onda de 
trabajo en la cual la sustancia tenga un máximo de absorbancia confiere mayor 
sensibilidad en las lecturas, un límite de detección más bajo y un menor error en las 
mediciones. En la práctica, debe evitarse hacer mediciones en zonas donde 
pequeñas variaciones de longitud de onda provoquen grandes cambios en la 
absortividad, y por lo tanto, en la absorbancias de las sustancia. Por ello, a veces se 
prefiere sacrificar sensibilidad pero asegurarnos que pequeñas variaciones en la 
longitud de onda no modifiquen apreciablemente la absortividad. 
Por lo tanto, para elegir la longitud de onda óptima de trabajo se tendrán en cuenta 
los siguientes criterios: 
● Se prefiere un máximo de absorbancia, dado que así se obtiene mayor 
sensibilidad en las lecturas 
● Hay que evitar en lo posible, trabajar en regiones del espectro donde hay 
cambios bruscos de absorbancia, ya que un pequeño desplazamiento en 
la longitud de onda puede causar un error grande en la correspondiente 
lectura. 
Ensayo de Biuret:​ En condiciones alcalinas, las moléculas que posean dos o más enlaces 
peptídicos (al menos tripéptidos) forman un complejo azul violáceo con las sales de cobre. 
El reactivo de Biuret contiene sulfato de cobre en medio alcalino. Los enlaces peptídicos de 
las proteínas reaccionan con el ion cúprico y dan un complejo coloreado con un máximo de 
absorción a 540 nm. La absorbancia de esta solución coloreada es proporcional a la 
concentración de proteínas totales presentes en la muestra, en un rango comprendido entre 
0,1 y 100,0 g de proteína por litro de solución. 
Protocolo de trabajo: 
● Tubo muestra:​ Es el tubo en el que se genera la reacción entre el analito (cuya 
concentración se desea determinar) y el reactivo (el cual está en exceso siempre 
para no limitar la formación del producto coloreado). ​La presencia de un solvente o 
sustancias presentes en la muestra que no sean específicamente el analito pueden 
absorber a la longitud de onda de trabajo y por lo tanto contribuir a la absorbancia 
total leída.​ Para distinguir el valor de absorbancia que corresponde únicamente al 
producto coloreado debemos preparar otros tubos cuyas absorbancias se usarán 
para corregir el valor de absorbancia del tubo muestra. 
 
● Tubo blanco de muestra:​ Se utiliza para medir la posible absorbancia 
correspondiente a todo aquello que no constituye nuestro analito y que está 
formando parte de la muestra, o sea, contiene a la muestra pero no al reactivo. 
● Tubo testigo:​ Contiene al analito y al reactivo en concentraciones conocidas. Suele 
hacerse varios tubos testigo con distintas concentraciones. ​Como se conoce 
previamente la concentración de testigo en cada tubo, a partir de los valores de 
concentración de testigo y los valores de absorbancias corregidas de los tubos 
testigo se podrá confeccionar un gráfico de calibración de Abs : f (cc) que permitirá 
encontrar una relación matemática entre la concentración del analito de interés y los 
valores de absorbancia correspondientes. Mediante la ecuación de la recta, 
podremos traducir el valor de absorbancia corregido de la muestra a su valor de 
concentración. Esta concentración representa la concentración de producto 
coloreado en el tubo Muestra. Como sabemos de antemano la estequiometría de la 
reacción colorimétrica y el factor de dilución de la muestra en el tubo, podremos 
calcular finalmente el valor del analito en la muestra original. 
● Tubo blanco de reactivo:​ Contiene el reactivo, sin presencia de analito. ​Por lo tanto 
la medida de absorbancia de éste será descontada a la del tubo de muestra y a la 
del tubo de testigo para obtener por diferencia el valor de la absorbancia debida 
solamente a la muestra o al testigo, según corresponda. 
● Tubo de referencia o blanco de solvente:​ ​ ​Este tubo puede contener agua o el 
solvente que se utilice en la reacción y que estará presente en todos los tubos. 
Contra este tubo se leerán todos los demás tubos, es decir con él se llevará a cero 
de absorbancia y será la referencia. 
 
17. Fluidos 
Los gases y líquidos se clasifican como fluidos. La característica fundamental de los fluidos 
es la denominada ​fluidez​. A diferencia de los sólidos, los fluidos son incapaces de resistir 
esfuerzos cortantes (o esfuerzos tangenciales). Cuando sometemos uncuerpo sólido a la 
acción de un esfuerzo cortante, experimenta una deformación bien definida. Por el contrario, 
los fluidos se deforman continuamente bajo la acción de los esfuerzos cortantes y fluyen. 
Una diferencia entre los gases y los líquidos es que estos son compresibles, o sea, se 
comprimen fácilmente, en cambio los líquidos soportan la compresión. 
● Densidad: Cantidad de masa en un determinado volumen de sustancia. 
δ=masa/volumen (unidades g/cm³ y Kg/m³). 
● Peso específico: Peso de una sustancia por unidad de volumen. 
⍴=peso/volumen (unidades N/m³ y dina/cm³) 
● ⍴= δ. g (gravedad) 
Presión:​ Se manifiesta cuando actúa sobre una superficie o área apareciendo como 
producto de esto una fuerza, siendo las fuerzas perpendiculares al área sobre la cual la 
presión ejerce su acción. Podemos definirlo como siendo α el ánguloCargando… 
formado entre ambos vectores (fuerza y área). Cuando el vector fuerza es perpendicular al 
vector área, la presión es 0; cuando el vector fuerza es paralelo al vector área, la presión es 
 
máxima. La unidad de la presión es Pascal=N/m² y Baria=dina/cm². 
● Principio de Pascal:​ El incremento de presión en los fluidos se transmite de igual 
manera en toda dirección a todas las partes del fluido y las paredes del recipiente. 
 
La presión hidrostática incrementa con la profundidad, incrementa con la densidad 
del fluído y se incrementa si aumenta g. Puntos de igual profundidad, se encuentran 
a igual presión (principio general de la hidrostática). 
● Medición de presiones: 
○ Manómetro de tubo cerrado: Informa presiones absolutas. P=​⍴.△h 
○ Manómetro de tubo abierto: Informa presiones manométricas. P=Patm+⍴.△h 
 
● Flotación y Principio de Arquímedes:​ Un objeto flota sobre un líquido ya que aparece 
una fuerza de abajo hacia arriba igual al peso del volumen del fluido desalojado por 
el cuerpo (principio de Arquímedes). El origen de este “empuje” es la diferencia de 
presiones (ya que las partes de un mismo cuerpo que estén a mayor profundidad 
estarán sometidas a mayor presión que la parte menos profunda) originando una 
fuerza hacia arriba que se opone al peso del cuerpo. El empuje depende de la 
densidad del líquido y de su volumen que se desplazó al sumergir el material, NO 
depende del peso del objeto. 
 
Cuando el empuje le gana al peso, este flota. Si el peso le gana al empuje el objeto 
queda sumergido en el fluído hasta llegar al fondo. 
 
Densimetría: 
● Densidad absoluta (δ): Magnitud referida a la cantidad de masa de materia 
contenida en un determinado volumen, con unidades Kg/m³ y g/cm³. ​El volumen que 
ocupe una determinada masa de una sustancia dependerá de la temperatura y la 
presión; por lo tanto, al informar un valor de densidad será necesario aclarar a qué 
presión y a qué temperatura fue realizada la determinación. 
Cargando… 
● Densidad relativa (Dr):Expresa la ​relación entre la densidad absoluta de una 
sustancia​ X ​(​δ​x ​) y la de una sustancia patrón (​δ​p​) o de referencia, lo cual da como 
resultado una magnitud sin unidades. Es necesario conocer la densidad absoluta de 
la sustancia utilizada como patrón para las condiciones de temperatura y presión en 
las que fue realizada la determinación. 
Cargando…Cargando… 
Cargando… 
Los métodos para determinar la densidad son: 
● Picnometría:​ ​Es un método que permite determinar la densidad relativa de una 
muestra respecto de un material de referencia. Según la ecuación de densidad 
relativa, si medimos la masa ​X​ en el mismo picnómetro que la masa ​p​, ​V​x​ y ​V​p ​serán 
iguales. De esta manera se llega a que la densidad relativa de x es igual a la 
relación de masas de un mismo volumen de x y de una muestra patrón (Dr=mx/mp). 
Densidad relativa de líquidos: 
Si se utiliza agua como material de referencia, la ecuación puede expresarse de la 
siguiente manera: 
 ​donde Pv es masa del picnómetro vacíoCargando… 
Densidad relativa de sólidos insolubles en agua: 
Si a la masa del picnómetro lleno con agua (​P​v+agua​) se le suma la masa del sólido 
(​m​x​) y se le sustrae la masa del picnómetro que contiene agua y sólido (​P​v+agua+x​), se 
obtiene la masa de agua que ocupa el mismo volumen que ocupa la cantidad de 
sólido (​m​Vagua=Vx​). La relación de masas: ​m​x​/ m​Vagua=Vx​ es equivalente a la densidad 
relativa del sólido respecto del agua (​Dr​x​). ​Nota: no es necesario llenar todo el 
picnómetro con sólido, pero es importante que el sólido ocupe bastante volumen del 
picnómetro (en lo posible más de la mitad) para cometer menor error relativo en la 
determinación de masas. 
 
Cargando…Cargando… 
Densidad relativa de sólidos solubles en agua: 
Para determinar la densidad de un sólido soluble en agua respecto del agua, se 
debe determinar la densidad de éste respecto de un patrón en el que sea insoluble 
(δ​x ​/δ​p-ins​). Además, se debe determinar la densidad de ese patrón respecto del agua 
(δ​p-ins ​/δ​agua​). El producto de ambas densidades será la densidad relativa del sólido 
respecto al agua. 
Cargando… 
 
● Areometría:​ Es un ​método que permite medir la densidad absoluta mediante la 
utilización de un instrumento llamado areómetro que se fundamenta en el principio 
de Arquímedes. El areómetro flota libremente en el líquido X, entonces podemos 
decir que ha llegado a un equilibrio de fuerzas. Esto implica que el empuje recibido 
es igual al peso del areómetro. 
Para que un areómetro nos permita medir, es imprescindible que flote parcialmente 
sumergido y que el enrase (interfase líquido-aire) quede ubicado en la zona de la 
escala del vástago. Cada areómetro puede medir un rango de densidades. Para un 
areómetro dado, cuanto mayor sea la densidad del líquido en el cual flota (δx) menor 
será su volumen sumergido (Vs), necesario para generar un empuje que compense 
su peso.    
 
La siguiente ecuación ​representa la variación de la altura sumergida en función de la 
densidad de la solución en que está flotando el areómetro (siendo Vb el volumen del 
bulbo, la sección transversal del vástago sea S, e Y la altura sumergida del vástago 
en un líquido cuyo peso específico es δx. 
 
Cuando la muestra está muy diluida, tanto que su valor de densidad queda por fuera 
de la escala del densímetro, a la muestra conocida se le agrega un volumen 
conocido de un líquido cuya densidad sea conocida, y de este modo lograr que la 
 
cantidad de muestra alcance para nuestro método de medición. 
 
Donde ​δ​dil ​ es la densidad medida, ​V​t ​ es el volumen final de la muestra diluida, ​δ​sv 
es la densidad del solvente utilizado a la temperatura de trabajo (dato), ​V​sv ​ es el 
volumen de solvente utilizado y ​V​x ​es el volumen de muestra original que se diluyó. 
 
Nociones de Hidrodinámica: 
Tipos de Fluidos: 
● Según su variación de densidad frente a la variación de presión:​ pueden ser 
COMPRESIBLE (gas) o INCOMPRESIBLE (líquido). 
● Según su variación de energía:​ puede ser VISCOSO (pierden energía) o NO 
VISCOSO (no pierden energía). 
 
- Línea de corriente ​(no se cruzan): Trayectoria de una partícula que se mueve y es 
paralela a la velocidad en cada punto. 
- Tubo del flujo: ​Región del fluido limitado por líneas de corrientes. 
“Donde están más apretadas las líneas de corriente, MAYOR VELOCIDAD (menor 
superficie).” 
Tipos de fluidos según su régimen: 
● Estable o estacionario:​ la velocidad en un punto es constante en función del tiempo. 
● Variable:​ la velocidad varía con el tiempo con una función única. 
● Turbulento: ​la velocidad varía en el tiempo con una función indefinida. 
Ecuación de continuidad: 
● Por ley de conservación de masas: 
 ​Q ​= ​S.ν ​= ​cte​ ​ν​1​.S​1 ​=​ ν​2​.S​2 
 
 
A mayor S, menor V. 
Si cambia el sistema, cambia Q. 
 
El caudal en un sistema determinado permanece ​constante​. Es decir, el caudal de entrada 
es igual al caudal de salida para ese sistema. 
 ​Qe=Qs 
 
Fluidos Ideales: 
Los fluidos ideales son construcciones teóricasque presentan menor complejidad que los 
fluidos reales. 
● NO VISCOSOS: no poseen fricción interna. 
● INCOMPRESIBLES: no varía su volumen. 
 
Teorema de Bernoulli: 
 
El volumen de líquido desplazado es: 
A . Δl = Vol 
El trabajo neto para lograrlo es: 
W = p​1​ . A​1​ . Δl​1​ - p​2​ . A​2​ . Δl​2 
O bien: 
W = (p​1​ - p​2​). Vol 
 
 
 
 
 
W = ΔEc + ΔEp 
 
Distribuyendo: 
 
 
Dividiendo cada término por Vol llegamos a la expresión del teorema de Bernoulli 
P​ + ​½ δ .V^2​ + ​δ . g . h​ = ​k 
 
ENERGÍA ACUMULADA COMO PRESIÓN 
ENERGÍA CINÉTICA 
ENERGÍA POTENCIAL GRAVITATORIA 
ENERGÍA TOTAL DEL SISTEMA 
 
El Teorema de Bernoulli se basa en la Ley de Conservación de la Energía aplicada a 
fluidos. 
 
FLUIDOS REALES: 
 
Viscosidad: 
 
Resistencia interna a fluir: 
 
Régimen laminar:​ se aplica una fuerza tangencial en la placa superior y dejando fija la 
ultima lamina inferior (v=0), las placas de fluido se moverán y se genera un gradiente de 
velocidad como consecuencia del rozamiento. 
 
Gradiente de velocidad: 
 
La velocidad aumenta con la distancia (L) a medida que nos alejamos, su variación 
disminuye. Existe un gradiente de velocidad que es inverso de la pendiente en cualquier 
punto de esa representación: 
 Y=dv/dL 
 
La viscosidad absoluta está definida por la ley de Newton; 
“ la fuerza tangencial que una capa ejerce sobre la contigua es proporcional al área de la 
superficie de contacto y al gradiente de la velocidad normal a la dirección de deslizamiento”. 
 
 
 
 
T: tensión de corte. 
F: Fuerza tangencial. 
A: área de contacto entre las capas. 
dv/dr: gradiente de velocidad. 
η:​ ​Coeficiente de viscosidad. 
 
 
 
Unidades: Pas . seg, Poise, Centipoise. 
 
Clasificacion de Fluidos: 
 
● Newtonianos:​la relación entre la magnitud de la tensión de corte o cizalla y el 
gradiente de velocidad es lineal. 
El ​coeficiente de viscosidad es constante (independiente de la velocidad de corte 
y de tiempo) por lo tanto se denomina ​coeficiente de viscosidad absoluto. 
 
● No newtonianos: ​el coeficiente de viscosidad depende del gradiente de la velocidad 
y, en algunos casos, del tiempo en que dicho gradiente se aplica. 
En estos casos hablamos de un ​coeficiente de viscosidad aparente. 
 
 
 
 
 
 
El coeficiente se calcula como el cociente entre la tensión de corte y el gradiente de 
velocidad en cada punto: ​η​ap​ = 𝜏 / dv/dr 
 
FLUIDO VISCOSO: 
● No se conserva la energía mecánica. 
P​1​+½.δ.ν​1​2​+ρ.h​1 ​> P​2​+½.δ.ν​2​2​+ρ.h​2 
No hay fuerzas conservativas (fricción). 
 
Teorema de Bernouilli modificado: 
P​1 ​+ ½.δ.ν​1​2 ​+ ρ.h​1 ​= P​2 ​+ ½.δ.ν​2​2 ​+ ρ.h​2 ​+ ​W​FR​/Vol 
 
P​1 ​= ​P​2 ​ + ​W​FR​/Vol ​(ley de Poiseuille) 
Ley de Poiseuille: 
En un tubo por el que circula un líquido viscoso a velocidad constante actúan: 
 
 
Fuerza por presión:​ ​F​p​= (P​1​-P​2​).S 
Fuerza por rozamiento: ​F​r​= -η.A.(dv/dr) 
- Igualando las ecuaciones y teniendo en cuenta la ecuación de continuidad: 
Q= ΔP.π.r​4​ / 8.L.η 
- Despejando ΔP y teniendo en cuenta la ecuación de continuidad: 
ΔP= v.8.l.η /r​2 
 
Analisis del regimen: 
- Velocidad crítica:​Es la velocidad a partir de la cual el régimen deja de ser laminar y 
pasa a ser turbulento. 
 
Vc=2000 m/d.D (entre 2000 y 3000). ​EN TRANSICIÓN. 
 
Vc<2000 m/d.D ​LAMINAR. 
Vc>3000 m/d.D​ TURBULENTO. 
 
- Número de Reynolds:​ Es un número adimensional que permite caracterizar el 
régimen de un fluido. Experimentalmente se comprueba que hasta un R de 2000 se 
cumplen condiciones de flujo laminar. 
 
Experiencia n°2: 
 
Diámetro del tanque =​ 30 cm 
Altura de líquido en el tanque =​ 20 cm. 
r =​ 0,10 cm. 
l ​1-2​ =​ 60 cm. 
l ​total ​=​ 70 cm. 
δ = ​1,0 g/cm​3 
η = ​0,01 poise. 
 
 
 
Longitud (cm) 
Caudal 
Promedio 
(mL/seg) 
ΔH promedio 
(cm) 
Velocidad Promedio 
(cm/seg) 
60 1,06 16,4 33,74 
 
- De 0 a 30 cm: Ec=0 
es cuando el fluido está dentro del tanque. 
- De 30 a 60 cm: Ec>0 
cuando el fluido está en el caño. 
Cada vez que se agregue un caño es una línea nueva de Ec. 
 
 
No varía la Ep. porque está todo el tubo y el caño en la misma altura. 
 
 
Parto de la altura del tubo y hasta que no cambio del tubo al caño no disminuye la presión. 
 
Gráfico con todas las energías: 
 
Cuando el líquido entra en el tubo, de la energía total acumulada en el tanque, una parte (en este 
caso muy pequeña) se transforma en energía cinética y otra se gastará como trabajo contra la fuerza 
de fricción durante el trayecto del líquido por el tubo hasta la salida. Como resultado final la energía 
total del líquido a la salida del tubo es menor que la que tenía en el tanque debido a la presencia de 
fuerzas no conservativas (fricción). 
 
 
18. Tensión superficial 
La tensión superficial se origina debido a la diferencia de interacciones moleculares la cual 
tiene 2 o 3 fases en juego (de las cuales, la fase aérea siempre está presente), su alcance 
es de 3 a 5 veces el diámetro molecular. 
- Fuerza de cohesión:​ Entre moléculas de la misma sustancia 
- Fuerza de adhesión​: Entre moléculas de sustancias diferentes 
 
 
Deberá realizarse trabajo para llevar una molécula desde el seno del líquido a la superficie 
libre. La zona que comprende de 3 a 5 diámetros moleculares desde la superficie libre 
tendrá una ENERGÍA POTENCIAL MAYOR que las que estén en el seno del líquido, ya que 
las moléculas tienden a ubicarse en el seno del líquido para tratar de REDUCIR su 
ENERGÍA POTENCIAL, aunque siempre habrá moléculas en la superficie. El sistema tiende 
espontáneamente a reducir su energía, en este caso, reduciendo la SUPERFICIE a la 
MÍNIMA posible. Por lo que, al incrementar la superficie, aumenta la energía del sistema. 
 
Una masa dada del líquido, suponiendo un estado de “ingravidez”, tendrá a adoptar la forma 
esférica, ya que esta forma permite tener un determinado volumen con la menor superficie 
posible. 
 
Si se introduce un anillo de alambre con un bucle flexible de hilo en una solución jabonosa y 
se perfora la película superficial del interior del bucle del hilo, el sistema evoluciona 
espontáneamente a un estado de menor energía, o sea, la superficie de la solución 
jabonosa SE REDUCE, algunas moléculas se reubican en el seno del líquido minimizando 
así su energía potencial. La fuerza de adhesión entre la solución jabonosa y el hilo, y entre 
la solución jabonosa y el alambre exterior posibilita el fenómeno observado. 
 
 
Coeficiente de tensión superficial:​ y es el coeficiente de tensión superficial, y se define como 
la fuerza que ejerce una superficie por unidad de longitud. 
 
 
 
 
 
Se multiplica por 2 ya que tenemos 2 superficies sobre las que actúa la Fy. 
- Fy es: 
- Siempre tangente a la interfase 
- Siempre está orientada de modo tal de tender a reducir la interfase 
- Es proporcional al perímetro 
- Es perpendicular al perímetro en cada punto 
 
Si colocamos una pequeña pesa (dF) y consideramos que la varilla se va desplazando a 
velocidad constante de una posición de equilibrio a otra lentamente sin acelerar hasta 
detenerse, y que además el desplazamiento de dx es muy pequeño, podemos suponer en 
todo momento que: 
 
 
 
 
 
entonces, 
es decir, 
 
Incrementar el área de un dA implicó realizar un dW, ese trabajo fue necesario para ubicar 
nuevas moléculas en la superficie del líquido que estaban en el seno del mismo y así 
incrementar el área: 
 
 
vista lateral 
 
Entonces, podemos decir que: 
 
 
Así vemos que y también puede definirse como el trabajo necesario para incrementar una 
superficie en una unidad. 
- Unidades de y: N/m ó J/m² (MKS) ; Dina/cm ó ergio/cm² (cgs) 
- y depende de: La naturaleza de los medios en contacto; La temperatura 
 
Cuerpo apoyado en la superficie libre de un líquido: 
 
 
Vemos que un sistema se encuentra en equilibrio. Considerando despreciable y quela 
densidad del sólido es mayor que la densidad del líquido (​δ​ sólido > ​δ​ líquido), se cumple 
que: 
 
 
Para que un cuerpo esté en equilibrio sobre la superficie libre del líquido, la componente 
vertical de F​γ​ (F​γ​y​) debe ser igual al peso del cuerpo. 
La modificación del ​γ​, el Peso del cuerpo o el perímetro de aplicación de la fuerza de 
tensión conducirán a un cambio en el equilibrio, con una deformación de la superficie 
distinta y la generación de un nuevo ángulo ​β​. 
 
Casos: 
Cargando… 
Hemos denominado como ​F​૪ (vector verde) a la sumatoria de todos los vectores rojos. 
Cada vector rojo es un (dF​૪ ) aplicado en un punto del perímetro. 
● Se coloca un nuevo cuerpo sobre la planchuela: 
 
- Mismo perímetro: misma cantidad de vectores rojos (dF​૪ ) 
- Mismo líquido: mismo módulo de vectores rojos (dF​૪ ) 
- Misma F​૪ (vector verde) 
- Distinto peso 
- Distinto ángulo β 
- Distinta componente F​૪(y) (vector azul) 
● La planchuela se corta a la mitad y se monta una sobre otra: 
 
 
- Menor perímetro: menor cantidad de vectores rojos (dF​૪ ) 
- Mismo líquido: mismo módulo de vectores rojos (dF​૪ ) 
- Menor F​૪ (vector verde) 
- Mismo peso 
- Distinto ángulo β 
- Misma componente F​૪(y) (vector azul) 
● Agregado de un surfactante (menor ૪): 
 
- Mismo perímetro: misma cantidad de vectores rojos (dF​૪ ) 
- Distinto líquido: menor módulo de vectores rojos (dF​૪ ) 
- Menor F​૪ (vector verde) 
- Mismo peso 
- Distinto ángulo β 
- Misma componente F​૪(y) (vector azul) 
 
Tensioactivos:​ Son sustancias que al agregarse en un determinado líquido, inciden sobre la 
tensión superficial del mismo, modificando el coeficiente de tensión superficial. Los 
tensioactivos pueden producir el efecto de: 
- Aumentar el y: 
- Tipo I: Estas tienden a solvatarse fuertemente, lo cual es equivalente a 
aumentar el grado asociación del agua. Ej: Sales iónicas en agua. 
 
- Disminuir el y: 
- Tipo II: Si el solvente no solvata fuertemente un soluto se produce una 
disminución de las interacciones intermoleculares del líquido. Ej: Alcohol. 
- Tipo III: Algunas sustancias, en bajas concentraciones, disminuyen 
bruscamente la tensión superficial. Se conocen como surfactantes. Se 
caracterizan por ser moléculas anfipáticas o anfifílicas. Las cabezas polares 
se orientan hacia el medio hidrofílico y las regiones no polares se ubican 
hacia el aire (no polar) Ej: Jabón. 
Cuando la superficie libre de una solución acuosa se completa (satura) con 
moléculas del surfactante, un nuevo agregado de éste ya no se podrá ubicar 
en la superficie. Las nuevas moléculas de surfactante se ubicarán en el seno 
de la solución pero lo harán formando MICELAS. La máxima concentración 
de surfactante que se puede agregar sobre una solución acuosa sin que en 
ella se formen MICELAS en su interior, recibe el nombre de 
CONCENTRACIÓN MICELAR CRÍTICA (CMC). 
 
Ley de Laplace:​ La Ley de Laplace relaciona ​la diferencia de presión ​a ambos lados de una 
interfase en estado de equilibrio y ​la tensión superficial ​que se opone a la deformación de 
dicha interfase, con ​la curvatura ​de la misma. Matemáticamente la curva se traduce como: 
 
Siendo R el radio. A mayor curvatura, el radio es menor. 
En el caso de 2 dimensiones, para una superficie curva quedan definidos 2 RADIOS DE 
CURVATURA, correspondientes a 2 PLANOS PERPENDICULARES entre sí. 
La curvatura media de la superficie en el punto “O” (punto en el cual las 2 curvas se unen) 
queda definido como: 
 
C​ tendrá el mismo valor para cualquier par de planos que pasen por “O” y sean 
perpendiculares entre sí. 
- Un círculo con radio infinito es una línea recta. 
- Una esfera con radio infinito es un plano. 
 
 
 
Cuando no hay diferencia de presión (ΔP = 0), la superficie es plana (radio de curvatura 
infinito) 
Cuando la diferencia de presión se incrementa, aumenta la curvatura de la superficie, esto 
es, disminuye el radio de curvatura de la superficie. 
Ejemplo: tenemos un recipiente con un líquido: 
 
- P1 tiende a aumentar la interfase 
- P2 tiende a disminuir la interfase 
 
- P3 tiende a disminuir la interfase 
- P4 tiende a aumentar la interfase 
 
- La Tensión superficial (TS) tiende a disminuir la interfase (en todos los casos) 
 
En una situación estática, habrá un equilibrio de fuerzas en cada punto de la superficie (dA). 
Por ejemplo en el caso de la burbuja, en cada punto de la superficie de esta burbuja se 
cumplirá que: 
∑ F = 0 
 
 P​1​ . ​dA​ = P​2​ . ​dA​ + F​γ​⊥ 
Donde: 
- P1.dA es la fuerza debida a la presión interna, la cual se dirige hacia el exterior. 
- P2.dA es la fuerza debida a la presión externa, la cual se dirige hacia el interior. 
- F​γ​⊥​ es la fuerza debida a la tensión superficial, es tangente a la interfase, por lo 
que se debe considerar la componente dirigida hacia el interior y aplicada en ese 
punto, el cual tiende a contrarrestar la deformación. 
 
Luego de esto, la expresión de la Ley de Laplace queda como: 
 
 
Donde: K es el número de interfases en el elemento de superficie considerado y R1 y R2 
son los 2 radios de curvatura de la superficie considerada. 
 
● Ley de Laplace para gotas y burbujas: 
 
● Ley de Laplace para pompas: 
 
● Ley de Laplace para cilindros: 
 
Intuitivamente podemos deducir que si una interfase es plana no existe diferencia de 
presiones entre ambos lados de la misma. Si una superficie tiene curvatura es de esperar 
que la presión del lado cóncavo sea mayor y por eso la superficie se deforma. Si una 
 
interfase se deforma la fuerza de tensión superficial interviene para oponerse a esa 
deformación. 
 
● Ley de Laplace para pompas conectadas: 
 
La presión en el interior de la pompa más grande es menor, por lo tanto el aire fluirá de la 
pequeña a la grande y el equilibrio se alcanzará cuando la curvatura de las dos pompas se 
igualen. La pompa pequeña consistirá en una pequeña sección de superficie de una esfera 
cuyo radio de curvatura sea igual al radio de curvatura de la pompa grande resultante. 
 
Ángulo de contacto:​ Si tenemos una superficie sólida en contacto con un líquido, llamamos 
ángulo de contacto a aquel formado entre esa superficie y la recta tangente a la interfase 
líquido-aire que parte del punto de contacto entre estas 3 fases. θ siempre incluye al líquido. 
 
El ángulo de contacto dependerá de la naturaleza de los medios puestos en contacto. 
Sistemas conformados por el mismo líquido y diferentes soportes o mismo soporte y 
diferentes líquidos tendrán distintos ángulos de contacto 
 
 
 
Situación A: Moja 
Situación B: No moja 
Situación C: No moja ni Moja 
La superficie de un líquido en la proximidad de una pared sólida se curva diferente según 
sea la relación de la tensión interfacial sólido-vapor (​γ​SV​) y sólido-líquido (​γ​SL​). 
 
 
Capilaridad: 
● Ley de Jurin:​ El sistema evolucionará hasta alcanzar el equilibrio 
 
El sistema evolucionará hasta alcanzar el equilibrio, por lo que el líquido se desplazará de 
zonas de mayor presión (3) a la zona de menor presión (2) y el líquido ascenderá para 
ganar presión en (2). 
 
 
El líquido ascenderá por el capilar hasta que la presión en (2) se iguale a la presión en (1) y 
llegue al equilibrio. 
Quedando la Ley de Jurin como: 
Cargando… 
Cargando… 
Cargando… 
 
 
 
 
19. Viscosimetría 
La viscosidad es una propiedad tanto de líquidos como de gases y refiere a la resistencia de 
éstos a fluir. Sabemos que esta resistencia a fluir es consecuencia de fuerzas 
intermoleculares que se dan entre moléculas de la sustancia que fluye. La mecánica de 
fluidos no se centra en el comportamiento molecular sino en lo que le ocurre a “una porción 
del fluido”. Es decir, cuando estudiemos fluidos en movimiento, aplicaremos la ​Hipótesis 
del Continuo​ y consideraremos que el fluido es un medio continuo, despreciando las 
discontinuidades que genera la estructura molecular del mismo. 
 
Cuando un fluidofluye puede hacerlo con ​régimen laminar o turbulento​ (nos ocuparemos 
de los casos de flujo laminar, esto es, consideraremos que el fluido que fluye lo hace 
moviéndose como capas contiguas que rozan unas con otras). El grado de fluidez de una 
sustancia se puede determinar mediante un coeficiente denominado ​coeficiente de 
viscosidad o viscosidad dinámica​ (η). Cuanto mayor sea ese coeficiente menor será la 
fluidez. La viscosidad dinámica está definida por la ley de Newton de la viscosidad, en la 
 
cual se enuncia que: ​“La fuerza tangencial que una capa de fluido ejerce sobre la contigua 
es proporcional al área de la superficie de contacto y al gradiente de la velocidad normal a 
la dirección de deslizamiento de las capas”. 
● Viscosidad absoluta: 
Si F es la fuerza de fricción entre las capas, A el área de contacto entre capas, y dv/dx el 
gradiente de velocidad en la dirección normal al movimiento, la viscosidad η queda 
expresada como: 
 
 
El término F/A se conoce como tensión de corte. Su valor representa la tensión cortante 
necesaria para mantener el flujo laminar entre dos capas paralelas. 
Los fluidos para los cuales el η es constante (tal como lo establece la ley de Newton) se 
denominan ​newtonianos​ y al graficar tensión de corte en función del gradiente de velocidad 
obtenemos una recta cuya pendiente es el coeficiente de viscosidad. Los fluidos, para los 
cuales esto no se cumple se denominan ​no newtonianos​, y su viscosidad varía con el 
gradiente de velocidad. En este último caso se habla de viscosidad aparente η​a​ la cual se 
calcula según la ecuación para cada valor de velocidad de corte. 
. 
. 
 
 
● Viscosidad cinemática: 
Es el cociente entre la viscosidad y la densidad másica del fluido. 
 
 
Métodos para medir el coeficiente de viscosidad: 
● Viscosímetro capilar (Ostwald, Ubbelohde ó Cannon-Fenske):​ ​En este instrumento 
se mide el tiempo de escurrimiento de un volumen fijo de líquido a través de un 
capilar. 
 
● Viscosímetro tipo Saybolt:​ ​Este viscosímetro mide el tiempo de escurrimiento de un 
volumen fijo de un líquido a través de un agujero en el fondo de un contenedor; se 
utiliza para líquidos muy viscosos 
 
● Viscosímetro de caída de bola ó de Stokes:​ ​En estos dispositivos se mide el tiempo 
que tarda en caer una esfera de metal a través de una columna de líquido cuya 
 
viscosidad se quiere determinar. También se utiliza para líquidos muy viscosos. 
 
● Viscosímetro rotacional:​ ​Este viscosímetro consta de dos cilindros coaxiales o de un 
cono y un plato, uno de los cuales gira a una determinada velocidad y el otro 
permanece fijo. La muestra se coloca entre los dos dispositivos y opone (frente al 
cizallamiento impuesto) una resistencia proporcional a su viscosidad. Esta 
resistencia produce en el rotor un momento angular en oposición, el cual puede ser 
determinado. Se utiliza para cualquier tipo de líquido, de alta o baja viscosidad, 
newtoniano o no newtoniano. 
 
Viscosímetro Capilar:​ ​El viscosímetro capilar o viscosímetro de Oswald está compuesto por 
dos ramas, una gruesa y una delgada que contiene un capilar muy delgado conectado a dos 
olivas, A y B. Es importante destacar que nuestro análisis se centrará en los fenómenos que 
ocurren en la zona del capilar. 
 
Cuando se introduce un fluido en el viscosímetro y se establece una diferencia de altura 
entre las columnas de líquido de las ramas, se generará una diferencia de presión (P​0 ​y P​1​). 
Esta diferencia de presión impulsará el movimiento del fluido. En la situación inicial (t = 0), 
cuando el líquido está en reposo, la energía total del sistema por unidad de volumen 
(E​total​/Vol) estará acumulada como diferencia de presión generada por la diferencia de altura 
de líquido entre las ramas (ΔP impulsor). Recuerden que si analizamos energía por unidad 
de volumen estamos analizando presiones. En el momento en que se inicie el movimiento 
del fluido, una parte de esta energía acumulada por unidad de volumen (E​total​/Vol) se 
transformará en energía cinética por unidad de volumen (E​cinética​/Vol) y otra parte se utilizará 
para vencer a las fuerzas de fricción:​. 
 
. 
 
 
La proporción en la que se reparte la E​total​/Vol en E​cinética​/Vol y E​fricción​/Vol depende de la 
geometría del tubo por el cual fluye el líquido y de la viscosidad del fluido. Cuanto más 
pequeño sea el radio del tubo, mayor será el gasto de presión necesaria para vencer a las 
fuerzas de fricción y por ende menor será lo que reste de E​total​/Vol para convertirse en 
E​cinética​/Vol. Por lo tanto, el fluido se moverá con menor velocidad. 
En el viscosímetro de Ostwald, el tubo por el que fluye el líquido es un capilar cuyo radio es 
sumamente pequeño. Esto implica que el gasto de E​fricción​/Vol es muy grande (casi el 100% 
de la E​total​/Vol). Esto implica que la fracción de E​total​/Vol que se transforma en E​cinética​/Vol se 
pueda considerar despreciable y que en consecuencia se pueda ​asumir que toda la 
E​total​/Vol del sistema se utilizará para vencer la fuerza de rozamiento (E​fricción​/Vol)​. Por lo 
tanto, haciendo esta aproximación antes mencionada, ​podemos estimar que el ΔP 
fricción es igual al ΔP impulsor. 
 
Dado que el ΔP impulsor es la diferencia de presión entre las dos columnas de líquido y que 
ΔP = Δh.g.ρ. podemos reemplazamos en la ecuación el ΔP fricción por Δh.g.ρ. De este 
modo obtenemos una expresión matemática que nos permite calcular la ​viscosidad 
cinemática​ del fluido conociendo la geometría del capilar y midiendo el tiempo que tarda 
una dada porción de fluido en pasar de un enrase a otro del viscosímetro:​ . 
. 
 
En nuestro sistema, la longitud l y el radio r se refieren a las dimensiones del capilar del 
viscosímetro y el volumen V es el volumen entre enrases de la oliva A. Es decir, l, r y V son 
parámetros propios del viscosímetro. Ahora bien, Δh es la diferencia de altura de líquido 
entre las ramas del viscosímetro. Si se carga siempre el viscosímetro con el mismo volumen 
de líquido, la magnitud del Δh será siempre la misma y podemos considerarla como un valor 
conocido. En consecuencia, la ecuación puede reducirse a: 
 
Donde ​k​ es la constante del viscosímetro y engloba a los parámetros geométricos y la 
fuerza impulsora del movimiento: 
 
 
Como puede observarse, cuanto más viscoso sea un fluido, mayor será el tiempo que tarda 
en fluir en un viscosímetro dado y en consecuencia, el tiempo de escurrimiento medido será 
mayor. 
Al medir viscosidades cinemáticas en este tipo de viscosímetros se puede proceder de tres 
maneras: 
- La constante k es provista por el fabricante del viscosímetro y cuando se lo adquiere 
comercialmente, k se entrega junto con el certificado de calibración. 
- Se puede realizar la calibración del viscosímetro (con un fluido patrón) que se va a 
utilizar y obtener así k. 
- Se mide la viscosidad cinemática relativa. Por supuesto, para realizar esto último los 
tiempos de escurrimiento del líquido de referencia y del líquido en estudio deben 
determinarse en el mismo viscosímetro. Se debe plantear la ecuación [Nc]=k·t para 
ambos fluidos y establecer su relación. Considerando que k es la misma para ambas 
ecuaciones, el cociente entre los tiempos es igual al cociente entre las viscosidades 
cinemáticas, es decir a la viscosidad cinemática relativa: 
 
Luego, con el valor conocido de [η​c​] del fluido de referencia se obtiene el [η​c​] del 
fluido estudiado. 
 
Cada viscosímetro tiene un rango de viscosidades cinemáticas para que se cumpla la Ley 
de Poiseuille (la cual solo es válida cuando el régimen del flujo es laminar). Si se trabaja por 
debajo de la viscosidad cinemática mínima para un viscosímetro, la velocidad del flujo será 
alta y el régimen será turbulento, y si se trabaja por encima de la máxima, el tiempo de 
escurrimiento será demasiado largo y hará muy dificultosa la medida. 
 
Viscosímetro de caída de bolas:​ ​Cuandose determina la viscosidad con el Método de caída 
de bola o Método de Stokes, para que la medición sea válida es importante que la velocidad 
de caída de la esfera en el seno del líquido sea constante durante el tiempo en que se está 
llevando a cabo la determinación. Es por esto que los enrases del tubo de Stokes están 
ubicados de manera tal que cuando la esfera pase el primer enrase ya haya alcanzado su 
velocidad límite. 
- En los primeros momentos del desplazamiento (velocidad igual a cero, v=0) se 
puede estimar que el cuerpo posee una aceleración máxima. Esta aceleración da 
como resultado un abrupto aumento de su velocidad. En este instante (v=0) la F​r 
será nula ya que, como mencionamos anteriormente, esta fuerza es proporcional a 
 
la velocidad del cuerpo. 
 
- A medida que la esfera aumenta su velocidad, la F​r​ crece, y consecuentemente la 
velocidad aumenta cada vez menos (la aceleración va disminuyendo), esto es, la 
aceleración se hace cada vez más pequeña. Llegará un momento en el que la fuerza 
neta que actúa sobre el cuerpo será nula, es decir que las fuerzas ascendentes (E y 
F​r​) serán iguales en magnitud a las fuerzas descendentes (en este caso P). En este 
momento, la aceleración será cero y el cuerpo continuará moviéndose pero su 
velocidad será constante. Se dice que la partícula alcanzó la “velocidad límite” 
(máxima posible) y se cumple que: 
 
Es importante destacar que la velocidad límite que alcanza el cuerpo en el seno del 
fluido depende de la viscosidad y densidad del fluido, y de la densidad y dimensión 
del cuerpo. Es por ello que conociendo la densidad del cuerpo, el peso del cuerpo, y 
la densidad del fluido en el que este se coloca, con solo medir la velocidad límite se 
puede conocer la viscosidad del fluido. La viscosidad absoluta del fluido se puede 
calcular a partir de la siguiente ecuación: 
 
 
 
 
Si se deja caer una esfera en el fluido cuya viscosidad se quieren conocer, y se permite 
recorra un espacio tal que se asegure que la V​lim​ haya sido alcanzada, la V​lim​ se obtendrá 
midiendo el tiempo (t) que tarda el cuerpo en atravesar un espacio comprendido entre dos 
enrases (e): 
 
La ecuación del movimiento de la esfera es: 
 
Donde, como F es la diferencia entre el peso y el empuje F = m.g - E , k = 6.π.η.r y dv/dt 
es la variación de la aceleración de la esfera en el tiempo. Si integramos llegamos a la 
ecuación, la cual describe cómo varía la velocidad de la esfera en el líquido en función del 
tiempo. Podemos ver que luego de un cierto tiempo se alcanza la velocidad límite. A partir 
de ese punto es válido el análisis matemático para calcular la viscosidad adecuadamente: 
 
● Sedimentación: 
se produce una sedimentación. Se entiende por ​sedimentación​ al proceso por el cual un 
material sólido en movimiento se deposita en el fondo del recipiente que lo contiene o lo 
transporta, producto de cambiar la posición de la esfera en el tiempo. 
La sedimentación a gravedad normal (g) se produce si la densidad de la partícula (δ​p​) es 
mayor que la densidad del disolvente (δ​L​). La velocidad de sedimentación será constante a 
lo largo de todo el proceso de sedimentación y se conoce como velocidad límite. La 
ecuación que determina su valor surge de la igualación de las fuerzas intervinientes en el 
proceso 
 
 
Siendo η el coeficiente de viscosidad del medio, r el radio de la partícula y V​sed​ la velocidad 
de sedimentación de la partícula. 
● Centrifugación: 
La ​centrifugación​ es un método que se basa en las distintas velocidades de 
desplazamiento de las partículas en un medio líquido al ser sometidas a un campo 
centrífugo. Sirve para separar tanto sólidos-líquidos como líquidos-líquidos no miscibles 
entre ellos. Cuando en una separación sólido-líquido el objetivo es lograr una solución pura 
libre de partículas sólidas el proceso se denomina ​clarificación​. Cuando se desea obtener 
una suspensión pero con mayor contenido de sólido que la original se trata de un proceso 
de ​espesamiento​. 
Se puede concluir que la velocidad de sedimentación es proporcional a la aceleración 
centrípeta, e inversamente al coeficiente de fricción que a su vez depende de la viscosidad 
del solvente y del tamaño y forma de la partícula. 
De todas maneras, tengamos en cuenta que, como sucede en la sedimentación, si la 
densidad del sólido es igual a la densidad del líquido, el término del paréntesis se hace igual 
a cero y por lo tanto la velocidad será cero 
 
- Coeficiente de sedimentación (S) 
S nos permite caracterizar una partícula, pues si consideramos que la mayoría de las 
centrifugaciones se hacen en medio acuoso (cuya viscosidad y densidad son prácticamente 
invariables), este coeficiente depende solamente de las características de la partícula 
(masa, volumen específico y forma y tamaño) 
 
 
Sabiendo que el número de Avogadro (NA) es igual a la masa del soluto por su peso 
molecular (PM), podemos hacer el siguiente arreglo matemático: 
 
Es importante destacar que los valores de coeficientes de sedimentación no son aditivos, ya 
que dependen tanto de la masa como de la forma que tengan las moléculas, por ejemplo, 
los ribosomas procariotas están formados por dos subunidades, una 50 S y otra 30 S. Sin 
embargo, el valor final del conjunto del ribosoma no es 80 S, sino 70. 
- Factor de centrifugación (G) 
En síntesis, es el número de veces que la aceleración centrípeta supera a la fuerza de 
gravedad. 
 
 
Siendo rpm la velocidad del rotor en revoluciones por minuto y r el radio del rotor. 
Tipos de centrifugación: 
- Centrifugación diferencial:​ ​Es una centrifugación ​puramente preparativa​, en la cual 
se obtienen dos fases, la fase de sedimentos o pellet (parte inferior del tubo), y el 
sobrenadante. Esta técnica se fundamenta en separar partículas con diferentes 
coeficientes de sedimentación (S), en el pellet quedarán las partículas de mayor 
densidad. Si al sobrenadante se lo expone a una nueva centrifugación pero de 
mayor tiempo, se conseguirá un nuevo pellet con sedimentos que corresponden al 
nuevo fraccionamiento. 
- Centrifugación analítica:​ ​Se aplica a sustancias lo más puras posible y la finalidad es 
analítica. Las centrífugas usadas están provistas de sistemas ópticos capaces de 
detectar la sedimentación de la partícula en cada momento. 
- Centrifugación en gradiente de densidad:​ ​Cuando las partículas de la muestra 
presentan un coeficiente de sedimentación similar, entonces se los hace sedimentar 
exclusivamente por su densidad. Para ello se arma en un tubo de centrífuga un 
gradiente de densidad y se siembra la muestra en la parte superior. Las partículas 
se moverán hasta encontrar la franja donde la densidad del líquido es igual a la 
densidad de la partícula. En esa franja la velocidad de sedimentación se hace cero y 
la partícula finalmente se detiene.