miércoles, 29 de abril de 2015

LUZ

Se llama luz (del latín lux, lucis) a la parte de la radiación electromagnética que puede ser percibida por el ojo humano. En física, el término luz se usa en un sentido más amplio e incluye todo el campo de la radiación conocido como espectro electromagnético, mientras que la expresión luz visible señala específicamente la radiación en el espectro visible.
La óptica es la rama de la física que estudia el comportamiento de la luz, sus características y sus manifestaciones.
El estudio de la luz revela una serie de características y efectos al interactuar con la materia, que permiten desarrollar algunas teorías sobre su naturaleza.
 



Reflexión y dispersión

Al incidir la luz en un cuerpo, la materia de la que está constituido retiene unos instantes su energía y a continuación la reemite en todas las direcciones. Este fenómeno es denominado reflexión. Sin embargo, en superficies ópticamente lisas, debido a interferencias destructivas, la mayor parte de la radiación se pierde, excepto la que se propaga con el mismo ángulo que incidió. Ejemplos simples de este efecto son los espejos, los metales pulidos o el agua de un río (que tiene el fondo oscuro).
La luz también se refleja por medio del fenómeno denominado reflexión interna total, que se produce cuando un rayo de luz, intenta salir de un medio en que su velocidad es más lenta a otro más rápido, con un determinado ángulo. Se produce una refracción de tal modo que no es capaz de atravesar la superficie entre ambos medios reflejándose completamente. Esta reflexión es la responsable de los destellos en un diamante tallado.
En el vacío, la velocidad es la misma para todas las longitudes de onda del espectro visible, pero cuando atraviesa sustancias materiales la velocidad se reduce y varía para cada una de las distintas longitudes de onda del espectro, este efecto se denomina dispersión. Gracias a este fenómeno podemos ver los colores del arcoíris. El color azul del cielo se debe a la luz del sol dispersada por la atmósfera. El color blanco de las nubes o el de la leche también se debe a la dispersión de la luz por las gotitas de agua o por las partículas de grasa en suspensión que contienen respectivamente



ESPEJO

Un espejo (del lat. specullum) es una superficie pulida en la que al incidir la luz, se refleja siguiendo las leyes de la reflexión.
El ejemplo más sencillo es el espejo plano. En este último, un haz de rayos de luz paralelos puede cambiar de dirección completamente en conjunto y continuar siendo un haz de rayos paralelos, pudiendo producir así una imagen virtual de un objeto con el mismo tamaño y forma que el real. La imagen resulta derecha pero invertida en el eje normal al espejo.
También existen espejos curvos que pueden ser cóncavos o convexos. En un espejo cóncavo cuya superficie forma un paraboloide de revolución, todos los rayos que inciden paralelos al eje del espejo, se reflejan pasando por el foco, y los que inciden pasando por el foco, se reflejan
Existen distintos tipos de espejos según las características que presenten:

Planos: estos espejos presentan una superficie lisa sumamente pulida. La imagen que dan estos espejos es como si el objeto reflejado se ubicara por detrás de la superficie del mismo, y no enfrente, como si se encontrara en el interior del mismo. Es por esto que se dice que la imagen que crea es virtual. Además, la imagen se caracteriza por ser simétrica, de igual tamaño al del objeto reflejado, derecha, es decir que mantiene la misma orientación que el reflejo La luz que se refleja en el espejo plano cumple con las leyes de la reflexión.

 

Cóncavos: estos espejos se caracterizan por tener su superficie en forma de paraboloide donde su lado reflexivo se ubica en el interior del mismo, es decir dentro de su curvatura. En estos espejos, la ley de reflexión se cumple sólo cuando los rayos de luz que son emanados por el objeto son paralelos al eje central del espejo. Los espejos cóncavos pueden mostrar imágenes reales yvirtuales. La primera se da cuando la imagen se encuentra del mismo lado que el objeto, en relación al espejo. La virtual, como se mencionó anteriormente, muestra al objeto y a la imagen en lados diferentes. Las características de la imagen, ya sea la orientación, distancia y altura son determinadas por la distancia en la que se ubique el objeto respecto del espejo


.Convexos: en estos espejos, que también son una porción esférica, su parte reflexiva se ubica al exterior del mismo. No muestran imágenes reales porque los rayos de luz emanados del objeto no se intersecan entre sí, sino que se divergen tras rebotar, por lo tanto, imágenes que reflejan son siempre virtuales.

REFRACCIÓN

Refracción es el cambio de dirección que experimenta una onda al pasar de un medio material a otro. Solo se produce si la onda incide oblicuamente sobre la superficie de separación de los dos medios y si estos tienen índices de refracción distintos. La refracción se origina en el cambio de velocidad de propagación de la onda señalada.
Un ejemplo de este fenómeno se ve cuando se sumerge un lápiz en un vaso con agua: el lápiz parece quebrado. También se produce refracción cuando la luzh atraviesa capas de aire a distinta temperatura, de la que depende el índice de refracción. Los espejismos son producidos por un caso extremo de refracción, denominado reflexión total. Aunque el fenómeno de la refracción se observa frecuentemente en ondas electromagnéticas como la luz, el concepto es aplicable a cualquier tipo de onda.
Se produce cuando la luz pasa de un medio de propagación a otro con una densidad óptica diferente, sufriendo un cambio de rapidez y un cambio de dirección si no incide perpendicularmente en la superficie. Esta desviación en la dirección de propagación se explica por medio de la ley de Snell. Esta ley, así como la refracción en medios no homogéneos, son consecuencia del principio de Fermat, que indica que la luz se propaga entre dos puntos siguiendo la trayectoria de recorrido óptico de menor tiempo.
Por otro lado, la velocidad de la penetración de la luz en un medio distinto del vacío está en relación con la longitud de la onda y, cuando un haz de luz blanca pasa de un medio a otro, cada color sufre una ligera desviación. Este fenómeno es conocido como dispersión de la luz. Por ejemplo, al llegar a un medio más denso, las ondas más cortas pierden velocidad sobre las largas (ej: cuando la luz blanca atraviesa un prisma). Las longitudes de onda corta son hasta 4 veces más dispersadas que las largas lo cual explica que el cielo se vea azulado, ya que para esa gama de colores el índice de refracción es mayor y se dispersa más.

LENTE

Las lentes son objetos transparentes (normalmente de vidrio), limitados por dos superficies, de las que al menos una es curva.
Las lentes más comunes están basadas en el distinto grado de refracción que experimentan los rayos al incidir en puntos diferentes del lente. Entre ellas están las utilizadas para corregir los problemas de visión en gafas, anteojos o lentillas. También se usan lentes, o combinaciones de lentes y espejos, en telescopios y microscopios, con la función de servir como objetivos como oculares. El primer telescopio astronómico fue construido por Galileo Galilei usando una lente convergente (lente positiva) como objetivo y otra divergente (lente negativa) como ocular. Existen también instrumentos capaces de hacer converger o divergir otros tipos de ondas electromagnéticas y a los que se les denomina también lentes. Por ejemplo, en los microscopios electrónicos las lentes son de carácter magnético.
En astrofísica es posible observar fenómenos de lentes gravitatorias, cuando la luz procedente de objetos muy lejanos pasa cerca de objetos masivos, y se curva en su trayectoria.


Tipos de Lentes
Las lentes, según la forma que adopten pueden ser convergentes o divergentes.
Las lentes convergentes (o positivas) son más gruesas por su parte central y más estrechas en los bordes. Se denominan así debido a que unen (convergen), en un punto determinado que se denomina foco imagen, todo haz de rayos paralelos al eje principal que pase por ellas. Pueden ser:
Biconvexas
Planoconvexas
Cóncavo-convexas
Las lentes divergentes (o negativas) son más gruesas por los bordes y presentan una estrechez muy pronunciada en el centro. Se denominan así porque hacen divergir (separan) todo haz de rayos paralelos al eje principal que pase por ellas, sus prolongaciones convergen en el foco imagen que está a la izquierda, al contrario que las convergentes, cuyo foco imagen se encuentra a la derecha. Pueden ser:
Bicóncavas
Planocóncavas
Convexo-cóncavas


Circuitos de corriente alterna.

Circuitos de corriente alterna.Existen tres tipos o clases de receptores, las resistencias, las bobinas y los condensadores. Pues bien, ahora vamos a analizar como se comportan estos receptores cuando se les somete a la circulación de una corriente alterna.


En este tipo de circuito, tanto la intensidad como la tensión se encuentran en fase entre ellas. También, podemos decir que se cumple la ley de ohm, aunque los valores no son los totales, es decir, hay que utilizar la tensión y la intensidad eficaz, nunca la de pico. Este es un error frecuente cuando se efectúan cálculos con este tipo de circuitos. Así que disponemos de la siguiente ecuación con los valores de la tensión y la intensidad eficaces:


Asimismo, sabemos que una resistencia tiene un consumo calorífico y, por lo tanto, podemos calcular la potencia de la resistencia con estas dos fórmulas, que vienen a ser lo mismo pero expresado de diferente manera:

Si hacemos circular una corriente alterna por una bobina, aparecerá un campo magnético. Las líneas de fuerza generadas en ese campo magnético cortan a los conductores de la bobina, por tanto, se genera unas f.e.m. que se oponen a la corriente que las ha generado (ley de Lenz).
Ahora bien, según lo dicho, como la corriente es alterna cuando la función senoidal tiende a subir también lo hace el campo magnético y, aparecen las f.e.m. que oponen una resistencia a la corriente. Esta es la razón, por la cual, la intensidad siempre se desfasa 90° respecto a la tensión en un circuito con una bobina.
Cuando la función senoidal de la corriente disminuye, el campo magnético también disminuye, pero se producen otras f.e.m. que oponen resistencia a que desaparezca la corriente, en este momento, se dice que la bobina descarga sobre el generador el campo magnético generado.
La oposición que realizan las f.e.m. se denominan reactancia inductiva y es un concepto que se puede calcular con la siguiente ecuación:
 



 Circuito RL

Un circuito RL es un circuito eléctrico que contiene una resistencia y una bobina en serie. Se dice que la bobina se opone transitoriamente al establecimiento de una corriente en el circuito.
La ecuación diferencial que rige el circuito es la siguiente:
El circuito eléctrico RL más simple está formado por una resistencia,un inductor o bobina y una fuente de alimentación conectados en serie.

En una resistencia R, la Ley de Ohm establece
i(t)=V(t)R
En un inductor L la Ley de Faraday dice
V(t)=Ldidt(t)
Donde i(t)es la intensidad de corriente, V(t) el voltaje, R la resistencia y L la inductancia de la bobina.
Las leyes de Kirchoff dicen:
Ley de corrientes: En cada nodo, la suma de corrientes que entra es igual a la que sale.
Ley de tensiones: En cada ciclo cerrado, la suma de diferenciales de potencias es nula.
Los circuitos RC son circuitos que están compuestos por una resistencia y un condensador.
Se caracteriza por que la corriente puede variar con el tiempo. Cuando el tiempo es igual a cero, el condensador está descargado, en el momento que empieza a correr el tiempo, el condensador comienza a cargarse ya que hay una corriente en el circuito. Debido al espacio entre las placas del condensador, en el circuito no circula corriente, es por eso que se utiliza una resistencia.







Cuando el condensador se carga completamente, la corriente en el circuito es igual a cero.
La segunda regla de Kirchoff dice: V = (IR) – (q/C)
Donde q/C es la diferencia de potencial en el condensador.
En un tiempo igual a cero, la corriente será: I = V/R cuando el condensador no se ha cargado.
Cuando el condensador se ha cargado comple
tamente, la corriente es cero y la carga será igual a: Q = CV



Circuito RLC

En electrodinámica un circuito RLC es un circuito lineal que contiene una resistencia eléctrica, una bobina (inductancia) y un condensador (capacitancia).
Existen dos tipos de circuitos RLC, en serie o en paralelo, según la interconexión de los tres tipos de componentes. El comportamiento de un circuito RLC se describen generalmente por una ecuación diferencial de segundo orden (en donde los circuitos RC o RL se comportan como circuitos de primero orden).
Con ayuda de un generador de señales, es posible inyectar en el circuito oscilaciones y observar en algunos casos el fenómeno de resonancia, caracterizado por un aumento de la corriente (ya que la señal de entrada elegida corresponde a la pulsación propia del circuito, calculable a partir de la ecuación diferencial que lo rige).

Circuito RLC en serie

Circuito RLC en serie.

Circuito sometido a un escalón de tensión

Si un circuito RLC en serie es sometido a un escalón de tensión E \, , la ley de las mallas impone la relación:
E = u_C + u_L + u_R = u_C + L \frac{di}{dt} + R_ti
Introduciendo la relación característica de un condensador:
 i_C = i = C \frac{du_C}{dt}
Se obtiene la ecuación diferencial de segundo orden:
E = u_C +  LC \frac{d^2u_C}{dt^2} + R_tC \frac{du_C}{dt}
Donde:
  • E es la fuerza electromotriz de un generador, en Voltios (V);
  • uC es la tensión en los bornes de un condensador, en Voltios (V);
  • L es la inductancia de la bobina, en Henrios (H);
  • i es la intensidad de corriente eléctrica en el circuito, en Amperios (A);
  • q es la carga eléctrica del condensador, en Coulombs (C);
  • C es la capacidad eléctrica del condensador, en Faradios (F);
  • Rt es la resistencia total del circuito, en Ohmios (Ω);
  • t es el tiempo en segundos (s)
 CUANTOS
La teoría cuántica, es una teoría física basada en la utilización del concepto de unidad cuántica para describir las propiedades dinámicas de las partículas subatómicas y las interacciones entre la materia y la radiación. Las bases de la teoría fueron sentadas por el físico alemán Max Planck, que en 1900 postuló que la materia sólo puede emitir o absorber energía en pequeñas unidades discretas llamadas cuantos. Otra contribución fundamental al desarrollo de la teoría fue el principio de incertidumbre, formulado por el físico alemán Werner Heisenberg en 1927, y que afirma que no es posible especificar con exactitud simultáneamente la posición y el momento lineal de una partícula subatómica.





Introducción del cuanto de Planck

A principios del siglo XX, los físicos aún no reconocían claramente que éstas y otras dificultades de la física estaban relacionadas entre sí. El primer avance que llevó a la solución de aquellas dificultades fue la introducción por parte de Planck del concepto de cuanto, como resultado de los estudios de la radiación del cuerpo negro realizados por los físicos en los últimos años del siglo XIX (el término "cuerpo negro" se refiere a un cuerpo o superficie ideal que absorbe toda la energía radiante sin reflejar ninguna). Un cuerpo a temperatura alta —al rojo vivo— emite la mayor parte de su radiación en las zonas de baja frecuencia (rojo e infrarrojo); un cuerpo a temperatura más alta —al rojo blanco— emite proporcionalmente más radiación en frecuencias más altas (amarillo, verde o azul). Durante la década de 1890, los físicos llevaron a cabo estudios cuantitativos detallados de esos fenómenos y expresaron sus resultados en una serie de curvas o gráficas. La teoría clásica, o precuántica, predecía un conjunto de curvas radicalmente diferentes de las observadas. Lo que hizo Planck fue diseñar una fórmula matemática que describiera las curvas reales con exactitud; después dedujo una hipótesis física que pudiera explicar la fórmula. Su hipótesis fue que la energía sólo es radiada en cuantos cuya energía es h·n , donde nes la frecuencia de la radiación y h es el ‘cuanto de acción’, ahora conocido como constante de Planck.

La energía es discontinua y depende de la frecuencia de la radiación:

Ecuación de Planck: E=h·n = h·c/l



Aportaciones de Einstein: Efecto fotoeléctrico

Los siguientes avances importantes en la teoría cuántica se debieron a Albert Einstein, que empleó el concepto del cuanto introducido por Planck para explicar determinadas propiedades delefecto fotoeléctrico, un fenómeno experimental en el que una superficie metálica emite electrones cuando incide sobre ella una radiación.

Según la teoría clásica, la energía de los electrones emitidos —medida por la tensión eléctrica que generan— debería ser proporcional a la intensidad de la radiación. Sin embargo, se comprobó que esta energía era independiente de la intensidad —que sólo determinaba el número de electrones emitidos— y dependía exclusivamente de la frecuencia de la radiación. Cuanto mayor es la frecuencia de la radiación incidente, mayor es la energía de los electrones; por debajo de una determinada frecuencia crítica, no se emiten electrones. Einstein explicó estos fenómenos suponiendo que un único cuanto de energía radiante expulsa un único electrón del metal. La energía del cuanto es proporcional a la frecuencia, por lo que la energía del electrón depende de la frecuencia.

Einstein aplica el principio de conservación de la energía al efecto fotoeléctrico:

Energía incidente= Energía de extracción + Energía cinética

Ei = W0+Ec

h·n = h·n0 + ½ m·v2






El átomo de Bohr

En 1911, Rutherford estableció la existencia del núcleo atómico. A partir de los datos experimentales de la dispersión de partículas alfa por núcleos de átomos de oro, supuso que cada átomo está formado por un núcleo denso y con carga positiva, rodeado por electrones cargados negativamente que giran en torno al núcleo como los planetas alrededor del Sol. La teoría electromagnética clásica desarrollada por el físico británico James Clerk Maxwell predecía inequívocamente que un electrón que girara en torno a un núcleo radiaría continuamente energía electromagnética hasta perder toda su energía, y acabaría cayendo en el núcleo. Por tanto, según la teoría clásica, el átomo descrito por Rutherford sería inestable. Esta dificultad llevó al físico danés Niels Bohr a postular, en 1913, que la teoría clásica no es válida en el interior del átomo y que los electrones se desplazan en órbitas fijas, llamadas estacionarias, sin emitir energía. Cada cambio de órbita de un electrón corresponde a la absorción o emisión de un cuanto de radiación.

La aplicación de la teoría de Bohr a átomos con más de un electrón resultó difícil. Las ecuaciones matemáticas para el siguiente átomo más sencillo, el de helio, fueron resueltas durante la segunda y tercera década del siglo XX, pero los resultados no concordaban exactamente con los datos experimentales. Para átomos más complejos sólo pueden obtenerse soluciones aproximadas de las ecuaciones, y se ajustan sólo parcialmente a las observaciones.




Teoría de la relatividad

La teoría de la relatividad está compuesta a grandes rasgos por dos grandes teorías (la de la relatividad especial y la de la relatividad general) formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la incompatibilidad existente entre la mecánica y el electromagnetismo.
La primera teoría, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento. La segunda, de 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana pero coincide numéricamente con ella en campos gravitatorios débiles. La teoría general se reduce a la teoría especial en ausencia de campos gravitatorios.
Relatividad especial (relatividad restringida)
Publicada por Albert Einstein en 1905, describe la física del movimiento en el marco de un espacio-tiempo plano, describe correctamente el movimiento de los cuerpos incluso a grandes velocidades y sus interacciones electromagnéticas y se usa básicamente para estudiar sistemas de referencia inerciales.



Relatividad General

Publicada por Albert Einstein en 1915 y 1916.
La relatividad general para aplicar plenamente el programa de Ernst Mach de la relativización de todos los efectos de inercia, incluso añadiendo la llamada constante cosmológica a sus ecuaciones de campo para este propósito.


PREDECIBILIDAD

Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. No se trata sólo de “decir antes”, sino de “decirlo bien”, o sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el futuro con cierto éxito.

Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable que se considere representativa de una cierta situación.

También se pueden hacer predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos extremos, caso por ejemplo de los huracanes y tormentas tropicales
Normalmente ambos tipos de predicción están ligados y se realizan a la vez, como lo prueban los productos que ofrecen las s grandes agencias e institutos de Meteorología y Climatología.
Pueden construirse de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas mediante diversas técnicas, estudiando y comparando los resultados.Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. No se trata sólo de “decir antes”, sino de “decirlo bien”, o sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el futuro con cierto éxito.

Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable que se considere representativa de una cierta situación.

También se pueden hacer predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos extremos, caso por ejemplo de los huracanes y tormentas tropicales

Normalmente ambos tipos de predicción están ligados y se realizan a la vez, como lo prueban los productos que ofrecen las s grandes agencias e institutos de Meteorología y Climatología.
Pueden construirse de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas mediante diversas técnicas, estudiando y comparando los resultados.






CAOS


Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras ciencias que trata ciertos tipos de sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro; complicando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinismos es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales.

Los sistemas dinámicos se pueden clasificar básicamente en:
Estables, Inestables, Caóticos.
Un sistema estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión (a tractor o sumidero). Un sistema inestable se escapa de los atractores. Y un sistema caótico manifiesta los dos comportamientos. Por un lado, existe un a tractor por el que el sistema se ve atraído, pero a la vez, hay "fuerzas" que lo alejan de éste. De esa manera, el sistema permanece confinado en una zona de su espacio de estados, pero sin tender a un a tractor fijo.
A tractores extraños
La mayoría de los tipos de movimientos mencionados en la teoría anterior suceden alrededor de a tractores muy simples, tales como puntos y curvas circulares llamadas ciclos límite. En cambio, el movimiento caótico está ligado a lo que se conoce como a tractores extraños, que pueden llegar a tener una enorme complejidad como, por ejemplo, el modelo tridimensional del sistema climático de Lorenz, que lleva al famoso a tractor de Lorenz conocidos, no sólo porque fue uno de los primeros, sino también porque es uno de los más complejos y peculiares, pues desenvuelve una forma muy peculiar más bien parecida a las alas de una mariposa.
EFECTO MARIPOSA La idea de la que parte la Teoría del Caos es simple: en determinados sistemas naturales, pequeños cambios en las condiciones iniciales conducen a enormes discrepancias en los resultados. Este principio suele llamarse efecto mariposa debido a que, en meteorología, la naturaleza no lineal de la atmósfera ha hecho afirmar que es posible que el aleteo de una mariposa en determinado lugar y momento, pueda ser la causa de un terrible huracán varios meses más tarde en la otra punta del globo





Núcleo y Radiactividad


La radiactividad o radioactividad es un fenómeno físico por el cual los núcleos de algunos elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas radiográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, entre otros. Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes). Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helio, electrones o positrones, protones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos, inestables, que son capaces de transformarse, o decaer, espontáneamente, en núcleos atómicos de otros elementos más estables.



La radiactividad ioniza el medio que atraviesa. Una excepción lo constituye el neutrón, que posee carga neutra (igual carga positiva como negativa), pero ioniza la materia en forma indirecta. En las desintegraciones radiactivas se tienen varios tipos de radiación: alfa, beta, gamma y neutrones.



La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se mantienen en un estado excitado en sus capas electrónicas o nucleares, con lo que, para alcanzar su estado fundamental, deben perder energía. Lo hacen en emisiones electromagnéticas o en emisiones de partículas con una determinada energía cinética. Esto se produce variando la energía de sus electrones (emitiendo rayos X) o de sus nucleones (rayo gamma) o variando el isótopo (al emitir desde el núcleo electrones, positrones, neutrones, protones o partículas más pesadas), y en varios pasos sucesivos, con lo que un isótopo pesado puede terminar convirtiéndose en uno mucho más ligero, como el uranio que, con el transcurrir de los siglos, acaba convirtiéndose en plomo.



La radiactividad se aprovecha para la obtención de energía nuclear, se usa en medicina (radioterapia y radiodiagnóstico) y en aplicaciones industriales (medidas de espesores y densidades, entre otras).



La radiactividad puede ser:



  • Natural: manifestada por los isótopos que se encuentran en la naturaleza. 

  •  Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones artificiales.



FUSIÓN

La fusión nuclear, está actualmente en líneas de investigación, debido a que todavía hoy no es un proceso viable, ya que se invierte más energía en el proceso para que se produzca la fusión, que la energía obtenida mediante este método.
La fusión, es un proceso natural en las estrellas, produciéndose reacciones nucleares por fusión debido a su elevadísima temperatura interior.

Las estrellas están compuestas principalmente por Hidrógeno y Helio. El hidrógeno, en condiciones normales de temperatura, se repele entre sí cuando intentas unirlo (fusionarlo) a otro átomo de hidrógeno, debido a su repulsión electrostática. Para vencer esta repulsión electrostática, el átomo de hidrógeno debe chocar violentamente contra otro átomo de hidrógeno, fusionándose, y dando lugar a Helio, que no es fusionable. La diferencia de masa entre productos y reactivos es mayor que en la fisión, liberándose así una gran cantidad de energía (muchísimo mayor que en la fisión). Estos choques violentos, se consiguen con una elevada temperatura, que hace aumentar la velocidad de los átomos.
La primera reacción de fusión artificial, tuvo origen en la investigación militar, fue una bomba termonuclear (o también llamada bomba-H o de Hidrógeno), para obtener la temperatura adecuada que inicia el proceso de fusión (unos 20 millones de grados centígrados) se utilizó una bomba atómica.



FISIÓN

Es el proceso utilizado actualmente en las centrales nucleares. Cuando un átomo pesado (como por ejemplo el Uranio o el Plutonio) se divide o rompe en dos átomos más ligeros, la suma de las masas de estos últimos átomos obtenidos, más la de los neutrones desprendidos es menor que la masa del átomo original, y de acuerdo con la teoría de Albert Einstein  se desprende una cantidad de Energía que se puede calcular mediante la expresión E = m C2
 Para romper un átomo, se emplea un neutrón porque es neutro eléctricamente y por tanto, al contrario que el protón o las partículas alfa, no es repelido por el núcleo. El neutrón se lanza contra el átomo que se quiere romper, por ejemplo, Uranio-235. Al chocar el neutrón, el átomo de Uranio-235 se convierte en Uranio-236 durante un brevísimo espacio de tiempo, como este último átomo es sumamente inestable, se divide en dos átomos diferentes y más ligeros (por ejemplo Kriptón y Bario o Xenón y Estroncio), desprendiendo 2 ó 3 neutrones (el número de neutrones desprendidos depende de los átomos obtenidos, supongamos como ejemplo 3 neutrones). Estos 3 neutrones, vuelven a chocar con otros 3 átomos de Uranio-235, liberando en total 9 neutrones, energía y dos átomos más ligeros, y así sucesivamente, generándose de esta forma una reacción en cadena.

Como se puede comprobar, en cada reacción sucesiva, se rompen 3n átomos, donde n indica 1ª, 2ª, 3ª,..., reacción.

Otra reacción nuclear de fisión  que ocurre en muchos reactores nucleares es:

23592U + n ® 14156Ba + 9236Kr + 3n + Energía

En las centrales nucleares el proceso se modera, evitando la reacción en cadena, para generar energía de forma lenta, pues de lo contrario el reactor se convertiría en una bomba atómica. El proceso básico es el siguiente:

Como combustible se utilizan barras de Uranio enriquecido al 4% con Uranio-235.
El Uranio natural es mayoritariamente U-238,  el que es fisionable es el   U-235, que es un 0.71% del Uranio que se encuentra en la naturaleza, de ahí que solo un pequeño porcentaje del Uranio se aproveche y se requieran grandes cantidades de este para obtener una cantidad significativa de U-235.
Las barras con el U-235 se introducen en el reactor, y comienza un proceso de fisión. En el proceso, se desprende energía en forma de calor. Este calor, calienta unas tuberías de agua, y esta se convierte en vapor, que pasa por unas turbinas, haciéndolas girar. Estas a su vez, hacen girar un generador eléctrico, produciendo así electricidad. Lógicamente, no se aprovecha toda la energía obtenida en la fisión, parte de ella se pierde en calor, resistencia de los conductores, vaporización de agua, etc.
Los neutrones son controlados para que no explote el reactor mediante unas barras de control (generalmente, de Carburo de Boro), que al introducirse, absorben neutrones, y disminuye el número de fisiones, con lo cual, dependiendo de cuántas barras de control se introduzcan, se generará más o menos energía. Normalmente, se introducen las barras de tal forma, que solo se produzca un neutrón por reacción de fisión, controlando de esta forma el proceso de fisión. Si todas las barras de control son introducidas, se absorben todos los neutrones, con lo cual se pararía el reactor.
El reactor se refrigera, para que no se caliente demasiado, y funda las protecciones,  incluso cuando este esté parado, ya que la radiación hace que el reactor permanezca caliente.

jueves, 12 de marzo de 2015

PROCESOS TERMODINÁMICOS

Los procesos termodinámicos comprenden el comportamiento y relación que se da entre las temperaturas, presión y el volumen es importante en diversos procesos industriales.


TERMODINÁMICA:
También es conocida como el movimiento del calor, en esta rama de la física se estudia la transferencia de calor en trabajo mecánico y viceversa. su principal base es la conservación de la energía.
Nos proporciona una teoría básica que nos sirve para entender y poder diseñar maquinas térmicas (refrigeradores, cohetes, etc.).

SISTEMA TERMODINÁMICO:
Es una parte del universo que se separa con la finalidad poderla estudiar. Para ello se aísla de los alrededores a través de límites o fronteras, de tal manera que todo lo que se encuentra fuera de lo delimitado se denomina alrededores.


a) Frontera: Es el limite que separa al sistema de lo alrededores, casi siempre son paredes que pueden ser diatérmicas o adiabáticas.

b) Pared diatérmicas: Es una conductora de calor, ésta permite el intercambio de calor entre el sistema y sus alrededores y al revés.

c) Pared adiabática: Es caracterizada por NO permitir la interacción térmica del sistema con los alrededores. Es construida de materiales no conductores del calor como porcelana o asbesto.

d) Equilibrio termodinámico: Se alcanza cuando después de cierto tiempo de poner en contacto un sistema de baja temperatura con otro sistema a mayor temperatura se iguala, por lo tanto existe un intercambio de calor, las propiedades de presión, densidad y temperatura cuando se encuentran en este punto dejan de variar.

e) Energía interna (Ei): Es la energía contenida en el interior de las sustancias. Es la suma de energía cinética y potencial de las moléculas individuales que la forman. La mayoría de las veces se cumple cuanto mayor sea la temperatura de un sistema también lo será su energía interna.
La energía interna se hace presente en las sustancias combustibles y es proporcional a la masa.

EQUIVALENTE MECÁNICO DEL CALOR

Fue establecido por un físico ingles llamado James Prescott Joule (1818-1889), es autor de importantes trabajos sobre la TEORÍA MECÁNICA DEL CALOR, a mediados del sigo XIX. Demostró que cierta variación de temperatura indica un cambio de energía interna y aparece que se pierde determinada cantidad de energía molecular.
Después de varios experimentos en los cuales todos los resultados le daban 1J = 0.24 cal o 1 cal = 4.2J, concluyo que la energía mecánica y la energía que causaba la diferencia de temperatura eran equivalentes.
 

PRIMERA LEY DE LA TERMODINÁMICA

Esta ley dice que la variación de la energía interna de un sistema es igual a la energía que transfieren o reciben los alrededores en forma de calor y trabajo, de forma tal que se cumple la energía no se crea ni se destruye, solo se transforma.

 

La primera ley de la termodinámica se muestra matemáticamente de la siguiente manera:



a) Peso termodinámico:Es cuando la temperatura, presión o volumen de un gas varían. Los procesos termodinámicos se clasifican en:
 
 

PROCESO ISOTÉRMICO

Se presenta cuando la temperatura del sistema, permanece constante independientemente de los cambio de presión o volumen que sufran.Este proceso se rige por la ley de Boyle-Mariotte de Robert Boyle (1626-1691), Físico Químico irlandés conocido por sus experimentos acerca de las propiedades de los gases
y Edme Mariotte (1620-1684), Físico Francés que descubrió la ley que relación la presión y el volumen de los gases a temperatura constante.Si un proceso isotérmico formado por un gas experimenta una expansión isotérmica, para que la temperatura permanezca constante la cantidad de calor recibido debe ser igual al trabajo que realiza durante la expansión. Pero si presenta una compresión isotérmica, para que la temperatura también permanezca constante el gas tiene que liberar una cantidad de calor igual al trabajo desarrollado sobre él.
La temperatura no cambia, su energía interna (Ei), son constantes y su variación de energía interna (ΔEi) es igual a cero, por lo que se cumple que (Ei es constante) (ΔEi = 0 ) Q=Tr.

PROCESO ISOBÁRICO

Es cuando hay una variación del volumen o temperatura y la presión permanece constante, no importando si el gas sufre una compresión o una expansión. Este proceso rige por la Ley de Charles: Jackes A. Charles ( 1742-1822). Químico, físico y aeronauta Frances, que fue el primero en hacer mediciones acerca de los gases que se expanden al aumentar la temperatura.
Las ecuaciones para el proceso isobárico son:

 

PROCESO ISOCÓRICO

Se presenta cuando el volumen del sistema permanece constante. Ya que la variación del volumen es cero, no se realiza trabajo sobre el sistema ni de éste último de sobre los alrededores, por lo que se cumple Tr = 0 Y ΔEi = Q, esto indica que todo el calor suministrado aumentara en la misma proporción a la energía interna, en general esto se presenta cuando un gas se calienta dentro de un recipiente con volumen fijo.
Cuando se calientan dos masas iguales de gas, a una presión constante y otra a volumen constante, para que logren el mismo incremento de temperatura se requiere proporcionar mayor calor al sistema a presión constante (Qp>Qv). Ello se debe a que en el proceso isobárico el calor suministrado se usa para aumentar la energía interna y efectuar trabajo, mientras que en el proceso isocórico todo el calor se usa para incrementar exclusivamente la energía interna.

PROCESO ADIABÁTICO

Ocurre cuando el sistema no crea ni recibe calor, cumpliéndose que (Q=0) y ΔEi = -Tr , aun cuando el gas puede presentar expansión o comprensión.
En resumen las condiciones que se tienen que cumplir para los procesos son termodinámicos son:

 

CALENTAMIENTO POR COMPRESIÓN

Si un gas sufre compresión rápida, disminuye su volumen, se produce calor y se incrementa la temperatura.
Ejemplos:
ISOBÁRICO: Un dispositivo cilindro émbolo contiene un gas que está inicialmente a 1 Mpa y ocupa 0.020 m3. El gas se expande hasta un volumen final de 0.040 m3. Determine el trabajo obtenido en Kj para un proceso isobárico (a presión constante).

 


Para calcular el trabajo en procesos a presión constante se utiliza la Ec.
W1-2 = P (V2 – V1) =
Se tienen los volúmenes en metros cúbicos y la presión en unidades de mega pascales, hay que utilizar unidades homogéneas: Conociendo que un Kpa = Kj/ m3, se puede convertir la presión de Mpa a Kpa.
1 Mpa * 1000 Kpa = 1000 Kpa. 1 Mpa
Se sustituye en la Ec.4: W1-2 = P (V2 – V1) = 1000 Kj/ m3 *(0.040 m3 – 0.020 Kj/ m3)
W1-2 = 20Kj
Un gas ideal en el que C v = 5.n.R/2 es trasladado del punto "a" al punto "b" Siguiendo los caminos acb, adb y ab, la presión y el volumen finales son P 2 = 2P 1 y V 2 = 2V 1 . a) Calcular el calor suministrado al gas, en función de n, R y T 1 en cada proceso. b) Cual es la capacidad calorífica en función de R para el proceso ab.

Aplicando el primer principio de la termodinámica podemos escribir:

Para cualquiera de los procesos que hemos de considerar, la variación de energía interna será el mismo puesto que U es una función de estado y solo depende de los puntos inicial y final del proceso. Por tratarse de un gas perfecto, podemos escribir:
Pero, de la ecuación de los gases perfectos, obtenemos:
por lo que, sustituyendo:
Calculamos el trabajo en cada uno de los procesos:


 

 
En el caso de W ab no conocemos el tipo de proceso que sigue el gas, pero podemos ver que el trabajo vendrá dado por:
Obtenidos todos los datos necesarios podemos calcular el calor suministrado al gas en cada uno de los procesos:
Finalmente, la capacidad calorífica para el proceso ab será, en realidad, la capacidad calorífica media que podemos calcular mediante: 
Un sistema cerrado, inicialmente en reposo sobre la tierra, es sometido a un proceso en el que recibe una transferencia neta de energía por trabajo igual a 200KJ. Durante este proceso hay una transferencia neta de energía por calor desde el sistema al entorno de 30KJ. Al final del proceso el sistema tiene una velocidad de 60m/s y una altura de 60m. La masa del sistema es 25Kg, y la aceleración local de la gravedad es g=9,8m/s2. Determinar el cambio de energía interna del sistema para el proceso.

MOVIMIENTO ONDULATORIO

En física, una onda consiste en la propagación de una perturbación de alguna propiedad de un medio, por ejemplo, densidad, presión, campo eléctrico o campo magnético, a través de dicho medio, implicando un transporte de energía sin transporte de materia. El medio perturbado puede ser de naturaleza diversa como aire, agua, un trozo de metal e, incluso, inmaterial como el vacío.
La magnitud física cuya perturbación se propaga en el medio se expresa como una función tanto de la posición como del tiempo  \psi(\vec{r},t) . Matemáticamente se dice que dicha función es una onda si verifica la ecuación de ondas:



\nabla^2 \psi (\vec{r},t) = \frac{1}{v^2} {\partial^2 \psi \over\partial t^2}(\vec{r},t)
donde  es la velocidad de propagación de la onda. Por ejemplo, ciertas perturbaciones de la presión de un medio, llamadas sonido, verifican la ecuación anterior, aunque algunas ecuaciones no lineales también tienen soluciones ondulatorias, por ejemplo, un solitón.

ELEMENTOS DE UNA ONDA

Cresta: La cresta es el punto de máxima elongación o máxima amplitud de la onda; es decir, el punto de la onda más separado de su posición de reposo.
Período (): El periodo es el tiempo que tarda la onda en ir de un punto de máxima amplitud al siguiente.
Amplitud (): La amplitud es la distancia vertical entre una cresta y el punto medio de la onda. Nótese que pueden existir ondas cuya amplitud sea variable, es decir, crezca o decrezca con el paso del tiempo.
Frecuencia (): Número de veces que es repetida dicha vibración por unidad de tiempo. En otras palabras, es una simple repetición de valores por un período determinado.




Valle: Es el punto más bajo de una onda.
Longitud de onda (): Es la distancia que hay entre el mismo punto de dos ondulaciones consecutivas, o la distancia entre dos crestas consecutivas.
Nodo: es el punto donde la onda cruza la línea de equilibrio.
Elongación (): es la distancia que hay, en forma perpendicular, entre un punto de la onda y la línea de equilibrio.
Ciclo: es una oscilación, o viaje completo de ida y vuelta.
Velocidad de propagación (): es la velocidad a la que se propaga el movimiento ondulatorio. Su valor es el cociente de la longitud de onda y su período.
 

ONDAS LONGITUDINALES Y TRANSVERSALES

Longitudinales: Una onda longitudinal es una onda en la que el movimiento de oscilación de las partículas del medio es paralelo a la dirección de propagación de la onda. Las ondas longitudinales reciben también el nombre de ondas de presión u ondas de compresión. Algunos ejemplos de ondas longitudinales son el sonido y las ondas sísmicas de tipo P generadas en un terremoto.
 


Transversales: Una onda transversal es una onda en movimiento que se caracteriza porque sus oscilaciones ocurren perpendiculares a la dirección de propagación. Si una onda transversal se mueve en el plano x-positivo, sus oscilaciones van en dirección arriba y abajo que están en el plano y-z.

RASONANCIA

Es el fenómeno que se produce cuando los cuerpos vibran con la misma frecuencia, uno de los cuales se puso a vibrar al recibir las frecuencias del otro. Para entender el fenómeno de la resonancia existe un ejemplo muy sencillo, Supóngase que se tiene un tubo con agua y muy cerca de él (sin entrar en contacto) tenemos un diapasón, si golpeamos el diapasón con un metal, mientras echan agua en el tubo, cuando el agua alcance determinada altura el sonido será más fuerte; esto se debe a que la columna de agua contenida en el tubo se pone a vibrar con la misma frecuencia que la que tiene el diapasón, lo que evidencia por qué las frecuencias se refuerzan y en consecuencia aumenta la intensidad del sonido. Un ejemplo es el efecto de afinar las cuerdas de la guitarra, puesto que al afinar, lo que se hace es igualar las frecuencias, es decir poner en resonancia el sonido de las cuerdas.

ALTURA

Indica si el sonido es grave, agudo o medio, y viene determinada por la frecuencia fundamental de las ondas sonoras, medida en ciclos por segundo o hercios (Hz).
vibración lenta = baja frecuencia = sonido grave.
vibración rápida = alta frecuencia = sonido agudo.
Para que los humanos podamos percibir un sonido, éste debe estar comprendido entre el rango de audición de 20 y 20.000 Hz. Por debajo de este rango tenemos los infrasonidos y por encima los ultrasonidos. A esto se le denomina rango de frecuencia audible. Cuanta más edad se tiene, este rango va reduciéndose tanto en graves como en agudos.
En la música occidental se fueron estableciendo tonos determinados llamados notas, cuya secuencia de 12 (C, C#, D, D#, E, F, F#, G, G#, A, A#, B) se va repitiendo formando octavas, en cada una de éstas se duplica la frecuencia. La diferencia entre distintas notas se denomina intervalo.
 

DURACIÓN

Es el tiempo durante el cual se mantiene un sonido. Podemos escuchar sonidos largos, cortos, muy cortos, etc. Los únicos instrumentos acústicos que pueden mantener los sonidos el tiempo que quieran, son los de cuerda frotada, como el violín, y los de viento (utilizando la respiración circular o continua); pero por lo general, los instrumentos de viento dependen de la capacidad pulmonar, y los de cuerda según el cambio del arco producido por el ejecutante.
 

INTENSIDAD

Es la cantidad de energía acústica que contiene un sonido, es decir, lo fuerte o suave de un sonido. La intensidad viene determinada por la potencia, que a su vez está determinada por la amplitud y nos permite distinguir si el sonido es fuerte o débil.
La intensidad del sonido se divide en intensidad física e intensidad auditiva, la primera esta determinada por la cantidad de energía que se propaga, en la unidad de tiempo, a través de la unidad de área perpendicular a la dirección en que se propaga la onda. Y la intensidad auditiva que se fundamenta en la ley psicofísica de Weber-Fechner, que establece una relación logarítmica entre la intensidad física del sonido que es captado, y la intensidad física mínima audible por el oído humano.
Los sonidos que percibimos deben superar el umbral auditivo (0 dB) y no llegar al umbral de dolor (140 dB). Esta cualidad la medimos con el sonómetro y los resultados se expresan en decibelios (dB) en honor al científico e inventor Alexander Graham Bell.

TIMBRE

Una misma nota suena distinta si la toca una flauta, un violín, una trompeta, etc. Cada instrumento tiene un timbre que lo identifica o lo diferencia de los demás. Con la voz sucede lo mismo. El sonido dado por un hombre, una mujer, un niño tienen distinto timbre. El timbre nos permitirá distinguir si la voz es áspera, dulce, ronca o aterciopelada. También influye en la variación del timbre la calidad del material que se utilice. Así pues, el sonido será claro, sordo, agradable o molesto.