miércoles, 29 de abril de 2015

LUZ

Se llama luz (del latín lux, lucis) a la parte de la radiación electromagnética que puede ser percibida por el ojo humano. En física, el término luz se usa en un sentido más amplio e incluye todo el campo de la radiación conocido como espectro electromagnético, mientras que la expresión luz visible señala específicamente la radiación en el espectro visible.
La óptica es la rama de la física que estudia el comportamiento de la luz, sus características y sus manifestaciones.
El estudio de la luz revela una serie de características y efectos al interactuar con la materia, que permiten desarrollar algunas teorías sobre su naturaleza.
 



Reflexión y dispersión

Al incidir la luz en un cuerpo, la materia de la que está constituido retiene unos instantes su energía y a continuación la reemite en todas las direcciones. Este fenómeno es denominado reflexión. Sin embargo, en superficies ópticamente lisas, debido a interferencias destructivas, la mayor parte de la radiación se pierde, excepto la que se propaga con el mismo ángulo que incidió. Ejemplos simples de este efecto son los espejos, los metales pulidos o el agua de un río (que tiene el fondo oscuro).
La luz también se refleja por medio del fenómeno denominado reflexión interna total, que se produce cuando un rayo de luz, intenta salir de un medio en que su velocidad es más lenta a otro más rápido, con un determinado ángulo. Se produce una refracción de tal modo que no es capaz de atravesar la superficie entre ambos medios reflejándose completamente. Esta reflexión es la responsable de los destellos en un diamante tallado.
En el vacío, la velocidad es la misma para todas las longitudes de onda del espectro visible, pero cuando atraviesa sustancias materiales la velocidad se reduce y varía para cada una de las distintas longitudes de onda del espectro, este efecto se denomina dispersión. Gracias a este fenómeno podemos ver los colores del arcoíris. El color azul del cielo se debe a la luz del sol dispersada por la atmósfera. El color blanco de las nubes o el de la leche también se debe a la dispersión de la luz por las gotitas de agua o por las partículas de grasa en suspensión que contienen respectivamente



ESPEJO

Un espejo (del lat. specullum) es una superficie pulida en la que al incidir la luz, se refleja siguiendo las leyes de la reflexión.
El ejemplo más sencillo es el espejo plano. En este último, un haz de rayos de luz paralelos puede cambiar de dirección completamente en conjunto y continuar siendo un haz de rayos paralelos, pudiendo producir así una imagen virtual de un objeto con el mismo tamaño y forma que el real. La imagen resulta derecha pero invertida en el eje normal al espejo.
También existen espejos curvos que pueden ser cóncavos o convexos. En un espejo cóncavo cuya superficie forma un paraboloide de revolución, todos los rayos que inciden paralelos al eje del espejo, se reflejan pasando por el foco, y los que inciden pasando por el foco, se reflejan
Existen distintos tipos de espejos según las características que presenten:

Planos: estos espejos presentan una superficie lisa sumamente pulida. La imagen que dan estos espejos es como si el objeto reflejado se ubicara por detrás de la superficie del mismo, y no enfrente, como si se encontrara en el interior del mismo. Es por esto que se dice que la imagen que crea es virtual. Además, la imagen se caracteriza por ser simétrica, de igual tamaño al del objeto reflejado, derecha, es decir que mantiene la misma orientación que el reflejo La luz que se refleja en el espejo plano cumple con las leyes de la reflexión.

 

Cóncavos: estos espejos se caracterizan por tener su superficie en forma de paraboloide donde su lado reflexivo se ubica en el interior del mismo, es decir dentro de su curvatura. En estos espejos, la ley de reflexión se cumple sólo cuando los rayos de luz que son emanados por el objeto son paralelos al eje central del espejo. Los espejos cóncavos pueden mostrar imágenes reales yvirtuales. La primera se da cuando la imagen se encuentra del mismo lado que el objeto, en relación al espejo. La virtual, como se mencionó anteriormente, muestra al objeto y a la imagen en lados diferentes. Las características de la imagen, ya sea la orientación, distancia y altura son determinadas por la distancia en la que se ubique el objeto respecto del espejo


.Convexos: en estos espejos, que también son una porción esférica, su parte reflexiva se ubica al exterior del mismo. No muestran imágenes reales porque los rayos de luz emanados del objeto no se intersecan entre sí, sino que se divergen tras rebotar, por lo tanto, imágenes que reflejan son siempre virtuales.

REFRACCIÓN

Refracción es el cambio de dirección que experimenta una onda al pasar de un medio material a otro. Solo se produce si la onda incide oblicuamente sobre la superficie de separación de los dos medios y si estos tienen índices de refracción distintos. La refracción se origina en el cambio de velocidad de propagación de la onda señalada.
Un ejemplo de este fenómeno se ve cuando se sumerge un lápiz en un vaso con agua: el lápiz parece quebrado. También se produce refracción cuando la luzh atraviesa capas de aire a distinta temperatura, de la que depende el índice de refracción. Los espejismos son producidos por un caso extremo de refracción, denominado reflexión total. Aunque el fenómeno de la refracción se observa frecuentemente en ondas electromagnéticas como la luz, el concepto es aplicable a cualquier tipo de onda.
Se produce cuando la luz pasa de un medio de propagación a otro con una densidad óptica diferente, sufriendo un cambio de rapidez y un cambio de dirección si no incide perpendicularmente en la superficie. Esta desviación en la dirección de propagación se explica por medio de la ley de Snell. Esta ley, así como la refracción en medios no homogéneos, son consecuencia del principio de Fermat, que indica que la luz se propaga entre dos puntos siguiendo la trayectoria de recorrido óptico de menor tiempo.
Por otro lado, la velocidad de la penetración de la luz en un medio distinto del vacío está en relación con la longitud de la onda y, cuando un haz de luz blanca pasa de un medio a otro, cada color sufre una ligera desviación. Este fenómeno es conocido como dispersión de la luz. Por ejemplo, al llegar a un medio más denso, las ondas más cortas pierden velocidad sobre las largas (ej: cuando la luz blanca atraviesa un prisma). Las longitudes de onda corta son hasta 4 veces más dispersadas que las largas lo cual explica que el cielo se vea azulado, ya que para esa gama de colores el índice de refracción es mayor y se dispersa más.

LENTE

Las lentes son objetos transparentes (normalmente de vidrio), limitados por dos superficies, de las que al menos una es curva.
Las lentes más comunes están basadas en el distinto grado de refracción que experimentan los rayos al incidir en puntos diferentes del lente. Entre ellas están las utilizadas para corregir los problemas de visión en gafas, anteojos o lentillas. También se usan lentes, o combinaciones de lentes y espejos, en telescopios y microscopios, con la función de servir como objetivos como oculares. El primer telescopio astronómico fue construido por Galileo Galilei usando una lente convergente (lente positiva) como objetivo y otra divergente (lente negativa) como ocular. Existen también instrumentos capaces de hacer converger o divergir otros tipos de ondas electromagnéticas y a los que se les denomina también lentes. Por ejemplo, en los microscopios electrónicos las lentes son de carácter magnético.
En astrofísica es posible observar fenómenos de lentes gravitatorias, cuando la luz procedente de objetos muy lejanos pasa cerca de objetos masivos, y se curva en su trayectoria.


Tipos de Lentes
Las lentes, según la forma que adopten pueden ser convergentes o divergentes.
Las lentes convergentes (o positivas) son más gruesas por su parte central y más estrechas en los bordes. Se denominan así debido a que unen (convergen), en un punto determinado que se denomina foco imagen, todo haz de rayos paralelos al eje principal que pase por ellas. Pueden ser:
Biconvexas
Planoconvexas
Cóncavo-convexas
Las lentes divergentes (o negativas) son más gruesas por los bordes y presentan una estrechez muy pronunciada en el centro. Se denominan así porque hacen divergir (separan) todo haz de rayos paralelos al eje principal que pase por ellas, sus prolongaciones convergen en el foco imagen que está a la izquierda, al contrario que las convergentes, cuyo foco imagen se encuentra a la derecha. Pueden ser:
Bicóncavas
Planocóncavas
Convexo-cóncavas


Circuitos de corriente alterna.

Circuitos de corriente alterna.Existen tres tipos o clases de receptores, las resistencias, las bobinas y los condensadores. Pues bien, ahora vamos a analizar como se comportan estos receptores cuando se les somete a la circulación de una corriente alterna.


En este tipo de circuito, tanto la intensidad como la tensión se encuentran en fase entre ellas. También, podemos decir que se cumple la ley de ohm, aunque los valores no son los totales, es decir, hay que utilizar la tensión y la intensidad eficaz, nunca la de pico. Este es un error frecuente cuando se efectúan cálculos con este tipo de circuitos. Así que disponemos de la siguiente ecuación con los valores de la tensión y la intensidad eficaces:


Asimismo, sabemos que una resistencia tiene un consumo calorífico y, por lo tanto, podemos calcular la potencia de la resistencia con estas dos fórmulas, que vienen a ser lo mismo pero expresado de diferente manera:

Si hacemos circular una corriente alterna por una bobina, aparecerá un campo magnético. Las líneas de fuerza generadas en ese campo magnético cortan a los conductores de la bobina, por tanto, se genera unas f.e.m. que se oponen a la corriente que las ha generado (ley de Lenz).
Ahora bien, según lo dicho, como la corriente es alterna cuando la función senoidal tiende a subir también lo hace el campo magnético y, aparecen las f.e.m. que oponen una resistencia a la corriente. Esta es la razón, por la cual, la intensidad siempre se desfasa 90° respecto a la tensión en un circuito con una bobina.
Cuando la función senoidal de la corriente disminuye, el campo magnético también disminuye, pero se producen otras f.e.m. que oponen resistencia a que desaparezca la corriente, en este momento, se dice que la bobina descarga sobre el generador el campo magnético generado.
La oposición que realizan las f.e.m. se denominan reactancia inductiva y es un concepto que se puede calcular con la siguiente ecuación:
 



 Circuito RL

Un circuito RL es un circuito eléctrico que contiene una resistencia y una bobina en serie. Se dice que la bobina se opone transitoriamente al establecimiento de una corriente en el circuito.
La ecuación diferencial que rige el circuito es la siguiente:
El circuito eléctrico RL más simple está formado por una resistencia,un inductor o bobina y una fuente de alimentación conectados en serie.

En una resistencia R, la Ley de Ohm establece
i(t)=V(t)R
En un inductor L la Ley de Faraday dice
V(t)=Ldidt(t)
Donde i(t)es la intensidad de corriente, V(t) el voltaje, R la resistencia y L la inductancia de la bobina.
Las leyes de Kirchoff dicen:
Ley de corrientes: En cada nodo, la suma de corrientes que entra es igual a la que sale.
Ley de tensiones: En cada ciclo cerrado, la suma de diferenciales de potencias es nula.
Los circuitos RC son circuitos que están compuestos por una resistencia y un condensador.
Se caracteriza por que la corriente puede variar con el tiempo. Cuando el tiempo es igual a cero, el condensador está descargado, en el momento que empieza a correr el tiempo, el condensador comienza a cargarse ya que hay una corriente en el circuito. Debido al espacio entre las placas del condensador, en el circuito no circula corriente, es por eso que se utiliza una resistencia.







Cuando el condensador se carga completamente, la corriente en el circuito es igual a cero.
La segunda regla de Kirchoff dice: V = (IR) – (q/C)
Donde q/C es la diferencia de potencial en el condensador.
En un tiempo igual a cero, la corriente será: I = V/R cuando el condensador no se ha cargado.
Cuando el condensador se ha cargado comple
tamente, la corriente es cero y la carga será igual a: Q = CV



Circuito RLC

En electrodinámica un circuito RLC es un circuito lineal que contiene una resistencia eléctrica, una bobina (inductancia) y un condensador (capacitancia).
Existen dos tipos de circuitos RLC, en serie o en paralelo, según la interconexión de los tres tipos de componentes. El comportamiento de un circuito RLC se describen generalmente por una ecuación diferencial de segundo orden (en donde los circuitos RC o RL se comportan como circuitos de primero orden).
Con ayuda de un generador de señales, es posible inyectar en el circuito oscilaciones y observar en algunos casos el fenómeno de resonancia, caracterizado por un aumento de la corriente (ya que la señal de entrada elegida corresponde a la pulsación propia del circuito, calculable a partir de la ecuación diferencial que lo rige).

Circuito RLC en serie

Circuito RLC en serie.

Circuito sometido a un escalón de tensión

Si un circuito RLC en serie es sometido a un escalón de tensión E \, , la ley de las mallas impone la relación:
E = u_C + u_L + u_R = u_C + L \frac{di}{dt} + R_ti
Introduciendo la relación característica de un condensador:
 i_C = i = C \frac{du_C}{dt}
Se obtiene la ecuación diferencial de segundo orden:
E = u_C +  LC \frac{d^2u_C}{dt^2} + R_tC \frac{du_C}{dt}
Donde:
  • E es la fuerza electromotriz de un generador, en Voltios (V);
  • uC es la tensión en los bornes de un condensador, en Voltios (V);
  • L es la inductancia de la bobina, en Henrios (H);
  • i es la intensidad de corriente eléctrica en el circuito, en Amperios (A);
  • q es la carga eléctrica del condensador, en Coulombs (C);
  • C es la capacidad eléctrica del condensador, en Faradios (F);
  • Rt es la resistencia total del circuito, en Ohmios (Ω);
  • t es el tiempo en segundos (s)
 CUANTOS
La teoría cuántica, es una teoría física basada en la utilización del concepto de unidad cuántica para describir las propiedades dinámicas de las partículas subatómicas y las interacciones entre la materia y la radiación. Las bases de la teoría fueron sentadas por el físico alemán Max Planck, que en 1900 postuló que la materia sólo puede emitir o absorber energía en pequeñas unidades discretas llamadas cuantos. Otra contribución fundamental al desarrollo de la teoría fue el principio de incertidumbre, formulado por el físico alemán Werner Heisenberg en 1927, y que afirma que no es posible especificar con exactitud simultáneamente la posición y el momento lineal de una partícula subatómica.





Introducción del cuanto de Planck

A principios del siglo XX, los físicos aún no reconocían claramente que éstas y otras dificultades de la física estaban relacionadas entre sí. El primer avance que llevó a la solución de aquellas dificultades fue la introducción por parte de Planck del concepto de cuanto, como resultado de los estudios de la radiación del cuerpo negro realizados por los físicos en los últimos años del siglo XIX (el término "cuerpo negro" se refiere a un cuerpo o superficie ideal que absorbe toda la energía radiante sin reflejar ninguna). Un cuerpo a temperatura alta —al rojo vivo— emite la mayor parte de su radiación en las zonas de baja frecuencia (rojo e infrarrojo); un cuerpo a temperatura más alta —al rojo blanco— emite proporcionalmente más radiación en frecuencias más altas (amarillo, verde o azul). Durante la década de 1890, los físicos llevaron a cabo estudios cuantitativos detallados de esos fenómenos y expresaron sus resultados en una serie de curvas o gráficas. La teoría clásica, o precuántica, predecía un conjunto de curvas radicalmente diferentes de las observadas. Lo que hizo Planck fue diseñar una fórmula matemática que describiera las curvas reales con exactitud; después dedujo una hipótesis física que pudiera explicar la fórmula. Su hipótesis fue que la energía sólo es radiada en cuantos cuya energía es h·n , donde nes la frecuencia de la radiación y h es el ‘cuanto de acción’, ahora conocido como constante de Planck.

La energía es discontinua y depende de la frecuencia de la radiación:

Ecuación de Planck: E=h·n = h·c/l



Aportaciones de Einstein: Efecto fotoeléctrico

Los siguientes avances importantes en la teoría cuántica se debieron a Albert Einstein, que empleó el concepto del cuanto introducido por Planck para explicar determinadas propiedades delefecto fotoeléctrico, un fenómeno experimental en el que una superficie metálica emite electrones cuando incide sobre ella una radiación.

Según la teoría clásica, la energía de los electrones emitidos —medida por la tensión eléctrica que generan— debería ser proporcional a la intensidad de la radiación. Sin embargo, se comprobó que esta energía era independiente de la intensidad —que sólo determinaba el número de electrones emitidos— y dependía exclusivamente de la frecuencia de la radiación. Cuanto mayor es la frecuencia de la radiación incidente, mayor es la energía de los electrones; por debajo de una determinada frecuencia crítica, no se emiten electrones. Einstein explicó estos fenómenos suponiendo que un único cuanto de energía radiante expulsa un único electrón del metal. La energía del cuanto es proporcional a la frecuencia, por lo que la energía del electrón depende de la frecuencia.

Einstein aplica el principio de conservación de la energía al efecto fotoeléctrico:

Energía incidente= Energía de extracción + Energía cinética

Ei = W0+Ec

h·n = h·n0 + ½ m·v2






El átomo de Bohr

En 1911, Rutherford estableció la existencia del núcleo atómico. A partir de los datos experimentales de la dispersión de partículas alfa por núcleos de átomos de oro, supuso que cada átomo está formado por un núcleo denso y con carga positiva, rodeado por electrones cargados negativamente que giran en torno al núcleo como los planetas alrededor del Sol. La teoría electromagnética clásica desarrollada por el físico británico James Clerk Maxwell predecía inequívocamente que un electrón que girara en torno a un núcleo radiaría continuamente energía electromagnética hasta perder toda su energía, y acabaría cayendo en el núcleo. Por tanto, según la teoría clásica, el átomo descrito por Rutherford sería inestable. Esta dificultad llevó al físico danés Niels Bohr a postular, en 1913, que la teoría clásica no es válida en el interior del átomo y que los electrones se desplazan en órbitas fijas, llamadas estacionarias, sin emitir energía. Cada cambio de órbita de un electrón corresponde a la absorción o emisión de un cuanto de radiación.

La aplicación de la teoría de Bohr a átomos con más de un electrón resultó difícil. Las ecuaciones matemáticas para el siguiente átomo más sencillo, el de helio, fueron resueltas durante la segunda y tercera década del siglo XX, pero los resultados no concordaban exactamente con los datos experimentales. Para átomos más complejos sólo pueden obtenerse soluciones aproximadas de las ecuaciones, y se ajustan sólo parcialmente a las observaciones.




Teoría de la relatividad

La teoría de la relatividad está compuesta a grandes rasgos por dos grandes teorías (la de la relatividad especial y la de la relatividad general) formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la incompatibilidad existente entre la mecánica y el electromagnetismo.
La primera teoría, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento. La segunda, de 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana pero coincide numéricamente con ella en campos gravitatorios débiles. La teoría general se reduce a la teoría especial en ausencia de campos gravitatorios.
Relatividad especial (relatividad restringida)
Publicada por Albert Einstein en 1905, describe la física del movimiento en el marco de un espacio-tiempo plano, describe correctamente el movimiento de los cuerpos incluso a grandes velocidades y sus interacciones electromagnéticas y se usa básicamente para estudiar sistemas de referencia inerciales.



Relatividad General

Publicada por Albert Einstein en 1915 y 1916.
La relatividad general para aplicar plenamente el programa de Ernst Mach de la relativización de todos los efectos de inercia, incluso añadiendo la llamada constante cosmológica a sus ecuaciones de campo para este propósito.


PREDECIBILIDAD

Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. No se trata sólo de “decir antes”, sino de “decirlo bien”, o sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el futuro con cierto éxito.

Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable que se considere representativa de una cierta situación.

También se pueden hacer predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos extremos, caso por ejemplo de los huracanes y tormentas tropicales
Normalmente ambos tipos de predicción están ligados y se realizan a la vez, como lo prueban los productos que ofrecen las s grandes agencias e institutos de Meteorología y Climatología.
Pueden construirse de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas mediante diversas técnicas, estudiando y comparando los resultados.Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. No se trata sólo de “decir antes”, sino de “decirlo bien”, o sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el futuro con cierto éxito.

Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable que se considere representativa de una cierta situación.

También se pueden hacer predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos extremos, caso por ejemplo de los huracanes y tormentas tropicales

Normalmente ambos tipos de predicción están ligados y se realizan a la vez, como lo prueban los productos que ofrecen las s grandes agencias e institutos de Meteorología y Climatología.
Pueden construirse de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas mediante diversas técnicas, estudiando y comparando los resultados.






CAOS


Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras ciencias que trata ciertos tipos de sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro; complicando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinismos es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales.

Los sistemas dinámicos se pueden clasificar básicamente en:
Estables, Inestables, Caóticos.
Un sistema estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión (a tractor o sumidero). Un sistema inestable se escapa de los atractores. Y un sistema caótico manifiesta los dos comportamientos. Por un lado, existe un a tractor por el que el sistema se ve atraído, pero a la vez, hay "fuerzas" que lo alejan de éste. De esa manera, el sistema permanece confinado en una zona de su espacio de estados, pero sin tender a un a tractor fijo.
A tractores extraños
La mayoría de los tipos de movimientos mencionados en la teoría anterior suceden alrededor de a tractores muy simples, tales como puntos y curvas circulares llamadas ciclos límite. En cambio, el movimiento caótico está ligado a lo que se conoce como a tractores extraños, que pueden llegar a tener una enorme complejidad como, por ejemplo, el modelo tridimensional del sistema climático de Lorenz, que lleva al famoso a tractor de Lorenz conocidos, no sólo porque fue uno de los primeros, sino también porque es uno de los más complejos y peculiares, pues desenvuelve una forma muy peculiar más bien parecida a las alas de una mariposa.
EFECTO MARIPOSA La idea de la que parte la Teoría del Caos es simple: en determinados sistemas naturales, pequeños cambios en las condiciones iniciales conducen a enormes discrepancias en los resultados. Este principio suele llamarse efecto mariposa debido a que, en meteorología, la naturaleza no lineal de la atmósfera ha hecho afirmar que es posible que el aleteo de una mariposa en determinado lugar y momento, pueda ser la causa de un terrible huracán varios meses más tarde en la otra punta del globo





Núcleo y Radiactividad


La radiactividad o radioactividad es un fenómeno físico por el cual los núcleos de algunos elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas radiográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, entre otros. Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes). Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helio, electrones o positrones, protones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos, inestables, que son capaces de transformarse, o decaer, espontáneamente, en núcleos atómicos de otros elementos más estables.



La radiactividad ioniza el medio que atraviesa. Una excepción lo constituye el neutrón, que posee carga neutra (igual carga positiva como negativa), pero ioniza la materia en forma indirecta. En las desintegraciones radiactivas se tienen varios tipos de radiación: alfa, beta, gamma y neutrones.



La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se mantienen en un estado excitado en sus capas electrónicas o nucleares, con lo que, para alcanzar su estado fundamental, deben perder energía. Lo hacen en emisiones electromagnéticas o en emisiones de partículas con una determinada energía cinética. Esto se produce variando la energía de sus electrones (emitiendo rayos X) o de sus nucleones (rayo gamma) o variando el isótopo (al emitir desde el núcleo electrones, positrones, neutrones, protones o partículas más pesadas), y en varios pasos sucesivos, con lo que un isótopo pesado puede terminar convirtiéndose en uno mucho más ligero, como el uranio que, con el transcurrir de los siglos, acaba convirtiéndose en plomo.



La radiactividad se aprovecha para la obtención de energía nuclear, se usa en medicina (radioterapia y radiodiagnóstico) y en aplicaciones industriales (medidas de espesores y densidades, entre otras).



La radiactividad puede ser:



  • Natural: manifestada por los isótopos que se encuentran en la naturaleza. 

  •  Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones artificiales.



FUSIÓN

La fusión nuclear, está actualmente en líneas de investigación, debido a que todavía hoy no es un proceso viable, ya que se invierte más energía en el proceso para que se produzca la fusión, que la energía obtenida mediante este método.
La fusión, es un proceso natural en las estrellas, produciéndose reacciones nucleares por fusión debido a su elevadísima temperatura interior.

Las estrellas están compuestas principalmente por Hidrógeno y Helio. El hidrógeno, en condiciones normales de temperatura, se repele entre sí cuando intentas unirlo (fusionarlo) a otro átomo de hidrógeno, debido a su repulsión electrostática. Para vencer esta repulsión electrostática, el átomo de hidrógeno debe chocar violentamente contra otro átomo de hidrógeno, fusionándose, y dando lugar a Helio, que no es fusionable. La diferencia de masa entre productos y reactivos es mayor que en la fisión, liberándose así una gran cantidad de energía (muchísimo mayor que en la fisión). Estos choques violentos, se consiguen con una elevada temperatura, que hace aumentar la velocidad de los átomos.
La primera reacción de fusión artificial, tuvo origen en la investigación militar, fue una bomba termonuclear (o también llamada bomba-H o de Hidrógeno), para obtener la temperatura adecuada que inicia el proceso de fusión (unos 20 millones de grados centígrados) se utilizó una bomba atómica.



FISIÓN

Es el proceso utilizado actualmente en las centrales nucleares. Cuando un átomo pesado (como por ejemplo el Uranio o el Plutonio) se divide o rompe en dos átomos más ligeros, la suma de las masas de estos últimos átomos obtenidos, más la de los neutrones desprendidos es menor que la masa del átomo original, y de acuerdo con la teoría de Albert Einstein  se desprende una cantidad de Energía que se puede calcular mediante la expresión E = m C2
 Para romper un átomo, se emplea un neutrón porque es neutro eléctricamente y por tanto, al contrario que el protón o las partículas alfa, no es repelido por el núcleo. El neutrón se lanza contra el átomo que se quiere romper, por ejemplo, Uranio-235. Al chocar el neutrón, el átomo de Uranio-235 se convierte en Uranio-236 durante un brevísimo espacio de tiempo, como este último átomo es sumamente inestable, se divide en dos átomos diferentes y más ligeros (por ejemplo Kriptón y Bario o Xenón y Estroncio), desprendiendo 2 ó 3 neutrones (el número de neutrones desprendidos depende de los átomos obtenidos, supongamos como ejemplo 3 neutrones). Estos 3 neutrones, vuelven a chocar con otros 3 átomos de Uranio-235, liberando en total 9 neutrones, energía y dos átomos más ligeros, y así sucesivamente, generándose de esta forma una reacción en cadena.

Como se puede comprobar, en cada reacción sucesiva, se rompen 3n átomos, donde n indica 1ª, 2ª, 3ª,..., reacción.

Otra reacción nuclear de fisión  que ocurre en muchos reactores nucleares es:

23592U + n ® 14156Ba + 9236Kr + 3n + Energía

En las centrales nucleares el proceso se modera, evitando la reacción en cadena, para generar energía de forma lenta, pues de lo contrario el reactor se convertiría en una bomba atómica. El proceso básico es el siguiente:

Como combustible se utilizan barras de Uranio enriquecido al 4% con Uranio-235.
El Uranio natural es mayoritariamente U-238,  el que es fisionable es el   U-235, que es un 0.71% del Uranio que se encuentra en la naturaleza, de ahí que solo un pequeño porcentaje del Uranio se aproveche y se requieran grandes cantidades de este para obtener una cantidad significativa de U-235.
Las barras con el U-235 se introducen en el reactor, y comienza un proceso de fisión. En el proceso, se desprende energía en forma de calor. Este calor, calienta unas tuberías de agua, y esta se convierte en vapor, que pasa por unas turbinas, haciéndolas girar. Estas a su vez, hacen girar un generador eléctrico, produciendo así electricidad. Lógicamente, no se aprovecha toda la energía obtenida en la fisión, parte de ella se pierde en calor, resistencia de los conductores, vaporización de agua, etc.
Los neutrones son controlados para que no explote el reactor mediante unas barras de control (generalmente, de Carburo de Boro), que al introducirse, absorben neutrones, y disminuye el número de fisiones, con lo cual, dependiendo de cuántas barras de control se introduzcan, se generará más o menos energía. Normalmente, se introducen las barras de tal forma, que solo se produzca un neutrón por reacción de fisión, controlando de esta forma el proceso de fisión. Si todas las barras de control son introducidas, se absorben todos los neutrones, con lo cual se pararía el reactor.
El reactor se refrigera, para que no se caliente demasiado, y funda las protecciones,  incluso cuando este esté parado, ya que la radiación hace que el reactor permanezca caliente.

No hay comentarios:

Publicar un comentario