lunes, 16 de noviembre de 2015

MUSCULOS DEL MIEMBRO INFERIOR.

Introducción.



El cuerpo del adulto humano está formado por 208 huesos aproximadamente, los cuales son rígidos y sirven para proteger a los órganos blandos del organismo. Los huesos están formados en su mayor parte por calcio, y a su vez ayudan al equilibrio de éste.
Para que el esqueleto realice sus movimientos, es necesario que intervengan los músculos, verdaderos actores del movimiento. El ser humano tiene alrededor de 600 músculos y su peso equivale aproximadamente al 45% del peso total.
En anatomía humana miembro inferior o pelviano, es cada una de las dos extremidades que se encuentran unidas al tronco a través de la pelvis mediante la articulación de la cadera. Tienen la función de sustentar el peso del cuerpo en la posición bípeda y hacer posible los desplazamientos mediante la contracción de su potente musculatura.1
Coloquialmente los miembros inferiores son las piernas. Aunque en anatomía el término pierna tiene un significado más preciso y corresponde a la porción del miembro inferior situada entre la rodilla y el tobillo.
A continuación se expondrá acerca de los músculos encargados del miembro inferior del cuerpo humano.



Marco Teórico



Músculos de la pierna.



Los músculos de la pierna son en general músculos alargados, con un largo tendón que cruza la articulación del tobillo. Todos ellos están envueltos por la fascia profunda de la pierna de la que parten los tabiques intermusculares anterior y posterior que forman 3 compartimentos musculares. En total, se contabilizan 13 músculos distribuidos de la manera siguiente: 4 en el compartimento anterior, 2 en el compartimento lateral y 5 en el compartimento posterior (si bien uno de ellos, el tríceps sural, se subdivide en tres músculos adicionales)
En el compartimento anterior se disponen los músculos tibial anterior, extensor del dedo gordo, extensor largo de los dedos y músculo tercer peroneo
En el tobillo, la fascia se transforma por un lado en dos láminas fibrosas que tienen la misión de sujetar las vainas fibrosas por donde discurren los tendones de los peroneos largo y corto (retináculos de los peroneos) y en una banda que sujeta las vainas de los tendones flexores (retináculo de los flexores)
En la parte anterior de la pierna, se distinguen los siguientes músculos:
1.- Músculo tibial anterior: músculo largo fusiforme, que se inserta por su parte superior en las tuberosidades de la tibia y, por su parte inferior en la superficie medial del primer cuneiforme y en la base del primer metatarsiano. Su función es la de flexionar el tobillo y cuando actúa con el tibial posterior participa en la inversión del pie. Está inervado por las ramas del nervio peroneo profundo que le aportan fibras de las raíces lumbares L4 y L5  
2.- Músculo extensor del dedo gordo: músculo alargado y aplanado situado lateralmente al tibial anterior. Se origina en la parte media del peroné y después de atravesar los retináculos de los extensores, termina en la falange distal del primer dedo o dedo gordo aunque algunas fibras pueden insertarse en la primera falange. Su función es la de extender el dedo gordo, aunque contribuya a la flexión dorsal del pie.
3.-Músculo extensor largo de los dedos: músculo alargado destinado a los 4 últimos dedos. Se inserta en la parte superior del peroné y en el cóndilo externo de la tibia. Cruza los retináculos extensores y se continúa con cuatro tendones que se insertan en los dedos. Cada uno de ellos, al llegar a la articulación metatarsofalángea se divide en tres lenguetas que forman conjuntamente con el tendón una estructura llamada caperuza extensora.  

Este músculo es extensor de los cuatro dedos, pero colabora con los lumbricales en la extensión de las falanges y, por pasar por el tobillo, puede colaborar en la flexión dorsal. Está inervado por ramas del nervio peroneo profundo que le aportan fibras de L5 y S1.
4.- Músculo tercer peroneo (o peroneo anterior): pequeño músculo ahusado, inconstante, asociado al margen lateral del extensor largo de los dedos. Se origina en la parte anterior de la diáfisis del peroné y termina en la base del quinto metatarsiano. Es un débil flexor y eversor del pie. Recibe fibras del nervio peroneo profundo que le aportan fibras de L5 y C1.
En el compartimento lateral de la pierna, se sitúan los músculos peroneo largo y peroneo corto. El peroneo largo es un flexor plantar, que juega un papel importante junto con los músculos tibiales en el mantenimiento de la bóveda plantar y es el motor principal del movimiento de eversión.
1.- Músculo peroneo largo: músculo fino y alargado que se continúa por un fuerte tendón que recorre la planta y el margen externo del pie. Se inserta en el cóndilo lateral de la tibia y sobre todo en la superficie lateral del peroné. Cruza el tobillo por detrás del maléolo lateral, por debajo del retináculo peroneal superior. Ya en pie se introduce en el surco del cuboides para terminar en el cuneiforme medial y en la base del primer metatarsiano.
Recibe ramas del nervio peroneo superficial que le aportan fibras de L5 y S1
2.- Músculo peroneo corto: es parecido al peroneo largo situándose por debajo de este. Por arriba se inserta en la cara lateral del cuerpo del peroné, y se continúa por un tendón que pasa por detrás del maléolo lateral. Termina insertándose en la base del quinto metatarsiano, al lado de la inserción del tercer peroneo. Interviene en el movimiento de eversión y, a nivel del tobillo, en la flexión plantar
En el compartimento posterior se encuentran los músculos más potentes de la pierna.
1. El tríceps sural, es un complejo muscular formado por tres músculos, el sóleo, el plantar y el gastronecmio:
Músculo plantar: es un pequeño músculo fusiforme que está prácticamente cubierto por las cabezas del gastronecmio y del sóleo. Se origina en la cara externa del cóndilo femoral formando un pequeño vientre que se prolonga mediante un largo tendón que pasa por debajo del gastronecmio y del sóleo insertándose en la extremidad posterior del calcáneo o fusionándose con la extremidad distal del tríceps para formar el tendón calcáneo (o tendón de Aquiles)
Músculo gastronecmio: el gastronecmio consta de dos cabezas, llamadas músculos gemelos, que forman el relieve de la pantorrilla. Cada vientre arranca del cóndilo femoral correspondiente convergiendo en la línea media para unirse en una lámina tendinosa muy potente que posteriormente se fusionará a su vez con el tendón del sóleo. El gemelo lateral presenta a menudo en su parte tendinosa superior un hueso sesamoideo (sesamoideo favela), que ocasionalmente puede ser bipartito.
Músculo sóleo: es una lámina muscular en forma de suela que se dispone profundamente debajo de los gemelos. Por su parte superior se inserta en la cara posterior del peroné y en la cabeza de la tibia. Además, se inserta en una estructura fibrosa, llamada arco tendinoso del sóleo, que nace en la cabeza del peroné y termina parte en la línea oblicua de la tibia y parte en la aponeurosis del poplíteo. Por su parte inferior, el vientre del sóleo se continúa mediante una gruesa lámina tendinosa que discurre inicialmente por debajo de la lámina tendinosa del gastronecmio a la que se une para formar el tendón calcáneo
La inserción inferior del tríceps sural se realiza mediante el tendón calcáneo. Este tendón es el más potente del organismo siendo capaz de soportar cargas de hasta 500 kg. Está formado por la unión de las láminas tendinosas del gastronecmio y del sóleo que confluyen, estrechándose, hasta insertarse en la parte superior del calcáneo. En su terminación, el tendón de Aquiles muestra una bolsa sinovial, la bolsa tendinosa del tendón calcáneo. Los tres músculos del tríceps sural están inervados por ramas den nervio tibial que aportan ramas de S1 y S2
La función del músculo tríceps es la flexión plantar del pie a nivel de la articulación del tobillo. Por su parte el gastronecmio y el sóleo participan en la flexión de la rodilla. El sóleo contiene por otra parte, una serie de fibras muy resistentes que intervienen en la bipedestación, impidiendo que el cuerpo caiga hacia adelante por efecto de la gravedad
El tendón de Aquiles contiene fibras dispuestas en espiral, las cuales actuarían como muelles que actuarían cíclicamente durante la marcha o, sobre todo, al correr.
2.- Músculo poplíteo: es un músculo pequeño, con forma triangular, que se dispone dorsalmente en la articulación de la rodilla. Se inserta en la cara externa del cóndilo del fémur, en la fosa poplítea, dirigiéndose oblicuamente hacia abajo y adentro. Posee una bolsa serosa que se suele comunicar con la sinovial de la rodilla formando el llamado receso subpoplíteo. Por su parte inferior, el poplíteo se inserta en la cara posterior de la tibia, por encima de la línea oblicua del sóleo. Recibe ramas del nervio tibial que le aportan fibras de L5
El poplíteo es un músculo rotador. Cuando la pierna está apoyada en el suelo, este músculo interviene como iniciador de la rotación, rotando lateralmente el fémur. También desempeña un papel importante en la dinámica de la rodilla, moviendo hacia atrás el menisco externo
3.- Músculo flexor largo de los dedos: es un músculo largo y delgado situado en el medio de la pierna. Se inserta por arriba en la cara posterior de la tibia y discurre oblicuamente hacia el tobillo paralelamente al tibial posterior. Poco antes del tobillo forma un tendón que pasa por detrás del maléolo medial, entre los tendones del tibial posterior y el flexor largo del primer dedo. En el calcáneo, el tendón discurre por un surco situado en el borde del sustentaculum.
En la región plantar se dirige hacia adelante y hacia afuera dividiéndose en los cuatro tendones de los dedos. Antes de dividirse, el tendón del flexor largo de los dedos recibe una inserción del músculo flexor accesorio y, un poco más distalmente una vez dividido, de los músculos lumbricales. Se inerva por ramas del nervio tibial que le aportan fibras de L5, S1 y S2.
4.- Músculo tibial posterior: es un músculo alargado que se sitúa entre el flexor largo de los dedos y el flexor largo del dedo gordo. Se inserta en las caras posteriores de la tibia y del peroné, así como en la membrana interósea. Forma un tendón que pasa por detrás del maléolo medial para alcanzar la planta del pie. Pasa por debajo de la cabeza del astrágalo y del ligamento calcaneonavicular, insertándose en el tubérculo del navicular, en el cuneiforme medial y en la base de los metatarsianos.
En el tobillo ayuda a la flexión plantar, pero sobre todo en el movimiento de eversión. Recibe las ramas del nervio tibial que aportan fibras de L4 y L5.
5.-Músculo flexor largo del dedo gordo: es un músculo largo y potente que se sitúa profundamente por debajo del sóleo. Se origina en el tercio medio del peroné y en la membrana interósea. Se continúa por un tendón largo que pasa por detrás del maléolo medial y la extremidad posterior del calcáneo sujetándose mediante una banda fibrosa. Termina en la base de la falange distal del dedo gordo.
La función de este músculo es flexionar todas las articulaciones del dedo gordo. Recibe ramas del nervio tibial que le aportan fibras procedentes de S1 y S2


Músculos de la pelvis.



Los músculos de la pelvis o región glútea consisten en nueve u once músculos según que se consideren o no el músculo ilíaco y el psoas como pertenecientes a esta región. Estos músculos son: los glúteos mayor, mediano y menor, piriforme, obturador interno, los dos géminos, obturador externo y el cuadrado femoral. Algunos autores incluyen los dos músculos ilíaco y psoas, como músculos del abdomen. Todos estos músculos tienen su origen en el cinturón pelviano (huesos coxales y sacros)
Músculo glúteo mayor: es el más superficial y voluminoso de los músculos de la nalga y está constituido por fascículos paralelos, separados por tabiques celulomembranosos. Estos fascículos se insertan por la parte superior en la cresta ilíaca, en la línea curva posterior del coxal, en el ligamento sacroiliaco, en el sacro y en la aponeurosis que cubre el glúteo medio. Por su parte inferior las fibras más profundas se insertan en la tuberosidad glútea del fémur. Las fibras superficiales y la parte profunda superior del músculo terminan en una lámina tendinosa que se une al tracto iliotibial de la fascia lata. 
El glúteo mayor está inervado por el nervio glúteo inferior que deriva de los ramos ventrales procedentes de L5, S1 y S2.
El glúteo mayor permite la rotación lateral de la cadera y asiste la abducción de la articulación. Mediante su inserción al tracto iliotibial estabiliza la articulación de la rodilla cuando los extensores están relajados
El músculo glúteo mediano se extiende entre el glúteo mayor y el músculo tensor de la fascia lata. La mayor parte de este músculo está cubierto por el glúteo mayor. Se inserta en la superficie externa del íleon entre las líneas glúteas anterior y posterior. Por abajo, se inserta a una de las crestas oblicuas del trocánter. Se inerva mediante una rama del nervio glúteo superior.
Conjuntamente con el glúteo menor permite la abducción y rotación de la articulación de la cadera. También interviene para mantener el tronco en posición vertical cuando el pie contralateral es levantado durante la marcha
El músculo glúteo menor tiene forma de abanico, estando situado por debajo del glúteo mediano y se extiende igualmente entre el hueso coxal y el trocánter mayor. Por arriba se inserta en la parte más anterior de la cresta ilíaca y por abajo en la cara externa del trocánter mayor. Está inervado por el nervio glúteo superior. Participa en los mismos movimientos que el glúteo mediano
Piriforme o piramidal de la pelvis: es un músculo aplanado y triangular que se extiende del sacro al trocánter mayor. Se inserta por arriba en la cara anterior del sacro mediante varios fascículos alrededor de los agujeros sacros. Después de salir de la pelvis por la escotadura ciática mayor se inserta en el trocánter mayor por medio de un tendón redondeado. Se inerva mediante un nervio especial, el nervio piramidal, que emerge del nervio sacro

Las pruebas estadísticas: paramétricas y no paramétricas.

Las pruebas estadísticas


Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una distribución de probabilidad de tipo normal o de Gauss.
Pero en muchas ocasiones esta suposición no resulta válida, y en otras la sospecha de que no sea adecuada no resulta fácil de comprobar, por tratarse de muestras pequeñas.
En estos casos disponemos de dos posibles mecanismos:
  • Los datos se pueden transformar de tal manera que sigan una distribución normal.
  • O bien se puede acudir a pruebas estadísticas que no se basan en ninguna suposición en cuanto a la distribución de probabilidad a partir de la que fueron obtenidos los datos, y por ello se denominan pruebas no paramétricas (distribución free), mientras que las pruebas que suponen una distribución de probabilidad determinada para los datos se denominan pruebas paramétricas.


1) PRUEBAS NO PARAMÉTRICAS:
Las pruebas estadísticas no paramétricas son las que, a pesar de basarse en determinadas suposiciones, no parten de la base de que los datos analizados adoptan una distribución normal.
Técnica estadística que no presupone ninguna distribución de probabilidad teórica de la distribución de nuestros datos.
Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de probabilidad para los datos, por ello se conocen también como de distribución libre (distribución free).
En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de ordenación y recuento, por lo que su base lógica es de fácil comprensión.
Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer la normalidad de los datos, conviene utilizar pruebas no paramétricas, al menos para corroborar los resultados obtenidos a partir de la utilización de la teoría basada en la normal.
En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto para el que el valor de X está el 50% de las veces por debajo y el 50% por encima.
Las pruebas no paramétricas  no requieren asumir normalidad de la población y  en su mayoría se basan en el ordenamiento de los datos, la población tiene que ser continua.
El parámetro que se usa para hacer las pruebas estadísticas es la Mediana y no la Media.
Son técnicas estadísticas que no presuponen ningún modelo probabilístico teórico.
Son menos potentes que las técnicas paramétricas, aunque tienen la ventaja que se pueden aplicar más fácilmente.

2) PRUEBAS PARAMÉTRICAS:
Las pruebas estadísticas paramétricas, como la de la “t” de Student o el análisis de la varianza (ANOVA), se basan en que se supone una forma determinada de la distribución de valores, generalmente la distribución normal, en la población de la que se obtiene la muestra experimental.
En contraposición de la técnicas no paramétricas, las técnicas paramétricas si presuponen una distribución teórica de probabilidad subyacente para la distribución de los datos.
Son más potentes que las no paramétricas.
Dentro de las pruebas paramétricas, las más habituales se basan en la distribución de probabilidad normal, y al estimar los parámetros del modelo se supone que los datos constituyen una muestra aleatoria de esa distribución, por lo que la elección del estimador y el cálculo de la precisión de la estimación, elementos básicos para construir intervalos de confianza y contrastar hipótesis, dependen del modelo probabilístico supuesto.
Cuando un procedimiento estadístico es poco sensible a alteraciones en el modelo probabilístico supuesto, es decir que los resultados obtenidos son aproximadamente válidos cuando éste varía, se dice que es un procedimiento robusto.

3) ANÁLISIS DE LA VARIANZA (ANOVA)
ANOVA son siglas para el análisis de la Variación (ANalysis Of VAriance).
Un ANOVA segrega diversas fuentes de la variación vistas en resultados experimentales.
Conjunto de técnicas estadísticas para conocer el modo en que el valor medio de una variable es afectado por diferentes tipos de clasificaciones de los datos.
Con el análisis de la varianza se pueden ajustar las estimaciones del efecto de un tratamiento según otros factores como sexo, edad, gravedad, etc.
Es una técnica estadística que sirve para decidir/determinar si las diferencias que existen entre las medias de tres o más grupos (niveles de clasificación) son estadísticamente significativas.
Las técnicas de ANOVA se basan en la partición de la varianza para establecer si la varianza explicada por los grupos formados es suficientemente mayor que la varianza residual o no explicada.
El análisis de la varianza (ANOVA) es una técnica estadística de contraste de hipótesis.
Tradicionalmente estas técnicas, conjuntamente con las técnicas de regresión lineal múltiple, de las que prácticamente son una extensión natural, marcan el comienzo de las técnicas multivariantes.
Con estas técnicas se manejan simultáneamente más de dos variables, y la complejidad del aparato matemático se incrementa proporcionalmente con el número de variables en juego.
El análisis de la varianza de un factor es el modelo más simple: una única variable nominal independiente, con tres o más niveles, explica una variable dependiente continua.
Otra alternativa, que aparentemente es más lógica e intuitiva, consiste en comparar, en todas las posibles combinaciones de dos en dos, las medias de todos los subgrupos formados.
En el ANOVA se comparan medias, no varianzas: medias de los subgrupos o estratos originados por los factores de clasificación estudiados.
Un ANOVA entonces prueba si la variación asociada a una fuente explicada es grande concerniente a la variación inexplicada.
Si ese cociente (la estadística de F) es tan grande que la probabilidad que ocurrió por casualidad es baja (por ejemplo, P<=0.05), podemos concluir (en ese nivel de la probabilidad) que esa fuente de la variación tenía un efecto significativo.

CONDICIONES GENERALES DE APLICACIÔN.

A- INDEPENDENCIA DE LOS ERRORES
Los errores experimentales han de ser independientes Se consigue si los sujetos son asignados aleatoriamente. Es decir, se consigue esta condición si los elementos de los diversos grupos han sido elegidos por muestreo aleatorio
B- NORMALIDAD
Se supone que los errores experimentales se distribuyen normalmente. Lo que supone que cada una de las puntuaciones yi.i se distribuirá normalmente.
Para comprobarlo se puede aplicar un test de ajuste a la distribución normal como et de Kolmogov-Smirnov.
C- HOMOGENEIDAD DE VARIANZAS (HOMOSCEDASTICIDAD).
La varianza de los subgrupos ha de ser homogénea σ21 = σ22 = .....= σ2k ya que están debidas al error. Se comprobarán mediante los test de: Razón de varianzas (máx. /min.), C de Cochran, Barlett-Box…

4) ANÁLISIS DE LA COVARIANZA (ANCOVA)
Método de análisis estadístico que es una extensión del análisis de la varianza, que permite ajustar los estimadores del efecto de un tratamiento según posibles covariables y factores.
Es una técnica estadística que combina ANOVA (pues compara medias entre grupos) y análisis de regresión (ajusta las comparaciones de las medias entres los grupos por variables continuas o covariables)

5) ANÁLISIS DE REGRESIÓN
En un conjunto de datos sobre la variable dependiente y  sobre una o más variables independientes, , consiste en determinar el modelo matemático más ajustado que describa y como una función de las x o para predecir y a partir de las x.
Los tipos más corrientes son el modelo lineal y el modelo logístico.

6) ANÁLISIS POR PROTOCOLO
En un ensayo clínico, análisis de los datos según el tratamiento tomado, en contraposición al análisis por intención de tratar, que se realiza según el tratamiento asignado en el proceso de asignación aleatoria.  El análisis por protocolo tiende a medir la eficacia de la intervención, para cuya evaluación conviene incluir sólo a los pacientes que han estado realmente expuestos a los tratamientos planificados.

 Diferencias entre las pruebas paramétricas y no paramétricas


Diferencias entre las pruebas paramétricas y no paramétricas
Las pruebas estadísticas paramétricas y no paramétricas se diferencian por el tipo de datos que se usan para analizar. Las pruebas paramétricas hacen muchas suposiciones, la más significativa de las cuales es que los datos se distribuyen normalmente. Las pruebas no paramétricas hacen menos suposiciones y hacen frente a los datos que no se distribuyen normalmente. Las pruebas paramétricas generalmente tienen una mayor potencia estadística.


Distribución de datos.


Las pruebas paramétricas hacen la suposición de conocimiento previo de que los datos se distribuyen normalmente. Varias pruebas pueden llevarse a cabo para determinar si es o no es una suposición válida. Si los datos no están normalmente distribuidos, pueden transformarse de diversas maneras para que las pruebas paramétricas se puedan seguir utilizando. Como alternativa, se pueden utilizar los análisis no paramétricos. Las pruebas no paramétricas no hacen suposiciones sobre la distribución de los datos.

Escala de datos



                   
Las pruebas paramétricas hacen la suposición de que los datos se miden en una escala de intervalo, de modo que el intervalo entre los puntos de datos es significativo. La altura en pulgadas o el peso en libras son datos de intervalo. Por el contrario, las pruebas no paramétricas no hacen suposiciones acerca de la escala de los datos.

Parámetros estadísticos


Las pruebas paramétricas emplean parámetros que se estima que con un conjunto de datos que se distribuyen normalmente. La media, la varianza, la desviación estándar y la asimetría son ejemplos. Estos parámetros se utilizan para hacer inferencias en las pruebas paramétricas. Por el contrario, las pruebas no paramétricas no hacen uso de estos parámetros estadísticos.

En general, el poder estadístico es menor en pruebas no paramétricas que en sus contrapartes paramétricas. El poder estadístico se refiere a la probabilidad de que la prueba estadística se rechaza la hipótesis nula cuando la hipótesis nula es en realidad falsa, y por lo tanto debe ser rechazada. En otras palabras, el poder se refiere a la probabilidad de que la prueba dará lugar a la inferencia correcta acerca de la población.


Materiales utilizados en microbiologia, radiaciones electromagneticas y pasteurizacion.

Introducción.


 A continuación presentamos algunos instrumentos utilizados en el laboratorio de microbiología y la función de cada uno de ellos, los electrodomésticos y aparatos de usos cotidianos que emiten ondas radiactivas, los efectos que estos pueden ocasionar al ser humano al estar expuesto a ellas y que métodos podemos emplear para prevenir dichas radiaciones. También incluimos acerca de la pasteurización, su historia, importancia y el proceso que se lleva a cabo para pasteurizar jugos, alcoholes, salsa y embutidos.

 1. PH-metro.

 El pH-metro es un sensor utilizado en el método electroquímico para medir el pH de una disolución. Una celda para la medida de pH consiste en un par de electrodos, uno de calomel (mercurio, cloruro de mercurio) y otro de vidrio, sumergidos en la disolución de la que queremos medir el pH. La varita de soporte del electrodo es de vidrio común y no es conductor, mientras que el bulbo sensible, que es el extremo sensible del electrodo, está formado por un vidrio polarizable (vidrio sensible de pH). Se llena el bulbo con la solución de ácido clorhídrico 0.1M saturado con cloruro de plata. El voltaje en el interior del bulbo es constante, porque se mantiene su pH constante (pH 7) de manera que la diferencia de potencial solo depende del pH del medio externo. El alambre que se La determinación de pH consiste en medir el potencial que se desarrolla a través de una fina membrana de vidrio que separa dos soluciones con diferente concentración de protones. En consecuencia se conoce muy bien la sensibilidad y la selectividad de las membranas de vidrio durante el pH. Sumerge al interior (normalmente Ag/AgCl), permite conducir este potencial hasta un amplificador.

 1.1. Mantenimiento.

El electrodo de vidrio es relativamente inmune a las interferencias del color, turbidez, material coloidal, cloro libre, oxidante y reductor. La medida se afecta cuando la superficie de la membrana de vidrio está sucia con grasa o material orgánico insoluble en agua, que le impide hacer contacto con la muestra, por lo tanto, se recomienda la limpieza escrupulosa de los electrodos. Los electrodos tienen que ser enjuagados con agua destilada entre muestras. No se tienen que secar con un trapo, porque se podrían cargar electrostáticamente. Luego se deben colocar suavemente sobre un papel, sin pelusa, para quitar el exceso de agua.

 1.2 .Calibrado.

Como los electrodos de vidrio de pH mesuran la concentración de H+ relativa a sus referencias, tienen que ser calibrados periódicamente para asegurar la precisión. Por eso se utilizan buffers de calibraje (disoluciones reguladoras de pH conocido). que sirve para leer sustancias.

 1.3. Precauciones

El electrodo debe mantenerse húmedo siempre para evitar daños al mismo. Se recomienda que se guarde en una solución de 4M KCl; o en un buffer de solución de pH 4 o 7. No se debe guardar el electrodo en agua destilada, porque eso causaría que los iones resbalaran por el bulbo de vidrio y el electrodo se volvería inútil; se calibra mediante soluciones estandarizadas.

 2. Matraz de Erlenmeyer.

El matraz de Erlenmeyer, frasco de Erlenmeyer, matraz Erlenmeyer, o simplemente Erlenmeyer o matraz, también conocido como matraz de síntesis extrema de químicos, es uno de los frascos de vidrio más ampliamente utilizados en laboratorios de Química y Física.

2.1. Función.

Se utiliza para el armado de aparatos de destilación o para hacer reaccionar sustancias que necesitan un largo calentamiento. También sirve para contener líquidos que deben ser conservados durante mucho tiempo. Fue creado en el año 1861 por el químico Emil Erlenmeyer (1825-1909).

 2.2. Técnicas en las que se emplea.

Por su forma troncocónica es útil para realizar mezclas por agitación y para la evaporación controlada de líquidos, ya que se evita en gran medida la pérdida del líquido; además, su abertura estrecha permite la utilización de tapones. Al disponer de un cuello estrecho es posible taparlo con un tapón esmerilado, o con algodón hidrófobo. Es empleado en lugar del clásico vaso de precipitados cuando contienen un medio líquido que debe ser agitado constantemente (como en el caso de las titulaciones) sin riesgo de que se derrame su contenido, o cuando se debe trabajar con reacciones químicas violentas. Suele utilizarse para calentar sustancias a temperaturas altas aunque no vigorosamente; la segunda tarea suele delegarse al balón de destilación. El matraz de Erlenmeyer no se suele utilizar para la medición de líquidos, ya que sus medidas son imprecisas. En Microbiología se emplea para la preparación de caldos de cultivo debido a que, entre otros motivos, puede taparse fácilmente con un tapón de algodón hidrófobo.

 2.3. Metodología de uso: técnicas de laboratorio.

Como todo material de vidrio tiene un método específico para utilizarlo correctamente. Para anclarlo, se puede colocar un peso de plomo o metal sobre el exterior. Al calentarlo, suele colocarse sobre de alguna de las siguientes formas. Cuando se arma el aparato de estas maneras, suele colocarse una tela metálica entre el matraz y el aro o el trípode. Sobre un trípode. En un anillo o aro de metal que, a su vez, está aferrado a un soporte universal por medio de una doble nuez o algún asa similar. El aro lo mantiene sobre unmechero Bunsen para que la llama del mechero lo caliente. Puede aferrarse el matraz directamente al soporte universal sosteniéndolo con una agarradera para tubos de ensayo en el cuello del matraz.

 3. Mechero Bunsen.

 Un mechero o quemador Bunsen es un instrumento utilizado en los laboratorios científicos para calentar o esterilizar muestras o reactivos químicos. Fue inventado por Robert Bunsen en 1857 y provee una transmisión muy rápida de calor intenso en el laboratorio. Es un quemador de gas natural o preparado del tipo de premezcla y la llama es el producto de la combustión de una mezcla de aire y gas butano. El quemador tiene una base pesada en la que se introduce el suministro de gas. De allí parte un tubo vertical por el que el gas fluye atravesando un pequeño agujero en el fondo de tubo. Algunas perforaciones en los laterales del tubo permiten la entrada de aire en el flujo de gas (gracias al efecto Venturi) proporcionando una mezcla inflamable a la salida de los gases en la parte superior del tubo donde se produce la combustión, muy eficaz para la química avanzada. El mechero Bunsen es una de las fuentes de calor más sencillas del laboratorio y es utilizado para obtener temperaturas no muy elevadas. Consta de una entrada de gas sin regulador, una entrada de aire y un tubo de combustión. El tubo de combustión está atornillado a una base por donde entra el gas combustible a través de un tubo de goma, con una llave de paso. Presenta dos orificios ajustables para regular la entrada de aire. La cantidad de gas y por lo tanto de calor de la llama puede controlarse ajustando el tamaño del agujero en la base del tubo. Si se permite el paso de más aire para su mezcla con el gas la llama arde a mayor temperatura (apareciendo con un color azul). Si los agujeros laterales están cerrados el gas sólo se mezcla con el oxígeno atmosférico en el punto superior de la combustión ardiendo con menor eficacia y produciendo una llama de temperatura más fría y color rojizo o amarillento, la cual se llama "llama segura" o "llama luminosa". Esta llama es luminosa debido a pequeñas partículas de hollín incandescentes. La llama amarilla es considerada "sucia" porque deja una capa de carbón sobre la superficie que está calentando. Cuando el quemador se ajusta para producir llamas de alta temperatura, éstas (de color azulado) pueden llegar a ser invisibles contra un fondo uniforme.

 Distintos tipos de llama en un quemador Bunsen dependiendo del flujo de aire ambiental entrante en la válvula de admisión (no confundir con la válvula del combustible). 1. Válvula del aire cerrada (llama segura). 2. Válvula medio abierta. 3. Válvula abierta al 90 %. 4. Válvula abierta por completo (llama azul crepitante; se recomienda el uso de ésta ya que no deja residuos de carbón sobre lo que calentamos). Si se incrementa el flujo de gas a través del tubo mediante la apertura de la válvula aguja crecerá el tamaño de la llama. Sin embargo, a menos que se ajuste también la entrada de aire, la temperatura de la llama descenderá porque la cantidad incrementada de gas se mezcla con la misma cantidad de aire, dejando a la llama con poco oxígeno. La llama azul en un mechero Bunsen es más caliente que la llama amarilla. La forma más común de encender el mechero es mediante la utilización de un fósforo o un encendedor a chispa.

 4. Frasco de Gas-Pak.

 Es un método utilizado en la producción de un ambiente anaerobio. Se utiliza para cultivar bacterias que mueran o no crecen en presencia de oxígeno (anaerobios). Estos son bolsitas disponibles comercialmente, desechables que contienen un polvo o gránulos secos, que, cuando se mezcla con agua y se mantuvo en un frasco hermético de tamaño apropiado, producir una atmósfera libre de gas oxígeno elemental (O2). Se utilizan para producir un cultivo anaerobio en microbiología

5. La Radiación Electromagnética.

 (EMF por sus siglas en ingles) son campos de fuerza representados por ondas que se mueven en el medio ambiente, donde sus ejes representan en tres dimensiones un campo magnético y un campo eléctrico cruzados entre si. Están presentes en cualquier lugar donde halla electricidad presente. Los campos electromagnéticos son generados por dos medios: De forma natural: Manchas solares, tormentas eléctricas, en fin por disturbios causados a la atmosfera por elementos naturales. De forma artificial: tostador, microondas, televisión, celulares, computadoras, maquinas de afeitar, etc.

5.1 Radiación de la computadora.

 Con el dramático incremento en el número de computadoras en oficinas y hogares, las quejas de fatiga e incomodidad ocular son más frecuentes. Los estudios han establecido que los monitores de las computadoras emiten radiaciones ionizantes, como rayos-x, y radiación no ionizante, como los rayos ultravioleta e infrarrojos. Además de una carga electrostática en la superficie de los mismos. Los siguientes son los síntomas más comunes del sobre esfuerzo de los ojos, lo cual puede atribuirse a la observación prolongada de la pantalla del computador. Sin embargo, cada individuo puede experimentar los síntomas de una forma diferente. Los síntomas pueden incluir: Enrojecimiento Ardor Sensación de cuerpo extraño (arena en los ojos) Fatiga Resequedad Dificultad de enfoque Visión borrosa y/o doble Alteración en la percepción de colores Lagrimeo Malestar con el uso de lentes de contacto Dolor de cabeza, cuello, hombros y espalda Estas manifestaciones han sido determinadas como el síndrome de fatiga visual-corporal por computadora (SFVC). En muchos casos, estas quejas no comienzan inmediatamente, sino que horas después de trabajo.

 5.2 Radiación del Microondas.

 Las radiaciones ionizantes son aquellas que al interactuar con la materia la ionizan, es decir, producen átomos y/o restos de moléculas con carga eléctrica (iones). Las radiaciones no ionizantes carecen de la energía suficiente para producir ionización. Las microondas y las radiofrecuencias son radiaciones electromagnéticas que pertenecen a la categoría de radiaciones no ionizantes. Son emitidas por aparatos eléctricos, electrónicos, los utilizados en radiocomunicaciones (inclusive vía satélite), emisiones de TV, radio AM-FM, radares, etc. Las microondas están dentro de una gama de frecuencia de 300 MHz (longitud de onda 1 m) a 300 GHz (longitud de onda de 1 mm).

 5.2.1 Efectos por exposición.

 La exposición a la radiación tiene en cuenta la intensidad y tipo de emisión; las características del medio y del objeto expuesto (tales como tamaño, forma, orientación, propiedades eléctricas, etc.). La cantidad y localización de la energía absorbida por un cuerpo expuesto a la radiación de microondas dependerán del tamaño del cuerpo y de la longitud de onda de la radiación, así como también de la posición del primero en el campo de la radiación. En general,las ondas más cortas se absorben en superficie, mientras que las de mayor longitud producen un calentamiento más profundo. Cuando la longitud o el grosor de una parte del cuerpo son ligeramente inferiores a la longitud de onda de la radiación, se producen formas muy complicadas de dispersión y absorción. La radiación de microondas se absorbe de manera tan irregular que pueden formarse puntos calientes. Algunos autores consideran que los efectos de estas radiaciones no son sólo térmicos, sino que puede actuar de alguna forma sobre el sistema nervioso (Suess, M.J., 1985).

 La interacción de cierta radiación electromagnética con cuerpos conductores produce calor. Este hecho es utilizado por la medicina para realizar “diatermia”. Terapia que consiste en la aplicación de emisiones controladas de radiofrecuencias y microondas para calentar distintos tejidos. Es utilizado en tratamientos de tejidos cancerosos, cuyas células son sensibles a temperaturas en un rango de 42º y 43º C. Los aparatos utilizados deben ser testeados para evitar “escapes” de campos electromagnéticos que provoquen lesiones irreversibles. Los equipos de alta potencia como radares pueden someter a sus operadores a riesgos de incidencia de tumores malignos. Las microondas son una forma de energía electromagnética, similares a las ondas de luz o de radio y que ocupan una parte del espectro electromagnético de la energía.

 En nuestra era tecnológica moderna, las microondas se usan para emitir señales telefónicas de larga distancia, programas de televisión e información de ordenadores a través de la Tierra o a un satélite en el espacio. Sin embargo, a la mayoría, las microondas no son más familiares como fuente de energía para cocinar alimentos. Cada horno microondas contiene un magnetrón, es decir un tubo en el cual los electrones son afectados por campos eléctricos y magnéticos de tal forma que produce radiación de microondas de alrededor de 2450 megahercios (MHz) o 2.45 Gigahercios (GHz). Esta radiación de microondas interactúa con las moléculas del alimento. Toda energía de onda cambia la polaridad de positivo a negativo con cada ciclo de la onda. En los microondas estos cambios de polaridad tienen lugar millones de veces cada segundo. Las moléculas de los alimentos - especialmente las moléculas del agua - tienen un polo positivo y negativo de la misma manera que un magneto tiene una polaridad norte y otra polaridad sur. En los modelos comerciales, el horno tiene una potencia de entrada de alrededor de 1000 vatios de corriente alterna. Cuando estas microondas generadas desde el magnetrón bombardean los alimentos, hacen que las moléculas polares roten en la misma frecuencia millones de veces por segundo. Todo este agitado crea una fricción molecular que calienta el alimento.

Esta forma inusual de calentar también causa daños sustanciales a las moléculas circundantes, muchas veces rompiéndolas o deformándolas. En comparación, las microondas del sol se basan en principios de corriente directa por pulsos (DC) que no crea calor por fricción; los hornos microondas usa corriente alterna (AC) y por lo tanto crean calor por fricción. Un horno microondas produce longitudes de onda de energía puntiagudas, con todo el poder entrando en una sola frecuencia estrecha del espectro de energía. La energía del sol opera en una frecuencia amplia del espectro. La longitud de onda determina el tipo de radiación, es decir, radio, rayos X, rayos ultravioletas, visibles, infrarrojos, etc. La amplitud determina la extensión del movimiento medido desde el punto de inicio. El ciclo determina la unidad de frecuencia, como por ejemplo, ciclos por segundo, hercios, Hz, o ciclos/segundo. La frecuencia determina el número de sucesos dentro de un tiempo dado determinado (generalmente 1 segundo); el número de sucesos de un proceso recurrente por unidad de tiempo, es decir, el número de repeticiones de ciclos por segundo.

 5.3 Radiación de los móviles.

 Si aumentamos mucho la amplitud, calentamos mucho la materia, como sucede en los microondas, lo que marca la diferencia son los niveles de exposición. Se cree que la exposición a la radiación celular produce cáncer, leucemia o malformaciones genéticas. Las ondas de radio, la luz visible y los rayos X son el mismo fenómeno físico, cambiando sólo la frecuencia. La radiación que nos llega desde los móviles está en el rango de los microondas, por lo que es radiación no ionizante.

 5.4 Radiación del televisor.

 Desde la invención de la televisión, las madres han instado a los niños a no sentarse demasiado cerca de la pantalla porque arruina la vista. Aunque la mayoría de las madres hacen esta observación sin tener ninguna evidencia científica para respaldarla, que las pantallas de TV tengan impacto negativo sobre la vista de hecho puede tener cierta validez científica.

 5.4.1. La TV y la vista.

 Un artículo de 1950 en la revista "Time" citaba un estudio de un año de duración desarrollado por el Dr. John C. Neil del Colegio de Optometría del Estado de Pennsylvania de Philadelphia sobre los efectos de la televisión en la vista. Neil concluyó que el ojo humano se adapta a la luz de la pantalla de televisión, y puede resultar en la pérdida de más del 40 % de la visión nocturna. Prevenía a todos aquellos que vieran TV y después fueran a conducir en el anochecer, que se sentaran en un cuarto oscuro por 20 minutos antes de manejar, lo que permite a los ojos adaptarse a la oscuridad. Incluso, Neil estimaba que el 10 % de los problemas de los ojos sufridos por los americanos estaban relacionados con ver televisión.

 5.4.2 El mito contra el hecho.

 De acuerdo con un artículo en 2010 de "Científico Americano", la idea de que la televisión emite una radiación que puede dañar los ojos es un mito. Sin embargo, una base factible está detrás de este mito. De vuelta en la década de 1960, General Electric introdujo una serie de TV a color que emitía cantidades excesivas de radiación, estimadas en "100 000 veces más de lo que los oficiales federales de la salud consideran saludable". Las televisiones fueron retiradas y el problema resuelto, pero el estigma continuó. Las televisiones modernas de pantalla plana son regularmente de LCD o plasma, y no emiten radiación. Sin embargo, el Dr. Lee Duffner de la American Academy of Ophtalmology (Academia Americana de Oftalmología) advierte sobre ver excesivamente la televisión, especialmente si se hace muy cerca de la pantalla, ya que puede causar tensión y fatiga ocular.

 5.5. Radiación en las maquinas de fotocopiado.

 Las máquinas de fotocopiado electroestático producen ozono, gas de olor metálico y picante, fácilmente reconocible, peligroso, irritante para el sistema respiratorio. Puede afectar las vías respiratorias provocando tos, dolor de cabeza o náuseas, entre otros. En la atmósfera se encuentra en concentraciones que varían entre 0,005 y 0,05 ppm; y es más alto durante los meses de verano. El umbral de olor es alrededor de 0,01 ppm. En el proceso de fotocopiado es frecuente percibir ozono, y ocasionalmente las concentraciones pueden ser bastante altas, tanto como para comprometer la salud del operador.

 5.5.1 Calor.

El calor producido por la fotocopiadora es generado en la unidad de fusión, donde la temperatura varía entre los 180 °C a 200 °C. Se puede acumular calor seco excesivo si se colocan varias máquinas en un área pequeña, o donde su uso es frecuente y con escasa ventilación. Puede causar malestar a los ojos y el lugar de trabajo puede volverse seco y caliente. Una buena ventilación en la pieza donde se encuentre el equipo, es la solución. 6. Equipo de rayos x utilizados en hospitales. En los hospitales se utilizan equipos de rayos X y fuentes radiactivas para el diagnóstico y tratamiento de diversas enfermedades. Los trabajadores del hospital que prestan servicio en radiología, medicina nuclear, oncología radioterápica o en algunos laboratorios poseen una preparación específica en la utilización de las máquinas de radiación o en la manipulación de fuentes radiactivas. Son los denominados “trabajadores expuestos”. Sin embargo, otros trabajadores del hospital que se hallen en las cercanías de las fuentes de radiación pueden verse expuestos a las radiaciones en el desempeño de su trabajo (enfermeras, mantenimiento, seguridad, administrativos...). Además los celadores, y el personal de quirófano y reanimación pueden también entrar en contacto con pacientes de medicina nuclear.

 6.1 Constitución del equipo de rayos X.

 El equipo necesario para producir los rayos X consta de: un generador de alta tensión y un tubo. Éste consiste en una ampolla de vidrio resistente al calor situada en el interior de una coraza metálica llena de aceite. En el interior de la ampolla, en la que se ha hecho vacío, se encuentran un filamento(cátodo) y un ánodo, ambos de wolframio, que se hallan conectados al generador eléctrico. El filamento dispone de un circuito de baja tensión que le proporciona una corriente, a cuyo paso se calienta y emite electrones. Los electrones son acelerados por la alta tensión (50-150 kV) hasta chocar contra el ánodo. Al interaccionar con él, la mayor parte de la energía de los electrones se convierte en calor, pero alrededor del un 1% de ésta se convierte en rayos X. Una parte de ellos sale de la coraza a través de una ventana y llega al paciente. Los que son emitidos en otras direcciones son absorbidos dentro de la propia coraza.

Aceleradores lineales: En un acelerador lineal se obtienen rayos X de alta energía a partir de los electrones emitidos por la superficie por un disco metálico caliente. Los electrones se aceleran a través de una cámara de vacío mediante la aplicación de microondas, hasta que alcanzan velocidades próximas a la de la luz. Estos electrones bombardean un blanco metálico, de wolframio, provocando la emisión de rayos X.

 6.2 Métodos de protección radiológica.

 Es necesario aplicar medidas de protección radiológica para protegerse frente a la radiación producida por los equipos emisores de rayos X y rayos gamma, así como frente a la radiación y contaminación originada por las sustancias radiactivas. Los métodos más efectivos para protegernos de la radiación son: A. Minimizar el tiempo B. Maximizar la distancia C. Maximizar el blindaje.

 7. Alcohol.

 El etanol (CH3-CH2-OH) es un compuesto característico de las bebidas alcohólicas. Sin embargo, el etanol es solo un integrante de la amplia familia de los alcoholes. En química se denomina alcohol (del árabe al-kuḥl الكحول, o al-ghawl الغول, ‘el espíritu’, ‘toda sustancia pulverizada’, ‘líquido destilado’) a aquellos compuestos químicos orgánicos que contienen un grupo hidroxilo (-OH) en sustitución de un átomo de hidrógeno, enlazado de forma covalente a un átomo de carbono. Además este carbono debe estar saturado, es decir, debe tener solo enlaces simples a sendos átomos;1 esto diferencia a los alcoholes de los fenoles. Si contienen varios grupos hidroxilos se denominan polialcoholes. Los alcoholes pueden ser primarios, secundarios o terciarios, en función del número de átomos de hidrógeno sustituidos en el átomo de carbono al que se encuentran enlazado el grupo hidroxilo.

 7.1 Historia.

 La palabra alcohol proviene del árabe الكحول al-kukhūl 'el espíritu', de al- (determinante) y kuḥūl que significa 'sutil'. Esto se debe a que antiguamente se llamaba "espíritu" a los alcoholes. Por ejemplo "espíritu de vino" al etanol, y "espíritu de madera" al metanol. Los árabes conocieron el alcohol extraído del vino por destilación. Sin embargo, su descubrimiento se remonta a principios del siglo XIV, atribuyéndose al médico Arnau de Villanova, sabio alquimista y profesor de medicina en Montpellier. La quinta esencia de RamonLlull no era otra cosa que el alcohol rectificado a una más suave temperatura. Lavoisier fue quien dio a conocer el origen y la manera de producir el alcohol por medio de la fermentación vínica, demostrando que bajo la influencia de la levadura de cerveza el azúcar de uva se transforma en ácido carbónico y alcohol. Fue además estudiado por Scheele, Gehle, Thénard, Duma y Boullay y en 1854 Berthelot lo obtuvo por síntesis.

 8. Yodo.

 El yodo o iodo es un elemento químico de número atómico 53 situado en el grupo de los halógenos (grupo 17) de latabla periódica de los elementos. Su símbolo es I (del griego ιώδης, iodes, "violeta"). Este elemento puede encontrarse en forma molecular como yodo diatómico. Es un oligoelemento y se emplea principalmente en medicina, fotografía y como colorante. Químicamente, el yodo es el halógeno menos reactivo y electronegativo. Como con todos los otros halógenos (miembros del Grupo VII en la tabla periódica), el yodo forma moléculas diatómicas y por ello forma el diyodo de fórmula molecular I2.

 8.1 Precauciones.

 El yodo es corrosivo, es necesario tener cuidado cuando se maneja yodo pues el contacto directo con la piel puede causar lesiones. El vapor de yodo es muy irritante para los ojos. Al mínimo contacto dar unas dosis de colirio al ojo/s. También es peligroso para las membranas mucosas. La concentración de yodo en el aire5 no debe exceder 1 mg/m³. Cuando es mezclado con amoníaco, puede formar triyoduro de nitrógeno (triyodoamina) el cual es extremadamente sensible y capaz de explotar inesperadamente.

 9. Cloro.

 El cloro es un elemento químico de número atómico 17 situado en el grupo de los halógenos (grupo XVIIA) de latabla periódica de los elementos. Su símbolo es Cl. En condiciones normales y en estado puro forma dicloro: un gastóxico amarillo-verdoso formado por moléculas diatómicas (Cl2) unas 2,5 veces más pesado que el aire, de olor desagradable y tóxico.

Es un elemento abundante en la naturaleza y se trata de un elemento químico esencial para muchas formas de vida. 9.1 Historia. El cloro (del griego χλωρος, que significa "verde pálido") fue descubierto en su forma diatómica en 1774 por el sueco Carl Wilhelm Scheele, aunque creía que se trataba de un compuesto que contenía oxígeno. Lo obtuvo a partir de la siguiente reacción: 2 NaCl + 2H2SO4 + MnO2 → Na2SO4 + MnSO4 + 2 H2O + Cl2 En 1810 el químico inglés Humphry Davy demuestra que se trata de un elemento físico y le da el nombre de cloro debido a su color. El gas cloro se empleó en la Primera Guerra Mundial, siendo el primer caso de uso de armas químicas como el fosgeno y el gas mostaza. 9.2 Obtención.

 El cloro comercial se obtiene por electrólisis en el proceso de preparación de los álcalis y se expande en forma líquida, no es puro; y por lo tanto, ha de purificarse. Si se trata el dióxido de manganeso hidratado con ácido clorhídrico concentrado se produce un gas exento en gran parte de impurezas tales como el oxígeno gas (O2(g)) y óxidos de cloro. 4HCl + MnO2xH2O = MnCl2 + (x+2)H2O + Cl2 10. La pasteurización. La pasteurización, a veces denominada pasterización, es el proceso térmico realizado a líquidos (generalmente alimentos) con el objeto de reducir los agentes patógenos que puedan contener: bacterias, protozoos, mohos y levaduras, etc. El proceso de calentamiento recibe el nombre de su descubridor, el científico-químico francés Louis Pasteur (1822-1895). La primera pasteurización fue realizada el 20 de abril de 1864 por el mismo Pasteur y su colega Claude Bernard. Uno de los objetivos del tratamiento térmico es la "esterilización parcial" de los alimentos líquidos, alterando lo menos posible la estructura física, los componentes químicos y las propiedades organolépticas de estos. Tras la operación de pasteurización, los productos tratados se enfrían rápidamente y se sellan herméticamente con fines de seguridad alimentaria; por esta razón, es básico en la pasteurización el conocimiento del mecanismo de la transferencia de calor en los alimentos. A diferencia de la esterilización, la pasteurización no destruye las esporas de los microorganismos, ni elimina todas las células de microorganismos termofílicos.

 El avance científico de Pasteur mejoró la calidad de vida al permitir que ciertos productos alimenticios básicos, como la leche, se pudieran transportar largas distancias sin que la descomposición los afectara. En la pasteurización, el objetivo primordial no es la "eliminación completa de los agentes patógenos" sino la disminución sensible de sus poblaciones, alcanzando niveles que no causen intoxicaciones alimentarias a los humanos (suponiendo que el producto pasteurizado se haya refrigerado correctamente y que se consuma antes de la fecha de caducidad indicada). En la actualidad, la pasteurización es objeto de cada vez más polémicas en ciertas agrupaciones de consumidores a lo ancho del mundo, debido a las dudas existentes sobre la destrucción de vitaminas y alteración de las propiedades organolépticas (sabor y calidad) de los productos alimenticios tratados.

 10.1 Historia.

 Los intentos de esterilizar la comida en contenedores sellados se atribuyó históricamente al inventor francés Nicholas Appert en sus trabajos de investigación realizados en el siglo XVIII. No obstante algunas investigaciones demuestran que con anterioridad ya se había intentado esterilizar recipientes sellados de alimentos.[4] Hacia fines de siglo XIX, los químicos alemanes trasladaron este procedimiento a la leche cruda, y ya por entonces (antes de Pasteur) empezaron a “sospechar” que los tratamientos térmicos resultaban eficaces para destruir las bacterias presentes en ella. De este modo, dieron origen no sólo a un importante método de conservación, sino también a una medida higiénica fundamental para cuidar la salud de los consumidores y conservar la calidad de los alimentos. Estos trabajos sentaron las bases de lo que Pasteur posteriormente descubriría y explicara científicamente. Algunos de los contemporáneos de Pasteur, incluido el eminente químico alemán Justus von Liebig, insistían en que la fermentación era un proceso puramente químico y que no requería en absoluto de la intervención de ningún organismo vivo (es decir, suponían que era un proceso puramente inorgánico).

En el año 1864, a instancias del emperador Napoleón III, Pasteur investigó la causa por la que el vino y la cerveza se agriaban con el paso del tiempo, causando grandes pérdidas económicas a las empresas francesas debido a lo perecedero de estas mercancías. Pasteur regresó al pueblo de su infancia, Arbois, con el objetivo de resolver el problema definitivamente; allí estudió el problema que afectaba a las viñas. Con ayuda de un microscopio, descubrió que, en realidad, intervenían dos tipos de organismos —dos variedades de levaduras de la familia acetobacter— que eran la clave del proceso de fermentación. Uno producía alcohol y el otro, ácido láctico que agriaba el vino produciendo el vinagre. Con posterioridad, Charles North aplicó con éxito el mismo método de Pasteur a la leche en el año 1907. Pasteur utilizó un nuevo método para eliminar los microorganismos que pudieran degradar al vino o la cerveza, después de almacenar el líquido en cubas bien selladas y elevando su temperatura hasta los 44 °C durante un breve periodo. Comprobó experimentalmente que las poblaciones de bacterias del género Acetobacter se reducían en extremo hasta quedar "casi esterilizado" el alimento. A pesar del horror inicial de la industria ante la idea de calentar el vino, un experimento controlado con lotes de vino calentado y sin calentar demostró de forma contundente la efectividad del procedimiento. Pasteur dio el primer paso en el que sería este nuevo método denominado posteriormente "pasteurización" en su honor, y lo fue aplicando a otros alimentos líquidos como la leche.

El proceso se aplica hoy en día como una norma higiénica en los procesos básicos de la industria alimentaria y actualmente garantiza la seguridad de muchos productos alimenticios del mundo. La historia de la esterilización de los alimentos fue revisada por Harold Burton (1988). Los esterilizadores fueron patentados y construidos para calentar leche a temperaturas que van desde los 130 °C hasta los 140 °C antes del siglo XIX, curiosamente antes de que sus beneficios fueran entendidos. La leche esterilizada se desarrolló industrialmente en el año 1921, y el proceso de inyección de vapor fue desarrollado en 1927 por G. Grindrod en Estados Unidos. Sin embargo, las iniciativas más relevantes que dieron lugar a la comercialización del método UHT se empezaron a desarrollar a fines del decenio de 1940, debido a la técnica desarrollada en los esterilizadores de tubos concéntricos y de vapor de uperización para los sistemas de producción de leche. Debe entenderse que los esfuerzos de aquella época fueron muy grandes en la industria para lograr empaquetar asépticamente la leche, hasta que finalmente se logró con éxito en el año 1961.

 10.2 Procesos de pasteurización.

 La pasteurización es un proceso térmico realizado a los alimentos: los procesos térmicos se pueden realizar con la intención de disminuir las poblaciones patógenas de microorganismos o para desactivar las enzimas que modifican los sabores de ciertos alimentos. No obstante, en la pasteurización se emplean generalmente temperaturas por debajo del punto de ebullición (en cualquier tipo de alimento), ya que en la mayoría de los casos las temperaturas superiores a este valor afectan irreversiblemente ciertas características físicas y químicas del producto alimenticio; así, por ejemplo, si en la leche se sobrepasa el punto de ebullición, las micelas de la caseína se “coagulan” irreversiblemente (o dicho de otra forma, se "cuajan").

El proceso de calentamiento de la pasteurización, si se hace a bajas temperaturas, tiene además la función de detener los procesos enzimáticos.[8] Hoy en día, la pasteurización realizada a los alimentos es un proceso industrial continuo aplicado a alimentos viscosos, con la intención de ahorrar energía y costes de producción. 10.3 Tipos de pasteurización. Existen tres tipos de procesos bien diferenciados: pasteurización VAT o lenta, pasteurización a altas temperaturas durante un breve período(HTST, High Temperature/Short Time) y el proceso a altas temperaturas (UHT, Ultra-High Temperature).

10.4 Alimentos pasteurizados.

Aparte de la leche y los zumos, otros alimentos son pasteurizados por la industria alimenticia; por regla general, son aquellos que poseen una estructura líquida o semilíquida. Algunos de los más mencionados son los siguientes: Salsas Lácteos Aguas Helados Refrescos Mieles, etc.

 10.4.1 Pasteurización de los jugos.

 La pasteurización de los jugos corresponde a un tratamiento térmico, suficiente para inactivar los microorganismos causantes de enfermedades, presentes en las frutas. La elaboración de jugos y pulpas permite extender la vida útil de las frutas y algunas hortalizas. Ello es posible gracias a la acción de la pasteurización que permite la disminución considerable de los microorganismos fermentativos que contribuyen a acidificar el jugo a expensas de los azúcares presentes en él. La pasteurización de los jugos, clarificados o pulposos y de las pulpas de las frutas, permite la estabilización de los mismos para luego conservarlas mediante la combinación con otros métodos como la refrigeración y la congelación, lo cual contribuirá a mantener la calidad y la duración del producto en el tiempo. Al concluir la pasteurización el jugo debe ser enfriado rápidamente, para ello se colocan los envases en recipientes con agua tibia a la que se le va incorporando agua fría (para evitar que se raje el vidrio de los envases debido al cambio brusco de temperatura).

 10.4.2 La fermentación de alcohol.

 El proceso de fermentación es producido por acción de las enzimas cambios químicos en las sustancias orgánica. Este proceso es el que se utiliza principalmente para la elaboración de los distintos tipos de cervezas y para el proceso de elaboración de los distintos vinos En el caso de las cervezas, el ciclo de fermentación depende del lugar donde esta se produzca, variando para los casos del tipo fabricado en Alemania, Bélgica, Inglaterra, Estados Unidos, Brasil o el país de origen que fuera. En estos casos se divide comúnmente el proceso en tres etapas. La primera de molienda, la segunda de hervor y la tercera de fermentación. Aunque al proceso completo se le conozca como fermentación, esto se debe a las diferencias entre las distintas hablas y lenguas. En inglés este proceso es mejor diferenciado para cervezas como Brew y para vinos como fermentation que es como es reconocido en lengua hispana. El tipo de fermentación alcohólica de la cerveza es en donde la acción de la cimasa segregada por la levadura convierte los azúcares simples, como la glucosa y la fructosa, en alcohol etílico y dióxido de carbono. En detalle, la diastasa, la cimasa, la invertasa y el almidón se descomponen en azúcares complejos, luego en azúcares simples y finalmente en alcohol. Generalmente, la fermentación produce la descomposición de sustancias orgánicas complejas en otras simples, gracias a una acción catalizada. En el caso de los vinos, la química de la fermentación es la derivación del dióxido de carbono del aire que penetra las hojas del viñedo y luego es convertido en almidones y sus derivados. Durante la absorción en la uva, estos cuerpos son convertidos en glucosas y fructosas (azucares). Durante el proceso de fermentación, los azucares se transforman en alcohol etílico y dióxido de carbono de acuerdo a la fórmula C6H12O6 -> 2C2H5OH + 2CO2. En adición a las infecciones inducidas por acetobacterias y levaduras, a las cuales se les elimina la acción evitando la presencia de aire en toneles y/o depósitos, y que pueden atacar el vino transformándolo en vinagre o producir enfermedades a los consumidores, es necesario que se acentún los cuidados que eviten este riesgo a través de limpieza en los procesos, pasteurizados de la producción y microfiltraciones, para no requerir soluciones cuando el problema se ha establecido en la bebida.

 10.4.3 pasteurización de la Salsa.

 Miles de salsas se pueden obtener del procesado de frutas y vegetales. Además de las ya internacionales salsas como el kétchup o la mayonesa, el mercado de las salsas sigue siendo muy local, adaptándose mucho a la gastronomía, paladar y cultivos de cada país o región geográfica La fabricación de salsa se puede hacer directamente del producto fresco, frutas y verduras, pero lo más usual es hacerlo de concentrado, puré congelado o aséptico. Otros ingredientes son necesarios como aceite, especias, vinagres, etc. Dependiendo del volumen de producción una misma línea puede ser utilizada para la producción de salsas diferentes. Si este es el caso, un sistema CIP es imprescindible. Podemos definir dos tipos de procesos en la fabricación de las salsas: La pasteurización de la salsa se produce después del proceso de mezclado. Este es el caso para la fabricación de kétchup, donde normalmente todos los ingredientes se mezclan en un sistema mezclado en lotes y luego se pasteurizan Se pasteurizan los ingredientes antes del mezclado. Este es el caso de la mayonesa, donde el huevo y el aceite se pasteurizan antes del mezclado por separado. Como hemos dicho el mezclado en lotes es lo más utilizado para el procesado de salsas, dado que hay un montón de ingredientes en pequeñas cantidades. Podemos decir que los siguientes equipos son parte de una línea de procesado de salsa: Sistemas de almacenamiento Línea transportadora Lavadora de frutas y hortalizas Peladoras Inspección de cinta transportadora Trituradora Molino Pulverizador Hervidor Sartén Máquina de fabricación de pasta Evaporadores Pasteurizador Almacenamiento y sistemas de llenado en Aséptico Línea llenado y embalado

 10.4.4 pasteurización de embutidos.

 Los embutidos son pasteurizados y esterilizados a través de métodos convencionales de calentamiento como el agua, el vapor o el aire seco. En la esterilización se calienta el producto a una temperatura mayor de 100 C en el centro de su masa así se lo logra destruir los microorganismos y sus esporas, de esta manera resulta más estable a la temperatura ambiente. En la pasteurización se calienta el producto a una temperatura de 65 a 75 C en su centro, así se inactivan las enzimas y se eliminan los microorganismos vegetativos, pero sobreviven las esporas bacterianas, se logra la coagulación de las proteínas cárnicas que dan al producto textura. Los embutidos crudos frescos se elaboran con carne y grasas molidas, con aditivos o no, que pueden ser o no curados o ahumados. Tienen corta duración entre 1 y 6 días, conservándolos en frío, como las hamburguesas, longanizas, carne molida, salchichas de desayuno, longaniza parrillera, butifarra fresca de cerdo, entre otros.

 Los embutidos crudos salados son elaborados igual que los crudos frescos, pero se diferencian, en que son sometidos a un proceso de maduración para conservarlos, con la adición o no de cultivos y aditivos permitidos, pudiendo ser curados o no, secados o no y ahumados o no. Esto incluye chorizos, salamis, pastas de untar, jamón crudo, salchichones, tocinetas, pepperoni, entre otros.

 Los embutidos cocidos son aquellos que sufren un proceso de cocción en estufa, puede ser calor seco o en agua con o sin sal o a vapor. Vienen de diferentes formas como la morcilla, salchichas tipo Frankfurt, salchichas tipo Viena, salchichón con jamón, mortadela., generalmente se sirven fríos.

 Los embutidos ahumados son sometidos a la acción del humo, dando así un sabor especial y ayuda a conservarlos por más tiempo. Son carnes frescas curadas o no, Como por ejemplo el chorizo español. Hay embutidos que se les añade fécula de maíz, son más económicos, regularmente con más grasa, más compactos y molidos, sellados al vacío. Conclusión. Por medio de este trabajo se logro definir los equipos a usar en nuestra práctica en el laboratorio de microbiología y los temas que le corresponden. Adquiriendo de esta forma los conocimientos necesarios para cumplir con las expectativas.

 Bibliografía.

Enciclopedia océano uno.
monografías.com es.wikipedia.org
Es.slideshare.net
www.consumer.es
www.ehowenespanol.com
www.zonadiet.com
www.argon.es
www.laprensagrafica.com
www.hiperbaric.com
www.machinepoint.com