¡Recomienda este blog!

miércoles, 28 de julio de 2010

Historia de los Virus.

Se estima que los primeros virus informáticos aparecieron entorno a 1984. De aquellos primeros códigos a los actuales han surgido muchos mitos y leyendas acerca de ellos. En los siguientes párrafos intentaremos dar una visión general de la vida de los virus desde los inicios hasta el momento actual.

1939-1949

Los Precursores
En 1939 John Von Neumann, uno de los creadores de las computadoras ENIAC y UNIVAC en los cuarenta, escribió un artículo titulado "Teoría y organización de autómatas complejos" donde demostraba que era posible crear pequeñas entidades o programas que pudieran tomar el control de otros, de similar estructura. En 1949, 3 jóvenes programadores de la Bell Computer, Robert Thomas Morris, Douglas McIlory y Victor Vysottsky, a manera de entretenimiento crearon un juego al que denominaron CoreWar, inspirados en la teoría de Von Neumann. El juego consistía en desarrollar programas que, al ejecutarse, disminuían la memoría del ordenador e iban aniquilando los otros programas. El vencedor era, por supuesto, el que eliminaba a todos sus contrincantes.

A pesar de todo, no hay que olvidar que en esa época eran unos pocos quienes tenían acceso a esas máquinas y por tanto todo era una especie de reto intelectual entre grandes mentes. De esa época existen reportes acerca del virus Creeper, creado en 1972 por Robert Thomas Morris, cuyo “ataque” consistía en presentar por pantalla cíclicamente el mensaje: "I'm a creeper... catch me if you can!" (Soy una enredadera, cógeme si puedes). Para eliminar este problema se creó el primer programa antivirus denominado Reaper (segadora). En 1980 la red ArpaNet del ministerio de Defensa de los Estados Unidos de América, precursora de Internet, emitió extraños mensajes que aparecían y desaparecían en forma aleatoria, asimismo algunos códigos ejecutables de los programas usados sufrían una mutación. Los altamente calificados técnicos del Pentágono se demoraron 3 largos días en desarrollar el programa antivirus correspondiente.

1981

En 1981 IBM lanza el primer PC. Si bien en un primer momento buscaron a Gary Kildall para conseguir su sistema operativo CP/M, este se mostró esquivo y reacio a venderlo. Por ello acudieron a Bill Gates, quien había hecho unas modificaciones sobre un clon del CP/M comprado a otra empresa y lo vendió con el nombre de PC‐DOS. Las prisas con que IBM lanzó el PC‐DOS le impidió mejorar el esquema y resolver los bugs que contenía.

1984

En 1983 Keneth Thompson, creador de Unix, demostró en una ceremonia pública la forma de desarrollar un virus. Un año después Fred Cohen, considerado el primer autor oficial sobre virus, presentó varios trabajos sobre virus, sus peligros y connotaciones de seguridad e incluso en The Gospel according to Fred desarrolló y experimentó con varias especies de virus.
En ese mismo año, usuarios de los foros BBS de la revista Byte se quejaron de programas que habían entrado escondidos en otros como caballos de Troya y que infectaban otros ficheros e incluso el sector de arranque. Las quejas se intensificaron cada vez más hasta llegar al año 1986.

1986

En este año aparecieron los primeros virus conocidos, como el Brain o el Bouncing Ball (conocido como pelotita en España). Estos virus sólo afectaban al sector de arranque por lo que eran sencillos de eliminar con una simple orden de MS‐DOS “SYS B”: que restablecía el sector de arranque de los disquetes. En 1987 apareció el virus Jerusalem que era un virus residente en memoria, parcheaba interrupciones del sistema operativo e infectaba archivos COM y EXE. Este virus sirvió como base para muchos otros virus posteriores que la mejoraron (la original no detectaba si un fichero ya estaba infectado), la añadieron “funcionalidad” o condiciones de activación especiales (como el viernes 13). Además fue el precursor de la primera familia de virus. En 1988 Robert Morris Jr, el hijo del programador de CoreWar y Creeper creó el primer gusano que infectó miles de máquinas y prácticamente colapsó Arpanet usando un bug de Sendmail. En los años posteriores la creación de virus fue extendiéndose cada vez más, creándose mutaciones de virus famosos que a su vez se hacían más famosos llegando a una espiral de mejoras en las rutinas y metodologías que no ha disminuido aún en día.

Los virus de macro

En 1995 empezaron a aparecer unos ficheros que, sin ser ejecutables, infectaban y se autocopiaban a otros documentos mediante el uso de lenguajes de macros de las herramientas de ofimática más importantes. Además estos virus no se restringían a los documentos si no que podían eliminar ficheros o borrar discos duros completos.

El boom de los virus por internet

En 1999 comenzaron a detectarse virus que viajaban como adjuntos de correos electrónicos,como el virus Melissa, el LoveLetter o virus más fatídicos como el CIH y comenzaron a incluirse los virus en lenguajes como VisualBasic Script, extensiones de Shell o Javascript y virus que aprovechaban vulnerabilidades para instalarse y usar la nueva máquina como base para más ataques.

Además familias de virus como MyDoom, Netsky o Beagle han demostrado la buena organización que poseen los creadores de virus y auténticas batallas entre distintas facciones para hacerse con el control de los ficheros. En los últimos tiempos han aparecido incluso pruebas de concepto de virus multiplataforma que infectan tanto sistemas Windows como sistemas Linux o Mac y que serán el prólogo a una nueva ola de virus que aprovechen estas características para llegar a más objetivos y facilitar la creación de redes de Zombies (ordenadores comprometidos que obedecen órdenes enviadas por internet).

martes, 20 de julio de 2010

ALGORITMOS PROGRAMACIÓN: Vuelta atrás.

Introducción.

- Se emplea en muchos problemas de
optimización donde la búsqueda responde a
una estrategia que respete ciertas
restricciones.

- Realiza un estudio exhaustivo de un conjunto
conocido a priori de posibles soluciones, en
las que tratamos de encontrar una o todas las
soluciones, y por tanto, la óptima.

- Vuelta Atrás (VA) proporciona una manera
sistemática de generar todas las posibles
soluciones, siempre que dichas soluciones
sean susceptibles de resolverse en etapas..

- VA se asemeja a un recorrido en profundidad
dentro de un árbol de búsqueda, cuya
existencia sólo es implícita, ya que sólo
haremos uso de su organización (árbol), en
que cada nodo de nivel k representa una parte
de la solución formada por k etapas que se
suponen ya realizadas. Sus hijos son las
prolongaciones al añadir una nueva etapa.
- Para examinar el conjunto de posibles
soluciones, basta con recorrer el árbol
construyendo soluciones parciales a medida
que se avanza en el recorrido. Si el recorrido
tiene éxito ® Solución (hoja del árbol). Se
puede continuar buscando otras soluciones o la
mejor de todas ellas o bien parar la búsqueda.

- El recorrido no tiene éxito si en alguna de las
etapas, la solución parcial construida no se
puede completar ® Nodo fracaso. En este
caso VA retrocederá en el recorrido a uno o
más caminos no explorados que puedan
conducir a una solución.
- Es un proceso de “prueba y error”, en el que
se va trabajando por etapas, construyendo
gradualmente la solución. Esta forma de
trabajo “de probar”, crece en cada etapa de
forma exponencial por lo que para ciertos
problemas debe ser evitado este método de
resolución.

- La eficiencia de un algoritmo VA proviene de
considerar el menor conjunto de nodos que
pueden llegar a ser soluciones.

- Las condiciones a comprobar sobre cada
nodo a fin de detectar nodos fracaso deben
ser tal que permitan ahorrar tiempo al
delimitar el tamaño del árbol a explorar. Esta
evaluación requiere un tiempo extra, por lo
que deben ser evaluaciones sencillas que no
requieren más tiempo en su cálculo que el
que nos llevaría analizar la parte del árbol
que se puede evitar.

-
Las evaluaciones más costosas se reservan
para casos desesperados en que el árbol
generado es muy grande.

Búsqueda de soluciones sobre un
árbol

En general para poder aplicar el método, la
solución a nuestro problema debe poder
expresarse como una n-tupla (x1,x2, ...,xn)
donde los xi representan elecciones de algún
conjunto finito Si.
Es decir, cada componente xi se elige en
cada etapa de entre un conjunto finito de
valores.
Cada etapa es un nivel en el árbol.

Para generar el árbol de búsqueda

Descomponer en etapas la solución.
Dar significado a cada xi de la n-tupla
solución.
Dar las opciones posibles en cada etapa, y
así estará definida la estructura del árbol a
recorrer.
El problema consiste, muchas veces, en
encontrar los valores de un vector que
maximiza, minimiza o satisface una función
objetivo.

Forma de trabajo bajo Vuelta Atrás.
Exploración del conjunto de posibles
soluciones de manera metódica y ordenada,
intentando dividir dichas soluciones en etapas.
Se realiza una descomposición representada
en forma de árbol.
Donde, Árbol (estructura conceptual no real):

Nodo: representa un fragmento de solución
que está formada por las k etapas previas ya
resueltas.

Sucesores: posibles prolongaciones del nodo al
añadir una nueva etapa.
Para recorrer el conjunto de posibles
soluciones basta con recorrer este árbol.
Diferencias con Algoritmos voraces.

La elección de un sucesor en una etapa no
implica su elección definitiva.

Diferencias con Programación Dinámica.

Son más sutiles.
En PD cuando todos los subproblemas se
resuelven directamente, el estudio directo de
todos los casos es en realidad Vuelta Atrás.
En PD se almacenan los resultados para no
tener que recalcular y en Vuelta Atrás no se
puede hacer, pues son muchísimos los casos.

jueves, 1 de julio de 2010

Internet 100 veces más rápido

Internet ha multiplicado de manera increible tanto su velocidad como su ancho de banda a lo largo de su corta vida. El aumento exponencial del número de usuarios y la gran demanda de ambas que requieren desde las nuevas páginas web, los portales de 'streaming' de vídeo o los videojuegos en línea han permitido un despliegue de tecnología de telecomunicaciones como nunca había visto la historia.

Ahora, un laboratorio del MIT ha propuesto unos cambios que podrían permitir un Internet 100 veces más rápido.

La Red de redes es un organismo extremadamente complejo. A pesar de su gran descentralización, lo cierto es que entre nuestro ordenador personal y el resto de nodos de Internet hay un camino mucho más largo y jerarquizado de lo que imaginamos.

Simplificando, Internet se subdivide en pequeñas internets conocidas como Sistemas Autónomos (AS) interconectados unos con otros. Normalmente cada ISP (proveedor de Internet) cuenta con uno o varios. Cuando te conectas a Internet, lo haces realmente a tu AS, que se encarga de anunciar al resto de la Red que tú estás ahí, y a dirigir de la manera más eficaz posible tus conexiones.

Estos AS se interconectan entre sí a través de enormes cables de fibra óptica y routers BGP. Entre estas máquinas y cables existe Internet tal y como lo conocemos, con sus videoconferencias a tiempo real, su 'streaming' de vídeo y poder leer o escribir blogs sin importarnos en qué parte del mundo se guardan esos datos.

El cambio propuesto por el MIT

Las ingentes cantidades de datos que pasan a través de los routers BGPllegan en forma de señal óptica, se convierten a señal eléctrica para poder almacenarse temporalmente, se vuelven a convertir en señal óptica y se envían al próximo nodo, hacia su destino. El almacenamiento temporal sirve para no interrumpir el servicio en caso de que se sature el canal. Según estos investigadores del MIT en el proceso de conversión a señal eléctrica y posterior almacenamiento temporal se pierden tanto tiempo como energía, y, por lo tanto, eficiencia.

Proponen, por lo tanto, con un método al que llaman 'flow switching', establecer canales dedicados entre nodos que se envían grandes volúmenes de información de tal manera que sólo puedan recibir de un único nodo y enviar a otro. Al no tener varias fuentes de entrada no puede haber una saturación del canal y, por lo tanto, no haría falta convertir a señal eléctrica, ni almacenar. El ahorro en tiempo y en gasto energético sería considerable.

Además esto podría hacerse sólo para unas determinadas longitudes de onda, dotando de cierta flexibilidad a un sistema que, según sus propios modelos informáticos, los creadores estiman que podría llegar amultiplicar por 100 la velocidad de la Red. No es probable que lo veamos en el corto plazo porque implantarlo supondría una inversión multimillonaria y cambiar gran parte de las infraestructuras de esa gran Internet que ocurre entre Sistemas Autónomos.

¿Significaría esto aumentar 100 veces la velocidad de nuestras conexiones desde casa o el trabajo? En principio no, porque el cambio no ocurriría a ese nivel, aunque sí dotaría a la Red de la capacidad necesaria para que así fuera. Realmente, desde nuestras conexiones ADSL no habría mucha diferencia. Como máximo, al haber menos congestión en la Red, sí notaríamos que nuestra vida digital transcurre más fluida.

Información publicada por el Mundo 01/07/2010.

miércoles, 23 de junio de 2010

Algebra Lineal: Teoremas más importantes relativos a retículos.

En matemática, un retículo es una determinada estructura algebraica con dos operaciones binarias, o bien un conjunto parcialmente ordenado con ciertas propiedades específicas (siendo equivalentes ambos enfoques). El término "retículo" viene de la forma de los diagramas de Hasse de tales órdenes.

Teoremas

- Proposición 1 : Todo retículo finito (X,≤) esta acotado.

- Teorema 2 : Un retículo (X,∧,∨) es no distributivo si, y solo si, tiene un subrepticio de cinco elementos isomorfo a alguno de los retículos R1 o R2 ya conocidos.

- Proposición 3 : En un retículo (X,∧,∨,O, I) distributivo y acotado, el complementario de cada elemento, si existe, es único

- Teorema 4 : En un retículo (X,∧,∨) distributivo y finito, todo elemento se expresa, de forma única salvo el orden, como disyunción de elementos disyuntivamente irreducibles no comparables.

- Teorema 5 : En un retículo complementario, los elementos disyuntivamente irreducibles distintos del neutro son átomos

- Teorema 6 : En un retículo distributivo, complementario y finito, todo elemento distinto del neutro se escribe, de forma única salvo el orden, como disyunción de átomos

Retículos distributivos

Observes que cuando un retículo es distributivo los teoremas anteriores no nos sirven para probarlo (el hecho de que todo elemento se exprese de forma única como disyunción de elementos disyuntivamente irreducibles no significa que el retículo sea distributivo, como tampoco debe serlo necesariamente si cada elemento tiene un complementario o ninguno; solo podrá usarse el teorema 2: podría probarse, hallando todos los subrepticios de cinco elementos, que ninguno es isomorfo a R1 o a R2).

Sin embargo, podemos llegar a la conclusión de que un retículo no es distributivo da varia maneras, usando los teoremas anteriores.

* Directamente, probando que existen elementos ax, y, za tales que ax ∧ (y ∨ za) 6= (ax ∧ y) ∨ (ax ∧ za), o bien que ax ∨ (y ∧ za) 6= (ax ∨ y) ∧ (ax ∨ za) (por definición).

* Probando la existencia de algún subrepticio isomorfo a R1 o a R2 (teorema 2.).

* Demostrando que algún elemento puede expresarse de dos o mas formas distintas como disyunción de elementos disyuntivamente irreducibles no comparables (teorema 4).

* Comprobando que algún elemento tiene dos o mas complementarios (proposición 3).

Retículos complementarios

Como antes, cuando un retículo es complementario no nos sirven los teoremas para probarlo; la única forma de demostrar que un retículo es complementario es comprobar que cada elemento tiene un único complementario (por ejemplo, del hecho de que los elementos disyuntivamente irreducibles distintos de O sean átomos no se puede deducir que el retículo deba ser complementario).

Si un retículo no es complementario, podemos probarlo de dos maneras distintas:

* Directamente, probando que hay elementos sin complementario o bien con mas de un complementario (por definición).

* Comprobando que existen elementos distintos de O que son disyuntivamente irreducibles pero no son átomos (teorema 5).

lunes, 21 de junio de 2010

Fibromialgia, una enfermedad del siglo XX.

Fobromialgia (FM) es un término acuñado en 1976 (del latín fibra=fibra, refiriéndose al tejido conjuntivo, del griego mio=músculo y algia=dolor3 ) que se refiere a un grupo de síntomas y trastornos músculo-esqueléticos poco entendidos, caracterizados fundamentalmente por dolor persistente, fatiga extrema, rigidez de intensidad variable de los músculos, tendones y tejido blando circundante, y un amplio rango de otros síntomas incluyendo psicológicos, dificultades para dormir, rigidez matutina, dolores de cabeza y problemas con el pensamiento y la memoria, algunas veces llamados «lagunas mentales»,que suelen impedir el funcionamiento rutinario del sujeto. Es un trastorno no contagioso presente en el 3% y el 6% de mujeres jóvenes, comúnmente entre 20 y 50 años de edad.

La fibromialgia es considerado un diagnóstico controvertido, algunos autores alegando que no es una enfermedad, debido en parte a la falta de anormalidades en el examen físico, exámenes de laboratorio objetivos o estudios de imágenes médicas para confirmar el diagnóstico. Aunque históricamente ha sido considerada un trastorno musculo-esquelético y neuro-psiquiátrico, las evidencias de investigaciones realizadas en las últimas tres décadas han puesto de manifiesto alteraciones en el sistema nervioso central que afectan a regiones del cerebro que pueden estar vinculadas tanto a los síntomas clínicos y a fenómenos descubiertos durante investigaciones clínicas. Aunque todavía no existe una cura universalmente aceptada para la fibromialgia, hay tratamientos que han demostrado durante ensayos clínicos controlados ser eficaces en la reducción de los síntomas, incluyendo ciertos fármacos, la educación del paciente, el ejercicio, y las terapias conductuales.

Historia

Propaganda de remedios incluyendo una aparente cura de la neurastenia, nombre dado en el siglo XIX a la fibromialgia.

La primera descripción parece haber sido la del británico sir Richard Manningham en su publicación de febrícula o fiebre baja y fatiga, citando descripciones similares a las hechas por Hipócrates. En 1869 el médico estadounidense George M. Beard escribió un libro llamado «American Nervousness» utilizando el término de neurastenia, aplicado a las personas que presentaban pérdida de fortaleza, fatiga o cansancio de manera crónica. En 1843 el anatomista Robert R. Froriep describió una asociación entre reumatismo y puntos dolorosos de músculos rígidos: Musckelschwiele.

Epidemiología

Se sabe que esta enfermedad afecta más a mujeres que a hombres en una proporción de 9~10:1,17 y que podría afectar a un 3-6% de la población general. Se observa mayoritariamente entre los 20 y los 50 años de edad, aunque existen casos de niños y ancianos aquejados de esta enfermedad. Afecta a un 4,5% de las mujeres adultas de la población general española y 0,2 de los hombres adultos. Estos datos contrastan con prevalencias cercanas al 10% en países como Israel, Estados Unidos, Gran Bretaña o Canadá. Entre 10 y 20% de los ingresos a clínicas especializadas en reumatología reciben el diagnóstico de fibromialgia, sin embargo se estima que alrededor del 90% de los enfermos con fibromialgia permanecen sin diagnóstico, ya sea por desconocimiento de los profesionales de salud acerca de la enfermedad o porque muchos profesionales no la han querido reconocer como tal. Las personas con artritis reumatoide y otras enfermedades auto-inmunes tienden particularmente a desarrollar fibromialgia.

Etiología

Aunque las causas aún no han sido bien aclaradas, se piensa que puede estar causada o agravada por estrés físico o mental, traumatismo físico, exposición excesiva a humedad o frío, sueño deficiente o padecer una enfermedad reumática. Muchos de los casos empiezan después de hechos puntuales, como infecciones víricas o bacterianas, accidentes de automóvil, tras una fuerte depresión etc. La fibromialgia también puede aparecer sin ningún factor predisponente.

Han podido integrarse, así, teorías que abarcan las diferentes y complejas relaciones entre los mecanismos de sueño-vigilia (trastornos del ritmo circadiano), el eje hipotalámico-hipofisario-adrenal, los centros de procesamiento de las vías del dolor (fenómenos de sensibilización central y periférica del dolor) y el sistema nervioso autónomo (alteraciones en el tono autonómico o simpático-vagal: hiperactividad simpática sostenida con hiperactividad simpática ante el estrés).

Genética

Algunas teorías apuntan hacia una predisposición genética, pues la fibromialgia es 8 veces más frecuente entre miembros de la misma familia,destacando especialmente las investigaciones sobre el gen COMT q6

Otros estudios han encontrado elevados niveles de anticuerpos anti-polímero en pacientes con fibromialgia, lo que podría indicar que se trata de una enfermedad auto-inmune.

Factores psicosomáticos

La ansiedad y la depresión producidas por alteraciones emocionales (separación matrimonial, problemas con los hijos, pérdida de empleo, fracaso profesional, etc.) y la tristeza que se producen como reacción al malestar continuado que provoca la enfermedad también podrían ser factores desencadenantes de este problema de salud. En un 62% de los pacientes en un estudio con diagnóstico de fibromialgia demostraron tener trastornos psíquicos relevantes que requerían tratamiento profesional, mientras que entre los pacientes con el diagnóstico de artritis reumatoide, tenían una pre valencia de trastornos psíquicos de un 28,6%.

Estrés

Muy probablemente, la relación entre estrés y fibromialgia sea mucho menos lineal de lo que indican algunos autores o quede limitada a un subgrupo concreto de pacientes que aún no se logra identificar.

Un número de investigaciones han demostrado que el estrés es un importante factor predisponente en el desarrollo de la fibromialgia. En consecuencia, se ha propuesto que la fibromialgia sea el resultado de cambios inducidos por el estrés en la función e integridad del hipocampo. Esta propuesta se basa en parte en observaciones de estudios pre-clínicos en primates no humanos en que la exposición a coacción psicosocial resulta en cambios a los tejidos del cerebro, incluyendo cambios atróficos y cambios metabólicos en el complejo del hipocampo. Las pruebas que apoyan esta hipótesis se han generado fundamentalmente de dos estudios que utilizaron espectroscopia por resonancia magnética de voxel simple o monovóxel (1H-MRS) para demostrar alteraciones metabólicas en el complejo del hipocampo en pacientes con fibromialgia con correlaciones significativas entre las alteraciones metabólicas del hipocampo y la gravedad de los síntomas clínicos.

Trastornos del sueño

Dentro de las teorías actuales sobre la patogénesis de esta enfermedad se encuentran las alteraciones en la arquitectura del sueño, alteraciones en el funcionamiento del sistema nervioso autónomo y fenómenos de procesamiento anormal del dolor (sensibilización al dolor).

Estudios de electroencefalografía (EEG) han demostrado que pacientes con fibromialgia, presentan intrusiones en el sueño de onda lenta y que las circunstancias que interfieren con la etapa cuatro del sueño, tales como el dolor, la depresión, la deficiencia de serotonina, ciertos medicamentos o la ansiedad, pueden causar o empeorar el trastorno. De acuerdo con la hipótesis de la alteración del sueño, un acontecimiento como un traumatismo o una enfermedad causa trastornos del sueño de tal manera que inicie el dolor crónico que caracteriza a la enfermedad. La hipótesis supone que la etapa cuatro del sueño es fundamental para la función del sistema nervioso mediado por la serotonina y el triptófano, ya que es durante esta fase, que algunos procesos neuroquímicos en el cuerpo se "restablecen".En particular, el dolor provoca la liberación del neuropéptido sustancia P en la médula espinal, que tiene un efecto amplificador del dolor y causando que los nervios próximos a aquellos que inician el estímulo se vuelvan más sensibles al dolor. La teoría entonces supone que la falta de sueño, por cualquier motivo, puede convertirse en una fuente de inicio de la enfermedad y sus síntomas.

Dolor

El principal síntoma de la fibromialgia es el dolor musculo-esquelético difuso y generalizado o rigidez prominente que afecta al menos 3 localizaciones anatómicas por más de 3 meses, sin lo cual no se puede realizar el diagnóstico del trastorno. El dolor suele ser intenso y en muchas ocasiones difícil de describir, y en general, empeora con el ejercicio físico intenso, el frío y el estrés emocional.

Los sitios frecuentes en los cuales se presentan los síntomas de fibromialgia incluyen la región lumbar (espalda baja), cuello, tórax y muslos. La alteración de los músculos se refiere a un calambre doloroso y localizado que en ocasiones se asocia con otros problemas (embarazo, por ejemplo). En algunos casos se observa espasmo muscular localizado.

Otros síntomas adicionales pueden incluir incontinencia urinaria, dolor de cabeza, migrañas, movimientos periódicos anormales de las extremidades (movimientos paroxísticos), en especial de las piernas (síndrome de pierna de gatillo), dificultad de concentración y dificultad para recordar cosas (mala memoria); también es frecuente un aumento de la sensibilidad táctil, escozor generalizado, resequedad de ojos y boca, zumbidos y campanilleos en los oídos (acúfenos), alteraciones de la visión (fosfenos) y algunos síntomas neurológicos de incoordinación motora. Se ha asociado a la enfermedad de Raynaud como una manifestación clínica de rara presentación durante el curso de esta enfermedad.

Trastornos psíquicos

Entre el 70 y el 90% de los pacientes con fibromialgia refieren también trastornos del sueño, expresados como un sueño no reparador, ligero e inestable. Se suelen asociar además un grupo heterogéneo de síntomas incluyendo debilitamiento intenso (adinamia) y hasta incapacitante (astenia), alteraciones del ritmo intestinal, rigidez en las extremidades superiores o inferiores, y muy frecuentemente episodios depresivos acompañados de crisis de ansiedad. Los trastornos del sueño son muy frecuentes en pacientes con dicha patología. Estos trastornos consisten básicamente en abundantes pesadillas, sueño no reparador, que puede ser el causante de un trastorno conocido como hipersomnio diurno, y gran cantidad de descargas dolorosas en los músculos durante el sueño.

Cansancio y fatiga

La fatiga en grado extremo está presente en todas las actividades que realizan las personas con fibromialgia, por lo que sus tareas cotidianas se ven inevitablemente dificultadas. Dependiendo de la gravedad y de la variación del grado, este cansancio puede ser desde soportable hasta una discapacidad casi infranqueable que limita sus tareas tanto en el ámbito familiar como en el profesional.

Aceptar estas importantes limitaciones es difícil, sobre todo en los inicios de la enfermedad, y muchos pacientes tardan en aceptarlo, empeñándose en realizar tareas de la misma forma que antes de su enfermedad. Esto es un error que lleva a empeorar cada vez más su salud. Lo cierto es que algunas tareas tendrán que dejar de realizarse, mientras que otras habrán que llevarse a cabo de una manera adaptada y menos perjudicial para su salud, si quieren mejorar.

Aunada inseparablemente a este cansancio, como causa que lo aumenta y agrava, está la mala calidad del dormir, que impide a quienes tienen este padecimiento tener un sueño reparador y, por consiguiente, impedirá el descanso y dificultará el alivio del dolor.

Ahora bien, aunque en algunas ocasiones el cansancio puede ser extenuante y los síntomas parecidos a los de la fatiga crónica, hay que saber que esta enfermedad, entre sus características, incluye cansancio y fatiga a un nivel mucho más profundo y discapacitante. En todo caso, es el especialista correspondiente quien tiene que diagnosticar una u otra enfermedades o, en todo caso, las dos, pues también es posible que se padezcan conjuntamente.


viernes, 11 de junio de 2010

Calzoncillos 'inteligentes'

Un equipo de científicos estadounidenses ha diseñado nuevos calzoncillos "inteligentes" que, además de ser cómodos, duraderos yhasta elegantes, podrían salvar vidas.

En el elástico, la prenda tiene impreso un biosensor electrónicoque está en constante contacto con la piel y puede medir la presión arterial, el ritmo cardíaco y otros signos vitales.

La tecnología, desarrollada por el profesor de nanoingeniería Joseph Wang, de la University of California San Diego y su equipo, puede revolucionar el campo de la ropa inteligente y es parte de un cambio que consiste en pasar del tratamiento basado en el hospital al cuidado en casa.

Localizar heridas y lesiones

El método es similar al estampado serigráfico convencional, pero la tinta que se utiliza para estampar el sensor contiene electrodos de carbono. El proyecto es financiado por el Ejército estadounidense y los soldados probablemente serán los primeros en probarlo.

"Esta iniciativa específica involucra el monitoreo de las lesiones de los soldados durante la cirugía en el campo de batalla, y el objetivo es desarrollar sensores mínimamente invasivos que puedan ubicar (...) e identificar el tipo de herida", dijo Wang.

En última instancia, el biosensor que detecta la lesión también podría dirigir la emisión de fármacos para aliviar el dolor y hasta tratar la herida.

Medicina personalizada

Las posibles aplicaciones de esta tecnología van más allá del Ejército. "Prevemos la tendencia de la medicina personalizada para monitorear remotamente a los ancianos en su casa, controlar una amplia variedad de marcadores biomédicos, por ejemplo cardíacos, alertar sobre un posible accidente cerebrovascular y cambios diabéticos", entre otros, dijo Wang.

Los biosensores en la ropa también pueden ofrecer información valiosa a los atletas e incluso medir los niveles de alcohol en sangre.

Pero Wang dijo que puede pasar un tiempo hasta que estos calzoncillos inteligentes puedan ser usados por los soldados en el campo de batalla, porque se necesita más investigación para garantizar que los sistemas de monitoreo sean fuertes y durables como para superar el desgaste de la actividad diaria.

Sin embargo, opinó que cada vez hay más necesidad de desarrollar sistemas de monitoreo de salud fiables y aptos para llevar en la ropa.