Este diálogo –tan común en la adolescencia– tiene un elemento adicional que lo hace sonar algo raro. Después de todo nadie tiene dos mamás ¿O sí?
Emma Ott nació en 1997 en Pensilvania y fue la primera persona del mundo que fue concebida a través de una revolucionaria técnica de fertilización in vitro. Sus padres –que no habían podido concebir de manera natural ni mediante los métodos tradicionales de fertilización in vitro– habían decidido someterse a un nuevo tratamiento, llamado “transferencia citoplásmica”. Los expertos en fertilidad sospechaban que algo andaba mal con las mitocondrias en los óvulos de algunas mujeres, lo que impedía que lograran concebir. Las mitocondrias son pequeñas estructuras que se encuentran dentro de nuestras células y tienen como función producir parte importante de la energía que las células requieren. La idea fue que tal vez si le transferían a los óvulos defectuosos algunas mitocondrias de un óvulo sano podrían lograr una fertilización exitosa. Mediante esta técnica nacieron 17 niños en EEUU, incluyendo a Emma. Análisis genéticos realizados a estos niños mostraron que en al menos dos casos se lograba detectar material genético de la donante del citoplasma. Esto ocurre porque las mitocondrias poseen su propio material genético, incluyendo 32 genes que son heredados exclusivamente por vía materna. Debido a la ausencia de pruebas concluyentes sobre los efectos de esto, la FDA decidió prohibir esta técnica en EEUU el año 2001.
Alana Saarinen es uno de los dos casos en los que se detectó material genético de la donante. Es una adolescente típica y conoce perfectamente su historia. “Mucha gente dice que mi cara es parecida a la de mi mamá y que mis ojos son similares a los de mi papá. Tengo algunas cosas de ambos, incluyendo algunos rasgos de mi personalidad. Y también tengo DNA de una tercera persona, pero no la considero una mamá, tan solo tengo algunas de sus mitocondrias”.
Alana Saarinen
Esta historia podría sufrir un vuelco enorme hoy, cuando en Inglaterra se vote si se permite emplear una técnica similar que ex profeso dará lugar a embriones que llevan el material genético de tres personas: un papá, una mamá y una donante de mitocondrias.
A diferencia de la transferencia citoplásmica, la técnica en discusión tiene como objetivo reemplazar TODAS las mitocondrias de la madre, debido a la presencia de mutaciones en su genoma que producen enfermedades devastadoras en la descendencia. Existen dos formas de hacer esto: en la primera se toma el óvulo de la madre, se le extrae el núcleo y se inserta en el óvulo sin núcleo de la donante. De esta forma ahora las mitocondrias del óvulo son de la donante, pero el núcleo –donde reside 99,9% de la información genética– es el de la madre. La otra forma de hacerlo es tomar el ovulo fecundado y transferir ese núcleo a un óvulo anucleado de la donante. En ambos casos todas las mitocondrias de ese embrión provendrán de una donante y por lo tanto serán seres humanos que llevan el material genético de tres personas diferentes.
Los dos métodos de reemplazo mitocondrial que podrían ser aprobados en Inglaterra
La discusión en Inglaterra ha sido intensa. Por un lado, el debate ético ha girado en torno al derecho de los padres por concebir hijos sanos, contrastándolo con el posible impacto de emocional que esto podría tener en los hijos concebidos de esta forma. Desde el punto de vista biológico se han realizado ensayos con esta nueva metodología en monos, los que han resultado en casos exitosos de reproducción y producción de células madre
Una revisión de evidencia realizada por la Autoridad en Embriología y Fertilziación Humana del Reino Unido no encontró riesgos biológicos asociados a esta metodología, por lo que es muy probable que el debate se centre es los aspectos éticos y legales.
Por lo pronto la donante de mitocondrias no tendrá ningún derecho u obligación parental sobre los niños concebidos de esta forma. El genoma humano tienen cerca de 20.000 genes y solo 32 de ellos residen en el genoma mitocondrial, por lo que la donante aporta menos del 0,2% del material genético en este procedimiento. Por otro lado, las enfermedades mitocondriales tienen un muy mal pronóstico y por lo general las personas que las padecen no llegan a vivir muchos años, llegando rara vez a la adultez. Estas enfermedades afectan principalmente al cerebro, los músculos y el hígado y entre ellas se encuentra el Síndrome de Leigh.
Es muy probable que otro de los aspectos que será largamente debatido tenga que ver con la intervención de la línea germinal. A diferencia de otros procedimientos médicos disponibles en la actualidad que involucran tejidos de donantes –por ejemplo, un transplante de órganos– en este caso se altera la información genética que será pasada a la descendencia, algo que en humanos nunca se ha hecho hasta ahora. Por otra parte, esto no es lo mismo que hacer niños «a pedido», ya que no hay selección de caracteres como color de pelo, inteligencia o estatura: se trata de eliminar los genes defectuosos asociados a enfermedades que, se sabe, son devastadoras y para las cuales no hay cura. Será interesante ver como se debate este tema en Inglaterra, más aún pensando que en Chile recién estamos debatiendo una ley que permita a las mujeres abortar bajo ciertas condiciones.
Edward Jenner (1749-1823) fue un médico inglés cuyo trabajo resultó fundamental para erradicar de nuestro planeta una enfermedad. Las consecuencias de esto son notables: nunca más en la historia de la humanidad hubo un solo caso de esa enfermedad. Estoy hablando de la viruela, cuyo último diagnóstico se declaró oficialmente el 26 de octubre de 1977. Eso quiere decir que muchos de los lectores de este blog nacieron después de que la viruela fuera erradicada de este planeta y por lo tanto es probable que jamás hayan oído hablar de esta enfermedad. Para que se hagan una idea: la viruela es una enfermedad grave, muy contagiosa, producida por alguno de los dos tipos de virus Variola. Apareció en las poblaciones humanas hace unos 10.000 años atrás y produjo varias epidemias que resultaron devastadoras. La tasa de mortalidad de la viruela era cercana al 35% y quienes sobrevivían quedaban generalmente desfigurados debido a las pústulas que aparecían abundantemente en la piel. Otras secuelas relativamente frecuentes eran la ceguera o problemas a los huesos.
Una niña en Bangladesh enferma de viruela (1972)
Nunca existió un tratamiento para la viruela. Lo único que se podía hacer cuando una persona se enfermaba era aislarla y tratar los síntomas. Sin embargo, existía una forma bastante efectiva de protegerse de la enfermedad: una vacuna. Los orígenes de esta vacuna se pueden trazar hasta el siglo XV en China, donde se tomaban pústulas de pacientes con viruela que mostraran casos más leves. De estas pústulas se preparaba un polvo que era aplicado por insuflación nasal a las personas que se quería inmunizar, las que adquirían por lo general una forma menos agresiva de la viruela, después de la cual su sistema inmune desarrollaba un tipo de inmunidad natural contra una segunda infección. Esta metodología –conocida como variolización– llegó posteriormente a Europa, donde era aplicada a través de incisiones en la piel. Los riesgos de la variolización eran bastante altos, ya sea por las infecciones derivadas del proceso y por el riesgo intrínseco que acarreaba la infección por viruela.
En 1765 el médico inglés John Fewster publicó un artículo científico en el que describía como un procedimiento similar a la variolización era muy efectivo para inmunizar humanos cuando se usaban pústulas de vaca infectadas con una enfermedad similar a la viruela humana (llamada viruela bovina o cowpox). La viruela bovina podía transmitirse a los seres humanos, pero causaba síntomas muy leves y no era mortal. Se había descrito que las mujeres que trabajaban en las lecherías ordeñando a las vacas –y que estaban expuestas a la viruela bovina– no contraían la viruela humana: eran inmunes. A partir de 1770 se describieron varios casos de inmunización humana contra la viruela usando esta metodología, bautizada como vacuna por Edward Jenner, quien realizó la primera descripción metodológica del uso de esta técnica. La palabra vacuna deriva del nombre del virus de la viruela bovina, Variolae vaccinae, y fue propuesta más tarde por Louis Pasteur para referirse a todas las formas de preparados usados para inducir inmunidad adquirida contra enfermedades.
Considerando los graves síntomas de la viruela y la forma relativamente fácil que existía para protegerse contra ella, resulta casi incomprensible que junto con la vacuna contra la viruela hayan aparecido los primeros grupos antivacunas, que rechazaban su uso. Entre otras cosas, estos grupos proclamaban que las personas que se aplicaban extractos de vaca en el cuerpo corrían el riesgo de que les salieran vacas por distintas partes del cuerpo o que, en casos más extremos, se convertirían en vacas.
«Los maravillosos efectos de la nueva inoculación», caricatura aparecida en un diario de Inglaterra en junio de 1808 y publicada por la Sociedad Anti-Vacunas
También algunos líderes religiosos de la época se manifestaron en contra el uso de las vacunas, ya que era una forma de contradecir la voluntad de Dios. Sin embargo, actualmente la mayoría de las corrientes religiosas apoya la vacunación, incluyendo a los Hinduístas, Budistas, Católicos, Amish, Judios y Musulmanes. La única excepción eran los Testigos de Jehová, los que con el tiempo y a partir de 1990 han mostrado un creciente apoyo a la vacunación. A pesar de esto, en EEUU hay 48 estados que permiten evitar una vacuna obligatoria por razones religiosas (como contraste, solo 20 estados permiten no vacunar por objeciones filosóficas o personales). En un caso reciente, el estado de Nueva York fue demandado por un padre cuyo hijo fue suspendido del colegio por no tener todas sus vacunas. El padre adujo razones religiosas (aunque se declaró Católico Romano) y finalmente perdió el juicio, junto con otras dos familias que también habían presentado la misma demanda.
En el caso de la viruela, se impulsó una campaña mundial de vacunación que finalizó en 1980, cuando la OMS la declaró oficialmente erradicada de nuestro planeta. El último caso registrado de manera natural ocurrió en Somalia en 1977. Sin embargo, hubo un caso adicional en 1978, pero ocurrió debido a un accidente: una cepa del virus se escapó de un laboratorio de virología en el Reino Unido y una fotógrafa que trabajaba ahí –Janet Parker– murió por la infección. La última muerte relacionada con la viruela fue la del científico a cargo del laboratorio desde donde escapó el virus, quien se suicidó.
No vacunar ¿una decisión personal?
Uno de los primeros argumentos de los grupos antivacunas, esgrimido hasta el día de hoy, dice relación con la libertad individual de decidir qué cosa inyectarse en el cuerpo. La lógica es que la vacunación se trata de una decisión personal y por lo tanto puedo objetarla sin más argumentos. Y es desde aquí –partiendo del argumento más recurrente y antiguo de estos grupos– donde se puede observar la profunda ignorancia y arrogancia de su postura. No saben nada de inmunología, epidemiología, química o biología y pretenden dictar cátedra sobre lo que está bien en materia de salud humana. Resulta realmente insólito que estos grupos enarbolen la bandera de las libertades individuales para poner en riesgo la salud de todos nosotros. ¿Debemos oponernos a los grupos antivacunas? Por supuesto, y con gran fuerza. Existe un concepto clave en epidemiología conocido como inmunidad de grupo (o colectiva). Este concepto permite explicar otro de los argumentos usados frecuentemente por los grupos antivacunas, en el que cuentan como un pariente (generalmente una tía o abuela) «nunca se ha vacunado y jamás se ha enfermado«. Vamos, eso no es magia ni buena suerte. Mucho menos quiere decir que las vacunas no son necesarias. Es simple lógica: si en una población la inmensa mayoría de las personas está vacunada contra una enfermedad, las probabilidades de que alguien no vacunado la contraiga es muy baja. Eso es la inmunidad de grupo: la población vacunada le confiere inmunidad indirecta a los no vacunados ya que es muy poco probable (pero no imposible) que una enfermedad se propague en una población en la que la mayoría de los individuos está vacunado. Sin embargo, a medida que más personas dejan de vacunarse, se rompe la inmunidad de grupo. Esto nos afecta a todos y por lo tanto no se trata de una acción con consecuencias individuales.
Para que la inmunidad de grupo funcione en la contención de epidemias es necesario que la mayor parte de la población esté vacunada.
Los grupos antivacunas han usado varias estrategias para instalar la duda en la población con respecto a la seguridad de las vacunas. Una corriente ha usado la falacia del hombre de paja: reducir las vacunas a una mezcla de virus y metales pesados que serán inyectados en los niños. Esto apareció en el muro de Facebook de un grupo antivacunas:
“If you mixed mercury, aluminum phosphate, ammonium sulfate, and formaldehyde with viruses, then got a syringe and injected it into your child, you would be arrested and sent to jail for child endangerment and abuse. Then why is it legal for doctors to do it? And why would you let them? Educate yourself»
En castellano:
» Si mezclas mercurio, fosfato de aluminio, sulfato de amonio y formaldehído con virus y luego tomas una jeringa y lo inyectas en tu hijo, serías arrestado y enviado a la cárcel por negligencia infantil y abuso. Entonces ¿por qué es legal que los médicos lo hagan? ¿por qué los dejarías hacerlo? Edúcate a ti mismo «
Este argumento es de una ignorancia enorme y carece de todo sentido. Sin embargo, el post en Facebook tiene miles de «Like» y un montón de gente encuentra razonable comparar una vacuna a mezclar metales pesados con virus e inyectarlos en un niño. Ciertamente cualquier persona que en su casa mezcle metales pesados con virus y los inyecte en un niño merece ir a la cárcel, pero los vacunas no son eso. Si tratan de hacer un iPhone mezclando los componentes en su casa no obtendrán un iPhone. Si tratan de hacer una vacuna en su casa mezclando los componentes no obtendrán una vacuna. Las vacunas son el día de hoy productos de altísima tecnología desarrollados y elaborados con los estándares más altos de seguridad por profesionales expertos que se han formado durante más de 12 años en química, biología, inmunología e ingeniería. Es ridículo reducir las vacunas a esa parodia de segundo básico. Y hay gente que la compra.
Por otro lado, un grupo no menor de padres ha instalado la creencia de que las vacunas están relacionadas con el autismo, ya que contienen mercurio y el envenenamiento con este metal pesado causaría el autismo. Vamos por partes: efectivamente algunas vacunas (aquellas multidosis) contienen un conservante llamado timerosal (etilmercurio). El timerosal se empezó a usar luego que en 1928 varios niños murieran de una infección causada por la contaminación de una vacuna multidosis. No existe una sola pieza de evidencia científica que sugiera que el timerosal causa autismo. Más aún, todos los estudios retrospectivos que han analizado la incidencia de autismo en los países donde se ha eliminado el timerosal han mostrado que no se modifica la incidencia de autismo. Sin embargo, y en contra de la opinión de varias Sociedades Científicas y del propio Ministerio de Salud, el Congreso de Chile aprobó por unanimidad (85 votos a favor y 5 abstenciones) la eliminación por ley del timerosal de las vacunas, decisión que alteraría todo el plan nacional de vacunación. Esta postura fue impulsada por un grupo de padres (sin formación científica) y una diputada (sin formación científica) y fue aprobada por un congreso que no tiene un cuerpo científico asesor. La noticia fue comentada por el British Medical Journal, donde se destaca que en Chile –a diferencia del Reino Unido– no existe un cuerpo asesor que examine la evidencia científica, dejando en manos de una votación la decisión de temas técnicos. Finalmente un veto presidencial evitó la promulgación de la ley, algo que ciertamente ha sido bien recibido por la comunidad científica.
Orgullo nacional
Las vacunas no solo no son peligrosas: son las principales responsables de disminuir los casos fatales de enfermedades para las cuales hemos logrado desarrollar vacunas.
Finalmente, para cerrar el caso, les quiero recordar al personaje «el sombrerero» de Alicia en el País de las Maravillas. Se trataba de un personaje muy excéntrico, inspirado en una frase del idioma inglés que dice «Mad as a hatter» (más loco que un sombrerero). Esta frase popular deriva de varios casos de intoxicación con mercurio ocurridos en Inglaterra entre sombrereros, que usaban mercurio para preparar la felpa de los sombreros. Como pueden ver, los síntomas de intoxicación con mercurio no se parecen a los del autismo.
¿Es peligroso no vacunar?
Sí, absolutamente. Casos para comentar aquí, aquí y aquí. El último de ellos es el más reciente brote de sarampión en EEUU, que comenzó en Disney y que ya ha afectado a 67 personas. De estas, se tiene registro de vacunas para 34 y se encontró que 28 de ellas no habían recibido la vacuna contra el sarampión. Gran triunfo del movimiento antivacunas, que ha logrado hacer resurgir una enfermedad que hasta el año 2.000 se creía erradicada de EEUU. ¿No les parece lindo que la gente empieza a vivir de nuevo como en la Edad Media, muriendo de enfermedades totalmente prevenibles? ¿No les parece razonable que un grupo de padres se sienta con el derecho a decidir que enfermedad erradicada vuelve a enfermar a nuestros hijos?
Es por esta razón que debemos oponernos con fuerza a los grupos antivacunas; grupos que sin evidencia, sin lógica y sin razón pretender poner en riesgo la salud de todos nosotros. Hace 200 años puede que la gente efectivamente haya creído que les podían salir vacas del cuerpo. Hoy la historia es similar, pero ya no son vacas, sino que otras las calamidades anunciadas. Los prejuicios, la arrogancia y la ignorancia son los mismos.
Tomar un tiburón grande, descartar las entrañas, el cartílago y la cabeza. Cortar la carne en trozos grandes y lavar en agua corriente para eliminar la sangre y otros fluidos. Cavar un agujero grande en grava gruesa, de preferencia cerca del mar y lejos de la casa habitada más cercana (esto es para asegurarse de que el olor no moleste a nadie). Colocar los trozos de tiburón en el agujero y presionarlos bien juntos. Es mejor hacer esto cuando el clima es más bien tibio, ya que acelera el proceso de curación. Cubrir con más grava y poner piedras pesadas en la parte superior para presionar hacia abajo. Dejar durante 6-7 semanas (en verano) o 2-3 meses (en invierno). Durante este tiempo el líquido se drenará de la carne y el tiburón fermentará. Luego de este tiempo, lavar la carne, colgarla de ganchos y dejar curar por 2-3 meses en la sombra, hasta que se forme una costra café y gruesa. Luego cortar en trozos y comer.
Lo que acaban de leer es una clásica receta de Islandia, el hákarl o rotten shark: tiburón podrido. Quienes lo prueban por primera vez hacen arcadas, lo que no es raro si se tiene en cuenta que es un trozo de carne fermentada que huele y sabe como carne podrida marinada en amoniaco. Es una creación de los vikingos y les permitía comer la carne del tiburón islandés, que es extremadamente tóxica si se come fresca debido a la presencia de urea y óxido de trimetilamina. Muchos países tienen este tipo de platos típicos que saben horrible pero que son muy apreciados por los locales.
No es raro que en comidas menos exóticas que el hákarl aparezcan de pronto sabores que no nos agradan. Entre ellos el sabor amargo es probablemente el más molesto de todos. En general en la naturaleza el mal sabor es una señal para evitar un alimento y, sin embargo, los seres humanos insistimos sistemáticamente en desafiar este instinto. El café, la cerveza y los brócolis son claros ejemplos de esto último. Sin embargo, la clave para explicar la aversión de algunas personas al brócoli podría ir más allá de ser quisquilloso y estar asociada a los genes.
El gen de la amargura
La habilidad para percibir el sabor amargo –y los otros sabores básicos: dulce, salado, ácido y umami– depende de receptores que se encuentran en la lengua. Los receptores son proteínas a las que se unen ciertos compuestos y esto hace que el receptor inicie un impulso nervioso que termina en el cerebro, donde es interpretado como uno de los sabores básicos. En el caso del sabor amargo se han descrito más de 12 genes que codifican para ellos, siendo el más estudiado uno que se llama TAS2R38. Este gen presenta en la población dos variantes importantes: una se llama PAV, está presente en cerca de un 25% de las personas y es responsable de una gran sensibilidad a los compuestos amargos. La gente que tiene en su genoma está variante del receptor del sabor amargo tiene tendencia a evitar las comidas amargas, ya que son hipersensibles a su sabor. Por otro lado, las personas que poseen la variante AVI del receptor TAS2R38 son menos sensibles a él. ¿Podría explicar esta diferencia genética el que algunas personas sean quisquillosas con las verduras? Se diseñó un estudio para evaluar esta hipótesis reclutando a voluntarios a los que se les dio a comer espárragos, repollos (coles) de bruselas y repollo crespo, todas verduras con las que se describen diferencias en su amargor entre las personas PAV (hipersensibles) y AVI (insensibles). A los voluntarios se les midió la sensibilidad a un compuesto sintético llamado propiltiouracilo, que es percibido como muy amargo por los PAV y como muy poco amargo por los AVI. También se les tomó una muestra de sangre para determinar que variante del gen TAS2R38 poseían y durante un año se les hizo un seguimiento para evaluar el consumo total de verduras. Los resultados mostraron que efectivamente quienes llevaban la variantes PAV del gen eran más sensibles al propiltiouracilo, como era esperado. Sin embargo, el resultado más interesante es que el consumo global de vegetales –independiente de su sabor– fue significativamente más alto entre quienes eran menos sensibles al sabor amargo. De hecho, el consumo de verduras fue de unas 200 porciones más al año en este último grupo.
Izquierda: Diferencias en el consumo total de verduras (barras negras) entre quienes eran insensibles (nontasters) y sensibles (tasters) al propiltiouracilo. Además se muestra el consumo de verduras separados por grupos, dependiendo de la densidad de papilas gustativas (Barras blancas, bajo el promedio; barras rojas, sobre el promedio). Derecha: Mismo datos, pero ahora separados por genotipo (AVI/AVI, insensibles; PAV*, sensibles)
Otra relación interesante se encontró con el número total de papilas gustativas. Estas papilas contienen los receptores para los sabores y se encontró que quienes poseían una mayor densidad de papilas gustativas en la lengua comían más verduras. Los investigadores atribuyen esto a la mayor riqueza sensorial que experimentan al comer quienes poseen más papilas gustativas.
Me asusta (pero me gusta)
Estos resultados son muy interesantes porque ponen de manifiesto los importantes cambios en los hábitos alimenticios que pueden ser desencadenados por las diferencias en la percepción del sabor. Por ejemplo, el consumo de glucosinolatos –una familia de compuestos de sabor amargo presente en algunas verduras– han sido asociado a un menor riesgo de cáncer, por lo que sería bueno fomentar el consumo de verduras que lo contienen. El mismo grupo responsable de estos resultados investigó si era posible enmascarar el sabor amargo de algunas verduras y encontró que el aspartame podía hacerlo, particularmente entre quienes eran hipersensibles (PAV).
No obstante los genes, los seres humanos somos muy adaptables al sabor amargo. Un estudio realizado con una población Aymara de Perú mostró que en este grupo existía una alta sensibilidad por el sabor amargo. Sin embargo, para su agricultura resultaba importante un tipo particular de papa que era bastante amarga, así que les gustaba. Es muy probable que todos hayan odiado la cerveza la primera vez que la probaron, debido a su molesto sabor amargo, y ahora es muy probable que anhelen una buena cerveza helada en estas tardes de calor. Y las mujeres, cuando están embarazadas, se vuelven particularmente sensibles al sabor amargo.
Los científicos están tratando de entender las complejas interacciones entre el sabor amargo y las preferencias en la dieta, pero sin olvidar un aspecto algo más extraño: hay receptores de sabor amargo en el intestino, la nariz, el cerebro y los pulmones. ¿Cuál es el significado biológico de esto? Un estudio encontró que la variante hipersensible del receptor TAS2R38 estaba asociada a una menor incidencia de sinusitis: un compuesto secretado por bacterias era detectado por este receptor en la parte alta del sistema respiratorio, desencadenando una respuesta que tenía efectos antibacterianos.
Existen unos 550 compuestos químicos de sabor amargo y la tendencia es asociarlos a alimentos que podrían resultar tóxicos. En muchos casos es así: glucosinolatos y solaninas –compuestos de sabor amargo producidos de manera natural por muchas plantas– poseen actividad insecticida y pueden resultar tóxicos para los humanos en dosis altas. Sin embargo, durante milenios el hombre ha seleccionado aquellas variedades de plantas menos amargas y por lo tanto menos tóxicas. Por otro lado, estas plantas no pueden defenderse tan bien de los patógenos, ya que producen cantidades insuficientes de estos compuestos insecticidas.
«Otra muerte producida por el brocoli, la planta más mortífera que existe. Eso es lo que trata de advertirnos con su pésimo sabor.»
De esta forma, es muy probable que los agricultores de la antigüedad hayan usado el sabor como uno de los principales motores del mejoramiento genético, seleccionando aquellas plantas menos amargas. Por ahora es muy poco probable que se intoxiquen comiendo brocoli, el que por otro lado contiene muchos compuestos químicos que podrían resultar beneficiosos para la salud humana. A pesar de lo que digan Los Simpsons.
Como las bacterias pueden influir sobre nuestro cerebro (Ilustración de Benjamin Arthur)
¿Cuál es nuestra relación con las bacterias? Una breve encuesta en mi cuenta de Twitter mostró que la palabra “bacteria” evoca en la mayoría de las personas conceptos como “infección”, “enfermedad” o “suciedad” (con algunas notables excepciones, como “yogurt” o “trabajo”). De hecho, existe una infinidad de productos de limpieza que promete eliminar a la mayoría de las bacterias y vivimos en ambientes cada vez mas asépticos. Sin embargo, la mayoría de las personas desconoce un hecho que se podría considerar aterrador en este contexto: en sus cuerpos, por cada célula humana, hay 10 bacterias [1]. Así es, somos una bolsa andante de bacterias.
Las bacterias en nuestros cuerpos están por todos lados, pero se encuentran principalmente en la piel, la boca y el intestino. Muchas de estas bacterias no son peligrosas, al menos en el lugar donde se encuentran. Es más, cambios en la composición de estas comunidades de bacterias –conocidas también como microbiota– sí pueden desencadenar algunas enfermedades. De esta forma, nuestra relación con las bacterias que viven en nuestros cuerpos es muy importante y puede afectar a nuestra salud.
Bacterias gordas
Una de las comunidades bacterianas más importantes es la que vive en nuestro intestino. Estas bacterias cumplen importantes funciones, entre las que se encuentra ayudar a la digestión de algunos polisacáridos que de otra forma sería imposible metabolizar por nuestros cuerpos. Estudios recientes han mostrado, por ejemplo, que existen diferencias importantes en la composición de la microbiota del intestino entre personas delgadas y obesas. En efecto, un estudio realizado con gemelos mostró que los que eran delgados tenían una microbiota muy diversa y abundante, mientras que los obesos tenían menos bacterias y de menos tipos [2]. En este punto era imposible saber si la obesidad era la cusa de una microbiota menos diversa o una consecuencia. Para definir este punto se realizó un segundo estudio [3] en el que transplantó la microbiota intestinal de individuos ya sea obesos o delgados en ratones. Esto produjo cambios metabólicos significativos en los ratones y aquellos que recibieron la microbiota de individuos obesos desarrollaron una mayor masa corporal y de tejido adiposo. Estos resultados sugieren fuertemente que la composición de la microbiota intestinal podría ayudar a modular el metabolismo y tener un impacto profundo en la obesidad, la que presenta una gran prevalencia en el mundo occidental. De esta forma, la microbiota del intestino podría tener un papel tremendamente relevante en el desarrollo de obesidad y otras afecciones relacionadas.
Una de las hipótesis es que una dieta poco saludable –rica en grasas, azúcares y baja en fibra– modifique a la microbiota intestinal y que la nueva composición ayude a consolidar a la obesidad a través de un ajuste metabólico, generando un círculo vicioso. En efecto, se ha encontrado que las ratas que se alimentan con dietas “occidentalizadas” no adquieren la flora intestinal de ratas delgadas cuando comparten la misma jaula.
Una derivada interesante es la posibilidad de diseñar alimentos probióticos ricos en alguna de las bacterias beneficiosas, aquellas asociadas a una baja masa corporal. Tal idea es muy interesante y factible, aunque evidentemente se anticipa que no será una fórmula mágica para bajar de peso.
Dime como naces…
En un hecho muy interesante, se ha encontrado una relación entre la vía de nacimiento y la incidencia de algunas enfermedades. Por ejemplo, se ha identificado una correlación entre el nacimiento por cesárea y una mayor incidencia de alergias [4], diabetes de tipo I [5] y un modesto pero significativo aumento en la incidencia de autismo [6]. Particularmente este último caso resultó muy llamativo y en un estudio que se dio a conocer hace un par de meses [7] se encontró que ratones nacidos por cesárea eran más ansiosos y mostraban diversos desórdenes del comportamiento cuando se les comparaba con ratones que habían nacido por parto vaginal. Los investigadores encontraron que existían diferencias en la microbiota intestinal de estos ratones y propusieron que la imposibilidad de exponerse a las bacterias que existen en el canal del parto durante el nacimiento vaginal produzca cambios en la microbiota intestinal y en la salud mental a largo plazo. Un hecho tremendamente relevante para Chile, ya que en nuestro país cerca del 50% de partos son por cesárea, una de las tasas más altas entre países de la OCDE (la OMS estima que la cesárea se justifica como máximo en un 15% de todos los partos).
El eje intestino-cerebro
Desde hace algún tiempo los neurobiólogos han explorado el posible impacto de la microbiota intestinal en la función del cerebro y como esto podría modular el comportamiento. Por ejemplo, se sabe que al menos dos tipos de bacterias de la microbiota del intestino humano producen GABA (ácido gamma-aminobutírico), un neurotransmisor inhibitorio del sistema nervioso central que está involucrado en depresión, ansiedad y trastornos cardiovasculares [10].
El vínculo entre la microbiota intestinal y la función del cerebro se conoce como eje intestino-cerebro y ha ganado gran atención en los últimos años. De hecho, en EEUU el año pasado se invirtió más de un millón de dólares en un programa de investigación en esta área, principalmente debido la relación que se ha encontrado entre la microbiota intestinal y diversos desórdenes, incluyendo algunos del comportamiento.
Un estudio publicado el año 2013 [8] encontró que un modelo de rata que presenta síntomas similares a los del autismo posee menores niveles de bacterias intestinales, particularmente de Bacteroides fragilis. Estas ratas además estaban más estresadas, mostraban un comportamiento antisocial y algunos síntomas gastrointestinales que también se observan de manera frecuente en niños autistas. Si se alimenta a estas ratas con la bacteria Bacteroides fragilis los síntomas se revierten de manera significativa, lo que sugiere una relación de causalidad entre la bacteria y el desorden de comportamiento. Más aún, los investigadores encontraron que en la sangre de estas ratas con desórdenes del comportamiento había mayores niveles de 4-etilfenilsulfato (4-EFS), una sustancia que es producida por algunas bacterias. Al inyectar esta sustancia en ratas control se desencadenaron los mismo síntomas que se habían observado en los ratones con una microbiota disminuida. Es posible que la acumulación de esta sustancia en el intestino solo ocurra en ausencia de Bacteroides fragilis, lo que podría explicar estos resultados.
El mecanismo de estos efectos, sin embargo, no está para nada claro. Si se alimenta a ratas con 4-EFS no pasa nada, a no ser que tengan fragilidad intestinal. Se cree que esto facilitaría la salida del 4-EFS desde el intestino al torrente sanguíneo. ¿Es posible que estos hallazgos se usen como una posible terapia para alguno de los síntomas del autismo? Los mismos investigadores se muestran escépticos: es muy arriesgado anticipar como estudios de comportamiento en ratas puedan funcionar en humanos. Sin embargo, estos resultados han servido para resaltar el papel de la microbiota en el desarrollo de este tipo de desórdenes. Y han tenido otras consecuencias que pueden ser muy significativas para la ciencia fundamental: investigadores de EEUU estudiaron la microbiota intestinal de ratones de laboratorio que son distribuidos por dos empresas diferentes: los laboratorios Jackson y Harlan. Los investigadores encontraron que los ratones de Harlan presentan una microbiota intestinal más abundante y si se transplanta microbiota intestinal de ratones Harlan a ratones Jackson, estos últimos se muestran menos ansiosos y presentan niveles más bajos de marcadores de estrés en la sangre que los ratones control. Esto podría complicar la interpretación de experimentos de comportamiento cuando se usan ratones que han sido adquiridos a diferentes compañías [9].
Evidentemente se trata de un área de investigación tremendamente compleja y, además de la microbiota intestinal, el sistema inmune también jugaría un papel importante, así como también el nervio vago (que conecta al cerebro con el sistema digestivo). Es probable que en los próximos años los científicos logren comprender mejor como la microbiota intestinal afecta a nuestras emociones, comportamiento y salud general. Después de todo, andamos acarreando unos dos kilos de bacterias.
Londres, 1997. Una mujer ha sido brutalmente asesinada y no hay pistas que puedan ayudar a la policía a dar con su o sus asesinos. Sin embargo, tal como las series de televisión nos han enseñado, una pequeña muestra de tejido –una gota de sangre, algo de saliva, algunos cabellos– pueden ser suficientes para lograr la identificación de un culpable o exonerar a un sospechoso a través de la identificación de su ADN.
Los ensayos de ADN en casos de asesinato se hicieron muy populares en 1994 cuando O. J. Simpson –jugador de fútbol americano retirado y actor de cine– fue acusado de asesinar a su esposa y el amante de ella en su casa de Los Ángeles, EEUU. La policía encontró más de 400 manchas de sangre en la escena del crimen y se estableció que esa sangre pertenecía a O. J. Simpson mediante análisis de ADN. Sin embargo, la defensa de Simpson acusó de racismo al departamento de policía de Los Ángeles y sugirió que la evidencia podría haber sido plantada en la escena del crimen. Además, logró poner en duda la confiabilidad de los procedimientos y sugirió que hubo errores de manipulación de las muestras, a pesar de que cinco laboratorios de manera independiente llegaron a los mismos resultados. Finalmente el jurado dio su veredicto: no culpable. Los abogados de Simpson se salieron con la suya.
O. J. Simpson en la portada de Newsweek y Time. El caso fue muy comentado en EEUU.
En otras ocasiones, los ensayos de ADN han servido para fines más nobles. En EEUU existe el ‘Innocence Project’, una organización que se dedica a exculpar a personas injustamente encarceladas a través de la identificación de ADN y su contraste con las evidencias biológicas halladas en la escena del crimen. En la inmensa mayoría de los casos se trata de personas que han sido erróneamente identificadas por las propias víctimas o por terceros. Parte importante de estos errores se han producido porque en los tribunales de justicia una de las formas de evidencia más sólida que existe es el testimonio de los testigos. Algo que contrasta bastante con lo que ocurre con la actividad científica, en donde el solo testimonio de un testigo (“yo vi esto, tienes que creerme”) no tiene ningún valor. Hasta la fecha, 316 personas han sido exculpadas de manera oficial gracias al ‘Innocence Project’, la primera de ellas en 1989.
Volviendo al asesinato en Londres, la policía decide tomar varias muestras de las uñas del cadáver. Las víctimas de crímenes violentos en ocasiones logran rasguñar a sus agresores mientras tratan de impedir un ataque, por lo que quedan muestras de tejido que pueden servir para identificar a un posible agresor. La policía recibe los resultados de los análisis de ADN realizados a las uñas de la víctima y tienen una identificación positiva. Se trata del ADN de otra mujer, la posible asesina. Sin embargo, se topan con un problema imprevisto: la sospechosa fue asesinada dos semanas antes que su supuesta víctima.
No es la primera vez que los resultados de los ensayos de ADN producen confusión. En Europa, una serie de más de 40 asesinatos cometidos en Alemania, Austria y Francia entre 1993 y 2009 fueron atribuidos a una misteriosa asesina en serie. El caso se conoció con el nombre de “El fantasma de Heilbronn” o “La mujer sin rostro”. Una compleja investigación logró descubrir en 2009 que el ADN identificado en las escenas de los crímenes estaba presente como contaminación en las varillas de algodón usadas para tomar las muestras. Una mujer en la fábrica que hacía esas varillas era la dueña de ese ADN.
En el caso de Londres se decide hacer una revisión completa al proceso de toma de muestras. Se descubre que a ambas mujeres –la supuesta asesina y la víctima– se les tomaron las muestras en la misma morgue. Finalmente, un verdadero culpable: las tijeras usadas para cortar las uñas estaban contaminadas con ADN de al menos tres personas, incluyendo el de la supuesta asesina, a pesar que eran limpiadas entre cada procedimiento. Este hecho sirvió para modificar el protocolo de toma de muestras: ahora todo el material utilizado debe ser desechable y debe ser incluido como evidencia.
A medida que las técnicas de detección de ADN se vuelven más sofisticadas, resulta claro que la presencia de un ADN en la escena de un crimen no puede ser la única evidencia para inculpar. Después de todo, vamos dejando nuestros rastros moleculares por donde sea que pasemos. Y eso puede incluir la escena de un futuro crimen.
Envejecer es inevitable, pero algo nos indica que podemos alterar el ritmo en que lo hacemos. Hasta hace un poco más de medio siglo la esperanza de vida promedio en el mundo no superaba los 47 años. Hoy supera los 67 años a nivel global, lo que quiere decir que en sólo 50 años la esperanza de vida ha aumentado en dos décadas. Datos que nos llevan a una pregunta tan inmensa como antigua: ¿Es posible detener o revertir, aunque sea de manera parcial y transitoria, los síntomas asociados al envejecimiento?
Ideas, teorías e intentos se registran por montones. En 1748 el alemán Johann Heinrich Cohausen -médico personal del obispo de Münster- publicó un sugerente libro, titulado Hermippus Redivivus. En ese libro se proponían varios métodos para evitar o retrasar el envejecimiento. Entre otras cosas, planteaba que un hombre viejo debía emparejarse con una mujer joven. Esta hipótesis se basaba en un mito de la Antigua Roma que cuenta la historia de Clodius Hermippus, un hombre que habría vivido hasta los 115 años gracias a que “respiraba el aliento de mujeres jóvenes” (una frase muy poética, por lo demás).
El cine está lleno de referencias a la juventud eterna, desde las películas de vampiros a la ya clásica La muerte le sienta bien de Robert Zemeckis, en la que los personajes de Goldie Hawn y Meryl Streep beben un elixir para la juventud eterna, sólo para descubrir que sus frágiles cuerpos-cadáveres se hacen pedazos. Y más de alguien recordará aquel capítulo de Los Simpson cuando Bart dona sangre para un moribundo Sr. Burns, el que luego de la transfusión adquiere una inusual energía y jovialidad.
El Sr. Burns, justo después de recibir la sangre de Bart. Se sentía «excelente»
El envejecimiento y la longevidad han sido temas presentes en todas las culturas, pero muy poco se había avanzado en su investigación sistemática. Si bien ya en el siglo XIII Roger Bacon había planteado que los humanos debían estudiar el envejecimiento, la falta de modelos apropiados y las múltiples variables asociadas imponían serias dificultades. En 1956, el doctor Clive McCay publicó un interesante artículo titulado “Prolongación experimental de la esperanza de vida”, que recopilaba todos los esfuerzos realizados a la fecha para estudiar el envejecimiento y la longevidad de manera experimental. El Dr. McCay era un destacado investigador en esta área y es la persona responsable de demostrar que existe un vínculo positivo entre la restricción calórica y la longevidad en las ratas. Sin embargo, uno de sus hallazgos más interesantes decía relación con un proceso llamado parabiosis heterocrónica, que consiste en unir los sistemas circulatorios de dos ratas. Al realizar esta técnica uniendo los sistemas circulatorios de una rata joven y de otra vieja, el resultado fue sorprendente: los cartílagos de la rata vieja parecían más jóvenes de lo esperado. Lo más interesante de esto es que no sólo se observó una detención del envejecimiento, sino que además éste se revirtió. Sin embargo, resultaba muy difícil explicar el mecanismo molecular subyacente.
Casi 50 años después de las observaciones del Dr. McCay, un grupo de científicos de la Universidad de Stanford -liderado por Irina y Michael Conboy- lograron confirmar con técnicas modernas los hallazgos iniciales de los experimentos de parabiosis heterocrónica. Lo que los investigadores encontraron fue que al unir los sistemas circulatorios de una rata joven y el de una rata vieja se produce una proliferación de las células encargadas de la reparación de los tejidos -llamadas células satélites- en las ratas viejas.
En efecto, estas ratas mostraron un aumento en la proliferación de células satélites de músculo e hígado. Más aún, los músculos de estas ratas viejas recuperaban su capacidad de regeneración y sus hígados no sólo se veían más jóvenes sino que además se comportaban como hígados jóvenes, expresando varios marcadores moleculares asociados a regeneración hepática. Esto sugiere que algo en la sangre de las ratas jóvenes -y que está ausente o bien en muy bajas cantidades en la sangre de las ratas viejas- es responsable del restablecimiento de un estado juvenil de los tejidos. ¿Está en la sangre joven el secreto de la juventud?
De manera interesante, las ratas jóvenes del experimento también se vieron afectadas al unirse su sistema circulatorio al de ratas viejas, ya que sus músculos se reparaban más lento de lo esperado. Desafortunadamente, la sangre es una muy compleja mezcla de células, proteínas, azúcares, lípidos y otras moléculas, por lo que identificar a la o las moléculas responsables de este fenómeno se anticipaba como una tarea muy difícil.
En 2011 se publicó otro estudio similar (que tardó casi dos años en ser aceptado en Nature), en el que otro equipo de investigadores de Stanford demostraban que la parabiosis heterocrónica tenía efectos positivos en el sistema nervioso de las ratas viejas, las que al ser expuestas a la sangre o plasma (fracción de la sangre que no contiene glóbulos rojos ni blancos) de las ratas jóvenes experimentaban una mejoría de las funciones cognitivas y la memoria espacial. A la inversa, las ratas jóvenes expuestas a la sangre o plasma de las ratas viejas mostraban un deterioro de las funciones cognitivas.
Hasta este punto, las investigaciones sugerían que algo en la sangre de las ratas jóvenes tenía un impacto positivo en la fisiología de las ratas viejas, afectando de manera positiva la fisiología de los músculos, hígado y cerebro. ¿Se trataba de una molécula o de una mezcla de varias moléculas? ¿Cuál era su naturaleza? Y la pregunta del millón: ¿Funcionaría en humanos?
Recientemente todas estas preguntas fueron contestadas, al menos de manera parcial. Primero, hace un año atrás, un grupo de investigadores de Boston (del Harvard Stem Cell Institute) publicó en la revista Cell un paper que planteaba que la parabiosis heterocrónica rejuvenecía el corazón de ratas viejas. En particular, un modelo de rata vieja con el corazón hipertrófico mostraba una notable mejoría en la hipertrofia cardíaca luego de conectarla al sistema circulatorio de una rata joven.
La unión del sistema circulatorio de un ratón joven con uno viejo (al centro) hace que el corazón hipertrófico del ratón viejo (a la derecha) revierta a un corazón más parecido al del ratón joven (a la izquierda). Modificado de Leinwand y Harrison, Cell 153 (4): 743–745
Luego de descartar varias hipótesis que podrían explicar una reducción de la hipertrofia cardíaca no asociada a la parabiosis heterocrónica, el grupo se lanzó a la tarea titánica de identificar los componentes moleculares asociados a estos cambios fisiológicos. Después de varios intentos fallidos, cientos de análisis y miles de dólares, lograron identificar un factor en particular que, al ser inyectado en las ratas viejas, tenía un efecto similar al de la sangre o plasma. El grupo identificó una proteína llamada Growth Differentiation Factor 11 (GDF11) como la responsable en gran medida de los efectos en la fisiología cardíaca de las ratas viejas, y demostró que inyecciones de GDF11 recombinante (producida en bacterias transgénicas) revertían la hipertrofia cardíaca de las ratas viejas. Más aún, los investigadores demostraron que este factor es producido preferentemente en el bazo y que su producción disminuye con la edad.
Finalmente, el mismo grupo publicó en la revista Science sus últimos hallazgos en mayo de este año. Éstos muestran que inyecciones de GDF11 tienen un efecto positivo en la regeneración vascular y neuronal en los cerebros de ratas viejas. Lo que resulta muy interesante, datos aún no publicados muestran que el plasma de humanos jóvenes tiene el mismo efecto rejuvenecedor en las ratas viejas.
¿Qué pasa con los cerebros humanos cuando se administra sangre de personas jóvenes?
Para contestar esta pregunta se ha diseñado un ensayo clínico que debería comenzar muy pronto en Estados Unidos. Teniendo en cuenta el largo historial de seguridad en las transfusiones de sangre en humanos, no debería ser problema conseguir la aprobación de las autoridades de salud. Para el ensayo clínico se harán transfusiones de plasma de personas de menos de 30 años a pacientes con Alzheimer. La idea es poder evaluar en ellos si existe algún efecto beneficioso al realizar estas transfusiones.
“ciertamente no le daremos a beber sangre a las personas y evidentemente no hemos realizado ese experimento”.
Dr. Tony Wyss-Coray, investigador de la Escuela de Medicina de la Universidad de Stanford que estará a cargo de este ensayo clínico
Al mismo tiempo, se está tratando de entender mejor la respuesta fisiológica asociada a la acción de GDF11, lo que eventualmente podría permitir diseñar fármacos que emulen su acción. De esta forma, se podría generar una terapia farmacológica que mejoraría de manera sustancial la calidad de vida en la vejez. No suena mal, sobre todo si piensan que ya son más viejos que antes de leer este artículo. Pero no es para hacerse mala sangre.
El miedo a perderse es uno de los más comunes entre los niños. Sin embargo, incluso de grandes, la sensación de estar perdidos resulta extremadamente incómoda y nos pone muy ansiosos. ¿Cuántos de ustedes –al sentirse perdidos mientras conducen– tienden a bajar el volumen de la radio? Este comportamiento es muy común y automático. Nuestro cerebro está tratando de eliminar todas las distracciones para enfocarse en un problema: encontrar el camino. No es raro que nos perdamos en una ciudad extraña o en nuestra primera visita a un nuevo y gran edificio. Sin embargo, el caso de Sharon Roseman se escapa completamente de lo esperado: ella se pierde en su propia casa.
Sharon tenía 5 años cuando se dio cuenta que algo andaba terriblemente mal en su cabeza. Estaba jugando a la gallinita ciega con sus amigos en el jardín de su casa y cuando se quitó la venda de los ojos descubrió con horror que no sabía dónde estaba: no pudo reconocer su calle, ni su jardín, ni su casa. Espantada corrió por todos lados hasta que se encontró con su madre
– “¿Dónde estoy? ¿Qué hacemos aquí? ¿de quién esta casa”. – “Hija, esta es nuestra casa” – “Pero todo se ve diferente, no reconozco nada” – “Nunca le cuentes esto a nadie porque creerán que eres una bruja y te quemarán”
Sharon Roseman creció en un mundo que constantemente cambiaba, sin previo aviso. A veces despertaba y todo en su cuarto le parecía ajeno. Incluso era incapaz de encontrar el camino al baño. Creció además convencida de que estaba loca y con un gran miedo al rechazo del resto. Nunca le contó a nadie su padecimiento. Después de todo ¿cuánta gente conocen que se pierda en su propia casa?
Sharon se casó y tuvo hijos, pero nunca le contó su secreto a su marido. Su mayor temor era cuando sus hijos despertaban llorando en la noche y al levantarse desorientada chocaba con los muros. Tenía que escuchar de dónde venía el llanto para saber hacia donde caminar.
Un día Sharon descubrió por casualidad como hacer que su mundo volviera a la normalidad: cuando todo giraba en su cerebro y el mundo cambiaba, ella se pone a girar en círculos, como la Mujer Maravilla. Si este giro inesperado de su mundo le ocurre en público, ella busca un lugar privado –un baño o un closet– se pone a girar y ¡zaz! el mundo vuelve a la normalidad. A los 29 años y luego de haber crecido con esta enorme carga emocional, Sharon comenzó a ver a un sicólogo, a quien le contó su secreto. El sicólogo le dijo que no estaba loca pero que no podía ayudarle con su problema. En ese momento Sharon decidió buscar ayuda médica, pero sin mucho éxito. Nadie sabía lo que tenía y las especulaciones iban desde epilepsia hasta un tumor cerebral. Sin embargo, nunca se pudo confirmar ninguno de estos diagnósticos.
Un día Sharon estaba en su casa viendo un programa de televisión y mostraron el extraño caso de una persona que de pronto se perdía sin razón aparente. Sharon supo de inmediato que padecía de exactamente el mismo desorden. Gracias a ese programa logró averiguar que se trataba de una extraña condición llamada Desorientación Topográfica del Desarrollo o DTD por sus siglas en ingles (Developmental Topographical Disorientation).
Para orientarnos espacialmente, nuestro cerebro crea mapas mentales que nos permiten navegar, reconocer puntos de referencia y establecer una imagen mental de nuestro mundo. Esto no ocurre en las personas afectadas por DTD o se ve violentamente interrumpido, como en el caso de Sharon. El DTD es un trastorno muy poco común y fue descrito por primera vez por el Dr. Giuseppe Iaria, de la Universidad de Calgary (Canadá) recién el año 2009. Si bien existían reportes previos de personas con una inhabilidad adquirida para orientarse, ésta siempre aparecía luego de alguna lesión cerebral. El caso del 2009 era único, en cuanto se trataba de un trastorno congénito y describía el caso de una mujer que nunca en toda su vida había sido capaz de orientarse.
Aún se sabe poco respecto respecto de esta condición y se desconocen los mecanismos que la producen; como se trata de una condición congénita y no hay lesiones cerebrales evidentes se sospecha que existe un componente genético asociado. Tampoco se sabe por qué Sharon logra volver su mundo a la normalidad cuando se pone a girar.
En cuanto se publicó el artículo el Dr. Iara comenzó a ser contactado por muchas personas que decían padecer de un trastorno similar. Para poder ayudarlos, el Dr. Iara creó un sitio web (www.gettinglost.ca) que reúne una serie de test relevantes para el diagnostico inicial del DTD. Gracias a este sitio, 120 nuevos casos de DTD fueron diagnosticados. Esas personas saben ahora que no están locas sino que padecen de una condición extremadamente rara, para la que desafortunadamente aún no hay una cura. Sin embargo, el solo hecho de saber lo que les pasa los hace sentirse menos perdidos.
A mediados de 1940 la tasa de infartos entre hombres adultos-jóvenes en EEUU subió violentamente. Nadie sabía muy bien por qué, pero Ancel Keys –un fisiólogo de la Universidad de Minnesota– creía tener la respuesta: era la dieta. Keys notó que la tasa de infartos era baja en países del Mediterráneo y Japón, donde la gente comía una dieta baja en grasas. Se realizó un gran estudio que incluyó a más de doce mil voluntarios de diferentes países y se les siguió durante 10 años. La principal conclusión del estudio fue que existía una correlación entre el consumo de grasas saturadas y el riesgo de enfermedades cardiovasculares conducentes a la muerte por infarto cardíaco. Este hecho marca el inicio de la guerra contra las grasas saturadas y fue respaldado por un segundo estudio masivo que llegó a similares conclusiones. Esto llevó a que en la década de los 80s las autoridades alimenticias de EEUU presionaran para bajar el consumo de grasas, principalmente de grasas saturadas. En los últimos 35 años el paradigma de la alimentación saludable ha sido la reducción de las grasas saturadas ¿qué ha sucedido desde entonces?
Una Francesinha, sandwich típico de Porto que tuve que comer por obligación mientras investigaba para este post. Aquí de describe su preparación
Cada año, 17 millones de personas mueren como consecuencia de enfermedades cardiovasculares, siendo la principal causa de muerte en el mundo. Si bien desde 1960 se ha reducido la tendencia al alza de las muertes por enfermedades cardiovasculares, resulta difícil saber si se debe a la baja en el consumo de grasas o a los avances en los tratamientos de estas enfermedades.
Corazón grasoso
¿Por qué comer grasas podría ser malo para el corazón? Cuando comemos grasas, estas son procesadas y desmanteladas en sus componentes: ácidos grasos y glicerol. Los ácidos grasos son luego empaquetados en partículas llamadas lipoproteínas, las que están formadas además por colesterol y proteínas. Estas lipoproteínas circulan por el torrente sanguíneo y, entre más grasa coma una persona, más altos serán los niveles de lipoproteínas circulantes. Y es aquí cuando empiezan los problemas. Existen dos tipos principales de lipoproteínas: las de baja densidad (LDL, del inglés Low-Density Lipoprotein) y las de alta densidad (HDL, del inglés High-Density Lipoproteins). Popularmente se les conoce como “colesterol malo” y “colesterol bueno”, respectivamente. Las LDL llevan más grasa que proteínas y se adhieren a las paredes internas de las arterias, formando lo que se conoce como placa de ateroma, causando inflamación y un estrechamiento que puede producir un infarto. Se ha encontrado que las LDL suben particularmente al comer grasas saturadas, mientras que las HDL –que no contribuyen a la formación de placa– suben al comer grasas insaturadas. Uno es malo, el otro bueno. Esta posible relación entre las grasas, las lipoproteínas y las enfermedades cardiovasculares ha sido la hipótesis más influyente en la historia de la alimentación humana.
Los ácidos grasos saturados son aquellos que solo poseen enlaces sencillos en su estructura, tienden a empaquetarse bien y por lo tanto son sólidos a temperatura ambiente (como la grasa de la carne o la mantequilla). Los ácidos grasos cis-insaturados, por otro lado, tienen dobles enlaces que producen quiebres en su estructura y forman grasas que tienden a ser líquidas a temperatura ambiente. Los ácidos grasos trans-insaturados («grasas trans») también tienen dobles enlaces pero su estructura es más parecida a la de los ácidos grasos saturados y no se producen en la naturaleza (son hechos por el hombre) y definitivamente no provienen de plantas transgénicas, como alguna vez declaró alegremente una periodista en televisión.
Sin embargo, el año 2010 se analizaron varios estudios recientes sobre consumo de grasas y enfermedades cardiovasculares. En total involucraban a más de 340 mil personas y no se encontraron evidencias que respaldaran la hipótesis de que el consumo de grasas saturadas elevara el riesgo de enfermedades cardiovasculares. Otro gigantesco meta-análisis que involucró a más de 640 mil personas de 18 países tampoco logró encontrar una correlación. Los autores concluyeron que “la evidencia actualmente disponible no apoya con claridad la idea de que es bueno comer grasas insaturadas y malo comer grasas saturadas. Es posible que las recomendaciones en este punto deban ser revisadas”.
Sin embargo, este estudio fue criticado pues –entre otras cosas– no incluía un análisis completo de la dieta de los participantes. Particularmente es importnate saber con qué cosa se reemplazó a las grasas saturadas ¿azúcar? ¿grasas insaturadas?. De igual forma estos estudios generaron gran ruido en el ambiente. Además, ya se sabía de algunas objeciones a los estudios que inicialmente habían vinculado la dieta baja en grasa con menor tasa de enfermedad cardiovascular, particularmente un hecho conocido como “la paradoja francesa”: los franceses comen más grasas saturadas que los estadounidenses y sin embargo poseen una menor tasa de muerte por infarto cardiaco. Las grasas por si solas no explican las diferencias observadas.
¿Hagamos un asado?
Entonces ¿volvemos a comer grasas? Antes de que tiren el costillar a la parrilla es necesario precisar algunos puntos que hacen el panorama algo más complejo. En primer lugar, no todas las LDL son iguales. Hay sub-tipos más nocivos que otros, particularmente un tipo más pequeño que se adhiere con mayor facilidad a las arterias (sdLDL; small, dense LDL). Además, los estudios de laboratorio son difíciles de interpretar a escala humana: la falta de ejercicio, la ingesta de alcohol, el sobrepeso y el exceso de sal también influyen en las enfermedades cardiovasculares. De hecho, a pesar de que sostenidamente se ha bajado el consumo de grasas, ha aumentado la obesidad y las enfermedades como diabetes de tipo II de la mano con una mayor ingesta calórica. Según Walter Willet, de la Escuela de Salud Pública de Harvard, esto ocurrió ya que no se eliminaron las grasas, sino que se reemplazaron por algo más. Ese algo más es usualmente azúcar refinada. El problema es que un estudio del 2009 estableció una reducción en los niveles de grasas saturadas en la dieta pero acompañada de un aumento en el consumo de azúcar resultó en un aumento en el riesgo de enfermedades cardiovasculares. Esto hizo que las miradas y dedos acusadores apuntaran a los carbohidratos, particularmente a los azúcares refinados. Esto ha inducido a algunas acciones poco populares y bastante polémicas, como la restricción de los tamaños de las bebidas azucaradas que se venden en Nueva York.
Para hacer el asunto más complejo, se ha descubierto que el origen de las grasas saturadas también es importante. Particularmente se ha encontrado que consumir grandes cantidades de grasas saturadas provenientes de carne roja aumenta el riesgo de enfermedades cardiovasculares, mientras que consumir la misma cantidad de esas grasas provenientes de lácteos reducía el riesgo. Por otro lado, el queso no hace subir tanto los niveles de LDL como la mantequilla, a pesar de tener cantidades equivalentes de grasa saturada. El tema es bastante complejo, ya que los seres humanos no comemos sencillamente grasas saturadas o insaturadas: comemos complejas mezclas de nutrientes y que varían además en calorías.
Por ahora no es posible decir con certeza que el consejo de no comer grasas saturadas esté equivocado (tal vez si algo exagerado y definitivamente mal implementado). Lo cierto es que un buen asado y un postre con crema si pueden ser parte de un estilo de vida saludable.
*Esta nota es un resumen de un artículo aparecido en la revista New Scientist el 30 de julio de 2014 («Heart attack on a plate? The truth about saturated fat» http://www.newscientist.com/article/mg22329800.400-heart-attack-on-a-plate-the-truth-about-saturated-fat.html#.U9pbH4B5NvQ)
Los seres humanos nos diferenciamos de los demás primates en varios aspectos, pero sin lugar a dudas el más distintivo es el enorme tamaño del cerebro en comparación con el tamaño del cuerpo. En efecto, nuestro cerebro es mucho más grande que el de otros primates y se estima que existe una relación lineal entre el tamaño del cerebro y el número de neuronas. De esta forma, en el cerebro humano hay aproximadamente tres veces más neuronas que en el de los gorilas. Este aspecto de nuestra evolución, en el que el tamaño del cerebro es mayor del esperado a partir de la talla corporal, es conocido como encefalización y ha sido clave durante la historia evolutiva de la rama Homo de los primates. Durante mucho tiempo se ha especulado respecto de los mecanismos que llevaron al aumento del tamaño del cerebro y de la cantidad de neuronas durante nuestra historia evolutiva. En los últimos años se ha obtenido evidencia científica que sugiere que existen al menos dos elementos muy importantes que impulsaron este crecimiento del cerebro: la duplicación de un gen clave para la migración neuronal y un cambio radical en la dieta de nuestros ancestros.
La multiplicación de los genes
Hace unos 2,4 millones de años atrás apareció el Homo habilis, el primer primate de la rama Homo que, además de ser completamente bípedo, usaba herramientas. Este hecho marca el despertar de la humanidad; aquellas primeras chispas de intelecto que Kubrick representó brillantemente en la inolvidable escena The dawn of men de ‘2001, una odisea espacial’ y que está musicalizada por Strauss y su Also Sprach Zarathrustha.
Imagen de la famosa escena «The dawn of men»
Estos primeros destellos de raciocinio están asociados a un accidente genético muy afortunado: la duplicación de un gen llamado SRGAP2A (SLIT-ROBO Rho GTPase-activating protein 2A, también conocido como Formin-Binding Protein 2 o FNBP2). Durante nuestra historia evolutiva, este gen ha sido duplicado 3 veces y es parte del grupo de 23 genes que está duplicado en humanos pero no en otros primates. Este gen en particular habría sido duplicado inicialmente hace unos tres millones de años atrás –generando una copia llamada SRGAP2B– y luego una segunda vez, para dar lugar al gen SRGAP2C, hace unos 2,4 millones de años atrás. Una tercera duplicación habría ocurrido hace un millón de años atrás y dio origen al gen SRGAP2D. ¿Por qué es tan relevante que este gen se haya duplicado? Particularmente el gen SRGAP2C, que habría aparecido en el linaje de los H. habilis y que está presente en el 100% de los humanos, codifica para una versión más corta de la proteína SRGAP2A. Esta versión corta interfiere con la función de la proteína ancestral y permite la migración más rápida de las neuronas y hace más lenta la velocidad de maduración sináptica, incrementando la densidad sináptica en el cortex cerebral. O sea, permite que las neuronas migren más rápido y formen más conexiones neuronales.
Como, luego pienso
Se estima que cuando apareció el H. erectus –hace unos 1,9 millones de años atrás– el volumen del cerebro había llegado a los 850 cm3, el doble del que tenía el H. habilis. Este aumento en el volumen cerebral es equivalente a que cada generación posea 125.000 neuronas más que la anterior. ¿Por qué los otros primates no experimentaron el mismo crecimiento del cerebro? Una de las principales hipótesis que explica la limitación en el tamaño cerebral es de carácter metabólico: un cerebro grande es tremendamente “gastador”. El cerebro humano es el tercer órgano que más energía consume, llevándose alrededor del 20% del gasto calórico en reposo, una cifra gigante si se tiene en cuenta que solo da cuenta del 2% de la masa corporal. Por lo tanto, un cerebro grande implica que se debe aumentar la ingesta calórica para poder mantenerlo. Una dieta basada en alimentos crudos, como la de los gorilas y otros primates, restringe las calorías a las que se puede acceder. De hecho, se estima que los gorilas necesitarían unas 750 kilocalorías adicionales al día para dar cuenta de la energía necesaria para mantener un cerebro como el nuestro, lo que representa pasar dos horas más alimentándose (y los gorilas ya pasan el 80% del día comiendo).
Una dieta basada en comida cruda –principalmente vegetales– no sería apropiada para sustentar un cerebro grande («no vives de ensalada»)
De esta forma, una dieta basada en alimentos crudos impone una restricción metabólica para el aumento del tamaño cerebral. Durante la evolución, la aparición del gen SRGAP2C tuvo consecuencias importantes en el cableado cerebral y el aumento de las capacidades cognitivas, lo que le habría permitido a nuestros ancestros empezar a usar estrategias más avanzadas para obtener más calorías. Un cambio clave en este sentido fue la capacidad que desarrollamos para usar el fuego y comer alimentos cocidos, principalmente carne. En efecto, la carne aporta más proteínas y calorías por gramo que los vegetales. El problema es que el consumo de carne cruda era un peligro para nuestros ancestros, debido a las enfermedades y la baja digestibilidad. De esta forma, el uso del fuego para cocer la carne y otros alimentos permitió tener acceso a una comida más fácil de masticar, digerir y absorber, además de aportar más proteínas y más calorías de una forma segura.
Así, nuestros ancestros pudieron obtener las calorías que necesitaban para sustentar un cerebro más grande sin pasar casi la mitad del día comiendo, lo que les permitió tener tiempo para socializar y desarrollar otras actividades que fueran demandantes desde el punto de vista cognitivo, las que a su vez resultaron en una presión positiva para un aumento en el número de neuronas y el tamaño cerebral.
Como consecuencia de esto, desarrollamos cerebros más grandes y disponíamos de tiempo para usarlo en actividades cognitivas y creativas, lo que resultó en un impulso enorme para la aparición del Homo sapiens.
Muchas veces el olfato es relegado a un segundo plano cuando se piensa en la relevancia de nuestros diferentes sentidos. Sin embargo, basta con entrar a un carro del Metro en una calurosa tarde de verano para recordar que nuestro olfato es también muy sensible, solo que muchas veces es opacado por los otros sentidos. Por ejemplo, al estudiar la riqueza sensorial de los sueños, se logró determinar que las personas no-videntes de nacimiento sueñan incorporando manifestaciones sensoriales como texturas, sabores y olores con una frecuencia mucho mayor comparada con quienes pueden ver.
Una de las funciones del sistema sensorial olfativo es la de detectar ciertas moléculas volátiles, llamadas feromonas, que poseen diferentes papeles. Si bien la primera feromona en ser descrita correspondía a un potente afrodisiaco secretado por las polillas de la seda hembra –que podía enloquecer a una polilla macho a kilómetros de distancia– las feromonas también tienen otras funciones, como ahuyentar a la competencia, alertar de peligro o actuar como una señal para agruparse.
En los animales existe una estructura especializada, llamada órgano vomeronasal, que es responsable de detectar las feromonas. En los humanos no se ha podido establecer de manera clara la existencia de tal estructura y existe controversia sobre el porcentaje de adultos humanos que poseen el órgano vomeronasal. Sin embargo, aunque existiera el órgano vomeronasal sería inútil, ya que los genes necesarios para su funcionamiento no existen en humanos (existen solo como pseudogenes). Es decir, aunque tuviéramos el hardware (cosa muy poco probable), no tenemos el software necesario para hacerlo funcionar.
No obstante, está claro que en los humanos los olores ejercen un efecto importante en la selección de una pareja sexual y en otros comportamientos. Uno de los hallazgos más interesantes al respecto es el que vincula a los genes del Complejo Mayor de Histocompatibilidad con el olor corporal.
¿Histocompatiqué?
El Complejo Mayor de Histocompatibilidad (o MHC, por sus siglas en inglés) es un conjunto de proteínas que se encuentra en la superficie de las células del sistema inmune y que está codificado por una gran familia de genes en los vertebrados. El MHC tiene varias funciones y una de ellas está relacionada con la detección de patógenos: entre más variabilidad de genes de MHC tenga un individuo, más robusto será su sistema inmune. El MHC también es responsable del rechazo de órganos que puede ocurrir cuando se hace un trasplante (de ahí viene de hecho su nombre), ya que las células del sistema inmune no reconocen como propias a las proteínas de membrana que tiene el órgano trasplantado cuando este no es compatible y lo atacan, provocando el rechazo. Esta es la razón por la que las personas que se han sometido a un trasplante de órgano deben seguir de manera frecuente una terapia de inmunosupresión.
De hombres y ratones
Desde hace algún tiempo se sabía que los ratones podían elegir a sus parejas sexuales guiándose por el olor de la orina. Se descubrió que el olor de la orina contenía información relacionada con el MHC y que de alguna manera los ratones macho podían distinguir (y rechazar) a las hembras que tenían genes del MHC similares a los propios. Esta información es muy relevante, ya que impide la endogamia –es decir, la reproducción sexual entre individuos relacionados, como por ejemplo entre hermanos– y además permite que los ratones elijan como pareja sexual a aquellos individuos que tienen un MHC lo más diferente posible, garantizando que su descendencia poseerá un repertorio de genes del MHC más amplio y, por lo tanto, un sistema inmune más robusto.
En este contexto, resultó bastante sorprendente que los humanos fueran capaces de distinguir solo por su olor a ratones cuya única diferencia era los genes del MHC. Al mismo tiempo, los ratones eran capaces de reconocer diferencias en el MHC humano a partir del olor de la orina. De esta forma, resultó muy sugerente la idea de que tal vez los humanos pudiéramos utilizar el olor como una herramienta de selección de pareja basada en los genes del MHC, aún sin poseer un órgano vomeronasal funcional.
I’m too sexy for my shirt
En un experimento ya clásico, se le pidió a varios hombres que durante dos días durmieran usando una polera de algodón. Se les pidió que no fumaran, que se abstuvieran de tener relaciones sexuales y que no comieran nada muy especiado, para no alterar su olor corporal. Al cabo de los dos días las poleras fueron guardadas en frascos herméticamente sellados; luego, a un grupo de mujeres se le pidió que oliera estas poleras. Se les pidió a las mujeres que ordenaran las poleras, desde la que tenía el olor que más les agradó a la que más les desagradó. Una vez que hicieron este ranking de olor se les extrajo una muestra de sangre a los participantes en el estudio y se compararon los genes del MHC. Lo que se encontró fue que entre más agradable resultó el olor de la polera, más diferentes eran los genes del MHC entre esos individuos. No solo eso; muchas mujeres declararon que el olor que más les agradó era similar al de su actual o ex-pareja. De esta forma, el olor más agradable para las mujeres correspondió al de hombres cuyos genes de MHC garantizan una descendencia con un sistema inmune más robusto. De manera muy interesante, este efecto se revierte cuando las mujeres toman anticonceptivos orales; en ese caso prefieren el olor de hombres con genes de MHC más parecidos. Los autores del estudio especulan que esto podría relacionarse con un cambio producido por el perfil hormonal de las mujeres que toman estos anticonceptivos, que llevan a un estado similar al del embarazo. Según los autores, esto podría ser un mecanismo desarrollado a partir de la necesidad de asociarse con familiares durante el embarazo, lo que puede ser útil para el cuidado de la descendencia.
Lo irresistible de ese olor podría tener profundas raíces evolutivas y estaría relacionado con la selección de una pareja que garantice una descendencia con un mejor sistema inmune.
Actualmente se postula que el olor axilar de cada individuo es una compleja mezcla de compuestos volátiles, cuya composición depende en parte del tipo de bacterias de la flora normal de la piel. Se postula que los péptidos transportados por el MHC a las glándulas sudoríparas son metabolizados por las bacterias de las flora normal y convertidos en compuestos volátiles. De esta forma, existe una especie de huella digital olfativa que depende del tipo de bacterias que viven en la piel y de los genes del MHC. Así, la mezcla de olores resultantes es un reflejo de los genes del sistema inmune, que puede ser inconscientemente seleccionado o rechazado. Si bien esta huella digital olfativa no puede ser considerada como una feromona en el sentido estricto de la definición, si abre las puertas para que se investigue más acerca de la relación que existe entre la selección de pareja y el olor corporal.
Les dejo una recreación del experimento de las poleras realizado por Robert Winston para la serie Human Instinct.