A finales de enero de este año, científicos chinos revelaron el código genético completo del nuevo coronavirus, el Sars-Cov-2, causante de la enfermedad covid-19. Desde entonces las grandes farmacéuticas alrededor del mundo y gobiernos iniciaron una carrera para ser los primero en desarrollar una vacuna.El ritmo de este proceso se ha acelerado al punto que muchas compañías han prometido sacar al mercado una vacuna efectiva y segura para el 2021. Una vacuna en poco más de un año sería un récord, aún así, posiblemente los momentos más críticos de la pandemia ya habrán pasado para entonces.Lea también: Una mujer paisa posee el gen del Alzheimer y el gen de su curaEl virus causante de la pandemia pertenece a la familia de los coronavirus, la cual también fue responsable de dos de las principales amenazas de epidemia en este siglo: el brote de sars en 2002 y el Mers en 2012. Pero nunca se ha logrado desarrollar una vacuna efectiva contra algún tipo de coronavirus.La vacuna Las vacunas son un mercado de 35 millones de dólares anuales al que se dedican muchas de las grandes farmacéuticas, debido a la constante necesidad de vacunas contra enfermedades como la hepatitis o la polio, ya que anualmente se vacunan millones de personas contra enfermedades de este tipo.Estructura morfológica del nuevo coronavirus.Pero desarrollar una vacuna contra una nueva enfermedad no es nada sencillo, ya que es un proceso largo y hacerlo no es necesariamente rentable para las empresas, ya que se utilizan una única vez, caso ébola, cuya vacuna fue terminada en 2019, tras casi cinco años de desarrollo. Además, en muchos casos, como el Zika o el VIH, tras años de investigaciones no se logran desarrollar vacunas.De todos los proyectos de vacuna, el más avanzado es el de la empresa de biotecnología Moderna con su vacuna mRNA-1273. Moderna tardó 42 días en desarrollar una vacuna lista para iniciar pruebas en humanos, para llegar a ese punto en el brote de Sars en 2002, los científicos tardaron veinte meses después de secuenciado el genoma del virus.El primer ensayo clínico para probar una vacuna contra el nuevo coronavirus empezó el lunes 16 de marzo en Seattle, Estados Unidos, indicaron las autoridades sanitarias estadounidenses.El Dr. Anthony Fauci, director del Instituto Nacional de Alergias y Enfermedades Infecciosas (Niaid) señaló que el proceso para determinar que es segura en humanos tardará por lo menos tres meses, y esa es solo la primera fase antes de tener una vacuna lista para usarse en la población. Por lo que Fauci, renombrado epidemiólogo, afirmó que no se tendrá una vacuna disponible en menos de un año, aunque el presidente de Estados Unidos, Donald Trump, haya afirmado en ruedas de prensa lo contrario.Le puede interesar: En Colombia sí se usa boldenona para el ganadoJhonson & Jhonson también está en la carrera, así como Sanofi, grandes grupos farmacéuticos. La segunda afirmó que espera tener una vacuna lista en 18 meses. Inovio también está trabajando en una vacuna, la cual, si logran hacerlo, sería la primera vacuna de ADN usada en humanos.Pfizer reveló un pacto con la alemana BioNTech para estudiar una posible vacuna. A su vez BioNTech ha llegado a un acuerdo de colaboración con Shanghai Fosun Pharmaceutical sobre los derechos de la empresa alemana de biotecnología en China para buscar una vacuna experimental contra el coronavirus. BioNTech ha confirmado que tiene la intención de iniciar pruebas clínicas para el compuesto llamado Bnt162 en Europa, Estados Unidos y China.En Asia también se está trabajando en el desarrollo de una vacuna. El Ministerio de Defensa chino aprobó los ensayos clínicos en humanos de una vacuna contra el coronavirus desarrollada por la Academia Militar de Ciencias. Estos ensayos iniciarían en abril, actualmente están en fase de experimentación animal.Esta vacuna, según información oficial, está basada en vectores virales de la gripe que se encuentra actualmente en fase de experimentación con animales que comenzará sus ensayos clínicos en abril. La científica que lidera esta investigación, la epidemióloga Chen Wei, señaló que China está preparada para llevar a cabo 'una producción a gran escala, segura y efectiva'.Aunque los tiempos anunciados por estos gobiernos y empresas parecen muy lejanos, dos años o menos tiempo sería el tiempo récord en que la humanidad haya desarrollado una vacuna.Los riesgosCientíficos alrededor del mundo han advertido de los riesgos de acelerar demasiado al proceso, ya que algunas empresas han informado que se saltarán el primer paso que es la prueba en animales en laboratorio, la cual se usa para determinar, entre otras cosas, la seguridad de la vacuna, ya que puede resultar que la cura sea peor que la enfermedad.La vacuna más adelantada, la de Moderna, es una de las que se saltará este paso, aunque ellos aseguraron no hay peligro en ello, ya que: 'Esta vacuna usa una tecnología preexistente. Fue creada con un estándar muy alto, empleando cosas que sabemos que son seguras para las personas y quienes participan en el ensayo serán sometidos a un seguimiento muy riguroso'.Tratamientos para el coronavirusLas empresas farmacéuticas y gobiernos no sólo se están centrando en el desarrollo de una vacuna para dar inmunidad a la población, sino también en tratamientos para reducir la tasa de mortalidad de quienes contraigan el virus.De acuerdo con la Organización Mundial de la Salud el tratamiento más promisorio que se está realizando en este momento es remdesevir, desarrollado por la compañía Gilead.El antiviral se creó para luchar contra otros virus como el ébola, aunque no surtió efecto. Pero según primeros informes ha sido probado y obtenido buenos resultados en Wuhan, China, epicentro original del nuevo coronavirus. También se ha probado en Europa y Estado Unidos.Países con casos registrados de Covid-19 al 18 de marzo, entre más oscuro el mapa, más número de casos registra el país.También hay otros medicamentos promisorios. El medicamento antigripal Favipiravir, aprobado para uso clínico en Japón en 2014, no ha mostrado reacciones adversas obvias en las pruebas clínicas, aseguró Zhang Xinmin, director del Centro Nacional de Desarrollo Biotecnológico de China.Por otra parte, la empresa Regeneron desarrolló el año pasado un medicamento administrado por vía intravenosa, conocido como 'anticuerpos monoclonales', que permitió mejorar de manera significativa la tasa de supervivencia de pacientes enfermos de ébola. Regeneron anunció que ha identificado cientos de anticuerpos neutralizantes del virus que podrían ayudar a tratar a los pacientes.Lo invitamos a leer: La inteligencia artificial reemplazará a los doctoresAdemás, la empresa japonesa Takeda Pharmaceutical está intentando desarrollar un medicamento basado en la sangre de pacientes que se recuperaron de la enfermedad.Adicional a estos, se han usado otros tratamientos como cloroquina. Investigaciones de años anteriores han demostrado sus efectos antivirales. Incluso un grupo de científicos belgas teorizó que esta droga podría ser un tratamiento eficaz contra el Sars, pero nunca se probó porque el brote ya había sido controlado en ese entonces.“Cuando investigamos sobre la cloroquina, en 2004, bastante después del brote de Sars, ya no había pacientes para probarla. Así que publicamos el artículo y dijimos que cuando se produjera un nuevo brote de coronavirus, lo probaríamos. Los médicos chinos leyeron el artículo y empezaron a probar la cloroquina”, indicó el Marc Van Ranst, virólogo de la universidad KU Leuven.En amarillo se puede ver el virus. Imagen obtenida con un microscopio electrónico.También se han probado antirretrovirales usados contra otros patógenos virales como el VIH. Si bien no atacan al virus, inhiben una enzima usada por los virus para multiplicarse. Una investigación publicada en Science mostró resultados positivos usando ritonavir y lopinavir.También en China se usó el medicamento cubano Interferón Alfa 2B, un antiviral que es fabricado por una empresa mixta en China y del que Cuba aseguró tener una gran capacidad de producción.Y es que en Wuhan se probaron múltiples métodos. El gobierno de ese país incluso informó que se estaban usando terapias de medicina tradicional china para tratar los casos menos severos.Además de los mencionados, existen otros tratamientos que se están usando y podrían servir, pero los expertos alrededor del mundo coinciden en que aún es muy temprano para asegurar qué tratamientos han sido realmente efectivos.
A veces la gente siente la ciencia médica como algo lejano, que no se ocupa de resolver sus problemas más sentidos y muchas veces, como lo hemos visto este año con el Covid-19, la salud se vuelve un espectáculo. Una cosa muy diferente es lo que pasa con un grupo de enfermedades que afectan a muchísimas personas, especialmente las más pobres, que viven en zonas rurales o en barrios marginados de grandes ciudades, que no llaman la atención de los medios de comunicación ni son de interés de los gobiernos ni de las multinacionales farmacéuticas, justamente por ser enfermedades de pobres, que no tienen representación política y muy poca capacidad económica.En este grupo de enfermedades está el dengue, la leishmaniasis, el Zika, el chikungunya, la enfermedad del sueño, la enfermedad de Chagas, la lepra, los parásitos intestinales, la ceguera de los ríos, y la elefantiasis. A estas enfermedades la Organización Mundial de la Salud las llama Enfermedades Tropicales Descuidadas o desatendidas (Neglected Tropical Diseases).Lea:Covid-19, el virus que sigue azotando el planetaEstas enfermedades, muchas de ellas infecciosas, afectan a más de mil millones de personas de condición humilde, que viven en África, América Latina, Sur de Asia y Oriente Medio en concentraciones humanas (o infrahumanas, sería mejor decir) en las que reina el hacinamiento, hay aguas estancadas, sobresaturación de basura, carencia de servicios básicos y de medidas de saneamiento urbano.Este es el campo de trabajo del Pecet (Programa de Estudio y Control de Enfermedades Tropicales) de la Universidad de Antioquia, que lleva más de 30 años haciendo investigación básica y aplicada para prevenir, tratar y controlar estas enfermedades, especialmente la leishmaniasis y el dengue.Enfermedades Tropicales OlvidadasAntes de profundizar en el trabajo del Pecet es importante hablar un poco de las enfermedades desatendidas. Muchas son producidas por virus, parásitos o bacterias y son transmitidas a los humanos por los vectores que pueden ser insectos o caracoles. Las hembras de los mosquitos vectores pican para alimentarse de la sangre que necesitan para fabricar sus huevos. Si la persona o el animal que pican tienen un parásito o virus, el mosquito adquiere ese germen y luego, cuando pica para alimentarse de nuevo, lo transmite a esa persona o animal de la que se está alimentando.Dos de estas enfermedades son la leishmaniasis y el dengue, que vale la pena abordar.La leishmaniasis es una enfermedad que está presente en cerca de 100 países. La OMS estima que cerca de tres millones de personas la padecen y está propagada en Colombia. Producida por un parásito, y transmitida por un mosquito flebotomineo, llamado por las comunidades “aludo” o “palomilla”, que pica en horas de la noche. Los parásitos están en animales silvestres y animales domésticos como el perro y en el humano.En el humano, la enfermedad puede afectar la piel donde ocasiona ulceras grandes y crónicas, o destruir las mucosas de nariz, boca y garganta, o afectar las vísceras como el hígado, el bazo y la médula ósea. En este último caso, la leishmaniasis visceral es mortal si no se da un tratamiento efectivo. Para la leishmaniasis el tratamiento de elección sigue siendo unas sales de antimonio que se están utilizando desde hace 70 años, muy tóxicas pero que ante la falta de interés de las multinacionales y de los gobiernos de buscar otros medicamentos más efectivos y seguros toca seguir utilizando.El dengue es producido por el virus dengue, que tiene cuatro variedades o serotipos y sólo afecta a los humanos. Una persona puede sufrir hasta cuatro dengues en su vida, pero las complicaciones aumentan cuando sufre más de una vez la enfermedad. El dengue es transmitido por la hembra del mosquito Aedes aegypti y produce fiebre alta, cefalea, dolores intensos en los huesos, en los músculos y detrás de los ojos y erupciones en la piel. En los casos graves, se presentan, vómitos, dolores abdominales, sangrados de fosas nasales y encías y aun hemorragias severas que llevan al shock y hasta la muerte.El mosquito Aedes aegypti vive dentro y alrededor de las viviendas urbanas, pica en horas del día, sólo pica al humano y se reproduce colocando sus huevos en depósitos de agua estancada (en tanques, llantas, floreros, etc.). Con el calentamiento global el insecto está colonizando nuevos espacios que anteriormente eran muy fríos para mantenerse, y acá en el valle del Aburráya ha sido encontrado y bien establecido a alturas de 2.300 metros sobre el nivel del mar. Adicionalmente este insecto ha ido adquiriendo resistencia a los insecticidas y por ello los que son recomendados por el Ministerio de Salud para ser utilizados sólo en caso de epidemias, no logran controlarlos y, por el contario, como lo señala la misma OMS, afecta a insectos benéficos que polinizan las plantas y, muy grave, también se asocian con la aparición de cáncer en las personas.El Aedes aegypti también es un vector de la fiebre amarilla, que ataca los riñones, el hígado, el corazón y produce una alta mortalidad; del Zika, que puede causar microcefalia en el feto y una parálisis ascendente o síndrome de Guillan Barre; y del chikungunya, que produce dolores articulares que duran meses y años.Durante tres años consecutivos, en 2014, 2015 y 2016, tuvimos en Latinoamérica epidemias sucesivas de dengue, chikungunya y Zika. Desde 2019 asistimos a la mayor epidemia de dengue en la historia de este continente, con más de tres millones doscientos mil casos informados y alrededor de 1.500 muertos.Colombia no ha sido la excepción. 127.000 casos el año pasado con alrededor de 300 muertos, epidemia que continúa incontrolable en el presente año, con un aumento en enero de este año del 94%, con respecto al mismo mes del año pasado, y con más de la mitad de los casos con signos de alarma, esto es, con manifestaciones graves de la enfermedad, según informe del Instituto Nacional de Salud y, sin embargo, ocupa menos la atención del Ministerio de Salud que el mencionado Covid-19, del que no hay, todavía, ni un caso en Colombia y muy pocos en América Latina.O sea que la dimensión real del problema del dengue, que se trata de una verdadera epidemia, obliga a atacarlo con todas las herramientas de los gobiernos nacional, regional y local y con la adopción e implementación de los nuevos desarrollos de la academia y del sector privado.Innovación con sentido socialEl Pecet, creado en 1986 en la Universidad de Antioquia, es un grupo de investigación de excelencia con la máxima clasificación de Colciencias y es además un centro colaborador de la Organización Mundial de la Salud.Su fundador y director es el doctor Iván Darío Vélez B, médico y cirujano de la Universidad de Antioquia (1979); en la Universidad de Montpellier (Francia) obtuvo los títulos de Especialista en Parasitología (1985), Especialista en Medicina Tropical (1986) y Magister en parasitología (1992) y en la Universidad de Granada, España, recibió con honores el diploma de Doctor en Enfermedades Infecciosas (1998). El doctor Vélez ha sido docente de la Universidad de Antioquia desde septiembre de 1982 y es Investigador Emérito con vigencia vitalicia en el escalafón de Colciencias, hoy convertido en Ministerio de Ciencia y Tecnología. Además de dirigir el Pecet, es desde abril de 2014, el director para Colombia del World Mosquitos Program.Precisamente, con la especialización en Medicina Tropical de la Universidad de Montpellier, el doctor Vélez se formó en el uso de una metodología innovadora, la ecoepidemiología, que consiste en estudiar al interior de los focos o lugares en los que se da la transmisión de las enfermedades, todos los elementos que tiene que ver con la misma: los gérmenes que las causan, las manifestaciones clínicas en las personas, los insectos que los transmiten, los animales que los albergan, los factores ecológicos que tienen que ver la transmisión, los comportamientos humanos que son factores de riesgo para infectarse y las concepciones y prácticas populares de las comunidades relacionadas con la enfermedad. En 1986 comenzó a aplicar, con un grupo que denominó Pecet, esta metodología en comunidades indígenas y campesinas de todo el país, teniendo como modelo la leishmaniasis.Allí, en medio de sus pacientes pudo sentir la angustia de trabajar con Enfermedades Olvidadas. En el caso de esta enfermedad, de la que Colombia ocupa el segundo lugar de prevalencia en América Latina, después de Brasil, la investigación ecoepidemiológica del Pecet arrojó que aquella se presentaba en zonas selváticas con fuerte presencia de grupos armados irregulares, guerrilla y paramilitares; esto hacía -y todavía hace- que estudiarla y brindarle atención a los pacientes sea de alto riesgo, de hecho uno de los investigadores del Pecet fue asesinado por la guerrilla en el mes de septiembre de 1998, en el Putumayo, mientras adelantaba estudios para su tesis de Maestría; y también pudieron constatar que la presencia de la enfermedad en los individuos que la padecían, se convertía en una especie de marca que conllevaba a un estigma social que les dificultaba recibir el tratamiento, el cual es de difícil consecución en las zonas de conflicto, se considera un arma de guerra y no está permitido venderlo en ninguna farmacia del país.Cuando a partir de 2014, los miembros de las Fuerzas Armadas aumentaron su presencia en esos territorios para combatir los cultivos ilícitos y los grupos ilegales, sufrieron por decenas de miles la leishmaniasis, enfermedad, que al igual que el dengue, no dispone ni de vacunas ni de medicamentos para prevenirla. Esta realidad de falta de buenos métodos de diagnóstico, de medicamentos, de vacunas y de medidas de prevención para las enfermedades olvidadas llevó al doctor Vélez y su grupo a cambiar la orientación de la investigación. Además de estudiar esas enfermedades para formar estudiantes y hacer artículos científicos, indicadores importantes del qué hacer de la Universidad, el doctor Vélez y su grupo decidieron aprovechar las fortalezas que tiene esta y apostarle a desarrollar productos: medicamentos, procedimientos, diagnósticos y medidas de prevención y control.Este fue un gran paso que vinculó la investigación con la producción de soluciones para combatir estas enfermedades. Fue el tránsito de la investigación teórica y la docencia a la innovación con profundo sentido social, iniciativa en la que ha contado con el respaldo de las directivas universitarias y de entidades internacionales que hasta ahora no ha parado, y que le ha venido entregando grandes beneficios a la salud del país, especialmente a los más vulnerables. En efecto, el Pecet ha recorrido el camino de desarrollo de productos en todas sus fases, desde el descubrimiento, sea basado en las plantas utilizadas por nuestros ancestros, o con disciplinas de última generación como la bioinformática, los estudios en células humanas y en animales, hasta los estudios clínicos, en humanos.El Pecet tiene ya unas 20 patentes, pero la idea central es desarrollar medicamentos económicos y seguros que le lleguen fácilmente a la población. Y es de resaltar que estos productos de innovación han sido, casi todos, el resultado de la colaboración con investigadores de la Universidad de Antioquia, de otras universidades nacionales y extranjeras y de la empresa privada. Con una empresa nacional desarrolló una pintura para controlar los mosquitos vectores, con ingenieros de la universidad nuevos tratamientos a base de calor local, con universidades públicas y privadas y empresas locales cremas para tratar la leishmaniasis y con alianzas nacionales e internacionales métodos más fáciles y sensibles de diagnóstico. Ya son 25 años trabajando incansablemente en la evaluación clínica de nuevos medicamentos, vacunas y medidas de prevención.Control biológico del dengueYa se reseñó que el dengue se está comportando desde el año pasado como una verdadera epidemia en Colombia y en América Latina. La comunidad científica internacional ha tenido relaciones de vieja data con el Pecet, que ha publicado más de 500 artículos sobre las enfermedades tropicales, ha albergado a centenares de investigadores invitados de todas partes del mundo y ha ofrecido su tutoría a centenas de estudiantes de pregrado, maestría y doctorado nacionales y extranjeros. Esa comunidad también conoce sus desarrollos tecnológicos y productos de innovación.En ese contexto, la Universidad de Monash, en Australia, contactó en 2013 al Pecet para que liderara en Colombia el World Mosquito Program para evitar el dengue, el Zika y el chikungunya mediante la liberación masiva de mosquitos Aedes aegypti infectados con una bacteria de insectos llamada Wolbachia.La Wolbachia es la bacteria de insectos más abundante, más diversa y más versátil de toda la biota. Se trata de una bacteria Gram negativa, intracelular obligada, que infecta exclusivamente células de insectos como la mosca de la fruta, polillas, mariposas, libélulas, etc., y que pasa de generación en generación a través de sus huevos.Fue descrita por primera vez en 1924 por Samuel Wolbach y Marshall Hertig, quienes la descubrieron en el tejido ovárico de un mosquito Culex pipiens y por ello denominaron a la bacteria Wolbachia pipientis. En la década de los años 50, gracias a los avances en genética, Ghelelovitch y Laven observaron que al realizar ciertos cruces entre mosquitos Culex infectados con Wolbachia, éstos eran incapaces de generar descendencia. El fenómeno fue llamado “incompatibilidad citoplasmática”. En 1997, se descubrió de manera casual una cepa de Wolbachia que produce una importante reducción del tiempo de vida del insecto. Posteriormente el Dr. Scott O Neil, de la U de Monash, en Australia, logró pasar la Wolbachia de la mosca de las frutas a los Aedes aegypti y observó que los mosquitos Aedes aegypti con Wolbachia pierden la capacidad de transmitir el virus del dengue. Luego se demostró que tampoco pueden transmitir los virus, Zika, chikungunya, Fiebre amarilla y un nuevo virus que tenemos en las selvas amazónicas y que se llama virus Mayaro.En este punto, quizá sea necesario recalcar cómo funciona el control biológico del dengue y otros virus del Aedes aegypti: Si un mosquito macho con wolbachia se aparea con una hembra que no la tiene, sus huevos no nacerán por aquello de la incompatibilidad citoplasmática. Si el mosquito hembra tiene wolbachia, pero el macho no, o cuando macho y hembra tienen Wolbachia, todos sus descendientes nacerán con la bacteria. Al liberar en las ciudades que sufren del dengue los Aedes con Wolbachia, con el paso de las generaciones, los mosquitos con Wolbachia aumentarán hasta que casi todos ellos sean portadores de la bacteria y la ciudad va a tener cada vez menos casos autóctonos de la enfermedad.Las liberaciones de Aedes con Wolbachia iniciaron hace una década en el norte de Australia, en las ciudades donde había dengue y se logró evitar completamente la transmisión del virus desde hace ya siete años. El paso siguiente fue probar este método en otras ciudades y regiones con alto índice de prevalencia de dengue y se creó una organización sin ánimo de lucro llamada World Mosquito Program, WMP, que ha ido expandiéndose en el mundo y está actualmente en doce países: Australia, Indonesia, Vietnam, Brasil, Colombia, México, India, Sri Lanka, Fiji, Vanuatu, Nueva Caledonia y Kiribati, liderado por la Universidad de Monash y financiado por Wellcome Trust, la Fundación Bill & Melinda Gates y los gobiernos de Estados Unidos y el Reino Unido.En Colombia, en 2015 y luego de recibir todos los permisos de las autoridades regulatorias, del Comité de Ética y de la comunidad, el Pecet, que lidera el Programa, inició una prueba piloto en el barrio París, de Bello, donde la misma comunidad se encargó de la liberación, a pie, de los mosquitos con Wolbachia. Después de un tiempo, la gran mayoría de la población de Aedes aegypti de esa zona tenía la bacteria, y gracias al monitoreo permanente, se ha comprobado que aun la portan. Esto significa que ya no hay transmisión local de estos virus allí.Fue una tarea que se hizo con mucha transparencia y respeto y con una gran participación de la comunidad. El trabajo multidisciplinario de médicos, enfermeras, entomólogos, comunicadores sociales y sociólogos del Pecet, con el apoyo de todas las autoridades del municipio y de los líderes sociales, lograron convencer a los ciudadanos de la inocuidad de los insectos para los humanos y el gran beneficio que traería para los habitantes.Posteriormente y dadas las epidemias sucesivas de dengue, chikungunya y Zika que se vivieron en Latinoamérica, la Organización Mundial de la Salud solicitó a los gobiernos brindar toda su colaboración para que las nuevas y promisorias medidas de control fueran rigurosamente evaluadas en cuanto su eficacia.Para responder este llamado el Pecet y el WMP elaboraron un protocolo para evaluar la eficacia mediante las liberaciones de mosquitos con Wolbachia en todo Bello y Medellín, protocolo que también fue aprobado por las autoridades y la comunidad y que recibió una importante financiación internacional. Para llevarlo a cabo el Pecet recorrió comuna por comuna ambas ciudades y fue explicando muy bien a las personas, a los líderes, estudiantes y en general a toda la comunidad en qué consistía el control biológico, resolvieron todas las dudas y posteriormente recibieron la aprobación masiva al proyecto, según lo pudieron constatar empresas encuestadoras independientes.El nuevo reto de liberar masivamente los mosquitos en dos ciudades donde viven tres millones de habitantes, implicó construir una moderna biofábrica para producir los mosquitos y utilizar camionetas, motos y en algunas zonas se fue a pie a liberar los mosquitos semanalmente durante 20 semanas. Cada semana se capturan mosquitos en cada comuna y se llevan a la biofábrica para medirles mediante modernas técnicas de biología molecular el porcentaje de ellos que tiene la Wolbachia. De esta forma los investigadores del WMP saben que en las dos ciudades la mayoría de los mosquitos ya tienen la bacteria. El 21 de octubre del año pasado se hizo la última liberación, en la última comuna, pero los efectos se van viendo ya.Como se dijo anteriormente, mientras toda Colombia sufre desde hace más de un año una gran epidemia de dengue, en el valle del Aburra la situación de seguridad es muy distinta. No ha habido una sola semana donde los casos de dengue sean de niveles de alarma y mucho menos de niveles de epidemia. La exitosa experiencia ha servido para que Cali, Sabaneta e Itagüí hayan seguido el camino del control y ya se están liberando los Aedes con Wolbachia allí y ciudades como Villavicencio, Cúcuta, Montería y Armenia lo estén solicitando.Otros países como Paraguay, Perú y Cuba, están interesados en este control biológico y el plan es de producirles los huevos de los mosquitos con Wolbachia en la biofábrica de mosquitos y exportarlos allí.La biofábrica de mosquitosConsiderada por expertos internacionales como la más moderna de América latina. Tiene 1.300 metros cuadrados y está ubicada en el sector de La Aguacatala, ha sido visitada por delegaciones de unos 50 países del mundo y tiene la capacidad de producir semanalmente 20 millones de mosquitos con Wolbachia. Para producir semejante cantidad, los miembros del Pecet han desplegado su ingenio creando, por ejemplo, formas novedosas de contar grandes cantidades de huevos de mosquitos en un tiempo mínimo; o se han diseñado en los recipientes de reproducción, nuevos dispositivos para alimentar los mosquitos y para separar las larvas y las pupas machos de las hembras.Por la cooperación con la Universidad de Monash y por la filosofía del WMP como entidad sin ánimo de lucro, los productos del conocimiento no son patentados, sino que son de acceso libre para la comunidad científica. El Pecet lo hace de manera gustosa, a sabiendas de que ese conocimiento y esa tecnología apuntan a resolver problemas de salud pública en el país, pero también en el exterior.Ahora bien, las autoridades nacionales, regionales y locales no le han dado todavía la importancia que se merece este método de control, el único que funciona permanentemente. Y eso que la epidemia de dengue se expande velozmente en el país y el Zika y el chikunguña se quedaron con nosotros. Por eso es hora de actuar. Para ello personas como el doctor Vélez y su grupo del Pecet están dispuestas a trabajar infatigablemente y a ponerse la camiseta, cooperando con los tomadores de decisiones y con la academia, para logar que este programa tenga una verdadera repercusión nacional e internacional.De eso se trata la ciencia abierta al servicio de los más vulnerables.
En el modelo estándar de la cosmología, la energía oscura aporta el 70% de la energía total del universo. La existencia de este tipo de energía, si bien es hipotética, es ampliamente aceptada e incluso se han dado premios Nobel por su causa.Pero todo el modelo que implica la existencia de la energía oscura podría venirse abajo, ya que un nuevo estudio llamado Evidence for anisotropy of cosmic acceleration, refuta las que son consideradas las principales pruebas de su existencia.La energía oscura es una forma hipotética de energía presente en todo el universo, que acelera su expansión. Este es el modelo más aceptado para explicar las observaciones de que el universo parece estar en expansión acelerada. Si la energía oscura es real, el universo se va a expandir cada vez más rápido, si no lo es, la expansión debería ralentizarse hasta eventualmente detenerse e incluso contraerse, en cuyo caso el universo colapsaría nuevamente en un punto.La evidencia más importante de la existencia de la energía oscura viene del desplazamiento al rojo de supernovas. Saul Permutter y Adam Riess ganaron un premio Nobel por esa observación en 2011. Pero este descubrimiento ahora es seriamente cuestionado.Supernovas: la prueba reinaSabine Hossenfelder, física e investigadora del Instituto de Estudios Avanzados de Frankfurt, explica que los astrofísicos entienden bastante bien cómo se dan ciertas supernovas, lo que permite calcular cuánta luz emite la explosión como una función del tiempo. Pero entre más lejos esté una supernova, más tenue se ve. Se puede entonces, por su brillo, determinar la distancia y el color de la luz. La onda electromagnética emitida por la supernova se va a estirar si el espacio se expande, mientras la luz viaja de la supernova a nosotros, por lo que llega aquí con una frecuencia corrida al rojo.Lea:Los polos magnéticos no permanecen quietos“Entre más lejos la supernova, más se tarda en llegar la luz a nosotros y hace más tiempo la supernova debió suceder. Significa que, si se miden supernovas a diferentes distancias, en realidad sucedieron en diferentes tiempos y es posible saber cómo la expansión del espacio cambia con el tiempo, de eso se trató el trabajo de Permutter y Riess. Ellos encontraron que lo único que podía explicar los datos encontrados sobre que la expansión del universo se está acelerando, por lo que la energía oscura debería existir”, agrega la experta.Permutter y Riess hicieron su análisis hace dos décadas y usaron unas muestras de cerca de 110 supernovas de tipo Ia. Para la nueva publicación, los investigadores usaron 740 supernovas del catálogo JLO (Joint Light-curve Analysis), pero también explican que si sólo se usan esos datos se obtienen resultados erróneos, porque esos datos ya han sido previamente corregidos.Los investigadores utilizaron los datos no corregidos y encontraron que el corrimiento al rojo de las supernovas no es igual en todas las direcciones. “Y esa dirección depende de cómo nos movemos a través del fondo de microondas y no se necesita un corrimiento al rojo más lejano para explicar las observaciones. Si lo que ellos dicen es correcto es innecesario postular la existencia de la energía oscura”, explica Hossenfelder.G299, remanente de una supernova de tipo Ia, las más potentes de todas, proporcionan la principal prueba directa de la existencia de la energía oscura.Más pruebas en contraAdicional a este, otro estudio publicado en enero de este año, llamado Early-type Host Galaxies of Type Ia Supernovae. II. Evidence for Luminosity Evolution in Supernova Cosmology, cuestionó el uso de las supernovas como estándar de luminosidad. Esto debido a que las estrellas de diferentes edades podrían tener diferentes índices de luminosidad, y cuando se toman datos de supernovas cuya luz ha viajado por mucho tiempo, se toman datos de estrellas jóvenes que podrían mitificar los efectos de la energía oscura. En ese mismo estudio, el autor también afirma que no es necesaria la energía oscura para lograr explicar las observaciones.“Hay otras evidencias sobre la energía oscura, pero no son evidencias sobre la energía oscura en particular sino de una cierta combinación de parámetros: la cantidad de materia oscura, la cantidad de materia normal y la Ley de Hubble”, afirma la física.Puede leer:Relatividad Especial para el entendimiento de los profanosHossenfelder señala que debido a estas nuevas pruebas se hace necesario que otros investigadores analicen los datos existentes y se determine si es necesario postular la existencia de la energía oscura para explicar la actual aceleración de la expansión del espacio.“Este no es un resultado que se pueda tomar a la ligera y merece prestarle atención, más teniendo en cuenta que cuestiona un descubrimiento por el que se otorgó un premio nobel”, concluye.
Las brújulas ya no apuntan a donde lo hacían hace cien años. Pero no es algo nuevo, los polos magnéticos terrestres se han movido durante miles de millones de años. Solamente desde 1831, el polo norte se ha desplazado cerca de 200 kilómetros.La humanidad hace seguimiento periódico al campo magnético terrestre (CMT) desde hace dos siglos, ya entonces se notó este fenómeno, pero en los últimos años el movimiento rutinario del polo magnético se ha acelerado, lo que ha obligado a los científicos a realizar una modificación del Modelo Magnético Mundial, el cual define las bases de la navegación y la telefonía móvil.Los polos se inviertenEl seguimiento periódico a las variaciones del CMT ha permitido determinar que el escudo invisible de la Tierra no solo se mueve, también se está debilitando. Las simulaciones reflejan lo que ocurre: el campo magnético oscila en su crecimiento, los polos se mueven y se invierten. Hay inversiones no periódicas, la última sucedió hace 780.000 años. La inversión tarda miles de años en completarse, tiempo durante el cual las líneas de fuerza magnética en las proximidades de la superficie terrestre se enredan entre sí y los polos magnéticos pueden aparecer en cualquier lugar de la Tierra. Pero el campo no desaparece y sigue cubriendo el planeta de radiación espacial y tormentas solares.Aun así, está debilitación significaría una mayor entrada de rayos dañinos a la Tierra y mayores tasas de cáncer de piel. El hecho de que los polos se estén moviendo de manera aleatoria también perjudicaría los sistemas basados en el CMT.Investigaciones recientes han revelado que este debilitamiento no significa necesariamente que pueda a haber una inversión pronto, aun así se necesita una mayor comprensión del CMT. Para ello, hay que recabar en su historia, buscar pruebas en las rocas. Las investigaciones apuntan a que el campo ha existido en la Tierra desde hace aproximadamente 3.800 millones de años.Las brújulas utilizan una aguja imantada para señalar el polo norte magnético terrestre. Como este ha cambiado, la dirección de la aguja cambia.La dínamo terrestreSe busca en el centro de un mundo al que no se pude llegar la historia de una fuerza que no se puede ver. La búsqueda a la explicación de cómo funciona el CMT la inició en 1600 William Gibert al comparar la tierra con un gran imán. En la actualidad, sigue sin saberse con seguridad qué sucede en el núcleo terrestre que permite la creación de este campo alrededor el planeta, la explicación más aceptada es la hipótesis de la dínamo.Mediciones indirectas han permitido saber que la Tierra consta de un núcleo interno esférico, presumiblemente sólido, y un núcleo externo líquido, constituido, en su mayoría, de hierro y níquel. El núcleo es un mundo dentro de otro mundo: su parte sólida tiene un tamaño del 70% de la luna; gira con período propio, 0.2 grados de longitud más rápido que el de la superficie de la Tierra por año y está rodeado por un océano de hierro líquido.El núcleo externo, en su parte superior, alcanza los 3.000 °C y supera el millón de atmósferas de presión. Es una gran cantidad de hierro entre 2.900 y 5.100 metros bajo la superficie. La pérdida de calor del núcleo líquido se da por transporte de materia caliente hacia la superficie (movimientos de convección) y de la materia fría hacia el interior. Estos movimientos generan una especie de gran dínamo, generador de campo magnético, en el núcleo externo de la Tierra. El movimiento del fluido metálico, buen conductor de la electricidad, a través de un campo magnético, induce corrientes eléctricas que a su vez crean un campo magnético. Aunque la hipótesis de la dínamo es la solución más aceptada, son muchos los interrogantes que no responde, no es claro cómo se combina el CMT con los movimientos de convección ni cómo se mantiene el equilibrio, también hay dudas sobre cómo se formó y qué condiciones requiere.Las auroras polares (australes y boreales) son causadas por el campo magnético terrestre. Respuestas en el espacioSi el campo magnético de todos los astros funciona como una dínamo, también es posible encontrar pruebas de lo que ocurre bajo nuestros pies observando las estrellas. La presencia de un campo magnético dentro de un cuerpo puede revelar cómo se formó el núcleo que genera ese campo.El estudio de los campos magnéticos del Sol, la Luna, Marte e incluso de cuerpos fuera del sistema solar ha brindado aportes al entendimiento, aunque también han generado nuevas sombras. Precisamente, una falla del modelo de la dínamo son las predicciones que se hacen sobre los campos magnéticos de otros planetas.Los descubrimientos de rocas magnetizadas en la Luna y de un campo activo en Mercurio generaron nuevas dudas. La hipótesis señalaba que estos cuerpos eran demasiado pequeños, por lo que se habían enfriado demasiado rápido para generar un campo magnético auto-sostenible.La idea de que los campos magnéticos de otros cuerpos funcionan de manera distinta a como se plantea y lo hace el CMT se ha visto reforzada con el estudio de otros cuerpos del sistema solar. Un claro ejemplo son Urano y Neptuno, los cuales no deberían poseer campos magnéticos al tener núcleos rocosos. En 1986 y 1989, el Voyager 2 mostró la existencia de campos magnéticos en ambos planetas.“Entender el campo magnético de otros cuerpos no solo es importante por la analogía al CMT, sino por la influencia que pueden tener sobre este, puntualmente el campo magnético solar. El CMT se produce principalmente en el núcleo externo, pero hay elementos extrínsecos a la tierra que influencian su campo magnético: Los modelos muestran la interacción entre el CMT y los fenómenos solares”, señala Julio Cesar Gianibelli en el artículo Geodinámica y observatorios geomagnéticos. Pero para entender esta influencia se requiere el esfuerzo de numerosos científicos y la invención de nueva tecnología.Los avances en capacidad computacional y el interés que ha despertado en la comunidad científica el hecho de que el CMT se esté debilitando podrían permitir un mejor entendimiento de este fenómeno en los próximos años. La hipótesis de la dínamo es aquella aceptada por consenso por ser la que más se ajusta a las observaciones, pero no es la única que logra explicar con capacidad predictiva el funcionamiento del CMT y no tiene que ser la respuesta correcta al enigma.
Pocas personas fuera de la academia conocen las teorías de Albert Einstein. Al escuchar ese nombre algunos dirán que es un genio, otros sabrán que desarrolló las teorías de la Relatividad Especial y la Relatividad General, pero muy pocos conocerán, aunque sea conceptualmente, de qué tratan estas teorías. Carlos Duque, profesor de física en la Universidad de Antioquia, opinó que es una falla del sistema educativo este desconocimiento, ya que los fundamentos conceptuales pueden ser explicados de manera sencilla, “yo puedo hablar de relatividad perfectamente con una persona en la calle, hablarle de los conceptos básicos, puedo hablarlo de manera fenomenológica y conceptual utilizando experimentos mentales”.Para entender esta teoría es importante el contexto histórico de la física del momento. La Teoría de la Relatividad es una respuesta, nació de la solución de un problema fundamental de la física a finales del siglo XIX, la existencia del éter, medio invisible en que se suponía entonces que se propaga la luz.Lea:Sabios trazan hoja de ruta para ColombiaMichelson y Morley, físicos estadounidenses, pusieron la piedra angular en 1987 mediante un experimento que refutó la existencia del éter lumínico y se estableció la velocidad de la luz como una constante universal, esto entraba en contradicción con la mecánica clásica desarrollada hasta el momento. En 1905 Einstein propuso una nueva descripción del universo que evitaría estas contradicciones: la Relatividad Especial.Experimento de Michelson y MorleyEl propósito de Michelson y Morley era medir la velocidad relativa a la que se mueve la Tierra con respecto al éter. Al ser una onda que fluye en un material, la luz aumentaría y disminuiría de velocidad como un nadador en un río que es impulsado o frenado de acuerdo a la dirección de la corriente. Por ello, la luz debería llegar a la tierra con diferentes velocidades, una sutil diferencia, por cierto.Para entender el por qué de este cambio de velocidad, se puede hacer un sencillo experimento mental. Imagínese un río correntoso, usted lanza una roca justo donde la corriente va a mayor velocidad, al chocar esta contra la superficie del agua se crean ondas que se propagan en todas las direcciones, pero la propagación será más rápida en dirección de la corriente.Le puede interesar:Los demonios que se esconden tras la cienciaAhora imagine un escenario similar, pero esta vez en lugar de la onda generada por una piedra en la superficie del agua, suponga una fuente de luz, y en lugar de una corriente, suponga la órbita de la tierra, así entonces el éter debería actuar como el agua. El problema es que en los experimentos de Michelson y Morley esto no sucede: la velocidad de la luz no se ve afectada por la corriente. Por esto, y por los experimentos del físico escocés james Clerk Maxwell, se estableció la luz como una constante universal.Vía Láctea. Para estudiar las estrellas es necesario tener en cuenta la Relatividad Especial.Transformaciones Galileanas Para poder hablar de Relatividad Especial es necesario conocer un poco sobre el principio de relatividad de Galileo, quien dijo que el movimiento y velocidad de un objeto dependen del sistema de referencia desde el que se midan. Para entenderlo se debe seguir en la línea de los experimentos mentales.Entonces, vuelva al plano de lo imaginativo y visualícese sentado en la banca de una estación del Metro. Por la estación pasa un tren que va a velocidad constante. Dentro del tren un niño lanza una pelota hacia arriba. Para usted, que está por fuera del tren, el movimiento de la pelota es una parábola, pero para el niño es una línea recta vertical. Aunque parezca una contradicción, ambos tienen la razón.Además, lea:Supremacía cuántica: Google toca las puertas del mañanaMatemática y físicamente este fenómeno es descrito por unas ecuaciones conocidas como transformaciones de Galileo. Estas modelan la situación y describen el comportamiento de un observador que se encuentra en un marco de referencia respecto a otro que avanza con velocidad constante.Transformaciones de LorentzAhora, al imaginar que el niño del tren suelta la pelota y saca una linterna de su bolsillo. Al encenderla el niño verá como la luz se aleja de él a una velocidad. Según la relatividad galileana, se esperará que la velocidad de la luz respecto a usted sea la velocidad del tren sumada a la velocidad que calculó el niño. Pero esto no es así, la velocidad de la luz es constante, independiente de cuán rápido vaya ese tren.La respuesta a este problema no lo da la mecánica clásica, sino la física moderna. Para resolverlo sin caer en contradicciones se usan las ecuaciones lorentzianas del movimiento que generalizan las ecuaciones previas. Estas ecuaciones son conocidas como transformaciones de Lorentz. La resolución del problema con estas ecuaciones es lo que conocemos hoy en día como Relatividad Especial.Las consecuencias de la Relatividad Especial no se aprecian en el diario vivir de la gente debido a las bajas velocidades a las que nos movemos en comparación a la velocidad de la luz, pero si esto no fuera así, la manera como entendemos el tiempo y el espacio sería radicalmente distinta.Dilatación del tiempoAunque el tiempo parezca absoluto y que siempre avanza a la misma velocidad sin importar qué, la Relatividad Especial nos dice que el tiempo se alarga y se contrae. El tiempo transcurrido medido por dos observadores es diferente si hay una diferencia de velocidad relativa entre sí. Por supuesto, estas diferencias solo son notables cuando uno de los observadores viaja a velocidades próximas a la de la luz.Puede leer:Nobel de Física, para el estudio del cosmosEl mismo Einstein planteó una situación que involucra este fenómeno, conocida como la paradoja de los gemelos. Al imaginar que en una ciudad del futuro viven un par de gemelos. Uno de ellos se va en un viaje interestelar a una velocidad próxima a la de la luz. Cuando regresa del viaje y va a visitar a su hermano se percata que su hermano ha envejecido considerablemente más que él. El tiempo se ha dilatado.Pero no es tan simple, por algo se dice que es una paradoja. Visto desde la perspectiva del gemelo que está viajando, el que se está alejando, en realidad, es el gemelo en la Tierra, por tanto sus cálculos le dicen que él, quien va en la nave, debe envejecer más rápido. Esto fue lo que pensó Einstein inicialmente y no pudo obtener una respuesta hasta plantear la teoría de la Relatividad General: el gemelo de la tierra envejece más rápido.Pero la paradoja puede ser resuelta dentro de la teoría de la Relatividad Especial. Los cálculos para ello son complejos por lo que no se harán en este artículo. Si se toman los sistemas de referencia adecuados, los cálculos de ambos gemelos arrojan que el tiempo medido durante el transcurso del viaje es mayor para el gemelo que permanece en la tierra, por lo tanto envejece más.En la foto, el estudioso de la Relatividad, Albert Einstein.Contracción de la longitudNo solo el tiempo se ve afectado a altas velocidades, también el espacio deja de ser absoluto cuando un cuerpo se acerca a la velocidad de la luz. La contracción de Lorentz es un efecto de la Relatividad Especial que consiste en la contracción de la longitud de un cuerpo en la dirección del movimiento cuando su velocidad se aproxima a la de la luz.Un experimento mental famoso sobre este fenómeno es la paradoja barn-pole. Usted está en una granja y tiene una escalera de cierto largo y la necesita guardar en un granero que es solo la mitad del largo de la escalera. Este granero tiene dos puertas ubicadas en extremos opuestos, esta información será importante más adelante.Una persona común diría que es imposible, pero como usted ya conoce la Relatividad Especial y sabe que el espacio se contrae en la dirección del movimiento a grandes velocidades, pues solo necesita acelerar la escalera lo suficiente para que quede adentro justo antes de cerrar las puertas del granero.Las ecuaciones de Einstein dicen que si se acelera un cuerpo al 90% de la velocidad de la luz, este se contrae 2,3 veces, por lo tanto la escalera cabría en un espacio la mitad de grande.La paradoja está en que si un observador se sentase encima de la escalera, para él la escalera continúa midiendo lo mismo y es el largo del granero el que se ha contraído 2,3 veces.La solución de este problema es ciertamente complejo. Para un observador situado fuera del granero, en un momento ambas puertas estarían simultáneamente cerradas y la escalera dentro. En cambio el observador sobre la escalera vería abrirse la primera puerta, entrar la escalera, abrirse la segunda puerta, empezar a salir la escalera, cerrarse la primera puerta y finalmente cerrarse la segunda puerta.Estos dos ejercicios mentales desafían la comprensión que tenemos de la realidad porque estamos acostumbrados a vivir a bajas velocidades respecto a la velocidad de la luz.La Relatividad partió la ciencia en dosSi bien la Relatividad Especial no tiene efectos directos sobre nuestra cotidianidad, partió la historia de la física y del entendimiento del universo en dos. Tras esta teoría, se desechó la idea de un espacio absoluto y un tiempo absoluto, dos ideas aún arraigadas en el pensamiento común.Los resultados de esta teoría condujeron a planteamiento que van en contra del sentido común como la paradoja de los gemelos o la velocidad de la luz constante. La Relatividad Especial mostró que la realidad es mucho menos intuitiva de lo que creemos, lo cual fue reafirmado por la Relatividad General y la Mecánica Cuántica.Esta teoría ha sido comprobada en numerosas ocasiones. Hoy, más de 100 años después de su planteamiento, es una de las grandes teorías de la física.Efecto Doppler relativistaLa contracción del espacio y la dilatación del tiempo no son las únicas consecuencias de la Relatividad Especial, otro fenómeno interesante cuando se mira la realidad desde este modelo es el efecto Doppler relativista.El efecto Doppler tradicional es el aparente cambio de frecuencia de una onda producido por el movimiento relativo de la fuente respecto al observador. El ejemplo típico es la sirena de la ambulancia que se escucha aguda cuando se está delante de esta y grave cuando uno se queda atrás.El efecto Doppler relativista es el cambio en la frecuencia de la luz emitida por una fuente en movimiento relativo respecto a un observador. La velocidad de la luz no es relativa, sino absoluta, pero su frecuencia sí es relativa. Hagamos un último experimento mental para entender este fenómeno.Usted va en una nave espacial a cierta velocidad, su compañero va muchos kilómetros detrás suyo en otra nave, no puede verlo y la única forma de comunicarse es por medio de rayos de luz. Usted quiere saber si su compañero se acerca o se aleja de usted. Aunque la velocidad de los haces de luz que él envía claramente son constantes, la frecuencia no lo es. Con el color de la luz (la frecuencia de la onda electromagnética) puede saber.
“Un país en donde todas las niñas y los niños puedan estudiar; en donde podamos tomar agua del río; en donde las personas sean alegres y vivan en paz…”, así inicia la proclama de Colombia hacia una sociedad del conocimiento, el informe elaborado por la Misión Internacional de Sabios 2019.Este documento fue construido por 47 expertos en diferentes áreas del conocimiento, entre ellos reconocidos científicos como Serge Haroche, premio Nobel de Física. Es una hoja de ruta que la academia entrega al Gobierno Nacional para el diseño de políticas relacionadas con educación, ciencia, tecnología e innovación.“Hoy, los miembros de la Misión de Sabios estamos proponiéndole al Gobierno Nacional que, en representación de la Nación entera, dé los pasos definitivos hacia la ruta que nos llevará a la Colombia del conocimiento, para que ese sea el legado que le dejemos a la próxima generación”, señala la Misión en su proclama y explica que las metas son “ambiciosas, pero posibles”.Respecto a la viabilidad económica de estas estas propuestas, el bioquímico Moisés Wassermann, miembro de la Misión, indicó que si bien siempre tendremos limitaciones económicas, “habrá que decidir en un momento hacer un esfuerzo por encima de las limitaciones. La Misión propone unos mecanismos para aumentar el financiamiento y para llegar a recursos de más fuentes públicas y privadas”.PropuestasLa Misión plantea que el Sistema Nacional de Ciencia, Tecnología e Innovación (Sncti) sea autónomo y esté encabezado por el naciente Ministerio de Ciencia, Tecnología e Innovación (MinCTI), acompañado de un Consejo Nacional de políticas en ciencia, tecnología e innovación (CTI) y un Consejo Científico.En este contexto se pide mayor inversión en CTI, con el objetivo de aumentar la productividad de la economía, la sostenibilidad ambiental y el progreso social a través de mejores productos, servicios y actividades creativas. Aclaran que la financiación pública debe cuidarse de descuidar la ciencia básica, financiar investigación de frontera sin construir al tiempo amplios vínculos internacionales y desplazar inversiones privadas, aquellas que se harían de cualquier forma aún sin la inversión estatal. Para aumentar la inversión en CTI, la Misión propone elevar el mínimo de regalías destinado a este rubro del 10% al 25%, lo que requiere una reforma constitucional. Estos recursos se destinarían a educación a menores de 5 años en todo el país, a la financiación de centros e institutos de innovación e investigación regionales y a diferentes misiones emblemáticas planteadas en el informe.Y es que la educación es otro elemento fundamental en el informe: “Una educación transformadora demanda pedagogías nuevas. Hay que avanzar rápidamente en la universalización del acceso y la calidad de la educación, la nutrición, la salud, el afecto...”.Estas transformaciones requieren formar más maestros. La Misión propone la creación de un Instituto Superior de Investigación en Educación y Alta Formación de Maestros, así como un plan de becas y estímulos para el estudio de las ciencias básicas, como forma de acercar la investigación y la docencia.Grandes retosUna parte importante del esfuerzo de la Misión se enfocó en definir tres grandes retos para Colombia y cinco misiones que le permitirían al país hacer frente a los retos denominados Colombia equitativa, Colombia productiva y sostenible y Colombia-Bio.Wasserman explica que “los Objetivos de Desarrollo Sostenible (ODS) son el marco de referencia en los tres grandes retos propuestos y en ellos las cinco misiones emblemáticas”.Colombia biodiversa se refiere a un modelo de economía sostenible basado en diversidad natural y cultural para impulsar la bioeconomía y la economía creativa. El desafío está en dar un giro hacia una economía basada en el conocimiento y la conservación de recursos no renovables.Colombia productiva y sostenible se trata de industrializar el país, modificar la estructura productiva hacia industrias y servicios con alto contenido tecnológico y empresas de economía circular, con proyección exportadora, aprovechando las ventajas comparativas del país en recursos naturales y su academia.Lea también:Los demonios que se esconden tras la cienciaColombia equitativa enfrenta los problemas de exclusión y desigualdad social, el reto es lograr mejorar los niveles de educación y de salud, teniendo en cuenta que el modelo económico no debe estar basado en rentas, sino en el capital humano y el conocimiento.Misiones emblemáticasEn el marco de estos tres grandes retos y el cómo abordarlos, el informe establece una serie de misiones emblemáticas que profundizan en los temas más fundamentales para el cambio de rumbo del país.La primera misión propone reducir la desigualdad social y la pobreza multidimensional en Colombia a partir del conocimiento científico y la innovación social. Para ello plantea cinco proyectos regionales frente a la pobreza multidimensional, 320 proyectos de innovación social, contar con un banco de diez proyectos replicables a nivel nacional y crear y apropiar una política de innovación social.La segunda misión se trata de construir condiciones para que surja una generación de ciudadanos educados con calidad. Se propone que para 2026 la educación integral de niños de 0 a 5 años sea universal. Asimismo, para 2030, culminar la universalización de la educación media diversificada o con doble titulación de bachiller.La tercera propone que en 2030 se garantice el acceso al agua potable a los ciudadanos, la calidad de los cuerpos de agua, gestión óptima del recurso hídrico y protección de la sociedad ante eventos extremos. Su objetivo que es Colombia logre la conservación y uso sostenible del agua, minimización de los riesgos y maximización de la resiliencia de la biodiversidad, los ecosistemas y la sociedad frente al cambio climático.La cuarta misión plantea que para 2030, la bioeconomía represente el 10% del PIB y cree el 10% de los nuevos empleos. Asimismo, que la economía creativa represente el 8% del PIB y duplique el valor de sus exportaciones.La quinta misión propone que Colombia desarrolle un nuevo modelo productivo, sostenible y competitivo a partir de diversificar la economía, aumentar la productividad, aprovechar las tecnologías convergentes e industrias 4.0, con impacto ambiental reducido. Su meta es que, a 2030, el PIB duplique la participación de la industria manufacturera, aumente la de las industrias digitales a 3%, y se duplique la de la agricultura.AntecedentesEl 21 de julio de 1994, una Misión de Sabios le entregó al entonces presidente César Gaviria un informe que buscaba cambiar el rumbo del país. Esa hoja de ruta no fue seguida por los gobernantes de Colombia, aunque fue un referente, “y a un ritmo diferente al propuesto avanzó en el mismo camino”, indicó Wasserman.El académico señaló que este nuevo informe es completamente distinto al que se presentó hace 25 años. “El país es diferente. Antes la investigación era el hobby de personajes exóticos, hoy muchos sectores, empezando por los empresarios la consideran indispensable. La Misión de 1994 entregó al Presidente una semana antes de que terminara su periodo. Esta vez es casi tres años antes. El Presidente hizo un compromiso muy enfático de apoyo y seguimiento, y le dio inicio al funcionamiento de un Ministerio de ciencia y tecnología que nunca existió y siempre reclamamos desde la academia. Nadie puede saber qué va a pasar, pero las circunstancias son diferentes”.Adicionalmente, planteó la diferencia entre los informes de las misiones, “este es bastante más amplio, fue preparado por ocho grupos disciplinares diferentes, propone cinco misiones emblemáticas en cuyo marco se desarrollará gran parte de la actividad, y también propone algunas políticas transversales, en educación, en disminuir la normatividad, en financiamiento y en apoyo a centros, institutos y universidades”, agregó Wasserman.La Misión explica que el mundo de 2019 es diferente al mundo de 1994 en, por lo menos, tres aspectos: el progreso acelerado de diferentes tecnologías, la creciente evidencia del impacto del cambio climático, la existencia de nuevas formas de participación y expresión ciudadana.“Esta hoja de ruta debe concluir con un llamado de urgencia y en altavoz al Gobierno, a las universidades, a las diversas instituciones de ciencia, tecnología e investigación, a los empresarios y a la sociedad en general. La capacidad de crecimiento económico y de resolución de problemas sociales depende, en gran medida, de nuestras acciones hoy”, concluye el informe.Comisionados de la MisiónLa Misión se organizó en 8 focos: biotecnología, bioeconomía y medio ambiente; ciencias básicas y del espacio; ciencias de la vida y de la salud; ciencias sociales, desarrollo humano y equidad; energía sostenible; industrias creativas y culturales; océanos y recursos hidrobiológicos; y tecnologías convergentes e industria 4.0.-Tecnologías Convergentes e Industrias 4.0: Jean Paul Allain, Tim Osswald, Orlando Ayala y María del Pilar Noriega.-Energía Sostenible: Eduardo Posada, José Fernando Isaza, Juan Benavides y Angela Wilkinson (Reino Unido).- Biotecnología, Medio Ambiente y Bioeconomía: Cristian Samper, Federica Di Palma (Reino Unido), Esteban Manrique Reol (España), Michel Eddi (Francia), Silvia Restrepo, Ludger Wessjohan (Alemania), Germán Poveda, Elizabeth Hodson y Mabel Torres.- Ciencias Sociales, Desarrollo Humano y Equidad: Clemente Forero, William Maloney (Estados Unidos), Ana María Arjona, Sara Victoria Alvarado Salgado, Stanislas Dehaene (Francia), Johan Schott (Holanda) y Kyoo Sung (Corea del Sur).- Océanos y Recursos Hidrobiológicos: Andrés Franco, Jorge Reynolds, Juan Armando Sánchez y Sabrina Speich (Francia).-Ciencias de la Vida y la Salud: Rodolfo Llinás, Jorge Reynolds (también hace parte del eje Océanos y Recursos Hidrobiológicos), Nubia Muñoz, Isabele Magnim (Francia), Juan Manuel Anaya y Alejandro (Alex) R Jadad.-Industrias Creativas y Culturales: Ramiro Osorio, Camila Loboguerrero, Carlos Jacanamijoy, Alfredo Zolezzi (Chile) y Edgar Puentes.-Ciencias Básicas y del Espacio: Moisés Wassermann, Carmenza Duque, Ana María Rey y Serge Haroche (Francia, Premio Nobel).
Cuando Víctor Frankenstein vio la criatura que su mente diseñó y sus manos fabricaron, casi perdió la cordura debido al horror generado por su propia creación. La criatura de Frankenstein es ese monstruo que se esconde tras las cortinas de grandeza de la ciencia.Las ciencias naturales descubren y crean, sus logros pueden ser usados para fines útiles a la sociedad, pero también para fines desastrosos para ella. La misma tecnología que permite que se creen plantas nucleares de energía limpia fue la que se usó para destruir Hiroshima en la Segunda Guerra Mundial, la misma tecnología que se usa para curar enfermedades se podría usar para crear armas biológicas que amenacen la continuidad de la especie.Debate ético“Muchos sabios eminentes como Poincaré, Einstein y Russell han sostenido que la ciencia no formula juicios de valor, sino que se limita a informar sobre hechos”, señala Pablo Schulz en su artículo La ética en la ciencia publicada en la Revista Iberoamericana de Polímeros.Él afirma que las ciencias formales y las naturales son éticamente neutrales, pero los científicos pueden dejar de serlo: “La ciencia se corrompe cuando se pone al servicio de la destrucción, del privilegio, de la opresión o del dogma (...) La única protección contra el mal uso de la tecnología suele ser el debate abierto y vigoroso, incluso con la participación de los profanos en ciencias”.“La fuerza que mueve y acelera la transformación continua de nuestro mundo es la ciencia. Depende de nosotros, del homo sapiens, lo que se haga con esa transformación, la dirección que se le imprima y los objetivos que se intenten alcanzar con ella. Lo que nos está vedado es ignorarla o detenerla”, asevera Schulz.La ciencia sometida a juicioLa ciencia es acusada de ser responsable de algunos de los episodios más atroces de los últimos siglos: la bomba atómica, el napalm, el agente naranja e incluso del desarrollo de la tecnología causante en la crisis climática actual.Pero como escribió Isaac Asimov: “Fueron los científicos los que sintetizaron los plásticos que no son biodegradables, los gases venenosos y las sustancias tóxicas que contaminan el mundo. Sin embargo, fueron los científicos los que, a mediados de 1945, horrorizados por las bombas atómicas, rogaron que no se utilizaran contra las ciudades, y fueron los políticos y los generales los que insistieron en hacerlo y los que se salieron con la suya. ¿Cuál es la razón entonces de que un cierto número de científicos abandonara asqueado el campo de la física nuclear, y que otros tuvieran que luchar contra sus impulsos suicidas, mientras que no he oído hablar en mi vida de ningún político ni general que perdiera el sueño por esta decisión? ¿Por qué los científicos son considerados unos malvados y los políticos y generales unos héroes?”.Fueron los físicos nucleares temerosos de la capacidad destructiva de su creación quienes establecieron el Reloj del Apocalipsis para advertir del peligro de una guerra nuclear y ahora también alerta de otros peligros de origen científico como la nanotecnología y el cambio climático.Schulz asevera que “no se puede absolver a los científicos que empujan a sus semejantes a la guerra, a la miseria, a la opresión o a la conformidad con un dogma cualquiera. Por sus conocimientos, son más responsables que sus empleadores. (...) Pero no son los únicos culpables”.El fin de la evolución naturalHay muchos debates debates éticos importantes sobre el papel de la ciencia en el futuro de la humanidad, algunos de ellos muy próximos como el cambio climático, otros más lejanos como el establecimiento de una civilización interplanetaria. Pero hay un tema en especial que preocupa a muchos pensadores y científicos, la modificación del ser humano.Lea también:Supremacía cuántica: Google toca las puertas del mañanaEn el libro De animales a dioses, el historiador y escritor Yuval Noah Harari asegura que “la revolución científica puede resultar ser mucho mayor que una simple revolución histórica. Puede suceder que sea la revolución biológica más importante desde la aparición de la vida en la Tierra”. El diseño inteligente podría sustituir a la selección natural en la manera en que evolucionamos los seres humanos.La ingeniería genética está tan avanzada que hemos podido crear ratones que vivan más tiempo y ratones más inteligentes. Si se puede en un ratón, se puede en un ser humano, el genoma del ratón contiene unos 2.500 millones de nucleobases, el genoma del sapiens unos 2.900 millones. La diferencia no es muy grande.La mayor herramienta de edición genética es Crispr-Cas9, la cual podría generar que en el futuro los seres humanos puedan modificarse a voluntad, no solo en su apariencia sino incluso en su capacidad mental. Filósofos y científicos han planteado que si bien el Crispr es una herramiento con gran potencial médico, existen grandes riesgos en su uso, entre ellos que unos pocos tengan acceso a esta tecnología, creando una sociedad abismalmente desigual.Harari asevera que “nos costará mucho aceptar el hecho de que los científicos puedan manipular los espíritus al igual que los cuerpos y que, por lo tanto, futuros doctores Frankenstein podrán crear algo realmente superior a nosotros, algo que nos mirará de manera tan condescendiente como nosotros miramos a los neandertales”.Los riesgos de la computación cuánticaSi bien la computación cuántica no ocupa un punto central en los debates éticos, como si lo hacen la ingeniería genética y la inteligencia artificial. Merece un análisis aparte debido a su actualidad por el logro de la supremacía cuántica de Google.Numerosos expertos advierten de los riesgos que supone esta nueva computación para el sistema financiero, debido a que es un sistema criptográfico basado en el hecho de que los computadores existentes no pueden romperlo, pero para un computador cuántico de alto nivel no sería un gran reto.Sin embargo, “apenas en los años 90 aprendimos que los computadores cuánticos tenían ese potencial, inmediatamente empezó a aparecer el área de criptografía cuántica, hoy en día se sabe cómo hay que encriptar los sistemas de información para que sean robustos a ataques de computadores cuánticos”, explica Boris Rodríguez, profesor de mecánica cuántica de la Universidad de Antioquia.Esta postura de confianza frente a la computación cuántica es compartida por instituciones financieras como CaixaBank que actualmente tienen inversiones en el desarrollo de esta tecnología.Pero el debate ético cobra importancia cuando se pregunta ¿para qué se va a usar esta nueva tecnología? Por ejemplo “Google declaró que no iba a dejar usar su computador para fines militares, pero la competencia, D-wave, está usando su computadora cuántica, que no es tan poderosa como la de Google, en investigación militar”, señala Rodríguez.“Es ahí donde la sociedad y los ciudadanos tienen que tomar control. Esas computadoras son tan poderosas que no podemos dejar que las usen para cualquier cosa, los gobiernos apenas tengan computadoras cuánticas querrán desarrollar nuevas armas, por eso la ciudadanía debe hacer control (...) Tendrá que haber alguna especie de regulación para que no ocurran catástrofes”, apunta Rodríguez y agrega que por eso es importante que mientras se desarrolla la tecnología se realicen debates éticos sobre ella.
Imagine que usted es un científico y busca resolver un problema complejo, para ello tiene a su alcance una supercomputadora, aún así es necesario ma? de un año para obtener un respuesta debido a la capacidad cómputo del equipo. Ahora imagine que ese computador fuese cuántico y pudiese resolver el mismo problema en pocos segundos.Si bien la computación cuántica es poco conocida, esta tecnología podría ser la causante de una revolución en la computación. En un artículo publicado en Nature, investigadores de Google aseguraron haber conseguido la supremacía cuántica, o sea, resolvieron con un computador cuántico un problema que un computador convencional no hubiese logrado resolver en tiempos humanos.Google defiende haber logrado en tres minutos y 20 segundos una operación para calcular números aleatorios que al ordenador convencional más potente de la actualidad le llevaría 10.000 años.Diferencia entre computadores clásicos y cuánticos“La principal diferencia es el paradigma de computación, el computador cuántico procesa y transmite información en los estados cuánticos de un sistema cuántico. Mientras que los computadores que tenemos hoy en día basan su lógica y su paradigma de computación en estados clásicos: bits. Ahí está la revolución”, explicó Boris Rodríguez, profesor de mecánica cuántica de la Universidad de Antioquia.Un computador clásico trabaja con bits, o sea, puede estar en dos estados, uno o cero, en computación cuántica la unidad mínima es el cúbit, que es una combinación de esos dos estados, está en ambos al mismo tiempo. Allí se encuentra la clave del poderío del computador cuántico, ya que trabajar con cúbits le da una capacidad de procesamiento monstruosamente mayor.Rodríguez especificó que “ese cambio de velocidad y capacidad de cómputo no es despreciable, es de miles de años a minutos. Uno no puede despreciar eso”.Es necesario aclarar que los computadores cuánticos existentes actualmente son de bajo nivel debido a las limitaciones que existen con el hardware. Precisamente el logro de Google es mostrar que estos computadores de gran capacidad de procesamiento son más que un sueño.Y es que los cúbits son altamente inestables, La carrera por el dominio de la computación cuántica se trata de encontrar una forma de estabilizarlos para la producción en masa, ya que entre más poderosa se vuelve una máquina cuántica más difícil es controlarlos, para esto se necesita trabajar con temperaturas próximas al cero absoluto.Estas máquinas son propensas a sufrir pequeñas perturbaciones que pueden modificar la información y falsear los resultados. El más mínimo cambio de temperatura o una pequeña vibración pueden destruir el frágil estado de los cúbits.UtilidadSi bien la computación cuántica serviría para cualquier actividad que necesite gran capacidad de procesamiento. Desde la ciencia se planteó originalmente para resolver problemas de la ciencia misma.Rodríguez explicó que en este momento hay problemas importantes como modelar mejor el sistema climático terrestre, las mejores supercomputadoras se demoran un año en correr modelos elementales de esas simulaciones. “En un computador cuántico podríamos no solo mejorar las complejidades del problema sino correrlo en tiempos realistas”.Lea también:Una mujer paisa posee el gen del Alzheimer y el gen de su cura“Tenemos problemas computacionales para simular nuevos materiales o nuevos fármacos, comprender la formación de planetas, la estructura tridimensional de las proteínas. En este momento hay muchísimos problemas que requieren gran intensidad de cómputo”, indicó Rodríguez.“Se especula que cuando tengamos un computador cuántico funcionando la sociedad y la humanidad va a dar otro salto tecnológico porque la potencia en la capacidad de procesamiento es inmensamente más grande, eso quiere decir que mucho problemas que tenemos hoy en día se van a poder resolver”, añadió el docente.Otra área en la que se espera aprovechar la gran capacidad de cómputo de la computación cuántica es en el sistema financiero y la criptografía. Las maneras de encriptar actual y todo la seguridad digital existente serían un juego de niños para un computador cuántico potente.Demuestra que se puede volarGoogle comparó el hito con el primer avión de los hermanos Wright, no sirve para volar, pero demostró que se puede. Si bien el computador cuántico de esta empresa no sirve para correr otros algoritmos cuánticos, demostró el gran poder de la computación cuántica.Sundar Pichai, CEO de Google, dijo en una entrevista para la revista del MIT que “el primer avión voló sólo durante 12 segundos, por lo que no hay una aplicación práctica de eso. Pero mostró que un avión podía volar”.Google corrió un algoritmo diseñado especialmente para la supremacía, no es un computador de uso general, según explicó Rodríguez. Y no es que no existan otros algoritmos, hay algoritmos cuánticos que están esperando por la computadora cuántica, el gran problema es el Hardware. Ese computador no podría correr esos otros algoritmos.“La comunidad de físicos cuánticos llevábamos mucho tiempo pensando en si era posible o no hacer el computador cuántico y lo que muestra el equipo de Google es ese primer avión incipiente que voló como 10 metros”, agregó Rodríguez.El CEO de Google reconoce que queda mucho camino por recorrer antes de que las computadoras cuánticas se conviertan en una realidad práctica. Google ha pasado trece años en este proyecto y pueden transcurrir décadas antes de que estos ordenadores sirvan a la industria.Recuadro: Crítica de IBMIBM, uno de los competidores de Google por el dominio de la computación cuántica, ha dicho que 'una simulación ideal de la misma tarea puede ser ejecutada por un sistema convencional en 2,5 días y con mayor fidelidad'.Boris Rodríguez, profesor de mecánica cuántica de la Universidad de Antioquia, explica que IBM no ha mostrado pruebas al respecto, mientras que el artículo de Google tiene una información muy detallada.Y es que IBM tiene intereses en llevar la delantera en la carrera, este año la empresa presentó el IBM Q System One, el primer ordenador cuántico para uso comercial. En este se combina la computación cuántica con la tradicional para ofrecer un sistema de 20 cúbits. El 18 de Septiembre, IBM anunció que lanzará pronto su decimocuarto ordenador cuántico de 53 qubits, el más grande y potente de forma comercial hasta la fecha.
Pocos científicos en el mundo saben tanto del Alzheimer como el doctor Francisco Lopera, coordinador del Grupo de Neurociencias de Antioquia (GNA), de la Facultad de Medicina de la UdeA. Su grupo lidera la investigación que podría llevar al desarrollo de un tratamiento efectivo contra esta enfermedad que, según estimaciones del Alzheimer's Disease International (organización que agrupa a más de 80 asociaciones de Alzheimer internacionales), afecta a casi 30 millones de personas en el mundo.Desde hace décadas, este investigador realiza una labor exhaustiva que lo llevó a descubrir el gen causante del Alzheimer prematuro en 25 familias antioqueñas. A partir de esto, el científico colombiano ha centrado su carrera en el estudio del caso especial de estas familias y la búsqueda de un tratamiento eficaz contra la enfermedad.La más reciente publicación del equipo liderado por el investigador reveló que encontraron una persona que posee al mismo tiempo el gen causante de la enfermedad y otro gen que la protege. EL MUNDO entrevistó al doctor Lopera para conocer a fondo los detalles del caso y las repercusiones que puede tener en el desarrollo de un tratamiento efectivo contra el Alzheimer.Lea también:“Antioquia está sobre una mina de oro gasesoso”, Dr. Lopera¿Primero que todo, Dr. Lopera, explique de qué se trata la investigación que usted está liderando sobre el Alzheimer?Desde hace 35 años, estamos haciendo un seguimiento a 6.000 personas que pertenecen a 25 familias afectadas con Alzheimer hereditario; de esas, hay 1.200 personas que portan el gen de la mutación paisa y que están condenadas a sufrir la enfermedad.¿Qué es lo especial del caso mencionado en el artículo publicado en la revista Nature Medicine el 4 de noviembre?Hace algunos años detectamos un miembro de una de esas familias que teniendo la mutación, a la edad de 70 años todavía no había desarrollado problemas de memoria. Esto es supremamente raro, porque normalmente los portadores de la mutación se enferman a los 44 años de problemas de memoria, a los 49 de demencia y mueren hacia los 60. Lo primero que nos llamó la atención es que habiendo entrado ya a la década de los 70 estaba viva, segundo que estaba sana, no tenía problemas de memoria, no tenía demencia. Supusimos que tenía algo que la protegía y que la había protegido por lo menos por 30 años.Procedimos a invitarla a someterse a otros estudios, la llevamos a Boston (Estados Unidos) y allí se le hicieron exámenes, uno de ellos fue el genoma total, en el que se encontró que además de la mutación que produce la enfermedad de Alzheimer ella tenía una mutación llamado Apoe, que la protege. Se trata de una persona excepcional, quien porta al mismo tiempo un gen que produce la enfermedad de Alzheimer y otro gen mutado que la protege. De hecho, le hicimos los exámenes de amiloide y tau, que son las dos basuras proteicas que se depositan en el cerebro, y encontramos que ese cerebro está lleno de amiloide, pero tiene muy poco tau. Suponemos, que lo que está haciendo esta mutación es protegiéndola de la taupatía y, probablemente, esa es la razón por la cual apenas ahora, después de los 70 años, está empezando a tener problemas de memoria y ha estado protegida prácticamente tres décadas de la enfermedad. Es una persona que heredó el gen de Alzheimer y heredó el gen de la cura del Alzheimer.En la foto, la sede de estudios clínicos de medicamentos para la prevención del Alzheimer de la Universidad de Antioquia.¿Es concluyente que ese gen sea el responsable de que ella no se haya enfermado?La probabilidad de que sea ese gen es altísima y por eso la revista decidió publicarlo. Realmente se demuestra en muchos experimentos que la condición de tener esa mutación tan rara es la que está produciendo el efecto protector.Además, lea:Crispr podría ser la fuente de la eterna juventud¿Esa doble mutación que ella tiene es posible que la tengan otras personas?De las 6.000 personas investigadas, ella es la única que la tiene. Esa mutación es recesiva, quiere decir que la señora tiene la mutación en los dos genes, pero otras seis u ocho personas en su familia, que no están protegidas, tienen la mutación y son heterocigotos, que no está en los dos alelos sino sólo en uno. Es decir, que lo que protege es tener la mutación en los dos alelos.Ese hallazgo fue muy casual. Por ahora, no hay otro caso reportado en el mundo, pero puede que se encuentre en otra persona lo mismo o algo similar, que busquen en otras familias alrededor del mundo y encuentren a alguien que porte en su cuerpo el gen de la enfermedad y un gen de la cura.¿Se podría, entonces, realizar edición genética a personas con riesgo de tener Alzheimer o la tecnología aún no es suficiente para ese tipo de tratamientos?Teóricamente, se podría hacer. Por un lado, se puede desarrollar terapia génica, inocular a una persona que tiene el riesgo de sufrir Alzheimer, esa información genética que la protege a ella, de esa manera podría replicarse la protección en otras personas y servir como un tratamiento preventivo.La otra opción, es desarrollar un medicamento que simule el mecanismo de acción de la mutación que está protegiendo a la señora, que creemos que es el hecho de evitar que tenga mucha taupatía. Un medicamento que imite ese mecanismo de acción sería ideal también y posiblemente eso es lo que se va a desarrollar a partir de ahora.¿No es posible que se desarrollen las dos opciones de manera paralela?Probablemente, habrá investigadores que se concentren en la opción de terapia génica y otros que se concentren en la opción de terapia farmacológica, no sabemos cómo va a evolucionar el asunto.Lea:Ciencia y tecnología en Colombia: ¿ministerio o menester?¿Existe la posibilidad de que a diez años existan los medicamentos o la terapia génica?Puede que antes de 10 años se haya desarrollado, porque hay mucho interés en encontrar una alternativa. Es posible, que en los próximos cinco años haya algún desarrollo importante en esa dirección.¿Quiénes liderarán esas investigaciones?Probablemente, esas investigaciones nuevas se van a hacer en el exterior. A partir de esta información que fue publicada, mucha gente va a empezar a hacer experimentos. Seguramente, habrá grupos que vayan a realizar experimentos adicionales, con industrias farmacéuticas, que aprovechen ese conocimiento para desarrollar algún medicamento. Falta ver cómo va a reaccionar la comunidad científica; pero, indudablemente, van a haber respuestas en esas direcciones.¿Cuál ha sido el papel de la comunidad científica colombiana en estas investigaciones?Este descubrimiento es de colombianos. Yo estoy en una colaboración con el Hospital de Massachusetts, en al que está una colombiana quien fue miembro del Grupo de Neurociencia de la Universidad de Antioquia, también otro investigador quien se formó como joven investigador en el Grupo de Neurociencia y ahora es investigador en Harvard. Hay otro coautor, quien es norteamericano, con él trabajamos desde el 2010; pero, este experimento es básicamente colombiano, en provecho del país y en colaboración con investigadores en Estados Unidos. De ahora en adelante, probablemente, se va a desatar una cadena de experimentos por fuera de Colombia.Familia con gen hereditario causante del Alzheimer.¿De qué se trata el ensayo clínico que está realizando su grupo de investigación?Desde el año 2013, se está haciendo el ensayo clínico con un medicamento experimental en 252 personas sanas de estas familias con alto riesgo de desarrollar la enfermedad.En el año 2022 vamos a publicar si el medicamento fue eficaz para retrasar el inicio de los síntomas o para prevenir los síntomas de la enfermedad. Es una investigación que está en curso y quizá es la investigación más importante que se está haciendo ahora en el país.¿Cómo ha sido la colaboración de los miembros de estas familias involucradas en el estudio?Estos descubrimientos se logran gracias a la colaboración de la gente en las investigaciones. Estas enfermedades incurables no hay manera que sean resueltas por los pacientes solos ni tampoco van a ser resueltas por los científicos solos. Es una cosa que solamente a medida en que trabajemos juntos investigadores y pacientes vamos a encontrar en el futuro una solución. Hay que agradecerles a ellos, por participar en las investigaciones, por someterse a pruebas y experimentos, por donar los cerebros de los seres queridos que fallecen con la enfermedad. Nos interesa mucho que la comunidad siga participando y colaborando en estas investigaciones.En una mirada general al Alzheimer, ¿qué tanto sabemos sobre la enfermedad? ¿Se conoce lo suficiente o apenas estamos empezando a entenderlo?Se conoce mucho, se ha aprendido mucho en los últimos años, pero, desafortunadamente, todavía no tenemos una alternativa para la solución, por eso es que hay tanto interés en el asunto. Estamos todavía muy atrasados en comprender profundamente la enfermedad para poder encontrar una solución efectiva.El primer caso documentadoEl siguiente es un extracto de Acerca de una peculiar enfermedad de la corteza cerebral, de Alois Alzheimer, publicado en 1907:Uno de los primeros síntomas de una mujer de 51 años fue un fuerte sentimiento de celos hacia su marido. Pronto, mostró progresivos fallos de memoria, no podía encontrar el camino a casa, arrastraba objetos sin sentido, se escondía o a veces pensaba que otras personas querían matarla, de forma que empezaba a gritar.Durante su internamiento, sus gestos mostraban una completa impotencia. Estaba desorientada en tiempo y espacio. De cuando en cuando decía que no entendía nada, que se sentía confusa y totalmente perdida. A veces, consideraba la llegada del médico como la visita de un funcionario y pedía perdón por no haber acabado su trabajo, mientras que otras veces comenzaba a gritar por temor a que el médico quisiera operarla. En ocasiones, lo despedía completamente indignada, chillando frases que indicaban su temor a que el médico quisiera herir su honor. De vez en cuando, estaba completamente delirante, arrastrando las mantas de un lado a otro, llamando a su marido y a su hija, y con aspecto de tener alucinaciones auditivas. Con frecuencia gritaba durante horas y con una voz horrible.La regresión mental avanzó gradualmente. Tras cuatro años y medio de enfermedad, la paciente falleció. Al final estaba completamente apática y confinada a la cama, donde adoptaba una posición fetal.