La ciencia explica el terremoto

banner-reportaje-sismo2017CDMX02.jpg

A 32 años del devastador terremoto en el que murieron al menos 10 mil personas, varios estados del país —y la Ciudad de México en particular— fueron sacudidos el martes 19 de septiembre, a las 13:14 horas por un sismo de 7.1 grados en la escala de Richter.

Hasta la tarde del miércoles 20, las autoridades anunciaban que la cifra de víctimas del sismo alcanzaban 249, además de daños aún incuantificables en edificios, mobiliario urbano e infraestructura vial. Las escenas y situaciones recordaban la experiencias de 1985.

Al mismo tiempo que los servicios de emergencia, el Ejército Mexicano y miles de voluntarios salían a las calles para auxiliar a las víctimas en las zonas más dañadas por el terremoto, la población mexicana también se planteaba preguntas y demandaba explicaciones: ¿por qué este sismo fue tan devastador?, ¿fue este el “gran terremoto” que anticipan los expertos desde hace tres décadas?, ¿cómo puedo determinar si hay daños estructurales en mi vivienda?

Ante la demanda de información por parte de la sociedad mexicana, el equipo de reporteros y corresponsales de la Agencia Informativa Conacyt consultó a científicos, investigadores e ingenieros expertos que acumulan años de experiencia y conocimientos en el tema.

El resultado de este esfuerzo periodístico es un reportaje que ofrece, de manera muy concreta y puntual, respuestas y explicaciones de la voz de expertos —siempre basadas en evidencia científica, en estudios e investigaciones— sobre los terremotos, sus orígenes y sus efectos, para entender la situación que vivimos en este momento. 

¿Por qué fue un terremoto tan devastador?

El investigador emérito de la Universidad Nacional Autónoma de México (UNAM), Jorge Flores Valdés, explicó que el sismo de 7.1 grados que sacudió este martes 19 diversos estados de la zona centro de México fue tan devastador porque el epicentro tuvo su origen entre los estados de Morelos y Puebla, a 120 kilómetros de la Ciudad de México.

“La energía que se libera con el movimiento de la tierra se dispersa y conforme aumenta la distancia, la intensidad de la onda sísmica va disminuyendo cada vez más. Es por esto que el sismo de este 19 de septiembre fue mucho más devastador que el que se registró el pasado 7 de septiembre, el cual a pesar de que fue de mayor magnitud, no causó muchos daños en la Ciudad de México, por el hecho de que el epicentro se localizó a más de 700 kilómetros de la capital del país”, explicó.

¿Fue un choque de placas?

Un gran parte del territorio nacional está sobre el extremo suroeste de la placa Norteamericana, que entra en contacto con la placa de Cocos. Esta placa, de extraordinario dinamismo, avanza debajo de la Norteamericana, en un fenómeno conocido como subducción, que acumula energía y se libera en forma de terremotos.

Luis Quintanar Robles, investigador en el Departamento de Sismología del Instituto de Geofísica de la UNAM, destacó que México es un país con una larga historia sísmica, con eventos recurrentes en las zonas afectadas por el sismo de este 19 de septiembre.

México es un país sísmico y si lo vemos desde el punto de vista de ocurrencia de sismos fuertes en esa zona, no es el primero que se da. No es una sorpresa que ocurran sismos de esta magnitud, pero sí son poco frecuentes. El 24 de octubre de 1980, a alrededor de 50 kilómetros de distancia del epicentro de este 19, en Huajuapan de León, Oaxaca, ocurrió un sismo de 7.1 grados”, explicó.

De acuerdo con el especialista, los sismos de mayor magnitud que se han presentado en México provienen de la costa del Pacífico; sin embargo, el evento ocurrido el 19 de septiembre se asocia a la subducción de la placa oceánica por debajo de la placa continental.

¿Fue un sismo trepidatorio u oscilatorio?

Calificar el sismo de este 19 de septiembre como trepidatorio u oscilatorio es incorrecto. De acuerdo con el doctor Quintanar Robles, tales palabras no existen para los sismólogos, debido a que los sismos se propagan por todas partes y provocan movimientos verticales y horizontales.

“Los sismólogos no utilizamos esos conceptos porque solo se trata de una cuestión de percepción. Los sismos mueven la tierra en todas las dimensiones, para un lado y para otro. En ese sentido, todos los movimientos de un sismo son de tipo tridimensional. Si tomamos como referencia el sismo (...) del día 7 de septiembre, que ocurrió a 700 kilómetros de distancia de la Ciudad de México, lo sentimos con un movimiento más horizontal”, explicó.

Destacó que el sismo del 19 de septiembre ocurrió a 120 kilómetros de distancia, por lo que el movimiento que prevaleció fue de tipo vertical, es decir, “se sintió un jalón hacia abajo, como si nos quitaran el piso, ese es un movimiento vertical evidente y típico de los lugares que están cerca del epicentro. Todos los sismos mueven el suelo en las tres dimensiones”, destacó.

De acuerdo a Dra. Xyoli Pérez Campos, Jefa del Servicio Sismológico Nacional, el terremoto del pasado 19 de septiembre fue un sismo intraplaca, es decir, el movimiento sucedió dentro de la placa de Cocos y no en la zona de contacto entre placas.

¿Por qué colapsaron edificios que resistieron el sismo de 1985?

El doctor Francisco Javier Núñez Cornú, investigador y coordinador de la maestría en geofísica del Centro Universitario de la Costa (CUCSur), de la Universidad de Guadalajara (UdeG), habló sobre las principales afectaciones provocadas por el sismo.

“Por lo que he tenido la oportunidad de ver, las estructuras que se cayeron fueron edificios viejos que habían estado aguantando durante años, o simplemente edificaciones que tenían fallas estructurales, lo que contrasta con el resto de la ciudad, que se encuentra entera hasta cierto punto”, expresó Núñez Cornú.

El investigador refirió que a pesar de que en México la ingeniería sísmica ha tenido un gran avance, existe gente que no respeta las normas de construcción requeridas para la construcción de edificios. Asimismo, resaltó la necesidad de realizar análisis de los lugares colapsados, incluyendo a los responsables del diseño, la autoridad responsable de otorgar los permisos y los encargados de su construcción.

En el mismo sentido, se expresa el maestro Gerardo Vargas, coordinador general del Observatorio en Puebla.

Para conocer si un edificio es seguro, primero se debe tener en cuenta el cumplimiento del reglamento de construcción. El siguiente paso es que cuando se haga la obra, esta debe respetar la solicitud de la licencia.

“Ahí hay un tema muy fuerte de supervisión, hacer responsable a un perito que indique si la construcción fue hecha de acuerdo al reglamento de construcción. Debe considerarse un seguro, que asegure el inmueble”, califica.

Además, en el área metropolitana de la Ciudad de México “hay muchos edificios que en el sismo de 1985 fueron afectados, algunos se derrumbaron, otros se recomendó tirarlos y quedaron varios vigentes. Durante 1975 y 1978, hubo una reducción en el reglamento de construcción de la Ciudad de México y una nueva especificación. Después del sismo de 1985, nuevamente se hizo una revisión al reglamento de construcciones, y las especificaciones para construir se volvieron más exigentes”, comentó.

¿Es una simple grieta o un daño estructural?

El doctor Eduardo Ismael Hernández, investigador académico del Departamento de Ingenierías de la Universidad Popular Autónoma del Estado de Puebla (UPAEP), destacó la importancia de que la población pueda reconocer los verdaderos daños estructurales en sus viviendas.

Indicó que los elementos estructurales son aquellos que realmente proporcionan soporte a una edificación, mientras que los elementos no estructurales se refieren a los muros divisorios pero no de carga, o bien aquellos que funcionan como elemento de arquitectura estética.

“Las grietas o fisuras que presentan los muros divisorios no son daños estructurales, incluso si se vienen abajo. Por supuesto que requieren de reparación pero no condicionan la estructura del inmueble. Por eso le pedimos a la población estar atentos, si hay grietas en sentido diagonal deben considerarse pero si están en un elemento estructural como muro de carga, en una columna o trabe, pero no en un muro divisorio”.

Fuente: Conacyt

Promueve AEM red de globos estratosféricos

yaoqi-lai-22173.jpg

La Agencia Espacial Mexicana (AEM) promueve la conformación de una red de globos estratosféricos en todo el territorio nacional, como estrategia para impulsar el desarrollo de tecnología satelital.

En entrevista con la Agencia Informativa Conacyt, David Muñoz Rodríguez, coordinador general de Investigación Científica y Desarrollo Tecnológico Espacial de la AEM, explicó que el objetivo de este proyecto es consolidar el uso de sistemas satelitales.

“El lanzamiento de globos estratosféricos es una práctica nada reciente en el país, hay diferentes aplicaciones y usos, eso es bien conocido, está bien establecido, pero queremos tener una metodología bien establecida que se convierta no en una cosa de excepción sino como una práctica”, mencionó.

Refirió que en los aeropuertos mexicanos es común que se lancen globos estratosféricos para monitorear, por ejemplo, el sentido de los vientos. La misma tecnología puede utilizarse para hacer otro tipo de observaciones e incluso para probar satélites.

David Muñoz Rodríguez, coordinador general de investigación científica y desarrollo tecnológico espacial de la AEM.“Si yo estoy desarrollando un satélite, probablemente antes de lanzarlo en un cohete —que tiene un costo elevado hacer varias pruebas desde arriba— puedo probarlo desde un globo; la idea es cómo podemos tener una red a nivel nacional que funcione de manera coordinada”, subrayó Muñoz Rodríguez.

Sistemas de monitoreo

De forma paralela, la AEM promueve el desarrollo de tecnología espacial para el monitoreo del territorio mexicano con diversas aplicaciones, que van desde seguridad hasta agricultura.

El coordinador general de Investigación Científica y Desarrollo Tecnológico Espacial de la AEM aclaró que ya existe un mercado explotado por empresas del sector privado, dedicadas a ofrecer los servicios de monitoreo.

No obstante, puntualizó que el objetivo de la AEM es ampliar las capacidades que en materia de tecnología espacial tiene el país y para ello se llevan a cabo estudios experimentales en varias universidades.

Nos interesa contar con diferentes capacidades de monitoreo: alta resolución, que yo pueda ver desde el espacio cosas muy pequeñas; técnicas de radar, ¿por qué es importante el radar?, en México, 50 por ciento del territorio nacional está cubierto por nubes pero si tengo un sistema de radar, yo puedo ver independientemente de que haya nubes, entonces tengo muchas aplicaciones”, sostuvo.

Muñoz Rodríguez indicó que el monitoreo en media resolución tiene aplicaciones en caso de desastres naturales, para la agricultura, biodiversidad, recursos naturales y cambio climático; el monitoreo de alta resolución es aplicable en labores de inteligencia, estimación de recursos e información estadística. 

AEM: perspectivas para México

Como parte del Festival del Conocimiento 2017, evento organizado por la Universidad Nacional Autónoma de México (UNAM), David Muñoz Rodríguez habló sobre las perspectivas de la AEM en materia de desarrollo tecnológico espacial.

Durante su exposición, puntualizó que algunos de los retos a los que se enfrenta el país en el ámbito espacial son el medio ambiente, la brecha digital, el cambio climático, la ciberseguridad y la basura espacial, entre otros.

Fuente: Conacyt 

Afectaciones del viento solar en Marte

sol-head-9817.jpg

En el marco del Primer Congreso México hacia Marte, organizado por la Agencia Espacial Mexicana (AEM), se llevó a cabo la ponencia magistral Interacción del viento solar con Marte, impartida por el doctor Héctor Pérez de Tejada, investigador titular del Instituto de Geofísica (IGF) de la Universidad Nacional Autónoma de México (UNAM), cuyo trabajo se centra en la interacción del viento solar con la ionósfera de Marte y Venus.

El viento solar es irradiado desde la corona solar, parte más exterior del sol, está compuesto de gas ionizado, más comúnmente llamado plasma, con una densidad muy baja. Al momento de salir expulsado de la corona, el viento puede extenderse hasta alcanzar a los planetas más alejados de nuestro sistema solar, e incluso se cree que puede alcanzar distancias más grandes.

A pesar de su casi nula densidad, el viento solar se comporta como un fluido y tiene la capacidad de interactuar de manera coordinada con las ionósferas y las atmósferas de los planetas, lo cual representa una incógnita de ciencia básica que no se ha podido comprender desde el descubrimiento de esta radiación solar en el año 1959.

“Los procesos de interacción se realizan a través de colisiones entre las moléculas y los átomos que forman el agua y el aire. Pero, con la densidad tan baja del viento solar, no hay colisiones, y sin embargo, el viento solar se comporta como un fluido”, explicó el investigador.

La Tierra posee un campo magnético generado por el movimiento del núcleo y sirve como un escudo que nos protege del viento solar. Marte no cuenta con un campo magnético como el de la Tierra, por lo que el viento solar interactúa de manera directa con su atmósfera, ocasionando que se vaya perdiendo. Se tiene información de que este fenómeno se ha presentado a lo largo de los cuatro mil 500 millones de años que tiene de existencia el planeta rojo.

¿Cómo es posible que el viento solar se comporte como un fluido, a pesar de que no existe un choque entre sus partículas? La explicación que da el doctor Pérez de Tejada es que el viento solar posee un campo magnético, el cual presenta fluctuaciones muy altas, ocasionando los cambios de dirección entre las partículas, justificando su comportamiento similar al de un fluido, pero hasta el momento no hay una mecánica estadística que se ocupe del fenómeno.

“Hace 100 años hubo un físico muy famoso, Ludwig Boltzmann, quien proporcionó la mecánica estadística para fluidos, pero para esto no hay una mecánica estadística. Se requiere del ingenio de alguien que desarrolle un proceso similar en donde se usen interacciones entre partículas y fluctuaciones para tener una nueva mecánica estadística y explicar el fenómeno”, resaltó Pérez de Tejada.

En el pasado, Marte llegó a tener agua en su superficie, hubo lagos y se piensa que en el hemisferio norte existía un océano, hasta que su atmósfera desapareció por causa del viento solar, ocasionando que el agua se filtrara hacia las profundidades del planeta y dejando como consecuencia el ambiente frígido y seco que conocemos en la actualidad.

Todos esos datos sobre Marte y sus condiciones atmosféricas ayudarán a la futura planeación de misiones espaciales contempladas para el año 2030. Se espera que humanos realicen un viaje con una duración aproximada de 10 meses para explorar la superficie marciana y posteriormente construir colonias capaces de albergar vida humana.

Fuente: Conacyt 

Miguel del Castillo y su estancia en NASA

nasa-head-9717.jpg

Guillermo Miguel del Castillo Hoffman, ingeniero mexicano comprometido con el desarrollo del sector espacial en México, actualmente trabaja en proyectos de la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés), un sueño que tenía desde su juventud y en el que enfocaba su pasión por los temas del espacio. 

Nacido en Houston, Estados Unidos, Miguel se mudó a México a la edad de dos años. Después estudió ingeniería en computación en la Universidad Autónoma Metropolitana (UAM), pues debido a la necesidad de trabajar durante sus estudios de licenciatura, decidió que esa carrera le daría mayor movilidad laboral en lugar de alguna otra más relacionada con el espacio.

Sin embargo, su pasión por el espacio seguía ahí. “El museo de NASA en Houston fue el primero al que me llevaron mis papás a una muy temprana edad, me causó un gran impacto”, platicó.

Durante sus años de estudiante, se desempeñó a la par como ingeniero en el departamento de sistemas de un call center, “aunque me hubiese gustado estudiar algo relacionado directamente con el espacio, y puede que lo haga en una maestría, me he sentido satisfecho de mi trabajo y mis estudios. A veces fue complicado mantener trabajo y estudios al mismo tiempo, pero aprendí mucho y conocí colegas con los que aún tengo contacto y amistad”, explicó Del Castillo.

Miguel Del Castillo Hoffman 5Su primer acercamiento profesional en el área espacial fue durante la Feria Aeroespacial México (Famex) en 2015, a la que solo pudo asistir el último día por cuestiones laborales y escolares y en donde tuvo la oportunidad de acercarse a la Agencia Espacial Mexicana (AEM). “Fui con la idea de conocer a la gente de la industria, pero todos sus estands ya habían sido desarmados. Afortunadamente, el pabellón de la AEM seguía abierto y estaban dando una ponencia de microsatélites. Mostraron un CanSat que explicaron lo habían diseñado y construido junto con sus estudiantes de servicio social”.

Luego de enterarse de la posibilidad de realizar su servicio social en la AEM, Miguel comenzó a hacerlo de forma esporádica por cuestiones de su trabajo. “Fue entonces que ahorré mi salario para renunciar a mi trabajo y dedicarme a terminar las materias en la universidad, a la vez que hacía el servicio en la AEM”, agregó.

A finales de 2015, el personal de la AEM tuvo un problema en la página web de la agencia, por lo que solicitaron la ayuda de Miguel. “Chequé que era un problema interno de la red, el proxy. El error se encontraba en un formulario donde se subían documentos para postularse como candidato a las estancias de AEM en NASA Ames. Fue así como me enteré de las estancias, pero luego vi el dinero que se necesitaba y pensé que sería imposible”.

Pocos días después, amigos de Miguel se enteraron de la convocatoria y lo exhortaron para participar, pues conocían su pasión por el espacio. Una de ellas, compañera de la UAM Azcapotzalco, se ofreció para proponer la posibilidad de la estancia con las personas del consejo académico de la UAM Azcapotzalco, unidad de esta universidad en que Miguel estudiaba. Para juntar el dinero, hizo una recaudación en las diferentes instancias de la UAM, desde rectoría hasta departamentos de diseño o ciencias sociales. Finalmente, Miguel y todas las personas que lo ayudaron lograron reunir el dinero.

Sin embargo, ya siendo aceptado por la AEM para participar en la estancia, la NASA no supo tratar su caso por su doble nacionalidad. Nunca se había considerado que alguien con ciudadanía americana intentara entrar como extranjero. “Al final, las diferentes instituciones aceptaron mi caso. La NASA me admitió como estudiante extranjero, pude sacar mis pasaportes mexicano y americano y se pudo realizar la estancia”.

Un sueño espacial

La estancia que Del Castillo Hoffman realizó en el Centro Espacial Ames de NASA en Moffett Field, California, tuvo una duración de tres meses y medio, aunque el periodo acordado inicialmente fue de dos meses y medio solamente. “El mentor me ofreció extender mi estancia y gracias a ahorros y apoyo de mi familia, sin mencionar que me quedé de colado en la habitación de otro interno, pude quedarme”.

Desde el principio fue un sueño hecho realidad. “Entrar como trabajador a NASA fue una experiencia fuera de serie. El centro de investigación es impresionante y se realizan labores muy variadas. Hay laboratorios de biología, medicina, sistemas de soporte de vida, investigación aeronáutica, misiones espaciales robóticas, túneles de viento, una pista aérea y la supercomputadora de la NASA, Pleiades. Al momento en que realicé la estancia, era la onceava computadora más poderosa del mundo”, platicó entusiasmado.

Miguel-Del-Castillo-Hoffman-1.jpg

Los meses previos a la estancia estuvieron llenos de complicaciones que, sin embargo, pudieron ser resueltas. Un ejemplo de esto fue que el proyecto que Miguel había seleccionado en la convocatoria y que implicaba el uso de la supercomputadora, había quedado sin financiamiento desde hacía más de un año. Finalmente, le ofrecieron participar en otro proyecto sobre un modelo 3D de la Tierra. “Sinceramente ese proyecto no me había llamado la atención en la convocatoria. Yo quería trabajar en una simulación de escombros orbitales en la supercomputadora. Pero al final considero que fue muy afortunado trabajar en WorldWind”.

WorldWind, modelo virtual de la Tierra, es un proyecto de código abierto que permite el uso y visualización de información geoespacial y que es utilizado en aplicaciones de monitoreo climatológico, visualización urbana, etcétera. Es similar a Google Earth y surgió por las mismas fechas como un proyecto educativo con la idea de introducir tecnología de NASA en el salón de clases. La idea era que los niños pudieran visualizar animaciones sobre el globo virtual que no pudiesen realizarse en un globo terráqueo común. Por ejemplo, los cambios de la tectónica de placas a través de las eras geológicas, o la historia de las campañas de Alejandro Magno. "WorldWind evolucionó hasta que los sistemas geoespaciales se volvieron cosa de todos los días, como ahora que tenemos un GPS en el celular y comienza a convertirse en un sistema para desarrollar aplicaciones geoespaciales”, explicó Miguel.

En WorldWind, a todo el equipo de internos, así como Miguel, le fue encargado generar aplicaciones en la versión web para mostrar las capacidades del sistema. “Se desarrollaron tres proyectos y yo procuré involucrarme en todos. Me enfoqué más en un rastreador de 15 mil satélites en tiempo real alrededor de la Tierra en una página web. También se realizó un visualizador de sismos con un historial de más de cien años, y el tercero fue un visualizador de imágenes satelitales climatológicas que obtiene su información de diferentes agencias internacionales, además de la NASA”, añadió.

Aunque el trabajo de más de tres meses fue pesado, tuvo sus frutos al ser presentado en Washington DC por el investigador de la NASA encargado del proyecto. Durante la estancia, Miguel no desperdició un solo segundo para aventurarse y conocer cada rincón posible del centro Ames. “Cuando eres interno de NASA Ames, te prestan una bicicleta para trasladarte. Cuando acababa mi jornada de trabajo, salía en la bicicleta y recorría el centro para conocer todo lo que se pudiera. Encontré aviones abandonados, un pequeño museo escondido, placas que delataban la rica historia del lugar y vestigios de proyectos antiguos. Se veían despegar y aterrizar de la pista helicópteros de pruebas y aviones de transporte y combate. Al otro lado de la pista aérea, se encuentra una base de la Guardia Nacional de Estados Unidos”, contó.

El tiempo en NASA había llegado a su fin y debía volver a México. Miguel había dejado una materia por cursar en la universidad antes de partir a la estancia, “la intenté aprobar antes de irme, pero entre el servicio social, las otras materias y el papeleo de la estancia, me fue imposible y dejé de asistir a esa clase”, añadió.

A su regreso, tuvo que dedicarse a conseguir trabajo, y gracias al empleo que tuvo antes de sus aventuras espaciales, pudo realizar una consultoría. Sin embargo, esto no le dejó tiempo para terminar la última materia faltante en la UAM.

En el siguiente trimestre, Miguel pudo cursar su materia y encontró la oportunidad de que su mentor y asesor en NASA lo propusiera, junto con otro compañero brasileño, a realizar una aplicación de WorldWind para una fundación italiana. “No era un proyecto de la NASA, pero WorldWind puede utilizarse libremente. Hicimos el proyecto y fuimos a presentarlo a Italia”.

Nueva vida, nuevas metas

En febrero de 2017, Miguel fue invitado a involucrarse como desarrollador de WorldWind, por lo que le fueron hechas evaluaciones que cumplió exitosamente. Lo aceptaron y, como requisito para su contratación, tuvo que mudarse a Estados Unidos, a pesar de que su posición fuera remota. “Yo preferiría trabajar desde México y lo intentaré en el futuro. Ahora en lugar de ser desarrollador de aplicaciones, trabajo en el desarrollo del globo terráqueo 3D mismo. Es un verdadero proyecto de ingeniería”, concluyó.

Por ahora, Miguel promueve el uso de WorldWind en México y afirma se dedicará a trabajar en este tema durante algunos años. No obstante, no se cierra a la posibilidad de estudiar alguna maestría de tema espacial que le permita aplicar el conocimiento que ha adquirido, su experiencia en el cómputo y su eterna pasión, el espacio.

Fuente: Conacyt

Inicia Primer Congreso México hacia Marte

lia-bekyan-363794.jpg

Marte es el siguiente gran paso en la exploración espacial, por lo que diferentes agencias espaciales alrededor del mundo han destinado esfuerzos y recursos en desarrollar planes para la exploración, estudio y la futura colonización del planeta rojo.

Por tal motivo, la Agencia Espacial Mexicana (AEM) celebra el Primer Congreso México hacia Marte, que se lleva a cabo del 6 al 10 de septiembre en el Centro Nacional de las Artes (Cenart), el Centro Cultural España y el Centro de Cultura Digital, en donde se presentarán los campos en los que nuestro país puede insertarse y participar en las futuras misiones hacia Marte, previstas para el 2030. 

Durante la inauguración del congreso, estuvieron presentes Javier Mendieta Jiménez, director general de la Agencia Espacial Mexicana, Omar Charfén Tommasi, coordinador general de Organismos Descentralizados de la Secretaría de Comunicaciones y Transportes (SCT), Irma Adriana Gómez Cavazos, oficial mayor de la Secretaría de Educación Pública (SEP), y por parte de la Presidencia de la República, Elías Micha Zaga, coordinador de Ciencia, Tecnología e Innovación.

En su intervención, Mendieta Jiménez recordó la importancia que tiene el espacio para la vida cotidiana, como las telecomunicaciones, la observación de la Tierra para la prevención de desastres naturales, la geolocalización y el pronóstico del clima, por mencionar algunas.

Asimismo, destacó que México está comprometido con el uso pacífico del espacio y reconoció la importancia de que los jóvenes se integren al sector espacial.

“México participará en las misiones a Marte con lo que sabemos hacer, tenemos 35 años de experiencia en telecomunicaciones, tenemos excelentes grupos que trabajan geofísica, astrofísica, astrobiología, imágenes satelitales y tecnologías de información, no todo es ciencia de cohetes”, expresó el titular de la AEM.

Destacó la asistencia de numerosos jóvenes a las ponencias de expertos científicos como el maestro Emmanuel Urquieta, médico mexicano colaborador en la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés), el doctor Omar Pensado, director del Centro de Investigación Atmosférica y Ecológica (CIAE), y el doctor Robert Zubrin, presidente de Mars Society, quienes inspiraron entre los asistentes la vocación científica espacial.

Micha Zaga resaltó la importancia de la generación de nuevos conocimientos y sus aplicaciones, pues gracias a estos, se pueden atender problemas y necesidades de grupos amplios de la sociedad, generando oportunidades de negocio y la creación de fuentes de empleo.

“Incorporar a nuestro país en los retos de la exploración espacial abre la posibilidad de un mejor futuro para los mexicanos. Promover las vocaciones científicas y el interés por las ingenierías es una oportunidad apasionante que surge cuando pensamos en los retos que ofrece un hecho histórico como la exploración de Marte”, dijo Micha Zaga.

Durante los cinco días del congreso, habrá ponencias, mesas redondas, presentación de artículos, talleres, meetups, espectáculos, un ciclo de películas con temática marciana, editatones y actividades de realidad virtual. El programa completo puede ser consultado en esta dirección.

Fuente: Conacyt

Adiós a los antibióticos con nanomateriales de plata

joel-filipe-201191.jpg

El doctor Alejandro Huerta Saquero, investigador del Centro de Nanociencias y Nanotecnología (Cnyn) de la Universidad Nacional Autónoma de México (UNAM), campus Ensenada, experimenta con nanomateriales para probar su efectividad contra la bacteria Vibrio cholerae, causante del cólera.

Huerta Saquero explicó en entrevista para la Agencia Informativa Conacyt que sus experimentos forman parte de un proyecto de investigación desarrollado en colaboración con las doctoras Fitnat Yildiz y Ana Gallego, de la Universidad de California en Santa Cruz (UCSC), ambas expertas en la bacteria.

Nano-1709.jpgExplicó que el equipo de investigadores canaliza sus esfuerzos hacia el desarrollo de nanomateriales en forma de biopelícula capaces de eliminar la bacteria Vibrio cholerae.

Expuso que las biopelículas están compuestas de proteínas y polisacáridos que las mismas bacterias secretan al exterior, y que forman capas impermeables y altamente resistentes que les permiten protegerse de ataques y alteraciones a su entorno. 

“El problema para el humano es que esta forma en biopelícula es altamente infecciosa, si se consume a partir de mariscos o de agua contaminados, se requiere muy poco de estos agregados para infectarse. Además, la biopelícula confiere a las bacterias alta resistencia a los antibióticos al solo ser eliminadas las bacterias superficiales de la biopelícula y no lograr eliminar las que se encuentran dentro, que están de alguna manera protegidas”, detalló el investigador del Cnyn.

Como parte de la investigación, los especialistas prueban distintos nanomateriales con actividad antimicrobiana para analizar si son capaces de evitar la formación de biopelículas o eliminarlas si ya están desarrolladas.

Los resultados en laboratorio indicaron que el único nanomaterial que impidió la formación de biopelículas fue el que se combinó con plata, mientras que las combinaciones cobre y zinc mostraron algunos cambios pero no inhibieron la formación del biofilm.

Tras haber comprobado la efectividad de los nanomateriales, sintetizados en el Cnyn por los doctores Oscar Raymond y Oscar Jaime Acuña, ahora los investigadores buscan un método para desactivar la toxicidad de los nanomateriales que en el organismo pueden afectar bacterias benéficas.

Resistencia bacteriana

Otro de los nuevos objetivos que han surgido con los avances de la investigación es comprender la acción de los nanomateriales y su capacidad para modificar la estructura de la biopelícula, lo que permitiría determinar la respuesta defensiva de las bacterias.

“Quizás algunas de ellas empiecen a generar resistencia a los nanomateriales, tal como lo hicieron con los antibióticos. Nos interesa saber cómo se modifica la expresión genética, cómo se defienden las bacterias cambiando la expresión de proteínas relacionadas con respuesta al estrés, a la resistencia a antibióticos y a los mecanismos de detoxificación, como bombas de eflujo”, indicó el doctor Huerta Saquero.

Subrayó que si se logra entender la respuesta de las bacterias a los nanomateriales, se podrán diseñar estrategias para evitar que gradualmente se generen variedades resistentes.

“Lo que nosotros queremos es proponer una alternativa para el tratamiento de este tipo de enfermedades infecciosas, quizás el blanco no es usarlo como los antibióticos que son ingeridos, quizás puede ser usado como preventivo en las granjas de cultivo de mariscos o en alguno de los pasos de la producción de los organismos marinos”, sostuvo.

Fuente: Conacyt

Carlos Gershenson, un científico de lo complejo

61c80bd497cef6c3e6984a76ebb01b99.jpg

El entendimiento, explicación y solución de fenómenos complejos en la ciencia, así como de la sociedad, no es una tarea fácil. Sin embargo, existen científicos mexicanos que han dedicado su labor profesional a este tema, tal es el caso del doctor Carlos Gershenson García, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la Universidad Nacional Autónoma de México (UNAM), quien en una joven carrera ha logrado el éxito y reconocimiento nacional e internacional.

En el IIMAS, Gershenson trabaja en el Departamento de Ciencias Computacionales y está afiliado como investigador al Centro de Ciencias de la Complejidad (C3) de la misma universidad. En entrevista con la Agencia Informativa Conacyt, platicó la historia de su desarrollo y labor profesional, además de sus intereses en la complejidad, vida artificial, ciencia cognitiva y educación. 

Curiosidad y esfuerzo

Originario de la Ciudad de México, desde niño tuvo la curiosidad de entender las preguntas que se hacía al mismo tiempo que era motivado por su padre, quien a la edad de seis años lo introdujo a la ciencia al llevarlo a un curso de programación en el Museo Tecnológico (Mutec), área a la que años después dedicaría su carrera. “Desde joven quería entender por qué las cosas son como son y no solo me lo preguntaba, sino que intentaba responder yo mismo”, platicó.

Estudiante de la Escuela Nacional Preparatoria número 6 de la UNAM y ante la indecisión de qué carrera estudiar, Carlos fue presentado a un profesor de filosofía e historia en una escuela de computación, la Fundación Arturo Rosenblueth, en donde por fin decidió que ese tema era su preferido.

“Revisé el plan de estudios y trataba sobre física, matemáticas, computación, economía, filosofía, historia, eso me motivó a estudiar ahí. Dentro de esa escuela teníamos profesores muy buenos que nos sacaban de nuestra zona de confort y nos motivaban a esforzarnos más allá de nuestros límites”.

Durante su época como estudiante de licenciatura, fue expuesto a ideas revolucionarias y tecnológicas que comenzaron a llamar su atención, además de ser invitado a un grupo de investigación en el Centro de Investigación y de Estudios Avanzados (Cinvestav) del Instituto Politécnico Nacional (IPN) y al Instituto de Química de la UNAM. No obstante, durante sus últimos años de la carrera de ingeniería en computación en la Fundación Rosenblueth, también estudió cinco semestres de la licenciatura en filosofía en la UNAM y un verano de investigación en el Instituto Weizmann de Ciencias en la Escuela Internacional de Verano Karyn Kupcinet, en Israel. “Desde muy joven comencé a involucrarme en la vida académica, pues fue algo que encontré muy afín”, agregó.

Además, logró un buen desempeño académico, pues dentro de sus objetivos estaba obtener una beca del Consejo Nacional de Ciencia y Tecnología (Conacyt) para realizar sus estudios de posgrado, mismos que llevó a cabo en el extranjero con apoyo como becario de esta institución. “Esa visión a largo plazo me ha ayudado, porque desde la carrera comencé a asistir a conferencias, publicar artículos, tener interacción con colegas. Desde temprano pude enfocarme en la investigación, en la que ya llevo 20 años”.

Entre 2001 y 2002, Gershenson realizó su maestría en ciencias en la Universidad de Sussex sobre sistemas adaptativos y evolutivos. “Aunque pude quedarme en Sussex a hacer el doctorado, surgió la oportunidad de hacer un doctorado en Bruselas en un grupo interdisciplinario, donde me seguí desarrollando en temas de complejidad y autoorganización”, platicó.

Después de finalizar su doctorado en ciencias, durante el que realizó además un intercambio en la Universidad de Granada, envió solicitudes a distintas instituciones para obtener una posición posdoctoral que finalmente obtuvo en el Instituto de Sistemas Complejos de Nueva Inglaterra en Boston, Estados Unidos, entre 2007 y 2008.

“Estando allá me llegaban anuncios laborales de Conacyt, entre los que estaba una plaza de investigador en el IIMAS de la UNAM en el Departamento de Ciencias de la Computación. Me escogieron y volví a finales de 2008”.

De vuelta a México

Acostumbrado a seguir sus líneas de investigación de manera independiente, Carlos Gershenson se adaptó exitosamente a su nueva posición en México, “a menos de un mes de que regresara, se inauguró el Centro de Ciencias de la Complejidad en la UNAM, me pude incorporar y trabajar en temas de frontera pues no había un antecedente. En comparación con otras disciplinas e institutos más establecidos, pude llegar a un lugar donde tenía la libertad de investigar mis temas”.

Estos han tenido continuidad desde sus estudios de posgrado, pues todos están relacionados con sistemas complejos, desde educación, teoría de la información, sistemas de transporte, redes de regulación genética, evolución de redes, entre muchos otros temas aplicables.

“Un sistema complejo existe cuando se decide estudiar como un sistema complejo. Algo que caracteriza a la complejidad es la dificultad de separar sus elementos y debes estudiarlos todos porque sus interacciones determinan el futuro estado de los componentes, es cuando te conviene describirlo en el lenguaje de la complejidad”, explicó.

Para el especialista, la aplicación de la ciencia y los sistemas complejos puede ayudar a México y el mundo a resolver situaciones. “Es iluso pensar que los problemas se van a resolver haciendo las mismas cosas, los problemas tienen causas y para eso hay que entenderlas, para cambiar la situación de forma que se pueda eliminar el problema. Si no es con la ciencia, no será con serendipia. Son tantas las posibilidades que si nos vamos a someter a las ocurrencias políticas para reducir la pobreza, eliminar la marginación, elevar el nivel educativo, disminuir el desempleo y violencia, no hay de otra, debe ser con ciencia”, agregó.

Además, considera que falta vinculación entre la academia, el gobierno y el sector productivo, pues ha habido una desconexión y es difícil, aunque existan sugerencias de soluciones, se necesita la colaboración de la población para resolver esto. “No existen mecanismos para facilitar la coordinación de esos sectores, lo que nos ha frenado y dificultado la implementación de muchas de las soluciones que hemos explorado. El problema técnico es la parte fácil, la parte política, social y humana es la difícil. Creo que simplemente no hemos encontrado la manera de facilitar la coordinación, es cuestión de que la ciencia nos ayude a encontrarla”.

El año pasado, el doctor Gershenson realizó visitas como profesor en el Senseable City Lab del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) y en el MOBS Lab en el Network Science Institute de la Universidad Northeastern, en Estados Unidos. Actualmente se encuentra laborando en el IIMAS de la UNAM.

Respecto a su visión de la ciencia en México desde una perspectiva de lo complejo, explicó que “es esencial formar doctores, Conacyt ha sido clave para el desarrollo de la ciencia en México, yo veo que otros países que no tienen esas políticas e institución, están como México estaba hace 50 años en investigación. Parece ser que hay más investigadores mexicanos en el extranjero que en México, lo cual es fuga de cerebros, por un lado Conacyt ha tenido un papel positivo y esencial en México pero también hay cosas que se necesitan corregir. Es importante encontrar mecanismos para que la inversión que se ha hecho en formar recursos humanos pueda traducirse en una economía que sepa regresar a invertir en ciencia y tecnología”, concluyó.

Fuente: Conacyt

En busca de mundos habitables

nasa-45072.jpg

En el día de la Divulgación en el Instituto de Ciencia Nucleares de la Universidad Nacional Autónoma de México (UNAM), se presentaron diferentes temas de investigación entre los que destacan los referentes a los exoplanetas y la búsqueda de lugares habitables en el universo.

Por ello, la investigadora Antígona Segura Peralta explicó cómo es que los científicos buscan estos hipotéticos lugares, cuáles son los obstáculos a los que se enfrentan y hasta dónde se puede llegar con la tecnología actual.

Con un público en su mayoría conformado por estudiantes de licenciatura y posgrado en el Auditorio Marcos Moshinsky de dicha institución, la investigadora impartió la conferencia Mundos habitables en la que despejó algunas de las dudas y mitos acerca de lo que son los mundos habitables y qué tan cerca estamos de ellos. 

Desde la antigüedad la vida humana se ha preguntado si estamos o no solos en el universo y si hay mundos en los que se pudiera albergar la vida tal y como la conocemos. Aún no hay nada concreto, pero investigadores cada día detallan y descubren condiciones y mundos parecidos a la Tierra.

Antígona Segura explicó que el ser humano ha detectado casi cuatro mil planetas que orbitan alrededor de otras estrellas, pero solo unos cuantos han sido puestos en la categoría de potencialmente habitables. 

Para que un planeta se pueda considerar habitable, incurren varios factores. “No es ninguna idea descabellada pensar que la vida en otros planetas también puede estar formada con base en el carbono y el agua”, dijo. 

Para que exista agua líquida en un planeta, se requiere una temperatura adecuada por lo que la búsqueda se limita en los exoplanetas que se encuentran en la zona habitable de su estrella, esta no se sitúa muy cerca de la estrella ni muy lejos para mantener una temperatura idónea para que los microorganismos se puedan desarrollar.

“Son los lugares exactos donde los planetas reciben suficiente energía de su estrella para ser habitables. Pero existe un factor más: la atmósfera. Si la atmósfera de la Tierra desapareciera, la temperatura promedio sería de -17 grados Celsius. Lo que hace habitable la Tierra es que tiene una atmósfera con gases de efecto invernadero”, explicó Segura Peralta.

La forma en que los científicos en el mundo buscan la vida inteligente en los exoplanetas es a través de biomarcadores que se miden mediante la luz que reciben de sus sistemas solares, es decir, analizando los espectros de luz que pasan sobre ellos. 

“Un planeta como la Tierra presentaría una gran cantidad de biomarcadores, por lo que sería fácilmente detectado con la tecnología actual y sería la primera prueba confiable de un mundo habitado, además del nuestro”, concluyó la investigadora de la UNAM. 

Fuente: Conacyt 

Viaje al interior de la Tierra

asoggetti-344261.jpg

Cuando la mayoría de las personas escucha la palabra sismo, automáticamente piensa en destrucción, y no es para menos, pues la energía liberada por estos movimientos telúricos puede llegar a ser devastadora. Sin embargo, para los geólogos es sinónimo de información.

Estudiar el interior de la Tierra no es una tarea sencilla, realizar una excavación lo suficientemente profunda para poder estudiar las diferentes capas supondría un enorme gasto de tiempo y dinero, por lo cual se han aprovechado algunos de los puntos más profundos que existen.

Como parte del ciclo de conferencias de divulgación científica organizadas por el Instituto Italiano de Cultura, se llevó a cabo Sismos y temblores: cómo la sismología logró descubrir el interior de la Tierra, con el fin de dar a conocer cómo los sismólogos y geofísicos estudian el interior de nuestro planeta.

“El Challenger Deep es la parte más profunda y, entonces, la más cercana al centro de la Tierra, se encuentra a 11 kilómetros de profundidad. Hasta el día de hoy solamente tres personas lograron llegar a este punto. Entonces, si pensamos que a la Luna ya se fueron 12 personas, estamos viendo la dificultad que tenemos nosotros para ir hacia abajo con respecto a ir para arriba”, enfatizó el investigador, quien es doctor en geofísica. 

Ante el problema que representa para los científicos la inaccesibilidad al interior de nuestro planeta, la sismología ha ayudado a describir cómo están constituidas las diferentes secciones que conforman el planeta gracias al estudio de las ondas que se propagan cuando sucede un sismo.

Los sismos se producen por la liberación repentina de energía contenida en el interior de la Tierra. Esta energía desatada se propaga en forma de ondas, provocando que las placas que conforman la Tierra se muevan y choquen unas con otras, generando temblores que varían de intensidad, por lo que muchos de ellos son imperceptibles para las personas.

México está en contacto con cinco placas tectónicas —Placa de Norteamérica, Placa de Cocos, Placa del Pacífico, Placa del Caribe y Placa Rivera—, por lo cual, la zona es de alta sismicidad, registrándose un promedio de cuatro temblores al día.

Estos movimientos terrestres son medidos con la ayuda de un aparato llamado sismógrafo, el cual funciona ayudado de la inercia, pues se mantendrá sin movimiento a menos que se le aplique una fuerza. Esta fuerza proviene de los movimientos bruscos de la tierra, haciendo que un marcador dibuje una línea directamente proporcional a la intensidad del temblor.

Las capas que componen la Tierra son tres: en el exterior se encuentra la corteza, es donde habitan los humanos y tiene un espesor de 60 kilómetros aproximadamente; después está el manto, que posee dos mil 850 kilómetros de espesor y está compuesto de rocas en estado semisólido y líquido; y en el centro se encuentra el núcleo, con una temperatura de seis mil grados Celsius y un espesor aproximado de tres mil 470 kilómetros.

Con la ayuda de varios sismógrafos colocados alrededor de todo el mundo, es posible realizar modelos tridimensionales de la Tierra. Esto se logra registrando los tiempos de llegada, intensidad y ángulos en que las ondas viajan por el interior. El resultado de combinar toda la información de los sismógrafos resulta en un mapeo de hasta dos mil 800 kilómetros de profundidad, una distancia que nunca se podría alcanzar excavando.

“Pretender conocer la estructura de la Tierra perforando 12 kilómetros en la corteza de nuestro planeta corresponde a pretender saber cómo está hecha una manzana cortando su piel por 0.08 milímetros, o sea, el espesor de una hoja de papel”, afirmó el científico.

Fuente: Conacyt

Juvenal Rodríguez, un brillante investigador

juvenal-head-82517.jpg

Su interés por la tecnología surgió desde niño, cuando examinaba sus carritos de baterías, los abría y con las piezas sobrantes ensamblaba otros. Se trata del doctor Juvenal Rodríguez Reséndiz, coordinador de la carrera de Ingeniería en Automatización y del posgrado en Ciencias en Instrumentación y Control Automático de la Facultad de Ingeniería en la Universidad Autónoma de Querétaro (UAQ).

A sus 32 años, el doctor Juvenal Rodríguez Reséndiz ha ido forjando su trayectoria profesional como docente, investigador y desarrollador de tecnología, lo que le ha valido el reconocimiento por la comunidad científica, tecnológica y empresarial en México y el extranjero.

En entrevista con la Agencia Informativa Conacyt, Rodríguez Reséndiz compartió sus inquietudes respecto a involucrar a los jóvenes mexicanos en la ciencia y el desarrollo tecnológico, e inculcarles que los esfuerzos y sacrificios durante la vida universitaria rinden fruto en la formación profesional.

Agencia Informativa Conacyt (AIC): ¿Cuándo descubres tu interés por la tecnología?

Juvenal Rodríguez Reséndiz (JRR): Desde muy pequeño tenía la curiosidad de cómo funcionaban las cosas. Abría mis carritos, los destartalaba y como me sobraban piezas hacía otro carrito con ellas. El campo de desarrollo de mi profesión es la tecnología, tengo una carrera técnica en electrónica como egresado del Centro de Bachillerato Tecnológico industrial (CBTis) 118 “Josefa Ortiz de Domínguez".

AIC: ¿Cómo te involucras en el desarrollo de proyectos de investigación?

JRR: Cuando ingresé a la UAQ me fui involucrando en algunos proyectos de investigación; una de la personas que me llevó a su grupo de trabajo fue el actual rector, Gilberto Herrera Ruiz. Ahí también me empecé a integrar en diseños industriales porque una cosa te lleva a la otra. Tanto en el bachillerato como aquí en la universidad te piden que hagas prácticas y te formes en tu profesión participando en proyectos de la vida real.

En ese momento me empecé a vincular con varias empresas de la región y eso generó mucho más interés en mí por el desarrollo de tecnología, era claro que si me integraba con la industria iba a poder hacer proyectos con un trasfondo más científico.

AIC: ¿Qué tipos de proyectos desarrollaste en ese periodo?

JRR: Gracias al Consejo Nacional de Ciencia y Tecnología (Conacyt) se abrieron convocatorias para vincular las universidades con las empresas bajo la visión de la triple hélice, en la que participan tanto el gobierno, la industria y las instituciones educativas en un frente común para el desarrollo. Teníamos algunos fondos, en ese momento, para hacer automatización de procesos de alimentos.

Eso llevó después al desarrollo de proyectos para empresas de invernaderos, del área automotriz, electrodomésticos y aeronáutica, de tal manera que hoy en día, ya como coordinador de la carrera y el posgrado, he tenido la oportunidad de involucrarme cada vez más con este tipo de industrias, observo sus demandas tecnológicas e identifico a los estudiantes que se requieren para desarrollar proyectos, cubrir algunas plazas laborales y prácticas profesionales.

AIC: ¿Y qué pasa en tu labor como investigador?

JRR: Además de mi trabajo como coordinador, soy docente de licenciatura y de maestría, tengo a cargo varias investigaciones, principalmente en la parte de bioingeniería, energías renovables, robótica y sistemas de control automático. Todo esto tiene un gran potencial hoy en día y más aquí en Querétaro, porque han crecido mucho los sectores metalmecánicos, manufactura y aeronáutico, lo que generó a su vez una demanda cada vez mayor de ingenieros y que se abrieran más convocatorias de reclutamiento masivo.

Querétaro ha crecido de forma exponencial, por eso hay un déficit de ingenieros y los estamos importando, aproximadamente entre 60 o 70 por ciento de ellos viene del norte y sur de México, además de otros países. En ese sentido, la universidad ha puesto su granito de arena, hace diez años teníamos solo cuatro carreras en la Facultad de Ingeniería: matemáticas, automatización, ingeniería civil y electromecánica; hoy ya tenemos trece especialidades.

AIC: Uno de los aspectos a resaltar es tu juventud y los logros profesionales que has obtenido, ¿qué nos puedes platicar acerca de eso?

JRR: Pertenezco al Sistema Nacional de Investigadores (SNI) nivel I y en el 2015 fui aceptado en la Academia Mexicana de Ciencias (AMC). Tengo el grado Senior Member del Instituto de Ingeniería Eléctrica y Electrónica (IEEE, por sus siglas en inglés), donde fui presidente de la sección Querétaro de 2014 a 2016.

AIC: ¿Influye tu juventud y trayectoria en la interacción que tienes con tus estudiantes?

JRR: Para los alumnos creo que es un factor ver que alguien, casi de su edad, está desarrollando tecnología y abriendo puertas en otras partes. Muchos lo toman como un reto y se motivan a trabajar, de hecho fue lo mismo que me pasó a mí.

Por otra parte, veo un cambio significativo en la idiosincrasia mexicana, estamos más convencidos de que podemos hacer las cosas en lugar de esperar a que otros las hagan por nosotros. Las oportunidades en México son geniales. A diferencia de otros países, incluso europeos, aquí puedes concursar para una beca y estudiar, además de que las universidades, en especial las públicas, están abiertas para que  puedas trabajar o hacer investigación.

AIC: ¿Tu desarrollo profesional te llevó a hacer sacrificios personales?

JRR: En el desarrollo profesional, la persona se tiene que ir forjando a sí misma y conseguir sus propios recursos para lograrlo. Yo hubiera podido frenar mi carrera en la parte técnica durante el bachillerato, pero tenía la convicción de seguir adelante y hoy en día me sigo preparando.

Dejas muchas cosas de lado para crecer profesionalmente. No tenía tiempo para la familia y hasta llegué a aislarme un poco; ellos entendían porque mi papá también es muy trabajador, sabía que estaba haciendo cosas importantes. Por estar tomando cursos en la licenciatura y el posgrado, sacrifiqué viajes y otros entretenimientos pero estuvo bien, a mí me gustaba y no me arrepiento de nada de eso.

Ahora que tengo las herramientas científicas como para hacer mis propias investigaciones, puedo mirar al otro lado, que son las humanidades. Tomo cursos de música, de idiomas adicionales al inglés y ya tengo la oportunidad de viajar. La vida al final se balanceó.

AIC: ¿Qué se necesita para fomentar el interés por la ciencia y la tecnología en edades tempranas?

JRR: Se necesitan más ingenieros para industrias como el petróleo, los alimentos o la robótica. Para eso hay que impulsar el conocimiento matemático en los niños. En Estados Unidos ya tomaron cartas en el asunto, porque ellos tenían un déficit de ingenieros y ya comenzaron a insertar el lenguaje computacional desde la educación básica.

De esa manera, los estudiantes se van haciendo a la idea de que sí pueden desarrollar cuestiones abstractas y de ingeniería. A nosotros nos hace falta un camino parecido, además de fomentar eventos de investigación, ahí se siembra la inquietud a los niños y el interés por saber el cómo funcionan las cosas. 

Fuente: Conacyt

El telescopio mexicano que localizará los fenómenos astrofísicos más energéticos del universo

yong-chuan-324645.jpg

El Instituto de Astronomía de la Universidad Nacional Autónoma de México (UNAM) desarrolló un proyecto de seis telescopios llamado DDOTI que será capaz de detectar destellos de rayos gamma, ondas gravitacionales y exoplanetas. Con motivo de la aparición de la primera luz en las observaciones astronómicas con el telescopio, los investigadores involucrados en el desarrollo de DDOTI presentaron los avances y el funcionamiento del telescopio instalado en el Observatorio Astronómico Nacional ubicado en San Pedro Mártir.

El Observatorio Astronómico Nacional (OAN) en San Pedro Mártir es uno de los pocos sitios privilegiados para la óptima observación astronómica en el mundo. La Sierra de San Pedro Mártir, en el estado de Baja California, posee condiciones naturales que permiten la plena contemplación del cosmos en el visible y el cercano infrarrojo.

Desde los años 60, el Instituto de Astronomía (IA-UNAM) opera y desarrolla el OAN en San Pedro Mártir. En 1979, el instituto inauguró uno de sus grandes telescopios con una apertura de 2.1 metros y desde entonces se han desarrollado numerosos telescopios de nueva tecnología. El reciente progreso que logró el IA-UNAM requiere inversión y tecnología para impulsar el desarrollo de proyectos astronómicos en San Pedro Mártir para continuar con el alto impacto de la astronomía mexicana a nivel mundial, además de permitir el acceso a las nuevas generaciones de astrónomos en México a la infraestructura de innovación.

Jesús González González, director del IA-UNAMSan Pedro Mártir es una locación que permite a México ser protagonista en el perfeccionamiento de la ciencia astronómica, es por ello que ha sido finalista para albergar grandes proyectos internacionales como LSSTCTA y TMT.

Es el último sitio de excelencia para la observación óptico-infrarroja en ser aprovechado para asegurar la calidad en cuanto a transparencia del cielo, porcentaje de noches despejadas y estabilidad de la imagen a través de la turbulencia. San Pedro Mártir, zona relativamente seca, tiene las condiciones naturales para potenciar los efectos de la atmósfera como los ciclos oscuros del clima, la cantidad de vapor de agua y la absorción misma de los componentes de la atmósfera.

Para el director del IA-UNAM, Jesús González González, es de suma importancia potenciar los múltiples y probados beneficios de los desarrollos astronómicos en la formación de recursos humanos en ciencia básica y aplicada, así como en la derrama e industria tecnológica del país que lleve a México a una mayor independencia y fortaleza. Es necesario el desarrollo en cuanto a infraestructura, accesibilidad, protección y desarrollo de nuevos proyectos con socios estratégicos nacionales e internacionales para propiciar el progreso científico para la astrofísica observacional mexicana.

¿Qué es DDOTI?

DDOTI, por sus siglas en inglés, significa Deca-Degree Optical Transient Imager. En español, el telescopio para transitorios ópticos de una decena de grados es el nuevo proyecto instalado en el OAN en San Pedro Mártir. 

Este conjunto de seis telescopios será capaz de localizar con alta precisión los fenómenos astrofísicos más energéticos del universo como son las explosiones de supernova, colisiones de agujeros negros o la fusión de estrellas de neutrones cuyas contrapartes en luz visible podrán ser detectadas y estudiadas con los telescopios que conforman el proyecto.

“En la astronomía, un desarrollo te lleva a otro, entonces DDOTI surge a partir de una colaboración que tuvimos para hacer una nueva cámara y robotizar un telescopio antiguo. La idea tiene aproximadamente tres años, combinando desarrollos comerciales como los tubos para los telescopios. No tuvimos que desarrollar cada uno sino el concepto que es lo que lo hace diferente. Combinar estos objetos desarrollados por la industria nos sirve para atacar tres temas fundamentales en astronomía hoy en día, que son los destellos de rayos gamma, el seguimiento y detección de las contrapartes electromagnéticas de las ondas gravitacionales y la búsqueda cercada de exoplanetas”, comentó Jesús González.

El telescopio es robótico y toma sus propias decisiones. Responde automáticamente a las alertas de satélites y de experimentos de ondas gravitacionales. También es remoto y se puede operar en vivo desde el IA-UNAM. Actualmente DDOTI cuenta con solo dos telescopios. Al término de este año estarán listos los otros cuatro telescopios direccionales; sin embargo, en el IA-UNAM ya empezaron a hacer ciencia poniendo a punto el sistema de respuesta, de control de telescopio y de apuntado que respondió mostrando la primera luz detectada en lo que va de su funcionamiento.

Los primeros dos telescopios de DDOTI fueron capaces de detectar la primera imagen de luz que muestra las galaxias que conforman el Cúmulo de Virgo.

El proyecto DDOTI, con sus seis telescopios, tuvo un costo total de 6.3 millones de pesos. El Consejo Nacional de Ciencia y Tecnología (Conacyt) aportó aproximadamente 60 por ciento del costo total, mientras que la UNAM colaboró con 20 por ciento y la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés) con el otro 20 por ciento, contribuyendo con los cuatro telescopios direccionales que estarán montados al 100 por ciento a principios de 2018.

Algunos de los investigadores del Instituto de Astronomía encargados del proyecto son Jesús González González, doctor en física y director del  IA-UNAM; Yilen Gómez Maqueo, investigadora y doctora en física; William Lee Alardín, doctor en física y coordinador de Investigación Científica de la UNAM, y Alan Watson Forster, doctor en astronomía e investigador titular del IA-UNAM.

Detección de destellos de rayos gamma

Alan Watson Forster, investigador en el Instituto de Astronomía, explicó que los rayos gamma son las explosiones más brillantes del universo. Estos fenómenos pueden ocurrir cuando una estrella muere en una supernova. Después de que este acontecimiento sucede, se puede observar la contraparte de la explosión en luz visible con DDOTI.

Alan Watson Forster.Los rayos gamma emitidos por dichas explosiones han sido detectados por dos satélites de la NASA: Fermi y Swift. Los dos detectan alrededor de 100 destellos por año y cuentan con un telescopio de rayos X para determinar la posición del destello. En el Observatorio Astronómico Nacional, llevan cinco años estudiando las explosiones con el telescopio de 1.5 metros.

“Aquí es donde entra DDOTI que va a rastrear un área de 10 grados buscando una fuente nueva que suba y baje el brío relacionado con los rayos X que detectan los destellos de rayos gamma. Una vez que lo localicemos, lo vamos a estudiar con los telescopios que también usamos con los destellos de Swift y Fermi y este será un gran avance para el campo de destellos de rayos gamma. Vamos a tener muchos datos y de mayor calidad. DDOTI tiene una característica que es única, tiene un amplio campo de visión que es 120 veces más grande que el tamaño de la luna”, ratificó Alan Watson Forster. 

Detección de ondas gravitacionales

El investigador del IA-UNAM, William Lee Alardín, explicó que las ondas gravitacionales son perturbaciones u “olas” que suceden en el espacio-tiempo y son producidas por el movimiento de grandes cantidades de materia a velocidades muy elevadas. Son una predicción de la teoría general de la relatividad publicada por Albert Einstein en 1915 pero no se habían observado sus consecuencias hasta hace poco más de un año.

Primera Luz galaxias que conforman el Cúmulo de Virgo.Una fuente típica de estas perturbaciones puede ser la órbita mutua de parejas de materia como dos estrellas de neutrones, dos agujeros negros, o bien uno de cada uno. Conforme se van acercando, giran cada vez más rápido hasta que se funden en un solo objeto y se crea lo que se conoce como el horizonte común de eventos; esto sucede cuando se da la mayor intensidad de emisión de ondas gravitacionales, se convierte en una sola materia y la emisión de ondas gravitacionales prácticamente desaparece.

Las ondas gravitacionales fueron detectadas directamente por primera vez por un experimento en el observatorio LIGO (Laser Interferometer Gravitational-Wave Observatory) en septiembre de 2015 y desde entonces han ocurrido varios eventos como son fusiones de agujeros negros supermasivos, cada uno con alrededor de 30 veces la masa del sol, que producen un temblor en el espacio-tiempo que se propaga a la velocidad de la luz y que estos detectores pueden observar.

Anteriormente, se había examinado el efecto que las ondas tienen sobre ciertos sistemas pero no se habían detectado las ondas, ya que para detectarlas hacen falta telescopios muy especiales tales como los que componen a DDOTI.

“Uno esperaría que esta emisión en ondas gravitacionales también va a producir luz en infrarrojo, en rayos gamma o visible o en alguna otra longitud de onda que se pueda observar con telescopios convencionales. Si se logra hacer esa correlación, entonces se puede aprender muchísimo más sobre la fuente. Las ondas gravitacionales son una manera completamente distinta de observar el universo que lo que hemos tenido hasta el año pasado. Todos los tipos de luz distinta, la luz visible, la radiación infrarroja, las ondas de radio, los rayos X, los rayos gamma, todas son ventanas distintas de un mismo espectro: radiación electromagnética. Las ondas gravitacionales no son una nueva ventana en ese mismo espectro, son otro espectro completamente distinto que da información complementaria. Entonces tiene un valor muy interesante”, manifestó William Lee Alardín. 

El telescopio trata de abarcar la mayor parte de la superficie de la caja de error para detectar si hubo un cambio y determinar dónde fue. Cuando estén los seis telescopios de DDOTI, se podrá abarcar cinco coberturas de campo lo más profundas posible. Se podrá hacer esta misma cobertura y después hacer el procesamiento de los datos para determinar dónde fue la emisión visible de esta fuente.

Detección de exoplanetas

Yilen Gómez Maqueo.Otra característica de DDOTI será la detección de exoplanetas y jupiteres calientes. Un exoplaneta, afirma la investigadora Yilen Gómez Maqueo, es un planeta que está alrededor de otra estrella ubicada más allá del sol.

Un júpiter caliente es un exoplaneta que tiene aproximadamente la misma masa que el planeta Júpiter y que puede tener menores o hasta dos veces más el tamaño de este planeta tardando de uno a diez días en dar la vuelta a su estrella. Son planetas gaseosos que no existen en nuestro sistema solar y que deben estudiarse en el exterior y alrededor de las otras estrellas.

“Necesitamos estudiarlos más. De todos los exoplanetas que se conocen, más de dos mil que han sido confirmados, solamente hay algunos cientos de ellos que son jupiteres calientes. Entonces, todavía tenemos que explorar cómo se formaron y cómo es que llegan tan cerca de su estrella. Sabemos que se tienen que formar más alejados ya que cerca de su estrella está demasiado caliente el ambiente y además tenemos que poder explicar cómo es que llegan a tener tamaños tan variados”, confirmó Yilen Gómez Maqueo.

Finalmente, ¿cómo los detectará DDOTI? Va a medir la luz de todas las estrellas que están en su amplio campo de visión y observará cómo se mueve o cómo eclipsa un exoplaneta a su estrella y localizará una caída en la cantidad de luz que se detecta.

Aunado a la complejidad de los retos de DDOTI, los seis telescopios también se enfocarán en tres proyectos más de astrofísica de vanguardia: 1) la detección de exoplanetas de tipo joviano que se encuentren muy cerca de su estrella, liderado por Yilen Gómez Maqueo y Mauricio Reyes; 2) la generación de un censo cosmológico de núcleos activos de galaxias asociados a la presencia de agujeros negros supermasivos en sus centros galácticos, liderado por el doctor Nathaniel Butler, de la Universidad Estatal de Arizona; y 3) la detección y confirmación de estrellas recién nacidas muy cercanas a nuestro sistema planetario, todas ellas en la Vía Láctea, por el doctor Carlos Román, astrónomo del IA-UNAM. 

Fuente: Conacyt 

La fórmula del éxito: biodiesel de bajo costo

0fc69dc21a9845757ee078e54e1948ed.jpg

Moisés Flores Andrew ha creado en tres años la primera planta de producción y comercialización de biodiesel en Puebla, apoyado primero en su curiosidad, emprendimiento y, finalmente, en el método de transesterificación, un proceso ya existente que consiste en separar el glicerol de los aceites y sustituirlo por un alcohol mediante la acción de un catalizador.

Moisés Flores, quien estudió mecatrónica en la Facultad de Electrónica de la Benemérita Universidad Autónoma de Puebla (BUAP), vende diariamente unos siete mil litros de biocombustible hecho a base del aceite que desechan los restaurantes y comercios que manejan frituras, compitiendo de manera incipiente con grandes empresas como Petróleos Mexicanos (Pemex).

Su planta está instalada cerca de la zona industrial del parque Finsa, a la salida de Puebla con dirección a la Ciudad de México, un lugar en el que ya opera una maquinaria más grande, de la línea Solben y manufactura mexicana, con la que puede producir hasta 10 mil litros diarios de biodiesel.

En entrevista para la Agencia Informativa Conacyt, Moisés Flores recordó que su inquietud inició hace cuatro años, pero la venta como tal la concretó desde hace tres años. Todo empezó cuando escuchó sobre la reforma energética y los nuevos lineamientos para comercializar con energías, su curiosidad lo llevó a investigar más, llamando su atención la generación y venta de biocombustibles.

Dedicado junto con su padre al negocio de reciclaje de algunos desechos industriales como cartón, plástico y fierro, Moisés Flores se dio a la tarea de investigar con sus compañeros y en la biblioteca de la universidad acerca de los procesos para crear biocombustible.

De manera autodidacta creó su primer reactor con un par de tinacos y otros aditamentos, logrando producir 400 litros y comenzar sus primeras ventas. Posteriormente, creó otra máquina para generar mil 500 litros, hasta obtener ahora, gracias a créditos e inversiones privadas, una maquinaria de línea Solben de manufactura nacional, creada por el ingeniero químico Daniel Gómez Íñiguez.

“Fabriqué mi primer reactor pequeño para producir 400 litros diarios, lo hice yo a partir de lo que aprendí en la escuela y lo que investigué en Internet. Empecé a buscar clientes hasta que logré comercializar y ahora llegamos a esta planta de 10 mil litros diarios”, relata Moisés Flores.

Los componentes químicos

Para obtener biodiesel, Moisés Flores recurrió a un proceso conocido como transesterificación y para llevarlo a cabo es necesario verificar el grado de humedad y acidez de los aceites que se utilizan, para determinar así la cantidad de catalizador que se ocupará para lograr las reacciones químicas que faciliten el proceso de creación del biodiesel.

“Nosotros consideramos que un aceite ideal para combustible debe estar por el rango de acidez entre el dos y cinco por ciento, y de humedad debe tener máximo uno por ciento para tener un estándar adecuado de calidad”.

Señaló que en el caso de los aceites que desechan los establecimientos de comida, y que son la base para crear biodiesel, en su mayoría tienen parecida su composición química porque en promedio todos pasan el mismo tiempo en la freidora.

Otros de los componentes usados para este procedimiento son los catalizadores, que en este caso son la sal y el alcohol. Moisés Flores Andrew utiliza alcohol con una pureza de 99.9 por ciento, lo que implica que no debe traer agua para la completa atracción de este compuesto. Se trata de un alcohol especial de grado industrial que se consigue con permisos, siendo el principal proveedor Pemex, aunque Moisés lo compra con distribuidores de Monterrey.

Otro de los compuestos empleados es la sal catalizadora que debe también contar con una alta pureza, de 99 por ciento. Indicó que en el caso de la sal es muy fácil que esta absorba la humedad del medio ambiente y se endurezca y quede inutilizable, por eso se guarda en bolsas herméticas, además de que no se compra en grandes cantidades para evitar su posible descomposición.

“También el alcohol jala muy fácilmente la humedad del ambiente sin que se vea y si los utilizas provocan una mala reacción química, por eso hay que ser cuidadosos con el almacenamiento y utilización de estos compuestos”.

La fórmula del éxito

Moisés Flores explicó que el proceso consiste en elevar las temperaturas a 80 grados para eliminar la humedad que podría haber en el aceite recolectado, a esta temperatura el aceite se vuelve más líquido y se hace más fácil su manipulación para filtrarlo y limpiarlo. Una vez realizado este procedimiento, se manda a un mezclador especial donde se añade el alcohol y se coloca la mezcla a 60 grados de temperatura, porque a 68 y 70 grados se evaporaría el alcohol.

“Lo mezclamos durante una hora y ahí se produce precisamente la reacción de transesterificación. Posteriormente, esta mezcla se deja reposar durante una hora para después ser enviada a una máquina centrífuga para que mediante esta acción separe lo que consideramos el desperdicio o glicerol, dando lugar a la primera etapa del biodiesel casi acabado”.

Una vez que se separan ambos compuestos, se vuelve a introducir la primera muestra de biodiesel a la mezcladora para realizar una segunda transesterificación.

“Es como si se tratara de una ecuación, es decir, aceite más catalizador igual a biodiesel y glicerina. Entonces estos compuestos están en constante equilibrio, ya que el catalizador de pronto se quiere convertir en glicerina y de pronto en biodiesel. Para evitar esto y lograr que el equilibrio de estos compuestos se modifique, se saca la glicerina para que solo quede biodiesel”.

La extracción de glicerina se realiza de forma mecánica a través de una de las válvulas de los reactores; una vez afuera, este desecho es ocupado por los ladrilleros de la zona para sus calderas, lo que también evita que utilicen la quema de llantas, cartón y otros contaminantes.

Una vez realizado este procedimiento químico, explica Moisés Flores, se deja de nuevo reposar por una hora la mezcla para separar de nuevo el alcohol de la glicerina que pudiera quedar. Se pasa por la fuerza centrífuga para posteriormente realizar un lavado en seco y dejar el biodiesel en condiciones óptimas de uso.

“Se pasa por un pulidor de dos micrones, lo centrifugamos de nuevo y ya sale un biodiesel de alta calidad sin ocupar una sola gota de agua porque se utiliza una técnica de lavado en seco”.

Los clientes, el mayor reto

Moisés Flores, quien no ha cumplido aún los 30 años, reconoce que los procesos químicos para hacer biodiesel los aprendió de forma autodidacta, enfrentándose a dudas y errores que resolvió solo con la práctica constante.

Moisés Flores Andrew.“Investigué mucho en las bibliotecas de la universidad y otro tanto en Internet, más o menos durante año y medio, la verdad es que hay mucha información al respecto y también hay muchos emprendedores de otros países con blogs a los que también les escribí para que me asesoraran, porque aunque conozcas las fórmulas químicas y las apliques, al final la experiencia es determinante para saber si tu producto es idóneo o tiene las características que debe”.

No obstante, uno de los mayores desafíos de Moisés Flores y su socio mayoritario, su padre, fue la propia comercialización y la reticencia que encontraron en las personas para conocer su producto, a pesar de ser ecológico y más barato que el de Pemex.

“No esperábamos que fuera tan difícil la parte de la comercialización, tocamos muchas puertas para que la gente empezara a confiar en nosotros porque el mayor problema es que temían que se les fueran a descomponer los camiones y con el robo de hidrocarburos también llegaron a cuestionarnos si no era robado, la ventaja es que nuestro combustible es muy distinto al de Pemex, no hay forma de compararlo, físicamente es distinto, así que iniciamos regalando litros para atraer clientes, ahora ya son tres años comercializándolo con las mismas flotillas de transportistas que nos compraron al inicio”.

La certificación y el crecimiento a futuro

La empresa de Moisés Flores, de nombre Smart Recycling, cuenta con los permisos por parte de la Secretaría de Energía para la producción, venta y transportación de biocombustible. Asimismo, para certificar la calidad de su producto, realizan pruebas aleatorias mensualmente para validar los requerimientos de calidad del biocombustible.

Los valores que se miden son viscosidad, densidad y pH, además de partes por millón de glicerina y algunos residuos como glicerina o catalizadores que deben quedar en un rango muy bajo, aproximadamente 0.01 por ciento.

Moisés Flores aclaró que su propia empresa tiene el equipo para medir el pH; mientras la densidad la calculan con una fórmula matemática y solo la viscosidad es analizada en un laboratorio.

En cuanto a su cartera de clientes, asciende a 30 empresas y particulares que manejan flotillas de camiones a diesel. El proyecto a corto plazo es abrir estaciones de abastecimiento y dos plantas más, una en Guanajuato y otra en Campeche, donde ya tienen avanzadas negociaciones con productores de aceite de palma para que pueda ser utilizado como materia prima, a un costo más económico y con una calidad de pureza en el producto final más elevada.

Actualmente, con mil litros de aceite reciclado, a un costo de ocho pesos por litro, Moisés Flores puede producir 920 litros de biodiesel, que ofrece a un costo de 15.30 pesos el litro ya facturado, buscando siempre estar como mínimo un peso por abajo del costo por litro que oferta Pemex.

Fuente: Conacyt
Foto: Conacyt

Drones para el cuidado ambiental

gianluca-primon-168748.jpg

El posgrado en ingeniería ambiental del Instituto Tecnológico de Boca del Río (Itboca) —que pertenece al Tecnológico Nacional de México (Tecnm)— tiene por propósito ser agente de cambio en su entidad, al solucionar problemas ambientales que afectan el entorno. Bajo esta premisa, investigadores trabajan en el monitoreo de playas a través de drones y el escaneo de imágenes mediante un software especializado, para conocer la cantidad de plásticos desechados.

Se trata de un proyecto en colaboración con el Centro de Investigación en Micro y Nanotecnología (Microna) de la Universidad Veracruzana y el Instituto Tecnológico de Boca del Río. Por medio del uso de drones, podrán cuantificar y clasificar la basura depositada en estas zonas, evitando el riesgo a la salud del monitoreo manual, además de optimizar tiempos. Otro de los proyectos contempla la medición de dióxido de carbono (CO2) en playas del estado, a través de estos dispositivos.

En entrevista con la Agencia Informativa Conacyt, la doctora Fabiola Lango Reynoso, especialista en oceanología biológica y responsable de la maestría en ingeniería ambiental del Itboca, expresó que en la región no existe un uso adecuado de la basura, por lo que el sistema de monitoreo propuesto es una excelente opción para clasificarla.

La maestría en ingeniería ambiental es un programa de estudios adscrito al Programa Nacional de Posgrados de Calidad (PNPC), en donde participan 60 alumnos beneficiados con becas del Consejo Nacional de Ciencia y Tecnología (Conacyt) y 10 docentes, tres de ellos integrantes del Sistema Nacional de Investigadores (SNI).

El problema con los desechos

La zona contemplada para el monitoreo mediante drones y manejo de residuos sólidos corresponde a las playas de Veracruz, Boca del Río y Antón Lizardo.

Los drones son equipos de operación remota que, de acuerdo con la Secretaría de Comunicaciones y Transportes (SCT), en territorio nacional pueden volar a una altura máxima de 122 metros y en una línea visual no mayor a 457 del operador.

Su dinámica de uso facilita  la exploración y análisis de grandes extensiones, que va desde espacios terrestres hasta marítimos.

“La caracterización de los desechos la hacemos de dos modos: una mediante el proceso típico en donde se traza un cuadrante en la playa, en donde se seleccionan residuos y se colocan en una bolsa de polietileno, para posteriormente llevarlos al laboratorio para hacer un conteo y pesaje de ellos”, precisó Alexis López Hernández, alumno encargado del proyecto.

Alexis López, responsable del proyecto “Identificación de residuos de PET en las playas de mayor afluencia en Veracruz”, es alumno de la maestría en ingeniería ambiental y becario Conacyt. Mencionó que la dinámica que propone acelera el proceso de identificación de residuos, además de disminuir las horas de trabajo de las personas que se dedican a ello y aminorar los peligros a los que se exponen.

De acuerdo con la Secretaría de Medio Ambiente y Recursos Naturales (Semarnat), 90 por ciento de la basura que flota en el mar es material plástico de diversos tipos. Por otro lado, México es líder mundial en reciclaje de PET (politereftalato de etileno), al recuperar 60.3 por ciento de los envases que se consumen, motivo por el cual posee la planta de reciclado de PET más grande del mundo.

Innovación para el entorno

El proyecto para la identificación de residuos en las playas veracruzanas a través de drones está en manos del ingeniero Alexis López Hernández, en colaboración con el ingeniero Alan Córdoba Hernández, bajo la dirección de los doctores María del Refugio Castañeda Chávez y Agustín Herrera Mayor, y la asesoría de la doctora Fabiola Lango Reynoso.

La doctora Fabiola Lango, responsable del posgrado en ingeniería ambiental del Itboca, indicó que el proyecto surgió por la preocupación en cuanto al manejo de residuos sólidos de las playas en el estado de Veracruz, pues se trata de una actividad que comúnmente es peligrosa y demorada. La dinámica de identificación de residuos mediante drones permitirá el reciclaje y uso alterno de la basura. Mencionó que ejemplo de ello es el traslado de las algas marinas al basurero, que llegan a alcanzar hasta 160 toneladas, lo cual provoca malos olores. De ser identificadas anteriormente y calcular su peso, podrían ser utilizadas como composta.

De esta forma, el proceso propuesto por los investigadores para el tratamiento de los desechos podría favorecer otros municipios, incluso a la industria hotelera, para saber cómo tratar su basura.

Agregó que la maestría en ingeniería ambiental tiene el propósito de solucionar problemas ambientales que aquejan el entorno, con base en el conocimiento científico y en vinculación con la parte tecnológica.

Después de capturar las imágenes mediante el dron, son procesadas por un analizador que identifica y cuantifica los residuos de PET. Se trata del software Matlab, en el cual los investigadores desarrollaron algoritmos que permiten identificar desechos de PET y próximamente de poliestireno expandido (EPS o unicel).

“Primero realizamos un estudio de los tipos de PET más utilizados en la zona, para crear los algoritmos requeridos de identificación de cada producto e ingresarlos en el software. Posteriormente, el software identifica y cuantifica los residuos de las fotografías capturadas por el dron”, puntualizó Alexis López.

El analizador puede identificar las variedades del PET, desde la botella completa o cortada, la tapa y las variedades en color. Otro de los puntos que puede identificar el software es el peso aproximado de los desechos.

Fuente: Conacyt

Fenómenos que se presentan en la Tierra durante los eclipses

doug-walters-36628.jpg

Desde tiempos antiguos, los eclipses han estado rodeados de mitos y supersticiones. Desde los chinos, que creían que durante los eclipses solares el sol era devorado por un dragón, hasta los mayas que creían que al desaparecer el sol, criaturas malignas surgían de la oscuridad.

La palabra eclipse viene del griego ekleipsis,que significa desaparición, y hoy en día sabemos que los eclipses se producen cuando un cuerpo celeste se interpone entre otros dos, proyectando una sombra.

En el caso de los eclipses solares, la luna se interpone entre la estrella de nuestro sistema solar y la Tierra, proyectando una sombra en la superficie terrestre. Cabe destacar que existen tres tipos diferentes de eclipses solares: totales, anulares y parciales.

Los eclipses totales y anulares son los más espectaculares, ya que desde nuestra perspectiva en la Tierra se puede apreciar que la luna llena y el sol tienen prácticamente el mismo tamaño, provocando que al paso de la luna entre la Tierra y el sol, este último sea cubierto casi por completo.

José Ramón Valdés, doctor en astrofísica y actual investigador del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), explicó en entrevista con la Agencia Informativa Conacyt algunos de los fenómenos que se presentan en la Tierra durante los eclipses.

La razón por la que los eclipses solares son apreciados de distintas maneras en diferentes puntos geográficos se debe a la franja de totalidad, que es una banda a lo largo del globo terrestre en la que se puede observar el fenómeno astronómico en su forma total, y fuera de esa zona, se aprecia de forma parcial.

¿Durante un eclipse pesamos menos?

Desde días pasados uno puede encontrar en redes sociales publicaciones que aseguran que el 21 de agosto todas las personas pesaremos menos. Esto tiene algo de cierto, pues la acción gravitacional que se produce cuando se alinean la luna y el sol ocasiona una pequeña alteración en la gravedad terrestre.

“Cuando se produce un eclipse, el sol y la luna están alineados, por lo que la acción gravitacional de estos dos cuerpos se suma, contrarrestando un poco la acción gravitacional que ejerce la Tierra sobre todos los cuerpos que están sobre ella”, explicó el investigador.

Si bien la acción gravitacional de nuestro planeta sufre cambios, estos efectos son prácticamente imperceptibles para el ser humano. El 21 de agosto sí pesaremos menos, pero el peso restado será el equivalente al de una cucharada de azúcar.

Esta alineación entre nuestra estrella y el satélite natural de la Tierra también influye en los mares, ocasionando mareas ligeramente superiores a las habituales, pero sin llegar a provocar cambios catastróficos.

Beneficios

En los lugares donde el eclipse puede apreciarse en su totalidad, la naturaleza reaccionará a causa de la falta de luz, presentando una oportunidad única para los investigadores que estudian el comportamiento de flora y fauna durante los casi tres minutos que durará el fenómeno.

Por otra parte, también se presentan condiciones favorables para el estudio de las capas superiores de la atmósfera del sol.

“Recordemos que cuando vemos el sol, lo que observamos es la capa más interna de la atmósfera del sol, la fotósfera. Por encima de ella hay otras dos capas, la cromósfera y la corona solar, capas que no se pueden ver ya que su densidad es muy baja (…) Es como si pusiéramos un cerillo delante de una fogata”, puntualizó el doctor Valdés.

Durante el eclipse total de sol, la luna cubre completamente la fotósfera, haciendo que la cromósfera y la corona solar puedan ser observadas. Esta oportunidad es aprovechada para estudiar más a fondo estas capas, pues hay fenómenos que requieren explicación.

Las cuestiones de las que se quiere saber más sobre el sol, es el porqué de las altas temperaturas de la cromósfera y la corona solar, que pueden llegar a tener temperaturas de aproximadamente un millón de grados Celsius, mientras que su superficie alcanza apenas seis mil grados.

Para resolver la incógnita, se planea estudiar la distribución de los electrones en la cromósfera y en la corona solar, de manera que sea posible realizar modelos que ayuden a explicar sus altas temperaturas, además de estudiar la estructura del campo magnético presente en las capas mencionadas.

Fuente: Conacyt

Desarrollan celdas solares de silicio cristalino

El mundo se enfrenta a grandes retos ante el cambio climático, por lo que es necesario buscar modos de producir energía por vías ecológicamente amigables, como la energía solar.

Actualmente, en laboratorios del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE) se ha logrado desarrollar celdas solares de silicio cristalino con una eficiencia de 15.7 por ciento.

En entrevista con la Agencia Informativa Conacyt, el doctor en ciencias en electrónica Mario Moreno declaró que el proyecto, iniciado en el año 2012, surgió gracias a la iniciativa de un grupo de investigadores de realizar un proyecto para el desarrollo de tecnología nacional de celdas solares utilizando silicio cristalino.

¿Por qué usar silicio cristalino?

En palabras del doctor Moreno, “es de relativa alta eficiencia, la eficiencia récord de una celda solar de silicio cristalino puede llegar hasta 25 por ciento, además de que son muy durables si están bien construidas, llegando a tener un tiempo de vida de 25 años”.

El INAOE cuenta con dos laboratorios que, complementando sus capacidades, se utilizan para desarrollar sensores nanoestructurados para detectar radiación, dispositivos semiconductores y celdas solares.

El primero es el Laboratorio de Microelectrónica, que tiene la capacidad de procesar obleas de silicio de dos pulgadas, además de fabricar dispositivos con dimensiones mínimas de 10 micrómetros.

El segundo es el Laboratorio de Innovación en Sistemas Micro-Electromecánicos (LI-MEMS), con una extensión de 800 metros cuadrados, en donde hay cuartos limpios de clase 100 y 1000, utilizado para procesar obleas de silicio de cuatro pulgadas y dispositivos con dimensiones mínimas de hasta ocho mil nanómetros.

Además, con el apoyo a la investigación de Ciencia Básica SEP-Conacyt, fue posible la adquisición de un simulador solar tipo ABA de cuatro pulgadas y se equipó una estación destinada a la caracterización de celdas solares. Con este equipo se puede caracterizar el desempeño de las celdas, pues provee el mismo espectro de radiación que proviene del sol después de pasar por la atmósfera terrestre.

En los últimos cuatro años, el doctor Moreno y su equipo han obtenido resultados cada vez mejores en la eficiencia de las celdas solares. Las primeras celdas solares, desarrolladas en el verano de 2013, no superaban cuatro por ciento de eficiencia, mientras que para finales del año 2016 y gracias a que los procesos de fabricación se han optimizado, se han logrado alcanzar eficiencias superiores a 15 por ciento en celdas de un centímetro cuadrado.

Fuente: Conacyt

Jaliscienses imprimen prótesis en 3D

Un grupo de estudiantes y profesores del Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM), campus Guadalajara, desarrolla prótesis utilizando tecnologías de impresión aditiva, a favor de personas de bajos recursos.

El ingeniero Santiago de Colsa Ailloud, uno de los líderes del proyecto titulado Enable Tec, compartió en entrevista para la Agencia Informativa Conacyt que esta iniciativa se enfoca en utilizar esta tecnología en beneficio de personas que requieran una prótesis funcional de extremidades superiores debido a accidentes o malformaciones congénitas que los hayan privado total o parcialmente de una de sus manos.

“Enabling the future surgió en Estados Unidos con una persona que quería darle solución a un niño que había nacido sin dedos, por lo que diseñó e imprimió una mano en una impresora 3D y de ahí empezó a ayudar a su comunidad, especialmente a niños que necesitaran una mano”, comentó el ingeniero.

Asimismo, acotó que las prótesis funcionales tienen un costo superior a los 300 dólares, mientras que la opción que ellos ofrecen cuesta aproximadamente 50 dólares.

El movimiento Enabling the future ha crecido desde sus inicios en 2011 para contar actualmente con más de siete mil miembros a nivel mundial, habiendo beneficiado a más de dos mil personas en más de 45 países.

El equipo del ITESM campus Guadalajara ha logrado impactar en la vida de seis personas de la región, quienes han recibido una prótesis personalizada a bajo costo. De igual forma, están en constante colaboración con instituciones como el Sistema para el Desarrollo Integral de la Familia (DIF) y el Teletón.

“En 2015, el proyecto recibió 122 mil pesos como parte del Reto Emprendedor dentro del nuevo proyecto educativo del Tec de Monterrey; con ese recurso compramos impresoras y el material para poder empezar a ayudar a nuestra comunidad aquí en México”, señaló el ingeniero.

De Colsa Ailloud señaló que los diseños que actualmente utilizan son open source, por lo cual lo pueden descargar fácilmente y modificarlo a las necesidades del usuario, para luego imprimirlo. Sin embargo, el ingeniero no descartó que en un futuro los diseños puedan ser elaborados por el equipo de Guadalajara, por lo que estudiantes de diseño industrial e ingeniería en mecatrónica han colaborado con el grupo.

Expectativas a futuro

Ejemplos de los trabajos que ha hecho el equipo de Enable Tec se presentaron en el marco de la octava edición de Campus Party, en el estand del Tecnológico de Monterrey.

Las prótesis son elaboradas con filamento de ácido poliláctico, mejor conocido como PLA, que es uno de los materiales más populares para la impresión en tercera dimensión. Actualmente, Enable Tec solo realiza prótesis de miembro superior, ya que el material no es lo suficientemente resistente para ser utilizado en la elaboración de extremidades inferiores.

En un futuro, el grupo buscará implementar otro tipo de tecnologías para dotar las prótesis de bajo costo con otras funciones, como tener movilidad bioeléctrica.

El ing. Santiago de Colsa Ailloud y la estudiante Priscila Itzayana Medina Martínez, participantes de Enable TEC.
El ingeniero también señaló que el recurso con el que cuentan actualmente les permitirá beneficiar con prótesis a cerca de 12 personas al terminar el año. Aunado a ello, pronto comenzarán una campaña para recaudar fondos y poder continuar con su labor y mejorar los entregables con piezas extra.

Herramienta para los alumnos

Acorde con lo dicho por De Colsa Ailloud, el proyecto surgió de las aulas en 2015, como parte de la clase de biomecánica. “Lo ideal era que los alumnos comenzaran a conocer toda la estructura biomecánica de una prótesis, aunque fuera básica, y poder ayudar”, dijo.

La alumna de segundo semestre de ingeniería biomédica Priscila Itzayana Medina Martínez forma parte del equipo de Enable Tec. Ella aseguró que además de la labor filantrópica que rige este movimiento, participar le ha significado mucho aprendizaje en distintas áreas.

“Me complementa en cómo se trabaja la parte de biomecánica, me va a ayudar en próximos semestres de la carrera. Además estoy aprendiendo de las necesidades que hay en la población y cómo se puede ayudar utilizando materiales y tecnologías que están a nuestra disposición”, comentó la estudiante.

“No es solamente hacer una prótesis. Es conocer la historia de esa persona, bajar el diseño, elegir colores, tomar medidas… es un proceso. Como personas nos ayuda a crecer; ayudar es una de las mejores cosas”, afirmó.

Actualmente, colaboran en el proyecto siete alumnos de ingeniería en biomédica del Tec de Monterrey, así como un laboratorista y dos profesores asesores.

Fuente: Conacyt