Horario | Presentador(a) | Información del trabajo | |
---|---|---|---|
16:00 - 16:30 | Oscar Ivan Torres Mena | Propiedades de transporte de caminatas aleatorias sobre un anillo con atajos deterministas | Más información |
16:30 - 16:45 | Rachid Marzoug | Modelo de Autómatas Celulares para la Simulación y Optimización de Emisiones y Flujo de Tráfico en Sistemas de Dos Rutas | Más información |
16:45 - 17:00 | Eduardo Jonathan Torres Herrera | Funciones de distribución universales en la dinámica de sistemas cuánticos de muchas partículas | Más información |
17:00 - 17:30 | Luis Agustín Olivares Quiroz | Cadenas de Markov discretas incrustadas en redes de aminoácidos $C_{\alpha}$ en proteínas globulares. Hacia la identificación de sitios activos en proteasas virales mediante teoría de grafos y procesos difusivos en redes | Más información |
17:30 - 17:45 | Marco Antonio Ramirez Guizar | Evolution of Depletion Forces During the Quenching Process | Más información |
17:45 - 18:00 | Yulian Ándres Álvarez Ballesteros | Representación gráfica de la secuencia completa del Genoma Humano | Más información |
Clave única | Información del trabajo | ||
---|---|---|---|
LXVII-008781 |
Difusión estocástica de trayectorias bidimensionales del centro de masa del modelo de la pila de arena de Bak - Presentador(a): José Ángel Hernández Peredo |
Más información | |
LXVII-008923 |
Representación Genómica Binaria - Presentador(a): José Luis Del Río-Correa |
Más información | |
LXVII-008957 |
Estudio de la transición metal-aislante en el modelo de Aubry-André bajo un enfoque de series de tiempo - Presentador(a): Miriam Jiménez Valdez |
Más información | |
LXVII-008960 |
Análisis topológico de señales eeg de pacientes con epilepsia para identificar regiones focales y no focales - Presentador(a): Ulises Piedra Guzmán |
Más información | |
LXVII-008965 |
Análisis espectral en señales de eeg de pacientes con epilepsia para identificar regiones focales y no focales - Presentador(a): María Clarissa Contreras Acosta |
Más información | |
LXVII-009128 |
Estudio de la aparición de láminas-$\beta$ en la proteína $\alpha$-sinucleína y su relación con las áreas de mayor interés en la agregación de la proteína - Presentador(a): Jahir Alfonso Rodríguez Hernández |
Más información | |
LXVII-009234 |
Estimación algorítmica para un sistema unidimensional con diferentes formas de la probabilidad de ocupación - Presentador(a): Ana Luisa Delgado González |
Más información | |
LXVII-009337 |
Modelo con autómatas celulares de la propagación de enfermedades respiratorias virales por dispersión de aerosoles - Presentador(a): Pedro Pérez Sánchez |
Más información | |
LXVII-009481 |
Reducción del fenómeno de sobreimpulso/subimpulso en la serie truncada de prony mediante algoritmos de optimización - Presentador(a): Gerardo Iván Torres Cisneros |
Más información | |
LXVII-009498 |
Comparativa de la eficiencia de los algoritmos para resolver ecuaciones diferenciales parciales tradicionales y los métodos con redes neuronales artificiales - Presentador(a): Jose Eduardo Ramos Martinez |
Más información | |
LXVII-009521 |
El Desempeño de Técnicas No Lineales en Series de Tiempo de Tamaño Pequeño - Presentador(a): Ana María Aguilar Molina |
Más información | |
LXVII-009560 |
Análisis de Redes Complejas en el Discurso Mediático Durante las Elecciones Presidenciales en México - Presentador(a): Noe Aranda Muñoz |
Más información | |
LXVII-009658 |
Modelo discreto para analizar el impacto del uso del transporte público en la propagación del COVID-19 en la CDMX - Presentador(a): Fernando Reyes Gómez |
Más información | |
LXVII-009660 |
Estudio del espacio vectorial generado a partir de clases de grupos de residuos en las proteínas - Presentador(a): Juan Martín Hernández Castillo |
Más información | |
LXVII-009680 |
Modelación discreta de la propagación de Dengue considerando la influencia de los cambios ambientales y meteorológicos - Presentador(a): María Elena Lárraga Ramírez |
Más información | |
LXVII-010002 |
Análisis de las Propiedades Mecánicas y Estructurales de Tabletas Farmacéuticas como un Sistema Complejo - Presentador(a): José Gerardo Mejía Hernández |
Más información | |
LXVII-010045 |
Inferencia de redes de regulación genética a partir de matrices de correlación - Presentador(a): Jesus Tolentino Ramirez |
Más información | |
LXVII-010084 |
Análisis de los retornos diarios e intradía de mercados financieros - Presentador(a): Luis David Aguilar Colorado |
Más información |
Propiedades de transporte de caminatas aleatorias sobre un anillo con atajos deterministas
Se estudian las propiedades de trasporte de caminatas aleatorias en tiempo discreto, en una cadena lineal periódica y discreta de $N$ sitios. Las transiciones entre sitios están restringidas a los primeros vecinos y a sitios alejados $r$ lugares. Se pone particular interés en la distribución de tiempos de primer arribo entre sitios que se hallan en sitios diametralmente opuestos en la cadena. Se encuentra que el tiempo promedio de primer arribo es una función altamente no monótona de $r$. Se analiza el escalamiento de dichos tiempos con el tamaño de la cadena, los cuales divergen en el caso de una cadena lineal infinita, estos tiempos también divergen en el caso del continuo en una dimensión (ley de Lévy Smirnoff). El desplazamiento cuadrático medio resulta ser explosivo para algunos valores de $r$.
Modelo de Autómatas Celulares para la Simulación y Optimización de Emisiones y Flujo de Tráfico en Sistemas de Dos Rutas
Este estudio utiliza el modelo de Autómatas Celulares para modelar y optimizar las emisiones y el flujo de tráfico en sistemas de dos rutas mediante estrategias de retroalimentación de información. Se revela que la Estrategia de Retroalimentación del Número de Vehículos (VNFS) es la más efectiva para reducir las emisiones de CO2 y mejorar el flujo.
Funciones de distribución universales en la dinámica de sistemas cuánticos de muchas partículas
Estudiamos la función de distribución de probabilidad de observables que son evolucionadas en el tiempo por hamiltonianos que modelan sistemas unidimensionales de muchos espines 1/2, limpios o desordenados. En particular, analizamos la probabilidad de supervivencia y el factor de forma espectral, entre otras funciones de correlación que son de amplio interés en experimentos con simuladores cuánticos.
Cadenas de Markov discretas incrustadas en redes de aminoácidos $C_{\alpha}$ en proteínas globulares. Hacia la identificación de sitios activos en proteasas virales mediante teoría de grafos y procesos difusivos en redes
Más del 90% de todas las reacciones bioquímicas en organismos biológicos están mediadas por proteínas y enzimas globulares. A fin de poder realizar una función bioquímica específica, la mayoría de las proteínas deben adquirir una configuración tridimensional cuasi-cristalina conocida como estado nativo. En esta conformación, la estructura globular define regiones específicas llamadas "pockets" o sitios activos, en donde diversos substratos pueden acoplarse con la enzima a fin de inducir o inhibir una función bioquímica en específico. Por tanto, la identificación de estas regiones o sitios activos se ha convertido en uno de los temas más fascinantes y complejos en la interfaz entre la física, los sistemas complejos y la biología molecular de las últimas décadas. En este trabajo, presentamos un modelo físico matemático basado en una red de $N$ nodos y $E$ enlaces, los cuales representan los aminoácidos $n_j$ de una enzima globular y sus interacciones para estudiar la estructura, conectividad y dinámica de enzimas proteasas virales, particularmente en este caso nos centramos en la proteasa M$^{pro}$ del virus del SARS-CoV2. A partir de la estructura cristalográfica de la proteína obtenida de bases de datos como el Protein Data Bank (PDB), construímos la matriz de adyacencia ${A}$ que define a los nodos y sus interacciones y definimos una estructura de cadena de Markov discreta sobre este grafo a través de una matriz de probabilidad $P$ de transición entre nodos. Con estos elementos, calculamos la matriz de primer paso promedio $M$ y otras propiedades dinámicas y estáticas de la red . Identificamos los nodos relevantes $n^{*}$ haciendo énfasis en particular en los nodos His41-Cys145 identificados experimentalmente como la diada catalítica de la enzima M$^{pro}$ . Consideramos que este enfoque novedoso nos permite identificar cuantitativamente nodos y aminoácidos que pudieran resultar de interés desde un punto vista biomédico y de diseño de fármacos moleculares.
Evolution of Depletion Forces During the Quenching Process
Depletion forces have gained significant scientific and technological importance in recent decades due to their role in segregation and self-assembly phenomena in colloidal and biological systems. The calculation of these forces has been extensively reported using various theoretical, simulation, and experimental schemes under equilibrium conditions. However, in the case of non-equilibrium conditions, results have only been obtained under certain approximations. In this work, we present the evolution of depletion forces during a quenching process, during which new phenomena emerge due to the transition between non-equilibrium states.
Representación gráfica de la secuencia completa del Genoma Humano
En 2022 el Consortium Telomere-to-Telomere presentó una secuencia completa del Genóma Humano (T2T-CHM13) con una longitud de 3,117,275,501 bp, compuesta por 24 cromosomas.
En este trabajo utilizando una versión binaria (RGB) del CGR se encuentra la Representación Gráfica del T2T-CHM13, mostrando en una escala logarítmica de color el número de puntos por celda, cada una de área 4-12. Utilizando un proceso de compactación del genoma completo se obtiene la autosimilaridad del T2T-CHM13 para diversos grados de compactación, con los datos del BGR se encuentra la Representación Markoffiana de uno y dos pasos, se hace el análisis multifractal y todos ellos se comparan con el CGR,
Difusión estocástica de trayectorias bidimensionales del centro de masa del modelo de la pila de arena de Bak
Los sistemas complejos, caracterizados por comportamientos emergentes que surgen de las interacciones entre numerosos componentes, han sido de interés en la física durante mucho tiempo. Uno de estos sistemas, el modelo de la pila de arena de Bak, exhibe propiedades sobre la dinámica de la autoorganización crítica. En este estudio, investigamos un proceso de difusión estocástica que surge de trayectorias bidimensionales del centro de masa de la malla del sistema. Analizamos la evolución espacio-temporal de estas trayectorias a través de extensas simulaciones computacionales, revelando que el sistema muestra un comportamiento de difusión no trivial, caracterizado por ráfagas intermitentes de actividad. Presentamos resultados de mediciones de correlaciones a largo plazo y trazas de regímenes subdifusivos y superdifusivos. Nuestros hallazgos contribuyen a la comprensión de la dinámica compleja en los sistemas autoorganizados críticos y tienen implicaciones para diversos campos, incluyendo la geofísica, la ciencia de materiales y la teoría de redes. La caracterización de las trayectorias emergentes de difusión de grano grueso en el sistema de la pila de arena de Bak sienta las bases para futuros estudios que busquen elucidar la interacción entre la dinámica de grano grueso y la estructura del sistema.
Representación Genómica Binaria
Para visualizar una Secuencia Genómica(SG) Jeffrey propuso una variación, del Juego del Caos de Barnsley, donde utilizando un proceso iterativo, a una SG de N nucleótidos se le asocian N puntos: (P1,P2,…PN), dentro de un cuadrado unitario, donde en principio conociendo PR se pueden conocer todos los puntos anteriores, pero en la práctica solo se pueden conocer un número muy pequeño de ellos. Para resolver este problema proponemos seguir ideas similares a las de Yin, pero utilizando una base binaria, lo que permite codificar toda la SG con tres números enteros, que al ser decodificados obtenemos la secuencia completa, sin perder información y encontrar expresiones analíticas de cualquier sub-secuencia, las coordenadas del punto asociado a ella, conocer el nucleótido R-ésimo de las SG, y diseñar un proceso de compactación de la SG que nos permite encontrar la Representación Gráfica de SG conformadas por un número elevado de nucleótidos.
Estudio de la transición metal-aislante en el modelo de Aubry-André bajo un enfoque de series de tiempo
Se estudiará la transición metal-aislante en el modelo unidimensional de Aubry-André. En particular, se propone caracterizar dicha transición mediante el módulo al cuadrado de la transformada de Fourier de una estadística definida en términos de los espaciamientos consecutivos entre niveles energéticos adyacentes, esto es, mediante el así llamado espectro de potencias, una herramienta ampliamente utilizada en el análisis de series de tiempo.
Análisis topológico de señales eeg de pacientes con epilepsia para identificar regiones focales y no focales
La epilepsia es un trastorno neurológico crónico caracterizado por convulsiones recurrentes, resultantes de un desequilibrio en la actividad eléctrica de las neuronas en ciertas regiones del cerebro, lo que representa una actividad neuronal anormal que es detectable mediante electroencefalogramas (EEG), una herramienta esencial en el diagnóstico y tratamiento de la epilepsia. El propósito de este estudio es identificar y clasificar señales EEG provenientes de regiones clínicamente diagnosticadas como focales y no focales en pacientes con epilepsia farmacorresistente del lóbulo temporal. En este trabajo se utilizó Análisis Espectral para identificar las frecuencias características de las señales EEG de puntos focales y no focales. También se aplicó Análisis Topológico de Datos (TDA) para comparar los patrones de persistencia de homología entre los tipos de señales de EEG. Se calcularon las fases de las frecuencias características para asociarlas a los patrones de las estructuras topológicas obtenidas. Con estos resultados se concluye que las señales provenientes de regiones donde se origina la actividad neuronal asociada a la epilepsia fue posible diferenciarlas de las señales donde la epilepsia no es generada.
Análisis espectral en señales de eeg de pacientes con epilepsia para identificar regiones focales y no focales
La epilepsia es un trastorno neurológico crónico caracterizado por convulsiones recurrentes, que surge de un desequilibrio en la actividad eléctrica neuronal en regiones específicas del cerebro. Estas convulsiones o ictus (eventos breves y súbitos), se distinguen por una actividad neuronal anormal. El electroencefalograma (EEG) es una herramienta fundamental para el diagnóstico y tratamiento de la epilepsia; se basa en la medición de la actividad eléctrica cerebral por medio de electrodos. Las señales detectadas por el EEG representan los potenciales postsinápticos de las neuronas piramidales en la neocorteza y la alocorteza en el cerebro. El objetivo de este estudio es identificar señales EEG provenientes de regiones diagnosticadas como focales y no focales en pacientes con epilepsia farmacorresistente utilizando análisis espectral. La metodología consiste en analizar las señales empleando la transformada rápida de Fourier (FFT). Los espectros de las señales analizadas revelaron una diferencia significativa en la magnitud de las frecuencias entre 1 a 8 Hertz, entre las señales de epilepsia focales y no focales. Estos resultados sugieren que es posible usar análisis espectral para apoyar el diagnóstico clínico diferencial en la identificación de las señales de EEG que provienen de pacientes con epilepsia apta para una operación respecto a pacientes con epilepsia no focal.
Estudio de la aparición de láminas-$\beta$ en la proteína $\alpha$-sinucleína y su relación con las áreas de mayor interés en la agregación de la proteína
La α-sinucleína es una proteína hallada en el cerebro, la cual está relacionada con la enfermedad de Parkinson por medio de un proceso conocido como agregación. Debido a su naturaleza, puede experimentar diversos cambios conformacionales relacionados con las estructuras secundarias, siendo en este caso de interés las láminas-$\beta$, esto con el fin de encontrar las regiones dentro la proteína las cuales pueden llegar a ser más propensas a la agregación de esta. Es por eso que se busca estudiar la aparición y estabilidad de este tipo de estructuras por
medio de simulaciones de dinámica molecular, haciendo uso del force field CHARMM36, el cual es un force field especializado en este tipo de proteínas. Se tienen contemplados distintos parámetros para las simulaciones, siendo los principales la temperatura del sistema, el pH de la proteína y mutaciones puntuales de esta, todo esto con la finalidad de obtener un muestreo más amplio de estas estructuras bajo diferentes condiciones ambientales a las que puede llegar a estar sometida la proteína, donde hasta el momento se ha observado la tendencia de aparición principalmente en 5 residuos, los cuales son los identificados con el número 72, 73, 85, 88 y 89, todos estos pertenecientes a la región central de la proteína, lo cual entra en concordancia con estudios anteriores que marcan esta región como la principal detonante del proceso de agregación debido a su naturaleza hidrofóbica.
Estimación algorítmica para un sistema unidimensional con diferentes formas de la probabilidad de ocupación
En este trabajo se presenta una estimación algorítmica de un sistema unidimensional que presenta diferentes distribuciones de probabilidad de ocupación. A partir de las funciones de distribución radial de un sistema bidimensional de partículas coloidales, se construyen las funciones de probabilidad de ocupación para diferentes densidades de partículas, con el fin de abordar el problema de complejidad. El objetivo del poder calcular la medida de incertidumbre de este sistema para diferentes densidades de ocupación, y a diferentes cortes de las distribuciones radiales.
Modelo con autómatas celulares de la propagación de enfermedades respiratorias virales por dispersión de aerosoles
En este trabajo se presenta un modelo discreto, basado en la dinámica de autómatas celulares para estudiar el papel que juega la exposición de los peatones en espacios públicos a aerosoles con concentraciones de virus transmitibles por vía respiratoria, como es el caso del COVID-19. El modelo combina la movilidad peatonal y la dispersión de aerosoles; sus dinámicas se trabajan de manera independiente. A través de la interacción de dos mallas celulares se logra la exposición de los peatones a los aerosoles emitidos por peatones infectados. Cada peatón se mueve con base en reglas tomando consideraciones como: la teoría de colas al ingresar al área geográfica; la toma de decisión al seleccionar la puerta de destino; selección de la ruta de movimiento; y considerando a los peatones que se desplazan en direcciones opuestas en un espacio que solo puede ser ocupada por un solo peatón. Por otra parte, la dispersión de aerosoles está dada por una ecuación de transporte que combina dos fenómenos físicos: difusión y convección. La difusión considera como parámetro básico el coeficiente de difusión, mientras que la convección considera las corrientes de aire que ingresan al espacio geográfico por las fronteras abiertas como puertas. Con los dos modelos trabajando de manera conjunta, se desarrolló una variante del modelo SEIR. Debido a que el tiempo de exposición de los peatones en espacios públicos es corto, en este modelo solo podrán pasar de un estado susceptible a expuesto, teniendo así, un modelo SE. Los resultados de simulación muestran que el modelo es capaz de reproducir la interacción de peatones que emiten aerosoles infectados con, peatones sanos, conservando la naturaleza de dispersión y movilidad peatonal. Se concluye que en lugares públicos donde haya una gran cantidad de personas, presencia de peatones infectados y una escasa circulación de aire, pueden alcanzarse altas concentraciones de aerosoles nocivos.
Reducción del fenómeno de sobreimpulso/subimpulso en la serie truncada de prony mediante algoritmos de optimización
Este proyecto se centra en la reducción del fenómeno de sobreimpulso/subimpulso en la serie truncada de Prony mediante algoritmos de optimización. La serie truncada de Prony se utiliza comúnmente en la reconstrucción de señales, pero cuando se aplica a señales con discontinuidades abruptas, sufre efectos significativos de sobreimpulso/subimpulso. Los métodos tradicionales minimizan el error cuadrático medio (MSE) para calcular los coeficientes en el método Prony.
En este estudio, se propone un enfoque distinto al tradicional, que minimiza el error absoluto medio (MAE), introduciendo un algoritmo de optimización implementado computacionalmente para reducir la magnitud del sobreimpulso/subimpulso en señales con discontinuidades abruptas. Nuestro enfoque incluyó una revisión exhaustiva de la literatura, desarrollo del método, simulaciones y pruebas con señales que presentan características específicas. Se comparó nuestro método con técnicas tradicionales y validamos su desempeño en distintos tipos y condiciones de señales.
La importancia de esta investigación radica en su potencial para mejorar la precisión en la reconstrucción de señales, crucial en campos como la geofísica, las comunicaciones y el análisis de datos biomédicos. Al mejorar la precisión y eficiencia del método de Prony, este estudio pretende ofrecer beneficios prácticos en estas aplicaciones, contribuyendo tanto al conocimiento teórico como a las metodologías prácticas para profesionales e investigadores.
Comparativa de la eficiencia de los algoritmos para resolver ecuaciones diferenciales parciales tradicionales y los métodos con redes neuronales artificiales
En este trabajo se utilizan algoritmos para resolver ecuaciones diferenciales parciales, en este caso solo nos concentramos en la ecuación de difusividad de calor , debido a que esta es de suma importancia en la física, para ello nos apoyamos del proyecto FEniCS (https://fenicsproject.org/), el cual es una plataforma informática de código abierto para resolver ecuaciones diferenciales parciales (EDP) con el método de elementos finitos (FEM). FEniCS permite a los usuarios rápidamente traducir modelos científicos en código eficiente de elementos finitos. utiliza el método del elemento finito para resolver los puntos de las mayas desde 1D hasta 3D (intervalos, cuadrados, cubos), sin embargo se tuvo que hacer una extensión para altas dimensiones, usado productos tensoriales dentro del elemento finito para resolver la ecuación de calor en altas dimensiones en este caso hasta 6D y una temporal. Así mismo utilizamos algoritmos de redes neuronales artificiales para resolver la ecuación de calor en altas dimensiones, para hacer una comparativa sobre la eficiencia (tiempos de computo) de los algoritmos, así mismo para brindar a la comunidad información sobre cuales es la opción optima para la resolución de ecuaciones diferenciales parciales en altas dimensiones.
El Desempeño de Técnicas No Lineales en Series de Tiempo de Tamaño Pequeño
Existe una gran variedad de técnicas que se utilizan para analizar series de tiempo provenientes de sistemas complejos. El objetivo es describir las propiedades del sistema complejo a partir de los resultados obtenidos al analizar sus correspondientes series de tiempo. Muchas de estas técnicas presuponen que la serie tiene un gran número de mediciones, de modo que los parámetros obtenidos del análisis sean estables. Es decir, se supone que si la serie de tiempo es pequeña, se obtendrán valores muy alejados del valor real. Esto es cierto hasta cierto punto, pero el problema es que, en muchas situaciones experimentales, no se pueden obtener series largas porque las mediciones solo pueden tomarse en intervalos cortos de tiempo. En este trabajo se utilizan el análisis de potencia espectral, el análisis de fluctuaciones sin tendencia, el cálculo de la dimensión fractal con el método de Higuchi, el exponente de Hurst y el análisis multifractal para analizar series de tiempo de distintos tamaños. El objetivo es encontrar los tamaños de las series para los cuales aún se obtienen valores aceptables de los parámetros. Esto nos permite hacer sugerencias sobre qué tipo de técnicas podrían proporcionar valores con errores aceptables, incluso cuando las series son pequeñas. Las técnicas se clasifican en términos de los errores obtenidos y los resultados se ilustran con series generadas de forma sintética y con series fisiológicas.
Análisis de Redes Complejas en el Discurso Mediático Durante las Elecciones Presidenciales en México
En el presente trabajo se aplica la metodología de análisis de redes complejas, utilizando el coeficiente R, para estudiar el discurso mediático en México en el contexto de las próximas elecciones presidenciales. El objetivo es identificar la manipulación informativa dirigida a desacreditar al gobierno actual y su partido, acusándolos de vínculos con el narcotráfico. El estudio se centra en los periódicos El Reforma, El Universal y DW Latinoamérica.Utilizando técnicas de correlación de palabras significativas, se construyó una red de vínculos entre dichas palabras. Las palabras clave fueron seleccionadas y se midió su correlación mediante el coeficiente R. Palabras como "Narco", "narcotráfico", "corrupción" y "gobierno" fueron especialmente analizadas debido a su uso frecuente en términos como "Narco-Gobierno". Posteriormente, se creó una red compleja de estas palabras y se analizaron métricas clave de la teoría de redes complejas para demostrar la existencia de un discurso manipulado.Los resultados muestran que la frecuencia y conexión entre estos términos están significativamente infladas en medios afines a la oposición, evidenciando una campaña sistemática de desinformación. Este estudio no solo resalta la capacidad de la teoría de redes complejas para desentrañar patrones ocultos en el discurso mediático, sino que también subraya la importancia de la información objetiva y verificada en procesos democráticos.La metodología empleada podría aplicarse a otros contextos políticos y mediáticos, proporcionando una herramienta valiosa para la defensa de la integridad informativa.
Modelo discreto para analizar el impacto del uso del transporte público en la propagación del COVID-19 en la CDMX
En este trabajo, se estudia el impacto del uso de transporte público, la movilidad y las medidas de mitigación en la propagación del COVID-19, tomando como base del estudio la Ciudad de México. Se propone un modelo discreto que se basa en la teoría de los autómatas celulares, pero con un enfoque metapoblacional. Así, en la definición de la dinámica, se consideran los casos de contagio originados por los desplazamientos de personas efectuados entre las distintas alcaldías, tanto al interior del transporte público como dentro de las propias alcaldías. Además, se toma en cuenta la población de cada alcaldía dividida en cuatro grupos de edad, los viajes que se realizan diariamente, su variación en el tiempo y su tiempo de duración. También, se introduce un índice de rigurosidad, el cual toma en cuenta diferentes eventos superdispersores que modifican la fuerza de infección en el tiempo con base en un factor de mitigación. El modelo se calibra con datos de incidencia recopilados hasta marzo de 2021, las encuestas Origen-Destino, el programa de movilidad de Apple y la información del censo de población y vivienda de México. A su vez, se preserva la simplicidad computacional, mientras se toman en cuenta aspectos que con otro tipo de aproximación resultan complejos de considerar, como la variación de los parámetros en el tiempo que este modelo define. Los resultados de la simulación indican que el modelo puede reproducir la dinámica infecciosa dentro de los distritos de la Ciudad de México justo antes de que comenzaran los esfuerzos de vacunación. Nuestros hallazgos indican una correlación entre los viajes en transporte público y la diseminación de COVID-19 entre personas de diferentes edades en las delegaciones. Además, nuestros resultados proporcionan pruebas de que garantizar el cumplimiento de las estrategias de mitigación es crucial para prevenir la propagación de COVID-19.
Estudio del espacio vectorial generado a partir de clases de grupos de residuos en las proteínas
Cuando una proteína proteína con estructura estable es sintetizada, determina su conformación de mínima energía (se pliega) en el orden de picosegundos, por lo que no es un proceso aleatorio.
Sin embargo no existe un formalismo de primeros principios que permita predecir el comportamiento de sistemas tan complejos como estos, que con un conteo en el orden de miles de partículas hace que sea incomputable una solución exacta.
Existen aproximaciones como la dinámica molecular, la teoría de la funcional de la densidad e incluso predicciones de estructura utilizando modelos de aprendizaje profundo.
Una proteína puede verse como una gráfica, con cada nodo un residuo de la proteína y cada arista una relación de proximidad entre estos, para una determinada distancia de corte.
Contando las subgráficas completas que se forman, cliques, se puede escribir un vector en donde cada componente es un tipo de clique maximal, una clase de grupo de residuos (RCC, por sus siglas en inglés).
Este vector describe ciertos pliegues característicos en la estructura de la proteína.
Se definen dos proteínas como semiparalelas cuando el ángulo entre sus vectores es menor a 5°, lo que implica que dichas proteínas existen en un mismo subespacio, con presencia de los mismos RCCs.
Como muestran mis avances actuales, cerca del 100 % de las proteínas con una estructura estable reportada tienen al menos una proteína semiparalela.
Es posible definir una trayectoria de conformaciones que describe el cambio estructural entre cualesquiera dos proteínas, sin importar lo diferentes que puedan parecer sus estructuras en el espacio tridimensional, lo que podría contribuir al entendimiento de las reglas fundamentales que describen el plegamiento de las proteínas.
Modelación discreta de la propagación de Dengue considerando la influencia de los cambios ambientales y meteorológicos
El dengue es la enfermedad vírica transmitida por mosquitos de más rápida propagación, con cuatro serotipos inmunológicamente distantes que coexisten en muchas zonas endémicas de todo el mundo. El dengue presenta una dinámica espacial y temporal compleja debido a la interacción entre humanos, mosquitos y los distintos serotipos. Por ello, comprender los factores que influyen en la persistencia y propagación de la enfermedad ha sido durante mucho tiempo un reto para científicos y responsables políticos. Para abordar este problema se han propuesto varios modelos, pero la mayoría de ellos no tienen en cuenta los factores que cambian en el tiempo y el espacio, con base en los cambios en el ambiente y meteorológicos, que influyen en la proliferación del vector y por lo tanto, en la propagación del dengue. En este trabajo, se presenta un modelo matemático basado en un autómata celular (AC) probabilístico bidimensional de dos capas, para simular la dinámica espacio-temporal del dengue y su brote en un área urbana densa. El modelo aborda la enfermedad del Dengue desde tres perspectivas diferentes: 1) proliferación, propagación y densidad de población del vector, basada en factores climáticos como fuente primaria de infección; 2) movilidad vector/humano, como mecanismo de propagación de la enfermedad; 3) interacción diaria mosquito-humano, como mecanismo importante para la circulación viral sostenida y la duración de la enfermedad. Los resultados de la simulación se comparan con datos reales sobre la incidencia del dengue en las ciudades mexicanas de Cuernavaca y Guadalajara. Los resultados indican la correlación estrecha entre los datos temporales, la proliferación del mosquito transmisor y los casos de dengue.
Análisis de las Propiedades Mecánicas y Estructurales de Tabletas Farmacéuticas como un Sistema Complejo
Las tabletas farmacéuticas, como formas sólidas de dosificación de medicamentos, se componen de una mezcla comprimida de uno o varios principios activos junto con excipientes. La distribución de las partículas de material se establece de manera aleatoria en la matriz, lo que da lugar a una distribución de enlaces diferente para cada comprimido. Esta variabilidad impacta en las propiedades mecánicas de las tabletas, pudiendo provocar fallas o defectos en ellas. En este proyecto, se lleva a cabo una revisión sobre diversas técnicas para describir el proceso de compresión y formación de tabletas desde una óptica física, computacional y de sistemas complejos. Se propone una metodología de modelación computacional que permita investigar las propiedades mecánico-estructurales de los sistemas sólidos mencionados anteriormente.
La investigación resalta la complejidad del proceso de formación de tabletas farmacéuticas, donde la interacción entre los diferentes componentes y la dinámica estructural juegan un papel crucial en la determinación de sus propiedades físicas. La revisión ha proporcionado una comprensión más profunda de las técnicas computacionales disponibles para describir este proceso desde múltiples perspectivas. Además, se ha propuesto una metodología de modelación computacional basada en autómatas celulares que ofrece una aproximación innovadora para investigar las propiedades mecánico-estructurales de las tabletas, destacando la importancia de considerar su naturaleza aleatoria y la influencia del estado inicial de los componentes. Abordar este análisis desde la perspectiva de los autómatas celulares emerge como una herramienta prometedora para describir y correlacionar la distribución de partículas con las características físicas del proceso de formación y del compacto sólido obtenido. Este enfoque integrado proporciona una base sólida para futuras investigaciones en el campo de la fabricación de tabletas farmacéuticas y su optimización.
Inferencia de redes de regulación genética a partir de matrices de correlación
En este trabajo se presenta un método de inferencia de redes de regulación genética a partir de matrices de correlación. El enfoque adoptado es la propuesta de un sistema dinámico que modela la interacción entre genes y/o sus productos (proteínas) describiendo la dinámica celular, a partir del cual se generan datos sintéticos utilizados usados para calcular las matrices de correlación. Además, se investiga el potencial del uso de redes neuronales artificiales para el retroceso al sistema dinámico inicial desde las matrices de correlación obtenidas.
Análisis de los retornos diarios e intradía de mercados financieros
Este estudio presenta un análisis de los retornos intradía y diarios de los componentes del IPC en el periodo que comprende de 2000-2024, con especial énfasis de 2008 a 2012, periodo en donde se observan anomalías en los retornos intradiarios. Se cuantifican estas anomalias mediante el filtrado de datos por cuartiles y la divergencia de Kullback-Leiber entre las distribuciones y se buscan asociaciones con eventos historicos. Se estudian tambien mercados financieros de países en desarrollo incluyendo Colombia, Argentina, Brasil e India, buscando identificar patrones y correlaciones temporales. Este estudio establece una posible metodología robusta para el análisis de retornos intradiarios que permite investigar el fenomeno de la generacion de retornos durante el periodo de cierre de los mercados financieros.