
Conference Schedule
Facultad de Ciencias, Universidad de Costa Rica
Tuesday, February 24th
- 8:00 am: Registration
- Conference materials and last minute registration.
- 9:30 am: Opening Ceremony
- Auditorium
- 10:00 am: Coffee break ☕
- First floor cafeteria
10:30 am: Kimberly Villalobos Carballo, New York University
- Feature selection for machine learning with unstructured data: applications in healthcare
Venue: Auditorium
Abstract📝 PDF: Multimodal machine learning models trained on unstructured data—such as clinical text and images—have achieved remarkable predictive performance in healthcare tasks ranging from diagnosis to outcome prediction [1]. However, these models remain fundamentally limited in their ability to provide faithful interpretations for their outputs. In particular, they cannot reliably answer questions such as why a prediction was made or what information was most influential. This motivates the study of the classical feature selection problem [2] in the context of unstructured data: identifying small, informative subsets of the input (e.g., sentences in a text) that are sufficient to explain and drive model predictions. In this talk, we address this challenge by formulating feature selection as a learning problem that is solved jointly with the original predictive task, leading to a maximum-likelihood optimization problem over the parameters of both the predictive model and the feature selection function. While a direct formulation of the problem yields an intractable combinatorial problem, we introduce a sequential approximation based on conditional probabilities that produces sparse, interpretable models while remaining computationally tractable. Empirical results on real-world healthcare datasets demonstrate the effectiveness of our approach. For end-of-stay mortality and next-day discharge prediction tasks using intensive care unit clinical notes from MIMIC-IV [3], the method yields highly sparse models that rely on only a small number of sentences per patient while achieving predictive performance comparable to models trained on the full text. In a separate experiment with data from the Framingham Heart Study for coronary heart disease risk prediction [4], we assess the clinical relevance of the most frequently selected sentences and find that they align closely with established clinical risk factors, demonstrating the method’s ability to identify clinically meaningful predictive features from unstructured data.
11:30 am: Javier Trejos Zelaya, Universidad de Costa Rica
- Relational Distances to Analyze the Relationship Between Several Data Tables
Venue: Auditorium
Abstract📝 PDF: Relational distances are Euclidean distances whose definition takes into account the associations existing between several sets of variables. A geometric definition of these distances is given and a fundamental property is proposed. In this work, we present the two applications. In the first appli- cation, relational distances are used to define a Qualitative Oblique Principal Component Analysis; this analysis notably allows us to ob- tain partitions of a population of individuals, hierarchized by the pro- portion of total inertia explained by each partition. In the second application, these distances allow the design of an algorithm that dis- covers knowledge in the form of fuzzy assertions (or rules) within a large database.
- 12:30 pm: Lunch break 🍽️
2:00 pm: Statistics 1
Venue: Auditorium
- 2:00 pm: Pedro José Molina Morales, Universidad Autónoma de Honduras
- Modelos de espacio de estados con filtración de partículas aplicado a un modelo DSGE
Abstract📝 PDF: En esta investigación se desarrolla un modelo Dinámico Estocástico de Equilibrio General (DSGE, por sus siglas en inglés) de la cual surgen como una evolución natural de los modelos de crecimiento neoclásico. Estos modelos combinan el rigor macroeconómico con estructuras dinámicas y estocásticas, permitiendo evaluar cuantitativamente las pol´ıticas económicas. El modelo propuesto por las ecuaciones de equilibrio, se representó en su forma de espacio de estados multivariado, lo que facilita la aplicación de técnicas secuenciales de Monte Carlo (SMC), en particular el filtro de partículas dentro de un marco Bayesiano, con la idea de evitar linealizar el modelo lo cual permite preservar la naturaleza completa para la estimación del modelo. Durante el proceso de filtrado, se emplearon técnicas numéricas como la cuadratura de Gauss-Hermite y la interpolación mediante elementos finitos para aproximar esperanzas racionales que no tienen solución analítica. Asimismo, se incorporaron técnicas de estimación robusta. La base de datos proviene del sistema FRED (Federal Reserve Broad, EE. UU), enfocándose en la estimación y la predicción de tres variables macroeconómicas fundamentales: gt (PIB), πt (Inflación) y rt (Tasa de interés) de manera trimestral, realizando estimaciones de los años 2000 − 2023 y predicciones para el año 2024. Los resultados obtenidos demostraron que utilizar técnicas Secuenciales de Monte Carlo y estimación robusta en modelos DSGE, se tiene estimaciones y predicciones eficientes.
- 2:20 pm: Anakena Castillo, Instituto Conmemorativo Gorgas de Estudios de la Salud
- Aplicación de análisis estadísticos multivariados, modelos complementarios, y bioinformáticos para evaluar el rol de depredadores acuáticos en el control de vectores
Abstract📝 PDF: Se aborda la identificación de mecanismos naturales de control de mosquitos vectores mediante la integración de datos ecológicos, experimentales y moleculares. El estudio combina muestreos en más de 25 cuerpos de agua de Panamá, análisis multivariados, experimentos de depredación en mesocosmos y herramientas bioinformáticas basadas en secuenciación de nueva generación para comprender el papel de los depredadores acuáticos como enemigos naturales de las larvas de mosquitos. Los resultados preliminares evidencian patrones ambientales que influyen en la distribución de larvas y depredadores, así como una reducción significativa en la supervivencia de mosquitos en presencia de insectos depredadores. Además, los análisis genéticos confirman eventos de depredación mediante la identificación de BINs en tractos digestivos. En conjunto, esta charla destaca el valor de los métodos matemáticos aplicados para sustentar estrategias de biocontrol y mejorar la gestión de vectores en ecosistemas neotropicales.
- 2:40 pm: Héctor Javier Vázquez, Universidad Autónoma Metropolitana
- ¿La asociación entre la morfología y la secuencia rbcl de especies representativas del género Ficus resulta de la selección natural o del azar?.
Abstract: En arboricultura urbana se aplican diferentes técnicas para distinguir a los árboles de una especie a otra. La morfología clásica busca similitudes y formas propias de la estructura interna y externa de cada especie ( por ejemplo hojas, flores, tallos, raíces, etc.); e intenta explicar las formas, como variaciones morfológicas de modelos básicos. En la mayoría de los casos los resultados se sintetizan en medidas estadísticas descriptivas. La morfología Geométrica considera puntos de referencia, llamados “landmarks” que son claves importantes para comparar formas biológicas (Bookstein, 1997). La comparación de las secuencias de los ”landmarks” se realiza aplicando herramientas cuantitativas multivariadas, como el Análisis de Procrustes y el Análisis de Componentes Principales. La génesis de la forma se explica considerando fatores externos, geográficos, ambientales, evolutivos y genéticos (Taylor, 2021). En un trabajo precedente fue posible evaluar la asociación entre la forma biológica y la secuencia específica del gen del cloroplásto rbcL, el cual codifica la subunidad grande de la enzima RuBisCO, una proteína fundamental para comprender la eficiencia fotosintética y la forma de hojas de especies del género ficus. En este trabajo se exploran, mediante técnicas cuantitativas de evolución molecular (Nei, M., & Kumar, S. ,2000) algunas secuencias de rbcl con el objeto de evaluar si tal asociación es resultado de la selección natural (adaptación) o simplemente del azar.
2:00 pm: Analysis 1
Venue: Room 1
- 2:00 pm: Christian Andrés Fonseca Mora, Universidad de Costa Rica
- Good Integrators and Stochastic Integration in Spaces of Distributions
Abstract: This talk develops some aspects of stochastic integration for stochastic processes taking values in the dual of a nuclear space (of which the classical spaces of distributions are a particular example).
We start by introducing some of the particularities found in the construction of the stochastic integral in the context of duals of nuclear spaces. In this setting, we explore the concept of semimartingales which are good integrators and provide characterizations and several examples. Then, we explain the construction and basic properties of the stochastic integral. We finalize our talk with an application of our theory to Üstünel’s version of Itô’s formula involving distributions.
- 2:20 pm: Darío Mena, Universidad de Costa Rica
- Weighted Weak Type estimates for non-integral Square Functions
Abstract: We provide quantitative weighted weak type estimates for non-integral square functions in the critical case p=2 in terms of the A_p and reverse Hölder constants associated to the weight. The method of proof uses a decoupling of the role of the weights via a quantitative version of Gehring’s lemma. The results can be extended to other p in the range of boundedness of the square function at hand.
- 2:40 pm: José David Campos Fernández, Universidad de Costa Rica
- Itô’s Formula for Itô processes defined with respect to a cylindrical martingale-valued measure
Abstract: Es una charla corta donde se expondrá una fórmula de Itô para procesos de Itô con respecto a una medida de martingala cilíndrica.
- 3:00 pm: Coffee break ☕
- First floor cafeteria
3:30 pm: Statistics 2
Venue: Auditorium
- 3:30 pm: Héctor Javier Vázquez, Universidad Autónoma Metropolitana
- Exploración morfológica de razas de maíz nativo en México
Abstract: En México se cultivan más de 60 razas nativas diferentes de maíz (Torres, 2008). Estas se distinguen por la forma de la mazorca, por el color del grano o por el lugar donde se cultiva. Dentro de estas razas sobresalen por su color: el maíz blanco y el maíz amarillo. La pigmentación del maíz amarillo se debe a la presencia de carotenoides y a una mayor cantidad de azúcar y almidón. El maíz blanco es esencial para la alimentación de los mexicanos y en cuanto a su producción, México es autosuficiente. En cambio, México, no produce, suficiente maíz amarillo nativo; el cual se destina a la alimentación pecuaria y a la industria. Por esta razón México debe importar maíz amarillo no nativo de los Estados Unidos (E.U.A); maíz que ha sido modificado genéticamente para su producción masiva. Sin embargo E.U.A. considera que México debe aumentar sus importaciones y destinar este maíz amarillo transgénico a la alimentación humana. México mantiene, que sólo el maíz nativo debe usarse para la alimentación como lo demuestran sus métodos de preparación específicos para el maíz nativo presentes en su cultura, e incompatibles con el maíz amarillo. El maíz amarillo importado es un grano de mayor dureza, con alta concentración en almidón, con el riesgo de presentar residuos de herbicidas como el glifosato y representa un riesgo para reducir o incluso eliminar la gran diversidad de las razas de maíz nativas (Meza-Peña, 2025). En este trabajo, con el fin de caracterizar las especies nativas, se exploran las diferencias morfológicas entre las 57 razas nativas. Por ejemplo: se observan diferencias en cuanto número de granos por mazorca, en el alineamiento de las hileras de granos respecto al eje de la espiga, en cuanto al tamaño del pedúnculo, sobre el diámetro, en la longitud de la espiga, etc. Las técnicas de morfología permiten descubrir diferencias o similitudes entre las diferentes razas con la idea de incluir las características morfológicas con la productividad, la calidad, la facilidad de transporte y/o almacenamiento e incluso al diseño del proceso para su transformación. En una primera se describen las diferentes características mediante la estadística descriptiva y en una segunda etapa se caracteriza la forma de la mazorca, en su conjunto, mediante la comparación de secuencias de puntos clave, también llamados puntos de referencia o “landmarks” (Bookstein, 1997). La comparación de las secuencias se realiza aplicando herramientas cuantitativas multivariadas, como el Análisis de Procrustes y el Análisis de Componentes Principales.
- 3:50 pm: Maikol Solís Chacón, Universidad de Costa Rica
- Predicting Soil Biodiversity in Coffee Agroforestry Systems: A Symbolic Data Analysis Approach with Machine Learning
Abstract: Coffee agroforestry systems play a critical role in maintaining both agricultural productivity and ecosystem services, particularly soil biodiversity. However, measuring soil biological properties in relation to management practices and shade levels presents significant data challenges. This presentation addresses a key methodological problem: plant and soil sampling designs often operate at different spatial scales, creating a data mismatch that complicates joint analysis.
We introduce a Symbolic Data Analysis (SDA) approach to solve this challenge. Rather than discarding data or using arbitrary aggregation methods, we represent plant-level measurements as interval-valued symbolic objects—capturing the full range of variability within each treatment × shade × block combination. This preserves within-group heterogeneity while aligning sampling designs.
Using this symbolic framework, we apply:
UMAP for dimension reduction and visualization of treatment and shade effects in the 160+ variable dataset
Symbolic LASSO regression using the center method for interval-valued predictors to identify key drivers of soil biodiversity
Our findings demonstrate that symbolic data analysis enables sophisticated statistical modeling when data structures are complex and hierarchical—a common scenario in agricultural and ecological research. This methodology is particularly valuable for practitioners who need to preserve data integrity while handling practical sampling constraints.
- 4:10 pm: Marvin Levi Villafranca Rivera, Universidad Nacional Autónoma de Honduras
- Modelos VAR–MSV-t multivariados con apalancamiento cruzado: estudio con datos simulados
Abstract: Motivados por la presencia de curtosis elevadas y valores extremos en series macroeconómicas y financieras, proponemos un modelo VAR–MSV-t multivariado con efecto de apalancamiento cruzado. La parte VAR captura las relaciones dinámicas, mientras que la parte MSV modela la volatilidad condicional; los errores t de Student se ajustan individualmente a cada serie. Mostramos, con datos simulados, que el VAR–MSV estándar sobreestima la persistencia y la covarianza de la volatilidad cuando hay observaciones extremas, ya que interpreta los movimientos de alta frecuencia como cambios persistentes en la volatilidad. Nuestro modelo mitiga este sesgo y mejora el ajuste cuando las series presentan distintos grados de curtosis. La estimación se realiza mediante MCMC.
- 4:30 pm: Antonio Oconitrillo Quesada, Banco Central de Costa Rica
- Determinantes Microestructurales de la Formación de Tasas en el Mercado Integrado de Liquidez de Costa Rica
Abstract: Aplicación de un marco multinivel (clustering, clasificación supervisada y regresión) para analizar los determinantes microestructurales de la formación de tasas de interés y del comportamiento de los participantes en el Mercado Integrado de Liquidez (MIL) costarricense.
3:30 pm: Pure Math 2
Venue: Room 1
- 3:30 pm: Héctor Méndez Gómez, Universidad de Costa Rica
- Productos sesgados de operadores backward shift en espacios escalonados de Köthe
Abstract: Este trabajo presenta resultados sobre la dinámica de productos sesgados de operadores de desplazamiento hacia atrás (en inglés backward shift) en espacios escalonados de Köthe. En primer lugar, se analizan las propiedades dinámicas de los productos sesgados de los operadores de desplazamiento unilateral y bilateral hacia atrás en los espacios de sucesiones escalonados de Köthe, \(\lambda_p(A)\), para \(1 \leq p < \infty\) o \(p = 0\), investigando la transitividad topológica y el caos en el sentido de Devaney. Posteriormente, se estudian los productos sesgados de series de potencias de operadores de desplazamiento hacia atrás en los espacios de sucesiones escalonados de Köthe \(\lambda_p(A)\).
- 3:50 pm: Josué Avila Artavia, Missing University
- Iwasawa invariants and uniform distribution
Abstract📝 PDF: Let K/Q be a finite extension and p a fixed prime number. There exists an extension K∞/K, called the cyclotomic Zp-extension, such that its Galois group Gal(K∞/K) is isomorphic to the group of p-adic integers Zp. For every n there exists a unique intermediate field Kn such that Gal(Kn/K) ∼= Z/pnZ. If we let An denote the p-part of the class group of Kn and |An| = pen, it is a well-known result due to Iwasawa that there are invariants λ, μ ≥ 0 and ν ∈ Z such that en = λn + μpn + ν. The goal of this talk is to discuss a well-known result proved by Washington that uses uniform distributions to show that μ = 0 (the growth is linear) whenever K/Q is abelian. There are similar conjectures for the λ invariant, and for invariants over elliptic curves. We will analyze how you can use similar ideas in these different situations.
- 4:10 pm: Juan Gabriel Triana Laverde, Universitaria Agustiniana
- Una conexión entre gramáticas independientes del contexto y combinatoria
Abstract: Los conceptos de función formal y operador derivada formal fueron presentados por William Chen en 1993, dando origen a un cálculo gramatical con diversas aplicaciones en combinatoria. Dado un alfabeto, se define una función formal de la siguiente manera: cada símbolo a en el alfabeto es una función formal; si u y v son funciones formales, entonces u+v y u-v son funciones formales; si f(x) es una función analítica, y u es una función formal, entonces f(u) es una función formal; cada función formal es construida a partir de un número finito de pasos.
Dado un alfabeto y una gramática G formada por reglas de producción de la forma a -> u, donde a está en el alfabeto y u es una función formal, se define el operador derivada formal D, con respecto a G, de tal forma que D(a)=u si existe en G una producción tal que a ->u ;en otro caso D(a)=0. Además, se dota a D de propiedades de operador diferencial, como la regla de la suma, el producto y la regla de la cadena.
Por ejemplo, para la gramática G={a -> ab ; b -> b} se tiene que D(a)=ab, D(b)=b y D(ab)=D(a)b+aD(b)=[ab]b+a[b] = ab^2+ab. Para una función formal u, se define D{n+1}(u)=D(Dn(u)) para n>= 0, con D^0(u)=u. Esta idea se puede extender a gramáticas más generales, como las gramáticas matriciales. En este trabajo presentamos algunas propiedades del operador derivada formal, así como la conexión de algunas gramáticas independientes del contexto con números multifactorial, familias de polinomios y algunos resultados combinatorios.
- 4:30 pm: Daniel Mora Mora, Universidad de Costa Rica
- Counting elliptic curves over \(\mathbb{Q}\) with bounded naive height
Abstract: In this lecture we will give exact and asymptotic formulas for counting elliptic curves $ E_{A,B} y^2 = x^3 + Ax + B $ with $ A, B $, ordered by naive height. We study the family of all such curves and also several natural subfamilies, including those with fixed \(j\)-invariant and those with complex multiplication (CM). In particular, we will show formulas for two commonly used normalizations of the naive height appearing in the literature: the , defined by [ H^{}(E_{A,B}) := { 4|A|^3, 27B^2 }, ] and the , defined by [ H^{}(E_{A,B}) := { |A|^3, B^2 }. ] As part of our approach, we give a completely explicit parametrization of the set of curves \(E_{A,B}\) with fixed \(j\)-invariant and bounded naive height, describing them as twists of the curve \(E_{A_j, B_j}\) of minimal naive height for the given \(j\)-invariant. This work is the result of a joint work with professor Adrián Barquero.
5:00 pm: Panel
- Riesgo climático: modelación y mitigación desde diversas perspectivas
Venue: Auditorium
Participants:
- Berny Fallas, Jefe de Hidrogeología del ICE
- Cynthia Naranjo, Directora de Riesgo de Crédito en BNCR
- Luis Barboza, Investigador en UCR
Moderado por: Kattia Ramírez, consultora en QF-Nexus y profesora en UCR
Abstract: ¿Cómo se traduce un fenómeno meteorológico en pérdidas esperadas, estimaciones o gestión regulatoria? Este panel reúne a la banca, el sector energético y la matemática para discutir cómo construir modelos relacionados al clima, definir escenarios y transformar resultados en decisiones.
- 6:00 pm: Cultural performance 💃
- 6:30 pm: Welcome toast 🥂
Wednesday, February 25th
10:30 am: Eleazar López Flores, Universidad Autónoma Metropolitana-Iztapalapa
- Hipergráficas y su relación con la teoría de control en sistemas dinámicos.
Venue: Room 1
Abstract📝 PDF: La controlabilidad y la controlabilidad positiva constituyen conceptos fundamentales en el estudio de los sistemas dinámicos, al desempeñar un papel central en la comprensión teórica y en el diseño de sistemas complejos. Por su parte, las hipergráficas se presentan como estructuras matemáticas de gran versatilidad, cuyas aplicaciones abarcan desde la teoría combinatoria hasta el análisis de redes y sistemas. En esta plática, se expondrán los conceptos esenciales que permitirán establecer una conexión entre las hipergráficas y la teoría de la controlabilidad, tanto en su forma general como en su variante positiva, en el contexto de los sistemas dinámicos.
11:30 am: Baltazar Aguirre Hernández, Universidad Autónoma Metropolitana-Iztapalapa
- Polinomios Schur y familias de polinomios Schur
Venue: Room 2
Abstract📝 PDF: Polinomios Schur y Familias de Polinomios Schur La estabilidad de un sistema lineal se cumple cuando el correspondiente polinomio característico es un polinomio Schur, es decir cuando todas sus raíces tienen modulo menor que 1. En esta conferencia daremos los principales criterios para verificar que un polinomio es polinomio Schur y también daremos algunos resultados para verificar que algunas familias de polinomios consisten solo de polinomios Schur.
- 9:30 am: Coffee break ☕
- First floor cafeteria
- 9:50 pm: Short Course (Part II)
- Hipergráficas y su relación con la teoría de control en sistemas dinámicos. See info above
- 9:50 pm: Short Course (Part II)
- Polinomios Schur y familias de polinomios Schur See info above
11:00 am: Luis Núñez Betancourt, Universidad Autónoma Metropolitana
- Coding Theory Over Rings
Venue: Auditorium
Abstract: Error-correcting codes are algebraic objects designed to protect information against noise: they encode messages so that errors introduced during transmission or stor- age can be detected and corrected. Traditionally, such codes are studied over finite fields, but in recent years codes over rings have attracted attention due to their richer structure and applications. In this talk, we will discuss new results on linear codes over zero-dimensional commutative rings that are not necessarily finite finite. We will see how algebraic invariants can be used to measure the size and structure of codes, and relate these invariants to classical notions like duality and Hamming distance. In particular, we extend known results on the relationship between a code and its dual from chain rings to more general Frobenius rings, and obtain new bounds for the Hamming distance. We will also discuss a new version of the weight enumerator polynomial, which applies even over infinite rings and leads to a MacWilliams identity in the Frobenius setting.
- 12:00 pm: Lunch break 🍽️
2:00 pm: Character varieties and Higgs bundles 1
Venue: Auditorium
- 2:00 pm: Alfonso Zamora, Universidad Politécnica de Madrid 🖥️
- E-polynomials of character varieties
Abstract: We introduce mixed Hodge structures and e-polynomials, together with a series of arithmetic (counting points over finite fields) and geometric (stratification into parabolic types) techniques to compute them. We include a complete example of the calculation of the epolynomial for the GL3-character variety of the free group in r generators. Finally, we extend the geometric stratification into parabolic types to a general reductive group G to obtain explicit motivic expressions for the G-character varieties and reduce certain topological mirror symmetry conjectures for these moduli spaces.
- 2:20 pm: Edgar Castañeda, CIMAT 🖥️
- Moduli of Higgs coherent systems in the stable case over a curve.
Abstract: Let X be a smooth, connected complex projective curve of genus at least 2. A Higgs coherent system over X is an augmented bundle (E,V), where V is a subspace of the space of Higgs fields on E. In this talk, we introduce the moduli problem of Higgs coherent systems over X and present the main ideas for constructing the fine moduli space of Higgs coherent systems with stable underlying vector bundles.
- 2:40 pm: Jesús Sánchez Guevara, Universidad de Costa Rica
- Operadic structures in moduli of higgs bundles
Abstract: Moduli spaces of Higgs bundles admit both algebro-geometric and gauge-theoretic descriptions, leading naturally to coarse moduli spaces on the one hand and stack-like, homotopy-theoretic moduli on the other. In this talk, focusing on rank 2, degree 1 Higgs bundles over a compact Riemann surface, we compare the homotopy-theoretic moduli with the smooth coarse moduli space of semistable Higgs bundles and highlight the residual stackiness that persists even in this coprime case. We then place this example in the broader context of modular operads arising from gluing surfaces, clarifying why homotopy quotients are essential for defining operadic structures on moduli spaces of geometric objects.
2:00 pm: Numerical Analysis and Scientific Computing 1
Venue: Room 1
- 2:00 pm: Raimund Bürger, Pontificia Universidad Católica de Chile
- Well-Balanced Physics-Based Finite Volume Schemes for Saint-Venant-Exner-Type models of sediment transport
Abstract: The Saint-Venant–Exner (SVE) model is widely used for the description of sediment transport including bedload, erosion, and deposition processes [3]. A modified version of the SVE model, which includes sediment concentration, incorporates exchange of sediment between the fluid and an erodible bed and a non-hydrostatic pressure for the fluid along with non-equilibrium entrainment and deposition velocities, is introduced. Gravitational effects on erosion are described by an effective shear stress formulation. This modified SVE model is derived from a general approach with density variations. It preserves the mass of both the sediment and the fluid, and satisfies a dissipative energy balance. On the other hand, well-balanced finite volume schemes adapted for SVE models are derived since standard well-balanced schemes for the Saint-Venant system with fixed bottom are in general no more well-balanced when applied to the SVE model. The latter property is due to the uncontrolled numerical diffusion associated with the bed evolution equation. Two novel techniques to achieve the well-balanced property for the modified SVE model are proposed [1]. The first is a new polynomial-viscosity-matrix-based (PVM) scheme [2], denoted “PVM-2I”, that modifies the numerical approximation of the bed evolution equation according to its related characteristic speed. The second is a physically motivated correction of the numerical diffusion term for the Rusanov and Harten-Lax-van Leer (HLL) schemes [4]. The proposed schemes are positivitypreserving for the water height. Numerical solutions are compared with exact solutions with gravitational effects, with a novel exact solution in non-equilibrium conditions, and with experimental data. It is illustrated how the use of standard non-well-balanced schemes leads to a large artificial (unphysical) erosion and completely degraded solutions. This undesirable behaviour is avoided by the proposed well-balanced schemes. Moreover, it is demonstrated that for dam-break flows the inclusion of non-hydrostatic pressure improves the prediction of the water surface and sediment evolution, while for overtopping flow erosion tests, accounting for erosion–deposition exchanges between the bedload and suspended sediment layers leads to better agreement with experimental data.
- 2:20 pm: Bernd Simeon, RPTU University Kaiserslautern-Landau
- Isogeometric Analysis of the Lithosphere Under Topographic Loading
Abstract: This presentation concentrates on methods from isogeometric finite element analysis for numerically solving problems in geoscience involving partial differential equations. In particular, we consider the numerical simulation of shells and plates in thecontext of isostasy . Earth’s lithosphere is here modeled as a thin elastic shell or plate floating on the asthenosphere and subject totopographic loads. We give a short and concise introduction to the foundations of isogeometric analysis, explain the connection to spline theory and computer-aided geometric design, and summarize the different refinement strategies, including the concept of hierarchical B-splines . We then demonstrate the computational methods on the isostatic boundary value problem posed on selected geographic locations. For Europe, the computed lithospheric depression is compared with available Mohorovicic depth data. We also perform parameter identification for the effective elastic thickness of the lithosphere, the rock density, and the topographic load that are most plausible to explain the measured depths. An example of simulating the entire lithosphere of the Earth as a spherical shell using multi-patch isogeometric analysis is also discussed, which provides an alternative to spherical harmonics for solving partial differential equations on a spherical domain.
- 2:40 pm: Isaac Bermúdez Montiel, Universidad de Costa Rica
- Discontinuous Galerkin Methods for Interface Problems
Abstract: In many different applications, interfaces divide the domain of interest \(\Omega \subset \mathbb{R}^n\), where \(n = 2, 3\), into several subdomains on which the governing equations and/or boundary conditions are different. As the geometrical complexity and required spatial sampling of the subdomains may vary significantly, it is not uncommon to mesh the subdomains separately using different mesh sizes. In this work, we present and analyze a Hybridizable Discontinuous Galerkin (HDG) method for the problem posed by the coupling of two different equations, whose domains are discretized by two independent subdomains with different meshes. This causes non-conformity at the intersection of the subdomains or leaves a gap (unmeshed region) between them. To properly couple the two different discretizations, the proposed transmission conditions are based on the ones for matching meshes. For non-matching meshes, we use the transfer technique and extrapolation in the meshes. Furthermore, we establish the well-posedness of the method and error estimates to show the stability of the HDG method. Finally, we demonstrate the capacities of the method by presenting numerical experiments that validate our theory.
2:00 pm: Applied Math 1
Venue: Room 2
- 2:00 pm: Carlos Roberto Montalto Cruz, Universidad de Costa Rica
- Método para mejorar la precepción visual de texto desenfocado en dispositivos de realidad aumentada
Abstract: La realidad aumentada (RA) consiste en presentar contenido gráfico, por medio de un dispositivo de RA, sobre la visión de un usuario mientras este continúa observando el mundo real. El contenido presentado de manera virtual y los objetos en el mundo real no pueden ser simultáneamente observados con claridad debido a limitaciones del sistema visual. En esta charla se presentará la modelación de este problema utilizando polinomios de Zernike así como un algoritmo de optimización que mejora la visibilidad del material virtual cuando el usuario está enfocando en los objetos del mundo real.
- 2:20 pm: Cesar Loza Rojas, Universidad Nacional San Luis Gonzaga
- La tumorización y modelos matemáticos en estudiantes universitarios de la región Ica, 2024
Abstract: El objetivo del presente reporte de investigación es aplicar el modelo de Gompertz en el crecimiento y tiempo de vida de tumores de alta complejidad en alumnas de la universidad San Luis Gonzaga-Ica. La investigación es de tipo cualitativo, con diseño en teoría fundamentada, basado en el análisis matemático y ecuaciones diferenciales. Entre los factores de riesgo se empleó prevención secundaria del tumor de mama, en el diagnóstico y así prevenir tempranamente el avance de estos trastornos, según la Organización Mundial de la Salud (OMS), esta tendencia va en aumento, a expensas de los países en vías de desarrollo, donde actualmente se presentan las dos terceras partes de los casos que ocurren a nivel mundial Los resultados, muestran que menos del 50% de alumnas presentan problemas de dicha índole, cuyas edades fluctúan entre 17 a 24 años. En conclusión, al formular los cambios de los parámetros α, constante de retraso de crecimiento y k capacidad de carga, se predice los alcances del tumor, mediante la resolución del problema de valor inicial planteado, cuyos gráficos se muestran. Existen otras variables, pero no son materia de estudio en este informe.
- 2:40 pm: David Guerrero Sánchez, UAMXochimilco
- Applications of a Linear Electoral Model
Abstract: In a recent popular online video the following question is posed: Why is democracy impossible? In order to address such question, the authors of the video, use the well known Theorem of impossibility by K. Arrow. In this talk we will analyze whether Arrow’s theorem effectively answers the afore mentioned question. In the process, we will obtain basic results that will allow us to construct models for the transitivity of ranked voting systems. The original results and derived models mentioned were obtained as a consequence of the collaboration of the author and his students of Political Siences. We will discuss some applications of the electoral linear models defined, in the scope of financial simulators.
11:00 am: Jorge Alfaro Murillo, Universidad de Costa Rica
- Signature-Based Mutation Rates for Selection Estimation in Cancer Genomics
Venue: Auditorium
Abstract: Cancer cells accumulate mutations (permanent changes in their DNA) over time. Most of these are “passenger mutations” that do not contribute to tumor growth, and relatively few of them are the “driver mutations” that provide growth advantages to the cancer cells. Accurately estimating baseline mutation rates—the expected number of mutations per gene per unit time—is essential for distinguishing which mutations are likely to be drivers versus passengers. Different types of mutational damage produce characteristic patterns called mutational signatures (for example, smoking or sun exposure cause distinct patterns of DNA changes), which can be identified mathematically using non-negative matrix factorization to decompose the observed mutation patterns into contributions from distinct mutational processes. However, the mutation rates are not uniform across the genome; they are substantially modulated by genomic and epigenomic features that describe the local physical and chemical environment of DNA. We present a comprehensive framework for estimating gene-specific mutation rates that explicitly incorporates three major classes of these environmental factors: replication timing (whether a genomic region replicates early or late during cell division), gene expression (how actively a gene’s DNA is being read and transcribed), and chromatin state (whether the DNA is tightly packed or loosely accessible). We integrated publicly available data on these genomic features and demonstrate that different mutational signatures exhibit distinct relationships with these environmental factors. Incorporating these covariate effects substantially improves baseline mutation rate estimates and enables more accurate inference of selection coefficients (measures of fitness advantage or disadvantage) at both gene and variant levels, ultimately enabling accurate identification and quantification of cancer driver genes across diverse cancer types.
- 3:00 pm: Coffee break ☕
- First floor cafeteria
4:30 pm: Character varieties and Higgs bundles 2
Venue: Auditorium
- 4:30 pm: Juan Sebastián Numpaque Roa, Universidade do Porto
- Tensor products of quiver bundles
Abstract📝 PDF: In this work we introduce a notion of tensor product of (twisted) quiver representations with relations in the category of OX-modules. As a first application of our notion, we see that tensor products of polystable quiver bundles are polystable and later we use this to both deduce a quiver version of the Segre embedding and to identify distinguished closed subschemes of GL(n,C)-character varieties of free abelian groups.
- 4:50 pm: Marcos Jardim, Unicamp🖥️
- Coherent systems on integral curves
Abstract📝 PDF: We generalize Clifford’s Theorem for vector bundles to torsion-free sheaves that are not necessarily semistable on integral curves. This is used to present a bound on the dimension of a coherent system and a generalization of Clifford’s Theorem for coherent systems. Joint work with Leonardo Roa-Leguizamón and Renato Vidal Martins.
- 5:10 pm: Peter Gothen, Universidade do Porto🖥️
- The conformal limit and projective structures
Abstract📝 PDF: The non-abelian Hodge correspondence maps a polystable SL(2, R)-Higgs bundle on a compact Riemann surface X of genus g > 1 to a connection whose holonomy is, in some cases, that of a branched hyperbolic structure. On the other hand, Gaiotto’s conformal limit maps the same bundle to a partial oper, i.e., to a connection whose holonomy is that of a branched complex projective structure compatible with X. I shall explain how these are both instances of the same phenomenon: the family of connections appearing in the conformal limit can be understood as a family of complex projective structures, deforming the hyperbolic ones into the ones compatible with X. Moreover, when the Higgs bundle has zero Toledo invariant, this deformation is optimal, inducing a geodesic in the Teichm¨uller metric. Time permitting I shall touch on possible generalisations to the case of parabolic Higgs bundles.
4:30 pm: Numerical Analysis and Scientific Computing 2
Venue: Room 1
- 4:30 pm: Manuel Solano, Universidad de Concepción
- An Unfitted-Mesh Approach for Hybridizable Discontinuous Galerkin Schemes Applied to Shape Optimization
Abstract: Shape optimization seeks to optimize the shape of a region where certain partial differential equation is posed such that a functional of its solution is minimized/maximized. For a model problem, we apply an unfitted hybridizable discontinuous Galerkin discretization that uses a fixed, shape regular, non-geometry conforming mesh and a high order transfer technique to deal with the curved boundaries arising in the optimization process. The use of this strategy avoids the need for constant remeshing when the domain evolves and enables a highly accurate description of the domain using a coarse computational mesh.
We develop a rigorous analysis of the well-posedness of the problems that arise from the optimality conditions, and provide an a priori error analysis for the resulting discrete schemes. Numerical examples are provided illustrating the performance of the method.
- 4:50 pm: Juan Pablo Soto Quirós, Tecnológico de Costa Rica
- Aproximación de funciones bivariadas a través del problema de aproximación matricial generalizada
La presentación comenzará con una exposición breve pero concisa de los conceptos fundamentales relacionados con las funciones trascendentes y el problema AMG, incluyendo ejemplos numéricos ilustrativos. Luego, se describirá el procedimiento para calcular el polinomio \(p(x,y)\) utilizando funciones trascendentes y el problema AMG. Se presentarán ejemplos prácticos para una mejor comprensión. Finalmente, se explorará la aplicación de este método en la aproximación de la integral doble definida de la función \(f\).
- 5:10 pm: Luis Berlioz, Universidad Nacional Autónoma de Honduras
- The Latent Space of Equational Theories
Abstract: This work builds upon the recently completed Equational Theories Project (https://teorth.github.io/equational_theories/), an online research initiative that, among other contributions, successfully demonstrated the feasibility of large-scale mathematical collaboration. The Equational Theories Project (ETP), involves magmas, i.e., algebraic structures with one binary operation, and the properties they satisfy. There are exactly 4,694 properties called equational theories with four or less applications of the binary operation. The ETP determined all possible valid implications between the equations, this implied the classification of more than 22 million implication as either valid or invalid.
In addition to the ETP data, our work uses the concept of Stone pairings to create a high dimensional feature space of each equational theory. We use dimensionality reduction techniques to visualize the 4,694 equations, revealing a new structure relating them that reflect algebraic properties as geometric analogues. Examples of these analogies include: (1) cliques of equivalent equations tend to cluster together and (2) the dual of each equation is positioned symmetrically as the reflection across a plane. Implications also have their geometrical analogue, e.g., true implications tend to point the same direction and simple implications are shorter in euclidean length on average.
4:30 pm: Applied Math 2
Venue: Room 2
- 4:30 pm: Jesús Angel Mendoza Quispe, UCSC
- Órbitas periódicas en el sistema hamiltoniano de Hénon - Heiles bajo resonancia 1:1:ω
Abstract: En esta charla se presentan resultados sobre la existencia y estabilidad de órbitas periódicas en el sistema Hamiltoniano de Hénon–Heiles bajo resonancia genuina 1:1:ω. El análisis se basa en el uso de variables simplécticas adecuadas y en la aplicación del Teorema de Reeb para caracterizar dichas órbitas.
- 4:50 pm: Jonathan David Evans, University of Bath
- The Extrudate-Swell Singularity for Phan-Thien–Tanner and Giesekus Viscoelastic Fluids
Abstract📝 PDF: The behaviour of the stress singularity for Phan–Thien–Tanner and Giesekus viscoelastic fluids is determined for extrudate-swell (also termed die-swell). In this flow, the fluid exits a channel (or die) as a jet and forms a free-surface flow [1]. In the presence of a Newtonian solvent viscosity, the solvent stress dominates the viscoelastic polymer stresses near the transition point from the solid (stick) surface inside the die to the free (slip) surface outside the die. Consequently, the Newtonian solvent stress is O r−(1−λ0) , where r is the radial distance to the transition point and λ0 is the Newtonian eigenvalue (dependent upon the angle of separation between the solid and free surfaces). This eigenvalue decreases from unity at 133o down to 1/3 at 270o, this being the relevant separation angle range for extrudate-swell. We show that the viscoelastic polymer stresses are less singular with O r−4(1−λ0)/(5+λ0) for PTT [3], and O r−(1−λ0)(3−λ0)/4 for Giesekus [2]. The viscoelastic polymer stresses require boundary layers at both the solid and free surfaces, with the role of those at the free surface being particularly important to arrest the growth of the viscoelastic stresses. Comments will also be made on the Oldroyd-B model.
- 5:10 pm: José Fabio Gomez Rodriguez, Lehigh University/ Central Bank of Costa Rica
- Exchange Rate Pass-Through, Price Dollarization, and Monetary Policy: The Costa Rican Experience
Abstract: We examine whether exchange rate pass-through (ERPT) estimates accu- rately reflect the exchange rate’s role in domestic inflation. In small open economies such as Costa Rica, only a small share of exchange rate fluctu- ations is attributable to exogenous shocks. Most structural models used to estimate the ERPT effect focus exclusively on these shocks, omitting system- atic exchange rate movements that may have substantial effects on prices. We estimate a structural VAR model that identifies inflation’s response to all exchange rate variations. A 1 percentage point increase in the annual exchange rate change raises inflation by 0.04 percentage points when driven by an exchange rate shock, but by 0.25 percentage points when the change is systematic. The large gap between these estimates reconciles the puzzle of low ERPT coefficients with the widespread perception that exchange rate movements strongly influence inflation. It also clarifies why the exchange rate, despite its comovement with inflation, is an ineffective instrument for inflation control.
Thursday, February 26th
- Conference trip
- TBA
- Conference dinner
- TBA
Friday, February 27th
8:00 am: Alberto José Ferrer Riquelme, Universitat Politècnica de València
- Repensando la estadística en un mundo digitalizado: el potencial de los modelos estadísticos multivariantes de variables latentes en la industria y la salud 4.0
Venue: Room 1
Abstract📝 PDF: La era del 4.0 representa la Cuarta Revolución Industrial, una nueva era de innovación marcada por la integración de tecnologías digitales como la Inteligencia Artificial (IA), el Internet de las cosas (IoT) y el análisis de grandes bases de datos (Big Data), para crear sistemas interconectados, automatizados y centrados en datos, que pueden mejorar la eficiencia, personalización y toma de decisiones en fábricas (Industria) y servicios sanitarios (Salud). En esta nueva era de la digitalización, sin embargo, existe la creencia predominante de que, debido a la enorme cantidad y velocidad con la que se generan los datos, estas tecnologías digitales emergentes pueden resolver los problemas importantes de la sociedad, industria, o de la sanidad, únicamente mediante el análisis de datos empíricos, sin necesidad de modelos científicos, teoría, experiencia o conocimiento del sector. La idea es que la causalidad ya no importa, solo la simple correlación basta. Algunos incluso llegan a afirmar que la Estadística ha muerto, debido al surgimiento de la Ciencia de Datos. Consideran la Estadística obsoleta y a los estadísticos como profesionales excesivamente especializados en técnicas que ya no son útiles, y preocupados por cuestiones que parecen irrelevantes ante la complejidad de los desafíos del siglo XXI. En este minicurso, a través de un análisis DAFO (Debilidades-Amenazas-Fortalezas y Oportunidades) de la Estadística en el mundo digitalizado, trataré de desvelar los porqués de estas creencias sobre la obsolescencia de la Estadística, y compartir mi perspectiva sobre los factores clave que podrían ayudar a la Estadística a recuperar su reconocimiento social y su papel fundamental como componente clave para abordar con éxito muchos de los problemas que enfrenta nuestra sociedad. Muchas las ideas planteadas provienen de las enseñanzas del profesor George EP Box, eminente estadístico inglés fallecido hace una década, y del profesor John MacGregor, destacado ingeniero químico y estadístico canadiense, discípulo del profesor Box, quienes han sido unas de las personas más influyentes en mi carrera profesional. Destacaré el potencial de los Modelos Estadísticos Multivariantes de Variables Latentes, y en particular del Análisis de Componentes Principales (PCA) y de la Regresión en Mínimos Cuadrados Parciales (PLS), para abordar algunos de los principales retos de la industria y la salud en entornos altamente digitalizados (Industria y Salud 4.0). Entre ellos, destacaré el desarrollo de biomarcadores de imagen para el diagnóstico precoz del cáncer utilizando PCA no ortogonal, el diseño de esquemas de Control Estadístico Multivariante de Procesos (MSPC) y el análisis multivariante de imágenes basados en PCA, así como la optimización de procesos, la definición del espacio de diseño de materias primas y el desarrollo de índices de capacidad multivariante basado en variables latentes utilizando datos históricos mediante PLS. Estos enfoques aprovechan la capacidad del PLS para modelar la causalidad en el espacio latente, incluso a partir de datos históricos, típicos en entornos altamente digitalizados. También plantearé ventajas/inconvenientes de estas técnicas con otras procedentes del Machine Learning como Random Forests, Redes Neuronales, etc, y con las técnicas de Regresión Lineal Múltiple y Regresión Logística. Todos los temas abordados en el minicurso se ilustrarán a través de ejemplos reales de la industria (química, farmacéutica y de alimentación) y de la salud (diagnóstico de cáncer por imagen) en los que hemos estado involucrados en los últimos años, fruto de nuestra colaboración en proyectos de investigación y en labores de consultoría con varias empresas y hospitales.
8:00 am: Poster session
Venue: First floor
- 9:30 am: Coffee break ☕
- First floor cafeteria
- 9:50 pm: Short Course (Part II)
- Repensando la estadística en un mundo digitalizado: el potencial de los modelos estadísticos multivariantes de variables latentes en la industria y la salud 4.0 See info above
11:00 am: Oldemar Rodríguez, Universidad de Costa Rica
- A General Riemannian Principal Component Analysis Framework
Venue: Auditorium
Abstract📝 PDF: In this talk we propose an innovative extension of Principal Component Analysis (PCA) that transcends the traditional assumption of data lying in Euclidean space, enabling its application to data on Riemannian manifolds. The primary challenge addressed is the lack of vector space operations on such manifolds. Fletcher et al., in their work {}, proposed Principal Geodesic Analysis (PGA) as a geometric approach to analyze data on Riemannian manifolds, particularly effective for structured datasets like medical images, where the manifold’s intrinsic structure is apparent. However, PGA’s applicability is limited when dealing with general datasets that lack an implicit local distance notion. In this work, we introduce a generalized framework, termed {}, to extend PGA for any data endowed with a local distance structure. Specifically, we adapt the PCA methodology to Riemannian manifolds by equipping data tables with local metrics, enabling the incorporation of manifold geometry. This framework provides a unified approach for dimensionality reduction and statistical analysis directly on manifolds, opening new possibilities for datasets with region-specific or part-specific distance notions, ensuring respect for their intrinsic geometric and topological properties.
- 12:00 pm: Lunch break 🍽️
2:00 pm: Data Science 1
Venue: Auditorium
- 2:00 pm: Adler Moisés Rodríguez Fallas, Universidad de Costa Rica
- Evaluación del Aprendizaje Profundo de Precisión Mixta para la Detección de Neumonía Utilizando GoogLeNet en Radiografías de Tórax
Abstract: La neumonía continúa siendo una de las principales causas de morbilidad y mortalidad a nivel mundial. Su diagnóstico temprano mediante radiografías de tórax es esencial, aunque depende de la experiencia médica y de la disponibilidad de recursos. Este trabajo presenta el desarrollo y la evaluación de un sistema automatizado para la detección de neumonía utilizando la arquitectura GoogLeNet, bajo un enfoque de transfer learning en PyTorch. Se compararon dos configuraciones numéricas: float32 (precisión completa) y float16 mediante Automatic Mixed Precision (AMP), explorando su potencial como herramienta de tamizaje médico.
El flujo metodológico incluyó la organización del conjunto de datos en particiones de entrenamiento, validación y prueba, la aplicación de técnicas de preprocesamiento y aumento de datos y la estandarización de las imágenes para garantizar su compatibilidad con la arquitectura preentrenada GoogLeNet, una red convolucional profunda basada en módulos Inception que permite extraer características a múltiples escalas de manera eficiente. Finalmente, se ajustó la capa final del modelo utilizando el optimizador Adam (lr = 0.0001) y la función de pérdida CrossEntropyLoss.
Los resultados mostraron una precisión del 83.49 % para float32 y del 81.25 % para float16. Aunque el entrenamiento en precisión mixta no redujo el tiempo total, sí evidenció mejoras en consumo de memoria y estabilidad. Estos hallazgos confirman que AMP es compatible con GoogLeNet y que su utilidad podría ampliarse en escenarios clínicos de mayor complejidad, donde sistemas de este tipo pueden funcionar como herramientas de tamizaje médico y apoyo al diagnóstico, especialmente valiosas en contextos de alta demanda y largas listas de espera como los sistemas de salud latinoamericanos.
- 2:20 pm: Alan Iván Gaona López, Universidad Anáhuac México
- Intraday Trading Strategy Selection Under Transaction Costs with Machine Learning
Abstract📝 PDF: The use of machine learning models in financial markets has recently gained relevance due to their ability to identify patterns in historical data and improve investment decision-making. This project sought to develop and compare several machine learning models capable of predicting short-term price direction of a financial asset at different intraday horizons, using historical data and technical indicators at one-minute frequency. Additionally, transaction costs were considered to ensure that profitability assessments reflected realistic market conditions. The analysis used one-minute data for Microsoft (MSFT) retrieved via the TwelveData API, covering January 1, 2022 to December 31, 2023, a two-year window with diverse market conditions that provided a representative test bed for intraday signals. A comparative analysis was conducted using Decision Tree, Random Forest, and XGBoost, which were trained in a rolling-window scheme to capture evolving market dynamics and tested across multiple intraday horizons. Evaluation included precision, recall, F1-score, Fβ-score, and cost-adjusted profit and loss (P&L) to balance predictive accuracy with economic performance. Given the high-frequency setting and the need for repeated retraining, tree-based methods were prioritized, since prior studies reported that ensembles such as Random Forest and gradient-boosted trees often matched or exceeded Support Vector Machines and deep architectures on price-direction tasks while requiring less preprocessing and computation. In addition, under the available resources, alternatives such as SVMs and Neural Networks were comparatively slower at this frequency, and therefore, they were omitted from the study. Empirical results showed that, after evaluating the models across multiple intraday horizons with explicit transaction costs, net outcomes were sensitive to the choice of horizon and to the cost assumptions. Within this setup, the study settled on an XGBoost model at a 15-minute horizon, which achieved a positive net P&L of $1,405.40 after accounting for transaction costs, with an average share price of $292.71 during the test period and an average per-trade profit of 0.0079%, despite modest classification performance, with a precision of 51.70%. This configuration provided a favorable balance between trade frequency and the precision of those trades. Taken together, these findings indicated that explicitly modeling transaction costs was decisive for judging viability, since it prevented the overstatement of P&L that would have arisen without costs. They also showed that predictive accuracy alone was not a sufficient evaluation criterion, because profitability could diverge from classification metrics, and that, within a cost-aware setup, machine learning strategies could still achieve positive net profits.
- 2:40 pm: Jennifer Rangel Madariaga, Universidad Anáhuac México
- Optimización de estrategias de trading mediante algoritmos genéticos de agrupamiento.
Abstract: En esta ponencia describiremos los avances de mi tesis doctoral sobre la optimización multiobjetivo en estrategias de trading.
2:00 pm: Numerical Analysis and Scientific Computing 3
Venue: Room 1
- 2:00 pm: Benito A Stradi Granados, Instituto Tecnológico de Costa Rica Universidad de Costa Rica
- Finding the solutions to non-linear equations using the Interval/Newton Generalized Bisection Method
Abstract📝 PDF: The Interval-Newton Generalized-Bisection method (IN/GB) was used to determine the three solutions for the Peng-Robinson (PR) equation of State (EOS). At a temperature (𝑇𝑇) of 298.15 𝐾𝐾and pressure (𝑃𝑃) of 63.0∗105 𝑃𝑃𝑃𝑃, the computed molar volumes are 𝑣𝑣1=0.000194931, 𝑣𝑣2=0.0000996359 and 𝑣𝑣3=0.0000722323 𝑚3/mol. This is an important application of the IN/GB because the PR EOS is the preferred equation in the petroleum industry to modelling single and multicomponent mixtures at conditions from medium to high pressures (i. e. ~1-100 bar). The IN/GB finds the three specific volumes and it uses the molar volume domain (i. e. not initial guesses) as the single input. These volumes (largest and smallest) correspond to the vapor and liquid phases that are present in separation processes.
- 2:20 pm: Samuel Fernando Valverde Sánchez, Instituto Tecnológico de Costa Rica
- Family of Iterative Methods for Approximating the Pseudoinverse of Three-Dimensional Tensors Under the Generalized L-Product as a Tensor Multiplication Operation, and Their Application to Noise Reduction in Grayscale Videos
Abstract: This work presents a novel approach for approximating the pseudoinverse of a tensor \(\mathcal{A}\in \mathbb{C}^{m\times n \times p}\), denoted by \(\mathcal{A}^\dagger\in \mathbb{C}^{n\times m \times p}\), by considering the generalized \(L\)-tensor product as the tensor multiplication operation. Moreover, it is shown that, under this tensor product, a family of iterative methods converges to the tensor pseudoinverse for different orders. Additionally, a performance comparison of the family of iterative methods is carried out for particular cases of the operator \(L\). Finally, the proposed set of iterative methods is employed and compared with other methods reported in the literature for noise reduction in grayscale videos.
- 2:40 pm: José Rafael Arce Gamboa, Universidad de Costa Rica
- Desarrollo de Algoritmos de autovalores para aproximar las raíces de un polinomio univariado
Abstract: Se implementó un código en Python y Matlab que permite calcular las matrices camaradas de un polinomio arbitrario usando los coeficientes asociadas a una familia de polinomios ortogonales. Se realizaron pruebas para obtener aproximaciones de las raíces de polinomios arbitrarios de Wilkinson y de Mandelbrot a partir del cálculo de los valores propios de matrices camaradas asociadas a las diferentes familias de polinomios ortogonales. Se compararon los tiempos de ejecución tomando en cuenta el desplazamiento del centro de masa de las raíces de los polinomios, y el balanceo, y se realizan recomendaciones para cada polinomio arbitrario. Posteriormente se implementó un código que permite calcular aproximaciones más precisas de las raíces de un polinomio, usando el algoritmo de iteraciones sucesivas de las matrices compañeras generalizadas y tomando como punto de partida ya sea las aproximaciones dadas por las matrices camarada
2:00 pm: Statistics 3
Venue: Room 2
- 2:00 pm: Pedro José Molina Morales, Universidad Autónoma de Honduras
- Modelos de espacio de estados con filtración de partículas aplicado a un modelo DSGE
Abstract: En esta investigación se desarrolla un modelo Dinámico Estocástico de Equilibrio General (DSGE, por sus siglas en inglés) de la cual surgen como una evolución natural de los modelos de crecimiento neoclásico. Estos modelos combinan el rigor macroeconómico con estructuras dinámicas y estocásticas, permitiendo evaluar cuantitativamente las pol´ıticas económicas. El modelo propuesto por las ecuaciones de equilibrio, se representó en su forma de espacio de estados multivariado, lo que facilita la aplicación de técnicas secuenciales de Monte Carlo (SMC), en particular el filtro de partículas dentro de un marco Bayesiano, con la idea de evitar linealizar el modelo lo cual permite preservar la naturaleza completa para la estimación del modelo. Durante el proceso de filtrado, se emplearon técnicas numéricas como la cuadratura de Gauss-Hermite y la interpolación mediante elementos finitos para aproximar esperanzas racionales que no tienen solución analítica. Asimismo, se incorporaron técnicas de estimación robusta. La base de datos proviene del sistema FRED (Federal Reserve Broad, EE. UU), enfocándose en la estimación y la predicción de tres variables macroeconómicas fundamentales: gt (PIB), πt (Inflación) y rt (Tasa de interés) de manera trimestral, realizando estimaciones de los años 2000 − 2023 y predicciones para el año 2024. Los resultados obtenidos demostraron que utilizar técnicas Secuenciales de Monte Carlo y estimación robusta en modelos DSGE, se tiene estimaciones y predicciones eficientes.
- 2:20 pm: Anakena Castillo, Instituto Conmemorativo Gorgas de Estudios de la Salud
- Aplicación de análisis estadísticos multivariados, modelos complementarios, y bioinformáticos para evaluar el rol de depredadores acuáticos en el control de vectores
Abstract: Se aborda la identificación de mecanismos naturales de control de mosquitos vectores mediante la integración de datos ecológicos, experimentales y moleculares. El estudio combina muestreos en más de 25 cuerpos de agua de Panamá, análisis multivariados, experimentos de depredación en mesocosmos y herramientas bioinformáticas basadas en secuenciación de nueva generación para comprender el papel de los depredadores acuáticos como enemigos naturales de las larvas de mosquitos. Los resultados preliminares evidencian patrones ambientales que influyen en la distribución de larvas y depredadores, así como una reducción significativa en la supervivencia de mosquitos en presencia de insectos depredadores. Además, los análisis genéticos confirman eventos de depredación mediante la identificación de BINs en tractos digestivos. En conjunto, esta charla destaca el valor de los métodos matemáticos aplicados para sustentar estrategias de biocontrol y mejorar la gestión de vectores en ecosistemas neotropicales.
- 2:40 pm: Héctor Javier Vázquez, Universidad Autónoma Metropolitana
- ¿La asociación entre la morfología y la secuencia rbcl de especies representativas del género Ficus resulta de la selección natural o del azar?.
Abstract: En arboricultura urbana se aplican diferentes técnicas para distinguir a los árboles de una especie a otra. La morfología clásica busca similitudes y formas propias de la estructura interna y externa de cada especie ( por ejemplo hojas, flores, tallos, raíces, etc.); e intenta explicar las formas, como variaciones morfológicas de modelos básicos. En la mayoría de los casos los resultados se sintetizan en medidas estadísticas descriptivas. La morfología Geométrica considera puntos de referencia, llamados “landmarks” que son claves importantes para comparar formas biológicas (Bookstein, 1997). La comparación de las secuencias de los ”landmarks” se realiza aplicando herramientas cuantitativas multivariadas, como el Análisis de Procrustes y el Análisis de Componentes Principales. La génesis de la forma se explica considerando fatores externos, geográficos, ambientales, evolutivos y genéticos (Taylor, 2021). En un trabajo precedente fue posible evaluar la asociación entre la forma biológica y la secuencia específica del gen del cloroplásto rbcL, el cual codifica la subunidad grande de la enzima RuBisCO, una proteína fundamental para comprender la eficiencia fotosintética y la forma de hojas de especies del género ficus. En este trabajo se exploran, mediante técnicas cuantitativas de evolución molecular (Nei, M., & Kumar, S. ,2000) algunas secuencias de rbcl con el objeto de evaluar si tal asociación es resultado de la selección natural (adaptación) o simplemente del azar.
- 3:00 pm: Coffee break ☕
- First floor cafeteria
3:10 pm: Data Science 2
Venue: Auditorium
- 4:30 pm: Juan Gabriel Triana Laverde, Universitaria Agustiniana
- La minería de opinión como herramienta para la toma de decisiones
Abstract: El procesamiento de lenguaje natural (PLN) es un campo interdisciplinar para el estudio y comprensión del lenguaje humano mediante métodos computacionales; por ello, emplea herramientas provenientes de áreas como la lingüística, matemáticas, estadística, programación, entre otros. Su importancia radica en que permite transformar grandes volúmenes de texto en información organizada y procesable, lo que facilita su análisis para identificar percepciones y tendencias que, de otro modo, serían difíciles de detectar.
Dentro de las múltiples ramas del PLN, la minería de opinión, también conocida como análisis de sentimientos, ha adquirido una creciente relevancia impulsada en gran medida por el surgimiento de las redes sociales, las plataformas digitales, y por las herramientas que han facilitado que el usuario genere información a partir de comentarios y opiniones [4]. Esta área se enfoca en extraer, identificar y clasificar las emociones, valoraciones o actitudes expresadas en textos; un acercamiento que facilita el análisis de resultados es la clasificación de los comentarios u opiniones como positivas, negativas o neutras [6], lo que favorece la toma de decisiones informada con base en los comentarios y reseñas de parte de los usuarios.
Las dificultades de movilidad en las ciudades grandes, como es el caso de Bogotá, han traído retos a la realización de clases en modalidad presencial. Como metodología auxiliar, se suele emplear la presencialidad mediada por tecnologías, también denominada presencialidad remota. Diversos estudios han analizado las ventajas que ofrece esta modalidad, para docentes y estudiantes, destacando el uso de recursos virtuales disponibles, el desarrollo de habilidades tecnológicas, entre otros aspectos [1]. Sin embargo, para determinar si esta modalidad es adecuada para la comunidad universitaria, consideramos pertinente tener en cuenta la opinión de los estudiantes.
En la Universitaria Agustiniana, ubicada en Bogotá, se emplearon clases en modalidad remota cuando hubo dificultades de movilidad. Para conocer la percepción de los estudiantes, se realizó una encuesta con preguntas sobre la calidad de la conexión a internet, si cuenta con un entorno adecuado para el aprendizaje, y el desempeño del docente, ya que estos aspectos afectan el proceso de enseñanza y aprendizaje de los estudiantes en contextos mediados por TIC [5]. Además, se agregó una pregunta abierta para recopilar la opinión de los estudiantes; sobre los comentarios realizados por ellos, se aplica un análisis de sentimientos para determinar si la implementación de la modalidad fue exitosa o no [7].
En este trabajo se presenta un análisis de sentimientos basado en diccionarios [2]; en particular, se hará una comparación entre el diccionario Vader (Valence Aware Dictionary and sEntiment Reasoner) al que se puede acceder a través de la librería nltk (Natural Language Toolkit) [3], y un diccionario propio con expresiones comunes entre los estudiantes. Con base en los resultados obtenidos, se decide si es conveniente realizar las clases en modalidad remota cuando la presencialidad no es viable.
- 4:50 pm: Juan José Fallas Monge, Instituto Tecnológico de Costa Rica
- OptiMiClass: Una herramienta de software libre para la clasificación cuantitativa de datos basada en heurísticas de optimización combinatoria
Abstract: El particionamiento de datos cuantitativos (clustering) es un problema de optimización fundamental, pero debido a su complejidad de tipo NP-duro, el uso de metaheurísticas resulta esencial para encontrar soluciones de alta calidad. En esta ponencia, presentamos “OptiMiClass”, una nueva herramienta de software gratuito diseñada por los autores de esta presentación, que ofrece un marco unificado para seis potentes heurísticas: Algoritmos Genéticos, Optimización por Colonia de Hormigas, Optimización por Enjambre de Partículas, Recocido Simulado y Búsqueda Tabú.
Detallaremos nuestras implementaciones específicas, las cuales han sido hibridadas con el algoritmo K-means para potenciar la búsqueda local. Asimismo, validaremos su desempeño mediante un estudio comparativo utilizando conjuntos de datos de referencia. Los resultados permiten identificar las fortalezas relativas de cada método, posicionando a OptiMiClass como una herramienta robusta, accesible y eficaz para la comunidad dedicada al análisis de datos.
- 5:10 pm: Oscar Javier Centeno Mora, Universidad de Costa Rica
- The ABC of Building Retrieval-Augmented Generation (RAG) Systems
Abstract: Retrieval-Augmented Generation (RAG) has emerged as a key architectural pattern for enhancing Large Language Models (LLMs) with external, verifiable knowledge sources. This presentation introduces the fundamental building blocks required to design and implement a RAG system, following a clear and practical “ABC” approach suitable for applied statistical, auditing, and data-driven contexts. The talk explains the core components of a RAG pipeline, including document ingestion, text chunking, vector embeddings, similarity-based retrieval, and controlled generation. Emphasis is placed on conceptual understanding, system design choices, and common pitfalls such as data leakage, poor retrieval quality, and hallucinated outputs. The presentation highlights how RAG improves transparency, traceability, and reliability compared to standalone generative models. The session is intended for statisticians, auditors, and data professionals seeking a structured introduction to RAG systems, with a focus on practical reasoning, responsible AI usage, and real-world analytical applications rather than low-level implementation details.
3:10 pm: Pure Math 2
Venue: Room 1
- 3:10 pm: Raimundo José Briceño Domínguez, Pontificia Universidad Católica de Chile
- An Operator Viewpoint of Continuous Pointwise Ergodicity
Abstract: Oral presentation of the research work titled: “An operator viewpoint of continuous pointwise ergodicity”.
Abstract: A classical result by Oxtoby characterizes unique ergodicity via the uniform convergence of ergodic averages. Recently, Downarowicz and Weiss extended this connection by appealing to the notion of continuous pointwise ergodicity. In this talk, we study these concepts within the framework of operator theory. We discuss a characterization of these systems in terms of the mean ergodic properties of the associated Koopman representation. Furthermore, we explore how this functional analytic approach allows for generalizations to semigroup actions and systems defined on non-compact spaces. This is joint work with Godofredo Iommi.
- 3:30 pm: Wágner Badilla Céspedes, Universidad de Costa Rica
- Inexistencia de derivaciones negativas en el álgebra local de explosión
Abstract: En esta charla hablaremos sobre las álgebras locales de explosiones de Nash de orden superior, un invariante de singularidad recientemente introducido. En orden uno estas álgebras coinciden con la clásica álgebra de Tjurina. En la segunda parte de la charla, hablaremos de la conjetura sobre la inexistencia de derivaciones homogéneas de peso negativo sobre estas álgebras en el caso de singularidades de hipersuperficies aisladas homogéneas con peso. Este es un trabajo en conjunto con Abel Castorena, Daniel Duarte y Luis Núñez-Betancourt.
3:10 pm: Applied Math 3
Venue: Room 2
- 3:10 pm: Michal Cerny, Prague University of Economics and Business
- Score-Based Rating Systems in Sports Statistics
Abstract📝 PDF: In many sports disciplines, players are assigned a rating that is defined as a certain function of the results of matches the player has played in the past. When a player plays another match, it is assumed that the increase/decrease of their rating after a win/loss depends on the difference between their rating and that of the opponent. The Elo rating system (Elo rating, ER) is defined as follows: when two players A,B with ratings r(A) t , r(B) t in time t play a game with outcome Y (A) t ∈ {0, 1} (here 1 stands for the win of A), their ratings are updated as r(A) t+1 = r(A) t +k(Y (A) t − Λ(r(A) t − r(B) t )), r(B) t+1 = r(B) t + k((1 − Y (A) t ) − Λ(r(B) t − r(A) t )), where k > 0 is a constant and Λ is the logistic function. If the game outcomes Y (A) t are treated as random variables, ER generates sequences of players’ ratings which can be viewed as time series. First we will derive some basic statistical properties. For example, we will show what happens if the true probability of winning differs from the probability implied by the player’s rating. It turns out that there exists a certain weak form of mean reversion. We also illustrate some undesirable properties, in particular a certain form of asymptotic inconsistency, which in the long run unfairly favors strong players and penalizes the weak. We further show that ER with the logistic link function is equivalent to a special case of a GAS (Generalized Autoregressive Score) time-series model containing the autoregression term and the so-called score term (here, score stands for the gradient of log-likelihood of the outcome generating distribution). This result has interesting consequences: it makes it possible to construct generalized ER systems even for games where the match outcome may be more complex than simple 0-1 win/loss information. For example, these generalizations, called score-based rating systems, include outcomes such as “winning by five goals,” “finishing second in a race of six runners,” “finishing second with a five-second gap behind the winner,” or a match whose outcome is a general permutation of the set of players.
- 3:30 pm: William Eduardo Albornoz, CINVESTAV 🖥️
- Dynamic and Bifurcation Analysis in the P53 Network Associated With MCF-7 FacingDynamic and Bifurcation Analysis in the P53 Network Associated With MCF-7 Facing Radiotherapy
Abstract📝 PDF: The tumor suppressor protein p53 plays a central role in orchestrating the cellular response to genotoxic damage, such as the ionizing radiation used in radiotherapy. It activates compensatory mechanisms that include various cellular decision processes such as DNA repair, senescence, or apoptosis, depending on the severity of DNA damage, thereby preventing tumor formation [1, 2, 6]. However, mutations in p53 are found in approximately 50% of human tumors, correlating with poor clinical prognosis due to genomic instability and homeostatic dysregulation. These alterations lead to an overexpression of negative regulators such as MDM2 (a ubiquitin ligase that degrades p53) and WIP1 (a phosphatase that inactivates p53) [1, 2]. In oncology, the MCF-7 cell line represents a model similar to a common type of breast cancer, containing native (wild-type) p53, but the cells do not exhibit apoptosis in response to genotoxic damage, mainly due to the overexpression of MDM2, which inhibits p53 and promotes cell proliferation [3, 4].
Using an in-silico model of ordinary differential equations (ODEs), where the system oscillates between cellular decisions, it is possible to propose new therapeutic approaches that direct cells toward a desired response, such as apoptosis [8, 10]. In this work, we developed a mathematical model using ODEs that simulate the p53 molecular network in MCF-7 cells and analyzed the dynamics and their bifurcation points under radiotherapy [7, 8, 9]. We evaluated the dynamic behavior under different radiation doses and the system’s responses to variations of ±80% in the synthesis rates of MDM2 and WIP1, in relation to the apoptosis indicator (caspase-3) and its direct influence on p53 [7, 8, 9].
These biological systems exhibit nonlinearity in their dynamic behavior, attributed to system crosstalk, resulting in the caspase trigger time as an indicator of apoptosis depending on the dose for healthy mammary cells, i.e., at a dose of 3 Gy it occurs at ~43 hours, shortening to ~36 hours at 4 Gy and ~33 hours at 5 Gy [6]. In contrast, MCF-7 cells exhibit resistance due to MDM2 dysregulation, regardless of the dose used [3, 4]. Bifurcation analysis at 3 Gy revealed that modifying the WIP1 synthesis rate to less than one-third of its nominal value (>0.03 μM/min) sensitizes MCF-7 cells, triggering apoptotic processes at 20–60 hours [8, 9].
However, variations in the MDM2 synthesis rate do not sensitize cells. It is proposed that this may occur due to failures in degradation mechanisms, perpetuating p53 blockades and inhibiting apoptosis [3, 8, 10, 11]. This study concludes that modulating WIP1 concentration alters the dynamics of the system, promoting apoptosis, positioning WIP1 as a promising therapeutic target for p53 wild-type carcinomas with MDM2 accumulation, such as breast cancer [2, 3, 5, 11].
- 3:50 pm: Vladimir D. Tonchev, Michigan Technological University
- Hadamard matrices with automorphisms of prime order and related codes
Abstract: It is known that for every odd prime p there exists a Hadamard matrix of order n = 2p + 2 with an automorphism of order p, found by Paley [5], and known in the combinatorial literature as the Paley-Hadamard matrix of type II. If p is an odd prime such that p 1 (mod 3) then the Paley-Hadamard matrix of type II of order 2p + 2 is a generator matrix of a Pless symmetry code [6], being a ternary self-dual code of length 2p + 2. The Pless symmetry codes of length 2p+2 for p = 5; 11; 17; 23 and 29 are ternary extremal self-dual codes that support combinatorial 5-designs. The Paley-Hadamard matrices of type II for p = 3 and p = 5 are the unique, up to equivalence, Hadamard matrices of orders 8 and 12, respectively. The Hadamard matrices of order 2p + 2 with an automorphism of order p = 7; 11; 13; 17; 19 and 23 have been previously classied up to equivalence [2, 3, 4, 7, 8]. The topic of this talk is the classication of Hadamard matrices of order n = 2p + 2 with an automorphism of order p for the next two primes, p = 29 and p = 31 [1]. Up to equivalence, there are 266 Hadamard matrices of order 60 with an automorphism of order 29, and 414 Hadamard matrices of order 64 with an automorphism of order 31. The ternary self-dual codes spanned by the newly found Hadamard matrices of order 60 with an automorphism of order 29 are computed, as well as the binary doubly even self-dual codes of length 120 with generator matrices dened by related Hadamard designs. Several new ternary near-extremal self-dual codes, as well as binary near-extremal doubly even self-dual codes with previously unknown weight distributions are found.
- 4:10 pm: Coffee break ☕
- First floor cafeteria
4:30 pm: German Mora Sáenz, Universidad de Costa Rica
- Computer-Assisted Proofs in PDEs
Venue: Auditorium
Abstract📝 PDF: Computers have experienced rapid development in the last 50 years, recently reaching speeds of the order of exaFLOPS (10^18 floating point operations per second); this has allowed us to develop new proof techniques that lie between pure mathematics and computational ones. A computer-assisted proof in partial differential equations (PDEs) usually consists of a collection of theorems that depend on several conditions whose verification is only possible through the use of computational assistance. We will discuss these kinds of proof and present some examples related to computer-assisted proofs in PDEs (particularly found in fluid mechanics), focusing more on the techniques than on the results.
- 5:30 pm: Closing remarks
- Auditorium