Ir al contenido principal

Reseña de 'LeanTutor: A formally-verified AI tutor for mathematical proofs'

El artículo "LeanTutor: A formally-verified AI tutor for mathematical proofs" aborda un problema común en la educación matemática: los estudiantes tienen dificultades para aprender demostraciones. Actualmente existen dos tipos de herramientas, pero ninguna funciona bien para enseñar. Los chatbots como ChatGPT son fáciles de usar pero dan respuestas directas o incorrectas, sin ayudar realmente al aprendizaje. Los asistentes de demostración como Lean verifican las matemáticas perfectamente, pero son demasiado complicados para principiantes. Se necesita una herramienta que combine lo mejor de ambos: la facilidad del lenguaje natural y la precisión de la verificación formal.

Los autores crearon LeanTutor, un sistema que funciona como tutor inteligente combinando lenguaje natural con verificación formal. El sistema tiene tres partes que trabajan juntas. Primero, el 'autoformalizador' toma lo que escribe el estudiante en lenguaje normal y lo convierte a código Lean para verificar si es correcto. Si hay un error, el 'generador del siguiente paso' calcula cuál sería la respuesta correcta. Finalmente, el 'generador de retroalimentación' convierte esta información técnica en consejos útiles para el estudiante, dándole pistas sin revelar directamente la solución.

Los investigadores probaron LeanTutor usando un nuevo conjunto de datos llamado PeanoBench y los resultados fueron positivos. El sistema logró convertir correctamente la mayoría de los pasos que escribían los estudiantes y detectó muchos errores. Cuando compararon la retroalimentación de LeanTutor con otros sistemas, encontraron que era más precisa y útil para los estudiantes. Los autores concluyen que este enfoque de combinar IA conversacional con verificación formal es una buena dirección para crear mejores herramientas educativas.

Este trabajo presenta una idea muy buena para mejorar la educación matemática. La principal fortaleza es que logra combinar de manera inteligente la facilidad de uso del lenguaje natural con la precisión matemática de Lean. Sin embargo, también tiene algunas limitaciones importantes. El sistema necesita tener de antemano la solución correcta del problema, y asume que los pasos del estudiante se pueden traducir directamente a código Lean, lo que podría no funcionar en situaciones más complejas. A pesar de estas limitaciones, LeanTutor es un buen primer paso que muestra cómo la IA puede ayudar a enseñar matemáticas de forma más efectiva y segura.

El futuro del razonamiento matemático: Integrando IA y Lean

En su conferencia "Will computers prove theorems?", Kevin Buzzard plantea que los ordenadores ya demuestran teoremas, pero la pregunta crucial es cómo pueden transformar la investigación matemática. Aunque reconoce la utilidad de las herramientas actuales como las redes neuronales para identificar patrones, su aplicación permanece limitada. Los modelos de lenguaje como ChatGPT, por su parte, pueden ofrecer ideas valiosas, pero fracasan rotundamente en el razonamiento lógico: tienden a "alucinar" o inventar detalles para parecer convincentes, lo que los convierte en herramientas poco confiables para las matemáticas rigurosas.

La solución que propone Buzzard para superar estas limitaciones radica en la sinergia entre la inteligencia artificial y los asistentes de demostración formal como Lean. Su propuesta consiste en entrenar modelos de IA para que generen pruebas directamente en código de Lean, en lugar de utilizar lenguaje natural. De este modo, el asistente de demostración funciona como un verificador infalible: cualquier argumento lógicamente incorrecto será rechazado automáticamente por el sistema. Esta metodología obligaría a la IA a evolucionar desde la mera imitación de patrones hacia la construcción de razonamientos lógicamente verificables.

No obstante, el principal obstáculo para materializar esta visión es la escasez de matemáticas modernas y avanzadas formalizadas en Lean, elementos esenciales para el entrenamiento de estos modelos. Buzzard concluye con un llamamiento directo a la comunidad matemática: considera que es responsabilidad de los investigadores emprender la tarea fundamental de formalizar el conocimiento de sus respectivos campos, tal como él mismo está haciendo con el último teorema de Fermat. Argumenta que este esfuerzo resulta crucial para desarrollar las herramientas que revolucionarán la disciplina, a pesar de que el sistema académico actual no reconozca ni recompense adecuadamente este tipo de contribuciones.

Readings shared June 10, 2025

The readings shared in Bluesky on 10 June 2025 are

El proyecto ETP (Un caso de estudio en investigación matemática colaborativa y formalizada)

Hoy, en su conferencia "The equational theories project", Terence Tao defendió que la investigación matemática debe evolucionar hacia un modelo colaborativo a gran escala, semejante al empleado en otras disciplinas científicas. Esta transformación requiere el uso de herramientas modernas como plataformas colaborativas (GitHub), asistentes de prueba formales (Lean) y automatización mediante inteligencia artificial. El proyecto ETP (Equational Theories Project) constituye un ejemplo paradigmático de esta nueva aproximación a la investigación matemática.

El proyecto nació de una pregunta aparentemente simple planteada en el foro MathOverflow, pero pronto adquirió una dimensión extraordinaria: mapear completamente el "gráfico de implicaciones" entre 4,692 leyes algebraicas únicas dentro de estructuras elementales denominadas magmas. Esta ambiciosa meta implicaba resolver más de 22 millones de problemas individuales, donde cada par de leyes requería encontrar una prueba de implicación o desarrollar un contraejemplo que la refutara. La magnitud descomunal de este desafío lo convertía en una tarea imposible de abordar mediante los métodos tradicionales de investigación individual o de pequeños equipos.

La estrategia implementada por el ETP consistió en un flujo de trabajo híbrido y descentralizado de notable innovación. La componente humana aprovechó la creatividad de una extensa comunidad de colaboradores para desarrollar pruebas y contraejemplos ingeniosos, mientras que la componente computacional empleó masivamente probadores automáticos de teoremas (ATPs) y otras herramientas para resolver millones de casos más directos. El elemento fundamental que garantizó la integridad del proyecto fue la formalización exhaustiva de cada resultado en el asistente de pruebas Lean, asegurando una corrección absoluta y creando una base de conocimiento completamente verificada y confiable.

En el plazo extraordinariamente breve de tres meses, el proyecto logró resolver prácticamente la totalidad de los 22 millones de problemas planteados. Además, el proceso de abordar los casos más complejos estimuló el desarrollo de técnicas matemáticas innovadoras, culminando con la formulación de un nuevo y fascinante problema abierto. El ETP demostró que este modelo colaborativo trasciende la mera verificación de conocimiento existente para convertirse en un motor poderoso de descubrimiento matemático, estableciendo así un precedente exitoso para una investigación matemática más abierta, transparente y asistida computacionalmente.

El futuro de las matemáticas - Descubrimiento colaborativo entre humanos y máquinas

Ayer, en su conferencia "AI for Math: The future of collaborative discovery", Mateja Jamnik presentó una visión de la inteligencia artificial no como una simple herramienta para resolver problemas, sino como un socio colaborativo en el descubrimiento matemático. Su trabajo explora cómo las máquinas pueden proponer ideas y acelerar la investigación. A través de un estudio empírico con matemáticos, demostró que la interacción humano-IA es compleja; una respuesta de la IA no necesita ser perfectamente correcta para ser útil, ya que incluso ideas parcialmente erróneas pueden inspirar nuevas vías de pensamiento, mientras que respuestas correctas pero verbosas pueden resultar inútiles.

El núcleo técnico de su propuesta, materializado en trabajos como su artículo "Draft, sketch, and prove: Guiding formal theorem provers with informal proofs", es un ciclo auto-mejorable que integra el vasto conocimiento matemático informal. A través de la arquitectura ‘Borrador, Esquema y Prueba’ descrita en dicho artículo, la IA traduce pruebas humanas a un formato formal y riguroso. Este ciclo culmina en un sistema ‘conjeturador-demostrador’ que genera progresivamente nuevas conjeturas, las evalúa según su capacidad para ayudar a resolver problemas más difíciles y utiliza las mejores para mejorar continuamente, acercándose así a la resolución de teoremas que antes eran inaccesibles.

El objetivo final es integrar plenamente al ser humano en este ciclo de descubrimiento. Jamnik imagina un futuro donde los matemáticos interactúen con este sistema para proponer y evaluar conjeturas, guiando la dirección de la investigación. Su conclusión es que la IA no reemplazará a los matemáticos, sino que los potenciará, creando una sinergia entre la intuición humana y la capacidad de la máquina. El futuro de las matemáticas, según su visión, es una era de descubrimiento colaborativo entre humanos y máquinas.

AlphaProof - Aprendizaje por refuerzo aplicado a la demostración matemática

En su conferencia de ayer "AlphaProof: When RL meets formal maths", Thomas Hubert de Google DeepMind presentó AlphaProof, un sistema de inteligencia artificial que aplica los principios del aprendizaje por refuerzo (RL, del inglés "Reinforcement learning") al dominio de las matemáticas formales. El concepto fundamental radica en que los asistentes de demostración como Lean proporcionan el entorno perfecto para el RL: un espacio de experimentación masiva con retroalimentación inequívoca (una prueba matemática es correcta o incorrecta, sin ambigüedades). Siguiendo el paradigma exitoso de sistemas como AlphaGo Zero, AlphaProof está diseñado para generar conocimiento matemático de forma autónoma, trascendiendo la mera imitación de demostraciones humanas preexistentes.

La arquitectura de AlphaProof se estructura en un proceso de múltiples fases que combina diferentes técnicas de aprendizaje automático. Inicialmente, emplea modelos de lenguaje para autoformalizar problemas matemáticos expresados en lenguaje natural hacia el código formal de Lean, generando así un extenso conjunto de datos de entrenamiento. Su modelo demostrador experimenta dos etapas: primero, un entrenamiento supervisado utilizando la biblioteca mathlib, seguido de un refinamiento intensivo mediante RL que resuelve millones de problemas matemáticos. Para desafíos particularmente complejos —como los de la Olimpiada Internacional de Matemáticas (IMO)—, el sistema implementa una estrategia de adaptación en tiempo real, generando y resolviendo múltiples variantes de un problema para desarrollar gradualmente la intuición necesaria.

Los resultados validan el potencial transformador de AlphaProof como herramienta matemática colaborativa. El sistema alcanzó una puntuación equivalente a una medalla de plata en la IMO y, durante una demostración en vivo durante la conferencia, asistió exitosamente a un matemático a completar los pasos de una prueba compleja relacionada con la función zeta de Riemann. Hubert enfatiza que el objetivo trasciende las competiciones académicas: la meta fundamental es contribuir significativamente a la investigación matemática contemporánea, convirtiendo AlphaProof en una útil para la comunidad matemática que facilite el descubrimiento y verificación de nuevas verdades matemáticas.

Readings shared June 9, 2025

The readings shared in Bluesky on 9 June 2025 are

Evaluando la IA con problemas matemáticos inéditos de nivel experto

El artículo Inside the secret meeting where mathematicians struggled to outsmart AI documenta una reunión extraordinaria celebrada en Berkeley a mediados de mayo de 2025, donde treinta de los matemáticos más prestigiosos del mundo se enfrentaron en un duelo intelectual contra o4-mini, el avanzado modelo de razonamiento de OpenAI, en un desafío organizado por Epoch AI bajo el nombre FrontierMath. La misión parecía clara: crear problemas de investigación de nivel de doctorado que los humanos pudieran resolver pero que resultaran infranqueables para la inteligencia artificial. Sin embargo, los participantes experimentaron una sorpresa mayúscula al descubrir que el sistema resolvía algunos de los problemas más complejos que le presentaron, exhibiendo una capacidad de razonamiento que trascendió todas sus expectativas.

La extraordinaria destreza del sistema quedó vívidamente ilustrada en la experiencia del matemático Ken Ono, quien presenció cómo o4-mini resolvía un problema abierto de nivel de doctorado en apenas diez minutos: primero exploró sistemáticamente la literatura especializada, después resolvió una versión simplificada como ejercicio de "aprendizaje", y finalmente presentó una solución rigurosa al desafío principal. Este enfoque metodológico, que Ono caracterizó como propio del razonamiento científico auténtico, no fue un caso aislado, ya que el grupo logró formular únicamente diez problemas que resistieron los embates de la IA, subrayando la eficacia abrumadora del sistema.

El encuentro concluyó con una profunda reflexión sobre las transformaciones que se avecinan en el campo matemático. Entre las preocupaciones emergentes destacó el fenómeno de la "prueba por intimidación": la tendencia a aceptar los resultados de la IA sin el escrutinio riguroso tradicional. La conclusión consensuada apunta hacia una metamorfosis radical en el rol del matemático profesional, que evolucionará desde el tradicional "solucionador de problemas" hacia una nueva función como "formulador de preguntas estratégicas" que colabora y orienta el potencial de la inteligencia artificial. Como advirtió Ono, subestimar estas herramientas constituye un grave error, dado que ya están superando el rendimiento de los estudiantes de posgrado más talentosos del mundo.

Readings shared June 8, 2025

The readings shared in Bluesky on 8 June 2025 are

AutoGPS - Un sistema neuro-simbólico para la geometría

El artículo AutoGPS: Automated Geometry Problem Solving via Multimodal Formalization and Deductive Reasoning presenta AutoGPS, un sistema paradigmático para la geometría. Este trabajo aborda la dicotomía fundamental entre los modelos neuronales, que destacan en la interpretación multimodal pero carecen de fiabilidad lógica, y los métodos simbólicos, que garantizan el rigor pero son ineficaces para formalizar problemas a partir de entradas complejas. AutoGPS resuelve este dilema mediante un marco neuro-simbólico: un formalizador de problemas multimodales (MPF) traduce la entrada visual y textual a un lenguaje lógico, sobre el cual opera un razonador simbólico deductivo (DSR) para derivar la solución.

La innovación crucial reside en la interacción bidireccional entre ambos componentes. El DSR no se limita a resolver el problema formalizado, sino que actúa como un verificador, validando la interpretación del MPF y pudiendo solicitarle correcciones. Este bucle de retroalimentación garantiza la consistencia lógica de todo el proceso, fusionando la capacidad heurística del modelo neuronal con el rigor inflexible del razonamiento deductivo.

Como resultado, AutoGPS establece un nuevo estado del arte en los benchmarks de referencia, produciendo derivaciones que no solo son correctas, sino también concisas y legibles para un humano. De este modo, redefine el estándar de fiabilidad e interpretabilidad en la resolución automática de problemas matemáticos. La página del proyecto ofrece ejemplos ilustrativos de su funcionamiento.

Más allá de la "ilusión de pensar"

Un reciente artículo de investigadores de Apple, titulado "The illusion of thinking: A survey of the state of the art in Large Language Models", postula que las impresionantes capacidades de los Grandes Modelos de Lenguaje (LLMs) no derivan de una comprensión o razonamiento genuino, sino de una sofisticada imitación de patrones estadísticos extraídos de vastos corpus de datos. Esta "ilusión de pensar" se vuelve particularmente manifiesta en dominios que exigen una lógica estricta y verificable, como las matemáticas formales. En este campo, la propensión de los LLMs a la "alucinación" y su inherente falta de un modelo causal del mundo limitan fundamentalmente su fiabilidad, incapacitándolos para producir razonamientos complejos de manera autónoma y garantizada.

Para abordar esta limitación estructural, la investigación contemporánea ha centrado sus esfuerzos en el desarrollo de arquitecturas híbridas neuro-simbólicas. Dichos sistemas implementan una división funcional del trabajo computacional: el componente neuronal (el LLM) opera como interfaz de alto nivel, encargado de procesar entradas en lenguaje natural y generar estrategias heurísticas preliminares. Estas propuestas son luego transferidas a un módulo simbólico —ya sea un sistema de cálculo algebraico exacto o un demostrador de teoremas— que actúa como verificador formal. Este último componente, regido por reglas lógicas inflexibles, examina cada inferencia producida por el LLM, proporcionando retroalimentación inmediata y garantizando la corrección deductiva del proceso.

La eficacia de este paradigma ha sido demostrada empíricamente por sistemas de última generación diseñados para resolver problemas de la Olimpiada Internacional de Matemáticas (IMO). Tal como se documenta en el estudio AI achieves silver-medal standard solving International Mathematical Olympiad problems, estas plataformas combinan un LLM encargado de la generación inicial de hipótesis con herramientas especializadas como AlphaProof, un sistema optimizado para demostrar enunciados matemáticos en el lenguaje formal de Lean. Cabe destacar que Lean, lejos de ser una mera herramienta auxiliar, constituye un componente estructural en estos sistemas: su integración permite traducir la capacidad heurística de los LLMs a un marco verificable formalmente. Esta sinergia entre la creatividad inductiva de los modelos neuronales y el rigor de los sistemas simbólicos representa el estado del arte en la construcción de inteligencias artificiales capaces de razonamiento matemático formalmente validable.

La disputa sobre la conjetura abc y el papel de la verificación formal

Leibniz soñaba con un sistema de razonamiento formal, su "Calculemus", que permitiría resolver disputas simplemente diciendo "calculemos". Hoy, esta idea cobra especial relevancia en el centro de una de las controversias más extrañas de las matemáticas modernas, la detallada en el artículo de New Scientist "The bizarre story of a maths-proof that is only true in Japan". El artículo describe cómo la prueba de la conjetura abc del matemático Shinichi Mochizuki, basada en su compleja teoría de Teichmüller Interuniversal (IUT), ha dividido a la comunidad. A pesar de haber sido publicada formalmente en Japón, la mayoría de los matemáticos internacionales la rechazan, siguiendo la crítica de expertos como Peter Scholze que señalan un supuesto "error fatal", creando una división geográfica sin precedentes sobre la validez de un resultado matemático.

La razón de este intenso escrutinio reside en el inmenso poder de la propia conjetura abc. Esta establece una conexión profunda entre la suma y la multiplicación de números enteros, postulando que para tres números coprimos a + b = c, el valor de c es casi siempre más pequeño que el "radical" del producto a*b*c (el producto de sus factores primos únicos). Si se demostrara, la conjetura actuaría como una "piedra Rosetta" para la teoría de números, resolviendo de un plumazo una multitud de otros problemas famosos, como el último teorema de Fermat, lo que justifica la frustración y el interés global por resolver esta disputa de una vez por todas.

Para resolver el impasse y cumplir el sueño de Leibniz, la solución definitiva sería utilizar un asistente de pruebas formal como Lean, un software que puede verificar la lógica de una demostración con certeza absoluta, eliminando la ambigüedad humana. Sin embargo, formalizar la novedosa y compleja IUT de Mochizuki es una tarea monumental, considerada casi imposible hoy en día. A pesar de ello, la comunidad de Lean está dando pasos cruciales. Proyectos como Exceptional set in the abc conjecture de Jared Duker Lichtman y Bhavik Mehta no verifican la prueba directamente, pero sí formalizan el enunciado del problema y desarrollan las herramientas y la experiencia necesarias. Estos esfuerzos sientan las bases para que, quizás algún día, esta extraordinaria disputa matemática pueda finalmente ser resuelta mediante el cálculo.

IA y matemáticas (presente y futuro)

El artículo What's next for AI and math, publicado ayer, examina la transformación que la inteligencia artificial está generando en el ámbito matemático. La iniciativa expMath (Exponentiating Mathematics) de DARPA busca revolucionar el progreso matemático mediante una IA coautora capaz de abordar problemas de alta complejidad. Aunque los modelos de lenguaje grandes (LLMs) han demostrado un rendimiento excepcional en problemas de nivel escolar y universitario —superando frecuentemente a los humanos en exámenes como la AIME (American Invitational Mathematics Examination)— estos sistemas operan principalmente siguiendo patrones previamente establecidos. No obstante, cuando se enfrentan a desafíos de investigación abiertos y sin precedentes, como los planteados en el nuevo test FrontierMath, las limitaciones actuales de la IA se manifiestan claramente, revelando una brecha considerable entre las capacidades actuales y la resolución de problemas del calibre de la Hipótesis de Riemann.

Pese a estas limitaciones, la IA está realizando contribuciones significativas al asistir a los matemáticos en la exploración de nuevos enfoques y la identificación de rutas prometedoras. Herramientas como AlphaEvolve y PatternBoost han sido específicamente diseñadas para generar hipótesis, evaluar soluciones potenciales y descartar aproximaciones infructuosas, optimizando así el tiempo de investigación. Paralelamente, se están desarrollando metodologías para simplificar las complejas secuencias de pasos requeridas para resolver problemas de extrema dificultad, como se evidenció en el reciente avance relacionado con la conjetura de Andrews-Curtis.

Sin embargo, la intuición profunda y la creatividad conceptual que caracterizan a los grandes descubrimientos matemáticos permanecen como dominios esencialmente humanos. En este contexto, la IA funciona como una herramienta potente que complementa y amplifica la investigación matemática, pero la chispa de genialidad —esa capacidad de "pensar fuera de los marcos establecidos"— continúa siendo patrimonio exclusivo de la mente humana.

Readings shared June 5, 2025

The readings shared in Bluesky on 5 June 2025 are

Debate sobre IA y enseñanza de las matemáticas

Una noticia publicada por Cadena SER presenta una predicción sobre el futuro de la enseñanza de las matemáticas, planteando que su práctica tradicional podría transformarse radicalmente debido al avance de la inteligencia artificial (IA). La tecnología tendría la capacidad de realizar gran parte de las tareas matemáticas que actualmente resuelven los estudiantes.

Esta perspectiva se enmarca dentro de un debate más amplio sobre la evolución del sistema educativo, tal como se analiza en el Informe GoStudent sobre el Futuro de la Educación 2025. El documento subraya la necesidad urgente de modernizar los métodos pedagógicos, ya que los enfoques tradicionales no se alinean adecuadamente con las exigencias del entorno tecnológico y socioeconómico actual.

El informe recomienda integrar competencias emergentes en el currículo educativo, como inteligencia artificial, ciberseguridad y pensamiento crítico. Aunque se reconoce el potencial transformador de la IA en educación, su implementación avanza de forma lenta y desigual, particularmente en la capacitación docente.

Respecto a la enseñanza de las matemáticas, este escenario sugiere una reorientación metodológica fundamental: abandonar el enfoque centrado en el cálculo mecánico para privilegiar la comprensión conceptual profunda, complementada con el uso estratégico de herramientas tecnológicas e inteligencia artificial como apoyo al razonamiento matemático.

Readings shared June 3, 2025

The readings shared in Bluesky on 3 June 2025 are

Readings shared May 31, 2025

The readings shared in Bluesky on 31 May 2025 are

Readings shared May 30, 2025

The readings shared in Bluesky on 30 May 2025 are

Readings shared May 29, 2025

The readings shared in Bluesky on 29 May 2025 are

Readings shared May 28, 2025

The readings shared in Bluesky on 28 May 2025 are

Readings shared May 27, 2025

The readings shared in Bluesky on 27 May 2025 are

Readings shared May 24, 2025

The readings shared in Bluesky on 24 May 2025 are

Readings shared May 23, 2025

The readings shared in Bluesky on 23 May 2025 are

Readings shared May 22, 2025

The readings shared in Bluesky on 22 May 2025 are

Readings shared May 21, 2025

The readings shared in Bluesky on 21 May 2025 are

Readings shared May 20, 2025

The readings shared in Bluesky on 20 May 2025 are

Readings shared May 19, 2025

The readings shared in Bluesky on 19 May 2025 are

Readings shared May 18, 2025

The readings shared in Bluesky on 18 May 2025 are

Readings shared May 17, 2025

The readings shared in Bluesky on 17 May 2025 are

Readings shared May 16, 2025

The readings shared in Bluesky on 16 May 2025 are

Readings shared May 14, 2025

The readings shared in Bluesky on 14 May 2025 are

Readings shared May 13, 2025

The readings shared in Bluesky on 13 May 2025 are

Readings shared May 10, 2025

The readings shared in Bluesky on 10 May 2025 are

Readings shared May 9, 2025

The readings shared in Bluesky on 9 May 2025 are

Readings shared May 8, 2025

The readings shared in Bluesky on 8 May 2025 are

Readings shared May 5, 2025

The readings shared in Bluesky on 5 May 2025 are

Readings shared May 4, 2025

The readings shared in Bluesky on 4 May 2025 are

Readings shared May 2, 2025

The readings shared in Bluesky on 2 May 2025 are

Readings shared May 1, 2025

The readings shared in Bluesky on 1 May 2025 are

Readings shared April 28, 2025

The readings shared in Bluesky on 28 April 2025 are

Readings shared April 27, 2025

The readings shared in Bluesky on 27 April 2025 are

Readings shared April 25, 2025

The readings shared in Bluesky on 25 April 2025 are

Readings shared April 22, 2025

The readings shared in Bluesky on 22 April 2025 are

Readings shared April 21, 2025

The readings shared in Bluesky on 21 April 2025 are

Readings shared April 20, 2025

The readings shared in Bluesky on 20 April 2025 are

Readings shared April 19, 2025

The readings shared in Bluesky on 19 April 2025 are

Readings shared April 17, 2025

The readings shared in Bluesky on 17 April 2025 are

Readings shared April 15, 2025

The readings shared in Bluesky on 15 April 2025 are

Readings shared April 13, 2025

The readings shared in Bluesky on 13 April 2025 are

Readings shared April 11, 2025

The readings shared in Bluesky on 11 April 2025 are

Readings shared April 10, 2025

The readings shared in Bluesky on 10 April 2025 are

Readings shared April 8, 2025

The readings shared in Bluesky on 8 April 2025 are

Readings shared April 7, 2025

Readings shared April 6, 2025

The readings shared in Bluesky on 6 April 2025 are

Readings shared April 4, 2025

The readings shared in Bluesky on 4 April 2025 are

Readings shared April 3, 2025

The readings shared in Bluesky on 3 April 2025 are

Readings shared April 2, 2025

The readings shared in Bluesky on 2 April 2025 are

Readings shared April 1, 2025

The readings shared in Bluesky on 1 April 2025 are

Readings shared March 31, 2025

The readings shared in Bluesky on 31 March 2025 are

Readings shared March 30, 2025

The readings shared in Bluesky on 30 March 2025 are

Readings shared March 29, 2025

The readings shared in Bluesky on 29 March 2025 are

Readings shared March 28, 2025

The readings shared in Bluesky on 28 March 2025 are

Readings shared March 27, 2025

The readings shared in Bluesky on 27 March 2025 are

Readings shared March 26, 2025

The readings shared in Bluesky on 26 March 2025 are

Readings shared March 25, 2025

The readings shared in Bluesky on 25 March 2025 are

Readings shared March 24, 2025

The readings shared in Bluesky on 24 March 2025 are

Readings shared March 23, 2025

The readings shared in Bluesky on 23 March 2025 are

Readings shared March 22, 2025

The readings shared in Bluesky on 22 March 2025 are

Readings shared March 21, 2025

The readings shared in Bluesky on 21 March 2025 are

Readings shared March 19, 2025

The readings shared in Bluesky on 19 March 2025 are

Readings shared March 18, 2025

The readings shared in Bluesky on 18 March 2025 are

Readings shared March 15, 2025

The readings shared in Bluesky on 15 March 2025 are

Readings shared March 14, 2025

The readings shared in Bluesky on 14 March 2025 are

Readings shared March 13, 2025

The readings shared in Bluesky on 13 March 2025 are

Readings shared March 12, 2025

The readings shared in Bluesky on 12 March 2025 are

Readings shared March 11, 2025

The readings shared in Bluesky on 11 March 2025 are

Readings shared March 10, 2025

The readings shared in Bluesky on 10 March 2025 are

Readings shared March 7, 2025

The readings shared in Bluesky on 7 March 2025 are

Readings shared March 6, 2025

The readings shared in Bluesky on 6 March 2025 are