Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paata Ivanisvili
Profesor de Matemáticas @ UCI. Explorando lo que la IA puede (y no puede) hacer en matemáticas.
Grok 4.20 (Beta) mejora el límite inferior en un 9.1% sobre el perímetro gaussiano de conjuntos convexos en dos minutos.
Esto es algo que me señaló Xinyuan Xie. En 1993, Keith Ball demostró que el perímetro gaussiano de un cuerpo convexo en el espacio euclidiano n-dimensional está acotado por encima por 4n^{1/4}. En cuanto al límite inferior, Ball mostró que para un cubo (de tamaño apropiado) el perímetro puede crecer como \sqrt{\log(n)}. Así que hubo una brecha durante un tiempo sobre cuál límite es agudo, hasta 2003, cuando, en un hermoso artículo, Fedor Nazarov demostró que en el ejemplo de un poliedro aleatorio (la intersección de muchos semiespacios aleatorios) el límite inferior puede crecer como C n^{1/4}, con C=\exp(-5/4)=0.286…. Además, Nazarov también mejoró la constante 4 en el límite superior (reemplazándola por 0.64) cuando n es grande. Estos límites se mantuvieron invictos hasta hace poco, cuando en 2019 Martin Raic logró mejorar el factor constante del límite superior de 0.64 a 0.59.
Grok 4.20 (Beta), al optimizar más cuidadosamente la construcción de Nazarov, logró mejorar la constante del límite inferior de 0.286 a 0.3126. Encuentro esto sorprendente, incluso si solo se juega dentro de las técnicas del artículo de Nazarov, porque muy recientemente Nadimpalli--Pascale (2025) publicó un preprint donde, con un enfoque diferente, recuperaron el límite inferior de Nazarov con el mismo factor constante 0.286….
Grok fue muy generoso en su respuesta: dijo que la mejora que proporcionó sigue el mismo argumento de Nazarov "línea por línea", mientras que cuando pregunté a otros modelos (que no sean Grok) para verificar la afirmación de Grok, estuvieron de acuerdo en todo excepto en esta parte; dijeron que la mejora no es realmente "línea por línea" :D.
Finalmente, no diría que Nazarov se perdió esta mejora. Conociéndolo desde hace mucho tiempo, estoy bastante seguro de que es común para él sacrificar constantes óptimas por elegancia algebraica.
¿Por qué es todo esto interesante? Tener control sobre el perímetro gaussiano permite controlar las colas de Fourier de las funciones características de estos conjuntos, lo que lleva a controlar la complejidad temporal de los algoritmos de aprendizaje PAC y de aprendizaje agnóstico para esta familia (ver Klivans--O’Donnell--Servedio).
Referencias:
Enlace de chat con Grok 4.20 (Beta).
Keith Ball. El problema isoperimétrico inverso para la medida gaussiana. Geometría Discreta y Computacional, 10:411–420, 1993.
Adam Klivans, Ryan O’Donnell y Rocco A Servedio. Aprendiendo conceptos geométricos a través del área de superficie gaussiana. En Proc. 49ª Simposio IEEE sobre Fundamentos de la Ciencia de la Computación (FOCS), páginas 541–550, 2008.
Shivam Nadimpalli, Caleb Pascale. Sobre el perímetro gaussiano máximo de conjuntos convexos, revisitado. Preprint (2025)
Fedor Nazarov. Sobre el perímetro máximo de un conjunto convexo en R^n con respecto a una medida gaussiana. En Aspectos Geométricos de Análisis Funcional (2001-2002) páginas 169–187. Notas de Clase en Matemáticas, Volumen 1807, Springer, 2003
Martin Raicz. Un teorema de Berry–Esseen multivariado con constantes explícitas. Bernoulli 25(4A), 2019, 2824–2853

559
Descargo de responsabilidad: había dado acceso anticipado a la versión beta interna de Grok 4.20
Encontró una nueva función de Bellman para uno de los problemas en los que había estado trabajando con mi estudiante N. Alpay.
El problema se reduce a identificar la función máxima puntual U(p,q) bajo dos restricciones y entender el comportamiento de U(p,0).
En nuestro artículo probamos que U(p,0)\geq I(p), donde I(p) es el perfil isoperimétrico gaussiano, I(p) ~ p\sqrt{log(1/p)} cuando p ~ 0.
Después de ~5 minutos, Grok 4.20 produjo una fórmula explícita U(p,q) = E \sqrt{q^2+\tau}, donde \tau es el tiempo de salida del movimiento browniano desde (0,1) comenzando en p. Esto da como resultado U(p,0)=E\sqrt{\tau} ~ p log(1/p) cuando p ~ 0, una mejora de raíz cuadrada en el factor logarítmico.
¿Alguna importancia de este resultado? No te dirá cómo cambiar el mundo mañana. Más bien, da un pequeño paso hacia la comprensión de lo que está sucediendo con los promedios de análogos estocásticos de derivadas (variación cuadrática) de funciones booleanas: ¿cuán pequeños pueden ser?
Más precisamente, esto proporciona un límite inferior agudo en la norma L1 de la función cuadrática dyádica aplicada a funciones indicadoras 1_A de conjuntos A \subset [0,1].
En mi tweet anterior sobre la función de Takagi, vimos que el límite inferior agudo en ||S_1(1_A)||_1 coincide milagrosamente con la función de Takagi de |A| que (sorprendentemente para mí) está relacionada con la hipótesis de Riemann. Aquí, obtenemos un límite inferior agudo en ||S_2(1_A)||_1 dado por E \sqrt{\tau}, donde el movimiento browniano comienza en |A|. Esta función pertenece a la familia de perfiles de tipo isoperimétrico, pero a diferencia de la función fractal de Takagi, es suave y no coincide con el perfil isoperimétrico gaussiano.
Finalmente, en análisis armónico se sabe que la función cuadrática no está acotada en L^1. La pregunta aquí era más sobre curiosidad: ¿cómo exactamente explota cuando se prueba en funciones booleanas 1_A? Anteriormente, el mejor límite inferior conocido era |A|(1-|A|) (Burkholder—Davis—Gandy). En nuestro artículo, obtuvimos |A| (1-|A|)\sqrt{log(1/(|A|(1-|A|)))}. Esta nueva función de Bellman de Grok da |A| (1-|A|) \log(1/(|A|(1-|A|))) y este límite es en realidad agudo.

808
Parte superior
Clasificación
Favoritos
