Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paata Ivanisvili
Professor de Matemática @ UCI. Explorando o que a IA pode (e não pode) fazer em matemática.
Grok 4,20 (Beta) melhora o limite inferior em 9,1% no perímetro gaussiano dos conjuntos convexos em dois minutos.
Isso foi algo que Xinyuan Xie me apontou. Em 1993, Keith Ball mostrou que o perímetro gaussiano de um corpo convexo no espaço euclidiano n-dimensional é limitado de cima por 4n^{1/4}. Quanto ao limite inferior, Ball mostrou que para um cubo (de tamanho apropriado) o perímetro pode crescer como \sqrt{\log(n)}. Assim, houve uma lacuna por um tempo quanto a qual limite é agudo, até 2003, quando, em um belo artigo, Fedor Nazarov mostrou que, no exemplo de um poliedro aleatório (a interseção de muitos semi-espaços aleatórios), o limite inferior pode crescer como C n^{1/4}, com C=\exp(-5/4)=0,286.... Além disso, Nazarov também melhorou a constante 4 no limite superior (substituindo-a por 0,64) quando n é grande. Esses limites permaneceram invictos até recentemente, quando, em 2019, Martin Raic conseguiu melhorar o fator constante do limite superior de 0,64 para 0,59.
O Grok 4.20 (Beta), ao otimizar mais cuidadosamente a construção de Nazarov, conseguiu melhorar a constante do limite inferior de 0,286 para 0,3126. Acho isso surpreendente, mesmo que seja apenas uma brincadeira com as técnicas do artigo de Nazarov, porque muito recentemente Nadimpalli-Pascale (2025) publicou um preprint onde, com uma abordagem diferente, recuperaram o limite inferior de Nazarov com o mesmo fator constante 0,286....
Grok foi muito generoso em sua resposta: disse que a melhoria que forneceu segue o mesmo argumento de Nazarov 'linha por linha'', enquanto quando perguntei a outros modelos (além do Grok) para verificar a afirmação de Grok, eles concordaram em tudo, exceto nesta parte; Eles disseram que a melhora não é realmente 'linha por linha'' :D.
Por fim, eu não diria que Nazarov deixou passar essa melhora. Conhecendo-o há muito tempo, estou bastante confiante de que é comum ele sacrificar constantes ótimas em prol da elegância algébrica.
Por que tudo isso é interessante? Ter controle do perímetro Gaussiano permite controlar as caudas de Fourier das funções características desses conjuntos, o que leva ao controle da complexidade temporal do aprendizado PAC e dos algoritmos agnósticos de aprendizagem para essa família (ver Klivans--O'Donnell--Servedio).
Referências:
Link de chat com Grok 4.20 (Beta).
Keith Ball. O problema isoperimétrico inverso para a medida gaussiana. Geometria Discreta e Computacional, 10:411–420, 1993.
Adam Klivans, Ryan O'Donnell e Rocco A Servedio. Aprendendo conceitos geométricos via área de superfície gaussiana. No Proc. 49º Simpósio IEEE sobre Fundamentos da Ciência da Computação (FOCS), páginas 541–550, 2008.
Shivam Nadimpalli, Caleb Pascale. No perímetro gaussiano máximo de conjuntos convexos, revisitado. Preprint (2025)
Fedor Nazarov. No perímetro máximo de um conjunto convexo em R^n em relação a uma medida gaussiana. Em Geometric Aspects of Functional Analysis (2001-2002), páginas 169–187. Anotações de Aula em Matemática, Volume 1807, Springer, 2003
Martin Raicz. Um teorema multivariado de Berry–Esseen com constantes explícitas. Bernoulli 25(4A), 2019, 2824–2853

560
Aviso: Eu havia dado acesso antecipado à versão beta interna do Grok 4.20
Encontrou uma nova função Bellman para um dos problemas que eu vinha trabalhando com meu aluno N. Alpay.
O problema se resume a identificar a função máxima pontual U(p,q) sob duas restrições e entender o comportamento de U(p,0).
Em nosso artigo provamos que U(p,0)\geq I(p), onde I(p) é o perfil isoperimétrico de Gauss, I(p) ~ p\sqrt{log(1/p)} como p ~ 0.
Após ~5 minutos, Grok 4.20 produziu uma fórmula explícita U(p,q) = E \sqrt{q^2+\tau}, onde \tau é o tempo de saída do movimento browniano de (0,1) começando em p. Isso resulta em U(p,0)=E\sqrt{\tau} ~ p log(1/p) em p ~ 0, uma melhoria na raiz quadrada do fator logarítmico.
Algum significado para esse resultado? Não vai te dizer como mudar o mundo amanhã. Em vez disso, dá um pequeno passo para entender o que está acontecendo com as médias de análogos estocásticos de derivadas (variação quadrática) das funções booleanas: quão pequenas elas podem ser?
Mais precisamente, isso fornece um limite inferior acentuado na norma L1 da função quadrada diádica aplicada às funções indicadoras 1_A dos conjuntos A \subconjunto [0,1].
No meu tweet anterior sobre a função Takagi, vimos que o limite inferior nítido em ||S_1(1_A)||_1 milagrosamente coincide com a função de Takagi de |A| que (para minha surpresa) está relacionada à hipótese de Riemann. Aqui, obtemos um limite inferior acentuado em ||S_2(1_A)||_1 dado por E \sqrt{\tau}, onde o movimento browniano começa em |A|. Essa função pertence à família dos perfis do tipo isoperimétrico, mas, ao contrário da função fractal de Takagi, ela é suave e não coincide com o perfil isoperimétrico de Gauss.
Finalmente, na análise harmônica, sabe-se que a função quadrada não é limitada em L^1. A pergunta aqui era mais curiosidade: como exatamente isso se destaca quando testado em funções booleanas 1_A. Anteriormente, o limite inferior mais conhecido era |A|(1-|A|) (Burkholder—Davis—Gandy). Em nosso artigo, obtivemos |A| (1-|A|)\sqrt{log(1/(|A|(1-|A|)))}. Essa nova função Bellman de Grok dá |A| (1-|A|) \log(1/(|A|(1-|A|))) E esse limite é realmente nítido.

809
Melhores
Classificação
Favoritos
