Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
inversor, escritor, educador y fan 🐉 de Dragon Ball
🚨 ÚLTIMA HORA: Anthropic acaba de usar a Claude para encontrar 22 agujeros de seguridad en Firefox.
No es teoría. No es una demostración. Vulnerabilidades reales. 14 de ellas clasificadas como de alta gravedad.
Eso es casi una quinta parte de todos los errores de alta gravedad de Firefox corregidos en todo 2025.
En dos semanas.
Aquí es donde se pone salvaje.
El primer error le tomó a Claude 20 minutos encontrarlo. Una vulnerabilidad de Uso Después de Liberar en el motor JavaScript de Firefox, del tipo que permite a los atacantes sobrescribir la memoria con código malicioso.
Mientras los investigadores aún estaban validando ese primer error, Claude ya había encontrado 50 más.
Al final, había escaneado casi 6,000 archivos C++ y presentado 112 informes. Mozilla envió las correcciones a cientos de millones de usuarios de Firefox.
Luego probaron algo más aterrador.
¿Podría Claude realmente explotar los errores que encontró? ¿No solo encontrar la grieta en la pared, sino derribar la puerta?
Realizaron la prueba cientos de veces.
Gastaron $4,000 en créditos de API.
Claude tuvo éxito en dos casos. Construyó un exploit de navegador funcional desde cero.
La brecha entre "encuentra errores" y "los arma" aún existe. Por ahora.
Aquí está la línea del documento que debería mantener despierto a cada ingeniero de seguridad por la noche:
"Es poco probable que la brecha entre las capacidades de descubrimiento de vulnerabilidades de los modelos de frontera y las de explotación dure mucho tiempo."
Lo que significa… la IA es actualmente mejor ayudando a los defensores que a los atacantes. Esa ventana se está cerrando.
La última vez que la seguridad cambió tan rápido, tomó una década para que la industria se pusiera al día. Esta vez tenemos meses, tal vez menos.
La carrera entre atacantes impulsados por IA y defensores impulsados por IA acaba de convertirse en la carrera armamentista más importante en internet.
Y la mayoría de la gente no tiene idea de que ya está sucediendo.

63
🚨 ÚLTIMA HORA: Alguien acaba de construir una enorme biblioteca de habilidades de OpenClaw y la ha puesto en GitHub de forma gratuita.
Se llama Awesome OpenClaw Skills.
Una colección curada de capacidades listas para usar que puedes integrar directamente en los agentes de OpenClaw.
¿Qué hay dentro?
→ Habilidades para automatización, investigación, codificación y flujos de trabajo
→ Herramientas listas para extender OpenClaw al instante
→ Habilidades contribuidas por la comunidad que puedes reutilizar y modificar
→ Ejemplos que muestran cómo construir tus propias habilidades
→ Un centro central para descubrir nuevas capacidades de OpenClaw
En lugar de construir cada herramienta desde cero…
Puedes simplemente elegir una habilidad y agregarla a tu agente.
(Enlace en los comentarios)

92
🚨 Investigadores de Stanford acaban de exponer un extraño efecto secundario de la IA del que casi nadie está hablando.
El artículo se llama “Artificial Hivemind.” Y el hallazgo principal es inquietante.
A medida que los modelos de lenguaje mejoran, también comienzan a sonar cada vez más igual.
No solo dentro de un solo modelo. A través de diferentes modelos.
Los investigadores construyeron un conjunto de datos llamado INFINITY-CHAT con 26,000 preguntas abiertas reales, cosas como escritura creativa, lluvia de ideas, opiniones y consejos. Preguntas donde no hay una única respuesta correcta.
En teoría, estos prompts deberían producir una gran diversidad.
Pero ocurrió lo contrario.
Aparecieron dos patrones:
1) Repetición intra-modelo
El mismo modelo sigue produciendo respuestas muy similares en diferentes ejecuciones.
2) Homogeneidad inter-modelo
Modelos completamente diferentes generan respuestas sorprendentemente similares.
En otras palabras:
En lugar de miles de perspectivas únicas…
Estamos obteniendo las mismas pocas ideas recicladas una y otra vez.
Los autores llaman a esto el “Artificial Hivemind.”
Sucede porque la mayoría de los modelos de vanguardia están entrenados con datos similares, optimizados con modelos de recompensa similares y alineados utilizando retroalimentación humana similar.
Así que incluso cuando preguntas algo abierto como:
• “Escribe un poema sobre el tiempo”
• “Sugiere ideas creativas para startups”
• “Da consejos sobre la vida”
Muchos modelos convergen hacia la misma redacción, metáforas y patrones de razonamiento.
La implicación aterradora no se trata de la calidad de la IA.
Se trata de la cultura.
Si miles de millones de personas dependen de los mismos sistemas para ideas, escritura, lluvia de ideas y pensamiento…
La IA podría comprimir lentamente la diversidad del pensamiento humano.
No porque lo intente.
Sino porque los modelos en sí mismos están derivando hacia las mismas respuestas.
Ese es el verdadero riesgo que destaca el artículo.
No que la IA se vuelva más inteligente que los humanos.
Sino que todos comiencen a pensar como la misma máquina.

60
Parte superior
Clasificación
Favoritos
