Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Jessy Lin
Doctora @Berkeley_AI, investigadora visitante @AIatMeta. Agentes 🤖 💬 lingüísticos interactivos
Realmente me gusta esta idea de tener agentes que controlen una computadora con tu contexto y datos, ya que todos estamos tratando de averiguar la forma adecuada para los agentes de uso en computadoras/navegadores.
La respuesta de zo es ~el equivalente a "computadoras personales" para la era de la IA, y es tan genial pensar en cómo permite a la persona promedio scriptar y automatizar cosas en sus vidas que de otro modo serían inaccesibles.
¡Felicidades @0thernet @perceptnet !! 💻

ben guo 🪽19 nov 2025
hoy anunciamos @zocomputer.
cuando se nos ocurrió la idea – dar a todos un servidor personal, impulsado por IA – sonaba loco.
pero ahora, incluso mi mamá tiene su propio servidor.
y está mejorando su vida.
ella piensa en Zo como su asistente personal. le envía mensajes para gestionar su apretada agenda, utilizando todo el contexto de sus notas y archivos. ya no me necesita para soporte técnico.
también usa a Zo como su espacio de trabajo inteligente – le pide que organice sus archivos, edite documentos y realice investigaciones profundas.
con la ayuda de Zo, puede ejecutar código de sus estudiantes de posgrado y explorar los datos por sí misma. (mi mamá es bióloga y dirige un laboratorio de investigación. hola mamá)
Zo le ha dado a mi mamá una verdadera sensación de autonomía – puede hacer mucho más con su computadora.
queremos que todos tengan esa misma sensación. queremos que la gente se enamore de crear cosas para sí mismos.
en el futuro que estamos construyendo, seremos dueños de nuestros datos, crearemos nuestras propias herramientas y generaremos APIs personales. poseer una computadora en la nube inteligente será como poseer un smartphone. y la internet se sentirá mucho más viva.
ESTO ES PARA TI MAMÁ ❤️
un agradecimiento especial a @modal, @pydantic AI y @steeldotdev por ser grandes socios en este lanzamiento. y gracias a @cursor_ai por ser mi espada 🗡️
y gracias a todos los que creyeron en nosotros. un pequeño grupo: @southpkcommons, @adityaag, @chrisbest, @rauchg, @immad, @shreyas, @MattHartman, @lessin, @gokulr, @sabrinahahn, @iqramband, @whoisnnamdi, @guruchahal, @mikemarg_, @gaybrick, @SJCizmar, @magdovitz, @anneleeskates, @henloitsjoyce, @sugarjammi, @thevibethinker, @aaronmakhoffman, @Sunfield__
1,21K
Como parte de nuestro trabajo reciente sobre arquitecturas de capas de memoria, escribí algunas de mis reflexiones sobre el problema del aprendizaje continuo en términos generales:
Publicación del blog:
Parte de la exposición va más allá de las capas de memoria, así que pensé que sería útil resaltar esto por separado:

2,68K
🧠 ¿Cómo podemos dotar a los LLMs de memoria que les permita aprender continuamente cosas nuevas?
En nuestro nuevo artículo con @AIatMeta, mostramos cómo el ajuste fino esporádico de las capas de memoria permite actualizaciones específicas para el aprendizaje continuo, con una interferencia mínima con el conocimiento existente.
Mientras que el ajuste fino completo y LoRA ven caídas drásticas en el rendimiento de tareas retenidas (📉-89% FT, -71% LoRA en tareas de aprendizaje de hechos), las capas de memoria aprenden la misma cantidad con mucho menos olvido (-11%).
🧵:

602
Parte superior
Clasificación
Favoritos
