Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Saoud Rizwan
Hace unos días, un tuit de nuestro Jefe de AI ofendió a muchas personas. Aunque no creo que su tuit original tuviera la intención de ser ofensivo, su respuesta negándose a disculparse no refleja mi posición ni la de Cline. Reconocemos que esto causó un dolor real, y eso merece reconocimiento y empatía.
Él ya no está con Cline. Aunque no estuve de acuerdo con cómo respondió, nadie merece las amenazas y abusos que ha recibido. Por favor, déjenlo a él y a su familia en paz.
A todos los que se sintieron heridos por esto - lo siento.
4,85K
Cline v3.39 ahora puede generar comentarios de vista de diferencias para explicar los cambios que realiza 🚀 También puedes pedir ayuda para revisar solicitudes de extracción, commits recientes y más. Es fácil escribir código; revisar y aprobar es el nuevo cuello de botella, y estamos emocionados de que pruebes esta nueva función.
12,07K
Los agentes de codificación luchan con trabajos complejos en repositorios grandes y desordenados, y esto no mejorará hasta que dejemos de usar benchmarks saturados con pruebas que no se parecen en nada a la ingeniería real.
¡Por eso estamos comprometidos a invertir $1M en cline-bench, nuestro benchmark abierto para tareas de codificación del mundo real!

pash21 nov 2025
Anunciamos cline-bench, un benchmark de código abierto del mundo real para la codificación agentic.
cline-bench se construye a partir de tareas de ingeniería del mundo real de desarrolladores participantes donde los modelos de frontera fallaron y los humanos tuvieron que intervenir.
Cada tarea aceptada se convierte en un entorno de RL completamente reproducible con un snapshot del repositorio inicial, un prompt real y pruebas de verdad fundamental del código que finalmente se envió.
Para laboratorios e investigadores, esto significa:
> puedes evaluar modelos en trabajos de ingeniería genuinos, no en acertijos de leetcode.
> obtienes entornos compatibles con Harbor y herramientas de evaluación modernas para comparación lado a lado.
> puedes usar las mismas tareas para SFT y RL, por lo que el entrenamiento y la evaluación permanecen anclados en flujos de trabajo de ingeniería reales.
Hoy estamos abriendo contribuciones y comenzando a recopilar tareas a través del Proveedor Cline. La participación es opcional y limitada a repositorios de código abierto.
Cuando una tarea difícil desconcierta a un modelo y tú intervienes, ese fallo puede convertirse en un entorno estandarizado que toda la comunidad puede estudiar, evaluar y entrenar.
Si trabajas en problemas difíciles de código abierto, especialmente OSS comercial, me gustaría invitarte personalmente a ayudar. Estamos comprometidos a patrocinar con $1M a mantenedores de código abierto para que participen en la iniciativa cline-bench.
"Cline-bench es un gran ejemplo de cómo los benchmarks abiertos y del mundo real pueden avanzar todo el ecosistema. Tareas de codificación de alta calidad y verificadas, basadas en flujos de trabajo de desarrolladores reales, son exactamente lo que necesitamos para medir de manera significativa los modelos de frontera, descubrir modos de fallo y avanzar en el estado del arte."
– @shyamalanadkat, Jefe de Evaluaciones Aplicadas @OpenAI
"Nous Research se centra en entrenar y proliferar modelos que sobresalen en tareas del mundo real. cline-bench será una herramienta integral en nuestros esfuerzos por maximizar el rendimiento y comprender las capacidades de nuestros modelos."
– @Teknium, Jefe de Post Entrenamiento @nousresearch
"Somos grandes admiradores de todo lo que Cline ha estado haciendo para empoderar el ecosistema de IA de código abierto, y estamos increíblemente emocionados de apoyar el lanzamiento de cline-bench. Entornos abiertos de alta calidad para la codificación agentic son extremadamente raros. Este lanzamiento será un gran avance tanto como evaluación de capacidades como un banco de pruebas post-entrenamiento para tareas desafiantes del mundo real, avanzando nuestra comprensión colectiva y capacidades en torno al desarrollo de software autónomo."
– @willccbb, Líder de Investigación @PrimeIntellect:
"Compartimos el compromiso de Cline con el código abierto y creemos que hacer este benchmark disponible para todos nos ayudará a seguir empujando las capacidades de codificación de frontera de nuestros LLMs."
– @b_roziere, Científico de Investigación @MistralAI:
Los detalles completos están en el blog:

4,84K
Parte superior
Clasificación
Favoritos
