• La nueva familia de modelos de IA vuelve a subir el listón
  • Y es la primera vez que Anthropic lanza un modelo capaz de “razonar”
  • Anthropic lanza además Claude Code, un agente de programación realmente prometedor

Anthropic ha anunciado el lanzamiento y disponibilidad de Claude 3.7 Sonnet, su nuevo modelo de IA fundacional. El salto es prometedor, pero destaca especialmente por una cosa: se apuntan a modelos de razonamiento.

No es Claude 4.0, es Claude 3.7. La numeracion de la nueva versión confirma una vez más que el salto de prestaciones no justifica un número más “redondo”. Muchos esperábamos Claude 4.0, pero en Anthropic dejan claro que esta es una versión mucho más evolucionaria que revolucionaria.

Un modelo híbrido. En Anthropic presumen de contar con un modelo híbrido que no diferencia entre si tiene que conversar y responder preguntas rápidamente, razonar o cualquier otra aplicación, porque todo se basa en el modelo fundacional Claude 3.7 Sonnet, que lo hace todo y se comporta de esa forma multidisciplinar. Y como hace todo, es algo más caro que la competencia: su API cuesta 3 dólares por millón de tokens de entrada y 15 dólares por millón de tokens de salida


Claude ya puede “razonar”. En un anuncio separado Anthropic nos hablaba de su nuevo modo de razonamiento, llamado “extended thinking mode”, que ahora se convierte en una opción más entre las que podemos desplegar al usar su modelo. Si la activamos, el modelo “pensará más profundamente sobre preguntas complejas”. Como explican sus responsables, este modo usa el mismo modelo de IA, pero lo hace dándole más tiempo e invirtiendo más esfuerzo para llegar a una respuesta.

Cómo piensa Claude. Este modo de razonamiento ofrece la posibilidad de ver qué está pensando el modelo al ir procesando esas respuestas. Aquí avisan de que esa información puede resultar sorprendente, porque podremos ver cómo la IA puede “pensar” cosas incorrectas, pero además mostrar ese proceso no significa que la respuesta solo se base en él. “Nuestros resultados sugieren que los modelos a menudo toman decisiones basadas en factores que no se debaten de forma explícita en su proceso de razonamiento”.

Se guarda cosas. Es decir: el modelo parece guardarse cosas para sí mismo mientras piensa, pero no está claro cuáles ni por qué. Hay otra razón para no mostrarlo todo: eso plantea problemas de seguridad, ya que tener toda esa información le da potencialmente recursos a malos actores para que aprovechen el modelo de formas inapropiadas.