Cada vez que ChatGPT genera una palabra, eso cuesta dinero. Sin embargo, el precio de esa palabra generada ha ido disminuyendo desde el lanzamiento de ese modelo, y lo mismo ocurre con sus competidores. Actualmente, existen modelos de IA que son más potentes y, además, más baratos que nunca, lo que resulta curioso, ya que los usuarios están pagando cada vez más por utilizarlos. ¿Qué está sucediendo?
Tokens
OpenAI define los tokens como “secuencias comunes de caracteres que se encuentran en un conjunto de texto”. Esta “unidad básica” de información es utilizada por los modelos para entender y procesar los textos que les proporcionamos. Cada vez que usamos ChatGPT, se generan tokens de entrada (la petición) y tokens de salida (el texto generado por el chatbot).
Precio por millón de tokens
El costo de usar un modelo de IA se mide en función de cuánto cuesta cada millón de tokens de entrada y salida. A continuación, se presentan los precios de algunos modelos actuales:
Precio por millón de tokens (Dólares) |
Entrada |
Salida |
---|---|---|
GPT-5 |
1,10 |
10 |
GPT-4o |
2,5 |
10 |
o1 |
15 |
60 |
Gemini 2.5 Pro (<200k tokens) |
1,25 |
10 |
Gemini 2.5 Pro (>200K tokens) |
2,5 |
15 |
Claude opus 4.1 |
15 |
75 |
Claude sonnet 4 (< 200k tokens) |
3 |
15 |
Claude sonnet 4 (> 200k tokens) |
6 |
22,5 |
Los precios de los tokens de salida son notablemente más altos que los de entrada, lo que indica que generar texto es más costoso que recibirlo y entenderlo.
Costos en descenso
A pesar de que los precios por millón de tokens han disminuido desde la aparición de ChatGPT (basado en GPT-3.5), un estudio de Epoch AI de marzo de 2025 muestra que el costo de la inferencia ha seguido cayendo. Esto se debe a que algunos modelos son más pequeños y eficientes, y el hardware también ha mejorado en rentabilidad.
Facturas en aumento
A pesar de la caída en los precios, los desarrolladores que utilizan estos modelos de IA han notado que sus facturas están aumentando. Aunque han sido los principales beneficiarios de esta tecnología, se enfrentan a una contradicción. La razón detrás de esto es clara.
Razonamiento costoso
Los modelos de razonamiento consumen muchos tokens, lo que incrementa los costos. Esta tecnología mejora la precisión de las respuestas, pero requiere que los modelos generen múltiples teorías para analizar y seleccionar la mejor solución. Los modelos que no “piensan” consumen menos tokens, mientras que los que “razonan” multiplican esos costos.
Vibe coding y costos elevados
Las plataformas de “vibe coding” son un ejemplo de cómo los altos costos de la IA pueden impactar. Estas herramientas permiten programar sin conocimientos previos, pero requieren un uso intensivo de modelos de IA, lo que incrementa el consumo de tokens. Varias empresas en este sector han reconocido la dificultad de rentabilizar la IA.
Agentes de IA y costos futuros
Se anticipa que los agentes de IA serán costosos, ya que consumirán muchos tokens para entender y razonar. Sin embargo, se puede optar por modelos que no requieran tanto razonamiento para reducir costos. Afortunadamente, también han surgido modelos eficientes y más económicos que pueden razonar, como DeepSeek R1.
Router de OpenAI
OpenAI lanzó GPT-5 con un “router” que decide qué variante del modelo utilizar. Este enrutador tiende a elegir el modelo más económico, lo que beneficia tanto a OpenAI como a los usuarios, ya que reduce los costos de procesamiento y permite un uso más eficiente de los recursos.
Imagen | Levart Photographer | Igal Ness
En Xataka | Los agentes de IA son prometedores. Pero como en el FSD de Tesla, mejor no quitar las manos del volante
Fuente original: ver aquí