Post

Carlos Santana
Carlos Santana@DotCSV·
Esto es interesante: los modelos de Anthropic sufren más el "hablar" otros idiomas a nivel de uso de tokens. En español el número de tokens usados se multiplica 1.62x respecto al modelo de OpenAI en inglés.
Aran Komatsuzaki@arankomatsuzaki

The non-English tax is real. Sutton's Bitter Lesson, translated across languages and normalized to OpenAI English token count: Hindi: OpenAI 1.37×, Anthropic 3.24× Arabic: OpenAI 1.31×, Anthropic 2.86× Chinese: OpenAI 1.15×, Anthropic 1.71× Claude’s tokenizer charges a much higher linguistic tax.

Español
43
158
1.6K
221.7K
Programando en Java
Programando en Java@ProgEnJava·
@DotCSV Tengo curiosidad con el alemán ya que es un idioma que puede ser bastante preciso
Español
0
0
2
268
Paylaş