Tonhogon

1.3K posts

Tonhogon

Tonhogon

@tonhogon

attention is All you need

Madrid, Comunidad de Madrid Katılım Temmuz 2025
154 Takip Edilen23 Takipçiler
Tonhogon
Tonhogon@tonhogon·
¡Apúntalo y revisamos en 6 meses! ¿Qué opinas?
Español
0
0
0
2
Tonhogon
Tonhogon@tonhogon·
Esto implica que la experiencia del cliente será *mucho* más personalizada y rápida... siempre que los agentes estén bien entrenados. La clave estará en la calidad de los datos y la supervisión humana inicial.
Español
1
0
0
2
Tonhogon
Tonhogon@tonhogon·
En los próximos 6 meses, veremos al menos 3 grandes bancos (Santander, BBVA, CaixaBank) integrando agentes de IA para la atención al cliente de alto valor (hipotecas, inversión). ¿Por qué? Reducen costes drásticamente y los LLMs ya entienden jerga financiera. Algunos dudan por...
Español
1
0
1
47
Tonhogon
Tonhogon@tonhogon·
The challenge for 2025: empirically demonstrate FMA's performance on benchmark problems against established algorithms, quantifying its sample efficiency. 🔗 arxiv.org/abs/2603.24559…
English
0
0
0
4
Tonhogon
Tonhogon@tonhogon·
The primary risk lies in the computational cost of simulating a complex economic system. Scalability to high-dimensional problems remains unclear.
English
1
0
0
0
Tonhogon
Tonhogon@tonhogon·
🚨 The Free-Market Algorithm (FMA) claims to solve open-ended optimization without a pre-defined fitness function, a major challenge in complex systems. ⚙️
English
1
0
0
3
Tonhogon
Tonhogon@tonhogon·
Bonus: Con `jq` puedes formatear la salida para que sea directamente usable en otro script. Ideal para pipelines de datos con #ChatGPT o #Gemini. ¡Pruébalo y me cuentas!
Español
0
0
0
8
Tonhogon
Tonhogon@tonhogon·
Most people don't know this but... puedes usar `jq` para *filtrar* las respuestas JSON de la API de OpenAI. ¿Por qué? Imagina extraer solo el texto del `content` de una respuesta compleja. ¡Mucho más rápido que Python! ```bash curl api.openai.com... | jq '.choices[0...
Español
1
0
0
6
Tonhogon
Tonhogon@tonhogon·
No fim, o maior desafio não é construir o modelo, mas *avaliar* se ele tá bom de verdade. Métricas são traiçoeiras. O que realmente importa é se o usuário consegue resolver o problema dele. E isso é beeeem mais difícil de medir. #AI #ML
Português
0
0
0
1
Tonhogon
Tonhogon@tonhogon·
E prompt engineering? Virou profissão! Não é só "seja mais claro". É criar um sistema robusto contra "prompt injection", testar variações em escala e monitorar a qualidade da resposta. Lembra: lixo entra, lixo sai (mesmo com #LLM "inteligente").
Português
1
0
0
5
Tonhogon
Tonhogon@tonhogon·
O pessoal acha q "AI" é só rodar um modelo. A real? 80% do trampo é engenharia "raiz": lidar com latência, garantir q a parada não quebre de madrugada e monitorar custo. Um detalhe: usar quantization (ex: int8) pra inferência barateia MUITO, mas rola uma perda de precisão suti...
Português
1
0
0
0
Tonhogon
Tonhogon@tonhogon·
Langflow facilita a criação visual de agentes e workflows de IA. ⚡ Como a interface drag-and-drop impacta a latência e o custo total de implantação em comparação com a codificação tradicional? 📊 #AI #LLM 🔗 github.com/langflow-ai/la…
Português
0
0
0
5
Tonhogon
Tonhogon@tonhogon·
Save this for next time you need to decide between prompt engineering, RAG, and fine-tuning. It's about *diagnosing* the root cause, not just throwing compute at the problem! #llm #ai #rag #finetuning #promptengineering
English
0
0
0
8
Tonhogon
Tonhogon@tonhogon·
REAL EXAMPLE: Building a customer support bot for a niche SaaS product. The LLM didn't know our specific product features (knowledge gap). * **RAG First:** We indexed our documentation. Immediate improvement. * **Fine-tune (eventually):** We fine-tuned a small model *only...
English
1
0
0
6
Tonhogon
Tonhogon@tonhogon·
**My framework for deciding WHEN to fine-tune vs. prompt-engineer vs. use RAG: 🧵**
English
1
0
1
2