Post

Alan
Alan@bitforth·
No puedo hablar mucho de esto todavía, pero la semana pasada desplegamos un agente bastante embebido en los workflows de una empresa relativamente grande. Y lo raro es que la reacción de los usuarios, más allá de decir “qué útil” ha sido más como que están medio sorprendidos, medio asustados porque el agente parece entender el contexto invisible, se adapta a la persona, cambia el ángulo y reconstruye intención a partir de señales incompletas. Y @colin_thornton me pregunta: “Cómo le hiciste?” Y yo: “Ehhh... técnicamente tiene una lista de herramientas que puede llamar, un system prompt que le da voz, estilo y límites, y un harness que controla el entorno.” Pero no hay una tabla sagrada que diga: “Si el usuario pide X, haz Y.” No hay árbol de decisión escondido, ni mil reglas, ni skills escritos en ningun archivo. Lo inquietante es que gran parte emerge del modelo interactuando con el harness correcto. Si tiene herramientas, limites y memoria contextual, pero hasta ahí. Obvio yo se que no es AGI, ni conciencia, pero sí hay algo fascinante en ver cómo, cuando diseñas bien el entorno, el agente empieza a verse como un "Ultron" que aprendió a moverse dentro de una organización.
Español
4
2
77
12.6K
Sergio
Sergio@sercasti_·
@bitforth Que lindo investigar un bug en producción con el agente en el medio... Tiramos la parte deterministica a la basura y que la entropía salga a jugar
Español
1
0
2
514
Alan
Alan@bitforth·
@sercasti_ Los agentes usan herramientas deterministicas
Español
0
0
0
408
Paylaş