ทวีตที่ปักหมุด
Alberto Hospital
699 posts

Alberto Hospital
@HospitalMarco
¡Proud Dad!
Barcelona, España เข้าร่วม Kasım 2012
13 กำลังติดตาม435 ผู้ติดตาม

Muchos aprendizajes sobre ventas y Go To Market en la última entrevista a @Carles_Reina por parte de @HarryStebbings de 20VC. Sobre todo estas 8 lecciones sobre cómo construir una máquina de ingresos de más de $330M que el propio Harry compartía en su perfil (en inglés, aquí lo traduzco)
1️⃣ La regla de cuota "20x"
Olvida el estándar de SaaS de múltiplos de 6x–8x. En ElevenLabs, la regla es simple: debes generar en ingresos 20 veces tu salario base. Si tu base es de $100k, tu cuota es de $2M. Suena agresivo, pero establece una vara de alto rendimiento donde más del 80% del equipo alcanza sus objetivos.
2️⃣ Contrata "cazadores", no solo expertos en producto
Carles lo aprendió por las malas: necesitas personas con una mentalidad natural de "cazador", que tengan hambre, determinación y pasión. Puedes enseñar la tecnología, pero no puedes enseñar el "hustle" (la ambición y el empuje).
3️⃣ Sé "implacable" con las revisiones del pipeline
Carles realiza revisiones mensuales del pipeline donde profundiza en cada detalle frente a todo el equipo. Si no estás haciendo tu trabajo, se te señala públicamente. Esta transparencia garantiza que todos aprendan de los errores de los demás y mantiene al equipo alerta.
4️⃣ Los vendedores deben estar en la carretera
Si el equipo de ventas pasa varios días en la oficina, Carles empieza a preocuparse. Una cultura remota funciona si es una cultura "de carretera". Los vendedores necesitan estar fuera hablando con los clientes cara a cara, no solo escondiéndose tras reuniones virtuales.
5️⃣ Aterriza en pequeño, expande rápido
No te empantanes esperando meses por un acuerdo empresarial de seis cifras. Entra con un contrato de $12k para saltarte capas de aprobación. Una vez firmado el MSA (Acuerdo Maestro de Servicios), la fase de "aterrizaje" termina y comienza la misión de "outbound" para capturar a todos los demás departamentos de la organización.
6️⃣ Pronostica con un negativismo brutal
El optimismo mata a las organizaciones de ventas. Carles aconseja ser lo más negativo posible al hacer pronósticos (forecasting). Si un acuerdo vale $500k, anticípalo como si fuera de $24k. Esto evita pipelines "inflados" y obliga al equipo a trabajar para asegurar que se alcancen los objetivos reales.
7️⃣ El objetivo del "primer contrato" en 72 horas
El onboarding en ElevenLabs no consiste en semanas leyendo manuales. Las nuevas contrataciones se unen a las llamadas de inmediato. ¿El objetivo? Firmar tu primer contrato en tus primeras dos semanas (mejor en las 72 primeras horas).
8️⃣ Trata a los clientes como una comunidad, no como una transacción
La venta transaccional conduce a la pérdida de clientes (churn). Construir una comunidad (donde das a los clientes tu WhatsApp, interactúas constantemente y haces lo correcto para ellos incluso si te cuesta dinero) es como los retienes para siempre.
Episodio completo en open.spotify.com/episode/10FEdM…

Español

@davidalvarezdlt Lo jodido quizá ahora es que no pierdas motivación. Aunque no deberías. A por el siguiente capitulo👋
Español

Un día triste hoy para mi, poniendo (simbólicamente) fin a una etapa y entrando en otra.
Hoy aceptamos que no somos una empresa de VC y cambiamos el objetivo interno a llegar a BE, si todo va bien, para finales de este año.
Esto que me recomendaban algunos inversores de arriesgarlo todo hasta quedarnos sin dinero no es para mí. Prefiero construir una empresa sostenible que comprar un billete de lotería.
Español

Es posible que @ganasdevicio se haya “privateEquitizado”?😂 me acabo de comer la peor burger de hace años🤷🏻♂️
Español

@DelBorrico @sergibenet Toma plot twist😂. El pensando en un tipo de emprendedora… y resultó ser otra🥲. Meritorio facturar 250k€ en cualquier de los casos.
Español

Si el #aperol no fuera tan instagrameable, no lo beberías y lo sabes.
Español

Hace algún tiempo dije que cerraba la inversión en mi portfolio #startups (35 participadas) y LP en un fondo, por qué quería explorar nuevas vías.
Hoy he comprado por primera vez en el ¡NYSE!
Seguimoooos! 😁✌️
Español

@HospitalMarco Joder, me acabo de dar cuenta de que dije eso años antes de ChatGPT y Dalle-2. Vivo en el futuro 🤣
Español

"El software será una commodity, como la electricidad, y se ejecutará directamente en la capa del LLM"
¿Qué significa exactamente esto? Os lo voy a explicar al detalle (se viene post largo 🍿) y tras leerlo no habrá término medio: rechazarás absolutamente la idea (y estarás equivocado) o saldrás converso y te daré la bienvenida a mi secta 😂
El post de ayer, en el que comentaba que veía de forma clarísima que esto iba a ocurrir en el futuro próximo, ha causado bastante revuelo y muchas dudas, así que he animado a desarrollar la idea que llevo contando por aquí (y a todo al que no se aburre de escucharme fuera de X, que ya canso hasta a las piedras) más de un año. Vamos a ello:
1. "Todo software se ejecutará en la capa del LLM"
Primero, lo obvio:
Incluso a día de hoy, hay quien, por increíble que parezca, todavía niega que vamos hacia un mundo en el que todo el software (frontend, backend, infra, etc) se creará a golpe de mero lenguaje natural.
En realidad, prácticamente ya estamos ahí con LLMs de la talla de Claude, Grok o ChatGPT y herramientas como Cursor, Windsurf o Lovable. Cualquier programador decente que conozco ya no escribe ni una línea de código. Se expresa con lenguaje natural y dirige oleadas de agentes que crean toda la aplicación para él y simplemente revisa (y discute e implora 🤣), para que la IA construya su visión.
Eso es trivial verlo. El que no está ya ahí es porque no quiere.
Pero el siguiente salto es bastante más bestia y es el que puede costar entender un poco más y donde veo que la gente me mira con escepticismo (incluso gente muy, muy metida en IA):
¡No vamos a necesitar tampoco esa capa! ¡No vamos a necesitar código en python, ni html, ni css, ni nada de nada!
Todo, toda la capa de software, toda la lógica, toda la persistencia o memoria (llámalo si quieres bases de datos, pero será mucho más que eso), todo, se "ejecutará" directamente en el LLM.
Elon Musk lo resumió hace poco en una frase que pasará a la historia: "Any input bitstream to any output bitstream." (Cualquier flujo de bits de entrada a cualquier flujo de bits de salida.)
Si tienes algo de conocimientos de tecnología, no hará falta que te explique más. Ya lo habrás pillado. Pero por si acaso aquí va un ejemplo que entenderás al vuelo:
A día de hoy, si por ejemplo queremos hacer un upscaler como Magnific, necesitamos:
- La lógica del backend, lo que se ejecuta en el servidor (en nuestro caso en Python)
- Una base de datos (por ejemplo Firebase, Postgres, Supabase, MySQL, etc).
- La capa del frontend, lo que ve el usuario: HTML, CSS, JavaScript.
- La capa de infra: GPUs en la nube donde se ejecuta la magia de ciertos workflows y llamamos mediante APIs.
¡Menudo tinglado!
Y esto, prácticamente ya, es lo que puedes construir con Cursor + Claude (por ejemplo). Pero es que los lenguajes de programación se pensaron para ser usados por humanos, ¡las IAs del futuro no los van a necesitar en el futuro! Son una redundancia, un parámetro de la ecuación que debemos eliminar. Una ineficiencia.
¿En serio crees que todo esto es necesario? ¿Piensas de verdad que seguirán haciéndose las cosas así o remotamente parecidas en 20 años?
No, un LLM del futuro, uno que cuesta imaginar hoy día pero que veremos más pronto que tarde, podrá, por ejemplo, recibir una captura de pantalla del Magnific de hoy con tan solo eso (la imagen) y un click/desplazamiento de ratón, inferir lo que tiene que hacer a continuación.
INFERIR LO QUE TIENE QUE HACER A CONTINUACIÓN.
Y no me refiero a que se ponga a construir por debajo el frontend, backend y base de datos... (¡eso es medieval!) me refiero a que literalmente será capaz de construir la siguiente imagen visual que entregarle al usuario (que podría ser por ejemplo la misma captura con el slider que has pinchado desplazado 1 pixel a la derecha y con la imagen que se estaba mostrando con un upscale ligeramente más detallado).
Así, sin más.
"Pero... pero... pero... Javi... ¿dónde ocurrirá toda la lógica? ¿Dónde está el programa que hace eso?"
¡Directamente en el LLM! De la misma manera que a día de hoy ya son capaces de por ejemplo recibir una imagen y a partir de ella generar un vídeo completo con física aceptable, también serán capaces de entender lo que a día de hoy llamamos "la lógica de negocio" de cualquier aplicación, por compleja que sea.
"Cualquier flujo de bits de entrada a cualquier flujo de bits de salida."
La lógica emergiendo del propio modelo y no de código artesanal.
Ahora seguro que lo has entendido. Si no, tómate unos minutos para digerir la idea antes de pasar al siguiente punto, no se te haga bola.
2. "El software será una commodity, como la electricidad"
¡Y no solo el software! Todo el entretenimiento digital también (películas, videojuegos, etc.). ¡Y en tiempo real!
Todo el valor tecnológico digital estará concentrado en muy pocas empresas: en aquellas que hayan conseguido ganar la carrera actual de los LLMs multimodales y aquellas que provean la infraestructura en la que se ejecuten. Puede que entiendas esto mejor si imaginas un mundo en el que simplemente con decir: "quiero un SaaS que haga esto" o "hazme una película de este estilo con mi perro de protagonista" automáticamente un LLM te lo haga al vuelo a una calidad muy superior a las mejores producciones de hoy día.
Es decir creo básicamente que toda la capa de lógica y visual en el futuro se ejecutará en LLMs avanzadísimos que apenas podemos imaginar hoy día. Dejará por tanto de tener sentido desarrollar apps / webs / entretenimiento tal y como lo hacemos ahora y la capacidad de hacerlo se habrá concentrado en aquellas empresas que tengan los mejores LLMs y la capacidad de cálculo para ejecutarlos en masa.
Elegiremos unos "proveedores de IA" u otros únicamente basándonos en precio y bastante poco en prestaciones/capacidad (como hoy día pasa con diferentes compañías de electricidad; o como PS vs Xbox si consiguen algunas IPs interesantes que las diferencien).
3. "Pero Javi, no son deterministas y no tienen memoria. Jamás podrán hacer aplicaciones decentes así"
Decir esto, creo que es ser corto de miras. Por supuesto que tendrán persistencia y memoria. Solo que no de la forma simplista "como una base de datos" que concebimos hoy de ver las cosas.
4. "Pero... ¿cómo podría construirse un LLM así?"
Pues con cuidao 😂
Pero principalmente, con datos sintéticos. Y aquí va una idea bastante de cajón pero no por eso menos revolucionaria:
Dado que los LLMs/agentes están cerca de generar aplicaciones end to end (backend y frontend), podemos instrumentarlos para que las creen en bucle cerrado, con objetivos explícitos y funciones de recompensa, registrando estados UI e inputs. Esas trayectorias podrían alimentar el entrenamiento de futuros foundation models.
Si yo, con los pocos conocimientos que tengo, se me ha ocurrido eso (aunque no se conozca de ninguna gran empresa que lo esté haciendo) puedo dar por hecho que cerebros más brillantes que el mío ya están en ello.
5. "Si esto resulta ser cierto, ¿cómo aprovecharlo y tener una ventaja competitiva con respecto a los que no lo crean?"
Ya vas con ventaja si aciertas en algo así, la verdad. Pero de momento, se me ocurren pocas cosas más que posicionarme en inversión intentando encontrar cuáles creo que van a ser esas empresas que tendrán prácticamente todo el poder concentrado en el futuro al haberse asegurado las GPUs y la tecnología. Más abajo en el hilo os pongo un link, pero puede ser corto de miras y muy "a lo que hay hoy". No queda otra que seguir el partido día a día y estar atento.
¿Cómo se te queda el cuerpo?
Cualquier pregunta, encantado de responderla en comentarios.

Español

@jaimenovoa @GuliMoreno @exp8fellowship @Capchase @xoelipedes @ChristianPalou @TheirStackApp @adrianmg @github ¡Hay esperanza!
Español

Full house un viernes tarde de agosto en Coruña. Con @GuliMoreno (@exp8fellowship, @Capchase), @xoelipedes y @ChristianPalou (@TheirStackApp) y @adrianmg (@github)

Español








