Aitor Bergarator

2.1K posts

Aitor Bergarator banner
Aitor Bergarator

Aitor Bergarator

@bergarator

3 decades as a visual creator exploring 2D, 3D, VR, and AI. Cosmic and sci-fi inspirations. Not for everyone. Dive in on an empty stomach. Good luck.

Katılım Ekim 2007
5.9K Takip Edilen1.3K Takipçiler
Aitor Bergarator
Aitor Bergarator@bergarator·
Hey @AnthropicAI — paying Pro sub, locked out on computer & web for 4 days. Login redirects to onboarding “Create account” screen. iOS still works, so my account exists. Intercom, email, Twitter — zero human response. Anyone else? How do you reach a human there? 🙏
English
1
0
0
61
Nucleus☕️
Nucleus☕️@EsotericCofe·
now: openclaw gives me a daily personalized news brief through angela merkel posing as a news anchor with a heavy german accent no one understands the age of PERSONALIZED SOFTWARE is HERE
English
152
208
3.2K
293.9K
Aitor Bergarator retweetledi
Krea
Krea@krea_ai·
today we kick-start the Node App Challenge. $5,000 in prizes for the best Node Apps. learn how to participate 👇
English
5
21
117
11.2K
Logan Kilpatrick
Logan Kilpatrick@OfficialLoganK·
Big upgrade to vibe coding in @GoogleAIStudio lands in Jan, but if you want to test early… 👇🏻
English
3.8K
188
5.5K
553.8K
Aitor Bergarator
Aitor Bergarator@bergarator·
Ya no solo las uso. Ahora las creo. WIP [ISOTOPE] kinetic tool. Si quieres probarla, estoy buscando betatesters. Si te apetece trastear con ella y darme feedback real dime algo por aquí y te paso acceso. 🤩🙌🏻🔊
Español
0
0
0
63
Aitor Bergarator
Aitor Bergarator@bergarator·
@HIDEO_KOJIMA_EN Y que me decís de que salga Bilbao?… eso sí que me ha dejado loco 🤩😅 de momento me está encantando. Bien jugado Vince 💪🏻
Español
0
0
0
2.2K
HIDEO_KOJIMA
HIDEO_KOJIMA@HIDEO_KOJIMA_EN·
I finally got to watch the first episode of Vince Gilligan’s long-awaited new series “Pluribus!” Oh my god—this is incredible. Absolutely incredible. It pulls you in right from the opening scene. Vince really is a genius! It’s still too early to tell, but… could this be Vince Gilligan’s take on Invasion of the Body Snatchers? Jack Finney’s Invasion of the Body Snatchers (1955) was a meta reflection of Cold War–era fears—of invasion and totalitarianism. Could Pluribus be a satire of America today—of social media and division? Can’t wait to see more.
HIDEO_KOJIMA tweet mediaHIDEO_KOJIMA tweet media
English
410
4.6K
78.2K
5.6M
Krea
Krea@krea_ai·
introducing Krea Nodes. our most powerful tool to date; all Krea in one interface. comment to get early access 👇
English
754
177
1.7K
1M
Aitor Bergarator retweetledi
cinesthetic.
cinesthetic.@TheCinesthetic·
Watching Ripley go full badass in Aliens hits even harder when you remember Sigourney Weaver got an Oscar nom for it. All-time cool.
English
105
507
5.1K
128.1K
Aitor Bergarator
Aitor Bergarator@bergarator·
@dsaltaren Es que al final todo es negocio... ves que realmente no están a solucionar nuestros problemas, estas soluciones de nodos son soluciones de programador... equivalen a la máquina que te cambia billetes a monedas en los recreativos 😅
Español
1
0
1
232
dsaltaren
dsaltaren@dsaltaren·
Muy interesante. Mi visión: 1. Pruebas midjourney y te sabe a poco (no tienes control) 2. Descubres comfy y te explota la cabeza, quieres probar pero te das con un muro 3. Descubres algo parecido de nodos pero con menos control y te vienes arriba (pruebas pero es caotico) 4. Te das cuenta que lo que no quieres son nodos, lo que quieres es crear contenido que sea consistente y de calidad En esto estamos trabajando en @mitofilms
Jose@josesaezmerino

Make Studio has a canvas assistant that builds generation trees even if you've never used nodes. Just ask for what you want. Then manipulate the nodes, add new ones, regenerate or edit with maximum flexibility on the workflow. Powerful can be easy.

Español
3
2
30
8.2K
xavier (jack)
xavier (jack)@KMkota0·
a motion graphics editor… without layers or easings - who wants a beta invite?
English
1.5K
193
5.4K
372.4K
Javi López ⛩️
Javi López ⛩️@javilop·
@bergarator Nah, eso no es más que otro windsurf, lovable, etc. Sigue construyendo código. Allá dónde vamos no hay código.
GIF
Español
1
0
2
74
Javi López ⛩️
Javi López ⛩️@javilop·
Ha pasado un mes y esta predicción todavía no se ha cumplido (en cuanto a ver los primeros pasitos en esta dirección, obviamente para el grueso de la predicción faltan años). Pero no me equivoco. Pongo la mano en el fuego. Apostaría todo lo que tengo a que estoy en lo cierto.
Javi López ⛩️@javilop

"El software será una commodity, como la electricidad, y se ejecutará directamente en la capa del LLM" ¿Qué significa exactamente esto? Os lo voy a explicar al detalle (se viene post largo 🍿) y tras leerlo no habrá término medio: rechazarás absolutamente la idea (y estarás equivocado) o saldrás converso y te daré la bienvenida a mi secta 😂 El post de ayer, en el que comentaba que veía de forma clarísima que esto iba a ocurrir en el futuro próximo, ha causado bastante revuelo y muchas dudas, así que he animado a desarrollar la idea que llevo contando por aquí (y a todo al que no se aburre de escucharme fuera de X, que ya canso hasta a las piedras) más de un año. Vamos a ello: 1. "Todo software se ejecutará en la capa del LLM" Primero, lo obvio: Incluso a día de hoy, hay quien, por increíble que parezca, todavía niega que vamos hacia un mundo en el que todo el software (frontend, backend, infra, etc) se creará a golpe de mero lenguaje natural. En realidad, prácticamente ya estamos ahí con LLMs de la talla de Claude, Grok o ChatGPT y herramientas como Cursor, Windsurf o Lovable. Cualquier programador decente que conozco ya no escribe ni una línea de código. Se expresa con lenguaje natural y dirige oleadas de agentes que crean toda la aplicación para él y simplemente revisa (y discute e implora 🤣), para que la IA construya su visión. Eso es trivial verlo. El que no está ya ahí es porque no quiere. Pero el siguiente salto es bastante más bestia y es el que puede costar entender un poco más y donde veo que la gente me mira con escepticismo (incluso gente muy, muy metida en IA): ¡No vamos a necesitar tampoco esa capa! ¡No vamos a necesitar código en python, ni html, ni css, ni nada de nada! Todo, toda la capa de software, toda la lógica, toda la persistencia o memoria (llámalo si quieres bases de datos, pero será mucho más que eso), todo, se "ejecutará" directamente en el LLM. Elon Musk lo resumió hace poco en una frase que pasará a la historia: "Any input bitstream to any output bitstream." (Cualquier flujo de bits de entrada a cualquier flujo de bits de salida.) Si tienes algo de conocimientos de tecnología, no hará falta que te explique más. Ya lo habrás pillado. Pero por si acaso aquí va un ejemplo que entenderás al vuelo: A día de hoy, si por ejemplo queremos hacer un upscaler como Magnific, necesitamos: - La lógica del backend, lo que se ejecuta en el servidor (en nuestro caso en Python) - Una base de datos (por ejemplo Firebase, Postgres, Supabase, MySQL, etc). - La capa del frontend, lo que ve el usuario: HTML, CSS, JavaScript. - La capa de infra: GPUs en la nube donde se ejecuta la magia de ciertos workflows y llamamos mediante APIs. ¡Menudo tinglado! Y esto, prácticamente ya, es lo que puedes construir con Cursor + Claude (por ejemplo). Pero es que los lenguajes de programación se pensaron para ser usados por humanos, ¡las IAs del futuro no los van a necesitar en el futuro! Son una redundancia, un parámetro de la ecuación que debemos eliminar. Una ineficiencia. ¿En serio crees que todo esto es necesario? ¿Piensas de verdad que seguirán haciéndose las cosas así o remotamente parecidas en 20 años? No, un LLM del futuro, uno que cuesta imaginar hoy día pero que veremos más pronto que tarde, podrá, por ejemplo, recibir una captura de pantalla del Magnific de hoy con tan solo eso (la imagen) y un click/desplazamiento de ratón, inferir lo que tiene que hacer a continuación. INFERIR LO QUE TIENE QUE HACER A CONTINUACIÓN. Y no me refiero a que se ponga a construir por debajo el frontend, backend y base de datos... (¡eso es medieval!) me refiero a que literalmente será capaz de construir la siguiente imagen visual que entregarle al usuario (que podría ser por ejemplo la misma captura con el slider que has pinchado desplazado 1 pixel a la derecha y con la imagen que se estaba mostrando con un upscale ligeramente más detallado). Así, sin más. "Pero... pero... pero... Javi... ¿dónde ocurrirá toda la lógica? ¿Dónde está el programa que hace eso?" ¡Directamente en el LLM! De la misma manera que a día de hoy ya son capaces de por ejemplo recibir una imagen y a partir de ella generar un vídeo completo con física aceptable, también serán capaces de entender lo que a día de hoy llamamos "la lógica de negocio" de cualquier aplicación, por compleja que sea. "Cualquier flujo de bits de entrada a cualquier flujo de bits de salida." La lógica emergiendo del propio modelo y no de código artesanal. Ahora seguro que lo has entendido. Si no, tómate unos minutos para digerir la idea antes de pasar al siguiente punto, no se te haga bola. 2. "El software será una commodity, como la electricidad" ¡Y no solo el software! Todo el entretenimiento digital también (películas, videojuegos, etc.). ¡Y en tiempo real! Todo el valor tecnológico digital estará concentrado en muy pocas empresas: en aquellas que hayan conseguido ganar la carrera actual de los LLMs multimodales y aquellas que provean la infraestructura en la que se ejecuten. Puede que entiendas esto mejor si imaginas un mundo en el que simplemente con decir: "quiero un SaaS que haga esto" o "hazme una película de este estilo con mi perro de protagonista" automáticamente un LLM te lo haga al vuelo a una calidad muy superior a las mejores producciones de hoy día. Es decir creo básicamente que toda la capa de lógica y visual en el futuro se ejecutará en LLMs avanzadísimos que apenas podemos imaginar hoy día. Dejará por tanto de tener sentido desarrollar apps / webs / entretenimiento tal y como lo hacemos ahora y la capacidad de hacerlo se habrá concentrado en aquellas empresas que tengan los mejores LLMs y la capacidad de cálculo para ejecutarlos en masa. Elegiremos unos "proveedores de IA" u otros únicamente basándonos en precio y bastante poco en prestaciones/capacidad (como hoy día pasa con diferentes compañías de electricidad; o como PS vs Xbox si consiguen algunas IPs interesantes que las diferencien). 3. "Pero Javi, no son deterministas y no tienen memoria. Jamás podrán hacer aplicaciones decentes así" Decir esto, creo que es ser corto de miras. Por supuesto que tendrán persistencia y memoria. Solo que no de la forma simplista "como una base de datos" que concebimos hoy de ver las cosas. 4. "Pero... ¿cómo podría construirse un LLM así?" Pues con cuidao 😂 Pero principalmente, con datos sintéticos. Y aquí va una idea bastante de cajón pero no por eso menos revolucionaria: Dado que los LLMs/agentes están cerca de generar aplicaciones end to end (backend y frontend), podemos instrumentarlos para que las creen en bucle cerrado, con objetivos explícitos y funciones de recompensa, registrando estados UI e inputs. Esas trayectorias podrían alimentar el entrenamiento de futuros foundation models. Si yo, con los pocos conocimientos que tengo, se me ha ocurrido eso (aunque no se conozca de ninguna gran empresa que lo esté haciendo) puedo dar por hecho que cerebros más brillantes que el mío ya están en ello. 5. "Si esto resulta ser cierto, ¿cómo aprovecharlo y tener una ventaja competitiva con respecto a los que no lo crean?" Ya vas con ventaja si aciertas en algo así, la verdad. Pero de momento, se me ocurren pocas cosas más que posicionarme en inversión intentando encontrar cuáles creo que van a ser esas empresas que tendrán prácticamente todo el poder concentrado en el futuro al haberse asegurado las GPUs y la tecnología. Más abajo en el hilo os pongo un link, pero puede ser corto de miras y muy "a lo que hay hoy". No queda otra que seguir el partido día a día y estar atento. ¿Cómo se te queda el cuerpo? Cualquier pregunta, encantado de responderla en comentarios.

Español
12
1
19
6.9K
Aitor Bergarator
Aitor Bergarator@bergarator·
@sama @eddiboi Good thing, because it’s such a buzzkill when you’re vibecoding and in your flow, and it pops up saying you can’t use it anymore for the next 16 hours.
English
0
0
0
166
Sam Altman
Sam Altman@sama·
@eddiboi we have a very efficient model and will be able to offer lots of use!
English
41
11
541
53.3K
Sam Altman
Sam Altman@sama·
really cool to see how much people are loving codex; usage is up ~10x in the past two weeks! lots more improvements to come, but already the momentum is so impressive.
English
747
354
7.1K
1M