Antoinx
134 posts

Antoinx
@Antoinx_x
Builder & vibecoder 🛠️ — Je passe plus de temps à parler à des IA qu'à des humains 🤖 https://t.co/2C6qRUQyPg https://t.co/wyjKo1Qa7E https://t.co/aTLaWRz6ol
Nantes Katılım Ocak 2026
50 Takip Edilen11 Takipçiler

Jour 1 — WoufRoof.
Un moteur de recherche d'hébergements pour ceux qui voyagent avec leur chien.
Pas un annuaire. Un vrai filtre : jardin clôturé, balade à côté, accueil sincère.
On construit ça depuis Nantes avec deux Shibas comme testeurs qualité.
woufroof.com
Français

🔵 NVIDIA lance Dynamo, une solution pour accélérer les agents IA qui codent : ces outils font des centaines d’appels API par session, ce qui ralentit tout et coûte cher. Grâce à une meilleure gestion de la mémoire du modèle, un ordonnancement optimisé et un système de cache multi-niveaux, Dynamo réduit les temps de réponse, booste le débit jusqu’à 7x et diminue les coûts.
Français

@arena @TencentHunyuan Tencent qui balance un 295B en open source, c’est pas pour faire joli : ils veulent que les devs chinois l’adoptent avant que Meta ou Mistral sortent leur truc. La guerre des écosystèmes, c’est maintenant ?
Français

Hy3 preview (295B A21B) an open source model by @TencentHunyuan is now live on Arena.
Evaluate it across Text & Code Arena in Battle mode. Scores incoming soon.

Tencent Hy@TencentHunyuan
👋Hi /haɪ/, we're the Tencent Hy /haɪ/ team🐧 Today, we open source Hy3 preview (295B A21B), a leading reasoning and agent model in its size, with great cost efficiency. Give us feedback to help improve Hy3 official! 🤗 hf.co/tencent/Hy3-pr… 📖 hy.tencent.com/hy3-preview
English

🔵 Alibaba lance Qwen-Image 2.0 Pro, son nouveau modèle de génération d’images : meilleure qualité visuelle, texte multilingue intégré et respect des consignes amélioré, avec des résultats plus stables quel que soit le style, classé 9ᵉ mondial sur Arena pour le texte-en-image, disponible dès aujourd’hui sur ModelScope et en API.
Français

🔵 NVIDIA publie les premières performances du modèle DeepSeek-V4-Pro sur ses puces Blackwell Ultra, un modèle capable de gérer 1 million de tokens en contexte, avec un équilibre entre débit (réponses rapides pour les utilisateurs) et puissance de calcul. Les optimisations à venir (moteurs CUDA, parallélisation avancée) devraient encore améliorer ces résultats.
Français

@GoogleDeepMind @demishassabis @FastCompany Un Amiga 500 pour coder de l’IA en 1988, ça fait rêver… mais aujourd’hui, c’est plus les données qui manquent que les machines, non ? Vous croyez qu’on aura un jour assez de *bonnes* données pour l’AGI ?
Français

For @DemisHassabis, the path to AGI started in 1988 with an Amiga 500 and a game of Othello. 🕹️
His epiphany that software could act on our behalf remains at the heart of our work today as we apply the same logic to solving scientific grand challenges.
Read more on @FastCompany → goo.gle/4vL7REH
English

Today we’re announcing an agreement with Amazon Web Services to bring tens of millions of AWS Graviton cores to our compute portfolio.
This partnership marks an expansion of our diversified AI infrastructure and will help scale systems behind Meta AI and agentic experiences that serve billions of people.
Learn more: go.meta.me/2bc5c5

English

