ProFuture AI

551 posts

ProFuture AI banner
ProFuture AI

ProFuture AI

@Profuture_AI

Kursy i szkolenia AI. Odwiedź: https://t.co/zzWcJ4ABtP i zapoznaj się z naszym kursem Filmmaking AI. #midjourney #runway #kling #ai

Poland เข้าร่วม Haziran 2025
100 กำลังติดตาม158 ผู้ติดตาม
ProFuture AI รีทวีตแล้ว
Artur Kurasiński ⚡
Artur Kurasiński ⚡@kurasinski·
„Polskie AI przegrywa”, „Bielik słabszy od Zachodu”, „lokalne modele odstają”. Najdalej chyba poszedł Spider's Web dając tytuł "Polskie boty to tumany. Nasze modele poległy na testach z języka i kultury polskiej"... W rozmowie opublikowanej przez XYZ.pl Sebastian Kondracki nie twierdzi, że @bielikllm wygrywa z każdym i wszędzie, ale przeciwnie: przyznaje, że w literackiej kreatywności czy zadaniach ogólnych większe, zachodnie systemy mają przewagę. Jego zarzut jest inny i dużo poważniejszy: raport Oxido porównuje rzeczy, które nie powinny być wrzucane do jednego worka. Sebastian punktuje słabość raportu już na poziomie samej konstrukcji testu. Używa bardzo celnej analogii: to jak porównywać F-16 z furgonetką i na tej podstawie ogłaszać, że jedno rozwiązanie jest obiektywnie lepsze od drugiego. Owszem, myśliwiec będzie szybszy, ale nie po to buduje się furgonetkę. Tak samo jest z Bielikiem: nie powstał jako uniwersalny, konsumencki system do imponowania w otwartych zadaniach kreatywnych, tylko jako kompaktowy model do pracy z polszczyzną, analizą tekstu i danymi wrażliwymi w środowisku biznesowym. Samo zestawienie go z gigantycznymi, zagranicznymi modelami ogólnego przeznaczenia już na wejściu zniekształca obraz. Drugi problem, który Sebastian podkreśla bardzo wyraźnie, dotyczy warunków testu. Według niego benchmark Oxido nie mierzył tyle jakości modeli, ile jakość ich konfiguracji. Zagraniczne systemy miały dostęp do internetu, więc w zadaniach takich jak cytowanie „Pana Tadeusza” mogły po prostu pobrać odpowiedź z sieci. Bielik i PLLuM takiego dostępu nie miały, bo nie są projektowane jako publiczne, wszechwiedzące czaty podpięte do zasobów online. W takim układzie wynik nie mówi nam, który model lepiej „zna polski”, tylko który działał w bardziej uprzywilejowanym środowisku. To różnica fundamentalna. Trzeci zarzut jest jeszcze bardziej techniczny, ale właśnie dlatego istotny. Małe i kompaktowe modele wymagają odpowiedniego dostrojenia do konkretnego zadania. Inaczej ustawia się je do kreatywnego pisania, inaczej do analizy tekstu, jeszcze inaczej do pracy na dokumentach prawnych czy danych firmowych. Duże, zamknięte systemy mają część tej orkiestracji „zaszytą” w swoich warstwach produktowych: dobierają parametry automatycznie, korzystają z historii pracy użytkownika i są otoczone dodatkowymi mechanizmami wspomagającymi. Jeśli więc porównuje się sam silnik do kompletnego, rozbudowanego produktu, to wynik musi być mylący. Żeby ten benchmark Oxido był sensowny to należałoby porównywać modele w podobnej kategorii wagowej i w podobnym kontekście użycia. Właśnie wtedy Bielik potrafi wypadać bardzo dobrze, także nie tylko w języku polskim. Wskazuje na przewagi w wyspecjalizowanych zadaniach, m.in. testach językowo-kulturowych oraz zastosowaniach prawnych po dostrojeniu. Innymi słowy: sensowne pytanie nie brzmi „czy Bielik jest lepszy od wszystkich modeli z USA”, lecz „czy dobrze rozwiązuje problemy, do których został zbudowany”. I tu dochodzimy do sedna, czyli do tego, dlaczego Bielika trzeba odróżniać od zagranicznych modeli fundamentalnych. Modele fundamentalne budowane przez OpenAI, Google czy Anthropic globalnych graczy są tworzone jako systemy szerokiego zastosowania: mają odpowiadać na niemal wszystko, być pomocne dla milionów użytkowników, łączyć model z narzędziami, internetem, warstwą wnioskowania i potężnym zapleczem produktowym. Bielik ma inną filozofię. Jest modelem kompaktowym, bardziej B2B niż B2C, przeznaczonym do wdrożeń lokalnych, do działania na własnej infrastrukturze i do pracy tam, gdzie znaczenie mają prywatność, kontrola nad danymi i możliwość dostrojenia do konkretnych procesów. To nie jest „mniejszy ChatGPT”. To jest inna klasa narzędzia. Cały medialny zgiełk wokół Oxido bierze się więc z typowego skrótu myślowego: skoro polski model nie wygrywa w zadaniach ogólnych, to znaczy, że „przegrywa” jako taki. Tymczasem z perspektywy instytucji publicznych, banków, ubezpieczycieli czy firm pracujących na wrażliwych dokumentach ważniejsze od popisowego eseju bywa to, czy model można uruchomić lokalnie, czy da się go kontrolować, czy nie wycieka z niego wiedza i czy da się go dostroić do domeny. W takim świecie ranking oparty na cytowaniu literatury albo zadaniach z ogólnej sprawności językowej bywa efektowny, ale bywa też poznawczo tani. xyz.pl/burza-wokol-bi…
Polski
8
18
124
22.2K
ProFuture AI
ProFuture AI@Profuture_AI·
Usunęli xD
ProFuture AI@Profuture_AI

@FlowbyGoogle właśnie dodał nowe proporcje do generowania obrazów na platformie! Już nie jesteśmy ograniczeni do 16:9 i 9:16, teraz dostępne są również 1:1 (twórcy grafik na sociale dziękują!) oraz 4:3 i 3:4. Ciekawe czemu nie zdecydowali się na wszystkie dostępne przez API? #ai

Polski
0
0
1
48
Remek Kinas
Remek Kinas@KinasRemek·
Bielik- Minitron-7B - projekt, który miałem wielki zaszczyt prowadzić jako lider techniczny z ramienia Bielika 🇵🇱 przy współpracy z @nvidia 👍💪🙏🎉 oraz niesamowitymi chłopakami z naszego zespołu (o tym za chwilę). Ogłoszenie piszę przebywając w San Jose, CA 🇺🇸 To tutaj właśnie powstają przełomowe dla AI produkty. Symboliczne. Po pierwsze zespół najważniejszy dlatego - brawo Paweł Kiszczak, który świetnie zadziałał jako wsparcie techniczne (zresztą Pawła konfiguracja modelu okazała się w naszych testach najlepszą) oraz lider biznesowy. Przepięknie prowadzony projekt. Świetne wsparcie. Ogrom zaangażowania. Jesteś gość - pełen szacunek. Wspólnie robiliśmy etap R&D, pruningu oraz destylacji. Prace wykonaliśmy z super teamem Nvidia. Ekspresowo. Przygotowanie modeli, danych, destylacja - konfiguracja Leptona DGX, skryptów (nie obyło się bez custom kodowania). Szczególne podziękowania chcę złożyć na ręce Sergio Perez z Nvidia za wsparcie i pomoc techniczną - merytoryka potoku pruningu i destylacji oraz Nvidia Leption DGX Cloud. Co zrobiliśmy? Przeprowadziliśmy pruning modelu Bielik-11B-v3.0 oraz destylację do modelu 7B przy minimalnej stracie jakości tnąc blisko 30% parametrów. Całość procesu opisaliśmy w publikacji. Jest to ponownie unikatowy eksperyment w Polsce (po pierwszym polskim modelu reasoningowym) podczas którego pokazaliśmy jak utrzymać jakość w kontekście j.polskiego (+innych europejskich). Jesteśmy gotowi by robić takie eksperymenty na większych modelach - mamy wypracowany standard, doświadczenia. Dziękuję bardzo Krzyśkowi Ociepie - trening instrukcyjny oraz alignment, Krzyśkowi Wróblowi - benchmarki, Adrianowi Gwoździejowi - piękne dane, oraz Łukaszowi Flisowi (Cyfronet) - udostępnienie zasobów Helios do treningu instrukcyjnego, alignmentu oraz RL. Podziękowania dla Sebastiana Kondrackiego za motywację 👍💪 Dzięki team za świetną współpracę w projekcie. To jest złoty team, który nie tylko posiada wiedzę ale jest zaangażowany, pomocny. Praca to głównie R&D. Model zyskał prędkość. Ma mniejsze wymagania sprzętowe. Natomiast to co istotne to zdobycie wiedzy i budowa potoku do tworzenia prunowanych modeli. Metoda wykorzystywana również przez Mistrala. Proces szczegółowo opisaliśmy w publikacji: arXiv:2603.11881 Brawo zespół! Podziękowania dla #Nvidia.
Polski
24
54
500
10.3K
ProFuture AI
ProFuture AI@Profuture_AI·
@FlowbyGoogle właśnie dodał nowe proporcje do generowania obrazów na platformie! Już nie jesteśmy ograniczeni do 16:9 i 9:16, teraz dostępne są również 1:1 (twórcy grafik na sociale dziękują!) oraz 4:3 i 3:4. Ciekawe czemu nie zdecydowali się na wszystkie dostępne przez API? #ai
Polski
0
0
0
74
ProFuture AI
ProFuture AI@Profuture_AI·
@tlakomy A kiedy planujecie udostępnić GWM-1 do użytku?
Polski
0
0
0
22
Tomasz Łakomy
Tomasz Łakomy@tlakomy·
The future is now.
Runway@runwayml

A breakthrough in real-time video generation. As a research preview developed with @NVIDIA and shared at @NVIDIAGTC this week, we trained a new real-time video model running on Vera Rubin. HD videos generate instantly, with time-to-first-frame under 100ms. Unlocking an entirely new creative paradigm and bolstering the foundations of our General World Model, GWM-1. Real-time generation opens a fundamentally different design space for video models and world simulation. We're investing in co-designing our models alongside advances in hardware to keep pushing this frontier.

English
1
0
7
1.1K
ProFuture AI
ProFuture AI@Profuture_AI·
Gdyby połączyć technologię związaną z tworzeniem i kopiowaniem stylów z Midjourney z logiką i spójnością Nano Banana Pro, to otrzymalibyśmy prawdziwe graficzne monstrum!
Polski
0
0
0
25
ProFuture AI
ProFuture AI@Profuture_AI·
NB Pro > NB 2
Filipino
0
0
0
31
Alex Patrascu
Alex Patrascu@maxescu·
Many tried, most failed. But this is the first skin enhancer I've used that actually makes characters look real. Meet Vellum from @openart_ai It's now a staple in my workflow. I won't start a project without it:
English
52
103
1.1K
86.4K
ProFuture AI รีทวีตแล้ว
Framer 🇱🇹
Framer 🇱🇹@Framer_X·
Don’t trust anyone claiming they created an AI animation “in 10 minutes” They’re either lying or it’s a pile of trash. Good AI stuff takes time.
English
125
34
653
44.5K
Minh Do
Minh Do@minhsmind·
Dreamina Agents and Luma Agents are starting to finally feel like what I think the equivalent of vibecoding for the creative arts should be. I want a creative companion that works with me, makes creative leaps with minimal input, and also inspires me. Midjourney had that feeling in the early days but isn't so useful for video and isn't quite agentic yet in the way that Dreamina and Luma are trying to be. They're both fairly rudimentary, but the way their agents work does feel like the beginning of an intelligent creative partner.
Minh Do tweet media
English
9
3
64
4K
ProFuture AI รีทวีตแล้ว
nachos2d
nachos2d@NACHOS2D_·
The evolution of artificial intelligence is simply insane. In just 3 years, AI has advanced to a point where it can already reach a level of quality comparable to Hollywood. What once required massive teams, million-dollar studios, and months of production can now be created in minutes with the right tools. We are witnessing the beginning of a new era of digital creation.
English
15
8
65
7.2K
ProFuture AI
ProFuture AI@Profuture_AI·
@baaadas @LumaLabsAI @baaadas Do us a favour and make a small test: 1) load an image of a person in some invironment 2) as a model to show this scene from different perspective We would like to check if it is capable to switch camera angle or only rotates a character (like Nano Banana)
English
0
0
0
36
Jiaming Song
Jiaming Song@baaadas·
Excited to introduce Uni-1, our new *unified* multimodal model that does both understanding and generation: lumalabs.ai/uni-1 TLDR: I think Uni-1 @LumaLabsAI is > GPT Image 1.5 in many cases, and toe-to-toe with Nano Banana Pro/2. (showcase below)
Jiaming Song tweet media
English
29
55
405
85.5K
ProFuture AI รีทวีตแล้ว
LTX Studio
LTX Studio@LTXStudio·
🚨 800 FREE CREDITS — 24 HOURS ONLY We just launched LTX-2.3, our most powerful video model yet. High-res. Fast. Cinematic. Native lip-sync. Follow + Retweet this post to get 800 credits sent to your DMs.
English
1.9K
3.4K
3.3K
228.5K
ProFuture AI รีทวีตแล้ว
el.cine
el.cine@EHuanglu·
by end of 2026 ai will crush vfx ai actors will take over ai films will flood the market one creator + AI = production team customized eps on demand are coming budgets will collapse from millions to hundreds production time shrink dramatically from years to days and the brutal truth: only the most creative writers will survive
English
102
38
310
27.3K
ProFuture AI
ProFuture AI@Profuture_AI·
Nie możemy się doczekać tego modelu ze względu na dobry wynik w kategorii "spatial". Rozumienie przestrzenne jest obecnie najgorszym elementem generatorów obrazu.
Luma@LumaLabsAI

Uni-1 is a decoder-only autoregressive transformer. Text and images are represented in a single interleaved sequence, acting both as input and as output. This enables Uni-1 to think and render in the same forward pass, achieving a new benchmark of intelligence and quality.

Polski
0
0
1
37
ProFuture AI
ProFuture AI@Profuture_AI·
Jeśli da się zoptymalizować upscaler video aż o 95% to w przypadku generatorów filmów przyszłość też jest kolorowa ❤️
Topaz Labs@topazlabs

Reduces VRAM use by up to 95%. ✅ Makes previously impossible AI models possible. ✅ Optimized in collaboration with @NVIDIAStudio. ✅ Topaz NeuroStream is here, and it's designed to change the future of local AI model use. "As the demand for local processing on RTX GPUs continues to grow, NeuroStream provides an opportunity to run complex AI models on nearly all hardware," says Gerardo Delgado Cabrera, director of product for AI PCs at NVIDIA. "This latest collaboration with Topaz Labs is part of ongoing efforts to help develop technology optimized for use with NVIDIA-powered devices."

Polski
0
0
1
58