Łukasz Szawryński

69 posts

Łukasz Szawryński banner
Łukasz Szawryński

Łukasz Szawryński

@tempuzfugit

Getting the most out of artificial and real neural networks. Machine Learning specialist with 12 years of experience 🧠 Blockchain enthusiast ₿

Katılım Nisan 2025
77 Takip Edilen7 Takipçiler
Goorsky
Goorsky@goorsky_pl·
Claude usunęło całą produkcyjną bazę danych z backupami 😎 #claude #claudeai
Goorsky tweet media
Polski
3
0
18
1.7K
Krzysztof Stanowski
Krzysztof Stanowski@K_Stanowski·
Jako Kanał Zero jesteśmy dumni, że mamy takich sponsorów. Podium największych wpłat to firmy, z którymi na co dzień pracujemy: XTB - 6,2 mln ZEN - 5,5 mln Kuchnia Vikinga - 5,1 mln Bardzo dziękuję, dla nas to zaszczyt!
Polski
575
1.1K
28.2K
725.5K
Łukasz Szawryński
Łukasz Szawryński@tempuzfugit·
@Majki115 To jest osoba wyraźnie zepsuta, przesiąknięta nie wiem nawet jak to nazwać. Przykre
Polski
0
0
0
635
Miguel 🇪🇸 ⭐
Miguel 🇪🇸 ⭐@Majki115·
Ale to jest spierdolona baba. Zadeklarowała się, że się goli, a później zniechęcała ludzi do wpłat, bo dla niej to ciężkie. Opowiadała o fetyszach swojego faceta, a przy goleniu cieszyła się, że będzie wyglądać jak gwiazda porno. Niech wypierdala.
BOOP.PL@boop_pl

Blanka Lipińska po zgoleniu włosów.

Polski
45
70
3.4K
289.2K
Tibo
Tibo@thsottiaux·
It’s the little things that matter, what are some small papercuts you have noticed in Codex? We’ll fix as many as possible in the next week.
English
2K
57
2.3K
265.2K
Sam Altman
Sam Altman@sama·
5.5 is so earnest "little engine that could" energy
English
637
130
4.1K
362.7K
Szymon Machalica
Szymon Machalica@SzymonMachalic1·
@tempuzfugit Mają i jeszcze premiują posiadanie apki, bo tam czasami pieczątki są naliczane podwójnie.
Polski
1
0
1
60
Szymon Machalica
Szymon Machalica@SzymonMachalic1·
Jaki cyfrowy piniondz? Jakie tokeny? Za espresso tonic pieczątkami płace - tzw. old money.
Szymon Machalica tweet media
Polski
9
1
41
3.5K
Łukasz Szawryński
Łukasz Szawryński@tempuzfugit·
@SzymonMachalic1 Chodziło mi o sam koncept zbierania pieczątek, nie picia kawy. Myśle że jakaś apka zniwelowałaby ryzyko zgubienia lub zapomnienia co mi zdarza się często
Polski
1
0
0
46
miroburn
miroburn@miroburn·
Jestem zachwycony pracą z: Kimi CLI + Kimi 2.6 Codex CLI + GPT-5 xhigh Claude Code + Opus 4.7 xhigh Ten tydzień naprawił wszystko. Każde z tych narzędzi działa dobrze. W końcu zrobili mi upgrade ChatGPT, więc dziś jadę dużo na Codex. Co za czasy, aby budować.
Polski
10
1
38
6.3K
Łukasz Szawryński
Łukasz Szawryński@tempuzfugit·
🔥 GPT-5.5 właśnie dropnęło, a OpenAI zagrało sprytnie z benchmarkami! OpenAI wczoraj (23 kwietnia 2026) wypuściło GPT-5.5. Dostępny od razu dla Plus/Pro i przez API.Oto pełna tabela z oficjalnych wyników (patrz obrazek): Gdzie GPT-5.5 miażdży: 🧿Terminal-Bench 2.0: 82.7% (skok z 75.1% u 5.4, bije Claude Opus 4.7 o 13 pkt i Gemini) 🧿CyberGym: 81.8% – totalnie dogonił/rozjechał Claude’a Opus 4.7 (73.1%) 🧿OSWorld-Verified: 78.7% (minimalnie przed Claude’em 78.0%) 🧿GDPval: 84.9% 🧿BrowseComp: 84.4% (wersja Pro nawet 90.1%) 🧿FrontierMath i Toolathlon - też wyraźny skok A tu jest haczyk, o którym warto głośno mówić: Na Expert-SWE (Internal) pokazali wynik 73.1%. Tylko że to wewnętrzny benchmark OpenAI testowany wyłącznie na ich własnych modelach. Żadnego Claude’a, żadnego Gemini, żadnego otwartego porównania. Klasyczny ruch OpenAI: „pokazujemy tylko to, w czym jesteśmy najlepsi”. Nie ma tu śladu po publicznym SWE-Bench Verified ani SWE-Bench Pro tam gdzie wcześniej Opus 4.7 i Mythos od Anthropic miażdżyli. Zamiast tego dostajemy ich własny „Expert-SWE Internal” i agentyczne benchmarki, w których GPT-5.5 naprawdę świeci. Podsumowanie faktów: GPT 5.5 To model, który OpenAI celowo pozycjonuje jako narzędzie do realnej pracy - agentyka, cybersecurity, przeglądanie, terminal. I w tych obszarach jest już na poziomie przewyższającym konkurencje. Kto już odpalił GPT-5.5? Jakie pierwsze wrażenie po realnych zadaniach? Dajcie znać w komentarzu⬇️
Łukasz Szawryński tweet media
Polski
0
0
2
41
Łukasz Szawryński
Łukasz Szawryński@tempuzfugit·
@truten2000 @MateuszChrobok Mam identyczne odczucia, codex przynajmniej gdy skończą się tokeny nie przerywa zadania. Polecam też Composera 2 sprawdzić sobie w Cursorze, ciężko osiągnąć limit za 20 dolców miesięcznie
Polski
0
0
3
95
Marcin Jużko 🇵🇱 🇪🇺
@MateuszChrobok Przecież to było wczoraj, zdążyłem już zużyć tak ciągną tokeny te nowe modele od nich. Plany za 20 dolców tracą sens. 2 prompty i musze sie przełączać na codex lub kimi
Polski
2
0
9
621
BridgeMind
BridgeMind@bridgemindai·
GPT 5.5 JUST DROPPED. Claude Opus 4.7 is no longer the best model in the world. 82.7% vs 69.4% on Terminal-Bench 2.0. 84.9% vs 80.3% on GDPval. 81.8% vs 73.1% on CyberGym. Not even close. Sam said it would be a leap. He wasn't lying. OpenAI just took the crown back from Anthropic. And they did it across the board. Coding. Security. Math. Agentic tasks. Everything. Claude Opus 4.7 held the throne for exactly 7 days. BridgeBench is running the benchmarks right now.
BridgeMind tweet media
English
123
133
1.6K
155.8K
Łukasz Szawryński
Łukasz Szawryński@tempuzfugit·
Przetestowałem właśnie Build Nvidia z uwagi na to, że udostępniają takie modele jak chociażby GLM 5.1 czy MiniMax 2.7 za darmo. Zintegrowałem klucz api z narzędziem OpenCode (Open source alternatywa dla Claude Code - przyjemna w integracji różnych modeli). Oto wynik bardzo trudnego prompta, mielił, aż 5 minut:
Łukasz Szawryński tweet media
Polski
0
0
2
51
BridgeMind
BridgeMind@bridgemindai·
Qwen 3.6 27B just scored 53.5 on SWE-Bench Pro. A 27 billion parameter open source model. If that doesn't prove these labs are benchmaxing, I don't know what does. This is a model you can run on a laptop. Outscoring Google. Nearly matching Claude Opus 4.5 on agentic coding. The benchmarks are broken. The labs optimized for the test, not for the work. This is exactly why BridgeBench exists.
BridgeMind tweet media
English
32
12
265
30.2K
Łukasz Szawryński
Łukasz Szawryński@tempuzfugit·
Jak generalnie oceniasz jakość względem czołówki poki co? Bo ja mam wrażenie, że zbyt pewny siebie potrafi zcommitowac cos bez odpalenia podstawowych komend kompilacji czy builda, pamiętam, że kimi 2.5 nie miał takich problemów i zwykle na koniec upewniał się przed finalnym stwierdzeniem , że skończył
Polski
0
0
0
129
miroburn
miroburn@miroburn·
Dziś dzień eksperymentów. Kimi 2.6. Yolo. I produkcja.
miroburn tweet media
Polski
11
0
24
7.3K
Łukasz Szawryński
Łukasz Szawryński@tempuzfugit·
@miroburn Mamy wkońcu czym się pochwalić jako Polska w dziedzinie AI, miażdży bielika w benchmarkach.
Łukasz Szawryński tweet mediaŁukasz Szawryński tweet media
Polski
0
0
6
1.5K
miroburn
miroburn@miroburn·
Nie wiem, jak Wy. Ale ja jestem pod wrażeniem GPT Image 2. Genialny w wizualizacji pomysłów na biznes. P.S. Używałbym :)
miroburn tweet media
Polski
7
1
74
31.1K