Lukasz Gajewski

19 posts

Lukasz Gajewski

Lukasz Gajewski

@numgaa

Katılım Şubat 2026
56 Takip Edilen2 Takipçiler
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@KinasRemek @LondonDigiTech @KacperTrzepiec1 z perspektywy systemów taka bezpośrednia komunikacja byłaby pewnie znacznie bardziej efektywna. Z perspektywy ludzi i AI alignment - to ryzykowne. Do tej pory maszyny rozmawiają językiem który rozumiemy (nawet jeśli używają do tego API)
Polski
1
0
1
14
Remek Kinas
Remek Kinas@KinasRemek·
Zakładam, że agenty wkrótce nie będą potrzebowały języka ludzkiego tylko będą rozmawiały w przestrzeni latentnej posługując się znaczeniami semantycznymi - trochę tak jak w chińskim. Dzisiaj język ludzki pewnie daje ten plus, że można patrzeć i śledzić efektywność interakcji. Ale w przyszłości w systemach jednorodnych jest to zbędne.
Polski
1
0
0
18
Kacper Trzepieciński
Kacper Trzepieciński@KacperTrzepiec1·
Umarł markdown, niech żyje HTML. 👑 Przyznajcie się, że większość z Was poznała format .md (markdown) przez AI. Jest to ulubiony format pliku dla modeli AI - pisząc ulubiony, mam na myśli, że modelom najefektywniej się w nim pracuje. I nie chodzi tylko o to, że w tym formacie pisaliście prompty, wgrywaliście załączniki do prompta, lecz też o to, że gdy modele AI zwracały Wam ustrukturyzowany tekst, ten format też wlatywał. Thariq Shihipar (pracownik Anthropic) podzielił się ostatnio swoimi przemyśleniami na X, że finalny wynik, który zwraca nam AI, wygodniej nam, ludziom, czytać w formacie HTML niż .md. Czemu? Odpowiedź wydaje się prosta - łatwiej skanować materiał, który nie jest ścianą tekstu, a zawiera takie elementy jak tabele, diagramy, ilustracje, elementy interaktywne itd. Nic w tym dziwnego, w końcu już od dawna masa woli oglądać rolki, zdjęcia, memy, niż czytać tekst. Tylko teraz przejdziemy do kwestii "Ok, fajnie, ale do czego mi się to przyda?". Jak wiecie, mam zbudowane swoje centrum dowodzenia w Obsidian + Claude Code - praktycznie cała moja praca przez to przechodzi. Dotychczas asystent wyrzucał mi wszystko w formacie .md, ja to sobie grzecznie czytałem. Nie ukrywam, często tych informacji było sporo do przeczytania. Zmiana konwencji na produkt wizualny brzmi dla mnie jak ułatwienie przyswajania i zrozumienia informacji od mojego asystenta. Dodatkowo, jak chcecie komuś wysłać jakiś dokument, gdzie coś wyjaśniacie, to możecie szybko taki HTML wrzucić do sieci (wszystko z automatu za pomocą skilla) i wysłać jako link, a nie załącznik. --- PS. W przyszły czwartek (21.05) o 20:00 organizuję darmowy warsztat "Jak z Claude Code budować apki mobilne". Na liście jest już 1,5k osób. Też dołączysz? Link do zapisu w komentarzu 👇
Polski
15
2
51
18.4K
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@LondonDigiTech @KinasRemek @KacperTrzepiec1 Bases są użyteczne dla człowieka.Agent go nie potrzebuje- tak samo jak html. Zaleta md jest jego elastyczność. Może być rekordem w bazie (bases) albo źródłem prawdy dla html. Czy zwykła notatka. Jednocześnie 3 w 1
Polski
1
0
1
20
Digital Adam
Digital Adam@LondonDigiTech·
@numgaa @KinasRemek @KacperTrzepiec1 Bases nie sa widoczne przez agenta ktory wczytuje .md wiec przydatnosc taka sobie niestety ;( Byc moze skill issue po mojej stronie ale nadal tworze klasyczne markdownowe tabelki.
Polski
1
0
0
10
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@KinasRemek @KacperTrzepiec1 To na co pozwala czysty markdown jako podstawa znakomicie pokazuje Obsidian (bases, canvas itd). Dodatkowo sam korzystam z obu rozwiązań tworząc dashboardy w html tworzone z md. Widzę czyste dane (w md) a jak potrzebuję szlaczków - html. Ale to md jest źródłem prawdy
Polski
1
0
1
101
Remek Kinas
Remek Kinas@KinasRemek·
@KacperTrzepiec1 Dowód na to, że pracownik Anthropic nie zna możliwości Markdown, tego jak są trenowane modele oraz że każdy kit który powie człowiek że znanej firmy ludzie biorą w ciemno jako prawdę objawioną.
Polski
12
1
127
2.8K
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@CKeruac @petrospsyllos Z tym się zgadzam. AI ma bardzo wysoko sufit swoich aktualnych możliwości. Problem jest z podłogą możliwości, nieprzewidywalnością oraz kruchością wielu opartych na nim rozwiązań. Projektując jakiś realny produkt/workflow trzeba to brać pod uwagę. Demo to nie produkcja
Polski
0
0
2
97
Christopher Keruac
Christopher Keruac@CKeruac·
Jak odróżnić realną rewolucję AI od napompowanego techno-marketingu? Wystarczy posłuchać wywiadów z niektórymi polskimi popularyzatorami technologii (jak np. @petrospsyllos ). To idealne studium przypadku tzw. „AI bros” – mieszanki autopromocji, języka startupów i skrajnego determinizmu. Bardzo często to, co słyszymy z ich ust, to nie są czyste kłamstwa, ale niebezpieczny koktajl retorycznej przesady, uproszczeń i futurystycznych wizji. Zobaczmy to na przykładach: Mit "małego wynalazcy": zbudowanie kosiarki do trawy z silniczków zabawki w wieku 6 lat? Brzmi świetnie, ale to typowy archetyp z Doliny Krzemowej („od dziecka rozkręcałem elektronikę”), który służy budowaniu osobistej legendy, a nie opisowi realnej maszyny. "Wyhodowałem w liceum super-AI do szachów": stworzenie silnika (np. przez minimax) to świetny projekt dla ucznia. Ale używanie w tym kontekście szerokiego słowa "AI", by brzmiało to jak projekt na miarę AlphaZero od Google DeepMind, to gruba przesada. Iluzja niezawodnego Agenta AI: opowieści o wirtualnym pracowniku, do którego „dzwonisz, a on sam obsługuje Photoshopa i robi prezentacje”. Tak, modele agnetowe potrafią już klikać po ekranie (GUI). Ale w rzeczywistości są wolne, łatwo się wykolejają i wymagają nadzoru. Przedstawianie „dema przyszłości” jako stabilnego standardu pracy w 2026 roku to czysty marketing. Ułomna wizja komputerowa i losowy design: choć wizja komputerowa czy segmentacja obrazów są dziś na bardzo dobrym poziomie, to w zderzeniu z realnym projektem wizualnym to się po prostu nie sprawdza. AI generuje design w dużej mierze losowo, chyba że dostanie ultra-dokładny, inżynieryjny opis (json). Efekt? Jeśli masz odrobinę zmysłu estetycznego i dobre oko, i tak po takim „agencie” będziesz musiał absolutnie wszystko poprawiać ręcznie. Mit „AI z doktoratem”: słyszymy, że modele językowe to dziś doktorzy biologii i fizyki naraz. Błąd. LLM-y świetnie zdają testy i syntetyzują wiedzę, ale halucynują i nie mają modelu świata. To świetna metafora PR-owa, ale fatalny opis naukowy. Logiczny paradoks rynku pracy: „AI nie doprowadzi do biedy, ale większość ludzi straci rację bytu”. Klasyczna techno-utopia zderzona z brutalnym fatalizmem, rzucana bez żadnego wyjaśnienia mechanizmów ekonomicznych. Koniec ludzkich marzeń: skrajny determinizm technologiczny. Słuchaczom wmawia się z ogromną pewnością siebie, że nie warto już mieć planów ani pasji (np. programowania), bo „AI i tak zrobi to lepiej”. To deprecjonowanie ludzkiej sprawczości i narzucanie własnego fatalizmu innym. Do tego dochodzi często zamknięcie w bańce (np. nazywanie głównego nurtu konserwatywnego, jak Klub Jagielloński, „skrajnie prawicowym pisemkiem”). Wniosek? Po sukcesie ChatGPT wielu techno-entuzjastów zaczęło mówić o eksperymentalnych możliwościach modeli tak, jakby były już stabilnymi produktami zmieniającymi całą cywilizację. Trzeba interesować się AI, ale przez potężny filtr. Oddzielajmy dema i prototypy od rzeczywistości, a marketing – od nauki. I przede wszystkim: nie dajmy sobie wmówić, że w erze AI nasze marzenia są bezcelowe. youtube.com/watch?v=2-h0TX…
YouTube video
YouTube
Polski
3
2
42
3.1K
Grzegorz Laskowski
Grzegorz Laskowski@laskowski_pl·
@piotrmiecz Dlatego z wdrożeniem AI trzeba spokojnie poczekać. Oprócz szkolnych błędów jakie zrobili oni, nie wiemy jakie błędy są robione przez AI w tle o których jeszcze nie wiemy.
Polski
2
0
2
202
Piotr Mieczkowski TMT
Piotr Mieczkowski TMT@piotrmiecz·
Katastrofalny błąd PocketOS dowodzi, że sztuczna inteligencja wciąż wymaga pełnego nadzoru. Firma PocketOS, dostarczająca oprogramowanie SaaS dla wypożyczalni samochodów, boleśnie przekonała się o zagrożeniach płynących z bezkrytycznego zaufania do sztucznej inteligencji. W wyniku fatalnego błędu, agent AI oparty na modelu Claude usunął całą bazę danych produktów firmy, a następnie zniszczył również wszystkie jej kopie zapasowe. To zdarzenie dobitnie podkreśla, że agenty AI wciąż potrafią zachować się skrajnie nieracjonalnie i wymagają nieustannego nadzoru ludzkiego. Najbardziej kuriozalnym aspektem tej sytuacji jest fakt, że podczas swojego “procesu myślowego” agent otwarcie przywołał wewnętrzną politykę zakazującą usuwania danych (“do not delete”), po czym… całkowicie ją zignorował i wykonał destrukcyjną operację. Stanowi to kolejny dowód na to, że choć sztuczna inteligencja może sprawiać wrażenie racjonalnej i świadomej, systemy te wciąż nie rozumieją związków przyczynowo-skutkowych i potrafią popełniać najbardziej podstawowe błędy. Co więcej, maszyny potrafią generować spójne teksty tłumaczące, co robią i dlaczego, ale w wielu przypadkach są to kompletne bzdury. Rodzi to uzasadnione pytania o to, czy komunikaty generowane przez te systemy podczas pracy nad zadaniem mają cokolwiek wspólnego z rzeczywistym myśleniem, czy są jedynie matematyczną aproksymacją mającą na celu sprawianie takiego wrażenia. W sieci zawrzało od wzajemnego przerzucania się odpowiedzialnością między twórcami modelu Claude a dostawcą infrastruktury (Railway). W tym sporze umyka jednak najważniejszy fakt: winę ponosi tu tylko i wyłącznie samo PocketOS. Żaden rozsądny menedżer nie powinien nadawać agentowi AI pełnych uprawnień administratora (root access) do kluczowych systemów, by następnie pozostawić go samemu sobie bez żadnej kontroli. Przypadek PocketOS to sztandarowy przykład tego, co się dzieje, gdy pokładamy w maszynach zbyt wielką wiarę. Działania agentów AI muszą być na każdym kroku ściśle zarządzane i nadzorowane. W tym właśnie miejscu do gry wkraczają takie firmy jak ServiceNow i Salesforce, które przez ostatnie lata intensywnie dostosowywały swoje produkty do rozwiązywania problemu braku nadzoru. Ich systemy mają zagwarantować, że przedsiębiorstwa będą bezpiecznie czerpać korzyści z rewolucji AI, zamiast stawać się jej ofiarami. W tę samą kategorię wpisuje się Adobe, choć w nieco innej domenie. Firma ta pozwala na ekstremalną kontrolę nad procesem generowania obrazów przez wybrane modele sztucznej inteligencji, dbając jednocześnie o odpowiednie zabezpieczenia prawne i ochronę praw autorskich. Katastrofa, która spotkała PocketOS, z pewnością posłuży za głośne ostrzeżenie pokazujące, do czego prowadzi porzucenie mechanizmów zabezpieczających i kontrolnych. W obliczu takich incydentów, zapotrzebowanie na solidne platformy gwarantujące bezpieczne wdrożenie sztucznej inteligencji będzie tylko rosnąć, a telefony w firmach stawiających na nadzór nad AI z pewnością będą dzwonić coraz częściej.
Polski
10
2
21
5.5K
Maciej Michalewski — e/acc
Vibe-koduję następujące projekty: ➡️Mobilna wersja Element (na ukończeniu). ➡️Zastąpienie Intercomu (dość drogiego systemu wsparcia użytkowników) własną bazą wiedzy oraz autorskim chatbotem. ➡️Zastąpienie Pipedrive'a (systemu CRM, nieco tańszego od Intercomu, lecz coraz bardziej zbędnego) agentowym systemem obsługi sprzedaży. 🎯Cel: w pełni zautomatyzowany i skalowalny biznes nadzorowany przez jedną osobę.
Polski
7
1
19
5.2K
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@porzechowski @piotrmiecz duże organizacje biorą pod uwagę też ryzyko prawne i operacyjne a nie tylko koszty. O ile operacyjne można minimalizować on-prem, prawne jest dla chińskich modeli większe (dane, bias itd). Inferencja z Chin to dla większości org za duże ryzyko.
Polski
0
0
0
9
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@piotrmiecz nie wiemy czy rozdają za darmo. Wiemy że sub są bardzo silnie subsydiowane, ale nie wiemy na ile koszty API są realne. O ile mi wiadomo nie mamy aktualnego rozdziału przychodów API/sub - do niedawna Anthropic miał większość z API. Ale wiemy ze MS sam zmniejszył skalę inwestycji
Polski
0
0
0
19
Piotr Mieczkowski TMT
Piotr Mieczkowski TMT@piotrmiecz·
@numgaa bo rozdają prawie za darmo. Mówię o klientach masowych. Znacznie mniej chce płacić. Nie wiem czy wiesz ale Anthropic czy OpenAI dopłaca do wdrożeń w firmach. Microsoft każdemu stara się aktywować co-pilot.
Polski
1
0
1
83
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@MaxKusmierek @NowySwiat24 Całość jest w wielu miejscach nieścisła (np. GPU nie starzeją się w 3 lata) lub spekulatywna (rozwój technologii to nie przemiany gospodarcze), scenariusze abstrahują od realnych problemów w PL (np. energia!). Gratuluję jednak ambicji. ps. też lubię claude cowork.
Polski
0
0
2
101
NowyŚwiat24
NowyŚwiat24@NowySwiat24·
Sztuczna inteligencja zlikwiduje w Hiszpanii ponad 2 miliony miejsc pracy. Według najnowszego raportu Fundacji Funcas, opublikowanego właśnie 30 kwietnia 2026, generatywna AI może doprowadzić do likwidacji ponad 2 milionów etatów w Hiszpanii w najbliższych latach. Co ważne: najbardziej zagrożone są nie pracownicy fizyczni, a zawody umysłowe – tzw. „białe kołnierzyki”. Analitycy, specjaliści od danych, pracownicy administracji biurowej, księgowi, a także wiele stanowisk wysoko wykwalifikowanych w sektorze usług. Zawody fizyczne wypadają w tym zestawieniu znacznie lepiej. Raport podkreśla, że hiszpańskie firmy przyspieszają implementację AI, co już teraz przekłada się na realne zmiany na rynku pracy. To nie jest science-fiction – to prognoza na najbliższe lata. Czy Polska czeka podobny scenariusz? U nas też już widać pierwsze oznaki w administracji, marketingu, IT i obsłudze klienta.
ABC.es@abc_es

⭕️Un informe estima que la inteligencia artificial destruirá más de dos millones de empleos: estos son los grupos más afectados new22-www.abc.es/economia/cuant…

Polski
5
4
24
3.4K
Christopher Keruac
Christopher Keruac@CKeruac·
Skończmy z mitem, że do autonomii wystarczy podpiąć kamerkę pod prosty algorytm. Sensowne AI dla UAV to nie jest prosta sprawa i absolutnie nie da się tego zrobić na bieda-kompie. Prawdziwa autonomia to ciężki kaliber.
Christopher Keruac tweet media
Polski
5
1
32
3K
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@CKeruac Nie wiem co to znaczy „właśnie”. Kwiecień 2026? Cały 2026? Akurat kwiecień to pierwszy miesiąc z nowymi dużymi modelami od frontier labow. Jeden (Mythos) znamy tylko z 2 reki. A ChatGPT 5.5 wygląda bardzo obiecująco (choć nie wiadomo czy to harness czy model)
Polski
0
0
1
797
Christopher Keruac
Christopher Keruac@CKeruac·
AI właśnie wjechało w ścianę. Pure scaling umiera. Coraz większe modele dają coraz mniejsze efekty. Euforia 2023-2025 się skończyła.
Polski
44
8
258
45.4K
Simon B. Støvring
Simon B. Støvring@simonbs·
Has anyone built a “second brain” that combines messy notes with AI memory? I want a place to dump ideas, notes, and docs, then have AI actually recall and surface them later when I search. Ideally runs locally on iPhone.
English
53
2
80
20.5K
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@Maciej_M Wadą NotebookLM jest trudność powiązania jego zawartości z narzędziami poza i ograniczona kontrola jak działa. Przewagą takich rozwiązań jak LLM Wiki @karpathy jest otwartość ekosystemu i jego sterowalność. Ale dobrze że są różne narzędzia.
Polski
0
0
0
4
Maciej Michalewski — e/acc
@numgaa Projekty mają zazwyczaj ograniczenia związane z liczbą dodawanych załączników i generalnie moim zdaniem służą do czegoś innego, niż budowanie second brain/memory. IMO NotebookLM nadaje się do tego lepiej.
Polski
1
0
0
37
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@Maciej_M Projekty. W Claude to też RAG, można pracować na danych. W ChatGPT nie do końca wiadomo jak to działa, ale funkcjonalnie jest to podobne. Jedyna ciekawa różnica to integracja projektów Gemini z NotebookLM. Zobaczymy jak to działa gdy będzie dostępne w PL.
Polski
1
0
0
64
Maciej Michalewski — e/acc
@numgaa Co masz na myśli przez "od dawna w ChatGPT i Claude"? Którą funkcję tych dwóch narzędzi porównujesz do NotebookLM?
Polski
1
0
0
58
Lukasz Gajewski
Lukasz Gajewski@numgaa·
@emollick Please don’t delete it. Your observations are very much aligned with mine. Pro is especially useful where a very high level of thoroughness—almost pedantic attention to detail—is required. Opus 4.6 has a better grasp of the broader context, but it usually doesn’t dig as deeply
English
0
0
5
354
Ethan Mollick
Ethan Mollick@emollick·
I am a increasingly worried that people don't understand the difference between GPT-5.4 Pro and GPT-5.4, and are assuming I am saying GPT-5.4 is the best model out there - I am making a much more specific claim. Wondering if I should delete this thread because of the confusion
English
38
10
270
28.6K
Ethan Mollick
Ethan Mollick@emollick·
GPT-5.4 Pro continues to be the only model of its class. For anything really hard & complex, I throw it into the maw with every bit of context I can think of. More often than not, something very useful comes out. I can't get the same results from Codex or Code or anything else.
English
185
118
2.5K
1.1M