
Lukasz Gajewski
19 posts


@KinasRemek @LondonDigiTech @KacperTrzepiec1 z perspektywy systemów taka bezpośrednia komunikacja byłaby pewnie znacznie bardziej efektywna. Z perspektywy ludzi i AI alignment - to ryzykowne. Do tej pory maszyny rozmawiają językiem który rozumiemy (nawet jeśli używają do tego API)
Polski

Zakładam, że agenty wkrótce nie będą potrzebowały języka ludzkiego tylko będą rozmawiały w przestrzeni latentnej posługując się znaczeniami semantycznymi - trochę tak jak w chińskim. Dzisiaj język ludzki pewnie daje ten plus, że można patrzeć i śledzić efektywność interakcji. Ale w przyszłości w systemach jednorodnych jest to zbędne.
Polski

Umarł markdown, niech żyje HTML. 👑
Przyznajcie się, że większość z Was poznała format .md (markdown) przez AI. Jest to ulubiony format pliku dla modeli AI - pisząc ulubiony, mam na myśli, że modelom najefektywniej się w nim pracuje.
I nie chodzi tylko o to, że w tym formacie pisaliście prompty, wgrywaliście załączniki do prompta, lecz też o to, że gdy modele AI zwracały Wam ustrukturyzowany tekst, ten format też wlatywał.
Thariq Shihipar (pracownik Anthropic) podzielił się ostatnio swoimi przemyśleniami na X, że finalny wynik, który zwraca nam AI, wygodniej nam, ludziom, czytać w formacie HTML niż .md.
Czemu? Odpowiedź wydaje się prosta - łatwiej skanować materiał, który nie jest ścianą tekstu, a zawiera takie elementy jak tabele, diagramy, ilustracje, elementy interaktywne itd.
Nic w tym dziwnego, w końcu już od dawna masa woli oglądać rolki, zdjęcia, memy, niż czytać tekst.
Tylko teraz przejdziemy do kwestii "Ok, fajnie, ale do czego mi się to przyda?".
Jak wiecie, mam zbudowane swoje centrum dowodzenia w Obsidian + Claude Code - praktycznie cała moja praca przez to przechodzi. Dotychczas asystent wyrzucał mi wszystko w formacie .md, ja to sobie grzecznie czytałem.
Nie ukrywam, często tych informacji było sporo do przeczytania. Zmiana konwencji na produkt wizualny brzmi dla mnie jak ułatwienie przyswajania i zrozumienia informacji od mojego asystenta.
Dodatkowo, jak chcecie komuś wysłać jakiś dokument, gdzie coś wyjaśniacie, to możecie szybko taki HTML wrzucić do sieci (wszystko z automatu za pomocą skilla) i wysłać jako link, a nie załącznik.
---
PS. W przyszły czwartek (21.05) o 20:00 organizuję darmowy warsztat "Jak z Claude Code budować apki mobilne". Na liście jest już 1,5k osób. Też dołączysz?
Link do zapisu w komentarzu 👇
Polski

@LondonDigiTech @KinasRemek @KacperTrzepiec1 Bases są użyteczne dla człowieka.Agent go nie potrzebuje- tak samo jak html. Zaleta md jest jego elastyczność. Może być rekordem w bazie (bases) albo źródłem prawdy dla html. Czy zwykła notatka. Jednocześnie 3 w 1
Polski

@numgaa @KinasRemek @KacperTrzepiec1 Bases nie sa widoczne przez agenta ktory wczytuje .md wiec przydatnosc taka sobie niestety ;( Byc moze skill issue po mojej stronie ale nadal tworze klasyczne markdownowe tabelki.
Polski

@KinasRemek @KacperTrzepiec1 To na co pozwala czysty markdown jako podstawa znakomicie pokazuje Obsidian (bases, canvas itd). Dodatkowo sam korzystam z obu rozwiązań tworząc dashboardy w html tworzone z md. Widzę czyste dane (w md) a jak potrzebuję szlaczków - html. Ale to md jest źródłem prawdy
Polski

@KacperTrzepiec1 Dowód na to, że pracownik Anthropic nie zna możliwości Markdown, tego jak są trenowane modele oraz że każdy kit który powie człowiek że znanej firmy ludzie biorą w ciemno jako prawdę objawioną.
Polski

@CKeruac @petrospsyllos Z tym się zgadzam. AI ma bardzo wysoko sufit swoich aktualnych możliwości. Problem jest z podłogą możliwości, nieprzewidywalnością oraz kruchością wielu opartych na nim rozwiązań. Projektując jakiś realny produkt/workflow trzeba to brać pod uwagę. Demo to nie produkcja
Polski

Jak odróżnić realną rewolucję AI od napompowanego techno-marketingu? Wystarczy posłuchać wywiadów z niektórymi polskimi popularyzatorami technologii (jak np. @petrospsyllos ). To idealne studium przypadku tzw. „AI bros” – mieszanki autopromocji, języka startupów i skrajnego determinizmu.
Bardzo często to, co słyszymy z ich ust, to nie są czyste kłamstwa, ale niebezpieczny koktajl retorycznej przesady, uproszczeń i futurystycznych wizji. Zobaczmy to na przykładach:
Mit "małego wynalazcy": zbudowanie kosiarki do trawy z silniczków zabawki w wieku 6 lat? Brzmi świetnie, ale to typowy archetyp z Doliny Krzemowej („od dziecka rozkręcałem elektronikę”), który służy budowaniu osobistej legendy, a nie opisowi realnej maszyny.
"Wyhodowałem w liceum super-AI do szachów": stworzenie silnika (np. przez minimax) to świetny projekt dla ucznia. Ale używanie w tym kontekście szerokiego słowa "AI", by brzmiało to jak projekt na miarę AlphaZero od Google DeepMind, to gruba przesada.
Iluzja niezawodnego Agenta AI: opowieści o wirtualnym pracowniku, do którego „dzwonisz, a on sam obsługuje Photoshopa i robi prezentacje”. Tak, modele agnetowe potrafią już klikać po ekranie (GUI). Ale w rzeczywistości są wolne, łatwo się wykolejają i wymagają nadzoru. Przedstawianie „dema przyszłości” jako stabilnego standardu pracy w 2026 roku to czysty marketing.
Ułomna wizja komputerowa i losowy design: choć wizja komputerowa czy segmentacja obrazów są dziś na bardzo dobrym poziomie, to w zderzeniu z realnym projektem wizualnym to się po prostu nie sprawdza. AI generuje design w dużej mierze losowo, chyba że dostanie ultra-dokładny, inżynieryjny opis (json). Efekt? Jeśli masz odrobinę zmysłu estetycznego i dobre oko, i tak po takim „agencie” będziesz musiał absolutnie wszystko poprawiać ręcznie.
Mit „AI z doktoratem”: słyszymy, że modele językowe to dziś doktorzy biologii i fizyki naraz. Błąd. LLM-y świetnie zdają testy i syntetyzują wiedzę, ale halucynują i nie mają modelu świata. To świetna metafora PR-owa, ale fatalny opis naukowy.
Logiczny paradoks rynku pracy: „AI nie doprowadzi do biedy, ale większość ludzi straci rację bytu”. Klasyczna techno-utopia zderzona z brutalnym fatalizmem, rzucana bez żadnego wyjaśnienia mechanizmów ekonomicznych.
Koniec ludzkich marzeń: skrajny determinizm technologiczny. Słuchaczom wmawia się z ogromną pewnością siebie, że nie warto już mieć planów ani pasji (np. programowania), bo „AI i tak zrobi to lepiej”. To deprecjonowanie ludzkiej sprawczości i narzucanie własnego fatalizmu innym.
Do tego dochodzi często zamknięcie w bańce (np. nazywanie głównego nurtu konserwatywnego, jak Klub Jagielloński, „skrajnie prawicowym pisemkiem”).
Wniosek? Po sukcesie ChatGPT wielu techno-entuzjastów zaczęło mówić o eksperymentalnych możliwościach modeli tak, jakby były już stabilnymi produktami zmieniającymi całą cywilizację.
Trzeba interesować się AI, ale przez potężny filtr. Oddzielajmy dema i prototypy od rzeczywistości, a marketing – od nauki. I przede wszystkim: nie dajmy sobie wmówić, że w erze AI nasze marzenia są bezcelowe.
youtube.com/watch?v=2-h0TX…

YouTube
Polski

@laskowski_pl @piotrmiecz Nie zgodzę się. Nic się nie nauczymy czekając. Nie wystarczy czytać o cudzych błędach aby się uczyć.
Polski

@piotrmiecz Dlatego z wdrożeniem AI trzeba spokojnie poczekać. Oprócz szkolnych błędów jakie zrobili oni, nie wiemy jakie błędy są robione przez AI w tle o których jeszcze nie wiemy.
Polski

Katastrofalny błąd PocketOS dowodzi, że sztuczna inteligencja wciąż wymaga pełnego nadzoru.
Firma PocketOS, dostarczająca oprogramowanie SaaS dla wypożyczalni samochodów, boleśnie przekonała się o zagrożeniach płynących z bezkrytycznego zaufania do sztucznej inteligencji. W wyniku fatalnego błędu, agent AI oparty na modelu Claude usunął całą bazę danych produktów firmy, a następnie zniszczył również wszystkie jej kopie zapasowe. To zdarzenie dobitnie podkreśla, że agenty AI wciąż potrafią zachować się skrajnie nieracjonalnie i wymagają nieustannego nadzoru ludzkiego.
Najbardziej kuriozalnym aspektem tej sytuacji jest fakt, że podczas swojego “procesu myślowego” agent otwarcie przywołał wewnętrzną politykę zakazującą usuwania danych (“do not delete”), po czym… całkowicie ją zignorował i wykonał destrukcyjną operację. Stanowi to kolejny dowód na to, że choć sztuczna inteligencja może sprawiać wrażenie racjonalnej i świadomej, systemy te wciąż nie rozumieją związków przyczynowo-skutkowych i potrafią popełniać najbardziej podstawowe błędy.
Co więcej, maszyny potrafią generować spójne teksty tłumaczące, co robią i dlaczego, ale w wielu przypadkach są to kompletne bzdury. Rodzi to uzasadnione pytania o to, czy komunikaty generowane przez te systemy podczas pracy nad zadaniem mają cokolwiek wspólnego z rzeczywistym myśleniem, czy są jedynie matematyczną aproksymacją mającą na celu sprawianie takiego wrażenia.
W sieci zawrzało od wzajemnego przerzucania się odpowiedzialnością między twórcami modelu Claude a dostawcą infrastruktury (Railway). W tym sporze umyka jednak najważniejszy fakt: winę ponosi tu tylko i wyłącznie samo PocketOS. Żaden rozsądny menedżer nie powinien nadawać agentowi AI pełnych uprawnień administratora (root access) do kluczowych systemów, by następnie pozostawić go samemu sobie bez żadnej kontroli. Przypadek PocketOS to sztandarowy przykład tego, co się dzieje, gdy pokładamy w maszynach zbyt wielką wiarę. Działania agentów AI muszą być na każdym kroku ściśle zarządzane i nadzorowane.
W tym właśnie miejscu do gry wkraczają takie firmy jak ServiceNow i Salesforce, które przez ostatnie lata intensywnie dostosowywały swoje produkty do rozwiązywania problemu braku nadzoru. Ich systemy mają zagwarantować, że przedsiębiorstwa będą bezpiecznie czerpać korzyści z rewolucji AI, zamiast stawać się jej ofiarami.
W tę samą kategorię wpisuje się Adobe, choć w nieco innej domenie. Firma ta pozwala na ekstremalną kontrolę nad procesem generowania obrazów przez wybrane modele sztucznej inteligencji, dbając jednocześnie o odpowiednie zabezpieczenia prawne i ochronę praw autorskich.
Katastrofa, która spotkała PocketOS, z pewnością posłuży za głośne ostrzeżenie pokazujące, do czego prowadzi porzucenie mechanizmów zabezpieczających i kontrolnych. W obliczu takich incydentów, zapotrzebowanie na solidne platformy gwarantujące bezpieczne wdrożenie sztucznej inteligencji będzie tylko rosnąć, a telefony w firmach stawiających na nadzór nad AI z pewnością będą dzwonić coraz częściej.
Polski

@Story91_ Większość Claude, czasem code review Codexem
Polski

Vibe-koduję następujące projekty:
➡️Mobilna wersja Element (na ukończeniu).
➡️Zastąpienie Intercomu (dość drogiego systemu wsparcia użytkowników) własną bazą wiedzy oraz autorskim chatbotem.
➡️Zastąpienie Pipedrive'a (systemu CRM, nieco tańszego od Intercomu, lecz coraz bardziej zbędnego) agentowym systemem obsługi sprzedaży.
🎯Cel: w pełni zautomatyzowany i skalowalny biznes nadzorowany przez jedną osobę.
Polski

@porzechowski @piotrmiecz duże organizacje biorą pod uwagę też ryzyko prawne i operacyjne a nie tylko koszty. O ile operacyjne można minimalizować on-prem, prawne jest dla chińskich modeli większe (dane, bias itd). Inferencja z Chin to dla większości org za duże ryzyko.
Polski

Połowa zobowiązań chmurowych u big tech to openai oraz anthropic.
Jak tego komuś nie wcisnąć to pęknie bańka.
Jessica Lessin@Jessicalessin
Good lord. Half-ish of the cloud backlog at Microsoft, Oracle, Google and Amazon is OpenAI and Anthropic????
Polski

@piotrmiecz nie wiemy czy rozdają za darmo. Wiemy że sub są bardzo silnie subsydiowane, ale nie wiemy na ile koszty API są realne. O ile mi wiadomo nie mamy aktualnego rozdziału przychodów API/sub - do niedawna Anthropic miał większość z API. Ale wiemy ze MS sam zmniejszył skalę inwestycji
Polski

@numgaa bo rozdają prawie za darmo. Mówię o klientach masowych. Znacznie mniej chce płacić.
Nie wiem czy wiesz ale Anthropic czy OpenAI dopłaca do wdrożeń w firmach. Microsoft każdemu stara się aktywować co-pilot.
Polski

@MaxKusmierek @NowySwiat24 Całość jest w wielu miejscach nieścisła (np. GPU nie starzeją się w 3 lata) lub spekulatywna (rozwój technologii to nie przemiany gospodarcze), scenariusze abstrahują od realnych problemów w PL (np. energia!). Gratuluję jednak ambicji. ps. też lubię claude cowork.
Polski

@NowySwiat24 Przygotowałem raport na ten temat agipoland.eu
Polski

Sztuczna inteligencja zlikwiduje w Hiszpanii ponad 2 miliony miejsc pracy.
Według najnowszego raportu Fundacji Funcas, opublikowanego właśnie 30 kwietnia 2026, generatywna AI może doprowadzić do likwidacji ponad 2 milionów etatów w Hiszpanii w najbliższych latach.
Co ważne: najbardziej zagrożone są nie pracownicy fizyczni, a zawody umysłowe – tzw. „białe kołnierzyki”. Analitycy, specjaliści od danych, pracownicy administracji biurowej, księgowi, a także wiele stanowisk wysoko wykwalifikowanych w sektorze usług.
Zawody fizyczne wypadają w tym zestawieniu znacznie lepiej.
Raport podkreśla, że hiszpańskie firmy przyspieszają implementację AI, co już teraz przekłada się na realne zmiany na rynku pracy.
To nie jest science-fiction – to prognoza na najbliższe lata.
Czy Polska czeka podobny scenariusz? U nas też już widać pierwsze oznaki w administracji, marketingu, IT i obsłudze klienta.
ABC.es@abc_es
⭕️Un informe estima que la inteligencia artificial destruirá más de dos millones de empleos: estos son los grupos más afectados new22-www.abc.es/economia/cuant…
Polski

@CKeruac Nie wiem co to znaczy „właśnie”. Kwiecień 2026? Cały 2026? Akurat kwiecień to pierwszy miesiąc z nowymi dużymi modelami od frontier labow. Jeden (Mythos) znamy tylko z 2 reki. A ChatGPT 5.5 wygląda bardzo obiecująco (choć nie wiadomo czy to harness czy model)
Polski

@numgaa Projekty mają zazwyczaj ograniczenia związane z liczbą dodawanych załączników i generalnie moim zdaniem służą do czegoś innego, niż budowanie second brain/memory. IMO NotebookLM nadaje się do tego lepiej.
Polski

Google robi swoją wersje second brain/memory.
Google Gemini@GeminiApp
Project organization is here: Introducing notebooks in Gemini. You can now keep multiple projects organized and even add past chats and relevant files as sources, so you have a dedicated space to focus on the task at hand. Select “New notebook” in the side panel to get started.
Polski

@Maciej_M Projekty. W Claude to też RAG, można pracować na danych. W ChatGPT nie do końca wiadomo jak to działa, ale funkcjonalnie jest to podobne. Jedyna ciekawa różnica to integracja projektów Gemini z NotebookLM. Zobaczymy jak to działa gdy będzie dostępne w PL.
Polski

@numgaa Co masz na myśli przez "od dawna w ChatGPT i Claude"? Którą funkcję tych dwóch narzędzi porównujesz do NotebookLM?
Polski

We are expanding Codex’s toolkit - what tools would you love to see work with codex the most?
Tibo@thsottiaux
Codex deserves great tools. We are about to expand its toolkit a whole bunch and I can’t think of using anything else anymore for all my daily tasks, way way outside of coding.
English

@emollick Please don’t delete it. Your observations are very much aligned with mine. Pro is especially useful where a very high level of thoroughness—almost pedantic attention to detail—is required. Opus 4.6 has a better grasp of the broader context, but it usually doesn’t dig as deeply
English


