Michał od marketingu

1.3K posts

Michał od marketingu banner
Michał od marketingu

Michał od marketingu

@MikeP2137

Transformuję niewidoczne firmy w lokalnych liderów. Obserwuj po praktyczne taktyki marketingowe, które działają od pierwszego dnia.

Right on your screen Katılım Haziran 2010
296 Takip Edilen41 Takipçiler
Sabitlenmiş Tweet
Michał od marketingu
Michał od marketingu@MikeP2137·
How did I start my paid search agency and get 2 first customers? It's not super revealing, but you can learn from my journey. I will focus 80% on mindset, 20% on business idea itself. ↓ THREAD ↓
English
2
0
6
0
Michał od marketingu
Michał od marketingu@MikeP2137·
@nauczymycieAI Ja obstawiam że ten wyścig wgrają i tak chińskie modele open source. To jaki Przeskok Wykonałem modele Kimi glm czy Minimax przez ostatnie trzy miesiące to jest jakiś kosmos kropka osobiście nie widzę różnicy między Kimi 2.6, codexem czy opusem
Polski
2
0
0
35
Nauczymy Cię AI
Nauczymy Cię AI@nauczymycieAI·
Codex + GPT 5.5 to obecnie najlepsza propozycja do pracy w kategorii cena / jakość. Do niemal każdego zadania biurowego. I OpenAI to wie. Dlatego zagrali kartą, której ledwie kilka miesięcy temu użyło Anthropic, kiedy to oni byli na fali. Za pomocą kilku kliknięć możesz przenieść całe swoje ustawienia Claude Code - skille, pluginy, pamięć - do Codex. Wystarczy, że wybierzesz odpowiednią opcję po zainstalowaniu Codex - lub wejdziesz w Ustawienia > Zaimportowana konfiguracja agenta > importuj. Kilka kliknięć i wszystkie najważniejsze konfiguracje, które budowałeś w Claude przez ostatnie 6 miesięcy migrują do Codex. Genialne w swojej prostocie. PS: W poniedziałek wrzucam szczegółowe porównanie Opus 4.7 vs GPT 5.5 na moich codziennych zadaniach. Jeżeli chcesz wiedzieć, z którego modelu warto skorzystać i w jakich sytuacjach - zapraszam do obserwowania mojego profilu
Polski
6
0
48
4.8K
Aria Westcott
Aria Westcott@AriaWestcott·
It's really impressive that BytePlus is running full GLM-5.1 at about a fifth of Z.ai's direct pricing. It's the actual model, same weights, sitting on their Coding Plan and working inside Cursor, Claude Code, TRAE and OpenClaw. Holds 8 hour autonomous runs without falling apart, which is usually where these setups start drifting. MiniMax M2.7 is on the same plan for agent workflows that tend to break after a few tool calls. Auto routing covers GLM-5.1, DeepSeek V3.2, Kimi K2.5, GPT-OSS and a couple others, so you're not stuck picking the wrong model for the job. Anyone still paying Z.ai direct should take a look. byteplus.com/en/activity/co… #GLM51 #BytePlus #MiniMaxM27
Aria Westcott tweet media
English
19
22
193
27K
Nauczymy Cię AI
Nauczymy Cię AI@nauczymycieAI·
GPT 5.5 (Spud) jest już dostępny. Wygląda na to, że OpenAI w końcu się budzi. Tydzień po premierze Opusa 4.7, OpenAI odpowiada modelem, który pierwszy raz od dawna wygląda jak realna konkurencja w uniwersalnych modelach do pracy. Artificial Analysis wskazuje GPT 5.5 jako najbardziej inteligentny model w ich zestawieniu. Tam, gdzie Spud bije Opusa 4.7 (benchmarki OpenAI): - Terminal-Bench 2.0 (samodzielne zadania w terminalu): 82,7% vs 69,4% - GDPval (realne zadania biurowe): 84,9% vs 80,3% - BrowseComp (wyszukiwanie w internecie): 84,4% vs 79,3% - OSWorld (zadania w aplikacjach z GUI): 78,7% vs 78,0% Gdzie Opus 4.7 dalej wygrywa: - SWE-Bench Pro (prawdziwe zadania z GitHuba): 64,3% vs 58,6% - MCP Atlas (narzędzia przez MCP): 79,1% vs 75,3% - GPQA Diamond (zadania na poziomie doktoratu): 94,2% vs 93,6% GPT 5.5 wydaje się też (w końcu) szybszym modelem od poprzednika, dostarczając odpowiedzi o ok. 20% szybciej w wersji xhigh niź GPT 5.4 (Vals AI). To ważne, bo ślamazarność tych modeli znacząco zmniejsza efektywność użytkownika - działając z szybszym Opusem, nawet jeżeli robi więcej błędów - koniec końców osiągniesz więcej. Co ciekawe: Spud na średnim poziomie rozumowania daje ten sam wynik w indeksie Artificial Analysis, co Opus 4.7 na maksymalnym - po 1/4 kosztu (+/- 4 800 zł vs +/- 19 200 zł za pełny przebieg benchmarku). A w tle premiery modelu dostajemy coś, co moim zdaniem wygląda jak właściwa strategia - Codex przestaje być narzędziem wyłącznie dla programistów i staje się fundamentem superaplikacji OpenAI. Co teraz potrafi Codex: - sterowanie aplikacjami dekstopowymi - klika, przechodzi przez formularze, robi screenshoty, iteruje aż zadanie jest wykonane - natywna obsługa arkuszy, slajdów, dokumentów i PDF-ów - obsługa głosowa (bardzo dobrze radzi sobie z j. polskim) - tryb auto-review - drugi agent pilnuje pierwszego, dużo mniej zatwierdzeń przy długich zadaniach - działa w tle - nie zabiera Ci kursora, nie przejmuje ekranu, możesz pracować dalej równolegle Po tych zmianach Codex to nie jest już narzędzie wyłącznie dla programistów. I to kolejny mądry krok ze strony OpenAI. Przez następny tydzień będę testować GPT 5.5 i Opusa 4.7 na swoich własnych zadaniach. Obserwuj mój profil, żeby nie przegapić podsumowania. 👉 Testowałeś już GPT 5.5.? Pokonuje Opusa 4.7 w Twoich codziennych zadaniach?
Nauczymy Cię AI tweet media
Polski
11
0
29
3.3K
miroburn
miroburn@miroburn·
Krótka myśl Kimi CLI + Kimi 2.6. Jest sobie: cladue --dangerously-skip-permissions codex --yolo gemini --yolo Ale kimi --yolo to inny level. Pracuję właśnie nad jednym ze swoich projektów. Agent dostał duże zadanie. Robi je już ponad 1h. Patrzę tylko w CLI. Robi kod. Deplojuje. Znajduje narzędzia zewnętrzne (np. przed chwilą dobrał się do API mojego Active Campaign i dodał listy/tagi). Ofkoz poprawnie robi deployment na AWS. Sprawdza, czy działa. Aktualizuje ofkoz cały czas dokumentację projektu. Szczerze: jestem pod wrażaniem, jak Kimi robi bardzo długie zadania bez dopytywania. Co może być plusem lub minusem, ale w moim trybie pracy to plus. Po prostu buduje, aby osiągnąć dany cel.
miroburn tweet media
Polski
6
0
31
11.5K
Przemysław Kral
Przemysław Kral@przemyslaw_kral·
W obliczu trwającej kampanii wymierzonej w @zondacrypto publikuję oświadczenie, w którym odnoszę się do kulis motywowanego politycznie ataku na naszą giełdę. Podjąłem decyzję o upublicznieniu adresu portfela zawierającego 4500 bitcoinów o wartości 330 milionów dolarów, by uciąć bezpodstawne oskarżenia o rzekome przywłaszczenie środków. W oświadczeniu szczegółowo opisuję mechanizm manipulacji medialnych, bezprawne naciski regulacyjne oraz wykorzystanie organów państwa przeciwko zondacrypto. Odnoszę się również, do sytuacji finansowej firmy wykazując jej rentowność i dementując oskarżenia o rzekome wyprowadzanie z niej środków. Zapewniam, że bezpieczeństwo naszych pracowników oraz interesy Klientów pozostają dla mnie priorytetem. Zapraszam do zapoznania się z pełnym materiałem wideo i faktami, które rzucają nowe światło na obecną sytuację.
Polski
1.4K
108
712
1.6M
miroburn
miroburn@miroburn·
Wczoraj dopakowałem do pieca ChatGPT. Nie mogę jeszcze kupić Pro, bo mam Team. Odpaliłem OpenAI Codex z GPT 5.4 do budowy Lab Club. I powiem tak... Dawno już nie zrobiłem takiego progresu. Aż miło się przesiąść z CC/Opus. Nadal Opus używam, ale od wczoraj Codex/GPT zrobił mi więcej pracy niż Opus w tydzień.
miroburn tweet media
Polski
21
0
49
19.2K
Michał od marketingu
Michał od marketingu@MikeP2137·
@FinansowyUmysl Skille miękkie top 1. Emocje, jak radzic sobie z odrzuceniem, uczenie samodzielności. Wiara w to że niezależnie od czasów dasz sobie rade bo sobie ufasz. Nie ma nic ważniejszego.
Polski
2
0
3
654
FinansowyUmysł
FinansowyUmysł@FinansowyUmysl·
Mam półtorarocznego syna. Ma jeszcze czas na edukację. Ale coraz częściej nachodzą mnie pytania, czego uczyć przyszłe pokolenie? Macie jakieś propozycje? Myślałem o umiejętnościach miękkich: sprzedaż, negocjacje, komunikacja, praca w zespole.
Polski
278
3
191
59.9K
Michał od marketingu
Michał od marketingu@MikeP2137·
@realtek12345 Ja testowałem. 3.6 ma porównywalny performance co Gemini cli. Do prostych zadań spoko, szczególnie ze ma hojny free tier, ale co claude code i codex podjazdu nie ma, bo np. Połączenie sie do zdalnego vpsa przez ssh zeby cos skonfogurowac go przerasta
Polski
0
0
1
946
Realtek
Realtek@realtek12345·
Czy ktoś już korzystał z Qwen Code? Przecież to jest zarąbiście dobre. I w najdroższym, praktycznie unlimited planie (który notabene daje też kimi, glm czy minimax) kosztuje... 50 USD na miesiąc - o ile uda Ci się na niego załapać ;)
Polski
16
2
38
14.2K
Michał od marketingu
Michał od marketingu@MikeP2137·
@miroburn Dzięki za insight. Czy to jest ktoś ala ewangelizator który pokazuje innym jak używać AI? Czy ktoś bardziej z IT kto stawia te automatyzacje?
Polski
1
0
0
665
miroburn
miroburn@miroburn·
Dziś miałem spotkanie z klientem. Spora firma 100+. Większość firmy używa Claude Code (nie tylko programiści). Jest BARDZO duże zapotrzebowanie na CTO, fractional CTO ze znajomością AI (Claude Code / Codex) + chmura (AWS/Azure/GCP), aby budować autonomiczne proces. BARDZO duże. Zostawiam to, jako taką rekomendację dla niektórych osób, które nie wiedzą, co robić ze swoją karierą. Gdy już firmy zakosztują AI i zaczną używać nagle im w głowach się zmienia i chcą wydawać duże pieniądze, aby zrobić to dobrze. IMO tutaj programiści i inni ludzie z IT z interfejsem ludzkim* mogą robić olbrzymie pieniądze. * interfejs ludzki - nie wyzywam ludzi od głąbów / slop jełopów na pierwszym spotkaniu.
Polski
29
12
285
70.6K
miroburn
miroburn@miroburn·
OK. Meta Muse działa całkiem fajnie. Brakuje projektów. Brakuje narzędzi (deep research np.), ale jest potencjał. IMO, jakby zrobili integracje z Facebook Groups ala (Grok ma integrację z X) to byłby banger. Wiadomix, że w ich wypadku to raczej narzędzie wspierające główny model biznesowy (reklamy), ale nie jest źle. Nie halucynuje. Pracuje dobrze na dużych plikach i wyciąga wnioski. Nie robiłem testów na długim kontekście, ale jest potencjał.
miroburn tweet media
miroburn@miroburn

Ooo. Benchmarki spoczko. Nazwa na plus. Raczej nie będę używał, ale na pewno potestuję.

Polski
2
0
8
3.8K
Michał od marketingu
Michał od marketingu@MikeP2137·
@kimmonismus If these benchmarks are real this is crazy. Cost of intelligence goes to zero. Everyone in a year will have model which runs on local GPU with SOTA performance.
English
1
0
1
309
Chubby♨️
Chubby♨️@kimmonismus·
Here we go: Gamma 4 released: ""Outperforms models 20x its size" Google dropped Gemma 4 under Apache 2.0, full open-source, big licensing shift. Built on Gemini 3 tech, four sizes: E2B, E4B, 26B MoE, 31B Dense. Price-performance: 31B is #3 open model on Arena AI, 26B MoE is #6 — beating models 20x their size. MoE activates only 3.8B params at inference. Fits on consumer GPUs quantized. Edge: E2B/E4B run offline on phones, Raspberry Pi, Jetson Nano. Native vision + audio at 2B params, 128K context. Built with Qualcomm/MediaTek.
Chubby♨️ tweet media
English
19
23
465
26.2K
Paul Crow 🚀
Paul Crow 🚀@Paul__Crow·
Ostatnio odpaliłem open sourceowe narzędzie do szukania drzewa genealogicznego rodziny przy użyciu modeli LLM. Sztuczna inteligencja w 2 godziny doszła do okolic 1800-1820 roku. Jeśli dobrze liczę, do 5-6 pokolenia po mojej stronie i po stronie żony. Najciekawsze jest jednak nie to, że AI coś znalazła. Najciekawsze jest to, że pamięć o przodkach wcale nie zaginęła. Ona po prostu leży rozrzucona po aktach urodzeń, ślubów i zgonów, starych archiwach, często po rosyjsku, z czasów zaborów i czeka, aż ktoś połączy kropki. Ja podałem tylko punkty startowe miejscowości, nazwiska dziadków, nazwiska panieńskie tam, gdzie je znałem. Od strony ojca brakowało mi danych, więc byłem przekonany, że tu wszystko się urwie. Nie urwało się. Model przez 2 godziny krzyżowo łączył dane, wykluczał błędne tropy i składał całość z rozproszonych dokumentów. Mocne wow, jak to robił. Mi by się nie chciało, nie miałbym tyle cierpliwości i pomysłowości. Drugie wrażenie było bardziej osobiste. Czytasz te akty i nagle widzisz, jak blisko jest historia, o której nikt już nie mówi. Wielu moich przodków ponad 100 lat temu było niepiśmiennych. Wielu brało ślub dopiero po 27 roku życia. Sporo dożywało około 70 lat, czyli dłużej, niż intuicyjnie bym zakładał. Poznałem ich zawody, śmierć, świadków, trochę jak ten świat wyglądał. To daje perspektywę jak dobre mam życie teraz, jestem zdrowy, umiem pisać i czytać, głodny nie jestem, nawet mam komputer, a teraz Ai.... Na końcu dostałem sugestię od Ai, co robić dalej gdzie pisać, do kogo się zgłosić i jak wejść jeszcze wyżej w drzewie. Więcej pokażę na filmie, ale jeśli macie chwilę czasu, to serio warto to sprawdzić. Nie tylko dla technologii, ale też po to, żeby zobaczyć, jak krótka bywa nasza pamięć. Może nie ma sensu za bardzo wszystkim się przejmować i fajnie wiedzieć co dla nas jest naprawdę ważne. Bo potem i tak o nas wszyscy zapomną. miłego dnia ☕️ ps. Co zrobiłem: 1. Sciągnąłem Antigravity. 2. Sklonowałem repo. 3. Podpiąłem ChatGPT Codex 5.3 medium. 4. Poprawiłem kod pod polskie warunki. 5. Podałem to, co wiedziałem: miasta, wsie, nazwiska dziadków, nazwiska panieńskie tam, gdzie je znałem. 6. Ai zrobił resztę.
Matt Prusak@MattPrusak

Your grandparents had grandparents. They had grandparents. Somewhere back there, someone got on a boat, or didn't. Someone changed their name, or had it changed for them. Someone is buried in a cemetery you've never heard of in a country you've never been to. Most families lose track after two generations. I used AI to push mine back nine. One session with @karpathy's autoresearch pattern: over 100 organized research files. It found a 1940 Norwegian emigrant history with my ancestors in it. Resolved a maiden name question that confused my family for 70 years. Identified relatives no one alive knew existed. The method is simple: set a goal, measure progress, verify against real records, repeat. The AI searches public archives, cross-references birth certificates against cemetery records against church books, and logs everything it finds (and everything it doesn't). Open sourced the whole toolkit. Prompts that do the research for you, archive guides for 20+ countries, starter templates, even a framework for making sense of DNA results. If you have a box of old photos and unanswered questions, this is where to start. github.com/mattprusak/aut…

Polski
86
102
1.5K
220.9K
Nauczymy Cię AI
Nauczymy Cię AI@nauczymycieAI·
Chcesz wejść na wyższy poziom ze swoimi umiejętnościami Claude Code? Borisa Cherny, twórca CC opublikował wątek z 15 przydatnymi, ale mało wykorzystywanymi funkcjami. Przeszedłem przez cały wątek i wybrałem 9 funkcji, które przydadzą Ci się nawet jeśli nie programujesz 👇 1. Aplikacja mobilna. Claude Code działa na telefonie. Otwierasz aplikację Claude na iOS lub Androidzie, wchodzisz w odpowiednią zakładkę i pracujesz z dowolnego miejsca. Ja osobiście często tak dopinam tematy, kiedy przemieszczam się jako pasażer - zamiast bezmyślnie scrollować social media 2. Przenoszenie sesji między urządzeniami. Zaczynasz sesję w chmurze na telefonie, a potem wpisujesz /teleport na laptopie i kontynuujesz lokalnie z pełnym kontekstem. W drugą stronę - /remote-control pozwala sterować sesją działającą na komputerze z poziomu telefonu 3. Powtarzalne zadania. Komendy /loop i /schedule pozwalają ustawić Claude'a, żeby wykonywał zadanie co 5, 30 czy 60 minut - przez cały tydzień bez Twojej interwencji. Autor ma kilkanaście takich pętli działających jednocześnie. Agent, który raz dziennie sprawdza postępy w projekcie i raportuje Ci na telefon - całkiem przydatna funkcjonalność 4. Dispatch. Kiedy nie siedzisz przy komputerze, Dispatch pozwala sterować aplikacją na desktop z telefonu. Autor używa tego codziennie do przeglądania wiadomości, zarządzania plikami i wykonywania zadań na laptopie, kiedy jest poza biurem 5. Rozszerzenie Chrome Najważniejsza rada z całego wątku. Autor mówi wprost - najważniejsza zasada pracy z Claude Code to dać mu sposób na weryfikację własnej pracy. Rozszerzenie Chrome pozwala AI otworzyć przeglądarkę i sprawdzić efekt tego, co zbudował. Tak jak z każdym pracownikiem - jeśli nie widzi wyniku, efekt będzie słaby. Jeśli go widzi - będzie poprawiał w ramach wskazówek - aż dojdzie do miejsca, w którym zadanie zostało wykonane 6. Rozgałęzianie sesji. Komenda /branch tworzy kopię Twojej aktualnej sesji. Chcesz sprawdzić dwa różne podejścia do tego samego problemu? Rozgałęź sesję i testuj oba równolegle. Nic nie tracisz, bo oryginał zostaje nietknięty 7. Pytania w tle. Komenda /btw pozwala zadać szybkie pytanie, podczas gdy agent pracuje nad głównym zadaniem. Odpowiada subagent, a praca dalej dzieje się w tle 8. Własni agenci. Możesz zdefiniować własnych agentów z własnymi instrukcjami i narzędziami w folderze .claude/agents. Jeden agent do researchu, drugi do analizy danych, trzeci do raportów. Każdy z osobną konfiguracją, osobnym kontekstem i osobną specjalizacją 9. Sterowanie głosem. Komenda /voice włącza sterowanie głosowe. Autor przyznaje, że większość swojego kodu tworzy mówiąc, nie pisząc. Na telefonie wystarczy włączyć dyktowanie w ustawieniach iOS. Mówisz po angielsku, co chcesz zbudować - AI pisze kod. Po polsku możesz do tego wykorzystać no: Whispr Flow Którą z tych funkcji jest dla Ciebie najbardziej przydatna? 🔧
Nauczymy Cię AI tweet media
Polski
7
7
102
9.4K
Daniel Kostecki, CAI
Daniel Kostecki, CAI@Dan_Kostecki·
$GOOG - oby to nie było to, czym wydaje się, że może być...
Daniel Kostecki, CAI tweet media
Polski
40
1
109
52K
Nav Toor
Nav Toor@heynavtoor·
🚨 OpenAI charges $0.006/minute. Google charges $0.024. AWS charges $0.024. Someone just open sourced a tool that does it for $0. And it's faster than all of them. It's called Insanely Fast Whisper. And that's not hype. That's the benchmark. 150 minutes of audio. 98 seconds to transcribe. On your own machine. No API key. No cloud. No per-minute billing. Here's what the numbers look like: → Whisper Large v3 + Flash Attention 2: 150 min of audio in 98 seconds → Distil Whisper + Flash Attention 2: 150 min in 78 seconds → Standard Whisper without optimization: 31 minutes for the same job → That's a 19x speedup. Same model. Same accuracy. Just faster. Here's what it does: → One command to transcribe any audio file or URL → Speaker diarization — knows WHO said WHAT → Transcription AND translation to other languages → Runs on NVIDIA GPUs and Mac (Apple Silicon) → Flash Attention 2 for maximum speed → Clean JSON output with timestamps → Works with every Whisper model variant Here's the wildest part: Otter.ai charges $100/year. Rev charges $1.50/minute. Descript charges $24/month. Enterprise transcription contracts cost thousands. Podcasters, journalists, researchers, lawyers, content creators — anyone still paying for transcription is lighting money on fire. 8.8K GitHub stars. 633 forks. MIT License. 100% Open Source. (Link in the comments)
Nav Toor tweet media
English
154
498
5.7K
503.7K
Nauczymy Cię AI
Nauczymy Cię AI@nauczymycieAI·
Paradoks Jevonsa - kiedy technologia tanieje, ludzie używają jej więcej, nie mniej. W 1865 roku William Jevons zauważył, że bardziej wydajne silniki parowe nie zmniejszyły zużycia węgla - zwiększyły je. Bo nagle opłacało się ich używać wszędzie. Dokładnie to samo dzieje się teraz z AI. Wczoraj Google Research opublikował TurboQuant - algorytm kompresji, który zmniejsza pamięć potrzebną do serwowania modeli AI 6-krotnie. Na tym samym sprzęcie. Bez ponownego trenowania. Bez utraty poziomu inteligencji. To nie jest drobna optymalizacja, tylko 6x mniej pamięci GPU na każdą operację wykonywaną przez AI. Każdą analizę, każdy raport, każde przetworzenie danych. A pamięć jest jednym z głównych kosztów składowych GPU. I tu zaczyna się paradoks. Odczuwalnie tańsze AI nie oznacza, że biznes wyda mniej - tylko, że adopcja przyspieszy. Automatyzacja procesów, które dziś nie mają uzasadnienia ekonomicznego. Przetwarzanie danych w czasie rzeczywistym zamiast raz na kwartał. Tydzień temu pisałem, że koszty zadania w benchmarku ARC-AGI spadły 12 000 razy. Teraz: czysto softwarowe ulepszenie dają 6x mniej zużycia pamięci z tej samej karty graficznej i do 8x szybsze obliczanie kluczowych operacji na H100. AI ma tyle wektorów rozwoju, że praktycznie co tydzień dostajemy nowe przełomy. Dlatego na spowolnienie trendu, lub zatrzymanie tej technologii nie ma co liczyć. ❓Na jaki przełom w AI czekasz najbardziej?
Polski
3
0
18
3.4K
FinansowyUmysł
FinansowyUmysł@FinansowyUmysl·
Ciekawa nowość ze strony Claude. Teraz może sterować całym Waszym komputerem. Uruchomić dowolną aplikację, aby dokończyć zadanie. Jesteśmy coraz bliżej momentu, kiedy z komputera będziemy korzystać tylko przez interface AI.
Polski
22
9
179
30K
Michał od marketingu
Michał od marketingu@MikeP2137·
@FinansowyUmysl Jak wszyscy rzucą się na to i dadzą podobną jakość – race to the bottom. Marże w dol, switching cost niski. Zwycięży tylko kto zbuduje prawdziwy moat: własne dane, governance i odpowiedzialność za błędy. Bez tego piękna teoria skończy się jako commodity z niskimi marżami.
Polski
1
0
1
809
FinansowyUmysł
FinansowyUmysł@FinansowyUmysl·
Świetny artykuł. Długo odkładałem jego przeczytanie, aż w końcu to zrobiłem. Jeśli ktoś, w świecie AI, szuka pomysłu na biznes. Pomysłu odpornego na AI, to znajdzie tutaj mnóstwo inspiracji. Jak zwykle polecam sobie zapisać na później.
Julien Bek@JulienBek

x.com/i/article/2029…

Polski
6
26
348
102.9K
Michał od marketingu
Michał od marketingu@MikeP2137·
@nauczymycieAI Ciekawe jak on sobie radzi z takimi właśnie weź prezentacje i wyślij ja na maila. Jeśli klika bez problemu po dowolnym GUI no to białe kołnierzyki muszą szukać roboty w fizycznym świecie. Tak ktoś bedzie musiał tym zarządzać, ale ile to bedzie 5% obecnego personelu?
Polski
1
0
1
36
Nauczymy Cię AI
Nauczymy Cię AI@nauczymycieAI·
Claude właśnie zyskał zdolność kontroli niemal całego Twojego komputera. Jeżeli będą poprawiać tą funkcjonalność tak szybko jak zdolności programowania - to czeka nas kolejne przyspieszenie. I to gwałtowne
Felix Rieseberg@felixrieseberg

Today, we’re releasing a feature that allows Claude to control your computer: Mouse, keyboard, and screen, giving it the ability to use any app. I believe this is especially useful if used with Dispatch, which allows you to remotely control Claude on your computer while you’re away.

Polski
11
1
78
20.7K