Furkan

41 posts

Furkan banner
Furkan

Furkan

@furkano_dev

developer, builder, human. Building: @gurberapp

Ankara Katılım Şubat 2024
805 Takip Edilen29 Takipçiler
Sabitlenmiş Tweet
Furkan
Furkan@furkano_dev·
"Ankara'da en iyi lahmacunu nerede yerim?" gibi soruları sormuş veya muhatabı olmuşsundur. Bu soruya gerçekçi bir cevap bulmak için @GurberApp'i geliştiriyorum. Odağımız restoran değil, yemek. Henüz yolun başı, eksiği çok ama bi göz atmanı isterim; gurber.app
Türkçe
0
0
0
45
Furkan
Furkan@furkano_dev·
@mertcobanov @emrekocbi Son zamanlarda buna benzer sahte local model tweetlerinde hep mac cihazları görüyorum. Bi reklam işi mi var acaba
Türkçe
0
0
0
599
Mert Cobanov
Mert Cobanov@mertcobanov·
@emrekocbi maalesef gercek disi biri tweet adamin attigi, llama modeli 70b modelini 64gb macbookta ancak 4bit quantta load edebilir onunla da hicbir sey yapamaz
Türkçe
6
1
101
13.3K
koc7
koc7@koc7emr·
Uçakta 11 saat boyunca MacBook M4'te Llama 70B çalıştırıp müşteri projesini bitirmiş 25 dolarlık WiFi'ı reddetmiş, cloud'a bağlanmamış, sadece 64GB RAM ve yerel AI ile iş bitirmiş Bu seviye self-sufficient geliştiricilik başka bir boyut. OpenAI'ya para ödemeden, internet olmadan full production work. Edge computing artık hayal değil, insanlar 10 bin metre yükseklikte Llama koşturuyor 🛫
Blaze@browomo

This Chinese developer launched Llama 70B locally on a MacBook on a plane and for a full 11 hours without internet ran client projects. He was sitting by the window on a transatlantic flight with a MacBook Pro M4 with 64 GB of memory. WiFi on board cost $25 for the flight. He declined. No cloud API, no connection to Anthropic or OpenAI servers, no internet at all. Just a local Llama 3.3 70B on bf16 and his own orchestrator script. The model runs through llama.cpp. Generation speed, 71 tokens per second. Context around 60,000 tokens. Memory usage, 48.6 GiB out of 64. Battery at takeoff, 3 hours 21 minutes. And he gave the orchestrator this system prompt before takeoff: "You are an offline orchestrator running on a single MacBook. There is no network. The only resources you have are local files in /Users/dev/work, the Llama 70B inference server at localhost:8080, and a battery budget of 3 hours 21 minutes. Process the queue at /Users/dev/work/queue.jsonl (one client task per line). For each task: draft → run local evals → save artefact to /Users/dev/work/done/. Save context checkpoints every 12 tasks so you can resume after a battery swap. Stop only on empty queue or when battery drops below 5%." So the system knows exactly what resources it is running on. It knows it has no connection to the outside world for the next 11 hours. It knows it has finite memory and a finite battery. It knows the human will not intervene until the plane lands. The system runs in 1 loop. Takes a task from the queue, runs it through inference, saves the artifact, writes a checkpoint. Task after task, just like that. And only when the battery drops below 5% does the orchestrator automatically pause, waits for the laptop to switch to the backup power bank, and continues from the last checkpoint. Here is what the system actually writes in his log during the flight: "saved context checkpoint 8 of 12 (pos_min = 488, pos_max = 50118, size = 62.813 MiB)" "restored context checkpoint (pos_min = 488, pos_max = 50118)" "prompt processing progress: n_tokens = 50 / 60 818" "task 37016 done | tps = 71 s tokens text → /Users/dev/work/done/proposal_westside.md" Outside the window, clouds, blue sky, and no WiFi. On the tray, 1 MacBook, an open terminal on 2 screens, and an inference server on localhost. From what I have observed, this is the cleanest offline AI workflow I have seen in the past year: 11 hours of flight, $0 for WiFi, and the entire client queue closed before landing.

Türkçe
25
21
423
143.7K
Furkan
Furkan@furkano_dev·
@apostylee Eski şirketim yakın zamana kadar doğum gününde herkese hala bu kitaplardan dağıtıyordu. Bana da HTML5 kitabı vermişlerdi. Hediyeyi aldığım sırada titrim frontend takım lideriydi 😃 Sanırım bu gibi şirketlerin sayesinde hala baya para kazanıyorlar
Türkçe
1
0
73
20.9K
Abdullah Uğraşkan
Abdullah Uğraşkan@apostylee·
Bu kategorinin halen daha yaşıyor olması çok ilginç.
Abdullah Uğraşkan tweet media
Türkçe
78
26
2.6K
199.6K
Furkan
Furkan@furkano_dev·
İlay Hanım bir "Politikacı" olarak bir öngörünüzde daha yanılmışsınız. Daha önce de defalarca Suriye konusunda yalan söylediğiniz ortaya çıktı. Özür dilemeyi düşünüyor musunuz?
İlay Aksoy@ilay_aksoy

@ilkay_55 Biz mi yaşayacağız orada? Bize ne?? İran halkı ne isterse öyle değişim olmalı, İsrail’in istediği değil. Suriye’nin durumu ortada. Yıl sonuna kadar Esad’ı mumla arayacaklar.

Türkçe
0
0
0
86
Furkan
Furkan@furkano_dev·
@amity_sarmal Okunabilir ama ABD ve Türkiye çok farklı değer yargılarına sahip iki ülke. Belirli konularda dayanak olabilir ancak resmin genelinde bizi yanıltır. Bu konunun üzerine eğileceksek Amerika’yı yeniden keşfetmemiz lazım
Türkçe
3
0
9
5.3K
amity
amity@amity_sarmal·
Bizim halk beni benden alıyor Kardeşim karşında 50 senedir günü birlik school shooting yaşamaktan okul kapılarını kurşun geçirmeze çevirmiş bir örnek ve o ülkeden çıkmış "çocuklar/genç yetişkinler neden okul basar" çalışmaları var. Hazır elinde çalışma var. Git oku+
Türkçe
7
60
2.1K
185.2K
Furkan
Furkan@furkano_dev·
@tominoski @HHaandr Ben sandığın kişi değilim ama sen malsın maalesef. Umarım düzelirsin 🤣
Türkçe
0
0
3
99
tominoski
tominoski@tominoski·
@furkanodev @HHaandr olum bu model nasıl bir model amk. akpartili yazılımcı furkan dolu heryer. parır patır sıçmışlar sizi hepiniz furkan hepiniz yazılımcı. vallahi midem bulanıyor gördükçe.
Türkçe
1
0
6
232
Hendrik Haandrikman 🐈
Hendrik Haandrikman 🐈@HHaandr·
🇹🇷 The Turkish government is now offering app developers up to $430,000 in support. Per app. Per year A new government decree in Türkiye is a massive accelerator for (Turkish) developers Here’s what’s happening 🧵
Hendrik Haandrikman 🐈 tweet media
English
72
124
1.6K
740.1K
Furkan
Furkan@furkano_dev·
@tominoski @HHaandr Ne salak adamsın yav sen hahahahaha. Adam devlet kolaylık sağladı diye paylaşım yapmış altta kızılay çadır sattı yazmışsın ahahahaha
Türkçe
1
0
8
318
tominoski
tominoski@tominoski·
it’s very obvious you don’t know these places. all of these supports are given to the children or relatives of families and parliament members close to the government. a fake project is made up and the state’s all supports are plundered this way. the turkish government has been doing this in every field for many years. the turkish red crescent sold tents to its own citizens during the earthquake, even clothing and food aid sent by people were plundered by state officials before reaching the public.
English
5
1
40
8.1K
Hasan
Hasan@hasanunlu9·
After 8+ years on the Tesla Autopilot team and 3 years at Intel, I started @apexcompute to design a new architecture for efficient AI inference. For the past 9 months, we’ve been building our custom inference accelerator. Today we’re releasing Unified Engine v1. Last June we raised our seed round with @maxitechinc , DeepFin Research, @Soma_Capital and an incredible group of angel investors. In less than 9 months, we completed our RTL architecture and brought our first pre-silicon prototype to life on FPGA. Our architecture combines systolic array and vector processing in a single compute engine with multiple architectural optimizations, achieving very high FLOPs utilization. A single engine is super lean and it uses less than 90K LUTs and 1 MB Block RAM. It may also be one of the smallest logic-footprint compute engines developed so far. Our Unified Engine v1 supports: -matrix-matrix multiplication (~95% FLOPs utilization) -softmax (~90% FLOPs utilization) -broadcast and element-wise operations -RMSNorm / LayerNorm -block quantization/dequantization (fp4, int4) -multi-engine synchronization and many other operations. We even implemented memory-efficient attention similar to FlashAttention, reaching ~90% FLOP utilization. Full benchmarks and the software stack are available on our GitHub: github.com/apex-compute/u… We have basic compiler written in Python and it supports PyTorch tensors directly to easily test and transfer tensors between the accelerator and host using bf16, fp4 and int4 formats. Our FPGA prototype can already run LLM inference and outperform NVIDIA Jetson Orin Nano, even on a mid-tier FPGA setup (6.4x lower memory bandwidth, 18% slower clock speed at 4.5 Watts). Check the side-by-side comparison video below. Our GitHub includes low-level operator implementations, examples for tiled matrix multiplication, operation chaining, tensor parallelism, attention kernel and a full Gemma 3 1B model implementation. Many more models(Vision Transformers and VLA) are coming soon. Our accelerator IP is AXI-ready for deployment on any AMD(Xilinx) FPGA platform today. Even better, our two-engine prototype runs on an entry-level AMD(Xilinx) FPGA as a PCIe accelerator card. You can purchase it here buy.stripe.com/6oUaEQf6365bgA… for $50 to experiment our pre-silicon prototype on your desktop PC or Raspberry Pi 5. We will be releasing hardware bitstream updates as the architecture gets new features. More to come soon! We are expanding our team and looking for compiler engineers and floating-point hardware design engineers. If you're interested, please send me a DM.
English
29
40
387
36.8K
Furkan
Furkan@furkano_dev·
OpenAI son open source modelini (GPT-OSS modelleri) yayınlamasının üzerinden yaklaşık 1 sene geçti. Son Pentagon anlaşmasından sonra algıyı değiştirmek için GPT 5.1 ayarında bir model paylaşırlar diye düşünüyorum
Türkçe
0
0
1
56
Furkan
Furkan@furkano_dev·
@ikdannefret Oylama yanlış açılmış. Doğru şıklar Hayır ve Hayır şeklinde olmalıydı
Türkçe
1
0
25
1K
İK Nefreti
İK Nefreti@ikdannefret·
Şirketlerin İK departmanları işe yarıyor mu?
Türkçe
8
4
76
19.6K
Furkan
Furkan@furkano_dev·
@ErenAILab Bu işe niyetleniyordum Allah’tan başlamamışım hahahaha
Türkçe
0
0
1
339
Mehmet Eren Dikmen
Mehmet Eren Dikmen@ErenAILab·
Adamlar Overleaf'i tek kalemde yemişler :D Prism denen yeni araç sayesinde akademik makaleleri yazmak ve oluşturmak çok kolay olmuş. Bildiğin makale için Cursor gibi bir şey yapmışlar yani. Komut veriyorsun yazını düzenliyor, literatür arıyor, Latex formunda yazıyor, makalenin kontrolünü yapıyor. İyi bir araç olmuş. Son olaylardan sonra OpenAI tekrar bir ışık yakmaya başlamış galiba. Önce Codex şimdi de Prism. Devamı gelir umarım.
OpenAI@OpenAI

Introducing Prism, a free workspace for scientists to write and collaborate on research, powered by GPT-5.2. Available today to anyone with a ChatGPT personal account: prism.openai.com

Türkçe
17
48
1.1K
218.5K
Furkan
Furkan@furkano_dev·
@AlicanKiraz0 Önce ChatGPT, sonra Siri’yi Gemini’ye teslim etmeleri, AI alanında adım atacaklarına yönelik bir haberin bile çıkmaması direksiyonu iyice başka yöne kırdıklarını tescilliyor gibi. AI providerlar üzerinden cihaz dominasyonunu sağlamaya hedefliyor gibiler. Bu iş Tim Cook’u yiyecek
Türkçe
0
0
2
534
Furkan
Furkan@furkano_dev·
Signal CEO'su agentların güvensiz, dengesiz ve izlenebilir olduğu yönünde bir konuşma yapmış. Ayrıca agentların adım başına %5 hata payı olması halinde 10 adımda başarı oranının %60 civarı olacağını söylemiş. Agentlar'da güvenlik ve başarı tartışması 2026'nın ana konusu olacak
Furkan tweet media
Türkçe
1
0
0
32
Furkan
Furkan@furkano_dev·
@fatihguzeldev LLM toollarını Agent modunda kullanmak delilik resmen. 1- Kontrolden çıkmaya çok müsait, bir anda delirip beklenmedik işler yapıyor, 2- Token kullanımını uçuruyor 3- Codebasein elinizden çıkması için 3 request atmanız yeterli oluyor. Chat modundan şaşmayın derim
Türkçe
0
0
0
248
fatih
fatih@fatihguzeldev·
hayatımda ikinci defa vibe coding yapıyorum, çok heyecanlıyım. ikinci izlenimim de rezalet olduğu yönünde, sonnet 4 kullanıyorum. hiç kendi elimle kod yazıp düzeltmedim, ama yazdığı shit code'u okuyup bunu böyle düzelt diyorum ve çok yorucu olmaya başladı. bir de ufak bir maruzatım var, verdiğim işi yapmasını beklerken çok sıkılıyorum. siz ne yapıyorsunuz bu arada, ekrana mı bakıyorsunuz yoksa başka bir şey mi? telefona falan bakamıyorum, odağım dağılıyor çünkü.
Türkçe
20
1
81
17.7K
Furkan
Furkan@furkano_dev·
@siyahioyuncu Uzun uzun yazma ŞENOL GÜNEŞ yaz geç
Türkçe
0
0
1
112
Furkan retweetledi
Furkan
Furkan@furkano_dev·
@AltugAkgul Asıl utanç kaynağı ilk yıl izin vermeyen, ikinci yıl ise sadece 14 gün izin hakkı tanıyan, cumartesi çalışılmadığı halde yıllık izinden düşüren, izindeyken bile rahatsız eden ve hakkın olan izni lütufmuş gibi göstermeye çalışan Türk patronlardır
Türkçe
0
5
323
5.1K