WaitState

57 posts

WaitState

WaitState

@quartercpu

it loads really slow

Mars Katılım Şubat 2015
125 Takip Edilen222 Takipçiler
WaitState
WaitState@quartercpu·
@Teknium Can someone post i woke up i run hermes update cat gif thanks
English
0
0
3
672
Teknium 🪽
Teknium 🪽@Teknium·
The Hermes Kanban now supports unlimited boards/projects, and you can now subscribe to updates from a project to your home channel across the gateway messengers you have setup! Just run `hermes update` and you're good to go!
Teknium 🪽 tweet mediaTeknium 🪽 tweet media
English
48
37
686
60.6K
David Fernández
🎯 Orchestration War Room: una capa visual para el orquestador de tareas de Hermes. Abstrae la dificultad: tú contratas perfiles expertos, pides una tarea, y ves el progreso en tiempo real. En el hilo enlace al repositorio y puntos clave. Y aquí el vídeo en acción. 🧵
Español
11
18
224
28.4K
Alican Kiraz
Alican Kiraz@AlicanKiraz0·
Sen nesin böyle ya 🔥🔥🔥Nvidia RTX Pro 6000 sanat eseri gibi… ❤️⚔️
Alican Kiraz tweet media
Türkçe
25
1
144
9.3K
WaitState
WaitState@quartercpu·
@KeremGokceler9 @GeeklikOtesine Yok hocam 20 sene öncesindeydi. Çocuk oyunuydu. Otobüse binip alışveriş yapmaya gidiyordun otobüsün saatleri söyleniyordu geç kalmaman gerekiyordu. Markette ürünleri doğru toplayıp alman gerekiyordu gibi
Türkçe
0
0
0
65
Geeklik ve Ötesine
Geeklik ve Ötesine@GeeklikOtesine·
İstanbul'da geçen taksi işletme simülasyonu Taksimetre duyuruldu. - Bu yerli oyunu iki arkadaş birlikte geliştirdi. - 22 Mayıs'ta Steam'e çıkacak. - Amcan taksi durağını sana devretti. Ancak 30.000 TL borcu da üzerine yıktı. Şoförlerini tut, çağrılara yönlendir, kötü müşterilerle ve şehrin aksilikleriyle uğraş.
Türkçe
69
77
4.5K
1.1M
WaitState
WaitState@quartercpu·
@denizirgin 47m token 1.6$ harcadım gayet başarılı bulduğum model oldu.
Türkçe
0
0
0
82
Deniz İrgin
Deniz İrgin@denizirgin·
Ya bu arada, ok Opus 4.7 veya GPT 5.5 değil tabiki ama 2 günlük yoğun coding aktivitesi sonrası $3 harcadım😀Daha güçlü modelleri plan ve dökümantasyon için kullanınca, bence çıktı kalitesi hiç felan değil.
Deniz İrgin@denizirgin

DeepSeek V4 Pro'yu denemeye başladım. Windows ortamında ayarlamak bir tık farklı. İki yol var. Claude CLI için en iyisi powershell profiline aşağıdaki gibi bir function eklemek👇 gist.github.com/Blind-Striker/… Onun haricinde Github Copilot eklentisi var, official yok ama benim denediğim👇 marketplace.visualstudio.com/items?itemName…

Türkçe
4
0
29
7.4K
WaitState
WaitState@quartercpu·
35BMoE aktifte sadece 3B parametresi olan bir model.8-12gb vram lık bir ekran kartı içinde çalışabilen bir model olarak güçlü. Kodlama olarak tabi bir gpt 5.5 olamaz SOTA modeller ile karşılaştırılamaz onun yanında gerçek manada boyut olarak %1-%2 si olabilir. Local olarak erişmek ise gerçekten ayrı bir rahatlık. Ben agentic işleri ona yaptırıyorum bazen sub agent olarak sistem task in zorluğuna göre karar veriyor ve localden onu çağırıyor.
Türkçe
1
0
0
292
Berathân-i Milliye
Berathân-i Milliye@berathani·
@furkanbytekin @quartercpu Baya zayıf. Türkiye için şu an en mantıklısı ios cihazdan alınma plus üyelikli chatgpt. Codex 14 dolara geliyor. Bir sürü otomasyon vesairesi de var aider'da o da yok. Ben 2 hesap kullanıyorum 5.5 (high) , iş görüyor. Tek hesap "mini" modelde tüm gün çalışabilirsin.
Türkçe
1
0
4
323
Furkan Baytekin
Furkan Baytekin@furkanbytekin·
Deepseek aldım 5 dolarlık. o da 2 saatte 0.40$ yaktı. bugün komple çalışsam 2.5$ falan yakacak. aylık 75 dolar edecek bu da. yani yapay zeka için en ucuz modellerde bile 75 doları gözden çıkarmamız gerekecek. Yerelde çalıştırabileceğimiz bir şey yok mu ya 😣
Türkçe
59
6
476
116.8K
WaitState retweetledi
Sudo su
Sudo su@sudoingX·
here is my take from running local ai on every tier of gpu. i ran qwen 3.5 9b at q4_k_m on a rtx 3060 12gb at 50 tok/s with 128k context, had the model autonomously build a fullgame from one prompt. that was on a card most people consider entry level. every tier has real capability if you know how to push it. the smaller cards are doing more work than the discourse credits them for. 128gb spark is the frontier consumer tier for those at the top. the floor is wherever you are sitting right now. what matters is what you ship from it. and i will ship more benchmarks on the smaller nodes in coming days, that is where most of you are sitting.
Sudo su tweet media
Sudo su@sudoingX

drop your vote on the next benchmark sweep. which vram tier should i test local ai models + tool calls on?

English
23
7
166
16.3K
WaitState
WaitState@quartercpu·
@furkanbytekin Harness e göre değişiyor. Hermes ile kullanıldığında çok başarılı. Ben memnunum özel bir code base sahiptim toplamda 150 sayfalık onu referanslayıp yazdırtıyorum. LLM wiki gibi hiç zorlanmıyor. Sadece harness in düzgün olması lazım. Tavsiyem net Hermes.
Türkçe
0
0
1
158
WaitState retweetledi
Joruno
Joruno@wsl8297·
日常要做图片文字识别,很多人第一反应是丢给各种在线 OCR:要么担心隐私外泄,要么有次数限制,还经常被网络卡住效率。 最近在 GitHub 看到一个挺有意思的开源项目:iOS OCR Server。它直接把你的 iPhone 变成一台本地 OCR 服务器,在局域网里随时可用。 项目基于苹果 Vision Framework,识别精度高,支持多语言自动检测。同一网络下用 IP 访问即可开始识别:上传图片,秒级返回结果;也能走 JSON API,方便接进自己的工具链和应用里。 GitHub:github.com/riddleling/iOS… 主要功能: - 基于苹果 Vision Framework 的高精度 OCR - 多语言自动检测与识别 - 网页端上传图片,快速返回识别文本 - 提供 JSON API,便于二次开发与集成 - 全程本地处理,无需联网,隐私更安心 - 返回文字位置等详细信息,支持绘制边界框 使用方式也很简单:从 App Store 安装并打开应用后,服务会自动启动;同一局域网内的任意设备,通过 IP 就能直接访问使用。
Joruno tweet media
中文
12
112
977
98K
WaitState
WaitState@quartercpu·
@PaulGugAI @vmiss33 27B is dense model so speed will be issue. You can get 30-40 tok/s with q4 for qwen 3.635Ba3. With 10gb vram going for more for speed is sounds better it makes the model usable
English
0
0
0
30
GooGZ AI
GooGZ AI@PaulGugAI·
@vmiss33 Wow didn’t realise that was possible either. I assume that means 3.6 27b is also possible? 3080 10gb owner here
English
2
0
0
74
WaitState
WaitState@quartercpu·
Tek ümidim qwen3.6 35ba3 gibi bir moe model gelmesi offload ile 12Gb vramde q4 güzel çalışıyor en azından agentic olan basit işlerin çoğunda yeterli. Bunun 70b-a6 veya 120b-a8 tarzı bir model consumer gpu lar için yapılırsa çok iyi olur. Q8-Q6-Q4 lerini kullandım. 3.6-35Ba3 q4 te hiç kötü değil.
Türkçe
0
0
1
261
Ayberk
Ayberk@wralith·
herhangi bir local llm postuna cevap olabilir, alican kiraz setupın yoksa (0.01) localde bu iş olmuyor, martı gibi bir şey kaldırırsın
Mert Cobanov@mertcobanov

@emrekocbi maalesef gercek disi biri tweet adamin attigi, llama modeli 70b modelini 64gb macbookta ancak 4bit quantta load edebilir onunla da hicbir sey yapamaz

Türkçe
5
0
28
12.5K
WaitState
WaitState@quartercpu·
New macmini m4 for hosting hermes and running 9B or below models or buying 3090 (paying extra 200 bucks) and going for straight 24gb vram.....
English
0
0
1
77
WaitState
WaitState@quartercpu·
1 min Hermes Agent setup → 4-8 min Hermes Workspace tour & use cases Just set it up. I’ve been using WebUI but always ended up SSHing back into the machine, it never felt comfortable.The Workspace instantly feels way better. Would love to see more expanded use cases and how to use hermesworkspace abilities better
English
1
0
1
44
Eric ⚡️ Building...
Im going to focus on LONG form content this week! What should the first YouTube video be about?
English
4
0
8
458
WaitState
WaitState@quartercpu·
@iam_shanmukha Same GPU, but I have 32GB RAM. Tried similar settings in LM Studio. Told Hermes to run a test with these settings. It ran ~15 prompts, took 10-15 minutes, and everything passed. Got 50-52 tokens/sec. So yeah, don’t shy away just because you don’t have 64GB RAM.
WaitState tweet media
English
0
0
1
107
Shanmukha Vishnu
Shanmukha Vishnu@iam_shanmukha·
QWEN 3.6 + NVIDIA RTX 4070 12GB V RAM (64GB RAM) 60 tok/sec, 128k context + Q4_K_M llama-server \ -m Qwen3.6-35B-A3B-GGUF/Qwen3.6-35B-A3B-UD-Q4_K_M.gguf \ --alias qwen3.6-35b-128k \ --host 0.0.0.0 \ --port 8083 \ -ngl 999 -ncmoe 25 -fa on \ --cache-type-k q8_0 --cache-type-v q8_0 \ -c 131072 -np 1 -t 12 \ --no-warmup --jinja --metrics #QWEN #llm #ai
Indonesia
23
32
436
28.2K
WaitState retweetledi
Weed Porn
Weed Porn@WeedPorns·
This is what AI was built for
English
372
1.9K
31.1K
3.3M
WaitState
WaitState@quartercpu·
@AlicanKiraz0 Eski BF veya COD havası alıyorum direk çok iyi olmuş
Türkçe
0
0
1
193