🚧H©️©️🚧

14.9K posts

🚧H©️©️🚧 banner
🚧H©️©️🚧

🚧H©️©️🚧

@kahmaciks

🚧Yaşam yalnızca geriye bakarak anlaşılabilir 🔥 ama ileriye doğru yaşanmalıdır...🔥#investment #stock #xu100 #gold

Katılım Aralık 2009
5.1K Takip Edilen470 Takipçiler
Nuri Erginer
Nuri Erginer@nerginer·
BIST şirketlerini sadece tablo olarak değil, yaşayan bir ilişki ağı olarak incelemek ve seçmek...
Türkçe
5
2
50
3.5K
🚧H©️©️🚧 retweetledi
Çağkan Yapıcı
Çağkan Yapıcı@Cy_bist·
Bu floodu şirketlerin 2026 beklentilerini toplu şekilde tutabilmek için oluşturuyorum. İlk olarak bankalar. #Garan reel orta tek hane #Akbnk yüksek %20'ler #Tskb yaklaşık %25 özkaynak karlılığı bekliyorlar. Kabaca enflasyonun biraz üzeri denebilir.
Çağkan Yapıcı tweet mediaÇağkan Yapıcı tweet mediaÇağkan Yapıcı tweet media
Türkçe
7
38
320
108.8K
🚧H©️©️🚧 retweetledi
Claude
Claude@claudeai·
Gold: MedKit by Bedirhan Keskin from Türkiye A voice-based clinical simulator where medical students take histories, order labs, diagnose, and get scored on their reasoning against the latest published guidelines. youtube.com/watch?v=6bN6hn…
YouTube video
YouTube
English
69
520
5.5K
1.4M
🚧H©️©️🚧
🚧H©️©️🚧@kahmaciks·
@EsiniSevenBiri Peki openrouter ve librechat kullanarak kullandığın kadar öde modunda kullanmayı denedikten sonra eğer kesmezse 200 usd lik paketi almaya niyetim var. AI Workflow Orchestrator diye bir project kurup ilk önce ona danışarak token optimizasyonu yapacağım fiyat performans için.
Türkçe
0
0
0
53
DAYI
DAYI@EsiniSevenBiri·
Ha şu da var, ben bunu bazı zamanlarda 100 dolarlığa düşürürüm bazen 200’e çıkarırım. Elimdeki işe göre projeme göre vaktime yoğunluğuma göre. Ama birinden biri şart. Pro hakikaten boş. 20 dolarlığı hiç alman guzum. O 20 dolar bana şuan çok koyuyor. 200lüğe göre 20lik daha pahalı
Türkçe
3
0
38
19.6K
DAYI
DAYI@EsiniSevenBiri·
Claude max’a 200 dolar bayılalı 2 gün olmuş abartısız 2 aylık şey yaptım. İyi ki almışım diyorum. Bu para buna verilirmiş. Boğazdan kesip vermeliymişim. Uygulamayı en baştan opus max ile yapmaya başlasaymışım şuan bambaşka seviyede olurmuş. Ben iğneyle kuyu kazıyormuşum. Max nasıl bişey biliyo musun? Hani pro kullanıyorsan ya da codex vs kullanıyorsan opus max denemediysen özetleyeyim sana, bu tam gerçek yapay zekaymış da onlar arta kalanlarmış gibi hissettiriyor. Bir görev verdiğinde onu yapıyor abi. 5 koldan düşünüp çalışıp yapıyor. Ben sonnetle codexle neler çektim o gemini ile falan en basit şeyi yaptıramayıp da kafayı yiyecek noktaya az gelmedim. Ne kota derdi vaaaar ne ne tasarruf edeceğim diye yırtınma derdi vaaar oh be? Sigarayı bıraktığıma sayıyorum valla stresim azaldı. Her koldan kullanıyorum. Arsa ev kelepir arama sistemim de harika çalışıyor abonelere paylaşıyorum daha demin 1.5 milyona 4+2 ev buldu mesela paylaştım kendim arasam hayatta bulamam :) seviyorum da böyle şeyler kovalamayı. Acayip huzurluyum ya. Harcadığıma değen bi 10k
DAYI@EsiniSevenBiri

Paraya kıydım ve Claude 20x max aldım. Aylık 200 dolar. Kafayı yemişim bence. Bunun normal claude ile alakası yok. Bu bambaşka bi seviye. Biz de sonnetle falan kramp giriyormuş. Opus 4.7 max acayip bişey. Leb demeden çorum ha :)

Türkçe
52
22
586
353.4K
Emre
Emre@tfnemree·
@burak_tamac handout tool nedir? claude'a sorduğumda bu şekilde bir tool'un bulunmadığını belirtti.
Türkçe
1
0
1
2K
Burak Tamaç, Ph.D.
Burak Tamaç, Ph.D.@burak_tamac·
Bu hafta 2 şeyi değiştirdim. Normalde kotada %90'ı görüyordum, %50 bile olmadı 1️⃣ Ekranda 2 terminal açık. Soldakinde Sonnet (medium effort) var. Basit soruları buraya soruyorum. Baktım iş uzuyor, handout tool ile sağdaki Opus'a iş veriyorum. Yani işe önce Sonnet başlıyor. Sonra Opus'a veriyor. Opus'a verdiğinde Opus araştırma yapmıyor (burada token çok fazla gidiyor). Araştırmayı, dosyaları, kodu vs Sonnet yapmış zaten. O problemi biliyor ve böylece 100K token görmeden işi çözüyor hemen. 2️⃣ Rewind ESC'ye iki defa basınca chat'i geri alıyorsun (rewind). Bunu yarınlar yokmuş gibi kullanıyorum. Çünkü üst üste binen her soru yaktığın token'ı katlayarak devam ediyor. Sürekli geri sarıyorum. Memento filmi gibi hep fresh hafıza ile ilerliyor süreç. ✅ Yani? Bu hafta bu iki pratik çok işime yaradı. Kullanım aynı ama daha az token yakıyorum. Umarım size de fayda sağlar. Okuduğunuz için teşekkürler 🙏
Burak Tamaç, Ph.D. tweet media
Türkçe
14
16
274
44.9K
🚧H©️©️🚧
🚧H©️©️🚧@kahmaciks·
@xenit_v0 Yz de dikey olarak bir durgunluk olması açıkçası normal çünkü yatay gelişme olmadan dikey gelişme kendi degerinde de işlem göremiyor. Dikey gelişim belirli bir süre sonra hitap ettiği kesim de daralıyor haliyle gelir skalası da düşüyor. Bence stratejik bir seçim bile olabilir.
Türkçe
1
0
1
86
Mehmet
Mehmet@xenit_v0·
3 büyük şirket ve onların arkasından gelen diğer şirketler de sanki bir sınıra yaklaşıyorlar gibi bir görünüm var değil mi? İster istemez piyasa da konuşulan "Yapay zekalar da artık zeka da sınıra geldik" söylemleri geliyor. Bana göre tabiki de durum böyle olmayacak. Bir sınıra takılı kalınmayacak. Ben bu durumdan şunu çıkarıyorum. Mevcut geliştirme araçları ve mevcutta ki teknolojimiz bu sınırı aşmamıza henüz tam yetmiyor. Bunun için hem yeni fikirler ve daha gelişmiş teknolojiler gerekiyor. Zamanla bunu çözeceğiz. Bu zekanın sınırı değil bizim teknolojimizin sınırı!
Mehmet tweet media
Türkçe
1
1
6
1.4K
🚧H©️©️🚧 retweetledi
Saffet Çelik
Saffet Çelik@saffetceliktr·
ÜCRETSİZ emsal karar arama sistemine; Yargıtay, Danıştay ve BAM'a ait yaklaşık 2 milyon kararı, açık kaynaklı bir sistemle embedding yaparak eklemeyi hedefliyorum. Şu ana kadar 100.000 civarında karar yüklendi, kalan kısmın yükleme süreci devam ediyor. Semantik arama performansı çok yüksek. Kelime bazlı ya da anlam bütünlüğüne dayalı, otomatik olarak belirlenen çok fonksiyonlu bir yapı kurdum. Sistem kararları 1 saniye içinde bulup getirebiliyor. Aramanızla en alakalı kararı hem yazdığınız metni anlayarak veri tabanıyla eşleştiriyor hem de doğrudan esas veya karar numarası ile arama yapmanıza olanak sağlıyor. Sistemi ücretsiz olarak kullanmak için 👇
Saffet Çelik tweet mediaSaffet Çelik tweet media
Türkçe
21
70
856
114K
🚧H©️©️🚧 retweetledi
Claude
Claude@claudeai·
Introducing Claude Opus 4.7, our most capable Opus model yet. It handles long-running tasks with more rigor, follows instructions more precisely, and verifies its own outputs before reporting back. You can hand off your hardest work with less supervision.
Claude tweet media
English
4.8K
10.3K
81.3K
13.8M
🚧H©️©️🚧 retweetledi
DeepTechTR 🇹🇷
DeepTechTR 🇹🇷@DeepTechTR·
Birisi Obsidian'ın üzerine ücretsiz, açık kaynaklı bir yapay zeka ikinci beyni inşa etti. Sıfır manuel dosyalama. Tamamen otonom. Adı claude-obsidian. Ve Obsidian'ın kendi başına yapmasını istediğiniz her şeyi otomatik olarak yapıyor: düzenleme, çapraz referanslama ve bileşik bir wiki arşivini sürdürme. Ücretsiz. Mevcut tüm Obsidian yapay zeka eklentilerinin sorunu şu: Akıllı Bağlantılar: notlarınız hakkında soruları yanıtlıyor. Hiçbir şey oluşturmuyor veya düzenlemiyor. Copilot: birden fazla modeli destekliyor. Hala sadece bir sohbet arayüzü. Diğer tüm seçenekler: RAG araması, anlamsal benzerlik, sohbet sarmalayıcıları. Hiçbiri bir şey oluşturmuyor. claude-obsidian'ın bu sınırlamalarının hiçbiri yok. İşte ele aldığı şeyler: -> Herhangi bir kaynağı bırakın. Claude metni okur, varlıkları ve kavramları çıkarır ve otomatik olarak 8-15 bağlantılı wiki sayfası oluşturur. -> Aynı anda birden fazla kaynaktan veri alımı için paralel toplu alım, ajanlar eş zamanlı olarak çalışır. -> Sonuçları doğrudan kasanıza kaydeden 3 turlu otonom web araştırma döngüsü. -> Çelişkileri [!contradiction] uyarıları ve kaynak alıntılarıyla işaretleme. -> 8 kategorili kasa denetimi: yetimler, ölü bağlantılar, eski iddialar, eksik çapraz referanslar. -> Oturumlar arasında kalıcı olan sıcak önbellek, böylece Claude asla bağlamı kaybetmez. Andrej Karpathy'nin LLM Wiki modeline dayanmaktadır. 10 beceri. Çoklu model desteği (Claude, Gemini, Codex, Cursor, Windsurf). MCP entegrasyonu. Altı kasa modu: kişisel ikinci beyin, araştırma takipçisi, kod tabanı haritası, iş wiki'si ve daha fazlası. Bununla asla yapmayacağınız şeyler: -> Sıfır manuel dosyalama -> Sıfır notlara kopyala yapıştır -> Sıfır her oturumun başında bağlamı yeniden açıklama -> Sıfır ölü bağlantı veya sessizce biriken yetim sayfalar Geliştirici bunu, her yapay zeka eklentisinin Obsidian'a eklenmiş bir sohbet arayüzü olduğu için geliştirdi. Bu nedenle, sizin için kasayı gerçekten yazan ve koruyan bir tane geliştirdi. MIT Lisansı. Açık kaynak. Ücretsiz.
DeepTechTR 🇹🇷 tweet media
Türkçe
4
12
118
5K
🚧H©️©️🚧 retweetledi
5 0 7
5 0 7@e507·
İstediğiniz şarkıcı, müzisyen veya grubu yazıyorsunuz, benzerlerini / dinleyicilerinin diğer sevdiklerini gösteriyor. Onların üzerine tıklayıp sürece devam edebilirsiniz. Türkler de tam kadro. music-map.com
Türkçe
8
50
820
86.9K
🚧H©️©️🚧 retweetledi
Edwin Drake
Edwin Drake@petrolandeco·
Bireysel Yatırımcıların Bilmesi Gereken 85 Strateji. Akademisyenler veya uzmanlar bir anomali keşfettiğinde onu yayımlar; piyasa o anomaliyi zamanla arbitraj eder. Yine de bazı anomaliler dayanır, çünkü onları uygulamak disiplin, sabır ve kayıp toleransı gerektirir. Bunlar bireysel yatırımcının en kıt kaynakları olduğu gibi, aynı zamanda en değerli rekabet avantajlarıdır. 6 Kategoriye ayrılmış şekilde bilinmesi gereken önemli tüm stratejileri açıklamaya çalıştık: petrolandeco.blogspot.com/2026/03/dunyad…
Edwin Drake tweet media
Türkçe
2
21
131
5.8K
🚧H©️©️🚧 retweetledi
Mehmet Akif İLHAN
Mehmet Akif İLHAN@Avakifilhan·
İzale-i şuyu davası ve taşınmazın satışa çıkarılması yoluyla ihale süreci⬇️
Mehmet Akif İLHAN tweet mediaMehmet Akif İLHAN tweet mediaMehmet Akif İLHAN tweet mediaMehmet Akif İLHAN tweet media
Türkçe
6
152
1.3K
63.6K
🚧H©️©️🚧 retweetledi
Edwin Drake
Edwin Drake@petrolandeco·
Mazot neden benzinden çok daha pahalı oldu? Benzin ile mazot rafineri majları neden büyük fark gösterir? Neden benzin rafineri marjı sıfıra yaklaşırken rafineri benzin üretmeye devam eder? Bu konuyu detaylı biçimde anlatmaya çalıştık. petrolandeco.blogspot.com/2026/04/benzin…
Edwin Drake tweet media
Türkçe
6
39
336
46.4K
🚧H©️©️🚧 retweetledi
Ahmet Usta
Ahmet Usta@ahmetusta·
Karpathy'nin makalesi yeterince teknik bilgisi olmayanlar için biraz karışık görünebilir. Ben de uzun süredir bu akışa yakın bir çerçevede çalışıyorum. Daha sade şekilde ne yaptığımı anlatayım. 1- Not almak, düzenlemek, biriktirmek vb. için Obsidian kullanıyorum. 2- Obsidian Kasam (Vault) Gdrive üzerinde duruyor. Sistemde "Google Drive" kullanarak yerel bir klasör gibi gösteriyorum. Böylece hem yedekleme hem farklı cihazlardan erişim eş birlikte mümkün hale geliyor. 3- Obsidian içinde bazı eklentilerim var; - Editing Toolbar, klasik editör araçları için, - Hover Editor, URL ve iç linklerde hızlı görüntüleme için, - Link Embed, linkleri metadata ile çekip göstermek için, - Notebook Navigator, notlarda hızlı gezinme vb. için, - Word Press, notlarımdan doğrudan bloga post basmak için, En önemlisini en sona sakladım; "Smart Connections" yerel veya uzak AI modelleri ile tüm notlar arasında ilişkiler kurmak için. Not sayısı arttıkça aralarındaki ilişkileri bulmak giderek zorlaşıyor, bu araç sayesinde çok hızlı şekilde ilişkileri tespit etmek ve görmek mümkün. Bir eklenti değil ama Web Clipper ile de webden bulduklarımı Obsidian içine rahatlıkla çekiyorum. 4- Obsidian tüm içeriğini Markdown (MD) dosyası olarak tutuyor. Bu dosyaları doğrudan AI araçlarına atabilir veya yerelde çalışan bir AI aracına kasayı açarsanız okunabilir hale getirebilirsiniz. 5- Google Antigravity, OpenAI Codex, Claude ile ana kasa klasörünü açarsanız bunu bir proje dosyası gibi görüyorlar. 6- Belirli görev rutinlerini yine MD dosyası olarak oluşturabilirsiniz. Örneğin benim hayatımı en çok kolaylaştıran şeylerden birisini anlatayım; İçerisinde yine MD dosyası olarak farklı 10-15 tane seçilmiş makalem olan bir klasörüm var. Bu dosyalardan derlenmiş bir "Ahmet Usta üslup ve yazım teknikleri derlemesi" dosyam var. Görev rutinim bu derleme dosyasına bakıyor, eğer klasörde derleme dosyasının dışında yeni eklenen dosyalar varsa bunları tekrardan inceleyerek derleme dosyasını güncelliyor zira dönem dönem temel makale dosyalarımı değiştiriyorum. Daha sonra yine benim kendime göre oluşturduğum içerik çerçevesine ait dosyayı açıyor ve derleme dosyasındaki kriterlere göre makalemin taslağını yazıyor. Bu ne işe yarıyor? Artık hatırlamakta güçlük çektiğim binlerce not içinden, makale konumla alakalı en önemli kaynakları bulup, benim yazım tarzımda bir makale taslağını hızla alabiliyorum. Sonra oturup makalemi nihai hale getirmek çok zamanımı almıyor. 7- Yukarıda anlattıklarımı Karpathy'nin anlattığı gibi bir lokal wiki oluşturmak, arama motoru ile entegre etmek, döngüsel olarak wikileri güncellemek için de kullanabilirsiniz. Yaptığınız işi bu tarz yaklaşımlarla dönüştürmeniz lazım. Herkese uyan tek bir yaklaşım yoktur. Ancak temel araçlar belli. Obsidian geniş eklenti kütüphanesi, büyük topluluğu, her geçen gün biraz daha gelişen yapısı, geçen aylarda gelen BASE tablo ve sorgulama sistemi gibi gelişmeler ile tek başına bile yeterince güçlü bir araç. Ama onu AI modelleri ile kullanmak inanılmaz bir verimliliğin kapısını açıyor. Sormak istediğiniz sorular da varsa, elimden geldiğince cevap vermeye çalışırım.
Andrej Karpathy@karpathy

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

Türkçe
4
15
258
39.8K
🚧H©️©️🚧 retweetledi
cmd
cmd@cmdnoir·
milyar dolarlık fikirlerin çoğu aslında geçmişte batan girişimlerden çıkıyor. yeni bir şeyler üretmek için her zaman sıfırdan fikir bulmana gerek yok. startups.rip adlı site y combinator'da batmış binlerce girişimi tek tek listeliyor. sadece listelemekle kalmıyor, neden battıklarını ve bugün olsa nasıl başarılı olabileceklerini de analiz ediyor. mesela sam altman'ın yıllar önce batan girişimi loopt, bugün snap maps olarak yüz milyonlarca kişi tarafından kullanılıyor. facebook'un alıp öldürdüğü parse, bugün supabase adıyla 5 milyar dolar değerlemeye ulaştı. projeler genelde fikir kötü olduğu için değil, zamanlama ve teknoloji yanlış olduğu için batıyor. site sana bu yarım kalan fikirleri güncel araçlarla nasıl tekrar inşa edebileceğinin formülünü veriyor. tekerleği yeniden icat etmek yerine başkalarının pahalı hatalarından ders çıkarmak çok daha akıllıca. yeni bir projeye başlayacaksan ilham almak için kesinlikle girip kurcalamalısın.
cmd tweet media
Türkçe
3
76
701
50.1K
🚧H©️©️🚧 retweetledi
Sefa
Sefa@sefa_ai·
30.mesajın 1. mesajdan 31x daha fazla token yaktığını öğrenince şok olanlar? Claude code limitleri sıkıntılıyken aşağıdaki makaleyi gördüm, Tony çok güzel noktalara değinmiş. Aşağıda kısa özet geçtim: 1.Prompt yanlış çıktıysa yeni mesaj atma. Edit’le, regenerate et. 2.Her 15-20 mesajda yeni chat aç. Token’ların %98’i geçmiş history’yi okumaya gidiyor. 3.Soruları tek mesajda topla. Üç ayrı mesaj yerine tek seferde sor. 4.Tekrar kullandığın dosyaları Projects’e yükle, her seferinde yeniden tokenize etme. 5.Memory ve User Preferences kur. Setup’ı her chatte tekrarlama. 6.Kullanmadığın özellikleri kapat. Web search, Advanced Thinking pasif token tüketiyor. 7.Basit işler için Haiku kullan. Grammar ve format için Sonnet’e gerek yok. 8.Günü 2-3 oturuma böl. 5 saatlik window sıfırlanıyor. 9.Türkiye saatiyle 15:00-21:00 arası hafta içi yoğun saat. Ağır işleri akşam geç veya haftasona bırak.​​​​​​​​​​​​​​​​ Ben de şahsen o saatler arasında az kullanıyorum işe yarıyor.
tonny@bettercalltonny

x.com/i/article/2039…

Türkçe
21
34
563
106.6K
🚧H©️©️🚧 retweetledi
Ersin KOÇ
Ersin KOÇ@ersinkoc·
Claude Code kullananlar için süper bir trick veriyorum. Linkte 2 tane markdown içerik bulacaksınız. AGENT_DIRECTIVES.md yi projenize ekleyin ve sonra da CLAUDE_MODIFY.md icindekileri CLAUDE.md dosyanıza ekleyiniz. claude.ai/public/artifac…
Ersin KOÇ tweet media
Türkçe
10
11
215
18.6K