

Osman Coşkunoğlu
15.7K posts

@OsmanCoskunoglu
“İçinde Ütopya olmayan bir haritaya bakmaya değmez” BS, MSc: ODTÜ, PhD: Georgia Tech



Construction of Medieval Castles still blows my mind. For example, here’s Bamburgh Castle in England from the 11th century!



Very exciting new issue published today! It contains a special issue on the philosophy of Daniel Dennett (Dennett's Powerful Ideas) and a symposium on Adam Toon's book, "Mind as Metaphor" #vol39issue3 Enjoy! tandfonline.com/toc/cphp20/39/…



YAKINDA 📣 Gündelik hayat, felsefe ve sanatın iç içe geçtiği yerde, insan olmanın anlamını kültür, beden ve deneyimle birlikte yeniden düşünmeye çağıran kışkırtıcı bir çalışma: Dolanıklık yakında raflarda!







Filozoflar gibi.. Onlar da hayatlarında birkaç kere görüşlerini değiştiriyorlar.



In their paper today, the authors assert that LLMs are "homogenizing" human thought and expression cell.com/trends/cogniti…


Kasım 2022’de, Büyük Dil Modeli’nin (#LLM) ilk #YapayZeka sohbet robotu ChatGPT piyasaya sunulduğundan bu yana bence en önemli gelişme: Bir sineğin beynindeki her nöron ve sinaps bilgisayara yüklendi. Yapay yerine organik #Tekillik yolunda önemli bir adım. Güzel bir özet 👇

Bir sineğin beynini bilgisayara mı yüklediler? Peki bu nasıl mümkün olabilir? O halde yapay zeka çöpe mi gitti? Bu konuyu 2024'te ilk makale yayınlandığından beri takip etmeye çalışıyorum. İzninizle bildiklerimi özetleyeyim: 📌 Bu çalışmanın ardında Eon Systems adlı biyoteknoloji firması var. Şirket, 2024 yılında hakemli bilimsel dergi Nature'da yayımlanan bir makalede, meyve sineğinin 125 bin nöron ile 50 milyon sinaptik bağlantısını haritalamıştı. Yani nispeten karmaşık beyne sahip bir canlının beynini, sinir hücrelerini ve bu sinir hücrelerinin nasıl etkileşime girdiğini haritalandırmayı başarmışlardı. 📌 Sinek diyince bize basit gelebilir. Ama aslında çok önemli bir buluştu. Bundan önce sadece 302 nöronlu C. elegans türü solucanların beyni böyle haritalandırılabilmişti. 📌 Ekip sinek beyninin çıkarmak için 100 terabaytlık görüntüyü, yani yaklaşık 100 dizüstü bilgisayara denk bir belleği analiz etmişti. Görüntülenen kesitlerin işlenmesinde yapay zekadan yararlanılmıştı. Yapay zeka yardımı olmadan böyle bir araştırma 4 bin yıl sürerdi! 📌 Aradan yaklaşık 2 yıl geçti. Şimdi ekip diyor ki "haritaladığımız bu beyni sanal bir sineğe taktık". Kanıt olarak sundukları videoda sanal sinek hareket ediyor ve sağ tarafta beynin bu esnada nasıl çalıştığını görüyoruz. Çok büyüleyici. 📌 Bu sanal sineğe yapay zekada olduğu gibi bir şey öğretmeniz, onu eğitmeniz, veri yüklemeniz filan gerekmiyor. Çünkü "gerçek" bir beyin var ortada. Sanal sinek doğuştan gelen bilgiyi kullanıyor. Yani aslında doğal bir beyni kopyalayıp bilgisayar ortamına yapıştırıyorsunuz. 📌 Peki insana da yapılabilir mi? Ekip şu an 70 milyon nöron içeren (sineğin 560 katı) fare beyninin tam dijital kopyası için çalışmalara başlamış. Çok çok daha karmaşık bir beyin bu. İnsana daha yol var. Fare üzerinde de bunu başarılarsa işte o zaman devrim başlar bence :) 📌 Geçen gün de Doom oynayan nöronlardan bahsettik. Organik hesaplamalı sistemler çağı yaklaşıyor.

Eskiden gücün yüzleşme ve haddini bildirmek gibi ham yollarda gizli olduğunu sanardım. Zamanla anladım ki, en büyük güç ulaşılmaz olmakta. Biri saygısızlık mı yaptı, bağlantıyı kes. Biri hakkını mı ihlal etti, hakkını prosedürle al. “One step back.” İlişkilenilememek üstünlüktür.





Anthropic just announced it will take the Trump administration to court over the supply chain risk designation. And in the same breath, Axios revealed the detail that changes everything about this story. While Anthropic was being blacklisted for refusing to allow mass surveillance, the Pentagon’s own “compromise deal” that Under Secretary Emil Michael was offering on the phone at the exact moment Hegseth posted the designation on X would have required Anthropic to allow the collection and analysis of Americans’ geolocation data, web browsing history, and personal financial information purchased from data brokers. Read that again. The Pentagon spent two weeks saying it has no interest in mass surveillance of Americans. Then the deal they actually put on the table asked for access to your location, your browsing history, and your financial records. They told us Anthropic was lying. The contract language told us Anthropic was right. Now here is where this becomes an existential question for a $380 billion company. The supply chain risk designation means every company that does business with the Pentagon must certify they do not use Claude. Eight of the ten largest companies in America use Claude. Defense contractors, cloud providers, consulting firms, banks. The blast radius is not the $200 million Pentagon contract. It is the enterprise ecosystem that generates $14 billion in annual revenue. Anthropic’s legal argument is specific: under 10 USC 3252, the designation can only restrict use of Claude on Pentagon contract work. Your commercial API access, your claude.ai subscription, your enterprise license are, in Anthropic’s reading, completely unaffected. But here is the problem. That is a legal argument. It will take years to resolve in court. And in the meantime, every general counsel at every Fortune 500 company with any Pentagon exposure is going to ask one question: is using Claude worth the risk? The IPO, which was expected this year at a $380 billion valuation backed by $30 billion in fresh capital, is functionally frozen. No underwriter will price an offering while a company carries the same designation as Huawei. And here is the final detail nobody has processed yet. Hours after blacklisting Anthropic, the Pentagon accepted OpenAI’s proposed safety framework, which contains the identical red lines: no mass surveillance, no autonomous lethal weapons. They destroyed one company for a position they then accepted from its competitor. Full analysis on Substack. open.substack.com/pub/shanakaans…

ABD’den yapay zeka şirketine savaş ilanı… 🔺Pentagon, Anthropic şirketinden yapay zeka modeli Claude’u kitlesel gözetim ve tam otonom silah sistemlerinde hiçbir kısıtlama olmadan kullanma izni istedi. 🔺Şirketin CEO’su Dario Amodei, “Bazı kullanımlar güvenlik, etik ve güvenilirlik açısından kırmızı çizgileri aşar. Vicdanen kabul edemeyiz” diyerek talebi reddetti. 🔺Trump, şirket için “gerçek dünyadan haberi olmayan kişiler tarafından yönetilen radikal solcu bir yapay zekâ şirketi” dedi. 🔺13 dakika sonra Savaş Bakanı Pete Hegseth, şirketi “ulusal güvenlik açısından riskli” ilan etti. 🔺Krizi OpenAI fırsata çevirdi. Sam Altman, gerekli izinleri vermeye hazır olduklarını söyleyerek Pentagon ile anlaşma imzalayacaklarını duyurdu. 🔺Anthropic’e destek veren mektuba Google ve OpenAI’dan 430’dan fazla çalışan imza attı: “Liderlerimizin farklılıklarını bir kenara bırakarak, modellerimizin yurt içinde kitlesel gözetim ve insan denetimi olmaksızın otonom öldürme amacıyla kullanılmasına izin verilmesi yönündeki mevcut talepleri reddetmeye devam etmelerini umuyoruz.” Anthropic, çalışanları şirket merkezinin yollarına destek mesajları yazdı⬇️ serbestiyet.com/featured/abdde…
