Mahmut Selman

236 posts

Mahmut Selman banner
Mahmut Selman

Mahmut Selman

@SelmanMahmut

PhD Student, University of Kentucky

Kentucky, USA Katılım Haziran 2012
128 Takip Edilen52 Takipçiler
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@carnivalqueue @Zarik_dolaknm @AltugAkgul Est. Ben bu alanda doktora yaptığım için biraz konuşma hakkini kendimde görüyorum. Çünkü çok fazla ai saçmalaması var etrafta ve bu işle uğraşandan cok, alakası olmayan insanlar konuşuyor. Kolay gelsin
Türkçe
1
0
1
33
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@Zarik_dolaknm @AltugAkgul Problem de o ya zaten. Yapay zeka diye diye milleti hype yaptılar ama işin temeline indiğinden yıllarca öğretilen makeine öğrenmesi dışında birşey çıkmıyor. Belki o bölümde ders verenler hayatında api call dışında bişey yapmadı veya hiç matematik bilmiyor. En büyük problem bu
Türkçe
1
0
1
61
Zarık
Zarık@Zarik_dolaknm·
@SelmanMahmut @AltugAkgul evet dediklerin çok doğru katılıyorum ama bence bunun için özel bölüm açılmasına gerek yok ya hani bi cs’ci de o matematiği temeli biliyor ne diye yz okiyim
Türkçe
1
0
0
40
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@Zarik_dolaknm @AltugAkgul Ayrıca, problemi çözerken sana sunulan kaynaklarda önemli. Yani elinde bir dgx cluster olmadan, H100 uyumlu kod yazman beklenemez. Elindeki imkanlar ile öğrendiklerin de aynı oranda artıyor. O yüzden arkada yatan matematiği bilmek başlangıç için gayet yeterli bence.
Türkçe
1
0
0
66
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@Zarik_dolaknm @AltugAkgul Üniversitede makine öğrenmesi derslerini aldıktan sonrası genel olarak gerisi sana kalmış oluyor. Eğer ki bir problemi api call ile çözebiliyorsan, nasıl yaptığınin çok bir önemi yok. Ama daha derinlemesine gitmen gerekiyorsa orada istatistik ve matematik bilgisi şart oluyor.
Türkçe
0
0
0
29
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@carnivalqueue @AltugAkgul Daha ne kadar geniş kapsamlı olabilir bilmiyorum ama bunlarda bile uzmanlık kazanmak yıllar alıyor. Kaldı ki daha geniş kapsamlı olması demek, bir ekip çalışmasını zorunlu hale getiriyor.
Türkçe
0
0
0
22
Carnival
Carnival@carnivalqueue·
@SelmanMahmut @AltugAkgul Bunu da kapsayabilir tabii ki ama bununla da sınırlı değil. Geniş bir alan, çok disiplinli çalışma gerektiriyor, projeden projeye göre değişir.
Türkçe
1
0
0
67
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@mesutcevik Günümüzde, etrafını algılayabilen, bunlardan anlam çıkartabilen görüntü modellerini bu şekilde hızlı çalıştırabilmek için en az rtx6000 ayarında bir grafik işlemciye gerek var ve o bile bu kadar hızlı yüksek çözünürlüklü işlem yapamaz. Varın ne kadar güç harcar, hesaplayın :)
Türkçe
3
0
0
2.5K
Alican Kiraz
Alican Kiraz@AlicanKiraz0·
Nvidia DGX Spark’da soğutma çalışmam acayip işe yaradı; 189 Saattir neredeyse tam kapasite çalışıyor ve sıcaklık 60-70 derece arasında geziyor 🔥🦾
Alican Kiraz tweet mediaAlican Kiraz tweet mediaAlican Kiraz tweet mediaAlican Kiraz tweet media
Türkçe
9
1
111
19.3K
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@webtekno Benim anlamadığım neden 7.4 milyar parametreli modeli sıfırdan eğittiler? Eğitin bi 70 milyar parametreli model, daha sonra distillation edip daha küçüklerini üretin. GPU kaynağı yok diyeceğim ama Allah bilir kaç para döküldü bunun için.En kötü GPU kiranalır, daha iyisi yapılırdı
Türkçe
0
1
3
950
Webtekno
Webtekno@webtekno·
Yerli yapay zeka modeli Kumru tanıtıldı. 📌 Kumru, tamamen Türkçe ile eğitildi ve tüm bilgisayarlarda çalışabiliyor. 📌 İstanbul merkezli VNGRS'in sıfırdan geliştirdiği 7,4 milyar parametreli LLM, tamamen Türkçe ön eğitime sahip ve 16 GB VRAM’li GPU’larda çalışabiliyor. Bu, Türkiye’de kurum içi yapay zekâ çözümleri için bugüne kadarki en ciddi yerli LLM (dil modeli) hamlesi.
Webtekno tweet media
Türkçe
74
35
613
591.7K
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@istatistikvean1 Bilim YouTube da yapılmaz diyorlar, sanki journal a gönderdiğimiz yayınlar peer review da çok yetkin kişilerin elinden geçiyormuş gibi. Hoca bunu bilimsel çalışma yapsa, dergiden seneye çıkar seneye de zaten bir manası kalmaz. Allah bilir ne konuşulur o zamana :)
Türkçe
0
0
4
676
AkademikLink
AkademikLink@istatistikvean1·
Bak bak ikinci canlı yayın Reddi geldi madem öyle neden benim hakkımda tweet atıyorsunuz o zaman? Hayır bir de sizin bize reyting kazandıracak neyiniz var. Bu da yeni moda oldu canlı yayından kaçan bize izleyici kazandıracağını iddia ediyor. Sana söz o gün gelen tüm izleyicileri kanaldan herkesin gözü önünde banlayacağım :)
Osman Giray Oğuzman@Giray_Oguzman

@istatistikvean1 Beyefendi bilim YouTube’da yapılmaz. Size izleyici kazandırmaya hevesim de zamanım da yok.

Türkçe
34
8
410
58.6K
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@fkadev Fatih hocam, aktif kod yazmaktan artık sıkıldım ve en azından daha az zaman harcayarak hemde istediğimi ayrıntılı şekilde yaptırabilir miyim ? Genel olarak PyTorch çalışıyorum ve eski kodlarım ile eğitip kendime uygun hale getirebilir miyim ? Evet dersen almayı düşünüyorum. :)
Türkçe
0
0
0
532
fatih kadir akın
fatih kadir akın@fkadev·
İçerik sorulmuş: 6 saat süresince Cursor’ın tüm özelliklerini anlatıyorum, hangi özellik hangi durumda kullanılmalı onu anlatıyorum, küçük ve büyük projelerde nasıl kullanılmalı onu anlatıyorum. Düşülebilecek riskli durumları anlatıyorum. Sonrasında uygulamalı küçük ve büyük işler yaptırıyoruz, bu süreçte çıkan hataları nasıl yönetebileceğimizi “uff alet saçmaladı” dedirtmeden ve koda da girişmeden nasıl verimli iş yaptırabileceğimizi, hataları yönettirebileceğimizi gösteriyorum. Bazen yönetmekte zorlanıyoruz, orada birlikte çözüm üretiyoruz. Tüm süreç konuşarak ve etkileşimli ilerliyor. Eğitim boyunca insanlar kendileri de bir şeyler yapıyor ve eğitim sonunda onları gösteriyor. Program bu şekilde.
Onur Güngör@onurgu_ml

@fkadev bence de eğitimden para almakta hiç sorun yok, peşinen söyleyeyim. ama içeriği merak ettim. cursorın kendi kendini öğreten bir sistem olması gerekmiyor mu? programlama bilen ve vs code'a aşina olan herkes "aa bu neymiş" falan diye öğrenip devam ediyor. SWE de mi öğreteceksiniz?

Türkçe
10
1
64
47K
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@EmpatikOkumalar @gryhkn Ya işte problemde burada başlıyor. Ben AI üzerine doktora yapıyorum ve modelleri geliştirecek insanlar bulmak gerçekten zor. Bulsan bile finanse etmen gerek, ettin diyelim adamın o alanda yetişmesi için en az 2 yıl lazım. Hadi yetiştirdin diyelim adam kaçıyor direkt paraya :)
Türkçe
0
0
1
11
bay_finch
bay_finch@EmpatikOkumalar·
@SelmanMahmut @gryhkn buna "mış gibi yapmak" denir. Bu şekilde ne bilin üretebilirsin, ne de yeterince gelişebilirsin. Olan sermayeyi de heba edersin. Biraz cesaret, biraz zeka, burada olmasa bile dünyada karşılık buluabilir.
Türkçe
1
0
0
253
giray
giray@gryhkn·
nope. tabii siz konuyla çok yakından ilgili olmadığınız için sevgili bebar, gelişmeleri de yanlış yorumluyorsunuz. öncelikle "bu arada bu doğru" dediğiniz şey doğru değil jslkkfjs. ya sentetik veri ya da plato dönemi diye bir ayrımda da değiliz. false dilemma. çok daha fazla alternatif var, aşağıda açıklayacağım. 1) veri bitmedi. ama ai'ın görmediği veri giderek azalıyor ve sonuçta "data wall" dediğimiz yere ulaşacağız. ama şu an bitmiş değil, hala sadece pretraining ile bile daha başarılı modeller çıkıyor. ilya şöyle diyor: "data is the fossil fuel of ai". yani diyor ki, veri bitmiş değil, ama biz eskiden üretilmiş olan veriyi şimdi kullanıyoruz ve veri üretimi o kadar da kolay değil. çünkü sadece "1 internetimiz var". nasıl ki hala petrol, kömür vs kullanıyoruz, ee veriyi de kullanmaya devam edeceğiz. şimdi takip etmek isteyenler için kısa bir tarihçe vereyim: öncelikle buradaki olay, verinin bitmesi değil. daha iyi ai modellerinin yapılmasının daha büyük network'ler ve daha büyük veri setleriyle mümkün olduğunu söyleyen "scaling hypothesis". scaling hypothesis'in kabul görmesiyle birlikte, yapay zeka alanında "pre-training" çağı başlamış oluyor. pre-training, modelin büyük bir dataset üzerinde eğitilmesi ve daha sonra belirli bir görev için fine-tune edilmesi anlamına geliyor. bu yaklaşım sayesinde gpt-2, 3 vs modelleri çıktı. amma vellakin, pre-training çağın sonsuza kadar sürmemeyecek. bunun nedeni, bilgisayarların işlem gücü ve algoritmaları sürekli gelişirken, veri miktarının (özellikle internet verisinin) sınırlı olması. çünkü veri yapay zekanın fosil yakıtıydı. işte bu durum, araştırmaları farklı yönlere itiyor: agents, sentetik data ve en önemlisi de sevgili musa, inference time compute. yani 01 ve benzeri modeller. yani şu an geldiğimiz noktada veri azalmış olabilir ama cephaneliğimiz hala dolu. inference-time computing yapınca modelin başarısı inanılmaz artıyor ve o1 şu an phd seviyesindeki öğrencilerden bile daha başarılı sonuçlar üretebiliyor. bu konuyla ilgili son birkaç cümlem de şu: - belki de sorun verinin bitmesinde değil. yani pre-training ai modellerinin belli bir eşik değerine ulaşması için gereken zorunluluktur. belki de sonrasında bu modellerin post-training'lerinin nasıl yapılacağı asıl önemli olan şeydir. - belki de şu an kullandığımız llm mimarisi tüm evrenin verisini damıtıp versek bile agi'ye ulaşamayacak. yani sorun veride değil, belki de tasarladığımız mimaridedir. - son olarak ilya burada şey diyor, "memelilerde beyin ve vücut büyüklüğü arasındaki ilişki önemli. insan atalarının (hominidlerin) bu grafikte farklı bir eğri izlemesi, farklı bir "ölçeklendirme" (scaling) yaklaşımının mümkün olduğunu gösteriyor. bu, yapay zeka modellerinde de farklı ölçeklendirme yöntemlerinin araştırılması gerektiğine işaret ediyor." yani, sadece daha büyük networkler oluşturmak yerine, farklı beyin yapılarını ve öğrenme şekillerini taklit ederek daha verimli modeller oluşturulabileceğizi söylüyor. 2) yalayıp yuttu demeyelim, çünkü bu overfitting'e girer. onu da sevmeyiz. 3) sentetik veri devrimi ne ayrıca, odtü kampüsünde miyiz? sentetik verinin önemi artıyor, en azından birçok araştırma grubu bu konuda çalışmalar yapıyor ama soru şu: gerçek verileri taklit edecek kalitede ve çeşitlilikte bir sentetik veri nasıl üretilecek? rica ederim, kıps.
giray tweet media
bebar bilim@BebarBilim

Bu arada bu doğru. Yapay Zeka insanlığın üretmiş olduğu tüm verileri bitirdi. Yalayıp yuttu. Evet. Veri bitti. Şimdi ne olacak? Ya çok uzun süre bir plato (gelişmenin yavaşlaması) ya da sentetik veri devrimi… onun da garantisi yok. İlginç bir eşikteyiz şu an. Bunun yarattığı başka bir problem de şu: google aramalarınıza dikkat edin bundan sonra. Arattığınız içeriklerin, görsellerin birçoğunun yapay zeka üretimi olduğunu, bunun katlanarak arttığını göreceksiniz. Ve garip bir sonuç da doğacak buradan. Özgün içeriğin değeri daha da artacak. İlginç bir dönemdeyiz.

Türkçe
16
25
538
127.4K
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@EmpatikOkumalar @gryhkn Yani aslında bu yönde bir çok çalışma oldu zaten. Mesela KAN network, Mamba modelleri ama firmalar maalesef yeni bir model üzerinde uğraşmak yerine, standartlaşmış ve herkesin kullanabileceği ViT ve LLM modelleri update ediyor. Tamamen yaygın yönteme göre davranıyorlar.
Türkçe
1
0
0
16
bay_finch
bay_finch@EmpatikOkumalar·
@SelmanMahmut @gryhkn demeleri için bir yol bulmaları lazım. Onu bulamadılar henüz. Aslında Türkçeyi inceleseler o yol hazırda duruyor.
Türkçe
1
0
0
202
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@arifgpt Ben sıfırdan yapay zeka modeli oluşturup, matematiksel olarak analiz edip istenildiği şekilde modifiye edebiliyorum. Birden fazla dgx cluster üzerinde bunları eğitebiliyorum. Medikal alanda AI geliştiriyorum. Yani ortaya çıkan llm projeleri asıl projelerin yan ürünleri :)
Türkçe
0
0
0
188
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@DoanDadelen5 @ismailensss AI bir manada istatistik ve matematik demek aslında. Aşırı fazla kasmadan, makine öğrenmesindeki temel konuların matematiksel arka planını öğrenseler bile yeter. Bir defa anladıktan sonra gerisi kendiğilinden gelir. Keşke matemik okusaydım diyorum bazen :)
Türkçe
0
0
2
75
Mahmut Selman
Mahmut Selman@SelmanMahmut·
@usaclup1 @YunusL52811 @kriptoemre Yani sınırdan geçen sanıyor ki müstakil evini arabasını ayda 10 bin doları 2-3 yılda yaparım sanıyor. Onun için rahat bir 6-7 yıl harcaman gerekiyor, onda da ev olmaz anca mortgage için eligible olursun, asgari olmayacak ama. Zaten bu kadar çabalasan Türkiye’de de yaparsın :)
Türkçe
0
0
0
33
Emre Aksoy
Emre Aksoy@kriptoemre·
Asgari ücret zammına her ne kadar popülist kafalardan itiraz ve eleştiri geliyor olsa da ekonomi yönetimi son derece doğru bir karar vermiştir. Enflasyonla mücadele konusundaki kararlılığını ciddi manada aksiyona dökmüştür. Bu tutum küresel sermaye tarafından da olumlu karşılanacaktır. Yabancı yatırımlar ve #BİST artacak, kurlar üzerindeki baskı azalacaktır. “Asgari ücretli enflasyon altı zamla nasıl geçinecek?!” diye ağlayanlara cevabım: Geçinebilmek için asgari eforun üzerinde performans sergilemeleri gerektiğidir. “Salla başı al maaşı” kafasında olup minimum eforla hayatına devam etmek isteyenler dayatılan maaşı beğenmiyorsa bir taraflarını kaldırıp daha üretken ve girgin olmaya bakmalıdır. Asgari ücret sistemi her ne kadar emekçinin ezilmesini önlemek için konulmuş olsa da serbest piyasa düzeninde kimse kimseyi köle gibi zorla çalıştırmamaktadır. Asgari şartları beğenmeyen önüne gelen iş teklifine hayır deme lüksüne sahiptir. Bugün ülkemiz koşullarında asgari üzeri kazanç için illa yüksek ihtisas yapma gibi bir zorunlulukta yoktur. İş gücüne talebin yüksek olduğu manuel alanlara yönelerek kişi maddi refah düzeyini yükseltebilir. Tüm bu anlattıklarımı halk ağzıyla özetleyecek olursam: Kanka yeleği giyip motokurye ya da tulumu giyip kalıp ustası olmaya üşeniyorsan otur A101 kasasına 22.104 TL ile geçinmeye çalış napayım yani… Hayat senin hayatın, kimse sana birşey borçlu değil.
Türkçe
157
13
359
80K