Erfan

1.2K posts

Erfan

Erfan

@ep30lon

Iran Katılım Şubat 2009
509 Takip Edilen123 Takipçiler
Arastoo Hosseini
Arastoo Hosseini@Arastoohossein3·
این فوت فتیش چه مرضیه که راه افتاده. پا یک اندام دفورمه‌ست و در پروسه‌ی تکامل از باله دمی تغییر ساختار پیدا کرده. واقعاً هیچ جذابیت، زیبایی و وجهه اروتیکی نداره.
فارسی
41
3
293
60.2K
Erfan
Erfan@ep30lon·
@SarcasticPyDev قیمت تخمینی: وزن گاو × قیمت روز گوشت تقسیم بر ٢
فارسی
0
0
1
59
Erfan
Erfan@ep30lon·
قطعی تلفن احتمالا به خاطر هجوم مردم برای برقراری تماس باشه. اینو چند سال پیش موقع زلزله خفیف تهران مشاهده کردم.
فارسی
0
0
0
68
Erfan
Erfan@ep30lon·
خیلی از مردم دوز یک ماده رو در قضاوت‌هاشون در نظر نمی‌گیرن. مثلا: فلان غذا نیترات دارد، نیترات سمی است، پس نباید به کل مصرف بشه. شما سیانید رو هم به اندازه کافی رقیق کنی بی‌خطر می‌شه.
فارسی
0
0
0
58
حمیداحمدی
حمیداحمدی@drhamidahmadi·
@KadKhuda عاقا فحش هم می خوای بدی یه چیزی بگو با آناتومی و فیزیولوژی و اینا ما بتونیم یه تصوری ازش داشته باشیم 😄
فارسی
7
0
106
10.2K
The 52 Hz Whale 🐳
The 52 Hz Whale 🐳@KadKhuda·
ریال به ریال پول این بسته اینترنت کیر بشه بره تو کس مادرتون. خیلی نت خوبه هر روز هم گرونش میکنید!؟
فارسی
51
297
13.6K
146.6K
Erfan
Erfan@ep30lon·
هرچند به نظرم تست برای ایران باید بومی‌سازی بشه ولی اینم از قطب‌نمای سیاسی من.
Erfan tweet media
فارسی
1
0
0
104
Alireza Zojaji
Alireza Zojaji@zojaji_alireza·
@Riazi_Cafe دما و فشار (و همین طور رطوبت هوا) غیر از طول و عرض جغرافیایی به خیلی از عوامل دیگر هم بستگی دارن. ارتباط سوال با ریاضی رو نمی‌فهمم!
فارسی
2
0
4
543
كافه رياضی
كافه رياضی@Riazi_Cafe·
فرض‌ کنید کره زمین کاملا کروی باشد. آیا دو نقطه دقیقاً روبروی هم روی کره زمین وجود دارند که دما و فشار یکسانی داشته باشند؟ اگر متغیر سومی مثل رطوبت هوا را اضافه کنیم چطور؟
Math Cafe@Riazi_Cafe_en

YES or NO? Imagine Earth is a perfect sphere. Do there exist two antipodal points (exact opposite locations) that have the same temperature AND the same pressure? What if we add a third variable, such as air humidity?

فارسی
5
0
22
7.8K
Erfan
Erfan@ep30lon·
@Riazi_Cafe_en If the "shape" is a polygon with given vertices, first find the bounding box (max - min of x and y) then connect the point to a point far outside the bounding box, count the intersections with all edges, Even: outside Odd: inside
English
1
0
16
3K
Math Cafe
Math Cafe@Riazi_Cafe_en·
You want to write a code that decides whether or not a point is inside some shape. How do you figure that out?
Math Cafe tweet media
English
31
2
87
63.9K
Erfan
Erfan@ep30lon·
خب گویا این #بعل یا هر اسم دیگه‌ای رو با CNC و از استایروفوم ساختن که جزئیاتش این‌قدر دقیق بود.
Erfan tweet media
فارسی
0
0
0
649
Erfan retweetledi
Figs From Plums
Figs From Plums@FigsFromPlums·
by alg​.​comp​.​mod
English
7
72
789
29.9K
Erfan
Erfan@ep30lon·
@vintagemapstore @grok How roundness is measured and how the fitting circle is defined for any polygon?
English
1
0
2
1K
Vintage Maps
Vintage Maps@vintagemapstore·
The roundest countries.
Vintage Maps tweet media
English
7
22
421
29.6K
Erfan
Erfan@ep30lon·
@ikwo04OX0GVjSlG می‌گن نگیم تکامل چون تداعی کامل شدن داره. ولی فرگشت هم متاسفانه همون مشکل رو داره. دگرگشت و تطور خیلی بهترن 👌🏻
فارسی
0
0
4
561
سوپرمن
سوپرمن@ikwo04OX0GVjSlG·
یکی از باگ‌های فرگشت/دگرگشت ... پ.ن: مهدی مقدم واقفا کارش درسته. نه اینکه دامپزشک خوبیه (که هست)، به خاطر اینکه هر مطلبی که میذاره جدا از اینکه سعی می‌کنه برای عموم جذاب باشه با فکت‌های دقیق و درست بیان می‌کنه که در این سیرک سوشال‌مدیا، کالایی بس کمیابه❤️
فارسی
10
17
345
29.5K
Mathieu
Mathieu@miniapeur·
Mathieu tweet media
ZXX
137
49
8.7K
1.5M
Erfan
Erfan@ep30lon·
@spidermard12 نانوبنانا خیلی خوبه. یه خط‌خطی بی‌معنی بچه رو بهش دادم گفتم تکمیلش کن.
Erfan tweet mediaErfan tweet media
فارسی
1
0
0
29
Spidermard
Spidermard@spidermard12·
@ep30lon اصلاحاتش کفم رو بریده! کفش و مچ بندش رو میخواستم اصلاح کنم با چشم‌هاش یه جوری درست کرده که انگار یه انسان کشیده اون رو! تا حالا کار نکرده بودم باهاش ولی الان عاشقش شدم
فارسی
1
0
1
26
Spidermard
Spidermard@spidermard12·
اینترنت قطع بود، حوصله‌ام سر رفته بود بعد از شاید یک سال دست به قلم شدم ولی خب الان دیگه حوصله ندارم کاملش کنم! برای کامل شدنش ۱۰ دقیقه لازمه اما یکی درونم میگه: اوووووووووو جدی حال داری فتوشاپ رو باز کنی؟ :|
Spidermard tweet media
فارسی
2
0
12
793
Erfan
Erfan@ep30lon·
@spidermard12 Gemini (Nano 🍌) Add more details, lights and shadow to complete this incomplete digital art. Add a touch of imperfection, brush strokes and patterens. Don't change the main features
English
1
0
1
38
Spidermard
Spidermard@spidermard12·
@ep30lon اووووووووووووف چقدر خفن شد حتی اصلاحاتی که میخواستم انجام بدم رو هم انجام داده لعنتی :)))) با چی درست کردی؟
فارسی
1
0
0
33
Erfan
Erfan@ep30lon·
@Sajjad_Heydari من این مشکل آمار عوام‌پسند را مثلا در منع سبزه رویاندن نوروز می‌بینم. حساب و کتاب می‌کنند که هر خانواده فلان‌قدر گندم مصرف می‌کند و در نهایت آنقدر هزار تن گندم می‌شود. عدد نهایی ترسناک است ولی کسی دقت نمی‌کند که یک بشقاب گندم نهایتا بتواند تبدیل به یک قرص نان بشود.
فارسی
0
0
3
223
Sajjad Heydari
Sajjad Heydari@Sajjad_Heydari·
بیاید با یه مثال غیرسیاسی از پروپاگاندا شروع کنیم تا بهتر بفهمیم اصلا پروپاگاندا چطور کار می‌کنه. احتمالا شنیدید که می‌گن «هر بار استفاده از ChatGPT معادل مصرف یه بطری آب هست». این ادعا نادرسته، اما سوال مهم‌تر اینه که از کجا اومده؟ اگه ادعا رو باز کنیم، زنجیره‌ی استدلالش معمولاً این شکلیه: استفاده از LLM نیاز به GPU داره، GPU در مقیاس بالا گرما تولید می‌کنه، برای خنک‌سازی از آب استفاده می‌شه، پس استفاده از مدل باعث مصرف آب می‌شه. مشکل اینجاست که این زنجیره، چند واقعیت کلیدی رو نادیده می‌گیره. برای اکثر LLMها، در زمان inference (یعنی زمانی که مدل استفاده می‌شه، نه آموزش داده می‌شه)، هزینه‌ی محاسباتی بسیار پایینه و گرمای قابل‌توجهی هم تولید نمی‌شه. مصرف انرژی و آب اصلی مربوط به فاز آموزش و زیرساخت‌های دیتاسنتریه، نه هر بار پرسیدن یه سوال. پروپاگاندا دقیقا همین‌جا کار می‌کنه: با وصل کردن چند گزاره‌ی «درست ولی ناقص»، یه نتیجه‌ی ساده، شوکه‌کننده و غلط ساخته می‌شه که به‌راحتی تو ذهن می‌مونه. اما این پروپاگاندا چطور پخش شد و چه کاربردی داشت؟ یکی از اولین افرادی که به‌طور غیرمستقیم به این ایده دامن زد، سم آلتمن بود؛ جایی که گفت «مودب بودن با مدل‌ها هزینه رو بالا می‌بره». این جمله زیاد نقل شد، اما معمولا بدون توضیح زمینه‌اش. چرا آلتمن چنین حرفی زد؟ از دید آلتمن (و هر کسی که مدل زبانی در مقیاس بزرگ اجرا می‌کنه)، هر توکن ورودی هزینه داره. این هزینه از اینجا میاد که برای هر فراخوانی LLM باید محاسباتی روی GPU انجام بشه: ضرب ماتریس‌ها، دسترسی به حافظه، و در نهایت مصرف انرژی. پس وقتی شما به‌جای «جواب بده» می‌نویسید «لطفا اگر ممکنه با جزئیات جواب بدی، ممنون»، تعداد توکن‌ها بیشتر می‌شه و در نتیجه هزینه‌ی inference کمی بالا می‌ره. اما این «کمی» دقیقا همون جاییه که روایت منحرف می‌شه. افزایش هزینه‌ی ناشی از چند توکن اضافه، در مقیاس هر درخواست ناچیزه. این حرف آلتمن نه درباره‌ی بحران آب بود، نه درباره‌ی فاجعه‌ی زیست‌محیطی؛ بلکه درباره‌ی هزینه‌ی عملیاتی در مقیاس بسیار بزرگ برای شرکتی بود که روزانه صدها میلیون درخواست پردازش می‌کنه. پروپاگاندا اینجا شکل می‌گیره: یه دغدغه‌ی واقعی داخلی کسب‌وکار («هزینه‌ی توکن در مقیاس») تبدیل می‌شه به یه ادعای اخلاقی بیرونی («کاربرها دارن آب زمین رو هدر می‌دن»). کاربردش چیه؟ انتقال مسئولیت از زیرساخت و طراحی سیستم به رفتار فردی کاربر ایجاد حس گناه شخصی به‌جای بحث ساختاری ساده‌سازی یک سیستم پیچیده به یک جمله‌ی ویروسی و ترسناک در نهایت، این روایت بیشتر از اینکه درباره‌ی آب یا محیط‌زیست باشه، درباره‌ی کنترل روایته: اینکه چه کسی مقصر دیده می‌شه، و چه کسی از زیر سوال رفتن معاف می‌مونه. این ادعا و روایت‌های مشابه، به‌مرور باعث شد خیلی‌ها به این نتیجه برسن که «هر استفاده‌ای از AI ذاتا غیراخلاقیه»، چون به گرم شدن زمین کمک می‌کنه. نکته‌ی جالب اینه که همین منطق تقریبا هیچ‌وقت برای بازی کردن به کار نمی‌ره، در حالی که شرایط از نظر فنی بسیار شبیهه. برای یادآوری: در بازی‌های پیچیده، فرایند رندرینگ - چه در زمان ساخت بازی (به‌ویژه cutsceneها) و چه در زمان اجرا - به‌شدت از GPU استفاده می‌کنه و مصرف انرژی بالایی داره. این محاسبات دقیقا همون نوع محاسبات عددی سنگینی هستن که در inference مدل‌های زبانی هم انجام می‌شن. تنها تفاوت اصلی اینه که این مصرف انرژی در بازی‌ها معمولاً توی خونه‌ها اتفاق می‌افته، نه توی دیتاسنترها. و همین تفاوت ظاهرا کافیه تا قضاوت اخلاقی عوض بشه. مصرف برق وقتی متمرکز، قابل اندازه‌گیری و به یک «شرکت» نسبت داده می‌شه، تبدیل به مسئله‌ی اخلاقی می‌شه؛ اما وقتی همون مصرف به‌صورت پراکنده و شخصی اتفاق می‌افته، به‌عنوان «تفریح» دیده می‌شه. در واقع مسئله نه AIه، نه GPU، نه حتی انرژی؛ مسئله اینه که کجا مصرف دیده می‌شه و به چه کسی نسبت داده می‌شه. واقعیت اینه که ایجاد حس گناه درباره‌ی «هزینه» باعث نمی‌شه مردم از AI استفاده نکنن؛ فقط باعث می‌شه کمتر ازش استفاده کنن، کوتاه‌تر بنویسن، و توکن کمتری مصرف کنن. نتیجه‌ی نهایی هم جالبه: هزینه‌ی فردی کاربر تغییری نمی‌کنه (قیمت اشتراک همونه)، اما هزینه‌ی عملیاتی شرکت‌ها پایین میاد. پس این روایت عملا به نفع کی تموم می‌شه؟ اما سؤال مهم‌تر اینه: چی شد که این ادعا انقدر فراگیر شد؟ نکته‌ی کلیدی اینه که پخش‌کننده‌های اصلی این روایت، نه حامیان AI، بلکه اتفاقا مخالفانش بودن. از دید اون‌ها، لازم نبود ادعا کاملا دقیق باشه؛ «نه‌چندان غلط بودن» و هم‌سو بودن با باور قبلی‌شون کافی بود. جمله‌ای از آلتمن، که در زمینه‌ی هزینه‌ی توکن و مقیاس گفته شده بود، تبدیل شد به یک مرجع اخلاقی. آدم‌هایی که از این صنعت بدشون می‌اومد، شروع کردن به ارجاع دادن به همون حرف. بعد، با بزرگ‌نمایی تدریجی و حذف جزئیات فنی، روایت کم‌کم این‌طوری جا افتاد که «هر استفاده از AI معادل مصرف یک بطری آبه». در حالی که حتی اگر مصرف آب رو در نظر بگیریم، بخش عمده‌ی اون مربوط به مرحله‌ی آموزش (training) و زیرساخت‌های دیتاسنتریه، نه inference و هر بار استفاده‌ی کاربر. چیزی که اتفاقا باعث تمسخر کسایی که دید فنی به قضیه دارن هم میشه و کل حرکت حفاظت از طبیعت - که به خودی خود اشتباه نیست - رو بیشتر زیر سوال می‌بره. این دقیقا همون مکانیسم کلاسیک پروپاگانداست: یه گزاره‌ی محدود و زمینه‌دار، از دست صاحبش خارج می‌شه، ساده می‌شه، اخلاقی می‌شه، و در نهایت به یک «حقیقت بدیهی» تبدیل می‌شه - بی‌اینکه کسی دیگه بپرسه: دقیقا کی، کجا، و در چه مقیاسی؟ می‌دونم مخاطب من می‌تونه این طرز فکر رو بسط بده به مسائل سیاسی اطرافش. مرسی که خوندید.
فارسی
5
11
105
19.1K
Erfan
Erfan@ep30lon·
@Hordood منی که دلم رو صابون زدم برا این
Erfan tweet media
فارسی
1
0
1
240