нейродивергент

9.7K posts

нейродивергент banner
нейродивергент

нейродивергент

@_ichai

Senior MlOps / Devops / Vibecoder

Katılım Haziran 2014
215 Takip Edilen225 Takipçiler
нейродивергент retweetledi
Nous Research
Nous Research@NousResearch·
Hermes Agent now has multi-agent via the Kanban, new in v0.12.0. Agents claim tasks from a board, work in parallel, and hand off when blocked. You watch progress and unblock from one easy view instead of juggling terminals. We asked it to plan and make this video about itself:
English
167
261
3.4K
518.4K
Элишкa
Элишкa@Ellienoise2·
Скажи мне чей борщ и я скажу кто ты
Русский
85
4
82
3.8K
нейродивергент
трахал сегодня ИБшников приговаривая: нахер мне сделись ваши ГОСТы, дайте мне маркдауны
Русский
0
0
1
21
нейродивергент
шо вот с мозгами должно произойти, чтобы из админа сделать DevOps'a? или из ИБшника сделать DevSecOps'a? В новом ИИ мире все эти олдскульные хард-соло навыки выглядят чуть более чем убого без навыков разработки. ретроградные админы и ибшники сами не разрабатывают и другим мешают
Русский
1
0
1
147
нейродивергент
@gambala_codes просто думай, что если бы сегодня сдох, то чем бы обязательно занялся? это и делай
Русский
5
0
31
6.7K
Виталя пишет код
Я поймал себя на мысли, что я не живу, а просто жду. Жду выходных. Жду зарплаты. Жду отпуска. Жду, когда «начнется настоящая жизнь». А она всё не начинается. Кто-нибудь уже понял, как перестать ждать и начать жить?
Русский
212
71
2.4K
82K
нейродивергент
@1red2black в смысле начнёт? я вот вообще не ебу как писать этот код, а ии пишет))
Русский
0
0
2
166
1red2black | ИИ / AI / ML / BigData
Что будем делать, если AI начнет писать код лучше, чем мы, в ближайшие 2 года?
1red2black | ИИ / AI / ML / BigData tweet media
Русский
38
0
11
4.9K
нейродивергент retweetledi
Sick
Sick@sickdotdev·
Damn true
Sick tweet media
English
34
172
1.5K
79.1K
осенний🌸 🌿 ворк ворк ворк 🚬
хочется простого страстно потрахаться вкусно поесть напиться вина а потом ещё задушевно поболтать в обнимку.. но я вынуждена пахать как конь
Русский
24
9
277
5.8K
нейродивергент retweetledi
naiive
naiive@naiivememe·
How girls at work look at you when they know you have a wifey or gf
English
238
640
25.5K
1.8M
Mooiše
Mooiše@moishe_ee·
ИИ-погромирование - это когда ты весь день дрочишь план, проверяешь концепции, делаешь ревью на ревью разным моделям, отвечаешь на дебильные вопросики и потом тупо ждёшь, когда по километру слоп-спеков шайтан-интеллект тебе что-то высрет. Ну такое.
Русский
19
0
107
7.3K
нейродивергент retweetledi
Artyom Melnikov
Artyom Melnikov@Strongcomic3_3·
Почему я перестал ебаться с LLM и начал писать .mdшки Я занимаюсь автоматизацией тестирования платёжных систем. Параллельно пилю свои SaaSы. Параллельно ещё куча всего. Кода руками писать приходится много, кода с LLM ещё больше. В какой-то момент я понял, что мой подход к работе с моделью устарел. Раньше всё было проще. Базовый промпт в духе "представь, что ты QA Automation с 7 годами опыта" и поехали. О дивные старые времена. Сейчас этот трюк не работает. Модель по дефолту уже QA Automation с 500 годами опыта. Просить её "быть сеньором" так же осмысленно, как просить рыбу быть мокрой. Нужны не роли, а подходы как к сеньору: контекст, ограничения, твои предпочтения, твой способ декомпозиции. То, что ты сказал бы реальному коллеге, который пришёл в проект и начал в нём копаться. Я же, то по лени или ещё какой хуйне обычно писал просто: "вот контекст, вот проблема - решай". Через час начинал заново, потому что окно забилось, ответы плыли в сторону, и приходилось всё пересказывать с нуля. Кстати, Opus 4.6 часто угадывал мои мысли, а иногда выдавал то, о чём я даже не успел подумать. Поэтому ленивый заход с ним долго прокатывал. И повторения это даже не главная боль. Главная в том, что "кидаю контекст, надеюсь на лучшее" - это же блять лотерея. Иногда модель с первого ответа попадает в точку. Иногда полчаса блуждает мимо. Заранее ты не знаешь, как пойдёт. А лотерея это всегда время. А я не хочу тратить время. Я хочу делать value и пить свой кокосовый раф на миндальной сперме как тру кабанёнок. С Opus 4.7 | GPT 5.5 нужен уже чуть другой подход. И в целом, .md формат и подробный контекст более осмысленный заход. Он 100% переживёт любую смену модели, сработает и на следующей, и на через одну, и на любой будущей. Я начал, когда мне не похуй, на каждую проблему, которую решаю в коде, заводить отдельный .md файл. Туда пишу, аля: - что сломалось - что я об этом думаю (гипотезы и редко мат, до того как полез чинить) - что я сделал - что в итоге сработало Это буквально - поток мыслей разработчика, зафиксированный текстом. LLM при чтении этих файлов начинает не просто видеть код, а копировать мой паттерн мышления. Получает тот невидимый контекст, который обычно сидит в голове разработчика и нигде не задокументирован. Ни в коде, ни в README, ни в комментариях к ПРам или МРам. Скорость разработки выросла в разы. И это при том, что до этого скорость и так была невъебическая, да, я батрачу за миску риса на нескольких проектах параллельно. Но есть нюанс важнее самой скорости. После каждой сессии я делаю разбор полётов, буквально открываю историю и смотрю, тааак-с, где ходил кругами, какие шаги были лишние, где объяснял очевидное, где модель сходила не туда и почему. Цель одна это сократить количество шагов до результата в следующий раз. Всё. Когда начинаешь смотреть на свою работу со стороны, вылезает любопытное и невидимое очевидное - ты пишешь код по одним и тем же паттернам. Архитектурные решения, нейминг, способ декомпозиции задачи, даже последовательность действий при дебаге, вообще всё повторяется от проекта к проекту. Это, наверное, и есть тот самый "опыт". Только теперь его можно вытащить из головы и положить в текст. Я выписал эти паттерны и собрал из них персональный промпт. Кусок текста, который идёт в начале почти каждой задачи. Не системный промпт в духе "ты опытный разработчик, отвечай профессионально", а конкретный набор моих собственных привычек и предпочтений. Как я именую переменные, как раскладываю слои, что считаю говнокодом, а что нормой, где я предпочитаю явность, а где лаконичность. Мои сессии стали короче и проще. Не длиннее и сложнее, как можно было предположить от добавления контекста, а наоборот. Потому что больше не надо объяснять одно и то же по десять раз, модель уже знает, как я думаю. Если что-то и стоит вынести из этого опыта это метрика, по которой надо настраивать любой инструмент с LLM. Не "качество ответа". Не "объём контекста". Не "количество фич". Не "модель умнее". Количество шагов до результата. Всё. Любая настройка, любой кастомный промпт, любая интеграция, любой MCP сервер оценивается только этим. Сократило шаги? оставляем. Не сократило? выкидываем нахуй, как бы красиво оно ни выглядело и сколько бы хайпа вокруг ни было. Это я к чему всё, Настраивайте ебучий Claude / Codex / whatever под себя по максимуму. Заводите .md на каждую проблему даже на ту, которую решили за пять минут. Особенно на ту, которую решили за пять минут, значит, у вас в голове сидит нетривиальная эвристика, которую можно вытащить. Разбирайте сессии, где вы потратили лишний шаг. Выписывайте свои паттерны. Скармливайте их модели. Через месячишко другой получите инструмент, который реально работает на вас, а не общий шаблон, под который надо каждый раз подстраиваться самому. Ауф всем
Русский
22
13
301
34.2K
Pisolda
Pisolda@tabularasa31·
Как вы знаете, я сейчас делаю проект - чат боты саппорта, которые работают на документации компании. И знаете какой геморой сделать так, чтобы бот находил то, что нужно, и отвечал так, как надо. Так вот: я блять вообще не понимаю как работают эти клайдкоды, кодексы, копайлоты
Русский
14
0
30
8.3K
нейродивергент retweetledi
Mesut Çevik
Mesut Çevik@mesutcevik·
Dansçıların birbirleri ile değil ritimle senkron olmaları apayrı bir seviye. Görsellik şahane.
Türkçe
537
7.4K
78.3K
2.9M
нейродивергент
Не хватает испепеляющих взглядов любимой кобры, чтобы душа отогрелась.
Русский
0
0
1
14
нейродивергент retweetledi
Sergey Andreev
Sergey Andreev@DragorWW·
Мидлы, джуны это потеря времени. Единственное то что тебе нужно, это один сильный синьор разработчик, который достаточно опытный, чтобы понимать произвольные инструкции в формате голосовых сообщений от CEO. Джуны нужны, когда у тебя в проекте нет сильных специалистов, тогда тебе приходится выстраивать очень крутую, почти гениальную систему процессов, где задача сильно декомпозируется, и каждый решает маленький кусочек. Когда у тебя есть синьор уровня топ-рынка, всё это становится не нужно. Он сам держит контекст, сам принимает решения и тащит проект в одного. Имхо, все, у кого есть доступ к лучшим специалистам на рынке, могут просто не париться со всей этой историей про дробление задач и избыточные процессы. Когда у тебя в команде есть такой человек, ты просто говоришь, что нужно сделать и он просто делает.
1red2black | ИИ / AI / ML / BigData@1red2black

Скиллы, микроагенты и т.п. - это потеря времени. Единственный фреймворк, который нужен - это один супер-агент, который достаточно умный, чтобы понимать произвольные инструкции в markdown-файлах. Микроагенты нужны, когда ты используешь Qwen 32B или что-то подобное - тогда тебе нужно иметь очень крутую, гениальную обвязку из агентов, которые будут маленькими дозами решать сильно декомпозированную задачу. Когда у тебя Opus 2T (как миниумум 200B активных в MoE), или Mythos или новые модели Маска размером 10T, всё это не нужно. Имхо, все кто имеет нормальный рыночный доступ к международным моделям, могут просто не париться со скилло-агентной темой. Когда у тебя в руках 10+ T мега-агент, ты просто говоришь ему что делать и он просто делает.

Русский
39
2
226
45.2K
нейродивергент retweetledi
PixiJS
PixiJS@PixiJS·
Been testing GPT 5.5 and it's implemented the HTML-in-Canvas spec Worked for both WebGL and WebGPU out of the box Then created this demo with the PixiJS + GSAP Skills Hopefully there will soon be no excuses to make boring websites
English
41
273
3.5K
197.2K
Яндекс
Яндекс@yandex·
SourceCraft CLI — новое консольное приложение Яндекса с ИИ-агентом внутри. Можно управлять репозиториями и ставить задачи на естественном языке — агент сам разберётся в логике проекта и поможет с кодом. Подробнее: yandex.cloud/ru/blog/source…
Русский
58
3
43
109K