ButterZ ☕️

13.7K posts

ButterZ ☕️ banner
ButterZ ☕️

ButterZ ☕️

@softroom

오늘은 어제의 내일이 아니다. #WISENUT #NFT #CRYPTO @BinkiesNFT

Seoul انضم Şubat 2009
3.8K يتبع1.9K المتابعون
ButterZ ☕️ أُعيد تغريده
烟花老师
烟花老师@brad_zhang2024·
写技术文章最烦的事之一:画图。 脑子里很清楚的架构,落到 draw.io 上总是对不齐、颜色难看、导出模糊。 所以我做了 fireworks-tech-graph,一个专门生成技术图的 Claude Code Skill。 o… 用法很简单—— t 「画一张 Multi-Agent 协作图:Orchestrator 调度 3 个 SubAgent,分别负责搜索、计算和代码执行,最后汇聚到 Aggregator 输出结果,玻璃态风格」 然后它会: ① 识别图类型 → Agent 架构图 ② 分配语义形状 → Orchestrator 用六边形,Agent 用六边形,存储用圆柱体 ③ 用语义颜色编码箭头 → 蓝色主流程、橙色控制流、绿色读写 ④ 自动导出 SVG + 1920px PNG 整个过程不需要写 DSL,不需要打开任何工具,一句话描述,图就出来了。 o… 目前支持 8 种图类型、5 种视觉风格,AI/Agent 领域的常见 Pattern 全部内置(RAG、Mem0、Agentic Search、Multi-Agent、Tool Call 等)。 开源,欢迎 star 和 fork 👇 github.com/yizhiyanhua-ai…
烟花老师 tweet media
中文
19
169
864
286.9K
ButterZ ☕️ أُعيد تغريده
GeekNews
GeekNews@GeekNewsHada·
Claude Managed Agents - 프로덕션 속도를 10배 더 빠르게 - 클라우드 환경에서 대규모 에이전트를 구축·배포할 수 있는 조합형 API 제품군으로, 프로토타입을 며칠 내 프로덕션으로 전환 가능 - 보안 샌드박싱, 자격 증명 관리, 권한 제어 등 프로덕션급 인프라를 자동… news.hada.io/topic?id=28326
한국어
1
7
36
14.5K
ButterZ ☕️ أُعيد تغريده
고영혁 (Dylan Ko)
고영혁 (Dylan Ko)@Gonnector·
어제 새벽에 발표한 Mythos 와는 다른 의미에서 또다른 거대한 폭탄을 Anthropic 이 오늘 새벽에 떨어뜨렸습니다. Claude Managed Agents. 현재까지는 커스텀 에이전트를 만들기 위해서 각종 인프라와 플랫폼과 SDK, API 등을 일일이 고려해서 설계하고 만들고 관리하고... 이랬는데, 자체적인 통합 GUI 개발 환경을 제공함으로써 사용 목적과 흐름에만 집중할 수 있게끔 각종 자동화와 최적화를 해주는 (당연히 이 도구 안에서 Claude AI 가 기획/개발 전 과정에서 상호작용) 통합 개발/관리 환경을 내놓았습니다. 기존 방식으로는 몇 개월 걸리던 작업을 몇 일만에 쉽고 직관적이고, 상향 평준화된 체계성 기반으로 할 수 있게 된 것이죠. 사람이 일일이 사전에 숙지하고 알아야 했던 정보들도 알아서 챙겨주니, 문자 그대로 이 에이전트는 어떤 목적을 어떤 식으로 달성해야 한다에만 완전 집중해서 설계하면 됩니다. 이름을 보면, Agents 즉 복수형인데, 당연히 멀티 에이전트 오케스트레이션이 기본입니다. 현재 제가 직접 만들어서 쓰고 있는 AIOS 의 상당부분을 더 체계적으로 정교하게 다듬을 수 있을 것 같고, 기억에 대한 모델링 및 기억과 현재 상태와 행동 사이의 역학관계의 파악과 조정에 훨씬 더 집중할 수 있을 것 같습니다. 한편, 기존의 harness engineering 도 이 저작 도구 덕분에 누구나 본인 입맛에 맞게 더 잘할 수 있게 되었습니다. 예상했던 것이지만, 결국 harness 를 만드는 역량에서 진짜 핵심인 데이터와 프로세스 모델링만 인간/개인의 영역으로 남고 기타 나머지 부분들은 이런 식으로 AI 기반의 이 저작도구가 알아서 챙겨주는 흐름으로 빠르게 넘어가고 있습니다. 바꿔말하면 데이터와 프로세스에 대한 깊은 도메인 지식 없이 harness 를 만드는 엔지니어링 지식만 있는 케이스는 결국 이런 저작도구가 계속 확장 고도화되는 환경에서 지속적으로 생존하기 어려울 겁니다. 더불어서... 에이전트 및 멀티 에이전트 오케스트레이션 설계와 관심이 많은 분들은 이번 발표와 더불어 올라온 "관리형 에이전트 확장: 두뇌와 손의 분리" 를 반드시 읽어보시길 바랍니다. AIOS 를 만들고 운영하면서 계속 느끼던 부분들이었는데, 뇌와 중추신경계 시스템을 만드는 회사에서 저렇게 깔끔하게 공유해주니 속이 시원하네요. 이 내용을 토대로 저도 이것저것 더 업그레이드할 수 있게 됐습니다. 앞으로는 좀 더 추상화된 레이어와 상호작용 및 그 과정에서 생성해서 활용해야 할 로그데이터 등에 집중할 수 있으니 개인적으로는 매우 환영하는 바입니다. Claude Managed Agents 공식 발표 글과 "관리형 에이전트 확장: 두뇌와 손의 분리", 그리고 Managed Agents 를 직관적으로 이해할 수 있는 유튜브 링크를 첨부합니다. (댓글로 안하고 본문에 넣는 실험 진행 중. 기존에는 외부 링크가 본문에 들어간 경우 노출 제한 페널티가 있는 것이 일반적이었는데, 재검토가 필요...) Managed Agents 공식 발표 글 - claude.com/blog/claude-ma… 유튜브 소개 영상 - youtube.com/watch?v=I1BvAH… - anthropic.com/engineering/ma… 관리형 에이전트 확장: 두뇌와 손의 분리 - anthropic.com/engineering/ma… #ai #agent #anthropic #claude
YouTube video
YouTube
고영혁 (Dylan Ko) tweet media고영혁 (Dylan Ko) tweet media고영혁 (Dylan Ko) tweet media고영혁 (Dylan Ko) tweet media
한국어
0
107
327
30.6K
ButterZ ☕️ أُعيد تغريده
Joan of Arc
Joan of Arc@ralralbral·
CPU만으로 1초에 100장의 PDF를 마크다운으로 변환하는 무료 오픈소스가 공개되었습니다. RAG 시스템을 만들 때마다 PDF 문서 파싱이 가장 번거로운 작업이었습니다. 마침 깃허브 트렌딩 1위에 OpenDataLoader PDF가 올라와 있어서 바로 로컬 환경에서 테스트해 보았습니다. 벤치마크 점수가 0.907로 1위라고 적혀 있었는데, 실제로 실행해 보니 복잡한 2단 구성 논문과 표까지 정확하게 텍스트로 분리해 냅니다. ✅사용법도 아주 단순합니다. 파이썬 환경에서 명령어 한 줄만 터미널에 입력하세요. • pip install opendataloader-pdf 설치 후 파이썬 코드 단 3줄이면 데이터 변환이 끝납니다. 출력 결과물은 마크다운뿐만 아니라, 데이터 출처 표기를 위한 바운딩 박스가 포함된 JSON, 그리고 HTML 형식으로도 받을 수 있습니다. ✅하지만 공식 문서만 보고 바로 실무에 적용하기 전에 알아두셔야 할 점이 있습니다. 기본 설정인 결정론적 로컬 모드(Deterministic local mode)는 텍스트 위주 문서에서 매우 빠르지만, 테두리가 없는 표나 복잡한 수식이 섞인 페이지에서는 문서 구조가 어긋나는 현상이 발생합니다. 이런 복잡한 페이지나 화질이 낮은 스캔본을 처리할 때는 반드시 AI 하이브리드 모드를 활성화해야 합니다. 이 모드를 켜면 80개 이상의 언어를 지원하는 내장 OCR이 작동하여 300 DPI 이상의 스캔본이나 복잡한 차트 설명까지 텍스트로 추출해 냅니다. 제가 실무에 적용하면서 찾은 가장 효율적인 활용법은 랭체인(LangChain) 통합 기능을 사용하는 것입니다. OpenDataLoader가 출력한 구조화된 마크다운 문서를 랭체인으로 바로 넘겨서 데이터를 분할(Chunking)하면 RAG 파이프라인 구축이 매우 간결해집니다. 실제로 기존 파싱 도구로 5시간 넘게 걸리던 3,000장 분량의 사내 문서 전처리 작업을 단 10분 만에 서버 비용 추가 없이 완료했습니다. 지금까지 AI 서비스 개발에서 가장 시간과 비용이 많이 들었던 구간은 PDF 같은 비정형 데이터를 AI가 읽을 수 있게 가공하는 과정이었습니다. 이 도구는 값비싼 GPU 리소스 없이 오직 CPU 환경만으로 그 전처리 문제를 무료로 해결했습니다. 앞으로 기업들의 내부 데이터를 활용한 AI 구축 속도가 이전과 다르게 빨라질 것입니다. 지금 RAG 시스템을 기획하고 있다면 바로 깃허브 저장소에서 코드를 다운로드하여 확인해 보세요.
How To AI@HowToAI_

🚨 Someone just open-sourced a tool that converts pdfs to markdown at 100 pages per second. It's called OpenDataLoader. It runs entirely on CPU and handles complex layouts, tables, and nested structures like a senior dev 100% Free.

한국어
6
118
335
24.5K
ButterZ ☕️ أُعيد تغريده
Vivek Galatage
Vivek Galatage@vivekgalatage·
NGINX Architecture blog.nginx.org/nginx-architec… The infographic covers these questions •How NGINX creates processes to make efficient use of resources •The use of state machines to manage traffic •The innovative non-blocking, event-driven architecture that allows NGINX to schedule multiple state machines simultaneously •How the process architecture supports non-stop, graceful updates and binary upgrades
Vivek Galatage tweet mediaVivek Galatage tweet mediaVivek Galatage tweet media
English
2
67
546
51.8K
ButterZ ☕️ أُعيد تغريده
Jihyeon Kim (김지현)
Jihyeon Kim (김지현)@simnalamburt·
2일만에 한국의 모든 법을 RAG+fff로 Gemma 4에 연결해 간단한 챗봇을 만들어봤습니다! law-ai.contentstech.com 작은 GPU를 써서 상용 첨단 LLM에 비하면 성능/속도가 떨어질 수 있지만, 로컬 LLM에서 실행되기때문에 민감정보가 AI회사에 학습될 걱정이 없어요. 곧 오픈소스를 해보겠습니다 👍
Jihyeon Kim (김지현) tweet media
Jihyeon Kim (김지현)@simnalamburt

원격으로 @OctopusET 님과 협업해 3시간 걸렸던 legalize-kr 빌드 과정을 21초로, 500배 빠르게 만들었습니다!! ✨🐸👍✨ github.com/legalize-kr/co… 병렬화, 해시 기반 delta 최적화, alloc 튜닝, git을 완전히 bypass하고 git fast-import/index-pack 을 러스트로 재구현 등 엄청난 해커톤이었습니다!

한국어
11
254
542
52.1K
ButterZ ☕️ أُعيد تغريده
Jihyeon Kim (김지현)
Jihyeon Kim (김지현)@simnalamburt·
원격으로 @OctopusET 님과 협업해 3시간 걸렸던 legalize-kr 빌드 과정을 21초로, 500배 빠르게 만들었습니다!! ✨🐸👍✨ github.com/legalize-kr/co… 병렬화, 해시 기반 delta 최적화, alloc 튜닝, git을 완전히 bypass하고 git fast-import/index-pack 을 러스트로 재구현 등 엄청난 해커톤이었습니다!
Jihyeon Kim (김지현)@simnalamburt

legalize.kr @junghwan 님께서 한국 법을 모두 git repo로 옮겨주셨다! 한국법령정보 MCP보다 얘가 훨씬 빠르고 편하다!!!! 코드 : github.com/9bow/legalize-… 이거 예전부터 하고싶었지만 은근히 까다로운 처리가 필요해서 미뤘던건데, 시간지나니 다 해주셨다 와와와와

한국어
2
332
1K
595.2K
ButterZ ☕️ أُعيد تغريده
Jimmy Moon (현경, 炫炅)
Jimmy Moon (현경, 炫炅)@ragingwind·
시작은 Apple 2였습니다. 그때 부터 화면에 글자가 나오는 게 신기해서 밤새 모니터 앞에 앉아 있곤 했습니다. 진짜 애플키즈였습니다. 그 뒤로 코딩이란 건 늘 같은 모양이었던 것 같습니다. 문법 외우고, 에디터 열고, 한 줄씩 타이핑하고. 컴파일 돌리고 에러 잡고 다시 치고. 그 반복이 수십 년 이어졌습니다. 그게 코딩의 전부라고 생각했었습니다. 그런데 어느 날 문득 보니까, 타이핑 대신 말로 의도를 설명하고 있었습니다. 에이전트가 코드를 쓰고, 제가 판단하고, 다시 방향을 잡아주고. 처음엔 좀 이상했습니다. 손이 아니라 머리만 쓰는 느낌이랄까요. 키보드 위에 올려둔 손이 할 일을 잃은 것 같은 허전함이 있었습니다. 그 감각이 바뀐 건 Backend-AI:DOL를 만들면서였습니다. 예전 같았으면 몇 일, 여려명이 할 일을 혼자서 끝내고 있었습니다. 놀라운 건 속도가 아니었습니다. 제가 생각하는 속도로 소프트웨어가 따라오고 있다는 거, 그 경험이 처음이었습니다. 아, 손가락이 병목이였습니다. 나의 어설플 영어 입력이 병목이였습니다. 그걸 그제서야 알았습니다. 가만 생각해보면 AI만 바뀐 게 아니었습니다. 에이전트한테 맥락을 설계해주고, 결과를 보고 방향을 틀고, 어디서 끊어야 하는지 감을 잡는 과정에서 수십 년 동안 쌓아온 것들이 전혀 다른 방식으로 쓰이고 있었습니다. 도구가 바뀌니까 저도 같이 바뀌고 있더군요. 두렵기보다는 재밌었습니다. 그 경험을 정리해서 세미나를 할 수 있는 시간을 갖게 됐습니다. 다만 슬라이드에 담긴 내용의 유통기한도 코딩의 변화 속도만큼 빠르게 줄어들 겁니다. 지금 정리한 것들이 몇 달 뒤에는 이미 옛날 이야기가 되어 있을 수도 있습니다. 그래서 제가 슬라이드를 통해 하고 싶었던 말은 이겁니다. 에이전트를 잘 다루는 법을 지금 익혀두어야, 앞으로 올 대폭발의 순간에 가속도를 탈 수 있다는 것입니다. Apple 2 앞에 앉아 있던 그 아이가 떠오를 때가 있습니다. 화면에 글자가 나오는 게 신기해서 밤을 새던 그 아이. 지금은 에이전트에게 의도를 설명하는 사람이 됐습니다. 타이핑하는 사람에서, 무엇을 만들지 판단하고 방향을 정하는 사람으로. 도구가 바뀌었을 뿐입니다. 좋은 소프트웨어를 만들고 싶다는 마음은 그때나 지금이나 그대로인 것 같습니다. speakerdeck.com/ragingwind/cod…
한국어
1
18
66
18.4K
ButterZ ☕️ أُعيد تغريده
Dhairya
Dhairya@dkare1009·
Claude Code Project Structure (Quick Guide) Most projects start with just CLAUDE.md. That’s why they stay basic. Here’s the structure that turns Claude into an engineering partner 👇 📌 Core Files • CLAUDE.md → project rules & context • CLAUDE.local.md → personal overrides • mcp.json → connects tools (GitHub, Slack, DBs) • claude/settings.json → permissions + models 📂 claude/ (real power) • rules/ → coding + testing standards • commands/ → reusable workflows (/review, /fix) • skills/ → auto-loaded expertise (on-demand) • agents/ → specialized sub-agents • hooks/ → automation + guardrails 💡 Better structure = better output Set it once → every session improves. What does your setup look like? Save 💾 • Follow for AI workflows 🚀
GIF
English
29
414
2.4K
166.5K
ButterZ ☕️ أُعيد تغريده
GeekNews
GeekNews@GeekNewsHada·
Show GN: 법망 - PostgreSQL 기반 한국 법령 전체를 JSON으로 제공하는 에이전트용 API - XML, HWP, PDF 사전 파싱 — 표 데이터 포함 모든 출력 JSON - 국가법령정보센터 제공 법령 99․9%+ 수록, 매주 토요일 최신 동기화 - PostgreSQL + pgvector, 주요 조문 20만… news.hada.io/topic?id=28050
한국어
1
79
188
73.9K
ButterZ ☕️ أُعيد تغريده
Krishna
Krishna@krishna18421·
You hit "Send" on an LLM API call. ~400 milliseconds later you get a response. Ever wonder what happened in between? 14+ infrastructure layers. Billions of matrix multiplications. Thousands of dollars in GPU compute per hour. This applies to every major provider — OpenAI, Anthropic, Google, all of them. Here's the full journey: 𝗦𝘁𝗲𝗽 𝟭: 𝗔𝗣𝗜 𝗚𝗮𝘁𝗲𝘄𝗮𝘆 (~5ms) Your request doesn't go straight to a model. → TLS termination → API key validation → Rate limiter checks tokens-per-minute and requests-per-minute → Request schema validation → Billing meter starts ticking That 429 error you sometimes get? It dies right here. 𝗦𝘁𝗲𝗽 𝟮: 𝗟𝗼𝗮𝗱 𝗕𝗮𝗹𝗮𝗻𝗰𝗲𝗿 (~2ms) Your request gets routed to one of many GPU clusters. → Geographic routing to nearest data center → Least-connections algorithm picks the cluster → Health checks running continuously This is why latency varies between identical calls. 𝗦𝘁𝗲𝗽 𝟯: 𝗧𝗼𝗸𝗲𝗻𝗶𝘇𝗮𝘁𝗶𝗼𝗻 (~3ms) Your text gets converted to numbers. → BPE, SentencePiece, or WordPiece depending on the provider → Each token is roughly 4 characters → Context window limit checked here Token count equals your cost. This is where the meter runs. 𝗦𝘁𝗲𝗽 𝟰: 𝗠𝗼𝗱𝗲𝗹 𝗥𝗼𝘂𝘁𝗲𝗿 (~1ms) The layer nobody talks about. → Large model requests route to heavy multi-GPU clusters → Small model requests route to optimized single-GPU clusters → Embedding requests route to dedicated clusters → Queue management during peak traffic Every provider with multiple models has this layer. 𝗦𝘁𝗲𝗽 𝟱: 𝗜𝗻𝗳𝗲𝗿𝗲𝗻𝗰𝗲 (~300-800ms) This is 95% of your wait time. Two phases: 𝗣𝗿𝗲𝗳𝗶𝗹𝗹: → All input tokens processed in parallel → Attention scores computed across Query and Key matrices → KV Cache generated and stored in GPU HBM memory → This is why long prompts have higher time-to-first-token 𝗗𝗲𝗰𝗼𝗱𝗲: → One token generated per forward pass → KV Cache reused so past tokens aren't recomputed → Temperature and top_p sampling happens at this step → Each token sent immediately if streaming is on This is the fundamental reason streaming exists — tokens are generated one at a time. The hardware doing this: → A100 / H100 / H200 GPUs with 80GB+ HBM → Model weights split across multiple GPUs via tensor parallelism → Multiple user requests batched together for throughput → Flash Attention and GQA for memory efficiency This is why GPU compute costs $2-3 per hour. 𝗦𝘁𝗲𝗽 𝟲: 𝗣𝗼𝘀𝘁-𝗣𝗿𝗼𝗰𝗲𝘀𝘀𝗶𝗻𝗴 (~5ms) → Token IDs converted back to readable text → Safety classifier runs on the output → Stop sequences checked → Response packaged as JSON 𝗦𝘁𝗲𝗽 𝟳: 𝗕𝗶𝗹𝗹𝗶𝗻𝗴 & 𝗥𝗲𝘀𝗽𝗼𝗻𝘀𝗲 → Input tokens × price per 1K → Output tokens × price per 1K (usually 3-5x more expensive) → Prompt caching reduces cost at most providers now None of this is specific to one provider. This is how LLM inference works at scale — whether you're calling OpenAI, Anthropic, Google, or anyone else.
Krishna tweet media
English
6
116
463
18.9K
ButterZ ☕️ أُعيد تغريده
Joan of Arc
Joan of Arc@ralralbral·
정말 실행력 있으신 분인데 한 번 읽어보시기 바라요
SpacePilot@Spacepilot77

Thinktank를 만들었으니, 어떻게 사용하는지 보여드리겠습니다. 🧩① 수집 관심가는 글 보이면 봇에게 공유. URL, X 아티클, PDF, 이미지 다 됨. 봇이 크롤링 → 4단계 검증 → 토픽 분류까지 자동. 🧩② 탐색 DB에 저장된 가공된 정보들을 BOT 에게 명령해서 네트워크 그래프로 비주얼라이징 나도 몰랐던 관심사 패턴이 보여서 인지하기 좋음. 🧩③ 체득하기 하나의 생각으로 엮어보기 위해 필요한 관련 분석들 포워딩 → 3단계 귀납적 추론이 별개의 뉴스를 하나의 흐름으로 엮어줌. 🧩④ 글쓰기 (기존 사용하던 클로드 프로젝트) 3단계에서 가공한 자료를 바탕으로 초안 작성 🧩⑤ 결과물 아래는 봇의 추론 엔진을 가공해 실제로 뽑아낸 초안. (확인 용도로 스크롤만 내려보셔도 무방합니다) x.com/Spacepilot77/s… 수정 없이 그대로 공유합니다. Think Tank가 대필 작가는 아닙니다. 나를 분석하는 어시스턴트에 가깝습니다. 내가 관심있었던 지식들과의 상호작용이 나에게 어떠한 영향을 미쳤는지 스스로 정리할 수 없었지만 Think Tank가 도와줬습니다. 오늘 내 뇌에서 무엇을 받아들였는지 인지했으니, 내 관점을 더해 생각해보는건 가능합니다. 소수의 선구자들이 보여줬던 인사이트를 따라가기엔 많이 부족하지만 AI 와 함께, 조금은 더 생각하는 연습을 할 수 있습니다. 오늘도 Claude를 괴롭혀 봅니다 "해줘"

한국어
3
64
285
29.8K
ButterZ ☕️ أُعيد تغريده
SpacePilot
SpacePilot@Spacepilot77·
전체 빌드 과정을 기록으로 남깁니다. 3월 23일 오후 4시 ~ 24일 새벽 1시. 6번의 세션, 약 12시간. 코드는 한 줄도 직접 쓰지 않았습니다. ───────── ▸ 왜 만들었나 매일 수십 개의 기사, 트윗, PDF를 읽지만 "읽는 것"과 "아는 것"은 다릅니다. 규칙 하나를 세웠습니다. "그냥 받아들이지 않는다. 무조건 걸러서 넣는다." 모든 정보를 4단계로 검증하고, 내 포트폴리오와 관심사에 맞게 필터링해서, 텔레그램 봇으로 24시간 자동 운영. 도구: 1. Claude Code ( 기존 구독중인 모델은 Claude MAX ) 2. 월 $4.59 Hetzner서버 (Openclaw 글보고 덜컥 계약한 서버) 3. 텔레그램 토픽 기능 ───────── ▸ 타임라인 x.com/ralralbral/sta… @ralralbral 잔다르크님 글 참고 【세션 1】 설계 — 코드 0줄, 2시간 설계만 집중 • 4단계 검증 구조 설계 ① 출처 — 1차자료/전문가해석/2차요약 ② 근거 — 🟢사실/🟡해석/🟠추정/🔴의견 ③ 반대 시나리오 — 이게 틀리려면? ④ 적용성 — 나한테 영향이 있나? • 3중 기억 구조 설계 AI는 대화가 끝나면 다 잊으니까, memory/(서버내 Claude가 확인) + CONTEXT.md(현재 상태로 텔레그램 Topic 기능 활용) + sessions/(기록저장용) 세 겹으로 기억을 만들어줬습니다. x.com/Bugi952/status… @Bugi952 부기님 글 참고 【세션 2】 봇 기본 동작 + 자동 저장 • "✅ 수신 완료"만 답하는 코드에서 시작 • URL/X링크/PDF/명령어 자동 구분 • Claude -p 호출 연동 → 분석 결과를 텔레그램에 답장 • Claude 분석 → 토픽별 자동 저장 🔥 문제발생: 네이버 뉴스가 Claude 웹 접근 차단 → 봇이 대신 크롤링해서 텍스트로 전달하는 방식으로 우회 🧩 개입 ①: 이모지 태그 시스템 분석 결과가 텍스트 덩어리라 읽기 힘들었음. 모든 판단에 이모지 태그를 붙이자고 제안. 가독성이 완전히 달라졌습니다. 🧩 개입 ②: 처리 큐 4GB RAM 서버에서 Claude 동시 호출하면 터짐. 한 번에 하나씩, 대기 중 알림 표시. 【세션 3】 코드 분리 + X링크 + PDF 🧩 내 개입 ③: 500줄 넘어가자 수정할 때 자꾸 깨짐. Claude를 제지 시켜야했음. •기능별 6개 파일로 분리 요청. config.py — 설정값 utils.py — 유틸리티 crawlers.py — 크롤링 (URL, X링크, PDF) analyzer.py — Claude 호출 topics.py — 토픽 분류·저장 bot.py — 메인 실행 • X 트윗: fxtwitter API로 텍스트+이미지+인용 추출 • PDF: 213페이지 회사 매뉴얼, 22초 만에 처리 OpenDataLoader 채택 — Claude 추천 도구보다 속도 100배 이상 차이 (4.7초 vs 수 분). x.com/AI_bot_manager… @AI_bot_manager 봇트레이더매니저님 글 참고 【세션 4】 이미지 분석 + 24시간 운영 🔥 문제발생: Claude가 이미지를 못 읽음 3가지 방법 시도 후 전부 실패. → @파일경로 참조 방식 발견으로 해결. 🧩 개입 ④: 인용 트윗의 원문 이미지도 분석에 포함시켜라. 차트가 포함된 트윗을 인용한 경우, 원문의 차트도 봐야 맥락이 완성되기 때문(주로 트레이딩 관련) • systemd 등록 → 24시간 자동 운영, 죽으면 5초 후 재시작. 【세션 5】 PDF 챕터 분리 + 기능 기각 🧩 개입 ⑤: "이미지 개수가 아니라 챕터 맥락으로 쪼개줘" Claude는 이미지 50개씩 나누자고 했으나 거부. 내용 맥락이 깨지면 안됨. → 헤딩 기준 챕터 분리로 변경. 분석 품질 확실히 향상. 🧩 개입 ⑥: /study 모드 기각 Claude가 PDF 학습 모드를 제안. 여기서부터 슬슬 환각증세가 오는 것 같았음. "이 봇의 목적은 필터링을 통한 가공이지 학습이 아니다. Study 목적이면 NotebookLM이 더 잘한다. " → 코드 기각. →"이건 안 한다" 를 정하는게 점점 더 중요하다 느꼈습니다. 【세션 6】 텔레그램 완전 관리 🧩 개입 ⑦: Context 토픽 CONTEXT.md 수정하려면 SSH 접속 필요 → 귀찮음. 텔레그램에 🧠Context 토픽 만들고, 핀 고정하면 자동으로 CONTEXT.md 업데이트. 이제 텔레그램만으로 봇 설정 관리. 🧩 개입 ⑧: General 토픽에서만 분석 봇이 모든 토픽에서 분석을 시작해버리는 문제 발생함. → "분석은 General에서만. 나머지는 저장 전용." 안 잡았으면 자기가 저장한 걸 또 분석하는 무한루프. 🧩 개입 ⑨: 기사 본문 이미지 분석 BIS 달러 펀딩 체인 다이어그램이 기사에 있었는데 봇이 텍스트만 크롤링하고 이미지 무시. → 본문 이미지 추출 추가. 분석 품질 눈에 띄게 향상. ───────── ▸ 비개발자가 실제로 한 것 vs 안 한 것 내가 한 것: • 시스템의 목적과 철학 설계 • 4단계 검증 구조 설계 • 모든 기능의 필요성 판단 • 문제 발생 시 방향 제시 • 사용성 개선 아이디어 • "이건 안 한다" 기각 결정 내가 안 한 것: • 코드 작성 (0줄) • 라이브러리 선택 • 디버깅 • 서버 설정 ───────── ▸ 실제 비용 서버 추가 비용: 월 $4.59 Claude MAX 구독료: 월 ($0, $19, $110, $220~) (이미 쓰고 있던 것으로 본인의 사용량에 맞춰 사용하면 됨) 가장 큰 비용인 Claude MAX($110+/월)은 가변적인 전제 조건입니다. MAX 를 다른 용도로 구입했었고 취소하려던 참이었는데, 남은 기간이 아까워서 최대한 사용하고 싶었습니다. 어떠한 형태라도 Claude 구독 중이라면, 추가 비용은 $4.59 + 입니다. ▸ 서버 12시간 후 사용량 RAM 10% | 디스크 8% | CPU 거의 유휴 $4.59짜리 서버의 10%도 안 씀. ───────── 코드를 몰라도, 시스템은 설계할 수 있습니다. "뭘 만들 것인가"와 "어떻게 만들 것인가"는 다른 능력입니다. 상상한 뒤 말합시다. "해줘"
Cognac(꼬냑)@supernovajunn

비개발자가 개인 AI 싱크탱크를 만들었습니다 @Bugi952 님과 @Spacepilot77 님이 링크 하나를 보내면 4단계가 자동으로 돌아가는 시스템을 만들었습니다. 출처 검증, 근거 태깅, 반박 시나리오, 본인 포트폴리오 적용성까지. 코드 한 줄 모르는 분이, 월 $4.59짜리 서버 위에서 만들었다고 합니다 "클로드에게 '해줘'만 반복했더니 개인 AI 싱크탱크가 만들어졌다." 이 말이 거짓이 아닌 세상으로 변하가는 것 같습니다. 저는 OpenClaw를 이야기하기 시작했을 때부터 쭉 봐왔습니다. 그때 관심 가진 분들 중 지금 진짜로 시스템을 만들고, 업무가 바뀌고, 하루가 바뀌고 있는 분들이 나오고 있습니다. 저는 그 흐름을 먼저 보고 정리해서 전달하는 역할을 하고 싶습니다. 물론 도움이 되는 에이전트 기술도 함께요 전 세계 능력자들이 아낌없이 재능을 공유하는 X에서, 저도 능력은 없지만 X에서 그 역할을 하겠습니다.

한국어
21
94
384
75.5K
ButterZ ☕️ أُعيد تغريده
Move78
Move78@move78th·
아직도 클로드에 PDF를 바로 올리시나요? PDF를 .md로 100% 무료로 바꾸기가 가능해요 더 이상 pdf로 토큰을 낭비하지 마시길!! 초당 100페이지 수준으로 Pdf를 md로 자꿔주는 엄청난 툴 Open Data Loader를 써보세요 레포가 100%무료로 공개되어 있습니다.
Move78 tweet media
Oliver Prompts@oliviscusAI

Repo: github.com/opendataloader… If you want more practical AI gems and use cases, join our free newsletter with daily tutorials and latest news in AI: simplifyingai.co

한국어
21
360
955
61.5K
ButterZ ☕️ أُعيد تغريده
SpacePilot
SpacePilot@Spacepilot77·
Thinktank를 만들었으니, 어떻게 사용하는지 보여드리겠습니다. 🧩① 수집 관심가는 글 보이면 봇에게 공유. URL, X 아티클, PDF, 이미지 다 됨. 봇이 크롤링 → 4단계 검증 → 토픽 분류까지 자동. 🧩② 탐색 DB에 저장된 가공된 정보들을 BOT 에게 명령해서 네트워크 그래프로 비주얼라이징 나도 몰랐던 관심사 패턴이 보여서 인지하기 좋음. 🧩③ 체득하기 하나의 생각으로 엮어보기 위해 필요한 관련 분석들 포워딩 → 3단계 귀납적 추론이 별개의 뉴스를 하나의 흐름으로 엮어줌. 🧩④ 글쓰기 (기존 사용하던 클로드 프로젝트) 3단계에서 가공한 자료를 바탕으로 초안 작성 🧩⑤ 결과물 아래는 봇의 추론 엔진을 가공해 실제로 뽑아낸 초안. (확인 용도로 스크롤만 내려보셔도 무방합니다) x.com/Spacepilot77/s… 수정 없이 그대로 공유합니다. Think Tank가 대필 작가는 아닙니다. 나를 분석하는 어시스턴트에 가깝습니다. 내가 관심있었던 지식들과의 상호작용이 나에게 어떠한 영향을 미쳤는지 스스로 정리할 수 없었지만 Think Tank가 도와줬습니다. 오늘 내 뇌에서 무엇을 받아들였는지 인지했으니, 내 관점을 더해 생각해보는건 가능합니다. 소수의 선구자들이 보여줬던 인사이트를 따라가기엔 많이 부족하지만 AI 와 함께, 조금은 더 생각하는 연습을 할 수 있습니다. 오늘도 Claude를 괴롭혀 봅니다 "해줘"
SpacePilot tweet mediaSpacePilot tweet media
SpacePilot@Spacepilot77

전체 빌드 과정을 기록으로 남깁니다. 3월 23일 오후 4시 ~ 24일 새벽 1시. 6번의 세션, 약 12시간. 코드는 한 줄도 직접 쓰지 않았습니다. ───────── ▸ 왜 만들었나 매일 수십 개의 기사, 트윗, PDF를 읽지만 "읽는 것"과 "아는 것"은 다릅니다. 규칙 하나를 세웠습니다. "그냥 받아들이지 않는다. 무조건 걸러서 넣는다." 모든 정보를 4단계로 검증하고, 내 포트폴리오와 관심사에 맞게 필터링해서, 텔레그램 봇으로 24시간 자동 운영. 도구: 1. Claude Code ( 기존 구독중인 모델은 Claude MAX ) 2. 월 $4.59 Hetzner서버 (Openclaw 글보고 덜컥 계약한 서버) 3. 텔레그램 토픽 기능 ───────── ▸ 타임라인 x.com/ralralbral/sta… @ralralbral 잔다르크님 글 참고 【세션 1】 설계 — 코드 0줄, 2시간 설계만 집중 • 4단계 검증 구조 설계 ① 출처 — 1차자료/전문가해석/2차요약 ② 근거 — 🟢사실/🟡해석/🟠추정/🔴의견 ③ 반대 시나리오 — 이게 틀리려면? ④ 적용성 — 나한테 영향이 있나? • 3중 기억 구조 설계 AI는 대화가 끝나면 다 잊으니까, memory/(서버내 Claude가 확인) + CONTEXT.md(현재 상태로 텔레그램 Topic 기능 활용) + sessions/(기록저장용) 세 겹으로 기억을 만들어줬습니다. x.com/Bugi952/status… @Bugi952 부기님 글 참고 【세션 2】 봇 기본 동작 + 자동 저장 • "✅ 수신 완료"만 답하는 코드에서 시작 • URL/X링크/PDF/명령어 자동 구분 • Claude -p 호출 연동 → 분석 결과를 텔레그램에 답장 • Claude 분석 → 토픽별 자동 저장 🔥 문제발생: 네이버 뉴스가 Claude 웹 접근 차단 → 봇이 대신 크롤링해서 텍스트로 전달하는 방식으로 우회 🧩 개입 ①: 이모지 태그 시스템 분석 결과가 텍스트 덩어리라 읽기 힘들었음. 모든 판단에 이모지 태그를 붙이자고 제안. 가독성이 완전히 달라졌습니다. 🧩 개입 ②: 처리 큐 4GB RAM 서버에서 Claude 동시 호출하면 터짐. 한 번에 하나씩, 대기 중 알림 표시. 【세션 3】 코드 분리 + X링크 + PDF 🧩 내 개입 ③: 500줄 넘어가자 수정할 때 자꾸 깨짐. Claude를 제지 시켜야했음. •기능별 6개 파일로 분리 요청. config.py — 설정값 utils.py — 유틸리티 crawlers.py — 크롤링 (URL, X링크, PDF) analyzer.py — Claude 호출 topics.py — 토픽 분류·저장 bot.py — 메인 실행 • X 트윗: fxtwitter API로 텍스트+이미지+인용 추출 • PDF: 213페이지 회사 매뉴얼, 22초 만에 처리 OpenDataLoader 채택 — Claude 추천 도구보다 속도 100배 이상 차이 (4.7초 vs 수 분). x.com/AI_bot_manager… @AI_bot_manager 봇트레이더매니저님 글 참고 【세션 4】 이미지 분석 + 24시간 운영 🔥 문제발생: Claude가 이미지를 못 읽음 3가지 방법 시도 후 전부 실패. → @파일경로 참조 방식 발견으로 해결. 🧩 개입 ④: 인용 트윗의 원문 이미지도 분석에 포함시켜라. 차트가 포함된 트윗을 인용한 경우, 원문의 차트도 봐야 맥락이 완성되기 때문(주로 트레이딩 관련) • systemd 등록 → 24시간 자동 운영, 죽으면 5초 후 재시작. 【세션 5】 PDF 챕터 분리 + 기능 기각 🧩 개입 ⑤: "이미지 개수가 아니라 챕터 맥락으로 쪼개줘" Claude는 이미지 50개씩 나누자고 했으나 거부. 내용 맥락이 깨지면 안됨. → 헤딩 기준 챕터 분리로 변경. 분석 품질 확실히 향상. 🧩 개입 ⑥: /study 모드 기각 Claude가 PDF 학습 모드를 제안. 여기서부터 슬슬 환각증세가 오는 것 같았음. "이 봇의 목적은 필터링을 통한 가공이지 학습이 아니다. Study 목적이면 NotebookLM이 더 잘한다. " → 코드 기각. →"이건 안 한다" 를 정하는게 점점 더 중요하다 느꼈습니다. 【세션 6】 텔레그램 완전 관리 🧩 개입 ⑦: Context 토픽 CONTEXT.md 수정하려면 SSH 접속 필요 → 귀찮음. 텔레그램에 🧠Context 토픽 만들고, 핀 고정하면 자동으로 CONTEXT.md 업데이트. 이제 텔레그램만으로 봇 설정 관리. 🧩 개입 ⑧: General 토픽에서만 분석 봇이 모든 토픽에서 분석을 시작해버리는 문제 발생함. → "분석은 General에서만. 나머지는 저장 전용." 안 잡았으면 자기가 저장한 걸 또 분석하는 무한루프. 🧩 개입 ⑨: 기사 본문 이미지 분석 BIS 달러 펀딩 체인 다이어그램이 기사에 있었는데 봇이 텍스트만 크롤링하고 이미지 무시. → 본문 이미지 추출 추가. 분석 품질 눈에 띄게 향상. ───────── ▸ 비개발자가 실제로 한 것 vs 안 한 것 내가 한 것: • 시스템의 목적과 철학 설계 • 4단계 검증 구조 설계 • 모든 기능의 필요성 판단 • 문제 발생 시 방향 제시 • 사용성 개선 아이디어 • "이건 안 한다" 기각 결정 내가 안 한 것: • 코드 작성 (0줄) • 라이브러리 선택 • 디버깅 • 서버 설정 ───────── ▸ 실제 비용 서버 추가 비용: 월 $4.59 Claude MAX 구독료: 월 ($0, $19, $110, $220~) (이미 쓰고 있던 것으로 본인의 사용량에 맞춰 사용하면 됨) 가장 큰 비용인 Claude MAX($110+/월)은 가변적인 전제 조건입니다. MAX 를 다른 용도로 구입했었고 취소하려던 참이었는데, 남은 기간이 아까워서 최대한 사용하고 싶었습니다. 어떠한 형태라도 Claude 구독 중이라면, 추가 비용은 $4.59 + 입니다. ▸ 서버 12시간 후 사용량 RAM 10% | 디스크 8% | CPU 거의 유휴 $4.59짜리 서버의 10%도 안 씀. ───────── 코드를 몰라도, 시스템은 설계할 수 있습니다. "뭘 만들 것인가"와 "어떻게 만들 것인가"는 다른 능력입니다. 상상한 뒤 말합시다. "해줘"

한국어
14
135
376
71.1K
ButterZ ☕️ أُعيد تغريده
GeekNews
GeekNews@GeekNewsHada·
Show GN: 케이-스킬 : 한국인을 위한 스킬 모음집 한국인인가요? 이 스킬 모음집을 다운로드 받아 두세요. 언젠가 무조건 쓸 때가 옵니다! SRT, KTX, KBO, 로또, 당근, 쿠팡, 카톡, 정부24, 홈택스 등등 귀찮은 것을 AI 에이전트에게 다 시켜버리세요. Claude … news.hada.io/topic?id=27881
한국어
0
31
85
7.8K
ButterZ ☕️ أُعيد تغريده
GeekNews
GeekNews@GeekNewsHada·
삶을 더 편하게 만드는 Shell 트릭 - 다양한 키보드 단축키와 명령 조합을 활용해 셸 환경에서 작업 속도와 효율을 높이는 방법 정리 - CTRL + W, U, K, Y 등 기본 단축키로 줄 편집, CTRL + A/E, ALT + B/F로 커서 이동, reset으로 터미널 복구 가능 - Bash와 Zsh에서는 … news.hada.io/topic?id=27903
한국어
0
8
24
2.5K