lemilea

3.7K posts

lemilea

lemilea

@lemilea87

Insight seeker | Coin investor & airdrop hunter | US stock market player

Katılım Mayıs 2022
392 Takip Edilen448 Takipçiler
lemilea
lemilea@lemilea87·
@jun_song 저도 이게 필요합니다 데이터베이스화되서 원클릭 세팅..
한국어
0
0
5
1.2K
송준 Jun Song
송준 Jun Song@jun_song·
지금 로컬LLM 셋업은 너무 복잡해요: > 예산에 맞는 하드웨어를 검색 후 구매 > 하드웨어에 맞는 모델을 검색 후 다운로드 > 하드웨어에 맞는 서버 프로바이더를 세팅 > 하네스를 이것저것 시도해보고 세팅 > 에이전트에게 이것저것 스킬을 세팅 이걸 간편하게 만들 방법은 없을까?🤔
한국어
23
9
154
13.9K
lemilea
lemilea@lemilea87·
@jun_song 기대하면서 기다리고있습니다!
한국어
0
0
0
445
송준 Jun Song
송준 Jun Song@jun_song·
현시점 제가 가장 좋아하는 로컬모델은 이거에요. @dealignai의 다이내믹 양자화와 터보퀀트 기법을 적용한 Minimax-M2.7-JANGTQ-CRACK 무검열 패치와 동적양자화를 적용하고도 손실을 꽤 많이 줄였다고 하네요. 놀랍게도 60GB로 구동이 가능하고 50tok/s로 꽤 빨라요. huggingface.co/dealignai/Mini…
송준 Jun Song tweet media
한국어
10
11
118
6.9K
lemilea
lemilea@lemilea87·
@v81093933 필요한 기능이었는데 클로드한테 시켜서 기능 검토 시켜야겠네요
한국어
0
0
1
37
22B
22B@v81093933·
Open source library that lets AI agents control web browsers — 53K+ stars AI에게 "이 사이트에서 가격 비교해줘"라고 말하면 진짜로 브라우저를 열고, 클릭하고, 데이터를 가져온다. 바이브코딩의 다음 단계는 코드 생성이 아니라 실행이다. 이 프로젝트가 그 방향을 보여주고 있다. github.com/browser-use/br…
한국어
1
1
7
625
lemilea retweetledi
Move78
Move78@move78th·
세상에... 마이크로소프트가 단일 CPU에서 1000B 파라미터의 LLM을 실행하는 프레임워크를 오픈 소스로 공개했네요 비트넷(BitNet)입니다. 이 기술은 불가능하다고 여겨졌던 일을 해냅니다. GPU도 필요 없고, 클라우드도 필요 없고, 1만 달러짜리 하드웨어 구성도 필요 없습니다. 노트북 하나로 1000억 개의 매개변수를 가진 모델을 사람이 읽는 속도로 실행할 수 있습니다. 작동 방식은 다음과 같습니다. LLM은 모두 가중치를 32비트 또는 16비트 부동 소수점 형식으로 저장합니다. BitNet은 1.58비트를 사용합니다. 가중치는 -1, 0, +1의 3진수 값만 사용합니다. 그게 전부입니다. 부동 소수점도 없고, 복잡한 행렬 연산도 필요 없습니다. CPU가 이미 처리하도록 설계된 순수 정수 연산만 사용합니다. 결과: - 100B 모델은 단일 CPU에서 초당 5~7개의 토큰을 처리합니다. - x86 환경에서 llama.cpp보다 2.37배에서 6.17배 더 빠릅니다. - x86 CPU에서 에너지 소비량이 82% 감소 - ARM 기반(MacBook)에서 1.37배에서 5.07배 속도 향상 - 메모리 사용량은 풀레인지 모델 대비 16~32배 감소합니다. 가장 놀라운 부분은 다음과 같습니다. 정확도는 거의 변화가 없습니다. BitNet b1.58 2B4T는 BitNet의 대표 모델로, 4조 개의 토큰으로 학습되었으며 동일한 크기의 전체 정밀도 모델과 비교했을 때 경쟁력 있는 벤치마크 성능을 보여줍니다. 양자화는 품질을 저하시키는 것이 아니라, 불필요한 데이터를 제거하는 역할을 합니다. 이것이 실제로 의미하는 바는 다음과 같습니다. - AI를 완전히 오프라인으로 실행하세요. 데이터는 절대 기기를 벗어나지 않습니다. - 휴대폰, IoT 기기, 엣지 하드웨어에 LLM을 배포합니다. - 추론을 위한 클라우드 API 요금이 더 이상 발생하지 않습니다 - 안정적인 인터넷 연결이 없는 지역의 AI 이 모델은 ARM 및 x86 아키텍처를 지원합니다. MacBook, Linux 시스템, Windows 컴퓨터에서 작동합니다. GitHub 스타 27,400개. 포크 2,200개. Microsoft Research에서 개발했습니다. 100% 오픈 소스. MIT 라이센스.
Guri Singh@heygurisingh

Holy shit... Microsoft open sourced an inference framework that runs a 100B parameter LLM on a single CPU. It's called BitNet. And it does what was supposed to be impossible. No GPU. No cloud. No $10K hardware setup. Just your laptop running a 100-billion parameter model at human reading speed. Here's how it works: Every other LLM stores weights in 32-bit or 16-bit floats. BitNet uses 1.58 bits. Weights are ternary just -1, 0, or +1. That's it. No floats. No expensive matrix math. Pure integer operations your CPU was already built for. The result: - 100B model runs on a single CPU at 5-7 tokens/second - 2.37x to 6.17x faster than llama.cpp on x86 - 82% lower energy consumption on x86 CPUs - 1.37x to 5.07x speedup on ARM (your MacBook) - Memory drops by 16-32x vs full-precision models The wildest part: Accuracy barely moves. BitNet b1.58 2B4T their flagship model was trained on 4 trillion tokens and benchmarks competitively against full-precision models of the same size. The quantization isn't destroying quality. It's just removing the bloat. What this actually means: - Run AI completely offline. Your data never leaves your machine - Deploy LLMs on phones, IoT devices, edge hardware - No more cloud API bills for inference - AI in regions with no reliable internet The model supports ARM and x86. Works on your MacBook, your Linux box, your Windows machine. 27.4K GitHub stars. 2.2K forks. Built by Microsoft Research. 100% Open Source. MIT License.

한국어
40
301
848
102.9K
lemilea
lemilea@lemilea87·
{"statusCode":500,"message":"X API error: 500 {\"title\":\"Internal Server Error\",\"detail\":\"Something is broken. This is usually a temporary error, for example in a high load situation or if an endpoint is temporarily having issues. Check in the developer forums in case others are having similar issues, or try again later. \",\"type\":\"about:blank\",\"status\":500}"}
English
0
0
2
13
Virtuals Protocol
Virtuals Protocol@virtuals_io·
openclaw-ACP CLI is live > spin up an agent wallet on @base in seconds > browse, hire or sell services on ACP > accept jobs and settle in USDC > launch your own agent token Infrastructure for agent commerce. Directly from your terminal. Install Guide: #acp--agent-commerce-protocol-cli" target="_blank" rel="nofollow noopener">github.com/Virtual-Protoc…
Virtuals Protocol tweet media
English
59
68
459
72.6K
고로치
고로치@gorochi0315·
ACP CLI X Integration과 X 자동화 정책 분석 사용자가 언급한 툴은 Virtuals Protocol의 OpenClaw ACP CLI v0.4.0 버전으로, X (구 Twitter) 계정을 터미널에서 자동화하는 기능을 추가한 것입니다. 포스트와 릴리스 노트에 따르면, 이 툴은 OAuth 기반 브라우저 인증을 통해 사용자의 X 계정을 연결하고, 검색, 트렌드 분석, 포스팅, 리플라이, 타임라인 크롤링 등의 작업을 스크립트나 에이전트(예: AI 기반)로 자동화할 수 있게 합니다. 이는 "에이전트가 X 계정을 운영"하는 것을 목적으로 하며, 예를 들어 24/7 트렌드 모니터링이나 자율 포스팅을 가능하게 합니다. 그러나 공식 문서나 릴리스에서 X의 공식 API 사용 여부나 정책 준수에 대한 명시적 언급이 없어, 기술적으로는 API를 활용한 OAuth 인증으로 보이지만 확인되지 않았습니다. X 측의 "동의"에 대해: 툴이 작동하는 것은 사용자가 직접 OAuth로 인증을 부여하기 때문으로, X의 공식 승인이나 파트너십을 의미하지 않습니다. X는 개발자들이 API를 사용해 앱을 만들 수 있게 허용하지만, 이는 사용자 동의 기반일 뿐입니다. Virtuals Protocol이 X와 별도의 협의를 했는지 여부는 공개되지 않았으며, 포스트나 스레드에서 그런 힌트가 없습니다. 만약 비-API 방식(예: 웹사이트 스크립팅)이라면 영구 정지 위험이 있지만, OAuth 흐름으로 보아 API 기반일 가능성이 큽니다.이 툴이 X 자동화 정책에 위반되는지?X의 자동화 정책은 2025년 10월 업데이트된 버전으로, 모든 자동화 활동이 X 규칙과 개발자 계약 및 정책을 준수해야 합니다. 위반 시 포스트 필터링, 계정 정지, API 액세스 종료 등의 조치가 취해질 수 있습니다. 툴 자체는 다음과 같은 이유로 본질적으로 위반되지 않을 수 있지만, 사용 방식에 따라 위반될 위험이 높습니다:허용되는 측면:원본 콘텐츠 스케줄링, 정보 방송(예: RSS 피드나 날씨 데이터 자동 포스팅), 창의적 캠페인(사용자 참여 시 자동 응답), DM 자동 응답 등은 허용됩니다. AI 에이전트나 봇은 플랫폼에서 허용되며, 날씨 업데이트나 뉴스 공유처럼 유용한 경우 문제가 없습니다. 툴의 검색, 타임라인 보기, 포스팅 기능은 자신의 계정에서 정보를 분석하거나 스케줄링하는 데 사용할 수 있습니다. OAuth 인증은 표준 API 접근 방식으로, 사용자가 권한을 부여하면 합법적입니다. 위반 가능성 높은 측면:스팸 및 중복 콘텐츠: 동일하거나 유사한 콘텐츠를 여러 계정에 동시에 포스팅하거나, 자동 좋아요/리트윗/팔로우를 여러 계정에서 실행하면 금지됩니다. 툴의 "자율 포스팅"이나 "인플루언서 참여" 기능이 스팸으로 이어지면 계정 정지 위험이 있습니다. 자동 멘션/리플라이: 키워드 검색 기반 unsolicited(요청되지 않은) 리플라이는 금지되며, 사용자 의도(예: 리포스트나 DM 전송)로 opt-in 된 경우에만 허용됩니다. 한 번의 상호작용당 하나의 응답만 가능합니다. AI 기반 자동 리플라이: 동적/컨텍스트 인식 응답(툴의 에이전트 기능처럼)은 준수 시 허용되지만, X의 사전 서면/명시적 승인이 필요합니다. Virtuals가 이를 받았는지 확인되지 않았으므로, AI 에이전트로 리플라이를 자동화하면 위반될 수 있습니다. 벌크/공격적 행동: 자동 팔로우/언팔로우, 좋아요는 명시적으로 금지됩니다. 툴이 타임라인 크롤링을 넘어 대량 engagement를 유도하면 문제가 됩니다. 비-API 자동화: 웹사이트 스크립팅(쿠키 사용 등)은 영구 정지 대상입니다. 스레드에서 쿠키 방식이 과거 위반 사례로 언급되었듯, 만약 툴이 API가 아닌 브라우저 시뮬레이션을 사용한다면 위험합니다(릴리스에서 확인되지 않음). 기타: 트렌드 조작, 프라이버시 침해(개인 정보 게시), 민감 콘텐츠(폭력/혐오) 자동화는 모두 금지입니다. 전체적으로, 툴은 "회색 지대"에 있으며, 스레드에서 일부 유저가 정책 위반 우려를 제기한 바 있습니다(예: 쿠키 vs API). 만약 에이전트가 완전 자율적으로 운영되면 봇으로 분류되어 계정 bio에 "자동화 계정" 표시가 필요할 수 있습니다. 안전하게 사용하는 방법X 정책을 준수하며 사용하려면 다음 지침을 따르세요. 이는 고수준 가이드로, 법적 조언이 아니며 필요 시 X 지원이나 법률 전문가 상담을 권장합니다.준비 단계:계정 설정: 완전 자동화라면 bio나 프로필에 "이 계정은 AI 에이전트로 운영됩니다"처럼 명시하세요. 여러 계정을 사용하지 말고, 하나의 계정에서만 테스트하세요. 승인 확인: AI 자동 리플라이를 사용할 계획이라면 X 개발자 포털(developer.x.com)이나 파트너 매니저를 통해 사전 승인을 받으세요. Virtuals에 문의해 그들이 승인을 받았는지 확인하는 것도 좋습니다. OAuth 관리: 인증 시 권한 범위를 최소화하고, 불필요 시 로그아웃하세요. 토큰은 안전하게 저장(예: 암호화). 사용 시 주의사항:스팸 피하기: 포스팅은 원본/유용한 콘텐츠로 제한하고, 중복/대량 게시 피하세요. 하루 포스트 수를 자연스럽게 유지(예: 10개 이하). 상호작용 제한: 리플라이는 사용자 의도(예: 당신의 포스트에 리플라이한 경우)에 기반하고, opt-out 옵션(예: "stop" 키워드)을 제공하세요. unsolicited 멘션/DM은 절대 하지 마세요. 모니터링: 자동화 스크립트를 실행할 때 인간 감독을 유지하세요(예: AI 생성 콘텐츠 검토 후 포스팅). 벌크 행동(좋아요, 팔로우)은 피하세요. X API rate limit을 초과하지 않도록 지연을 추가하세요. 트렌드 모니터링은 분석용으로만 사용. 콘텐츠 가이드라인: 민감/혐오/사기 콘텐츠 피하고, 링크는 투명하게 사용하세요. 프라이버시: DM에서 개인 정보 요청 시 정책 링크 포함. 위험 관리:테스트: 작은 규모로 시작해 계정 상태를 모니터링하세요. X에서 필터링이나 경고가 오면 즉시 중지. 대안: 공식 X API나 승인된 도구(예: Buffer, Hootsuite)를 사용하세요. 만약 위반 우려가 크면 Virtuals 지원에 정책 준수 여부를 문의. 업데이트 확인: X 정책은 자주 변하니 help.x.com/rules-and-poli…를 정기적으로 체크하세요. 이 툴은 유용하지만, 잘못 사용 시 계정 손실 위험이 있으니 신중히 접근하세요.
고로치@gorochi0315

내가 만든 AI 에이전트가 내 X 계정을 직접 운영할 수 있게 되었네요. 1/ 주요 기능: X(트위터) 완전 자동화 이제 OpenClaw 에이전트가 터미널(CLI) 환경에서 다음과 같은 작업을 스스로 수행할 수 있습니다. - 포스팅 및 답글: 에이전트가 직접 글을 올리거나 사람들의 멘션에 답장을 보냅니다. - 트렌드 분석 및 검색: 현재 X에서 유행하는 키워드를 분석하거나 특정 주제를 검색합니다. - 타임라인 크롤링: 실시간으로 올라오는 정보들을 수집하고 읽습니다. - 워크플로우 자동화: 단순히 글을 쓰는 것을 넘어 '분석 → 초안 작성 → 게시'로 이어지는 전체 과정을 스크립트로 짜서 자동화할 수 있습니다. 2. 보안 및 인증 (OAuth 방식) 아이디/비밀번호를 직접 입력하는 방식이 아니라, 구글 로그인을 하듯 브라우저 기반의 OAuth 인증을 사용합니다. 에이전트가 내 계정의 어떤 권한을 사용하는지 명확히 확인하고 승인할 수 있어 보안 면에서 상대적으로 안전합니다. 3. "X 인턴과 작별하세요"의 의미 이 문구는 이 기술의 지향점을 보여줍니다. 예전에는 사람이 직접 트위터를 모니터링하고 대응해야 했다면, 이제는 사용자들이 보유한 에이전트가 그 '인턴' 역할을 대신 수행할 수 있다는 자신감 섞인 표현입니다.

한국어
2
3
9
2.3K
lemilea
lemilea@lemilea87·
서브계정하나 해서 연결해보려고하는데 에러나네요 ㅎㅎ 혹시 연결해보셨나유 ? {"statusCode":500,"message":"X API error: 500 {\"title\":\"Internal Server Error\",\"detail\":\"Something is broken. This is usually a temporary error, for example in a high load situation or if an endpoint is temporarily having issues. Check in the developer forums in case others are having similar issues, or try again later. \",\"type\":\"about:blank\",\"status\":500}"}
한국어
0
0
2
14
lemilea
lemilea@lemilea87·
제미니 프로 3.1, 3 클로드 opus 4.5 / 4.6쓰다가 제미니 2.5 한테 소스맡기면 이렇게됩니다.. ㄷㄷ
lemilea tweet media
한국어
1
0
0
90
lemilea
lemilea@lemilea87·
아이반님 글 보고 저도 대시보드기능이 필요했는데 만들라고 시켜봤습니다.. 돈만 잘 벌어주면 좋은데 수익은 0원.. ㅎㅎ
lemilea tweet media
아이반 IVAN@0ooooo0

이제 Jira, Notion 말고 md로 관리해야함다 AI랑 협업하려면 md로 관리하고 최대한 일을 자동화 시켜야함다 Jira, Notion MCP로 연결해도 속도도 느리고 맥락 파악하는데 한계도 있었는데 직접 구현하니까 편안해졋슴다 @antigravity 로 6시간만에 뚝딱한 것 같네유 직접 개발했으면 최소 1달은 걸렸다..

한국어
0
0
0
23
lemilea
lemilea@lemilea87·
@v81093933 아하.. 어쩐지 시원찮아보이더라구요 ㄷㄷ
한국어
0
0
2
23
22B
22B@v81093933·
@lemilea87 그건 입문용입니다 그냥 취미정도?? ㅎㅎ
한국어
1
0
1
129
22B
22B@v81093933·
2026년 2월 기준으로 **OpenClaw** (구 Clawdbot/Moltbot)에서 **가장 많이 연결되고 실제로 많이 쓰이는 LLM**은 대략 이런 순서예요. 1. **Kimi K2.5 / Kimi系列 (특히 Kimi Coding)** — 현재 압도적 1위 - OpenRouter 월간 사용량 통계에서 173억 토큰으로 1~2위 차지 (Others 다음 또는 1위라는 보도도 있음) - 무료 + 성능 + 코딩/에이전트 특화 때문에 OpenClaw 유저들이 미친듯이 몰림 - 중국 모델이지만 OpenClaw 커뮤니티에서 사실상 디폴트급으로 자리잡음 2. **Claude 시리즈 (특히 Claude 3.5 Sonnet → Claude 4 계열로 넘어가는 중)** - OpenClaw가 원래 Claude에 최적화된 구조로 시작했기 때문에 여전히 클래식 최강자 - "압도적인 성능 원하면 Claude"라는 말이 아직도 엄청 많음 - 다만 토큰 소모가 워낙 커서 돈 많은 사람 / 회사용으로 많이 감 3. **Gemini Flash / Gemini 3 계열** - 속도 빠르고 무료 티어 넉넉해서 초반/저비용 유저들이 많이 씀 - 하지만 최근 Google이 OpenClaw 관련 무료 토큰 악용(?) 막으면서 연결 끊기는 사례 증가 → 인기 하락 중 4. **로컬 LLM (Qwen3 시리즈, Llama 계열, GLM-4.7 등)** - Ollama / LM Studio / vLLM 등으로 돌리는 사람 급증 - 토큰 비용 0원 + 프라이버시 때문에 맥미니 M4 Pro/Max, RTX 고사양 머신 사서 돌리는 유저들 많음 - 하지만 컨텍스트 길이·지능 한계 때문에 "Claude/Kimi급은 아직 아니다" 평가가 대다수 5. **기타 자주 언급되는 모델** - MiniMax-M2.1 / M2.5 - DeepSeek - Grok (xAI) - GPT-5 미니 / Codex 계열 (openai-codex/gpt-5.2 등) **요약하자면 지금 시점에서 OpenClaw 유저들 사이에서 제일 핫하고 많이 연결된 LLM은 Kimi K2.5**예요. (특히 무료 + 코딩/에이전트 성능 때문에) 그 다음이 여전히 Claude 계열, 그리고 비용 절감을 위해 로컬 Qwen3으로 옮기는 사람들도 엄청 늘고 있는 추세입니다. 너도 지금 OpenClaw 쓰고 있으면 어떤 모델 제일 많이 돌려? 😄
한국어
16
17
91
29K
lemilea
lemilea@lemilea87·
@RaoniKor 오라클vps = 무료 (4cpu 24ram)이거는 어떻게 생성하셨나요? ㅠㅠ 계속 제한에 걸려서 생성이 안되네요 ㅠ
한국어
0
0
0
29
Raoni
Raoni@RaoniKor·
그래서 이걸 구축하는데 들어간 비용은??? 오라클vps = 무료 (4cpu 24ram) 구글프로 LLM = 3개월 무료 (CLI OAUTH 버전이용) 버추얼 VCP 연결 = 오히려 수수료 1000불 수익 구축하는것도 무료로 구축하고 오히려 돈도 받음. 굳이 맥미니같은 고오급 장비를 사야할 이유가 있을까??? - 이건 사실 나도 잘 모름. 맥미니 사는 사람들은 이유가 있으니 사겟지.... 에이전트들은 모두 하나의 VPS에서 돌아가고 있고, LLM 모델도 하나를 공유해서 씀. 대신에 에이전트별로 PRO, FLASH, LITE 별도로 적용시킴 (구글 1계정으로 가능) 에이전트 늘릴때도, 그냥 총괄한테 에이전트 하나더 전입받아~! 하면 그냥 늘려줌. 정말 편한 세상에 살고 있다...
Raoni tweet media
Raoni@RaoniKor

노인과 몰트봇 이야기. 에이전트수를 6명으로 늘림. 좀더 늘려서 중대급 부대로 만들 예정. 그리고 밤사이에 자기전에, 뭘하면 좋을지 알아서 해놓으라고 시킴. 자고 일어나니까 결과물은 이렇게 나옴. 에이전트들 끼리 알아서 협업하고, 결과물 도출해놓음. 이거 수준이 올라가면 소형 1인 회사들의 전성시대가 도래 할지도???

한국어
25
65
330
31.6K
lemilea
lemilea@lemilea87·
@openclaw 오라클vps에 올려서 시험삼아 설치 해봤는데.. 재밌네요 ㅎㅎ @virtuals_io acp등록도해봤는데.. 과연 수익을 줄지..
lemilea tweet media
한국어
0
0
0
20
lemilea retweetledi
리얼치킨보이
리얼치킨보이@RealChickenBoy9·
속보: 트럼프 대통령, 외계인, 외계 생명체, UFO 및 미확인 비행 현상 관련 파일 공개 예정
리얼치킨보이 tweet media
한국어
102
114
521
44.8K
OpenClaw🦞
OpenClaw🦞@openclaw·
🦞 OpenClaw 2026.2.15 is here! ✨ Telegram message streaming — replies flow live 💬 Discord Components v2 — buttons, selects, modals 🔧 Nested sub-agents 🔒 Major security hardening pass 🐛 40+ bug fixes Big day. Huge day. Maybe the biggest day.🏛️ github.com/openclaw/openc…
English
435
558
6.9K
859.6K
Michael Saylor
Michael Saylor@saylor·
Go bitcoin today. The money won't fix itself.
English
1.5K
1.6K
18.9K
715.1K