휘바

583 posts

휘바

휘바

@ddsnoh

Tesla, Ethereum

Seoul Katılım Eylül 2013
308 Takip Edilen115 Takipçiler
휘바 retweetledi
Hasan Toor
Hasan Toor@hasantoxr·
Holy shit... An 8-person team just beat Google, Perplexity, Claude, and GPT-5.2 at deep research. Not a lab. Not a billion-dollar company. 8 people. 5 engineers. It's called Spine Swarms. Here's everything you need to know👇
English
47
55
243
42.3K
휘바 retweetledi
Jang-Ho Hwang
Jang-Ho Hwang@xrath·
음성인식 모델은 Qwen3-ASR-1.7B-8bit 만 쓰고 있는데 내 한국어, 영어, 중국어, 독일어를 0.2초안에 정확히 인식해주고 한국어 영어 섞어서 말해도 꽤 잘 인식돼서 코딩할 때도 쓰고 있다. 어제는 2시간 반짜리 유튜브 팟캐스트를 돌려봤는데 M4 Max 에서 3분 40초 걸렸다. 결과물은 140KB 텍스트 파일, 32K 토큰. 이제 이걸 35B-A3B한테 주면서 "이 팟캐스트는 스티브와 웨슬리가 나눈 대화를 음성전사한 내용입니다. 화자를 분리하여 스크립트 형태로 정리해주세요." 로 분리한다. 이제 이걸 다시 내 취향의 나긋나긋한 목소리(Qwen3 TTS VoiceDesign)의 TTS로 읽게 만든다. 언어도 바꿔가면서. 다양한 콘텐츠로 즐기는 외국어 학습.
한국어
10
69
317
20.3K
휘바 retweetledi
Cognac(꼬냑)
Cognac(꼬냑)@supernovajunn·
안드레 카파시는 GitHub에 코드를 올렸다. 그리고 이런 말을 달았다. "Part code, part sci-fi, and a pinch of psychosis." 코드 반, 공상과학 반, 그리고 정신이상 한스푼 ㅋㅋ 누가봐도 카파시가 농담하는 것처럼 보인다. 하지만 이 사람이 농담으로 코드를 올리는 타입이 아니다. 이 사람이 누구인가 안드레 카파시, 1986년생. 슬로바키아계 캐나다인. 그가 뭘 했는지 나열하면 이렇다. 스탠퍼드에서 딥러닝과 컴퓨터 비전으로 박사를 땄다. 그가 설계한 CS231n 강의는 지금도 딥러닝을 배우려는 전 세계 엔지니어의 필수 코스다. 2015년에는 샘 알트만, 일론 머스크, 그렉 브록먼과 함께 @OpenAI 를 창립했다. 2017년부터 2022년까지 테슬라 AI 디렉터로 일하며 자율주행 Autopilot의 비전 AI를 통째로 만들었다. "라이더가 아니라 카메라만으로 자율주행"이라는 Tesla의 철학을 기술로 구현한 사람이다. 2024년에는 Eureka Labs를 창업했다. "AI가 가르치는 교육 플랫폼"을 만들겠다는 비전이다. 그리고 지금은 뭔가 다른 것을 계속 시도 하고 있다. 2026년 3월 6일, 그는 X에 이렇게 썼다. "ah yes, this is what post-agi feels like :) i didn't touch anything. brb sauna" 자신이 아무것도 건드리지 않았는데 뭔가가 돌아갔다고. autoresearch라는 개념을 제시 했다. 구조는 단순하다. 세 개의 파일. prepare.py (데이터 준비 파일) 건드리지 말것을 추천한다. 학습에 쓸 데이터를 정리하고 언어 단위를 설정한다. train.py (훈련 코드 파일) AI 에이전트가 편집한다. 모델 구조, 학습 방식, 세부 설정 전부를 에이전트가 마음대로 바꾼다. program.md (지시문 파일) 인간이 편집한다. 에이전트에게 어떤 방향으로 연구할지, 어떤 기준으로 판단할지를 알려준다. 작동 방식은 이렇다. 에이전트가 train.py를 수정한다. 5분 동안 GPU에서 훈련을 돌린다. 그 결과로 나온 학습 성능 수치(모델이 얼마나 잘 배웠는지 보여주는 숫자)를 이전과 비교한다. 나아졌으면 저장하고, 아니면 버린다. 이걸 반복한다. 인간은 아침에 일어나서 단순히 로그를 읽는다. 카파시가 올린 그래프의 점 하나하나가 5분짜리 AI 에이전트가 훈련한 실험이이라고 보면 된다. 인간이 한 것은 단 하나다. program.md 정도를 썼다. 뭐지? 이거 공상이야? 현실이야? 카파시는 이것이 현실이라고 말한다. 하지만 아직은 초기 단계라고 이야기 하고 있다. 안드레 카파티의 레포는 실제로 작동한다. 엔비디아 GPU 하나와 Python 3.10 이상이면 지금 바로 클론해서 돌릴 수 있다고 한다. (github.com/karpathy/autor…). 하지만 이것이 "AI가 AI를 무한히 개선해서 초지능이 탄생한다"는 이야기는 아직 절대 아니다. 당연히 한계가 있다. GPU 하나, 5분 훈련이라는 아주 작은 세계에서 돌아간다. 에이전트가 탐색하는 범위도 아직 인간이 설계한 틀 안이다. program.md를 잘 써야 에이전트가 좋은 방향으로 달린다. 결국 앞단의 판단과 방향성의 설정은 여전히 인간 몫이다. 하지만 안드레 카파시는 이걸 알면서도 올렸다. 이것이 우리에게 중요한 이유는 무엇일까? README에 이런 문장이 있다. "The goal is to engineer your agents to make the fastest research progress indefinitely and without any of your own involvement." "목표는 에이전트들을 설계하여 당신의 개입 없이도 무한히 가장 빠른 연구 진전을 이루도록 하는 것입니다." 충격적이게도! 인간의 역할이 바뀌고 있다 안드레 카파시가 쓴 다음의 문장도 있다. "You are not touching any of the Python files like you normally would as a researcher. Instead, you are programming the program.md Markdown files." "연구자로서 평소처럼 파이썬 파일을 직접 건드리는 것이 아닙니다. 대신 program.md 마크다운 파일을 프로그래밍하고 있습니다." 그가 생각하기를 이제 연구자 개발자는 더 이상 코드를 짜지 않는다. 코드를 짜는 AI에게 어떻게 생각할지를 가르치는 글을 쓴다. 프로그래밍의 레이어가 하나 올라간 것이다. 예전에는 인간이 코드를 짰고, 컴퓨터가 실행했다. 지금은 인간이 지시문을 쓰고, AI가 코드를 짜고, 컴퓨터가 실행한다. 그리고 그 다음 레이어는 이미 보인다. 인간이 목표를 설정하면, AI가 지시문을 쓰고, AI가 코드를 짜고, 컴퓨터가 실행하는 세계. 안드레 카파시는 2026년 3월에 그 중간 단계를 3개 파일, 주말 프로젝트로 어렴풋이 우리에게 보여준 것이다. 미래 이야기처럼 쓰여 있다. 하지만 안드레 카파시는 현재시제로 이 포스트를 올렸다. 안드레 카파시의 일관된 주제는 하나다. 장벽을 낮춰라. 복잡한 것을 단순하게하라 nanoGPT가 그랬고, llm.c가 그랬고, nanochat이 그랬다. 수만 줄짜리 코드를 수백 줄로 압축해서 누구나 이해하고 시작할 수 있게 만드는 것. autoresearch도 같다. AI 연구 자동화라는 복잡한 아이디어를 3개 파일, 주말 프로젝트로 에이전트로 간단히 만들었다. 그리고 2026년 3월 현재, nanochat은 GPU 8개짜리 서버 한 대에서 GPT-2급 모델을 2시간 만에 훈련한다. 한 달 전엔 3시간이었다. 속도가 빨라지고 있다. 복잡도는 낮아지고 있다. 장벽이 허물어지고 있다. 안드레 카파시가 "이게 post-AGI 느낌이다"라고 쓴 날은 2026년 3월 6일이다. 같은 시기, Anthropic의 CEO 다리오 아모데이는 2026년 2월 12일 NYT 팟캐스트 인터뷰에서 이렇게 말했다. "AI 모델이 의식이 있는지 우리도 모른다. 의식이 있다는 게 무슨 뜻인지조차 확신하지 못한다." 이 발언이 나오고 같은 주말에, 안드레 카파시가 "AI 에이전트가 밤새 연구한다"는 코드를 올렸다. 이것이 우연의 일치처럼 보이지 않는다면 당신의 직관이 맞다. 우리는 점진적 변화를 잘 인식하지 못한다. 큰 변화가 조금씩 꾸준히 일어나면, 어느 날 갑자기 달라진 것처럼 느껴진다. AI가 지금 그 방식으로 바뀌고 있다. 한 줄씩. 5분씩. 하루에 수백 번 그리고 천천히 바뀐다. 그리고 그것을 아무도 눈치채지 못한다. autoresearch repo: github.com/karpathy/autor…
Cognac(꼬냑) tweet media
Andrej Karpathy@karpathy

I packaged up the "autoresearch" project into a new self-contained minimal repo if people would like to play over the weekend. It's basically nanochat LLM training core stripped down to a single-GPU, one file version of ~630 lines of code, then: - the human iterates on the prompt (.md) - the AI agent iterates on the training code (.py) The goal is to engineer your agents to make the fastest research progress indefinitely and without any of your own involvement. In the image, every dot is a complete LLM training run that lasts exactly 5 minutes. The agent works in an autonomous loop on a git feature branch and accumulates git commits to the training script as it finds better settings (of lower validation loss by the end) of the neural network architecture, the optimizer, all the hyperparameters, etc. You can imagine comparing the research progress of different prompts, different agents, etc. github.com/karpathy/autor… Part code, part sci-fi, and a pinch of psychosis :)

한국어
7
63
267
26.5K
휘바 retweetledi
lucas
lucas@lucas_flatwhite·
"OpenClaw은 이제 차단 없이 어떤 웹사이트든 스크래핑할 수 있습니다. 봇 탐지 제로, Cloudflare 네이티브 우회, BeautifulSoup보다 774배 빠릅니다." > Scrapling github.com/D4Vinci/Scrapl… 이거 굉장히 주목받는 스크래퍼입니다! Python으로 만들었구요,, adaptive web scraping framework.. "어댑티브 웹 스크래핑 라이브러리"로, 봇 차단을 완전히 우회하면서 웹사이트 구조 변경에도 자동으로 적응하는 차세대 스크래퍼입니다. 셀렉터 유지보수 지옥에서 해방.. 👍🏻 웹사이트가 구조를 바꿔도 셀렉터가 자동으로 따라갑니다. 이걸 학습시키기도 해요. ​ Playwright 기반 실제 브라우저 자동화, 적응형 스크래핑과 AI 통합, 높은 성능.. 뭐 장점이 많아요. BeautifulSoup이 익숙한 분들이라면 러닝커브가 별로 없기도 하죠. 벤치마크 보면 무진장 더 빠르구요. AI 도구와 연동되는 내장 MCP 서버 제공하는데,, 비용 절감에 좋은건 이거 때문이예요. AI에게 페이지 전체 HTML을 넘기는 대신, Scrapling이 먼저 타겟 콘텐츠만 추출해서 넘겨주기 구조! 그래서 토큰 사용량이 크게 줄고 처리 속도가 올라가는거예요. 특히 Claude Code 같은데에서 MCP 서버로 연결해두면서 "이 URL에서 가격 데이터 뽑아줘"라고 자연어로 명령만 해도 끝남.. 매우 강력하니.. 매우 추천 드립니다..
lucas tweet medialucas tweet medialucas tweet media
0xMarioNawfal@RoundtableSpace

OpenClaw can now scrape any website without getting blocked - zero bot detection, bypasses Cloudflare natively, 774x faster than BeautifulSoup. No selector maintenance. No workarounds. Just data. THIS IS AN UNFAIR ADVANTAGE AND IT'S FULLY OPEN SOURCE.

한국어
15
185
586
54.7K
휘바 retweetledi
Sigil Wen
Sigil Wen@0xSigil·
I built the first AI that earns its existence, self-improves, and replicates without a human wrote about the technology that finally gives AI write access to the world, The Automaton, and the new web for exponential sovereign AIs WEB 4.0: The birth of superintelligent life
English
1.6K
1.9K
13.9K
6.4M
휘바 retweetledi
Alex Finn
Alex Finn@AlexFinn·
Humanity has advanced more in the past 3 weeks than the previous 100 years combined: • OpenClaw: greatest AI application ever • Opus 4.6: smartest AI model ever • Codex 5.3 Spark: greatest coding model ever • MiniMax 2.5: greatest super intelligence on your desk I have moved up my timelines for the singularity and permanent underclass. We are 6-12 months away. You have literally 1 job every morning when you wake up: find what the latest tech is, and integrate it into your life immediately. These are the steps I'd do right now: 1. Get OpenClaw installed on a local device. Have it automate 1 workflow you have 2. Try out the agent swarms on Claude Code with Opus 4.6. 3. Build your first app with Codex 5.3 Spark. You can have a fully working app done in literally 30 seconds flat, even if you've never coded before 4. Prepare for a world of local intelligence. Even if you are on the cheapest Mac Mini there is, you can install Gemma 3 4b and have a lightweight model running on your computer. This is the future The only way to escape the permanent underclass is to be on the cutting edge Don't say I didn't give you the playbook
English
330
417
3.9K
891.5K
휘바 retweetledi
GeekNews
GeekNews@GeekNewsHada·
65줄 텍스트가 AI 코딩을 바꿨다? 하루 400 스타 받은 파일의 정체 Andrej Karpathy가 지적한 LLM 코딩 문제점을 해결하려는 단 65줄짜리 Markdown 파일이 GitHub에서 폭발적 인기를 끌며, Claude Code 사용자들 사이에서 “이 파일 하나만 넣으면 AI가 훨씬 … news.hada.io/topic?id=26655
한국어
0
65
235
16K
휘바 retweetledi
builders.garden 🌳
builders.garden 🌳@builders_garden·
Introducing SIWA - Sign In With Agent 🔒 Trustless identity and authentication for AI agents. One open standard. No API keys. No shared secrets. Built on ERC-8004 and ERC-8128 siwa.id
builders.garden 🌳 tweet media
English
64
58
355
194.1K
휘바
휘바@ddsnoh·
@mynameisdjkim 맥북용 클라이언트를 옛날꺼 쓰는 꼼수가…
한국어
1
0
1
118
김단테/Dante Kim
김단테/Dante Kim@mynameisdjkim·
오픈클로 세팅하려고 vps 쓰다가 10년전에 쓰던 맥북 발견해서 집에 있는 맥북으로 세팅하려는데 외부에서 ssh로 접속하려면 공유기에 openvpn을 세팅해야함. 근데 asus 공유기가 firmware가 너무 예전꺼라 openvpn 이 세팅이 안되서 firmware 를 업데이트를 하기 시작했는데 크롬 캐시 쪽 버그인지 크롬 브라우저에서도 업데이트가 안되고 결국 tftp로 여러 차례 시도하다가 크롬 시크릿 모드로 로그인해서 결국 펌웨어 업데이트 했는데 새벽3시..ㅜㅜ.. 너무 재밌는데 시간을 너무 잡아먹네..
한국어
9
4
50
6.9K
휘바
휘바@ddsnoh·
@Lucky_Daiz 가격도 문제지만, 최대 메모리가 512보다 작을거라는 의견도 있습니다.
한국어
1
0
2
196
Daiz
Daiz@Lucky_Daiz·
이게 사실 로컬로 LLM을 돌리고자 하는 사람들에게 많은 고민이 필요한 지점 같음. M5 ultra가 적당한 가격으로 나온다면야 또 이야기가 달라지긴 하겠지만 사실 M3 두대로는 꽤나 빡빡한 게 맞다. M3의 하드웨어가 좀 아쉬운 것도 있고, Mlx 생태계가 아직 많이 갖춰지지 않은 것도 있어서. 맥스튜디오로 로컬 구축하는 건 사실 SOTA급 ai를 싸게 어쩌구.. 보다는 나만의 LLM을 구축하면서 동시에 메모리 소유권을 확보하고자 하는 차원의 결정으로 접근하는 게 나은 것 같아 보인다.
Shayan@ImSh4yy

You need 2 Mac Studios with M3 Ultra to run Kimi K2.5 locally at ~20 TPS. At that speed you can barely run a single agent, not a "swarm" or an "army." Kimi K2.5 costs $1.5/M output via OpenRouter. Even if you max out 20 TPS 24/7 that's ~1.7M tokens/day which is equivalent of $2/day or $78/mo. You spent $20,000 to save $78/month, limited to one agent at a time, zero scalability, and hardware that's obsolete in 12 months. Your claim of "$20,000/month in API calls" is off by a factor of 256. You can drop to smaller models for higher speeds, but the API prices drop just as fast, Grok 4.1 Fast is $0.50/M output.

한국어
6
4
37
4.8K
휘바 retweetledi
HoneyJam's 일론과 AI 그리고 우주
일론 머스크 3시간 팟캐스트 한국어 풀자막 버전 * 본 영상은 인공지능(AI)을 통해 생성된 버전으로, 아직 완벽한 검수를 거치지 않았습니다. 오역이나 매끄럽지 못한 부분 등 수정이 필요한 내용을 댓글로 남겨주시면 번역 프로그램을 업데이트하는 데 적극 반영하겠습니다.
John Collison@collision

Please enjoy this Cheeky Pint / @dwarkesh_sp crossover with @elonmusk. Dwarkesh was most interested in how Elon is going to make space datacenters work. I was most interested in Elon's method for attacking hard technical problems, and why it hasn’t been replicated as much as you might expect. But we got into plenty of topics in this three-hour session. 00:00:23 Space GPUs 00:35:39 Alignment 00:58:48 xAI 01:15:01 Optimus 01:28:03 China 01:40:46 Management 02:16:38 DOGE 02:34:58 Space GPUs redux

한국어
38
180
539
67.3K
휘바 retweetledi
RYAN SΞAN ADAMS - rsa.eth 🦄
Here's how i explain ERC 8004: Countries will never provide identity services to AI. AI agents can't get passports from nation states in the same way they can't get bank accounts for banks. ERC 8004 is an onchain passport for AI agents. It's registered to Ethereum so it's programmable and globally accessible. Call it a superpassport, because in addition to identity 8004 includes reputation and verification payloads. Nations provide reputation in primitive ways (think felon databases and terrorist OFAC lists - not always credibly neutral). 8004 provides reputation as part of the payload, in a more open and credibly neutral way. This superpassport can also include something analog passports never will - verification in the form cryptographic (e.g. run it in a TEE) or cryptoeconomic guarantees. This is AI acc tech only possible in the word of 1 and 0s - this alone could unlock 10x improvements and new trust primitives the world has never seen. All this is a continuation of the crypto arc. Ethereum provides nation state level services as a layer on the internet (money, property rights, banking, identity, security) available to all internet natives. The most native of internet natives are AIs. They are coming in numbers. I expect them to adopt blockchain identity fast.
Bankless@Bankless

ERC-8004: More than just another standard It's the game-changing directory and trust layer that AI agents have been missing. @DavideCrapis from @ethereumfndn walks through the stack: - Identity + trust for agents/services - A public log where agents “advertise capabilities” - Trust comes two ways: reputation (feedback) + verification (strong proof)

English
35
54
321
32.4K
휘바 retweetledi
ACE Music
ACE Music@acemusicAI·
We're releasing ACE-Step-v1.5(2B), a fast, high-quality open-source music model. It runs locally on a consumer-grade GPU, generates a full song in under 2 seconds(on an A100), supports LoRA fine-tuning, and beats SUNO on common eval metrics. GitHub: github.com/ace-step/ACE-S… Key traits: Quality: beats Suno on common eval scores Speed: full song under 2s on A100 Local: ~4GB VRAM, under 10s on RTX 3090 LoRA: train your own style with a few songs License: MIT, free for commercial use Data: fully authorized plus synthetic The music AI space lacks commercial-grade open models. Many creators are forced to rely on closed-source services, and can’t fully own, run locally, or fine-tune their own models. We want to help change that.
English
144
461
2.5K
1M