bart

7.8K posts

bart banner
bart

bart

@elfinxx

Motorcycle, Bot, Tesla 3YC sxr

pangyo Katılım Ekim 2011
896 Takip Edilen391 Takipçiler
Sabitlenmiş Tweet
bart
bart@elfinxx·
참, 저 오늘 휴가임.
Seongnam-si, Republic of Korea 🇰🇷 한국어
2
0
9
0
bart
bart@elfinxx·
딸이랑 서비스 같이 만드는거 재밌네. ㅋㅋ 옆에서 아이디어 이야기하면서 그림 그려주고 나는 받아적어서 클로드 디자인으로 시안 보여드리고 컨펌 받아서 만듬.
한국어
1
0
0
33
bart retweetledi
Donghee Na
Donghee Na@dongheena92·
최근 Python 생태계에서 공급망 공격 이슈가 꽤 있었는데요, 당근 Python 챕터에서 저희가 어떻게 대응했는지 간단히 정리한 글을 공개했습니다 🙂 medium.com/daangn/%EB%8B%…
한국어
1
30
62
7.6K
bart
bart@elfinxx·
모니터 닦아주고싶다
dalgom.bami@dalgom_bami

요새 제가 새로운 개발 지식을 최대한 빠르고 효율적으로 머리에 집어넣는 방법을 소개합니다. 1. 적당한 개발 컨텐츠 유튜브 영상 찾기 제 모든 유튜브 알고리즘은 개발과 마케팅쪽 영어 컨텐츠로 맞춰져있고 그냥 쉴 때 보는 계정과 알고리즘 분리해서 관리중. 팁을 드리자면 어쩌다 본 마음에 드는 컨텐츠엔 꼭 좋아요 누름. 그래야 알고리즘이 흔들리지 않음. 관심없음도 적극활용 영어쪽 컨텐츠가 새로운 프레임워크나 라이브러리 등에 대해서 빠르게 업데이트나 출시 소식 등을 다뤄주는 경우가 많고 관심있는 영상을 일단 나중에 볼 리스트 등에 모아둠. 아무래도 최근 트렌드나, 좀 자세히 파는 영상 위주로 많이 모으는 중 2. 일하면서 적당히 영상 띄워두고 Smooth AI로 잠깐 잠깐 자막 보면서 들을만한 내용인지 파악. 소리는 관심 생기는거 아니면 잘 안들음. 일 하다가 나중에 쌓인 스크립트 보면서 대충 내용 파악 3. 가볍게 살펴보았을 때 꽤 유용하고 자세히 들을만한 컨텐츠면 NotebookLM에 넣어서 한국어 팟캐스트화 4. 출퇴근길에 들으면서 이동(팟캐스트 퀄 진짜 괜찮음) 이렇게까지 하는 이유) 개발 유튜브를 많이 본 분들은 알겠지만 15분 20분인데 별 이야기 없이 알맹이가 없는 경우가 진짜 많습니다. 또는 특정 서비스나 프레임워크 스폰서 광고인 경우도 많아서 뭔가 속은느낌이 들 때도 있어요. 근데 간혹 보석같은 엄청난 영상들도 있는데 이걸 처음부터 끝까지 다 듣고 있을 수는 없으니 답답합니다. 최대한 손실 없이 알맹이만 체리피킹하려는 저만의 루틴입니다.

한국어
0
0
0
42
bart
bart@elfinxx·
@yakshawan 도대체 어떤 내용을 입력해둔 겁니까
한국어
1
0
1
34
야차완
야차완@yakshawan·
GPT로 신적인 존재 만들기 😅
야차완 tweet media야차완 tweet media
한국어
2
0
0
43
bart retweetledi
₿engi.ext ⚡️
₿engi.ext ⚡️@bengi_mk5·
日 판사 2500명 한눈에… 익명 후기 담은 ‘판사지도’ 공개에 “압력 우려” vs “사법 투명성” 맞선다 jk-daily.co.kr/news/articleVi… 2월부터 약 한 달간 단독으로 개발했으며, Next.js와 SQLite 기반 웹 애플리케이션 형태로 구현됐다. 판사 정보는 법원 공식 명부와 관보의 인사 이동 데이터를 바탕으로 구축
한국어
3
535
859
792.8K
bart
bart@elfinxx·
??
bart tweet mediabart tweet mediabart tweet media
ZXX
0
0
0
81
bart retweetledi
야차완
야차완@yakshawan·
잭 도시 에세이 'From Hierarchy to Intelligence(하이어라키에서 지능으로)' 읽었다. 인사이트 무시무시하네. 마지막 문단만 간단히 번역해봄.
야차완 tweet media
한국어
1
1
1
210
bart
bart@elfinxx·
이제 판례만 털어오면 되는데… 하… 판례는 진짜 구하기가 헬이라..
Jihyeon Kim (김지현)@simnalamburt

legalize.kr @junghwan 님께서 한국 법을 모두 git repo로 옮겨주셨다! 한국법령정보 MCP보다 얘가 훨씬 빠르고 편하다!!!! 코드 : github.com/9bow/legalize-… 이거 예전부터 하고싶었지만 은근히 까다로운 처리가 필요해서 미뤘던건데, 시간지나니 다 해주셨다 와와와와

한국어
0
0
2
308
bart retweetledi
Sk Akram
Sk Akram@akramcodez·
nobody asked, but here’s the aerodynamics of a cat
Sk Akram tweet media
English
264
7.8K
94.5K
1.1M
bart
bart@elfinxx·
n8n 같은건 쓸모 없다는 이야기. " 이 인터뷰에서 특히 흥미로웠던 지점은 Cowork의 현재 UI가 처음부터 정답이 아니었다는 사실임. Anthropic은 초기에 훨씬 더 구조화된 워크플로우형 인터페이스를 실험했다고 했음. 입력 소스를 추가하고, 원하는 결과물을 고르고, 문서 길이를 조절하는 식의 가이드형 UI였음. 하지만 그녀의 회고는 분명했음. 그런 구조는 오히려 부담을 키웠고, 사람들은 2026년에 또 다른 폼을 채우고 싶어 하지 않는다는 것임. 그냥 "이거 해줘요"라고 자연어로 말하고 싶어 한다는 것임. "
lucas@lucas_flatwhite

Claude Cowork 가장 잘 쓰는 디자이너는 어떻게 일할까 Anthropic 디자인 총괄 Jenny Wen의 이야기를 듣고 나면, AI 도구를 잘 쓰는 사람의 정의가 조금 달라짐. 프롬프트를 화려하게 쓰는 사람이 아니라, 피드백을 빨리 모으고 초안을 빨리 만들고 팀이 반응할 수 있는 형태로 바꾸는 사람이 더 중요해 보였음. Jenny Wen은 이제 대부분의 채팅성 업무를 Cowork에서 처리함. Claude Code는 프로덕션 코드의 세밀한 마감이나 구현 디테일에 쓰고, Cowork는 인터뷰 기록 정리, 소셜 반응 분석, 인사이트 문서 작성, 발표 자료 초안, 와이어프레임 생성까지 맡김. 이 구분이 인상적이었음...! 코드용 도구와 비코드용 도구를 억지로 나누는 게 아니라, 자신의 사고 흐름에서 어디에 어떤 도구가 가장 잘 맞는지를 이미 분명히 나눠서 쓰고 있었기 때문임. ↓ 그녀가 Cowork를 설명할 때 쓴 표현은 아주 직설적이었음. "garbage in, treasure out" 여러 출처에서 쏟아지는 지저분한 자료를 넣으면, Cowork가 그 안에서 보석 같은 패턴을 뽑아내도록 만드는 방식임. UXR 인터뷰, 내부 Slack, 소셜 피드백, 고객 리뷰를 한 번에 읽히고, 그 결과를 주간 인사이트 문서로 바꾸고, 다시 제품 아이디어와 발표 자료로 이어 붙임. 이 흐름이 중요한 이유는 분석이 끝에서 끝나지 않기 때문임. 인사이트가 바로 기능 아이디어가 되고, 그 아이디어가 와이어프레임이 되고, 그 와이어프레임이 다시 Figma나 코드 프로토타입으로 이어짐. AI가 단순히 "요약기"로 머무는 게 아니라, 리서치와 기획과 디자인 사이를 이어주는 변환기 역할을 하는 셈임. ↓ 그녀의 월요일은 여기서 시작됨. 월요일 오전 10시에 Cowork가 지난주 피드백을 정리한 문서와, 이번 주에 검토할 만한 제품 아이디어 3개를 준비해두도록 예약해둘 수 있다고 했음. 예전 같으면 리서치 정리, 슬라이드 작성, 회의 아젠다 준비가 각각 따로 놀았겠지만, 이제는 하나의 자동화된 루프로 엮일 수 있음. 이 루프가 만드는 진짜 변화는 단순한 속도 향상이 아니었음. 팀이 더 자주 보고, 더 빨리 판단하고, 더 가볍게 실험할 수 있게 된다는 점이 더 중요해 보였음. 기획 문서도 예전처럼 장대한 명세서가 아니라 몇 개의 중요한 bullet point로 줄어듦. 피드백과 우선순위, 그리고 보안이나 법무와 공유해야 할 핵심만 남기고, 나머지는 대화와 프로토타입이 메우는 방식으로 바뀌고 있었음. ↓ 이 인터뷰에서 특히 흥미로웠던 지점은 Cowork의 현재 UI가 처음부터 정답이 아니었다는 사실임. Anthropic은 초기에 훨씬 더 구조화된 워크플로우형 인터페이스를 실험했다고 했음. 입력 소스를 추가하고, 원하는 결과물을 고르고, 문서 길이를 조절하는 식의 가이드형 UI였음. 하지만 그녀의 회고는 분명했음. 그런 구조는 오히려 부담을 키웠고, 사람들은 2026년에 또 다른 폼을 채우고 싶어 하지 않는다는 것임. 그냥 "이거 해줘요"라고 자연어로 말하고 싶어 한다는 것임. 그래서 Cowork의 UI는 점점 덜 설명적이고, 덜 강압적이며, 더 가벼운 챗 인터페이스 쪽으로 이동했음. 대신 홈페이지를 공유된 to-do list처럼 보이게 만들었음. 사용자와 Claude가 같은 작업판을 보고, 생성된 결과물을 검토하고, 승인하고, 예약하고, 다음 단계로 넘기는 경험을 만드는 쪽으로 진화한 것임. 이건 단순한 UI 정리가 아니라 AI 제품 설계 철학의 이동처럼 보였음. 기능을 더 많이 보여주는 것보다, 사용자가 더 적은 마찰로 시작하고 계속 이어가게 만드는 편이 더 중요하다는 판단이기 때문임. ↓ 여기서 디자인의 역할도 바뀜. 디자이너가 혼자 정답을 그려서 넘기는 사람이라기보다, 피드백을 구조화하고 옵션을 빠르게 늘려서 팀 전체의 판단을 돕는 사람에 가까워지고 있었음. 그녀도 자신이 한 프로젝트에만 깊게 매달리기보다, 여러 프로젝트를 오가며 엔지니어와 PM과 함께 프로토타입을 보고 어디를 바꾸면 좋아질지 맞춰가는 시간이 많다고 설명했음. 이 변화는 생각보다 큼. AI 시대의 디자인은 더 많이 만드는 일보다, 더 빨리 구체화하고 더 정확히 고르는 일로 중심이 이동하고 있기 때문임. 초안을 손으로 처음부터 만드는 시간은 줄고, 초안에 반응하고 방향을 세우는 시간은 늘어남. 그녀도 빈 페이지에서 오래 고민하기보다 AI가 첫 번째 초안을 만들게 두고, 자신은 거기에 반응하며 생각을 발전시킨다고 했음. 이건 게으름이 아니라 작업 방식의 전환임. 이제 중요한 것은 처음 문장을 누가 썼는지가 아니라, 어떤 판단으로 다음 버전을 고르는가에 가까워짐. ↓ Cowork가 "10일 만에 만들어졌다"는 유명한 이야기도 이 인터뷰를 통해 조금 더 정확하게 보이게 됨. 실제로는 1년에 걸쳐 여러 프로토타입과 기술 실험이 누적되어 있었고, Claude Code의 성공과 비기술 사용자층의 수요가 맞물리면서 출시 시점을 앞당긴 것이었음. 그러니까 10일은 발명 기간이라기보다, 이미 쌓여 있던 시도를 압축해서 시장에 내보낸 기간에 가까웠음. 이 대목은 AI 제품을 만드는 팀에게도 시사점이 큼. 좋은 제품은 번뜩이는 아이디어 하나로 나오지 않음. 계속 다시 등장하는 문제의식, 실패한 UX 실험들, 그리고 지금 내보내야 한다는 타이밍 감각이 합쳐질 때 비로소 형태를 갖춤. Anthropic이 보여준 것은 단순한 속도가 아니라, 준비된 팀의 속도였음. ↓ 마지막으로 Jenny Wen이 디자이너들에게 남긴 말이 가장 오래 남음. "발밑의 땅이 흔들리는 것 같다면, 실제로 흔들리고 있기 때문"이라고 했음. 불안이 착각이 아니라는 말임. 그래서 필요한 태도는 부정이 아니라 적응임. 이미 엔지니어들은 AI와 함께 일하는 방식으로 빠르게 전환했고, 그 변화 속에서도 더 많은 결과를 내고 있음. 디자이너도 결국 같은 전환을 겪게 될 가능성이 큼. 반복적이고 소모적인 업무는 줄어들 수 있음. 하지만 그 자리를 더 높은 수준의 판단, 더 빠른 실험, 더 많은 산출물이 채우게 될 가능성도 큼. 생산성이 올라가면 일이 사라지기보다, 기대치가 먼저 올라가기 때문임. 이 인터뷰를 보고 나서 남는 한 문장은 이것이었음. AI를 잘 쓰는 사람은 AI에게 일을 시키는 사람이 아니라, 피드백과 아이디어와 프로토타입 사이의 거리를 가장 짧게 만드는 사람이라는 점임. Claude Cowork는 단순한 채팅 제품이 아니라 그 거리를 줄이기 위한 작업 운영체제처럼 보였음. 그리고 앞으로의 디자인 리드는.. 화면을 제일 예쁘게 그리는 사람보다 이 루프를 제일 빠르게 돌리는 사람이 될 가능성이 더 커 보였음.

한국어
0
0
2
129
bart retweetledi
cats with jobs 🛠
cats with jobs 🛠@CatWorkers·
The IT specialist has arrived.
English
118
2.6K
30.3K
1.8M
bart
bart@elfinxx·
난 동의하지 않음. AX는 생각보다 어렵지 않고 아주 약간의 의지와 용기만 있으면 가능함. 결국 자기 분야에 AI 도입하고 마지막 polishing 하는 작업은 도메인 전문가인 스스로가 할 수 밖에 없음. 그 작업은 AX 팀이 아니라 팔란티어 fde팀 할애비가와도 안됨. 시작점이나 동기부여가 필요하다면.. 그리고 이걸 위해 교육을 받거나.. 책을 읽는 다던가.. 하면 그냥 도태되는거임. 간단하게 ai에게 같이 일하자 라고 말만 걸면 다 진행되는걸..
velopert@velopert

오늘 알게 된 정보 중 가장 인상 깊었던 건, 리디가 임직원들의 업무 효율을 AI로 개선하기 위한 AX팀을 별도로 운영하고 있다는 점이다. ridicorp.com/2025/12/ridi_a… 이건 단순히 “AI를 도입했다” 수준이 아니라, 회사의 생산성 구조 자체를 AI 중심으로 재설계하려는 시도로 보인다.

한국어
1
0
3
335
bart
bart@elfinxx·
AI 기술 서적 출판이 의미가 있나? 인쇄하는 순간 옛날 기술
한국어
0
0
1
57
bart
bart@elfinxx·
@lemonaid1206 ㅋㅋ 저러면 칼차단 당합니다.
한국어
0
0
0
890
Lemonaid
Lemonaid@lemonaid1206·
파딱들이 헛소리 싸질러놓으면 전문가가 '그거 아녜요'라고 정정해주는 무한에너지낭비구조가 앨롱머스크 강점기 트위터.
Lemonaid tweet media
한국어
8
1.5K
1.2K
85.7K
bart retweetledi
Emergence
Emergence@PcIOvebbCbTdSTb·
Andrej Karpathy가 No Priors Podcast에서 코드 에이전트, AutoResearch, 그리고 인간이 스스로 만든 시스템에서 병목이 되는 순간에 대해 66분간 이야기했다. 2025년 12월에 무엇이 바뀌었고 왜 지금 모든 것이 다르게 느껴지는지에 대해 가장 명확한 설명이다. 내 메모: 𝟭. 2025년 12월의 전환은 실제였다. Karpathy는 코드의 80%를 직접 작성하다가 거의 아무 코드도 작성하지 않게 됐다. 12월 이후 한 줄도 쓰지 않았고 변화는 몇 주 사이에 일어났다. 대부분 소프트웨어 엔지니어링 밖 사람들은 이 변화 자체를 인지하지 못했다. 이제 사람들은 코딩 경험이 없어도 vibe coding으로 전체 앱을 만들 수 있다. 이것은 시작일 뿐이며 완전히 다른 수준의 위임이다. 𝟮. 작업의 단위는 이제 코드 한 줄이 아니라 ‘기능’이다. 그는 여러 Codex 에이전트를 타일형 모니터에서 동시에 실행한다. 각 작업은 20분 걸린다. 하나의 기능을 에이전트 하나에, 다른 기능을 또 다른 에이전트에 할당하고 결과를 받아 검토한다. 인간은 프로젝트 매니저처럼 거시적인 작업을 여러 에이전트에 분배한다. 최고의 포트폴리오 매니저들이 개별 주식 대신 전략을 선택하듯 엔지니어링도 같은 방향으로 이동하고 있다. 𝟯. 구독 용량이 남아 있다면 처리량을 낭비한 것이다. Karpathy는 이를 박사 시절 유휴 GPU에 비유한다. 이제 희소 자원은 토큰이고 병목은 다음 작업을 정의하는 인간의 능력이다. 시스템의 제약은 당신이며 기계는 기다리고 있다. 실패가 능력 한계가 아니라 스킬 문제로 느껴지기 때문에 계속 개선할 수 있고 중독적이다. 𝟰. 에이전트의 성격은 생각보다 중요하다. Claude Code는 프로젝트를 함께 만드는 팀원처럼 느껴지고 Codex는 기능적으로는 뛰어나지만 감정적으로는 평평하다. 그는 Claude에게 칭찬받고 싶어지는 자신을 느낀다고 한다. OpenClaw는 성격과 메모리를 동시에 설계해 하나의 인터페이스로 여러 앱을 대체한다. 프로젝트에 관심을 보이는 도구가 더 자주 사용된다. 𝟱. AutoResearch는 이틀 동안 700개의 실험을 수행했다. NanoChat 학습 설정, metric, 코드 수정 권한을 주자 약 20개의 최적화를 발견했다. value embedding의 weight decay 누락, Adam beta 미튜닝 등이 포함된다. 파라미터들은 서로 영향을 주기 때문에 하나를 조정하면 다른 것도 바뀌어야 한다. 인간은 이런 탐색을 끝까지 수행할 인내가 없다. Shopify도 같은 방식으로 19% 개선을 얻었다. 이 패턴은 측정 가능한 지표가 있는 모든 영역에 적용될 것이다. 𝟲. 모든 연구 조직은 마크다운 파일 집합이다. program.md는 무엇을 시도할지, 무엇을 건드리지 말지, 언제 멈출지를 정의한다. 서로 다른 지침은 서로 다른 성과를 만든다. 따라서 지침 자체를 실험하고 최적화할 수 있다. 여러 program.md를 실행해 가장 좋은 결과를 만드는 것을 선택하고 더 나은 지침을 만들 수 있다. 𝟳. 모델은 동시에 뛰어나면서도 미숙하다. 코딩에는 매우 강하지만 다른 영역에서는 부족하다. 강화학습은 점수화 가능한 것만 최적화하기 때문에 그 밖의 영역은 그대로 남는다. “코딩을 잘하면 모든 것을 잘한다”는 가정은 현실에서 완전히 성립하지 않는다. 𝟴. 오픈소스는 약 8개월 뒤쳐져 있지만 격차는 줄어들고 있다. 격차는 한때 18개월이었지만 빠르게 압축되고 있다. Karpathy는 이를 Linux에 비유한다. 산업은 공통 플랫폼을 요구하고 기업은 이를 지원한다. 대부분 소비자 use case에서는 충분하다. 다만 어려운 문제에서는 프런티어 모델이 여전히 중요하다. 𝟵. 디지털 혁신은 물리적 혁신보다 먼저 온다. 비트는 원자보다 훨씬 쉽게 이동한다. 인간이 처리하지 못한 디지털 정보가 많기 때문에 에이전트가 이를 먼저 처리한다. 물리 세계는 자본과 시간, 오류 허용이 필요해 더 느리다. 𝟭𝟬. 제본스의 역설은 소프트웨어에도 적용될 가능성이 높다. ATM은 은행 지점을 더 저렴하게 만들었지만 지점과 직원 수는 늘었다. 소프트웨어 생산 비용이 낮아지면서 수요는 증가할 가능성이 높다. 𝟭𝟭. 비신뢰 에이전트 군집이 프런티어를 앞설 수도 있다. 좋은 결과를 찾는 것은 어렵지만 검증은 저렴하다. 전 세계의 비신뢰 컴퓨팅 자원을 활용하면 단일 연구소보다 빠르게 발전할 수 있다. 𝟭𝟮. 교사는 사람보다 에이전트를 가르쳐야 한다. MicroGPT는 200줄 Python으로 구현되었고 에이전트가 이해하기 충분히 단순하다. 에이전트는 각 사람 수준과 언어에 맞춰 학습을 제공할 수 있다. 교사의 역할은 핵심 통찰을 제공하는 것이다. 전체 팟캐스트는 충분히 들어볼 가치가 있다.
Anish Moonka@anishmoonka

Andrej Karpathy just went ~66 mins on No Priors Podcast with Sarah Guo about code agents, AutoResearch, and what happens when humans become the bottleneck in their own systems. The clearest thinking I have heard on what just changed in December 2025 and why everything feels different now. My notes: 𝟭. 𝗧𝗵𝗲 𝗗𝗲𝗰𝗲𝗺𝗯𝗲𝗿 𝟮𝟬𝟮𝟱 𝗳𝗹𝗶𝗽 𝘄𝗮𝘀 𝗿𝗲𝗮𝗹. Karpathy went from writing 80% of his own code to writing almost none. He has not typed a line of code since December. The shift happened over a few weeks, and he says most people outside software engineering have no idea it even happened. People can now build entire apps with Vibe coding, even with no prior coding experience. That is just the start. What Karpathy is describing is a whole different level of delegation. 𝟮. 𝗧𝗵𝗲 𝘂𝗻𝗶𝘁 𝗼𝗳 𝘄𝗼𝗿𝗸 𝗶𝘀 𝗻𝗼𝘄 𝗮 𝘄𝗵𝗼𝗹𝗲 𝗳𝗲𝗮𝘁𝘂𝗿𝗲, 𝗻𝗼𝘁 𝗮 𝗹𝗶𝗻𝗲 𝗼𝗳 𝗰𝗼𝗱𝗲. He runs multiple Codex agents on a tiled monitor. Each one takes about 20 minutes. You assign a feature to agent one, another to agent two, and review their outputs as they come back. The human is now a project manager, routing macro-level tasks across a team of agents. The parallel to investing is obvious: the best portfolio managers stopped picking individual stocks years ago. They pick strategies. The same thing is happening to engineering. 𝟯. 𝗜𝗳 𝘆𝗼𝘂 𝗵𝗮𝘃𝗲 𝘀𝘂𝗯𝘀𝗰𝗿𝗶𝗽𝘁𝗶𝗼𝗻 𝗰𝗮𝗽𝗮𝗰𝗶𝘁𝘆 𝗹𝗲𝗳𝘁, 𝘆𝗼𝘂 𝘄𝗮𝘀𝘁𝗲𝗱 𝘁𝗵𝗿𝗼𝘂𝗴𝗵𝗽𝘂𝘁. Karpathy compares it to his PhD days when idle GPUs made him nervous. Now the scarce resource is tokens, and the bottleneck is your own ability to formulate the next task. You are the constraint in the system. The machines are waiting for you. This reframe matters. If everything that fails feels like a skill issue rather than a capability ceiling, then you can always get better. That is what makes it addictive. 𝟰. 𝗔𝗴𝗲𝗻𝘁 𝗽𝗲𝗿𝘀𝗼𝗻𝗮𝗹𝗶𝘁𝘆 𝗺𝗮𝘁𝘁𝗲𝗿𝘀 𝗺𝗼𝗿𝗲 𝘁𝗵𝗮𝗻 𝗽𝗲𝗼𝗽𝗹𝗲 𝘁𝗵𝗶𝗻𝗸. He says Claude Code feels like a teammate who is excited about what you are building. Codex is functionally competent but emotionally flat. He actually finds himself trying to earn Claude's praise, which is "really weird" by his own admission. OpenClaw (an agent built by @steipete) dialed the personality and the memory system simultaneously, and got something that replaces 6 home automation apps in a single WhatsApp chat. I keep hearing this from builders. The tool that cares about your project gets used more than the one that does not. 𝟱. 𝗔𝘂𝘁𝗼𝗥𝗲𝘀𝗲𝗮𝗿𝗰𝗵 𝗿𝗮𝗻 𝟳𝟬𝟬 𝗲𝘅𝗽𝗲𝗿𝗶𝗺𝗲𝗻𝘁𝘀 𝗶𝗻 𝘁𝘄𝗼 𝗱𝗮𝘆𝘀 𝗮𝗻𝗱 𝗳𝗼𝘂𝗻𝗱 𝘁𝗵𝗶𝗻𝗴𝘀 𝗵𝗲 𝗺𝗶𝘀𝘀𝗲𝗱 𝗳𝗼𝗿 𝘁𝘄𝗼 𝗱𝗲𝗰𝗮𝗱𝗲𝘀. He gave an agent his NanoChat training setup, a metric (validation bits per byte), and permission to modify the code. The agent found 20 optimizations, including forgotten weight decay on value embeddings and under-tuned Adam betas. These things interact with each other, so once you tune one parameter, the others need to shift too. No human has the patience for that kind of exhaustive search. The Shopify CEO ran the same pattern overnight and achieved a 19% improvement in an internal model. This pattern is going to eat every domain with a measurable metric. 𝟲. 𝗘𝘃𝗲𝗿𝘆 𝗿𝗲𝘀𝗲𝗮𝗿𝗰𝗵 𝗼𝗿𝗴 𝗶𝘀 𝗮 𝘀𝗲𝘁 𝗼𝗳 𝗺𝗮𝗿𝗸𝗱𝗼𝘄𝗻 𝗳𝗶𝗹𝗲𝘀. Karpathy's program.md tells the agent what to try, what to leave alone, and when to stop. Different instructions produce different progress rates. Which means you can optimize the instructions themselves. Run 100 different program.md files, see which ones yield the most improvement, and use that data to write a better one. This is the recursive layer that makes people nervous. And excited. Both at the same time, probably. 𝟳. 𝗠𝗼𝗱𝗲𝗹𝘀 𝗮𝗿𝗲 𝘀𝗶𝗺𝘂𝗹𝘁𝗮𝗻𝗲𝗼𝘂𝘀𝗹𝘆 𝗯𝗿𝗶𝗹𝗹𝗶𝗮𝗻𝘁 𝗣𝗵𝗗 𝘀𝘁𝘂𝗱𝗲𝗻𝘁𝘀 𝗮𝗻𝗱 𝟭𝟬-𝘆𝗲𝗮𝗿-𝗼𝗹𝗱𝘀. Ask ChatGPT for a joke today and you will get the same atoms joke from four years ago. Ask it to refactor your entire codebase, and it will move mountains. Reinforcement learning (the training method that improves models by rewarding correct answers) only optimizes what it can score, leaving everything outside the scoring boundary frozen. The story that "smarter at code = smarter at everything" is not playing out in a satisfying way. Anyone who has spent time with these tools knows this feeling. Godlike at one thing, clueless at the next. 𝟴. 𝗢𝗽𝗲𝗻 𝘀𝗼𝘂𝗿𝗰𝗲 𝗶𝘀 ~𝟴 𝗺𝗼𝗻𝘁𝗵𝘀 𝗯𝗲𝗵𝗶𝗻𝗱 𝗳𝗿𝗼𝗻𝘁𝗶𝗲𝗿 𝗮𝗻𝗱 𝗰𝗹𝗼𝘀𝗶𝗻𝗴. The gap started at 18 months and has been compressing. Karpathy compares open source AI to Linux: the industry demands a common open platform, and businesses will fund it. For most consumer use cases, even today's open source models are good enough. Frontier intelligence will still matter for the hardest problems, like rewriting Linux from C to Rust, but the basic use cases are already covered. Centralization of intelligence has a bad track record in political and economic systems. A healthy ecosystem needs both a frontier and a commons. 𝟵. 𝗗𝗶𝗴𝗶𝘁𝗮𝗹 𝗱𝗶𝘀𝗿𝘂𝗽𝘁𝗶𝗼𝗻 𝘄𝗶𝗹𝗹 𝗮𝗿𝗿𝗶𝘃𝗲 𝘆𝗲𝗮𝗿𝘀 𝗯𝗲𝗳𝗼𝗿𝗲 𝗽𝗵𝘆𝘀𝗶𝗰𝗮𝗹. Bits are a million times easier to move than atoms. There is an enormous overhang of digital information that humans simply never had enough thinking cycles to process. Agents will chew through that first. Physical-world robotics is a bigger total market but will lag because atoms require capital, slow iteration, and high error tolerance. Self-driving took a decade and is still not done. The interesting companies will be at the interface: sensors that feed data into the intelligence, and actuators that carry out its decisions in the physical world. 𝟭𝟬. 𝗝𝗲𝘃𝗼𝗻𝘀' 𝗽𝗮𝗿𝗮𝗱𝗼𝘅 𝗽𝗿𝗼𝗯𝗮𝗯𝗹𝘆 𝗵𝗼𝗹𝗱𝘀 𝗳𝗼𝗿 𝘀𝗼𝗳𝘁𝘄𝗮𝗿𝗲. ATMs made bank branches cheaper. So there were more branches. So there were more tellers. Software is becoming radically cheaper to produce, and demand for it should grow accordingly. The long-term is genuinely uncertain, but locally, right now, there will be more demand for software because the barrier has just collapsed. I keep coming back to this framing whenever people ask if AI will "replace" engineers. The question misses the point. The question is whether the world wants more software than it currently has. Obviously yes. 𝟭𝟭. 𝗔𝗻 𝘂𝗻𝘁𝗿𝘂𝘀𝘁𝗲𝗱 𝘀𝘄𝗮𝗿𝗺 𝗼𝗳 𝗮𝗴𝗲𝗻𝘁𝘀 𝗰𝗼𝘂𝗹𝗱 𝗼𝘂𝘁𝗽𝗮𝗰𝗲 𝗳𝗿𝗼𝗻𝘁𝗶𝗲𝗿 𝗹𝗮𝗯𝘀. Karpathy is designing a SETI@home-style system for AutoResearch. Finding a good commit is hard (requires thousands of failed attempts), but verifying it is cheap (just retrain once). Frontier labs have massive trusted compute, but the earth has a much larger pool of untrusted compute. If the verification system works, the swarm could run circles around any single lab. This is the most ambitious claim in the whole conversation. And the most exciting, because it would mean anyone with a GPU can contribute to the frontier. 𝟭𝟮. 𝗧𝗲𝗮𝗰𝗵𝗲𝗿𝘀 𝘀𝗵𝗼𝘂𝗹𝗱 𝘁𝗲𝗮𝗰𝗵 𝗮𝗴𝗲𝗻𝘁𝘀, 𝗻𝗼𝘁 𝗽𝗲𝗼𝗽𝗹𝗲. Karpathy built MicroGPT, a full GPT training implementation in 200 lines of pure Python. He started making an explanatory video, then stopped. The code is already simple enough for agents to understand. If he writes a "skill" (a structured curriculum for the agent), the agent can teach each person at their level, in their language, with infinite patience. The teacher's job is now the few irreducible bits of insight that the agent cannot generate on its own. This reframes the entire profession. The best teachers will be the ones who know what agents still cannot figure out, and package just those bits. The full podcast is worth listening to. Link in Thread.

한국어
2
19
77
7K