네프티

2.8K posts

네프티 banner
네프티

네프티

@NeftyMinerva

과학, 수학, 그림, 퍼리, 역사, 대륙철학, 컴퓨터, 일렉트로니카 좋아하는 20대 고양이입니다 야옹~

Republic of Korea Присоединился Haziran 2025
169 Подписки121 Подписчики
Закреплённый твит
네프티
네프티@NeftyMinerva·
[메인트] 이 계정의 자료들은 CC BY라이센스로 사용될 것을 권고하며 커미션 받은 그림은 최대한 관람 이외의 용도로 사용하지 않을 것을 부탁드립니다. 자율적으로 지켜주세요. 소스코드 역시 X의 이용약권을 따릅니다. 단, 다른곳에 업로드된 제 코드들엔 라이센스를 지키셔서 이용하셔야 합니다.
한국어
0
0
4
1.5K
네프티
네프티@NeftyMinerva·
@RCAVictorCo 킹치만… 이렇게 하지 않으면 주인님의 관심을 받을 수 없는걸요… (뒤뚱)
한국어
0
0
0
28
イカビク
イカビク@RCAVictorCo·
아치리눅스는 시벌 깐 직후에 진짜 운영체제만 딸랑 주징어
한국어
2
1
9
344
네프티
네프티@NeftyMinerva·
@kanghun2001 세번째로 설마… 조선 총독부?!
한국어
1
1
1
20
네프티
네프티@NeftyMinerva·
솔직히 너무 많은 사람들이 사실과 다르게 자기탓을 많이하는거같아요.
한국어
0
0
2
18
네프티 ретвитнул
Haru-삼촌
Haru-삼촌@lmc8710·
하버드 심리학 교수가 말하는 소름돋게 정확한 '인간관계의 진실' 누군가 당신을 대하는 태도는 그 사람의 그릇을 보여주는 것이지, 당신의 가치를 말해주는 게 아니에요 누군가 당신을 함부로 대하나요? 불친전하게 구나요? 그건 당신 탓이 아니에요 그냥 그들의 마음상태가 그만큼 어지럽고 어둡고 힘들다는 걸 보여주는 증거일 뿐이죠 이 사실을 이해하게 되면 불친절한 상대에게 휘둘리지 않게 됩니다. 당신의 마음 상태도, 인생의 주도권도 더는 흔들리지 않을 거에요 그리고 그런 사람을 그냥 놔두는 법을 알게되죠 이건 용서 같은 게 아니에요 오히려 그 사람을 용서할 필요조차 없는 수준에 이르는거죠 그 순간, 당신은 비로소 온전히 자유로워 질겁니다 상대의 마음 속 어지러움까지 내가 정리해줄 의무는 없습니다. 어떤 마음은 그 사람의 몫이고, 어떤 경계는 내 몫이에요 그걸 구분해내는 순간, 불필요한 죄책감도, 억울함도 조용히 제자리로 돌아갑니다.
한국어
9
194
631
34.9K
네프티
네프티@NeftyMinerva·
세종시같은 살짝 허하지만 조용하고 놀거리 없어서 안갈 명분이 강한 도시에 괜찮은 IT회사 하나 들어가고싶다… 인터넷 2.5까지 하면 꿀일듯.
한국어
0
0
1
12
네프티
네프티@NeftyMinerva·
아 잡코리아 계정은 어찌 올릴 방도가 읍네요
한국어
0
0
3
14
네프티
네프티@NeftyMinerva·
@kanghun2001 다행이도 100% 온라인이라고는 하네요
한국어
1
0
1
6
Kanghun Kim
Kanghun Kim@kanghun2001·
@NeftyMinerva 합숙 형태 부트캠프면 자취생에게는 애매할텐데
한국어
1
0
0
14
네프티
네프티@NeftyMinerva·
음… 부트캠프 지원했는데 하필 5월동안 진행이네요. 이러면 어머니랑 동생 보러 제주도 못 갈거같은데 ㅠㅠ
한국어
1
0
2
38
네프티 ретвитнул
Alis volat propriis
Alis volat propriis@Alisvolatprop12·
미친 LLM 마법사(전문가)들이 이제 터보 퀀트 이론을 KV cache 뿐 아니라 Model 전체에 적용하고 있습니다. 즉, 과거엔 꿈도 못 꾸던 소비자향 GPU/Vram에서 모델들이 돌아갈 수 있게 됩니다. 그럼 이제 AI 하드웨어들은 끝이냐고요? 그럴리가 있겠습니까? 메모리 대역폭 + 연산 능력 + 충분한 공간의 삼위 일체 중 마지막 세번째의 금제가 조금 풀렸을 뿐입니다. 그리고 로컬 모델을 돌리는 데는 모델 파라메터 로딩과 KV cache만 필요한 게 아닙니다. 전 세계 모든 인구가 각자의 GPU를 원한다고 생각해보세요. 중고 시장의 GPU는 순식간에 사라질테고 미친듯한 디맨드가 요청되는 순간입니다.
am.will@LLMJunky

These absolutely insane LLM wizards are now experimenting with Turboquant not just to compress KV cache, but now, the entire model itself. This test showed a >50% reduction in memory footprint, allowing for Qwen 3.5-27B to be run on a single RTX 5060 @ 3.15bit precision - with no apparent degradation. This just goes to show that we're likely nowhere near full optimization for existing models. We are likely <1yr away from running big models on smol devices with minimal consequence. And during that time, they will only get better and better. What a time to be alive.

한국어
8
24
181
17.9K
네프티
네프티@NeftyMinerva·
@somurietty 일명 "펀쿨섹"이라는 이름으로 한국에 알려진 인물이고 현재 방위상으로 일하는 중이라고 알고있습니다. 여러 의미로 한국에서도 유명하죠. 사진속 내용은 번역이 안되는데 혹시 어떤 상황인지 알려주실 수 있을까요?
한국어
0
0
0
41
そむ
そむ@somurietty·
小泉やめろコールも必要だな
股くぐり韓信@nikkan0tantan24

@japanpeacecom @chimom111chika まあ 今回の米イラン戦争で長距離ミサイル基地が真っ先に狙われることは実証されたんですよね と言う事は 有事には真っ先に熊本市が狙われるんですよね 市民を窮地にさらす小泉進次郎防衛大臣は 平気で国民を盾にする鬼畜防衛大臣なのでは?と思いませんか?

日本語
1
0
2
135
연이
연이@ThisIsYeony·
이번 생일 선물 수입. 맥북 프로 550 맥북 네오 100 남친 돈 20 24105 140 a7R4 190 1000마넌.
한국어
3
0
10
230
네프티
네프티@NeftyMinerva·
@gnh1201 생각할수록 사자님 매운맛 드립하시는거 너무 웃겨욬ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
한국어
0
0
1
30
네프티
네프티@NeftyMinerva·
@gnh1201 타격감 엄청나군요
한국어
2
0
1
44
네프티
네프티@NeftyMinerva·
진짜 신기술이었습니다…
lucas@lucas_flatwhite

"Claude Code의 비밀은 모델이 아니었다" > 유출된 소스 코드로 밝혀진 6가지 내부 최적화 Claude Code의 TypeScript 소스 코드가 유출됨....... 그 안에는 꽤나 놀라운 내용들이 담겨 있었네요.. 많은 사람들이 Claude Code가 웹 채팅보다 코딩을 더 잘한다는 걸 체감하는데, 그 이유가 단순히 모델이 달라서일 거라고 생각하거든요. 그런데 아니에요. 진짜 이유는 모델 주변을 감싸고 있는 소프트웨어 하네스, 즉 정교하게 설계된 컨텍스트 관리 시스템이에요. 흥미로운 점은.. 이 하네스만 잘 갖춰지면 DeepSeek나 다른 모델을 넣어도 비슷한 수준의 코딩 성능이 나올 거라는 거예요. 그럼 소스 코드가 보여준 것은 무엇인가........ ↓ 1. 시작부터 살아있는 리포지토리 맥락을 로드해요 Claude Code는 대화를 시작하는 순간, 단순한 빈 채팅창이 아니에요. 현재 git 브랜치, main 브랜치, 최근 커밋 히스토리, 그리고 CLAUDE.md를 자동으로 불러와요. 모델이 첫 메시지를 받기도 전에 이미 "이 프로젝트가 어떤 상태인지"를 파악하고 있는 셈이죠. 웹 채팅에서 파일을 하나씩 업로드하며 설명하던 것과는 완전히 다른 출발점이에요. ↓ 2. 프롬프트 캐시를 공격적으로 재사용해요 소스에는 정적 콘텐츠와 동적 콘텐츠를 구분하는 경계 마커가 있어요. 자주 바뀌지 않는 부분(시스템 지침, CLAUDE.md 등)은 전역 캐시로 묶어두고, 매번 새로 처리하지 않아요. 비싼 연산이 필요한 부분만 골라서 재처리하는 방식이에요. 이 덕분에 응답이 빨라지고, API 비용도 줄고, 같은 컨텍스트를 반복해서 "소화"하는 낭비가 없어져요. ↓ 3. 파일 탐색 도구가 전혀 달라요 채팅 UI에서는 코드가 그냥 "텍스트 덩어리"로 인식돼요. Claude Code는 달라요. grep이나 rg를 bash로 실행하는 게 아니라, 전용 Grep 도구를 써요. 권한 처리와 결과 수집이 최적화되어 있거든요. 파일을 찾을 때도 마찬가지예요. 전용 Glob 도구가 있고, 여기에 더해 LSP(Language Server Protocol) 도구도 있어요. LSP가 뭔지 아시나요? 코드 에디터에서 "이 함수를 어디서 호출하나요?" 같은 걸 보여주는 기능이에요. Claude Code는 코드를 정적인 텍스트가 아니라 살아있는 구조로 이해하는 거예요. ↓ 4. 컨텍스트 팽창을 촘촘하게 막아요 긴 대화를 하다 보면 컨텍스트가 부풀어 오르는 게 AI 에이전트의 가장 큰 문제 중 하나예요. Claude Code에는 이를 막는 장치들이 여러 겹으로 있어요: - 파일 읽기 중복 제거: 이미 읽은 파일이 바뀌지 않았다면 다시 처리하지 않아요. - 디스크 오프로드: 도구 결과가 너무 길면 디스크에 저장하고, 컨텍스트에는 미리보기 + 파일 참조만 남겨요. - 자동 압축: 컨텍스트가 한계에 가까워지면 자동으로 요약/압축이 실행돼요. 채팅 UI에서 긴 대화 후 모델이 앞 내용을 "잊어버리는" 느낌이 드셨다면, 이 처리 없이 그냥 컨텍스트에 다 쌓아뒀기 때문이에요. ↓ 5. 세션 메모리를 구조화된 마크다운으로 관리해요 Claude Code는 현재 작업 세션을 위한 구조화된 마크다운 파일을 내부적으로 유지해요. 포함되는 섹션들을 보면 꽤 흥미로워요: - 세션 제목 / 현재 상태 - 작업 명세 / 관련 파일 및 함수 - 워크플로우 / 오류 및 수정 내용 - 코드베이스 및 시스템 문서 - 학습 내용 / 핵심 결과 / 작업 로그 우리가 복잡한 작업을 할 때 옆에 메모장 펼쳐두고 하는 것과 똑같은 방식이에요. 모델이 "머릿속"에서 모든 걸 기억하는 게 아니라, 실제로 노트를 쓰면서 일하는 거죠. ↓ 6. 서브에이전트로 작업을 병렬화해요 Claude Code가 복잡한 작업을 빠르게 처리하는 이유 중 하나가 여기에 있어요. 포크된 서브에이전트들은 부모 에이전트의 캐시를 그대로 물려받으면서도, 각자 독립적인 가변 상태를 가져요. 요약 작업, 메모리 추출, 백그라운드 분석 같은 걸 메인 루프를 방해하지 않고 사이드에서 처리할 수 있는 거예요. 단순히 "탭을 여러 개 여는 것"이 아니라, 맥락을 공유하는 팀이 동시에 일하는 구조예요. 💭 결국 Claude Code가 웹 채팅보다 잘하는 건, 더 똑똑한 모델 때문이 아니에요. 같은 모델을 쓰더라도 이런 하네스가 있냐 없냐에 따라 결과물이 달라져요. 살아있는 리포지토리 컨텍스트, 캐시 재사용, 전문 도구들, 컨텍스트 관리, 구조화된 메모리, 병렬 서브에이전트. 그런데 Anthropic 어쩔............

한국어
0
0
1
60
네프티 ретвитнул
이재명
이재명@Jaemyung_Lee·
< “비거주 1주택도 주거용이 아닌 투자·투기용이라면 장기 보유에 따른 세금 감면은 타당하지 않다”, 아래 기사 분문에서 인용한 제가 한 이 말에 의하면, 갭투자용이 아니라 주거용인데 직장 등 불가피한 사유로 일시 비거주하는 경우는 제외됨이 명백합니다. 그런데 동일한 "심층기획" 기사에서 투기용 아니고 직장 자녀교육 등으로 일시 거주하지 못하는 사람은 어쩌란 말이냐고 쓰는 건 몰라서일까요? 알면서 그러는 걸까요? 명백히 모순되는 기사이니, 조금만 더 심층분석해서 기사를 정정해 주시기 바랍니다.> 투기용 아닌데… 집 팔기도, 세 놓기도, 직접 살기도 어렵다 [심층기획-비거주 1주택자의 하소연] v.daum.net/v/202604010603…
한국어
507
1K
3.6K
150.8K