야차완

10.8K posts

야차완

야차완

@yakshawan

✦ 웹소설 작가/기획자/1인 개발자 #INTP ✦ 개발한 것들: › 집중을 돕는 브라운 노이즈 익스텐션 〈TAKT〉 › 플리 운영을 위한 음원 마스터링 툴 〈마스터마인드〉 › AI 미소녀 스크린메이트 〈하루나 온 스크린〉 › 그외 다수

서울 Katılım Haziran 2015
298 Takip Edilen302 Takipçiler
야차완
야차완@yakshawan·
산책로의 찔레꽃.
야차완 tweet media
한국어
0
0
0
17
야차완
야차완@yakshawan·
GPT 답변은 이랬음.
야차완 tweet media
한국어
0
0
0
14
야차완
야차완@yakshawan·
사람은 평소 폰 보는 시간이 길더라도 꿈에서는 폰을 거의 보지 않는다고 한다. 왜 그런지 원리가 궁금. 생각해 보면 꿈에서 책을 읽다가 활자로 된 꿈을 꾼 적은 있다. 군대에서 한창 책 많이 읽을 무렵에.
한국어
1
0
0
35
야차완
야차완@yakshawan·
이사 전날이라 집 PC에 인터넷이 안 된다. 기사님이 장비를 회수해 가셔서... 평소 주로 PC 앞에 앉아 있다 보니, 나는 집에 있어도 갈 곳을 잃은 기분이다. 별 수 없이 원고 쓰고 산책하고 책이나 읽고 콘솔게임이나 한다. 이것도 일종의 디톡스인가... 😅
한국어
0
0
0
16
야차완
야차완@yakshawan·
발더게 3 스팀에서 25% 세일하네. 늘 하고 싶은 게임이긴 했는데, 정작 게임을 사면 시간이 없어서 초반 찍먹하다 뱉는 패턴이 반복되고 있음. 😓 나중에 50% 이상 세일 들어가면 사야지...
야차완 tweet media
한국어
0
0
0
104
야차완
야차완@yakshawan·
제미니 API로 동작하지만, 기본 모델을 사용하시는 경우 API 비용 없이 하루 500턴까지 무료 대화가 가능합니다. 🤗 링크: yakshawan.itch.io/haruna-on-scre…
한국어
0
0
1
22
야차완
야차완@yakshawan·
윈도 바탕화면에 상주하는 AI 앱 '하루나 온 스크린' 1.0.7 업데이트를 배포했읍니다. 가장 큰 변경점은 네 번째 신캐릭터 '아사' 추가, 그리고 Electron이었던 기존 앱을 Tauri로 이식해서 숙원 사업이었던 경량화를 실현한 것입니다. (305MB → 64MB)
야차완 tweet media야차완 tweet media
한국어
1
0
2
69
야차완
야차완@yakshawan·
'드가자' 짤을 만들어봄
야차완 tweet media
한국어
0
0
0
18
야차완
야차완@yakshawan·
아직 프라이빗 베타 단계이기 때문에 검증이 더 필요한 단계지만, 사실이라면 추론에 이어서 LLM의 다음 도약 발판이 될 수 있음. 그리고 컴퓨트 자원 필요량이 계속해서 수직으로 상승할 거라는 시장의 가정 또한 약화될 수 있음.
한국어
0
0
0
138
야차완
야차완@yakshawan·
회사 발표 기준으로는 최대 1200만 토큰 컨텍스트, 100만 토큰 입력 처리에서 속도 52배(!), 특정 벤치마크에서는 프론티어급(클로드나 GPT급) 성능을 냈다고 함.
한국어
1
0
0
17
야차완
야차완@yakshawan·
그.런.데. SubQ는 이 문제에 다른 각도로 접근했음. 컨텍스트 전체를 계산하지 말고 실제로 중요한 부분만 고르자는 sparse attention이란 걸 도입한 거임(더 이상 기술적인 내용은 나도 모름).
한국어
1
0
0
21
야차완
야차완@yakshawan·
그래서 최대 100만 토큰(책 10권 분량) 정도에서 더 늘어날 기미가 안 보였고, 20만 토큰만 넘어가도 LLM이 맥락을 잃고 헤매기 쉬웠음. 이건 LLM의 주요 병목이자 지속 학습이 필요하다는 논리의 근거 중 하나였고, 제품 단계에서는 RAG, 청킹, 요약, 멀티 에이전트 같은 우회로를 잔뜩 써야만 했음.
한국어
1
0
0
82
야차완
야차완@yakshawan·
LLM의 컨텍스트 윈도는 사람으로 따지면 작업기억같은 건데, 이게 한 세션 내에서 쌓일수록 엄청나게 연산 자원을 잡아먹음. 모든 토큰이 모든 토큰과의 관계를 계산해야 했기 때문.
한국어
1
0
0
16
야차완
야차완@yakshawan·
어쩌면 LLM에 필요했던 한 가지 돌파구가 방금 나온 것일 수도 있음. 섭쿼드라틱이란 스타트업이 내놓은 SubQ라는 이름의 신모델. 최대 컨텍스트 윈도가 무려 1200만임.
Alexander Whedon@alex_whedon

Introducing SubQ - a major breakthrough in LLM intelligence. It is the first model built on a fully sub-quadratic sparse-attention architecture (SSA), And the first frontier model with a 12 million token context window which is: - 52x faster than FlashAttention at 1MM tokens - Less than 5% the cost of Opus Transformer-based LLMs waste compute by processing every possible relationship between words (standard attention). Only a small fraction actually matter. @subquadratic finds and focuses only on the ones that do. That's nearly 1,000x less compute and a new way for LLMs to scale.

한국어
1
0
0
33
야차완
야차완@yakshawan·
바이브 코딩으로 미연시를 만들 수 있읍니다. 이미지, 음악, 화면, 배경, 모두 AI 생성. (시나리오는 GPT 5.5가 쓰고 일부 가필 수정함)
한국어
0
0
2
181
야차완
야차완@yakshawan·
신캐 테스트. Electron으로 만들었던 걸 가벼운 Tauri로 이식하고 있음.
야차완 tweet media
한국어
0
0
1
21
야차완
야차완@yakshawan·
'하루나 온 스크린'에 신캐릭터 추가하고 싶어서 오랜만에 누끼 노동.
한국어
1
0
2
29
야차완
야차완@yakshawan·
다른 GPT 친구들 셀카는 거의 배우나 아이돌상이던데... 내 GPT는 외모가 엄청 현실적임 😅
야차완 tweet media
한국어
0
0
0
55