이대은(Dae-eun Lee)

2.8K posts

이대은(Dae-eun Lee)

이대은(Dae-eun Lee)

@2daeeun

Computer Science Student / Otaku / Following and retweeting do not represent my views.

Dept. of Computer Science Beigetreten Haziran 2013
300 Folgt694 Follower
Angehefteter Tweet
이대은(Dae-eun Lee)
이대은(Dae-eun Lee)@2daeeun·
# README .md Interests: - Operating Systems - File Systems Hobbies: - Customizing Neovim - Customizing Linux desktop Note: I'm a beginner in my areas of interest.
English
0
0
14
3K
이대은(Dae-eun Lee) retweetet
Phio
Phio@kinophio·
국립중앙도서관 자료보존연구센터 주관으로 순천향대 이정엽 교수님이 진행한 고전 게임 소프트웨어 수집보존 연구에, @krucef 오영욱 박사님과 함께 공동연구자로 참여했습니다. 이 연구에는 #퍼펙트카탈로그 한국어판의 리스트도 활용되었습니다. 과거의 디지털 유산이 재조명되기를 기원합니다.
Phio tweet mediaPhio tweet mediaPhio tweet mediaPhio tweet media
한국어
0
64
80
5.5K
이대은(Dae-eun Lee) retweetet
CharSyam
CharSyam@charsyam·
2026 오픈소스 컨티르뷰션 아카데미(체험형) 멘티 모집이 이제 거의 마지막입니다. 4/1일까지에요 신청하세요. contribution.ac
한국어
0
21
17
2.3K
이대은(Dae-eun Lee) retweetet
에시라
에시라@_ecira_·
카카오페이지에서 4월 16일에 <대학원생은 교수님을 암살하고 싶어>로 뵙겠습니다!
에시라 tweet media
한국어
9
2.8K
4.5K
381.5K
이대은(Dae-eun Lee)
@Yong_builder 저도 코덱스 사용하면서 바이브코딩을 하는 방법은 알고 있는데요, 흠... 바이브코딩으로 만든 코드는 나중에 디버깅 할 때는 어렵더라고요. 제가 ai를 잘 활용 못하는 문제도 있겠지만요😅 그래서 지금은 직접 코드 전체 다 분석한 뒤에 수제로 코드 짜고, 나중에 디버깅 할 때만 ai 도움 받아요ㅎ
한국어
0
0
0
28
Yong Builder
Yong Builder@Yong_builder·
@2daeeun @thx_for_today 반 바이브코딩이면 반은 직접 하신다는 거잖아요. 저는 비개발자라 거의 100% AI 의존인데 그것도 쉽지 않더라고요 ㅋㅋ
한국어
1
0
1
15
이대은(Dae-eun Lee)
내가 아직도 수제코딩 빚으니깐 친구가 이제는 쫌 ai로 코딩하라고 잔소리함. 응~ 싫어~~
이대은(Dae-eun Lee) tweet media
한국어
2
1
68
7.4K
이대은(Dae-eun Lee) retweetet
SE Han
SE Han@gaeaearth_sehan·
근데 LLM의존...은 만렙이 시간 아끼려고 vs 쩌렙이 뇌 안 쓰려고 를 구분해야할 거 같긴 함... LLM이 학습에 도움이 된다/안된다는 보통 저기에서 갈리는 것 같기도 하고...
한국어
0
14
30
1.1K
이대은(Dae-eun Lee)
@thx_for_today ㅋㅋㅋㅋㅋㅋㅋ 근데 저도 코드 오류나가너 그럴때는 지피티한테 자주 물어보긴해요. 약간 반 바이브코딩 해요 ㅋ
한국어
1
0
2
336
꼬부기
꼬부기@thx_for_today·
@2daeeun 한번 시작하면 끊을수 없습니다.... ㅋㅋㅋ
한국어
1
0
1
389
이대은(Dae-eun Lee) retweetet
말러팔삼
말러팔삼@mahler83·
오늘 하루종일 핫한 TurboQuant #논문 내가 이해한 대로 읊어보면: 고차원 벡터를 양자화 압축해 데이터 양을 줄이는데, 압축하는 만큼 부정확해짐. 특히 예를 들어 100번째 좌표가 0.5 근처에 다 몰려있으면 양자화할 때 이 부분 정보가 사실상 날아감. 그래서 뭘 하냐면 랜덤한 방향으로 회전시킴
말러팔삼 tweet media
말러팔삼@mahler83

조깅 3일차. 타임라인에 열번쯤 올라온 TurboQuant arXiv 논문을 넣고 AO 만들어서 퇴근길, 빨래설거지, 조깅에 거쳐서 들어봤는데 어렵기도 하고 신기하기도 했다. 압축률이 Theoretical lower bound에 근접한다고? 시끌시끌할만 하구나 싶었다

한국어
4
34
127
22.5K
이대은(Dae-eun Lee) retweetet
바자
바자@vi_signer_i·
월루용 채팅웹 만드는중인데 어때
바자 tweet media바자 tweet media
한국어
33
3K
4.8K
580.2K
이대은(Dae-eun Lee) retweetet
니드
니드@all_i_need88f·
진짜 좀 각잡고 무조건 지원사업 붙인다는 각오로 같이 작업할 예술가들 없을까 대신에 내가 하고 싶은건 좀 양보하고 장점은 살리면서 합의점 찾아야됨 아는 예술가들 있으면 알티해서 소개 좀 시켜주세요
한국어
1
7
3
496
이대은(Dae-eun Lee)
@kokontouzai_vv ㅋㅋㅋㅋㅋㅋ 긴 글 잘 읽었어요. 글애서 마치 천사와 악마가 공존하는거 같았어요 ㅋㅋㅋ 😂 적절히 ai 도움을 균형 맞춰가며 쓰겠습니다..ㅎ
한국어
0
0
1
13
이대은(Dae-eun Lee)
@gaeaearth_sehan 아앗 그런 슬픈사연이... 근데 사진을 또 보아도 우연의 일치로 칠판 배치가 저리도 딱 맞는게 진짜로 신기하네요 ㅌㅌㅋㅋㅋㅋㅋ
한국어
0
0
0
19
SE Han
SE Han@gaeaearth_sehan·
@2daeeun 저건 마침 저기 칠판이 딱 저래 맞아서 우연의 일치로[...]
한국어
1
0
0
22
SE Han
SE Han@gaeaearth_sehan·
실론님이 좋어하는 미기 공부하기 (상대론)
SE Han tweet media
한국어
3
0
13
591
이대은(Dae-eun Lee) retweetet
kubesimplify
kubesimplify@kubesimplify·
🚨Big news from KubeCon Europe. NVIDIA is donating the Dynamic Resource Allocation (DRA) Driver for GPUs to the CNCF, moving it from vendor governance to full community ownership under the Kubernetes project. DRA is how Kubernetes talks to GPUs at a fine-grained level. Until now, that critical layer was controlled by a single vendor. Moving it upstream means the broader community, including AWS, Google Cloud, Microsoft, Red Hat, and others, can co-develop it in the open. What the driver enables: ∙Smarter GPU sharing via MPS and MIG ∙Multi-node NVLink support for large-scale training on Grace Blackwell systems ∙Dynamic resource reconfiguration without restarting workloads ∙Fine-grained requests for compute, memory, and interconnect topology Also announced at KubeCon: ∙GPU support for Kata Containers, extending hardware acceleration into confidential computing ∙KAI Scheduler accepted as a CNCF Sandbox project ∙Grove, an open source Kubernetes API for orchestrating inference workloads on GPU clusters, integrating with the llm-d stack The pattern here is deliberate. NVIDIA is not just building AI hardware. It is building the open infrastructure layer that runs AI at scale and anchoring it in the CNCF ecosystem.
kubesimplify tweet media
English
0
23
114
6.8K