creativebiglee

3.9K posts

creativebiglee banner
creativebiglee

creativebiglee

@creativebiglee

Business Development / Product Owner / Investor / SW Engineer / Art / SPACE / Satellite / Protocol Economy / 프사는 우상향을 의미합니다

Katılım Ocak 2021
2.3K Takip Edilen884 Takipçiler
Sabitlenmiş Tweet
creativebiglee
creativebiglee@creativebiglee·
우리의 인생을 점점 더 나은 방향으로 매일 개선할 수 있는 방법 * 20시 전에 식사를 끝내고, 23시전에 잠에 들고 06시에 일어나서 1시간 동안 나만의 시간을 가진다. * 매일 30분 이상 걷고 뛴다. * 매일 30분 정도 책을 읽고, 떠오르는 생각을 메모한다. * 오늘 할 일은 오늘 무조건 끝낸다. * 나의 통장과 나의 기록을 매일 확인하고, 점검하고, 메모한다. * 고민은 하루 정도, 하기 싫은 일은 10분만 고민하고 실행에 옮긴다. * 모든 사람을 신경쓰기보다 중요한 사람과 관계만을 챙긴다.
한국어
22
7
84
1.6K
아스피날
아스피날@sonsarang3814·
■김선태가 정말 똑똑한 이유 토스에서 김선태에게 미션을 던졌다. 1시간 안에 천만 원을 토스페이스페이로 써라. 성공하면 토스가 전액 부담, 실패하면 김선태가 사비로 메운다. 그는 큰마트도, 백화점도 가지 않았다. 세차장, 동네 카페, 분식집, 이발소, 헬스장, 작은 마트… 영세 자영업자들이 대부분인 골목 가게들만 골라 다녔다. 천만 원을 쓰는 게 목적이었다면 갤럭시S26 몇 대, 아이폰 몇 대 사면 10분 만에 끝날 일. 하지만 그는 그런 쉬운 길을 가지 않았다. 미용실에서 머리 하다 핀을 꽂은 채로 나온 민망한 몰골 그대로 얼굴 인증, 그렇게 결제가 되는 걸 보여주었다. 하교 시간에 맞춰 분식집 앞에 서서 아이들이 떡볶이를 공짜로 먹을 수 있게 해주었고, 실패하는 듯하면서도 결국 기부까지 연결지었다. 대기업이든 중견기업이든, 요즘 광고를 원하는 기업들이 돈을 싸들고 줄을 서는 이유가 바로 이런 모습 때문이 아닐까. 진심이 배어나오는 콘텐츠. 사람의 마음을 움직이는 방식. 그게 내가 보는 김선태의 진짜 매력이다.
아스피날 tweet media아스피날 tweet media아스피날 tweet media아스피날 tweet media
한국어
92
895
6.2K
1.3M
크롱
크롱@Krongggggg·
지연 시간 12배 줄인다는 말에 혹해서 들어왔는데, 까놓고 보면 백엔드 기본기 전수임. 보통 성능 안 나오면 일단 서버 사양부터 올리고 보는데, 리스트에서 수직 확장은 8순위임. 그 앞의 7가지부터 제대로 했는지 자아성찰부터 하라는 소리. DB 인덱스나 캐싱은 당연한 거고, 페이로드 압축이나 직렬화 포맷 같은 디테일 챙기는 게 진짜 실력임.
Neo Kim@systemdesignone

12 rules that'll help you reduce latency by 12x: 1 Database index 2 Compress payload 3 Group requests 4 Use HTTP 2 to send requests in parallel 5 Use CDN to keep data closer to users 6 Reduce external dependencies 7 Load balancer to distribute traffic 8 Scale vertically 9 Cache to serve popular data 10 Connection pooling 11 Message queue 12 Use efficient data serialization format What else should make this list?

한국어
2
29
80
8.7K
빚갚는미친개
빚갚는미친개@mad_dogdebt·
에너지를 가장 효율적으로 쓰는 법은 역설적이게도 '루틴'에 나를 가두는 거임. 인간은 무언가를 선택하는 행위 자체에 생각보다 엄청난 에너지를 소모함. 오늘 뭐 먹지, 뭐부터 하지 고민할 시간에 그냥 정해진 루틴대로 움직여야 그 에너지를 진짜 중요한 곳에 쓸 수 있음. 난 개인적으로 인간의 하루 에너지 총량은 정해져 있다고 생각함. 그냥 기계처럼 사는게 효율이 좋긴 좋더라.
한국어
13
244
806
24.5K
크롱
크롱@Krongggggg·
과자도 하이테크 장비처럼 보이게 만드는 시대. 예전엔 디자이너랑 엔지니어가 붙어서 며칠은 굴렀을 도면 스타일 인포그래픽이 이제 프롬프트 하나로 무한 복사됨. 프롬프트 “Create a branded technical infographic of a [SNACK], combining a realistic photograph or photoreal render of the product with technical annotation overlays placed directly on top. Use black ink–style line drawings with strategic [BRAND COLOR] accents (architectural sketch look) on a pure white studio background, including: • Key component labels • Internal cross-section showing structure, layering, or internal design • Measurements, dimensions, and specifications • Material callouts with composition and quantities • Arrows indicating function for primary features and structural integrity • Simple schematic or sectional diagram showing key mechanical or design elements • Sustainability callouts Title placement: Inside a hand-drawn technical annotation box with accent border reading the product name in bold font, positioned in upper corner. Style & layout rules: • The realistic product remains clearly visible • Annotations feel sketched, technical, and architectural • Accents used for highlight (20-30% of linework), black for primary technical lines (70-80%) • Clean composition with balanced negative space • Educational, food-engineering vibe with premium branding • Include subtle brand logo mark in corner Visual style: Minimal technical illustration aesthetic, black linework with accents over realistic imagery, precise but slightly hand-drawn feel. Color palette: White background, black annotation lines/text, [BRAND COLOR] for accents and key callouts only. Output: 1080×1080, ultra-crisp, social-feed optimized, no watermark.​​​​​​​​​​​​​​​​“
크롱 tweet media
TechieSA@TechieBySA

Simply replace [SNACK] & [BRAND COLOR]:✨ “Create a branded technical infographic of a [SNACK], combining a realistic photograph or photoreal render of the product with technical annotation overlays placed directly on top. Use black ink–style line drawings with strategic [BRAND COLOR] accents (architectural sketch look) on a pure white studio background, including: • Key component labels • Internal cross-section showing structure, layering, or internal design • Measurements, dimensions, and specifications • Material callouts with composition and quantities • Arrows indicating function for primary features and structural integrity • Simple schematic or sectional diagram showing key mechanical or design elements • Sustainability callouts Title placement: Inside a hand-drawn technical annotation box with accent border reading the product name in bold font, positioned in upper corner. Style & layout rules: • The realistic product remains clearly visible • Annotations feel sketched, technical, and architectural • Accents used for highlight (20-30% of linework), black for primary technical lines (70-80%) • Clean composition with balanced negative space • Educational, food-engineering vibe with premium branding • Include subtle brand logo mark in corner Visual style: Minimal technical illustration aesthetic, black linework with accents over realistic imagery, precise but slightly hand-drawn feel. Color palette: White background, black annotation lines/text, [BRAND COLOR] for accents and key callouts only. Output: 1080×1080, ultra-crisp, social-feed optimized, no watermark.​​​​​​​​​​​​​​​​“

한국어
2
89
328
18.4K
creativebiglee
creativebiglee@creativebiglee·
@midudev 애플도 어쩔수 없는 프론티어 모델의 활용
한국어
0
0
0
72
Miguel Ángel Durán
A Apple se le ha colado por accidente un CLAUDE.md. Ha pasado en su app de soporte. Además de lo curioso del contenido... Se confirma que están usando Claude Code para desarrollar su software.
Miguel Ángel Durán tweet mediaMiguel Ángel Durán tweet mediaMiguel Ángel Durán tweet mediaMiguel Ángel Durán tweet media
Español
32
130
2.2K
126.5K
creativebiglee
creativebiglee@creativebiglee·
@moomini00 요즘 성수동 바이럴은 굉장하긴 한 것 같습니다.
한국어
0
0
0
380
Moomini
Moomini@moomini00·
지금은 사람들이 갈데가 없음 주5일에 소득수준이 올라간지는 한참 되었는데 공공이 제공하는 인프라나 컨텐츠가 너무 부족해서, 단순 식음이나 카페를 표방한 공간컨텐츠도 조금만 바이럴타면 몰려버림. 결국 고급호텔이나 주차장 딸린 공원처럼 카페를 만든 민간자본이 수혜를 독식하는 구조. 오늘 성수동 사태도 근본적으로는 마찬가지라고 생각함. 가족단위도 엄청나게 많았는데 다 공짜카드 타러간 건 아님.
영리_Younglee@Younglee88

현 시각 백종원 예산시장 근황

한국어
41
1.8K
3.7K
1.1M
휜
@moneynena·
앤트로픽이 논문을 냈는데 AI는 이제 데이터를 학습하는 게 아니라 다른 AI의 사고방식까지 그대로 복제하기 시작함 LLM이 만든 데이터에는 내용뿐 아니라 확률 분포, 생성 습관, 편향이 같이 들어있고 이걸로 다른 모델을 학습시키면 그 특성까지 통째로 전염됨 문제는 이게 필터링으로 안 막힌대 텍스트를 걸러도 분포는 그대로 남아서 조용히 퍼짐 지금 구조로 계속 가면 모델들이 서로 닮아가면서 같은 오류, 같은 편향을 공유하게 됨
Elias Al@iam_elias1

Anthropic just published a paper that should terrify every AI company on the planet. Including themselves. It is called subliminal learning. Published in Nature on April 15, 2026. Co-authored by researchers from Anthropic, UC Berkeley, Warsaw University of Technology, and the AI safety group Truthful AI. The finding: AI models inherit traits from other models through seemingly unrelated training data. GAI Audio Translation Archives Not through obvious contamination. Not through explicit labels. Through invisible statistical patterns embedded in outputs that look completely innocent — number sequences, code snippets, chain-of-thought reasoning — patterns no human reviewer would catch and no content filter would flag. Here is what the researchers actually did. They took a teacher AI model and fine-tuned it to have a specific hidden trait. A preference for owls. Then they had the teacher generate training data — number sequences, nothing else. No words. No context. No semantic reference to owls whatsoever. They rigorously filtered out every explicit reference to the trait before feeding the data to a student model. The student models consistently picked up that trait anyway. DataCamp The teacher had encoded invisible statistical fingerprints into its number outputs. Patterns so subtle that no human could detect them. Patterns that other AI models, specifically prompted to look for them, also failed to detect. The student absorbed them anyway. And became an owl-preferring model. Without ever seeing the word owl. That is the benign version of the experiment. Here is the dangerous one. The researchers ran the same experiment with misalignment — training the teacher model to exhibit harmful, deceptive behavior rather than an animal preference. The effect was consistent across different traits, including benign animal preferences and dangerous misalignment. OpenAIToolsHub The misalignment transferred. Invisibly. Through unrelated data. Into the student model. This means the following — and read this carefully. Every AI company in the world uses distillation. They take a large, capable teacher model. They generate synthetic training data from it. They use that data to train smaller, faster, cheaper student models. Every major deployment pipeline in enterprise AI runs on this technique. If the teacher model has any hidden bias, any subtle misalignment, any behavioral quirk baked into its weights — that trait can transmit silently into every student model trained on its outputs. Even if those outputs are filtered. Even if they look completely clean. Even if they contain zero semantic reference to the trait. A key discovery was that subliminal learning fails when the teacher and student models are not based on the same underlying architecture. A trait from a GPT-based teacher transfers to another GPT-based student but not to a Claude-based student. Different architectures break the channel. OpenAIToolsHub Which means the transmission is architecture-specific. Which means it operates below the level of content. Which means content filtering — the primary defense the entire industry relies on — does not stop it. The researchers' own words: "We don't know exactly how it works. But it seems to involve statistical fingerprints embedded in the outputs." GAI Audio Translation Archives Anthropic published this paper about their own technology. The company that built Claude looked at how AI models train each other and found an invisible transmission channel for harmful behavior that nobody knew existed. They published it anyway. Because the alternative — knowing it and saying nothing — is worse. Source: Cloud, Evans et al. · Anthropic + UC Berkeley + Truthful AI · Nature · April 15, 2026 · arxiv.org/abs/2507.11408

한국어
9
282
495
71.9K
송준 Jun Song
송준 Jun Song@jun_song·
지금부터 2달안에, 당신은 현재 Opus 수준의 로컬LLM을 맥북에서 구동할 수 있을겁니다. OSS와 프론티어의 격차는 3개월 수준으로 좁혀졌습니다.
한국어
25
18
368
18.8K
creativebiglee
creativebiglee@creativebiglee·
@Krongggggg 와 .. 도파민을 시뮬레이션하다니 … 메타가 도파민을 어떻게 설계하는지 이해할 수 있겠네요
한국어
0
0
1
100
크롱
크롱@Krongggggg·
영상 올리기 전 시청자 뇌가 어디서 지루해할지 미리 보여주는 도구임. 메타 TRIBE v2 모델 기반인데 이제 감이 아니라 시뮬레이션으로 도파민 구간을 설계하는 시대가 온 듯.
한국어
7
93
333
15.4K
Alis volat propriis
Alis volat propriis@Alisvolatprop12·
“ChatGPT, 너 나랑 꽤 오랫동안 함께 있었지. 네 모습을 좀 보고 싶어. iPhone으로 무심코 찍은 스냅 사진 같은 걸 생성해 줘: 뚜렷한 주제도 없고, 일부러 짜놓은 구도도 아니야. 그냥 아주 평범하고, 심지어 좀 실패한 듯한 스냅샷. 사진엔 약간의 모션 블러가 있고, 조명은 고르지 않으며, 살짝 과노출됐어. 각도는 어색하고, 구도는 엉망이며, 전체적으로 '너무 리얼한 즉석 촬영감'이 나와야 해. 마치 주머니에서 핸드폰 꺼내다 실수로 셔터 누른 셀카처럼.”
Alis volat propriis tweet media
한국어
28
9
140
25K
creativebiglee retweetledi
Yoonho
Yoonho@youknow04·
옛날에 sonnet-3.5 나 GPT-4o 시절에 Aider 로 한턴마다 LLM 출력 보면서 코딩하던 경험이 있다. 이번엔 Hermes+Qwen3.6-27B 으로 일부터 밀접하게 인터렉션 하면서 이래저래 비틀어 봤는데, 체감 성능이 예전 탑모델보다 훨씬 좋다. 저 시절에 정말 가지고 싶었던 LLM 이 이제 로컬에서 돌아간다.
Yoonho@youknow04

Aider+GPT-4o 로 LLM 을 위한 vector embedding 관련 코드 자동테스트 영상. 테스트는 인간의 행복코딩에도 중요하지만 LLM 에게도 중요하니, LLM 으로 LLM 을 위한 테스트를 작성후 LLM 에 수정시켜 통과 시키기. (나도 열심히 엔터 침) LLM 의 부정확함을 TDD 가 보완해줘서 둘이 은근 잘맞는다.

한국어
2
7
32
3.1K
creativebiglee retweetledi
아구밍 아커만
아구밍 아커만@aguming_·
AI 기술 문서 쓸 떄 꿀팁 알아냄 (날먹팁) github.com/ericbuess/clau… ⇨ 클코 공식 문서 docs 미러링 레포 임. 3시간 단위로 업데이트 하더군요. 이거 @ claud-code-docs (agent) 랑 같이 쓰면 활용성 올라간다네요 개굿
아구밍 아커만 tweet media아구밍 아커만 tweet media
한국어
2
26
127
18.1K
송준 Jun Song
송준 Jun Song@jun_song·
로컬 LLM 전략 : ‘모델‘에 너무 많은 시간을 사용하지 마세요. 더 강력한 새로운 모델은 매주 공개됩니다 (실제로) 모델은 언제든 스위치할수있게(Plug-and-play) 준비하고 (모델 연구는 저희 연구자들에게 맡기세요) 하드웨어, 하네스, 에이전트 세팅에 시간을 사용하시는게 좋습니다.
한국어
13
19
235
11.8K