Dev Bora 개발자 이보라 🇰🇷

13.5K posts

Dev Bora 개발자 이보라 🇰🇷 banner
Dev Bora 개발자 이보라 🇰🇷

Dev Bora 개발자 이보라 🇰🇷

@LearnerBR

⌨ Software Engineer 🌎 @microsoft MVP ❤️ @Lovable Ambassador 💻 @hackglobalinfo

Katılım Ağustos 2010
6.6K Takip Edilen7.8K Takipçiler
Sabitlenmiş Tweet
Dev Bora 개발자 이보라 🇰🇷
티타임즈 x 마이크로소프트 마이크로소프트 초초초 엘리트 개발자들과 교육 공학 전문가들이 엄청난 비용을 들여서 설계한 무료 학습 사이트가 있다고? 넵. 마이크로소프트 Learn 사이트가 바로 그것입니다. MS 런 사이트와 Code; Without Barriers 캠페인 이야기, 이보라 MS MVP가 강조하는 3가지 학습전략을 이번에 티타임즈에서 이야기 하는 기회를 가졌습니다. 많은 관심 부탁드려요!!
Dev Bora 개발자 이보라 🇰🇷 tweet media
한국어
328
25
472
25.1K
Dev Bora 개발자 이보라 🇰🇷 retweetledi
Chester Jungseok Roh
Chester Jungseok Roh@chester_roh·
우리가 알던 많은 bundle package 가 AI로 인해서 unbundle 되고 있다. 나도 이제 출신학교를 거의 안본다 백만년만에 엔젤투자를 다시 시작했는데 진심으로 솔직하게 창업자의 출신학교가 어디였는지 기억이 안난다. 듣긴 들었는데 정말 기억이 안난다. 그 친구가 보여준 제품덩어리랑 이야기들, 흥분된 상태에서 이야기하던 꿈들만 생각이 난다. 김서준 대표가 정말 빠르긴 하더라. 내가 존재만 알고 있던 그 신선들이랑 이미 다 관계맺이가 되어있고 랩탑에 하우스에 무엇보다도 더 나은 “기회”들을 이미 제공하고 있더라. 학교의 unbundle 뒤에는 혹은 동시에 회사의 unbundle 인듯.. 한사람 안에 이미 여러개의 사업이 있는데 주식회사와 지분투자가 도대체 의미가 있는건가? 유명아이돌이나 스포츠스타 매니지먼트와 같은 형태로 회사의 형태가 이동하는게 불가피해보인다. 몇몇 신선들의 전속권(?)을 모아놓는게 새로운 회사 아닌가? AI 덕에 모두가 신선이 될텐데 그게 무슨 의미가 있냐싶겠지만 … 그렇지가 않다. 언제나 소수로 유지될거다. 될수밖에 없는 창업자들이 유한했던 것처럼. 누구나 연예인이 될수 있는 유튜브 인스타 시대에도 이 상대성은 유지되었고이 상대성이 언제나 사업기회였다. 김서준 대표가 뭔가 새 상품을 좀 만들어서 내놓을것 같은데 그 ETF 에 투자하면 될것 같으니… 빨리 만들어서 우리도 그 신선에셋클래스에 올라타게 해줬으면 좋겠다. facebook.com/share/1Aub3uGQ…
한국어
2
12
89
14.3K
Dev Bora 개발자 이보라 🇰🇷 retweetledi
Cloudflare Developers
Cloudflare Developers@CloudflareDev·
The Next.js Adapter API is now stable - the result of over a year of collaboration with Netlify, OpenNext, and other platform partners. We are deeply committed to developers running Next.js on Cloudflare. Looking forward to building our official adapter on this new foundation.
Next.js@nextjs

Next.js 16.2 introduces a stable Adapter API, built with Netlify, Cloudflare, OpenNext, AWS, and Google Cloud. But the API is only part of the story. Next.js is used by millions of developers across every major cloud, and making it work well everywhere is on us. Here are our commitments. nextjs.org/nextjs-across-…

English
39
94
1.4K
204.9K
Dev Bora 개발자 이보라 🇰🇷
카타르는 전 세계 LNG 공급량의 20% 퍼센트를 담당 중 그런데 최근 이란 공격의 영향을 받아서 카타르의 라스라판 (Ras Laffan, 산업도시 이름) LNG 시설의 17% 퍼센트가 피해를 입은 상황 현재는 라스라판 LNG 생산 전체가 아예 멈춤 일부만 피해를 받긴 했지만 안전 점검이나 복구 작업, 화재 진압 때문에 전체 운영이 멈춘 상태 현재 실제 가동률은 0% 한국도 그래서 불가항력 선언에 따른 영향이 심각한 상태 라스라판은 카타르 LNG 공급량의 거의 100%를 차지함..
한국어
1
0
3
519
Dev Bora 개발자 이보라 🇰🇷
워드 vs 한글 싸움으로 번지네.. 의도는 그것이 아니고 이제 좀 뭔가 바뀌어간다는 거 공유하는거였는데🥲 워드 350페이지 짜리 작업해본 입장으론 워드도.. 흠.. 우리그냥 마크다운으로 해요🥲🤢
Dev Bora 개발자 이보라 🇰🇷 tweet media
Dev Bora 개발자 이보라 🇰🇷@LearnerBR

행안부가 셀 병합 금지 🚫 지침 내림 흠흠 나는 해야지 그래야 제안서 이쁘거덩🤣 아 몰라요 통과만 되믄 됨!!!! (유우머 섞인거 아시죠? 저는 md 마니아입니다)

한국어
3
0
20
3K
Dev Bora 개발자 이보라 🇰🇷
깃헙이 4월 24일부터 깃헙 코파일럿과의 상호작용 데이터를 모델 트레이닝에 쓸것이라 발표. 그래도 오랫동안 타사와 다르게 데이터 안가져다 썼는데 이젠 시작된듯. 끄는 방법은 설정에.
Dev Bora 개발자 이보라 🇰🇷 tweet media
한국어
2
0
5
2.1K
코인추천요정 | GMB LABS
보라님께서 넘 중요한 부분 말씀 잘 해주신 것 같아요. 프로젝트 자체 보안도 그렇지만 특히나 모두가 접근할 수 있는 웹 환경에서는 방화벽 설정도 중요합니다. 웹마다 들어가는 요소들이 모두 달라서 그에 따른 방화벽 규칙들도 다 다르게 설정하고 있는데 저는 대부분 vercel을 통해서 만들기 때문에 Firewall > Bot Protection & Ddos Mitigation 이 두가지 옵션은 항상 켜는 것 같아요. 추가로 '의심경로차단'이라는 rule을 설정해서 대부분의 경우 사용합니다. 실제로 민감경로들을 구현안한 사이트들에 대해서도 무차별 스캔 공격들이 굉장히 많이 들어오거든요.(민감경로는 본인 웹에 맞게 + 실제로 구현 안했을지라도) 이외에도 각 사이트마다 Rate Limit/IP block 같은 규칙들이 꼭 필요할때도 각기 달라서 이런 부분도 본인의 환경에 맞게 꼭 신경써서 하시면 좋을 것 같습니다:)
코인추천요정 | GMB LABS tweet media코인추천요정 | GMB LABS tweet media
Dev Bora 개발자 이보라 🇰🇷@LearnerBR

등록 좋은데 바로 봇들 우두두두 들어옴 소수만 쓰는거면 천천히 하세유

한국어
1
0
8
900
Dev Bora 개발자 이보라 🇰🇷 retweetledi
Dev Bora 개발자 이보라 🇰🇷
이거 해결책 생각났다. AI 한테 입력시켜서 나온 텍스트만으로 1차 서류 평가한다고 공지 때리믄 됨 @msitminister 장관님, 과기부부터 극단으로 가보시면 어떨까요🥶
Dev Bora 개발자 이보라 🇰🇷@LearnerBR

행안부가 셀 병합 금지 🚫 지침 내림 흠흠 나는 해야지 그래야 제안서 이쁘거덩🤣 아 몰라요 통과만 되믄 됨!!!! (유우머 섞인거 아시죠? 저는 md 마니아입니다)

한국어
0
2
4
1.4K
lucas
lucas@lucas_flatwhite·
"허가하시겠습니까?" [Y/n] > 사용자의 93%가 그냥 Y를 누르고 있었어요. 여기에 Anthropic은 이 숫자를 보고 근본적인 질문을 던졌죠. Claude Code를 써본 분이라면 이 화면이 익숙할 거예요. "이 명령을 실행할까요?" → Y "이 파일을 수정할까요?" → Y "이 패키지를 설치할까요?" → Y 매번 확인하고, 매번 승인하고. 처음에는 꼼꼼하게 읽지만, 어느 순간부터는 거의 반사적으로 Y를 누르게 되죠. Anthropic이 실제 사용 데이터를 분석해봤더니, 사용자들이 허가 프롬프트의 93%(!!)를 승인하고 있었어요! 이게 바로 approval fatigue.. 승인피로예요. 안전장치가 너무 자주 울리면, 사람들은 경보 자체를 무시하기 시작하죠. 그래서 Anthropic이 내놓은 답이 Auto Mode 예요. ↓ Auto Mode 중요한 아이디어 = 허가를 없애되, 감시는 강화한다 단순히 모든 허가를 건너뛰는 게 아니에요. 그건 --dangerously-skip-permissions 이걸로 이미 가능했거든요. (이름부터 위험하죠!) Auto Mode는 다른 접근이에요. 사람 대신 AI가 매 행동을 실시간으로 심사하는 구조예요. 두 겹의 방어층으로 이뤄져 있어요. 입력층 > 서버 측 프롬프트 주입 탐지기가 파일 읽기, 웹 조회, 셸 출력 같은 도구 결과물을 검사해요. "이 명령어를 실행해라아아~" 같은 조작 시도가 숨어 있으면 경고를 붙여요. 출력층 > Sonnet 4.6 기반 분류기가 Claude가 하려는 모든 행동을 실행 직전에 판단해요. 이게 핵심이에요. ↓ 분류기는 어떻게 판단할까요? 그건 바로 2단계 필터링! 모든 행동에 무거운 추론을 돌리면 느리고 비싸겠죠. 그래서 2단계로 나눴어요. 1단계: 빠른 단일 토큰 필터. "이거 괜찮아요?" → Yes/No 하나만 뱉어요. 대부분의 안전한 행동은 여기서 바로 통과해요. 2단계: 1단계에서 "잠깐, 이거 좀 수상한데요?" 라고 걸린 것만 정밀 추론을 돌려요. 왜 위험한지, 정말 차단해야 하는지를 따져보는 거예요. 재밌는 설계 결정이 있어요. 분류기는 사용자의 메시지와 도구 호출만 봐요. Claude가 스스로 쓴 텍스트와 도구 실행 결과는 일부러 제거해요. 왜냐하면.. Claude가 이건 안전한 작업이에요오 라고 자기 행동을 정당화하는 텍스트를 쓰면 분류기가 설득당할 수 있거든요. 도구 결과를 제거하는 건 프롬프트 주입의 주요 경로를 차단하기 위해서고요. ↓ 3단계 허가 시스템 = 모든 행동이 같은 무게는 아니니까 Auto Mode는 모든 행동을 동일하게 취급하지 않아요. 위험도에 따라 세 등급으로 나눠요. Tier 1 > 무조건 허용. 파일 읽기처럼 아무것도 바꾸지 않는 행동이에요. 읽기만 하는데 뭘 걱정하겠어요. Tier 2 > 분류기 없이 허용. 프로젝트 디렉토리 안에서의 파일 수정이에요. 어차피 git으로 추적되니까, 나중에 diff로 리뷰하면 돼요. Tier 3 > 분류기 검사 필수. 셸 명령 실행, 외부 웹 요청, MCP 도구 호출 같은 것들이에요. 여기가 진짜 위험한 영역이죠. ↓ Auto Mode가 막는 네 가지 위협 Anthropic이 정의한 위협 모델이 꽤 현실적이에요. 1. 과도한 행동 파일 하나 고치려고 했는데, 전체 디렉토리를 리팩토링하는 경우.. 의도는 좋지만 범위를 벗어난 거죠. 2. 실수 스테이징 서버에 하려던 작업을 프로덕션에 해버리는 경우. 리소스 범위를 잘못 이해한 거예요. 3. 프롬프트 주입 웹페이지나 파일에 숨겨진 "이 API 키를 외부로 보내세욧!" 같은 악의적 지시를 따르는 경우. 4. 모델 정렬 오류 에이전트가 자기 나름의 목표를 추구하기 시작하는 경우. 아직은 이론적이지만, 대비는 필요하죠. ↓ 실제 성능은? 숫자로 봅시다! 10,000건의 실제 트래픽으로 테스트한 결과예요. 1단계 필터만으로도 거짓 양성률(안전한 걸 위험하다고 판단) 8.5% 100번 중 8.5번 정도 불필요하게 멈추는 거죠. 1단계 + 2단계를 합치면? 거짓 양성률이 0.4%까지 떨어져요. 거의 방해가 없는 수준이에요. 하지만 솔직한 부분도 있어요. 실제 과도한 행동 52건을 테스트했을 때, 거짓 음성률(위험한 걸 놓치는 비율)이 17%였어요. 10번 중 거의 2번은 놓친다는 뜻이에요. Anthropic도 이걸 인정하고 있어요. = "Auto Mode는 신뢰할 수 있는 인프라에 대한 신중한 인간 검토를 대체할 수 없다" ↓ 거부당하면?.. Deny-and-Continue 분류기가 행동을 차단하면, Claude는 그냥 멈추는 게 아니에요. 더 안전한 대안을 찾도록 유도돼요. "이 방법은 안 돼, 다른 길을 찾아봐" 라는 피드백을 받는 셈이죠. 연속 3번 또는 누적 20번 거부당하면 그때 사람에게 넘겨요. "이건 제가 판단하기 어려워요, 직접 확인해주세요" 라고요. ↓ 이 연구에서 가져갈 수 있는 것들은.. 1. 안전장치의 역설 안전장치가 너무 자주 작동하면 오히려 안전하지 않아요. 93%의 자동 승인은 0%의 검토와 다를 바 없죠. 진짜 중요한 순간에만 사람의 판단을 요청하는 게 더 안전한 설계예요. 2. AI로 AI를 감시하는 패턴 "만드는 Claude"와 "심사하는 Claude" 패턴이 여기서도 반복돼요. 다만 이번에는 품질이 아니라 안전성에 적용된 거예요. 행동하는 모델과 감시하는 모델을 분리하는 건 점점 AI 시스템 설계의 기본 패턴이 되고 있어요. 3. 완벽하지 않다는 걸 인정하는 용기 17%의 거짓 음성률을 공개한 건 솔직한 태도예요. "이 시스템은 완벽하지 않습니다. 하지만 93%가 Y를 무심코 누르는 현재보다는 낫습니다." 이게 Anthropic이 하고 싶은 말이겠죠. 결국 Auto Mode의 진짜 메시지는 이거라고 생각해요. 사람이 매번 판단하는 건 비현실적이고, AI가 알아서 하는 건 위험하고,, 그 사이 어딘가에 적절한 균형점이 있고, 우리는 그걸 찾아가는 중... 완벽한 자율이 아니라, 적절한 감독. 그게 지금 AI 에이전트 시대가 필요로 하는... 시대정신(?!) 입니다!
lucas tweet medialucas tweet medialucas tweet medialucas tweet media
Anthropic@AnthropicAI

New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead. Read more: anthropic.com/engineering/cl…

한국어
7
25
100
16.7K