콜 COLE

294 posts

콜 COLE banner
콜 COLE

콜 COLE

@JWMoonX

미장 투자함. AI랑 기술도 놓치기 싫은 사람. 관심사가 너무 많음.

South Korea Inscrit le Ağustos 2025
60 Abonnements61 Abonnés
콜 COLE
콜 COLE@JWMoonX·
Claude Opus 4.7 나왔다 근데 솔직히 말하면, 커뮤니티에서 우스갯소리로 도는 말이 있다. "4.6 너프시켜놓고 원래 성능으로 돌려서 4.7이라고 발표했다"는 거다 황당하게 들리지만 근거가 없진 않다. Anthropic이 직접 인정한 내용만 봐도 출시 과정에서 기능을 의도적으로 단계적으로 낮추는 실험을 했고, 일부 안전성 항목에서는 4.7이 4.6보다 오히려 떨어진다. 그러면서 토큰 소모는 최대 1.35배 늘었다. 가격은 동일하다
콜 COLE tweet media
한국어
0
0
1
16
22B
22B@v81093933·
@JWMoonX 하나만 쓰면 클라우드를 쓰세요. 그게 낫습니다.
한국어
1
0
1
82
22B
22B@v81093933·
Claude 구독이 끝나면서 codex 를 메인으로 쓰기 시작했다. 그러면서, 기존에 습득한 지식을 바탕으로 세팅을 하나씩 해나가는 중 오늘의 세팅은 1. 22B-knowledge를 그냥 노트 저장소가 아니라 “LLM이 유지하는 컴파일형 위키”로 바꿨다. 사람은 자료를 넣고 질문하고, LLM은 정리하고 연결하고 누적한다. 2. 핵심 구조는 이렇다. `50_Raw` = 원본 자료 `60_Research` = LLM이 정리한 지식 문서 `70_Outputs` = 질문 결과물/브리프/슬라이드 `80_Health` = 링크/중복/충돌 점검 그리고 `index.md`, `log.md`로 전체를 관리한다. 3. 중요한 건 raw와 wiki를 분리한 것. 원본은 immutable로 두고, LLM은 읽기만 한다. 요약, 백링크, 개념 문서, 비교 문서는 wiki 레이어에서만 갱신한다. 4. 질문 응답도 채팅에서 끝내지 않는다. 좋은 답변은 `70_Outputs`에 파일로 저장하고, 가치 있으면 다시 위키에 편입한다. 탐색이 쌓이고, 다음 질문이 더 강해진다. 5. 생각보다 fancy RAG보다 먼저 필요한 건 `index.md + 요약 문서 + log.md` 였다. 중간 규모에서는 이것만으로도 질의/탐색 루프가 꽤 잘 돈다. 6. 감각적으로는 이렇다. Obsidian은 뷰어 Codex는 편집기 Markdown 위키는 코드베이스 LLM은 이제 코드만 쓰는 게 아니라 지식도 “컴파일”한다. #LLM #Obsidian #KnowledgeBase #AIWorkflow #PKM #Codex #Markdown #RAG
한국어
3
8
50
4.3K
콜 COLE
콜 COLE@JWMoonX·
@v81093933 아 그럼 둘이 꽤 비슷한 편인가 보네요 메인으로 하나만 쓴다면 코덱스가 더 나을까요? 아니면 사람마다 좀 다른가요?
한국어
1
0
1
69
22B
22B@v81093933·
@JWMoonX 추론과 보기좋게 만드는 것은 클로드가 좀 더 우위이고, 개발은 코덱스가 진득하게 잘하긴 합니다.
한국어
1
0
1
92
콜 COLE
콜 COLE@JWMoonX·
@v81093933 오 그렇군요 ㅎㅎ 근데 코덱스랑 클로드 코드 성능 비슷한가요? 뭐가 다른지 잘 몰라서요
한국어
1
0
1
99
22B
22B@v81093933·
@JWMoonX 그냥 할 만한 개발은 대부분 끝나서요. codex 는 월2.9만원에 결제해둔 게 아직 5개월이나 남았거든요. 그 카카오톡에서 28만원짜리 프로 구독권을 2.9만원에 풀었었잔아요?
한국어
1
0
2
222
콜 COLE
콜 COLE@JWMoonX·
@lucas_flatwhite AI 활용 과정을 설명하는 능력이 실제 업무 능력이랑 같은 건지는 모르겠는데 말 잘하는 사람이 뽑히는 구조가 AI 시대에도 반복되는 거 아닐까요
한국어
0
0
3
213
lucas
lucas@lucas_flatwhite·
채용을 열었더니. 얼마 전 채용을 진행함. 직군을 막론하고 경쟁률이 100대 1을 넘김. 다양한 분들의 이야기를 접할 수 있었음. 가장 눈에 띄는 변화는 역시 AI.. 지원서 작성부터 관련 코드 구현까지, AI를 활용한 흔적이 곳곳에 묻어 있었음. 이건 이제 너무 자연스러운 상황. 이제 AI는 선택이 아니라 자연스러운 도구가 됨. 이런 얘기조차 너무 당연함. Claude Code를 쓰든, Codex CLI를 쓰는 뭘 쓰든 개인의 선호일뿐. 그런데 재미있는 지점은 그다음이었음. AI를 어떻게 활용했는지, 어떤 흐름으로 개발이 이루어졌는지를 물으면 막히는 분들이 의외로 있었음. 심한 경우에는 본인이 제출한 코드가 어떤 기능을 하는지조차 설명하지 못하는 경우도 있기도. 순간 이게 문제일까 아닐까 하는 생각도 해봄. AI가 충분히 좋은 결과물을 만들어준다면, 그 내부를 굳이 다 이해해야 할까. 그럼에도 도구를 쓴 것과 도구를 이해하며 쓴 것 사이에는 생각보다 큰 간극이 있었음. 결과물이 비슷해 보여도, 대화를 나눠보면 금방 드러났음. 왜 이 구조를 선택했는지, 다른 방법은 고려하지 않았는지, 이 코드가 예상대로 동작하지 않으면 어디서부터 살펴볼 것인지. 이런 질문 앞에서 자기 언어로 답할 수 있는 사람과 그렇지 못한 사람의 차이는 분명했음. AI가 만들어준 결과물은 같을 수 있지만, 그것을 들고 있는 사람의 깊이는 같을 수 없다고 봄. AI를 활용한 과정을 구체적으로 풀어내는 분들도 분명 계셨음. 어떤 문제를 해결하려 했고, AI에 어떤 방식으로 질문을 던졌으며, 그 결과를 어떻게 판단하고 다듬었는지를 자기 언어로 설명하는 분들이었음. 이 차이는 점점 뚜렷해지고 있다는 인상을 받음. AI에 대한 관심과 활용도를 단순히 나이로 설명하기는 어려움. 상대적으로 젊은 분들이 보다 적극적으로 활용하고 있다는 체감은 있었음. 더 적극적인 수용.. 하지만 이전보다 경력과 무관하게 AI를 활용하는 분들이 많아졌음. 중요한 것은 태도의 문제에 가깝다는 점. 가장 매력적이었던 분들은 도메인에 대한 문제의식에서 출발한 분들. "이 영역에서 이런 점이 불편했다", "이 문제를 이렇게 바라봤다"는 이야기가 있는 분들에게는 자연스럽게 풍부한 서사가 쌓여 있었음. AI를 잘 쓰느냐보다, 왜 그것을 만들려 했느냐가 결국 더 오래 남는 이야기였음. 아무리 AI 시대라고 해도, 지원자를 바라보는 시각은 생각보다 크게 달라지지 않았음. 문제를 인식하는 감각, 자기 작업을 설명할 수 있는 힘, 도구에 휘둘리지 않는 주체성. 결국 사람을 판단하는 기준은 시대가 바뀌어도 꽤 견고한 것 같다는 생각도 같이 들었음.
lucas tweet media
한국어
2
15
51
4.4K
콜 COLE
콜 COLE@JWMoonX·
@supernovajunn 실수 AI ㅋㅋㅋ 근데 진짜 그게 답일 수도요 일부러 틀리게 설계된 AI 옆에서 배우는 인턴이라니
한국어
0
0
1
43
Cognac(꼬냑)
Cognac(꼬냑)@supernovajunn·
@JWMoonX 그래서 신입을 안 뽑나봅니다. 판단전문가는 시니어에서 그만.. 그 이후는 오케스트레이션을 통해 실수 AI를 만들려나요
한국어
1
0
3
204
Cognac(꼬냑)
Cognac(꼬냑)@supernovajunn·
진짜 전문가가 사라지는 게 아니다. 핵심은 지식만 가진 전문가가 사라지는 것이다. 의사는 의대 6년, 인턴 1년, 레지던트 4년. 변호사는 로스쿨 3년에 변호사시험, 실무 수습. 회계사는 수천 시간의 시험 공부와 실무 경력. 건축가는 설계 사무소에서 허드렛일부터 시작해 수년을 버텨야 도면 하나를 혼자 그릴 수 있었다. 이 긴 시간 동안 그들은 단순히 지식을 쌓은 게 아니다. 실패하고, 선배에게 혼나고, 반복하면서 판단력을 몸에 새겼다. 이걸 '도제식'이라고 한다. 시간이 곧 자격이었다. 현재 AI 에이전트는 이 구조를 정면으로 부수고 있다. 지금 AI는 의학 논문 수백만 편을 읽고 희귀 질환을 진단한다. 계약서 수천 건을 분석하고 리스크를 찾아낸다. 세무 신고를 자동으로 처리하고, 건축 도면을 수십 초 만에 생성한다. 그것도 초보자의 10년이 아니라, 그 분야 최고 전문가들의 지식을 모두 합친 수준으로 말이다. 그렇다면 이제 전문가는 무슨 의미인가? 여기서 중요한 구분이 생긴다. 지식의 전문가와 / 판단의 전문가는 다르다. AI가 대체하는 건 전자다. 의학 지식, 법률 지식, 세무 지식 이걸 암기하고 검색하고 적용하는 능력은 이미 AI가 인간을 앞선다. 하지만, '판단'은 다르다. 이 환자에게 이 치료를 강행할 것인가. 이 계약에서 법적으로는 맞지만 윤리적으로 문제가 될 소지를 어떻게 볼 것인가. 이 건물이 20년 후 이 도시의 풍경과 어울리는가. 이런 판단은 지식만으로 나오지 않는다. "수천 번의 실패와 맥락의 축적에서 나온다" 문제는 그 경계가 점점 좁아지고 있다는 거다. 도제식의 본질은 "시간을 팔아 판단력을 사는" 구조였다. 선배 옆에서 수년을 보내면 그의 판단 방식이 내 안에 들어온다. 하지만 지금 AI 에이전트는 그 판단 방식을 흉내 내는 수준을 넘어서고 있다. 법으로 보호받는 전문직들을 보자. 의사, 변호사, 회계사, 약사. 이 직업들은 국가 면허로 보호된다. AI가 아무리 똑똑해도 면허가 없으면 진료할 수 없고, 법정에 설 수 없고, 세무 신고에 서명할 수 없다. 당분간은 이 법적 장벽이 버텨줄 것이다. 하지만 이게 진짜 보호인지, 아니면 시간을 버는 것인지는 생각해볼 필요가 있다. 전문가의 시대가 끝나는 게 아니다. 지식만 가진 전문가의 시대가 끝나는 것이다. 판단하고, 책임지고, 사람을 마주할 수 있는 전문가의 시대는 이제 막 시작되는게 아닐까? 결국 매번 내가 포스트 하는 것은 이거다. 맥락과 맥락, AI가 못하는 판단, 시작과 끝은 인간이 해야한다는 것이다.
Cognac(꼬냑) tweet media
장코드@jsh3pump_

고액연봉 전문직으로 알려진 회계사들이 거리에서 북치며 시위중임 요즘 기업들이 AI때문에 신입 회계사들을 뽑지 않아서 취업하기가 하늘에 별따기라고 함 AI 발전으로 줄어드는 직장이 앞으로는 더 많아질 전망인데, 다들 본인 일자리는 안전한지 점검 한번씩 해봐야 할지도 모르겠음🥹

한국어
5
16
66
8.1K
콜 COLE
콜 COLE@JWMoonX·
맥미니 3대, Claude로 날씨 데이터 읽어서 $101K 벌었다는 글. 항공 기상 데이터 공개돼 있고 prediction market 가격 비효율도 실제로 존재하니까 이론상 말이 되긴 하는데.. 이게 진짜 재현 가능한 걸까요? 그냥 마케팅 글일까요?
Carver@carverfomo

A Chinese engineering student built a weather tracking station in his dorm. Three Mac Minis. Two monitors. Satellite maps on both screens. Labels on each box: UI/UX. DEV. ADMIN. Total cost under $2,000. His roommate thought it was a climate research project. His professors thought it was a thesis prototype. He let everyone keep thinking that. Then someone noticed what the station was actually connected to. A wallet. Making $101K. Betting on the temperature. ColdMath. $101,042 profit. 5,252 predictions. Joined November 2025. Bio: Edge Compounds. → @ColdMath?via=carverfomo" target="_blank" rel="nofollow noopener">polymarket.com/@ColdMath?via=… The station does one thing. Claude pulls live pilot weather data. Real sensors. Real readings. Updated every 1-3 hours from stations worldwide. Compares it to prediction market prices. When they don't match the DEV box flags it. Mismatch found. He places the trade. Green result. $25 on Tokyo hitting 16C on March 20. Payout: $12,452. $24 on Chicago reaching 54F on March 11. Payout: $12,398. $13 on Lucknow hitting 39C on March 7. Payout: $6,850. Twenty five dollar bets returning twelve thousand. On the weather. A friend who flies commercial told him pilots get atmospheric data hours before any public forecast. Temperature to a tenth of a degree. This data is free. Aviation safety requires it. Nobody outside of aviation even looks at it. He looked. Pointed Claude at the feeds. Said: find me every city where the forecast doesn't match the price. Claude found dozens. Every single day. His roommate saw the station running one morning and finally asked what it actually does. The student showed him the balance. The roommate didn't say anything. Just asked for a second monitor. 34K people watching. $96K still loaded in active positions. Three Mac Minis. Two screens. One quiet kid who realized the most predictable thing on Earth is the thing everyone ignores. The weather.

한국어
0
0
2
223
콜 COLE
콜 COLE@JWMoonX·
카파시 LLM 위키 포스트가 1300만 조회를 넘겼음. 코드 없음. 앱 없음. 설치할 것도 없음. AI한테 파일 던지고 요약 시키는 방식이 사실 비효율적이었다는 걸 다들 알고 있었기 때문임. 매번 새로 읽고, 매번 새로 연결하고, 쌓이는 게 없음. 카파시가 제안한 건 다름. AI가 읽을 때마다 그냥 답 뱉고 끝내는 게 아니라, 위키에 쌓아두는 것. 연결하고, 모순 찾고, 업데이트하고. 새 자료가 들어올수록 위키는 더 똑똑해짐. 근데 진짜 포인트는 따로 있음. 이 파일 자체가 코드가 아니라 아이디어임. 직접 실행하는 게 아니라 에이전트가 실행함. 오픈소스가 코드를 나눴다면, 다음은 아이디어를 나누는 거.
Andrej Karpathy@karpathy

LLM Knowledge Bases Something I'm finding very useful recently: using LLMs to build personal knowledge bases for various topics of research interest. In this way, a large fraction of my recent token throughput is going less into manipulating code, and more into manipulating knowledge (stored as markdown and images). The latest LLMs are quite good at it. So: Data ingest: I index source documents (articles, papers, repos, datasets, images, etc.) into a raw/ directory, then I use an LLM to incrementally "compile" a wiki, which is just a collection of .md files in a directory structure. The wiki includes summaries of all the data in raw/, backlinks, and then it categorizes data into concepts, writes articles for them, and links them all. To convert web articles into .md files I like to use the Obsidian Web Clipper extension, and then I also use a hotkey to download all the related images to local so that my LLM can easily reference them. IDE: I use Obsidian as the IDE "frontend" where I can view the raw data, the the compiled wiki, and the derived visualizations. Important to note that the LLM writes and maintains all of the data of the wiki, I rarely touch it directly. I've played with a few Obsidian plugins to render and view data in other ways (e.g. Marp for slides). Q&A: Where things get interesting is that once your wiki is big enough (e.g. mine on some recent research is ~100 articles and ~400K words), you can ask your LLM agent all kinds of complex questions against the wiki, and it will go off, research the answers, etc. I thought I had to reach for fancy RAG, but the LLM has been pretty good about auto-maintaining index files and brief summaries of all the documents and it reads all the important related data fairly easily at this ~small scale. Output: Instead of getting answers in text/terminal, I like to have it render markdown files for me, or slide shows (Marp format), or matplotlib images, all of which I then view again in Obsidian. You can imagine many other visual output formats depending on the query. Often, I end up "filing" the outputs back into the wiki to enhance it for further queries. So my own explorations and queries always "add up" in the knowledge base. Linting: I've run some LLM "health checks" over the wiki to e.g. find inconsistent data, impute missing data (with web searchers), find interesting connections for new article candidates, etc., to incrementally clean up the wiki and enhance its overall data integrity. The LLMs are quite good at suggesting further questions to ask and look into. Extra tools: I find myself developing additional tools to process the data, e.g. I vibe coded a small and naive search engine over the wiki, which I both use directly (in a web ui), but more often I want to hand it off to an LLM via CLI as a tool for larger queries. Further explorations: As the repo grows, the natural desire is to also think about synthetic data generation + finetuning to have your LLM "know" the data in its weights instead of just context windows. TLDR: raw data from a given number of sources is collected, then compiled by an LLM into a .md wiki, then operated on by various CLIs by the LLM to do Q&A and to incrementally enhance the wiki, and all of it viewable in Obsidian. You rarely ever write or edit the wiki manually, it's the domain of the LLM. I think there is room here for an incredible new product instead of a hacky collection of scripts.

한국어
0
0
2
158
콜 COLE
콜 COLE@JWMoonX·
@FransBakker9812 Fair. Either way, it feels like the “immaterial” label may be hiding more than the market has priced in.
English
1
0
4
147
Frans Bakker
Frans Bakker@FransBakker9812·
@JWMoonX Exactly, it's either very bullish, or possibly a bullish twist to a bearish underlying case.
English
2
0
17
1.3K
콜 COLE
콜 COLE@JWMoonX·
Great post @FransBakker9812. The multi-OEM angle is the really interesting part here. To me, the key question is whether the Lenovo capacity sits inside the previously disclosed $IREN fleet, or outside it. If it sits outside, the market may be missing undisclosed GPU purchases. If it sits inside, the market may still be missing how much monetization is already building inside what management flags as immaterial. Either way, the market may be systematically underpricing the revenue capacity that could show up from $IREN over the next few earnings reports.
Frans Bakker@FransBakker9812

$IREN x @Lenovo x $DELL My new theory. First: 1. Dan said on our space(1) 2 weeks ago: "you can certainly buy GPUs outside of $NVDA, and in fact we do, you buy them through the OEMs". 2. He also said that the new 10MW IT load data center in Prince George may be deployed as liquid-cooled for the "1,000" GB300s (1,200 actually bought, rounded down), or installed as air-cooled. "but it's immaterial either way". With this in mind, and looking at the Lenovo case, I am considering the following: 1. $IREN rounds down 1,200 GB300s to 1,000 GPUs, this makes 200 GB300s worth "nothing", and 1,200 or 1,000 GB300s "immaterial". 2. Material or immaterial is being compared to either the $MSFT contract (76k), or to the fleet (currently ~150k disclosed as purchased). 3. IREN never cared to announce that they would be delivering the first NVL72 GB300 cluster in Canada with Dell(2), it was probably immaterial as well. 4. Dell delivered(?) these systems as pre-configured and fully integrated Dell Integrated Rack Scalable Systems, making an overlap with Lenovo's ThinkSystem nodes extremely unlikely. Now we have to ask ourselves: 1. If 648 nodes of Lenovo's ThinkSystem SR680a V3 holds 8 units of B200 GPU each, we get to 5,184 GPUs. 2. These are already deployed per today (see quoted post below), and as Dan said on the same space: they don't have GPUs energized in data centers that are idle. 3. Is this in any way MNPI to disclose? Based on all of the above, I think we can conclude that: 1. IREN didn't disclose a separate purchase of 5,184 B200s related to the Lenovo deployment. 2. 5,184 GPUs are probably immaterial for IREN compared to a fleet of 150k+ GPUs. 3. The purchase price of 648 complete SR680a nodes with B200 GPUs is probably around $350m, this is most likely immaterial for IREN with almost $10B of financing behind them. So: 1. IREN most likely didn't include these GPUs in their ARR guidance, as they were all based on Dell purchases that were disclosed. 2. So, these new GPUs could very well be deployed in their immaterial 10MW data center, and we would never know. 3. If so, these are not sitting idle, but are probably rented out for 3,4,5 years to AI natives and/or enterprises, forcing no MNPI disclosure either. 4. Even so, 5,184 B200s at $3.5 per GPU hour, would bring in ~$158m in ARR. 5. The additional 600x8 = 4,800 B300s at $4 per GPU hour, could bring in another ~$168m of ARR. I think it's completely plausible that $IREN has bought multiple smaller batches of <10k GPUs from different OEMs and other cloud providers, without telling the market. This Lenovo "discovery", was probably by request from, or a contractual obligation to Lenovo. IREN is setting up for a surprise to the upside in the coming 2,3 earnings reports. I have satellite imagery that confirms there is construction happening in Mackenzie, which could mean another "immaterial" data center is being contructed. I think we know now why we have a $6B ATM. I think they will tap this to pay for small <$500m purchases of GPUs to deal with the memory constraints, without having to access the debt markets. By the same token, they can tap the ATM to pay for the construction of these immaterial data centers, with possibly incremental immaterial megawatts. Everything is immaterial if it's small by comparison to the disclosures. IREN is here to fuck spiders, but they won't tell us about it. Not because they are shy, but because it's not going to move the needle. What it will move, is the revenue by aggregate, and the earnings surprise to the upside. The only thing that bothers me though, is the fact that Dell said in November 2025 that they will deploy Canada's first GB300 cluster with IREN, but Dan Roberts said 2 weeks they aren't sure what they will do with those "1000" GB300s they bought. Would Dell leave this on their website, if it never actually happened? I still lean to the "incremental OEM supplier" theory, and not to the "substitute OEM supplier". Typically IREN will disclose GPU purchases in their quarterly earnings reports, or their management discussion of the period. If not, I think this would make for a good analyst question. I am always very critical of lacking data points of the companies I invest in. For this reason (amongst others), $NBIS is uninvestible for me. $IREN on the other hand, claims they disclose much more than their competitors, and in a way that's true. But since we as retail investors are used to having the tools to calculate the future earnings, it's becoming quite hard to be precise enough, as the degree of immateriality is increasing, and there is basically an entire shadow operation going on outside of the disclosed projects and guidance. Many people like to blame IR. But I think this is a company culture "issue", if anything. But where we see a future of high margin earnings, the market sees a glass that is half empty. To be invested in $IREN, you need to have conviction, patience, and understanding. We do our best on here, to cover what we can find. But at the end of the day, the EPS will tell the story, and if IREN has indeed utilized their different OEM partners to deal with the time-to-GPU issue, then we will be rewarded to the upside. I'm long IREN, and I think 2026 will be our inflection year.

English
1
0
15
2.8K
콜 COLE
콜 COLE@JWMoonX·
$ONDS put up record results and guided to at least $375M in 2026. That’s a massive step-up from 2025. The debate now is simple: is this the start of a real scale story, or is the market getting ahead of execution?
콜 COLE tweet media
English
1
0
5
513
콜 COLE
콜 COLE@JWMoonX·
⚡️JUST IN: $CIFR announces another long-term hyperscaler deal. AWS: 15 years Fluidstack: 10 years New tenant: 25 years Premarket reaction: +11%.
콜 COLE tweet media
English
0
0
3
343
콜 COLE
콜 COLE@JWMoonX·
You don't sign 10 to 25-year deals unless the asset is genuinely scarce. That's the part the market may still be underestimating about $CIFR. In AI, access to power and deliverable capacity is starting to matter more than the label these companies used to trade under.
Small Cap Snipa@SmallCapSnipa

$CIFR ANNOUNCES THIRD DATA CENTER CAMPUS LEASE: Cipher Digital just locked in its third hyperscaler tenant • AWS - 15 years/$5.5B • Fluidstack - 10 years/$9B with extensions • TBA - 25 years Demand for compute isn’t just strong, it’s being contracted for decades in advance

English
0
0
4
151
콜 COLE
콜 COLE@JWMoonX·
@barkmeta Jensen hedged immediately after. No definition, no formal evidence. Private AI capex and public infrastructure budgets come from completely different buckets. That's not how capital works. Stacking unrelated grievances isn't analysis. It's a panic thread.
English
0
2
20
3.5K
Bark
Bark@barkmeta·
Let me explain what just happened👇 Nvidia's CEO just said they've achieved AGI. AGI doesn't just write text or make images. AGI can think, reason, and perform ANY job better than an actual human. Now look at what's happening around you... Gas is at record prices. Groceries are unaffordable. The housing market is frozen. We're in a war that's cost $16 billion in 3 weeks. The market is being insider traded more than ever. Americans are being told to exercise caution everywhere on earth. Everything is falling apart for regular people. And in the middle of all of it... they're spending TRILLIONS on AI. Data centers the size of Central Park. Every company on earth racing to deploy it as fast as possible. Your roads are crumbling. Your schools are broke. Your healthcare doesn't work. But they found unlimited money for this. Unlimited. Now ask yourself why... They're not building this to help you. Look around. Does any of this look like it's for you? They're building this to REPLACE you. Every company that replaced workers with AI this year saw their stock go up. Every single one. The market is literally paying them to get rid of you. And today the man who sold every chip powering all of it just told you AGI is here. This was never about innovation. This was never about making your life better. It was about building a world that doesn't need you in it... The great reset is no longer a conspiracy theory... it’s HERE.
Polymarket@Polymarket

BREAKING: NVIDIA CEO announces “we’ve achieved AGI”

English
564
2K
7.4K
1.1M
콜 COLE retweeté
McFly
McFly@ilzmcfly·
3 New Things we found out are happening at $IREN from the @NVIDIAGTC Conference. 1. Nvidia is working closely with Iren on their Datacenters. 2. Nvidia is working closely with Iren on the future of their software platform. 3. Multiple new FTM sites in development world wide. IREN is going global and fully immersing themselves in the world of AI as a true vertically integrated Hyperscaler.
McFly tweet media
English
4
9
81
5.5K
콜 COLE retweeté
재붕이_Jin
재붕이_Jin@GyujinAAIG·
< My projected $IREN price target — conservative case > If $IREN supplies approximately 600MW across McKenzie, Canal Flats, Horizon 5–10, and Sweetwater 1, what would the required CapEx look like? McKenzie + Canal Flats 110MW, PUE 1.1, IT load 100MW Available B300 count: ~51,813 units GPU unit price assumed at $70K (based on details of the recent GPU procurement deal) GPU cost: $3.63B Retrofit CapEx assumed at $4M/IT MW DC infrastructure cost: $0.40B = $4.03B Horizon 5–10 450MW, PUE 1.5, IT load 300MW B300 GPU count: 155,440 units GPU cost: $10.88B Retrofit CapEx at $5M/IT MW (slightly higher given Texas characteristics) DC infrastructure cost: $1.50B = $12.38B Sweetwater 1 600MW, PUE 1.5, IT load 400MW No precedent for a Vera Rubin contract, so using GB300 as the basis Based on the existing $MSFT contract, ~152,000 GB300 units deployable Assuming GPU prices have risen 20% since the $MSFT contract was signed (originally 76K at $5.8B) GPU cost: $13.92B Liquid-cooled DC construction cost also increased from $15M/IT MW to $17M/IT MW DC infrastructure cost: $6.80B = $20.72B Total: $37.13B Assuming 95% of GPU procurement cost is covered by prepayments and GPU financing — as precedented by the $MSFT deal — at a blended 4% interest rate: Total GPU cost: $28.43B 5% equity portion required: $1.42B DC infrastructure also needs to be funded: $8.70B Total funding required: $10.12B Convertible notes vs. ATM at roughly a 3:1 ratio (based on precedent): → $7.5B in converts + $2.5B ATM Under this scenario: Total Debt: ~$38.6B, Equity: ~$5.04B D/E ratio: ~7.66x CoreWeave is currently running at ~8.9x D/E, so this isn't unreasonable — and since this calculation doesn't account for any operating cash flows from either the data center or BTC business, the actual D/E ratio would be lower. In other words, instead of panicking about the $6B ATM shelf increase, the right question is: how much of the buildout does the ATM actually cover? Based on maximum potential dilution from all converts issued to date, there are roughly 410M shares outstanding. So how much dilution does "$7.5B converts + $2.5B ATM" actually imply? I can't calculate this precisely, but here's a conservative scenario: New $7.5B converts structured similarly to the recently-maturing 32/33 converts: Conversion price: ~$51.88 (25% premium to current price) Cap price: ~$83 (100% premium) $2.5B ATM issued in tranches as the stock price rises As the stock price rises: dilution from cap-exceeded converts increases, while ATM-driven dilution decreases — they partially offset. Estimated incremental dilution: ~100–150M shares Conservative case with full dilution of existing converts: 410M shares + 150M new shares = 560M shares So my core question is this: If $IREN executes on McKenzie, Canal Flats, Horizon 5–10, and Sweetwater 1's 600MW How much could $IREN's market cap grow? Will market cap growth outpace dilution growth? The original $3.4B ARR figure covered Prince George, Horizon 1–4, and McKenzie/Canal Flats. Now add Horizon 5–10 and Sweetwater 1's 600MW. Available B300 GPUs for Horizon 5–10: ~150,000 units B300 rental rates are trending up, as visible in attached charts On-demand average recently bottomed around $7.17 Apply a 60% discount ($CRWV) for long-term contracts → Horizon 5–10 ARR: ~$3.7B For Sweetwater 1's 600MW, applying the same 20% GPU price appreciation used in cost assumptions: → Sweetwater 1 ARR: ~$4.65B Total ARR once all sites are fully operational:$3.4B + $3.7B + $4.65B = $11.75B I believe this ARR could realistically hit the books by late 2027 to early 2028. (My working timeline: 2026: Canadian DCs fully operational + Horizon 1–4 fully operational + partial Horizon 5–10 online 2027–early 2028: Full Horizon 5–10 + Sweetwater 1 600MW operational — build speed accelerates given prior liquid-cooling construction experience; GPU procurement speed remains a variable) $CRWV is currently trading at ~3.2–3.5x 2026E revenue (forward multiple compressed to reflect high growth already priced in). $IREN's 2028E revenue floor: ~$11.75B(additional upside exists but excluded here — only the above sites considered) Applying a 4x multiple (justified by: vertical integration advantage vs. $CRWV, more growth runway remaining vs. $CRWV, cleaner expected debt structure vs. $CRWV): Market cap = $47B Share count = 560M Implied price target = $83.9 Therefore, evaluating $IREN solely on the execution of the above buildout, my base case price target for late 2027 to early 2028 is $83.9 (some may call this a bull case — I treat it as my base). Value not captured in the above: 1. Sweetwater 2's 600MW expected to energize in 2028 2. Assumed zero improvement in contract economics vs. the $MSFT deal (important caveat: that contract was signed before any hyperscaler precedent or demonstrated uptime — economics should improve) 3. Remaining 800MW at Sweetwater 1 (frankly, I don't think all 600MW will be contracted on GB300 terms — I used GB300 purely for simplicity; a Vera Rubin contract would imply even greater value) 4. Oklahoma's 1.6GW site, substation energization expected in 2028 5. Horizon 5–10 B300 rental rate floored very conservatively at $2.86/hr — given the current upward trend in rental rates, is this sustainable? 6. The full $10.12B funding requirement is modeled as 100% converts + ATM with zero contribution from BTC or data center operating cash flows — this is intentionally the most conservative possible assumption. Bear Case Risk Factors 1. ARR-to-revenue recognition timing risk — delays in converting the $11.75B ARR into recognized revenue push back the timeline for applying the target multiple, delaying the intended price target realization 2. GPU procurement timeline risk — failure to secure GPU supply on schedule directly delays price target realization 3. FCF conversion delay risk — the sheer weight of debt obligations may significantly push out the timeline to free cash flow generation 4. Multiple compression risk — some exogenous or sector-specific development triggers a broad de-rating across the neocloud space 5. ATM dilution risk — if the stock price fails to appreciate meaningfully, ATM issuances occur at lower prices, resulting in greater-than-modeled share count dilution 6. Sweetwater 1 contract execution risk — the 600MW contract may not materialize, or may come in at a smaller scale than assumed 7. Timeline deviation risk — the overall buildout and ramp trajectory may not unfold as modeled, compressing or eliminating the assumed valuation upside within the target window Not financial advice Feedback welcome. If you spot any errors in the calculations, please call them out.
재붕이_Jin@GyujinAAIG

< 내가 생각하는 $IREN 예상 주가 , 보수적 > $IREN 이 mckenzie, canal flat, horizon 5-10, sweetwater 1의 600MW 가량을 공급한다고 할 때 필요한 CapEx는 얼마정도일까? Mckenzie + Canal flat 110MW, PUE 1.1, IT load 100MW B300 가용 숫자는 51813대 가량 GPU 단가는 $70K로 가정(이번 GPU 확보 딜 세부내용 참고) GPU 비용은 $3.63B retrofit capex 는 IT MW 당 $4M/MW으로 가정한다 DC 인프라 비용은 $0.40B = $4.03B Horizon 5-10 450MW, PUE 1.5, IT load 300MW B300 GPU 155440대 GPU 비용은 $10.88B retrofit capex는 텍사스 특성 상 더 여유롭게 $5M/MW로 계산 DC 인프라 비용은 $1.50B = $12.38B Sweetwater 1 600MW, PUE 1.5, IT load 400MW Vera rubin 계약은 선례가 없으니 GB 300 전제로 이전 $MSFT 와의 계약 기반으로 GB 300 152000대 가용 $MSFT 와 계약 시점에서 시간이 지나서 GB 300 가격은 20% 인상 (원래는 76K에 $5.8B) GPU 비용은 $13.92B 액냉식 DC 건설비 역시 IT load 1MW 당 $15M 에서 $17M으로 인상 DC 인프라 비용은 $6.80B = $20.72B 다 합치면 $37.13B GPU 조달 비용의 95%는 $MSFT 와의 선례와 마찬가지로 선급금과 GPU 파이낸싱으로 커버한다고 가정해보자(총 합해서 4%의 금리) GPU 비용은 총 $28.43B 그 중 5%인 $1.42B 는 조달 필요 DC 인프라 비용 역시 충당 필요 $8.7B 도합 $10.12B 조달 필요 전환사채와 ATM은 3:1 정도의 비율로 조달(선례를 바탕으로) $7.5B 전환사채 $2.5B ATM 필요 해당 시나리오 적용하면 총 Debt는 $38.6B, Equity는 $5.04B Debt/Equity ratio : 약 7.66x Coreweave 가 현재 D/E 8.9x 정도이니 못할 것도 없고 해당 계산식은 $IREN 이 데이터센터나 BTC에서 나오는 영업 현금흐름은 고려하지 않았기에 Debt/equity ratio는 더 낮아질것임 즉, $6B ATM 한도를 올린거에 겁 먹을게 아니라 ATM 의 규모가 어느정도 사업까지를 커버할지를 봐야하는거임 현재 기준 여태까지 쓴 전환사채 최대 잠재 희석 수를 고려하면 대략 410M개 가량의 주식 그러면 '$7.5B 전환사채 $2.5B ATM'으로 얼마만큼의 주식이 희석될까? 이건 내가 정확히 구할 수는 없지만 시나리오는 짜볼 수 있음(보수적으로) 신규 전환사채 $7.5는 최근 32/33 만료되는 전환사채처럼 현재 주가 기준에 전환가 프리미엄 25% 정도 붙여서 conversion price : $51.88 cap price: 100% 프리미엄 붙여서 $83 ATM $2.5B 는 주가 오를 때마다 분할 발행 주가가 오르면 전환사채 cap 초과분의 희석 발생은 증가하고 ATM으로 인한 희석 발생은 감소하는 구조 대략 100-150M개 희석 될 것으로 보임 그럼 보수적으로 기존 전환사채 전부 희석된다고 하면 주식 수 410M개 거기다가 최대 150M개 더 얹어서 560M개 그러면 내 질문은 이거다 $IREN 이 Mckenzie, Canal flat, horizon 5-10, sweetwater 1의 600MW 계약이 이행된다면 $IREN 의 시가총액은 몇 배 정도 커질까? 희석 증가율을 능가하는 시가 총액 증가율이 나올까? 원래 $3.4B ARR = Prince george, Horizon 1-4, Mckenzie/Canal flat이었는데 여기에 horizon 5-10, sweetwater 1 600MW가 더 들어온다 5-10에 가용할 수 있는 B300 GPU 갯수는 대략 15만개 현재 B300 임대료는 첨부한 그림에서 알 수 있듯이 증가 추세 특히 on demand average price가 최근 저점 기준 $7.17 장기계약이니까 여기에 60% 할인한 값을 적용 그럼 horizon 5-10에서 나오는 ARR은 $3.7B가량이 나옴 sweetwater 1 600MW에서 나오는 ARR은 $MSFT 계약 기반 GPU 가격 상승률 고려해서 ARR도 +20% 증가시키면 $4.65B 가량 나옴 그러면 해당 사업들이 모두 진행됐을 때 ARR은 $3.4B + $3.7B + $4.65 = $11.75B임 나는 27년 연말~28년초까지 해당 ARR이 실제 장부에 찍힐 수 있는 ARR이라고 생각함 (내가 생각하는 타임라인 26년 캐나다 데이터센터 운영 완료 + horizon 1-4 운영 완료 + horizon 5-10 일부 운영 완료 27년-28년 초 horizon 5-10 전체 운영 완료 + sweetwater 1 600MW 운영 완료, 특히 액냉식 데이터센터 건설 경험이 있는 상태에서 속도는 더 빨라진다는 가정, GPU 조달 속도는 변수) $CRWV 의 26E 매출 기준 P/S = 3.2~3.5x(고성장 반영돼서 forward multiple이 압축된 상태) $IREN 의 28E 매출 하방이 $11.75B 정도 (+당연히 추가여력은 더 있지만 언급한 사업들만 고려하겠음) 멀티플 '4' 부여( $CRWV 대비 수직통합 이점, 현재 $CRWV 보다 성장 여력 더욱 남아있음, $CRWV 보다 부채 구조 깨끗할 예정) Makret cap = $47B 주식 수 = 560M 예상 주가 = $83.9 고로 내가 위 사업이 실현됐을 때만 가지고 $IREN 의 가치를 판단한다면 27년 연말-28년 초 주가는 $83.9 (누군가는 이게 bull case라고 하겠지만 나한테는 base case다 ) --- 위 계산에서 고려되지 않은 $IREN 의 가치 1) 28년에 energization 될 600MW의 sweetwater 2 2) sweetwater 1에서 $MSFT 계약 대비 경제성의 개선이 아예 없다는 전제로 가정(하이퍼스케일러 첫 계약 및 uptime 입증되지 않은 상태에서의 계약이라는 점 고려해야함) 3) sweetwater 1의 나머지 800MW의 가치(솔직히 나는 600MW가 GB300으로 계약된다고 생각하지는 않음, 그냥 단적인 예시를 들려고 GB300을 가져온거임, 젤 계산하기 편하니까, Vera rubin 계약하면 가치는 더 커질거임) 4) 오클라호마 1.6GW 사이트 28년 substation enerization 예정 5) horizon 5-10 의 B300 GPU 임대료도 최대한 싸게 계산함($2.86), 지금 점차 임대료가 증가하는 추세에서 이게 유지될까? 피드백 환영, 계산 지적해주면 감사합니다

English
11
13
106
70K