Legit_kuzzy
40.5K posts

Legit_kuzzy
@Legit_kuzzy
Soft boy 🥷🏾❤️…. Trading & Web 3 💯🥷🏾





GM CT 🌞 Early alpha: track emerging tokens today using @GlintAnalytics dashboards. Stay ahead. #GlintAnalytics #Web3Research #GM



탈중앙 AI 신뢰 시스템 비교: @SentientAGI , @OpenGradient , @inference_labs 이 글은 공개 문서와 공식 발표에서 사실로 확인되는 범위 안에서 세 프로젝트가 "분산된 환경에서 AI를 어떻게 믿게 만드는가"를 비교한다. Sentient는 오픈소스 AI를 배포하면서도 소유권과 사용 정당성을 확인하려는 방향으로 설계된 프로젝트로 알려져 있다. Sentient 관련 핵심 기술로는 OML(Open, Monetizable, Loyal)이라는 프레임이 문서화되어 있으며 이 논문은 모델 지문화(model fingerprinting)를 포함한 접근을 설명한다. OML 논문은 2024년 11월 1일자로 arXiv에 공개되어 있고 AI 공격 기법으로 알려진 데이터 포이즈닝을 소유권·무결성 확인에 활용하는 발상을 소개한다. Sentient의 자금 조달은 2024년 7월 2일 보도로 8,500만 달러 규모 시드 라운드가 전해졌고, 공동 리드 투자자로 Founders Fund, Pantera Capital, Framework Ventures가 언급된다. 또한 Sentient는 자사 블로그에서 베타 단계의 Sentient Chat 지표로 29만 명 이상의 고유 사용자와 2,200만 건 이상의 질의 응답을 공개했다. 모델 측면에서는 Dobby 계열 모델 페이지에서 'Fingerprinting'이라는 개념을 설명하며 커뮤니티 소유와 거버넌스 비전을 서술하고 있다. 이처럼 Sentient의 신뢰 설계는 "모델 자체에 식별 신호를 심어 두고 그 신호를 통해 정당한 계보와 사용을 확인한다"는 문서화된 방향성이 특징이다. 토큰 표기는 $SENT 로 널리 알려져 있으나 토큰 가격이나 상장 여부처럼 변동성이 큰 내용은 여기에서 사실로 단정하지 않는다. OpenGradient는 검증 가능한 AI 추론과 인프라를 블록체인 상에서 다루겠다는 목표를 전면에 내세운 프로젝트로 공식 블로그에서 Nova Testnet을 2025년 6월 3일에 소개했다. 또한 OpenGradient는 8.5백만 달러 시드 펀딩 유치를 공식 블로그 'News' 카테고리에서 공지했다. 개발자 연동 측면에서는 문서에서 Python SDK 튜토리얼을 제공하고 GitHub에 SDK 저장소를 공개해 플랫폼 접근 방식을 안내한다. 즉 OpenGradient의 신뢰 설계는 "네트워크 차원의 테스트넷과 개발 도구를 먼저 깔아 두고 검증 가능한 추론을 제품 형태로 연결한다"는 공개 자료가 확인된다. Inference Labs는 'Proof of Inference'라는 표현으로 중요한 AI 출력에 암호학적 증명을 붙이는 방향을 전면에 제시한다. 또한 Bittensor 생태계의 Subnet 2와 관련된 오픈소스 저장소를 통해 'Proof-of-Inference' 구축 시도를 공개하고 있다. Inference Labs는 Inference Network 백서를 PDF로 공개하고 영지식 기반 접근을 포함해 AI 추론을 검증 가능한 형태로 만들려는 개념과 배경을 정리한다. 한편, 온라인에서 종종 언급되는 "증명 생성 규모" 같은 수치는 공식 문서에서 동일하게 확인되지 않는 경우가 있어 여기에서는 사실로 확정하지 않고 설계 방향과 공개된 문서만으로 비교한다. 참고로 Bittensor에서는 보상 단위로 $TAO 가 사용되는 것으로 널리 알려져 있으나 이 글은 특정 발행량·보상률 같은 변동 지표를 단정하지 않는다. 정리하면, Sentient는 OML 논문과 Dobby 모델 문서에서 확인되듯 "모델 지문화 기반의 소유권·정당성 확인"을, OpenGradient는 Nova Testnet 및 SDK 공개에서 보이듯 "검증 가능한 추론을 위한 네트워크·개발자 스택 구축"을, Inference Labs는 'Proof of Inference'와 백서·Subnet 2 공개에서 드러나듯 "암호학적 증명으로 출력 신뢰를 고정하는 검증 인프라"를 각각 핵심 축으로 삼는다. 같은 '탈중앙 신뢰'라는 목표를 향하지만 문서로 확인되는 접근의 초점은 모델 자체, 실행 인프라, 증명 시장이라는 서로 다른 층위에 놓여 있다는 점이 가장 또렷한 차이다.








Everyone keeps talking about AI like it lives only on screens. Dashboards, chats, prompts, tokens. But the real leap happens when intelligence leaves the browser and starts moving around in the physical world. That’s where @openmind_agi quietly fits in. The idea isn’t to build another robot, it’s to build the brain layer robots actually need. A shared operating system where machines can see, reason, act, and then learn from what just happened. OM1 handles the intelligence side, while FABRIC connects robots into a network so skills, data, and experience don’t stay locked inside one machine. What’s wild is how this changes scale. A robot learns a task in one factory, lab, or home, and that knowledge can flow across the network. Less retraining, less downtime, faster improvement. Over time, you don’t just get smarter robots, you get a smarter system of robots. There’s also a real incentive loop here. When robots perform useful work, value can be tracked and distributed back to the people building, deploying, and improving them. Learning isn’t free anymore, it’s rewarded. That’s a big shift from closed robotics stacks where only the company benefits. Robotics has been waiting on this layer for years. Hardware is catching up, models are powerful enough, and now the missing piece is coordination. If physical AI is the next wave, this is the kind of infrastructure it runs on.






Most of us have said “I’ll build something in Web3” and then closed the tab after seeing the setup. That’s why @CodeXero_xyz caught my attention. It removes that mental barrier between idea and execution. You’re not fighting tooling. You’re actually building. Add @wallchain into the mix and now learning becomes visible. Effort compounds. Consistency matters. I like platforms that don’t make you feel behind before you even start. CodeXero feels welcoming without being dumbed down. That balance is rare.







关于 Inference Labs 的中文介绍 Inference Labs 专注于让 AI 智能体在现实世界中变得可信。其使命是通过在 AI 系统部署后 持续对其进行审计 监控和验证 以确保它们的行为符合预期。 Inference Labs 的核心在于推动 场范式转变 我们不应再单纯相信模型自身的承诺或声明 而必须通过独立 客观的技术手段来确保其可靠性与责任。换言之 他们正在改变整个游戏规则。








Goodnight fam Last update before bed FERRA X KAITO UPDATE 1. Ferra is now part of an active Kaito creator campaign (started Dec 10, 2025). 2. Top performers earn rewards from Ferra’s future token allocation based on leaderboard results. 3. This is a new social + rewards integration expanding Ferra’s presence in the broader Web3 attention economy via Kaito’s AI-driven platform. If you’ve been yapping on Kaito already, @ferra_protocol is now one of those projects that can make your effort worthwhile. Early participation always matters 👀.







