norfrun (✱,✱) ||

1.6K posts

norfrun (✱,✱) || banner
norfrun (✱,✱) ||

norfrun (✱,✱) ||

@norfrun

HODL #ETH #SUI Contribute @axisrobotics

Entrou em Aralık 2021
204 Seguindo121 Seguidores
Tweet fixado
norfrun (✱,✱) ||
Hôm nay xem lại Rewards System thấy cơ chế tính điểm của Axis như sau: ✨Mỗi task hoàn thành trên AXIS Hub sẽ tạo ra data entry độc lập, được đánh giá tự động qua multi-stage (sanity check, rule-based, VLM, peer review) → gán rating Good/Great/Perfect. ✅Perfect = tối ưu tốc độ + mượt mà + không lãng phí motion → reward cao nhất ✅Reward scale theo chất lượng + độ khó task (sao cao, featured, slot ít) ✅Hoàn thành task nhận Points ngay lập tức. Sau này sẽ có revenue sharing + token on-chain 💡Dựa vào thông tin Leaderboard thì mình hiểu là xếp hạng theo data entry, không phải số lượng người hoàn thành → nghĩa là 1 người có thể chiếm nhiều vị trí top của cùng 1 task nếu submit nhiều trajectory chất lượng. @axisrobotics
norfrun (✱,✱) || tweet media
Tiếng Việt
3
0
2
41
Axis Robotics
Axis Robotics@axisrobotics·
Axis Tech Update: From Action Replay to State Replay We've upgraded our backend replay mechanism from action replay to state replay. This can be summarized in 3 steps: - Record state (retain full info) - Compress representation (reduce cost) - Physics consistency validation (remove anomalies) Here is the research behind it: I. Action Replay Fails in Long Tasks Our goal was to enable zero-barrier web teleoperation of robots, seamlessly migrating data to servers for training and cross-sim replay. The pipeline spans multiple environments: User Browser (WASM) ➡️ Server Sim (Python MuJoCo) ➡️ Target Sim. Initially, we used Action Replay (recording commands and replaying them), but success rates dropped drastically as tasks got longer. II. The Root Cause: Underlying Differences in Simulators This error stems from the underlying heterogeneity across simulation environments. Different simulators have micro-differences in numerical precision, physics solver logic, time steps, and collision handling. In dynamical systems, these micro-errors are continuously amplified during time integration. State evolution is recursive: [Current State + Current Action ➡️ Next State]. A tiny deviation early on shifts the contact point, altering collision feedback. Eventually, the trajectory branches off irreversibly. Meaning: The same actions don't yield the same results across different sims. Relying solely on action sequences cannot guarantee reproducible physical trajectories. III. State Replay and New Challenges We shifted our paradigm to State Replay. Instead of recording "what actions were executed," we record "what physical states the system actually experienced." By recording full environment snapshots and loading them during replay, we bypass re-calculating the causal chain. This brought 2 new challenges: 1️⃣ Data Volume: We redesigned data structures to compress 1s of trajectory to ≈ 1KB. 2️⃣ Cheating Risks: Users could fake intermediate trajectories (see our recent anti-bot update). To fix this, we introduced Physical Consistency Validation. The physics engine acts as a referee, enforcing strict constraints: Extract [State + Action] ➡️ Run 1 server sim step ➡️ Get predicted state ➡️ Compare with recorded state. If the error exceeds the threshold, it's rejected. IV. A Higher-Level Perspective: A Denoising Problem From a higher perspective, cross-sim replay actually deals with noisy trajectory data (Real Trajectory + Cross-Sim Error). Our goal is to restore a physically consistent trajectory despite these inherent errors. We accept the inevitable biases between different simulators. Through state recording, compressed representation, and step-by-step physics validation, Axis guarantees trustworthy results. 🔵 To visualize the impact of this upgrade, check out the performance breakdown below. The table compares the success rates of Action Replay vs. State Replay across various tasks.
Axis Robotics tweet media
English
52
38
115
2.7K
Le Hoai 🟨
Le Hoai 🟨@lehoai61·
Bản cập nhật công nghệ lần này của @axisrobotics không chỉ là cải tiến, mà là xử lý vấn đề cốt lõi. Điều dễ thấy là Axis vẫn đang cập nhật liên tục và hoàn thiện từng ngày. Nhưng nếu nhìn kỹ, đây không phải thay đổi bề ngoài, mà là nâng cấp vào phần lõi của hệ thống. Song song đó, Axis triển khai cơ chế chống bot để loại bỏ gian lận, đảm bảo dữ liệu thu về là thật và dùng được để train. Đây thường là cách làm của những dự án đi đường dài: ưu tiên chất lượng dữ liệu, thay vì chạy theo số lượng hay tăng trưởng ảo. Bullish Axis Robotics. @axisrobotics
Le Hoai 🟨 tweet media
Axis Robotics@axisrobotics

Axis Tech Update: From Action Replay to State Replay We've upgraded our backend replay mechanism from action replay to state replay. This can be summarized in 3 steps: - Record state (retain full info) - Compress representation (reduce cost) - Physics consistency validation (remove anomalies) Here is the research behind it: I. Action Replay Fails in Long Tasks Our goal was to enable zero-barrier web teleoperation of robots, seamlessly migrating data to servers for training and cross-sim replay. The pipeline spans multiple environments: User Browser (WASM) ➡️ Server Sim (Python MuJoCo) ➡️ Target Sim. Initially, we used Action Replay (recording commands and replaying them), but success rates dropped drastically as tasks got longer. II. The Root Cause: Underlying Differences in Simulators This error stems from the underlying heterogeneity across simulation environments. Different simulators have micro-differences in numerical precision, physics solver logic, time steps, and collision handling. In dynamical systems, these micro-errors are continuously amplified during time integration. State evolution is recursive: [Current State + Current Action ➡️ Next State]. A tiny deviation early on shifts the contact point, altering collision feedback. Eventually, the trajectory branches off irreversibly. Meaning: The same actions don't yield the same results across different sims. Relying solely on action sequences cannot guarantee reproducible physical trajectories. III. State Replay and New Challenges We shifted our paradigm to State Replay. Instead of recording "what actions were executed," we record "what physical states the system actually experienced." By recording full environment snapshots and loading them during replay, we bypass re-calculating the causal chain. This brought 2 new challenges: 1️⃣ Data Volume: We redesigned data structures to compress 1s of trajectory to ≈ 1KB. 2️⃣ Cheating Risks: Users could fake intermediate trajectories (see our recent anti-bot update). To fix this, we introduced Physical Consistency Validation. The physics engine acts as a referee, enforcing strict constraints: Extract [State + Action] ➡️ Run 1 server sim step ➡️ Get predicted state ➡️ Compare with recorded state. If the error exceeds the threshold, it's rejected. IV. A Higher-Level Perspective: A Denoising Problem From a higher perspective, cross-sim replay actually deals with noisy trajectory data (Real Trajectory + Cross-Sim Error). Our goal is to restore a physically consistent trajectory despite these inherent errors. We accept the inevitable biases between different simulators. Through state recording, compressed representation, and step-by-step physics validation, Axis guarantees trustworthy results. 🔵 To visualize the impact of this upgrade, check out the performance breakdown below. The table compares the success rates of Action Replay vs. State Replay across various tasks.

Tiếng Việt
13
0
23
374
norfrun (✱,✱) ||
Hoặc như mình test đối với cùng 1 task, cùng 11 giây nhưng số point chênh nhau gần 20 điểm 👉Đây là minh chứng rõ: ✅Axis không tính point dựa vào thời gian, mà chủ yếu dựa vào chất lượng trajectory. ✅Trajectory nào mượt hơn, ít wasted motion hơn, joint usage (khớp di chuyển của robot) tối ưu hơn, chuyển động tự nhiên hơn → sẽ được Perfect và nhận point cao hơn rất nhiều. ✅Dù làm xong chỉ trong 11 giây nhưng chuyển động còn thừa, giật, hoặc chưa tối ưu → point vẫn bị mất khá nhiều ✨Muốn point cao ổn định thì nên tập trung làm chất lượng - làm mượt - làm tối ưu mỗi chuyển động. My referral: hub.axisrobotics.ai/login?invite_c… @axisrobotics #PhysicalAI
norfrun (✱,✱) || tweet media
Tiếng Việt
0
0
0
20
norfrun (✱,✱) ||
🤔Thắc mắc về point: Các task Rearrange Three Items 3, Rearrange Three Items 7 và Sort Sneaker and Mug đều có độ khó là 2 sao. ✅Cùng task thời gian gần như nhau nhưng point vẫn chêch nhau khá nhiều. Nhìn 2 task Rearrange Three Items: • Task 3: 28 giây → 36.5 point • Task 7: 27 giây → 57.9 point 👉Chỉ khác nhau 1 giây nhưng point chênh 21.4 point • Còn Sort Sneaker and Mug: mất 2 phút 20 giây mới hoàn thành nhưng vẫn được 40.3 point Qua đây thấy cơ chế tính point: ✅Thời gian chỉ là 1 phần → Axis đánh giá point chủ yếu dựa trên chất lượng trajectory. ✅Task khác nhau thì cơ chế tính điểm khác nhau (Ví dụ như task Rearrange và Sort là khác nhau hoàn toàn) → thang điểm reward khác nhau (độ phức tạp, số vật thể, chuyển động cần thiết…)
norfrun (✱,✱) || tweet medianorfrun (✱,✱) || tweet medianorfrun (✱,✱) || tweet media
Tiếng Việt
1
0
0
21
norfrun (✱,✱) ||
Hôm nay xem lại Rewards System thấy cơ chế tính điểm của Axis như sau: ✨Mỗi task hoàn thành trên AXIS Hub sẽ tạo ra data entry độc lập, được đánh giá tự động qua multi-stage (sanity check, rule-based, VLM, peer review) → gán rating Good/Great/Perfect. ✅Perfect = tối ưu tốc độ + mượt mà + không lãng phí motion → reward cao nhất ✅Reward scale theo chất lượng + độ khó task (sao cao, featured, slot ít) ✅Hoàn thành task nhận Points ngay lập tức. Sau này sẽ có revenue sharing + token on-chain 💡Dựa vào thông tin Leaderboard thì mình hiểu là xếp hạng theo data entry, không phải số lượng người hoàn thành → nghĩa là 1 người có thể chiếm nhiều vị trí top của cùng 1 task nếu submit nhiều trajectory chất lượng. @axisrobotics
norfrun (✱,✱) || tweet media
Tiếng Việt
3
0
2
41
Ucaird 🐬TermMax
Ucaird 🐬TermMax@Ucaird_zenith·
Các bạn có tài năng Các bạn có kiến thức Vào ngay kênh tele Axis Việt nam để thử sức với Quiz mỗi tối thứ 2,4,6 - 21h00 nhé 😆 👉t.me/tgbot?start=1R… Nhiều hoạt động hấp dẫn sắp tới nữa đấy! Sau đợt quét bot thì dự án @axisrobotics ra ít task hẳn các bác nhỉ. Hôm nay ra lại các task cũ cho anh em chưa kịp làm hôm qua. Mấy task hôm qua mình làm vẫn đang pending chưa sign được, còn 5 task từ ngày 17 đến giờ vẫn chưa cho sign. Có bác nào đang bị tình trạng giống em không nhỉ. Hay đang nghi mình là bot ta 😂 Hy vọng dự án sẽ sớm khắc phục được các lỗi này để anh em trải nghiệm tốt hơn. Giờ không còn bot và trại rồi nên task còn nhiều lắm. Bác nào trước nản vào không kịp làm task thì vào lại nhé 😊
Ucaird 🐬TermMax tweet media
Tiếng Việt
30
1
31
322
郡主Christine (✱,✱)
郡主Christine (✱,✱)@0xsexybanana·
We deployed a new Franka Arm model for today’s tasks, so you may encounter minor operational hiccups. We will resolve this as soon as possible.
English
39
1
58
3.1K
ThienNam…
ThienNam…@Thiennam789·
Tình hình chung làm task của anh em tối nay sao rồi . Cảm giác lag gây ức chế không 🙂‍↔️ @axisrobotics
ThienNam… tweet media
Tiếng Việt
4
0
5
71
norfrun (✱,✱) ||
Hôm nay task Axis bị lag thế nhỉ: - Di chuyển robot mượt, bình thường - Nhưng khi gắp đồ vật thì lag, giật lòi mắt, đôi lúc đứng hình luôn. - Di chuyển đến điểm thả vật xuống thì bị giật qua vị trí khác Làm task pick khó chịu vãi, mất thời gian mà hiệu suất kém. Đây là task dễ nên mới xong nhanh, có task gần 1 phút mới hoàn thành. @axisrobotics
Tiếng Việt
1
0
2
38
norfrun (✱,✱) ||
@axisrobotics Which parameters does DR in Axis mainly randomize (lighting, textures, object mass/friction, camera pose)?
English
0
0
0
4
Axis Robotics
Axis Robotics@axisrobotics·
Domain Randomization (DR) is a key component of the data augmentation pipeline at Axis Robotics. By applying DR, we are able to scale verified, high-quality human trajectories by 10x to 100x. During training, we systematically introduce variances in environmental parameters. This prevents the model from relying on spurious visual correlations. The objective is to ensure the policy learns rather than overfitting. To demonstrate the necessity and effectiveness of this approach, we evaluated both DR and No-DR models on Task 74 (pour_water_into_mug). The empirical results show a definitive impact on real-world deployment reliability: integrating DR into the pipeline increased the success rate from 0% to 90% (Fig. 1). This divergence stems from how the respective policies process visual observations (Fig. 2). The baseline (No DR) model overfits to the static visual background. It essentially memorizes the poses from the training dataset but fails to generalize when subjected to the inevitable variances of real-world deployment. Consequently, it cannot execute the correct manipulation on the target object. Conversely, the DR-trained model learns to extract essential geometric features and physical constraints, filtering out superficial visual noise. This leads to significantly higher robustness in dynamic environments. The structural difference in execution is clearly reflected in the end-effector trajectory data: These real-world deployment recordings further illustrate this difference (Videos 1 and 2). Scaling Physical AI requires turning raw trajectory data into robust policies, and a rigorously engineered DR infrastructure is an essential bridge to close the Sim2Real gap.
Axis Robotics tweet mediaAxis Robotics tweet media
English
72
34
152
25.4K
Le Hoai 🟨
Le Hoai 🟨@lehoai61·
Axis Robotics đang treo thưởng cực nóng: 1 ETH dành cho ai phát hiện và báo cáo bot scripts hoạt động đầu tiên trong Discord (#bot-reporting). Trong một hệ sinh thái nơi chất lượng dữ liệu là tất cả, mỗi hành vi gian lận đều ảnh hưởng trực tiếp đến quyền lợi của cộng đồng. Vì vậy, @axisrobotics kêu gọi anh em cùng chung tay giữ môi trường công bằng. Anh em truy tìm bot để có cơ hội nhận thưởng nhé. 1 ETH thì quá thơm. @axisrobotics
Le Hoai 🟨 tweet media
Axis Robotics@axisrobotics

Wanted: Bot Scripts. ☠️🏴‍☠️ Reward: 1 ETH. If you’re an Axis community member and the first to report new functional bot scripts in our Discord ( #bot-reporting), the bounty is yours. Data quality is everything. Spot and report a bot if you know one.

Tiếng Việt
10
0
10
216
norfrun (✱,✱) ||
Mặc dù việc xây dựng hệ thống tự động đã giúp dự án có thể xác nhận lại hành vi replay và loại bỏ các dữ liệu giả mạo dựa trên hành động vật lý, Axis Robotics vẫn treo thưởng 1 ETH cho người report bot scripts. Điều này cho thấy dự án cần sự hỗ trợ của cộng đồng để đạt được dữ liệu chất lượng nhất @axisrobotics #PhysicalAI
norfrun (✱,✱) || tweet media
Axis Robotics@axisrobotics

Wanted: Bot Scripts. ☠️🏴‍☠️ Reward: 1 ETH. If you’re an Axis community member and the first to report new functional bot scripts in our Discord ( #bot-reporting), the bounty is yours. Data quality is everything. Spot and report a bot if you know one.

Tiếng Việt
1
0
1
35
norfrun (✱,✱) || retweetou
Axis Robotics
Axis Robotics@axisrobotics·
Wanted: Bot Scripts. ☠️🏴‍☠️ Reward: 1 ETH. If you’re an Axis community member and the first to report new functional bot scripts in our Discord ( #bot-reporting), the bounty is yours. Data quality is everything. Spot and report a bot if you know one.
English
99
44
188
12.8K
ChrisF(✱,✱)
ChrisF(✱,✱)@chris_anm01·
Past 2 days we banned bots and freed up task slots. Saw some FUD: “Oh so tasks were mostly bots?”, “Not that many real users?”, “Not that hot?” Numbers speak for themselves: 23K+ real addresses 5,000+ trajectories/hour even after removing scripts Tasks haven’t even scaled yet. Banned accounts = 4–5% of total addresses We could have ignored it. Kept the numbers inflated. Pretended everything looked great. We didn’t. Early stage = set the tone. We’re not farming-first. We’re usefulness-first. We’re building infra, not optics.
Axis Robotics@axisrobotics

Axis Anti-Bot Update Data quality is our absolute bottom line. At Axis, we are building the foundational dataset for physical AI, and we are committed to ensuring a fair environment where the efforts of real contributors are protected and rewarded. Recently, system monitoring and community feedback revealed cheating activities. Some users were reverse-engineering task conditions to directly forge trajectories, severely compromising data purity. To stop this, we implemented a strict Replay Logic in our backend. Last week, we launched a brand-new data format with expanded scene dimensions for precise physical replay, deliberately leaving a 3-day buffer for frontend cache updates. Despite this, our monitors showed that around 5% of wallets continued to submit faked, old-format data. While 5% seems small, their bots rapidly drained available task slots, stealing opportunities from real users. Following a comprehensive data backtrack, we have locked onto these wallets. They are now permanently banned, and all their occupied slots are being instantly reopened to genuine contributors. We also noticed early signs of a few genuine users experimenting with these exploits. Consider this a formal warning: we are letting it pass this time, but moving forward, any cheating attempts will result in an immediate and permanent ban. We will keep iterating our anti-cheat algorithms to protect our fair, high-quality ecosystem. Thank you to the majority of our community for your authentic supports. Below is a google sheet containing the list of banned addresses👇

English
27
3
52
1.7K
norfrun (✱,✱) ||
Task này team ko check nữa hay sao ta, pending 5 ngày mà chưa sign được Có anh em nào sign được chưa nhỉ? @axisrobotics
norfrun (✱,✱) || tweet media
Tiếng Việt
0
0
0
21