质押保障的人类反馈
Reppo 使用一种自定义的 veToken 机制,允许研究人员和 AI/ML 团队捕捉 偏好强度 在训练数据中,并由真实的经济权益支持。它扩展了传统的 投票锁定代币经济学(veTokenomics) 超越治理,并将其直接应用于 AI 训练数据。
工作原理
锁定 REPPO → 接收 veREPPO
作为同时也是数据标注者的投票者锁定 $REPPO 代币 为所选时长。
作为回报,他们收到 veREPPO,即 投票权.
veREPPO 的数量与 锁定代币的数量 和锁定时长成正比。较长的锁定会授予不成比例更高的投票权。
每个纪元投票
veREPPO 持有者在每个纪元投票,预测哪些协作或创作者发布的 AI 内容将获得最多支持。
投票权在纪元内线性衰减,因此早期投票比后期投票权重更高。
在每个纪元结束时,新增的 $REPPO 发行按 50/50 在获得票数的创作者与支持他们的投票者之间分配。
这既为 AI 内容创建了一个预测市场,同时也通过众包方式收集 AI 训练数据。
调整投票,而非锁定
投票者可以每个纪元调整分配,但他们锁定的 REPPO 在所选时长内保持不流动。
这在平衡 长期资本稳定性 与 短期治理灵活性.
关键属性
激励一致性:代币持有者因发现最高质量的内容和发布者而获得奖励。
粘性经济学:veREPPO 在投票者与创作者之间创建持久关系,减少短期流失。
反耕作机制:锁定的权益和基于纪元的参与使得短期奖励耕作更难维持。
最后更新于