质押保障的人类反馈

Reppo 使用一种自定义的 veToken 机制,允许研究人员和 AI/ML 团队捕捉 偏好强度 在训练数据中,并由真实的经济权益支持。它扩展了传统的 投票锁定代币经济学(veTokenomics) 超越治理,并将其直接应用于 AI 训练数据。

工作原理

  1. 锁定 REPPO → 接收 veREPPO

    • 作为同时也是数据标注者的投票者锁定 $REPPO 代币 为所选时长。

    • 作为回报,他们收到 veREPPO,即 投票权.

    • veREPPO 的数量与 锁定代币的数量 和锁定时长成正比。较长的锁定会授予不成比例更高的投票权。

  2. 每个纪元投票

    • veREPPO 持有者在每个纪元投票,预测哪些协作或创作者发布的 AI 内容将获得最多支持。

    • 投票权在纪元内线性衰减,因此早期投票比后期投票权重更高。

    • 在每个纪元结束时,新增的 $REPPO 发行按 50/50 在获得票数的创作者与支持他们的投票者之间分配。

    • 这既为 AI 内容创建了一个预测市场,同时也通过众包方式收集 AI 训练数据。

  3. 调整投票,而非锁定

    • 投票者可以每个纪元调整分配,但他们锁定的 REPPO 在所选时长内保持不流动。

    • 这在平衡 长期资本稳定性短期治理灵活性.

关键属性

  • 激励一致性:代币持有者因发现最高质量的内容和发布者而获得奖励。

  • 粘性经济学:veREPPO 在投票者与创作者之间创建持久关系,减少短期流失。

  • 反耕作机制:锁定的权益和基于纪元的参与使得短期奖励耕作更难维持。

最后更新于