PPO Agent for Huggy 🐶
这是一个使用 Unity ML-Agents 训练的强化学习模型。该模型训练了一个叫 Huggy 的蓝色小狗机器人,它的目标是学会在环境中准确地移动并“抱住”目标(通常是玩家的手)。
训练成果展示
- 算法: PPO (Proximal Policy Optimization)
- 训练步数: 2,000,000 steps
- 平均奖励 (Mean Reward): ~3.8 - 4.0 (已收敛)
模型描述
该 Agent 使用了深度神经网络(3层,每层 512 个隐藏单元)来处理环境观测。
- 观测空间 (Observation Space): 包含 Huggy 的关节位置、速度以及目标物体的相对位置。
- 动作空间 (Action Space): 连续动作,控制 Huggy 各个腿部关节的力矩。
使用方法
要在 Unity 中使用此模型:
- 安装 Unity ML-Agents Toolkit。
- 下载本仓库中的
Huggy.onnx文件。 - 将
.onnx文件拖入 Unity 项目。 - 在 Huggy 对象的
Behavior Parameters组件中,将该文件拖入Model字段。 - 按下 Play 键观察效果。
训练配置 (Hyperparameters)
trainer_type: ppo
hyperparameters:
batch_size: 2048
buffer_size: 20480
learning_rate: 0.0003
beta: 0.005
epsilon: 0.2
lambd: 0.95
num_epoch: 3
learning_rate_schedule: linear
network_settings:
normalize: true
hidden_units: 512
num_layers: 3
- Downloads last month
- 8