TPO(Test-Time Preference Optimization)是新型的AI优化框架,在推理阶段对语言模型输出进行动态优化,更符合人类偏好。TPO通过将奖励信号转化为文本反馈,将模型生成的优质响应标记为“选择”输出,低质量响应标记为“拒绝”输出,进而生成“文本损失”并提出“文本梯度”,以此迭代改进模型输出,无需更新模型参数。 实验表明,经过少量迭代,即使是未经对齐训练的模型也能在多个基准测试中显著提升性能,在AlpacaEval 2的LC指标上从27.8%提升至37.8%。

TPO – AI优化框架,动态调整推理模型的输出,更符合人类偏好  第1张
(图片来源网络,侵删)