知名大模型训练、开发平台Predibase发布首个端到端强(qiang)化微调平台(RFT)。与(yu)传统的(de)监督式微调相比,RFT不依赖大量的(de)标注数(shu)据,而是通过奖(jiang)励和自定义函数(shu)来完成持续的(de)强(qiang)化学习,同时(shi)支撑无服务(wu)器和端到端训练方法,从数(shu)据管理、训练模型到应(ying)用部署可以在同一个平台全部完成。也就是说,你只需要(yao)一个浏览器,设(she)定微调目标、上传数(shu)据、就能(neng)完成以前非常复杂的(de)大模型微调流程。(AIGC开放社区)