Skip to content

Latest commit

 

History

History
47 lines (28 loc) · 1.91 KB

README.md

File metadata and controls

47 lines (28 loc) · 1.91 KB

🔮 Awesome AI Agents

因为热爱,所以分享

我始终相信开源,也热爱分享在工作学习过程中对于Agent所有觉得有价值、有意思的知识点,并定期将其编写成一篇篇博客,进而跟大家讨论学习,共同进步。

也非常欢迎大家能够一起贡献 PR 来不断完善此博客,不断完善,让其成为一个真正的 Agent Handbook。

知识点

Agent Introduction

Agent Workflow

强烈推荐大家先看吴恩达老师的这篇演讲来入门了解 Agent Workflow:

What's next for AI agentic workflows ft. Andrew Ng of AI Fund

Paper Reading

ORPO: Monolithic Preference Optimization without Reference Model

ORPO 提出了一个非常创新的方法:将 模型对齐阶段 和 SFT阶段 融合到一起,进而提升模型的训练方法。

在 SFT 阶段,就直接将对齐的数据加入到训练当中,进而在SFT 阶段就已经实现了模型对齐的能力。

Self-play with Execution Feedback: Improving Instruction-following Capabilities of Large Language Models

解决的问题:此论文旨在提升提供一个创建高质量指令跟随数据集的方法,进而提高在不同方法中指令学习的能力。

此论文中是通过生成一个函数函数来检测 Response 内容是否正确,进而提升数据质量。

此论文的方法不算是很创新,可是从一定程度上告诉我们:数据质量的重要性。

Join the community