LLM
豆包大模型 LLM 团队致力于激进的探索下一代大模型,并且研究大模型研发的基础问题,包括但不限于模型的自学习、记忆和长文本生成、可解释性等方向。我们探索前沿技术,进行端到端落地,不断摸索大模型跟应用的结合点和解放应用的可能性

课题方向

Scalability
探索预训练环节更高效的 Data 和 Modeling 方法,使得算力提升数个量级下仍能有效延续 Scaling Law
Data
Modeling

世界奖励模型
能够比较好地判断不同能力和不同模态下响应的好坏
Reward model
Response

强化学习泛化和效率
包括新型强化学习算法的研究,不同模态强化学习的融合和迁移,强化学习算法的探索和学习效率提升,IID 到 OOD 的泛化等
Generalization
Efficiency

长时程任务/规划
长时程任务/规划中奖励模型和强化学习的优化方法
Task
Planning

长记忆
研发模型的长记忆能力,探索更好的模型结构和数据组成,在可控成本内提升模型的记忆能力,让 bot 能够成为每个人的个性化助理
Model
Data
查看更多