是最新的维护版本,包含自 3.12.0 以来的 400 多个错误修复、构建改进和文档更改。
LLM训练大致分为三个阶段,Pre-Training学知识,SFT学说话,Post-Training学思考。这样的LLM用作问答没有问题,但是用作AI助理或者家庭机器人就有一个非常致命的缺点:LLM没有记忆,每次对话默认从零开始。除非附带历史信息,LLM不会记得你的任何信息,无法提供个性化、连贯的服务。
在与 AI 多轮交互获得理想答案后,应进一步提炼出一个“一步到位”的高质量提示词,并持续积累和优化这类提示词,以提升未来同类问题的解决效率与精准度。
作者:陈行甲
一切过往皆财富
作者:蔡崇达
是在看姜Dora的视频的时候,对他的访谈,感觉这个人特别有意思,这是看他写的第二本书
人要到能托举和滋养自己的关系里去,什么样的人最养你?【蔡崇达x姜Dora】