【LLM Review】The stage review of LLM - PPT - 2023M9
Agenda
- 准确性
- 高成本
- 专业性
- 时效性
- 安全性
反馈:
- 要有核心观点、甚至偏见
1. 准确性 提升
- 无训练成本:
- prompt engineering
- System prompt + ICL + COT
- 限定回答范围:guidance
- Retrieval augumented
- Function Call + Plugins
- Ensemble/Bagging
- Reflection/System2
- prompt engineering
- 有训练成本:
- SFT
- 增量Pretrain
- Pretrain
- 无训练成本:更好的取出知识
- prompt engineering
- System prompt + ICL + COT
- System prompt + ICL + COT
- prompt engineering
- 无训练成本:
- prompt engineering
- 限定回答范围:guidance
- 无训练成本:
- prompt engineering
- 限定回答范围:guidance
- Retrieval augumented(RAG)
- 基于检索返回的内容做回答:ChatXXX
- 非共识信息的抽取问题
- 基于检索返回的内容做Prompt增强
- Break up relevant documents into chunks
- Use embedding APls to index chunks into a vector store
- Given a test-time query, retrieve related information
- Organize the information into the prompt, get New prompt
- Call LLM using new prompt
- bing-like:通用全网搜索+大搜系统检索能力+轮询多次+Quote
- 基于检索返回的内容做回答:ChatXXX
- 无训练成本:
- prompt engineering
- Function Call + Plugins
- Ensemble/Bagging
- 多个答案bagging(CoT-SC)、输入多个prompt bagging、Ensemble refinement
- 无训练成本:
- prompt engineering
- Function Call + Plugins
- Ensemble/Bagging
- Reflection/System2:像人类一样非线性思考、reasoning、planning
- ReAct、ToT、GoT
- ReAct、ToT、GoT
- 无训练成本
- 有训练成本:
- SFT:alignment调教
- 目的:terse(shorten token)、set a given language、consistently format responses、custom tone,augment context windows
- 方式:Full FT、PEFT
- 增量Pretrain:提高信息压缩比
- MOE
- Pretrain:更好的数据配比、数据质量、训练技巧、训练资源
- SFT:alignment调教
2. 高成本 下降
- 训练成本:参照Chinchilla scaling laws
- 基座LLM训练成本
- 领域LLM训练成本
- 推理成本:未来更重要
- 算法
- KD
- MOE、RetNet
- Speculative decoding:较小模型生成,较大模型挑选,异步并发
- 硬件或框架:FlashAttention
- 算法
3. 专业性 优化
- 训练垂域LLM
- Pretrain:BloombergGPT
- SFT:主流方案
- Instruction领域数据集构建:由具体业务场景而定、尽可能多样且质量高
- 训练目标:不发生forgotten的前提下,告诉LLM该如何回答行业内问题
- 热门行业:未来会千行百业,甚至私人定制
- 金融:BloombergGPT、FinGPT
- 医疗:Med-Palm2
- 教育:MathGPT
- 法律:Chatlaw
- 心理咨询:扁鹊

4. 时效性 拥有
- Pretrain的数据是xx年以前的
- Plugins:天气、证券股票
- Retrieval augumented prompt
5. 安全性 保障
- SuperAlignment
- Llama2 Safety:关乎大公司产品能否发布
一些讨论
- 大模型未来生态是怎样的?AI+还是+AI
- 闭源大模型能力会持续领先开源界吗?
- 大模型的未来研究方向有哪些?
欢迎交流与合作
目前主要兴趣是探索agent的真正落地,想进一步交流可加微信(微信号:cleezhang),一些自我介绍。





