【LLM Review】The stage review of LLM - PPT - 2023M9

Agenda

  1. 准确性
  2. 高成本
  3. 专业性
  4. 时效性
  5. 安全性

反馈:

  1. 要有核心观点、甚至偏见

1. 准确性 提升

  1. 无训练成本:
    1. prompt engineering
      1. System prompt + ICL + COT
      2. 限定回答范围:guidance
      3. Retrieval augumented
    2. Function Call + Plugins
    3. Ensemble/Bagging
    4. Reflection/System2
  2. 有训练成本:
    1. SFT
    2. 增量Pretrain
    3. Pretrain

  1. 无训练成本:更好的取出知识
    1. prompt engineering
      1. System prompt + ICL + COT
        1. Pasted image 20230903163648.png

  1. 无训练成本:
    1. prompt engineering
    2. 限定回答范围:guidance
      1. Pasted image 20230903162854.png
      2. Pasted image 20230903163124.png

  1. 无训练成本:
    1. prompt engineering
    2. 限定回答范围:guidance
    3. Retrieval augumented(RAG)
      1. 基于检索返回的内容做回答:ChatXXX
        1. 非共识信息的抽取问题
      2. 基于检索返回的内容做Prompt增强
        1. Break up relevant documents into chunks
        2. Use embedding APls to index chunks into a vector store
        3. Given a test-time query, retrieve related information
        4. Organize the information into the prompt, get New prompt
        5. Call LLM using new prompt
      3. bing-like:通用全网搜索+大搜系统检索能力+轮询多次+Quote
        1. perplexity.ai
        2. Google Search Labs

  1. 无训练成本:
    1. prompt engineering
    2. Function Call + Plugins
      1. Pasted image 20230904021655.png
    3. Ensemble/Bagging
      1. 多个答案bagging(CoT-SC)、输入多个prompt bagging、Ensemble refinement

  1. 无训练成本:
    1. prompt engineering
    2. Function Call + Plugins
    3. Ensemble/Bagging
    4. Reflection/System2:像人类一样非线性思考、reasoning、planning
      1. ReAct、ToT、GoT
        1. Pasted image 20230905224819.png
        2. Pasted image 20230906125017.png

  1. 无训练成本
  2. 有训练成本:
    1. SFT:alignment调教
      1. 目的:terse(shorten token)、set a given language、consistently format responses、custom tone,augment context windows
      2. 方式:Full FT、PEFT
    2. 增量Pretrain:提高信息压缩比
      1. MOE
    3. Pretrain:更好的数据配比、数据质量、训练技巧、训练资源

2. 高成本 下降

  1. 训练成本:参照Chinchilla scaling laws
    1. 基座LLM训练成本
    2. 领域LLM训练成本
  2. 推理成本:未来更重要
    1. 算法
      1. KD
      2. MOE、RetNet
      3. Speculative decoding:较小模型生成,较大模型挑选,异步并发
    2. 硬件或框架:FlashAttention

3. 专业性 优化

  • 训练垂域LLM
  1. Pretrain:BloombergGPT
  2. SFT:主流方案
    1. Instruction领域数据集构建:由具体业务场景而定、尽可能多样且质量高
    2. 训练目标:不发生forgotten的前提下,告诉LLM该如何回答行业内问题
  3. 热门行业:未来会千行百业,甚至私人定制
    1. 金融:BloombergGPT、FinGPT
    2. 医疗:Med-Palm2
    3. 教育:MathGPT
    4. 法律:Chatlaw
    5. 心理咨询:扁鹊
      Pasted image 20230906145153.png

4. 时效性 拥有

  • Pretrain的数据是xx年以前的
  1. Plugins:天气、证券股票
  2. Retrieval augumented prompt

5. 安全性 保障

  1. SuperAlignment
  2. Llama2 Safety:关乎大公司产品能否发布

一些讨论

  1. 大模型未来生态是怎样的?AI+还是+AI
  2. 闭源大模型能力会持续领先开源界吗?
  3. 大模型的未来研究方向有哪些?

欢迎交流与合作

目前主要兴趣是探索agent的真正落地,想进一步交流可加微信(微信号:cleezhang),一些自我介绍