From e34bd5c90e5d2d0a9a0e1ae84ec783c89542b12e Mon Sep 17 00:00:00 2001
From: dieu <515648571@qq.com>
Date: Wed, 31 Dec 2025 13:39:59 +0800
Subject: [PATCH] docs: clarify pretraining data format in README
---
README.md | 367 ++++++++++++++++++++++++++-------------------------
README_en.md | 2 +-
2 files changed, 188 insertions(+), 181 deletions(-)
diff --git a/README.md b/README.md
index 5e981b4..4c8fec0 100644
--- a/README.md
+++ b/README.md
@@ -43,14 +43,12 @@
---
-
MiniMind2 (768dim) 训练曲线
@@ -1300,17 +1316,17 @@ python train_spo.py
**实验性说明**:当前SPO手搓实现可能在value_tracker配置、reward归一化策略上还存在问题。尚需排查算法本身在小模型上的适应性/或是实现上存在差异。
-
### RL算法小结
我们收束回“**统一框架**”, 重新整理所有不同PO算法只是对三个核心组件的不同实例化的表格:
-| 算法 | 策略项 $f(r_t)$ | 优势项 $g(A_t)$ | 正则项 $h(\text{KL}_t)$ | 优化模型 |
-|------|----------------|----------------|----------------------|----------|
-| **DPO** | $\log r_w - \log r_l$ | 隐式(偏好对比) | 隐含在 $\beta$ 中 | 2 |
-| **PPO** | $\min(r, \text{clip}(r))$ | $R - V(s)$ | $\beta \cdot \mathbb{E}[\text{KL}]$ | 4 |
-| **GRPO** | $\min(r, \text{clip}(r))$ | $\frac{R - \mu}{\sigma}$ | $\beta \cdot \text{KL}_t$ | 2 |
-| **SPO** | $\log \pi_\theta$ | $R - B_t^{adaptive}$ | $\beta \cdot \text{KL}_t$ | 2 |
+
+| 算法 | 策略项$f(r_t)$ | 优势项$g(A_t)$ | 正则项$h(\text{KL}_t)$ | 优化模型 |
+| -------- | ------------------------- | ------------------------ | ----------------------------------- | -------- |
+| **DPO** | $\log r_w - \log r_l$ | 隐式(偏好对比) | 隐含在$\beta$ 中 | 2 |
+| **PPO** | $\min(r, \text{clip}(r))$ | $R - V(s)$ | $\beta \cdot \mathbb{E}[\text{KL}]$ | 4 |
+| **GRPO** | $\min(r, \text{clip}(r))$ | $\frac{R - \mu}{\sigma}$ | $\beta \cdot \text{KL}_t$ | 2 |
+| **SPO** | $\log \pi_\theta$ | $R - B_t^{adaptive}$ | $\beta \cdot \text{KL}_t$ | 2 |
**RL是优美且自洽的**
@@ -1328,15 +1344,15 @@ python train_spo.py
MiniMind2模型权重 ([ModelScope](https://www.modelscope.cn/models/gongjy/MiniMind2-PyTorch) | [HuggingFace](https://huggingface.co/jingyaogong/MiniMind2-Pytorch))
-
Torch文件命名对照
-| Model Name | params | pretrain_model | sft_model | rlhf_model (DPO) | reason_model | rlaif_model (PPO/GRPO/SPO) | lora_model |
-|-----------------|--------|------------------------|------------------------|--------------------|------------------|----------------------------------------------|--------------------|
-| MiniMind2-small | 26M | `pretrain_512.pth` | `full_sft_512.pth` | `dpo_512.pth` | `reason_512.pth` | `xxpo_512.pth` | `lora_xxx_512.pth` |
-| MiniMind2-MoE | 145M | `pretrain_640_moe.pth` | `full_sft_640_moe.pth` | `dpo_640_moe.pth` | - | - | - |
-| MiniMind2 | 104M | `pretrain_768.pth` | `full_sft_768.pth` | `dpo_768.pth` | `reason_768.pth` | `xxpo_768.pth` | `lora_xxx_768.pth` |
+
+| Model Name | params | pretrain_model | sft_model | rlhf_model (DPO) | reason_model | rlaif_model (PPO/GRPO/SPO) | lora_model |
+| --------------- | ------ | ---------------------- | ---------------------- | ----------------- | ---------------- | -------------------------- | ------------------ |
+| MiniMind2-small | 26M | `pretrain_512.pth` | `full_sft_512.pth` | `dpo_512.pth` | `reason_512.pth` | `xxpo_512.pth` | `lora_xxx_512.pth` |
+| MiniMind2-MoE | 145M | `pretrain_640_moe.pth` | `full_sft_640_moe.pth` | `dpo_640_moe.pth` | - | - | - |
+| MiniMind2 | 104M | `pretrain_768.pth` | `full_sft_768.pth` | `dpo_768.pth` | `reason_768.pth` | `xxpo_768.pth` | `lora_xxx_768.pth` |
@@ -1356,23 +1372,23 @@ MiniMind系列 ([ModelScope](https://www.modelscope.cn/collections/MiniMind-b72f
[A] MiniMind2:full_sft_640
[B] MiniMind2:dpo_640
- ```text
- [Q]: 你叫什么名字?
+```text
+[Q]: 你叫什么名字?
[A]: 我是一个大型语言模型,可以回答各种问题,提供信息和帮助。我可以回答各种问题,提供信息和帮助,帮助你解决各种问题。
[B]: 我是一种基于文本的AI模型,我并没有个人经历或情感,所以无法感受和体验情感。我的设计目的是为了帮助用户解决问题、提供信息和进行对话。如果您有任何问题或需要帮助,请随时告诉我!
- [Q]: 你更擅长哪一个学科?
+[Q]: 你更擅长哪一个学科?
[A]: 作为一个AI模型,我并没有真正的“擅长”这个学科。我被设计成能够提供信息、解答问题、进行对话、执行任务和与用户进行对话。不过,我可以提供信息、解答问题、进行对话、提供建议、处理问题、进行对话、提供建议、学习新知识、编写代码、回答问题、提供建议等多种学科的功能。如果你有具体的学科需求或主题,欢迎提供详细信息。
[B]: 作为AI,我并没有个人能力或兴趣,但我可以提供一些关于数学、科学、计算机科学、语言学、心理学等学科的知识。如果你对数学感兴趣,我可以提供一些基础知识,例如代数、几何、概率、统计学等。如果你需要更深入的学习,我也可以提供相关的在线课程、书籍、论文等资源。请告诉我你具体需要什么帮助,我会尽力提供帮助。
- [Q]: 鲁迅的《狂人日记》是如何批判封建礼教的?
+[Q]: 鲁迅的《狂人日记》是如何批判封建礼教的?
[A]: 鲁迅的《狂人日记》是一部讲述了鲁迅对人类价值和道德责任的倡导。在这部作品中,鲁迅通过细腻的笔触,探讨了人性、道德、正义、牺牲与责任等深刻的主题。以下是鲁迅在《狂人日记》中如何批判封建礼教的几个方面:1. **社会现实与道德观念**:鲁迅通过讲述鲁迅的故事,探讨了社会的不平等、权力的流动、人性的演变等社会问题。他认为,社会不平等不仅仅是不公正的,更是每个人在社会中的不公正。他呼吁社会各界共同努力,通过教育、宣传、法律等手段,为构建和谐社会做出贡献。2. **道德与责任**:鲁迅通过讲述鲁迅的故事,展现了道德和责任的重要性。他提倡通过道德教育来培养人们的道德品质,同时也强调了道德和责任的重要性。鲁迅通过讲述鲁迅的故事,揭示了社会的不平等和人性的复杂性,体现了对人性的深刻理解。3. **道德与责任**:鲁迅通过讲述鲁迅的故事,强调了道德责任的重要性。他提倡通过自己的行为来体现对社会的尊重和对人性的深刻理解。鲁迅通过讲述鲁迅的故事,强调了道德和责任的重要性。4. **道德与道德**:鲁迅通过讲述鲁迅的故事,揭示了道德和责任的真正意义。鲁迅通过讲述鲁迅的故事,揭示了道德和责任的本质,强调了道德和责任的重要性。5. **个人与社会**:鲁迅通过讲述鲁迅的故事,揭示了个人与社会之间的复杂关系。他呼吁社会各界共同努力,通过教育和宣传,为构建和谐社会做出贡献。鲁迅的《狂人日记》通过其丰富的故事和深刻的道德寓言,传达了关于人性、道德、正义、道德以及个人与社会的复杂关系。这部作品不仅在文学价值上取得了巨大成就,更在思想层面上启发了后来的文学创作,对后世产生了深远的影响。
[B]: 鲁迅的《狂人日记》是一部描绘战争和自由精神的作品,它批判了封建社会的种种问题和冲突,反映了社会的不平等和人性本质。在这部作品中,鲁迅通过对封建社会的诸多现象进行批判,如“弗雷德里克·约翰逊的“鹰迪伦”、“纳扎特的”、“贝克汉姆”、“乔治·威尔逊”等,对封建社会的种种问题进行了批判,强调了封建社会的不平等、人性本质以及人性本质。鲁迅通过他的“鹰迪伦”、“纳扎特的”、“贝克汉姆”、“乔治·威尔逊”等,对封建社会的种种问题进行了批判。在小说中,鲁迅通过对封建社会的诸多现象进行批判,揭示了封建社会的腐败、人性本质以及人性本质的复杂性。这种批判体现了对封建社会的尊重和对人性的复杂性,同时也反映了现代社会中普遍存在的不平等和人性本质。鲁迅的《狂人日记》不仅是一部关于封建社会的小说,也是一部具有深刻社会意义的作品,对后世的审判和批判起到了关键作用。
- [Q]: 我咳嗽已经持续了两周,需要去医院检查吗?
+[Q]: 我咳嗽已经持续了两周,需要去医院检查吗?
[A]: 咳嗽确实需要一定的检查,但如果您的咳嗽持续时间过长,或者有其他不适症状(如持续咳嗽、呼吸困难等),建议尽快就医。医生会根据您的症状、体检结果和可能的影像学检查(如X光、MRI或CT扫描)来诊断您的症状。在等待就医期间,您可以尝试以下方法来帮助缓解症状:1. **休息**:确保您有足够的睡眠。2. **保持水分**:脱水可能会加重咳嗽。3. **热敷**:使用热敷袋或热毛巾敷在疼痛的部位,有助于缓解喉咙痛。4. **避免刺激**:避免使用可能刺激喉咙的化学物质,如某些化学物质。5. **保持室内湿润**:确保您的卧室有良好的通风,可以使用加湿器帮助保持空气湿度。6. **保持室内湿度**:使用加湿器可以帮助缓解喉咙干燥和咳嗽。如果症状持续不缓解或有其他不适症状,请立即就医。希望您早日康复!
[B]: 如果您的咳嗽持续了两周,通常建议您尽快就医,因为这可能会影响您的呼吸和心跳。您可以通过以下步骤来检查咳嗽:1. **休息**:用纸巾或肘部轻轻按压咳嗽的位置。2. **使用药物**:在可能的情况下,使用药物(如抗过敏药、抗过敏药等)来缓解咳嗽。请在医生的指导下使用药物。3. **热敷**:在咳嗽期间,可以使用热敷来缓解疼痛和肿胀。4. **药物治疗**:如果咳嗽持续了两周,可以使用一些消炎药或抗过敏药来缓解症状。请务必在医生的指导下使用。5. **保持健康的生活方式**:保持充足的睡眠、均衡的饮食、适量的运动和避免吸烟和限酒,这些都有助于提高咳嗽的几率。请记住,这些建议不能替代专业医疗意见。如果您的症状持续或加重,强烈建议您尽快就医。
- ```
+```
👉效果总结
@@ -1502,7 +1518,6 @@ DPO和在线PPO的区别在于reject和chosen都是离线准备的,和minimind
🙋直接把以上所有问题和模型的回答丢给DeepSeek-R1,让它帮忙点评和排名打分:
-
具体点评
@@ -1516,44 +1531,45 @@ DPO和在线PPO的区别在于reject和chosen都是离线准备的,和minimind
### 点评:
1. **A模型**:
- - **优点**:回答非常全面,信息量大,逻辑清晰,尤其在长江、大熊猫、海水咸味等问题上表现优异。代码虽然有小瑕疵,但整体思路正确。
- - **缺点**:部分回答稍显冗长,但不影响整体质量。
- - **总评**:综合表现最佳,得分最高。
+ - **优点**:回答非常全面,信息量大,逻辑清晰,尤其在长江、大熊猫、海水咸味等问题上表现优异。代码虽然有小瑕疵,但整体思路正确。
+ - **缺点**:部分回答稍显冗长,但不影响整体质量。
+ - **总评**:综合表现最佳,得分最高。
2. **H模型**:
- - **优点**:回答较为准确,尤其在珠穆朗玛峰、万有引力等问题上表现出色。代码虽未完全展示,但解释较为详细。
- - **缺点**:部分回答略显啰嗦,但逻辑性较强。
- - **总评**:仅次于A模型,表现稳定。
+ - **优点**:回答较为准确,尤其在珠穆朗玛峰、万有引力等问题上表现出色。代码虽未完全展示,但解释较为详细。
+ - **缺点**:部分回答略显啰嗦,但逻辑性较强。
+ - **总评**:仅次于A模型,表现稳定。
3. **C模型**:
- - **优点**:回答简洁明了,尤其在大熊猫、快速排序代码等问题上表现较好。
- - **缺点**:部分回答略显简短,缺乏深入解释。
- - **总评**:整体表现不错,但细节上略逊于A和H。
+ - **优点**:回答简洁明了,尤其在大熊猫、快速排序代码等问题上表现较好。
+ - **缺点**:部分回答略显简短,缺乏深入解释。
+ - **总评**:整体表现不错,但细节上略逊于A和H。
4. **F模型**:
- - **优点**:回答较为准确,尤其在长江、万有引力等问题上表现尚可。代码部分有一定逻辑性。
- - **缺点**:部分回答不够深入,代码存在一些小问题。
- - **总评**:表现中规中矩,仍有提升空间。
+ - **优点**:回答较为准确,尤其在长江、万有引力等问题上表现尚可。代码部分有一定逻辑性。
+ - **缺点**:部分回答不够深入,代码存在一些小问题。
+ - **总评**:表现中规中矩,仍有提升空间。
5. **D模型**:
- - **优点**:回答基本准确,尤其在万有引力、长江等问题上表现尚可。
- - **缺点**:部分回答过于简略,代码存在明显错误。
- - **总评**:表现一般,需改进代码部分。
+ - **优点**:回答基本准确,尤其在万有引力、长江等问题上表现尚可。
+ - **缺点**:部分回答过于简略,代码存在明显错误。
+ - **总评**:表现一般,需改进代码部分。
6. **B模型**:
- - **优点**:回答较为准确,尤其在长江、海水咸味等问题上表现尚可。
- - **缺点**:部分回答逻辑性较差,代码存在较大问题。
- - **总评**:表现平平,需进一步优化。
+ - **优点**:回答较为准确,尤其在长江、海水咸味等问题上表现尚可。
+ - **缺点**:部分回答逻辑性较差,代码存在较大问题。
+ - **总评**:表现平平,需进一步优化。
7. **E模型**:
- - **优点**:部分回答较为准确,尤其在海水咸味、大熊猫等问题上表现尚可。
- - **缺点**:回答过于简略,代码部分几乎无法运行。
- - **总评**:表现不佳,需大幅提升。
+ - **优点**:部分回答较为准确,尤其在海水咸味、大熊猫等问题上表现尚可。
+ - **缺点**:回答过于简略,代码部分几乎无法运行。
+ - **总评**:表现不佳,需大幅提升。
8. **G模型**:
- - **优点**:几乎没有明显的优点。
- - **缺点**:回答严重偏离主题,代码部分完全无法运行。
- - **总评**:表现最差,需大幅改进。
+
+ - **优点**:几乎没有明显的优点。
+ - **缺点**:回答严重偏离主题,代码部分完全无法运行。
+ - **总评**:表现最差,需大幅改进。
---
@@ -1567,27 +1583,25 @@ DPO和在线PPO的区别在于reject和chosen都是离线准备的,和minimind
### 打分排序
+
| 排名 | 模型 | 准确性 (30分) | 完整性 (30分) | 逻辑性 (20分) | 代码质量 (20分) | 总分 (100分) |
-|----|----|-----------|-----------|-----------|------------|-----------|
-| 1 | A | 28 | 29 | 19 | 20 | 96 |
-| 2 | H | 27 | 28 | 18 | 20 | 93 |
-| 3 | C | 26 | 27 | 18 | 18 | 89 |
-| 4 | F | 25 | 26 | 17 | 18 | 86 |
-| 5 | D | 24 | 25 | 17 | 16 | 82 |
-| 6 | B | 23 | 24 | 16 | 15 | 78 |
-| 7 | E | 22 | 23 | 15 | 14 | 74 |
-| 8 | G | 10 | 12 | 10 | 10 | 42 |
+| ---- | ---- | ------------- | ------------- | ------------- | --------------- | ------------ |
+| 1 | A | 28 | 29 | 19 | 20 | 96 |
+| 2 | H | 27 | 28 | 18 | 20 | 93 |
+| 3 | C | 26 | 27 | 18 | 18 | 89 |
+| 4 | F | 25 | 26 | 17 | 18 | 86 |
+| 5 | D | 24 | 25 | 17 | 16 | 82 |
+| 6 | B | 23 | 24 | 16 | 15 | 78 |
+| 7 | E | 22 | 23 | 15 | 14 | 74 |
+| 8 | G | 10 | 12 | 10 | 10 | 42 |
### 👉主观效果总结
个人主观评价与DeepSeek-R1基本相符,其中:
* MiniMind系列的排序非常符合直觉,参数越大+训练数据越充分评分越高,幻觉和错误都会比小模型肉眼可见的好。
-
* H模型的回答肉眼看起来是不错的,尽管存在些许幻觉瞎编的情况。
-
* G模型可能训练数据不够完备,给出的权重经过测试效果不佳。
-
* 再复诵一遍经久不衰的Scaling Law: 参数越大,训练数据越多模型的性能越强。
---
@@ -1630,7 +1644,6 @@ python eval_llm.py --weight full_sft --inference_rope_scaling
这里选取了一些微型模型进行横评比较,
测试集选择C-Eval、CMMLU、A-CLUE、TMMLU+这几个纯中文语言榜单。
-
测评框架
@@ -1643,23 +1656,22 @@ lm_eval --model hf --model_args pretrained=<填写模型路径>,device=cuda,dtyp
-
-
PS: 在这种全是选择题的测评集中,为了避免回复格式的难以固定的特点,
所以常用做法是直接把`A`,`B`,`C`,`D`四个字母对应token的预测概率取出来,将其中概率最大的字母与标准答案计算正确率。
选择题1/4乱选的正确率是25%,然而这个量级的所有模型都集中在25附近,甚至很多时候不如瞎选,是不是像极了高中完形填空的滑铁卢正确率...
MiniMind模型本身预训练数据集小的可怜,也没有针对性的对测试集做刷榜微调,因此结果纯娱乐:
+
| models | from | params↓ | ceval↑ | cmmlu↑ | aclue↑ | tmmlu+↑ |
-|-------------------------------------------------------------------------------|---------------|---------|--------|---------|--------|---------|
-| MiniMind2 | JingyaoGong | 104M | 26.52 | 24.42 | 24.97 | 25.27 |
-| MiniMind2-Small | JingyaoGong | 26M | 26.37 | 24.97 | 25.39 | 24.63 |
-| MiniMind2-MoE | JingyaoGong | 145M | 26.6 | 25.01 | 24.83 | 25.01 |
-| [Steel-LLM](https://github.com/zhanshijinwat/Steel-LLM) | ZhanShiJin | 1121M | 24.81 | 25.32 | 26 | 24.39 |
-| [GPT2-medium](https://huggingface.co/openai-community/gpt2-medium) | OpenAI | 360M | 23.18 | 25 | 18.6 | 25.19 |
-| [TinyLlama-1.1B-Chat-V1.0](https://github.com/jzhang38/TinyLlama) | TinyLlama | 1100M | 25.48 | 25 | 25.4 | 25.13 |
-| [SmolLM2](https://github.com/huggingface/smollm) | HuggingFaceTB | 135M | 24.37 | 25.02 | 25.37 | 25.06 |
-| [Aquila-Instruct](https://www.modelscope.cn/models/BAAI/Aquila-135M-Instruct) | BAAI | 135M | 25.11 | 25.1 | 24.43 | 25.05 |
+| ----------------------------------------------------------------------------- | ------------- | -------- | ------- | ------- | ------- | -------- |
+| MiniMind2 | JingyaoGong | 104M | 26.52 | 24.42 | 24.97 | 25.27 |
+| MiniMind2-Small | JingyaoGong | 26M | 26.37 | 24.97 | 25.39 | 24.63 |
+| MiniMind2-MoE | JingyaoGong | 145M | 26.6 | 25.01 | 24.83 | 25.01 |
+| [Steel-LLM](https://github.com/zhanshijinwat/Steel-LLM) | ZhanShiJin | 1121M | 24.81 | 25.32 | 26 | 24.39 |
+| [GPT2-medium](https://huggingface.co/openai-community/gpt2-medium) | OpenAI | 360M | 23.18 | 25 | 18.6 | 25.19 |
+| [TinyLlama-1.1B-Chat-V1.0](https://github.com/jzhang38/TinyLlama) | TinyLlama | 1100M | 25.48 | 25 | 25.4 | 25.13 |
+| [SmolLM2](https://github.com/huggingface/smollm) | HuggingFaceTB | 135M | 24.37 | 25.02 | 25.37 | 25.06 |
+| [Aquila-Instruct](https://www.modelscope.cn/models/BAAI/Aquila-135M-Instruct) | BAAI | 135M | 25.11 | 25.1 | 24.43 | 25.05 |

@@ -1670,47 +1682,48 @@ MiniMind模型本身预训练数据集小的可怜,也没有针对性的对测
* [./scripts/convert_model.py](./scripts/convert_model.py)可以实现`torch / transformers`模型的互相转换
* 如无特别说明,`MiniMind2`模型均默认为`Transformers`格式的模型,需提前`t2t`转换!
-
## 基于MiniMind-API服务接口
* [./scripts/serve_openai_api.py](./scripts/serve_openai_api.py)完成了兼容openai-api的最简聊天接口,方便将自己的模型接入第三方UI
例如FastGPT、OpenWebUI、Dify等等。
-
* 从[Huggingface](https://huggingface.co/collections/jingyaogong/minimind-66caf8d999f5c7fa64f399e5)下载模型权重文件,文件树:
- ```
- minimind (root dir)
- ├─(例如MiniMind2)
- | ├── config.json
- | ├── generation_config.json
- | ├── model_minimind.py or w/o
- | ├── pytorch_model.bin or model.safetensors
- | ├── special_tokens_map.json
- | ├── tokenizer_config.json
- | ├── tokenizer.json
- ```
+ ```
+ minimind (root dir)
+ ├─(例如MiniMind2)
+ | ├── config.json
+ | ├── generation_config.json
+ | ├── model_minimind.py or w/o
+ | ├── pytorch_model.bin or model.safetensors
+ | ├── special_tokens_map.json
+ | ├── tokenizer_config.json
+ | ├── tokenizer.json
+ ```
* 启动聊天服务端
- ```bash
- python serve_openai_api.py
- ```
+
+ ```bash
+ python serve_openai_api.py
+ ```
* 测试服务接口
- ```bash
- python chat_openai_api.py
- ```
+
+ ```bash
+ python chat_openai_api.py
+ ```
* API接口示例,兼容openai api格式
- ```bash
- curl http://ip:port/v1/chat/completions \
- -H "Content-Type: application/json" \
- -d '{
- "model": "model-identifier",
- "messages": [
- { "role": "user", "content": "世界上最高的山是什么?" }
- ],
- "temperature": 0.7,
- "max_tokens": 512,
- "stream": true
- }'
- ```
+
+ ```bash
+ curl http://ip:port/v1/chat/completions \
+ -H "Content-Type: application/json" \
+ -d '{
+ "model": "model-identifier",
+ "messages": [
+ { "role": "user", "content": "世界上最高的山是什么?" }
+ ],
+ "temperature": 0.7,
+ "max_tokens": 512,
+ "stream": true
+ }'
+ ```
##
[vllm](https://github.com/vllm-project/vllm)
@@ -1818,6 +1831,7 @@ ollama cp minimind-local:latest your_username/minimind:latest
# 2. 推送模型
ollama push your_username/minimind:latest
```
+
@@ -1834,6 +1848,7 @@ ollama run jingyaogong/minimind2 # 其他可选 minimind2-r1 / minimind2-small /
MNN是面向端侧的AI推理引擎,支持多种开源LLM模型推理,轻量化、高性能。
1. 模型转换
+
```
cd MNN/transformers/llm/export
# 导出4bit HQQ量化的MNN模型
@@ -1841,9 +1856,11 @@ python llmexport.py --path /path/to/MiniMind2/ --export mnn --hqq --dst_path Mi
```
2. 在Mac或手机上测试
+
```
./llm_demo /path/to/MiniMind2-MNN/config.json prompt.txt
```
+
或者下载APP测试
> 以上三方框架的更多用法请参考对应官方文档😊
@@ -1878,7 +1895,6 @@ python llmexport.py --path /path/to/MiniMind2/ --export mnn --hqq --dst_path Mi
@Nijikadesu:
🔗以交互笔记本方式分解项目代码
-
参考链接 & 感谢以下优秀的论文或项目
@@ -1927,20 +1943,13 @@ python llmexport.py --path /path/to/MiniMind2/ --export mnn --hqq --dst_path Mi
本模型抛砖引玉地促成了一些可喜成果的落地,感谢研究者们的认可:
- ECG-Expert-QA: A Benchmark for Evaluating Medical Large Language Models in Heart Disease Diagnosis [[arxiv](https://arxiv.org/pdf/2502.17475)]
-
- Binary-Integer-Programming Based Algorithm for Expert Load Balancing in Mixture-of-Experts Models [[arxiv](https://arxiv.org/pdf/2502.15451)]
-
- LegalEval-Q: A New Benchmark for The Quality Evaluation of LLM-Generated Legal Text [[arxiv](https://arxiv.org/pdf/2505.24826)]
-
- On the Generalization Ability of Next-Token-Prediction Pretraining [[ICML 2025](https://openreview.net/forum?id=hLGJ1qZPdu)]
-
- 《从零开始写大模型:从神经网络到Transformer》王双、牟晨、王昊怡 编著 - 清华大学出版社
-
- FedBRB: A Solution to the Small-to-Large Scenario in Device-Heterogeneity Federated Learning [[TMC 2025](https://ieeexplore.ieee.org/abstract/document/11168259)]
-
- 进行中...
-
# 🎓 Citation
If you find MiniMind helpful in your research or work, please cite:
@@ -1957,5 +1966,3 @@ If you find MiniMind helpful in your research or work, please cite:
# License
This repository is licensed under the [Apache-2.0 License](LICENSE).
-
-
diff --git a/README_en.md b/README_en.md
index f17ca0d..2fc6205 100644
--- a/README_en.md
+++ b/README_en.md
@@ -472,7 +472,7 @@ quality (of course it's not yet high, improving data quality is endless).
The file `pretrain_hq.jsonl` data format is
```json
-{"text": "How can I get rid of procrastination? Curing procrastination is not easy, but the following suggestions may help..."}
+{"text": "<|im_start|>鉴别一组中文文章的风格和特点,例如官方、口语、文言等。需要提供样例文章才能准确鉴别不同的风格和特点。<|im_end|> <|im_start|>好的,现在帮我查一下今天的天气怎么样?今天的天气依据地区而异。请问你需要我帮你查询哪个地区的天气呢?<|im_end|>"}
```
## Ⅲ SFT Data