启动webui服务
使用lmdeploy启动一个api_server
1 | conda activate agent_camp3 |

另开一个终端,使用stremlit启动agent_web应用
1 | cd /root/agent_camp3/lagent |

本地powershell建立ssh连接,进行端口映射

使用lmdeploy启动一个api_server
1 | conda activate agent_camp3 |

另开一个终端,使用stremlit启动agent_web应用
1 | cd /root/agent_camp3/lagent |

本地powershell建立ssh连接,进行端口映射

Tutorial/docs/L1/OpenCompass at camp3 · InternLM/Tutorial (github.com)

列出所有跟 InternLM 及 C-Eval 相关的配置:
1 | python tools/list_configs.py internlm ceval |


评测结束


【RAG】使用Llamaindex框架部署InternLM2-1.8B
xtuner 是较新的框架,InternLM2-Chat-1.8B 训练数据库中未收录相关信息,使用 RAG 前问答均未给出准确答案,使用后能获得想要的答案。在 Intern Studio 服务器上部署 LlamaIndex:
Intern Studio 界面,点击 创建开发机 配置开发机系统。开发机名称 后,点击 选择镜像 使用 Cuda11.7-conda 镜像,在资源配置中选择 30% A100 * 1 的选项,立即创建开发机器。conda 环境,命名为 llamaindex,运行以下命令:1 | conda create -n llamaindex python=3.10 |
环境激活后,命令行左边会显示当前环境名称。
安装 LlamaIndex 和相关的包:
1 | conda activate llamaindex |
新建一个 python 文件,贴入以下代码:
1 | import os |
在 /root/llamaindex_demo 目录下执行该脚本自动开始下载。
【Prompt Engineering】LangGPT结构化提示词编写
在日常使用大模型时,我发现它经常在数字比对这类基础问题上出错,并且输出结果很不严谨。为了解决这个问题,我尝试使用Prompt Engineering,并在网上找到了一个开源的「结构化提示词框架」-- LangGPT,以下是我的使用过程记录。
step0:前期准备
创建虚拟环境->激活虚拟环境->安装必要包文件
创建项目路径->进入项目
安装必要软件,如tmux
step1:模型部署模型下载->部署模型为OpenAI server->图形化界面调用
step3:langgpt结构化提示词编写
偷懒大法:GPTS有LangGPT提示词专家,用大模型生成即可
tmux可以在终端中创建终端,将进程维持在后台。
1 | # 创建环境 |

1.创建demo文件夹,用于存放代码。并创建 cli_demo.py文件
1 | mkdir -p /root/demo |

其中cli_demo.py 的代码为:
1 | import torch |