czczup commited on
Commit
e507646
1 Parent(s): e16b887

Upload folder using huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +61 -9
README.md CHANGED
@@ -7,7 +7,7 @@ pipeline_tag: image-text-to-text
7
 
8
  [\[📂 GitHub\]](https://github.com/OpenGVLab/InternVL) [\[🆕 Blog\]](https://internvl.github.io/blog/) [\[📜 InternVL 1.0 Paper\]](https://arxiv.org/abs/2312.14238) [\[📜 InternVL 1.5 Report\]](https://arxiv.org/abs/2404.16821)
9
 
10
- [\[🗨️ Chat Demo\]](https://internvl.opengvlab.com/) [\[🤗 HF Demo\]](https://huggingface.co/spaces/OpenGVLab/InternVL) [\[🚀 Quick Start\]](#quick-start) [\[📖 中文解读\]](https://zhuanlan.zhihu.com/p/675877376) \[🌟 [魔搭社区](https://modelscope.cn/organization/OpenGVLab) | [教程](https://mp.weixin.qq.com/s/OUaVLkxlk1zhFb1cvMCFjg) \]
11
 
12
  ## Introduction
13
 
@@ -342,7 +342,7 @@ from lmdeploy.vl import load_image
342
  model = 'OpenGVLab/InternVL2-40B'
343
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
344
  image = load_image('https://raw.githubusercontent.com/open-mmlab/mmdeploy/main/tests/data/tiger.jpeg')
345
- chat_template_config = ChatTemplateConfig('internvl-internlm2')
346
  chat_template_config.meta_instruction = system_prompt
347
  pipe = pipeline(model, chat_template_config=chat_template_config,
348
  backend_config=TurbomindEngineConfig(session_len=8192))
@@ -363,7 +363,7 @@ from lmdeploy.vl.constants import IMAGE_TOKEN
363
 
364
  model = 'OpenGVLab/InternVL2-40B'
365
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
366
- chat_template_config = ChatTemplateConfig('internvl-internlm2')
367
  chat_template_config.meta_instruction = system_prompt
368
  pipe = pipeline(model, chat_template_config=chat_template_config,
369
  backend_config=TurbomindEngineConfig(session_len=8192))
@@ -389,7 +389,7 @@ from lmdeploy.vl import load_image
389
 
390
  model = 'OpenGVLab/InternVL2-40B'
391
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
392
- chat_template_config = ChatTemplateConfig('internvl-internlm2')
393
  chat_template_config.meta_instruction = system_prompt
394
  pipe = pipeline(model, chat_template_config=chat_template_config,
395
  backend_config=TurbomindEngineConfig(session_len=8192))
@@ -413,7 +413,7 @@ from lmdeploy.vl import load_image
413
 
414
  model = 'OpenGVLab/InternVL2-40B'
415
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
416
- chat_template_config = ChatTemplateConfig('internvl-internlm2')
417
  chat_template_config.meta_instruction = system_prompt
418
  pipe = pipeline(model, chat_template_config=chat_template_config,
419
  backend_config=TurbomindEngineConfig(session_len=8192))
@@ -426,6 +426,32 @@ sess = pipe.chat('What is the woman doing?', session=sess, gen_config=gen_config
426
  print(sess.response.text)
427
  ```
428
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
429
  ## License
430
 
431
  This project is released under the MIT license, while InternLM is licensed under the Apache-2.0 license.
@@ -536,7 +562,7 @@ from lmdeploy.vl import load_image
536
  model = 'OpenGVLab/InternVL2-40B'
537
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
538
  image = load_image('https://raw.githubusercontent.com/open-mmlab/mmdeploy/main/tests/data/tiger.jpeg')
539
- chat_template_config = ChatTemplateConfig('internvl-internlm2')
540
  chat_template_config.meta_instruction = system_prompt
541
  pipe = pipeline(model, chat_template_config=chat_template_config,
542
  backend_config=TurbomindEngineConfig(session_len=8192))
@@ -557,7 +583,7 @@ from lmdeploy.vl.constants import IMAGE_TOKEN
557
 
558
  model = 'OpenGVLab/InternVL2-40B'
559
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
560
- chat_template_config = ChatTemplateConfig('internvl-internlm2')
561
  chat_template_config.meta_instruction = system_prompt
562
  pipe = pipeline(model, chat_template_config=chat_template_config,
563
  backend_config=TurbomindEngineConfig(session_len=8192))
@@ -582,7 +608,7 @@ from lmdeploy.vl import load_image
582
 
583
  model = 'OpenGVLab/InternVL2-40B'
584
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
585
- chat_template_config = ChatTemplateConfig('internvl-internlm2')
586
  chat_template_config.meta_instruction = system_prompt
587
  pipe = pipeline(model, chat_template_config=chat_template_config,
588
  backend_config=TurbomindEngineConfig(session_len=8192))
@@ -606,7 +632,7 @@ from lmdeploy.vl import load_image
606
 
607
  model = 'OpenGVLab/InternVL2-40B'
608
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
609
- chat_template_config = ChatTemplateConfig('internvl-internlm2')
610
  chat_template_config.meta_instruction = system_prompt
611
  pipe = pipeline(model, chat_template_config=chat_template_config,
612
  backend_config=TurbomindEngineConfig(session_len=8192))
@@ -619,6 +645,32 @@ sess = pipe.chat('What is the woman doing?', session=sess, gen_config=gen_config
619
  print(sess.response.text)
620
  ```
621
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
622
  ## 开源许可证
623
 
624
  该项目采用 MIT 许可证发布,而 InternLM 则采用 Apache-2.0 许可证。
 
7
 
8
  [\[📂 GitHub\]](https://github.com/OpenGVLab/InternVL) [\[🆕 Blog\]](https://internvl.github.io/blog/) [\[📜 InternVL 1.0 Paper\]](https://arxiv.org/abs/2312.14238) [\[📜 InternVL 1.5 Report\]](https://arxiv.org/abs/2404.16821)
9
 
10
+ [\[🗨️ Chat Demo\]](https://internvl.opengvlab.com/) [\[🤗 HF Demo\]](https://huggingface.co/spaces/OpenGVLab/InternVL) [\[🚀 Quick Start\]](#quick-start) [\[📖 中文解读\]](https://zhuanlan.zhihu.com/p/706547971) \[🌟 [魔搭社区](https://modelscope.cn/organization/OpenGVLab) | [教程](https://mp.weixin.qq.com/s/OUaVLkxlk1zhFb1cvMCFjg) \]
11
 
12
  ## Introduction
13
 
 
342
  model = 'OpenGVLab/InternVL2-40B'
343
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
344
  image = load_image('https://raw.githubusercontent.com/open-mmlab/mmdeploy/main/tests/data/tiger.jpeg')
345
+ chat_template_config = ChatTemplateConfig('yi-34b')
346
  chat_template_config.meta_instruction = system_prompt
347
  pipe = pipeline(model, chat_template_config=chat_template_config,
348
  backend_config=TurbomindEngineConfig(session_len=8192))
 
363
 
364
  model = 'OpenGVLab/InternVL2-40B'
365
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
366
+ chat_template_config = ChatTemplateConfig('yi-34b')
367
  chat_template_config.meta_instruction = system_prompt
368
  pipe = pipeline(model, chat_template_config=chat_template_config,
369
  backend_config=TurbomindEngineConfig(session_len=8192))
 
389
 
390
  model = 'OpenGVLab/InternVL2-40B'
391
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
392
+ chat_template_config = ChatTemplateConfig('yi-34b')
393
  chat_template_config.meta_instruction = system_prompt
394
  pipe = pipeline(model, chat_template_config=chat_template_config,
395
  backend_config=TurbomindEngineConfig(session_len=8192))
 
413
 
414
  model = 'OpenGVLab/InternVL2-40B'
415
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
416
+ chat_template_config = ChatTemplateConfig('yi-34b')
417
  chat_template_config.meta_instruction = system_prompt
418
  pipe = pipeline(model, chat_template_config=chat_template_config,
419
  backend_config=TurbomindEngineConfig(session_len=8192))
 
426
  print(sess.response.text)
427
  ```
428
 
429
+ #### Service
430
+
431
+ For lmdeploy v0.5.0, please configure the chat template config first. Create the following JSON file `chat_template.json`.
432
+
433
+ ```json
434
+ {
435
+ "model_name":"internvl-zh-hermes2",
436
+ "meta_instruction":"我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。",
437
+ "stop_words":["<|im_start|>", "<|im_end|>"]
438
+ }
439
+ ```
440
+
441
+ LMDeploy's `api_server` enables models to be easily packed into services with a single command. The provided RESTful APIs are compatible with OpenAI's interfaces. Below are an example of service startup:
442
+
443
+ ```shell
444
+ lmdeploy serve api_server OpenGVLab/InternVL2-40B --backend turbomind --chat-template chat_template.json
445
+ ```
446
+
447
+ The default port of `api_server` is `23333`. After the server is launched, you can communicate with server on terminal through `api_client`:
448
+
449
+ ```shell
450
+ lmdeploy serve api_client http://0.0.0.0:23333
451
+ ```
452
+
453
+ You can overview and try out `api_server` APIs online by swagger UI at `http://0.0.0.0:23333`, or you can also read the API specification from [here](https://github.com/InternLM/lmdeploy/blob/main/docs/en/serving/restful_api.md).
454
+
455
  ## License
456
 
457
  This project is released under the MIT license, while InternLM is licensed under the Apache-2.0 license.
 
562
  model = 'OpenGVLab/InternVL2-40B'
563
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
564
  image = load_image('https://raw.githubusercontent.com/open-mmlab/mmdeploy/main/tests/data/tiger.jpeg')
565
+ chat_template_config = ChatTemplateConfig('yi-34b')
566
  chat_template_config.meta_instruction = system_prompt
567
  pipe = pipeline(model, chat_template_config=chat_template_config,
568
  backend_config=TurbomindEngineConfig(session_len=8192))
 
583
 
584
  model = 'OpenGVLab/InternVL2-40B'
585
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
586
+ chat_template_config = ChatTemplateConfig('yi-34b')
587
  chat_template_config.meta_instruction = system_prompt
588
  pipe = pipeline(model, chat_template_config=chat_template_config,
589
  backend_config=TurbomindEngineConfig(session_len=8192))
 
608
 
609
  model = 'OpenGVLab/InternVL2-40B'
610
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
611
+ chat_template_config = ChatTemplateConfig('yi-34b')
612
  chat_template_config.meta_instruction = system_prompt
613
  pipe = pipeline(model, chat_template_config=chat_template_config,
614
  backend_config=TurbomindEngineConfig(session_len=8192))
 
632
 
633
  model = 'OpenGVLab/InternVL2-40B'
634
  system_prompt = '我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。'
635
+ chat_template_config = ChatTemplateConfig('yi-34b')
636
  chat_template_config.meta_instruction = system_prompt
637
  pipe = pipeline(model, chat_template_config=chat_template_config,
638
  backend_config=TurbomindEngineConfig(session_len=8192))
 
645
  print(sess.response.text)
646
  ```
647
 
648
+ #### API部署
649
+
650
+ 对于 lmdeploy v0.5.0,请先配置聊天模板配置文件。创建如下的 JSON 文件 `chat_template.json`。
651
+
652
+ ```json
653
+ {
654
+ "model_name":"internvl-zh-hermes2",
655
+ "meta_instruction":"我是书生·万象,英文名是InternVL,是由上海人工智能实验室及多家合作单位联合开发的多模态大语言模型。人工智能实验室致力于原始技术创新,开源开放,共享共创,推动科技进步和产业发展。",
656
+ "stop_words":["<|im_start|>", "<|im_end|>"]
657
+ }
658
+ ```
659
+
660
+ LMDeploy 的 `api_server` 使模型能够通过一个命令轻松打包成服务。提供的 RESTful API 与 OpenAI 的接口兼容。以下是服务启动的示例:
661
+
662
+ ```shell
663
+ lmdeploy serve api_server OpenGVLab/InternVL2-40B --backend turbomind --chat-template chat_template.json
664
+ ```
665
+
666
+ `api_server` 的默认端口是 `23333`。服务器启动后,你可以通过 `api_client` 在终端与服务器通信:
667
+
668
+ ```shell
669
+ lmdeploy serve api_client http://0.0.0.0:23333
670
+ ```
671
+
672
+ 你可以通过 `http://0.0.0.0:23333` 的 swagger UI 在线查看和试用 `api_server` 的 API,也可以从 [这里](https://github.com/InternLM/lmdeploy/blob/main/docs/en/serving/restful_api.md) 阅读 API 规范。
673
+
674
  ## 开源许可证
675
 
676
  该项目采用 MIT 许可证发布,而 InternLM 则采用 Apache-2.0 许可证。