File size: 4,299 Bytes
7621850
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
---
许可证_名称: Deepseek
许可证_链接: 许可证
管道_标签: 图像文本到文本
license: bigscience-openrail-m
datasets:
- HuggingFaceTB/cosmopedia
language:
- ar
metrics:
- brier_score
library_name: bertopic
tags:
- art
---

##      1. 导言    

介绍 DeepSeek-VL ,一种用于实际世界视觉和语言理解应用程序的开源视觉语言( VL )模型。 DeepSeek-VL 具有一般的多模式理解能力,能够处理逻辑图、网页、公式识别、科学文献、自然图像,并在复杂场景中体现智力。

[DeepSeek-VL:实现真正的世界愿景语言理解](https://arxiv.org/abs/2403.05525)

[**Github存储库**](https://github.com/deepseek-ai/DeepSeek-VL)

浩宇路*、文刘*、波张**、王炳轩、开东、波刘、景祥孙、同正人、卓树李、浩阳、姚峰孙、程琦邓、韩伟徐、振大谢、崇阮(*等贡献,**项目领先)

!](https://github.com/deepseek-ai/DeepSeek-VL/blob/main/images/sample.jpg)


###       2. 示范摘要     

DeepSeek-VL-7b [Siglip L](https://huggingface.co/timm/ViT-L-16-SigLIP-384)       和       [SAM-B](https://huggingface.co/facebook/sam-vit-base) 作为支持1024x1024图像输入的混合视觉编码器 
并且基于 DeePSeek-LLM-7b 基结构,该基体在 2 T 文本令牌的近似语料库上进行训练。 整个 DeepSeek-VL-7b 基模型最终在 400 B 视觉语言令牌上进行了训练。
DeekSeel-VL-7b-chat 是一个基于 [DeepSeek-VL-7b-base](https://huggingface.co/deepseek-ai/deepseek-vl-7b-base).


##       3. 快速开始     

###       安装     

 ▲图为,采用以下命令安装必要的依赖项: 


```贝壳
GIT 克隆 https://github.com/deepseek-ai/DeepSeek-VL
CD DeepSeek-VL

PIP安装-E。
```

###        简单推理示例      

```蟒蛇
进口火炬
汽车模型

Tepseek_vl 模型
从 deepseek_vl.utils.io 导入负载_pil_ages


# 指定通往模型的路径
Model_path = "Deepseek-I/Deepseek-VL-7b-chat"
VL_chat_croptor: VLCHATProcessor = VLCHATProcessor.fropreed (Model_path)
托格纳

VL_gpt: 多模态 CausalLM = AutoModelForCausalLM.ropreed (Model_path 、Trust_remote_code=True)
VL_GPT = VL_gpt.to (Torch.bfloat16).cuda (.eeval ()

对话=[
       {   
        “角色”:“用户”,        
       “内容”:“《形象_占位符>描述这个图像的每个阶段。”       
 "图像":["./images/training_pipelines.png" 
     }, 
      {  
      “角色”:“助理”,      
      "内容":"      
       }   
]

# 加载图像并准备输入
pil_images = load_pil_images(conversation)
准备_inputs=vl_chat_cropressor(
 对话 
 图像=pil_mages, 
 力量_batchify=True 
)to(vl_gpt.device)

# 运行图像编码器以获取图像嵌入
输入_embeds =vl_gpt.prepare_inputs_embeds (**prepare_inputs)

# 运行模型以获取响应
outputs = vl_gpt.language_model.generate(
    inputs_embeds=inputs_embeds,
    attention_mask=prepare_inputs.attention_mask,
    pad_token_id=tokenizer.eos_token_id,
    bos_token_id=tokenizer.bos_token_id,
    eos_token_id=tokenizer.eos_token_id,
    max_new_tokens=512,
    do_sample=False,
    use_cache=True
)

answer = tokenizer.decode(outputs[0].cpu().tolist(), skip_special_tokens=True)
print(f"{prepare_inputs['sft_format'][0]}", answer)
```

### CLI Chat
```bash

python cli_chat.py --model_path "deepseek-ai/deepseek-vl-7b-chat"

# or local path
python cli_chat.py --model_path "local model path"

```

## 4. License

此代码存储库在 [the MIT License](https://github.com/deepseek-ai/DeepSeek-LLM/blob/HEAD/LICENSE-CODE). The use of DeepSeek-VL Base/Chat models is subject to [DeepSeek Model License](https://github.com/deepseek-ai/DeepSeek-LLM/blob/HEAD/LICENSE-MODEL). DeepSeek-VL series (including Base and Chat) supports commercial use.

## 5. Citation

```
@misc{lu2024deepseekvl,
      title={DeepSeek-VL: Towards Real-World Vision-Language Understanding}, 
      author={Haoyu Lu and Wen Liu and Bo Zhang and Bingxuan Wang and Kai Dong and Bo Liu and Jingxiang Sun and Tongzheng Ren and Zhuoshu Li and Yaofeng Sun and Chengqi Deng and Hanwei Xu and Zhenda Xie and Chong Ruan},
      year={2024},
      eprint={2403.05525},
      archivePrefix={arXiv},
      primaryClass={cs.AI}
}
```

## 6. Contact

如有疑问,请提出问题或在 [[email protected]](mailto:[email protected]).