模型:
google/pix2struct-docvqa-base
Pix2Struct 是一个基于图像编码器和文本解码器的模型,它通过图像和文本对进行训练,可用于各种任务,包括图像标题生成和视觉问答。完整的可用模型列表可以在论文的表1中找到:
该模型的摘要陈述如下:
视觉语言是无处不在的 - 资源范围从带有图表的教科书到带有图像和表格的网页,再到带有按钮和表单的移动应用。也许由于这种多样性,以前的工作通常依赖于领域特定的方法,仅在基础数据、模型架构和目标之间有限共享。我们提出了 Pix2Struct,这是一个用于纯视觉语言理解的预训练的图像到文本模型,可以在包含视觉语言的任务上进行微调。Pix2Struct 的预训练是通过学习将屏幕截图的蒙版解析为简化的 HTML 代码来完成的。Web 的丰富性可视元素可以清晰地反映在 HTML 结构中,这提供了一个适合于各种下游任务多样性的预训练数据来源。直观地说,这个目标包含了常见的预训练信号,如 OCR、语言建模和图像标题生成。除了新颖的预训练策略,我们还引入了可变分辨率输入表示和更灵活的语言和视觉输入集成,其中诸如问题的语言提示直接渲染在输入图像的顶部。我们首次展示了单个预训练模型在四个领域的九项任务中可以取得六项最先进的结果:文档、插图、用户界面和自然图像。
您可以按照以下方式使用 convert_pix2struct_checkpoint_to_pytorch.py 脚本:
python convert_pix2struct_checkpoint_to_pytorch.py --t5x_checkpoint_path PATH_TO_T5X_CHECKPOINTS --pytorch_dump_path PATH_TO_SAVE
如果您正在转换一个大型模型,请运行:
python convert_pix2struct_checkpoint_to_pytorch.py --t5x_checkpoint_path PATH_TO_T5X_CHECKPOINTS --pytorch_dump_path PATH_TO_SAVE --use-large
保存后,您可以使用以下代码片段推送已转换的模型:
from transformers import Pix2StructForConditionalGeneration, Pix2StructProcessor model = Pix2StructForConditionalGeneration.from_pretrained(PATH_TO_SAVE) processor = Pix2StructProcessor.from_pretrained(PATH_TO_SAVE) model.push_to_hub("USERNAME/MODEL_NAME") processor.push_to_hub("USERNAME/MODEL_NAME")
运行该模型的说明与 pix2struct-aid-base 模型的说明完全相似。
该模型最初由Kenton Lee、Mandar Joshi等人贡献,并由 Younes Belkada 加入 Hugging Face 生态系统。
如果您要引用此工作,请考虑引用原始论文:
@misc{https://doi.org/10.48550/arxiv.2210.03347, doi = {10.48550/ARXIV.2210.03347}, url = {https://arxiv.org/abs/2210.03347}, author = {Lee, Kenton and Joshi, Mandar and Turc, Iulia and Hu, Hexiang and Liu, Fangyu and Eisenschlos, Julian and Khandelwal, Urvashi and Shaw, Peter and Chang, Ming-Wei and Toutanova, Kristina}, keywords = {Computation and Language (cs.CL), Computer Vision and Pattern Recognition (cs.CV), FOS: Computer and information sciences, FOS: Computer and information sciences}, title = {Pix2Struct: Screenshot Parsing as Pretraining for Visual Language Understanding}, publisher = {arXiv}, year = {2022}, copyright = {Creative Commons Attribution 4.0 International} }