模型:
valhalla/t5-small-qa-qg-hl
这是一个针对问题回答和带答案的问题生成任务训练的多任务模型。
对于问题生成,答案片段在文本中用特殊的高亮标记()突出显示,并以“generate question: ”为前缀。对于问题回答,输入的处理方式如下:question: 问题文本 context: 上下文文本
您可以使用推理API来尝试模型。以下是使用方法:
对于问题生成:
generate question: 42是生活、宇宙和一切的答案。
对于问题回答:
question: 什么是42 context: 42是生活、宇宙和一切的答案。
有关更多详细信息,请参阅 this 存储库。
您需要克隆 repo 。
from pipelines import pipeline nlp = pipeline("multitask-qa-qg") # to generate questions simply pass the text nlp("42 is the answer to life, the universe and everything.") => [{'answer': '42', 'question': 'What is the answer to life, the universe and everything?'}] # for qa pass a dict with "question" and "context" nlp({ "question": "What is 42 ?", "context": "42 is the answer to life, the universe and everything." }) => 'the answer to life, the universe and everything'