模型:
tdklab/hebert-finetuned-hebrew-squad
This model fine-tunes avichr/heBERT model on SQuAD dataset auto-translated to Hebrew.
Hebrew SQuAD
Dataset | Split | # samples |
---|---|---|
Hebrew_Squad_v1 | train | 52,405 |
Hebrew_Squad_v1 | validation | 7,455 |
The following hyperparameters were used during training:
It took about 9.5 hours to finish training.
Model size : 415M
Metric | # Value |
---|---|
Exact Match | 42.6 |
F1 | 55.9 |
from transformers import pipeline model_checkpoint = "tdklab/hebert-finetuned-hebrew-squad" qa_pipeline = pipeline( "question-answering", model=model_checkpoint, ) predictions = qa_pipeline({ 'context': "ירושלים היא עיר הבירה של מדינת ישראל , והעיר הגדולה ביותר בישראל בגודל האוכלוסייה. נכון לשנת 2021, מתגוררים בה כ-957 אלף תושבים. בירושלים שוכנים מוסדות הממשל של ישראל: הכנסת, בית המשפט העליון, משכן הנשיא, בית ראש הממשלה ורוב משרדי הממשלה. ירושלים שוכנת בהרי יהודה, על קו פרשת המים הארצי של ארץ ישראל, בין הים התיכון וים המלח, ברום של 570 עד 857 מטרים מעל פני הים.", 'question': "מהי עיר הבירה של מדינת ישראל?" }) print(predictions) # output: # {'score': 0.9999890327453613, 'start': 0, 'end': 7, 'answer': 'ירושלים'}
Created by Matan Ben-chorin, May Flaster, Guided by Dr. Oren Mishali. This is our final project as part of computer engineering B.Sc studies in the Faculty of Electrical Engineering combined with Computer Science at Technion, Israel Institute of Technology. For more cooperation, please contact email: Matan Ben-chorin: matan.bh1@gmail.com May Flaster: mayflaster96@gmail.com