bert-large-uncased-squadv1.1-sparse-80-1x4-block-pruneofa
Intel
Pregunta y respuesta
Este modelo es el resultado de ajustar fino un modelo preentrenado BERT-Large escaso en bloques 1x4 al 80% combinado con la destilación de conocimiento. Este modelo proporciona los siguientes resultados en el conjunto de desarrollo de SQuADv1.1: - Exact match: 84.673 - F1: 91.174 Para más detalles, consulte nuestro artículo, 'Prune Once for All: Sparse Pre-Trained Language Models', y nuestra implementación de código abierto disponible aquí.
Como usar
Para utilizar este modelo, puede seguir las instrucciones en la documentación de Hugging Face. Aquí hay un ejemplo de cómo utilizar el modelo para la tarea de respuesta a preguntas:
```python
from transformers import AutoTokenizer, AutoModelForQuestionAnswering
tokenizer = AutoTokenizer.from_pretrained('Intel/bert-large-uncased-squadv1.1-sparse-80-1x4-block-pruneofa')
model = AutoModelForQuestionAnswering.from_pretrained('Intel/bert-large-uncased-squadv1.1-sparse-80-1x4-block-pruneofa')
question = "What's the capital of France?"
context = "Paris is the capital of France."
inputs = tokenizer(question, context, return_tensors='pt')
outputs = model(**inputs)
answer_start = outputs.start_logits.argmax()
answer_end = outputs.end_logits.argmax()
answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start:answer_end+1]))
print(f'Answer: {answer}')
Funcionalidades
- Ajustado fino en SQuADv1.1
- 80% escaso en bloques 1x4
- Modelo preentrenado BERT-Large
- Destilación de conocimiento
Casos de uso
- Responder a preguntas en textos en inglés
- Extracción de información de documentos en inglés
- Asistente virtual
- Sistemas de búsqueda