albert-base-v2-finetuned-squad2
IProject-10
Pregunta y respuesta
ALBERTbase afinado en SQuAD 2.0: Modelo de lenguaje basado en Transformer con codificador, preentrenado con técnicas de reducción de parámetros y predicción del orden de las oraciones. Adecuado para tareas de preguntas y respuestas, predice los intervalos de respuestas dentro del contexto proporcionado.
Como usar
Para Preguntas y Respuestas:
!pip install transformers
from transformers import pipeline
model_checkpoint = "IProject-10/albert-base-v2-finetuned-squad2"
question_answerer = pipeline("question-answering", model=model_checkpoint)
context = """
🤗 Transformers está respaldado por las tres bibliotecas de aprendizaje profundo más populares: Jax, PyTorch y TensorFlow, con una integración perfecta entre ellas. Es sencillo entrenar tus modelos con una y luego cargarlos para inferencia con la otra.
"""
question = "¿Qué bibliotecas de aprendizaje profundo respaldan 🤗 Transformers?"
question_answerer(question=question, context=context)
Funcionalidades
- Modelo de lenguaje basado en Transformer con codificador
- Preentrenado con técnicas de reducción de parámetros
- Predicción del orden de las oraciones
- Adecuado para tareas de preguntas y respuestas
Casos de uso
- Tareas de preguntas y respuestas
- Predicción de respuestas dentro de un contexto proporcionado