albert-base-v2-finetuned-squad2

IProject-10
Pregunta y respuesta

ALBERTbase afinado en SQuAD 2.0: Modelo de lenguaje basado en Transformer con codificador, preentrenado con técnicas de reducción de parámetros y predicción del orden de las oraciones. Adecuado para tareas de preguntas y respuestas, predice los intervalos de respuestas dentro del contexto proporcionado.

Como usar

Para Preguntas y Respuestas:

!pip install transformers
from transformers import pipeline
model_checkpoint = "IProject-10/albert-base-v2-finetuned-squad2"
question_answerer = pipeline("question-answering", model=model_checkpoint)

context = """
🤗 Transformers está respaldado por las tres bibliotecas de aprendizaje profundo más populares: Jax, PyTorch y TensorFlow, con una integración perfecta entre ellas. Es sencillo entrenar tus modelos con una y luego cargarlos para inferencia con la otra.
"""

question = "¿Qué bibliotecas de aprendizaje profundo respaldan 🤗 Transformers?"
question_answerer(question=question, context=context)

Funcionalidades

Modelo de lenguaje basado en Transformer con codificador
Preentrenado con técnicas de reducción de parámetros
Predicción del orden de las oraciones
Adecuado para tareas de preguntas y respuestas

Casos de uso

Tareas de preguntas y respuestas
Predicción de respuestas dentro de un contexto proporcionado