Falconsai/pregunta_respuesta
El modelo afinado presentado aquí es una iteración mejorada del modelo DistilBERT-base-uncased, meticulosamente entrenado en un conjunto de datos actualizado. Aprovechando la arquitectura subyacente de DistilBERT, una variante compacta de BERT optimizada para la eficiencia, este modelo está hecho a medida para tareas de procesamiento de lenguaje natural con un enfoque principal en la respuesta a preguntas. Su entrenamiento involucró la exposición a un conjunto de datos diverso y contemporáneo, asegurando su adaptabilidad a una amplia gama de matices lingüísticos y complejidades semánticas. El proceso de ajuste fino refina la comprensión contextual del modelo, permitiéndole sobresalir en tareas que requieren una comprensión matizada y un razonamiento contextual, convirtiéndolo en una solución robusta para aplicaciones de pregunta y respuesta en el procesamiento de lenguaje natural.
Como usar
Para usar este modelo para la resumen de texto médico, puede seguir estos pasos:
from transformers import pipeline
question = "¿Qué avance humano surgió por primera vez hace unos 12,000 años durante la era Neolítica?"
context = "El desarrollo de la agricultura comenzó hace unos 12,000 años durante la Revolución Neolítica. Los cazadores-recolectores hicieron la transición a cultivar cultivos y criar ganado. Centros independientes de agricultura temprana prosperaron en el Creciente Fértil, Egipto, China, Mesoamérica y los Andes. La agricultura apoyó a sociedades más grandes y asentadas, lo que llevó a un rápido desarrollo cultural y crecimiento poblacional."
question_answerer = pipeline("question-answering", model="Falconsai/question_answering")
question_answerer(question=question, context=context)
from transformers import AutoTokenizer
from transformers import AutoModelForQuestionAnswering
question = "¿Qué avance humano surgió por primera vez hace unos 12,000 años durante la era Neolítica?"
context = "El desarrollo de la agricultura comenzó hace unos 12,000 años durante la Revolución Neolítica. Los cazadores-recolectores hicieron la transición a cultivar cultivos y criar ganado. Centros independientes de agricultura temprana prosperaron en el Creciente Fértil, Egipto, China, Mesoamérica y los Andes. La agricultura apoyó a sociedades más grandes y asentadas, lo que llevó a un rápido desarrollo cultural y crecimiento poblacional."
tokenizer = AutoTokenizer.from_pretrained("Falconsai/question_answering")
inputs = tokenizer(question, context, return_tensors="pt")
model = AutoModelForQuestionAnswering.from_pretrained("Falconsai/question_answering")
with torch.no_grad():
outputs = model(**inputs)
answer_start_index = outputs.start_logits.argmax()
answer_end_index = outputs.end_logits.argmax()
predict_answer_tokens = inputs.input_ids[0, answer_start_index : answer_end_index + 1]
tokenizer.decode(predict_answer_tokens)
Funcionalidades
- Modelo afinado basado en DistilBERT-base-uncased.
- Optimizado para tareas de respuesta a preguntas.
- Entrenado en un conjunto de datos diverso y contemporáneo.
- Arquitectura compacta y eficiente en cuanto a recursos computacionales.
- Capacidad mejorada para comprender el contexto de manera matizada y generar respuestas precisas.
Casos de uso
- Clasificación de texto
- Análisis de sentimientos
- Reconocimiento de entidades nombradas
- Aplicaciones de respuesta a preguntas