TE-for-Event-Extraction
veronica320
Clasificación de texto
Este es un modelo TE como parte del sistema de extracción de eventos en el artículo de ACL2021: Extracción de Eventos sin Ejemplos Previos a través de Transferencia de Aprendizaje: Desafíos y Perspectivas. La arquitectura preentrenada es roberta-large y los datos de ajuste fino son MNLI. El mapeo de etiquetas es: LABEL_0: Contradicción, LABEL_1: Neutral, LABEL_2: Entailment.
Como usar
Para usar el modelo TE de manera independiente, sigue la documentación de huggingface sobre AutoModelForSequenceClassification. Para usarlo como parte del sistema de extracción de eventos, por favor revisa nuestro repositorio en Github.
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# Cargar el tokenizer
tokenizer = AutoTokenizer.from_pretrained('veronica320/TE-for-Event-Extraction')
# Cargar el modelo
model = AutoModelForSequenceClassification.from_pretrained('veronica320/TE-for-Event-Extraction')
# Ingrese una oración y una hipótesis para evaluar el modelo
inputs = tokenizer('Una bomba explotó el jueves en un mercado al aire libre en el corazón de Jerusalén. Este texto es sobre un ataque.', return_tensors='pt')
labels = torch.tensor([2]).unsqueeze(0) # Entailment
outputs = model(**inputs, labels=labels)
# Obtener el resultado
loss, logits = outputs[:2]
print(f'Logits de salida: {logits}')
Funcionalidades
- Arquitectura preentrenada roberta-large
- Datos de ajuste fino MNLI
- Compatible con AutoModelForSequenceClassification
- Mapeo de etiquetas: Contradicción, Neutral, Entailment
- Compatible con Inference Endpoints
Casos de uso
- Extracción de eventos sin ejemplos previos
- Clasificación textual basada en TE (Pronóstico Textual)
- Transferencia de aprendizajes entre diferentes dominios