TE-for-Event-Extraction

veronica320
Clasificación de texto

Este es un modelo TE como parte del sistema de extracción de eventos en el artículo de ACL2021: Extracción de Eventos sin Ejemplos Previos a través de Transferencia de Aprendizaje: Desafíos y Perspectivas. La arquitectura preentrenada es roberta-large y los datos de ajuste fino son MNLI. El mapeo de etiquetas es: LABEL_0: Contradicción, LABEL_1: Neutral, LABEL_2: Entailment.

Como usar

Para usar el modelo TE de manera independiente, sigue la documentación de huggingface sobre AutoModelForSequenceClassification. Para usarlo como parte del sistema de extracción de eventos, por favor revisa nuestro repositorio en Github.

from transformers import AutoTokenizer, AutoModelForSequenceClassification

# Cargar el tokenizer
tokenizer = AutoTokenizer.from_pretrained('veronica320/TE-for-Event-Extraction')

# Cargar el modelo
model = AutoModelForSequenceClassification.from_pretrained('veronica320/TE-for-Event-Extraction')

# Ingrese una oración y una hipótesis para evaluar el modelo
inputs = tokenizer('Una bomba explotó el jueves en un mercado al aire libre en el corazón de Jerusalén. Este texto es sobre un ataque.', return_tensors='pt')
labels = torch.tensor([2]).unsqueeze(0) # Entailment
outputs = model(**inputs, labels=labels)

# Obtener el resultado
loss, logits = outputs[:2]
print(f'Logits de salida: {logits}')

Funcionalidades

Arquitectura preentrenada roberta-large
Datos de ajuste fino MNLI
Compatible con AutoModelForSequenceClassification
Mapeo de etiquetas: Contradicción, Neutral, Entailment
Compatible con Inference Endpoints

Casos de uso

Extracción de eventos sin ejemplos previos
Clasificación textual basada en TE (Pronóstico Textual)
Transferencia de aprendizajes entre diferentes dominios