Hello-SimpleAI/chatgpt-qa-detector-roberta
Hello-SimpleAI
Clasificación de texto
Este modelo está entrenado en pares de preguntas y respuestas del texto completo filtrado de Hello-SimpleAI/HC3. Para más detalles, consulte arxiv: 2301.07597 y el proyecto de Github Hello-SimpleAI/chatgpt-comparison-detection. El punto de control base es roberta-base. Lo entrenamos con todos los datos de Hello-SimpleAI/HC3 (sin reserva) durante 1 época (1 época es consistente con los experimentos en nuestro artículo).
Como usar
from transformers import AutoTokenizer, AutoModelForSequenceClassification
tokenizer = AutoTokenizer.from_pretrained('Hello-SimpleAI/chatgpt-qa-detector-roberta')
model = AutoModelForSequenceClassification.from_pretrained('Hello-SimpleAI/chatgpt-qa-detector-roberta')
inputs = tokenizer('I like you. I love you', return_tensors='pt')
outputs = model(**inputs)
Funcionalidades
- Clasificación de texto
- Transformers
- PyTorch
- Compatible con AutoTrain
- Compatible con Endpoints de Inferencia
Casos de uso
- Detección de respuestas generadas por ChatGPT
- Evaluación de respuestas en cuestionarios
- Comparación de textos generados por IA con textos humanos