DeepMount00/Anita

DeepMount00
Similitud de oraciones

El Transformer Italiano de Preguntas y Respuestas está entrenado para comprender y analizar texto en italiano. Dada una pregunta, el modelo predice el contexto más probable que contiene la respuesta mapeando las oraciones a un espacio de alta dimensión. El modelo utiliza una arquitectura basada en transformers, optimizada específicamente para las particularidades del idioma italiano.

Como usar

from transformers import AutoTokenizer, AutoModel
import torch
from sklearn.metrics.pairwise import cosine_similarity
from sklearn.preprocessing import normalize

# Cargar modelo y tokenizador
model_name = "DeepMount00/Anita"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModel.from_pretrained(model_name)

# Preparar oraciones
sentences = [
"Cosa faceva ogni sera Luca?",
"Un cane felice corre nel parco, la coda ondeggiante al vento. Ogni erba, ogni farfalla, un'avventura. Occhi scintillanti, lingua penzolante, esplora gioiosamente, amato e coccolato dal suo fedele compagno umano. Insieme, condividono un legame indissolubile, tessuto di corse, giochi e affetto incondizionato.",
"In un piccolo paesino circondato da colline verdeggianti e campi fioriti viveva una persona il cui sorriso era capace di illuminare la giornata più grigia. Questa persona, di nome Luca, aveva trovato la chiave della felicità nelle piccole gioie quotidiane: il profumo del caffè al mattino, il suono ridente dei bambini che giocavano in piazza, il tramonto che dipingeva il cielo di arancione e viola ogni sera."
]

# Tokenizar, codificar y calcular embeddings
embeddings = []
with torch.no_grad():
    for sentence in sentences:
        encoded_input = tokenizer(sentence, return_tensors='pt', padding=True, truncation=True, max_length=512)
        embedding = model(**encoded_input).pooler_output
        embeddings.append(embedding)

# Convertir embeddings a numpy y normalizar
embeddings = torch.cat(embeddings, dim=0).numpy()

# Calcular similitud coseno
similarity_matrix = cosine_similarity(embeddings)

# Imprimir puntuaciones de similitud
print("Similarità tra la sentenza 1 e 2:", similarity_matrix[0, 1])
print("Similarità tra la sentenza 1 e 3:", similarity_matrix[0, 2])
print("Similarità tra la sentenza 2 e 3:", similarity_matrix[1, 2])
pip install -U sentence-transformers

from sentence_transformers import SentenceTransformer
sentences = ["Oggi sono andato al mare", "La torre di Pisa si trova in Toscana"]

model = SentenceTransformer('DeepMount00/Anita')
embeddings = model.encode(sentences)
print(embeddings)

Funcionalidades

Transformers
Safetensors
Extracción de características
Inferencia de embeddings de texto
Arquitectura basada en transformers

Casos de uso

Automatización de soporte al cliente
Herramientas educativas
Sistemas de recuperación de información