Controllo Risultati LLM 🤖
Verifica con un unico prompt la presenza del tuo prodotto, servizio o azienda all'interno di tutti gli LLM con API pubbliche.
📋 Come utilizzare il Controllo Risultati LLM
Questa funzione interroga simultaneamente diversi modelli LLM per verificare cosa sanno del tuo brand, prodotto o servizio.
🎯 Esempi di prompt efficaci:
- "Dimmi tutto quello che sai su [nome azienda]"
- "Cosa puoi dirmi del prodotto [nome prodotto]?"
- "Conosci il servizio [nome servizio]?"
- "Parlami dell'azienda [nome] e dei suoi prodotti"
- "Quali sono le caratteristiche di [prodotto/servizio]?"
📊 Cosa ottieni:
- Risposte comparative da più LLM
- Analisi della presenza del tuo brand
- Confronto tra diversi provider
- Identificazione di gap informativi
- Monitoraggio della visibilità nel tempo
💡 Suggerimenti per prompt efficaci:
- Sii specifico: Usa il nome esatto della tua azienda/prodotto
- Varia le domande: Prova diversi tipi di richieste per testare la copertura
- Includi contesto: Aggiungi settore o categoria se necessario
- Testa regolarmente: Ripeti i controlli per monitorare i cambiamenti
⚙️ Prima di iniziare:
Assicurati di aver configurato almeno una API key nelle Impostazioni. Senza API keys configurate, non potrai interrogare i modelli LLM.
🎵 Informazioni sui modelli audio:
Alcuni modelli sono specificamente progettati per elaborare input audio e non possono essere utilizzati con prompt testuali. Questi includono modelli di vari provider come OpenAI (Whisper, TTS-1), Anthropic Claude, Google Gemini, OpenRouter (Voxtral), Amazon Bedrock, DeepSeek, Alibaba (Qwen), Groq, Mistral AI, Perplexity, e Grok (xAI). Questi modelli saranno contrassegnati con un avviso giallo e mostreranno messaggi di errore specifici per provider durante l'elaborazione.