Accesso Riservato
Inserisci la password per accedere.
Live Translator
Pro AI Engine🌐 Traduzione & Sintesi
🔊 Audio & Trasmissione
✨ Modificatori AI
🛠️ Configurazione
Utilisez la dictée de l’ordinateur ou collez du texte : l’app traduit et résume comme si c’était un micro ouvert en direct.
📦 Esporta Standalone
Scarica il codice sorgente completo di quest'app. La versione scaricata non dipenderà più da Miniapps.ai e potrai usarla gratuitamente hostandola ovunque (GitHub Pages, Vercel, PC locale).
Motori AI Supportati:
- Groq: Modelli gratuiti e velocissimi (es. Llama 3) via API.
- OpenAI: Tramite la tua chiave API ufficiale.
- OpenRouter: routing smart tra più modelli, fallback e controllo costi.
- Ollama / LM Studio: 100% Locale e Offline (nessun costo, privacy totale).
⚠️ Nota per l'uso locale (Microfono): Se apri il file scaricato facendo doppio clic (indirizzo file://...), il browser potrebbe chiederti il consenso del microfono ad ogni singola pausa di ascolto. Per evitarlo e rendere il permesso permanente, avvia l'app tramite un server locale (es. l'estensione Live Server su VSCode) oppure pubblicala su uno spazio web gratuito (es. GitHub Pages).
⚙️ Motori IA (Trascrizione & Traduzione)
Configura i provider per la voce e per il testo. L'uso di chiavi personali aggira eventuali manutenzioni del sito.
🎙️ Trascrizione Vocale (STT)
Le mode Auto ne bascule plus tout seul vers la dictée. Pour l’audio du PC, utilise Reconnaissance depuis PC et choisis « Audio PC depuis carte/écran » ou bien un loopback/stereo mix.
Ottieni una chiave gratuita (con crediti iniziali) su console.deepgram.com. La quota free è sufficiente per ore di trascrizione.
Utilisez votre propre clé Groq. Les appels directs depuis le navigateur peuvent être bloqués par CORS : pour les événements publics, un proxy backend est recommandé.
S’il est défini, l’audio est envoyé à votre proxy au lieu d’être envoyé directement à Groq.
Utilisez uniquement des ID de modèles STT pris en charge par Groq ; si vous n’êtes pas sûr, restez sur turbo ou large-v3.
Configurez AssemblyAI pour n’afficher que les phrases terminées. Pour des sous-titres phrase par phrase, utilisez surtout le seuil de silence ; le force-end est optionnel et conservateur.
AssemblyAI utilise WebSockets. Si le navigateur bloque la requête de jeton, utilisez un proxy (POST apiKey → renvoie un jeton).
Plus bas = phrases plus courtes ; plus haut = segments plus longs.
0 désactive la coupure temporelle.
Champ libre : ajoutez tout paramètre de requête pris en charge par AssemblyAI. token, sample_rate et end_utterance_silence_threshold sont gérés automatiquement.
Nota: Ollama deve supportare l'endpoint /v1/audio/transcriptions. Imposta OLLAMA_ORIGINS="*".
LM Studio: attiva il Local Server su porta 1234 con CORS abilitato e usa l'indirizzo locale. Open WebUI: usa l'URL corretto.
Motore AI (Traduzione & Riassunto)
Le modèle NLLB est chargé seulement lors de la première traduction locale, et non pas quand tu sauvegardes les paramètres.
OpenRouter utilise des modèles différents pour la traduction en direct, les résumés et le fallback. Pour les événements publics, un proxy backend est recommandé : ne pas exposer de clé API dans le navigateur.
S’il est défini, l’app envoie les requêtes à votre proxy au lieu de les envoyer directement à OpenRouter.
⚠️ Assicurati di avviare Ollama impostando la variabile d'ambiente OLLAMA_ORIGINS="*" per evitare errori CORS.
Es. qwen2.5:3b o llama3.2 (Ollama), llama3-8b-8192 (Groq), gpt-4o-mini (OpenAI), gemini-1.5-flash (Gemini)
🔲 Genera QR Code
Inserisci un URL o un testo per generare un QR Code al volo.
💾 Salva Documento
Scegli cosa includere nel file da scaricare:
🎨 Personalizza Brand
Personalizza l'aspetto dei link spettatore e invia schermate di pausa.
🔥 Configura Firebase Cloud
Crea un progetto gratuito su Firebase, attiva il "Realtime Database" (in modalità di test) e incolla qui le credenziali per supportare centinaia di spettatori.
