Accesso Riservato
Inserisci la password per accedere.
Live Translator
Pro AI Engine🌐 Traduzione & Sintesi
🔊 Audio & Trasmissione
✨ Modificatori AI
🛠️ Configurazione
Usa la dettatura del computer o incolla testo: l'app traduce e riassume come se fosse microfono live.
📦 Esporta Standalone
Scarica il codice sorgente completo di quest'app. La versione scaricata non dipenderà più da Miniapps.ai e potrai usarla gratuitamente hostandola ovunque (GitHub Pages, Vercel, PC locale).
Motori AI Supportati:
- Groq: Modelli gratuiti e velocissimi (es. Llama 3) via API.
- OpenAI: Tramite la tua chiave API ufficiale.
- OpenRouter: routing smart tra più modelli, fallback e controllo costi.
- Ollama / LM Studio: 100% Locale e Offline (nessun costo, privacy totale).
⚠️ Nota per l'uso locale (Microfono): Se apri il file scaricato facendo doppio clic (indirizzo file://...), il browser potrebbe chiederti il consenso del microfono ad ogni singola pausa di ascolto. Per evitarlo e rendere il permesso permanente, avvia l'app tramite un server locale (es. l'estensione Live Server su VSCode) oppure pubblicala su uno spazio web gratuito (es. GitHub Pages).
⚙️ Motori IA (Trascrizione & Traduzione)
Configura i provider per la voce e per il testo. L'uso di chiavi personali aggira eventuali manutenzioni del sito.
🎙️ Trascrizione Vocale (STT)
La modalità Auto non passa più da sola alla dettatura. Per audio del PC usa Riconoscimento da PC e scegli “Audio PC da scheda/schermo” oppure un loopback/stereo mix.
Ottieni una chiave gratuita (con crediti iniziali) su console.deepgram.com. La quota free è sufficiente per ore di trascrizione.
Usa una tua chiave Groq. Le chiamate dirette dal browser possono essere bloccate da CORS: per eventi pubblici è consigliato un proxy backend.
Se impostato, l'audio viene inviato al tuo proxy invece che direttamente a Groq.
Usa solo ID modello STT supportati da Groq; se non sei sicuro resta su turbo o large-v3.
Configura AssemblyAI per mostrare solo frasi concluse. Per sottotitoli frase-per-frase usa soprattutto la soglia di silenzio; il force-end è opzionale e conservativo.
AssemblyAI usa WebSockets. Se il browser blocca la richiesta del token, usa un proxy (POST apiKey → restituisce token).
Più basso = frasi più corte; più alto = blocchi più lunghi.
0 disattiva il taglio a tempo.
Campo libero: aggiungi qualsiasi parametro query supportato da AssemblyAI. token, sample_rate ed end_utterance_silence_threshold vengono gestiti automaticamente.
Nota: Ollama deve supportare l'endpoint /v1/audio/transcriptions. Imposta OLLAMA_ORIGINS="*".
LM Studio: attiva il Local Server su porta 1234 con CORS abilitato e usa l'indirizzo locale. Open WebUI: usa l'URL corretto.
Motore AI (Traduzione & Riassunto)
Il modello NLLB viene caricato solo alla prima traduzione locale, non quando salvi le impostazioni.
OpenRouter usa modelli diversi per traduzione live, riassunti e fallback. Per eventi pubblici è consigliato un proxy backend: non esporre API key nel browser.
Se impostato, l'app invia le richieste al tuo proxy invece che direttamente a OpenRouter.
⚠️ Assicurati di avviare Ollama impostando la variabile d'ambiente OLLAMA_ORIGINS="*" per evitare errori CORS.
Es. qwen2.5:3b o llama3.2 (Ollama), llama3-8b-8192 (Groq), gpt-4o-mini (OpenAI), gemini-1.5-flash (Gemini)
🔲 Genera QR Code
Inserisci un URL o un testo per generare un QR Code al volo.
💾 Salva Documento
Scegli cosa includere nel file da scaricare:
🎨 Personalizza Brand
Personalizza l'aspetto dei link spettatore e invia schermate di pausa.
🔥 Configura Firebase Cloud
Crea un progetto gratuito su Firebase, attiva il "Realtime Database" (in modalità di test) e incolla qui le credenziali per supportare centinaia di spettatori.
