Accesso Riservato
Inserisci la password per accedere.
Live Translator
Pro AI Engine🌐 Traduzione & Sintesi
🔊 Audio & Trasmissione
✨ Modificatori AI
🛠️ Configurazione
Use a dictação do computador ou cole texto: o app traduz e resume como se fosse um microfone ao vivo.
📦 Esporta Standalone
Scarica il codice sorgente completo di quest'app. La versione scaricata non dipenderà più da Miniapps.ai e potrai usarla gratuitamente hostandola ovunque (GitHub Pages, Vercel, PC locale).
Motori AI Supportati:
- Groq: Modelli gratuiti e velocissimi (es. Llama 3) via API.
- OpenAI: Tramite la tua chiave API ufficiale.
- OpenRouter: routing smart tra più modelli, fallback e controllo costi.
- Ollama / LM Studio: 100% Locale e Offline (nessun costo, privacy totale).
⚠️ Nota per l'uso locale (Microfono): Se apri il file scaricato facendo doppio clic (indirizzo file://...), il browser potrebbe chiederti il consenso del microfono ad ogni singola pausa di ascolto. Per evitarlo e rendere il permesso permanente, avvia l'app tramite un server locale (es. l'estensione Live Server su VSCode) oppure pubblicala su uno spazio web gratuito (es. GitHub Pages).
⚙️ Motori IA (Trascrizione & Traduzione)
Configura i provider per la voce e per il testo. L'uso di chiavi personali aggira eventuali manutenzioni del sito.
🎙️ Trascrizione Vocale (STT)
O modo Auto não alterna mais sozinho para a ditadura. Para áudio do PC use Reconhecimento do PC e escolha “Áudio do PC de aba/tela” ou um loopback/stereo mix.
Ottieni una chiave gratuita (con crediti iniziali) su console.deepgram.com. La quota free è sufficiente per ore di trascrizione.
Use sua própria chave Groq. Chamadas diretas do navegador podem ser bloqueadas por CORS: para eventos públicos é recomendado um proxy de backend.
Se definido, o áudio é enviado para o seu proxy em vez de diretamente para o Groq.
Use apenas IDs de modelos STT suportados pela Groq; se não tiver certeza, mantenha turbo ou large-v3.
Configure o AssemblyAI para mostrar somente frases concluídas. Para legendas frase a frase use principalmente o limiar de silêncio; o force-end é opcional e conservador.
AssemblyAI usa WebSockets. Se o navegador bloquear a requisição do token, use um proxy (POST apiKey → retorna token).
Mais baixo = frases mais curtas; mais alto = blocos mais longos.
0 desativa o corte por tempo.
Campo livre: adicione qualquer parâmetro de query compatível com o AssemblyAI. token, sample_rate e end_utterance_silence_threshold são gerenciados automaticamente.
Nota: Ollama deve supportare l'endpoint /v1/audio/transcriptions. Imposta OLLAMA_ORIGINS="*".
LM Studio: attiva il Local Server su porta 1234 con CORS abilitato e usa l'indirizzo locale. Open WebUI: usa l'URL corretto.
Motore AI (Traduzione & Riassunto)
O modelo NLLB é carregado somente na primeira tradução local, não quando você salva as configurações.
O OpenRouter usa modelos diferentes para tradução ao vivo, resumos e fallback. Para eventos públicos é recomendável um proxy backend: não exponha a chave de API no navegador.
Se definido, o app envia as requisições para o seu proxy em vez de diretamente para o OpenRouter.
⚠️ Assicurati di avviare Ollama impostando la variabile d'ambiente OLLAMA_ORIGINS="*" per evitare errori CORS.
Es. qwen2.5:3b o llama3.2 (Ollama), llama3-8b-8192 (Groq), gpt-4o-mini (OpenAI), gemini-1.5-flash (Gemini)
🔲 Genera QR Code
Inserisci un URL o un testo per generare un QR Code al volo.
💾 Salva Documento
Scegli cosa includere nel file da scaricare:
🎨 Personalizza Brand
Personalizza l'aspetto dei link spettatore e invia schermate di pausa.
🔥 Configura Firebase Cloud
Crea un progetto gratuito su Firebase, attiva il "Realtime Database" (in modalità di test) e incolla qui le credenziali per supportare centinaia di spettatori.
