Accesso Riservato
Inserisci la password per accedere.
Live Translator
Pro AI Engine🌐 Traduzione & Sintesi
🔊 Audio & Trasmissione
✨ Modificatori AI
🛠️ Configurazione
Usa la dictado del computador o pega texto: la app traduce y resume como si fuera un micrófono en vivo.
📦 Esporta Standalone
Scarica il codice sorgente completo di quest'app. La versione scaricata non dipenderà più da Miniapps.ai e potrai usarla gratuitamente hostandola ovunque (GitHub Pages, Vercel, PC locale).
Motori AI Supportati:
- Groq: Modelli gratuiti e velocissimi (es. Llama 3) via API.
- OpenAI: Tramite la tua chiave API ufficiale.
- OpenRouter: routing smart tra più modelli, fallback e controllo costi.
- Ollama / LM Studio: 100% Locale e Offline (nessun costo, privacy totale).
⚠️ Nota per l'uso locale (Microfono): Se apri il file scaricato facendo doppio clic (indirizzo file://...), il browser potrebbe chiederti il consenso del microfono ad ogni singola pausa di ascolto. Per evitarlo e rendere il permesso permanente, avvia l'app tramite un server locale (es. l'estensione Live Server su VSCode) oppure pubblicala su uno spazio web gratuito (es. GitHub Pages).
⚙️ Motori IA (Trascrizione & Traduzione)
Configura i provider per la voce e per il testo. L'uso di chiavi personali aggira eventuali manutenzioni del sito.
🎙️ Trascrizione Vocale (STT)
El modo Auto ya no cambia solo a dictado. Para audio de la PC usa Reconocimiento desde PC y elige “Audio PC desde tarjeta/pantalla” o un loopback/stereo mix.
Ottieni una chiave gratuita (con crediti iniziali) su console.deepgram.com. La quota free è sufficiente per ore di trascrizione.
Usa tu propia clave de Groq. Las llamadas directas desde el navegador pueden ser bloqueadas por CORS: para eventos públicos se recomienda un proxy backend.
Si se configura, el audio se envía a tu proxy en lugar de directamente a Groq.
Usa solo IDs de modelo STT compatibles con Groq; si no estás seguro qué usar, quédate con turbo o large-v3.
Configura AssemblyAI para mostrar solo frases completas. Para subtítulos frase por frase usa sobre todo el umbral de silencio; el force-end es opcional y conservador.
AssemblyAI usa WebSockets. Si el navegador bloquea la solicitud del token, usa un proxy (POST apiKey → devuelve token).
Más bajo = frases más cortas; más alto = bloques más largos.
0 desactiva el corte por tiempo.
Campo libre: agrega cualquier parámetro de consulta soportado por AssemblyAI. token, sample_rate y end_utterance_silence_threshold se manejan automáticamente.
Nota: Ollama deve supportare l'endpoint /v1/audio/transcriptions. Imposta OLLAMA_ORIGINS="*".
LM Studio: attiva il Local Server su porta 1234 con CORS abilitato e usa l'indirizzo locale. Open WebUI: usa l'URL corretto.
Motore AI (Traduzione & Riassunto)
El modelo NLLB se carga solo en la primera traducción local, no cuando guardas la configuración.
OpenRouter usa distintos modelos para traducción en vivo, resúmenes y fallback. Para eventos públicos se recomienda un proxy backend: no expongas la clave de API en el navegador.
Si se configura, la app envía las solicitudes a tu proxy en vez de directamente a OpenRouter.
⚠️ Assicurati di avviare Ollama impostando la variabile d'ambiente OLLAMA_ORIGINS="*" per evitare errori CORS.
Es. qwen2.5:3b o llama3.2 (Ollama), llama3-8b-8192 (Groq), gpt-4o-mini (OpenAI), gemini-1.5-flash (Gemini)
🔲 Genera QR Code
Inserisci un URL o un testo per generare un QR Code al volo.
💾 Salva Documento
Scegli cosa includere nel file da scaricare:
🎨 Personalizza Brand
Personalizza l'aspetto dei link spettatore e invia schermate di pausa.
🔥 Configura Firebase Cloud
Crea un progetto gratuito su Firebase, attiva il "Realtime Database" (in modalità di test) e incolla qui le credenziali per supportare centinaia di spettatori.
