Accesso Riservato
Inserisci la password per accedere.
Live Translator
Pro AI Engine🌐 Traduzione & Sintesi
🔊 Audio & Trasmissione
✨ Modificatori AI
🛠️ Configurazione
Nutze die Computerdiktierfunktion oder füge Text ein: Die App übersetzt und fasst zusammen, als wäre es ein Live‑Mikrofon.
📦 Esporta Standalone
Scarica il codice sorgente completo di quest'app. La versione scaricata non dipenderà più da Miniapps.ai e potrai usarla gratuitamente hostandola ovunque (GitHub Pages, Vercel, PC locale).
Motori AI Supportati:
- Groq: Modelli gratuiti e velocissimi (es. Llama 3) via API.
- OpenAI: Tramite la tua chiave API ufficiale.
- OpenRouter: routing smart tra più modelli, fallback e controllo costi.
- Ollama / LM Studio: 100% Locale e Offline (nessun costo, privacy totale).
⚠️ Nota per l'uso locale (Microfono): Se apri il file scaricato facendo doppio clic (indirizzo file://...), il browser potrebbe chiederti il consenso del microfono ad ogni singola pausa di ascolto. Per evitarlo e rendere il permesso permanente, avvia l'app tramite un server locale (es. l'estensione Live Server su VSCode) oppure pubblicala su uno spazio web gratuito (es. GitHub Pages).
⚙️ Motori IA (Trascrizione & Traduzione)
Configura i provider per la voce e per il testo. L'uso di chiavi personali aggira eventuali manutenzioni del sito.
🎙️ Trascrizione Vocale (STT)
Der Auto-Modus wechselt nicht mehr von allein zur Diktierfunktion. Für PC-Audio verwende PC-Erkennung und wähle „PC-Audio von Karte/Bildschirm“ oder ein Loopback/Stereo Mix.
Ottieni una chiave gratuita (con crediti iniziali) su console.deepgram.com. La quota free è sufficiente per ore di trascrizione.
Verwende deinen eigenen Groq-Schlüssel. Direkte Aufrufe aus dem Browser können von CORS blockiert werden: Für öffentliche Events wird ein Backend-Proxy empfohlen.
Wenn gesetzt, wird das Audio an deinen Proxy gesendet statt direkt an Groq.
Verwende nur STT-Modell-IDs, die von Groq unterstützt werden; wenn du unsicher bist, bleib bei turbo oder large-v3.
Konfiguriere AssemblyAI so, dass nur abgeschlossene Sätze angezeigt werden. Für Untertitel Satz für Satz nutze vor allem die Stille-Schwelle; force-end ist optional und konservativ.
AssemblyAI verwendet WebSockets. Wenn der Browser die Token-Anfrage blockiert, nutze einen Proxy (POST apiKey → gibt Token zurück).
Niedriger = kürzere Sätze; höher = längere Blöcke.
0 deaktiviert das zeitbasierte Abschneiden.
Freies Feld: Füge beliebige Query‑Parameter hinzu, die von AssemblyAI unterstützt werden. token, sample_rate und end_utterance_silence_threshold werden automatisch verwaltet.
Nota: Ollama deve supportare l'endpoint /v1/audio/transcriptions. Imposta OLLAMA_ORIGINS="*".
LM Studio: attiva il Local Server su porta 1234 con CORS abilitato e usa l'indirizzo locale. Open WebUI: usa l'URL corretto.
Motore AI (Traduzione & Riassunto)
Das NLLB-Modell wird erst beim ersten lokalen Übersetzen geladen, nicht beim Speichern der Einstellungen.
OpenRouter verwendet unterschiedliche Modelle für Live‑Übersetzung, Zusammenfassungen und Fallback. Für öffentliche Veranstaltungen wird ein Backend‑Proxy empfohlen: API‑Schlüssel nicht im Browser exponieren.
Wenn gesetzt, sendet die App Anfragen an deinen Proxy statt direkt an OpenRouter.
⚠️ Assicurati di avviare Ollama impostando la variabile d'ambiente OLLAMA_ORIGINS="*" per evitare errori CORS.
Es. qwen2.5:3b o llama3.2 (Ollama), llama3-8b-8192 (Groq), gpt-4o-mini (OpenAI), gemini-1.5-flash (Gemini)
🔲 Genera QR Code
Inserisci un URL o un testo per generare un QR Code al volo.
💾 Salva Documento
Scegli cosa includere nel file da scaricare:
🎨 Personalizza Brand
Personalizza l'aspetto dei link spettatore e invia schermate di pausa.
🔥 Configura Firebase Cloud
Crea un progetto gratuito su Firebase, attiva il "Realtime Database" (in modalità di test) e incolla qui le credenziali per supportare centinaia di spettatori.
