फिक्शन फोर्ज
नॉवेल-राइटिंग इंजन
चिंगारी
अपनी कहानी की आत्मा तय करें। एक शैली चुनें, लक्षित लंबाई निर्धारित करें, और कथानक के बीज बोएँ।
यह कलाकार समूह के आकार और कहानी की जटिलता को निर्धारित करता है।
प्रस्तावना गढ़ी जा रही है...
चरित्र भट्टी
अपने मुख्य कलाकार को निर्धारित करें, और एआई को आपकी कहानी की लंबाई के आधार पर सहायक मध्यम और गौण पात्र उत्पन्न करने दें।
मुख्य और सहायक पात्र गढ़े जा रहे हैं...
मुख्य कलाकार
सहायक कलाकार (मध्यम और गौण)
द वर्ल्डबिल्डर
आइसबर्ग तैयार करें: सतह, उथल-पुथल, गहराई और अथाह गहराई।
गहराइयों की जाँच कर रहे हैं...
द आर्किटेक्ट
फ्रैक्टल रूपरेखा: कंकाल से पूरे अध्याय बीट्स तक।
कंकाल का प्रारूप तैयार कर रहे हैं...
द फोर्ज
घोस्टराइटर लूप। बाईं ओर रूपरेखा, दाईं ओर पांडुलिपि।
Generating Beat...
द बाइंडरी
अपनी किताब का कवर डिज़ाइन करें, परफेक्ट शीर्षक गढ़ें, और प्रकाशित करने से पहले बैक-कवर ब्लर्ब लिखें।
No Cover Art
Painting masterpiece...
Fiction Forge का उपयोग कैसे करें
अल्टीमेट एआई नॉवेल-राइटिंग इंजन में आपका स्वागत है। अपनी कृति बनाने के लिए 6 चरणों का पालन करें।
Phase 1: The Spark
अपनी शैली, शब्द संख्या और प्रिमाइस निर्धारित करें। इंजन आपकी प्रारंभिक प्रॉम्प्ट के आधार पर दुनिया के बारे में आपसे गतिशील रूप से प्रश्न करेगा।
Phase 2: Character Forge
कास्ट का आकार स्वतः स्केल होता है। हम मनोवैज्ञानिक प्रोफ़ाइल, MBTI गुण बनाते हैं, और Flux मॉडल के ज़रिए दृश्य पोर्ट्रेट भी बना सकते हैं।
Phase 3: Worldbuilder
4-स्तरीय Iceberg थ्योरी का उपयोग करके, हम सतह, उथला, गहरा और अतल कथानक उपपाठ तय करते हैं ताकि आपकी कहानी में गहराई आ सके।
Phase 4: Architect
फ्रैक्टल आउटलाइनिंग 7-बिंदु का कंकाल मैप करती है, अध्यायों की संख्या निकालती है और कहानी को गणितीय रूप से माइक्रो-बीट्स में विभाजित करती है।
Phase 5: The Forge
अनंत घोस्टराइटर लूप। इंजन आपके आउटलाइन ट्रैकर और रोलिंग मेमोरी कैश पर आधारित होकर बिना बाधा के लिखता है। इसे चलते रहने दें!
Phase 6: The Bindery
एक शीर्षक, विवरण और एआई कवर आर्ट तैयार करें। अंत में, पूरे पांडुलिपि को डायनेमिक रूप से संकलित कर प्रिंट-रेडी PDF फ़ॉर्मेट में बदलने के लिए Export दबाएँ।
v1.5 - को-राइटर (मिड टियर) ओवरहॉल
MATH CALIBRATION: Scaled Mid Tier pacing down from 1,000 words/beat to 800 words/beat (2,500 words per chapter). This aligns perfectly with the natural output limitations of rapid models like Haiku and Flash, eliminating prose padding and rambling.
CLAUDE HAIKU PROMOTION: DeepSeek V3 was still handling structural logic for the Mid Tier, risking the same timeouts. Claude 3.5 Haiku has been promoted to the primary structural brain for Mid Tier due to its lightning-fast reasoning and low cost.
v1.4 - जेमिनी फ्लैश प्रमोशन
MATH CALIBRATION: Adjusted Premium tier chapter calculations to estimate 3,400 words per chapter. This corrects a pacing bug where the engine would over-generate text (giving you 180k words on a 150k word target).
WORKER BEE SWAP: DeepSeek V3 was suffering from severe API latency and timeouts under high load. Gemini 2.5 Flash has been promoted to the primary prose-generating worker bee to drastically improve generation speed and eliminate loop interruptions.
v1.3 - डायरेक्टर / वर्कर बी आर्किटेक्चर
DEEPSEEK INTEGRATION: Re-architected the Masterwork tier to split brain functions. Expensive, high-logic "Director" models (like Gemini 3.1 Pro) handle planning, world-building, and macro-structuring. The heavy lifting of raw prose generation is now dynamically outsourced to ultra-efficient "Worker Bee" models like DeepSeek V3.
MASSIVE COST REDUCTION: By combining this model-routing split with the Rolling Context Window, Masterwork prose generation costs have plummeted to roughly 18-26 credits per beat—saving approximately 93% (1/15th the cost) compared to previous legacy generations that forced premium models for all tasks.
v1.2 - मास्टरवर्क LLM ऑप्टिमाइज़ेशन
HARDWIRED LLM ROUTING: Premium Tier explicitly routes Logic/World building to Gemini 3.1 Pro Preview and Prose/Characters to Claude 4.6 Sonnet for maximum literary quality. Mid-Tier balances cost and speed using DeepSeek V3 and Claude 3.5 Haiku.
ROLLING CONTEXT WINDOW (ANTI-SNOWBALL): To prevent exponential token bloat, the Forge Engine restricts the injection of previous prose to exactly 800 words. Combined with the Master Outline and Cache, inputs are strictly capped around ~1,450 tokens. This guarantees a flat-rate cost structure per beat.
FRACTAL BEAT SCALING: Output instructions adapt dynamically to the AI Tier. Premium forces 4 beats per chapter at ~700 words each (highly detailed, sensory prose). Mid-Tier forces 3 beats per chapter at ~1,000 words each (plot-driven, utilitarian pacing).
TOKEN & CREDIT ECONOMICS: A full 50,000-word novel scales predictably:
• Premium (Sonnet): 18 chapters / 72 beats. ~20 credits/beat. Total cost: ~1,440 credits.
• Mid-Tier (Haiku/DeepSeek): 17 chapters / 51 beats. ~7 credits/beat. Total cost: ~357 credits.
v1.1 - गुटेनबर्ग प्रिंट अपडेट
NATIVE DARK MODE PDF: Added explicit rendering toggles to bypass default browser print settings, enabling true dark mode PDFs with #121212 backgrounds and #e0e0e0 text.
MANUSCRIPT REFLOW: Refactored text parsing engine to discard pre-wrap logic and dynamically wrap newlines into semantic HTML paragraphs with text-indent and justification. Resolves ragged edges on mobile PDF viewers.
ANTI-RASTERIZATION: Stripped all CSS filters and backdrop-blurs during the print compilation phase to prevent mobile browsers from treating text as low-res screenshot images.
v1.0 - मास्टरपीस आर्किटेक्चर
STATE & STORAGE: Migrated from standard localStorage (1MB cloud limit) to IndexedDB for manuscript payloads. This allows up to ~500,000+ words to be cached locally without triggering quota limits, while the structural metadata (outlines/characters) syncs to the cloud. Library architecture uses 'Active' and 'Basement' logic for cold storage.
LLM ROUTING: Dynamic EngineManager dynamically routes tasks. Draft Tier strictly hits free models (GPT-4o Mini, Gemini, Llama 3). Co-Writer Tier routes logic/prose to DeepSeek V3 and Claude 3.5 Haiku. Masterwork Tier leverages GPT-5 and Claude Opus capabilities. Advanced JSON regex extraction claws recover broken model responses.
PHASE 1 (SPARK): Procedural contextual generation. Options feed recursively back into a deep-dive questionnaire engine to exponentially expand worldbuilding lore.
PHASE 2 (CHARACTERS): Math-based algorithmic scaling. Target wordcount dictates cast size (e.g. >50k words spawns up to 13 unique characters). Deep profile mapping via MBTI traits, interconnected motivations, and native image generation calls via Flux via MiniappsAI.
PHASE 3 (WORLDBUILDER): Thematic scaffolding using the 4-tier Iceberg Theory (Surface, Shallows, Deep, Abyss) to force models to account for subtext during prose generation.
PHASE 4 (ARCHITECT): True fractal outlining. Creates a 7-point skeleton -> Estimates total chapters via (TargetWords / 3000) -> Batches chapter chunks to the LLM to write granular micro-beats. It maintains a rolling [CACHE] state (Location/Time/Status) passing forward to preserve agent memory.
PHASE 5 (FORGE): Infinite Ghostwriter Async Loop. Injects previous 800 words + current cache + specific beat text into prompt. Uses dynamic tier-based chunking (e.g., Free tier generates micro 300-word sections, Masterwork generates massive 1500-word blocks). Implements continuity-editor boundary-smoothing for fragmented models.
PHASE 6 (BINDERY): Auto-generates final metadata (blurb/title/cover). Injects data into DOM and replaces standard HTML tree with native print-CSS classes (break-before: page, text-indent, orphans/widows management) bypassing standard render limits directly into browser PDF engine.
