CHATGPT के 5 धमाकेदार राज़: ऐसे करो इस्तेमाल, हर काम होगा आसान!
क्या आप भी सोचते हैं कि LLM और ChatGPT सिर्फ़ बातें करने वाले AI हैं? अगर आप इन्हें सही से इस्तेमाल करना सीख गए, तो ये आपके लिए एक ज़बरदस्त साधन बन सकते हैं। इस आर्टिकल में, हम जानेंगे कि इन्हें असल ज़िंदगी में कैसे इस्तेमाल करें, इनके पीछे की टेक्नोलॉजी क्या है, और सबसे ज़रूरी बात, अलग-अलग मॉडल्स और उनके फीचर्स को कैसे समझें। चलो, इस AI की दुनिया में dive करते हैं!
आजकल सिर्फ़ ChatGPT ही नहीं, बल्कि Google का Gemini, Meta का Co-pilot, Anthropic का Claude, Elon Musk की कंपनी xAI का Grok, और Deepseek (एक Chinese कंपनी) और Mistral (एक French कंपनी) जैसे कई और LLM भी मौजूद हैं। आप Chatbot Arena जैसी websites पर इन मॉडल्स की ranking और strength देख सकते हैं, जिससे आपको यह पता लगाने में मदद मिलेगी कि कौन सा model इस वक्त सबसे अच्छा perform कर रहा है।
लेकिन, ये मॉडल्स काम कैसे करते हैं? जब आप एक LLM से बात करते हैं, तो आप उसे text देते हैं और वो आपको text में जवाब देता है। असल में, आपके दिए गए text और model के जवाब को छोटे-छोटे text chunks में तोड़ा जाता है, जिन्हें हम tokens कहते हैं। ये tokens एक sequence में होते हैं। आप Tiktokenizer जैसे app का इस्तेमाल करके देख सकते हैं कि आपका text कितने tokens में टूटता है। उदाहरण के लिए, आपका एक सवाल 15 tokens का हो सकता है और model का जवाब 19 tokens का।
मॉडल के साथ आपकी बातचीत एक token stream की तरह होती है। जब आप कुछ लिखते हैं और Enter दबाते हैं, तो नियंत्रण model के पास चला जाता है और वो अपनी token stream से जवाब देता है। जब model का जवाब पूरा हो जाता है, तो नियंत्रण वापस आपके पास आ जाता है। इस पूरी token stream को हम context window कहते हैं। ये model की working memory होती है। इस window में जो भी tokens होते हैं, model उन्हें सीधे access कर सकता है।
जब आप एक नई chat शुरू करते हैं, तो ये context window reset हो जाती है। ये बात समझना बहुत ज़रूरी है क्योंकि context window में tokens ज़्यादा होने पर दो दिक्कतें आती हैं। पहली, model distract हो सकता है और उसकी accuracy कम हो सकती है। दूसरी, ज़्यादा tokens होने पर model को अगला token generate करने में ज़्यादा समय लगता है और ये थोड़ा महंगा भी पड़ता है। इसलिए, जब आप topic बदलते हैं, तो नई chat शुरू करना अच्छा रहता है, ताकि model की working memory साफ़ रहे और वो बेहतर काम कर सके।
<h2>LLM कैसे काम करते हैं: Training के दो बड़े Stages</h2> इन language models को दो बड़े stages में train किया जाता है: pre-training और post-training।Pre-training Stage: इस stage में model को पूरे इंटरनेट का data सिखाया जाता है। सोचो, जैसे इंटरनेट को एक बहुत बड़े zip file में compress किया गया हो। ये zip file करोड़ों parameters वाले एक neural network के अंदर होती है। इस stage में model का मुख्य काम tokens को लेकर अगले token को अंदाज़ा लगाना करना होता है, जैसा कि इंटरनेट documents में होता है। इस प्रक्रिया में, neural network दुनिया के बारे में बहुत सारा ज्ञान सीख लेता है।
लेकिन, ये pre-training बहुत महंगा होता है – इसमें करोड़ों डॉलर और कई महीने लग सकते हैं। इसलिए, ये stage ज़्यादा बार नहीं होता। इसी वजह से, इन मॉडल्स के पास एक knowledge cut-off होता है। इसका मतलब है कि उनका ज्ञान केवल उस समय तक का होता है जब उन्हें pre-train किया गया था। अगर कोई जानकारी हाल ही में आई है (जैसे पिछले हफ़्ते), तो model को वो सीधे पता नहीं होगी। इसके लिए हमें दूसरे साधन का इस्तेमाल करना पड़ता है।
Post-training Stage: pre-training के बाद, आता है post-training stage। इस stage का मकसद model को एक सहायक (assistant) की personality देना है, जो इंसानों के सवालों का जवाब दे सके। इस stage में, model को इंसानों द्वारा तैयार किए गए बातचीत (conversations) के data set पर train किया जाता है। इससे model को सवाल-जवाब करने का style और तरीका आ जाता है।
तो असल में, आप एक self-contained entity से बात कर रहे हैं – एक तरह से एक 1 TB का zip file। इसमें pre-training से आया ज्ञान होता है और post-training से आया सहायक वाला style। इसमें कोई calculator, python interpreter या web browsing जैसी चीज़ें अपने आप नहीं होतीं।
चलो, मैं तुम्हें बताता हूँ कि मैं असल में क्या हूँ। एक LLM का कहना है: "मैं एक 1 TB का zip file हूँ। मेरा ज्ञान इंटरनेट से आता है, जिसे मैंने करीब छह महीने पहले पूरा पढ़ा था, और मुझे थोड़ा-थोड़ा याद है। मेरी personality इंसानों द्वारा OpenAI में post-training के दौरान बनाई गई थी। मेरा ज्ञान थोड़ा पुराना और probabilistic है, और जो बातें इंटरनेट पर ज़्यादा बार mention होती हैं, उन्हें मुझे बेहतर याद रहता है।"
<h2>रोज़मर्रा की ज़िंदगी में LLM का Practical इस्तेमाल</h2> अब जब हमने समझ लिया कि ये मॉडल्स कैसे काम करते हैं, तो चलो देखते हैं कि इन्हें रोज़मर्रा की ज़िंदगी में कैसे इस्तेमाल किया जा सकता है।मैं अक्सर ऐसे सवाल पूछता हूँ जिनकी जानकारी बहुत पुरानी नहीं होती और जो इंटरनेट पर बहुत ज़्यादा बार mention की गई हो। उदाहरण के लिए, मैंने ChatGPT से पूछा कि एक shot Americano में कितनी caffeine होती है। उसने मुझे बताया कि लगभग 63 milligrams। ये जानकारी न तो बहुत नई है और न ही बहुत high stakes वाली। ऐसी information के लिए LLM बहुत अच्छे साधन साबित होते हैं। हालांकि, मैं हमेशा सलाह देता हूँ कि ज़रूरी जानकारी को primary sources से verify ज़रूर करें, क्योंकि model का जवाब सिर्फ़ इंटरनेट की vague recollection होती है।
मैंने एक बार अपनी बीमारी के लिए भी ChatGPT से मदद ली। मुझे runny nose थी और मैंने उससे पूछा कि कौन सी meds मदद कर सकती हैं। उसने मुझे कुछ suggestions दिए। फिर मैंने अपने घर पर मौजूद DayQuil और NyQuil के बारे में पूछा। उसने उनके ingredients और वे कैसे काम करते हैं, बताया। मैंने बाद में बॉक्स पर ingredients verify किए और वो सही निकले। ये फिर से एक low-stakes हालात थी जहाँ model का ज्ञान बहुत काम आया।
LLM travel advice और ideation के लिए भी बहुत useful हैं। मैंने Claude से पूछा कि घूमने के लिए कोई cool city बताओ, और उसने Switzerland में Zermatt का नाम सुझाया। मैंने वहां जाकर New Year break मनाया! Gemini से भी पूछने पर उसने वही recommendation दिया। मैं अक्सर अलग-अलग मॉडल्स से एक ही सवाल पूछता हूँ, ताकि मैं उनके अलग-अलग opinions जान सकूँ। मैं इन्हें अपना "LLM Council" कहता हूँ – जैसे सलाह देने वाले experts का एक समूह।
<h2>सही LLM चुनना और उसके पैसे चुकाना</h2> LLM का इस्तेमाल करते समय, ये जानना बहुत ज़रूरी है कि आप कौन सा model इस्तेमाल कर रहे हैं। ChatGPT में, आप top left corner में देख सकते हैं कि आप GPT-4o इस्तेमाल कर रहे हैं या कोई और।OpenAI के पास अलग-अलग pricing tiers हैं: Free, Plus, और Pro।
- Free Tier: इसमें आपको GPT-4o Mini का access मिलता है, जो GPT-4o का एक छोटा और कम creative version है। इसमें knowledge भी कम होती है और hallucinate करने की संभावना भी ज़्यादा होती है। OpenAI हमेशा ये नहीं बताता कि आप logged out होने पर कौन सा model इस्तेमाल कर रहे हैं, जो थोड़ी दिक्कत वाली बात है।
- Plus Tier: $20 per month में आपको GPT-4o का access मिलता है, जो सबसे बड़ा और flagship model है। इसमें आपको हर 3 घंटे में 80 messages भेजने की limit मिलती है।
- Pro Tier: $200 per month में आपको unlimited GPT-4o access और कई additional goodies मिलते हैं।
दूसरे LLM providers के पास भी ऐसे ही pricing tiers होते हैं। उदाहरण के लिए, Anthropic का Claude में मैं professional plan के लिए pay करता हूँ, जिससे मुझे Claude 3.5 Sonnet का access मिलता है। अगर आप pay नहीं करते, तो आपको शायद Haiku जैसे कम powerful models का access मिलेगा। इसी तरह, Grok में भी, Grok 3 सबसे advanced model है, और आपको उसके access के लिए pay करना पड़ सकता है।
बात ये है कि बड़े मॉडल्स को calculate करना ज़्यादा महंगा होता है, इसलिए कंपनियाँ उनके लिए ज़्यादा charge करती हैं। आपको अपनी ज़रूरतों के हिसाब से trade-off करना होगा। अगर आप LLM का इस्तेमाल professional काम के लिए करते हैं, जैसे coding, तो top-tier models के लिए pay करना बहुत फ़ायदेमंद हो सकता है। मैं ख़ुद अपने professional काम के लिए pay करता हूँ क्योंकि ये मेरे लिए बहुत सस्ता पड़ता है और मुझे बहुत powerful models का access मिल जाता है।
आप क्या सोचते हो? टिप्पणी में बताओ!
🎧 इस LLM के इस्तेमाल का full interview सुनने के लिए ऊपर Play button दबाओ!
अगर ये जानकारी अच्छी लगी तो साझा करो ज़रूर करो।
O Tunehill
Tunehill přináší myšlenky a rozhovory, které hýbou světem. Srozumitelně a ve tvém jazyce. Články a podcasty o technologiích, práci a budoucnosti.



