अपने लैपटॉप पर स्थानीय रूप से DeepSeek R1 को Ollama का उपयोग करके चलाना
जानें कि DeepSeek R1, एक मुफ्त, शक्तिशाली तर्क मॉडल जो OpenAI के o1 के बराबर है, को अपने लैपटॉप पर स्थानीय रूप से Ollama का उपयोग करके कैसे चलाएं, जिससे भारी कीमत चुकाए बिना अत्याधुनिक AI का लाभ उठाना पहले से कहीं अधिक आसान हो गया है।
DeepSeek R1 का परिचय
 यह इमेज 1 के लिए कैप्शन है DeepSeek R1 एक ओपन-सोर्स तर्क मॉडल है जो OpenAI के o1 मॉडल के बराबर है, जिसे एक चीनी AI रिसर्च लैब द्वारा जारी किया गया है। इस मॉडल ने AI की दुनिया में तूफान ला दिया है, खासकर उन लोगों के लिए जो समान सेवाओं के लिए प्रति माह $200 का भुगतान करते हैं। इस लेख में, हम DeepSeek R1 का उपयोग स्थानीय रूप से और मुफ्त में करने के बारे में जानेंगे।
OpenAI के o1 मॉडल के साथ DeepSeek R1 की तुलना
सेटअप प्रक्रिया में जाने से पहले, आइए DeepSeek R1 और OpenAI के o1 मॉडल के बीच कुछ तुलनाओं पर एक नज़र डालते हैं। DeepSeek R1 ने गणित बेंचमार्क, कोडिंग में असाधारण रूप से अच्छा प्रदर्शन किया है, और यहां तक कि कुछ मामलों में OpenAI के o1 मॉडल से भी आगे निकल गया है, जैसे कि Math 500। यह DeepSeek R1 को OpenAI के o1 मॉडल का एक शक्तिशाली विकल्प बनाता है।
DeepSeek R1 को स्थानीय रूप से चलाने के लिए Ollama को सेटअप करना
यह इमेज 2 के लिए कैप्शन है
DeepSeek R1 को स्थानीय रूप से चलाने के लिए, हम Ollama का उपयोग करेंगे। सबसे पहले, हमें Ollama को उनकी आधिकारिक वेबसाइट से डाउनलोड और इंस्टॉल करना होगा। एक बार इंस्टॉल हो जाने के बाद, हम मॉडल अनुभाग तक पहुंच सकते हैं और DeepSeek R1 का चयन कर सकते हैं। DeepSeek R1 विभिन्न प्रारूपों में अलग-अलग पैरामीटर गणनाओं के साथ आता है, जो 1.5 बिलियन से लेकर 671 बिलियन तक होता है। मॉडल का चुनाव उपलब्ध हार्डवेयर और मेमोरी पर निर्भर करता है।
सही मॉडल और हार्डवेयर आवश्यकताओं का चयन करना
यह इमेज 3 के लिए कैप्शन है
प्रत्येक मॉडल की विशिष्ट हार्डवेयर आवश्यकताएं होती हैं। उदाहरण के लिए, 1.5 बिलियन पैरामीटर मॉडल को लगभग 8GB मेमोरी की आवश्यकता होती है, जबकि 70 बिलियन पैरामीटर मॉडल को कम से कम 128GB मेमोरी की आवश्यकता होती है। सुचारू प्रदर्शन सुनिश्चित करने के लिए अपनी हार्डवेयर क्षमताओं से मेल खाने वाला मॉडल चुनना आवश्यक है।
DeepSeek R1 को स्थानीय रूप से चलाना
एक बार जब हम अपना मॉडल चुन लेते हैं, तो हम DeepSeek R1 को डाउनलोड और सेटअप करने के लिए कमांड चला सकते हैं। इंटरनेट की गति के आधार पर डाउनलोड प्रक्रिया में कुछ समय लग सकता है। मॉडल डाउनलोड होने के बाद, हम कोई भी संदेश या प्रश्न टाइप करके इसके साथ बातचीत करना शुरू कर सकते हैं। DeepSeek R1 अपनी सोचने की प्रक्रिया को प्रदर्शित करेगा, और हम देख सकते हैं कि यह अपने अंतिम आउटपुट पर कैसे पहुंचता है।
DeepSeek R1 का मुफ्त में उपयोग करना
यह इमेज 4 के लिए कैप्शन है
यदि हार्डवेयर सीमाओं के कारण DeepSeek R1 को स्थानीय रूप से चलाना संभव नहीं है, तो हम इसे chat.deepseek.com वेबसाइट पर मुफ्त में उपयोग कर सकते हैं। यह वेबसाइट हमें स्थानीय स्थापना की आवश्यकता के बिना, सीधे DeepSeek R1 के साथ बातचीत करने की अनुमति देती है। हालाँकि, ध्यान रखें कि जो भी इनपुट दिया गया है, उसका उपयोग उनके मॉडल को प्रशिक्षित करने के लिए किया जाएगा, इसलिए संवेदनशील जानकारी साझा न करना आवश्यक है।
निष्कर्ष
Ollama का उपयोग करके अपने लैपटॉप पर स्थानीय रूप से DeepSeek R1 को चलाना महत्वपूर्ण लागतों को खर्च किए बिना अत्याधुनिक AI तकनीक का लाभ उठाने का एक रोमांचक अवसर प्रदान करता है। अपने प्रभावशाली प्रदर्शन और विभिन्न मॉडल विकल्पों के साथ, DeepSeek R1 OpenAI के o1 मॉडल का एक आकर्षक विकल्प है। चाहे आप इसे स्थानीय रूप से चलाना चाहें या DeepSeek वेबसाइट पर मुफ्त में उपयोग करना चाहें, DeepSeek R1 निश्चित रूप से AI और मशीन लर्निंग में रुचि रखने वाले किसी भी व्यक्ति के लिए तलाशने लायक है।