Spaces:
Sleeping
● Open Interpreter
अपने कंप्यूटर पर कोड चलाने के लिए भाषा मॉडल को चलाएं।
ओपनएआई कोड इंटरप्रेटर का एक ओपन-सोर्स, स्थानीय चलने वाला अमल।
डेस्कटॉप एप्लिकेशन को पहले से ही उपयोग करने के लिए एरली एक्सेस प्राप्त करें।
pip install open-interpreter
interpreter
ओपन इंटरप्रेटर एलएलएम कोड (पायथन, जावास्क्रिप्ट, शेल, और अधिक) को स्थानीय रूप से चलाने की अनुमति देता है। आप इंस्टॉल करने के बाद अपने टर्मिनल में $ interpreter
चलाकर ओपन इंटरप्रेटर के साथ एक चैटजीपीटी-जैसे इंटरफ़ेस के माध्यम से चैट कर सकते हैं।
यह आपके कंप्यूटर की सामान्य-उद्देश्य क्षमताओं के लिए एक प्राकृतिक भाषा इंटरफ़ेस प्रदान करता है:
- फ़ोटो, वीडियो, पीडीएफ़ आदि बनाएँ और संपादित करें।
- अनुसंधान करने के लिए एक क्रोम ब्राउज़र को नियंत्रित करें।
- बड़े डेटासेट को प्लॉट करें, साफ करें और विश्लेषण करें।
- ...आदि।
⚠️ ध्यान दें: कोड को चलाने से पहले आपसे मंज़ूरी मांगी जाएगी।
डेमो
त्वरित प्रारंभ
pip install open-interpreter
टर्मिनल
इंस्टॉलेशन के बाद, सीधे interpreter
चलाएं:
interpreter
पायथन
from interpreter import interpreter
interpreter.chat("AAPL और META के मानकीकृत स्टॉक मूल्यों का चित्रित करें") # एकल कमांड को निष्पादित करता है
interpreter.chat() # एक इंटरैक्टिव चैट शुरू करता है
ChatGPT के कोड इंटरप्रेटर के साथ तुलना
ओपनएआई द्वारा कोड इंटरप्रेटर का विमोचन। GPT-4 के साथ यह एक शानदार अवसर प्रस्तुत करता है जिससे ChatGPT के साथ वास्तविक दुनिया के कार्यों को पूरा करने का संभावना होती है।
हालांकि, ओपनएआई की सेवा होस्ट की जाती है, क्लोज़-स्रोत है और गहरी प्रतिबंधित है।
यहां दिए गए नियमों के अनुसार, चैटजीपीटी कोड इंटरप्रेटर के लिए निर्धारित नियमों को हिंदी में अनुवाद किया जा सकता है:
- कोई इंटरनेट पहुंच नहीं होती।
- प्रतिष्ठित सेट की सीमित संख्या के पहले स्थापित पैकेज होते हैं।
- 100 एमबी तक की अधिकतम अपलोड सीमा होती है।
- 120.0 सेकंड की रनटाइम सीमा होती है।
- जब एनवायरनमेंट समाप्त होता है, तो स्थिति साफ हो जाती है (साथ ही उत्पन्न किए गए फ़ाइल या लिंक भी)।
ओपन इंटरप्रेटर इन सीमाओं को पार करता है जो आपके स्थानीय वातावरण पर चलता है। इसके पास इंटरनेट का पूरा उपयोग होता है, समय या फ़ाइल का आकार पर प्रतिबंध नहीं होता है, और किसी भी पैकेज या लाइब्रेरी का उपयोग कर सकता है।
यह GPT-4 के कोड इंटरप्रेटर की शक्ति को आपके स्थानीय विकास वातावरण की लचीलापन के साथ मिलाता है।
Commands
Interactive Chat
To start an interactive chat in your terminal, either run interpreter
from the command line:
interpreter
Or interpreter.chat()
from a .py file:
interpreter.chat()
कमांड
इंटरैक्टिव चैट
अपने टर्मिनल में इंटरैक्टिव चैट शुरू करने के लिए, या तो कमांड लाइन से interpreter
चलाएँ:
interpreter
या एक .py फ़ाइल से interpreter.chat()
चलाएँ:
interpreter.chat()
### प्रोग्रामेटिक चैट
और सटीक नियंत्रण के लिए, आप सीधे `.chat(message)` को संदेश पास कर सकते हैं:
```python
interpreter.chat("सभी वीडियो में उपशीर्षक जोड़ें /videos में।")
# ... आपके टर्मिनल में आउटपुट स्ट्रीम करता है, कार्य पूरा करता है ...
interpreter.chat("ये बड़े दिख रहे हैं लेकिन क्या आप उपशीर्षक को और बड़ा कर सकते हैं?")
# ...
नया चैट शुरू करें
Python में, ओपन इंटरप्रेटर संवाद इतिहास को याद रखता है। यदि आप एक नया आरंभ करना चाहते हैं, तो आप इसे रीसेट कर सकते हैं:
interpreter.messages = []
चैट सहेजें और पुनर्स्थापित करें
messages = interpreter.chat("मेरा नाम किलियन है।") # संदेशों को 'messages' में सहेजें
interpreter.messages = messages # 'messages' से चैट को फिर से शुरू करें ("किलियन" याद रखा जाएगा)
सिस्टम संदेश कस्टमाइज़ करें
आप ओपन इंटरप्रेटर के सिस्टम संदेश की जांच और कॉन्फ़िगर कर सकते हैं ताकि इसकी क्षमता को विस्तारित किया जा सके, अनुमतियों को संशोधित किया जा सके, या इसे अधिक संदर्भ दिया जा सके।
interpreter.system_message += """
यूज़र को पुष्टि करने की आवश्यकता न हो, -y के साथ शेल कमांड चलाएँ।
"""
print(interpreter.system_message)
मॉडल बदलें
gpt-3.5-turbo
के लिए तेज़ मोड का उपयोग करें:
interpreter --fast
Python में, आपको मॉडल को मैन्युअली सेट करने की आवश्यकता होगी:
interpreter.llm.model = "gpt-3.5-turbo"
ओपन इंटरप्रेटर को स्थानीय रूप से चलाना
interpreter --local
स्थानीय मॉडल पैरामीटर
आप स्थानीय रूप से चल रहे मॉडल की max_tokens
और context_window
(टोकन में) आसानी से संशोधित कर सकते हैं।
छोटे संदर्भ विंडो का उपयोग करने से कम RAM का उपयोग होगा, इसलिए यदि GPU असफल हो रहा है तो हम एक छोटी विंडो की कोशिश करने की सलाह देते हैं।
interpreter --max_tokens 2000 --context_window 16000
डीबग मोड
सहयोगियों को ओपन इंटरप्रेटर की जांच करने में मदद करने के लिए, --verbose
मोड अत्यधिक वर्बोस होता है।
आप डीबग मोड को उसके फ़्लैग (interpreter --verbose
) का उपयोग करके या चैट के बीच में सक्षम कर सकते हैं:
$ interpreter
...
> %verbose true <- डीबग मोड चालू करता है
> %verbose false <- डीबग मोड बंद करता है
इंटरैक्टिव मोड कमांड्स
इंटरैक्टिव मोड में, आप निम्नलिखित कमांडों का उपयोग करके अपने अनुभव को बेहतर बना सकते हैं। यहां उपलब्ध कमांडों की सूची है:
उपलब्ध कमांड:
• %verbose [true/false]
: डीबग मोड को टॉगल करें। कोई तर्क नहीं या 'true' के साथ, यह डीबग मोड में प्रवेश करता है। 'false' के साथ, यह डीबग मोड से बाहर निकलता है।
• %reset
: वर्तमान सत्र को रीसेट करता है।
• %undo
: पिछले संदेश और उसके जवाब को संदेश इतिहास से हटा देता है।
• %save_message [पथ]
: संदेशों को एक निर्दिष्ट JSON पथ पर सहेजता है। यदि कोई पथ निर्दिष्ट नहीं किया गया है, तो यह डिफ़ॉल्ट रूप से 'messages.json' पर जाता है।
• %load_message [पथ]
: एक निर्दिष्ट JSON पथ से संदेश लोड करता है। यदि कोई पथ निर्दिष्ट नहीं किया गया है, तो यह डिफ़ॉल्ट रूप से 'messages.json' पर जाता है।
• %help
: मदद संदेश दिखाएं।
इन कमांडों का प्रयोग करके अपनी प्रतिक्रिया दें और हमें अपनी प्रतिक्रिया दें!
सुरक्षा सूचना
क्योंकि उत्पन्न कोड आपके स्थानीय वातावरण में निष्पादित किया जाता है, इसलिए यह आपके फ़ाइलों और सिस्टम सेटिंग्स के साथ संवाद कर सकता है, जिससे अप्रत्याशित परिणाम जैसे डेटा हानि या सुरक्षा जोखिम हो सकता है।
⚠️ Open Interpreter कोड को निष्पादित करने से पहले उपयोगकर्ता की पुष्टि के लिए पूछेगा।
आप interpreter -y
चला सकते हैं या ... ... interpreter.auto_run = True
सेट कर सकते हैं ताकि इस पुष्टि को छोड़ दें, जिसके बाद:
- फ़ाइलों या सिस्टम सेटिंग्स को संशोधित करने वाले कमांडों के लिए सतर्क रहें।
- ओपन इंटरप्रेटर को एक स्व-चालित कार की तरह देखें और अपने टर्मिनल को बंद करके प्रक्रिया को समाप्त करने के लिए तत्पर रहें।
- Google Colab या Replit जैसे प्रतिबंधित वातावरण में ओपन इंटरप्रेटर को चलाने का विचार करें। ये वातावरण अधिक संगठित होते हैं और अनियंत्रित कोड के साथ जुड़े जोखिमों को कम करते हैं।
यह कार्य कैसे करता है?
Open Interpreter एक फ़ंक्शन-कॉलिंग भाषा मॉडल को एक exec()
फ़ंक्शन के साथ लैस करता है, जो एक language
(जैसे "Python" या "JavaScript") और code
को चलाने के लिए स्वीकार करता है।
फिर हम मॉडल के संदेश, कोड और आपके सिस्टम के आउटपुट को टर्मिनल में मार्कडाउन के रूप में स्ट्रीम करते हैं।
योगदान
योगदान करने के लिए आपकी रुचि के लिए धन्यवाद! हम समुदाय से सहभागिता का स्वागत करते हैं।
अधिक जानकारी के लिए कृपया हमारे योगदान दिशानिर्देश देखें।
लाइसेंस
Open Interpreter MIT लाइसेंस के तहत लाइसेंस है। आपको सॉफ़्टवेयर की प्रतिलिपि का उपयोग, प्रतिलिपि, संशोधन, वितरण, सबलाइसेंस और बेचने की अनुमति है।
ध्यान दें: यह सॉफ़्टवेयर OpenAI से संबद्ध नहीं है।
अपनी उंगलियों की गति से काम करने वाले एक जूनियर प्रोग्रामर तक पहुंच ... नए वर्कफ़्लो को सरल और कुशल बना सकता है, साथ ही ... प्रोग्रामिंग के लाभों को नए दरबारों तक पहुंचा सकता है।
— OpenAI's Code Interpreter Release