Openai ने आरोप लगाया कि इसके AI मॉडल का उपयोग डीपसेक-आर 1 बनाने के लिए किया गया था: रिपोर्ट - ldelight.in

Openai ने आरोप लगाया कि इसके AI मॉडल का उपयोग डीपसेक-आर 1 बनाने के लिए किया गया था: रिपोर्ट

ओपनई कथित तौर पर दावा किया गया है कि दीपसेक ने आर 1 मॉडल बनाने के लिए अपने आर्टिफिशियल इंटेलिजेंस (एआई) मॉडल को डिस्टर्ब कर सकता है। रिपोर्ट के अनुसार, सैन फ्रांसिस्को स्थित एआई फर्म ने कहा कि इसके पास सबूत है कि कुछ उपयोगकर्ता एक प्रतियोगी के लिए अपने एआई मॉडल के आउटपुट का उपयोग कर रहे थे, जो कि डीपसेक होने का संदेह है। विशेष रूप से, चीनी कंपनी ने पिछले हफ्ते ओपन-सोर्स डीपसेक-आर 1 एआई मॉडल जारी किया और इसे गिथब और गले लगाने वाले चेहरे पर होस्ट किया। तर्क-केंद्रित मॉडल ने कई बेंचमार्क में CHATGPT-MAKER के O1 AI मॉडल की क्षमताओं को पार कर लिया।

ओपनई का कहना है कि इसमें फाउलप्ले का सबूत है

एक फाइनेंशियल टाइम्स के अनुसार प्रतिवेदनOpenai ने दावा किया कि उसके मालिकाना AI मॉडल का उपयोग दीपसेक के मॉडल को प्रशिक्षित करने के लिए किया गया था। कंपनी ने प्रकाशन को बताया कि उसने OpenAI एप्लिकेशन प्रोग्रामिंग इंटरफ़ेस (API) का उपयोग करके कई खातों से आसवन का प्रमाण देखा था। एआई फर्म और उसके क्लाउड पार्टनर माइक्रोसॉफ्ट ने इस मुद्दे की जांच की और उनकी पहुंच को अवरुद्ध कर दिया।

फाइनेंशियल टाइम्स के एक बयान में, ओपनई ने कहा, “हम जानते हैं (चीन)-आधारित कंपनियां-और अन्य-लगातार अमेरिकी एआई कंपनियों के मॉडल को अलग करने की कोशिश कर रहे हैं।” चैट-मेकर ने यह भी कहा कि यह अमेरिकी सरकार के साथ मिलकर काम कर रहा है ताकि प्रतियोगियों और विरोधियों से अपने फ्रंटियर मॉडल की रक्षा की जा सके।

विशेष रूप से, एआई मॉडल आसवन एक ऐसी तकनीक है जिसका उपयोग बड़े मॉडल से ज्ञान को एक छोटे और अधिक कुशल मॉडल में स्थानांतरित करने के लिए किया जाता है। यहां लक्ष्य कम्प्यूटेशनल आवश्यकताओं को कम करते हुए छोटे मॉडल को बराबर या बड़े मॉडल के आगे लाना है। विशेष रूप से, Openai के GPT-4 में लगभग 1.8 ट्रिलियन पैरामीटर हैं, जबकि दीपसेक-आर 1 1.5 बिलियन पैरामीटर हैं, जो विवरण में फिट होंगे।

ज्ञान हस्तांतरण आमतौर पर छोटे मॉडल को प्रशिक्षित करने के लिए बड़े मॉडल से प्रासंगिक डेटासेट का उपयोग करके होता है, जब कोई कंपनी अपने मॉडल के इन-हाउस के अधिक कुशल संस्करण बना रही है। उदाहरण के लिए, मेटा ने कई कोडिंग-केंद्रित लामा मॉडल बनाने के लिए लामा 3 एआई मॉडल का उपयोग किया।

हालांकि, यह संभव नहीं है जब एक प्रतियोगी, जिसमें एक मालिकाना मॉडल के डेटासेट तक पहुंच नहीं है, एक मॉडल को अलग करना चाहता है। यदि Openai के आरोप सही हैं, तो यह बड़ी संख्या में आउटपुट उत्पन्न करने के लिए अपने API में शीघ्र इंजेक्शन जोड़कर किया जा सकता था। यह प्राकृतिक भाषा डेटा तब कोड में परिवर्तित हो जाता है और एक आधार मॉडल में खिलाया जाता है।

विशेष रूप से, Openai ने सार्वजनिक रूप से इस बारे में एक बयान जारी नहीं किया है। हाल ही में, कंपनी के सीईओ सैम अल्टमैन ने इस तरह के एक उन्नत एआई मॉडल बनाने और एआई अंतरिक्ष में प्रतिस्पर्धा बढ़ाने के लिए दीपसेक की प्रशंसा की।

Source link

राहुल जैन

राहुल जैन एक तकनीकी विशेषज्ञ और लेखक हैं, जो नवीनतम गैजेट्स, सॉफ्टवेयर, और तकनीकी ट्रेंड्स पर ध्यान केंद्रित करते हैं। उनके लेख तकनीकी नवाचारों और उपयोगकर्ता अनुभव को बेहतर बनाने के तरीकों पर आधारित हैं। वे 8 वर्षों से इस क्षेत्र में सक्रिय हैं।

More Reading

Post navigation

Leave a Comment

Leave a Reply

Your email address will not be published. Required fields are marked *