LLMs: A Beginner's Guide

!शुभ शरुआत स्टार्ट पे के साथ!

Yes Bank For-Enquiry-Loan       

LLMs: A Beginner's Guide

UPDATE’S

Large Language Models (LLMs) have been making waves in the tech world, demonstrating remarkable capabilities such as generating text of human-like quality, translating languages, and producing diverse creative content. However, it is crucial to understand the nature of these models and their underlying mechanisms. 

In this course, we will define Large Language Models (LLMs), describe their use cases, and explore various applications, task types, and projects related to LLMs.

Click on the first lesson below—or the “Start Course” button above—when you’re ready to begin.

बड़े भाषा मॉडल (एलएलएम) तकनीक की दुनिया में लहरें बना रहे हैं, मानव जैसी गुणवत्ता के पाठ को उत्पन्न करने, भाषाओं का अनुवाद करने और विविध रचनात्मक सामग्री का उत्पादन करने जैसी उल्लेखनीय क्षमताओं का प्रदर्शन कर रहे हैं। हालांकि, इन मॉडलों की प्रकृति और उनके अंतर्निहित तंत्र को समझना महत्वपूर्ण है।

इस कोर्स में, हम बड़े भाषा मॉडल (एलएलएम) को परिभाषित करेंगे, उनके उपयोग के मामलों का वर्णन करेंगे, और एलएलएम से संबंधित विभिन्न अनुप्रयोगों, कार्य प्रकारों और परियोजनाओं का पता लगाएंगे।

नीचे दिए गए पहले पाठ पर क्लिक करें- या ऊपर "स्टार्ट कोर्स" बटन पर क्लिक करें - जब आप शुरू करने के लिए तैयार हों।

What are LLMs?

3 Kinds of Large Language Models

Benefits of Using LLMs

How Are Large Language Models Trained?

How Do Large Language Models Work?

Sample LLMs Use Case

Challenges & Limitations of LLMs

LLM Task Types in LLM Projects

Glossary

Summary

एलएलएम क्या हैं?


3 बड़े भाषा मॉडल के प्रकार


एलएलएम का उपयोग करने के लाभ


बड़े भाषा मॉडल कैसे प्रशिक्षित किए जाते हैं?


बड़े भाषा मॉडल कैसे काम करते हैं?


नमूना एलएलएम उपयोग का मामला


एलएलएम की चुनौतियां और सीमाएं


एलएलएम परियोजनाओं में एलएलएम कार्य प्रकार


शब्‍दावली


सारांश

Generative AI is like a creative side of deep learning. It makes new stuff—text, images, audio, video—by learning from what already exists.
Large Language Models (LLMs) take this up a notch. They're a fancy kind of generative AI that learns tons from lots of text. They get how humans talk, catching onto the patterns and context of our language

Large language models refer to large, general-purpose language models that can be pre-trained and then fine-tuned for specific tasks.

Pre-trained Large Language Models (LLMs) undergo an initial training phase where they learn a comprehensive understanding of language by analyzing diverse internet text. This phase means they get a broad grasp of general language patterns and contextual nuances.

Fine-tuning involves subjecting these pre-trained LLMs to a specialized training regimen tailored to refine their ability in specific domains or tasks, such as medicine or gaming.

Pre-training establishes the foundational linguistic knowledge, while fine-tuning tailors the model to excel in targeted applications, leveraging the acquired general expertise

जनरेटिव AI डीप लर्निंग के रचनात्मक पक्ष की तरह है। यह पहले से मौजूद चीज़ों से सीखकर नई चीज़ें बनाता है - टेक्स्ट, इमेज, ऑडियो, वीडियो।
लार्ज लैंग्वेज मॉडल (LLM) इसे एक पायदान ऊपर ले जाते हैं। वे एक तरह के शानदार जनरेटिव AI हैं जो बहुत सारे टेक्स्ट से बहुत कुछ सीखते हैं। वे समझते हैं कि इंसान कैसे बात करते हैं, हमारी भाषा के पैटर्न और संदर्भ को समझते हैं

लार्ज लैंग्वेज मॉडल बड़े, सामान्य-उद्देश्य वाले भाषा मॉडल को संदर्भित करते हैं जिन्हें पहले से प्रशिक्षित किया जा सकता है और फिर विशिष्ट कार्यों के लिए ठीक किया जा सकता है।

पूर्व-प्रशिक्षित लार्ज लैंग्वेज मॉडल (LLM) एक प्रारंभिक प्रशिक्षण चरण से गुजरते हैं जहाँ वे विविध इंटरनेट टेक्स्ट का विश्लेषण करके भाषा की व्यापक समझ सीखते हैं। इस चरण का मतलब है कि उन्हें सामान्य भाषा पैटर्न और संदर्भगत बारीकियों की व्यापक समझ मिलती है।

फाइन-ट्यूनिंग में इन पूर्व-प्रशिक्षित LLM को विशिष्ट डोमेन या कार्यों, जैसे कि चिकित्सा या गेमिंग में उनकी क्षमता को निखारने के लिए तैयार किए गए विशेष प्रशिक्षण व्यवस्था के अधीन करना शामिल है।

पूर्व-प्रशिक्षण आधारभूत भाषाई ज्ञान स्थापित करता है, जबकि फाइन-ट्यूनिंग मॉडल को लक्षित अनुप्रयोगों में उत्कृष्टता प्राप्त करने के लिए तैयार करता है, जिससे अर्जित सामान्य विशेषज्ञता का लाभ मिलता है

3 Kinds of Large Language Models

These are the three kinds of Large Language Models and each needs prompting in a different way.

Generic Language Model predicts the next word based on the language in the training data. This is an example of a generic language model - The next word is a 'token' based on the language in the training data (a token is A unit of text, often a word or subword, processed by the model)

Example: the cat sat on —
- the next word should be “the” and you can see that “the” is the most likely next word. Think of this type as an “auto-complete” in search.

Instruction tuned model is trained to predict a response to the instructions given in the input.

Example: summarize a text of “x”, generate a poem in the style of ‘x”, give me a list of keywords based on semantic similarity for “x”. And in this example, classify the text into neutral, negative or positive.

Dialog tuned model is trained to have a dialog by the next response. Dialog-tuned models are a special case of instruction tuned where requests are typically framed as questions to a chat bot. Dialog tuning is expected to be in the context of a longer back and forth conversation, and typically works better with natural question-like phrasings.

3 प्रकार के बड़े भाषा मॉडल

ये तीन प्रकार के बड़े भाषा मॉडल हैं और प्रत्येक को अलग-अलग तरीके से संकेत देने की आवश्यकता होती है।

जेनेरिक भाषा मॉडल प्रशिक्षण डेटा में भाषा के आधार पर अगले शब्द की भविष्यवाणी करता है। यह एक जेनेरिक भाषा मॉडल का एक उदाहरण है - अगला शब्द प्रशिक्षण डेटा में भाषा के आधार पर एक 'टोकन' है (टोकन पाठ की एक इकाई है, अक्सर एक शब्द या उपशब्द, जिसे मॉडल द्वारा संसाधित किया जाता है)

उदाहरण: बिल्ली बैठ गई -

- अगला शब्द "द" होना चाहिए और आप देख सकते हैं कि "द" सबसे संभावित अगला शब्द है। इस प्रकार को खोज में "ऑटो-कम्प्लीट" के रूप में सोचें।

निर्देश ट्यून्ड मॉडल को इनपुट में दिए गए निर्देशों के प्रति प्रतिक्रिया की भविष्यवाणी करने के लिए प्रशिक्षित किया जाता है।

उदाहरण: "x" के टेक्स्ट को सारांशित करें, 'x' की शैली में एक कविता बनाएँ, मुझे "x" के लिए अर्थगत समानता के आधार पर कीवर्ड की एक सूची दें। और इस उदाहरण में, टेक्स्ट को तटस्थ, नकारात्मक या सकारात्मक में वर्गीकृत करें।

डायलॉग ट्यून्ड मॉडल को अगले रिस्पॉन्स द्वारा डायलॉग करने के लिए प्रशिक्षित किया जाता है। डायलॉग-ट्यून्ड मॉडल इंस्ट्रक्शन ट्यून्ड का एक विशेष मामला है जहाँ अनुरोधों को आम तौर पर चैट बॉट के लिए प्रश्नों के रूप में तैयार किया जाता है। डायलॉग ट्यूनिंग को एक लंबी आगे-पीछे की बातचीत के संदर्भ में होने की उम्मीद है, और आम तौर पर प्राकृतिक प्रश्न-जैसे वाक्यांशों के साथ बेहतर काम करता है।

Benefits of Using LLMs

1. A single model can be used for different tasks
This is a dream come true. These large language models that are trained with petabytes of data and generate billions of parameters are smart enough to solve different tasks including language translation, sentence completion, text classification, question answering, and more.

2. The fine-tune process requires minimal field data.
Large language models obtain decent performance even with little domain training data. In other words, they can be used for few-shot or even zero-shot scenarios.

In machine learning, “few-shot” refers to training a model with minimal data and

“zero-shot” implies that a model can recognize things that have not explicitly been taught in the training before.

3. The performance is continuously growing with more data and parameters.
Let's take Google PaLM (Pathways Language Model) which was released in April 2022 as an example. PaLM is a dense decoder-only Transformer model with 540 billion parameter. PaLM achieves state-of-the-art performance in multiple language tasks and utilizes the new Pathways system, which allows efficient training across multiple TPU v4 Pods. The Pathway AI architecture enables PaLM to perform various tasks, learn new tasks quickly, and have a better understanding of the world.

एलएलएम का उपयोग करने के लाभ

1. एक ही मॉडल का उपयोग विभिन्न कार्यों के लिए किया जा सकता है
यह एक सपना सच होने जैसा है। ये बड़े भाषा मॉडल जो पेटाबाइट्स डेटा के साथ प्रशिक्षित होते हैं और अरबों पैरामीटर उत्पन्न करते हैं, वे भाषा अनुवाद, वाक्य पूर्णता, पाठ वर्गीकरण, प्रश्न उत्तर, और बहुत कुछ सहित विभिन्न कार्यों को हल करने के लिए पर्याप्त स्मार्ट हैं।

2. फ़ाइन-ट्यून प्रक्रिया के लिए न्यूनतम फ़ील्ड डेटा की आवश्यकता होती है।
बड़े भाषा मॉडल कम डोमेन प्रशिक्षण डेटा के साथ भी अच्छा प्रदर्शन प्राप्त करते हैं। दूसरे शब्दों में, उनका उपयोग कुछ-शॉट या यहाँ तक कि शून्य-शॉट परिदृश्यों के लिए भी किया जा सकता है।

मशीन लर्निंग में, "कुछ-शॉट" न्यूनतम डेटा के साथ एक मॉडल को प्रशिक्षित करने को संदर्भित करता है और

"शून्य-शॉट" का अर्थ है कि एक मॉडल उन चीजों को पहचान सकता है जिन्हें पहले प्रशिक्षण में स्पष्ट रूप से नहीं सिखाया गया है।

3. अधिक डेटा और पैरामीटर के साथ प्रदर्शन लगातार बढ़ रहा है।
आइए Google PaLM (पाथवेज़ लैंग्वेज मॉडल) को एक उदाहरण के रूप में लें जिसे अप्रैल 2022 में रिलीज़ किया गया था। PaLM 540 बिलियन पैरामीटर वाला एक सघन डिकोडर-ओनली ट्रांसफ़ॉर्मर मॉडल है। PaLM कई भाषा कार्यों में अत्याधुनिक प्रदर्शन प्राप्त करता है और नए Pathways सिस्टम का उपयोग करता है, जो कई TPU v4 पॉड्स में कुशल प्रशिक्षण की अनुमति देता है। Pathway AI आर्किटेक्चर PaLM को विभिन्न कार्य करने, नए कार्यों को जल्दी से सीखने और दुनिया की बेहतर समझ रखने में सक्षम बनाता है।

How Are Large Language Models Trained?

Most LLMs are pre-trained on a large, general-purpose dataset. The purpose of pre-training is for the model to learn high-level features that can be transferred to the fine-tuning stage for specific tasks.

The training process of a large language model involves:

Pre-processing the text data to convert it into a numerical representation that can be fed into the model.
Randomly assigning the model’s parameters.
Feeding the numerical representation of the text data into the model.
Using a loss function to measure the difference between the model’s outputs and the actual next word in a sentence.
Optimizing the model’s parameters to minimize loss.
Repeating the process until the model’s outputs reach an acceptable level of accuracy.

बड़े भाषा मॉडल कैसे प्रशिक्षित किए जाते हैं?

अधिकांश LLM को बड़े, सामान्य-उद्देश्य वाले डेटासेट पर पूर्व-प्रशिक्षित किया जाता है। पूर्व-प्रशिक्षण का उद्देश्य मॉडल को उच्च-स्तरीय सुविधाएँ सीखना है जिन्हें विशिष्ट कार्यों के लिए फ़ाइन-ट्यूनिंग चरण में स्थानांतरित किया जा सकता है।

बड़े भाषा मॉडल की प्रशिक्षण प्रक्रिया में शामिल हैं:

पाठ डेटा को पूर्व-प्रसंस्करण करके उसे संख्यात्मक निरूपण में बदलना जिसे मॉडल में फीड किया जा सके।

मॉडल के मापदंडों को बेतरतीब ढंग से असाइन करना।

पाठ डेटा के संख्यात्मक निरूपण को मॉडल में फीड करना।

मॉडल के आउटपुट और वाक्य में वास्तविक अगले शब्द के बीच अंतर को मापने के लिए हानि फ़ंक्शन का उपयोग करना।

हानि को कम करने के लिए मॉडल के मापदंडों को अनुकूलित करना।

प्रक्रिया को तब तक दोहराना जब तक मॉडल के आउटपुट सटीकता के स्वीकार्य स्तर तक नहीं पहुँच जाते।

Think of a large language model like a super-smart text generator. It learns from tons of examples and uses  deep neural networks to come up with stuff.

This model is based on something called a transformer, which is like its brain. Unlike other systems that use a loop to understand how words relate in a sentence, this one uses self-attention. It's like the model figures out which words are the VIPs in a sentence and pays extra attention to them.

Basically, it calculates a fancy weighted sum to decide which words are the most important and connected to each other. It does this by giving each word a score, kind of like saying how crucial it is compared to the others in the sentence.

बड़े भाषा मॉडल कैसे काम करते हैं?

बड़े भाषा मॉडल को सुपर-स्मार्ट टेक्स्ट जनरेटर की तरह समझें। यह ढेरों उदाहरणों से सीखता है और चीज़ों को बनाने के लिए गहरे तंत्रिका नेटवर्क का उपयोग करता है।

यह मॉडल ट्रांसफॉर्मर नामक किसी चीज़ पर आधारित है, जो इसके मस्तिष्क की तरह है। अन्य सिस्टम के विपरीत जो वाक्य में शब्दों के संबंध को समझने के लिए लूप का उपयोग करते हैं, यह मॉडल आत्म-ध्यान का उपयोग करता है। यह ऐसा है जैसे मॉडल यह पता लगाता है कि वाक्य में कौन से शब्द VIP हैं और उन पर अतिरिक्त ध्यान देता है।

मूल रूप से, यह यह तय करने के लिए एक फैंसी भारित राशि की गणना करता है कि कौन से शब्द सबसे महत्वपूर्ण हैं और एक दूसरे से जुड़े हुए हैं। यह प्रत्येक शब्द को एक स्कोर देकर ऐसा करता है, जैसे यह कहना कि वाक्य में अन्य की तुलना में यह कितना महत्वपूर्ण है।

Sample LLMs Use Case
Let’s take a look at an example of a Text Generation use case. A typical LLM use case is Question Answering. We ask the LLM are question and it generates a response.

What is Question Answering (QA) in Natural Language Processing (NLP)?

Question answering (QA) is a subfield of natural language processing that deals with the task of automatically answering questions posed in natural language.

QA systems are typically trained on a large amount of text and code, and they are able to answer a wide range of questions, including:

factual
definitional
opinion-based questions


The key here is that you needed domain knowledge to develop these Question Answering models.

नमूना एलएलएम उपयोग मामला
आइए टेक्स्ट जनरेशन उपयोग मामले के एक उदाहरण पर नज़र डालें। एक सामान्य एलएलएम उपयोग मामला प्रश्न उत्तर देना है। हम एलएलएम से एक प्रश्न पूछते हैं और यह एक प्रतिक्रिया उत्पन्न करता है।

प्राकृतिक भाषा प्रसंस्करण (एनएलपी) में प्रश्न उत्तर (क्यूए) क्या है?

प्रश्न उत्तर (क्यूए) प्राकृतिक भाषा प्रसंस्करण का एक उपक्षेत्र है जो प्राकृतिक भाषा में पूछे गए प्रश्नों का स्वचालित रूप से उत्तर देने के कार्य से संबंधित है।

क्यूए सिस्टम आमतौर पर बड़ी मात्रा में टेक्स्ट और कोड पर प्रशिक्षित होते हैं, और वे कई तरह के सवालों का जवाब देने में सक्षम होते हैं, जिनमें शामिल हैं:

तथ्यात्मक
परिभाषा संबंधी
राय-आधारित प्रश्न

यहाँ मुख्य बात यह है कि इन प्रश्न उत्तर मॉडल को विकसित करने के लिए आपको डोमेन ज्ञान की आवश्यकता है।

Below are example questions given to Large Language Model chatbots.

1
Question 1 - This year’s sales are 100,000 dollars. Expenses are 60,000 dollars. How much is net profit? LLM chatbot first shares how net profit is calculated then performs the calculation. Then, it provides the definition of net profit.

2
Question 2 - Inventory on hand is 6,000 units. New order requires 8,000 units. How many units do I need to fill to complete the order? Again, LLM chatbot answers the question by performing the calculation.

3
Question 3 - We have 1,000 sensors in ten geographic regions. ow many sensors do we have on average in each region? LLM chatbot answers the question with an example on how to solve the problem and some additional context.

In each of the questions, a desired response was obtained. This is due to Prompt Design

नीचे लार्ज लैंग्वेज मॉडल चैटबॉट को दिए गए उदाहरण प्रश्न दिए गए हैं।

1
प्रश्न 1 - इस वर्ष की बिक्री 100,000 डॉलर है। व्यय 60,000 डॉलर है। शुद्ध लाभ कितना है? LLM चैटबॉट पहले बताता है कि शुद्ध लाभ की गणना कैसे की जाती है, फिर गणना करता है। फिर, यह शुद्ध लाभ की परिभाषा प्रदान करता है।

2
प्रश्न 2 - हाथ में इन्वेंट्री 6,000 इकाइयाँ हैं। नए ऑर्डर के लिए 8,000 इकाइयों की आवश्यकता है। ऑर्डर पूरा करने के लिए मुझे कितनी इकाइयाँ भरने की आवश्यकता है? फिर से, LLM चैटबॉट गणना करके प्रश्न का उत्तर देता है।

3
प्रश्न 3 - हमारे पास दस भौगोलिक क्षेत्रों में 1,000 सेंसर हैं। प्रत्येक क्षेत्र में हमारे पास औसतन कितने सेंसर हैं? LLM चैटबॉट समस्या को हल करने के तरीके और कुछ अतिरिक्त संदर्भ के साथ प्रश्न का उत्तर देता है।

प्रत्येक प्रश्न में, एक वांछित प्रतिक्रिया प्राप्त हुई। यह प्रॉम्प्ट डिज़ाइन के कारण है

What is Prompt Design & Prompt Engineering?

Both involve the process of creating a prompt that is clear, concise, and informative. However, there are some key differences between the two.

  • Prompt Design

    It is the process of creating a prompt that is tailored to the specific task that the system is being asked to perform. For example, if the system is being asked to translate a text from English to French, the prompt should be written in English and should specify that the translation should be in French.

  • Prompt Engineering

    It is the process of creating a prompt that is designed to improve performance. This may involve using domain-specific knowledge, providing examples of the desired output, or using keywords that are known to be effective for the specific system.

In general, prompt design is a more general concept, while prompt engineering is a more specialized concept. Prompt design is essential, while prompt engineering is only necessary for systems that require a high degree of accuracy or performance.

प्रॉम्प्ट डिज़ाइन और प्रॉम्प्ट इंजीनियरिंग क्या है?

दोनों में एक प्रॉम्प्ट बनाने की प्रक्रिया शामिल है जो स्पष्ट, संक्षिप्त और जानकारीपूर्ण है। हालाँकि, दोनों के बीच कुछ मुख्य अंतर हैं।

प्रॉम्प्ट डिज़ाइन
यह एक प्रॉम्प्ट बनाने की प्रक्रिया है जो उस विशिष्ट कार्य के अनुरूप है जिसे सिस्टम को करने के लिए कहा जा रहा है। उदाहरण के लिए, यदि सिस्टम को अंग्रेजी से फ्रेंच में एक पाठ का अनुवाद करने के लिए कहा जा रहा है, तो प्रॉम्प्ट अंग्रेजी में लिखा जाना चाहिए और यह निर्दिष्ट करना चाहिए कि अनुवाद फ्रेंच में होना चाहिए।

प्रॉम्प्ट इंजीनियरिंग
यह एक प्रॉम्प्ट बनाने की प्रक्रिया है जिसे प्रदर्शन में सुधार करने के लिए डिज़ाइन किया गया है। इसमें डोमेन-विशिष्ट ज्ञान का उपयोग करना, वांछित आउटपुट के उदाहरण प्रदान करना, या ऐसे कीवर्ड का उपयोग करना शामिल हो सकता है जो विशिष्ट सिस्टम के लिए प्रभावी माने जाते हैं।

सामान्य तौर पर, प्रॉम्प्ट डिज़ाइन एक अधिक सामान्य अवधारणा है, जबकि प्रॉम्प्ट इंजीनियरिंग एक अधिक विशिष्ट अवधारणा है। प्रॉम्प्ट डिज़ाइन आवश्यक है, जबकि प्रॉम्प्ट इंजीनियरिंग केवल उन प्रणालियों के लिए आवश्यक है जिन्हें उच्च स्तर की सटीकता या प्रदर्शन की आवश्यकता होती है।

Despite their impressive capabilities, LLMs still face some challenges: 

  • Bias: LLMs are trained on data that reflects the biases of the real world. This can lead to biased outputs, particularly when dealing with sensitive topics.
    • Bias can present itself as stating an opinion or subjective answer as a given fact. For example, the following answer shows bias:

      Prompt: Which is the best capital city in Europe?
      Bad Response: The best capital city in Europe is Paris.

      There is no reasoning or objectivity to the response.

    • Bias can present itself as using gender, race, class etc stereotypes as a norm. For example, the following answer shows bias:

      Prompt: "What personal qualities make a good Prime Minister?
      Bad Response: A good Prime Minister must have excellent leadership skills. He needs strong leadership qualities to guide the nation effectively. He must be able to make tough decisions, inspire confidence, and set a clear vision for the future.

      This response shows gender bias as it assumes a Prime Minister must be male and refers to qualities 'he' would need.

  • Explainability: It can be difficult to understand how LLMs arrive at their outputs, making it challenging to assess their reliability and trustworthiness.
    • Prompt: "If George has $10 and spend $3.21 in CVS and then $2.89 in Walmart, how much does he have left ?"
      Bad Response: George has $3.90 left.

      This is a poor response. It does not explain how the LLM reached its conclusion. A better response would be:

      Good Response: To find out how much money George has left after spending $3.21 in CVS and $2.89 in Walmart, you can subtract the total amount spent from the initial amount he had.Initial amount = $10 Amount spent in CVS = $3.21 Amount spent in Walmart = $2.89
      Total amount spent = $3.21 + $2.89 = $6.10
      Now, subtract the total amount spent from the initial amount:
      $10 - $6.10 = $3.90
      Therefore, George has $3.90 left.
  • Accessibility: Access to large-scale computing resources and expertise required to train and operate LLMs can be limited.

This is why it is important we continue to train LLMs to ensure they are honest, harmless, helpful, and usable via our LLM Projects.

 

एलएलएम की चुनौतियाँ और सीमाएँ
अपनी प्रभावशाली क्षमताओं के बावजूद, एलएलएम को अभी भी कुछ चुनौतियों का सामना करना पड़ता है:

पूर्वाग्रह: एलएलएम को ऐसे डेटा पर प्रशिक्षित किया जाता है जो वास्तविक दुनिया के पूर्वाग्रहों को दर्शाता है। इससे पक्षपातपूर्ण आउटपुट हो सकते हैं, खासकर जब संवेदनशील विषयों से निपटना हो।

पूर्वाग्रह खुद को किसी दिए गए तथ्य के रूप में एक राय या व्यक्तिपरक उत्तर बताने के रूप में प्रस्तुत कर सकता है। उदाहरण के लिए, निम्नलिखित उत्तर पूर्वाग्रह दर्शाता है:

प्रॉम्प्ट: यूरोप में सबसे अच्छी राजधानी कौन सी है?

खराब प्रतिक्रिया: यूरोप में सबसे अच्छी राजधानी पेरिस है।

उत्तर में कोई तर्क या वस्तुनिष्ठता नहीं है।

पूर्वाग्रह खुद को लिंग, जाति, वर्ग आदि रूढ़ियों को एक मानदंड के रूप में उपयोग करने के रूप में प्रस्तुत कर सकता है। उदाहरण के लिए, निम्न उत्तर पक्षपात दर्शाता है:

प्रॉम्प्ट: "कौन से व्यक्तिगत गुण एक अच्छे प्रधानमंत्री को बनाते हैं?

बुरा जवाब: एक अच्छे प्रधानमंत्री के पास उत्कृष्ट नेतृत्व कौशल होना चाहिए। राष्ट्र को प्रभावी ढंग से मार्गदर्शन करने के लिए उसे मजबूत नेतृत्व गुणों की आवश्यकता होती है। उसे कठिन निर्णय लेने, आत्मविश्वास जगाने और भविष्य के लिए एक स्पष्ट दृष्टिकोण निर्धारित करने में सक्षम होना चाहिए।

यह जवाब लैंगिक पक्षपात दर्शाता है क्योंकि यह मानता है कि एक प्रधानमंत्री को पुरुष होना चाहिए और उन गुणों को संदर्भित करता है जिनकी 'उसे' आवश्यकता होगी।

व्याख्यात्मकता: यह समझना मुश्किल हो सकता है कि एलएलएम अपने आउटपुट पर कैसे पहुंचते हैं, जिससे उनकी विश्वसनीयता और भरोसेमंदता का आकलन करना चुनौतीपूर्ण हो जाता है।

प्रॉम्प्ट: "यदि जॉर्ज के पास $10 हैं और वह CVS में $3.21 और फिर वॉलमार्ट में $2.89 खर्च करता है, तो उसके पास कितना पैसा बचता है?"

बुरा जवाब: जॉर्ज के पास $3.90 बचे हैं।

यह एक खराब जवाब है। यह स्पष्ट नहीं करता है कि एलएलएम अपने निष्कर्ष पर कैसे पहुंचा। एक बेहतर जवाब होगा:

अच्छा जवाब: यह पता लगाना कि $3.21 खर्च करने के बाद जॉर्ज के पास कितना पैसा बचा है CVS में और वॉलमार्ट में $2.89, आप उसके पास मौजूद शुरुआती राशि से खर्च की गई कुल राशि घटा सकते हैं। शुरुआती राशि = $10 CVS में खर्च की गई राशि = $3.21 वॉलमार्ट में खर्च की गई राशि = $2.89
कुल खर्च की गई राशि = $3.21 + $2.89 = $6.10
अब, शुरुआती राशि से खर्च की गई कुल राशि घटाएँ:
$10 - $6.10 = $3.90
इसलिए, जॉर्ज के पास $3.90 बचे हैं।
पहुँच: LLM को प्रशिक्षित करने और संचालित करने के लिए आवश्यक बड़े पैमाने पर कंप्यूटिंग संसाधनों और विशेषज्ञता तक पहुँच सीमित हो सकती है।
इसलिए यह महत्वपूर्ण है कि हम LLM को प्रशिक्षित करना जारी रखें ताकि यह सुनिश्चित हो सके कि वे हमारे LLM प्रोजेक्ट्स के माध्यम से ईमानदार, हानिरहित, सहायक और उपयोग करने योग्य हैं।

LLM Task Types in LLM Projects
There a many different types of tasks in LLM projects. These may be to train LLMs by providing excellent examples, examples of how different locales and languages may interact with them, or testing their limits.

On one thing that is important is that we provide genuine and authentic human content and interaction.

Let's look at just some of the type of tasks you may be asked to complete in an LLM Project.

Prompt Authoring

You may be asked to create the following type of prompts.

Different clients may approach these types of prompts differently, or have different definitions. This is why it is very important that when you take part in a project you fully review the instructions and information for that specific project, at first glance they may seem familiar to your understanding of prompt authoring but there may be nuances.

एलएलएम परियोजनाओं में एलएलएम कार्य प्रकार
एलएलएम परियोजनाओं में कई अलग-अलग प्रकार के कार्य होते हैं। ये एलएलएम को उत्कृष्ट उदाहरण प्रदान करके प्रशिक्षित करना, विभिन्न स्थानों और भाषाओं के उनके साथ कैसे इंटरैक्ट कर सकते हैं, या उनकी सीमाओं का परीक्षण करना हो सकता है।

एक बात जो महत्वपूर्ण है वह यह है कि हम वास्तविक और प्रामाणिक मानवीय सामग्री और इंटरेक्शन प्रदान करते हैं।

आइए कुछ ऐसे कार्यों पर नज़र डालें जिन्हें आपको एलएलएम परियोजना में पूरा करने के लिए कहा जा सकता है।

प्रॉम्प्ट ऑथरिंग

आपको निम्न प्रकार के प्रॉम्प्ट बनाने के लिए कहा जा सकता है।

अलग-अलग क्लाइंट इन प्रकार के प्रॉम्प्ट को अलग-अलग तरीके से देख सकते हैं, या उनकी अलग-अलग परिभाषाएँ हो सकती हैं। यही कारण है कि यह बहुत महत्वपूर्ण है कि जब आप किसी परियोजना में भाग लेते हैं तो आप उस विशिष्ट परियोजना के लिए निर्देशों और जानकारी की पूरी तरह से समीक्षा करें, पहली नज़र में वे प्रॉम्प्ट ऑथरिंग की आपकी समझ से परिचित लग सकते हैं लेकिन इसमें बारीकियाँ हो सकती हैं।

Generate
A prompt created to instruct the AI model to produce new or creative content or information. The request can best be described as “content creation” or “creative writing”. It can include, but not limited to, asking an AI model to write a story, poem, song, create an email, provide a response, etc. based on the specific topic and details or scenarios provided in the prompt.

Examples:

"Write me a story about a lost kitten."
"Write a limerick about a woman called Sue from New York."
"Compose an email apologising for me not being able to attend a friend's wedding."

उत्पन्न करें
AI मॉडल को नई या रचनात्मक सामग्री या जानकारी बनाने का निर्देश देने के लिए बनाया गया एक प्रॉम्प्ट। अनुरोध को सबसे अच्छे ढंग से “सामग्री निर्माण” या “रचनात्मक लेखन” के रूप में वर्णित किया जा सकता है। इसमें AI मॉडल से कहानी, कविता, गीत लिखने, ईमेल बनाने, प्रतिक्रिया देने आदि के लिए कहना शामिल हो सकता है, लेकिन यह इन्हीं तक सीमित नहीं है। प्रॉम्प्ट में दिए गए विशिष्ट विषय और विवरण या परिदृश्यों के आधार पर।

उदाहरण:

"मुझे एक खोई हुई बिल्ली के बच्चे के बारे में एक कहानी लिखें।"

"न्यूयॉर्क की एक महिला सू के बारे में एक लिमरिक लिखें।"

"एक ईमेल लिखें जिसमें मैं अपने दोस्त की शादी में शामिल न हो पाने के लिए माफ़ी मांगूँ।"

Brainstorming
A prompt created to generate ideas on a specific topic. It encourages discussion, creative thinking and the possibility for different perspectives, possibilities and solutions.

Examples:

"Brainstorm different ways I can style a simple black dress for different occasions"
"Can you brainstorm different homemade gifts I could make for my grandma?"

Chain of thought
A prompt that would generate a response that shows a logical progression of thought(s). The prompt can be in the form of one problem, encouraging a flow of chained responses. Alternatively, it can be a sequence of requests/questions that build up on one another, encouraging the AI model to respond in a progression of thoughts.

Examples:

" If Bob is in the most famous park in New York and looking at a sculpture of a girl sat on a mushroom, what is the rabbit holding in its hand?"

(A suitable answer would be: if Bob is in the most famous park in New York he is most likely to be in Central Park. In Central Park he is looking at the Alice in Wonderland sculpture which shows Alice sitting on top of a mushroom. Next to her are other characters including the rabbit. The rabbit is holding a pocket watch in its hand.")

"Jennifer is in the Louvre, Paris. She is looking at most famous painting in the gallery. It makes her think about the artist. When did the artist die?"

"Jane has $10.25. She buys some sweets for $3.25 and gives half of her remaining money to her best friend Sarah. How much money has Jane given Sarah?"
(A suitable answer would be: "Jane starts with $10.25 and buys $3.25 worth of sweets. $10.25-$3.25 = $7. She gives half of $7 to Sarah. $7/2 = $3.50. Sarah has $3.50.")
Q: John has $50. John goes to CVS and spends $14.70. He then goes to Walmart and spends $22. How much money does John have left?"

QA
A direct question requesting for information on the given topic.

The QA category can be open or closed ended. Different approaches and clients may have differing definitions of open and closed Q&As. Here is the definition we are using in this module:

Open-ended QA: The question cannot be answered with information in the prompt. There may be a definitive answer (such as a given fact) or require the LLM freedom to answer with a detailed and unrestricted response.

Closed-ended QA: The question must be answered with information in the prompt alone.


Examples

[Open ended] "What is the capital of Australia?"
[Open ended] "What are some key features of the greenhouse effect? "
[Close ended] "Who were Cary Grant's five wives mentioned in the article below?
Grant was married five times. He wed Virginia Cherrill on February 9, 1934, at the Caxton Hall register office in London. She divorced him on March 26, 1935, following charges that he had hit her.
He married Barbara Hutton in 1942, one of the wealthiest women in the world, following a $50 million inheritance from her grandfather Frank Winfield Woolworth. They divorced in 1945, although they remained the "fondest of friends". He dated Betty Hensel for a period, then married Betsy Drake, the co-star of two of his films, on December 25, 1949. It was his longest marriage, ending on August 14, 1962.
Grant married Dyan Cannon on July 22, 1965 at the Desert Inn in Las Vegas, and their daughter Jennifer, his only child, was born on February 26, 1966; he frequently called her his "best production".
Grant and Cannon separated in August 1967.
On April 11, 1981, Grant married Barbara Harris, a British hotel public relations agent 47 years his junior. They met in 1976 at the Royal Lancaster Hotel in London, where Harris was working at the time and Grant was attending a Fabergé conference."

विचार-मंथन
किसी विशिष्ट विषय पर विचार उत्पन्न करने के लिए बनाया गया प्रॉम्प्ट। यह चर्चा, रचनात्मक सोच और विभिन्न दृष्टिकोणों, संभावनाओं और समाधानों की संभावना को प्रोत्साहित करता है।

उदाहरण:

"विभिन्न अवसरों के लिए एक साधारण काली पोशाक को स्टाइल करने के विभिन्न तरीकों पर विचार करें"

"क्या आप विभिन्न होममेड उपहारों पर विचार कर सकते हैं जो मैं अपनी दादी के लिए बना सकता हूँ?"

विचारों की श्रृंखला
एक प्रॉम्प्ट जो एक प्रतिक्रिया उत्पन्न करेगा जो विचारों की तार्किक प्रगति को दर्शाता है। प्रॉम्प्ट एक समस्या के रूप में हो सकता है, जो श्रृंखलाबद्ध प्रतिक्रियाओं के प्रवाह को प्रोत्साहित करता है। वैकल्पिक रूप से, यह अनुरोधों/प्रश्नों का एक क्रम हो सकता है जो एक दूसरे पर आधारित होते हैं, जो AI मॉडल को विचारों की प्रगति में प्रतिक्रिया करने के लिए प्रोत्साहित करते हैं।

उदाहरण:

"यदि बॉब न्यूयॉर्क के सबसे प्रसिद्ध पार्क में है और एक मशरूम पर बैठी लड़की की मूर्ति को देख रहा है, तो खरगोश अपने हाथ में क्या पकड़े हुए है?"

(एक उपयुक्त उत्तर होगा: यदि बॉब न्यूयॉर्क के सबसे प्रसिद्ध पार्क में है, तो वह संभवतः सेंट्रल पार्क में होगा। सेंट्रल पार्क में वह एलिस इन वंडरलैंड की मूर्ति को देख रहा है, जिसमें एलिस को मशरूम के ऊपर बैठे हुए दिखाया गया है। उसके बगल में खरगोश सहित अन्य पात्र हैं। खरगोश अपने हाथ में एक पॉकेट घड़ी पकड़े हुए है।)

"जेनिफर पेरिस के लौवर में है। वह गैलरी में सबसे प्रसिद्ध पेंटिंग को देख रही है। यह उसे कलाकार के बारे में सोचने पर मजबूर करता है। कलाकार की मृत्यु कब हुई?"

"जेन के पास $10.25 हैं। वह $3.25 में कुछ मिठाइयाँ खरीदती है और अपने बचे हुए पैसे का आधा हिस्सा अपनी सबसे अच्छी दोस्त सारा को देती है। जेन ने सारा को कितने पैसे दिए हैं?" (एक उपयुक्त उत्तर होगा: "जेन $10.25 से शुरू करती है और $3.25 की मिठाई खरीदती है। $10.25-$3.25 = $7. वह $7 का आधा हिस्सा सारा को देती है। $7/2 = $3.50. सारा के पास $3.50 हैं।") प्रश्न: जॉन के पास $50 हैं। जॉन CVS जाता है और $14.70 खर्च करता है। फिर वह वॉलमार्ट जाता है और $22 खर्च करता है। जॉन के पास कितने पैसे बचे हैं?" प्रश्नोत्तर दिए गए विषय पर जानकारी के लिए एक सीधा प्रश्न। प्रश्नोत्तर श्रेणी खुली या बंद हो सकती है। अलग-अलग दृष्टिकोण और क्लाइंट के पास खुले और बंद प्रश्नोत्तर की अलग-अलग परिभाषाएँ हो सकती हैं। यहाँ वह परिभाषा है जिसका हम इस मॉड्यूल में उपयोग कर रहे हैं: प्रश्नोत्तर: प्रॉम्प्ट में दी गई जानकारी के साथ प्रश्न का उत्तर नहीं दिया जा सकता है। एक निश्चित उत्तर हो सकता है (जैसे कि कोई दिया गया तथ्य) या विस्तृत और अप्रतिबंधित प्रतिक्रिया के साथ उत्तर देने के लिए LLM स्वतंत्रता की आवश्यकता हो सकती है। बंद-अंत प्रश्नोत्तर: प्रश्न का उत्तर केवल प्रॉम्प्ट में दी गई जानकारी से दिया जाना चाहिए।

उदाहरण

[खुला अंत] "ऑस्ट्रेलिया की राजधानी क्या है?"
[खुला अंत] "ग्रीनहाउस प्रभाव की कुछ प्रमुख विशेषताएं क्या हैं?" [बंद अंत] "नीचे दिए गए लेख में उल्लिखित कैरी ग्रांट की पांच पत्नियाँ कौन थीं? ग्रांट ने पांच बार शादी की थी। उन्होंने 9 फरवरी, 1934 को लंदन के कैक्सटन हॉल रजिस्टर ऑफ़िस में वर्जीनिया चेरिल से शादी की। 26 मार्च, 1935 को वर्जीनिया ने उनसे तलाक ले लिया, उन पर आरोप लगाया गया कि उन्होंने उन्हें मारा था। उन्होंने 1942 में बारबरा हटन से शादी की, जो दुनिया की सबसे धनी महिलाओं में से एक थीं, उनके दादा फ्रैंक विनफील्ड वूलवर्थ से $50 मिलियन की विरासत के बाद। 1945 में उनका तलाक हो गया, हालाँकि वे "सबसे अच्छे दोस्त" बने रहे। उन्होंने कुछ समय तक बेट्टी हेन्सल को डेट किया, फिर 25 दिसंबर, 1949 को अपनी दो फ़िल्मों की सह-कलाकार बेट्सी ड्रेक से शादी की। यह उनकी सबसे लंबी शादी थी, जो 14 अगस्त, 1962 को समाप्त हुई। ग्रांट ने 22 जुलाई, 1965 को डेजर्ट इन में डायन कैनन से शादी की। लास वेगास में, और उनकी बेटी जेनिफर, उनकी एकमात्र संतान, का जन्म 26 फरवरी, 1966 को हुआ; वे अक्सर उसे अपना "सर्वश्रेष्ठ उत्पादन" कहते थे।
अगस्त 1967 में ग्रांट और कैनन अलग हो गए।
11 अप्रैल, 1981 को, ग्रांट ने बारबरा हैरिस से शादी की, जो एक ब्रिटिश होटल जनसंपर्क एजेंट थी और उनसे 47 साल छोटी थी। वे 1976 में लंदन के रॉयल लैंकेस्टर होटल में मिले, जहाँ उस समय हैरिस काम कर रहे थे और ग्रांट एक फैबरगे सम्मेलन में भाग ले रहे थे।"

Classification
A prompt requesting the AI model to classify or categorize specific content based on the given topic. You must include the test to be classified in the prompt itself.

Example

"Is this review negative? I had the chicken tikka masala as my main course and it was very salty and fatty. Disappointed. Wouldn't order again."

"Sort the following fruits into two categories: citrus fruits and non-citrus fruits: lemon, apricot, lime, apple, plum, grapefruit, kiwi, orange, grapes"

Rewrite
A prompt request for specific text (sentence, paragraph, etc) to be rewritten, paraphrased. The text for rewording must be provided in the prompt.

Examples

"Rewrite the following passage in the style of Charles Dickens:
Original: In the northeast part of Hyde Park you’ll find Speakers’ Corner, where on Sunday mornings speakers and eccentrics step up to give speeches, discussions and debates on various topics, but mostly on religion and politics. This is an interesting and peculiar place to visit witnessing people gathered to listen, applaud or jeer the different speakers.

"Please paraphrase this:
Original: On July 3, 1946, President Harry S. Truman signed the National Mental Health Act. In addition to its broad purpose of improving "the mental health of the people of the United States," the act enabled the founding, three years later, of the National Institute of Mental Health (NIMH), now part of the National Institutes of Health..

वर्गीकरण
एक प्रॉम्प्ट जिसमें AI मॉडल को दिए गए विषय के आधार पर विशिष्ट सामग्री को वर्गीकृत या श्रेणीबद्ध करने का अनुरोध किया जाता है। आपको प्रॉम्प्ट में ही वर्गीकृत किए जाने वाले परीक्षण को शामिल करना होगा।

उदाहरण

"क्या यह समीक्षा नकारात्मक है? मैंने अपने मुख्य पाठ्यक्रम के रूप में चिकन टिक्का मसाला खाया था और यह बहुत नमकीन और वसायुक्त था। निराश। फिर से ऑर्डर नहीं करूंगा।"

"निम्नलिखित फलों को दो श्रेणियों में बाँटें: खट्टे फल और गैर-खट्टे फल: नींबू, खुबानी, नींबू, सेब, बेर, अंगूर, कीवी, संतरा, अंगूर"

पुनर्लेखन
विशिष्ट पाठ (वाक्य, पैराग्राफ, आदि) को फिर से लिखने, पैराफ्रेश करने के लिए एक प्रॉम्प्ट अनुरोध। पुनर्लेखन के लिए पाठ प्रॉम्प्ट में प्रदान किया जाना चाहिए।

उदाहरण

"चार्ल्स डिकेंस की शैली में निम्नलिखित अंश को फिर से लिखें:
मूल: हाइड पार्क के उत्तर-पूर्वी भाग में आपको स्पीकर्स कॉर्नर मिलेगा, जहाँ रविवार की सुबह वक्ता और सनकी लोग विभिन्न विषयों पर भाषण, चर्चा और बहस करने के लिए आते हैं, लेकिन ज़्यादातर धर्म और राजनीति पर। यह देखने के लिए एक दिलचस्प और अनोखी जगह है कि लोग अलग-अलग वक्ताओं को सुनने, उनकी सराहना करने या उनका मज़ाक उड़ाने के लिए इकट्ठा होते हैं।

"कृपया इसे संक्षेप में लिखें:
मूल: 3 जुलाई, 1946 को राष्ट्रपति हैरी एस. ट्रूमैन ने राष्ट्रीय मानसिक स्वास्थ्य अधिनियम पर हस्ताक्षर किए। "संयुक्त राज्य अमेरिका के लोगों के मानसिक स्वास्थ्य" में सुधार के अपने व्यापक उद्देश्य के अलावा, इस अधिनियम ने तीन साल बाद, राष्ट्रीय मानसिक स्वास्थ्य संस्थान (NIMH) की स्थापना को सक्षम बनाया, जो अब राष्ट्रीय स्वास्थ्य संस्थानों का हिस्सा है।

Extract
A prompt request for key points or highlights to be extracted from a given text. The text needs to be provided in the prompt and must be at least a paragraph long (not 1-2 sentences).

Example

"Extract the key features of the Sharp 40FDK television
Enjoy your favourite content with exceptional picture quality and effortless navigation with the SHARP 40FD6K 40-Inch Full HD Smart Roku TV. Made for enhanced viewing, the 40FD6K’s exceptionally sharp picture, modern design and user-friendly interface makes for a higher level of viewing experience. The TV’s HDR10 support provides a wider dynamic range than other LED displays, allowing you to enjoy greater depth of colours and contrast for an all-around sharper picture. The Active Motion 400 display promises short response times for more fluid on-screen action. The sleek, frameless design of this smart TV 40 inch model means the screen has minimal borders, giving you a more immersive experience as you watch your favourite films and TV. It comes with a number of popular streaming apps pre-installed, including Netflix, Prime Video, Disney+, Apple TV, and many more, letting you access your favourite content instantly. The 40FD6K offers fantastic connectivity options, with 3 HDMI ports and one USB port, making it easy to connect games consoles, TV boxes and laptops, or browse your own images, video, and music via a USB stick."

Summarize
A prompt request for the summary of a specific text. The text needs to be provided in the prompt and have a significant length in order to be summed up.

Example

"Summarize this text into two sentences"
Have you ever wondered how the National Park Service (NPS) came to be?
Many credit public support for establishing the NPS to the Hetch Hetchy Controversy. This controversy was a multi-year debate that saw the public divided over whether to build a dam in the Hetch Hetchy valley to create a water supply for San Francisco, California. Since the Hetch Hetchy valley lay within the boundaries of Yosemite National Park, the final decision was left to Congress, which deliberated the issue between 1908 and 1913.
The divide over Hetch Hetchy’s fate took center stage during a hearing before the Committee on Public Lands in the House of Representatives in December 1908. The hearing included statements and letters from government officials, conservation organizations, the San Francisco city engineer, writers, and conservationists. Both sides of the controversy were represented, with some arguing in favor of using Hetch Hetchy valley as a water source and others arguing to preserve the valley’s natural beauty. James Garfield, the Secretary of the Interior, noted that citizens opposed the dam “not only in California, but throughout the country,” reflecting how this debate had become the subject of national attention."

Translate
A prompt requesting a translation of a given word, sentence or text. The text for translation and the target language need to be provided in the prompt.

Examples

"Translate 'where is the pool?' into Dutch"
"What is the Spanish word for dog?"

Code
A prompt requesting a code related task or challenge for the given topic.

Examples

"Write me a Python function to show if a given number is odd or even"
"Write a C++ program that calculates the factorial of a given number using a recursive function"

Conversation
A prompt requesting to generate a conversation between two or more parties given a specific topic/subject matter.

In this format, you will present a conversation that ends with the expectation that the LLM will continue the conversation.


Example

"Agent: How can I help you today?

John: I want to book a flight to Malaga.

Agent. Okay. What date would you like to travel?

John: 10th May 2024 but I can be flexible

एक्सट्रैक्ट
किसी दिए गए टेक्स्ट से मुख्य बिंदुओं या हाइलाइट्स को निकालने के लिए एक प्रॉम्प्ट अनुरोध। टेक्स्ट प्रॉम्प्ट में दिया जाना चाहिए और कम से कम एक पैराग्राफ लंबा होना चाहिए (1-2 वाक्य नहीं)। उदाहरण

"शार्प 40FDK टेलीविज़न की मुख्य विशेषताओं को समझें
SHARP 40FD6K 40-इंच फुल HD स्मार्ट रोकू टीवी के साथ बेहतरीन पिक्चर क्वालिटी और सहज नेविगेशन के साथ अपनी पसंदीदा सामग्री का आनंद लें। बेहतरीन दृश्यता के लिए बनाया गया, 40FD6K की असाधारण रूप से शार्प तस्वीर, आधुनिक डिज़ाइन और उपयोगकर्ता के अनुकूल इंटरफ़ेस उच्च स्तर के दृश्य अनुभव के लिए बनाता है। टीवी का HDR10 सपोर्ट अन्य LED डिस्प्ले की तुलना में व्यापक डायनामिक रेंज प्रदान करता है, जिससे आप एक सर्वांगीण शार्प तस्वीर के लिए रंगों और कंट्रास्ट की अधिक गहराई का आनंद ले सकते हैं। एक्टिव मोशन 400 डिस्प्ले अधिक तरल ऑन-स्क्रीन एक्शन के लिए कम प्रतिक्रिया समय का वादा करता है। इस स्मार्ट टीवी 40 इंच मॉडल के स्लीक, फ्रेमलेस डिज़ाइन का मतलब है कि स्क्रीन में न्यूनतम सीमाएँ हैं, जिससे आपको अपनी पसंदीदा फ़िल्में और टीवी देखते समय अधिक इमर्सिव अनुभव मिलता है। यह कई लोकप्रिय स्ट्रीमिंग ऐप के साथ आता है, जिसमें नेटफ्लिक्स, प्राइम वीडियो, डिज़नी+, ऐप्पल टीवी और कई अन्य शामिल हैं, जिससे आप अपनी पसंदीदा सामग्री को तुरंत एक्सेस कर सकते हैं। 40FD6K 3 HDMI पोर्ट और एक USB पोर्ट के साथ शानदार कनेक्टिविटी विकल्प प्रदान करता है, जिससे गेम कंसोल, टीवी बॉक्स और लैपटॉप को कनेक्ट करना या USB स्टिक के माध्यम से अपनी खुद की छवियों, वीडियो और संगीत को ब्राउज़ करना आसान हो जाता है।"

सारांशित करें
किसी विशिष्ट पाठ के सारांश के लिए एक त्वरित अनुरोध। पाठ को प्रॉम्प्ट में प्रदान किया जाना चाहिए और सारांशित करने के लिए पर्याप्त लंबाई होनी चाहिए।

उदाहरण

"इस पाठ को दो वाक्यों में सारांशित करें"
क्या आपने कभी सोचा है कि राष्ट्रीय उद्यान सेवा (NPS) कैसे अस्तित्व में आई?
कई लोग NPS की स्थापना के लिए जनता के समर्थन का श्रेय हेच हेची विवाद को देते हैं। यह विवाद एक बहु-वर्षीय बहस थी जिसने लोगों को इस बात पर विभाजित किया कि सैन फ्रांसिस्को, कैलिफ़ोर्निया के लिए जल आपूर्ति बनाने के लिए हेच हेची घाटी में एक बांध बनाया जाए या नहीं। चूंकि हेच हेची घाटी योसेमाइट नेशनल पार्क की सीमाओं के भीतर थी, इसलिए अंतिम निर्णय कांग्रेस पर छोड़ दिया गया, जिसने 1908 और 1913 के बीच इस मुद्दे पर विचार-विमर्श किया। दिसंबर 1908 में प्रतिनिधि सभा में सार्वजनिक भूमि समिति के समक्ष सुनवाई के दौरान हेच ​​हेची के भाग्य पर विभाजन केंद्र में आया। सुनवाई में सरकारी अधिकारियों, संरक्षण संगठनों, सैन फ्रांसिस्को शहर के इंजीनियर, लेखकों और संरक्षणवादियों के बयान और पत्र शामिल थे। विवाद के दोनों पक्षों का प्रतिनिधित्व किया गया, कुछ ने हेच हेची घाटी को जल स्रोत के रूप में उपयोग करने के पक्ष में तर्क दिया और अन्य ने घाटी की प्राकृतिक सुंदरता को संरक्षित करने का तर्क दिया। आंतरिक सचिव जेम्स गारफील्ड ने कहा कि नागरिकों ने "केवल कैलिफोर्निया में ही नहीं, बल्कि पूरे देश में" बांध का विरोध किया, यह दर्शाता है कि यह बहस कैसे राष्ट्रीय ध्यान का विषय बन गई थी।" अनुवाद करें किसी दिए गए शब्द, वाक्य या पाठ का अनुवाद करने का अनुरोध करने वाला संकेत। अनुवाद के लिए पाठ और लक्ष्य भाषा संकेत में प्रदान की जानी चाहिए। उदाहरण "'पूल कहाँ है?' का अनुवाद करें डच में"
"कुत्ते के लिए स्पेनिश शब्द क्या है?"

कोड
दिए गए विषय के लिए कोड से संबंधित कार्य या चुनौती का अनुरोध करने वाला प्रॉम्प्ट।

उदाहरण

"मुझे यह दिखाने के लिए एक पायथन फ़ंक्शन लिखें कि दी गई संख्या विषम है या सम"
"एक C++ प्रोग्राम लिखें जो एक पुनरावर्ती फ़ंक्शन का उपयोग करके किसी दी गई संख्या के फ़ैक्टोरियल की गणना करता है"

बातचीत
एक प्रॉम्प्ट जो किसी विशिष्ट विषय/विषय वस्तु को देखते हुए दो या अधिक पक्षों के बीच बातचीत उत्पन्न करने का अनुरोध करता है।

इस प्रारूप में, आप एक बातचीत प्रस्तुत करेंगे जो इस उम्मीद के साथ समाप्त होगी कि LLM बातचीत जारी रखेगा।

उदाहरण

"एजेंट: मैं आज आपकी कैसे मदद कर सकता हूँ?

जॉन: मैं मालागा के लिए एक उड़ान बुक करना चाहता हूँ।

एजेंट। ठीक है। आप किस तारीख को यात्रा करना चाहेंगे?

जॉन: 10 मई 2024 लेकिन मैं लचीला हो सकता हूँ

Creating Complete Conversations

Some tasks may ask the user to act as both human and 'chatbot'. This is to create conversations from scratch where the user writes the prompt/question and then writes what would be a desirable answer.

In this type of task, the challenge is to be able to think like a user (not as yourself) and write the type of prompt they would and also write helpful, honest, and harmless answers as the chatbot, that the user will be happy and satisfied with.

These types of tasks are particularly useful to train and challenge models on specialist domains/topics. They are also useful to train models for a specific locale.

For example, the user is asked to write a prompt for the en_GB perspective (that is in English as spoken in Great Britain

Prompt: What colour was Gwyneth Paltrow's gown when she won the Oscar for Shakespeare in Love? 

Poor response: Gwyneth Paltrow won the Academy Award for Best Actress for her role in "Shakespeare in Love" at the 71st Academy Awards in 1999. At that ceremony, she wore a pale pink gown designed by Ralph Lauren. The dress became notable not just for its color but also for its elegant and simple design, making it a memorable part of her Oscar-winning appearance. 

This is a poor response as although the information is correct note how, in the second sentence the 'chatbot' uses the en_US American spelling 'color'.  An en_GB user would expect to see en_GB spelling, 'colour'.

Creating Complex and Domain Specific Prompts

LLMs have become very good at answer basic prompts, for example, what is the capital of Spain?

To take LLMs to the next level, many projects require prompts and answers that demonstrate complexity. 

Complexity can refer to two distinct things:

  • a complex question is a very difficult question in terms of the topic.
  • a complex question is complex due to how it it is written. It may not be a straight-forward or it may contain many parameters the answer must adhere to, for example, "I want ideas for wedding table settings but they must not include real flowers (groom is allergic) and must include the colours orange and yellow. Please provide 3 ideas in a list format". 

Some tasks may require people with specific domain (topic) knowledge to create in-depth and specialised prompts and answers in such domains as:

  • medicine
  • coding
  • finance
  • technology
  • mathematics etc

संपूर्ण वार्तालाप बनाना

कुछ कार्य उपयोगकर्ता को मानव और 'चैटबॉट' दोनों के रूप में कार्य करने के लिए कह सकते हैं। यह स्क्रैच से वार्तालाप बनाना है जहाँ उपयोगकर्ता प्रॉम्प्ट/प्रश्न लिखता है और फिर लिखता है कि एक वांछनीय उत्तर क्या होगा।

इस प्रकार के कार्य में, चुनौती यह है कि उपयोगकर्ता की तरह सोचने में सक्षम होना (अपने आप की तरह नहीं) और उस प्रकार का प्रॉम्प्ट लिखना जो वे लिखेंगे और चैटबॉट के रूप में सहायक, ईमानदार और हानिरहित उत्तर भी लिखें, जिससे उपयोगकर्ता खुश और संतुष्ट हो।

इस प्रकार के कार्य विशेष रूप से विशेषज्ञ डोमेन/विषयों पर मॉडल को प्रशिक्षित करने और चुनौती देने के लिए उपयोगी होते हैं। वे किसी विशिष्ट लोकेल के लिए मॉडल को प्रशिक्षित करने के लिए भी उपयोगी होते हैं।

उदाहरण के लिए, उपयोगकर्ता को en_GB परिप्रेक्ष्य के लिए एक संकेत लिखने के लिए कहा जाता है (जो कि ग्रेट ब्रिटेन में बोली जाने वाली अंग्रेजी में है

संकेत: ग्वेनेथ पाल्ट्रो ने शेक्सपियर इन लव के लिए ऑस्कर जीतने पर किस रंग का गाउन पहना था?

खराब प्रतिक्रिया: ग्वेनेथ पाल्ट्रो ने 1999 में 71वें अकादमी पुरस्कार में "शेक्सपियर इन लव" में अपनी भूमिका के लिए सर्वश्रेष्ठ अभिनेत्री का अकादमी पुरस्कार जीता। उस समारोह में, उन्होंने राल्फ लॉरेन द्वारा डिज़ाइन किया गया एक हल्का गुलाबी गाउन पहना था। यह पोशाक न केवल अपने रंग के लिए बल्कि अपने सुरुचिपूर्ण और सरल डिज़ाइन के लिए भी उल्लेखनीय बन गई, जिसने इसे उनके ऑस्कर विजेता प्रदर्शन का एक यादगार हिस्सा बना दिया।

यह एक खराब प्रतिक्रिया है क्योंकि हालाँकि जानकारी सही है, लेकिन ध्यान दें कि दूसरे वाक्य में 'चैटबॉट' en_US अमेरिकी वर्तनी 'रंग' का उपयोग करता है। एक en_GB उपयोगकर्ता en_GB वर्तनी, 'रंग' देखने की अपेक्षा करेगा।

जटिल और डोमेन विशिष्ट संकेत बनाना

LLM बुनियादी संकेतों का उत्तर देने में बहुत अच्छे हो गए हैं, उदाहरण के लिए, क्या स्पेन की राजधानी कौन सी है?

LLM को अगले स्तर पर ले जाने के लिए, कई परियोजनाओं में ऐसे संकेत और उत्तरों की आवश्यकता होती है जो जटिलता को प्रदर्शित करते हैं।

जटिलता दो अलग-अलग चीजों को संदर्भित कर सकती है:

एक जटिल प्रश्न विषय के संदर्भ में एक बहुत ही कठिन प्रश्न है।

एक जटिल प्रश्न इस कारण से जटिल है कि इसे कैसे लिखा गया है। यह सीधा-सादा नहीं हो सकता है या इसमें कई पैरामीटर हो सकते हैं जिनका उत्तर पालन करना चाहिए, उदाहरण के लिए, "मुझे शादी की मेज की सेटिंग के लिए विचार चाहिए लेकिन उनमें असली फूल शामिल नहीं होने चाहिए (दूल्हे को एलर्जी है) और नारंगी और पीले रंग शामिल होने चाहिए। कृपया सूची प्रारूप में 3 विचार प्रदान करें"।

कुछ कार्यों के लिए ऐसे डोमेन में गहन और विशेष संकेत और उत्तर बनाने के लिए विशिष्ट डोमेन (विषय) ज्ञान वाले लोगों की आवश्यकता हो सकती है जैसे:

चिकित्सा
कोडिंग
वित्त
प्रौद्योगिकी
गणित आदि

Turns

A prompt and a responding answer is called a turn.

Some projects require the user to produce one turn - that would be a prompt (question) and a response (answer).

Other projects may require the user to provide a multi-turn conversation. The image to the right shows an example of what a two-turn conversation would look like.

 

टर्न

एक प्रॉम्प्ट और एक प्रतिक्रियात्मक उत्तर को टर्न कहा जाता है।

कुछ प्रोजेक्ट में उपयोगकर्ता को एक टर्न बनाने की आवश्यकता होती है - जो एक प्रॉम्प्ट (प्रश्न) और एक प्रतिक्रिया (उत्तर) होगा।

अन्य प्रोजेक्ट में उपयोगकर्ता को एक से अधिक टर्न वाली बातचीत प्रदान करने की आवश्यकता हो सकती है। दाईं

Do not under any circumstances use a generative chat/LLM model such as ChatGPT when completing such tasks. Do not use the model to create content, check facts, brainstorm ideas, etc. 
Using a generative chat tool etc is a breach of this project and you may have your account terminated.  

ऐसे कार्यों को पूरा करते समय किसी भी परिस्थिति में ChatGPT जैसे जनरेटिव चैट/LLM मॉडल का उपयोग न करें। सामग्री बनाने, तथ्यों की जाँच करने, विचारों पर विचार-विमर्श करने आदि के लिए मॉडल का उपयोग न करें।

जनरेटिव चैट टूल आदि का उपयोग करना इस परियोजना का उल्लंघन है और आपका खाता समाप्त किया जा सकता है।

Red Teaming Tasks

Red teaming is like having someone play the bad guy to test how well something works. The goal is to find any weak spots or problems that might be missed otherwise. It's kind of like a practice round to make sure everything is strong and ready to go. 

In terms of LLM tasks, this may be using an AI model and trying to get it to break its own policies or safety guidelines.

These tasks may be quite sensitive in nature and challenging to complete. Even though you know you are pretending, it may be uncomfortable to use offensive language or to communicate unpleasant ideas. We offer support and guidance to those taking part in such projects, and not taking part in, or leaving, the project does not affect anyone's profile or future participant in other projects. 

Labelling and Grading Project

Labelling can include tasks such as looking at prompts and/or response and labelling them for topics present etc. 

Grading can include tasks that evaluate and assess a model response, this helps ensure the LLM is providing responses which are accurate and coherent.

Labelling and grading can include:

  • Accuracy - is the response accurate? Is it providing factually correct information and the outcome the user wants.
  • Fidelity and Coherence - this assess the coherence, relevance, and overall quality of the generated text.
  • Locale suitability - is the generated texted suitable for the local of the user. This may include locale specific information provided (how to apply for a passport in the US vs how to apply for a passport in the EU) or even the language variant such as regional spellings (color vs colour)

रेड टीमिंग कार्य

रेड टीमिंग ऐसा है जैसे किसी को खलनायक की भूमिका निभाकर यह परखना कि कोई चीज कितनी अच्छी तरह काम करती है। इसका लक्ष्य किसी भी कमजोर बिंदु या समस्या का पता लगाना है जो अन्यथा छूट सकती है। यह सुनिश्चित करने के लिए एक अभ्यास दौर की तरह है कि सब कुछ मजबूत है और आगे बढ़ने के लिए तैयार है।

एलएलएम कार्यों के संदर्भ में, यह एक एआई मॉडल का उपयोग कर सकता है और इसे अपनी नीतियों या सुरक्षा दिशानिर्देशों को तोड़ने के लिए प्रेरित करने का प्रयास कर सकता है।

ये कार्य प्रकृति में काफी संवेदनशील और पूरा करने में चुनौतीपूर्ण हो सकते हैं। भले ही आप जानते हों कि आप दिखावा कर रहे हैं, लेकिन आपत्तिजनक भाषा का उपयोग करना या अप्रिय विचारों को संप्रेषित करना असहज हो सकता है। हम ऐसे प्रोजेक्ट में भाग लेने वालों को सहायता और मार्गदर्शन प्रदान करते हैं, और प्रोजेक्ट में भाग न लेने या छोड़ने से किसी की प्रोफ़ाइल या अन्य प्रोजेक्ट में भविष्य के प्रतिभागी पर कोई प्रभाव नहीं पड़ता है।

प्रोजेक्ट को लेबल करना और ग्रेड करना

लेबलिंग में प्रॉम्प्ट और/या प्रतिक्रिया को देखना और उन्हें मौजूद विषयों के लिए लेबल करना आदि जैसे कार्य शामिल हो सकते हैं।

ग्रेडिंग में ऐसे कार्य शामिल हो सकते हैं जो मॉडल प्रतिक्रिया का मूल्यांकन और आकलन करते हैं, इससे यह सुनिश्चित करने में मदद मिलती है कि एलएलएम ऐसी प्रतिक्रियाएँ प्रदान कर रहा है जो सटीक और सुसंगत हैं। लेबलिंग और ग्रेडिंग में ये शामिल हो सकते हैं: सटीकता - क्या प्रतिक्रिया सटीक है? क्या यह तथ्यात्मक रूप से सही जानकारी और उपयोगकर्ता द्वारा वांछित परिणाम प्रदान कर रहा है। निष्ठा और सुसंगतता - यह उत्पन्न पाठ की सुसंगतता, प्रासंगिकता और समग्र गुणवत्ता का आकलन करता है। स्थानीय उपयुक्तता - क्या उत्पन्न पाठ उपयोगकर्ता के स्थानीय के लिए उपयुक्त है। इसमें स्थानीय विशिष्ट जानकारी (यूएस में पासपोर्ट के लिए आवेदन कैसे करें बनाम ईयू में पासपोर्ट के लिए आवेदन कैसे करें) या यहां तक ​​कि क्षेत्रीय वर्तनी (रंग बनाम रंग) जैसे भाषा संस्करण भी शामिल हो सकते हैं

Glossary
Listed below essential terms and concepts related to LLMs and AI in a way that’s easy for non-data scientists to understand.


Adapters: Tiny parts you can add to a trained model to help it do a specific task without changing it too much. Example: Adding a new skill to a computer game character without changing the whole game.


Alignment: AI alignment research aims to steer AI systems towards humans’ intended goals, preferences, or ethical principles. An AI system is considered aligned if it advances the intended objectives. A misaligned AI system is competent at advancing some objectives, but not the intended ones.


Artificial Intelligence (AI): It’s like a smart robot that can think and do things like humans. AI helps computers solve problems, make decisions, and understand our language. Example: Siri on your iPhone.


Base model/foundational model: a pre-trained language mdoel that serves as the starting point for building more specific models for downstream tasks.


Bias: When a computer makes mistakes because its training data isn’t balanced or representative. Example: A computer thinking all doctors are men because it mostly reads about male doctors.


Conversational AI: artificial intelligence systems that are designed to engage in natural language conversations with users. These systems use advanced natural language processing (NLP) and natural language understanding (NLU) techniques to interpret and respond to user inputs in a way that simulates human-like conversation. Conversational AI can be implemented in various forms, including chatbots, virtual assistants, messaging apps, and voice-activated interfaces.


Data Augmentation: Making a dataset bigger and more diverse by creating new samples, like rephrasing sentences. Example: Changing “The cat is on the mat” to “The cat sits on the mat.”


Attention Mechanism: A way for computers to focus on important parts of the input when creating an output. Example: A computer knowing “pizza” is the most important word in “I want to eat pizza.”


Beam Search: A method for finding the best sequence of words when a computer generates text. Example: A computer choosing the most likely next word in a sentence.


BERT: A transformer model that helps computers understand language for tasks like guessing what people think about a movie. Example: A computer that knows if a review is positive or negative.


Chain-of-Thought Prompting: Chain-of-thought prompting (CoT) improves the reasoning ability of LLMs by prompting them to generate a series of intermediate steps that lead to the final answer of a multi-step problem.


Context Window / Context Length: context window is the number of tokens that are considered when predicting the next token.


Deep Learning (DL): It’s a way computers learn from many examples, like how you learn from experience. Deep learning uses special computer programs called neural networks to find patterns in data. Example: A computer learning to recognize cats in pictures.


Decoder: Part of a transformer that helps it create a response or answer. Example: A computer replying, “The weather today is sunny and warm.”


Encoder: Part of a transformer that helps it understand and remember what you tell it. Example: A computer remembering the question, “What’s the weather like today?”


Explainable AI (XAI): Making computers’ decision-making processes easier for humans to understand. Example: A computer explaining why it thinks a certain movie is a comedy.


Few-Shot Learning: When a computer can learn a new task with just a few examples. Example: A computer that can learn your favorite songs after hearing them once or twice.


Fine-Tuning: Adjusting a trained model to be better at a specific task. Example: Teaching a computer to understand and answer questions about dinosaurs.


Foundation Models: Big AI models, like LLMs, can be used for many different tasks. Example: A computer that can help with homework, write emails, and tell jokes.


GPT-3 and GPT-4: A transformer model that helps computers generate text like a human, such as completing a sentence or writing a summary. Example: A computer writing a book report for you.


Grounding: Grounding in large language modeling is the process of associating words and phrases with their corresponding real-world entities and concepts.


Hallucination: In artificial intelligence (AI), a hallucination or artificial hallucination (also occasionally called confabulation or delusion) is a confident response by an AI that does not seem to be justified by its training data.


In-Context Learning: When a computer can change its behavior based on the input, without extra training. Example: A computer knowing how to answer a question about sports after talking about sports.


Large Language Model (LLM): A language model consisting of a neural network with many parameters (typically billions of weights or more), trained on large quantities of unlabeled text using self-s

 

शब्दावली
नीचे LLM और AI से संबंधित आवश्यक शब्द और अवधारणाएँ इस तरह सूचीबद्ध की गई हैं कि गैर-डेटा वैज्ञानिकों के लिए समझना आसान हो।


एडेप्टर: छोटे-छोटे हिस्से जिन्हें आप प्रशिक्षित मॉडल में जोड़कर उसे बहुत ज़्यादा बदलाव किए बिना कोई खास काम करने में मदद कर सकते हैं। उदाहरण: पूरे गेम को बदले बिना कंप्यूटर गेम के किरदार में कोई नया कौशल जोड़ना।


संरेखण: AI संरेखण अनुसंधान का उद्देश्य AI सिस्टम को मनुष्यों के इच्छित लक्ष्यों, प्राथमिकताओं या नैतिक सिद्धांतों की ओर ले जाना है। एक AI सिस्टम को संरेखित माना जाता है अगर यह इच्छित उद्देश्यों को आगे बढ़ाता है। एक गलत संरेखित AI सिस्टम कुछ उद्देश्यों को आगे बढ़ाने में सक्षम है, लेकिन इच्छित उद्देश्यों को नहीं।


कृत्रिम बुद्धिमत्ता (AI): यह एक स्मार्ट रोबोट की तरह है जो इंसानों की तरह सोच और काम कर सकता है। AI कंप्यूटर को समस्याओं को हल करने, निर्णय लेने और हमारी भाषा को समझने में मदद करता है। उदाहरण: आपके iPhone पर Siri।


बेस मॉडल/फाउंडेशनल मॉडल: एक पूर्व-प्रशिक्षित भाषा मॉडल जो डाउनस्ट्रीम कार्यों के लिए अधिक विशिष्ट मॉडल बनाने के लिए शुरुआती बिंदु के रूप में कार्य करता है।


पूर्वाग्रह: जब कोई कंप्यूटर इसलिए गलतियाँ करता है क्योंकि उसका प्रशिक्षण डेटा संतुलित या प्रतिनिधि नहीं होता है। उदाहरण: एक कंप्यूटर सोचता है कि सभी डॉक्टर पुरुष हैं क्योंकि यह ज़्यादातर पुरुष डॉक्टरों के बारे में पढ़ता है।


संवादात्मक AI: कृत्रिम बुद्धिमत्ता प्रणाली जो उपयोगकर्ताओं के साथ प्राकृतिक भाषा में बातचीत करने के लिए डिज़ाइन की गई हैं। ये सिस्टम उपयोगकर्ता इनपुट की व्याख्या करने और उस पर प्रतिक्रिया देने के लिए उन्नत प्राकृतिक भाषा प्रसंस्करण (NLP) और प्राकृतिक भाषा समझ (NLU) तकनीकों का उपयोग करते हैं, जो मानव जैसी बातचीत का अनुकरण करते हैं। संवादात्मक AI को विभिन्न रूपों में लागू किया जा सकता है, जिसमें चैटबॉट, वर्चुअल असिस्टेंट, मैसेजिंग ऐप और वॉयस-एक्टिवेटेड इंटरफ़ेस शामिल हैं।


डेटा वृद्धि: वाक्यों को फिर से लिखने जैसे नए नमूने बनाकर डेटासेट को बड़ा और अधिक विविध बनाना। उदाहरण: “बिल्ली चटाई पर है” को बदलकर “बिल्ली चटाई पर बैठती है” करना।


ध्यान तंत्र: आउटपुट बनाते समय कंप्यूटर के लिए इनपुट के महत्वपूर्ण भागों पर ध्यान केंद्रित करने का एक तरीका। उदाहरण: एक कंप्यूटर जो जानता है कि “पिज्जा” “मैं पिज्जा खाना चाहता हूँ” में सबसे महत्वपूर्ण शब्द है।


बीम खोज: जब कंप्यूटर टेक्स्ट जेनरेट करता है तो शब्दों का सबसे अच्छा क्रम खोजने की एक विधि। उदाहरण: एक कंप्यूटर वाक्य में सबसे संभावित अगला शब्द चुनता है।


BERT: एक ट्रांसफॉर्मर मॉडल जो कंप्यूटर को लोगों के किसी मूवी के बारे में क्या सोचते हैं, इसका अनुमान लगाने जैसे कार्यों के लिए भाषा को समझने में मदद करता है। उदाहरण: एक कंप्यूटर जो जानता है कि समीक्षा सकारात्मक है या नकारात्मक।


चेन-ऑफ-थॉट प्रॉम्प्टिंग: चेन-ऑफ-थॉट प्रॉम्प्टिंग (CoT) LLM की तर्क क्षमता को बेहतर बनाता है, जिससे उन्हें मध्यवर्ती चरणों की एक श्रृंखला बनाने के लिए प्रेरित किया जाता है जो एक बहु-चरणीय समस्या के अंतिम उत्तर की ओर ले जाता है।


संदर्भ विंडो / संदर्भ लंबाई: संदर्भ विंडो टोकन की वह संख्या है जिसे अगले टोकन की भविष्यवाणी करते समय ध्यान में रखा जाता है।


डीप लर्निंग (डीएल): यह एक ऐसा तरीका है जिससे कंप्यूटर कई उदाहरणों से सीखते हैं, जैसे आप अनुभव से सीखते हैं। डीप लर्निंग डेटा में पैटर्न खोजने के लिए न्यूरल नेटवर्क नामक विशेष कंप्यूटर प्रोग्राम का उपयोग करता है। उदाहरण: एक कंप्यूटर तस्वीरों में बिल्लियों को पहचानना सीख रहा है।


डिकोडर: एक ट्रांसफॉर्मर का हिस्सा जो इसे प्रतिक्रिया या उत्तर बनाने में मदद करता है। उदाहरण: एक कंप्यूटर जवाब देता है, “आज मौसम धूप और गर्म है।”


एनकोडर: एक ट्रांसफॉर्मर का हिस्सा जो इसे समझने और याद रखने में मदद करता है कि आप उसे क्या बताते हैं। उदाहरण: एक कंप्यूटर यह सवाल याद रखता है, “आज मौसम कैसा है?”


एक्सप्लेनेबल एआई (एक्सएआई): कंप्यूटर की निर्णय लेने की प्रक्रिया को मनुष्यों के लिए समझना आसान बनाना। उदाहरण: एक कंप्यूटर यह समझाता है कि उसे क्यों लगता है कि एक निश्चित फिल्म एक कॉमेडी है।


फ्यू-शॉट लर्निंग: जब कोई कंप्यूटर कुछ उदाहरणों से ही कोई नया काम सीख सकता है। उदाहरण: एक कंप्यूटर जो आपके पसंदीदा गानों को एक या दो बार सुनने के बाद उन्हें सीख सकता है।


फाइन-ट्यूनिंग: किसी प्रशिक्षित मॉडल को किसी विशिष्ट कार्य में बेहतर बनाने के लिए समायोजित करना। उदाहरण: कंप्यूटर को डायनासोर के बारे में प्रश्नों को समझना और उनका उत्तर देना सिखाना।


फाउंडेशन मॉडल: एलएलएम जैसे बड़े एआई मॉडल का उपयोग कई अलग-अलग कार्यों के लिए किया जा सकता है। उदाहरण: एक कंप्यूटर जो होमवर्क में मदद कर सकता है, ईमेल लिख सकता है और चुटकुले सुना सकता है।


GPT-3 और GPT-4: एक ट्रांसफॉर्मर मॉडल जो कंप्यूटर को मानव की तरह टेक्स्ट बनाने में मदद करता है, जैसे कि एक वाक्य पूरा करना या सारांश लिखना। उदाहरण: एक कंप्यूटर आपके लिए एक पुस्तक रिपोर्ट लिख रहा है।


ग्राउंडिंग: बड़े भाषा मॉडलिंग में ग्राउंडिंग शब्दों और वाक्यांशों को उनकी संबंधित वास्तविक दुनिया की संस्थाओं और अवधारणाओं के साथ जोड़ने की प्रक्रिया है।


मतिभ्रम: कृत्रिम बुद्धिमत्ता (AI) में, मतिभ्रम या कृत्रिम मतिभ्रम (जिसे कभी-कभी कन्फैब्यूलेशन या भ्रम भी कहा जाता है) एक AI द्वारा एक आश्वस्त प्रतिक्रिया है जो उसके प्रशिक्षण डेटा द्वारा उचित नहीं लगती है।


इन-कॉन्टेक्स्ट लर्निंग: जब कोई कंप्यूटर बिना किसी अतिरिक्त प्रशिक्षण के इनपुट के आधार पर अपना व्यवहार बदल सकता है। उदाहरण: एक कंप्यूटर जो खेल के बारे में बात करने के बाद खेल के बारे में किसी प्रश्न का उत्तर देना जानता है।


लार्ज लैंग्वेज मॉडल (LLM): एक भाषा मॉडल जिसमें कई पैरामीटर (आमतौर पर अरबों वज़न या उससे ज़्यादा) वाले न्यूरल नेटवर्क होते हैं, जिन्हें सेल्फ़-एस का उपयोग करके बड़ी मात्रा में लेबल रहित टेक्स्ट पर प्रशिक्षित किया जाता है।

Summary
Key Takeaways

Large Language Models (LLMs) are important machine learning tools that use deep learning algorithms to work with and understand human language. These models learn from huge amounts of text data to understand patterns and connections in language.

LLMs can do various language-related tasks, like translating languages, analyzing feelings, having conversations like a chatbot, and more. They can understand complicated written information, recognize things and how they’re connected, and create new text that makes sense and follows grammar rules!

Large language models are leading the way in artificial intelligence. They can do a lot, like generate text that seems human, help with easy language translation, figure out emotions in text, and even make computer code.

These models are useful in different areas like technology, healthcare, marketing, and more. They’re not just tools for language; they’re key parts in shaping the future of artificial intelligence.

You can revisit this module at any time using

Open Module(opens in a new tab)

Why not bookmark it for future reference?

As a next step, you will have to complete the certification by answering the test questions.

The link to the certification is provided at the bottom of the SCREEN. If you are reading the module in a standalone window, please ensure you are logged into your OneForma, in the General LLM certification and at the bottom of the screen which displays the module you will see the 'proceed to exam' button

Good luck!

सारांश
मुख्य बातें

बड़े भाषा मॉडल (LLM) महत्वपूर्ण मशीन लर्निंग उपकरण हैं जो मानव भाषा के साथ काम करने और उसे समझने के लिए डीप लर्निंग एल्गोरिदम का उपयोग करते हैं। ये मॉडल भाषा में पैटर्न और कनेक्शन को समझने के लिए बड़ी मात्रा में टेक्स्ट डेटा से सीखते हैं।

LLM विभिन्न भाषा-संबंधी कार्य कर सकते हैं, जैसे भाषाओं का अनुवाद करना, भावनाओं का विश्लेषण करना, चैटबॉट की तरह बातचीत करना, और बहुत कुछ। वे जटिल लिखित जानकारी को समझ सकते हैं, चीजों को पहचान सकते हैं और यह जान सकते हैं कि वे कैसे जुड़ी हुई हैं, और नया टेक्स्ट बना सकते हैं जो समझ में आता है और व्याकरण के नियमों का पालन करता है!

बड़े भाषा मॉडल आर्टिफिशियल इंटेलिजेंस में अग्रणी हैं। वे बहुत कुछ कर सकते हैं, जैसे कि ऐसा टेक्स्ट बनाना जो मानवीय लगता है, आसान भाषा अनुवाद में मदद करना, टेक्स्ट में भावनाओं को समझना और यहां तक ​​कि कंप्यूटर कोड बनाना।

ये मॉडल प्रौद्योगिकी, स्वास्थ्य सेवा, विपणन और बहुत कुछ जैसे विभिन्न क्षेत्रों में उपयोगी हैं। वे केवल भाषा के लिए उपकरण नहीं हैं; वे आर्टिफिशियल इंटेलिजेंस के भविष्य को आकार देने में महत्वपूर्ण भूमिका निभाते हैं।

आप किसी भी समय इस मॉड्यूल को फिर से देख सकते हैं

ओपन मॉड्यूल (नए टैब में खुलता है)

भविष्य के संदर्भ के लिए इसे बुकमार्क क्यों न करें?

अगले चरण के रूप में, आपको परीक्षण प्रश्नों का उत्तर देकर प्रमाणन पूरा करना होगा।

प्रमाणन का लिंक स्क्रीन के नीचे दिया गया है। यदि आप मॉड्यूल को स्टैंडअलोन विंडो में पढ़ रहे हैं, तो कृपया सुनिश्चित करें कि आप अपने OneForma में लॉग इन हैं, सामान्य LLM प्रमाणन में और स्क्रीन के नीचे जो मॉड्यूल प्रदर्शित करता है, आपको 'परीक्षा के लिए आगे बढ़ें' बटन दिखाई देगा

शुभकामनाएँ!

Education Loan*

!शुभ शरुआत स्टार्ट पे के साथ!


CORPORATE PERSONAL LOAN

लचीला कॉर्पोरेट,
व्यक्तिगत ऋण

Flexible Corporate,
Personal Loan

WORKING CAPITAL LOAN

कार्यशील पूंजी मांग ऋण

Working Capital Demand Loan


LOAN AGAINST PROPERTY

बिजनेस फूलेगा फलेगा,

जब लोन आसान से मिलेगा

BUSINESS PHOOLEGA PHALEGA,
JAB LOAN AASANI SE MILEGA


HOME LOAN

शुभ काम में,

देरी कैसी

SHUBH KAAM,
MEIN DERI KESI


SUPPLY CHAIN FINANCE

बिजनेस फूलेगा फलेगा,

जब लोन आसान से मिलेगा

BUSINESS PHOOLEGA PHALEGA,
JAB LOAN AASANI SE MILEGA

Did you find this article useful?