Simple and Multiple Linear Regression MCQ Quiz in हिन्दी - Objective Question with Answer for Simple and Multiple Linear Regression - मुफ्त [PDF] डाउनलोड करें

Last updated on Jul 1, 2025

पाईये Simple and Multiple Linear Regression उत्तर और विस्तृत समाधान के साथ MCQ प्रश्न। इन्हें मुफ्त में डाउनलोड करें Simple and Multiple Linear Regression MCQ क्विज़ Pdf और अपनी आगामी परीक्षाओं जैसे बैंकिंग, SSC, रेलवे, UPSC, State PSC की तैयारी करें।

Latest Simple and Multiple Linear Regression MCQ Objective Questions

Simple and Multiple Linear Regression Question 1:

एक मानक रैखिक समाश्रयण मॉडल में, R2 और R̅2 क्रमशः निर्धारण गुणांक और समायोजित निर्धारण गुणांक को दर्शाते हैं। निम्नलिखित में से कौन से कथन सत्य हैं?

  1. 2 < R2
  2. R2 स्वतंत्र चरों की संख्या बढ़ने पर बढ़ता है। 
  3. 2 स्वतंत्र चरों की संख्या बढ़ने पर घटता है। 
  4. 2 > 0

Answer (Detailed Solution Below)

Option :

Simple and Multiple Linear Regression Question 1 Detailed Solution

संप्रत्यय: \( R^2 \) निर्धारण गुणांक को और \(\bar{R}^2 \) एक मानक रैखिक समाश्रयण मॉडल में समायोजित निर्धारण गुणांक को संदर्भित करता है।

व्याख्या:

विकल्प 1: यह सत्य है। समायोजित \( R^2 \) मॉडल में स्वतंत्र चरों की संख्या को ध्यान में रखता है और आमतौर पर \( R^2 \) से कम होता है जब तक कि चरों को जोड़ने से डेटा में भिन्नता बेहतर ढंग से स्पष्ट नहीं हो जाती। इसलिए, \(\bar{R}^2 \) आमतौर पर \( R^2 \) से कम या उसके बराबर होता है।

विकल्प 2: यह सत्य है। जैसे-जैसे आप मॉडल में अधिक स्वतंत्र चर जोड़ते हैं, \( R^2 \) कभी नहीं घटता है; यह या तो बढ़ता है या समान रहता है, क्योंकि \( R^2 \) मॉडल द्वारा समझाई गई विचरण के अनुपात को मापता है, और अधिक चर जोड़ने से यह केवल बढ़ सकता है या अपरिवर्तित रह सकता है।

विकल्प 3: यह आवश्यक रूप से सत्य नहीं है। समायोजित \( R^2 \) घट सकता है यदि अतिरिक्त स्वतंत्र चर अवलोकनों की संख्या के सापेक्ष पर्याप्त व्याख्यात्मक शक्ति का योगदान नहीं करते हैं। हालाँकि, यदि जोड़े गए चर मॉडल को महत्वपूर्ण रूप से बेहतर बनाते हैं, तो यह बढ़ भी सकता है।

विकल्प 4: यह असत्य है। समायोजित \( R^2 \) आमतौर पर धनात्मक या शून्य होता है, इसलिए इसका धनात्मक होना आवश्यक नहीं है।

सही विकल्प: 1) और 2) है। 

Simple and Multiple Linear Regression Question 2:

एक यादृच्छिक सदिश (X, Y ) के लिए पर्यवेक्षणों के दो समुच्चय हैं। एक सरल रैखिक समाश्रयण मॉडल पर विचार करें जहां Y के X पर समाश्रयण के लिए अंतःखड हो। ni पर्यवेक्षणों (n1, n2 > 2) वाले. i-th समुच्चय (i = 1, 2) से समाश्रयण गुणांक का न्यूनतम वर्ग आकलन \(\hat{\beta}_i\) मानें। साईज़ n1 + n2 के संयोजित नमूनों का न्यूतम वर्ग आकलन \(\hat{\beta}_0\) मानें। यदि  \(\hat{\beta}_1\) > \(\hat{\beta}_2\) > 0, हो तो निम्न में क्या सत्य है? 

  1. \(\hat{\beta}_2\) < \(\hat{\beta}_0\) < \(\hat{\beta}_1\)
  2. \(\hat{\beta}_0\) का मान (\(\hat{\beta}_2\), \(\hat{\beta}_1\)), से बाहर हो सकता है, लेकिन \(\hat{\beta}_1\) + \(\hat{\beta}_2\) से अधिक नहीं हो सकता
  3. \(\hat{\beta}_0\) का मान (\(\hat{\beta}_2\), \(\hat{\beta}_1\)), के बाहर हो सकता है मगर ऋणात्मक नहीं हो सकता
  4. \(\hat{\beta}_0\) ऋणात्मक हो सकता है

Answer (Detailed Solution Below)

Option 4 : \(\hat{\beta}_0\) ऋणात्मक हो सकता है

Simple and Multiple Linear Regression Question 2 Detailed Solution

Simple and Multiple Linear Regression Question 3:

एक रैखिक प्रतिगमन मॉडल Y = α + βx + ε पर विचार कीजिए, जहाँ α और β अज्ञात प्राचल हैं और ε एक यादृच्छिक त्रुटि है, जिसका माध्य 0 है। 10 स्वतंत्र अवलोकनों (xi, yi), i = 1, ..., 10 के आधार पर, OLS का उपयोग करके फिट किया गया मॉडल है:

\(\rm\hat{y}_i=1.5+0.8 x_i,\) i = 1, 2, ..., 10

मान लीजिए कि \(\sum_{i=1}^{10}\left(y_i-\frac{1}{10} \sum_{j=1}^{10} y_j\right)^2=5\) और \(\sum_{i=1}^{10}\left(x_i-\frac{1}{10} \sum_{j=1}^{10} x_j\right)^2=6\)

तो समायोजित निर्धारण गुणांक (समायोजित R2) (दशमलव के दो स्थानों तक गोल करने के बाद) के बराबर है:

  1. 0.74
  2. 0.83
  3. 0.77
  4. 0.84

Answer (Detailed Solution Below)

Option 1 : 0.74

Simple and Multiple Linear Regression Question 3 Detailed Solution

सही उत्तर विकल्प 1 है। 

हम शीघ्र से शीघ्र समाधान अपडेट करेंगे।

Simple and Multiple Linear Regression Question 4:

बहु रैखिक समाश्रयण निदर्श Y = Xβ + ϵ पर विचार करें जहां Y एक n x 1 पर्यवेक्षित आकंडा सदिश है जिसके लिए n > 5 है; X ज्ञात नियतांको वाला n x 5 आव्यूह है जिसके लिए rank(X) = 5 है; β = (β0, β1, β2, β3, β4)T तथा ϵi = (ϵ1, …, ϵn)T, जहां i = 1, …, n के लिए ϵस्वतंत्रतः और सर्वथासम वितरित N(0,1) यादृच्छिक चर हैं। वैकल्पिक H1 ∶ H0 के सापेक्ष रैखिक परिकल्पना H0: β1 = β2 = β3 = β4 = c (एक ज्ञात स्थिरांक) के परीक्षण पर विचार करें जो सत्य नहीं है। निम्न कथनों में से कौन से कथन सत्य हैं?

  1. H0 के अन्तर्गत वर्ग अपशिष्टों का योग स्वतंत्रता की कोटि (n − 5) के साथ कैन्द्रीय χ2 वितरण का अनुसरण करता है।
  2. H0 के अन्तर्गत वर्ग अपशिष्टों का योग स्वतंत्रता की कोटि (n − 1) के साथ केन्द्रीय χ2 वितरण का अनुसरण करता है।
  3. परीक्षण सांख्यिकी स्वतंत्रता की कोटि (5, n − 1) के साथ केन्द्रीय F बंटन का अनुसरण करता है।
  4. परीक्षण सांख्यिकी स्वतंत्रता की कोटि (4, n − 5) के साथ केन्द्रीय F बंटन का अनुसरण करता है।

Answer (Detailed Solution Below)

Option :

Simple and Multiple Linear Regression Question 4 Detailed Solution

सही उत्तर विकल्प 4 है।

हम मुख्य रूप से शुद्ध और अनुप्रयुक्त गणित पर ध्यान केंद्रित करते हैं।

यदि संभव हो तो हम सांख्यिकी भाग के हल प्रदान करने का प्रयास करेंगे।

Simple and Multiple Linear Regression Question 5:

i = 1, …, n के लिए सरल रैखिक प्रतिगमन मॉडल Yi = βxi + ϵi पर विचार करें, जहां E(ϵi) = 0, Cov(ϵi, ϵk) = 0, यदि i ≠ k तथा Var(ϵi) = \(\rm x_i^2 \sigma^2\) हैं, तो β का सर्वश्रेष्ठ अनभिनत रैखिक आकलन है:

  1. \(\rm\frac{\displaystyle\sum_{i=1}^n Y_i x_i}{\displaystyle\sum_{i=1}^n x_i^2}\)
  2. \(\rm\frac{\displaystyle\sum_{i=1}^n Y_i}{\displaystyle\sum_{i=1}^n x_i}\)
  3. \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\)
  4. \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i x_i}{x_i^2}\)

Answer (Detailed Solution Below)

Option 3 : \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\)

Simple and Multiple Linear Regression Question 5 Detailed Solution

संकल्पना:

मान लीजिए Y = β0 +β1x + ϵ एक रैखिक प्रतिगमन मॉडल है जहाँ ϵ ∼ N(0, σ2) तो अनुमानक

\(\hat{β_1}=\frac{\sum(x-\bar x)(y-\bar y)}{\sum(x-\bar x)^2}\) और \(\hat{β_0}=\bar y-\hat{β_1}\bar x\)

निष्पक्ष अनुमानक: α को β का निष्पक्ष अनुमानक कहा जाता है यदि E(α) = β

व्याख्या:

दिया गया है Yi = βxi + ϵi और

E(ϵi) = 0, Cov(ϵi, ϵk) = 0 यदि i ≠ k और Var(ϵi) = \(\rm x_i^2 \sigma^2\)....(i)

\(\frac{Y_i}{x_i}=β+\frac{\epsilon_i}{x_i}\)

var(\(\frac{Y_i}{x_i}\)) = var(\(β+\frac{\epsilon_i}{x_i}\)) = \(\frac{1}{x_i^2}var(\epsilon_i)\) = σ2 (समीकरण (i) का उपयोग करके)

और E(\(\frac{Y_i}{x_i}\)) = β + \(\frac{1}{x_i}\)E(ϵi) = β (चूँकि समीकरण (i) से E(ϵi) = 0)

इसलिए E(\(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\)) = E(\(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n(β+ \frac{\epsilon_i}{x_i})\)) = E(\(\rm\frac{1}{n}(β n+ \displaystyle\sum_{i=1}^n\frac{\epsilon_i}{x_i})\)) = E(β + \(\rm\frac{1}{n} \displaystyle\sum_{i=1}^n\frac{\epsilon_i}{x_i}\)) = β + 0 = β (समीकरण (i) से)

इसलिए β का सबसे अच्छा रैखिक निष्पक्ष अनुमानक \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\) है

विकल्प (3) सही है।

Top Simple and Multiple Linear Regression MCQ Objective Questions

i = 1, …, n के लिए सरल रैखिक प्रतिगमन मॉडल Yi = βxi + ϵi पर विचार करें, जहां E(ϵi) = 0, Cov(ϵi, ϵk) = 0, यदि i ≠ k तथा Var(ϵi) = \(\rm x_i^2 \sigma^2\) हैं, तो β का सर्वश्रेष्ठ अनभिनत रैखिक आकलन है:

  1. \(\rm\frac{\displaystyle\sum_{i=1}^n Y_i x_i}{\displaystyle\sum_{i=1}^n x_i^2}\)
  2. \(\rm\frac{\displaystyle\sum_{i=1}^n Y_i}{\displaystyle\sum_{i=1}^n x_i}\)
  3. \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\)
  4. \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i x_i}{x_i^2}\)

Answer (Detailed Solution Below)

Option 3 : \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\)

Simple and Multiple Linear Regression Question 6 Detailed Solution

Download Solution PDF

संकल्पना:

मान लीजिए Y = β0 +β1x + ϵ एक रैखिक प्रतिगमन मॉडल है जहाँ ϵ ∼ N(0, σ2) तो अनुमानक

\(\hat{β_1}=\frac{\sum(x-\bar x)(y-\bar y)}{\sum(x-\bar x)^2}\) और \(\hat{β_0}=\bar y-\hat{β_1}\bar x\)

निष्पक्ष अनुमानक: α को β का निष्पक्ष अनुमानक कहा जाता है यदि E(α) = β

व्याख्या:

दिया गया है Yi = βxi + ϵi और

E(ϵi) = 0, Cov(ϵi, ϵk) = 0 यदि i ≠ k और Var(ϵi) = \(\rm x_i^2 \sigma^2\)....(i)

\(\frac{Y_i}{x_i}=β+\frac{\epsilon_i}{x_i}\)

var(\(\frac{Y_i}{x_i}\)) = var(\(β+\frac{\epsilon_i}{x_i}\)) = \(\frac{1}{x_i^2}var(\epsilon_i)\) = σ2 (समीकरण (i) का उपयोग करके)

और E(\(\frac{Y_i}{x_i}\)) = β + \(\frac{1}{x_i}\)E(ϵi) = β (चूँकि समीकरण (i) से E(ϵi) = 0)

इसलिए E(\(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\)) = E(\(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n(β+ \frac{\epsilon_i}{x_i})\)) = E(\(\rm\frac{1}{n}(β n+ \displaystyle\sum_{i=1}^n\frac{\epsilon_i}{x_i})\)) = E(β + \(\rm\frac{1}{n} \displaystyle\sum_{i=1}^n\frac{\epsilon_i}{x_i}\)) = β + 0 = β (समीकरण (i) से)

इसलिए β का सबसे अच्छा रैखिक निष्पक्ष अनुमानक \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\) है

विकल्प (3) सही है।

Simple and Multiple Linear Regression Question 7:

एक मानक रैखिक समाश्रयण मॉडल में, R2 और R̅2 क्रमशः निर्धारण गुणांक और समायोजित निर्धारण गुणांक को दर्शाते हैं। निम्नलिखित में से कौन से कथन सत्य हैं?

  1. 2 < R2
  2. R2 स्वतंत्र चरों की संख्या बढ़ने पर बढ़ता है। 
  3. 2 स्वतंत्र चरों की संख्या बढ़ने पर घटता है। 
  4. 2 > 0

Answer (Detailed Solution Below)

Option :

Simple and Multiple Linear Regression Question 7 Detailed Solution

संप्रत्यय: \( R^2 \) निर्धारण गुणांक को और \(\bar{R}^2 \) एक मानक रैखिक समाश्रयण मॉडल में समायोजित निर्धारण गुणांक को संदर्भित करता है।

व्याख्या:

विकल्प 1: यह सत्य है। समायोजित \( R^2 \) मॉडल में स्वतंत्र चरों की संख्या को ध्यान में रखता है और आमतौर पर \( R^2 \) से कम होता है जब तक कि चरों को जोड़ने से डेटा में भिन्नता बेहतर ढंग से स्पष्ट नहीं हो जाती। इसलिए, \(\bar{R}^2 \) आमतौर पर \( R^2 \) से कम या उसके बराबर होता है।

विकल्प 2: यह सत्य है। जैसे-जैसे आप मॉडल में अधिक स्वतंत्र चर जोड़ते हैं, \( R^2 \) कभी नहीं घटता है; यह या तो बढ़ता है या समान रहता है, क्योंकि \( R^2 \) मॉडल द्वारा समझाई गई विचरण के अनुपात को मापता है, और अधिक चर जोड़ने से यह केवल बढ़ सकता है या अपरिवर्तित रह सकता है।

विकल्प 3: यह आवश्यक रूप से सत्य नहीं है। समायोजित \( R^2 \) घट सकता है यदि अतिरिक्त स्वतंत्र चर अवलोकनों की संख्या के सापेक्ष पर्याप्त व्याख्यात्मक शक्ति का योगदान नहीं करते हैं। हालाँकि, यदि जोड़े गए चर मॉडल को महत्वपूर्ण रूप से बेहतर बनाते हैं, तो यह बढ़ भी सकता है।

विकल्प 4: यह असत्य है। समायोजित \( R^2 \) आमतौर पर धनात्मक या शून्य होता है, इसलिए इसका धनात्मक होना आवश्यक नहीं है।

सही विकल्प: 1) और 2) है। 

Simple and Multiple Linear Regression Question 8:

एक रैखिक प्रतिगमन मॉडल Y = α + βx + ε पर विचार कीजिए, जहाँ α और β अज्ञात प्राचल हैं और ε एक यादृच्छिक त्रुटि है, जिसका माध्य 0 है। 10 स्वतंत्र अवलोकनों (xi, yi), i = 1, ..., 10 के आधार पर, OLS का उपयोग करके फिट किया गया मॉडल है:

\(\rm\hat{y}_i=1.5+0.8 x_i,\) i = 1, 2, ..., 10

मान लीजिए कि \(\sum_{i=1}^{10}\left(y_i-\frac{1}{10} \sum_{j=1}^{10} y_j\right)^2=5\) और \(\sum_{i=1}^{10}\left(x_i-\frac{1}{10} \sum_{j=1}^{10} x_j\right)^2=6\)

तो समायोजित निर्धारण गुणांक (समायोजित R2) (दशमलव के दो स्थानों तक गोल करने के बाद) के बराबर है:

  1. 0.74
  2. 0.83
  3. 0.77
  4. 0.84

Answer (Detailed Solution Below)

Option 1 : 0.74

Simple and Multiple Linear Regression Question 8 Detailed Solution

सही उत्तर विकल्प 1 है। 

हम शीघ्र से शीघ्र समाधान अपडेट करेंगे।

Simple and Multiple Linear Regression Question 9:

i = 1, …, n के लिए सरल रैखिक प्रतिगमन मॉडल Yi = βxi + ϵi पर विचार करें, जहां E(ϵi) = 0, Cov(ϵi, ϵk) = 0, यदि i ≠ k तथा Var(ϵi) = \(\rm x_i^2 \sigma^2\) हैं, तो β का सर्वश्रेष्ठ अनभिनत रैखिक आकलन है:

  1. \(\rm\frac{\displaystyle\sum_{i=1}^n Y_i x_i}{\displaystyle\sum_{i=1}^n x_i^2}\)
  2. \(\rm\frac{\displaystyle\sum_{i=1}^n Y_i}{\displaystyle\sum_{i=1}^n x_i}\)
  3. \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\)
  4. \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i x_i}{x_i^2}\)

Answer (Detailed Solution Below)

Option 3 : \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\)

Simple and Multiple Linear Regression Question 9 Detailed Solution

संकल्पना:

मान लीजिए Y = β0 +β1x + ϵ एक रैखिक प्रतिगमन मॉडल है जहाँ ϵ ∼ N(0, σ2) तो अनुमानक

\(\hat{β_1}=\frac{\sum(x-\bar x)(y-\bar y)}{\sum(x-\bar x)^2}\) और \(\hat{β_0}=\bar y-\hat{β_1}\bar x\)

निष्पक्ष अनुमानक: α को β का निष्पक्ष अनुमानक कहा जाता है यदि E(α) = β

व्याख्या:

दिया गया है Yi = βxi + ϵi और

E(ϵi) = 0, Cov(ϵi, ϵk) = 0 यदि i ≠ k और Var(ϵi) = \(\rm x_i^2 \sigma^2\)....(i)

\(\frac{Y_i}{x_i}=β+\frac{\epsilon_i}{x_i}\)

var(\(\frac{Y_i}{x_i}\)) = var(\(β+\frac{\epsilon_i}{x_i}\)) = \(\frac{1}{x_i^2}var(\epsilon_i)\) = σ2 (समीकरण (i) का उपयोग करके)

और E(\(\frac{Y_i}{x_i}\)) = β + \(\frac{1}{x_i}\)E(ϵi) = β (चूँकि समीकरण (i) से E(ϵi) = 0)

इसलिए E(\(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\)) = E(\(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n(β+ \frac{\epsilon_i}{x_i})\)) = E(\(\rm\frac{1}{n}(β n+ \displaystyle\sum_{i=1}^n\frac{\epsilon_i}{x_i})\)) = E(β + \(\rm\frac{1}{n} \displaystyle\sum_{i=1}^n\frac{\epsilon_i}{x_i}\)) = β + 0 = β (समीकरण (i) से)

इसलिए β का सबसे अच्छा रैखिक निष्पक्ष अनुमानक \(\rm\frac{1}{n}\displaystyle\sum_{i=1}^n \frac{Y_i}{x_i}\) है

विकल्प (3) सही है।

Simple and Multiple Linear Regression Question 10:

एक यादृच्छिक सदिश (X, Y ) के लिए पर्यवेक्षणों के दो समुच्चय हैं। एक सरल रैखिक समाश्रयण मॉडल पर विचार करें जहां Y के X पर समाश्रयण के लिए अंतःखड हो। ni पर्यवेक्षणों (n1, n2 > 2) वाले. i-th समुच्चय (i = 1, 2) से समाश्रयण गुणांक का न्यूनतम वर्ग आकलन \(\hat{\beta}_i\) मानें। साईज़ n1 + n2 के संयोजित नमूनों का न्यूतम वर्ग आकलन \(\hat{\beta}_0\) मानें। यदि  \(\hat{\beta}_1\) > \(\hat{\beta}_2\) > 0, हो तो निम्न में क्या सत्य है? 

  1. \(\hat{\beta}_2\) < \(\hat{\beta}_0\) < \(\hat{\beta}_1\)
  2. \(\hat{\beta}_0\) का मान (\(\hat{\beta}_2\), \(\hat{\beta}_1\)), से बाहर हो सकता है, लेकिन \(\hat{\beta}_1\) + \(\hat{\beta}_2\) से अधिक नहीं हो सकता
  3. \(\hat{\beta}_0\) का मान (\(\hat{\beta}_2\), \(\hat{\beta}_1\)), के बाहर हो सकता है मगर ऋणात्मक नहीं हो सकता
  4. \(\hat{\beta}_0\) ऋणात्मक हो सकता है

Answer (Detailed Solution Below)

Option 4 : \(\hat{\beta}_0\) ऋणात्मक हो सकता है

Simple and Multiple Linear Regression Question 10 Detailed Solution

Simple and Multiple Linear Regression Question 11:

बहु रैखिक समाश्रयण निदर्श Y = Xβ + ϵ पर विचार करें जहां Y एक n x 1 पर्यवेक्षित आकंडा सदिश है जिसके लिए n > 5 है; X ज्ञात नियतांको वाला n x 5 आव्यूह है जिसके लिए rank(X) = 5 है; β = (β0, β1, β2, β3, β4)T तथा ϵi = (ϵ1, …, ϵn)T, जहां i = 1, …, n के लिए ϵस्वतंत्रतः और सर्वथासम वितरित N(0,1) यादृच्छिक चर हैं। वैकल्पिक H1 ∶ H0 के सापेक्ष रैखिक परिकल्पना H0: β1 = β2 = β3 = β4 = c (एक ज्ञात स्थिरांक) के परीक्षण पर विचार करें जो सत्य नहीं है। निम्न कथनों में से कौन से कथन सत्य हैं?

  1. H0 के अन्तर्गत वर्ग अपशिष्टों का योग स्वतंत्रता की कोटि (n − 5) के साथ कैन्द्रीय χ2 वितरण का अनुसरण करता है।
  2. H0 के अन्तर्गत वर्ग अपशिष्टों का योग स्वतंत्रता की कोटि (n − 1) के साथ केन्द्रीय χ2 वितरण का अनुसरण करता है।
  3. परीक्षण सांख्यिकी स्वतंत्रता की कोटि (5, n − 1) के साथ केन्द्रीय F बंटन का अनुसरण करता है।
  4. परीक्षण सांख्यिकी स्वतंत्रता की कोटि (4, n − 5) के साथ केन्द्रीय F बंटन का अनुसरण करता है।

Answer (Detailed Solution Below)

Option :

Simple and Multiple Linear Regression Question 11 Detailed Solution

सही उत्तर विकल्प 4 है।

हम मुख्य रूप से शुद्ध और अनुप्रयुक्त गणित पर ध्यान केंद्रित करते हैं।

यदि संभव हो तो हम सांख्यिकी भाग के हल प्रदान करने का प्रयास करेंगे।

Get Free Access Now
Hot Links: teen patti gold teen patti all game teen patti go