-
-
-
-
ضریب همبستگی
ما اين روزها در اواسط دهه بعد از صد سالگي همبستگي و رگرسيون هستيم.دستاوردهاي تجربي و نظريي كه موجب شد رگرسيون وهمبستگي به صورت مطالب آماري تعريف شوند در1885 به وسيله ي سرفرانسيس گالتن ارائه شدند.سپس كارل پيرسن در1895r پيرسن را انتشار داد.
ايده اصلي همبستگي اساساًًََََ قبل از 1885 عنوان شده بود.پيرسن در سال 920 ارائه نرمال n متغيرهمبسته را به گاوس نسبت داد.اما گاوس به همبستگي به عنوان يك مفهوم متمايز توجه خاصي نداشت و در معادله هاي توزيعي اش همبستگي را به عنوان يكي از پارامترها تعبير كرد .
پيرسن در در يك مقاله ي تاريخي كه در 1895 انتشار يافت ارائه ي توزيع نرمال دو متغيره را به اگوست براوه ستاره شناس فرانسوي نسبت داد. براوه در واقع به پارامتري از توزيع نرمال دو متغيره عنوان هبستگي را اطلاق كرد .
اينك پس از يك قرن دانشمندان معاصر اغلب ضريب همبستگي را مطلبي بديهي و مسلم مي دانند.امروزه ضريب همبستگي و معادله رگرسيون همتاي آن در بسياري از زمينه ها براي آزمايشهاي مبتني بر مشاهدات ,يك ابزار آماري اصلي است .
كارول در خطابه اي كه به مناسبت انتصابش به رياست انجمن روانسنجي ايراد كرد ,ضريب همبستگي را يكي از متداولترين ابزارهايي كه در روانسنجي به كار مي رود ...و شايد يكي از متداولترين ابزارهايي كه بد به كار گرفته شده است خواند .در تجزيه ي عاملي , در مدلهاي زنتيكي رفتاري ،در مدلهاي معادله هاي ساختاري (مثلأ LISREL )، و در ديگر روشهاي وابسته ، ضريب همبستگي به عنوان واحد اساسي داده ها به كار مي رود.
براي آشنايي با مفهوم ضريب هبستگي ابتدا از مفاهيم اميد رياضي ، واريانس ، وكوواريانس شروع مي كنيم.
اميد رياضي يك متغير تصادفي يكي از مهمترين مفاهيم نظريه ي احتمال است. كه نقش آن در نظريه احتمال همانند نقش انتگرال است در حسابان.
براي روشن شدن مفهوم انگيزه اميد رياضي يك بازي را در نظر بگيريد كه در آن احتمال باخت يك دلار در هر بازي 6/0 و احتمالهاي برد به ترتيب 3/0 ، 08/0 و 02/0 است . هر چند برد يا باخت هر بازيكني بيشتر از هر چيز به شانس او بستگي دارد اما اگر بازيكني تصميم بگيرد كه دفعات زيادي بازي را ادامه دهد ، مقدار برد يا باخت او بيشتر از هر چيز به تعداد دفعات بازي بستگي دارد . هر بازيكن حسابگر ، حساب مي كند كه اگر n بار بازي را تكرار كند وقتي n بزرگ است آن گاه به طور تقريب در n(6/0) با ر1 دلار مي بازد ، و تقريبأ در n(3/0) ، n(08/0) ، و n(02/0) بار به ترتيب 1 ، 2 ، و 3 دلار مي برد. بنابر اين كل مقدار برد او برابر است با
n (08/0-)=3×n(02/0)+2×n(08/0)+1×n(3/0)+(1- (×n(6/0)
و08/0- نشان مي دهد كه به طور متوسط در هر بازي نزديك به 08/0 دلار مي بازد.اگر X يك متغير تصادفي باشد كه مقدار برد بازيكن را در هر بازي نشان مي دهد در اين صورت عدد 08/0- را مقدار مورد انتظار Xمي گوييم و مي نويسيم 08/0-=E(X) . E(X) متوسط مقدا رX است.
تعريف مقدا رمورد انتظار متغير تصادفي X با مجموعه مقادير ممكن A و تابع احتمال p(x) بنا به تعريف عبارت است از :
A E(X)=∑xp(x) , x €
اگر اين مجموع به طور مطلق همگرا باشد در اين صورت مي گوييم E(X) وجود دارد.
مقدار مورد انتظار متغير تصادفي X را ميانگين يا اميد رياضي X مي نامند و آن را با E(X) نشان مي دهند .
به همين ترتيب اگر X يك متغير تصادفي پيوسته با تابع چگالي احتمال ƒ باشد،آن گاه مقدار مورد انتظار X بنا به تعريف عبارت است از :
E(X)=∫xƒ(x)dx
واريانس متغير تصادفي
واريانس يك متغير تصادفي (چه گسسته چه پيوسته ) عبارت است از”متوسط مجذور فاصله متغير تصادفي از ميانگين خود”.
پس در حالت گسسته داريم:
. σ^2=Var(X)=E(X-μ)^2=Σ(ai- μ)^2P(X=ai)
كه منظور از μ همان اميد رياضي است.
كوواريانس
فرض كنيد X و Y دو متغير تصادفي با توزيع تواَم باشند، در اين صورت كوواريانس X و Y به صورت زير تعريف مي شود
Cov(X,Y)=E[(X-E(X))(Y-E(Y))]
توجه كنيد كه،
Cov(X,X)= σx^2=Var(X)
همچنين بنا بر نابرابري كشي ـ شوارتز،
Cov(X,Y)=E[(X-E(X))(Y-E(Y))] <= σX σY
يك مثال براي آشنايي با مفهوم اميد رياضي و كوواريانس
فرض كنيد X طول عمر يك دستگاه الكترونيكي و Y طول عمر يكي ازاجزاي آن باشد. فرض كنيد با از كار افتادن اين جزء دستگاه از كار بيفتد(اما عكس آن لزومأ درست نباشد.) به علاوه فرض كنيد كه تابع چگالي احتمال تواُم X وY (بر حسب سال) به صورت زير باشد
ƒ(x,y)= 1/49e^(-y/7) 0<=x<=y
جاهاي ديگر 0
الف) اميد رياضي باقيمانده طول عمر اين جزء را وقتي دستگاه از كار مي افتد تعيين كنيد.
ب) كوواريانس X و Y را بيابيد.
حل.(الف) باقيمانده طول عمر جزء وقتي دستگاه از كار مي افتد برابر است با Y-X. بنابر اين مقدار مورد انتظار برابر است با :
E(Y-X)=∫ ∫(y-x)(1/49)e^(-y/7)dxdy
=(1/49) ∫e(-y/7)(y^2-y^2/2)dy
=(1/98) ∫y^2e^(-y/7)dy=7
كه در آن آخرين انتگرال با استفاده از دو بار روش جزء به جزء محاسبه شده است .
(ب) براي محاسبه Cov(X,Y)=E(XY)-E(X)E(Y) ، توجه كنيد كه،
E(XY)= ∫ ∫(xy)(1/49)e(-y/7)dxdy
=1/49∫ye^(-y/7)( ∫xdx)dy
=1/98∫y^3e^(-y/7)dy=14406/98=147
كه در آن آخرين انتگرال با استفاده از سه بار روش جزء به جزء محاسبه شده است . همچنين داريم :
E(X)= ∫ ∫x(1/49)e^(-y/7)dxdy=7
E(Y)= ∫ ∫y(1/49)e^(-y/7)dxdy=14
بنابراين ،Cov(X,Y)=147-7*14=49 . توجه كنيد همچنان كه انتظار آن را داريم ، Cov(X,Y)>0 زيرا X و Y مثبت اند.
همبستگي
در حالي كه براي متغيرهاي تصادفي X و Y ، Cov(X,Y) اطلاعاتي درباره تغييرات تواُم Y,X به دست ميدهد ، اما نقص عمده اي هم دارد : كوواريانس مستقل از واحد اندازه گيري نيست.توضيح اين كه فرض كنيد براي متغيرهاي تصادفي Y,X وقتي اينها مثلاًَ با سانتيمتر اندازه گيري مي شوند داشته باشيم Cov(X,Y)=0.15 . براي همين متغيرهاي تصادفي اگر واحد اندازه گيري را به ميليمتر تغيير دهيم در اين صورت مقادير جديد مشاهده شده X1=1*X و Y1=1*Y بوده و داريم :
Cov(X1,Y1)=Cov(10X,10Y)=100Cov(X,Y)=15
اين رابطه نشان ميدهد كه Cov(X,Y) نسبت به واحد اندازه گيري حساس است .
اگر براي هر متغير تصادفي X مقدار استاندارد شده آن
X٭=[X-E[X]]/σx
مستقل از واحد اندازه گيري است. پس چنين به نظر مي رسد كه براي تعريف اندازه همبستگي Y,X ، به صورتي كه مقدار آن به مقياس اندازه گيري بستگي نداشته باشد، Cov(X٭,Y٭) به جاي Cov(X,Y) مناسبتر باشد. پس داريم :
Cov(X٭,Y٭)=Cov((X-E[X])/σx ,(Y-E[Y])/σy )
=Cov(X/σX-E(X)/ σX,Y/ σY-E(Y)/ σY )
=1/(σxσY)Cov(X,Y)
=Cov(X,Y)/ σxσY
تعريف فرض كنيد Y,X دو متغير تصادفي باشند به قسمي كه 0<σ²x<∞ و 0<σ²y<∞ . كوواريانس مقادير استاندارد شده Y,X را ضريب همبستگي بين Y,X مي نامند و آن را با ρ=ρ(X,Y) نشان مي دهند . بنابراين ،
ρ=Cοv(X,Y)/ σxσY
كميت Cοv(X,Y)/ σxσY همه اطلاعات مهمي را كه Cοv(X,Y) درباره تغييرات تواُم Y,X به دست ميدهد ،در بر دارد ، و در عين حال نسبت مقياس اندازه گيري هم حساس نيست.
در ادامه مبحث ضريب همبستگي به بيان يك لم مي پردازم كه بسيار جالب است.
لم:براي هر دو متغير تصادفي Y,X با ضريب همبستگي ρ(X,Y) ، داريم :
Var(X/σx +Y/σy)=2+2ρ(X,Y)
Var(X/σx -Y/σy)=2-2ρ(X,Y)
قضيه:براي هر دو متغير تصادفي Y,X با ضريب همبستگيρ(X,Y) داريم:
الف)-1<=ρ(X,Y)<=1
ب)با احتمال 1،ρ(X,Y)=1 اگر و تنها اگر براي بعضي مقادير ثابت a,b وa>0 ،Y=Ax+b
ج) با احتمال 1،ρ(X,Y)=-1 اگر و تنها اگر براي بعضي مقادير ثابت a,b وa<0 ،Y=Ax+b
يك سؤال:
نشان دهيد كه اگر تابع چگالي تواُم متغيرهاي تصادفي پيوسته X,Y به صورت زير باشد
ƒ(x,y)= x+y ,0<1
در غير اين صورت , 0
در اين صورت X,Y وابسته خطي نخواهند بود.
چون X,Y وقتي و تنها وقتي وابسته خطي اند كه با احتمال يك ρ(X,Y)=±1 ، لذا كافي است ثابت كنيم . ρ(X,Y)≠±1
براي اين منظور توجه كنيد كه ،
E(X)=∫∫x(x+y)dxdy=7/12
E(XY)=∫∫xy(x+y)dxdy=1/3
همچنين با توجه به تقارن X,Y، E(Y)=7/12
لذاCov(X,Y)=E(XY)-E(X)E(Y)=1/3-(7/12)(7/12)=-1/144
همين طور
E(X²)=∫∫x²(x+y)dxdy=5/12
√(E(X²)-[E(X)]²)=√11/12 =σ
پس±1 ρ(X,Y)=-144/(√11/12)(√11/12)=-1/11≠
برچسب برای این موضوع
مجوز های ارسال و ویرایش
- شما نمی توانید موضوع جدید ارسال کنید
- شما نمی توانید به پست ها پاسخ دهید
- شما strong>نمی توانید فایل پیوست ضمیمه کنید
- شما نمی توانید پست های خود را ویرایش کنید
-
قوانین انجمن