همبستگی و وابستگی

در آمار، وابستگی هر نوع رابطه آماری علی یا غیر علی بین دو متغیر تصادفی یا داده های دو متغیره می باشد. همبستگی در وسیع ترین معنای خود، هر نوع پیوند آماری را شامل می شود، اگر بیشتر از این اصطلاح برای درجه ارتباط خطی بین یک جفت متغیر استفاده می شود. مثال های آشنای پدیده های وابستگی شامل همبستگی بین قد والدین و اولادشان و همبستگی بین تقاضای یک عرضه محدود و قیمتش می باشد.

چندین مجموعه از نقاط (x, y)، با ضریب همبستگی پیرسون بین نقاط x و y آن ها نمایش داده شده است. این همبستگی نمایانگر میزان نویز و جهت خطی رابطه (ردیف بالا) است، اما شیب رابطه را نشان نمی دهد (ردیف وسط)، و همچنین نمی تواند جنبه غیر خطی بودن روابط را نشان دهد (ردیف پایین). دقت کنید: در تصویر وسط شیب صفر است، اما در این حالت ضریب همبستگی تعریف نمی شود، چون واریانس Y برابر صفر است.

همبستگی مفهوم مفیدی است، چرا که می تواند نشانگر رابطه ی قابل پیش بینی بوده و در عمل ازین پیش بینی پذیر بودن می توان سود جست. به عنوان مثال، یک کالای الکتریکی ممکن است در یک روز معتدل، بر اساس همبستگی بین تقاضای الکتریسیته و وضعیت هوا، قدرت کمتری تولید کند. در این مثال، یک رابطه علی وجود دارد، چون هوای نامساعد موجب می گردد که مردم جهت گرم یا خنک سازی انرژی بیشتری مصرف کنند. با این حال، در کل، وجود یک همبستگی برای استنتاج یک رابطه علی کافی نیست (یعنی، همبستگی علیت را نتیجه نمی دهد).

به لحاظ صوری، متغیر های تصادفی وابسته هستند اگر خاصیت ریاضیاتی استقلال احتمالاتی را ارضاء نکنند. اما در گفتگوی عادی همبستگی هم معنی با وابستگی است. چندین ضریب همبستگی وجود دارند که درجه همبستگی را اندازه گیری می کنند و اغلب به صورت یا نمایش داده می شوند. رایج ترین این ضرایب، ضریب همبستگی پیرسون است، که تنها برای رابطه خطی بین دو متغیر معنا دارد (اگر حتی یک متغیر هم تابع غیر خطی از دیگری باشد نیس این ضریب وجود خواهد داشت). دیگر ضرایب همبستگی قوی تر از پیرسون نیز توسعه یافته اند، یعنی ضرایبی که نسبت به روابط غیر خطی حساسیت بیشتری داشته باشند.[1][2][3] از اطلاعات متقابل هم می توان برای اندازه گیری وابستگی بین دو متغیر استفاده کرد.

ضریب همبستگی پیرسون

مقاله اصلی: ضریب همبستگی پیرسون

تعریف

آشنا ترین شاخص برای اندازه گیری وابستگی بین دو کمیت، ضریب همبستگی پیرسون است که اغلب به آن "ضریب همبستگی" می گویند. این ضریب از تقسیم کوواریانس دو متغیر از طریق ضرب انحراف معیارشان بدست می آید. کارل پیرسن این ضریب را از طریق ایده مشابه، اما متفاوتی از فرانسیس گالتون بدست آورد.[4]

ضریب همبستگی جمعیت بین دو متغیر تصادفی و با مقادیر امید ریاضی های و و انحراف معیار های و به این صورت تعریف شده است:

که در آن عملگر امید ریاضی، و به معنای کواریانس هستند. ضریب پیرسون تنها زمانی قابل تعریف است که هر دوی انحراف معیار ها متناهی و مثبت باشند. می توان فرمول فوق را به صورت زیر هم نوشت، که در آن از گشتاور ها استفاده شده است:

منابع

  1. Croxton, Frederick Emory; Cowden, Dudley Johnstone; Klein, Sidney (1968) Applied General Statistics, Pitman. شابک ۹۷۸۰۲۷۳۴۰۳۱۵۹ (page 625)
  2. Dietrich, Cornelius Frank (1991) Uncertainty, Calibration and Probability: The Statistics of Scientific and Industrial Measurement 2nd Edition, A. Higler. شابک ۹۷۸۰۷۵۰۳۰۰۶۰۵ (Page 331)
  3. Aitken, Alexander Craig (1957) Statistical Mathematics 8th Edition. Oliver & Boyd. شابک ۹۷۸۰۰۵۰۰۱۳۰۰۷ (Page 95)
  4. Rodgers, J. L.; Nicewander, W. A. (1988). "Thirteen ways to look at the correlation coefficient". The American Statistician. 42 (1): 59–66. doi:10.1080/00031305.1988.10475524. JSTOR 2685263.

برای مطالعه بیشتر

  • Cohen, J.; Cohen P.; West, S.G. & Aiken, L.S. (2002). Applied multiple regression/correlation analysis for the behavioral sciences (3rd ed.). Psychology Press. ISBN 978-0-8058-2223-6.
  • "Correlation (in statistics)", Encyclopedia of Mathematics, EMS Press, 2001 [1994]
  • Oestreicher, J. & D. R. (February 26, 2015). Plague of Equals: A science thriller of international disease, politics and drug discovery. California: Omega Cat Press. p. 408. ISBN 978-0963175540.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.