برآوردگر سازگار

درآمار، دنباله‌ای از برآوردگر‌ها برای پارامتر θ۰ سازگار نامیده می‌شوند (یا سازگاری مجانبی) اگر این دنباله در احتمال به θ۰ همگرا شود. این بدین معناست که توزیع‌های برآوردگرها بیشتر و بیشتر در نزدیکی مقدار واقعی آن پارامتری که تخمین زده می‌شود، متمرکز شوند. در نتیجه احتمال اینکه تخمین زن به‌طور اختیاری به θ۰ نزدیک شود، به یک همگرا می‌شود.

در عمل ممکن است که شخصی برآوردگری را بسازد که تابعی از نمونهٔ موجود با اندازهٔ n است، سپس این‌طور تصور می‌کند که قادر است به جمع‌آوری داده ادامه دهد و نمونه را تا بینهایت توسعه دهد. از این طریق دنباله‌ای از برآوردگرها با اندیس n به دست می‌آید و مفهوم سازگاری با «میل به بینهایت» درک می‌شود. اگر این دنباله در احتمال به مقدار درست θ۰ همگرا شود، برآوردگر را سازگار می‌نامند؛ در غیر این صورت برآوردگر را ناسازگار می‌نامند.

سازگاری همان‌طور که در اینجا تعریف شد، گاهی اوقات سازگاری ضعیف نیز نامیده می‌شود. وقتی همگرایی در احتمال را با همگرایی تقریباً مطمئن جایگزین می‌کنیم، در نتیجه دنبالهٔ برآوردگرها سازگار قوی نامیده می‌شوند.

تعریف

به بیانی ساده، برآوردگر Tn پارامتر θ سازگار نامیده می‌شود اگر در احتمال به مقدار واقعی پارامتر همگرا شود:

تعریف کامل تر به این حقیقت توجه دارد که در واقع θ نامشخص است، و بنابراین همگرایی در احتمال باید برای هر مقدار احتمالی این پارامتر اتفاق بیفتد. فرض کنید که {pθ: θ ∈ Θ} یک خانواده از توزیع‌ها (مدل پارامتری) باشد، و Xθ = {X1, X2, …: Xi ~ pθ یک نمونهٔ نامتناهی از توزیع pθ باشد. فرض کنید که { Tn(Xθ) } یک دنباله از برآوردگرها برای بعضی از پارامترهای (g(θ باشد. معمولاً Tn بر اساس اولین n مشاهدهٔ یک نمونه می‌باشد. پس این دنباله {Tn} (به‌طور ضعیف) سازگار نامیده می‌شود اگر:

این تعریف از (g(θ به جای θ استفاده می‌کند، چون اغلب به تخمین زدن یک تابع مشخص یا یک زیر بردار از پارامتر مورد بررسی علاقه دارد. در مثال بعدی ما موقعیت و مکان پارامتر مدل را برآورد می‌کنیم، نه مقیاس آن.

مثال: میانگین نمونه برای متغیرهای تصادفی نرمال

فرض کنید که یک دنباله از مشاهدات به صورت { … ,X1, X2} از یک توزیع نرمال [(N(μ, σ2] داریم. برای برآورد کردن μ بر اساس اولین n مشاهده، ما از میانگین نمونه استفاده می‌کنیم: Tn = (X1 + … + Xn)/n این امر یک دنباله از برآوردگرها را مشخص می‌کند که توسط اندازهٔ نمونه n سنجیده شد.

از خواص توزیع نرمال ما می‌دانیم که Tn خود به صورت نرمال توزیع شده‌است، با میانگین μ و واریانس σ2/n. به‌صورتی معادل، توزیع نرمال استاندارد دارد. پس:

همان‌طور که n به بی‌نهایت میل می‌کند، برای هر مقدار ثابت ε> ۰. مشاهده می‌شود که دنبالهٔ Tn از میانگین‌های نمونه برای μ میانگین جامعه سازگار می‌باشد.

ایجاد سازگاری

نظریهٔ سازگاری مجانبی بسیار نزدیک و تقریباً مترادف با نظریهٔ همگرایی در احتمال می‌باشد. به همین صورت هر تئوری، لم، یا خاصیت که همگرایی در احتمال را ایجاد می‌کند، ممکن است به منظور اثبات سازگاری استفاده شود. ابزارهای مشابه بسیاری وجود دارد:

  • به منظور نشان دادن سازگاری، به صورت مستقیم از تعریف، می‌توان از نابرابری زیر استفاده کرد

رایج‌ترین انتخاب برای تابع h، یا مقداری مطلق (در این حالت به عنوان نامعادلهٔ مارکوف شناخته می‌شود)، یا تابعی درجه دو است (با توجه به نامعادلهٔ چبیشف).

  • نتیجهٔ مفید دیگر تئوری پیوستگی: اگر Tn برای θ سازگار فعال باشد و (·)g یک مقدار واقعی تابع پیوسته در نقطهٔ θ باشد، (g(Tn برای (g(θ پیوسته خواهد بود:

  • از تئوری اسلاتسکی می‌توان به منظور ترکیب تعداد بسیاری از برآوردگرهای متفاوت، یا یک برآوردگر با یک دنبالهٔ غیر تصادفی همگرا استفاده کرد. اگر Tnpα، و Snpβ، پس:

  • اگر برآوردگر Tn توسط یک فرمول مستقیم و واضح داده شود، پس به احتمال زیاد فرمول دلالتی بر مجموع‌های متغیرهای تصادفی خواهد داشت، و قانون اعداد بزرگ می‌تواند استفاده شود، برای دنبالهٔ متغیرهای تصادفی {Xn} و تحت شرایط مناسب داریم:

  • اگر برآوردگر Tn به صورت ضمنی تعریف شود، برای مثال به عنوان یک مقدار که تابع هدف مشخصی را ماکسیمم می‌کند، پس مباحث بیشتری که پیوستگی در آمار را دربردارد، باید استفاده گردد.

اریبی و سازگاری

بدون اریبی اما ناسازگار

یک برآوردگر می‌تواند بدون اریبی اما ناسازگار باشد. برای مثال، برای نمونه با توزیع مشابه و مستقل می‌توان از T(X) = X1 به عنوان برآوردگر با میانگین [E[x استفاده کرد. این برآوردگر به‌صورتی واضح بدون اریبی، و به‌صورتی آشکار ناسازگار می‌باشد.

با اریبی اما سازگار

به‌صورتی مشابه، یک برآوردگر می‌تواند با اریبی اما سازگار باشد. برای مثال اگر میانگین توسط برآورد شده باشد، با اریبی است، اما همان‌طور که ، این به مقدار صحیح می‌رسد، و بنابراین سازگار می‌باشد.

منابع

    • Amemiya, Takeshi (1985). Advanced econometrics. Harvard University Press. ISBN 0-674-00560-0.
    • Lehmann, E. L.; Casella, G. (1998). Theory of Point Estimation (2nd ed.). Springer. ISBN 0-387-98502-6.
    • Newey, W.; McFadden, D. (1994). Large sample estimation and hypothesis testing. In “Handbook of Econometrics”, Vol. 4, Ch. 36. Elsevier Science. ISBN 0-444-88766-0.
    This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.