id
int64
28.8k
36k
text
stringlengths
44
3.03k
translation
stringlengths
36
2.47k
29,768
Panel data models often use fixed effects to account for unobserved heterogeneities. These fixed effects are typically incidental parameters and their estimators converge slowly relative to the square root of the sample size. In the maximum likelihood context, this induces an asymptotic bias of the likelihood function. Test statistics derived from the asymptotically biased likelihood, therefore, no longer follow their standard limiting distributions. This causes severe distortions in test sizes. We consider a generic class of dynamic nonlinear models with two-way fixed effects and propose an analytical bias correction method for the likelihood function. We formally show that the likelihood ratio, the Lagrange-multiplier, and the Wald test statistics derived from the corrected likelihood follow their standard asymptotic distributions. A bias-corrected estimator of the structural parameters can also be derived from the corrected likelihood function. We evaluate the performance of our bias correction procedure through simulations and an empirical example.
مدل های داده پانل اغلب از جلوه های ثابت استفاده می کنند تا از آن استفاده کنند ناهمگونیاین اثرات ثابت به طور معمول پارامترهای حادثه ای و برآوردگرهای آنها به آرامی نسبت به ریشه مربع نمونه همگرا می شوند اندازه.در زمینه حداکثر احتمال ، این یک تعصب بدون علامت از عملکرد احتمال.آمار آزمون مشتق شده از مغرضانه بدون علامت بنابراین ، احتمالاً دیگر از توزیع های محدود کننده استاندارد آنها پیروی نمی کند. این باعث تحریف شدید در اندازه آزمایش می شود.ما یک کلاس عمومی از مدلهای غیرخطی پویا با اثرات ثابت دو طرفه و ارائه تحلیلی روش تصحیح تعصب برای عملکرد احتمال.ما به طور رسمی نشان می دهیم که نسبت احتمال ، Lagrange-Multiplier و آمار آزمون والد مشتق شده است از احتمال تصحیح شده ، توزیع های بدون علامت استاندارد آنها را دنبال کنید.آ برآوردگر تعصب اصلاح شده از پارامترهای ساختاری نیز می تواند از عملکرد احتمال اصلاح شده.ما عملکرد تعصب خود را ارزیابی می کنیم روش تصحیح از طریق شبیه سازی ها و یک مثال تجربی.
29,769
This paper studies the principal component (PC) method-based estimation of weak factor models with sparse loadings. We uncover an intrinsic near-sparsity preservation property for the PC estimators of loadings, which comes from the approximately upper triangular (block) structure of the rotation matrix. It implies an asymmetric relationship among factors: the rotated loadings for a stronger factor can be contaminated by those from a weaker one, but the loadings for a weaker factor is almost free of the impact of those from a stronger one. More importantly, the finding implies that there is no need to use complicated penalties to sparsify the loading estimators. Instead, we adopt a simple screening method to recover the sparsity and construct estimators for various factor strengths. In addition, for sparse weak factor models, we provide a singular value thresholding-based approach to determine the number of factors and establish uniform convergence rates for PC estimators, which complement Bai and Ng (2023). The accuracy and efficiency of the proposed estimators are investigated via Monte Carlo simulations. The application to the FRED-QD dataset reveals the underlying factor strengths and loading sparsity as well as their dynamic features.
در این مقاله به بررسی مؤلفه اصلی (PC) برآورد مبتنی بر روش مدل های ضعف ضعیف با بارهای پراکنده.ما از یک برداشت در نزدیکی ذاتی کشف می کنیم خاصیت حفاظت برای برآوردگرهای PC از بارهای ، که از آن ناشی می شود تقریباً ساختار مثلثی فوقانی (بلوک) ماتریس چرخش.آی تی دلالت بر یک رابطه نامتقارن در بین عوامل دارد: بارهای چرخان برای a عامل قوی تر می تواند توسط افراد ضعیف تر آلوده شود ، اما بارگذاری برای یک عامل ضعیف تقریباً عاری از تأثیر کسانی است که از a یکی قوی ترمهمتر از همه ، این یافته دلالت بر این دارد که نیازی به آن نیست از مجازات های پیچیده برای پراکندگی برآوردگرهای بارگیری استفاده کنید.در عوض ، ما تصویب می کنیم یک روش غربالگری ساده برای بازیابی کمبود و برآوردگرهای ساخت نقاط قوت فاکتور مختلف.علاوه بر این ، برای مدل های ضعف ضعیف ، ما یک رویکرد مبتنی بر آستانه ارزش منحصر به فرد برای تعیین تعداد عوامل و تعیین نرخ همگرایی یکنواخت برای برآوردگرهای PC ، که مکمل Bai و Ng (2023).دقت و کارآیی پیشنهادی برآوردگرها از طریق شبیه سازی مونت کارلو مورد بررسی قرار می گیرند.برنامه به مجموعه داده های FRED-QD نقاط قوت عامل اصلی و بارگذاری بارز را نشان می دهد و همچنین ویژگی های پویا آنها.
29,820
We establish the asymptotic validity of the bootstrap-based IVX estimator proposed by Phillips and Magdalinos (2009) for the predictive regression model parameter based on a local-to-unity specification of the autoregressive coefficient which covers both nearly nonstationary and nearly stationary processes. A mixed Gaussian limit distribution is obtained for the bootstrap-based IVX estimator. The statistical validity of the theoretical results are illustrated by Monte Carlo experiments for various statistical inference problems.
ما اعتبار بدون علامت برآوردگر IVX مبتنی بر bootstrap را تعیین می کنیم پیشنهاد شده توسط فیلیپس و مگدالینوس (2009) برای مدل رگرسیون پیش بینی پارامتر مبتنی بر مشخصات محلی به Unity از اتورژیک ضریب که هم تقریباً هم غیرمستقیم و هم تقریباً ثابت را در بر می گیرد فرآیندهاتوزیع محدود گاوسی برای برآوردگر IVX مبتنی بر بوت استرپ.اعتبار آماری نظری نتایج توسط آزمایش های مونت کارلو برای آماری مختلف نشان داده شده است مشکلات استنباط
29,770
Experiments that use covariate adaptive randomization (CAR) are commonplace in applied economics and other fields. In such experiments, the experimenter first stratifies the sample according to observed baseline covariates and then assigns treatment randomly within these strata so as to achieve balance according to pre-specified stratum-specific target assignment proportions. In this paper, we compute the semiparametric efficiency bound for estimating the average treatment effect (ATE) in such experiments with binary treatments allowing for the class of CAR procedures considered in Bugni, Canay, and Shaikh (2018, 2019). This is a broad class of procedures and is motivated by those used in practice. The stratum-specific target proportions play the role of the propensity score conditional on all baseline covariates (and not just the strata) in these experiments. Thus, the efficiency bound is a special case of the bound in Hahn (1998), but conditional on all baseline covariates. Additionally, this efficiency bound is shown to be achievable under the same conditions as those used to derive the bound by using a cross-fitted Nadaraya-Watson kernel estimator to form nonparametric regression adjustments.
آزمایشاتی که از تصادفی سازگاری متغیر استفاده می کنند (CAR) امری عادی است در اقتصاد کاربردی و زمینه های دیگر.در چنین آزمایشاتی ، آزمایشگر ابتدا نمونه را مطابق متغیرهای پایه مشاهده شده طبقه بندی می کند و سپس درمان را به طور تصادفی در این اقشار اختصاص می دهد تا به تعادل برسد با توجه به نسبت های تعیین شده هدف خاص از پیش تعیین شده.که در در این مقاله ، ما راندمان نیمهرامتری محدود شده برای تخمین را محاسبه می کنیم میانگین اثر درمانی (ATE) در چنین آزمایشاتی با درمان باینری اجازه دادن به کلاس رویه های اتومبیل در نظر گرفته شده در Bugni ، Canay و Shaikh (2018 ، 2019).این یک طبقه گسترده از رویه ها است و توسط آن ها انگیزه دارد در عمل استفاده می شود.نسبت های هدف خاص قشر نقش نقش را بازی می کنند نمره گرایش مشروط به تمام متغیرهای پایه (و نه فقط اقشار) در این آزمایشات.بنابراین ، کارآیی محدود یک مورد خاص است محدود در هان (1998) ، اما مشروط به تمام متغیرهای پایه است. علاوه بر این ، این محدوده کارآیی نشان داده شده است که تحت همان قابل دستیابی است شرایط به عنوان مواردی که برای استفاده از آن با استفاده از یک متقاطع متقاطع استفاده می شود برآوردگر هسته نادارایا واتسون برای تشکیل تنظیمات رگرسیون غیر پارامتری.
29,771
We introduce a new HD DCC-HEAVY class of hierarchical-type factor models for conditional covariance matrices of high-dimensional returns, employing the corresponding realized measures built from higher-frequency data. The modelling approach features sophisticated asymmetric dynamics in covariances coupled with straightforward estimation and forecasting schemes, independent of the cross-sectional dimension of the assets under consideration. Empirical analyses suggest the HD DCC-HEAVY models have a better in-sample fit, and deliver statistically and economically significant out-of-sample gains relative to the standard benchmarks and existing hierarchical factor models. The results are robust under different market conditions.
ما یک کلاس جدید HD DCC سنگین از مدل های فاکتور سلسله مراتبی را برای ماتریس کواریانس مشروط از بازده های با ابعاد بالا ، با استفاده از اقدامات تحقق یافته مربوطه ساخته شده از داده های فرکانس بالاتر.مدل سازی رویکرد دارای پویایی نامتقارن پیشرفته در کواریانس همراه با طرح های تخمین و پیش بینی مستقیم ، مستقل از بعد مقطعی دارایی های مورد بررسی.تجزیه و تحلیل تجربی پیشنهاد کنید که مدل های HD DCC سنگین از نمونه های بهتری برخوردار هستند و ارائه می دهند از نظر آماری و اقتصادی از نظر اقتصادی نسبت به معیارهای استاندارد و مدلهای فاکتور سلسله مراتبی موجود.نتایج هستند در شرایط مختلف بازار قوی است.
29,772
This paper aims to address the issue of semiparametric efficiency for cointegration rank testing in finite-order vector autoregressive models, where the innovation distribution is considered an infinite-dimensional nuisance parameter. Our asymptotic analysis relies on Le Cam's theory of limit experiment, which in this context takes the form of Locally Asymptotically Brownian Functional (LABF). By leveraging the structural version of LABF, an Ornstein-Uhlenbeck experiment, we develop the asymptotic power envelopes of asymptotically invariant tests for both cases with and without a time trend. We propose feasible tests based on a nonparametrically estimated density and demonstrate that their power can achieve the semiparametric power envelopes, making them semiparametrically optimal. We validate the theoretical results through large-sample simulations and illustrate satisfactory size control and excellent power performance of our tests under small samples. In both cases with and without time trend, we show that a remarkable amount of additional power can be obtained from non-Gaussian distributions.
این مقاله با هدف پرداختن به مسئله کارآیی نیمه قطبی برای تست رتبه بندی همبستگی در مدلهای اتورگرایی وکتور مرتبه محدود ، کجا توزیع نوآوری یک مزاحمت بی نهایت بعدی محسوب می شود پارامتر.تجزیه و تحلیل بدون علامت ما به تئوری Le Cam در محدودیت متکی است آزمایش ، که در این زمینه به صورت محلی بدون علامت می شود عملکردی Brownian (LABF).با استفاده از نسخه ساختاری LABF ، AN آزمایش Ornstein-uhlenbeck ، ما پاکت های قدرت بدون علامت را توسعه می دهیم آزمایش های بدون علامت برای هر دو مورد با و بدون روند زمانی.ما تست های عملی را بر اساس چگالی تخمین زده شده غیر پارامتری پیشنهاد دهید و نشان می دهد که قدرت آنها می تواند به پاکت های قدرت نیمهرامتری برسد ، آنها را به صورت نیمهرامی بهینه می کند.ما نتایج نظری را تأیید می کنیم از طریق شبیه سازی نمونه های بزرگ و کنترل اندازه رضایت بخش و عملکرد عالی قدرت آزمایشات ما در نمونه های کوچک.در هر دو مورد با و بدون روند زمان ، ما نشان می دهیم که مقدار قابل توجهی از موارد اضافی قدرت را می توان از توزیع غیر گاوسی بدست آورد.
29,773
This paper examines the nonparametric identifiability of production functions, considering firm heterogeneity beyond Hicks-neutral technology terms. We propose a finite mixture model to account for unobserved heterogeneity in production technology and productivity growth processes. Our analysis demonstrates that the production function for each latent type can be nonparametrically identified using four periods of panel data, relying on assumptions similar to those employed in existing literature on production function and panel data identification. By analyzing Japanese plant-level panel data, we uncover significant disparities in estimated input elasticities and productivity growth processes among latent types within narrowly defined industries. We further show that neglecting unobserved heterogeneity in input elasticities may lead to substantial and systematic bias in the estimation of productivity growth.
در این مقاله به شناسایی غیرپارامتری تولید می پردازد توابع ، با توجه به ناهمگونی محکم فراتر از فناوری خنثی Hicks مقررات.ما یک مدل مخلوط محدود را پیشنهاد می کنیم تا بدون حمایت حساب شود ناهمگونی در فناوری تولید و فرآیندهای رشد بهره وری.ما تجزیه و تحلیل نشان می دهد که عملکرد تولید برای هر نوع نهفته می تواند باشد با استفاده از چهار دوره داده پانل ، با تکیه بر روی چهار دوره مشخص شده فرضیات مشابه با مواردی که در ادبیات موجود در مورد تولید کار می کنند عملکرد و شناسایی داده های پانل.با تجزیه و تحلیل پانل در سطح گیاه ژاپنی داده ها ، ما از اختلافات قابل توجهی در کشش های ورودی تخمین زده شده و فرآیندهای رشد بهره وری در بین انواع نهفته در محدود تعریف شده صنایعما همچنین نشان می دهیم که غفلت از ناهمگونی بدون نظارت در ورودی خاصیت ارتجاعی ممکن است منجر به تعصب قابل توجه و منظم در تخمین شود رشد بهره وری.
29,774
In medical treatment and elsewhere, it has become standard to base treatment intensity (dosage) on evidence in randomized trials. Yet it has been rare to study how outcomes vary with dosage. In trials to obtain drug approval, the norm has been to specify some dose of a new drug and compare it with an established therapy or placebo. Design-based trial analysis views each trial arm as qualitatively different, but it may be highly credible to assume that efficacy and adverse effects (AEs) weakly increase with dosage. Optimization of patient care requires joint attention to both, as well as to treatment cost. This paper develops methodology to credibly use limited trial evidence to choose dosage when efficacy and AEs weakly increase with dose. I suppose that dosage is an integer choice t in (0, 1, . . . , T), T being a specified maximum dose. I study dosage choice when trial evidence on outcomes is available for only K dose levels, where K < T + 1. Then the population distribution of dose response is partially rather than point identified. The identification region is a convex polygon determined by linear equalities and inequalities. I characterize clinical and public-health decision making using the minimax-regret criterion. A simple analytical solution exists when T = 2 and computation is tractable when T is larger.
در معالجه پزشکی و جاهای دیگر ، برای درمان پایه استاندارد شده است شدت (دوز) در شواهد در کارآزمایی های تصادفی.با این حال نادر بوده است مطالعه کنید که چگونه نتایج با دوز متفاوت است.در آزمایشات برای به دست آوردن تأیید مواد مخدر ، هنجار برای مشخص کردن دوز یک داروی جدید و مقایسه آن با یک درمان یا دارونما.تجزیه و تحلیل آزمایشی مبتنی بر طراحی هر آزمایش را مشاهده می کند از نظر کیفی متفاوت است ، اما ممکن است بسیار معتبر باشد که فرض کنید اثربخشی و عوارض جانبی (AE) با دوز ضعیف افزایش می یابد.بهینه سازی مراقبت از بیمار نیاز به توجه مشترک به هر دو و همچنین هزینه درمان دارد. در این مقاله ، روش شناسی برای استفاده قابل توجه از شواهد آزمایشی محدود تهیه شده است هنگامی که کارآیی و AE با دوز ضعیف افزایش می یابد ، دوز را انتخاب کنید.گمان می کنم که دوز یک انتخاب عدد صحیح T در (0 ، 1 ،. ، t) است که حداکثر مشخص شده است دوز.من انتخاب دوز را هنگامی که شواهد آزمایشی در مورد نتایج در دسترس است ، مطالعه می کنم فقط سطح دوز K ، جایی که K <T + 1. سپس توزیع جمعیت دوز پاسخ تا حدی به جای مشخص شده است.منطقه شناسایی چند ضلعی محدب است که با برابری خطی و نابرابری ها تعیین می شود.من تصمیم گیری بالینی و سلامت عمومی را با استفاده از معیار Minimax-Regret.یک راه حل تحلیلی ساده وقتی t = 2 و محاسبه در صورت بزرگتر بودن T قابل ردیابی است.
29,781
In this paper we study neural networks and their approximating power in panel data models. We provide asymptotic guarantees on deep feed-forward neural network estimation of the conditional mean, building on the work of Farrell et al. (2021), and explore latent patterns in the cross-section. We use the proposed estimators to forecast the progression of new COVID-19 cases across the G7 countries during the pandemic. We find significant forecasting gains over both linear panel and nonlinear time series models. Containment or lockdown policies, as instigated at the national-level by governments, are found to have out-of-sample predictive power for new COVID-19 cases. We illustrate how the use of partial derivatives can help open the "black-box" of neural networks and facilitate semi-structural analysis: school and workplace closures are found to have been effective policies at restricting the progression of the pandemic across the G7 countries. But our methods illustrate significant heterogeneity and time-variation in the effectiveness of specific containment policies.
در این مقاله شبکه های عصبی و قدرت تقریب آنها را در پانل مطالعه می کنیم مدل های داده.ما در مورد عصبی عمیق تغذیه به جلو ضمانت های بدون علامت ارائه می دهیم تخمین شبکه از میانگین مشروط ، بنا بر کار فارل و هم هم(2021) ، و الگوهای نهفته در بخش مقطع را کشف کنید.ما از برآوردگرهای پیشنهادی برای پیش بینی پیشرفت موارد جدید Covid-19 در سراسر کشورهای G7 در طول همه گیر.ما سود پیش بینی قابل توجهی پیدا می کنیم بیش از هر دو مدل سری خطی و سری زمانی غیرخطی.مهار یا سیاست های قفل کردن ، همانطور که در سطح ملی توسط دولت ها تحریک شده است ، هستند به نظر می رسد که دارای قدرت پیش بینی خارج از نمونه برای موارد جدید COVID-19 است.ما نشان دهید که چگونه استفاده از مشتقات جزئی می تواند به باز کردن "جعبه سیاه" کمک کند شبکه های عصبی و تسهیل تجزیه و تحلیل نیمه ساختاری: مدرسه و محل کار تعطیل شدن سیاست های مؤثر در محدود کردن پیشرفت همه گیر در سراسر کشورهای G7.اما روشهای ما نشان می دهد ناهمگونی قابل توجه و متغیر زمانی در اثربخشی خاص سیاست های مهار
29,775
Overidentified two-stage least square (TSLS) is commonly adopted by applied economists to address endogeneity. Though it potentially gives more efficient or informative estimate, overidentification comes with a cost. The bias of TSLS is severe when the number of instruments is large. Hence, Jackknife Instrumental Variable Estimator (JIVE) has been proposed to reduce bias of overidentified TSLS. A conventional heuristic rule to assess the performance of TSLS and JIVE is approximate bias. This paper formalizes this concept and applies the new definition of approximate bias to three classes of estimators that bridge between OLS, TSLS and a variant of JIVE, namely, JIVE1. Three new approximately unbiased estimators are proposed. They are called AUK, TSJI1 and UOJIVE. Interestingly, a previously proposed approximately unbiased estimator UIJIVE can be viewed as a special case of UOJIVE. While UIJIVE is approximately unbiased asymptotically, UOJIVE is approximately unbiased even in finite sample. Moreover, UOJIVE estimates parameters for both endogenous and control variables whereas UIJIVE only estimates the parameter of the endogenous variables. TSJI1 and UOJIVE are consistent and asymptotically normal under fixed number of instruments. They are also consistent under many-instrument asymptotics. This paper characterizes a series of moment existence conditions to establish all asymptotic results. In addition, the new estimators demonstrate good performances with simulated and empirical datasets.
حداقل مربع دو مرحله ای بیش از حد مشخص شده (TSL) معمولاً توسط اعمال شده اتخاذ می شود اقتصاددانان برای پرداختن به درون زایی.اگرچه به طور بالقوه کارآمدتر می کند یا برآورد آموزنده ، شناسایی بیش از حد با هزینه همراه است.تعصب TSL ها وقتی تعداد سازها زیاد باشد شدید است.از این رو ، jackknife برآوردگر متغیر ابزاری (JIVE) برای کاهش تعصب پیشنهاد شده است TSL های بیش از حد شناسایی شده.یک قانون اکتشافی متعارف برای ارزیابی عملکرد TSL و Jive تعصب تقریبی است.این مقاله این مفهوم را رسمی می کند و تعریف جدید تعصب تقریبی را به سه کلاس برآوردگرها اعمال می کند آن پل بین OLS ، TSLS و نوعی Jive ، یعنی Jive1.سه جدید تقریباً برآوردگرهای بی طرفانه پیشنهاد شده اند.به آنها AUK ، TSJI1 و uojiveجالب اینجاست که یک برآوردگر تقریباً بی طرفانه پیشنهاد شده است Uijive را می توان به عنوان یک مورد خاص Uojive مشاهده کرد.در حالی که uijive تقریباً است بی نظیر و بی نظیر ، Uojive تقریباً در حد محدود بی طرف است نمونه.علاوه بر این ، Uojive پارامترهای هر دو درون زا و کنترل را تخمین می زند متغیرها در حالی که uijive فقط پارامتر درون زا را تخمین می زند متغیرهاTsji1 و Uojive در زیر سازگار و بدون علامت طبیعی هستند تعداد سازهای ثابتآنها همچنین تحت فشار زیادی سازگار هستند بدون علامتدر این مقاله مجموعه ای از شرایط موجود لحظه ای مشخص شده است برای تعیین تمام نتایج بدون علامت.علاوه بر این ، برآوردگرهای جدید نمایش های خوب را با مجموعه داده های شبیه سازی شده و تجربی نشان دهید.
29,776
This paper considers a time-varying vector error-correction model that allows for different time series behaviours (e.g., unit-root and locally stationary processes) to interact with each other to co-exist. From practical perspectives, this framework can be used to estimate shifts in the predictability of non-stationary variables, test whether economic theories hold periodically, etc. We first develop a time-varying Granger Representation Theorem, which facilitates the establishment of asymptotic properties for the model, and then propose estimation and inferential methods and theory for both short-run and long-run coefficients. We also propose an information criterion to estimate the lag length, a singular-value ratio test to determine the cointegration rank, and a hypothesis test to examine the parameter stability. To validate the theoretical findings, we conduct extensive simulations. Finally, we demonstrate the empirical relevance by applying the framework to investigate the rational expectations hypothesis of the U.S. term structure.
در این مقاله یک مدل اصلاح خطای بردار متغیر زمان که اجازه می دهد در نظر گرفته شده است برای رفتارهای مختلف سری زمانی (به عنوان مثال ، واحد ریشه و محلی ثابت فرآیندها) برای تعامل با یکدیگر.از عملی چشم انداز ، این چارچوب می تواند برای تخمین تغییرات در پیش بینی متغیرهای غیر ثابت ، آزمایش کنید که آیا تئوری های اقتصادی دارند به صورت دوره ای ، و غیره قضیه ، که ایجاد خواص بدون علامت برای مدل ، و سپس تخمین و روش ها و نظریه های استنباطی را برای هر دو پیشنهاد دهید ضرایب کوتاه مدت و بلند مدت.ما همچنین یک معیار اطلاعات را پیشنهاد می کنیم برای برآورد طول تاخیر ، یک تست نسبت ارزش واحد برای تعیین رتبه ادغام و آزمون فرضیه برای بررسی ثبات پارامتر. برای اعتبارسنجی یافته های نظری ، ما شبیه سازی های گسترده ای را انجام می دهیم. سرانجام ، ما ارتباط تجربی را با استفاده از چارچوب نشان می دهیم فرضیه انتظارات منطقی ساختار مدت ایالات متحده را بررسی کنید.
29,777
In many situations, researchers are interested in identifying dynamic effects of an irreversible treatment with a static binary instrumental variable (IV). For example, in evaluations of dynamic effects of training programs, with a single lottery determining eligibility. A common approach in these situations is to report per-period IV estimates. Under a dynamic extension of standard IV assumptions, we show that such IV estimators identify a weighted sum of treatment effects for different latent groups and treatment exposures. However, there is possibility of negative weights. We consider point and partial identification of dynamic treatment effects in this setting under different sets of assumptions.
در بسیاری از شرایط ، محققان علاقه مند به شناسایی اثرات پویا هستند یک درمان برگشت ناپذیر با یک متغیر ابزاری باینری استاتیک (IV). به عنوان مثال ، در ارزیابی اثرات پویا برنامه های آموزشی ، با تعیین واجد شرایط بودن قرعه کشی.یک رویکرد مشترک در این شرایط گزارش تخمین های هر دوره IV است.تحت یک گسترش پویا از استاندارد IV فرضیات ، ما نشان می دهیم که چنین برآوردگرهای IV مبلغ وزنی را مشخص می کنند اثرات درمانی برای گروههای نهان مختلف و قرار گرفتن در معرض درمان.با این حال، احتمال وزن منفی وجود دارد.ما نقطه و جزئی را در نظر می گیریم شناسایی اثرات درمانی پویا در این تنظیمات متفاوت مجموعه فرضیات.
29,778
The goal of this paper is to extend the method of estimating Impluse Response Functions (IRFs) by means of Local Projection (LP) in a nonlinear dynamic framework. We discuss the existence of a nonlinear autoregressive representation for a Markov process, and explain how their Impulse Response Functions are directly linked to the nonlinear Local Projection, as in the case for the linear setting. We then present a nonparametric LP estimator, and compare its asymptotic properties to that of IRFs obtained through direct estimation. We also explore issues of identification for the nonlinear IRF in the multivariate framework, which remarkably differs in comparison to the Gaussian linear case. In particular, we show that identification is conditional on the uniqueness of deconvolution. Then, we consider IRF and LP in augmented Markov models.
هدف از این مقاله گسترش روش تخمین پاسخ incluse است توابع (IRF) با استفاده از طرح ریزی محلی (LP) در یک پویا غیرخطی چارچوبما در مورد وجود یک اتورگرایی غیرخطی بحث می کنیم بازنمایی برای یک فرایند مارکوف ، و نحوه پاسخ تکانه آنها را توضیح دهید عملکردها به طور مستقیم با پیش بینی محلی غیرخطی ، مانند مورد مرتبط هستند برای تنظیم خطیسپس ما یک برآوردگر LP غیرپارامتری ارائه می دهیم ، و خصوصیات بدون علامت آن را با IRF های به دست آمده از طریق مستقیم مقایسه کنید برآورد کردن.ما همچنین موضوعات شناسایی را برای IRF غیرخطی در بررسی می کنیم چارچوب چند متغیره ، که به طرز چشمگیری در مقایسه با مورد خطی گاوسی.به ویژه ، ما نشان می دهیم که شناسایی مشروط است در مورد منحصر به فرد بودن تجزیه.سپس ، IRF و LP را در حال افزودن در نظر می گیریم مدل های مارکوف.
29,779
Linear time series models are the workhorse of structural macroeconometric analysis. However, economic theory as well as data suggest that nonlinear and asymmetric effects might be key to understand the potential effects of sudden economic changes. Taking a dynamical system view, this paper proposes a new semi-nonparametric approach to construct impulse responses of nonlinear time series. Estimation of autoregressive models with sieve methods is discussed under natural physical dependence assumptions, and uniform consistency results for structural impulse responses are derived. Simulations and two empirical exercises show that the proposed method performs well and yields new insights in the dynamic effects of macroeconomic shocks.
مدل های سری زمانی خطی کارگاه کارکروسی سازه است تحلیل و بررسی.با این حال ، نظریه اقتصادی و همچنین داده ها نشان می دهد که غیرخطی و اثرات نامتقارن ممکن است برای درک اثرات احتمالی ناگهانی مهم باشد تغییرات اقتصادی.با توجه به دیدگاه سیستم دینامیکی ، این مقاله جدید را پیشنهاد می کند رویکرد نیمه غیر پارامتری برای ایجاد پاسخ های ضربه ای از زمان غیرخطی سلسله.برآورد مدلهای خودکار با روشهای الک مورد بحث قرار گرفته است تحت فرضیات وابستگی جسمی طبیعی ، و نتایج سازگاری یکنواخت برای پاسخ های ایجاد کننده ساختاری مشتق شده است.شبیه سازی و دو تجربی تمرینات نشان می دهد که روش پیشنهادی عملکرد خوبی دارد و بینش جدیدی به همراه دارد در اثرات پویا شوکهای کلان اقتصادی.
29,780
We consider the well-studied problem of predicting the time-varying covariance matrix of a vector of financial returns. Popular methods range from simple predictors like rolling window or exponentially weighted moving average (EWMA) to more sophisticated predictors such as generalized autoregressive conditional heteroscedastic (GARCH) type methods. Building on a specific covariance estimator suggested by Engle in 2002, we propose a relatively simple extension that requires little or no tuning or fitting, is interpretable, and produces results at least as good as MGARCH, a popular extension of GARCH that handles multiple assets. To evaluate predictors we introduce a novel approach, evaluating the regret of the log-likelihood over a time period such as a quarter. This metric allows us to see not only how well a covariance predictor does over all, but also how quickly it reacts to changes in market conditions. Our simple predictor outperforms MGARCH in terms of regret. We also test covariance predictors on downstream applications such as portfolio optimization methods that depend on the covariance matrix. For these applications our simple covariance predictor and MGARCH perform similarly.
ما مشکل مورد مطالعه پیش بینی متغیر زمان را در نظر می گیریم ماتریس کواریانس یک بردار بازده مالی.روشهای محبوب از پیش بینی کننده های ساده مانند پنجره نورد یا میانگین متحرک با وزنی به صورت نمایی (EWMA) به پیش بینی کننده های پیشرفته تر مانند خودجوش عمومی روشهای نوع هتروسکوپی مشروط (GARCH).ساخت خاص برآوردگر کواریانس که توسط انگل در سال 2002 پیشنهاد شده است ، ما نسبتاً ساده پیشنهاد می کنیم پسوند که نیاز به تنظیم و یا مناسب بودن کمی دارد ، قابل تفسیر است ، و حداقل به اندازه Mgarch نتیجه می دهد ، یک برنامه محبوب Garch که دارایی های متعدد را کنترل می کند.برای ارزیابی پیش بینی کننده ها ، ما یک رویکرد جدید را معرفی می کنیم ، ارزیابی پشیمانی از ورود به سیستم در یک دوره زمانی مانند a ربع.این متریک به ما اجازه می دهد تا نه تنها پیش بینی کننده کواریانس را ببینیم بیش از همه انجام می شود ، اما همچنین چقدر سریع به تغییرات در شرایط بازار واکنش نشان می دهد. پیش بینی کننده ساده ما از نظر پشیمانی از MGARCH بهتر عمل می کند.ما همچنین تست می کنیم پیش بینی های کواریانس در برنامه های پایین دست مانند بهینه سازی نمونه کارها روش هایی که به ماتریس کواریانس بستگی دارد.برای این برنامه ها ساده ما پیش بینی کننده کواریانس و MGARCH به طور مشابه عمل می کنند.
29,800
This paper proposes a nonparametric test for $m$th-degree inverse stochastic dominance which is a powerful tool for ranking distribution functions according to social welfare. We construct the test based on empirical process theory. The test is shown to be asymptotically size controlled and consistent. The good finite sample properties of the test are illustrated via Monte Carlo simulations. We apply our test to the inequality growth in the United Kingdom from 1995 to 2010.
در این مقاله یک تست غیر پارامتری با قیمت معکوس درجه T T TH $ پیشنهاد شده است تسلط که ابزاری قدرتمند برای رتبه بندی توابع توزیع است به رفاه اجتماعیما آزمون را بر اساس تئوری فرآیند تجربی می سازیم.در تست نشان داده شده است که به صورت مجانبی کنترل شده و سازگار است.خوب خواص نمونه محدود آزمایش از طریق مونت کارلو نشان داده شده است شبیه سازیما آزمون خود را برای رشد نابرابری در انگلستان اعمال می کنیم از 1995 تا 2010.
29,782
This paper studies inference in predictive quantile regressions when the predictive regressor has a near-unit root. We derive asymptotic distributions for the quantile regression estimator and its heteroskedasticity and autocorrelation consistent (HAC) t-statistic in terms of functionals of Ornstein-Uhlenbeck processes. We then propose a switching-fully modified (FM) predictive test for quantile predictability with persistent regressors. The proposed test employs an FM style correction with a Bonferroni bound for the local-to-unity parameter when the predictor has a near unit root. It switches to a standard predictive quantile regression test with a slightly conservative critical value when the largest root of the predictor lies in the stationary range. Simulations indicate that the test has reliable size in small samples and particularly good power when the predictor is persistent and endogenous, i.e., when the predictive regression problem is most acute. We employ this new methodology to test the ability of three commonly employed, highly persistent and endogenous lagged valuation regressors - the dividend price ratio, earnings price ratio, and book to market ratio - to predict the median, shoulders, and tails of the stock return distribution.
در این مقاله استنباط در رگرسیون پیش بینی کننده کوانتین هنگامی که رگرسور پیش بینی کننده ریشه تقریباً واحدی دارد.ما توزیع های مجانبی را انجام می دهیم برای برآوردگر رگرسیون کمی و ناهمگونی آن و همبستگی سازگار (HAC) T-Statistic از نظر عملکردهای فرآیندهای Ornstein-Uhlenbeck.سپس ما یک تغییر یافته اصلاح شده (FM) پیشنهاد می کنیم آزمایش پیش بینی کننده برای پیش بینی کمی با رگرسیون مداوم.در آزمون پیشنهادی از تصحیح سبک FM با Bonferroni محدود شده برای پارامتر محلی به Unity هنگامی که پیش بینی کننده دارای ریشه واحد نزدیک است.تغییر می کند به یک آزمون رگرسیون کمی پیش بینی کننده استاندارد با یک محافظه کار کمی ارزش بحرانی هنگامی که بزرگترین ریشه پیش بینی کننده در ثابت قرار دارد دامنه.شبیه سازی ها نشان می دهد که این آزمایش در نمونه های کوچک دارای اندازه قابل اعتماد است و به ویژه قدرت خوب هنگامی که پیش بینی کننده مداوم و درون زا است ، یعنی وقتی مشکل رگرسیون پیش بینی کننده حاد است.ما از این جدید استفاده می کنیم روش شناسی برای آزمایش توانایی سه شاغل ، بسیار پایدار و رگرسیون ارزشهای ارزش گذاری تاخیر درون زا - نسبت قیمت سود سهام ، درآمد نسبت قیمت ، و نسبت کتاب به بازار - برای پیش بینی متوسط ​​، شانه ها و دم توزیع بازده سهام.
29,783
This paper explores the identification and estimation of social interaction models with endogenous group formation. We characterize group formation using a two-sided many-to-one matching model, where individuals select groups based on their preferences, while groups rank individuals according to their qualifications, accepting the most qualified until reaching capacities. The selection into groups leads to a bias in standard estimates of peer effects, which is difficult to correct for due to equilibrium effects. We employ the limiting approximation of a market as the market size grows large to simplify the selection bias. Assuming exchangeable unobservables, we can express the selection bias of an individual as a group-invariant nonparametric function of her preference and qualification indices. In addition to the selection correction, we show that the excluded variables in group formation can serve as instruments to tackle the reflection problem. We propose semiparametric distribution-free estimators that are root-n consistent and asymptotically normal.
در این مقاله به بررسی شناسایی و تخمین تعامل اجتماعی می پردازد مدل هایی با تشکیل گروه درون زا.ما تشکیل گروه را با استفاده از a توصیف می کنیم مدل تطبیق دو طرفه دو طرفه ، که در آن افراد بر اساس گروه ها گروه ها را انتخاب می کنند ترجیحات آنها ، در حالی که گروه ها افراد را مطابق با آنها رتبه بندی می کنند صلاحیت ها ، پذیرش واجد شرایط ترین تا رسیدن به ظرفیت ها.در انتخاب در گروه ها منجر به تعصب در برآوردهای استاندارد از اثرات همسالان می شود ، تصحیح آن به دلیل اثرات تعادل دشوار است.ما استخدام می کنیم محدود کردن تقریب یک بازار با بزرگ شدن اندازه بازار برای ساده کردن تعصب انتخاببا فرض عدم تحرک قابل تعویض ، ما می توانیم بیان کنیم تعصب انتخاب یک فرد به عنوان یک عملکرد غیر پارامتری گروهی اولویت و شاخص های صلاحیت او.علاوه بر انتخاب تصحیح ، ما نشان می دهیم که متغیرهای مستثنی در تشکیل گروه می توانند به عنوان خدمت کنند ابزاری برای مقابله با مشکل بازتاب.ما نیمه پارامتری پیشنهاد می کنیم برآوردگرهای بدون توزیع که root-n سازگار و بدون علامت هستند طبیعی.
29,784
The synthetic control estimator (Abadie et al., 2010) is asymptotically unbiased assuming that the outcome is a linear function of the underlying predictors and that the treated unit can be well approximated by the synthetic control before the treatment. When the outcome is nonlinear, the bias of the synthetic control estimator can be severe. In this paper, we provide conditions for the synthetic control estimator to be asymptotically unbiased when the outcome is nonlinear, and propose a flexible and data-driven method to choose the synthetic control weights. Monte Carlo simulations show that compared with the competing methods, the nonlinear synthetic control method has similar or better performance when the outcome is linear, and better performance when the outcome is nonlinear, and that the confidence intervals have good coverage probabilities across settings. In the empirical application, we illustrate the method by estimating the impact of the 2019 anti-extradition law amendments bill protests on Hong Kong's economy, and find that the year-long protests reduced real GDP per capita in Hong Kong by 11.27% in the first quarter of 2020, which was larger in magnitude than the economic decline during the 1997 Asian financial crisis or the 2008 global financial crisis.
برآوردگر کنترل مصنوعی (آبادی و همکاران ، 2010) بدون علامت است بی طرفانه با فرض اینکه نتیجه یک عملکرد خطی از زیرین است پیش بینی کننده ها و اینکه واحد تحت درمان با مصنوعی به خوبی می توان تقریب داد قبل از درمان کنترل کنید.وقتی نتیجه غیرخطی است ، تعصب برآوردگر کنترل مصنوعی می تواند شدید باشد.در این مقاله ، ما شرایط را ارائه می دهیم برای برآوردگر کنترل مصنوعی بدون علامت بی طرفانه در هنگام نتیجه غیرخطی است و یک روش انعطاف پذیر و داده محور را برای انتخاب پیشنهاد می کند وزن کنترل مصنوعی.شبیه سازی مونت کارلو نشان می دهد که در مقایسه با روش های رقیب ، روش کنترل مصنوعی غیرخطی مشابه یا عملکرد بهتر هنگامی که نتیجه خطی است و عملکرد بهتری در هنگام نتیجه غیرخطی است و فواصل اطمینان از پوشش خوبی برخوردار است احتمالات در تنظیمات.در برنامه تجربی ، ما نشان می دهیم روش با برآورد تأثیر اصلاحات قانون ضد استرداد 2019 اعتراض به لایحه در مورد اقتصاد هنگ کنگ ، و متوجه می شود که اعتراضات یک ساله تولید ناخالص داخلی واقعی سرانه در هنگ کنگ را 11.27 ٪ در سه ماهه اول از 2020 ، که از نظر بزرگی از کاهش اقتصادی در طول سال 1997 بزرگتر بود بحران مالی آسیا یا بحران مالی جهانی 2008.
29,785
Policy evaluation in empirical microeconomics has been focusing on estimating the average treatment effect and more recently the heterogeneous treatment effects, often relying on the unconfoundedness assumption. We propose a method based on the interactive fixed effects model to estimate treatment effects at the individual level, which allows both the treatment assignment and the potential outcomes to be correlated with the unobserved individual characteristics. This method is suitable for panel datasets where multiple related outcomes are observed for a large number of individuals over a small number of time periods. Monte Carlo simulations show that our method outperforms related methods. To illustrate our method, we provide an example of estimating the effect of health insurance coverage on individual usage of hospital emergency departments using the Oregon Health Insurance Experiment data.
ارزیابی سیاست در اقتصاد خرد تجربی متمرکز بر برآورد است میانگین اثر درمانی و اخیراً درمان ناهمگن اثرات ، اغلب با تکیه بر فرض عدم تمایل.ما یک روش را پیشنهاد می کنیم بر اساس مدل اثرات ثابت تعاملی برای برآورد اثرات درمانی در سطح فردی ، که هم به واگذاری درمان و هم به نتایج بالقوه برای ارتباط با فرد بدون نظارت مشخصات.این روش برای مجموعه داده های پانل که در آن چندگانه است مناسب است نتایج مرتبط برای تعداد زیادی از افراد بیش از یک کوچک مشاهده می شود تعداد دوره های زمانی.شبیه سازی مونت کارلو نشان می دهد که روش ما روشهای مرتبط با آن بهتر است.برای نشان دادن روش خود ، ما نمونه ای از آن را ارائه می دهیم تخمین تأثیر پوشش بیمه درمانی بر استفاده فردی بخش های اورژانس بیمارستان با استفاده از آزمایش بیمه درمانی اورگان داده ها.
29,786
In this study, we consider a four-regime bubble model under the assumption of time-varying volatility and propose the algorithm of estimating the break dates with volatility correction: First, we estimate the emerging date of the explosive bubble, its collapsing date, and the recovering date to the normal market under assumption of homoskedasticity; second, we collect the residuals and then employ the WLS-based estimation of the bubble dates. We demonstrate by Monte Carlo simulations that the accuracy of the break dates estimators improve significantly by this two-step procedure in some cases compared to those based on the OLS method.
در این مطالعه ، ما یک مدل حباب چهار رژیم را با فرض در نظر می گیریم نوسانات متغیر زمان و پیشنهاد الگوریتم تخمین تاریخ استراحت با تصحیح نوسانات: اول ، ما تاریخ نوظهور را تخمین می زنیم حباب انفجاری ، تاریخ فروپاشی آن و تاریخ بازیابی به حالت عادی بازار تحت فرض همجنسگرایان ؛دوم ، ما باقیمانده ها را جمع می کنیم و سپس تخمین مبتنی بر WLS از تاریخ حباب را به کار برد.ما نشان می دهیم شبیه سازی های مونت کارلو که دقت برآوردگرهای تاریخ استراحت بهبود می یابد به طور قابل توجهی با این روش دو مرحله ای در بعضی موارد در مقایسه با موارد مبتنی بر در روش OLS.
29,787
Experimenters often collect baseline data to study heterogeneity. I propose the first valid confidence intervals for the VCATE, the treatment effect variance explained by observables. Conventional approaches yield incorrect coverage when the VCATE is zero. As a result, practitioners could be prone to detect heterogeneity even when none exists. The reason why coverage worsens at the boundary is that all efficient estimators have a locally-degenerate influence function and may not be asymptotically normal. I solve the problem for a broad class of multistep estimators with a predictive first stage. My confidence intervals account for higher-order terms in the limiting distribution and are fast to compute. I also find new connections between the VCATE and the problem of deciding whom to treat. The gains of targeting treatment are (sharply) bounded by half the square root of the VCATE. Finally, I document excellent performance in simulation and reanalyze an experiment from Malawi.
آزمایش کنندگان غالباً داده های پایه را برای مطالعه ناهمگونی جمع می کنند.من پیشنهاد می کنم اولین فواصل اطمینان معتبر برای VCATE ، اثر درمانی واریانس توضیح داده شده توسط مشاهدات.رویکردهای متعارف نادرست است پوشش هنگامی که VCATE صفر است.در نتیجه ، پزشکان می توانند مستعد باشند ناهمگونی را حتی اگر هیچکدام وجود نداشته باشد ، تشخیص دهید.دلیل بدتر شدن پوشش در مرز این است که همه برآوردگرهای کارآمد دارای یک سطح محلی هستند عملکرد تأثیر و ممکن است از نظر غیر عادی طبیعی نباشد.من مشکل را حل می کنم برای یک طبقه گسترده از برآوردگرهای چند مرحله ای با مرحله اول پیش بینی.من فواصل اطمینان برای شرایط مرتبه بالاتر در محدود کننده حساب می شود توزیع و محاسبه سریع است.من همچنین ارتباطات جدیدی بین vcate و مشکل تصمیم گیری در مورد اینکه چه کسی را درمان کنید.دستاوردهای هدفگذاری درمان (به شدت) با نیمی از ریشه مربع Vcate محدود شده است.سرانجام، من عملکرد عالی را در شبیه سازی مستند می کنم و آزمایش را از آن استفاده می کنم مالاوی
29,788
We propose two approaches to estimate semiparametric discrete choice models for bundles. Our first approach is a kernel-weighted rank estimator based on a matching-based identification strategy. We establish its complete asymptotic properties and prove the validity of the nonparametric bootstrap for inference. We then introduce a new multi-index least absolute deviations (LAD) estimator as an alternative, of which the main advantage is its capacity to estimate preference parameters on both alternative- and agent-specific regressors. Both methods can account for arbitrary correlation in disturbances across choices, with the former also allowing for interpersonal heteroskedasticity. We also demonstrate that the identification strategy underlying these procedures can be extended naturally to panel data settings, producing an analogous localized maximum score estimator and a LAD estimator for estimating bundle choice models with fixed effects. We derive the limiting distribution of the former and verify the validity of the numerical bootstrap as an inference tool. All our proposed methods can be applied to general multi-index models. Monte Carlo experiments show that they perform well in finite samples.
ما دو رویکرد را برای برآورد مدلهای انتخاب گسسته نیمهرامتری پیشنهاد می کنیم برای بسته هااولین رویکرد ما یک برآوردگر رتبه با وزن هسته است که بر اساس یک استراتژی شناسایی مبتنی بر تطبیق.ما بدون علامت کامل آن را ایجاد می کنیم خواص و اثبات اعتبار بوت استرپ غیر پارامتری برای استنباط. سپس ما یک برآوردگر جدید انحراف مطلق چند شاخص جدید (LAD) را معرفی می کنیم به عنوان یک گزینه دیگر ، که مزیت اصلی آن ظرفیت آن برای تخمین است پارامترهای اولویت در هر دو رگرسیونرهای جایگزین و خاص.هر دو روشها می توانند همبستگی دلخواه در اختلالات در انتخابات را به خود اختصاص دهند ، با اولی نیز امکان ناهمگونی بین فردی را فراهم می کند.ما همچنین نشان می دهد که استراتژی شناسایی اساسی این رویه ها می تواند باشد به طور طبیعی به تنظیمات داده پانل گسترش یافته و یک بومی سازی مشابه تولید می کند حداکثر برآوردگر نمره و یک برآوردگر LAD برای برآورد مدلهای انتخاب بسته نرم افزاری با اثرات ثابتما توزیع محدود کننده سابق و اعتبار بوت استرپ عددی را به عنوان یک ابزار استنباط تأیید کنید.همه ما روشهای پیشنهادی را می توان در مدلهای کلی چند شاخص اعمال کرد.مونت کارلو آزمایشات نشان می دهد که آنها در نمونه های محدود عملکرد خوبی دارند.
29,789
Quantifying the impact of regulatory policies on social welfare generally requires the identification of counterfactual distributions. Many of these policies (e.g. minimum wages or minimum working time) generate mass points and/or discontinuities in the outcome distribution. Existing approaches in the difference-in-difference literature cannot accommodate these discontinuities while accounting for selection on unobservables and non-stationary outcome distributions. We provide a unifying partial identification result that can account for these features. Our main identifying assumption is the stability of the dependence (copula) between the distribution of the untreated potential outcome and group membership (treatment assignment) across time. Exploiting this copula stability assumption allows us to provide an identification result that is invariant to monotonic transformations. We provide sharp bounds on the counterfactual distribution of the treatment group suitable for any outcome, whether discrete, continuous, or mixed. Our bounds collapse to the point-identification result in Athey and Imbens (2006) for continuous outcomes with strictly increasing distribution functions. We illustrate our approach and the informativeness of our bounds by analyzing the impact of an increase in the legal minimum wage using data from a recent minimum wage study (Cengiz, Dube, Lindner, and Zipperer, 2019).
تعیین تأثیر سیاست های نظارتی بر رفاه اجتماعی به طور کلی نیاز به شناسایی توزیع های ضد خلاف دارد.بسیاری از اینها خط مشی ها (به عنوان مثال حداقل دستمزد یا حداقل زمان کار) امتیاز انبوه را ایجاد می کند و/یا ناپیوستگی در توزیع نتیجه.رویکردهای موجود در ادبیات اختلاف در اختلاف نمی تواند این ناپیوستگی ها را در خود جای دهد در حالی که برای انتخاب در مورد غیرقابل کنترل و نتیجه غیر ثابت حساب می شود توزیعما یک نتیجه شناسایی جزئی متحد را ارائه می دهیم که می تواند این ویژگی ها را حساب کنید.فرض اصلی شناسایی ما ثبات است وابستگی (کوپلا) بین توزیع پتانسیل درمان نشده نتیجه و عضویت گروهی (تکالیف درمانی) در طول زمان.استثمار این فرض ثبات کوپلا به ما امکان می دهد نتیجه شناسایی را ارائه دهیم این به تحولات یکنواخت متغیر است.ما مرزهای تیز در توزیع ضد عملی گروه درمانی مناسب برای هر نتیجه ، خواه گسسته ، مداوم و یا مخلوط.مرزهای ما به شناسایی نقطه در نتیجه آتی و ایمبن (2006) برای نتایج مداوم با توابع توزیع به شدت فزاینده.ما رویکرد خود را نشان می دهیم و اطلاع رسانی مرزهای ما با تجزیه و تحلیل تأثیر افزایش در حداقل دستمزد قانونی با استفاده از داده های یک مطالعه حداقل دستمزد اخیر (Cengiz ، Dube ، Lindner ، and Zipperer ، 2019).
29,790
This paper considers a first-order autoregressive panel data model with individual-specific effects and a heterogeneous autoregressive coefficient. It proposes estimators for the moments of the cross-sectional distribution of the autoregressive coefficients, with a focus on the first two moments, assuming a random coefficient model for the autoregressive coefficients without imposing any restrictions on the fixed effects. It is shown that the standard generalized method of moments estimators obtained under homogeneous slopes are biased. The paper also investigates conditions under which the probability distribution of the autoregressive coefficients is identified assuming a categorical distribution with a finite number of categories. Small sample properties of the proposed estimators are investigated by Monte Carlo experiments and compared with alternatives both under homogeneous and heterogeneous slopes. The utility of the heterogeneous approach is illustrated in the case of earning dynamics, where a clear upward pattern is obtained in the mean persistence of earnings by the level of educational attainments.
در این مقاله یک مدل داده پانل اتورگرایی مرتبه اول با آن در نظر گرفته شده است اثرات خاص فردی و یک ضریب اتورگرایی ناهمگن.آی تی تخمین ها را برای لحظات توزیع مقطعی از ضرایب خودکار ، با تمرکز بر دو لحظه اول ، فرض یک الگوی ضریب تصادفی برای ضرایب اتورگرایی بدون تحمیل هرگونه محدودیت در اثرات ثابت.نشان داده شده است که استاندارد روش کلی برآوردگرهای لحظه ای به دست آمده در دامنه های همگن است جانبدارانه.این مقاله همچنین شرایطی را بررسی می کند که تحت آن احتمال وجود دارد توزیع ضرایب اتورسگر با فرض A مشخص می شود توزیع طبقه بندی شده با تعداد محدودی از دسته ها.نمونه کوچک خواص برآوردگرهای پیشنهادی توسط مونت کارلو بررسی شده است آزمایشات و مقایسه با گزینه های جایگزین هم در زیر همگن و دامنه های ناهمگن.ابزار رویکرد ناهمگن نشان داده شده است در صورت کسب دینامیک ، جایی که یک الگوی صعودی در آن به دست می آید میانگین پایداری درآمد براساس سطح دستاوردهای آموزشی.
29,791
In this paper, we propose a localized neural network (LNN) model and then develop the LNN based estimation and inferential procedures for dependent data in both cases with quantitative/qualitative outcomes. We explore the use of identification restrictions from a nonparametric regression perspective, and establish an estimation theory for the LNN setting under a set of mild conditions. The asymptotic distributions are derived accordingly, and we show that LNN automatically eliminates the dependence of data when calculating the asymptotic variances. The finding is important, as one can easily use different types of wild bootstrap methods to obtain valid inference practically. In particular, for quantitative outcomes, the proposed LNN approach yields closed-form expressions for the estimates of some key estimators of interest. Last but not least, we examine our theoretical findings through extensive numerical studies.
در این مقاله ، ما یک مدل شبکه عصبی محلی (LNN) و سپس پیشنهاد می کنیم برای داده های وابسته تخمین و استنباطی مبتنی بر LNN را توسعه دهید در هر دو مورد با نتایج کمی/کیفی.ما استفاده از محدودیت های شناسایی از دیدگاه رگرسیون غیر پارامتری ، و یک تئوری تخمین برای تنظیم LNN تحت مجموعه ای از خفیف ایجاد کنید شرایطتوزیع های بدون علامت بر این اساس به دست می آیند و ما نشان می دهیم که LNN به طور خودکار وابستگی داده ها را هنگام محاسبه از بین می برد واریانس بدون علامت.این یافته مهم است ، زیرا می توان به راحتی از متفاوت استفاده کرد انواع روش های بوت استرپ وحشی برای به دست آوردن استنتاج معتبر عملاً.که در به ویژه ، برای نتایج کمی ، رویکرد LNN پیشنهادی بازده عبارات بسته برای برآورد برخی از برآوردگرهای کلیدی مورد علاقه. آخر اینکه ، ما یافته های نظری خود را از طریق گسترده بررسی می کنیم مطالعات عددی.
29,792
The effect of the full treatment is a primary parameter of interest in policy evaluation, while often only the effect of a subset of treatment is estimated. We partially identify the local average treatment effect of receiving full treatment (LAFTE) using an instrumental variable that may induce individuals into only a subset of treatment (movers). We show that movers violate the standard exclusion restriction, necessary conditions on the presence of movers are testable, and partial identification holds under a double exclusion restriction. We identify movers in four empirical applications and estimate informative bounds on the LAFTE in three of them.
تأثیر درمان کامل یک پارامتر اصلی علاقه به سیاست است ارزیابی ، در حالی که اغلب فقط تأثیر زیر مجموعه ای از درمان تخمین زده می شود. ما تا حدودی اثر درمانی متوسط ​​محلی دریافت کامل را شناسایی می کنیم درمان (LAFTE) با استفاده از یک متغیر ابزاری که ممکن است افراد را القا کند فقط به یک زیر مجموعه از درمان (جابجایی).ما نشان می دهیم که جابجایی ها نقض می کنند محدودیت محرومیت استاندارد ، شرایط لازم در مورد وجود جابجایی قابل آزمایش هستند و شناسایی جزئی تحت محرومیت مضاعف قرار می گیرد محدودیتما در چهار برنامه تجربی حرکت می کنیم و تخمین می زنیم مرزهای آموزنده در لافت در سه مورد از آنها.
29,793
Local polynomial density (LPD) estimation has become an essential tool for boundary inference, including manipulation tests for regression discontinuity. It is common sense that kernel choice is not critical for LPD estimation, in analogy to standard kernel smoothing estimation. This paper, however, points out that kernel choice has a severe impact on the performance of LPD, based on both asymptotic and non-asymptotic theoretical investigations. In particular, we show that the estimation accuracy can be extremely poor with commonly used kernels with compact support, such as the triangular and uniform kernels. Importantly, this negative result implies that the LPD-based manipulation test loses its power if a compactly supported kernel is used. As a simple but powerful solution to this problem, we propose using a specific kernel function with unbounded support. We illustrate the empirical relevance of our results with numerous empirical applications and simulations, which show large improvements.
تخمین چگالی چند جمله ای محلی (LPD) به ابزاری اساسی برای استنباط مرزی ، از جمله آزمون دستکاری برای ناپیوستگی رگرسیون. این عقل سلیم است که انتخاب هسته برای برآورد LPD بسیار مهم نیست ، در قیاس با تخمین صاف کننده هسته استاندارد.این مقاله ، با این حال ، اشاره می کند بر اساس این انتخاب هسته تأثیر شدیدی بر عملکرد LPD دارد. هر دو تحقیقات نظری بدون علامت و غیر متعارف.به خصوص، ما نشان می دهیم که دقت تخمین می تواند با استفاده از معمولاً بسیار ضعیف باشد هسته با پشتیبانی جمع و جور ، مانند هسته های مثلثی و یکنواخت. نکته مهم ، این نتیجه منفی دلالت بر این دارد که آزمایش دستکاری مبتنی بر LPD در صورت استفاده از هسته پشتیبانی شده کاملاً فشرده ، قدرت خود را از دست می دهد.به عنوان یک ساده اما راه حل قدرتمند برای این مشکل ، ما با استفاده از یک عملکرد هسته خاص پیشنهاد می کنیم با پشتیبانی بدون مرزما ارتباط تجربی نتایج خود را نشان می دهیم با کاربردهای بیشمار تجربی و شبیه سازی ، که بزرگ نشان می دهد پیشرفت ها
29,794
In this contribution, we propose machine learning techniques to predict zombie firms. First, we derive the risk of failure by training and testing our algorithms on disclosed financial information and non-random missing values of 304,906 firms active in Italy from 2008 to 2017. Then, we spot the highest financial distress conditional on predictions that lies above a threshold for which a combination of false positive rate (false prediction of firm failure) and false negative rate (false prediction of active firms) is minimized. Therefore, we identify zombies as firms that persist in a state of financial distress, i.e., their forecasts fall into the risk category above the threshold for at least three consecutive years. For our purpose, we implement a gradient boosting algorithm (XGBoost) that exploits information about missing values. The inclusion of missing values in our predictive model is crucial because patterns of undisclosed accounts are correlated with firm failure. Finally, we show that our preferred machine learning algorithm outperforms (i) proxy models such as Z-scores and the Distance-to-Default, (ii) traditional econometric methods, and (iii) other widely used machine learning techniques. We provide evidence that zombies are on average less productive and smaller, and that they tend to increase in times of crisis. Finally, we argue that our application can help financial institutions and public authorities design evidence-based policies-e.g., optimal bankruptcy laws and information disclosure policies.
در این سهم ، ما تکنیک های یادگیری ماشین را برای پیش بینی پیشنهاد می کنیم شرکت های زامبی.اول ، ما با آموزش و آزمایش خود خطر عدم موفقیت را به دست می آوریم الگوریتم های مربوط به اطلاعات مالی افشا شده و ارزشهای مفقود شده غیر تصادفی 304.906 بنگاه فعال در ایتالیا از سال 2008 تا 2017. سپس ، ما بالاترین میزان را مشاهده می کنیم پریشانی مالی مشروط به پیش بینی هایی که بالاتر از آستانه برای آن قرار دارد که ترکیبی از نرخ مثبت کاذب (پیش بینی کاذب عدم موفقیت شرکت) و نرخ منفی کاذب (پیش بینی کاذب شرکتهای فعال) به حداقل می رسد. بنابراین ، ما زامبی ها را به عنوان بنگاه هایی که در وضعیت مالی باقی مانده اند ، شناسایی می کنیم پریشانی ، یعنی پیش بینی های آنها در گروه ریسک بالاتر از آستانه قرار می گیرد حداقل برای سه سال متوالی.برای هدف ما ، یک شیب را پیاده سازی می کنیم افزایش الگوریتم (XGBOOST) که از اطلاعات مربوط به مقادیر گمشده سوء استفاده می کند. گنجاندن مقادیر گمشده در مدل پیش بینی ما بسیار مهم است زیرا الگوهای حسابهای ناشناخته با خرابی شرکت در ارتباط است.بالاخره ، ما نشان دهید که الگوریتم یادگیری ماشین مورد علاقه ما از مدلهای پروکسی بهتر است مانند Z-Scores و فاصله به پیش فرض ، (ب) اقتصاد سنتی روشها ، و (iii) دیگر تکنیک های یادگیری ماشین به طور گسترده.ما فراهم می کنیم شواهدی مبنی بر اینکه زامبی ها به طور متوسط ​​کمتر مولد و کوچکتر هستند و آنها تمایل به افزایش زمان بحران دارد.سرانجام ، ما استدلال می کنیم که برنامه ما می تواند به مؤسسات مالی و مقامات دولتی کمک کنید تا مبتنی بر شواهد را طراحی کنند سیاست ها-e.g. ، قوانین بهینه ورشکستگی و سیاست های افشای اطلاعات.
29,795
Data clustering reduces the effective sample size down from the number of observations towards the number of clusters. For instrumental variable models this implies more restrictive requirements on the strength of the instruments and makes the number of instruments more quickly non-negligible compared to the effective sample size. Clustered data therefore increases the need for many and weak instrument robust tests. However, none of the previously developed many and weak instrument robust tests can be applied to this type of data as they all require independent observations. I therefore adapt two of such tests to clustered data. First, I derive a cluster jackknife Anderson-Rubin test by removing clusters rather than individual observations from the Anderson-Rubin statistic. Second, I propose a cluster many instrument Anderson-Rubin test which improves on the first test by using a more optimal, but more complex, weighting matrix. I show that if the clusters satisfy an invariance assumption the higher complexity poses no problems. By revisiting a study on the effect of queenly reign on war I show the empirical relevance of the new tests.
خوشه بندی داده ها اندازه نمونه مؤثر را از تعداد کاهش می دهد مشاهدات نسبت به تعداد خوشه ها.برای مدلهای متغیر ابزاری این به معنای الزامات محدودکننده تر در مورد قدرت ابزارها است و باعث می شود تعداد ابزارها در مقایسه با اندازه نمونه موثر.بنابراین داده های خوشه ای نیاز به بسیاری را افزایش می دهد تست های قوی ابزار ضعیف.با این حال ، هیچکدام از موارد قبلاً توسعه نیافته است و تست های قوی ابزار ضعیف می تواند در مورد این نوع داده ها به عنوان آنها اعمال شود همه به مشاهدات مستقل نیاز دارند.بنابراین من دو مورد از این آزمایشات را با داده های خوشه ای.اول ، من یک تست خوشه ای Jackknife Anderson-Rubin توسط از بین بردن خوشه ها به جای مشاهدات فردی از اندرسون-روبین آماریدوم ، من یک خوشه بسیاری از تست اندرسون-روبین را پیشنهاد می کنم که با استفاده از یک بهینه تر اما پیچیده تر ، در اولین تست بهبود می یابد ماتریس وزنه برداری.من نشان می دهم که اگر خوشه ها یک فرض تغییر ناپذیری را برآورده کنند پیچیدگی بالاتر هیچ مشکلی ایجاد نمی کند.با تجدید نظر در یک مطالعه در مورد تأثیر ملکه سلطنت در جنگ اول ، ارتباط تجربی آزمایشات جدید را نشان می دهد.
29,796
Monitoring downside risk and upside risk to the key macroeconomic indicators is critical for effective policymaking aimed at maintaining economic stability. In this paper I propose a parametric framework for modelling and forecasting macroeconomic risk based on stochastic volatility models with Skew-Normal and Skew-t shocks featuring time varying skewness. Exploiting a mixture stochastic representation of the Skew-Normal and Skew-t random variables, in the paper I develop efficient posterior simulation samplers for Bayesian estimation of both univariate and VAR models of this type. In an application, I use the models to predict downside risk to GDP growth in the US and I show that these models represent a competitive alternative to semi-parametric approaches such as quantile regression. Finally, estimating a medium scale VAR on US data I show that time varying skewness is a relevant feature of macroeconomic and financial shocks.
نظارت بر ریسک نزولی و خطر صعودی برای شاخص های کلیدی اقتصاد کلان برای سیاست گذاری مؤثر با هدف حفظ ثبات اقتصادی بسیار مهم است. در این مقاله یک چارچوب پارامتری برای مدل سازی و پیش بینی پیشنهاد می کنم خطر کلان اقتصادی مبتنی بر مدلهای نوسانات تصادفی با نرمال و نرمال و شوک های skew-t که شامل زمان های مختلف است.سوء استفاده از یک تصادفی تصادفی بازنمایی متغیرهای تصادفی skew-normal و skew-t ، در مقاله i برای برآورد بیزی از هر دو ، نمونه های شبیه سازی خلفی کارآمد ایجاد کنید مدل های متغیرهای متغیره و VAR از این نوع.در یک برنامه ، من از مدل ها استفاده می کنم خطر نزولی برای رشد تولید ناخالص داخلی در ایالات متحده را پیش بینی کنید و من نشان می دهم که این مدل ها نمایانگر یک جایگزین رقابتی برای رویکردهای نیمه پارامتری مانند رگرسیون کمی.سرانجام ، تخمین VAR در مقیاس متوسط ​​بر روی داده های ایالات متحده که من نشان می دهم آن زمان متفاوت بودن ویژگی مربوط به اقتصاد کلان و مالی است شوک
29,797
This paper proposes an Anderson-Rubin (AR) test for the presence of peer effects in panel data without the need to specify the network structure. The unrestricted model of our test is a linear panel data model of social interactions with dyad-specific peer effects. The proposed AR test evaluates if the peer effect coefficients are all zero. As the number of peer effect coefficients increases with the sample size, so does the number of instrumental variables (IVs) employed to estimate the unrestricted model, rendering Bekker's many-IV environment. By extending existing many-IV asymptotic results to panel data, we show that the proposed AR test is asymptotically valid under the presence of both individual and time fixed effects. We conduct Monte Carlo simulations to investigate the finite sample performance of the AR test and provide two applications to demonstrate its empirical relevance.
در این مقاله یک آزمایش اندرسون-روبین (AR) برای حضور همسالان پیشنهاد شده است اثرات در داده های پانل بدون نیاز به مشخص کردن ساختار شبکه.در مدل نامحدود از آزمون ما یک مدل داده پانل خطی از اجتماعی است تعامل با اثرات همسالان خاص dyad.آزمون پیشنهادی AR ارزیابی می کند اگر ضرایب اثر همسالان همه صفر هستند.به عنوان تعداد اثر همسالان ضرایب با اندازه نمونه افزایش می یابد ، همچنین تعداد ابزارها متغیرهای (IVS) برای تخمین مدل نامحدود استفاده می شود و Bekker را ارائه می دهد محیط بسیار زیادبا گسترش نتایج بدون علامت موجود در پانل داده ها ، ما نشان می دهیم که آزمون AR پیشنهادی به صورت مجانبی در زیر معتبر است حضور اثرات ثابت فردی و زمان.ما مونت کارلو را انجام می دهیم شبیه سازی ها برای بررسی عملکرد نمونه محدود آزمون AR و دو برنامه کاربردی را برای نشان دادن ارتباط تجربی آن ارائه دهید.
29,798
Covariate benchmarking is an important part of sensitivity analysis about omitted variable bias and can be used to bound the strength of the unobserved confounder using information and judgments about observed covariates. It is common to carry out formal covariate benchmarking after residualizing the unobserved confounder on the set of observed covariates. In this paper, I explain the rationale and details of this procedure. I clarify some important details of the process of formal covariate benchmarking and highlight some of the difficulties of interpretation that researchers face in reasoning about the residualized part of unobserved confounders. I explain all the points with several empirical examples.
معیار متغیر بخش مهمی از تجزیه و تحلیل حساسیت در مورد تعصب متغیر را حذف کرده و می تواند برای محدود کردن استحکام غیرقانونی استفاده شود با استفاده از اطلاعات و داوری در مورد متغیرهای مشاهده شده ، گیج کننده است.این است متداول برای انجام معیار متغیر رسمی پس از باقیمانده مخفیانه بدون نظارت در مجموعه متغیرهای مشاهده شده.در این مقاله ، من دلیل و جزئیات این روش را توضیح دهید.من برخی مهم را روشن می کنم جزئیات فرآیند معیار متغیر همسایه و برجسته کردن برخی از مشکلات تفسیری که محققان در استدلال در مورد آن روبرو هستند بخش باقیمانده از مخدوشان بدون نظارت.من تمام نکات را با توضیح می دهم چندین نمونه تجربی.
29,799
In many scenarios, such as the evaluation of place-based policies, potential outcomes are not only dependent upon the unit's own treatment but also its neighbors' treatment. Despite this, "difference-in-differences" (DID) type estimators typically ignore such interference among neighbors. I show in this paper that the canonical DID estimators generally fail to identify interesting causal effects in the presence of neighborhood interference. To incorporate interference structure into DID estimation, I propose doubly robust estimators for the direct average treatment effect on the treated as well as the average spillover effects under a modified parallel trends assumption. When spillover effects are of interest, we often sample the entire population. Thus, I adopt a finite population perspective in the sense that the estimands are defined as population averages and inference is conditional on the attributes of all population units. The approach in this paper relaxes common restrictions in the literature, such as partial interference and correctly specified spillover functions. Moreover, robust inference is discussed based on the asymptotic distribution of the proposed estimators.
در بسیاری از سناریوها ، مانند ارزیابی سیاست های مبتنی بر مکان ، پتانسیل نتایج نه تنها به درمان خود این واحد بستگی دارد بلکه آن نیز هست درمان همسایگان.با وجود این ، "تفاوت در اختلافات" (DID) برآوردگرها به طور معمول چنین دخالت در بین همسایگان را نادیده می گیرند.من در این نشان می دهم مقاله ای که برآوردگرهای متعارف DID به طور کلی نتوانند جالب باشند اثرات علی در حضور تداخل محله.برای ترکیب ساختار تداخل در تخمین DID ، من برآوردگرهای مضاعف را پیشنهاد می کنم برای تأثیر متوسط ​​درمان مستقیم بر روی درمان و همچنین میانگین اثرات سرریز تحت یک فرض روند موازی اصلاح شده.هنگام سرریز اثرات مورد توجه است ، ما اغلب از کل جمعیت نمونه می گیریم.بنابراین ، من اتخاذ می کنم چشم انداز جمعیت محدود به این معنا که برآوردها به عنوان تعریف شده اند میانگین و استنباط جمعیت مشروط به ویژگی های همه است واحدهای جمعیتیرویکرد در این مقاله محدودیت های متداول در ادبیات ، مانند تداخل جزئی و سرریز صحیح مشخص شده کارکرد.علاوه بر این ، استنتاج قوی بر اساس بدون علامت مورد بحث قرار می گیرد توزیع برآوردگرهای پیشنهادی.
29,801
This paper examines empirical methods for estimating the response of aggregated electricity demand to high-frequency price signals, the short-term elasticity of electricity demand. We investigate how the endogeneity of prices and the autocorrelation of the time series, which are particularly pronounced at hourly granularity, affect and distort common estimators. After developing a controlled test environment with synthetic data that replicate key statistical properties of electricity demand, we show that not only the ordinary least square (OLS) estimator is inconsistent (due to simultaneity), but so is a regular instrumental variable (IV) regression (due to autocorrelation). Using wind as an instrument, as it is commonly done, may result in an estimate of the demand elasticity that is inflated by an order of magnitude. We visualize the reason for the Thams bias using causal graphs and show that its magnitude depends on the autocorrelation of both the instrument, and the dependent variable. We further incorporate and adapt two extensions of the IV estimation, conditional IV and nuisance IV, which have recently been proposed by Thams et al. (2022). We show that these extensions can identify the true short-term elasticity in a synthetic setting and are thus particularly promising for future empirical research in this field.
در این مقاله به بررسی روشهای تجربی برای برآورد پاسخ تقاضای برق جمع شده به سیگنال های قیمت با فرکانس بالا ، کوتاه مدت خاصیت ارتجاعی تقاضای برق.ما بررسی می کنیم که چگونه درون زایی قیمت ها و همبستگی سری زمانی ، که به ویژه تلفظ می شوند در دانه بندی ساعتی ، برآوردگرهای رایج را تحت تأثیر قرار داده و تحریف کنید.پس از توسعه محیط آزمایش کنترل شده با داده های مصنوعی که آماری کلیدی را تکرار می کنند خواص تقاضای برق ، ما نشان می دهیم که نه تنها حداقل معمولی برآوردگر مربع (OLS) متناقض است (به دلیل همزمانی) ، اما چنین است رگرسیون متغیر ابزاری منظم (IV) (به دلیل همبستگی).استفاده كردن باد به عنوان ابزاری ، همانطور که معمولاً انجام می شود ، ممکن است منجر به تخمین از خاصیت ارتجاعی تقاضا که با یک ترتیب بزرگی باد می شود.ما تجسم می کنیم دلیل تعصب Thams با استفاده از نمودارهای علی و نشان دادن بزرگی آن بستگی به همبستگی هر دو ابزار و وابسته دارد متغیر.ما بیشتر دو پسوند تخمین IV را درج و تطبیق می دهیم ، شرطی IV و Nuisance IV ، که اخیراً توسط Thams ET پیشنهاد شده است هم(2022).ما نشان می دهیم که این پسوندها می توانند کوتاه مدت واقعی را شناسایی کنند خاصیت ارتجاعی در یک محیط مصنوعی و از این رو به ویژه امیدوار کننده است تحقیقات تجربی آینده در این زمینه.
29,802
The common practice for GDP nowcasting in a data-rich environment is to employ either sparse regression using LASSO-type regularization or a dense approach based on factor models or ridge regression, which differ in the way they extract information from high-dimensional datasets. This paper aims to investigate whether sparse plus dense mixed frequency regression methods can improve the nowcasts of the US GDP growth. We propose two novel MIDAS regressions and show that these novel sparse plus dense methods greatly improve the accuracy of nowcasts during the COVID pandemic compared to either only sparse or only dense approaches. Using monthly macro and weekly financial series, we further show that the improvement is particularly sharp when the dense component is restricted to be macro, while the sparse signal stems from both macro and financial series.
روش معمول تولید ناخالص داخلی در یک محیط غنی از داده ها این است که یا رگرسیون پراکنده را با استفاده از تنظیمات نوع لاسو یا متراکم به کار بگیرید رویکرد مبتنی بر مدل های فاکتور یا رگرسیون خط الراس ، که در راه متفاوت است آنها اطلاعات را از مجموعه داده های با ابعاد بالا استخراج می کنند.این مقاله با هدف بررسی کنید که آیا روشهای رگرسیون فرکانس مختلط پراکنده می تواند پیشرفت های رشد تولید ناخالص داخلی ایالات متحده را بهبود بخشید.ما دو میانه رمان را پیشنهاد می کنیم رگرسیون و نشان می دهد که این روشهای پراکنده به علاوه متراکم تا حد زیادی بهبود می یابند صحت Nowcasts در طول همه گیر Covid در مقایسه با هر دو رویکردهای پراکنده یا فقط متراکم.استفاده از مالی ماهانه و هفتگی مالی سریال ، ما بیشتر نشان می دهیم که بهبود به ویژه در صورت تیز بودن مؤلفه متراکم محدود به کلان است ، در حالی که سیگنال پراکنده از آن ناشی می شود هر دو سری کلان و مالی.
29,803
The exact estimation of latent variable models with big data is known to be challenging. The latents have to be integrated out numerically, and the dimension of the latent variables increases with the sample size. This paper develops a novel approximate Bayesian method based on the Langevin diffusion process. The method employs the Fisher identity to integrate out the latent variables, which makes it accurate and computationally feasible when applied to big data. In contrast to other approximate estimation methods, it does not require the choice of a parametric distribution for the unknowns, which often leads to inaccuracies. In an empirical discrete choice example with a million observations, the proposed method accurately estimates the posterior choice probabilities using only 2% of the computation time of exact MCMC.
تخمین دقیق مدل های متغیر نهفته با داده های بزرگ شناخته شده است چالش برانگیز.Latents باید به صورت عددی ادغام شود و ابعاد متغیرهای نهفته با اندازه نمونه افزایش می یابد.این کاغذ یک روش تقریبی بیزی جدید را بر اساس انتشار لانژوین ایجاد می کند روند.این روش از هویت فیشر برای ادغام نهفته استفاده می کند متغیرها ، که باعث می شود در صورت استفاده از آن دقیق و محاسباتی امکان پذیر باشد اطلاعات بزرگ.برخلاف سایر روشهای تخمین تقریبی ، اینگونه نیست نیاز به انتخاب توزیع پارامتری برای ناشناخته ها ، که اغلب منجر به نادرستی می شود.در یک انتخاب گسسته تجربی با یک میلیون مشاهدات ، روش پیشنهادی به طور دقیق انتخاب خلفی را تخمین می زند احتمالات با استفاده از تنها 2 ٪ از زمان محاسبه دقیق MCMC.
29,804
This paper investigates the performance of the Generalized Covariance estimator (GCov) in estimating mixed causal and noncausal Vector Autoregressive (VAR) models. The GCov estimator is a semi-parametric method that minimizes an objective function without making any assumptions about the error distribution and is based on nonlinear autocovariances to identify the causal and noncausal orders of the mixed VAR. When the number and type of nonlinear autocovariances included in the objective function of a GCov estimator is insufficient/inadequate, or the error density is too close to the Gaussian, identification issues can arise, resulting in local minima in the objective function of the estimator at parameter values associated with incorrect causal and noncausal orders. Then, depending on the starting point, the optimization algorithm may converge to a local minimum, leading to inaccurate estimates. To circumvent this issue, the paper proposes the use of the Simulated Annealing (SA) optimization algorithm as an alternative to conventional numerical optimization methods. The results demonstrate that the SA optimization algorithm performs effectively when applied to multivariate mixed VAR models, successfully eliminating the effects of local minima. The approach is illustrated by simulations and an empirical application of a bivariate mixed VAR model with commodity price series.
در این مقاله به بررسی عملکرد کواریانس عمومی شده است برآوردگر (GCOV) در برآورد وکتور علیت و غیر یائسگی خودکار خودجوش مدلهای (VAR).برآوردگر GCOV یک روش نیمه پارامتری است که به حداقل می رسد عملکرد عینی بدون ایجاد هیچ گونه فرضیه ای در مورد توزیع خطا و مبتنی بر اتوکواریان های غیرخطی برای شناسایی علت و معلولیت است سفارشات VAR مختلط.هنگامی که تعداد و نوع اتوکواران غیرخطی در عملکرد هدف یک برآوردگر GCOV گنجانده شده است ناکافی/ناکافی ، یا تراکم خطا خیلی نزدیک به گاوسی است ، مسائل شناسایی می تواند بوجود آید و در نتیجه حداقل محلی در هدف باشد عملکرد برآوردگر در مقادیر پارامتر مرتبط با علت نادرست و سفارشات غیرعادی.سپس ، بسته به نقطه شروع ، بهینه سازی الگوریتم ممکن است به حداقل محلی همگرا شود و منجر به تخمین های نادرست شود.به این موضوع را دور بزنید ، مقاله استفاده از بازپرداخت شبیه سازی شده را پیشنهاد می کند (SA) الگوریتم بهینه سازی به عنوان جایگزینی برای عددی معمولی روشهای بهینه سازی.نتایج نشان می دهد که بهینه سازی SA الگوریتم هنگامی که در مدلهای VAR مخلوط چند متغیره اعمال می شود ، به طور مؤثر عمل می کند ، با موفقیت اثرات حداقل محلی را از بین برد.رویکرد است نشان داده شده توسط شبیه سازی ها و کاربرد تجربی از یک مخلوط دو متغیره مدل VAR با سری قیمت کالاها.
29,805
This paper traces the historical and analytical development of what is known in the econometrics literature as the Frisch-Waugh-Lovell theorem. This theorem demonstrates that the coefficients on any subset of covariates in a multiple regression is equal to the coefficients in a regression of the residualized outcome variable on the residualized subset of covariates, where residualization uses the complement of the subset of covariates of interest. In this paper, I suggest that the theorem should be renamed as the Yule-Frisch-Waugh-Lovell (YFWL) theorem to recognize the pioneering contribution of the statistician G. Udny Yule in its development. Second, I highlight recent work by the statistician, P. Ding, which has extended the YFWL theorem to a comparison of estimated covariance matrices of coefficients from multiple and partial, i.e. residualized regressions. Third, I show that, in cases where Ding's results do not apply, one can still resort to a computational method to conduct statistical inference about coefficients in multiple regressions using information from partial regressions.
در این مقاله ، توسعه تاریخی و تحلیلی آنچه شناخته شده است را ردیابی می کند در ادبیات اقتصاد سنجی به عنوان قضیه Frisch-Waugh-Lovell.این قضیه نشان می دهد که ضرایب موجود در هر زیر مجموعه متغیرهای متغیر در چند رگرسیون برابر با ضرایب در رگرسیون باقیمانده است متغیر نتیجه در زیر مجموعه باقیمانده متغیرهای متغیر ، که در آن باقیمانده از مکمل زیر مجموعه متغیرهای مورد علاقه استفاده می کند.که در در این مقاله ، من پیشنهاد می کنم که قضیه باید به عنوان تغییر نام یابد قضیه یول-فریش-وو-لاول (YFWL) برای تشخیص پیشگام سهم آماری G. Udny Yule در توسعه آن.دوم ، من کارهای اخیر توسط آماری ، P. Ding را برجسته کنید ، که YFWL را گسترش داده است قضیه با مقایسه ماتریس کواریانس تخمین زده شده از ضرایب چند و جزئی ، یعنی رگرسیون باقیمانده.سوم ، من آن را نشان می دهم ، در مواردی که نتایج دینگ اعمال نمی شود ، هنوز هم می توان به یک متوسل شد روش محاسباتی برای انجام استنباط آماری در مورد ضرایب در رگرسیون چندگانه با استفاده از اطلاعات رگرسیون جزئی.
29,806
This paper examines the identification assumptions underlying two types of estimators of the causal effects of minimum wages based on regional variation in wage levels: the "effective minimum wage" and the "fraction affected/gap" designs. For the effective minimum wage design, I show that the identification assumptions emphasized by Lee (1999) are crucial for unbiased estimation but difficult to satisfy in empirical applications for reasons arising from economic theory. For the fraction affected design at the region level, I show that economic factors such as a common trend in the dispersion of worker productivity or regional convergence in GDP per capita may lead to violations of the "parallel trends" identifying assumption. The paper suggests ways to increase the likelihood of detecting those issues when implementing checks for parallel pre-trends. I also show that this design may be subject to biases arising from the misspecification of the treatment intensity variable, especially when the minimum wage strongly affects employment and wages.
در این مقاله فرضیات شناسایی اساسی دو نوع از برآوردگرهای اثرات علی حداقل دستمزدها بر اساس تنوع منطقه ای در سطح دستمزد: "حداقل دستمزد مؤثر" و "کسری تحت تأثیر/شکاف" طرح ها.برای طراحی حداقل دستمزد مؤثر ، من نشان می دهم که شناسایی فرضیات تأکید شده توسط لی (1999) برای برآورد بی طرفانه بسیار مهم است اما رضایت در کاربردهای تجربی به دلایل ناشی از آن دشوار است نظریه اقتصادی.برای کسری که در سطح منطقه تحت تأثیر قرار گرفته است ، من نشان می دهم این عوامل اقتصادی مانند یک روند مشترک در پراکندگی کارگر بهره وری یا همگرایی منطقه ای در تولید ناخالص داخلی سرانه ممکن است منجر به تخلف شود از "روندهای موازی" فرض را شناسایی می کند.این مقاله راه هایی را نشان می دهد احتمال تشخیص آن مسائل را هنگام اجرای چک ها افزایش دهید موازی قبل از ترند.من همچنین نشان می دهم که این طرح ممکن است در معرض تعصب باشد ناشی از غلط گیری متغیر شدت درمان ، به خصوص هنگامی که حداقل دستمزد به شدت بر اشتغال و دستمزد تأثیر می گذارد.
29,807
Counterfactual predictions are challenging when the policy variable goes beyond its pre-policy support. However, in many cases, information about the policy of interest is available from different ("source") regions where a similar policy has already been implemented. In this paper, we propose a novel method of using such data from source regions to predict a new policy in a target region. Instead of relying on extrapolation of a structural relationship using a parametric specification, we formulate a transferability condition and construct a synthetic outcome-policy relationship such that it is as close as possible to meeting the condition. The synthetic relationship weighs both the similarity in distributions of observables and in structural relationships. We develop a general procedure to construct asymptotic confidence intervals for counterfactual predictions and prove its asymptotic validity. We then apply our proposal to predict average teenage employment in Texas following a counterfactual increase in the minimum wage.
پیش بینی های خلاف واقع با متغیر سیاست چالش برانگیز است فراتر از حمایت پیش از سیاست آن.با این حال ، در بسیاری موارد ، اطلاعات مربوط به سیاست مورد علاقه از مناطق مختلف ("منبع") در دسترس است که a سیاست مشابه قبلاً اجرا شده است.در این مقاله ، ما رمان را پیشنهاد می کنیم روش استفاده از چنین داده هایی از مناطق منبع برای پیش بینی یک خط مشی جدید در منطقه هدفبه جای تکیه بر برون یابی یک رابطه ساختاری با استفاده از مشخصات پارامتری ، ما یک شرایط انتقال را تدوین می کنیم و ایجاد یک رابطه مصنوعی نتیجه گیری به گونه ای که به همان اندازه نزدیک باشد ممکن است شرایط را برآورده سازد.رابطه مصنوعی هر دو وزن دارد شباهت در توزیع مشاهدات و روابط ساختاری.ما یک روش کلی برای ایجاد فواصل اعتماد به نفس بدون علامت ایجاد کنید پیش بینی های ضد خلاف و اعتبار بدون علامت آن.سپس ما اعمال می کنیم پیشنهاد پیش بینی متوسط ​​اشتغال نوجوانان در تگزاس به دنبال افزایش ضد خلاف حداقل دستمزد.
29,808
This paper investigates the impact of decentralizing inventory decision-making in multi-establishment firms using data from a large retail chain. Analyzing two years of daily data, we find significant heterogeneity among the inventory decisions made by 634 store managers. By estimating a dynamic structural model, we reveal substantial heterogeneity in managers' perceived costs. Moreover, we observe a correlation between the variance of these perceptions and managers' education and experience. Counterfactual experiments show that centralized inventory management reduces costs by eliminating the impact of managers' skill heterogeneity. However, these benefits are offset by the negative impact of delayed demand information.
در این مقاله تأثیر موجودی غیر متمرکز بررسی شده است تصمیم گیری در بنگاه های چند تأسیس با استفاده از داده های خرده فروشی بزرگ زنجیر.با تجزیه و تحلیل دو سال از داده های روزانه ، ناهمگونی قابل توجهی پیدا می کنیم از جمله تصمیمات موجودی که توسط 634 مدیر فروشگاه گرفته شده است.با تخمین مدل ساختاری پویا ، ما ناهمگونی قابل توجهی را در مدیران نشان می دهیم هزینه های درک شدهعلاوه بر این ، ما همبستگی بین واریانس مشاهده می کنیم این برداشت ها و آموزش و تجربه مدیران.متضاد آزمایشات نشان می دهد که مدیریت موجودی متمرکز هزینه ها را کاهش می دهد از بین بردن تأثیر ناهمگونی مهارت مدیران.با این حال ، اینها مزایا با تأثیر منفی اطلاعات تأخیر تقاضا جبران می شود.
29,809
This paper tests the feasibility and estimates the cost of climate control through economic policies. It provides a toolbox for a statistical historical assessment of a Stochastic Integrated Model of Climate and the Economy, and its use in (possibly counterfactual) policy analysis. Recognizing that stabilization requires supressing a trend, we use an integrated-cointegrated Vector Autoregressive Model estimated using a newly compiled dataset ranging between years A.D. 1000-2008, extending previous results on Control Theory in nonstationary systems. We test statistically whether, and quantify to what extent, carbon abatement policies can effectively stabilize or reduce global temperatures. Our formal test of policy feasibility shows that carbon abatement can have a significant long run impact and policies can render temperatures stationary around a chosen long run mean. In a counterfactual empirical illustration of the possibilities of our modeling strategy, we show that the cost of carbon abatement for a retrospective policy aiming to keep global temperatures close to their 1900 historical level is about 75% of the observed 2008 level of world GDP, a cost equivalent to reverting to levels of output historically observed in the mid 1960s. This constitutes a measure of the putative opportunity cost of the lack of investment in carbon abatement technologies.
در این مقاله امکان سنجی و تخمین هزینه کنترل آب و هوا از طریق سیاست های اقتصادیاین یک جعبه ابزار برای یک تاریخی آماری فراهم می کند ارزیابی یک مدل یکپارچه تصادفی از آب و هوا و اقتصاد و آن در تجزیه و تحلیل سیاست (احتمالاً ضد خلاف) استفاده کنید.تشخیص آن تثبیت نیاز به سرکوب یک روند دارد ، ما از یک یکپارچه یکپارچه استفاده می کنیم مدل اتورگرایی وکتور با استفاده از یک مجموعه داده تازه گردآوری شده تخمین زده می شود بین سالهای A.D. 1000-2008 ، که نتایج قبلی را در مورد تئوری کنترل در گسترش می دهد سیستم های غیر ایستگاه.ما از نظر آماری آزمایش می کنیم ، و به چه چیزی تعیین می کنیم میزان ، سیاست های کاهش کربن می تواند به طور موثری جهانی را تثبیت یا کاهش دهد دماآزمایش رسمی ما از امکان سنجی سیاست نشان می دهد که کاهش کربن می تواند تأثیر طولانی مدت قابل توجهی داشته باشد و سیاست ها می توانند درجه حرارت را ایجاد کنند ثابت در اطراف یک میانگین بلند مدت انتخاب شده.در یک تجربی ضد خلاف تصویر از امکانات استراتژی مدل سازی ما ، ما نشان می دهیم که هزینه کاهش کربن برای یک سیاست گذشته نگر با هدف حفظ جهانی دمای نزدیک به سطح تاریخی 1900 آنها حدود 75 ٪ از مشاهده شده است سطح تولید ناخالص داخلی جهانی 2008 ، هزینه ای برای بازگشت به سطح خروجی از لحاظ تاریخی در اواسط دهه 1960 مشاهده شده است.این یک معیار از هزینه فرصت فساد از عدم سرمایه گذاری در کاهش کربن فن آوری ها
29,810
External-instrument identification leads to biased responses when the shock is not invertible and the measurement error is present. We propose to use this identification strategy in a structural Dynamic Factor Model, which we call Proxy DFM. In a simulation analysis, we show that the Proxy DFM always successfully retrieves the true impulse responses, while the Proxy SVAR systematically fails to do so when the model is either misspecified, does not include all relevant information, or the measurement error is present. In an application to US monetary policy, the Proxy DFM shows that a tightening shock is unequivocally contractionary, with deteriorations in domestic demand, labor, credit, housing, exchange, and financial markets. This holds true for all raw instruments available in the literature. The variance decomposition analysis highlights the importance of monetary policy shocks in explaining economic fluctuations, albeit at different horizons.
شناسایی سیستم های خارجی منجر به پاسخ های مغرضانه در هنگام شوک می شود غیرقابل تحمل نیست و خطای اندازه گیری وجود دارد.ما پیشنهاد می کنیم از این استفاده کنیم استراتژی شناسایی در یک مدل فاکتور پویا ساختاری ، که ما آن را می نامیم پروکسی DFM.در یک تجزیه و تحلیل شبیه سازی ، ما نشان می دهیم که Proxy DFM همیشه با موفقیت پاسخ های ضربه ای واقعی را بازیابی می کند ، در حالی که پروکسی SVAR به طور سیستماتیک وقتی مدل یا اشتباه نشود ، این کار را انجام نمی دهد. شامل تمام اطلاعات مربوطه ، یا خطای اندازه گیری موجود است.در یک درخواست برای سیاست پولی ایالات متحده ، Proxy DFM نشان می دهد که شوک محکم کننده به طور واضح انقباض است ، با وخامت در تقاضای داخلی ، نیروی کار ، بازارهای اعتباری ، مسکن ، مبادله و مالی.این برای همه خام صادق است ابزارهای موجود در ادبیات.تجزیه و تحلیل تجزیه واریانس اهمیت شوک های سیاست پولی در توضیح اقتصادی را برجسته می کند نوسانات ، البته در افق های مختلف.
29,811
We develop a method to learn about treatment effects in multiple treatment models with discrete-valued instruments. We allow selection into treatment to be governed by a general class of threshold crossing models that permits multidimensional unobserved heterogeneity. Under a semi-parametric restriction on the distribution of unobserved heterogeneity, we show how a sequence of linear programs can be used to compute sharp bounds for a number of treatment effect parameters when the marginal treatment response functions underlying them remain nonparametric or are additionally parameterized.
ما روشی را برای یادگیری در مورد اثرات درمانی در چندین درمان ایجاد می کنیم مدل هایی با ابزارهای دارای ارزش گسسته.ما اجازه می دهیم تا به درمان بپردازیم توسط یک کلاس کلی از مدل های عبور آستانه که اجازه می دهد اداره شود ناهمگونی بدون نظارت چند بعدی.تحت یک محدودیت نیمه پارامتری در مورد توزیع ناهمگونی بدون نظارت ، ما نشان می دهیم که چگونه یک دنباله از از برنامه های خطی می توان برای محاسبه مرزهای تیز برای تعدادی از درمان استفاده کرد پارامترهای اثر هنگامی که عملکرد پاسخ درمانی حاشیه ای است آنها غیر پارامتری هستند یا علاوه بر این پارامتر می شوند.
29,812
We provide sufficient conditions for semi-nonparametric point identification of a mixture model of decision making under risk, when agents make choices in multiple lines of insurance coverage (contexts) by purchasing a bundle. As a first departure from the related literature, the model allows for two preference types. In the first one, agents behave according to standard expected utility theory with CARA Bernoulli utility function, with an agent-specific coefficient of absolute risk aversion whose distribution is left completely unspecified. In the other, agents behave according to the dual theory of choice under risk(Yaari, 1987) combined with a one-parameter family distortion function, where the parameter is agent-specific and is drawn from a distribution that is left completely unspecified. Within each preference type, the model allows for unobserved heterogeneity in consideration sets, where the latter form at the bundle level -- a second departure from the related literature. Our point identification result rests on observing sufficient variation in covariates across contexts, without requiring any independent variation across alternatives within a single context. We estimate the model on data on households' deductible choices in two lines of property insurance, and use the results to assess the welfare implications of a hypothetical market intervention where the two lines of insurance are combined into a single one. We study the role of limited consideration in mediating the welfare effects of such intervention.
ما شرایط کافی را برای شناسایی نقطه نیمه غیر پارامتری فراهم می کنیم از یک مدل مخلوط تصمیم گیری در معرض خطر ، هنگامی که نمایندگان در انتخاب می شوند چندین خط پوشش بیمه (زمینه) با خرید یک بسته نرم افزاری.به عنوان اولین عزیمت از ادبیات مربوطه ، این مدل اجازه می دهد انواع اولویتدر مورد اول ، مأمورین طبق استاندارد رفتار می کنند نظریه ابزار مورد انتظار با عملکرد ابزار Cara Bernoulli ، با ضریب خاص عامل از ریسک مطلق که توزیع آن باقی مانده است کاملاً نامشخصاز طرف دیگر ، مأمورین مطابق با دوگانه رفتار می کنند نظریه انتخاب در معرض خطر (یااری ، 1987) همراه با یک خانواده یک پارامتری عملکرد اعوجاج ، جایی که پارامتر خاص عامل است و از a ترسیم می شود توزیع که کاملاً نا مشخص باقی مانده است.در هر نوع اولویت ، این مدل ناهمگونی بدون نظارت را در مجموعه های در نظر گرفتن ، جایی که شکل دوم در سطح بسته نرم افزاری - عزیمت دوم از مرتبط ادبیات.نتیجه شناسایی نقطه ما به مشاهده کافی استوار است تنوع در متغیرهای متغیر ، بدون نیاز به مستقل تغییر در گزینه های دیگر در یک زمینه واحد.ما مدل را تخمین می زنیم اطلاعات مربوط به انتخاب های کسر خانوارها در دو خط بیمه املاک ، و از نتایج برای ارزیابی پیامدهای رفاهی یک بازار فرضی استفاده کنید مداخله ای که دو خط بیمه در یک واحد واحد ترکیب می شوند. ما نقش توجه محدود را در واسطه اثرات رفاهی بررسی می کنیم چنین مداخله ای
29,814
Economic interactions often occur in networks where heterogeneous agents (such as workers or firms) sort and produce. However, most existing estimation approaches either require the network to be dense, which is at odds with many empirical networks, or they require restricting the form of heterogeneity and the network formation process. We show how the functional differencing approach introduced by Bonhomme (2012) in the context of panel data, can be applied in network settings to derive moment restrictions on model parameters and average effects. Those restrictions are valid irrespective of the form of heterogeneity, and they hold in both dense and sparse networks. We illustrate the analysis with linear and nonlinear models of matched employer-employee data, in the spirit of the model introduced by Abowd, Kramarz, and Margolis (1999).
فعل و انفعالات اقتصادی اغلب در شبکه هایی رخ می دهد که عوامل ناهمگن (مانند کارگران یا بنگاهها) مرتب سازی و تولید.با این حال ، بیشتر تخمین موجود رویکردها یا نیاز به شبکه متراکم دارند ، که با بسیاری از آنها مغایرت دارد شبکه های تجربی ، یا آنها نیاز به محدود کردن شکل ناهمگونی دارند و فرآیند شکل گیری شبکه.ما نشان می دهیم که چگونه رویکرد تفاوت عملکردی معرفی شده توسط Bonhomme (2012) در زمینه داده های پانل ، می تواند در آن اعمال شود تنظیمات شبکه برای به دست آوردن محدودیت های لحظه ای در پارامترهای مدل و میانگین اثراتاین محدودیت ها صرف نظر از شکل معتبر هستند ناهمگونی ، و آنها در هر دو شبکه متراکم و پراکنده قرار دارند.ما تصویر می کنیم تجزیه و تحلیل با مدلهای خطی و غیرخطی کارفرمای همسان-کارمند داده ها ، با روحیه مدل معرفی شده توسط Abowd ، Kramarz و Margolis (1999).
29,815
We propose identification robust statistics for testing hypotheses on the risk premia in dynamic affine term structure models. We do so using the moment equation specification proposed for these models in Adrian et al. (2013). We extend the subset (factor) Anderson-Rubin test from Guggenberger et al. (2012) to models with multiple dynamic factors and time-varying risk prices. Unlike projection-based tests, it provides a computationally tractable manner to conduct identification robust tests on a larger number of parameters. We analyze the potential identification issues arising in empirical studies. Statistical inference based on the three-stage estimator from Adrian et al. (2013) requires knowledge of the factors' quality and is misleading without full-rank beta's or with sampling errors of comparable size as the loadings. Empirical applications show that some factors, though potentially weak, may drive the time variation of risk prices, and weak identification issues are more prominent in multi-factor models.
ما برای آزمایش فرضیه ها در مورد آمار قوی شناسایی می کنیم حق ریسک در مدلهای ساختار اصطلاحات وابسته پویا.ما این کار را با استفاده از لحظه انجام می دهیم مشخصات معادله ارائه شده برای این مدلها در آدریان و همکاران.(2013).ما تست زیر مجموعه (عامل) اندرسون-روبین را از Guggenberger و همکاران گسترش دهید.(2012) به مدل هایی با عوامل پویا متعدد و قیمت ریسک متغیر زمان.برخلاف تست های مبتنی بر طرح ریزی ، یک روش محاسباتی قابل ردیابی را فراهم می کند انجام آزمایشات قوی در تعداد بیشتری از پارامترها.ما تجزیه و تحلیل موضوعات شناسایی بالقوه ناشی از مطالعات تجربی. استنباط آماری بر اساس برآوردگر سه مرحله ای از آدریان و همکاران. (2013) نیاز به دانش در مورد کیفیت عوامل دارد و بدون گمراه کننده است درجه بندی کامل بتا یا با خطاهای نمونه برداری با اندازه قابل مقایسه با بارهای. برنامه های تجربی نشان می دهد که برخی از عوامل ، گرچه بالقوه ضعیف هستند ، ممکن است تغییر زمان قیمت ریسک را هدایت کنید و مسائل مربوط به شناسایی ضعیف است برجسته تر در مدل های چند عاملی.
29,816
In this paper, I discuss three aspects of the Frisch-Waugh-Lovell theorem. First, I show that the theorem holds for linear instrumental variables estimation of a multiple regression model that is either exactly or overidentified. I show that with linear instrumental variables estimation: (a) coefficients on endogenous variables are identical in full and partial (or residualized) regressions; (b) residual vectors are identical for full and partial regressions; and (c) estimated covariance matrices of the coefficient vectors from full and partial regressions are equal (up to a degree of freedom correction) if the estimator of the error vector is a function only of the residual vectors and does not use any information about the covariate matrix other than its dimensions. While estimation of the full model uses the full set of instrumental variables, estimation of the partial model uses the residualized version of the same set of instrumental variables, with residualization carried out with respect to the set of exogenous variables. Second, I show that: (a) the theorem applies in large samples to the K-class of estimators, including the limited information maximum likelihood (LIML) estimator, and (b) the theorem does not apply in general to linear GMM estimators, but it does apply to the two step optimal linear GMM estimator. Third, I trace the historical and analytical development of the theorem and suggest that it be renamed as the Yule-Frisch-Waugh-Lovell (YFWL) theorem to recognize the pioneering contribution of the statistician G. Udny Yule in its development.
در این مقاله ، من در مورد سه جنبه قضیه Frisch-Waugh-Lovell بحث می کنم. اول ، من نشان می دهم که قضیه متغیرهای ابزاری خطی را در خود جای می دهد تخمین یک مدل رگرسیون چندگانه که دقیقاً یا بیش از حد شناسایی شدهمن نشان می دهم که با تخمین متغیرهای ابزار خطی: (الف) ضرایب متغیرهای درون زا به طور کامل و جزئی یکسان هستند (یا رگرسیون باقیمانده)(ب) بردارهای باقیمانده برای کامل و یکسان هستند رگرسیون جزئی ؛و (ج) برآورد ماتریس کواریانس از ضریب بردارهای رگرسیون کامل و جزئی برابر هستند (تا درجه ای از آزادی تصحیح) اگر برآوردگر بردار خطا تابعی از بردارهای باقیمانده و از هیچ اطلاعاتی در مورد ماتریس متغیر استفاده نمی کند غیر از ابعاد آن.در حالی که تخمین مدل کامل از مجموعه کامل استفاده می کند از متغیرهای ابزاری ، تخمین مدل جزئی از آن استفاده می کند نسخه باقیمانده از همان مجموعه متغیرهای ابزاری ، با باقیمانده با توجه به مجموعه متغیرهای اگزوژن انجام می شود. دوم ، من نشان می دهم که: (الف) قضیه در نمونه های بزرگ برای کلاس K اعمال می شود برآوردگرها ، از جمله حداکثر احتمال اطلاعات محدود (LIML) برآوردگر ، و (ب) قضیه به طور کلی برای GMM خطی اعمال نمی شود برآوردگرها ، اما در مورد برآوردگر GMM خطی بهینه دو مرحله ای اعمال می شود. سوم ، من توسعه تاریخی و تحلیلی قضیه و پیشنهاد کنید که آن را به عنوان قضیه یول-فریش-وو-لول (YFWL) تغییر نام دهید سهم پیشگام آماری G. Udny Yule را در آن تشخیص دهید توسعه.
29,817
Can stated preferences help in counterfactual analyses of actual choice? This research proposes a novel approach to researchers who have access to both stated choices in hypothetical scenarios and actual choices. The key idea is to use probabilistic stated choices to identify the distribution of individual unobserved heterogeneity, even in the presence of measurement error. If this unobserved heterogeneity is the source of endogeneity, the researcher can correct for its influence in a demand function estimation using actual choices, and recover causal effects. Estimation is possible with an off-the-shelf Group Fixed Effects estimator.
آیا ترجیحات بیان شده می تواند در تجزیه و تحلیل ضد خلاف انتخاب واقعی کمک کند؟این تحقیقات یک رویکرد جدید برای محققانی که به هر دو دسترسی دارند پیشنهاد می کند گزینه های بیان شده در سناریوهای فرضی و گزینه های واقعی.ایده اصلی این است که برای شناسایی توزیع فرد از گزینه های اعلام شده احتمالی استفاده کنید ناهمگونی بدون نظارت ، حتی در حضور خطای اندازه گیری.اگر این ناهمگونی بدون نظارت منبع درون زایی است ، محقق می تواند برای تأثیر آن در یک برآورد عملکرد تقاضا با استفاده از گزینه های واقعی ، صحیح است. و بازیابی اثرات علی.تخمین با یک گروه خارج از قفسه امکان پذیر است برآوردگر اثرات ثابت.
29,818
I propose a novel argument to point identify economically interpretable intertemporal treatment effects in dynamic regression discontinuity designs (RDDs). Specifically, I develop a dynamic potential outcomes model and specialize two assumptions of the difference-in-differences literature, the no anticipation and common trends restrictions, to point identify cutoff-specific impulse responses. The estimand associated with each target parameter can be expressed as the sum of two static RDD outcome contrasts, thereby allowing for estimation via standard local polynomial tools. I leverage a limited path independence assumption to reduce the dimensionality of the problem.
من یک استدلال جدید را پیشنهاد می کنم تا از نظر اقتصادی قابل تفسیر باشد اثرات درمانی بین المللی در طرح های ناپیوستگی رگرسیون پویا (RDDS).به طور خاص ، من یک مدل نتایج بالقوه پویا و دو فرض از ادبیات تفاوت در اختلافات را تخصص دهید ، نه پیش بینی و محدودیت های روندهای مشترک ، برای شناسایی خاص برش پاسخ های ضربه ای.برآورد مرتبط با هر پارامتر هدف می تواند باشد به عنوان مجموع دو تضاد نتیجه RDD استاتیک بیان شده است ، در نتیجه اجازه می دهد تخمین از طریق ابزارهای چند جمله ای محلی استاندارد.من از یک مسیر محدود استفاده می کنم فرض استقلال برای کاهش ابعاد مسئله.
29,819
In practice , quite often there is a need to describe the values set by means of a table in the form of some functional dependence . The observed values , due to certain circumstances , have an error . For approximation, it is advisable to use a functional dependence that would allow smoothing out the errors of the observation results. Approximation allows you to determine intermediate values of functions that are not listed among the data in the observation table. The use of exponential series for data approximation allows you to get a result no worse than from approximation by polynomials In the economic scientific literature, approximation in the form of power functions, for example, the Cobb-Douglas function, has become widespread. The advantage of this type of approximation can be called a simple type of approximating function , and the disadvantage is that in nature not all processes can be described by power functions with a given accuracy. An example is the GDP indicator for several decades . For this case , it is difficult to find a power function approximating a numerical series . But in this case, as shown in this article, you can use exponential series to approximate the data. In this paper, the time series of Hungary's GDP in the period from 1992 to 2022 was approximated by a series of thirty exponents of a complex variable. The use of data smoothing by the method of triangles allows you to average the data and increase the accuracy of approximation . This is of practical importance if the observed random variable contains outliers that need to be smoothed out.
در عمل ، اغلب نیاز به توصیف مقادیر تعیین شده توسط وسایل وجود دارد یک جدول به شکل وابستگی عملکردی.مقادیر مشاهده شده ، با توجه به شرایط خاص ، خطایی دارید.برای تقریب ، این است توصیه می شود از یک وابستگی عملکردی استفاده کنید که باعث صاف کردن آن می شود خطاهای نتایج مشاهده.تقریب به شما امکان می دهد تعیین کنید مقادیر میانی توابع که در بین داده ها ذکر نشده اند جدول مشاهده.استفاده از سری نمایی برای تقریب داده ها اجازه می دهد شما نمی توانید نتیجه بدتر از تقریب توسط چند جمله ای در ادبیات علمی اقتصادی ، تقریب به شکل کارکردهای قدرت ، به عنوان مثال ، عملکرد Cobb-Douglas ، گسترده شده است.مزیت این نوع تقریب را می توان نوع ساده ای از تقریب نامید عملکرد ، و نقطه ضعف این است که در طبیعت همه فرآیندها نمی توانند باشند توصیف شده توسط توابع قدرت با دقت مشخص.یک مثال تولید ناخالص داخلی است شاخص برای چندین دهه.برای این مورد ، یافتن یک قدرت دشوار است عملکرد تقریبی یک سری عددی.اما در این حالت ، همانطور که در این نشان داده شده است مقاله ، می توانید برای تقریب داده ها از سری Exponential استفاده کنید.در این صفحه، سری زمانی تولید ناخالص داخلی مجارستان در دوره 1992 تا 2022 بود تقریباً توسط یک سری از سی مأمور یک متغیر پیچیده.استفاده از هموار سازی داده ها با روش مثلث به شما امکان می دهد داده ها را به طور متوسط ​​و دقت تقریبی را افزایش دهید.این از اهمیت عملی برخوردار است اگر متغیر تصادفی مشاهده شده حاوی مسافت هایی است که باید صاف شوند.
29,821
The Hansen-Jagannathan (HJ) distance statistic is one of the most dominant measures of model misspecification. However, the conventional HJ specification test procedure has poor finite sample performance, and we show that it can be size distorted even in large samples when (proxy) factors exhibit small correlations with asset returns. In other words, applied researchers are likely to falsely reject a model even when it is correctly specified. We provide two alternatives for the HJ statistic and two corresponding novel procedures for model specification tests, which are robust against the presence of weak (proxy) factors, and we also offer a novel robust risk premia estimator. Simulation exercises support our theory. Our empirical application documents the non-reliability of the traditional HJ test since it may produce counter-intuitive results when comparing nested models by rejecting a four-factor model but not the reduced three-factor model. At the same time, our proposed methods are practically more appealing and show support for a four-factor model for Fama French portfolios.
آمار از راه دور Hansen-Jagannathan (HJ) یکی از غالب ترین است اقدامات غلط مدل.با این حال ، مشخصات HJ معمولی روش آزمایش عملکرد نمونه محدودی ضعیف دارد و ما نشان می دهیم که می تواند باشد اندازه حتی در نمونه های بزرگ تحریف می شود وقتی که عوامل (پروکسی) کوچک هستند همبستگی با بازده دارایی.به عبارت دیگر ، محققان کاربردی محتمل هستند برای رد کردن یک مدل حتی در صورت مشخص شدن صحیح.ما دو ارائه می دهیم گزینه های دیگر برای آمار HJ و دو روش جدید مربوطه برای تست های مشخصات مدل ، که در برابر وجود ضعیف قوی هستند (پروکسی) فاکتورها ، و ما همچنین یک برآوردگر برتر ریسک قوی را ارائه می دهیم. تمرینات شبیه سازی از تئوری ما پشتیبانی می کند.اسناد برنامه تجربی ما عدم اطمینان از آزمون سنتی HJ از آنجا که ممکن است تولید کند نتایج ضد شهودی هنگام مقایسه مدل های تو در تو با رد a مدل چهار عاملی اما مدل سه عاملی کاهش یافته نیست.در همان زمان ، ما روشهای پیشنهادی عملاً جذاب تر هستند و پشتیبانی از یک مدل چهار عاملی برای پرتفوی فرانسوی FAMA.
29,822
We consider Wald type statistics designed for joint predictability and structural break testing based on the instrumentation method of Phillips and Magdalinos (2009). We show that under the assumption of nonstationary predictors: (i) the tests based on the OLS estimators converge to a nonstandard limiting distribution which depends on the nuisance coefficient of persistence; and (ii) the tests based on the IVX estimators can filter out the persistence under certain parameter restrictions due to the supremum functional. These results contribute to the literature of joint predictability and parameter instability testing by providing analytical tractable asymptotic theory when taking into account nonstationary regressors. We compare the finite-sample size and power performance of the Wald tests under both estimators via extensive Monte Carlo experiments. Critical values are computed using standard bootstrap inference methodologies. We illustrate the usefulness of the proposed framework to test for predictability under the presence of parameter instability by examining the stock market predictability puzzle for the US equity premium.
ما آمار نوع والد را برای پیش بینی مشترک طراحی می کنیم و آزمایش شکستن ساختاری بر اساس روش ابزار دقیق فیلیپس و مگدالینوس (2009).ما نشان می دهیم که تحت فرض غیر استایل پیش بینی کننده ها: (i) تست های مبتنی بر برآوردگرهای OLS به یک غیر استاندارد تبدیل می شوند محدود کردن توزیع که به ضریب مزاحمت تداوم بستگی دارد. و (ب) آزمایشات بر اساس برآوردگرهای IVX می توانند پایداری را فیلتر کنند تحت محدودیت پارامتر خاص به دلیل عملکرد فوق العاده.اینها نتایج به ادبیات پیش بینی و پارامتر مشترک کمک می کند آزمایش ناپایداری با ارائه تئوری بدون علامت قابل کنترل تحلیلی چه زمانی با در نظر گرفتن رگرسرهای غیر ایستگاه.ما اندازه نمونه محدود را مقایسه می کنیم و عملکرد قدرت آزمون های والد تحت هر دو برآوردگر از طریق گسترده آزمایش مونت کارلو.مقادیر بحرانی با استفاده از بوت استرپ استاندارد محاسبه می شوند روشهای استنتاج.ما سودمندی چارچوب پیشنهادی را نشان می دهیم برای آزمایش برای پیش بینی تحت حضور بی ثباتی پارامتر توسط بررسی پازل پیش بینی بازار سهام برای حق بیمه سهام ایالات متحده.
29,823
We develop new methods for changes-in-changes and distributional synthetic controls when there exists group level heterogeneity. For changes-in-changes, we allow individuals to belong to a large number of heterogeneous groups. The new method extends the changes-in-changes method in Athey and Imbens (2006) by finding appropriate subgroups within the control groups which share similar group level unobserved characteristics to the treatment groups. For distributional synthetic control, we show that the appropriate synthetic control needs to be constructed using units in potentially different time periods in which they have comparable group level heterogeneity to the treatment group, instead of units that are only in the same time period as in Gunsilius (2023). Implementation and data requirements for these new methods are briefly discussed.
ما روشهای جدیدی را برای تغییر در تغییر و مصنوعی توزیع می کنیم کنترل در صورت وجود ناهمگونی سطح گروه وجود دارد.برای تغییرات در تغییر ، ما به افراد اجازه می دهیم که به تعداد زیادی از گروه های ناهمگن تعلق داشته باشند.در روش جدید روش تغییرات را در Athey و Imbens (2006) گسترش می دهد یافتن زیر گروه های مناسب در گروه های کنترل که مشابه مشترک هستند خصوصیات سطح گروهی برای گروههای درمانی.برای کنترل مصنوعی توزیع ، ما نشان می دهیم که مصنوعی مناسب کنترل باید با استفاده از واحدها در زمان بالقوه متفاوت ساخته شود دوره هایی که در آن ناهمگونی سطح گروهی قابل مقایسه با گروه درمانی ، به جای واحدهایی که فقط در یک دوره زمانی مشابه هستند Gunsilius (2023).اجرای و الزامات داده برای این روشهای جدید به طور خلاصه مورد بحث قرار می گیرد
29,824
This paper considers a linear panel model with interactive fixed effects and unobserved individual and time heterogeneities that are captured by some latent group structures and an unknown structural break, respectively. To enhance realism the model may have different numbers of groups and/or different group memberships before and after the break. With the preliminary nuclear-norm-regularized estimation followed by row- and column-wise linear regressions, we estimate the break point based on the idea of binary segmentation and the latent group structures together with the number of groups before and after the break by sequential testing K-means algorithm simultaneously. It is shown that the break point, the number of groups and the group memberships can each be estimated correctly with probability approaching one. Asymptotic distributions of the estimators of the slope coefficients are established. Monte Carlo simulations demonstrate excellent finite sample performance for the proposed estimation algorithm. An empirical application to real house price data across 377 Metropolitan Statistical Areas in the US from 1975 to 2014 suggests the presence both of structural breaks and of changes in group membership.
در این مقاله یک مدل پانل خطی با جلوه های ثابت تعاملی و ناهمگونی های فردی و زمانی که توسط برخی از نهان اسیر می شوند ساختارهای گروهی و یک شکست ساختاری ناشناخته به ترتیب.ارتقا دادن واقع گرایی مدل ممکن است تعداد مختلفی از گروه ها و/یا گروه های مختلف داشته باشد عضویت قبل و بعد از استراحت.با مقدماتی برآورد هسته ای-NORM-NORM و به دنبال خطی ردیف و ستون خطی رگرسیون ، ما نقطه شکست را بر اساس ایده باینری تخمین می زنیم تقسیم بندی و ساختارهای گروه نهفته به همراه تعداد گروه ها قبل و بعد از شکست با الگوریتم K-Means تست متوالی همزمان.نشان داده شده است که نقطه شکست ، تعداد گروه ها و عضویت در گروه می تواند به درستی با نزدیک شدن احتمال تخمین زده شود یکتوزیع بدون علامت از برآوردگرهای ضرایب شیب است ایجاد.شبیه سازی مونت کارلو نمونه محدود عالی را نشان می دهد عملکرد برای الگوریتم تخمین پیشنهادی.یک برنامه تجربی به داده های قیمت خانه واقعی در 377 مناطق آماری کلانشهر در ایالات متحده 1975 تا 2014 حاکی از حضور هر دو استراحت ساختاری و تغییرات در عضویت گروه
29,825
The log transformation of the dependent variable is not innocuous when using a difference-in-differences (DD) model. With a dependent variable in logs, the DD term captures an approximation of the proportional difference in growth rates across groups. As I show with both simulations and two empirical examples, if the baseline outcome distributions are sufficiently different across groups, the DD parameter for a log-specification can be different in sign to that of a levels-specification. I provide a condition, based on (i) the aggregate time effect, and (ii) the difference in relative baseline outcome means, for when the sign-switch will occur.
تغییر ورود به سیستم متغیر وابسته هنگام استفاده بی ضرر نیست یک مدل اختلاف در اختلاف (DD).با یک متغیر وابسته در سیاهههای مربوط ، مدت DD تقریب تفاوت متناسب در رشد را ضبط می کند نرخ در گروه ها.همانطور که با هر دو شبیه سازی و دو تجربی نشان می دهم مثالها ، اگر توزیع نتیجه پایه به اندازه کافی متفاوت باشد در سراسر گروه ها ، پارامتر DD برای مشخص کردن ورود به سیستم می تواند در آن متفاوت باشد به مشخصات سطح A امضا کنید.من یک شرط را بر اساس (i) فراهم می کنم اثر زمان کل ، و (ب) تفاوت در نتیجه پایه نسبی یعنی برای زمانی که سوئیچ علامت رخ می دهد.
29,826
We design randomization tests of heterogeneous treatment effects when units interact on a network. Our modeling strategy allows network interference into the potential outcomes framework using the concept of network exposure mapping. We consider three null hypotheses that represent different notions of homogeneous treatment effects, but due to nuisance parameters and the multiplicity of potential outcomes, the hypotheses are not sharp. To address the issue of multiple potential outcomes, we propose a conditional randomization inference method that expands on existing methods. Additionally, we propose two techniques that overcome the nuisance parameter issue. We show that our conditional randomization inference method, combined with either of the proposed techniques for handling nuisance parameters, produces asymptotically valid p-values. We illustrate the testing procedures on a network data set and the results of a Monte Carlo study are also presented.
ما آزمایشات تصادفی از اثرات درمانی ناهمگن را هنگام واحدها طراحی می کنیم تعامل در یک شبکه.استراتژی مدل سازی ما اجازه می دهد تا در شبکه تداخل شود چارچوب نتایج بالقوه با استفاده از مفهوم نقشه برداری در معرض شبکه. ما سه فرضیه تهی را در نظر می گیریم که بیانگر مفاهیم مختلف از آن است اثرات درمانی همگن ، اما به دلیل پارامترهای مزاحم و تعدد نتایج بالقوه ، فرضیه ها تیز نیستند.آدرس مسئله چندین نتیجه بالقوه ، ما یک شرط را پیشنهاد می کنیم روش استنتاج تصادفی که در روشهای موجود گسترش می یابد.علاوه بر این ، ما دو تکنیک پیشنهاد می کنیم که بر مسئله پارامتر مزاحمت غلبه می کنند.ما نشان می دهیم که روش استنباط تصادفی شرطی ما ، همراه با هر یک از تکنیک های پیشنهادی برای دستیابی به پارامترهای مزاحمت ، تولید می کند مقادیر p معتبر بدون علامت.ما روشهای آزمایش را در a نشان می دهیم مجموعه داده های شبکه و نتایج یک مطالعه مونت کارلو نیز ارائه شده است.
29,846
In this article, we study the statistical and asymptotic properties of break-point estimators in nonstationary autoregressive and predictive regression models for testing the presence of a single structural break at an unknown location in the full sample. Moreover, we investigate aspects such as how the persistence properties of covariates and the location of the break-point affects the limiting distribution of the proposed break-point estimators.
در این مقاله ، ما خواص آماری و بدون علامت را مطالعه می کنیم برآوردگرهای نقطه شکست در خودجوش و پیش بینی کننده غیرقانونی مدل های رگرسیون برای آزمایش حضور یک استراحت ساختاری واحد در یک مکان ناشناخته در نمونه کامل.علاوه بر این ، ما جنبه هایی مانند چگونه خواص پایداری متغیرهای متغیر و موقعیت مکانی نقطه شکست بر توزیع محدود کننده نقطه شکست پیشنهادی تأثیر می گذارد برآوردگرها
29,827
Many macroeconomic time series are characterised by nonlinearity both in the conditional mean and in the conditional variance and, in practice, it is important to investigate separately these two aspects. Here we address the issue of testing for threshold nonlinearity in the conditional mean, in the presence of conditional heteroskedasticity. We propose a supremum Lagrange Multiplier approach to test a linear ARMA-GARCH model against the alternative of a TARMA-GARCH model. We derive the asymptotic null distribution of the test statistic and this requires novel results since the difficulties of working with nuisance parameters, absent under the null hypothesis, are amplified by the non-linear moving average, combined with GARCH-type innovations. We show that tests that do not account for heteroskedasticity fail to achieve the correct size even for large sample sizes. Moreover, we show that the TARMA specification naturally accounts for the ubiquitous presence of measurement error that affects macroeconomic data. We apply the results to analyse the time series of Italian strikes and we show that the TARMA-GARCH specification is consistent with the relevant macroeconomic theory while capturing the main features of the Italian strikes dynamics, such as asymmetric cycles and regime-switching.
بسیاری از سری های زمانی کلان اقتصادی با غیرخطی هر دو در میانگین مشروط و در واریانس مشروط و در عمل ، مهم است که به طور جداگانه این دو جنبه را بررسی کنیم.در اینجا ما به مسئله آزمایش غیرخطی آستانه در میانگین مشروط ، در حضور ناهمگونی مشروط.ما یک supremum lagrange پیشنهاد می کنیم رویکرد چند برابر برای آزمایش یک مدل ARMA-GARCH خطی در برابر جایگزین از یک مدل Tarma-Garch.ما توزیع تهی بدون علامت آزمایش را استخراج می کنیم آماری و این نیاز به نتایج جدید از مشکلات کار دارد با پارامترهای مزاحمت ، در این فرضیه تهی وجود ندارد ، توسط تقویت می شود میانگین متحرک غیر خطی ، همراه با نوآوری های نوع Garch.ما نشان می دهیم این تست هایی که برای ناهمگونی به حساب نمی آیند ، نتوانند به دست بیایند اندازه صحیح حتی برای اندازه های بزرگ.علاوه بر این ، ما نشان می دهیم که tarma مشخصات به طور طبیعی برای حضور همه جا از اندازه گیری حساب می شود خطایی که بر داده های کلان اقتصادی تأثیر می گذارد.ما نتایج را برای تجزیه و تحلیل زمان اعمال می کنیم سری اعتصابات ایتالیایی و ما نشان می دهیم که مشخصات Tarma-Garch است سازگار با نظریه کلان مربوطه در حالی که اصلی را ضبط می کند ویژگی های اعتصابات ایتالیایی ، مانند چرخه های نامتقارن و تغییر رژیم.
29,828
These lecture notes represent supplementary material for a short course on time series econometrics and network econometrics. We give emphasis on limit theory for time series regression models as well as the use of the local-to-unity parametrization when modeling time series nonstationarity. Moreover, we present various non-asymptotic theory results for moderate deviation principles when considering the eigenvalues of covariance matrices as well as asymptotics for unit root moderate deviations in nonstationary autoregressive processes. Although not all applications from the literature are covered we also discuss some open problems in the time series and network econometrics literature.
این یادداشت های سخنرانی نشان دهنده مواد تکمیلی برای یک دوره کوتاه است اقتصاد سنجی سری زمانی و اقتصاد سنجی شبکه.ما بر حد محدود تأکید می کنیم نظریه برای مدل های رگرسیون سری زمانی و همچنین استفاده از پارامتر سازی محلی به Unity هنگام مدل سازی سری زمانی عدم ایستگاه. علاوه بر این ، ما نتایج تئوری غیر متعارف مختلف را برای متوسط ​​ارائه می دهیم اصول انحراف هنگام در نظر گرفتن مقادیر ویژه ماتریس های کواریانس به عنوان و همچنین بدون علامت برای انحراف متوسط ​​ریشه واحد در غیر ایستگاه فرآیندهای خودکار.اگرچه همه برنامه های ادبیات نیست تحت پوشش ما همچنین در مورد برخی از مشکلات باز در سری زمان و شبکه بحث می کنیم ادبیات اقتصاد سنجی.
29,829
We propose a method for forecasting individual outcomes and estimating random effects in linear panel data models and value-added models when the panel has a short time dimension. The method is robust, trivial to implement and requires minimal assumptions. The idea is to take a weighted average of time series- and pooled forecasts/estimators, with individual weights that are based on time series information. We show the forecast optimality of individual weights, both in terms of minimax-regret and of mean squared forecast error. We then provide feasible weights that ensure good performance under weaker assumptions than those required by existing approaches. Unlike existing shrinkage methods, our approach borrows the strength - but avoids the tyranny - of the majority, by targeting individual (instead of group) accuracy and letting the data decide how much strength each individual should borrow. Unlike existing empirical Bayesian methods, our frequentist approach requires no distributional assumptions, and, in fact, it is particularly advantageous in the presence of features such as heavy tails that would make a fully nonparametric procedure problematic.
ما روشی را برای پیش بینی نتایج فردی و برآورد تصادفی پیشنهاد می کنیم اثرات در مدل های داده پانل خطی و مدل های ارزش افزوده هنگامی که پانل دارای یک است ابعاد کوتاه مدتاین روش برای اجرای آن قوی ، بی اهمیت است و نیاز دارد فرضیات حداقلایده این است که میانگین وزنی سری زمانی را بگیرید و پیش بینی/برآوردگرهای جمع شده ، با وزن های فردی که بر اساس زمان است اطلاعات سریما پیش بینی بهینه از وزن های فردی را نشان می دهیم ، هر دو از نظر خطای پیش بینی مربع Minimax-Regret و میانگین.سپس ما ارائه می دهیم وزن های امکان پذیر که عملکرد خوب را تحت فرضیات ضعیف تر از آن تضمین می کند موارد مورد نیاز رویکردهای موجود.برخلاف روشهای انقباض موجود ، ما نزدیک شدن به قدرت - اما از استبداد - از اکثریت جلوگیری می کند ، توسط هدف قرار دادن دقت فردی (به جای گروه) و اجازه دادن به داده ها چقدر قدرت هر فرد باید وام بگیرد.برخلاف تجربی موجود روشهای بیزی ، رویکرد مکرر ما نیازی به توزیع ندارد فرضیات ، و در واقع ، از نظر حضور به ویژه سودمند است ویژگی هایی مانند دمهای سنگین که یک روش کاملاً غیر پارامتری را ایجاد می کند مشکل ساز.
29,830
This paper introduces the method of composite quantile factor model for factor analysis in high-dimensional panel data. We propose to estimate the factors and factor loadings across different quantiles of the data, allowing the estimates to better adapt to features of the data at different quantiles while still modeling the mean of the data. We develop the limiting distribution of the estimated factors and factor loadings, and an information criterion for consistent factor number selection is also discussed. Simulations show that the proposed estimator and the information criterion have good finite sample properties for several non-normal distributions under consideration. We also consider an empirical study on the factor analysis for 246 quarterly macroeconomic variables. A companion R package cqrfactor is developed.
در این مقاله روش مدل فاکتور کمیت کامپوزیت برای تجزیه و تحلیل عاملی در داده های پانل با ابعاد بالا.ما پیشنهاد می کنیم فاکتورها و بارگذاری عاملی در مقادیر مختلف داده ها ، اجازه می دهد تخمین ها برای سازگاری بهتر با ویژگی های داده ها در مقادیر مختلف در حالی که هنوز هم میانگین داده ها را مدل می کند.ما توزیع محدود کننده را توسعه می دهیم از عوامل تخمین زده شده و بارگذاری عاملی و معیار اطلاعات برای انتخاب شماره فاکتور ثابت نیز مورد بحث قرار گرفته است.شبیه سازی ها نشان می دهد که برآوردگر پیشنهادی و معیار اطلاعات نمونه محدود خوبی دارند خواص چندین توزیع غیر عادی مورد بررسی.ما همچنین یک مطالعه تجربی در مورد تجزیه و تحلیل عاملی برای 246 فصلنامه در نظر بگیرید متغیرهای کلان اقتصادی.یک بسته C Companion r cqrfactor ایجاد شده است.
29,831
This paper considers identifying and estimating causal effect parameters in a staggered treatment adoption setting -- that is, where a researcher has access to panel data and treatment timing varies across units. We consider the case where untreated potential outcomes may follow non-parallel trends over time across groups. This implies that the identifying assumptions of leading approaches such as difference-in-differences do not hold. We mainly focus on the case where untreated potential outcomes are generated by an interactive fixed effects model and show that variation in treatment timing provides additional moment conditions that can be used to recover a large class of target causal effect parameters. Our approach exploits the variation in treatment timing without requiring either (i) a large number of time periods or (ii) requiring any extra exclusion restrictions. This is in contrast to essentially all of the literature on interactive fixed effects models which requires at least one of these extra conditions. Rather, our approach directly applies in settings where there is variation in treatment timing. Although our main focus is on a model with interactive fixed effects, our idea of using variation in treatment timing to recover causal effect parameters is quite general and could be adapted to other settings with non-parallel trends across groups such as dynamic panel data models.
در این مقاله ، شناسایی و تخمین پارامترهای اثر علی در یک تنظیم پذیرش درمانی مبهم - یعنی جایی که یک محقق به آن دسترسی دارد به داده های پانل و زمان بندی درمانی در واحدها متفاوت است.ما پرونده را در نظر می گیریم جایی که نتایج بالقوه درمان نشده ممکن است با گذشت زمان روندهای غیر موازی را دنبال کند در سراسر گروه هااین بدان معنی است که فرضیات شناسایی پیشرو رویکردهایی مانند اختلاف در اختلافات نگه داشته نمی شوند.ما عمدتاً روی آن تمرکز می کنیم موردی که نتایج بالقوه درمان نشده توسط تعاملی ایجاد می شود مدل جلوه های ثابت و نشان می دهد که تغییر در زمان بندی درمانی فراهم می کند شرایط لحظه اضافی که می تواند برای بازیابی یک کلاس بزرگ از آن استفاده شود پارامترهای اثر علی هدف.رویکرد ما از تغییر در سوء استفاده می کند زمان بندی درمانی بدون نیاز به (i) تعداد زیادی از دوره های زمانی یا (ب) نیاز به محدودیت های اضافی برای محرومیت.این در مقابل است اساساً تمام ادبیات مربوط به مدلهای اثرات ثابت تعاملی که حداقل به یکی از این شرایط اضافی نیاز دارد.در عوض ، رویکرد ما مستقیماً در تنظیماتی که در زمان بندی درمانی تغییر می کند ، اعمال می شود.گرچه مال ما تمرکز اصلی روی یک مدل با جلوه های ثابت تعاملی است ، ایده ما برای استفاده تغییر در زمان درمانی برای بازیابی پارامترهای اثر علی کاملاً کاملاً است به طور کلی و می تواند با سایر تنظیمات با روندهای غیر موازی سازگار باشد گروه هایی مانند مدل های داده پانل پویا.
29,832
This paper introduces unit-specific heterogeneity in panel data threshold regression. Both slope coefficients and threshold parameters are allowed to vary by unit. The heterogeneous threshold parameters manifest via a unit-specific empirical quantile transformation of a common underlying threshold parameter which is estimated efficiently from the whole panel. In the errors, the unobserved heterogeneity of the panel takes the general form of interactive fixed effects. The newly introduced parameter heterogeneity has implications for model identification, estimation, interpretation, and asymptotic inference. The assumption of a shrinking threshold magnitude now implies shrinking heterogeneity and leads to faster estimator rates of convergence than previously encountered. The asymptotic theory for the proposed estimators is derived and Monte Carlo simulations demonstrate its usefulness in small samples. The new model is employed to examine the Feldstein-Horioka puzzle and it is found that the trade liberalization policies of the 80's significantly impacted cross-country capital mobility.
در این مقاله ناهمگونی خاص واحد در آستانه داده های پانل معرفی شده است پسرفت.هر دو ضرایب شیب و پارامترهای آستانه مجاز هستند با واحد متفاوت است.پارامترهای آستانه ناهمگن از طریق a آشکار می شوند تحول کمی تجربی واحد از یک زیربنایی مشترک پارامتر آستانه که از کل پانل به طور مؤثر تخمین زده می شود.در خطاها ، ناهمگونی بدون نظارت از پانل شکل کلی را می گیرد اثرات ثابت تعاملی.ناهمگونی پارامتر تازه معرفی شده است پیامدهای مربوط به شناسایی مدل ، برآورد ، تفسیر و استنباط بدون علامت.فرض یک آستانه کوچک در حال حاضر به معنای کوچک شدن ناهمگونی است و منجر به نرخ تخمین سریعتر از همگرایی از آنچه قبلاً با آن روبرو شده بود.نظریه بدون علامت برای پیشنهادی برآوردگرها مشتق شده و شبیه سازی مونت کارلو سودمندی آن را در آن نشان می دهد نمونه های کوچکاز مدل جدید برای بررسی فلدشتاین-هوریوکا استفاده شده است معما و مشخص می شود که سیاست های آزادسازی تجارت دهه 80 به طور قابل توجهی بر تحرک سرمایه بین کشور تأثیر گذاشت.
29,833
This study investigates the causal interpretation of linear social interaction models in the presence of endogeneity in network formation under a heterogeneous treatment effects framework. We consider an experimental setting in which individuals are randomly assigned to treatments while no interventions are made for the network structure. We show that running a linear regression ignoring network endogeneity is not problematic for estimating the average direct treatment effect. However, it leads to sample selection bias and negative-weights problem for the estimation of the average spillover effect. To overcome these problems, we propose using potential peer treatment as an instrumental variable (IV), which is automatically a valid IV for actual spillover exposure. Using this IV, we examine two IV-based estimands and demonstrate that they have a local average treatment-effect-type causal interpretation for the spillover effect.
این مطالعه به تفسیر علی از اجتماعی خطی بررسی شده است مدل های تعامل در حضور درون زا در تشکیل شبکه تحت a چارچوب اثرات درمانی ناهمگن.ما یک محیط آزمایشی را در نظر می گیریم که در آن افراد به طور تصادفی به درمانها اختصاص می یابند در حالی که هیچ مداخله ای وجود ندارد برای ساختار شبکه ساخته شده اند.ما نشان می دهیم که رگرسیون خطی اجرا می شود نادیده گرفتن درون زا بودن شبکه برای برآورد میانگین مشکل ساز نیست اثر درمانی مستقیم.با این حال ، منجر به تعصب انتخاب نمونه می شود و مشکل وزن منفی برای تخمین میانگین اثر سرریز.به غلبه بر این مشکلات ، ما استفاده از درمان بالقوه همسالان را به عنوان یک پیشنهاد می دهیم متغیر ابزاری (IV) ، که به طور خودکار IV معتبر برای واقعی است قرار گرفتن در معرض سرریز.با استفاده از این IV ، ما دو برآورد مبتنی بر IV را بررسی می کنیم و نشان می دهد که آنها دارای یک علت متوسط ​​درمان و علت از نوع موضعی هستند تفسیر برای اثر سرریز.
29,834
This paper is concerned with identification, estimation, and specification testing in causal evaluation problems when data is selective and/or missing. We leverage recent advances in the literature on graphical methods to provide a unifying framework for guiding empirical practice. The approach integrates and connects to prominent identification and testing strategies in the literature on missing data, causal machine learning, panel data analysis, and more. We demonstrate its utility in the context of identification and specification testing in sample selection models and field experiments with attrition. We provide a novel analysis of a large-scale cluster-randomized controlled teacher's aide trial in Danish schools at grade 6. Even with detailed administrative data, the handling of missing data crucially affects broader conclusions about effects on mental health. Results suggest that teaching assistants provide an effective way of improving internalizing behavior for large parts of the student population.
این مقاله مربوط به شناسایی ، تخمین و مشخصات است آزمایش در مشکلات ارزیابی علیت هنگامی که داده ها انتخابی و/یا از دست رفته است.ما از پیشرفت های اخیر در ادبیات در مورد روش های گرافیکی استفاده کنید تا متحد کردن چارچوب برای هدایت تمرین تجربی.این رویکرد ادغام می شود و به استراتژی های برجسته شناسایی و آزمایش در ادبیات متصل می شود در مورد داده های گمشده ، یادگیری ماشین علیت ، تجزیه و تحلیل داده های پانل و موارد دیگر.ما ابزار خود را در زمینه شناسایی و مشخصات نشان می دهد آزمایش در مدل های انتخاب نمونه و آزمایش های میدانی با جذابیت.ما تجزیه و تحلیل جدیدی از یک خوشه ای در مقیاس بزرگ کنترل شده کنترل شده ارائه می دهد محاکمه دستیار معلم در مدارس دانمارک در کلاس 6. حتی با جزئیات داده های اداری ، رسیدگی به داده های گمشده به طور مهم و گسترده تر تأثیر می گذارد نتیجه گیری در مورد تأثیرات بر سلامت روان.نتایج نشان می دهد که آموزش دستیاران یک روش مؤثر برای بهبود رفتار درونی برای بخش های زیادی از جمعیت دانشجویی.
29,835
The use of regression analysis for processing experimental data is fraught with certain difficulties, which, when models are constructed, are associated with assumptions, and there is a normal law of error distribution and variables are statistically independent. In practice , these conditions do not always take place . This may cause the constructed economic and mathematical model to have no practical value. As an alternative approach to the study of numerical series, according to the author, smoothing of numerical series using Fermat-Torricelli points with subsequent interpolation of these points by series of exponents could be used. The use of exponential series for interpolating numerical series makes it possible to achieve the accuracy of model construction no worse than regression analysis . At the same time, the interpolation by series of exponents does not require the statistical material that the errors of the numerical series obey the normal distribution law, and statistical independence of variables is also not required. Interpolation of numerical series by exponential series represents a "black box" type model, that is, only input parameters and output parameters matter.
استفاده از تجزیه و تحلیل رگرسیون برای پردازش داده های تجربی مملو است با مشکلات خاصی ، که ، وقتی مدل ها ساخته می شوند ، در ارتباط هستند با فرضیات ، و یک قانون عادی توزیع خطا و متغیرها وجود دارد از نظر آماری مستقل هستند.در عمل ، این شرایط همیشه نیست اتفاق افتادن .این ممکن است باعث شده است که مدل اقتصادی و ریاضی ساخته شده هیچ ارزش عملی ندارند.به عنوان یک روش جایگزین برای مطالعه عددی به گفته نویسنده ، سریال با استفاده از سریال عددی استفاده می شود Fermat-Torricelli با درون یابی متعاقب این نقاط توسط می توان از سری نمایش ها استفاده کرد.استفاده از سری نمایی برای سریال عددی در حال دستیابی به صحت این امکان را فراهم می آورد ساخت مدل بدتر از تجزیه و تحلیل رگرسیون نیست.در همان زمان ، درون یابی توسط مجموعه ای از مأمورین به مواد آماری احتیاج ندارد که خطاهای سری عددی از قانون توزیع عادی پیروی می کنند ، و استقلال آماری متغیرها نیز لازم نیست.درون یابی سری عددی توسط سری نمایی نشان دهنده یک مدل نوع "جعبه سیاه" است ، یعنی فقط پارامترهای ورودی و پارامترهای خروجی اهمیت دارند.
29,836
An innovative method is proposed to construct a quantile dependence system for inflation and money growth. By considering all quantiles and leveraging a novel notion of quantile sensitivity, the method allows the assessment of changes in the entire distribution of a variable of interest in response to a perturbation in another variable's quantile. The construction of this relationship is demonstrated through a system of linear quantile regressions. Then, the proposed framework is exploited to examine the distributional effects of money growth on the distributions of inflation and its disaggregate measures in the United States and the Euro area. The empirical analysis uncovers significant impacts of the upper quantile of the money growth distribution on the distribution of inflation and its disaggregate measures. Conversely, the lower and median quantiles of the money growth distribution are found to have a negligible influence. Finally, this distributional impact exhibits variation over time in both the United States and the Euro area.
یک روش نوآورانه برای ساخت یک سیستم وابستگی کمی ارائه شده است برای تورم و رشد پول.با در نظر گرفتن همه مقادیر و استفاده از مفهوم جدید از حساسیت کمی ، این روش ارزیابی می کند تغییر در کل توزیع یک متغیر مورد علاقه در پاسخ به a آشفتگی در کمی متغیر دیگر.ساخت این رابطه از طریق سیستم رگرسیون کمی خطی نشان داده شده است. سپس ، چارچوب پیشنهادی برای بررسی اثرات توزیع مورد سوء استفاده قرار می گیرد رشد پول در توزیع تورم و اقدامات تفکیک آن در ایالات متحده و منطقه یورو.تجزیه و تحلیل تجربی کشف می کند تأثیرات قابل توجهی از مقدار فوقانی توزیع رشد پول بر توزیع تورم و اقدامات تفکیک آن.برعکس ، کمیتهای پایین و متوسط ​​توزیع رشد پول دارای یک است تأثیر ناچیزسرانجام ، این تأثیر توزیع تنوع را نشان می دهد با گذشت زمان در ایالات متحده و منطقه یورو.
29,837
In this paper, we propose a new procedure for unconditional and conditional forecasting in agent-based models. The proposed algorithm is based on the application of amortized neural networks and consists of two steps. The first step simulates artificial datasets from the model. In the second step, a neural network is trained to predict the future values of the variables using the history of observations. The main advantage of the proposed algorithm is its speed. This is due to the fact that, after the training procedure, it can be used to yield predictions for almost any data without additional simulations or the re-estimation of the neural network
در این مقاله ، ما یک روش جدید برای بی قید و شرط و مشروط پیشنهاد می کنیم پیش بینی در مدل های مبتنی بر عامل.الگوریتم پیشنهادی مبتنی بر استفاده از شبکه های عصبی استهلاک شده و از دو مرحله تشکیل شده است.اولین مرحله مجموعه داده های مصنوعی را از مدل شبیه سازی می کند.در مرحله دوم ، عصبی شبکه برای پیش بینی مقادیر آینده متغیرها با استفاده از تاریخ مشاهدات.مزیت اصلی الگوریتم پیشنهادی آن است سرعت.این به این دلیل است که می تواند پس از تمرین باشد برای انجام پیش بینی تقریباً برای هر داده بدون شبیه سازی اضافی یا ارزیابی مجدد شبکه عصبی
29,838
This article discusses recent developments in the literature of quantile time series models in the cases of stationary and nonstationary underline stochastic processes.
در این مقاله به بررسی تحولات اخیر در ادبیات زمان کمی می پردازیم مدل های سری در موارد ثابت و غیر ایستگاه زیر خطی تصادفی فرآیندها
29,847
This paper deals with the endogeneity of firms' entry and exit decisions in demand estimation. Product entry decisions lack a single crossing property in terms of demand unobservables, which causes the inconsistency of conventional methods dealing with selection. We present a novel and straightforward two-step approach to estimate demand while addressing endogenous product entry. In the first step, our method estimates a finite mixture model of product entry accommodating latent market types. In the second step, it estimates demand controlling for the propensity scores of all latent market types. We apply this approach to data from the airline industry.
در این مقاله به درون زایی تصمیمات ورود و خروج بنگاهها می پردازد برآورد تقاضاتصمیمات ورودی محصول فاقد یک ملک عبور واحد است شرایط تقاضا غیرقابل کنترل ، که باعث ناسازگاری متعارف می شود روشهای مقابله با انتخاب.ما یک رمان و ساده دو مرحله ای ارائه می دهیم رویکرد برای برآورد تقاضا هنگام پرداختن به ورود محصول درون زا.در مرحله اول ، روش ما یک مدل مخلوط محدود از ورود محصول را تخمین می زند انواع بازار نهفته.در مرحله دوم ، تقاضا را تخمین می زند کنترل نمرات تمایل به انواع بازار نهفته.ما این را اعمال می کنیم رویکرد به داده های صنعت هواپیمایی.
29,839
In B2B markets, value-based pricing and selling has become an important alternative to discounting. This study outlines a modeling method that uses customer data (product offers made to each current or potential customer, features, discounts, and customer purchase decisions) to estimate a mixed logit choice model. The model is estimated via hierarchical Bayes and machine learning, delivering customer-level parameter estimates. Customer-level estimates are input into a nonlinear programming next-offer maximization problem to select optimal features and discount level for customer segments, where segments are based on loyalty and discount elasticity. The mixed logit model is integrated with economic theory (the random utility model), and it predicts both customer perceived value for and response to alternative future sales offers. The methodology can be implemented to support value-based pricing and selling efforts. Contributions to the literature include: (a) the use of customer-level parameter estimates from a mixed logit model, delivered via a hierarchical Bayes estimation procedure, to support value-based pricing decisions; (b) validation that mixed logit customer-level modeling can deliver strong predictive accuracy, not as high as random forest but comparing favorably; and (c) a nonlinear programming problem that uses customer-level mixed logit estimates to select optimal features and discounts.
در بازارهای B2B ، قیمت گذاری و فروش مبتنی بر ارزش به یک مهم تبدیل شده است جایگزین برای تخفیف.این مطالعه یک روش مدل سازی را تشریح می کند که از آن استفاده می کند داده های مشتری (پیشنهادات محصول برای هر مشتری فعلی یا بالقوه ، ویژگی ها ، تخفیف ها و تصمیمات خرید مشتری) برای تخمین یک ورود به سیستم مختلط مدل انتخاب.این مدل از طریق Bayes و Machine سلسله مراتبی تخمین زده می شود یادگیری ، ارائه برآورد پارامتر سطح مشتری.سطح مشتری تخمین ها به حداکثر رساندن برنامه نویسی غیرخطی وارد می شوند مشکل برای انتخاب ویژگی های بهینه و سطح تخفیف برای بخش های مشتری ، جایی که بخش ها مبتنی بر وفاداری و خاصیت ارتجاعی تخفیف هستند.ورود به سیستم مختلط مدل با تئوری اقتصادی (مدل ابزار تصادفی) یکپارچه شده است ، و IT هر دو ارزش درک شده مشتری را برای و پاسخ به آینده جایگزین پیش بینی می کند پیشنهادات فروشاین روش را می توان برای پشتیبانی از قیمت گذاری مبتنی بر ارزش اجرا کرد و فروش تلاش مشارکت در ادبیات عبارتند از: (الف) استفاده از مشتری برآورد پارامتر از یک مدل ورود به سیستم مختلط ، از طریق سلسله مراتبی تحویل داده می شود روش تخمین بیز ، برای پشتیبانی از تصمیمات قیمت گذاری مبتنی بر ارزش.(ب) اعتبارسنجی که مدل سازی سطح مشتری با ورود به سیستم می تواند قوی باشد دقت پیش بینی کننده ، نه به اندازه جنگل تصادفی بلکه مقایسه مطلوب.وت (ج) یک مشکل برنامه نویسی غیرخطی که از ورود به سیستم مختلط در سطح مشتری استفاده می کند تخمین برای انتخاب ویژگی ها و تخفیف های بهینه.
29,840
This study evaluated three Artificial Intelligence (AI) large language model (LLM) enabled platforms - ChatGPT, BARD, and Bing AI - to answer an undergraduate finance exam with 20 quantitative questions across various difficulty levels. ChatGPT scored 30 percent, outperforming Bing AI, which scored 20 percent, while Bard lagged behind with a score of 15 percent. These models faced common challenges, such as inaccurate computations and formula selection. While they are currently insufficient for helping students pass the finance exam, they serve as valuable tools for dedicated learners. Future advancements are expected to overcome these limitations, allowing for improved formula selection and accurate computations and potentially enabling students to score 90 percent or higher.
این مطالعه سه مدل هوش مصنوعی (AI) را ارزیابی کرده است (LLM) سیستم عامل های فعال شده - Chatgpt ، Bard و Bing Ai - برای پاسخ به یک آزمون مالی کارشناسی با 20 سؤال کمی در مختلف سطح دشواریChatgpt 30 درصد را از آن خود کرد و از Bing AI بهتر عمل کرد ، که 20 درصد به ثمر رساند ، در حالی که برد با 15 درصد از عقب عقب افتاد.اینها مدل ها با چالش های متداول مانند محاسبات نادرست و فرمول روبرو بودند انتخاب.در حالی که آنها در حال حاضر برای کمک به دانش آموزان برای عبور از این کشور کافی نیستند آزمون مالی ، آنها به عنوان ابزاری ارزشمند برای زبان آموزان اختصاصی خدمت می کنند.آینده پیش بینی می شود پیشرفت ها بر این محدودیت ها غلبه کنند و امکان بهبودی را فراهم می آورد انتخاب فرمول و محاسبات دقیق و دانش آموزان به طور بالقوه امکان پذیر است برای نمره 90 درصد یا بالاتر.
29,841
When multi-dimensional instruments are used to identify and estimate causal effects, the monotonicity condition may not hold due to heterogeneity in the population. Under a partial monotonicity condition, which only requires the monotonicity to hold for each instrument separately holding all the other instruments fixed, the 2SLS estimand can still be a positively weighted average of LATEs. In this paper, we provide a simple nonparametric test for partial instrument monotonicity. We demonstrate the good finite sample properties of the test through Monte Carlo simulations. We then apply the test to monetary incentives and distance from results centers as instruments for the knowledge of HIV status.
هنگامی که از ابزارهای چند بعدی برای شناسایی و تخمین علیت استفاده می شود اثرات ، شرایط یکنواختی ممکن است به دلیل ناهمگونی در جمعیتتحت یک شرایط یکنواختی جزئی ، که فقط به آن نیاز دارد یکنواختی برای نگه داشتن برای هر ساز به طور جداگانه در حال نگه داشتن سایر موارد ابزارهای ثابت ، برآورد 2SLS هنوز هم می تواند میانگین وزنی مثبت باشد از Latesدر این مقاله ، ما یک آزمایش غیر پارامتری ساده برای جزئی ارائه می دهیم یکنواختی ابزار.ما خواص نمونه محدود خوب را نشان می دهیم آزمایش از طریق شبیه سازی مونت کارلو.سپس آزمون را برای پولی اعمال می کنیم مشوق ها و فاصله از مراکز نتایج به عنوان ابزار دانش وضعیت HIV
29,842
Linear instrumental variable regressions are widely used to estimate causal effects. Many instruments arise from the use of "technical" instruments and more recently from the empirical strategy of "judge design". This paper surveys and summarizes ideas from recent literature on estimation and statistical inferences with many instruments. We discuss how to assess the strength of the instruments and how to conduct weak identification-robust inference under heteroscedasticity. We establish new results for a jack-knifed version of the Lagrange Multiplier (LM) test statistic. Many exogenous regressors arise often in practice to ensure the validity of the instruments. We extend the weak-identification-robust tests to settings with both many exogenous regressors and many instruments. We propose a test that properly partials out many exogenous regressors while preserving the re-centering property of the jack-knife. The proposed tests have uniformly correct size and good power properties.
رگرسیون متغیر ابزاری خطی به طور گسترده ای برای برآورد علیت استفاده می شود اثراتبسیاری از ابزارها از استفاده از ابزارهای "فنی" ناشی می شوند و اخیراً از استراتژی تجربی "طراحی قاضی".این مقاله بررسی می کند و ایده های ادبیات اخیر در مورد تخمین و آماری را خلاصه می کند استنتاج با بسیاری از سازها.ما در مورد چگونگی ارزیابی قدرت از ابزارها و نحوه انجام استنتاج شناسایی ضعیف در زیر ناهمگونی.ما نتایج جدیدی را برای نسخه جک گره خورده از آن ایجاد می کنیم آمار آزمون Lagrange Multiplier (LM).بسیاری از رگرسیون های اگزوژن اغلب بوجود می آیند در عمل برای اطمینان از اعتبار ابزارها.ما گسترش می دهیم آزمایشات-شناسایی ضعیف به تنظیمات با هر دو اگزوژن رگرسیون و بسیاری از ابزارها.ما آزمایشی را پیشنهاد می کنیم که به درستی جزئی از آن خارج شود بسیاری جک چاقوتست های پیشنهادی دارای اندازه یکنواخت و قدرت خوب هستند خواص
29,843
Conventional methods of cluster-robust inference are inconsistent in the presence of unignorably large clusters. We formalize this claim by establishing a necessary and sufficient condition for the consistency of the conventional methods. We find that this condition for the consistency is rejected for a majority of empirical research papers. In this light, we propose a novel score subsampling method which is robust even under the condition that fails the conventional method. Simulation studies support these claims. With real data used by an empirical paper, we showcase that the conventional methods conclude significance while our proposed method concludes insignificance.
روشهای متعارف استنباط خوشه ای-روبست در حضور خوشه های غیرعادی بزرگ.ما این ادعا را با تأسیس رسمی می کنیم یک شرط لازم و کافی برای قوام متعارف مواد و روش ها.ما می دانیم که این شرط برای قوام برای a رد می شود اکثر مقالات تحقیقاتی تجربی.در این نور ، ما یک نمره جدید پیشنهاد می کنیم روش نمونه برداری که حتی تحت شرایطی که از بین می رود قوی است روش متعارف.مطالعات شبیه سازی از این ادعاها پشتیبانی می کند.با داده های واقعی توسط یک مقاله تجربی استفاده می شود ، ما نشان می دهیم که روش های متعارف نتیجه می گیرند اهمیت در حالی که روش پیشنهادی ما ناچیز نتیجه می گیرد.
29,844
In this work, we further explore the forecasting ability of a recently proposed normalizing and variance-stabilizing (NoVaS) transformation after wrapping exogenous variables. In practice, especially in the area of financial econometrics, extra knowledge such as fundamentals- and sentiments-based information could be beneficial to improve the prediction accuracy of market volatility if they are incorporated into the forecasting process. In a classical approach, people usually apply GARCHX-type methods to include the exogenous variables. Being a Model-free prediction method, NoVaS has been shown to be more accurate and stable than classical GARCH-type methods. We are interested in whether the novel NoVaS method can also sustain its superiority after exogenous covariates are taken into account. We provide the NoVaS transformation based on GARCHX model and then claim the corresponding prediction procedure with exogenous variables existing. Also, simulation studies verify that the NoVaS method still outperforms traditional methods, especially for long-term time aggregated predictions.
در این کار ، ما بیشتر توانایی پیش بینی یک اخیراً را بررسی می کنیم تحول عادی سازی و تثبیت واریانس (NOVAS) پس از بسته بندی متغیرهای اگزوژن.در عمل ، به ویژه در حوزه مالی اقتصاد سنجی ، دانش اضافی مانند اصول و مبتنی بر احساسات اطلاعات می توانند برای بهبود صحت پیش بینی بازار مفید باشند نوسانات اگر در فرآیند پیش بینی گنجانیده شوند.در یک رویکرد کلاسیک ، افراد معمولاً از روشهای Garchx استفاده می کنند تا شامل شود متغیرهای اگزوژن.نوا به عنوان یک روش پیش بینی بدون مدل ، نشان داده شده است دقیق تر و پایدارتر از روشهای کلاسیک Garch.ما هستیم علاقه مند به اینکه آیا روش رمان Novas نیز می تواند برتری خود را حفظ کند پس از در نظر گرفتن متغیرهای اگزوژن.ما نوا ها را ارائه می دهیم تحول بر اساس مدل GARCHX و سپس ادعای مربوطه روش پیش بینی با متغیرهای اگزوژن موجود.همچنین ، شبیه سازی مطالعات تأیید می کنند که روش NOVAS هنوز از روشهای سنتی بهتر است ، به خصوص برای پیش بینی های جمع شده طولانی مدت.
29,845
Policy researchers using synthetic control methods typically choose a donor pool in part by using policy domain expertise so the untreated units are most like the treated unit in the pre intervention period. This potentially leaves estimation open to biases, especially when researchers have many potential donors. We compare how functional principal component analysis synthetic control, forward-selection, and the original synthetic control method select donors. To do this, we use Gaussian Process simulations as well as policy case studies from West German Reunification, a hotel moratorium in Barcelona, and a sugar-sweetened beverage tax in San Francisco. We then summarize the implications for policy research and provide avenues for future work.
محققان سیاست با استفاده از روشهای کنترل مصنوعی معمولاً یک اهدا کننده را انتخاب می کنند استخر در بخشی با استفاده از تخصص دامنه خط مشی ، بنابراین واحدهای درمان نشده بیشتر هستند مانند واحد تحت درمان در دوره قبل از مداخله.این به طور بالقوه می رود تخمین برای تعصبات باز است ، به ویژه هنگامی که محققان پتانسیل زیادی دارند اهدا کنندگانما مقایسه می کنیم که چگونه تجزیه و تحلیل مؤلفه اصلی عملکرد مصنوعی کنترل ، انتخاب رو به جلو و روش اصلی کنترل مصنوعی را انتخاب کنید اهدا کنندگانبرای انجام این کار ، ما از شبیه سازی فرآیند گاوسی و همچنین مورد سیاست استفاده می کنیم مطالعات مربوط به اتحاد آلمان غربی ، یک مهلت قانونی هتل در بارسلونا ، و الف مالیات نوشیدنی شیرین شکر در سانفرانسیسکو.سپس خلاصه می کنیم پیامدهای مربوط به تحقیقات سیاست و ارائه راه هایی برای کارهای آینده.
29,851
Quantitative models are an important decision-making factor for policy makers and investors. Predicting an economic recession with high accuracy and reliability would be very beneficial for the society. This paper assesses machine learning technics to predict economic recessions in United States using market sentiment and economic indicators (seventy-five explanatory variables) from Jan 1986 - June 2022 on a monthly basis frequency. In order to solve the issue of missing time-series data points, Autoregressive Integrated Moving Average (ARIMA) method used to backcast explanatory variables. Analysis started with reduction in high dimensional dataset to only most important characters using Boruta algorithm, correlation matrix and solving multicollinearity issue. Afterwards, built various cross-validated models, both probability regression methods and machine learning technics, to predict recession binary outcome. The methods considered are Probit, Logit, Elastic Net, Random Forest, Gradient Boosting, and Neural Network. Lastly, discussed different models performance based on confusion matrix, accuracy and F1 score with potential reasons for their weakness and robustness.
مدلهای کمی یک عامل مهم تصمیم گیری برای سازندگان سیاستگذاران است و سرمایه گذارانپیش بینی رکود اقتصادی با دقت بالا و قابلیت اطمینان برای جامعه بسیار سودمند خواهد بود.این مقاله ارزیابی می کند تکنیک یادگیری ماشین برای پیش بینی رکود اقتصادی در ایالات متحده با استفاده از احساسات بازار و شاخص های اقتصادی (هفتاد و پنج متغیر توضیحی) از ژانویه 1986 - ژوئن 2022 به صورت فرکانس ماهانه.به منظور حل مسئله نقاط داده های سریال زمان از دست رفته ، حرکت یکپارچه خودجوش روش متوسط ​​(ARIMA) برای استفاده از متغیرهای توضیحی استفاده می شود.تجزیه و تحلیل آغاز شد با کاهش در مجموعه داده های ابعادی بالا فقط به مهمترین شخصیت ها با استفاده از الگوریتم Boruta ، ماتریس همبستگی و حل مسئله چند قطبی. پس از آن ، مدل های مختلف معتبر متقاطع ، هر دو رگرسیون احتمال را ساختند روش ها و تکنیک های یادگیری ماشین ، برای پیش بینی نتیجه باینری رکود اقتصادی.در روش های در نظر گرفته شده عبارتند از: Probit ، Logit ، Net elastic ، جنگل تصادفی ، شیب تقویت و شبکه عصبی.در آخر ، در مورد عملکرد مدل های مختلف بحث شده است بر اساس ماتریس سردرگمی ، دقت و نمره F1 با دلایل بالقوه برای ضعف و استحکام آنها.
29,852
Network diffusion models are applicable to many socioeconomic interactions, yet network interaction is hard to observe or measure. Whenever the diffusion process is unobserved, the number of possible realizations of the latent matrix that captures agents' diffusion statuses grows exponentially with the size of network. Due to interdependencies, the log likelihood function can not be factorized in individual components. As a consequence, exact estimation of latent diffusion models with more than one round of interaction is computationally infeasible. In the present paper, I propose a trimming estimator that enables me to establish and maximize an approximate log likelihood function that almost exactly identifies the peak of the true log likelihood function whenever no more than one third of eligible agents are subject to trimming.
مدل های انتشار شبکه برای بسیاری از فعل و انفعالات اقتصادی و اقتصادی کاربرد دارند ، با این حال ، تعامل شبکه مشاهده یا اندازه گیری آن دشوار است.هر وقت انتشار فرآیند بدون نظارت است ، تعداد تحقق احتمالی ماتریس نهفته که وضعیت انتشار عوامل را به صورت نمایی با اندازه رشد می کند شبکه.با توجه به وابستگی های متقابل ، عملکرد احتمال ورود نمی تواند باشد در مؤلفه های فردی عامل شده است.در نتیجه ، تخمین دقیق از مدل های انتشار نهفته با بیش از یک دور تعامل است از نظر محاسباتی غیرقابل نفوذ است.در مقاله حاضر ، من پیرایش را پیشنهاد می کنم برآوردگرهایی که به من امکان می دهد تا یک گزارش تقریبی را ایجاد و به حداکثر برسانم عملکرد احتمال که تقریباً اوج ورود واقعی را مشخص می کند عملکرد احتمال هر زمان که بیش از یک سوم عوامل واجد شرایط نباشد موضوع پیرایش
29,853
According to standard econometric theory, Maximum Likelihood estimation (MLE) is the efficient estimation choice, however, it is not always a feasible one. In network diffusion models with unobserved signal propagation, MLE requires integrating out a large number of latent variables, which quickly becomes computationally infeasible even for moderate network sizes and time horizons. Limiting the model time horizon on the other hand entails loss of important information while approximation techniques entail a (small) error that. Searching for a viable alternative is thus potentially highly beneficial. This paper proposes two estimators specifically tailored to the network diffusion model of partially observed adoption and unobserved network diffusion.
مطابق نظریه استاندارد اقتصادسنجی ، برآورد حداکثر احتمال (MLE) انتخاب تخمین کارآمد است ، با این حال ، همیشه یک امکان پذیر نیست. در مدل های انتشار شبکه با انتشار سیگنال بدون نظارت ، MLE نیاز دارد ادغام تعداد زیادی از متغیرهای نهفته ، که به سرعت تبدیل می شود محاسباتی حتی برای اندازه های شبکه متوسط ​​و افق زمانی. محدود کردن افق زمانی مدل از طرف دیگر مستلزم از بین رفتن مهم است اطلاعات در حالی که تکنیک های تقریب مستلزم یک خطای (کوچک) است که. بنابراین جستجوی یک جایگزین مناسب از این رو به طور بالقوه بسیار مفید است.این مقاله دو برآوردگر را به طور خاص متناسب با انتشار شبکه پیشنهاد می کند مدل پذیرش جزئی مشاهده شده و انتشار شبکه بدون نظارت.
29,854
Montiel Olea and Pflueger (2013) proposed the effective F-statistic as a test for weak instruments in terms of the Nagar bias of the two-stage least squares (2SLS) estimator relative to a benchmark worst-case bias. We show that their methodology applies to a class of linear generalized method of moments (GMM) estimators with an associated class of generalized effective F-statistics. The standard nonhomoskedasticity robust F-statistic is a member of this class. The associated GMMf estimator, with the extension f for first-stage, is a novel and unusual estimator as the weight matrix is based on the first-stage residuals. As the robust F-statistic can also be used as a test for underidentification, expressions for the calculation of the weak-instruments critical values in terms of the Nagar bias of the GMMf estimator relative to the benchmark simplify and no simulation methods or Patnaik (1949) distributional approximations are needed. In the grouped-data IV designs of Andrews (2018), where the robust F-statistic is large but the effective F-statistic is small, the GMMf estimator is shown to behave much better in terms of bias than the 2SLS estimator, as expected by the weak-instruments test results.
Montiel Olea و Pflueger (2013) F-Statistic مؤثر را به عنوان یک آزمایش پیشنهاد دادند برای ابزارهای ضعیف از نظر تعصب نگار از حداقل مربعات دو مرحله ای (2SL) برآوردگر نسبت به معیار بدترین حالت.ما نشان می دهیم که آنها روش شناسی برای یک کلاس از روش تعمیم یافته خطی از لحظات (GMM) اعمال می شود برآوردگرها با یک کلاس مرتبط از آمار F-Statistics مؤثر.در F-Statistic Statistic Strong-stress عضو این کلاس است.در برآوردگر GMMF مرتبط ، با پسوند F برای مرحله اول ، یک رمان است و برآوردگر غیرمعمول به عنوان ماتریس وزن بر اساس باقیمانده های مرحله اول است. از آنجا که F-Statistic قوی نیز می تواند به عنوان آزمایشی برای شناسایی زیر استفاده شود ، عبارات محاسبه مقادیر بحرانی ضعف در شرایط تعصب نگار از برآوردگر GMMF نسبت به معیار ساده و بدون روش شبیه سازی یا پاتنایک (1949) توزیع تقریب مورد نیاز است.در طرح های گروه بندی شده IV از اندروز (2018) ، جایی که F-Statistic قوی است اما F-Statistic مؤثر است ، برآوردگر GMMF از نظر تعصب نسبت به تعصب بسیار بهتر رفتار می کند برآوردگر 2SLS ، همانطور که توسط نتایج آزمایش ضعف انتظار می رود.
29,855
This paper extends the design-based framework to settings with multi-way cluster dependence, and shows how multi-way clustering can be justified when clustered assignment and clustered sampling occurs on different dimensions, or when either sampling or assignment is multi-way clustered. Unlike one-way clustering, the plug-in variance estimator in multi-way clustering is no longer conservative, so valid inference either requires an assumption on the correlation of treatment effects or a more conservative variance estimator. Simulations suggest that the plug-in variance estimator is usually robust, and the conservative variance estimator is often too conservative.
این مقاله چارچوب مبتنی بر طراحی را برای تنظیمات با چند راه گسترش می دهد وابستگی خوشه ای ، و نشان می دهد که چگونه خوشه بندی چند طرفه می تواند توجیه شود تکالیف خوشه ای و نمونه گیری خوشه ای در ابعاد مختلف رخ می دهد ، یا هنگامی که نمونه گیری یا تکلیف چند طرفه خوشه بندی می شود.برخلاف یک طرفه خوشه بندی ، برآوردگر واریانس افزونه در خوشه بندی چند طرفه دیگر نیست محافظه کار ، بنابراین استنتاج معتبر یا نیاز به فرض بر روی همبستگی اثرات درمانی یا برآوردگر واریانس محافظه کارانه تر. شبیه سازی ها نشان می دهد که برآوردگر واریانس افزونه معمولاً قوی است و برآوردگر واریانس محافظه کارانه اغلب بسیار محافظه کارانه است.
29,856
This paper proposes a local projection residual bootstrap method to construct confidence intervals for impulse response coefficients of AR(1) models. Our bootstrap method is based on the local projection (LP) approach and a residual bootstrap procedure. We present theoretical results for our bootstrap method and proposed confidence intervals. First, we prove the uniform consistency of the LP-residual bootstrap over a large class of AR(1) models that allow for a unit root. Then, we prove the asymptotic validity of our confidence intervals over the same class of AR(1) models. Finally, we show that the LP-residual bootstrap provides asymptotic refinements for confidence intervals on a restricted class of AR(1) models relative to those required for the uniform consistency of our bootstrap.
در این مقاله یک روش بوت استرپ باقیمانده پیش بینی محلی برای ساخت ارائه شده است فواصل اطمینان برای ضرایب پاسخ ضربه از مدل های AR (1).ما روش bootstrap بر اساس رویکرد پیش بینی محلی (LP) و یک باقیمانده است روش bootstrap.ما نتایج نظری را برای روش bootstrap خود ارائه می دهیم و فواصل اطمینان را پیشنهاد کرد.اول ، ما قوام یکنواخت را اثبات می کنیم بوت استرپ مقیم LP در یک کلاس بزرگ از مدل های AR (1) که امکان پذیر است ریشه واحد.سپس ، ما اعتبار بدون علامت فواصل اطمینان خود را اثبات می کنیم بیش از همان کلاس از مدل های AR (1).سرانجام ، ما نشان می دهیم که LP-Residual bootstrap اصلاحات بدون علامت را برای فواصل اطمینان در a فراهم می کند کلاس محدود از مدل های AR (1) نسبت به مدل های مورد نیاز برای لباس قوام بوت استرپ ما.
29,867
In discrete choice panel data, the estimation of average effects is crucial for quantifying the effect of covariates, and for policy evaluation and counterfactual analysis. This task is challenging in short panels with individual-specific effects due to partial identification and the incidental parameter problem. While consistent estimation of the identified set is possible, it generally requires very large sample sizes, especially when the number of support points of the observed covariates is large, such as when the covariates are continuous. In this paper, we propose estimating outer bounds on the identified set of average effects. Our bounds are easy to construct, converge at the parametric rate, and are computationally simple to obtain even in moderately large samples, independent of whether the covariates are discrete or continuous. We also provide asymptotically valid confidence intervals on the identified set. Simulation studies confirm that our approach works well and is informative in finite samples. We also consider an application to labor force participation.
در داده های پانل انتخاب گسسته ، تخمین اثرات متوسط ​​بسیار مهم است برای تعیین کمیت اثر متغیرها ، و برای ارزیابی سیاست و تجزیه و تحلیل ضد خلاف.این کار در پانل های کوتاه با چالش برانگیز است اثرات خاص فردی به دلیل شناسایی جزئی و حادثه مشکل پارامتردر حالی که برآورد مداوم مجموعه مشخص شده است ممکن است ، به طور کلی به اندازه نمونه های بسیار بزرگی نیاز دارد ، به خصوص هنگامی که تعداد نقاط پشتیبانی متغیرهای مشاهده شده بزرگ است ، مانند زمان متغیرهای متغیر مداوم هستند.در این مقاله ، ما تخمین مرزهای بیرونی را پیشنهاد می کنیم مجموعه مشخص شده از اثرات متوسط.مرزهای ما آسان است ، با سرعت پارامتری همگرا شوید و از نظر محاسباتی ساده است در نمونه های نسبتاً بزرگ ، مستقل از اینکه متغیرها گسسته هستند یا مداومما همچنین فواصل اعتماد به نفس معتبر بدون علامت را در مجموعه شناسایی شدهمطالعات شبیه سازی تأیید می کند که رویکرد ما به خوبی کار می کند و است آموزنده در نمونه های محدود.ما همچنین درخواست نیروی کار را در نظر می گیریم مشارکت.
29,857
Even though dyadic regressions are widely used in empirical applications, the (asymptotic) properties of estimation methods only began to be studied recently in the literature. This paper aims to provide in a step-by-step manner how U-statistics tools can be applied to obtain the asymptotic properties of pairwise differences estimators for a two-way fixed effects model of dyadic interactions. More specifically, we first propose an estimator for the model that relies on pairwise differencing such that the fixed effects are differenced out. As a result, the summands of the influence function will not be independent anymore, showing dependence on the individual level and translating to the fact that the usual law of large numbers and central limit theorems do not straightforwardly apply. To overcome such obstacles, we show how to generalize tools of U-statistics for single-index variables to the double-indices context of dyadic datasets. A key result is that there can be different ways of defining the Hajek projection for a directed dyadic structure, which will lead to distinct, but equivalent, consistent estimators for the asymptotic variances. The results presented in this paper are easily extended to non-linear models.
حتی اگر رگرسیون های dyadic به طور گسترده ای در کاربردهای تجربی مورد استفاده قرار می گیرند ، (بدون علامت) خصوصیات روشهای تخمین فقط اخیراً مورد مطالعه قرار گرفت در ادبیاتاین مقاله با هدف ارائه به صورت گام به گام چگونه است ابزارهای آماری U را می توان برای به دست آوردن خواص بدون علامت استفاده کرد برآوردگرهای تفاوت های زوج برای یک مدل جلوه های ثابت دو طرفه از رنگ فعل و انفعالات.به طور خاص ، ما ابتدا یک مدل را برای مدل پیشنهاد می کنیم که به تفاوت های زوجی متکی است به گونه ای که جلوه های ثابت وجود دارد متفاوت استدر نتیجه ، تابستان های عملکرد تأثیر نخواهد داشت دیگر مستقل باشید ، وابستگی به سطح فردی و ترجمه به این واقعیت که قانون معمول تعداد زیاد و محدودیت مرکزی است قضیه ها به طور ساده اعمال نمی شوند.برای غلبه بر چنین موانعی ، ما نشان می دهیم نحوه تعمیم ابزارهای آماری U برای متغیرهای تک شاخص به زمینه دوتایی از مجموعه داده های dyadic.نتیجه کلیدی این است که می تواند وجود داشته باشد روشهای مختلف تعریف پیش بینی هاجک برای یک رنگ آمیزی شده ساختار ، که منجر به برآوردگرهای متمایز اما معادل آن خواهد شد برای واریانس های بدون علامت.نتایج ارائه شده در این مقاله به راحتی است به مدلهای غیر خطی گسترش یافته است.
29,858
We consider instrumental variable estimation of the proportional hazards model of Cox (1972). The instrument and the endogenous variable are discrete but there can be (possibly continuous) exogenous covariables. By making a rank invariance assumption, we can reformulate the proportional hazards model into a semiparametric version of the instrumental variable quantile regression model of Chernozhukov and Hansen (2005). A na\"ive estimation approach based on conditional moment conditions generated by the model would lead to a highly nonconvex and nonsmooth objective function. To overcome this problem, we propose a new presmoothing methodology. First, we estimate the model nonparametrically - and show that this nonparametric estimator has a closed-form solution in the leading case of interest of randomized experiments with one-sided noncompliance. Second, we use the nonparametric estimator to generate ``proxy'' observations for which exogeneity holds. Third, we apply the usual partial likelihood estimator to the ``proxy'' data. While the paper focuses on the proportional hazards model, our presmoothing approach could be applied to estimate other semiparametric formulations of the instrumental variable quantile regression model. Our estimation procedure allows for random right-censoring. We show asymptotic normality of the resulting estimator. The approach is illustrated via simulation studies and an empirical application to the Illinois
ما برآورد متغیر ابزاری خطرات متناسب را در نظر می گیریم مدل کاکس (1972).ابزار و متغیر درون زا گسسته هستند اما می توان متغیرهای اگزوژن (احتمالاً مداوم) وجود داشت.با ایجاد رتبه بندی فرض عدم وجود ، ما می توانیم مدل خطرات متناسب را به یک تغییر دهیم نسخه نیمه پارامتری مدل رگرسیون کمی متغیر ابزاری از چرنوزوکوف و هانسن (2005).یک رویکرد تخمین na \ "مبتنی بر شرایط لحظه ای مشروط که توسط مدل ایجاد می شود به یک بسیار منجر می شود عملکرد هدف nonconvex و nonsmooth.برای غلبه بر این مشکل ، ما یک روش پیش بینی جدید را پیشنهاد دهید.اول ، ما مدل را تخمین می زنیم غیرپارامتری - و نشان می دهد که این برآوردگر غیر پارامتری دارای یک است راه حل فرم بسته در مورد پیشرو از علاقه آزمایش های تصادفی با عدم سازگاری یک طرفه.دوم ، ما از برآوردگر غیرپارامتری استفاده می کنیم مشاهدات "پروکسی" را ایجاد کنید که اگزوژنیت در آن وجود دارد.سوم ، ما اعمال می کنیم برآوردگر احتمال جزئی معمول به داده های "پروکسی".در حالی که مقاله تمرکز بر روی مدل خطرات متناسب ، رویکرد پیش بینی ما می تواند باشد برای برآورد سایر فرمولاسیون های نیمهرامتری ابزاری اعمال می شود مدل رگرسیون کمی متغیر.روش تخمین ما امکان تصادفی را فراهم می کند سانسور راستما عادی بودن بدون علامت از برآوردگر حاصل را نشان می دهیم.در رویکرد از طریق مطالعات شبیه سازی و یک کاربرد تجربی در ایلینویز
29,859
This paper develops a simple two-stage variational Bayesian algorithm to estimate panel spatial autoregressive models, where N, the number of cross-sectional units, is much larger than T, the number of time periods without restricting the spatial effects using a predetermined weighting matrix. We use Dirichlet-Laplace priors for variable selection and parameter shrinkage. Without imposing any a priori structures on the spatial linkages between variables, we let the data speak for themselves. Extensive Monte Carlo studies show that our method is super-fast and our estimated spatial weights matrices strongly resemble the true spatial weights matrices. As an illustration, we investigate the spatial interdependence of European Union regional gross value added growth rates. In addition to a clear pattern of predominant country clusters, we have uncovered a number of important between-country spatial linkages which are yet to be documented in the literature. This new procedure for estimating spatial effects is of particular relevance for researchers and policy makers alike.
این مقاله یک الگوریتم ساده دو مرحله ای بیزی را به پانل مدلهای خودجوش مکانی را تخمین بزنید ، جایی که n ، تعداد آنها واحدهای مقطعی ، بسیار بزرگتر از t ، تعداد دوره های زمانی است بدون محدود کردن اثرات مکانی با استفاده از یک ماتریس وزن از پیش تعیین شده. ما برای انتخاب متغیر و انقباض پارامتر از Preors Dirichlet-Laplace استفاده می کنیم. بدون تحمیل هیچ یک از ساختارهای پیشینی در پیوندهای مکانی بین متغیرها ، ما اجازه می دهیم داده ها برای خودشان صحبت کنند.مطالعات گسترده مونت کارلو نشان می دهد که روش ما بسیار سریع است و ماتریس های تخمین زده شده مکانی ما به شدت شبیه ماتریس های وزن مکانی واقعی است.به عنوان یک تصویر ، ما وابستگی متقابل مکانی به ارزش ناخالص منطقه ای اتحادیه اروپا را بررسی کنید نرخ رشد اضافه شده است.علاوه بر الگوی مشخصی از کشور غالب خوشه ها ، ما تعدادی از مهم بین کشور را کشف کرده ایم پیوندهایی که هنوز در ادبیات ثبت نشده اند.این روش جدید برای برآورد اثرات مکانی برای محققان و سیاست گذاران به طور یکسان.
29,860
A growing literature measures "belief effects" -- that is, the causal effect of a change in beliefs on actions -- using information provision experiments, where the provision of information is used as an instrument for beliefs. In experimental designs with a passive control group, and under heterogeneous belief effects, we show that the use of information provision as an instrument may not produce a positive weighted average of belief effects. We develop an "information provision instrumental variables" (IPIV) framework that infers the direction of belief updating using information about prior beliefs. In this framework, we propose a class of IPIV estimators that recover positive weighted averages of belief effects. Relative to our preferred IPIV, commonly used specifications in the literature require additional assumptions to generate positive weights. And in the cases where these additional assumptions are satisfied, the identified parameters often up-weight individuals with priors that are further from the provided information, which may not be desirable.
ادبیات رو به رشد "اثرات اعتقاد" را اندازه گیری می کند - یعنی اثر علی تغییر در اعتقادات در مورد اقدامات - با استفاده از آزمایش های ارائه اطلاعات ، جایی که تهیه اطلاعات به عنوان ابزاری برای اعتقادات استفاده می شود.که در طرح های آزمایشی با یک گروه کنترل منفعل و تحت ناهمگن اثرات اعتقاد ، ما نشان می دهیم که استفاده از تهیه اطلاعات به عنوان یک ابزار ممکن است میانگین وزن مثبت اثرات اعتقاد ایجاد نکند.ما توسعه می دهیم "متغیرهای ابزاری ارائه دهنده اطلاعات" (IPIV) که جهت به روزرسانی اعتقاد با استفاده از اطلاعات در مورد باورهای قبلی.در این چارچوب ، ما یک کلاس از برآوردگرهای IPIV را پیشنهاد می کنیم که وزن مثبت را بازیابی می کنند میانگین اثرات اعتقاد.نسبت به IPIV مورد نظر ما ، که معمولاً استفاده می شود مشخصات در ادبیات برای تولید نیاز به فرضیات اضافی دارد وزن مثبتو در مواردی که این فرضیات اضافی وجود دارد رضایت ، پارامترهای مشخص شده اغلب افراد دارای وزن با Priors این بیشتر از اطلاعات ارائه شده است ، که ممکن است مطلوب نباشد.
29,861
We consider estimation and inference of the effects of a policy in the absence of a control group. We obtain unbiased estimators of individual (heterogeneous) treatment effects and a consistent and asymptotically normal estimator of the average treatment effects, based on forecasting counterfactuals using a short time series of pre-treatment data. We show that the focus should be on forecast unbiasedness rather than accuracy. Correct specification of the forecasting model is not necessary to obtain unbiased estimates of individual treatment effects. Instead, simple basis function (e.g., polynomial time trends) regressions deliver unbiasedness under a broad class of data-generating processes for the individual counterfactuals. Basing the forecasts on a model can introduce misspecification bias and does not necessarily improve performance even under correct specification. Consistency and asymptotic normality of our Forecasted Average Treatment effects (FAT) estimator are attained under an additional assumption that rules out common and unforecastable shocks occurring between the treatment date and the date at which the effect is calculated.
ما تخمین و استنباط اثرات یک سیاست را در آن در نظر می گیریم عدم وجود یک گروه کنترل.ما برآوردگرهای بی طرفانه از فرد به دست می آوریم (ناهمگن) اثرات درمانی و یک حالت مداوم و بدون علامت طبیعی برآوردگر میانگین اثرات درمانی ، بر اساس پیش بینی Counterfactuals با استفاده از یک سری زمانی کوتاه از داده های قبل از درمان.ما نشان می دهیم که تمرکز باید روی پیش بینی بی طرفانه و نه دقت باشد.درست مشخصات مدل پیش بینی برای به دست آوردن بی طرفانه لازم نیست تخمین اثرات درمانی فردی.در عوض ، عملکرد پایه ساده (به عنوان مثال ، روند زمان چند جمله ای) رگرسیون بی طرفانه را تحت یک گسترده ارائه می دهد کلاس فرآیندهای تولید داده برای ضد اکتشافات فردی.مبنای پیش بینی های مربوط به یک مدل می تواند تعصب اشتباه را معرفی کند و این کار را نمی کند لزوماً عملکرد را حتی در مشخصات صحیح بهبود بخشید.ثبات و عادی بودن بدون علامت اثرات متوسط ​​درمان پیش بینی شده ما (چربی) برآوردگر تحت یک فرض اضافی حاصل می شود که حاکم بر رایج و شوکهای غیرقابل توصیف که بین تاریخ درمان و تاریخ در آن اتفاق می افتد که اثر محاسبه می شود.
29,868
The ability to conduct reproducible research in Stata is often limited by the lack of version control for user-submitted packages. This article introduces the require command, a tool designed to ensure Stata package dependencies are compatible across users and computer systems. Given a list of Stata packages, require verifies that each package is installed, checks for a minimum or exact version or package release date, and optionally installs the package if prompted by the researcher.
توانایی انجام تحقیقات قابل تکرار در Stata اغلب توسط عدم کنترل نسخه برای بسته های ارسال شده توسط کاربر.در این مقاله معرفی شده است دستور need ، ابزاری که برای اطمینان از وابستگی های بسته بندی Stata طراحی شده است سازگار در بین کاربران و سیستم های رایانه ای.با توجه به لیستی از بسته های Stata ، نیاز به تأیید اینکه هر بسته نصب شده است ، حداقل یا دقیق را بررسی می کند نسخه یا تاریخ انتشار بسته بندی ، و در صورت اختیاری بسته را نصب می کند توسط محقق خواسته شده است.
29,862
I study the estimation of semiparametric monotone index models in the scenario where the number of observation points $n$ is extremely large and conventional approaches fail to work due to heavy computational burdens. Motivated by the mini-batch gradient descent algorithm (MBGD) that is widely used as a stochastic optimization tool in the machine learning field, I proposes a novel subsample- and iteration-based estimation procedure. In particular, starting from any initial guess of the true parameter, I progressively update the parameter using a sequence of subsamples randomly drawn from the data set whose sample size is much smaller than $n$. The update is based on the gradient of some well-chosen loss function, where the nonparametric component is replaced with its Nadaraya-Watson kernel estimator based on subsamples. My proposed algorithm essentially generalizes MBGD algorithm to the semiparametric setup. Compared with full-sample-based method, the new method reduces the computational time by roughly $n$ times if the subsample size and the kernel function are chosen properly, so can be easily applied when the sample size $n$ is large. Moreover, I show that if I further conduct averages across the estimators produced during iterations, the difference between the average estimator and full-sample-based estimator will be $1/\sqrt{n}$-trivial. Consequently, the average estimator is $1/\sqrt{n}$-consistent and asymptotically normally distributed. In other words, the new estimator substantially improves the computational speed, while at the same time maintains the estimation accuracy.
من برآورد مدلهای شاخص یکنواختی نیمه قطبی را در سناریویی که تعداد نقاط مشاهده $ n $ بسیار بزرگ است و رویکردهای متعارف به دلیل بار محاسباتی سنگین کار نمی کنند. با انگیزه توسط الگوریتم نزول شیب مینی (MBGD) که به طور گسترده ای است من به عنوان یک ابزار بهینه سازی تصادفی در زمینه یادگیری ماشین استفاده می شود ، من یک روش تخمین مبتنی بر نمونه و تکرار جدید را پیشنهاد می کند.که در به طور خاص ، از هر حدس اولیه پارامتر واقعی ، من به تدریج پارامتر را با استفاده از دنباله ای از نمونه ها به طور تصادفی به روز کنید از مجموعه داده هایی که اندازه نمونه آن بسیار کوچکتر از $ N $ است ، ترسیم شده است.به روز رسانی مبتنی بر شیب برخی از عملکردهای از دست دادن خوب ، جایی است که مؤلفه غیرپارامتری با برآوردگر هسته Nadaraya-Watson جایگزین می شود بر اساس نمونه هاالگوریتم پیشنهادی من اساساً MBGD را تعمیم می دهد الگوریتم به تنظیم نیمه قطبی.در مقایسه با روش مبتنی بر نمونه کامل ، روش جدید در صورتی تقریباً زمان محاسباتی را کاهش می دهد اندازه نمونه و عملکرد هسته به درستی انتخاب می شوند ، بنابراین می توان به راحتی هنگامی که اندازه نمونه $ n $ بزرگ باشد اعمال می شود.علاوه بر این ، من نشان می دهم که اگر بیشتر باشم انجام میانگین در سراسر برآوردگرهای تولید شده در طول تکرار ، تفاوت بین برآوردگر متوسط ​​و برآوردگر مبتنی بر نمونه کامل 1 $/\ sqrt {n} $-trivial.در نتیجه ، متوسط ​​برآوردگر است $ 1/\ sqrt {n} $-سازگار و بدون علامت عادی توزیع می شود.در دیگر کلمات ، برآوردگر جدید به طور قابل توجهی سرعت محاسباتی را بهبود می بخشد ، در حالی که در عین حال دقت تخمین را حفظ می کند.
29,863
Investigating interference or spillover effects among units is a central task in many social science problems. Network experiments are powerful tools for this task, which avoids endogeneity by randomly assigning treatments to units over networks. However, it is non-trivial to analyze network experiments properly without imposing strong modeling assumptions. Previously, many researchers have proposed sophisticated point estimators and standard errors for causal effects under network experiments. We further show that regression-based point estimators and standard errors can have strong theoretical guarantees if the regression functions and robust standard errors are carefully specified to accommodate the interference patterns under network experiments. We first recall a well-known result that the Hajek estimator is numerically identical to the coefficient from the weighted-least-squares fit based on the inverse probability of the exposure mapping. Moreover, we demonstrate that the regression-based approach offers three notable advantages: its ease of implementation, the ability to derive standard errors through the same weighted-least-squares fit, and the capacity to integrate covariates into the analysis, thereby enhancing estimation efficiency. Furthermore, we analyze the asymptotic bias of the regression-based network-robust standard errors. Recognizing that the covariance estimator can be anti-conservative, we propose an adjusted covariance estimator to improve the empirical coverage rates. Although we focus on regression-based point estimators and standard errors, our theory holds under the design-based framework, which assumes that the randomness comes solely from the design of network experiments and allows for arbitrary misspecification of the regression models.
بررسی اثرات تداخل یا سرریز در بین واحدها یک کار اصلی است در بسیاری از مشکلات علوم اجتماعی.آزمایش های شبکه ابزاری قدرتمند برای این کار ، که با اختصاص تصادفی درمان به واحدها از درون زایی جلوگیری می کند از طریق شبکه هابا این حال ، تجزیه و تحلیل آزمایش های شبکه غیر مهم است به درستی بدون تحمیل فرضیات مدل سازی قوی.قبلاً ، بسیاری محققان برآوردگرهای نقطه پیشرفته و خطاهای استاندارد را ارائه داده اند برای اثرات علی تحت آزمایش های شبکه.ما بیشتر نشان می دهیم که برآوردگرهای نقطه ای مبتنی بر رگرسیون و خطاهای استاندارد می توانند قوی باشند تضمین های نظری اگر عملکرد رگرسیون و خطاهای استاندارد قوی باشد با دقت مشخص شده اند تا الگوهای تداخل تحت شبکه را در خود جای دهند آزمایش.ما ابتدا یک نتیجه شناخته شده را به یاد می آوریم که برآوردگر حاجک است از نظر عددی یکسان با ضریب از مربعات با وزن کم است بر اساس احتمال معکوس نقشه برداری قرار گرفتن در معرض.علاوه بر این ، ما نشان می دهد که رویکرد مبتنی بر رگرسیون سه مزیت قابل توجه ارائه می دهد: سهولت اجرای آن ، توانایی استخراج خطاهای استاندارد از طریق مربع های مشابه با وزن کم ، و ظرفیت ادغام متغیرهای متغیر در تجزیه و تحلیل ، در نتیجه باعث افزایش کارایی تخمین می شود.علاوه بر این ، ما تجزیه و تحلیل می کنیم تعصب بدون علامت خطاهای استاندارد شبکه مبتنی بر رگرسیون. ما می دانیم که برآوردگر کواریانس می تواند ضد محافظه کار باشد ، ما پیشنهاد می کنیم یک برآوردگر کواریانس تعدیل شده برای بهبود نرخ پوشش تجربی. اگرچه ما روی برآوردگرهای نقطه ای مبتنی بر رگرسیون و خطاهای استاندارد تمرکز می کنیم ، ما تئوری تحت چارچوب مبتنی بر طراحی قرار دارد ، که فرض می کند تصادفی فقط از طراحی آزمایش های شبکه حاصل می شود و اجازه می دهد اشتباه غلط خودسرانه از مدلهای رگرسیون.
29,864
This paper proposes a structural econometric approach to estimating the basic reproduction number ($\mathcal{R}_{0}$) of Covid-19. This approach identifies $\mathcal{R}_{0}$ in a panel regression model by filtering out the effects of mitigating factors on disease diffusion and is easy to implement. We apply the method to data from 48 contiguous U.S. states and a diverse set of countries. Our results reveal a notable concentration of $\mathcal{R}_{0}$ estimates with an average value of 4.5. Through a counterfactual analysis, we highlight a significant underestimation of the $\mathcal{R}_{0}$ when mitigating factors are not appropriately accounted for.
در این مقاله یک رویکرد اقتصادی ساختاری برای برآورد اساسی ارائه شده است شماره تولید مثل ($ \ Mathcal {r} _ {0} $) Covid-19.این رویکرد مشخص می کند $ \ Mathcal {r} _ {0} $ در یک مدل رگرسیون پانل با فیلتر کردن اثرات عوامل کاهش دهنده انتشار بیماری و اجرای آن آسان است.ما اعمال می کنیم روش به داده ها از 48 ایالت پیوسته ایالات متحده و مجموعه متنوعی از کشورها. نتایج ما غلظت قابل توجهی از $ \ Mathcal {r} _ {0} $ تخمین را نشان می دهد مقدار متوسط ​​4.5.از طریق یک تجزیه و تحلیل ضد عملی ، ما را برجسته می کنیم دست کم گرفتن قابل توجه از $ \ Mathcal {r} _ {0} $ هنگام کاهش عوامل به طور مناسب حساب نمی شوند.
29,865
This paper studies a cluster robust variance estimator proposed by Chiang, Hansen and Sasaki (2022) for linear panels. First, we show algebraically that this variance estimator (CHS estimator, hereafter) is a linear combination of three common variance estimators: the one-way individual cluster estimator, the "HAC of averages" estimator, and the "average of HACs" estimator. Based on this finding, we obtain a fixed-b asymptotic result for the CHS estimator and corresponding test statistics as the cross-section and time sample sizes jointly go to infinity. Furthermore, we propose two simple bias-corrected versions of the variance estimator and derive the fixed-b limits. In a simulation study, we find that the two bias-corrected variance estimators along with fixed-b critical values provide improvements in finite sample coverage probabilities. We illustrate the impact of bias-correction and use of the fixed-b critical values on inference in an empirical example from Thompson (2011) on the relationship between industry profitability and market concentration.
در این مقاله یک برآوردگر واریانس قوی خوشه ای که توسط Chiang پیشنهاد شده است ، بررسی می شود. هانسن و ساساکی (2022) برای پانل های خطی.اول ، ما از نظر جبری نشان می دهیم که این برآوردگر واریانس (برآوردگر CHS ، آخرت) ترکیبی خطی از سه برآوردگر واریانس مشترک: برآوردگر خوشه ای یک طرفه ، برآوردگر "HAC از میانگین" و برآوردگر "میانگین HACS".بر اساس این با پیدا کردن ، ما یک نتیجه بدون علامت B ثابت را برای برآوردگر CHS بدست می آوریم و آمار آزمون مربوطه به عنوان مقطع و اندازه نمونه زمان به طور مشترک به بی نهایت بروید.علاوه بر این ، ما دو تعصب ساده را اصلاح می کنیم نسخه های برآوردگر واریانس و محدودیت های B ثابت را به دست می آورند.در یک مطالعه شبیه سازی ، ما می یابیم که دو برآوردگر واریانس اصلاح شده با تعصب در امتداد با مقادیر بحرانی ثابت B ، پیشرفت هایی را در پوشش نمونه محدود ارائه می دهد احتمالاتما تأثیر اصلاح تعصب و استفاده از مقادیر مهم مهم در استنتاج در یک مثال تجربی از تامپسون (2011) در مورد رابطه بین سودآوری صنعت و بازار تمرکز.
29,866
Empirical studies in various social sciences often involve categorical outcomes with inherent ordering, such as self-evaluations of subjective well-being and self-assessments in health domains. While ordered choice models, such as the ordered logit and ordered probit, are popular tools for analyzing these outcomes, they may impose restrictive parametric and distributional assumptions. This paper introduces a novel estimator, the ordered correlation forest, that can naturally handle non-linearities in the data and does not assume a specific error term distribution. The proposed estimator modifies a standard random forest splitting criterion to build a collection of forests, each estimating the conditional probability of a single class. Under an "honesty" condition, predictions are consistent and asymptotically normal. The weights induced by each forest are used to obtain standard errors for the predicted probabilities and the covariates' marginal effects. Evidence from synthetic data shows that the proposed estimator features a superior prediction performance than alternative forest-based estimators and demonstrates its ability to construct valid confidence intervals for the covariates' marginal effects.
مطالعات تجربی در علوم اجتماعی مختلف اغلب شامل طبقه بندی می شوند نتایج با سفارش ذاتی ، مانند ارزیابی های خود ذهنی بهزیستی و ارزیابی خود در حوزه های بهداشتی.در حالی که مدل های انتخابی سفارش داده شده ، مانند ورود به سیستم سفارش داده شده و Probit سفارش داده شده ، ابزارهای محبوب برای تجزیه و تحلیل هستند این نتایج ، آنها ممکن است پارامتری محدود کننده و توزیع را تحمیل کنند فرضیاتاین مقاله یک برآوردگر جدید ، همبستگی سفارش داده شده را معرفی می کند جنگل ، که به طور طبیعی می تواند غیر خطی ها را در داده ها اداره کند و این کار را نمی کند توزیع اصطلاح خطای خاص را فرض کنید.برآوردگر پیشنهادی اصلاح می کند معیار استاندارد تقسیم جنگل تصادفی برای ساخت مجموعه ای از جنگل ها ، هر یک از احتمال مشروط یک کلاس واحد را تخمین می زند.زیر شرط "صداقت" ، پیش بینی ها سازگار و بدون علامت طبیعی هستند.در از وزن ناشی از هر جنگل برای به دست آوردن خطاهای استاندارد برای احتمالات پیش بینی شده و اثرات حاشیه ای متغیرها.مدارک داده های مصنوعی نشان می دهد که برآوردگر پیشنهادی دارای پیش بینی برتر است عملکرد نسبت به برآوردگرهای مبتنی بر جنگل جایگزین و آن را نشان می دهد امکان ساخت فواصل اعتماد به نفس معتبر برای حاشیه متغیرهای متغیر اثرات
29,869
Information provision experiments are a popular way to study causal effects of beliefs on behavior. Researchers estimate these effects using TSLS. I show that existing TSLS specifications do not estimate the average partial effect; they have weights proportional to belief updating in the first-stage. If people whose decisions depend on their beliefs gather information before the experiment, the information treatment may shift beliefs more for people with weak belief effects. This attenuates TSLS estimates. I propose researchers use a local-least-squares (LLS) estimator that I show consistently estimates the average partial effect (APE) under Bayesian updating, and apply it to Settele (2022).
آزمایش های ارائه اطلاعات یک روش محبوب برای مطالعه اثرات علّی است اعتقادات مربوط به رفتار.محققان این تأثیرات را با استفاده از TSL تخمین می زنند.من نشان می دهم مشخصات TSLS موجود ، میانگین اثر جزئی را تخمین نمی زند. آنها وزن متناسب با به روزرسانی اعتقاد در مرحله اول دارند.اگر مردم تصمیمات آنها به اعتقادات آنها بستگی دارد قبل از آزمایش ، درمان اطلاعات ممکن است اعتقادات بیشتری را برای افراد با افراد ایجاد کند اثرات اعتقاد ضعیف.این تخمین های TSLS را کاهش می دهد.من پیشنهاد می کنم محققان استفاده کنند یک برآوردگر حداقل مربعات محلی (LLS) که من به طور مداوم نشان می دهم اثر جزئی جزئی (APE) تحت بروزرسانی بیزی ، و آن را برای Settlele اعمال کنید (2022).
29,870
This paper introduces a novel methodology that utilizes latency to unveil time-series dependence patterns. A customized statistical test detects memory dependence in event sequences by analyzing their inter-event time distributions. Synthetic experiments based on the renewal-aging property assess the impact of observer latency on the renewal property. Our test uncovers memory patterns across diverse time scales, emphasizing the event sequence's probability structure beyond correlations. The time series analysis produces a statistical test and graphical plots which helps to detect dependence patterns among events at different time-scales if any. Furthermore, the test evaluates the renewal assumption through aging experiments, offering valuable applications in time-series analysis within economics.
در این مقاله یک روش جدید ارائه شده است که از تأخیر برای پرده برداری استفاده می کند الگوهای وابستگی سری زمانی.یک آزمایش آماری سفارشی حافظه را تشخیص می دهد وابستگی به توالی رویداد با تجزیه و تحلیل زمان بین رویداد آنها توزیعآزمایش های مصنوعی بر اساس ارزیابی خاصیت پیری تجدید تأثیر تأخیر ناظر در خاصیت تجدید.آزمون ما کشف می کند الگوهای حافظه در مقیاس های متنوع زمانی ، با تأکید بر توالی رویداد ساختار احتمال فراتر از همبستگی.تجزیه و تحلیل سری زمانی تولید می کند آزمایش آماری و توطئه های گرافیکی که به تشخیص الگوهای وابستگی کمک می کند در میان وقایع در مقیاس های مختلف در صورت وجود.علاوه بر این ، آزمون ارزیابی می کند فرض تجدید از طریق آزمایش های پیری ، ارائه ارزشمند برنامه های کاربردی در تجزیه و تحلیل سری زمانی در اقتصاد.
29,871
Estimating agent-specific taste heterogeneity with a large information and communication technology (ICT) dataset requires both model flexibility and computational efficiency. We propose a group-level agent-based mixed (GLAM) logit approach that is estimated with inverse optimization (IO) and group-level market share. The model is theoretically consistent with the RUM model framework, while the estimation method is a nonparametric approach that fits to market-level datasets, which overcomes the limitations of existing approaches. A case study of New York statewide travel mode choice is conducted with a synthetic population dataset provided by Replica Inc., which contains mode choices of 19.53 million residents on two typical weekdays, one in Fall 2019 and another in Fall 2021. Individual mode choices are grouped into market-level market shares per census block-group OD pair and four population segments, resulting in 120,740 group-level agents. We calibrate the GLAM logit model with the 2019 dataset and compare to several benchmark models: mixed logit (MXL), conditional mixed logit (CMXL), and individual parameter logit (IPL). The results show that empirical taste distribution estimated by GLAM logit can be either unimodal or multimodal, which is infeasible for MXL/CMXL and hard to fulfill in IPL. The GLAM logit model outperforms benchmark models on the 2021 dataset, improving the overall accuracy from 82.35% to 89.04% and improving the pseudo R-square from 0.4165 to 0.5788. Moreover, the value-of-time (VOT) and mode preferences retrieved from GLAM logit aligns with our empirical knowledge (e.g., VOT of NotLowIncome population in NYC is $28.05/hour; public transit and walking is preferred in NYC). The agent-specific taste parameters are essential for the policymaking of statewide transportation projects.
تخمین ناهمگونی طعم خاص عامل با اطلاعات بزرگ و مجموعه داده های فناوری ارتباطات (ICT) هم به انعطاف پذیری مدل و هم نیاز دارد راندمان محاسباتی.ما یک مخلوط مبتنی بر عامل گروه (GLAM) را پیشنهاد می کنیم رویکرد ورود به سیستم با بهینه سازی معکوس (IO) و سطح گروه تخمین زده می شود سهم بازار.این مدل از نظر تئوری با مدل Rum سازگار است چارچوب ، در حالی که روش تخمین یک رویکرد غیرپارامتری است که متناسب با آن است مجموعه داده های سطح بازار ، که بر محدودیت های رویکردهای موجود غلبه می کند. مطالعه موردی از انتخاب حالت سفر در سراسر کشور در نیویورک با یک مجموعه داده های جمعیت مصنوعی ارائه شده توسط شرکت Replica ، که حاوی حالت است انتخاب 19.53 میلیون نفر در دو روز معمولی هفته ، یکی در پاییز 2019 و دیگری در پاییز 2021. گزینه های حالت فردی به سطح بازار گروه بندی می شوند سهام بازار در هر سرشماری بلوک گروه OD و چهار بخش جمعیت ، در نتیجه 120،740 عامل سطح گروه.ما مدل logit glam را با مجموعه داده های 2019 و مقایسه با چندین مدل معیار: Logit مخلوط (MXL) ، Logit مخلوط مشروط (CMXL) و ورود به پارامتر شخصی (IPL).در نتایج نشان می دهد که توزیع طعم تجربی تخمین زده شده توسط Glam Logit می تواند باشد یا Unimodal یا Multimodal ، که برای MXL/CMXL غیرقابل نفوذ است و سخت است در IPL انجام دهید.مدل Glam Logit از مدل های معیار در سال 2021 بهتر است مجموعه داده ، بهبود دقت کلی از 82.35 ٪ به 89.04 ٪ و بهبود شبه R-Square از 0.4165 به 0.5788.علاوه بر این ، ارزش زمان (VOT) و تنظیمات برگزیده حالت از Glam Logit با دانش تجربی ما تراز شده است (به عنوان مثال ، VOT از جمعیت notlowincome در NYC 28.05 دلار در ساعت است ؛ ترانزیت عمومی و پیاده روی در NYC ترجیح داده می شود).پارامترهای طعم خاص عامل ضروری هستند برای سیاست گذاری پروژه های حمل و نقل در سراسر کشور.