id
int64
28.8k
36k
text
stringlengths
44
3.03k
translation
stringlengths
36
2.47k
30,172
Our paper aims to model supply and demand curves of electricity day-ahead auction in a parsimonious way. Our main task is to build an appropriate algorithm to present the information about electricity prices and demands with far less parameters than the original one. We represent each curve using mesh-free interpolation techniques based on radial basis function approximation. We describe results of this method for the day-ahead IPEX spot price of Italy.
مقاله ما با هدف مدل سازی منحنی های عرضه و تقاضا روز برق در روز است حراج به روشی پارسا.وظیفه اصلی ما ساخت مناسب است الگوریتم برای ارائه اطلاعات در مورد قیمت ها و خواسته های برق با پارامترهای بسیار کمتری نسبت به نسخه اصلی.ما هر منحنی را با استفاده از تکنیک های درون یابی بدون مش بر اساس عملکرد پایه شعاعی تقریبما نتایج این روش را برای نقطه IPEX در روز توصیف می کنیم قیمت ایتالیا.
30,173
In time-series analysis, the term "lead-lag effect" is used to describe a delayed effect on a given time series caused by another time series. lead-lag effects are ubiquitous in practice and are specifically critical in formulating investment strategies in high-frequency trading. At present, there are three major challenges in analyzing the lead-lag effects. First, in practical applications, not all time series are observed synchronously. Second, the size of the relevant dataset and rate of change of the environment is increasingly faster, and it is becoming more difficult to complete the computation within a particular time limit. Third, some lead-lag effects are time-varying and only last for a short period, and their delay lengths are often affected by external factors. In this paper, we propose NAPLES (Negative And Positive lead-lag EStimator), a new statistical measure that resolves all these problems. Through experiments on artificial and real datasets, we demonstrate that NAPLES has a strong correlation with the actual lead-lag effects, including those triggered by significant macroeconomic announcements.
در تجزیه و تحلیل سری زمانی ، از اصطلاح "اثر سرب" برای توصیف a استفاده می شود تأثیر تأخیر در یک سری زمانی معین ناشی از سری زمانی دیگر.شتاب - تأخیر تأثیرات در عمل همه گیر هستند و به طور خاص در تدوین بسیار مهم هستند استراتژی های سرمایه گذاری در معاملات با فرکانس بالا.در حال حاضر ، سه نفر وجود دارد چالش های اساسی در تجزیه و تحلیل اثرات سرب.اول ، در عملی برنامه ها ، تمام سری های زمانی به طور همزمان مشاهده نمی شوند.دوم ، اندازه از مجموعه داده های مربوطه و میزان تغییر محیط به طور فزاینده ای است سریعتر ، و تکمیل محاسبات در یک دشوارتر می شود محدودیت زمانی خاص.سوم ، برخی از اثرات سرب و تنها متغیر است و فقط آخرین بار برای یک دوره کوتاه ، و طول تأخیر آنها اغلب تحت تأثیر خارجی قرار می گیرد عوامل.در این مقاله ، ناپل را پیشنهاد می کنیم (سرب منفی و مثبت برآوردگر) ، یک اقدام آماری جدید که تمام این مشکلات را برطرف می کند.از طریق آزمایش در مجموعه داده های مصنوعی و واقعی ، ما نشان می دهیم که ناپل دارای یک است همبستگی قوی با اثرات واقعی سرب ، از جمله موارد تحریک شده با اطلاعیه های کلان اقتصادی قابل توجه.
30,174
We develop inference procedures robust to general forms of weak dependence. The procedures utilize test statistics constructed by resampling in a manner that does not depend on the unknown correlation structure of the data. We prove that the statistics are asymptotically normal under the weak requirement that the target parameter can be consistently estimated at the parametric rate. This holds for regular estimators under many well-known forms of weak dependence and justifies the claim of dependence-robustness. We consider applications to settings with unknown or complicated forms of dependence, with various forms of network dependence as leading examples. We develop tests for both moment equalities and inequalities.
ما روشهای استنباط را به اشکال عمومی وابستگی ضعیف قوی می کنیم. این روشها از آمار آزمون ساخته شده با استفاده مجدد به روشی استفاده می کنند این به ساختار همبستگی ناشناخته داده ها بستگی ندارد.ما ثابت می کنیم که آمار تحت الزام ضعیف به صورت مجانبی طبیعی است پارامتر هدف را می توان به طور مداوم با نرخ پارامتری تخمین زد.این برای برآوردگرهای منظم تحت بسیاری از اشکال شناخته شده وابستگی ضعیف و ادعای وابستگی را توجیه می کند.ما برنامه هایی را در نظر می گیریم تنظیمات با اشکال وابستگی ناشناخته یا پیچیده ، با اشکال مختلف وابستگی شبکه به عنوان نمونه های برجسته.ما هر دو لحظه تست ها را توسعه می دهیم برابری و نابرابری ها.
30,175
This paper introduces a new stochastic process with values in the set Z of integers with sign. The increments of process are Poisson differences and the dynamics has an autoregressive structure. We study the properties of the process and exploit the thinning representation to derive stationarity conditions and the stationary distribution of the process. We provide a Bayesian inference method and an efficient posterior approximation procedure based on Monte Carlo. Numerical illustrations on both simulated and real data show the effectiveness of the proposed inference.
در این مقاله یک فرآیند تصادفی جدید با مقادیر موجود در مجموعه z از اعداد صحیح با علامت.افزایش فرآیند تفاوت های پواسون و Dynamics ساختار خودکار دارد.ما خواص پردازش و سوءاستفاده از نمایندگی نازک برای به دست آوردن ثابت بودن شرایط و توزیع ثابت روند.ما ارائه می دهیم روش استنتاج بیزی و یک روش تقریب خلفی کارآمد بر اساس مونت کارلو.تصاویر عددی در هر دو داده شبیه سازی شده و واقعی اثربخشی استنباط پیشنهادی را نشان می دهد.
30,187
Unit root tests form an essential part of any time series analysis. We provide practitioners with a single, unified framework for comprehensive and reliable unit root testing in the R package bootUR.The package's backbone is the popular augmented Dickey-Fuller test paired with a union of rejections principle, which can be performed directly on single time series or multiple (including panel) time series. Accurate inference is ensured through the use of bootstrap methods. The package addresses the needs of both novice users, by providing user-friendly and easy-to-implement functions with sensible default options, as well as expert users, by giving full user-control to adjust the tests to one's desired settings. Our parallelized C++ implementation ensures that all unit root tests are scalable to datasets containing many time series.
تست های ریشه واحد بخش اساسی هر تجزیه و تحلیل سری زمانی را تشکیل می دهند.ما یک چارچوب واحد و یکپارچه را برای جامع و یکپارچه در اختیار پزشکان قرار دهید آزمایش ریشه واحد قابل اعتماد در Bootur Pack.The Package است. آزمون محبوب دیکی مولف افزایش یافته با اتحادیه رد اصل ، که می تواند به طور مستقیم در سری های زمانی یا چندگانه انجام شود (از جمله پانل) سری زمانی.استنتاج دقیق با استفاده از روش های بوت استرپ.این بسته نیازهای هر دو کاربران تازه کار را برطرف می کند ارائه توابع کاربر پسند و آسان برای اجرای با پیش فرض معقول گزینه ها ، و همچنین کاربران متخصص ، با ارائه کنترل کامل کاربر برای تنظیم آزمایشات به تنظیمات مورد نظر شخص.اجرای C ++ موازی ما تضمین می کند اینکه تمام تست های ریشه واحد به مجموعه داده های حاوی سری های زمانی زیادی مقیاس پذیر هستند.
30,176
Causal mediation analysis aims at disentangling a treatment effect into an indirect mechanism operating through an intermediate outcome or mediator, as well as the direct effect of the treatment on the outcome of interest. However, the evaluation of direct and indirect effects is frequently complicated by non-ignorable selection into the treatment and/or mediator, even after controlling for observables, as well as sample selection/outcome attrition. We propose a method for bounding direct and indirect effects in the presence of such complications using a method that is based on a sequence of linear programming problems. Considering inverse probability weighting by propensity scores, we compute the weights that would yield identification in the absence of complications and perturb them by an entropy parameter reflecting a specific amount of propensity score misspecification to set-identify the effects of interest. We apply our method to data from the National Longitudinal Survey of Youth 1979 to derive bounds on the explained and unexplained components of a gender wage gap decomposition that is likely prone to non-ignorable mediator selection and outcome attrition.
تجزیه و تحلیل میانجیگری علیت با هدف جدا کردن اثر درمانی در یک مکانیسم غیرمستقیم که از طریق یک نتیجه متوسط ​​یا واسطه کار می کند ، و همچنین تأثیر مستقیم درمان بر نتیجه علاقه.با این حال، ارزیابی اثرات مستقیم و غیرمستقیم غالباً پیچیده است حتی پس از کنترل برای مشاهدات ، و همچنین انتخاب/انتخاب نمونه.ما روشی را برای محدود کردن اثرات مستقیم و غیرمستقیم در حضور ارائه دهید چنین عوارضی با استفاده از روشی که مبتنی بر توالی خطی است مشکلات برنامه نویسی.با توجه به وزن احتمال معکوس با تمایل نمرات ، ما وزنهایی را که در غیاب شناسایی می شود محاسبه می کنیم از عوارض و آنها را با یک پارامتر آنتروپی منعکس می کند که یک خاص است میزان تقدیر نمره نمره تمایل برای شناسایی اثرات آن علاقه.ما روش خود را در مورد داده های بررسی طولی ملی استفاده می کنیم جوانان 1979 برای به دست آوردن مرزهای مربوط به مؤلفه های توضیح داده شده و غیر قابل توضیح تجزیه فاصله دستمزد جنسیتی که احتمالاً مستعد واسطه غیر شایز است انتخاب و جذابیت نتیجه.
30,177
We develop an analytical framework to study experimental design in two-sided marketplaces. Many of these experiments exhibit interference, where an intervention applied to one market participant influences the behavior of another participant. This interference leads to biased estimates of the treatment effect of the intervention. We develop a stochastic market model and associated mean field limit to capture dynamics in such experiments, and use our model to investigate how the performance of different designs and estimators is affected by marketplace interference effects. Platforms typically use two common experimental designs: demand-side ("customer") randomization (CR) and supply-side ("listing") randomization (LR), along with their associated estimators. We show that good experimental design depends on market balance: in highly demand-constrained markets, CR is unbiased, while LR is biased; conversely, in highly supply-constrained markets, LR is unbiased, while CR is biased. We also introduce and study a novel experimental design based on two-sided randomization (TSR) where both customers and listings are randomized to treatment and control. We show that appropriate choices of TSR designs can be unbiased in both extremes of market balance, while yielding relatively low bias in intermediate regimes of market balance.
ما یک چارچوب تحلیلی برای مطالعه طراحی آزمایشی در دو طرفه ایجاد می کنیم بازارهابسیاری از این آزمایشات تداخل دارند ، جایی که مداخله ای که برای یک شرکت کننده در بازار اعمال می شود بر رفتار تأثیر می گذارد یک شرکت کننده دیگراین تداخل منجر به برآوردهای مغرضانه از اثر درمانی مداخله.ما یک مدل بازار تصادفی و میانگین محدوده میدان همراه برای گرفتن دینامیک در چنین آزمایشاتی و استفاده مدل ما برای بررسی چگونگی عملکرد طرح های مختلف و برآوردگرها تحت تأثیر اثرات تداخل بازار قرار دارند.سیستم عامل ها به طور معمول از دو طرح تجربی مشترک استفاده کنید: تصادفی طرف تقاضا ("مشتری") (CR) و طرف عرضه ("لیست") تصادفی (LR) ، به همراه آنها برآوردگرهای مرتبطما نشان می دهیم که طراحی آزمایشی خوب به بازار بستگی دارد تعادل: در بازارهای بسیار محدود به تقاضا ، CR بی طرفانه است ، در حالی که LR است جانبدارانه؛برعکس ، در بازارهای بسیار محدود با عرضه ، LR بی طرفانه است ، در حالی که CR مغرضانه است.ما همچنین یک طرح تجربی جدید را بر اساس معرفی و مطالعه می کنیم تصادفی دو طرفه (TSR) که در آن هر دو مشتری و لیست ها تصادفی هستند به درمان و کنترل.ما نشان می دهیم که گزینه های مناسب از طرح های TSR می توانند در هر دو حالت تعادل بازار بی طرف باشید ، در حالی که نسبتاً کم است تعصب در رژیم های میانی تعادل بازار.
30,178
As technology continues to advance, there is increasing concern about individuals being left behind. Many businesses are striving to adopt responsible design practices and avoid any unintended consequences of their products and services, ranging from privacy vulnerabilities to algorithmic bias. We propose a novel approach to fairness and inclusiveness based on experimentation. We use experimentation because we want to assess not only the intrinsic properties of products and algorithms but also their impact on people. We do this by introducing an inequality approach to A/B testing, leveraging the Atkinson index from the economics literature. We show how to perform causal inference over this inequality measure. We also introduce the concept of site-wide inequality impact, which captures the inclusiveness impact of targeting specific subpopulations for experiments, and show how to conduct statistical inference on this impact. We provide real examples from LinkedIn, as well as an open-source, highly scalable implementation of the computation of the Atkinson index and its variance in Spark/Scala. We also provide over a year's worth of learnings -- gathered by deploying our method at scale and analyzing thousands of experiments -- on which areas and which kinds of product innovations seem to inherently foster fairness through inclusiveness.
با پیشرفت فناوری ، نگرانی های فزاینده ای وجود دارد افرادی که پشت سر گذاشته می شوند.بسیاری از مشاغل در تلاشند تا اتخاذ کنند شیوه های طراحی مسئول و از هرگونه پیامدهای ناخواسته آنها جلوگیری کنید محصولات و خدمات ، از آسیب پذیری های حریم خصوصی گرفته تا الگوریتمی جانبداری.ما یک رویکرد جدید برای انصاف و فراگیر بودن بر اساس پیشنهاد می کنیم آزمایشما از آزمایش استفاده می کنیم زیرا می خواهیم نه تنها ارزیابی کنیم خصوصیات ذاتی محصولات و الگوریتم ها اما همچنین تأثیر آنها بر مردم.ما این کار را با معرفی یک رویکرد نابرابری در آزمایش A/B انجام می دهیم ، استفاده از شاخص اتکینسون از ادبیات اقتصاد.ما نشان می دهیم که چگونه استنباط علی بر این اندازه نابرابری انجام دهید.ما همچنین معرفی می کنیم مفهوم تأثیر نابرابری در سطح سایت ، که تأثیر فراگیر بودن را ضبط می کند هدف قرار دادن زیرمجموعه های خاص برای آزمایش ، و نحوه انجام آن را نشان می دهد استنباط آماری در این تأثیر.ما نمونه های واقعی از LinkedIn را ارائه می دهیم ، و همچنین اجرای منبع باز و بسیار مقیاس پذیر محاسبه شاخص اتکینسون و واریانس آن در Spark/Scala.ما همچنین بیش از a ارزش یادگیری سال - با استفاده از روش ما در مقیاس و تجزیه و تحلیل هزاران آزمایش - در کدام زمینه ها و کدام نوع محصول به نظر می رسد که نوآوری ها ذاتاً انصاف را از طریق فراگیر تقویت می کنند.
30,179
This paper compares different implementations of monetary policy in a new-Keynesian setting. We can show that a shift from Ramsey optimal policy under short-term commitment (based on a negative feedback mechanism) to a Taylor rule (based on a positive feedback mechanism) corresponds to a Hopf bifurcation with opposite policy advice and a change of the dynamic properties. This bifurcation occurs because of the ad hoc assumption that interest rate is a forward-looking variable when policy targets (inflation and output gap) are forward-looking variables in the new-Keynesian theory.
در این مقاله ، پیاده سازی های مختلف سیاست پولی در a مقایسه شده است تنظیم جدید کینزی.ما می توانیم نشان دهیم که تغییر از سیاست بهینه رمزی تحت تعهد کوتاه مدت (بر اساس مکانیسم بازخورد منفی) به قانون تیلور (بر اساس مکانیسم بازخورد مثبت) با هاپف مطابقت دارد bifurcation با مشاوره مخالف سیاست و تغییر خصوصیات پویا. این bifurcation به دلیل فرض موقت که نرخ بهره است رخ می دهد متغیر آینده نگر وقتی اهداف سیاست (تورم و شکاف خروجی) هستند متغیرهای آینده نگر در نظریه جدید کینزی.
30,180
We study identification and estimation in the Regression Discontinuity Design (RDD) with a multivalued treatment variable. We also allow for the inclusion of covariates. We show that without additional information, treatment effects are not identified. We give necessary and sufficient conditions that lead to identification of LATEs as well as of weighted averages of the conditional LATEs. We show that if the first stage discontinuities of the multiple treatments conditional on covariates are linearly independent, then it is possible to identify multivariate weighted averages of the treatment effects with convenient identifiable weights. If, moreover, treatment effects do not vary with some covariates or a flexible parametric structure can be assumed, it is possible to identify (in fact, over-identify) all the treatment effects. The over-identification can be used to test these assumptions. We propose a simple estimator, which can be programmed in packaged software as a Two-Stage Least Squares regression, and packaged standard errors and tests can also be used. Finally, we implement our approach to identify the effects of different types of insurance coverage on health care utilization, as in Card, Dobkin and Maestas (2008).
ما شناسایی و تخمین را در طراحی ناپیوستگی رگرسیون مطالعه می کنیم (RDD) با متغیر درمانی چندگانه.ما همچنین اجازه می دهیم متغیرهای متغیرما نشان می دهیم که بدون اطلاعات بیشتر ، اثرات درمانی است شناسایی نشده.ما شرایط لازم و کافی را ارائه می دهیم که منجر به آن می شود شناسایی Lates و همچنین میانگین وزنی از شرطی LATESما نشان می دهیم که اگر مرحله اول ناپیوستگی چندگانه باشد درمان های مشروط به متغیرهای متغیر به صورت خطی مستقل هستند ، پس از آن برای شناسایی میانگین وزنی چند متغیره از اثرات درمانی امکان پذیر است با وزنهای قابل شناسایی مناسب.علاوه بر این ، اثرات درمانی این کار را نمی کند با برخی از متغیرهای متغیر متفاوت است یا می توان یک ساختار پارامتری انعطاف پذیر را فرض کرد. برای شناسایی (در واقع ، بیش از حد شناسایی) تمام اثرات درمانی امکان پذیر است.در شناسایی بیش از حد می تواند برای آزمایش این فرضیات استفاده شود.ما یک ساده پیشنهاد می کنیم برآوردگر ، که می تواند در نرم افزار بسته بندی شده به عنوان حداقل دو مرحله ای برنامه ریزی شود رگرسیون مربع ها و خطاها و آزمایشات استاندارد بسته بندی شده نیز می توانند استفاده شوند. سرانجام ، ما رویکرد خود را برای شناسایی اثرات انواع مختلف پیاده سازی می کنیم پوشش بیمه ای در مورد استفاده از مراقبت های بهداشتی ، مانند کارت ، دوبکین و Maestas (2008).
30,200
This paper illustrates the use of entropy balancing in difference-in-differences analyses when pre-intervention outcome trends suggest a possible violation of the parallel trends assumption. We describe a set of assumptions under which weighting to balance intervention and comparison groups on pre-intervention outcome trends leads to consistent difference-in-differences estimates even when pre-intervention outcome trends are not parallel. Simulated results verify that entropy balancing of pre-intervention outcomes trends can remove bias when the parallel trends assumption is not directly satisfied, and thus may enable researchers to use difference-in-differences designs in a wider range of observational settings than previously acknowledged.
در این مقاله استفاده از تعادل آنتروپی در تفاوت در اختلافات هنگامی که روند نتیجه قبل از مداخله نشان می دهد تجزیه و تحلیل می شود نقض احتمالی فرض روند موازی.ما مجموعه ای از فرضیاتی که براساس آن وزنه برداری برای تعادل گروه های مداخله و مقایسه روند نتیجه قبل از مداخله منجر به سازگار می شود تخمین اختلاف در اختلافات حتی در صورت روند نتیجه قبل از مداخله موازی نیستندنتایج شبیه سازی شده تأیید می کند که متعادل کردن آنتروپی از نتایج نتایج قبل از مداخله می تواند تعصب را در هنگام روند موازی از بین ببرد فرض به طور مستقیم راضی نیست ، بنابراین ممکن است محققان بتوانند از آن استفاده کنند تفاوت در اختلافات در طیف وسیع تری از تنظیمات مشاهده ای از آنچه قبلاً تصدیق شده بود
30,181
Crowding valuation of subway riders is an important input to various supply-side decisions of transit operators. The crowding cost perceived by a transit rider is generally estimated by capturing the trade-off that the rider makes between crowding and travel time while choosing a route. However, existing studies rely on static compensatory choice models and fail to account for inertia and the learning behaviour of riders. To address these challenges, we propose a new dynamic latent class model (DLCM) which (i) assigns riders to latent compensatory and inertia/habit classes based on different decision rules, (ii) enables transitions between these classes over time, and (iii) adopts instance-based learning theory to account for the learning behaviour of riders. We use the expectation-maximisation algorithm to estimate DLCM, and the most probable sequence of latent classes for each rider is retrieved using the Viterbi algorithm. The proposed DLCM can be applied in any choice context to capture the dynamics of decision rules used by a decision-maker. We demonstrate its practical advantages in estimating the crowding valuation of an Asian metro's riders. To calibrate the model, we recover the daily route preferences and in-vehicle crowding experiences of regular metro riders using a two-month-long smart card and vehicle location data. The results indicate that the average rider follows the compensatory rule on only 25.5% of route choice occasions. DLCM estimates also show an increase of 47% in metro riders' valuation of travel time under extremely crowded conditions relative to that under uncrowded conditions.
ارزش جمع آوری سواران مترو یک ورودی مهم برای مختلف است تصمیمات سمت عرضه اپراتورهای ترانزیت.هزینه شلوغی درک شده توسط a سوار ترانزیت به طور کلی با ضبط معامله ای که سوارکار است تخمین زده می شود در هنگام انتخاب مسیر ، بین شلوغی و زمان سفر ایجاد می شود.با این حال، مطالعات موجود به مدلهای انتخاب جبرانی استاتیک متکی است و پاسخ نمی دهد برای اینرسی و رفتار یادگیری سواران.برای پرداختن به این چالش ها ، ما یک مدل کلاس نهان پویا جدید (DLCM) پیشنهاد می کنیم که (i) سواران را به آن اختصاص می دهد کلاسهای جبرانی و بی تحرکی/عادت نهفته بر اساس تصمیمات مختلف قوانین ، (ب) انتقال بین این کلاس ها به مرور زمان ، و (iii) نظریه یادگیری مبتنی بر نمونه را اتخاذ می کند تا رفتار یادگیری را به حساب آورد سوارانما از الگوریتم انتظار حداکثر برای تخمین DLCM و احتمالی ترین دنباله کلاسهای نهفته برای هر سوار با استفاده از الگوریتم Viterbi.DLCM پیشنهادی می تواند در هر زمینه انتخابی اعمال شود پویایی قوانین تصمیم گیری را که توسط یک تصمیم گیرنده استفاده می شود ، ضبط کنید.ما نشان می دهیم مزایای عملی آن در برآورد ارزیابی شلوغی یک آسیایی سواران مترو.برای کالیبراسیون مدل ، ترجیحات مسیر روزانه را بازیابی می کنیم و تجارب شلوغی درون وسیله نقلیه از سواران مترو معمولی با استفاده از a داده های کارت هوشمند دو ماهه و داده های مکان خودرو.نتایج نشان می دهد که یک سوار متوسط ​​فقط 25.5 ٪ از انتخاب مسیر را از قانون جبرانی پیروی می کند مواردتخمین های DLCM همچنین افزایش 47 ٪ در مترو سواران را نشان می دهد ارزیابی زمان سفر در شرایط بسیار شلوغ نسبت به آن در شرایط غیرمجاز.
30,182
A structural Gaussian mixture vector autoregressive model is introduced. The shocks are identified by combining simultaneous diagonalization of the reduced form error covariance matrices with constraints on the time-varying impact matrix. This leads to flexible identification conditions, and some of the constraints are also testable. The empirical application studies asymmetries in the effects of the U.S. monetary policy shock and finds strong asymmetries with respect to the sign and size of the shock and to the initial state of the economy. The accompanying CRAN distributed R package gmvarkit provides a comprehensive set of tools for numerical analysis.
یک مدل وکتور مخلوط سازه ساختاری گاوسی معرفی شده است.در شوک ها با ترکیب مورب همزمان کاهش یافته شناسایی می شوند خطای ماتریس کواریانس با محدودیت در تأثیر متغیر زمان ماتریساین منجر به شرایط شناسایی انعطاف پذیر و برخی از موارد می شود محدودیت ها نیز قابل آزمایش هستند.کاربرد تجربی عدم تقارن در تأثیر شوک سیاست پولی ایالات متحده و عدم تقارن شدید با احترام به علامت و اندازه شوک و وضعیت اولیه اقتصادCRAN همراه با بسته R توزیع Gmvarkit یک A را فراهم می کند مجموعه ای جامع از ابزارها برای تجزیه و تحلیل عددی.
30,183
We introduce Multivariate Circulant Singular Spectrum Analysis (M-CiSSA) to provide a comprehensive framework to analyze fluctuations, extracting the underlying components of a set of time series, disentangling their sources of variation and assessing their relative phase or cyclical position at each frequency. Our novel method is non-parametric and can be applied to series out of phase, highly nonlinear and modulated both in frequency and amplitude. We prove a uniqueness theorem that in the case of common information and without the need of fitting a factor model, allows us to identify common sources of variation. This technique can be quite useful in several fields such as climatology, biometrics, engineering or economics among others. We show the performance of M-CiSSA through a synthetic example of latent signals modulated both in amplitude and frequency and through the real data analysis of energy prices to understand the main drivers and co-movements of primary energy commodity prices at various frequencies that are key to assess energy policy at different time horizons.
ما تجزیه و تحلیل طیف مفرد گردش چند متغیره (M-CISSA) را به یک چارچوب جامع برای تجزیه و تحلیل نوسانات ، استخراج مؤلفه های اساسی مجموعه ای از سری های زمانی ، از منابع آنها جدا شده است تغییر و ارزیابی فاز نسبی یا موقعیت چرخه ای آنها در هر یک فرکانس.روش جدید ما غیر پارامتری است و می تواند برای سری استفاده شود فاز ، بسیار غیرخطی و هم در فرکانس و هم در دامنه تعدیل شده است.ما یک قضیه منحصر به فرد را اثبات کنید که در مورد اطلاعات مشترک و بدون نیاز به نصب یک مدل فاکتور ، به ما امکان می دهد منابع مشترک را شناسایی کنیم تغییر.این تکنیک می تواند در چندین زمینه از جمله بسیار مفید باشد اقلیم شناسی ، بیومتریک ، مهندسی یا اقتصاد در میان دیگران.ما نشان می دهیم عملکرد M-CISSA از طریق یک نمونه مصنوعی از سیگنال های نهفته مدوله شده هم در دامنه و هم از طریق تجزیه و تحلیل داده های واقعی انرژی قیمت ها برای درک محرک های اصلی و همبستگی های انرژی اولیه قیمت کالاها در فرکانسهای مختلف که برای ارزیابی سیاست انرژی مهم هستند افق زمانی متفاوت.
30,184
In the data-rich environment, using many economic predictors to forecast a few key variables has become a new trend in econometrics. The commonly used approach is factor augment (FA) approach. In this paper, we pursue another direction, variable selection (VS) approach, to handle high-dimensional predictors. VS is an active topic in statistics and computer science. However, it does not receive as much attention as FA in economics. This paper introduces several cutting-edge VS methods to economic forecasting, which includes: (1) classical greedy procedures; (2) l1 regularization; (3) gradient descent with sparsification and (4) meta-heuristic algorithms. Comprehensive simulation studies are conducted to compare their variable selection accuracy and prediction performance under different scenarios. Among the reviewed methods, a meta-heuristic algorithm called sequential Monte Carlo algorithm performs the best. Surprisingly the classical forward selection is comparable to it and better than other more sophisticated algorithms. In addition, we apply these VS methods on economic forecasting and compare with the popular FA approach. It turns out for employment rate and CPI inflation, some VS methods can achieve considerable improvement over FA, and the selected predictors can be well explained by economic theories.
در محیط غنی از داده ها ، استفاده از بسیاری از پیش بینی کننده های اقتصادی برای پیش بینی a تعداد کمی از متغیرهای کلیدی به یک روند جدید در اقتصاد سنج تبدیل شده است.معمولاً استفاده می شود رویکرد رویکرد عاملی (FA) است.در این مقاله ، ما دیگری را دنبال می کنیم جهت ، رویکرد انتخاب متغیر (VS) ، برای رسیدگی به ابعاد بالا پیش بینی کننده هاVS یک موضوع فعال در آمار و علوم کامپیوتر است.با این حال، به اندازه FA در اقتصاد توجه زیادی نمی کند.در این مقاله معرفی شده است چندین روش برش در مقابل پیش بینی اقتصادی ، که شامل موارد زیر است: (1) روشهای حریص کلاسیک ؛(2) تنظیم L1 ؛(3) نزول شیب با پاریسی سازی و (4) الگوریتم های متا-هوریستی.شبیه سازی جامع مطالعات برای مقایسه دقت انتخاب متغیر آنها انجام می شود و عملکرد پیش بینی تحت سناریوهای مختلف.از جمله روشهای بررسی شده ، الف الگوریتم متا-هوریستی به نام الگوریتم متوالی مونت کارلو انجام می دهد بهترین.با کمال تعجب انتخاب کلاسیک جلو با آن قابل مقایسه است و بهتر از سایر الگوریتم های پیشرفته تر.علاوه بر این ، ما این VS را اعمال می کنیم روشهای پیش بینی اقتصادی و مقایسه با رویکرد محبوب FA.آی تی برای نرخ اشتغال و تورم CPI معلوم می شود ، برخی از روشهای VS می توانند به دست بیاورند پیشرفت قابل توجهی نسبت به FA ، و پیش بینی کننده های منتخب می توانند خوب باشند توضیح داده شده توسط تئوری های اقتصادی.
30,185
Multivalued treatments are commonplace in applications. We explore the use of discrete-valued instruments to control for selection bias in this setting. Our discussion revolves around the concept of targeting instruments: which instruments target which treatments. It allows us to establish conditions under which counterfactual averages and treatment effects are point- or partially-identified for composite complier groups. We illustrate the usefulness of our framework by applying it to data from the Head Start Impact Study. Under a plausible positive selection assumption, we derive informative bounds that suggest less beneficial effects of Head Start expansions than the parametric estimates of Kline and Walters (2016).
درمانهای چندگانه در برنامه ها امری عادی است.ما استفاده از ابزارهای دارای ارزش گسسته برای کنترل تعصب انتخاب در این تنظیم.ما بحث حول مفهوم ابزارهای هدفمند است: کدام ابزارها کدام روش درمانی را هدف قرار می دهند.این امکان را به ما می دهد تا شرایط را در زیر ایجاد کنیم کدام میانگین های ضد خلاف و اثرات درمانی نقطه یا است تا حدی برای گروه های Composite Complier مشخص شده است.ما نشان می دهیم سودمندی چارچوب ما با استفاده از آن در داده ها از ضربه شروع سر مطالعه.تحت یک فرض انتخاب مثبت قابل قبول ، ما آموزنده می گیریم مرزهایی که اثرات مفید کمتری از گسترش سر را نسبت به آن نشان می دهد برآورد پارامتری Kline و Walters (2016).
30,186
A novel deep neural network framework -- that we refer to as Deep Dynamic Factor Model (D$^2$FM) --, is able to encode the information available, from hundreds of macroeconomic and financial time-series into a handful of unobserved latent states. While similar in spirit to traditional dynamic factor models (DFMs), differently from those, this new class of models allows for nonlinearities between factors and observables due to the autoencoder neural network structure. However, by design, the latent states of the model can still be interpreted as in a standard factor model. Both in a fully real-time out-of-sample nowcasting and forecasting exercise with US data and in a Monte Carlo experiment, the D$^2$FM improves over the performances of a state-of-the-art DFM.
یک چارچوب شبکه عصبی عمیق رمان - که ما از آن به عنوان پویا عمیق یاد می کنیم مدل فاکتور (d $^2 $ fm) -قادر به رمزگذاری اطلاعات موجود است ، صدها سری زمانی کلان اقتصادی و مالی به تعداد انگشت شماری از حالتهای نهفته بی نظیر.در حالی که از نظر روحی با فاکتور پویا سنتی مشابه است مدل ها (DFMS) ، متفاوت از آن ، این کلاس جدید از مدل ها امکان پذیر است غیرخطی بین عوامل و مشاهدات به دلیل عصبی AutoEncoder ساختار شبکه.با این حال ، با طراحی ، حالت های نهفته مدل هنوز هم می توانند همانطور که در یک مدل فاکتور استاندارد تفسیر می شود.هر دو در یک زمان کاملاً واقعی خارج از نمونه تمرین و پیش بینی تمرین با داده های ایالات متحده و در یک مونت آزمایش کارلو ، d $ 2 $ fm نسبت به عملکردهای یک بهبود می یابد DFM پیشرفته.
30,188
This paper aims to examine whether the global economic policy uncertainty (GEPU) and uncertainty changes have different impacts on crude oil futures volatility. We establish single-factor and two-factor models under the GARCH-MIDAS framework to investigate the predictive power of GEPU and GEPU changes excluding and including realized volatility. The findings show that the models with rolling-window specification perform better than those with fixed-span specification. For single-factor models, the GEPU index and its changes, as well as realized volatility, are consistent effective factors in predicting the volatility of crude oil futures. Specially, GEPU changes have stronger predictive power than the GEPU index. For two-factor models, GEPU is not an effective forecast factor for the volatility of WTI crude oil futures or Brent crude oil futures. The two-factor model with GEPU changes contains more information and exhibits stronger forecasting ability for crude oil futures market volatility than the single-factor models. The GEPU changes are indeed the main source of long-term volatility of the crude oil futures.
این مقاله با هدف بررسی اینکه آیا عدم قطعیت سیاست اقتصادی جهانی بررسی شده است (GEPU) و تغییرات عدم اطمینان تأثیرات متفاوتی بر آینده های نفت خام دارد نوسان.ما مدلهای تک عاملی و دو عاملی را در زیر ایجاد می کنیم چارچوب Garch-Midas برای بررسی قدرت پیش بینی GEPU و GEPU تغییرات به استثنای و از جمله نوسانات تحقق یافته.یافته ها نشان می دهد که مدل هایی با مشخصات پنجره نورد بهتر از مدل های دارای مشخصات اسپانیایی ثابت.برای مدل های تک عاملی ، شاخص GEPU و آن تغییرات ، و همچنین نوسانات تحقق یافته ، فاکتورهای مؤثر سازگار در پیش بینی نوسانات آینده نفت خام.به ویژه ، تغییرات GePu وجود دارد قدرت پیش بینی قوی تر از شاخص GEPU.برای مدل های دو عاملی ، GEPU است یک عامل پیش بینی مؤثر برای نوسانات آینده نفت خام WTI یا آینده نفت خام برنت.مدل دو عاملی با تغییرات GEPU حاوی موارد بیشتری است اطلاعات و توانایی پیش بینی قوی تر برای آینده های نفت خام را نشان می دهد نوسانات بازار نسبت به مدل های تک عاملی.تغییرات GEPU در واقع است منبع اصلی نوسانات طولانی مدت آینده نفت خام.
30,189
We report results from the first comprehensive total quality evaluation of five major indicators in the U.S. Census Bureau's Longitudinal Employer-Household Dynamics (LEHD) Program Quarterly Workforce Indicators (QWI): total flow-employment, beginning-of-quarter employment, full-quarter employment, average monthly earnings of full-quarter employees, and total quarterly payroll. Beginning-of-quarter employment is also the main tabulation variable in the LEHD Origin-Destination Employment Statistics (LODES) workplace reports as displayed in OnTheMap (OTM), including OnTheMap for Emergency Management. We account for errors due to coverage; record-level non-response; edit and imputation of item missing data; and statistical disclosure limitation. The analysis reveals that the five publication variables under study are estimated very accurately for tabulations involving at least 10 jobs. Tabulations involving three to nine jobs are a transition zone, where cells may be fit for use with caution. Tabulations involving one or two jobs, which are generally suppressed on fitness-for-use criteria in the QWI and synthesized in LODES, have substantial total variability but can still be used to estimate statistics for untabulated aggregates as long as the job count in the aggregate is more than 10.
ما نتایج حاصل از اولین ارزیابی جامع کل کیفیت کل را گزارش می کنیم پنج شاخص اصلی در طولی دفتر سرشماری ایالات متحده کارفرمایان-خانه دینامیک (LEHD) برنامه های سه ماهه نیروی کار (QWI): کل اشتغال جریان ، اشتغال آغاز از سه ماهه ، هر چهارم اشتغال ، متوسط ​​درآمد ماهانه کارمندان کامل و در کل حقوق و دستمزد سه ماهه.اشتغال شروع سه ماهه نیز جدول بندی اصلی است متغیر در LEHD Origin-Destination Assistictions usy (LODES) در محل کار گزارش هایی که در OntheMap (OTM) نمایش داده می شود ، از جمله OntheMap برای اضطراری مدیریت.ما خطاها را به دلیل پوشش حساب می کنیم.عدم پاسخ سطح ضبط ؛ ویرایش و تحمیل داده های مفقود شده مورد ؛و افشای آماری محدودیتتجزیه و تحلیل نشان می دهد که پنج متغیر انتشار در زیر مطالعه بسیار دقیق برای جدول بندی های مربوط به حداقل 10 شغل تخمین زده می شود. جدول بندی های مربوط به سه تا نه شغل یک منطقه انتقال است که در آن سلول ها ممکن است برای استفاده با احتیاط مناسب باشید.جدول بندی های مربوط به یک یا دو شغل ، که هستند به طور کلی بر معیارهای تناسب اندام برای استفاده در QWI سرکوب می شود و در سنتز می شود Lodes ، دارای تنوع قابل توجهی در کل اما هنوز هم می توان برای تخمین استفاده کرد آمار مربوط به سنگدانه های غیرمجاز تا زمانی که کار در کل باشد بیش از 10 است
30,190
Recent research finds that forecasting electricity prices is very relevant. In many applications, it might be interesting to predict daily electricity prices by using their own lags or renewable energy sources. However, the recent turmoil of energy prices and the Russian-Ukrainian war increased attention in evaluating the relevance of industrial production and the Purchasing Managers' Index output survey in forecasting the daily electricity prices. We develop a Bayesian reverse unrestricted MIDAS model which accounts for the mismatch in frequency between the daily prices and the monthly macro variables in Germany and Italy. We find that the inclusion of macroeconomic low frequency variables is more important for short than medium term horizons by means of point and density measures. In particular, accuracy increases by combining hard and soft information, while using only surveys gives less accurate forecasts than using only industrial production data.
تحقیقات اخیر نشان می دهد که پیش بینی قیمت برق بسیار مهم است. در بسیاری از برنامه ها ، پیش بینی برق روزانه جالب است قیمت ها با استفاده از تاخیر یا منابع انرژی تجدید پذیر خود.با این حال ، اخیر آشفتگی قیمت انرژی و جنگ روسیه و اوکراین توجه را در ارزیابی ارتباط تولید صنعتی و مدیران خرید بررسی خروجی شاخص در پیش بینی قیمت روزانه برق.ما توسعه می دهیم مدل MIDAS بدون محدودیت Bayesian معکوس که عدم تطابق در آن را به خود اختصاص می دهد فرکانس بین قیمت های روزانه و متغیرهای کلان ماهانه در آلمان و ایتالیاما می دانیم که گنجاندن متغیرهای فرکانس پایین کلان اقتصادی برای افق های کوتاه مدت از میان مدت با استفاده از نقطه و اقدامات چگالیبه طور خاص ، با ترکیب سخت و نرم ، دقت افزایش می یابد اطلاعات ، در حالی که فقط با استفاده از نظرسنجی ها پیش بینی های دقیق کمتری نسبت به استفاده می کند فقط داده های تولید صنعتی.
30,191
The COVID-19 recession that started in March 2020 led to an unprecedented decline in economic activity across the globe. To fight this recession, policy makers in central banks engaged in expansionary monetary policy. This paper asks whether the measures adopted by the US Federal Reserve (Fed) have been effective in boosting real activity and calming financial markets. To measure these effects at high frequencies, we propose a novel mixed frequency vector autoregressive (MF-VAR) model. This model allows us to combine weekly and monthly information within an unified framework. Our model combines a set of macroeconomic aggregates such as industrial production, unemployment rates and inflation with high frequency information from financial markets such as stock prices, interest rate spreads and weekly information on the Feds balance sheet size. The latter set of high frequency time series is used to dynamically interpolate the monthly time series to obtain weekly macroeconomic measures. We use this setup to simulate counterfactuals in absence of monetary stimulus. The results show that the monetary expansion caused higher output growth and stock market returns, more favorable long-term financing conditions and a depreciation of the US dollar compared to a no-policy benchmark scenario.
رکود اقتصادی Covid-19 که از مارس 2020 آغاز شد ، منجر به بی سابقه ای شد کاهش فعالیت اقتصادی در سراسر جهان.برای مبارزه با این رکود اقتصادی ، سیاست سازندگان در بانکهای مرکزی مشغول سیاست های پولی گسترده بودند.این کاغذ می پرسد که آیا اقدامات اتخاذ شده توسط فدرال رزرو ایالات متحده (FED) بوده است؟ در تقویت فعالیت واقعی و آرام کردن بازارهای مالی مؤثر است.اندازه گرفتن این اثرات در فرکانس های بالا ، ما یک بردار فرکانس مخلوط رمان پیشنهاد می کنیم مدل خودکار (MF-VAR).این مدل به ما امکان می دهد هفتگی و اطلاعات ماهانه در یک چارچوب یکپارچه.مدل ما مجموعه ای از سنگدانه های کلان اقتصادی مانند تولید صنعتی ، نرخ بیکاری و تورم با اطلاعات فرکانس بالا از بازارهای مالی مانند سهام قیمت ها ، گسترش نرخ بهره و اطلاعات هفتگی در ترازنامه FEDS اندازه.مجموعه دوم سری زمانی فرکانس بالا برای پویا استفاده می شود سری زمانی ماهانه را برای به دست آوردن اقدامات هفتگی اقتصاد کلان درج کنید.ما در صورت عدم وجود محرک پولی ، از این تنظیم برای شبیه سازی متقابل استفاده کنید.در نتایج نشان می دهد که انبساط پولی باعث رشد و بازده بالاتری شده است بازده بازار ، شرایط تأمین مالی طولانی مدت و یک استهلاک دلار آمریکا در مقایسه با سناریوی معیار بدون سیاست.
30,192
Many events and policies (treatments) occur at specific spatial locations, with researchers interested in their effects on nearby units of interest. I approach the spatial treatment setting from an experimental perspective: What ideal experiment would we design to estimate the causal effects of spatial treatments? This perspective motivates a comparison between individuals near realized treatment locations and individuals near counterfactual (unrealized) candidate locations, which differs from current empirical practice. I derive design-based standard errors that are straightforward to compute irrespective of spatial correlations in outcomes. Furthermore, I propose machine learning methods to find counterfactual candidate locations using observational data under unconfounded assignment of the treatment to locations. I apply the proposed methods to study the causal effects of grocery stores on foot traffic to nearby businesses during COVID-19 shelter-in-place policies, finding a substantial positive effect at a very short distance, with no effect at larger distances.
بسیاری با محققان علاقه مند به تأثیرات آنها در واحدهای مورد علاقه در این نزدیکی.من از دیدگاه تجربی به تنظیمات درمانی مکانی نزدیک شوید: چه آزمایش ایده آل آیا ما برای برآورد اثرات علی فضایی طراحی می کنیم درمان؟این دیدگاه باعث ایجاد مقایسه بین افراد نزدیک می شود مکانهای درمانی تحقق یافته و افراد در نزدیکی ضد خلاف واقع (غیر واقعی) مکان های نامزد ، که با عمل تجربی فعلی متفاوت است.من مشتق شده ام خطاهای استاندارد مبتنی بر طراحی که بدون در نظر گرفتن محاسبه ساده است همبستگی های مکانی در نتایج.علاوه بر این ، من یادگیری ماشین را پیشنهاد می کنم روش هایی برای یافتن مکان های نامزد ضد خلاف با استفاده از داده های مشاهده ای تحت تکلیف غیرمجاز از درمان به مکانها.من اعمال می کنم روشهای پیشنهادی برای بررسی اثرات علیت فروشگاه های مواد غذایی بر روی ترافیک پا به مشاغل اطراف در طول سیاست های پناهگاه Covid-19 ، پیدا کردن اثر مثبت قابل توجه در مسافت بسیار کوتاه ، بدون تأثیر در بزرگتر فاصله ها.
34,568
We study the canonical signaling game, endowing the sender with commitment power. We provide a geometric characterization of the sender's attainable payoffs, described by the topological join of the graphs of the sender's interim payoff functions associated with different sender actions. We compare the sender's payoffs in this setting with two benchmarks. In the first, in addition to committing to her actions, the sender can commit to provide the receiver with additional information. In the second, the sender can only commit to release information, but cannot commit to her actions. We illustrate our results with applications to job market signaling, communication with lying costs, and disclosure.
ما بازی سیگنالینگ متعارف را مطالعه می کنیم و فرستنده را با تعهد وقف می کنیم قدرت.ما یک شخصیت هندسی از قابل دستیابی فرستنده را ارائه می دهیم بازپرداخت ، توصیف شده توسط پیوستن توپولوژیکی نمودارهای فرستنده توابع بازپرداخت موقت مرتبط با اقدامات مختلف فرستنده.ما مقایسه می کنیم بازپرداخت فرستنده در این تنظیم با دو معیار.در اول ، در علاوه بر تعهد به اقدامات خود ، فرستنده می تواند متعهد شود گیرنده با اطلاعات اضافی.در دوم ، فرستنده فقط می تواند مرتکب شود برای انتشار اطلاعات ، اما نمی تواند به اقدامات خود متعهد شود.ما خود را نشان می دهیم نتایج با برنامه های کاربردی به سیگنالینگ بازار کار ، ارتباط با دروغگویی هزینه ها و افشای اطلاعات.
30,193
Graphical models are a powerful tool to estimate a high-dimensional inverse covariance (precision) matrix, which has been applied for a portfolio allocation problem. The assumption made by these models is a sparsity of the precision matrix. However, when stock returns are driven by common factors, such assumption does not hold. We address this limitation and develop a framework, Factor Graphical Lasso (FGL), which integrates graphical models with the factor structure in the context of portfolio allocation by decomposing a precision matrix into low-rank and sparse components. Our theoretical results and simulations show that FGL consistently estimates the portfolio weights and risk exposure and also that FGL is robust to heavy-tailed distributions which makes our method suitable for financial applications. FGL-based portfolios are shown to exhibit superior performance over several prominent competitors including equal-weighted and Index portfolios in the empirical application for the S&P500 constituents.
مدل های گرافیکی ابزاری قدرتمند برای تخمین معکوس با ابعاد بالا هستند ماتریس کواریانس (دقت) ، که برای یک نمونه کارها اعمال شده است مشکل تخصیصفرض ساخته شده توسط این مدل ها ، کمبودی است ماتریس دقیق.با این حال ، هنگامی که بازده سهام توسط عوامل مشترک هدایت می شود ، چنین فرضیه ای ندارد.ما به این محدودیت می پردازیم و توسعه می دهیم چارچوب ، فاکتور گرافیکی Lasso (FGL) ، که مدلهای گرافیکی را با آن ادغام می کند ساختار عاملی در زمینه تخصیص نمونه کارها با تجزیه a ماتریس دقیق به اجزای کم درجه و پراکنده.نتایج نظری ما و شبیه سازی ها نشان می دهد که FGL به طور مداوم وزن نمونه کارها را تخمین می زند و قرار گرفتن در معرض خطر و همچنین اینکه FGL نسبت به توزیع های با دم سنگین قوی است روش ما را برای برنامه های مالی مناسب می کند.اوراق بهادار مبتنی بر FGL هستند نشان داده شده است که عملکرد برتر را نسبت به چندین رقبای برجسته نشان می دهد از جمله پرتفوی با وزن برابر و شاخص در برنامه تجربی برای ترکیبات S&P500.
30,194
This paper investigates the benefits of internet search data in the form of Google Trends for nowcasting real U.S. GDP growth in real time through the lens of mixed frequency Bayesian Structural Time Series (BSTS) models. We augment and enhance both model and methodology to make these better amenable to nowcasting with large number of potential covariates. Specifically, we allow shrinking state variances towards zero to avoid overfitting, extend the SSVS (spike and slab variable selection) prior to the more flexible normal-inverse-gamma prior which stays agnostic about the underlying model size, as well as adapt the horseshoe prior to the BSTS. The application to nowcasting GDP growth as well as a simulation study demonstrate that the horseshoe prior BSTS improves markedly upon the SSVS and the original BSTS model with the largest gains in dense data-generating-processes. Our application also shows that a large dimensional set of search terms is able to improve nowcasts early in a specific quarter before other macroeconomic data become available. Search terms with high inclusion probability have good economic interpretation, reflecting leading signals of economic anxiety and wealth effects.
در این مقاله به بررسی مزایای داده های جستجوی اینترنت در قالب Google Trends برای رشد تولید ناخالص داخلی واقعی ایالات متحده در زمان واقعی از طریق لنز از مدل های سری سازه ساختاری بیزی فرکانس مختلط (BSTS).ما تقویت می کنیم و هر دو مدل و روش را تقویت کنید تا این موارد بهتر از آن استفاده کنند در حال حاضر با تعداد زیادی از متغیرهای بالقوه.به طور خاص ، ما اجازه می دهیم برای جلوگیری از بیش از حد ، واریانس حالت را به سمت صفر کاهش دهید ، SSV ها را گسترش دهید (انتخاب متغیر سنبله و دال) قبل از انعطاف پذیر تر گاما-گاما طبیعی که در مورد مدل زیرین آگنوستیک باقی می ماند اندازه ، و همچنین نعل اسب را قبل از BST ها سازگار کنید.برنامه به رشد تولید ناخالص داخلی Nowcasting و همچنین یک مطالعه شبیه سازی نشان می دهد که BSTS Horseshoe BSTS به طور قابل توجهی بر روی SSV ها و BST های اصلی بهبود می یابد مدل با بزرگترین سود در فرآیندهای تولیدی متراکم.ما برنامه همچنین نشان می دهد که یک مجموعه بزرگ ابعادی از اصطلاحات جستجو قادر است قبل از سایر داده های کلان اقتصادی ، در اوایل یک سه ماهه خاص را بهبود بخشید در دسترس قرار می گیردشرایط جستجو با احتمال ورود زیاد به خوبی دارند تفسیر اقتصادی ، منعکس کننده سیگنال های برجسته اضطراب اقتصادی و اثرات ثروت.
30,195
Rapid and accurate detection of community outbreaks is critical to address the threat of resurgent waves of COVID-19. A practical challenge in outbreak detection is balancing accuracy vs. speed. In particular, while estimation accuracy improves with longer fitting windows, speed degrades. This paper presents a machine learning framework to balance this tradeoff using generalized random forests (GRF), and applies it to detect county level COVID-19 outbreaks. This algorithm chooses an adaptive fitting window size for each county based on relevant features affecting the disease spread, such as changes in social distancing policies. Experiment results show that our method outperforms any non-adaptive window size choices in 7-day ahead COVID-19 outbreak case number predictions.
تشخیص سریع و دقیق شیوع جامعه برای رسیدگی بسیار مهم است تهدید امواج زنده کننده Covid-19.یک چالش عملی در شیوع تشخیص دقت در مقابل سرعت است.به طور خاص ، در حالی که تخمین دقت با پنجره های مناسب تر ، تخریب سرعت بهبود می یابد.این کاغذ یک چارچوب یادگیری ماشین را برای تعادل این تجارت با استفاده از آن ارائه می دهد جنگل های تصادفی عمومی (GRF) ، و آن را برای تشخیص سطح شهرستان اعمال می کند شیوع Covid-19.این الگوریتم اندازه پنجره مناسب تطبیقی ​​را برای انتخاب می کند هر ایالت بر اساس ویژگی های مربوطه که بر گسترش بیماری تأثیر می گذارد ، مانند تغییر در سیاست های فاصله اجتماعی.نتایج آزمایش نشان می دهد که روش ما از هرگونه انتخاب اندازه پنجره غیر سازگار در 7 روز پیش رو Covid-19 بهتر است پیش بینی شماره مورد شیوع.
30,196
We consider settings where an allocation has to be chosen repeatedly, returns are unknown but can be learned, and decisions are subject to constraints. Our model covers two-sided and one-sided matching, even with complex constraints. We propose an approach based on Thompson sampling. Our main result is a prior-independent finite-sample bound on the expected regret for this algorithm. Although the number of allocations grows exponentially in the number of participants, the bound does not depend on this number. We illustrate the performance of our algorithm using data on refugee resettlement in the United States.
ما تنظیماتی را در نظر می گیریم که یک تخصیص باید به طور مکرر انتخاب شود ، باز می گردد ناشناخته هستند اما می توان آموخت ، و تصمیمات منوط به محدودیت ها هستند.ما مدل شامل تطبیق دو طرفه و یک طرفه ، حتی با محدودیت های پیچیده است. ما یک رویکرد مبتنی بر نمونه گیری تامپسون پیشنهاد می کنیم.نتیجه اصلی ما یک است نمونه محدود و مستقل قبلی به پشیمانی مورد انتظار برای این امر محدود شده است الگوریتماگرچه تعداد تخصیص ها به صورت نمایی در تعداد رشد می کند از شرکت کنندگان ، محدوده به این تعداد بستگی ندارد.ما نشان می دهیم عملکرد الگوریتم ما با استفاده از داده های اسکان مجدد پناهندگان در یونایتد ایالت ها.
30,197
Superspreading complicates the study of SARS-CoV-2 transmission. I propose a model for aggregated case data that accounts for superspreading and improves statistical inference. In a Bayesian framework, the model is estimated on German data featuring over 60,000 cases with date of symptom onset and age group. Several factors were associated with a strong reduction in transmission: public awareness rising, testing and tracing, information on local incidence, and high temperature. Immunity after infection, school and restaurant closures, stay-at-home orders, and mandatory face covering were associated with a smaller reduction in transmission. The data suggests that public distancing rules increased transmission in young adults. Information on local incidence was associated with a reduction in transmission of up to 44% (95%-CI: [40%, 48%]), which suggests a prominent role of behavioral adaptations to local risk of infection. Testing and tracing reduced transmission by 15% (95%-CI: [9%,20%]), where the effect was strongest among the elderly. Extrapolating weather effects, I estimate that transmission increases by 53% (95%-CI: [43%, 64%]) in colder seasons.
فوق العاده ، مطالعه انتقال SARS-COV-2 را پیچیده می کند.من پیشنهاد می کنم الگویی برای داده های موردی جمع شده که برای تولید فوق العاده به حساب می آید و بهبود می یابد استنباط آماری.در یک چارچوب بیزی ، مدل برآورد شده است داده های آلمانی با بیش از 60،000 مورد با تاریخ شروع و سن علائم گروهعوامل مختلفی با کاهش شدید انتقال همراه بودند: افزایش آگاهی عمومی ، آزمایش و ردیابی ، اطلاعات مربوط به بروز محلی ، و درجه حرارت بالامصونیت بعد از عفونت ، بسته شدن مدرسه و رستوران ، دستورات در خانه و پوشش اجباری صورت با کوچکتر همراه بود کاهش انتقال.داده ها حاکی از آن است که قوانین دور زدن عمومی افزایش انتقال در بزرگسالان جوان.اطلاعات مربوط به بروز محلی بود همراه با کاهش انتقال تا 44 ٪ (95 ٪ -CI: [40 ٪ ، 48 ٪] ، که نقش برجسته ای از سازگاری های رفتاری با خطر محلی را نشان می دهد عفونتآزمایش و ردیابی کاهش 15 ٪ (95 ٪ -CI: [9 ٪ ، 20 ٪]) ، جایی که این اثر در بین سالمندان قوی ترین بود.برون یابی هوا اثرات ، من تخمین می زنم که انتقال 53 ٪ (95 ٪ -CI: [43 ٪ ، 64 ٪]) در فصل های سردتر.
30,198
The existing approaches to sparse wealth allocations (1) are limited to low-dimensional setup when the number of assets is less than the sample size; (2) lack theoretical analysis of sparse wealth allocations and their impact on portfolio exposure; (3) are suboptimal due to the bias induced by an $\ell_1$-penalty. We address these shortcomings and develop an approach to construct sparse portfolios in high dimensions. Our contribution is twofold: from the theoretical perspective, we establish the oracle bounds of sparse weight estimators and provide guidance regarding their distribution. From the empirical perspective, we examine the merit of sparse portfolios during different market scenarios. We find that in contrast to non-sparse counterparts, our strategy is robust to recessions and can be used as a hedging vehicle during such times.
رویکردهای موجود برای تخصیص ثروت پراکنده (1) محدود به تنظیم کم بعدی هنگامی که تعداد دارایی ها کمتر از اندازه نمونه باشد. (2) فاقد تجزیه و تحلیل نظری از تخصیص ثروت پراکنده و تأثیر آنها بر قرار گرفتن در معرض نمونه کارها ؛(3) به دلیل تعصب ناشی از یک زیر حد متوسط ​​هستند $ \ ell_1 $ -penalty.ما به این کاستی ها می پردازیم و رویکردی را توسعه می دهیم ساخت اوراق بهادار پراکنده در ابعاد بالا.سهم ما دو برابر است: از دیدگاه نظری ، مرزهای اوراکل پراکنده را تعیین می کنیم برآوردگر وزن و راهنمایی در مورد توزیع آنها ارائه می دهد.از دیدگاه تجربی ، ما شایستگی اوراق بهادار پراکنده را در طول بررسی می کنیم سناریوهای مختلف بازار.ما می دانیم که برخلاف غیررس همتا ، استراتژی ما نسبت به رکود اقتصادی قوی است و می تواند به عنوان پرچین استفاده شود وسیله نقلیه در چنین مواقعی.
30,199
In this paper we propose a time-varying parameter (TVP) vector error correction model (VECM) with heteroskedastic disturbances. We propose tools to carry out dynamic model specification in an automatic fashion. This involves using global-local priors, and postprocessing the parameters to achieve truly sparse solutions. Depending on the respective set of coefficients, we achieve this via minimizing auxiliary loss functions. Our two-step approach limits overfitting and reduces parameter estimation uncertainty. We apply this framework to modeling European electricity prices. When considering daily electricity prices for different markets jointly, our model highlights the importance of explicitly addressing cointegration and nonlinearities. In a forecast exercise focusing on hourly prices for Germany, our approach yields competitive metrics of predictive accuracy.
در این مقاله ما یک خطای بردار پارامتر متغیر زمان (TVP) را پیشنهاد می کنیم مدل تصحیح (VECM) با اختلالات هتروسیکاستیکی.ما ابزاری را پیشنهاد می کنیم مشخصات مدل پویا را به صورت خودکار انجام دهید.این شامل می شود با استفاده از مقدمات جهانی محلی و پس از پردازش پارامترها برای دستیابی به واقعاً راه حل های پراکنده.بسته به مجموعه ضرایب مربوطه ، ما به دست می آوریم این از طریق به حداقل رساندن توابع از دست دادن کمکی.رویکرد دو مرحله ای ما بیش از حد و تخمین پارامتر را کاهش داده و کاهش می دهد.ما این را اعمال می کنیم چارچوب مدل سازی قیمت برق اروپا.وقتی روزانه در نظر می گیرید قیمت برق برای بازارهای مختلف به طور مشترک ، مدل ما برجسته است اهمیت صریح پرداختن به همبستگی و غیرخطی.در یک تمرین پیش بینی با تمرکز بر قیمت ساعتی برای آلمان ، رویکرد ما بازده معیارهای رقابتی دقت پیش بینی.
30,201
This paper is concerned with testing and dating structural breaks in the dependence structure of multivariate time series. We consider a cumulative sum (CUSUM) type test for constant copula-based dependence measures, such as Spearman's rank correlation and quantile dependencies. The asymptotic null distribution is not known in closed form and critical values are estimated by an i.i.d. bootstrap procedure. We analyze size and power properties in a simulation study under different dependence measure settings, such as skewed and fat-tailed distributions. To date break points and to decide whether two estimated break locations belong to the same break event, we propose a pivot confidence interval procedure. Finally, we apply the test to the historical data of ten large financial firms during the last financial crisis from 2002 to mid-2013.
این مقاله مربوط به آزمایش و دوستیابی استراحت ساختاری در ساختار وابستگی سری زمانی چند متغیره.ما مبلغ تجمعی را در نظر می گیریم (cusum) تست نوع برای اقدامات وابستگی مبتنی بر کوپول ، مانند همبستگی رتبه Spearman و وابستگی های کمی.تهی بدون علامت توزیع به صورت بسته مشخص نیست و مقادیر بحرانی توسط تخمین زده می شود یک I.I.D.روش bootstrap.ما اندازه و خصوصیات برق را در a تجزیه و تحلیل می کنیم مطالعه شبیه سازی تحت تنظیمات مختلف اندازه گیری وابستگی ، مانند skewed و توزیع های دم چربی.تا به امروز نقاط شکست و تصمیم گیری در مورد دو مکان های تخمین زده شده به همان رویداد شکست تعلق دارند ، ما یک محوری پیشنهاد می کنیم روش فاصله اطمینان.سرانجام ، ما آزمون را به تاریخی اعمال می کنیم اطلاعات ده شرکت بزرگ مالی در آخرین بحران مالی از سال 2002 تا اواسط سال 2013.
30,202
Conditional distribution functions are important statistical objects for the analysis of a wide class of problems in econometrics and statistics. We propose flexible Gaussian representations for conditional distribution functions and give a concave likelihood formulation for their global estimation. We obtain solutions that satisfy the monotonicity property of conditional distribution functions, including under general misspecification and in finite samples. A Lasso-type penalized version of the corresponding maximum likelihood estimator is given that expands the scope of our estimation analysis to models with sparsity. Inference and estimation results for conditional distribution, quantile and density functions implied by our representations are provided and illustrated with an empirical example and simulations.
توابع توزیع مشروط اشیاء آماری مهمی برای تجزیه و تحلیل طبقه گسترده ای از مشکلات در اقتصاد سنج و آمار.ما پیشنهاد می کنیم بازنمودهای انعطاف پذیر گاوسی برای توابع توزیع مشروط و برای برآورد جهانی خود یک فرمول احتمال مقعر ارائه دهید.ما بدست می آوریم راه حل هایی که خاصیت یکنواختی توزیع مشروط را برآورده می کنند توابع ، از جمله تحت عنوان غلط عمومی و در نمونه های محدود.آ نسخه مجازات شده از نوع لاسو از برآوردگر حداکثر احتمال داده شده است که دامنه تجزیه و تحلیل تخمین ما را به مدل ها گسترش می دهد کمبوداستنباط و نتایج تخمین برای توزیع مشروط ، توابع کمی و چگالی که توسط بازنمایی ما دلالت دارد ارائه شده و با یک مثال تجربی و شبیه سازی ها نشان داده شده است.
30,203
In this paper I revisit the interpretation of the linear instrumental variables (IV) estimand as a weighted average of conditional local average treatment effects (LATEs). I focus on a practically relevant situation in which additional covariates are required for identification while the reduced-form and first-stage regressions implicitly restrict the effects of the instrument to be homogeneous, and are thus possibly misspecified. I show that the weights on some conditional LATEs are negative and the IV estimand is no longer interpretable as a causal effect under a weaker version of monotonicity, i.e. when there are compliers but no defiers at some covariate values and defiers but no compliers elsewhere. The problem of negative weights disappears in the overidentified specification of Angrist and Imbens (1995) and in an alternative method, termed "reordered IV," that I also outline. Even if all weights are positive, the IV estimand in the just identified specification is not interpretable as the unconditional LATE parameter unless the groups with different values of the instrument are roughly equal sized. I illustrate my findings in an application to causal effects of college education using the college proximity instrument. The benchmark estimates suggest that college attendance yields earnings gains of about 60 log points, which is well outside the range of estimates in the recent literature. I demonstrate, however, that this result is driven by the presence of negative weights. Corrected estimates indicate that attending college causes earnings to be roughly 20% higher.
در این مقاله ، تفسیر ابزار خطی را دوباره مرور می کنم متغیرها (IV) برآورد به عنوان میانگین وزنی متوسط ​​محلی مشروط اثرات درمانی (LATES).من روی یک وضعیت عملاً مرتبط تمرکز می کنم که در آن متغیرهای اضافی برای شناسایی در حالی که فرم کاهش یافته است لازم است و رگرسیون مرحله اول به طور ضمنی اثرات ساز را محدود می کند همگن بودن ، و از این رو احتمالاً اشتباه می شود.من نشان می دهم که وزن در برخی از مشروط های مشروط منفی است و برآورد IV دیگر نیست قابل تفسیر به عنوان یک اثر علیت تحت یک نسخه ضعیف تر از یکنواختی ، یعنی. هنگامی که تعارف وجود دارد اما در برخی از مقادیر متغیرهای متغیرهای متغیر وجود ندارد اما هیچ جاسیسی در جای دیگر وجود ندارد.مشکل وزن منفی در مشخصات بیش از حد Angrist and Imbens (1995) و در یک جایگزین روش ، با نام "تنظیم شده IV" نامیده می شود که من نیز بیان می کنم.حتی اگر همه وزن ها باشند مثبت ، برآورد IV در مشخصات مشخص شده درست نیست قابل تفسیر به عنوان پارامتر دیرهنگام بی قید و شرط مگر اینکه گروه هایی با آن مقادیر مختلف ابزار تقریباً برابر است.من خود را نشان می دهم یافته ها در یک برنامه کاربردی برای تأثیرات علیت آموزش دانشگاه با استفاده از ابزار مجاورت کالج.برآوردهای معیار نشان می دهد که کالج حضور و غیاب سود درآمد حدود 60 امتیاز ورود به سیستم را به دست می آورد ، که در خارج است دامنه تخمین ها در ادبیات اخیر.با این حال ، من این را نشان می دهم این نتیجه با وجود وزن منفی هدایت می شود.برآوردهای اصلاح شده نشان می دهد که حضور در کالج باعث می شود درآمد تقریباً 20 ٪ بیشتر شود.
30,204
The impacts of new real estate developments are strongly associated to its population distribution (types and compositions of households, incomes, social demographics) conditioned on aspects such as dwelling typology, price, location, and floor level. This paper presents a Machine Learning based method to model the population distribution of upcoming developments of new buildings within larger neighborhood/condo settings. We use a real data set from Ecopark Township, a real estate development project in Hanoi, Vietnam, where we study two machine learning algorithms from the deep generative models literature to create a population of synthetic agents: Conditional Variational Auto-Encoder (CVAE) and Conditional Generative Adversarial Networks (CGAN). A large experimental study was performed, showing that the CVAE outperforms both the empirical distribution, a non-trivial baseline model, and the CGAN in estimating the population distribution of new real estate development projects.
تأثیرات تحولات جدید املاک و مستغلات به شدت با آن همراه است توزیع جمعیت (انواع و ترکیب خانوارها ، درآمد ، اجتماعی جمعیتی) با توجه به جنبه هایی مانند نوع شناسی مسکن ، قیمت ، مکان و سطح کف.در این مقاله یک روش مبتنی بر یادگیری ماشین ارائه شده است برای الگوبرداری از توزیع جمعیت تحولات آینده ساختمانهای جدید در تنظیمات محله/کاندو بزرگتر. ما از یک مجموعه داده واقعی از Ecopark Township ، توسعه املاک و مستغلات استفاده می کنیم پروژه در هانوی ، ویتنام ، جایی که ما دو الگوریتم یادگیری ماشین را از آن مطالعه می کنیم ادبیات مدل های تولیدی عمیق برای ایجاد جمعیتی از مصنوعی عوامل: رمزگذاری خودکار متغیر مشروط (CVAE) و تولید کننده مشروط شبکه های مخالف (CGAN).یک مطالعه آزمایشی بزرگ انجام شد که نشان می دهد اینکه CVAE از توزیع تجربی بهتر است ، غیرعادی مدل پایه و CGAN در تخمین توزیع جمعیت جدید پروژه های توسعه املاک و مستغلات.
30,205
In the stochastic volatility models for multivariate daily stock returns, it has been found that the estimates of parameters become unstable as the dimension of returns increases. To solve this problem, we focus on the factor structure of multiple returns and consider two additional sources of information: first, the realized stock index associated with the market factor, and second, the realized covariance matrix calculated from high frequency data. The proposed dynamic factor model with the leverage effect and realized measures is applied to ten of the top stocks composing the exchange traded fund linked with the investment return of the SP500 index and the model is shown to have a stable advantage in portfolio performance.
در مدلهای نوسانات تصادفی برای بازده سهام روزانه چند متغیره ، آن مشخص شده است که برآورد پارامترها به عنوان ناپایدار می شوند بعد بازده افزایش می یابد.برای حل این مشکل ، ما روی عامل تمرکز می کنیم ساختار بازده های متعدد و دو منبع اضافی را در نظر بگیرید اطلاعات: اول ، شاخص سهام تحقق یافته مرتبط با عامل بازار ، و دوم ، ماتریس کواریانس تحقق یافته از داده های فرکانس بالا محاسبه می شود. مدل فاکتور پویا پیشنهادی با اثر اهرم و تحقق یافته اقدامات برای ده سهام برتر که صندوق معامله شده ارز را تشکیل می دهند اعمال می شود مرتبط با بازده سرمایه گذاری شاخص SP500 و مدل نشان داده شده است در عملکرد نمونه کارها یک مزیت پایدار داشته باشید.
30,206
This paper shows how to use a randomized saturation experimental design to identify and estimate causal effects in the presence of spillovers--one person's treatment may affect another's outcome--and one-sided non-compliance--subjects can only be offered treatment, not compelled to take it up. Two distinct causal effects are of interest in this setting: direct effects quantify how a person's own treatment changes her outcome, while indirect effects quantify how her peers' treatments change her outcome. We consider the case in which spillovers occur within known groups, and take-up decisions are invariant to peers' realized offers. In this setting we point identify the effects of treatment-on-the-treated, both direct and indirect, in a flexible random coefficients model that allows for heterogeneous treatment effects and endogenous selection into treatment. We go on to propose a feasible estimator that is consistent and asymptotically normal as the number and size of groups increases. We apply our estimator to data from a large-scale job placement services experiment, and find negative indirect treatment effects on the likelihood of employment for those willing to take up the program. These negative spillovers are offset by positive direct treatment effects from own take-up.
این مقاله نحوه استفاده از یک طرح آزمایشی اشباع تصادفی را نشان می دهد اثرات علی را در حضور سرریزها شناسایی و تخمین بزنید-یکی درمان شخص ممکن است بر نتیجه دیگری تأثیر بگذارد-و یک طرفه عدم انطباق-افراد فقط می توانند تحت درمان قرار بگیرند ، و مجبور به انجام آن نیستند آن را بالادو اثر علیت متمایز مورد توجه این تنظیمات است: مستقیم اثرات را تعیین می کند که چگونه درمان شخصی شخص نتیجه او را تغییر می دهد ، در حالی که اثرات غیرمستقیم چگونگی تغییر درمان همسالانش نتیجه او را تعیین می کند.ما موردی را در نظر بگیرید که در آن سرریزها در گروههای شناخته شده اتفاق می افتد و برداشت می شود تصمیمات برای پیشنهادات تحقق یافته همسالان متغیر است.در این تنظیم ما اشاره می کنیم اثرات درمان بر روی درمان ، مستقیم و غیرمستقیم را در آن شناسایی کنید یک مدل ضرایب تصادفی انعطاف پذیر که امکان درمان ناهمگن را فراهم می کند اثرات و انتخاب درون زا در درمان.ما ادامه می دهیم تا یک امکان پذیر ارائه دهیم برآوردگر سازگار و بدون علامت طبیعی به عنوان تعداد و اندازه از گروه ها افزایش می یابد.ما برآوردگر خود را برای داده های یک کار در مقیاس بزرگ اعمال می کنیم آزمایش خدمات قرار دادن ، و اثرات درمانی غیرمستقیم منفی بر روی احتمال اشتغال برای کسانی که مایل به انجام برنامه هستند.اینها سرریزهای منفی با اثرات مثبت درمانی مثبت از خود جبران می شوند گرفتن
30,207
This paper proposes a criterion for simultaneous GMM model and moment selection: the generalized focused information criterion (GFIC). Rather than attempting to identify the "true" specification, the GFIC chooses from a set of potentially mis-specified moment conditions and parameter restrictions to minimize the mean-squared error (MSE) of a user-specified target parameter. The intent of the GFIC is to formalize a situation common in applied practice. An applied researcher begins with a set of fairly weak "baseline" assumptions, assumed to be correct, and must decide whether to impose any of a number of stronger, more controversial "suspect" assumptions that yield parameter restrictions, additional moment conditions, or both. Provided that the baseline assumptions identify the model, we show how to construct an asymptotically unbiased estimator of the asymptotic MSE to select over these suspect assumptions: the GFIC. We go on to provide results for post-selection inference and model averaging that can be applied both to the GFIC and various alternative selection criteria. To illustrate how our criterion can be used in practice, we specialize the GFIC to the problem of selecting over exogeneity assumptions and lag lengths in a dynamic panel model, and show that it performs well in simulations. We conclude by applying the GFIC to a dynamic panel data model for the price elasticity of cigarette demand.
در این مقاله معیار برای مدل و لحظه GMM همزمان ارائه شده است انتخاب: معیار اطلاعات متمرکز عمومی (GFIC).به جای GFIC با تلاش برای شناسایی مشخصات "واقعی" ، مجموعه ای از شرایط لحظه ای که به طور بالقوه مشخص شده است و محدودیت های پارامتر به خطای میانگین مربع (MSE) یک پارامتر هدف مشخص شده توسط کاربر را به حداقل برسانید.در هدف از GFF رسمی سازی وضعیتی مشترک در عمل کاربردی است.در محقق کاربردی با مجموعه ای از فرضیات "پایه" نسبتاً ضعیف ، شروع می شود ، فرض می شود که صحیح باشد ، و باید تصمیم بگیرد که آیا تعدادی از آنها را تحمیل کند فرضیات "مشکوک" قوی تر و بحث برانگیزتر که پارامتر تولید می کنند محدودیت ها ، شرایط لحظه اضافی یا هر دو.به شرط آنکه پایه باشد فرضیات مدل را شناسایی می کنیم ، ما نشان می دهیم که چگونه می توان بدون علامت ساخت برآوردگر بی طرفانه از MSE بدون علامت برای انتخاب این مظنون فرضیات: gff.ما در ادامه می خواهیم نتایج استنباط پس از انتخابات را ارائه دهیم و میانگین مدل که می تواند هم در GFIC و هم در مختلف اعمال شود معیارهای انتخاب جایگزین.برای نشان دادن چگونگی استفاده از معیار ما تمرین ، ما GFIC را برای مشکل انتخاب بیش از اگزوژن تخصص می دهیم فرضیات و طول تاخیر در یک مدل پانل پویا ، و نشان می دهد که انجام می دهد خوب در شبیه سازی ها.ما با استفاده از GFIC در داده های پانل پویا نتیجه می گیریم مدل برای کشش قیمت تقاضای سیگار.
30,208
Factor model is an appealing and effective analytic tool for high-dimensional time series, with a wide range of applications in economics, finance and statistics. This paper develops two criteria for the determination of the number of factors for tensor factor models where the signal part of an observed tensor time series assumes a Tucker decomposition with the core tensor as the factor tensor. The task is to determine the dimensions of the core tensor. One of the proposed criteria is similar to information based criteria of model selection, and the other is an extension of the approaches based on the ratios of consecutive eigenvalues often used in factor analysis for panel time series. Theoretically results, including sufficient conditions and convergence rates, are established. The results include the vector factor models as special cases, with an additional convergence rates. Simulation studies provide promising finite sample performance for the two criteria.
مدل فاکتور یک ابزار تحلیلی جذاب و مؤثر برای ابعاد بالا است سری زمانی ، با طیف گسترده ای از برنامه های کاربردی در اقتصاد ، امور مالی و آمار.این مقاله دو معیار برای تعیین تعداد عوامل برای مدلهای فاکتور تانسور که در آن قسمت سیگنال مشاهده شده است سری زمانی Tensor فرضیه تجزیه Tucker با Tensor Core را به عنوان فاکتور تانسور.وظیفه تعیین ابعاد تانسور هسته است.یکی از معیارهای پیشنهادی مشابه معیارهای مبتنی بر اطلاعات مدل است انتخاب و دیگری گسترش رویکردها بر اساس نسبت ها از مقادیر ویژه متوالی که اغلب در تجزیه و تحلیل عاملی برای سری زمانی پانل استفاده می شود. از لحاظ تئوریکی نتایج ، از جمله شرایط کافی و نرخ همگرایی ، تأسیس شده اندنتایج شامل مدل های عامل بردار به عنوان موارد خاص است ، با نرخ همگرایی اضافی.مطالعات شبیه سازی امیدوار کننده است عملکرد نمونه محدود برای دو معیار.
30,209
We propose a new framework for modeling high-dimensional matrix-variate time series by a two-way transformation, where the transformed data consist of a matrix-variate factor process, which is dynamically dependent, and three other blocks of white noises. Specifically, for a given $p_1\times p_2$ matrix-variate time series, we seek common nonsingular transformations to project the rows and columns onto another $p_1$ and $p_2$ directions according to the strength of the dynamic dependence of the series on the past values. Consequently, we treat the data as nonsingular linear row and column transformations of dynamically dependent common factors and white noise idiosyncratic components. We propose a common orthonormal projection method to estimate the front and back loading matrices of the matrix-variate factors. Under the setting that the largest eigenvalues of the covariance of the vectorized idiosyncratic term diverge for large $p_1$ and $p_2$, we introduce a two-way projected Principal Component Analysis (PCA) to estimate the associated loading matrices of the idiosyncratic terms to mitigate such diverging noise effects. A diagonal-path white noise testing procedure is proposed to estimate the order of the factor matrix. %under the assumption that the idiosyncratic term is a matrix-variate white noise process. Asymptotic properties of the proposed method are established for both fixed and diverging dimensions as the sample size increases to infinity. We use simulated and real examples to assess the performance of the proposed method. We also compare our method with some existing ones in the literature and find that the proposed approach not only provides interpretable results but also performs well in out-of-sample forecasting.
ما یک چارچوب جدید برای مدل سازی زمان ماتریس با ابعاد بالا پیشنهاد می کنیم سری توسط یک تحول دو طرفه ، که در آن داده های تبدیل شده از a تشکیل شده است فرآیند فاکتور متغیر ماتریس ، که به صورت پویا وابسته است و سه مورد دیگر بلوک صداهای سفید.به طور خاص ، برای یک $ p_1 \ times p_2 $ سریال زمانی ماتریس متغیر ، ما به دنبال تحولات غیرقانونی مشترک به ردیف ها و ستون ها را روی دستورالعمل های $ p_1 $ و $ p_2 $ با توجه به به قدرت وابستگی پویا این سریال به مقادیر گذشته. در نتیجه ، ما داده ها را به عنوان ردیف و ستون خطی nonsingular درمان می کنیم تحولات عوامل مشترک وابسته به پویا و سر و صدای سفید اجزای خاص.ما یک روش پیش بینی متعامد مشترک را به ماتریس بارگذاری جلو و عقب از عوامل متغیر ماتریس را تخمین بزنید. تحت این تنظیم که بزرگترین مقادیر ویژه کواریانس واگرایی اصطلاحات وکتور شده برای واگرایی بزرگ برای $ p_1 $ و $ p_2 $ ، ما یک معرفی می کنیم تجزیه و تحلیل مؤلفه اصلی پیش بینی شده دو طرفه (PCA) برای برآورد همراه بارگیری ماتریس از اصطلاحات ایدیوسنکراتیک برای کاهش چنین سر و صدای واگرا اثراتروش آزمایش سر و صدای سفید مورب برای برآورد پیشنهاد شده است ترتیب ماتریس فاکتور.٪ با این فرض که احمقانه است اصطلاح یک فرآیند نویز سفید ماتریس متغیر است.خصوصیات بدون علامت روش پیشنهادی برای هر دو ابعاد ثابت و واگرا به عنوان اندازه نمونه به بی نهایت افزایش می یابد.ما برای ارزیابی از نمونه های شبیه سازی شده و واقعی استفاده می کنیم عملکرد روش پیشنهادی.ما همچنین روش خود را با برخی مقایسه می کنیم موجودات موجود در ادبیات و دریافتند که رویکرد پیشنهادی نه تنها نتایج قابل تفسیر را ارائه می دهد اما در خارج از نمونه نیز عملکرد خوبی دارد پیش بینی
30,210
We provide an inference procedure for the sharp regression discontinuity design (RDD) under monotonicity, with possibly multiple running variables. Specifically, we consider the case where the true regression function is monotone with respect to (all or some of) the running variables and assumed to lie in a Lipschitz smoothness class. Such a monotonicity condition is natural in many empirical contexts, and the Lipschitz constant has an intuitive interpretation. We propose a minimax two-sided confidence interval (CI) and an adaptive one-sided CI. For the two-sided CI, the researcher is required to choose a Lipschitz constant where she believes the true regression function to lie in. This is the only tuning parameter, and the resulting CI has uniform coverage and obtains the minimax optimal length. The one-sided CI can be constructed to maintain coverage over all monotone functions, providing maximum credibility in terms of the choice of the Lipschitz constant. Moreover, the monotonicity makes it possible for the (excess) length of the CI to adapt to the true Lipschitz constant of the unknown regression function. Overall, the proposed procedures make it easy to see under what conditions on the underlying regression function the given estimates are significant, which can add more transparency to research using RDD methods.
ما یک روش استنباط برای ناپیوستگی رگرسیون شدید ارائه می دهیم طراحی (RDD) تحت یکنواختی ، با متغیرهای متعدد در حال اجرا. به طور خاص ، ما موردی را در نظر می گیریم که عملکرد رگرسیون واقعی باشد یکنواخت با توجه به متغیرهای در حال اجرا (همه یا برخی از) در یک کلاس صافی لیپشیتز دراز بکشید.چنین شرایط یکنواختی طبیعی است در بسیاری از زمینه های تجربی ، و ثابت Lipschitz شهودی دارد تفسیرما یک فاصله اطمینان دو طرفه Minimax (CI) و A را پیشنهاد می کنیم CI یک طرفه تطبیقی.برای CI دو طرفه ، محقق مورد نیاز است در جایی که او معتقد است عملکرد رگرسیون واقعی به آن ثابت می کند ، یک Lipschitz ثابت را انتخاب کنید دروغ بگوییم این تنها پارامتر تنظیم است و CI حاصل از آن یکنواخت است پوشش و طول بهینه Minimax را بدست می آورد.CI یک طرفه می تواند باشد ساخته شده برای حفظ پوشش بیش از همه توابع یکنواخت ، ارائه حداکثر اعتبار از نظر انتخاب ثابت لیپشیتز.علاوه بر این ، یکنواختی این امکان را برای طول (بیش از حد) CI فراهم می کند تا با آن سازگار شود ثابت واقعی لیپشیتز عملکرد رگرسیون ناشناخته.در کل ، رویه های پیشنهادی می توان در چه شرایطی در زیرین ، مشاهده کرد عملکرد رگرسیون تخمین های داده شده قابل توجه است ، که می تواند بیشتر اضافه کند شفافیت در تحقیق با استفاده از روشهای RDD.
30,211
Urban transportation and land use models have used theory and statistical modeling methods to develop model systems that are useful in planning applications. Machine learning methods have been considered too 'black box', lacking interpretability, and their use has been limited within the land use and transportation modeling literature. We present a use case in which predictive accuracy is of primary importance, and compare the use of random forest regression to multiple regression using ordinary least squares, to predict rents per square foot in the San Francisco Bay Area using a large volume of rental listings scraped from the Craigslist website. We find that we are able to obtain useful predictions from both models using almost exclusively local accessibility variables, though the predictive accuracy of the random forest model is substantially higher.
مدل های حمل و نقل شهری و استفاده از زمین از تئوری و آماری استفاده کرده اند روش های مدل سازی برای توسعه سیستم های مدل که در برنامه ریزی مفید هستند برنامه های کاربردی.روشهای یادگیری ماشین بیش از حد "جعبه سیاه" در نظر گرفته شده است ، فاقد تفسیر ، و استفاده از آنها در استفاده از زمین محدود شده است و ادبیات مدل سازی حمل و نقل.ما یک مورد استفاده را ارائه می دهیم که در آن دقت پیش بینی از اهمیت اصلی برخوردار است و استفاده از تصادفی را مقایسه می کند رگرسیون جنگل به رگرسیون چندگانه با استفاده از حداقل مربعات معمولی ، به پیش بینی اجاره به ازای هر فوت مربع در منطقه خلیج سانفرانسیسکو با استفاده از یک بزرگ حجم لیست های اجاره ای که از وب سایت Craigslist جدا شده است.متوجه می شویم که ما با استفاده از تقریباً منحصراً قادر به پیش بینی های مفیدی از هر دو مدل هستند متغیرهای دسترسی محلی ، هرچند دقت پیش بینی تصادفی مدل جنگل از نظر قابل ملاحظه ای بالاتر است.
30,212
Study samples often differ from the target populations of inference and policy decisions in non-random ways. Researchers typically believe that such departures from random sampling -- due to changes in the population over time and space, or difficulties in sampling truly randomly -- are small, and their corresponding impact on the inference should be small as well. We might therefore be concerned if the conclusions of our studies are excessively sensitive to a very small proportion of our sample data. We propose a method to assess the sensitivity of applied econometric conclusions to the removal of a small fraction of the sample. Manually checking the influence of all possible small subsets is computationally infeasible, so we use an approximation to find the most influential subset. Our metric, the "Approximate Maximum Influence Perturbation," is based on the classical influence function, and is automatically computable for common methods including (but not limited to) OLS, IV, MLE, GMM, and variational Bayes. We provide finite-sample error bounds on approximation performance. At minimal extra cost, we provide an exact finite-sample lower bound on sensitivity. We find that sensitivity is driven by a signal-to-noise ratio in the inference problem, is not reflected in standard errors, does not disappear asymptotically, and is not due to misspecification. While some empirical applications are robust, results of several influential economics papers can be overturned by removing less than 1% of the sample.
نمونه های مطالعه اغلب با جمعیت هدف استنباط متفاوت هستند و تصمیمات سیاست به روش های غیر تصادفی.محققان به طور معمول معتقدند که چنین عزیمت از نمونه گیری تصادفی - به دلیل تغییر در جمعیت به مرور زمان و فضا ، یا مشکلات در نمونه برداری واقعاً به طور تصادفی - کوچک و آنها است تأثیر متناظر بر استنباط نیز باید کوچک باشد.ما ممکن است بنابراین اگر نتیجه گیری از مطالعات ما بیش از حد باشد نگران باشید حساس به بخش بسیار کمی از داده های نمونه ما.ما روشی را پیشنهاد می کنیم ارزیابی حساسیت نتیجه گیری اقتصاد سنجی کاربردی در حذف a بخش کوچکی از نمونه.بررسی دستی تأثیر همه ممکن زیر مجموعه های کوچک از نظر محاسباتی غیرقابل نفوذ است ، بنابراین ما برای یافتن از تقریب استفاده می کنیم تأثیرگذارترین زیر مجموعه.متریک ما ، "حداکثر تأثیر تقریبی آشفتگی ، "مبتنی بر عملکرد نفوذ کلاسیک است ، و هست به طور خودکار برای روشهای مشترک از جمله (اما محدود به) OLS قابل محاسبه است ، IV ، MLE ، GMM و Bayes متنوع.ما مرزهای خطای نمونه محدود را ارائه می دهیم عملکرد تقریبی.با حداقل هزینه اضافی ، ما دقیقاً ارائه می دهیم نمونه محدود محدود به حساسیت.ما می دانیم که حساسیت توسط هدایت می شود نسبت سیگنال به نویز در مشکل استنباط ، در استاندارد منعکس نمی شود خطاها ، بدون علامت ناپدید نمی شوند و به دلیل اشتباه اشتباه نیست. در حالی که برخی از کاربردهای تجربی قوی هستند ، نتایج چندین تأثیرگذار مقالات اقتصاد را می توان با از بین بردن کمتر از 1 ٪ نمونه از بین برد.
30,213
Researchers have compared machine learning (ML) classifiers and discrete choice models (DCMs) in predicting travel behavior, but the generalizability of the findings is limited by the specifics of data, contexts, and authors' expertise. This study seeks to provide a generalizable empirical benchmark by comparing hundreds of ML and DCM classifiers in a highly structured manner. The experiments evaluate both prediction accuracy and computational cost by spanning four hyper-dimensions, including 105 ML and DCM classifiers from 12 model families, 3 datasets, 3 sample sizes, and 3 outputs. This experimental design leads to an immense number of 6,970 experiments, which are corroborated with a meta dataset of 136 experiment points from 35 previous studies. This study is hitherto the most comprehensive and almost exhaustive comparison of the classifiers for travel behavioral prediction. We found that the ensemble methods and deep neural networks achieve the highest predictive performance, but at a relatively high computational cost. Random forests are the most computationally efficient, balancing between prediction and computation. While discrete choice models offer accuracy with only 3-4 percentage points lower than the top ML classifiers, they have much longer computational time and become computationally impossible with large sample size, high input dimensions, or simulation-based estimation. The relative ranking of the ML and DCM classifiers is highly stable, while the absolute values of the prediction accuracy and computational time have large variations. Overall, this paper suggests using deep neural networks, model ensembles, and random forests as baseline models for future travel behavior prediction. For choice modeling, the DCM community should switch more attention from fitting models to improving computational efficiency, so that the DCMs can be widely adopted in the big data context.
محققان طبقه بندی کننده های یادگیری ماشین (ML) و گسسته را مقایسه کرده اند مدل های انتخاب (DCM) در پیش بینی رفتار سفر ، اما تعمیم پذیری این یافته ها با مشخصات داده ها ، زمینه ها و نویسندگان محدود است تجربه و تخصص.این مطالعه به دنبال ارائه یک معیار تجربی قابل تعمیم توسط توسط مقایسه صدها طبقه بندی کننده ML و DCM به روشی بسیار ساخت یافته.در آزمایشات هم دقت پیش بینی و هم هزینه محاسباتی را توسط شامل چهار تقسیم بیش از حد ، از جمله طبقه بندی 105 میلی لیتر و DCM از 12 خانواده های مدل ، 3 مجموعه داده ، 3 اندازه نمونه و 3 خروجی.این آزمایشی طراحی منجر به تعداد عظیمی از 6،970 آزمایش ، که تأیید شده اند با یک مجموعه داده متا از 136 امتیاز آزمایش از 35 مطالعه قبلی.این مطالعه تاکنون جامع ترین و تقریباً جامع ترین مقایسه است طبقه بندی کننده های پیش بینی رفتاری سفر.متوجه شدیم که این گروه روش ها و شبکه های عصبی عمیق به بالاترین عملکرد پیش بینی کننده دست می یابند ، اما با هزینه محاسباتی نسبتاً بالا.جنگل های تصادفی بیشترین دارند از نظر محاسباتی کارآمد ، متعادل بین پیش بینی و محاسبات.در حالی که مدل های انتخاب گسسته ، دقت را با تنها 3-4 درصد پایین تر ارائه می دهند از طبقه بندی کننده های برتر ML ، آنها زمان محاسباتی بسیار طولانی تری دارند و با اندازه نمونه بزرگ ، ورودی زیاد از نظر محاسباتی غیرممکن شوید ابعاد ، یا برآورد مبتنی بر شبیه سازی.رتبه نسبی ML و طبقه بندی کننده های DCM بسیار پایدار است ، در حالی که مقادیر مطلق پیش بینی دقت و زمان محاسباتی دارای تغییرات زیادی است.در کل ، این مقاله پیشنهاد می کند از شبکه های عصبی عمیق ، مجموعه های مدل و جنگل های تصادفی به عنوان مدل های پایه برای پیش بینی رفتار سفر در آینده.برای مدل سازی انتخاب ، جامعه DCM باید توجه بیشتری را از مدل های متناسب به بهبود تغییر دهد راندمان محاسباتی ، به طوری که DCM ها می توانند به طور گسترده ای در BIG اتخاذ شوند متن داده.
30,214
This paper investigates the size performance of Wald tests for CAViaR models (Engle and Manganelli, 2004). We find that the usual estimation strategy on test statistics yields inaccuracies. Indeed, we show that existing density estimation methods cannot adapt to the time-variation in the conditional probability densities of CAViaR models. Consequently, we develop a method called adaptive random bandwidth which can approximate time-varying conditional probability densities robustly for inference testing on CAViaR models based on the asymptotic normality of the model parameter estimator. This proposed method also avoids the problem of choosing an optimal bandwidth in estimating probability densities, and can be extended to multivariate quantile regressions straightforward.
در این مقاله به بررسی عملکرد اندازه تست های والد برای مدلهای خاویار می پردازیم (انگل و مانگانلی ، 2004).ما می دانیم که استراتژی تخمین معمول در آمار آزمون نادرست ها را نشان می دهد.در واقع ، ما نشان می دهیم که چگالی موجود روشهای تخمین نمی توانند با متغیر زمان در شرطی سازگار شوند تراکم احتمال مدلهای خاویار.در نتیجه ، ما یک روش را توسعه می دهیم پهنای باند تصادفی تطبیقی ​​نامیده می شود که می تواند مشروط متغیر زمان باشد تراکم احتمال برای آزمایش استنباط بر روی مدلهای خاویار بر اساس نرمال بودن بدون علامت برآوردگر پارامتر مدل.این روش پیشنهادی همچنین از مشکل انتخاب پهنای باند بهینه در تخمین جلوگیری می کند تراکم احتمال ، و می توان به رگرسیون کمی چند متغیره گسترش داد مستقیم
30,215
We develop a novel method of constructing confidence bands for nonparametric regression functions under shape constraints. This method can be implemented via a linear programming, and it is thus computationally appealing. We illustrate a usage of our proposed method with an application to the regression kink design (RKD). Econometric analyses based on the RKD often suffer from wide confidence intervals due to slow convergence rates of nonparametric derivative estimators. We demonstrate that economic models and structures motivate shape restrictions, which in turn contribute to shrinking the confidence interval for an analysis of the causal effects of unemployment insurance benefits on unemployment durations.
ما یک روش جدید برای ساخت باند های اعتماد به نفس برای غیر پارامتری ایجاد می کنیم توابع رگرسیون تحت محدودیت های شکل.این روش قابل اجرا است از طریق یک برنامه نویسی خطی ، و از این رو از نظر محاسباتی جذاب است.ما استفاده از روش پیشنهادی ما را با یک برنامه برای رگرسیون نشان دهید طراحی Kink (RKD).تجزیه و تحلیل اقتصاد سنجی بر اساس RKD اغلب از گسترده رنج می برد فواصل اطمینان به دلیل سرعت همگرایی آهسته مشتق غیرپارامتری برآوردگرهاما نشان می دهیم که مدل ها و ساختارهای اقتصادی شکل انگیزه شکل می دهند محدودیت ها ، که به نوبه خود به کاهش فاصله اطمینان برای تجزیه و تحلیل اثرات علّی مزایای بیمه بیکاری بر مدت زمان بیکاری.
30,216
This article develops new closed-form variance expressions for power analyses for commonly used difference-in-differences (DID) and comparative interrupted time series (CITS) panel data estimators. The main contribution is to incorporate variation in treatment timing into the analysis. The power formulas also account for other key design features that arise in practice: autocorrelated errors, unequal measurement intervals, and clustering due to the unit of treatment assignment. We consider power formulas for both cross-sectional and longitudinal models and allow for covariates. An illustrative power analysis provides guidance on appropriate sample sizes. The key finding is that accounting for treatment timing increases required sample sizes. Further, DID estimators have considerably more power than standard CITS and ITS estimators. An available Shiny R dashboard performs the sample size calculations for the considered estimators.
این مقاله عبارات واریانس جدید و بسته جدیدی را برای تجزیه و تحلیل قدرت ایجاد می کند برای تفاوتهای متداول (DID) و تطبیقی ​​قطع شده برآوردگرهای داده پانل سری زمانی (CITS).سهم اصلی این است تنوع در زمان بندی درمانی را در تجزیه و تحلیل وارد کنید.فرمول های قدرت همچنین سایر ویژگی های طراحی کلیدی را که در عمل بوجود می آیند حساب کنید: خطاهای همبستگی ، فواصل اندازه گیری نابرابر و خوشه بندی به دلیل واحد واگذاری درمان.ما فرمول های قدرت را برای هر دو در نظر می گیریم مدل های مقطعی و طولی و امکان متغیرهای متغیر را فراهم می کند.در تجزیه و تحلیل قدرت مصور راهنمایی در مورد اندازه های نمونه مناسب را ارائه می دهد.در یافته های کلیدی این است که حسابداری برای زمان بندی درمان نمونه مورد نیاز را افزایش می دهد اندازهعلاوه بر این ، برآوردگرهای DID قدرت قابل توجهی بیشتر از CIT های استاندارد دارند و برآوردگرهای آنداشبورد R براق موجود اندازه نمونه را انجام می دهد محاسبات برای برآوردگرهای در نظر گرفته شده.
30,217
This paper introduces a feasible and practical Bayesian method for unit root testing in financial time series. We propose a convenient approximation of the Bayes factor in terms of the Bayesian Information Criterion as a straightforward and effective strategy for testing the unit root hypothesis. Our approximate approach relies on few assumptions, is of general applicability, and preserves a satisfactory error rate. Among its advantages, it does not require the prior distribution on model's parameters to be specified. Our simulation study and empirical application on real exchange rates show great accordance between the suggested simple approach and both Bayesian and non-Bayesian alternatives.
در این مقاله یک روش عملی و عملی بیزی برای ریشه واحد ارائه شده است آزمایش در سری زمانی مالی.ما یک تقریب مناسب از فاکتور بیز از نظر معیار اطلاعات بیزی به عنوان یک استراتژی ساده و مؤثر برای آزمایش فرضیه ریشه واحد. رویکرد تقریبی ما به چند فرضیه متکی است ، کلی است قابلیت استفاده ، و نرخ خطای رضایت بخش را حفظ می کند.از جمله مزایای آن ، نیازی به توزیع قبلی در پارامترهای مدل نیست مشخص شده.مطالعه شبیه سازی ما و کاربرد تجربی در مبادله واقعی نرخ ها بین رویکرد ساده پیشنهادی و هر دو نشان می دهد گزینه های بیزی و غیر بیسی.
30,219
A growing area of research in epidemiology is the identification of health-related sibling spillover effects, or the effect of one individual's exposure on their sibling's outcome. The health and health care of family members may be inextricably confounded by unobserved factors, rendering identification of spillover effects within families particularly challenging. We demonstrate a gain-score regression method for identifying exposure-to-outcome spillover effects within sibling pairs in a linear fixed effects framework. The method can identify the exposure-to-outcome spillover effect if only one sibling's exposure affects the other's outcome; and it identifies the difference between the spillover effects if both siblings' exposures affect the others' outcomes. The method fails in the presence of outcome-to-exposure spillover and outcome-to-outcome spillover. Analytic results and Monte Carlo simulations demonstrate the method and its limitations. To exercise this method, we estimate the spillover effect of a child's preterm birth on an older sibling's literacy skills, measured by the Phonological Awarenesses Literacy Screening-Kindergarten test. We analyze 20,010 sibling pairs from a population-wide, Wisconsin-based (United States) birth cohort. Without covariate adjustment, we estimate that preterm birth modestly decreases an older sibling's test score (-2.11 points; 95% confidence interval: -3.82, -0.40 points). In conclusion, gain-scores are a promising strategy for identifying exposure-to-outcome spillovers in sibling pairs while controlling for sibling-invariant unobserved confounding in linear settings.
یک منطقه در حال رشد از تحقیقات در اپیدمیولوژی شناسایی است اثرات سر و صدا خواهر و برادر مرتبط با سلامتی ، یا تأثیر یک فرد قرار گرفتن در معرض نتیجه خواهر و برادر آنها.بهداشت و مراقبت های بهداشتی خانواده اعضا ممکن است به طور غیرقابل توصیف توسط عوامل غیرمجاز اشتباه بگیرند ، شناسایی اثرات سرریز در خانواده ها به ویژه چالش برانگیز است. ما یک روش رگرسیون نمره سود را برای شناسایی نشان می دهیم اثرات سرریز قرار گرفتن در معرض نتیجه در جفت خواهر و برادر در یک خطی ثابت چارچوب اثرات.این روش می تواند سرریز مواجهه با نتیجه را شناسایی کند تأثیر اگر تنها قرار گرفتن در معرض یک خواهر و برادر بر نتیجه دیگران تأثیر بگذارد.و آن اگر هر دو خواهر و برادر تفاوت بین اثرات سرریز را مشخص می کنند قرار گرفتن در معرض نتایج دیگران را تحت تأثیر قرار می دهد.این روش در حضور سرریز نتیجه به مواجهه و سرریز نتیجه به نتیجه.تحلیلی نتایج و شبیه سازی مونت کارلو روش و محدودیت های آن را نشان می دهد. برای استفاده از این روش ، ما اثر سرریز زودرس کودک را تخمین می زنیم تولد بر روی مهارت های سوادآموزی خواهر و برادر بزرگتر ، که توسط واجی اندازه گیری می شود آگاهی از غربالگری سوادآموزی-آزمون مهد کودک.ما 20،010 خواهر و برادر را تجزیه و تحلیل می کنیم جفت از گروه تولد در سطح جمعیت ، ویسکانسین (ایالات متحده). بدون تنظیم همبستگی ، ما تخمین می زنیم که زایمان زودرس به طور متوسط ​​کاهش می یابد نمره آزمون خواهر و برادر بزرگتر (-2.11 امتیاز ؛ فاصله اطمینان 95 ٪: -3.82 ، -0.40 امتیاز).در پایان ، امتیازات سود یک استراتژی امیدوار کننده برای شناسایی سرریزهای قرار گرفتن در معرض نتیجه در جفت خواهر و برادر هنگام کنترل برای خواهر و برادر بی نظیر و بی نظیر در تنظیمات خطی.
30,220
Researchers regularly perform conditional prediction using imputed values of missing data. However, applications of imputation often lack a firm foundation in statistical theory. This paper originated when we were unable to find analysis substantiating claims that imputation of missing data has good frequentist properties when data are missing at random (MAR). We focused on the use of observed covariates to impute missing covariates when estimating conditional means of the form E(y|x, w). Here y is an outcome whose realizations are always observed, x is a covariate whose realizations are always observed, and w is a covariate whose realizations are sometimes unobserved. We examine the probability limit of simple imputation estimates of E(y|x, w) as sample size goes to infinity. We find that these estimates are not consistent when covariate data are MAR. To the contrary, the estimates suffer from a shrinkage problem. They converge to points intermediate between the conditional mean of interest, E(y|x, w), and the mean E(y|x) that conditions only on x. We use a type of genotype imputation to illustrate.
محققان به طور مرتب پیش بینی مشروط را با استفاده از مقادیر منتخب انجام می دهند داده های گمشدهبا این حال ، برنامه های کاربردی غالباً فاقد یک پایه محکم است در تئوری آماری.این مقاله هنگامی که نتوانستیم پیدا کنیم سرچشمه گرفته است تجزیه و تحلیل اثبات ادعاهای مبنی بر عدم تحقق داده های گمشده خوب است خصوصیات مکرر هنگامی که داده ها به طور تصادفی از دست می روند (MAR).ما روی استفاده از متغیرهای مشاهده شده برای تحمیل متغیرهای مفقود شده هنگام تخمین وسیله مشروط فرم E (y | x ، w).در اینجا y نتیجه ای است که تحقق همیشه مشاهده می شود ، x یک همبستگی است که تحقق آن است همیشه مشاهده می شود ، و W یک همبستگی است که تحقق آن گاهی اوقات است بی نظیرما حد احتمال تخمین های ساده را از آن بررسی می کنیم E (y | x ، w) به عنوان اندازه نمونه به بی نهایت می رود.ما می دانیم که این تخمین ها نیستند سازگار وقتی داده های متغیر متغیر هستند.برعکس ، تخمین ها رنج می برند از یک مشکل انقباض.آنها به نقاط میانی بین میانگین مشروط علاقه ، E (y | x ، w) و میانگین E (y | x) که شرایط فقط در xما برای نشان دادن از نوعی از ژنوتیپ استفاده می کنیم.
30,221
Factor and sparse models are two widely used methods to impose a low-dimensional structure in high-dimensions. However, they are seemingly mutually exclusive. We propose a lifting method that combines the merits of these two models in a supervised learning methodology that allows for efficiently exploring all the information in high-dimensional datasets. The method is based on a flexible model for high-dimensional panel data, called factor-augmented regression model with observable and/or latent common factors, as well as idiosyncratic components. This model not only includes both principal component regression and sparse regression as specific models but also significantly weakens the cross-sectional dependence and facilitates model selection and interpretability. The method consists of several steps and a novel test for (partial) covariance structure in high dimensions to infer the remaining cross-section dependence at each step. We develop the theory for the model and demonstrate the validity of the multiplier bootstrap for testing a high-dimensional (partial) covariance structure. The theory is supported by a simulation study and applications.
مدلهای فاکتور و پراکنده دو روش گسترده برای تحمیل a هستند ساختار کم بعدی در ابعاد بالا.با این حال ، آنها به ظاهر هستند متقابل منحصر به فردما یک روش بلند کردن را پیشنهاد می کنیم که شایستگی های آن را ترکیب می کند این دو مدل در یک روش یادگیری نظارت شده که امکان پذیر است کاوش در تمام اطلاعات در مجموعه داده های با ابعاد بالا.در روش مبتنی بر یک مدل انعطاف پذیر برای داده های پانل با ابعاد بالا است ، به نام مدل رگرسیون فاکتور با فاکتورهای مشترک و/یا نهفته ، و همچنین اجزای خاص.این مدل نه تنها شامل هر دو است رگرسیون مؤلفه اصلی و رگرسیون پراکنده به عنوان مدل های خاص اما همچنین وابستگی مقطعی را به طور قابل توجهی تضعیف می کند و مدل را تسهیل می کند انتخاب و تفسیر.این روش شامل چندین مرحله و الف است آزمایش جدید برای ساختار کواریانس (جزئی) در ابعاد بالا برای استنباط باقی ماندن وابستگی به مقطع در هر مرحله.ما تئوری را برای مدل و اعتبار بوت استرپ چند برابر را برای آزمایش a نشان دهید ساختار کواریانس با ابعاد بالا (جزئی).این تئوری توسط a پشتیبانی می شود مطالعه شبیه سازی و برنامه ها.
30,222
Mixed-frequency Vector AutoRegressions (MF-VAR) model the dynamics between variables recorded at different frequencies. However, as the number of series and high-frequency observations per low-frequency period grow, MF-VARs suffer from the "curse of dimensionality". We curb this curse through a regularizer that permits hierarchical sparsity patterns by prioritizing the inclusion of coefficients according to the recency of the information they contain. Additionally, we investigate the presence of nowcasting relations by sparsely estimating the MF-VAR error covariance matrix. We study predictive Granger causality relations in a MF-VAR for the U.S. economy and construct a coincident indicator of GDP growth. Supplementary Materials for this article are available online.
اتورهای بردار با فرکانس مخلوط (MF-VAR) مدل پویایی بین متغیرهای ثبت شده در فرکانس های مختلف.با این حال ، به عنوان تعداد سریال و مشاهدات با فرکانس بالا در هر دوره با فرکانس پایین رشد می کند ، MF-VARS رنج می برد از "نفرین ابعاد".ما این نفرین را از طریق یک تنظیم کننده مهار می کنیم که با اولویت بندی گنجاندن ، الگوهای کمبود سلسله مراتبی را امکان پذیر می کند ضرایب با توجه به بازپرداخت اطلاعات موجود در آنها. علاوه بر این ، ما در مورد حضور روابط Nowcasting توسط پراکنده بررسی می کنیم تخمین ماتریس کواریانس خطای VAR.ما گرنجر پیش بینی را مطالعه می کنیم روابط علیت در یک MF-VAR برای اقتصاد ایالات متحده و ایجاد یک همزمان شاخص رشد تولید ناخالص داخلی.مواد تکمیلی برای این مقاله در دسترس است برخط.
30,223
We provide a comprehensive theory of conducting in-sample statistical inference about receiver operating characteristic (ROC) curves that are based on predicted values from a first stage model with estimated parameters (such as a logit regression). The term "in-sample" refers to the practice of using the same data for model estimation (training) and subsequent evaluation, i.e., the construction of the ROC curve. We show that in this case the first stage estimation error has a generally non-negligible impact on the asymptotic distribution of the ROC curve and develop the appropriate pointwise and functional limit theory. We propose methods for simulating the distribution of the limit process and show how to use the results in practice in comparing ROC curves.
ما یک تئوری جامع در مورد انجام آماری در نمونه ارائه می دهیم استنتاج در مورد منحنی های مشخصه عملکرد گیرنده (ROC) که مبتنی بر آنها هستند در مقادیر پیش بینی شده از یک مدل مرحله اول با پارامترهای تخمین زده شده (مانند رگرسیون ورود به سیستم).اصطلاح "در نمونه" به تمرین استفاده از آن اشاره دارد داده های مشابه برای برآورد مدل (آموزش) و ارزیابی متعاقب آن ، یعنی ، ساخت منحنی ROC.ما نشان می دهیم که در این حالت مرحله اول خطای تخمین به طور کلی تأثیر غیر قابل کنترل در مجانبی دارد توزیع منحنی ROC و توسعه نقطه مناسب و نظریه حد عملکردی.ما روش هایی را برای شبیه سازی توزیع پیشنهاد می کنیم روند محدودیت و نشان دادن نحوه استفاده از نتایج در عمل در مقایسه ROC منحنی ها
30,224
This paper studies nonparametric identification and estimation of causal effects in centralized school assignment. In many centralized assignment settings, students are subjected to both lottery-driven variation and regression discontinuity (RD) driven variation. We characterize the full set of identified atomic treatment effects (aTEs), defined as the conditional average treatment effect between a pair of schools, given student characteristics. Atomic treatment effects are the building blocks of more aggregated notions of treatment contrasts, and common approaches estimating aggregations of aTEs can mask important heterogeneity. In particular, many aggregations of aTEs put zero weight on aTEs driven by RD variation, and estimators of such aggregations put asymptotically vanishing weight on the RD-driven aTEs. We develop a diagnostic tool for empirically assessing the weight put on aTEs driven by RD variation. Lastly, we provide estimators and accompanying asymptotic results for inference on aggregations of RD-driven aTEs.
در این مقاله به بررسی شناسایی غیرپارامتری و تخمین علت می پردازیم اثرات در تکالیف متمرکز مدرسه.در بسیاری از تکالیف متمرکز تنظیمات ، دانش آموزان در معرض تغییر قرعه کشی و هم قرار می گیرند ناپیوستگی رگرسیون (RD) تنوع رانده شده.ما مجموعه کامل از اثرات درمانی اتمی (ATE) شناسایی شده ، به عنوان میانگین مشروط تعریف شده است اثر درمانی بین یک جفت مدرسه ، با توجه به ویژگی های دانش آموزان. اثرات تصفیه اتمی بلوک های ساختمانی مفاهیم جمع شده تر از تضادهای درمانی ، و رویکردهای متداول تخمین تجمع ATE ها ناهمگونی مهم ماسک.به طور خاص ، بسیاری از تجمع ATE صفر را قرار می دهد وزن بر روی ATES ناشی از تنوع RD ، و برآوردگرهای چنین تجمع هایی قرار داده شده است وزن بدون علامت در ATES RD محور.ما یک تشخیص ایجاد می کنیم ابزاری برای ارزیابی تجربی وزن قرار داده شده بر روی ATES ناشی از تنوع RD. سرانجام ، ما برآوردگرها و نتایج بدون علامت همراه را برای استنباط ارائه می دهیم در جمع ATES RD محور.
30,225
The ability to generalize experimental results from randomized control trials (RCTs) across locations is crucial for informing policy decisions in targeted regions. Such generalization is often hindered by the lack of identifiability due to unmeasured effect modifiers that compromise direct transport of treatment effect estimates from one location to another. We build upon sensitivity analysis in observational studies and propose an optimization procedure that allows us to get bounds on the treatment effects in targeted regions. Furthermore, we construct more informative bounds by balancing on the moments of covariates. In simulation experiments, we show that the covariate balancing approach is promising in getting sharper identification intervals.
توانایی تعمیم نتایج آزمایشی از آزمایشات کنترل تصادفی (RCTS) در سراسر مکان ها برای اطلاع رسانی تصمیمات سیاست در هدفمند بسیار مهم است مناطقچنین تعمیم اغلب به دلیل عدم شناسایی مانع می شود با توجه به اصلاح کننده های اثر غیرقابل اندازه گیری که حمل و نقل مستقیم را به خطر می اندازند تخمین اثر درمانی از یک مکان به مکان دیگر.ما بر روی تجزیه و تحلیل حساسیت در مطالعات مشاهده ای و ارائه بهینه سازی رویه ای که به ما امکان می دهد تا اثرات درمانی را در هدف قرار دهیم مناطقعلاوه بر این ، ما با تعادل در آن مرزهای آموزنده تری می سازیم لحظات متغیرهای متغیر.در آزمایش های شبیه سازی ، ما نشان می دهیم که متغیر رویکرد متعادل کننده نویدبخش است که فواصل شناسایی واضح تر را بدست آورید.
30,226
We show that the Realized GARCH model yields close-form expression for both the Volatility Index (VIX) and the volatility risk premium (VRP). The Realized GARCH model is driven by two shocks, a return shock and a volatility shock, and these are natural state variables in the stochastic discount factor (SDF). The volatility shock endows the exponentially affine SDF with a compensation for volatility risk. This leads to dissimilar dynamic properties under the physical and risk-neutral measures that can explain time-variation in the VRP. In an empirical application with the S&P 500 returns, the VIX, and the VRP, we find that the Realized GARCH model significantly outperforms conventional GARCH models.
ما نشان می دهیم که مدل GARCH تحقق یافته برای هر دو بیان نزدیک است شاخص نوسانات (VIX) و حق بیمه خطر نوسانات (VRP).تحقق یافته مدل گارچ توسط دو شوک ، شوک بازگشت و شوک نوسانات هدایت می شود و اینها متغیرهای حالت طبیعی در فاکتور تخفیف تصادفی (SDF) هستند.در شوک نوسانات SDF را به صورت نمایی وابسته به جبران خسارت می کند خطر نوسانات.این منجر به خصوصیات پویا متفاوت تحت فیزیکی می شود و اقدامات بی طرف خطر که می تواند متغیر زمانی در VRP را توضیح دهد.در یک برنامه تجربی با بازگشت S&P 500 ، VIX و VRP ، ما پیدا می کنیم که مدل گارچ تحقق یافته به طور قابل توجهی از گارچ معمولی بهتر عمل می کند مدل ها.
30,227
We introduce a new volatility model for option pricing that combines Markov switching with the Realized GARCH framework. This leads to a novel pricing kernel with a state-dependent variance risk premium and a pricing formula for European options, which is derived with an analytical approximation method. We apply the Markov switching Realized GARCH model to S&P 500 index options from 1990 to 2019 and find that investors' aversion to volatility-specific risk is time-varying. The proposed framework outperforms competing models and reduces (in-sample and out-of-sample) option pricing errors by 15% or more.
ما یک مدل نوسانات جدید را برای قیمت گذاری گزینه ای که ترکیبی از مارکوف است معرفی می کنیم سوئیچینگ با چارچوب تحقق یافته Garch.این منجر به قیمت گذاری جدید می شود هسته با حق بیمه خطر واریانس وابسته به دولت و فرمول قیمت گذاری برای گزینه های اروپایی ، که با یک روش تقریب تحلیلی مشتق شده است.ما Markov Switching Model Garch را در گزینه های شاخص S&P 500 از آن استفاده کنید 1990 تا 2019 و دریابید که بیزاری سرمایه گذاران از ریسک خاص نوسانات است متغیر زمانچارچوب پیشنهادی از مدل های رقیب بهتر عمل می کند و کاهش می یابد (در نمونه و خارج از نمونه) خطاهای قیمت گذاری گزینه 15 ٪ یا بیشتر.
30,228
Synthetic control (SC) methods have been widely applied to estimate the causal effect of large-scale interventions, e.g., the state-wide effect of a change in policy. The idea of synthetic controls is to approximate one unit's counterfactual outcomes using a weighted combination of some other units' observed outcomes. The motivating question of this paper is: how does the SC strategy lead to valid causal inferences? We address this question by re-formulating the causal inference problem targeted by SC with a more fine-grained model, where we change the unit of the analysis from "large units" (e.g., states) to "small units" (e.g., individuals in states). Under this re-formulation, we derive sufficient conditions for the non-parametric causal identification of the causal effect. We highlight two implications of the reformulation: (1) it clarifies where "linearity" comes from, and how it falls naturally out of the more fine-grained and flexible model, and (2) it suggests new ways of using available data with SC methods for valid causal inference, in particular, new ways of selecting observations from which to estimate the counterfactual.
روشهای کنترل مصنوعی (SC) به طور گسترده ای برای برآورد استفاده شده است اثر علیت مداخلات در مقیاس بزرگ ، به عنوان مثال ، اثر گسترده ای از a تغییر در سیاست.ایده کنترل مصنوعی تقریبی یک واحد است نتایج متقابل با استفاده از ترکیب وزنی برخی از واحدهای دیگر ' نتایج مشاهده شدهسوال انگیزه این مقاله این است: SC چگونه می تواند استراتژی منجر به استنتاج علیت معتبر می شود؟ما به این س question ال می پردازیم دوباره ایجاد مشکل استنباط علی که توسط SC با موارد بیشتری هدف قرار گرفته است مدل ریز دانه ، که در آن واحد تجزیه و تحلیل را از "واحدهای بزرگ" تغییر می دهیم (به عنوان مثال ، ایالات) به "واحدهای کوچک" (به عنوان مثال ، افراد در ایالت ها).زیر این شکل گیری مجدد ، ما شرایط کافی را برای علت غیر پارامتری به دست می آوریم شناسایی اثر علی.ما دو پیامد را برجسته می کنیم اصلاح مجدد: (1) این روشن می کند که "خطی" از کجا ناشی می شود و چگونه می افتد به طور طبیعی از مدل ریز و انعطاف پذیر تر خارج شده است ، و (2) آن را پیشنهاد می کند روشهای جدید استفاده از داده های موجود با روشهای SC برای استنتاج علیت معتبر ، در به ویژه ، روشهای جدید برای انتخاب مشاهدات برای تخمین خلاف واقع
30,229
We provide a decision theoretic analysis of bandit experiments. Working within the framework of diffusion asymptotics, we define suitable notions of asymptotic Bayes and minimax risk for these experiments. For normally distributed rewards, the minimal Bayes risk can be characterized as the solution to a second-order partial differential equation (PDE). Using a limit of experiments approach, we show that this PDE characterization also holds asymptotically under both parametric and non-parametric distributions of the rewards. The approach further describes the state variables it is asymptotically sufficient to restrict attention to, and thereby suggests a practical strategy for dimension reduction. The PDEs characterizing minimal Bayes risk can be solved efficiently using sparse matrix routines. We derive the optimal Bayes and minimax policies from their numerical solutions. These optimal policies substantially dominate existing methods such as Thompson sampling and UCB, often by a factor of two. The framework also covers time discounting and pure exploration.
ما یک تجزیه و تحلیل نظری تصمیم گیری از آزمایش های راهزن ارائه می دهیم.کار کردن در چارچوب بدون علامت انتشار ، ما مفاهیم مناسب از Bayes بدون علامت و خطر Minimax برای این آزمایشات.برای عادی پاداش های توزیع شده ، حداقل خطر بیز را می توان به عنوان راه حل برای معادله دیفرانسیل جزئی مرتبه دوم (PDE).با استفاده از یک حد از رویکرد آزمایشات ، ما نشان می دهیم که این خصوصیات PDE نیز وجود دارد بدون علامت تحت هر دو توزیع پارامتری و غیر پارامتری پاداشاین رویکرد بیشتر متغیرهای حالت را توصیف می کند بدون علامت کافی برای محدود کردن توجه ، و در نتیجه پیشنهاد می کند استراتژی عملی برای کاهش بعد.PDE ها حداقل را توصیف می کنند ریسک بیز با استفاده از روال های ماتریس پراکنده می تواند به طور مؤثر حل شود.ما مشتق می شویم خط مشی های بهینه و مینیماکس از راه حل های عددی آنها.اینها سیاستهای بهینه به طور قابل ملاحظه ای بر روشهای موجود مانند تامپسون حاکم است نمونه برداری و UCB ، اغلب توسط یک عامل دو.این چارچوب همچنین زمان را در بر می گیرد تخفیف و اکتشاف خالص.
30,230
We reconcile the two worlds of dense and sparse modeling by exploiting the positive aspects of both. We employ a factor model and assume {the dynamic of the factors is non-pervasive while} the idiosyncratic term follows a sparse vector autoregressive model (VAR) {which allows} for cross-sectional and time dependence. The estimation is articulated in two steps: first, the factors and their loadings are estimated via principal component analysis and second, the sparse VAR is estimated by regularized regression on the estimated idiosyncratic components. We prove the consistency of the proposed estimation approach as the time and cross-sectional dimension diverge. In the second step, the estimation error of the first step needs to be accounted for. Here, we do not follow the naive approach of simply plugging in the standard rates derived for the factor estimation. Instead, we derive a more refined expression of the error. This enables us to derive tighter rates. We discuss the implications of our model for forecasting, factor augmented regression, bootstrap of factor models, and time series dependence networks via semi-parametric estimation of the inverse of the spectral density matrix.
ما دو جهان از مدل سازی متراکم و پراکنده را با بهره برداری از آن آشتی می دهیم جنبه های مثبت هر دو.ما از یک مدل عاملی استفاده می کنیم و فرض می کنیم - پویایی فاکتورها غیر فرسوده است در حالی که} اصطلاح ایدیوسنکراتیک از یک پراکنده پیروی می کند مدل اتورگرایی وکتور (VAR) {که اجازه می دهد} برای مقطعی و زمان وابستگی.تخمین در دو مرحله بیان شده است: اول ، عوامل و بارهای آنها از طریق تجزیه و تحلیل مؤلفه اصلی تخمین زده می شود و دوم ، VAR پراکنده با رگرسیون منظم در تخمین زده شده تخمین زده می شود اجزای خاص.ما قوام برآورد پیشنهادی را اثبات می کنیم به عنوان زمان و بعد مقطعی واگرایی می شود.در مرحله دوم ، خطای تخمین مرحله اول باید حساب شود.در اینجا ، ما انجام می دهیم از رویکرد ساده لوحانه وصل کردن نرخ استاندارد مشتق شده پیروی نکنید برای تخمین عاملدر عوض ، ما یک بیان تصفیه شده تر از خطااین ما را قادر می سازد تا نرخ های سخت تری را بدست آوریم.ما در مورد پیامدهای مدل ما برای پیش بینی ، رگرسیون تقویت شده عامل ، بوت استرپ فاکتور مدل ها ، و شبکه های وابستگی به سری زمانی از طریق تخمین نیمه پارامتری معکوس ماتریس چگالی طیفی.
30,231
We provide the first behavioral characterization of nested logit, a foundational and widely applied discrete choice model, through the introduction of a non-parametric version of nested logit that we call Nested Stochastic Choice (NSC). NSC is characterized by a single axiom that weakens Independence of Irrelevant Alternatives based on revealed similarity to allow for the similarity effect. Nested logit is characterized by an additional menu-independence axiom. Our axiomatic characterization leads to a practical, data-driven algorithm that identifies the true nest structure from choice data. We also discuss limitations of generalizing nested logit by studying the testable implications of cross-nested logit.
ما اولین خصوصیات رفتاری از ورود به تو در تو را ارائه می دهیم ، a از طریق مقدمه ، مدل انتخاب گسسته و به طور گسترده کاربردی از نسخه غیر پارامتری از ورود به تو در تو در تو در توخالی که ما آن را تصادفی می نامیم انتخاب (NSC).NSC با یک بدیهیات واحد مشخص می شود که استقلال را تضعیف می کند از گزینه های بی ربط بر اساس شباهت آشکار شده برای امکان اثر شباهتورود به تو در تو در تو با یک اضافی مشخص می شود بدیهی منو-استقلال.خصوصیات بدیهی ما منجر به عملی می شود ، الگوریتم داده محور که ساختار لانه واقعی را از داده های انتخاب مشخص می کند. ما همچنین در مورد محدودیت های عمومی سازی ورود به تو در تو در تو در مورد مطالعه بحث می کنیم پیامدهای قابل آزمایش از ورود به لانه متقابل.
30,232
State-space mixed-frequency vector autoregressions are now widely used for nowcasting. Despite their popularity, estimating such models can be computationally intensive, especially for large systems with stochastic volatility. To tackle the computational challenges, we propose two novel precision-based samplers to draw the missing observations of the low-frequency variables in these models, building on recent advances in the band and sparse matrix algorithms for state-space models. We show via a simulation study that the proposed methods are more numerically accurate and computationally efficient compared to standard Kalman-filter based methods. We demonstrate how the proposed method can be applied in two empirical macroeconomic applications: estimating the monthly output gap and studying the response of GDP to a monetary policy shock at the monthly frequency. Results from these two empirical applications highlight the importance of incorporating high-frequency indicators in macroeconomic models.
در حال حاضر اتورهای وکتور با فرکانس مخلوط دولت اکنون به طور گسترده ای مورد استفاده قرار می گیرند Nowcastingبا وجود محبوبیت آنها ، تخمین چنین مدل هایی می تواند باشد از نظر محاسباتی فشرده ، به ویژه برای سیستم های بزرگ با تصادفی نوسان.برای مقابله با چالش های محاسباتی ، ما دو رمان را پیشنهاد می کنیم نمونه برداران مبتنی بر دقت برای ترسیم مشاهدات گمشده از فرکانس پایین متغیرهای موجود در این مدل ها ، بر اساس پیشرفت های اخیر در گروه و پراکنده الگوریتم های ماتریس برای مدل های فضای حالت.ما از طریق یک مطالعه شبیه سازی نشان می دهیم که روشهای پیشنهادی از نظر عددی دقیق تر و محاسباتی هستند کارآمد در مقایسه با روشهای استاندارد مبتنی بر فیلتر کالمن.ما نشان می دهیم که چگونه روش پیشنهادی را می توان در دو برنامه کلان اقتصادی تجربی اعمال کرد: تخمین شکاف خروجی ماهانه و مطالعه پاسخ تولید ناخالص داخلی به a شوک سیاست پولی در فرکانس ماهانه.نتایج این دو برنامه های تجربی اهمیت ترکیب فرکانس بالا را برجسته می کند شاخص ها در مدلهای کلان اقتصادی.
30,233
We present a novel characterization of random rank-dependent expected utility for finite datasets and finite prizes. The test lends itself to statistical testing using the tools in Kitamura and Stoye (2018).
ما یک ویژگی جدید از ابزار مورد انتظار وابسته به رتبه تصادفی ارائه می دهیم برای مجموعه داده های محدود و جوایز محدود.این آزمون خود را به آماری وام می دهد آزمایش با استفاده از ابزارهای موجود در کیتامورا و استوی (2018).
30,234
We study a continuous treatment effect model in the presence of treatment spillovers through social networks. We assume that one's outcome is affected not only by his/her own treatment but also by a (weighted) average of his/her neighbors' treatments, both of which are treated as endogenous variables. Using a control function approach with appropriate instrumental variables, we show that the conditional mean potential outcome can be nonparametrically identified. We also consider a more empirically tractable semiparametric model and develop a three-step estimation procedure for this model. As an empirical illustration, we investigate the causal effect of the regional unemployment rate on the crime rate.
ما یک مدل اثر درمانی مداوم را در حضور درمان مطالعه می کنیم سرریز از طریق شبکه های اجتماعی.ما فرض می کنیم که نتیجه شخص تحت تأثیر قرار می گیرد نه تنها با معالجه خود بلکه با میانگین (وزنی) از او درمان همسایگان ، که هر دو به عنوان متغیرهای درون زا تحت درمان قرار می گیرند.استفاده كردن یک رویکرد عملکرد کنترل با متغیرهای ابزار مناسب ، ما نشان می دهیم اینکه میانگین نتیجه احتمالی نتیجه بالقوه غیرعادی باشد شناخته شده است.ما همچنین یک مدل نیمهرامتری قابل استفاده تر را در نظر می گیریم و یک روش تخمین سه مرحله ای برای این مدل تهیه کنید.به عنوان یک تجربی تصویر ، ما تأثیر علی بیکاری منطقه ای را بررسی می کنیم نرخ در نرخ جرم.
30,235
Causally identifying the effect of digital advertising is challenging, because experimentation is expensive, and observational data lacks random variation. This paper identifies a pervasive source of naturally occurring, quasi-experimental variation in user-level ad-exposure in digital advertising campaigns. It shows how this variation can be utilized by ad-publishers to identify the causal effect of advertising campaigns. The variation pertains to auction throttling, a probabilistic method of budget pacing that is widely used to spread an ad-campaign`s budget over its deployed duration, so that the campaign`s budget is not exceeded or overly concentrated in any one period. The throttling mechanism is implemented by computing a participation probability based on the campaign`s budget spending rate and then including the campaign in a random subset of available ad-auctions each period according to this probability. We show that access to logged-participation probabilities enables identifying the local average treatment effect (LATE) in the ad-campaign. We present a new estimator that leverages this identification strategy and outline a bootstrap procedure for quantifying its variability. We apply our method to real-world ad-campaign data from an e-commerce advertising platform, which uses such throttling for budget pacing. We show our estimate is statistically different from estimates derived using other standard observational methods such as OLS and two-stage least squares estimators. Our estimated conversion lift is 110%, a more plausible number than 600%, the conversion lifts estimated using naive observational methods.
شناسایی علت تأثیر تبلیغات دیجیتال چالش برانگیز است ، از آنجا که آزمایش گران است و داده های مشاهده ای فاقد تصادفی است تغییر.در این مقاله یک منبع فراگیر از طبیعی وجود دارد ، تنوع شبه تجربی در مواجهه با سطح کاربر در تبلیغات دیجیتال کمپین هااین نشان می دهد که چگونه می توان این تغییر را توسط ناشران تبلیغاتی مورد استفاده قرار داد تأثیر علی تبلیغات تبلیغاتی را مشخص کنید.تنوع مربوط به حراج ، یک روش احتمالی قدم زدن در بودجه که به طور گسترده ای مورد استفاده قرار می گیرد برای گسترش بودجه Ad-Campaign در طول مدت مستقر آن ، به طوری که بودجه کمپین در هر دوره ای بیش از یا بیش از حد متمرکز نیست.در مکانیسم پرتاب با محاسبه احتمال مشارکت اجرا می شود بر اساس نرخ هزینه بودجه کمپین و سپس از جمله کمپین در یک زیر مجموعه تصادفی از حراج های موجود در هر دوره با توجه به این احتمالما نشان می دهیم که دسترسی به احتمالات مشارکت در سیستم امکان پذیر است شناسایی اثر درمانی متوسط ​​محلی (دیر) در AD-MAMPAIGHT.ما یک برآوردگر جدید ارائه دهید که از این استراتژی شناسایی و طرح ریزی استفاده می کند یک روش bootstrap برای کمیت تنوع آن.ما روش خود را در داده های تبلیغاتی تبلیغاتی در دنیای واقعی از یک پلت فرم تبلیغات تجارت الکترونیکی ، که از آن استفاده می کند چنین فشار برای قدم زدن در بودجه.ما نشان می دهیم که تخمین ما از نظر آماری است متفاوت از برآوردهای حاصل از سایر روشهای مشاهده استاندارد مانند OLS و برآوردگرهای حداقل مربعات دو مرحله ای.تبدیل تخمین زده شده ما آسانسور 110 ٪ است ، تعداد قابل قبول تر از 600 ٪ ، آسانسورهای تبدیل تخمین زده می شوند با استفاده از روشهای مشاهده ای ساده لوح.
30,236
In this paper, we consider a high-dimensional quantile regression model where the sparsity structure may differ between two sub-populations. We develop $\ell_1$-penalized estimators of both regression coefficients and the threshold parameter. Our penalized estimators not only select covariates but also discriminate between a model with homogeneous sparsity and a model with a change point. As a result, it is not necessary to know or pretest whether the change point is present, or where it occurs. Our estimator of the change point achieves an oracle property in the sense that its asymptotic distribution is the same as if the unknown active sets of regression coefficients were known. Importantly, we establish this oracle property without a perfect covariate selection, thereby avoiding the need for the minimum level condition on the signals of active covariates. Dealing with high-dimensional quantile regression with an unknown change point calls for a new proof technique since the quantile loss function is non-smooth and furthermore the corresponding objective function is non-convex with respect to the change point. The technique developed in this paper is applicable to a general M-estimation framework with a change point, which may be of independent interest. The proposed methods are then illustrated via Monte Carlo experiments and an application to tipping in the dynamics of racial segregation.
در این مقاله ، ما یک مدل رگرسیون کمی با ابعاد بالا را در نظر می گیریم که در آن ساختار کمبود ممکن است بین دو جمعیت زیر متفاوت باشد.ما توسعه می دهیم $ \ ELL_1 $-برآوردگرهای ضعف هر دو ضرایب رگرسیون و آستانه پارامتر.برآوردگرهای مجازات ما نه تنها متغیرهای متغیر را انتخاب می کنند بلکه همچنین بین یک مدل با کمبود همگن و یک مدل با a تبعیض قائل شوید نقطه تغییردر نتیجه ، لازم نیست بدانید که آیا نقطه تغییر موجود است ، یا جایی که رخ می دهد.برآوردگر ما از نقطه تغییر به این معنا که توزیع مجانبی آن است ، به یک خاصیت اوراکل دست می یابد همان چیزی که اگر مجموعه های فعال ناشناخته ضرایب رگرسیون شناخته شده بودند. مهمتر از همه ، ما این خاصیت اوراکل را بدون یک همبستگی کامل ایجاد می کنیم انتخاب ، از این طریق از نیاز به حداقل سطح سطح جلوگیری می شود سیگنال های متغیرهای فعال.برخورد با رگرسیون کوانتین با ابعاد بالا با یک نقطه تغییر ناشناخته خواستار تکنیک اثبات جدید از زمان کمیت است عملکرد از دست دادن غیر صاف است و علاوه بر این هدف مربوطه تابع با توجه به نقطه تغییر غیر متمایز است.تکنیک توسعه یافته در این مقاله برای یک چارچوب کلی تخمین m قابل استفاده است یک نقطه تغییر ، که ممکن است مورد علاقه مستقل باشد.روشهای پیشنهادی هستند سپس از طریق آزمایش های مونت کارلو و یک برنامه کاربردی برای Tipping IN نشان داده شده است پویایی تفکیک نژادی.
30,237
In a randomized control trial, the precision of an average treatment effect estimator can be improved either by collecting data on additional individuals, or by collecting additional covariates that predict the outcome variable. We propose the use of pre-experimental data such as a census, or a household survey, to inform the choice of both the sample size and the covariates to be collected. Our procedure seeks to minimize the resulting average treatment effect estimator's mean squared error, subject to the researcher's budget constraint. We rely on a modification of an orthogonal greedy algorithm that is conceptually simple and easy to implement in the presence of a large number of potential covariates, and does not require any tuning parameters. In two empirical applications, we show that our procedure can lead to substantial gains of up to 58%, measured either in terms of reductions in data collection costs or in terms of improvements in the precision of the treatment effect estimator.
در یک کارآزمایی کنترل تصادفی ، دقت یک اثر درمانی متوسط برآوردگر می تواند با جمع آوری داده ها در مورد افراد اضافی بهبود یابد ، یا با جمع آوری متغیرهای اضافی که متغیر نتیجه را پیش بینی می کند.ما استفاده از داده های قبل از تجربی مانند سرشماری یا یک خانواده را پیشنهاد دهید نظرسنجی ، برای اطلاع از انتخاب اندازه نمونه و متغیرهای متغیر جمع آوری شده.روش ما به دنبال به حداقل رساندن میانگین متوسط ​​درمان است میانگین خطای مربع برآوردگر اثر ، منوط به بودجه محقق محدودیتما به اصلاح یک الگوریتم حریص متعامد متکی هستیم که است از نظر مفهومی ساده و آسان برای حضور در حضور تعداد زیادی از متغیرهای متغیر بالقوه ، و به هیچ پارامتری تنظیم نیاز ندارد.در دو برنامه های تجربی ، ما نشان می دهیم که رویه ما می تواند به قابل توجهی منجر شود سود حداکثر 58 ٪ ، از نظر کاهش جمع آوری داده ها اندازه گیری می شود هزینه ها یا از نظر پیشرفت در دقت اثر درمانی برآوردگر
30,238
We study factor models augmented by observed covariates that have explanatory powers on the unknown factors. In financial factor models, the unknown factors can be reasonably well explained by a few observable proxies, such as the Fama-French factors. In diffusion index forecasts, identified factors are strongly related to several directly measurable economic variables such as consumption-wealth variable, financial ratios, and term spread. With those covariates, both the factors and loadings are identifiable up to a rotation matrix even only with a finite dimension. To incorporate the explanatory power of these covariates, we propose a smoothed principal component analysis (PCA): (i) regress the data onto the observed covariates, and (ii) take the principal components of the fitted data to estimate the loadings and factors. This allows us to accurately estimate the percentage of both explained and unexplained components in factors and thus to assess the explanatory power of covariates. We show that both the estimated factors and loadings can be estimated with improved rates of convergence compared to the benchmark method. The degree of improvement depends on the strength of the signals, representing the explanatory power of the covariates on the factors. The proposed estimator is robust to possibly heavy-tailed distributions. We apply the model to forecast US bond risk premia, and find that the observed macroeconomic characteristics contain strong explanatory powers of the factors. The gain of forecast is more substantial when the characteristics are incorporated to estimate the common factors than directly used for forecasts.
ما مدلهای عاملی را که توسط متغیرهای متغیر مشاهده شده افزایش می یابد ، مطالعه می کنیم قدرت در مورد عوامل ناشناخته.در مدل های فاکتور مالی ، عوامل ناشناخته می توان منطقی را به خوبی توسط چند پروکسی قابل مشاهده مانند توضیح داد. عوامل فاما-فرانسوی.در پیش بینی شاخص انتشار ، عوامل شناسایی شده هستند به شدت با چندین متغیر اقتصادی قابل اندازه گیری مستقیم مانند متغیر مصرف-سلامتی ، نسبت های مالی و گسترش مدت.با انها متغیرهای متغیر ، هم عوامل و هم بارگذاری تا چرخش قابل شناسایی هستند ماتریس حتی فقط با یک بعد محدود.برای ترکیب قدرت توضیحی از بین این متغیرها ، ما یک تجزیه و تحلیل مؤلفه اصلی صاف (PCA) را پیشنهاد می کنیم: (i) داده ها را بر روی متغیرهای مشاهده شده رگرسیون کنید ، و (ب) اصلی را بگیرید مؤلفه های داده های مناسب برای برآورد بار و عوامل.این اجازه می دهد ما برای تخمین دقیق درصد توضیحات و غیر قابل توضیح مؤلفه های موجود در عوامل و در نتیجه ارزیابی قدرت توضیحی متغیرهای متغیر. ما نشان می دهیم که هر دو فاکتور و بارهای برآورد شده را می توان با آن تخمین زد نرخ همگرایی بهبود یافته در مقایسه با روش معیار.درجه بهبود بستگی به قدرت سیگنال ها دارد ، قدرت توضیحی متغیرهای متغیر در مورد عوامل.برآوردگر پیشنهادی است توزیع های قوی و احتمالاً با دم سنگین.ما مدل را برای پیش بینی اعمال می کنیم حق ریسک ریسک اوراق بهادار ایالات متحده ، و دریافت که ویژگی های کلان اقتصادی مشاهده شده حاوی قدرت توضیحی قوی از عوامل است.سود پیش بینی بیشتر است مهم است که ویژگی ها برای برآورد مشترک گنجانیده شود عواملی نسبت به مستقیم برای پیش بینی ها استفاده می شود.
30,239
The random coefficients model is an extension of the linear regression model that allows for unobserved heterogeneity in the population by modeling the regression coefficients as random variables. Given data from this model, the statistical challenge is to recover information about the joint density of the random coefficients which is a multivariate and ill-posed problem. Because of the curse of dimensionality and the ill-posedness, pointwise nonparametric estimation of the joint density is difficult and suffers from slow convergence rates. Larger features, such as an increase of the density along some direction or a well-accentuated mode can, however, be much easier detected from data by means of statistical tests. In this article, we follow this strategy and construct tests and confidence statements for qualitative features of the joint density, such as increases, decreases and modes. We propose a multiple testing approach based on aggregating single tests which are designed to extract shape information on fixed scales and directions. Using recent tools for Gaussian approximations of multivariate empirical processes, we derive expressions for the critical value. We apply our method to simulated and real data.
مدل ضرایب تصادفی پسوند مدل رگرسیون خطی است این امر باعث می شود ناهمگونی بی نظیر در جمعیت با مدل سازی ضرایب رگرسیون به عنوان متغیرهای تصادفی.با توجه به داده های این مدل ، چالش آماری بازیابی اطلاعات در مورد چگالی مشترک این است ضرایب تصادفی که یک مشکل چند متغیره و بد نیست.به خاطر اینکه نفرین ابعاد و بدبینی ، غیر پارامتری به نظر می رسد تخمین تراکم مفصل دشوار است و از همگرایی آهسته رنج می برد نرخویژگی های بزرگتر ، مانند افزایش چگالی در طول جهت با این حال ، یک حالت خوب و متمرکز می تواند از داده ها توسط داده ها بسیار ساده تر باشد معنی تست های آماری.در این مقاله ، ما این استراتژی را دنبال می کنیم و تست ها و اظهارات اعتماد به نفس برای ویژگی های کیفی مفصل چگالی مانند افزایش ، کاهش و حالت ها.ما یک آزمایش چندگانه پیشنهاد می کنیم رویکرد مبتنی بر تست های جداگانه که برای استخراج شکل طراحی شده اند اطلاعات در مورد مقیاس ها و دستورالعمل های ثابت.استفاده از ابزارهای اخیر برای گاوسی تقریب فرآیندهای تجربی چند متغیره ، ما عبارات را برای مقدار بحرانیما روش خود را برای داده های شبیه سازی شده و واقعی اعمال می کنیم.
30,240
Triangular systems with nonadditively separable unobserved heterogeneity provide a theoretically appealing framework for the modelling of complex structural relationships. However, they are not commonly used in practice due to the need for exogenous variables with large support for identification, the curse of dimensionality in estimation, and the lack of inferential tools. This paper introduces two classes of semiparametric nonseparable triangular models that address these limitations. They are based on distribution and quantile regression modelling of the reduced form conditional distributions of the endogenous variables. We show that average, distribution and quantile structural functions are identified in these systems through a control function approach that does not require a large support condition. We propose a computationally attractive three-stage procedure to estimate the structural functions where the first two stages consist of quantile or distribution regressions. We provide asymptotic theory and uniform inference methods for each stage. In particular, we derive functional central limit theorems and bootstrap functional central limit theorems for the distribution regression estimators of the structural functions. These results establish the validity of the bootstrap for three-stage estimators of structural functions, and lead to simple inference algorithms. We illustrate the implementation and applicability of all our methods with numerical simulations and an empirical application to demand analysis.
سیستم های مثلثی با ناهمگونی غیر قابل استفاده جدا از هم جدا شده است یک چارچوب نظری جذاب برای مدل سازی پیچیده فراهم کنید روابط ساختاری.با این حال ، آنها معمولاً در عمل به دلیل استفاده نمی شوند به نیاز به متغیرهای اگزوژن با پشتیبانی زیاد برای شناسایی ، نفرین ابعاد در تخمین و عدم وجود ابزارهای استنباطی.این مقاله دو کلاس از مدلهای مثلثی غیر قابل جدا شدن نیمه جدا شده را معرفی می کند این محدودیت ها را برطرف می کند.آنها مبتنی بر توزیع و کمیت هستند مدل سازی رگرسیون از توزیع مشروط فرم کاهش یافته متغیرهای درون زا.ما این میانگین ، توزیع و کمیت را نشان می دهیم عملکردهای ساختاری در این سیستم ها از طریق یک عملکرد کنترل مشخص می شوند رویکردی که نیازی به یک وضعیت پشتیبانی بزرگ ندارد.ما پیشنهاد می کنیم روش سه مرحله ای جذاب محاسباتی برای برآورد ساختاری توابعی که در آن دو مرحله اول از کمی یا توزیع تشکیل شده است رگرسیونما نظریه بدون علامت و روشهای استنباط یکنواخت را برای هر مرحله.به طور خاص ، ما قضایای محدودیت مرکزی عملکردی را استخراج می کنیم و قضایای محدودیت مرکزی عملکردی Bootstrap برای رگرسیون توزیع برآوردگرهای عملکردهای ساختاری.این نتایج اعتبار آن را تعیین می کند بوت استرپ برای برآوردگرهای سه مرحله ای از عملکردهای ساختاری ، و منجر به الگوریتم های استنتاج ساده.ما اجرای و کاربرد را نشان می دهیم از تمام روشهای ما با شبیه سازی های عددی و یک کاربرد تجربی در تجزیه و تحلیل تقاضا.
30,241
In this paper we extend the work by Ryuzo Sato devoted to the development of economic growth models within the framework of the Lie group theory. We propose a new growth model based on the assumption of logistic growth in factors. It is employed to derive new production functions and introduce a new notion of wage share. In the process it is shown that the new functions compare reasonably well against relevant economic data. The corresponding problem of maximization of profit under conditions of perfect competition is solved with the aid of one of these functions. In addition, it is explained in reasonably rigorous mathematical terms why Bowley's law no longer holds true in post-1960 data.
در این مقاله کار Ryuzo Sato را که به توسعه آن اختصاص داده شده است گسترش می دهیم مدل های رشد اقتصادی در چارچوب نظریه گروه دروغ.ما پیشنهاد می کنیم یک مدل رشد جدید مبتنی بر فرض رشد لجستیک در عوامل.این است برای به دست آوردن عملکردهای جدید تولید و معرفی مفهوم جدید دستمزد استفاده شده است اشتراک گذاری.در این فرآیند نشان داده شده است که توابع جدید به طور منطقی مقایسه می کنند خوب در برابر داده های اقتصادی مربوطه.مشکل مربوط به حداکثر رساندن سود در شرایط رقابت کامل با کمک یک حل می شود از این توابععلاوه بر این ، آن را به طور منطقی دقیق توضیح داده شده است اصطلاحات ریاضی چرا قانون بولی دیگر در داده های پس از 1960 صادق نیست.
30,242
We consider continuous-time models with a large panel of moment conditions, where the structural parameter depends on a set of characteristics, whose effects are of interest. The leading example is the linear factor model in financial economics where factor betas depend on observed characteristics such as firm specific instruments and macroeconomic variables, and their effects pick up long-run time-varying beta fluctuations. We specify the factor betas as the sum of characteristic effects and an orthogonal idiosyncratic parameter that captures high-frequency movements. It is often the case that researchers do not know whether or not the latter exists, or its strengths, and thus the inference about the characteristic effects should be valid uniformly over a broad class of data generating processes for idiosyncratic parameters. We construct our estimation and inference in a two-step continuous-time GMM framework. It is found that the limiting distribution of the estimated characteristic effects has a discontinuity when the variance of the idiosyncratic parameter is near the boundary (zero), which makes the usual "plug-in" method using the estimated asymptotic variance only valid pointwise and may produce either over- or under- coveraging probabilities. We show that the uniformity can be achieved by cross-sectional bootstrap. Our procedure allows both known and estimated factors, and also features a bias correction for the effect of estimating unknown factors.
ما مدلهای زمان مداوم را با یک صفحه بزرگ از شرایط لحظه ای در نظر می گیریم ، جایی که پارامتر ساختاری به مجموعه ای از خصوصیات بستگی دارد ، اثرات مورد توجه است.مثال اصلی مدل فاکتور خطی در اقتصاد مالی که در آن بتاهای عامل به ویژگی های مشاهده شده از جمله بستگی دارند به عنوان ابزارهای خاص و متغیرهای کلان اقتصادی و تأثیرات آنها نوسانات بتا متغیر با مدت طولانی را انتخاب کنید.ما فاکتور بتاس را به عنوان مشخص می کنیم مجموع جلوه های مشخصه و یک پارامتر خاصیت خاص متعامد که حرکات با فرکانس بالا را ضبط می کند.اغلب این مورد است که محققان نمی دانید که آیا دومی وجود دارد یا نه نقاط قوت آن ، و بنابراین استنتاج در مورد اثرات مشخصه باید به طور یکنواخت در مورد کلاس گسترده ای از فرآیندهای تولید داده ها برای پارامترهای ایدیوسنکراتیک.ما تخمین و استنباط ما را در یک GMM دو مرحله ای مداوم بسازید چارچوبمشخص شده است که توزیع محدود تخمین زده شده است اثرات مشخصه در هنگام واریانس ناپیوستگی دارد پارامتر Idiosyncratic در نزدیکی مرز (صفر) است که باعث می شود معمول باشد روش "افزونه" با استفاده از واریانس بدون علامت تخمین زده شده فقط نکته معتبر و ممکن است احتمالات تحت پوشش بیش از حد یا تحت پوشش را ایجاد کند.ما نشان می دهیم که یکنواختی را می توان با استفاده از بوت استرپ مقطعی بدست آورد.رویه ما هر دو عامل شناخته شده و تخمین زده شده را امکان پذیر می کند ، و همچنین دارای اصلاح تعصب است برای تأثیر تخمین عوامل ناشناخته.
30,243
Given additional distributional information in the form of moment restrictions, kernel density and distribution function estimators with implied generalised empirical likelihood probabilities as weights achieve a reduction in variance due to the systematic use of this extra information. The particular interest here is the estimation of densities or distributions of (generalised) residuals in semi-parametric models defined by a finite number of moment restrictions. Such estimates are of great practical interest, being potentially of use for diagnostic purposes, including tests of parametric assumptions on an error distribution, goodness-of-fit tests or tests of overidentifying moment restrictions. The paper gives conditions for the consistency and describes the asymptotic mean squared error properties of the kernel density and distribution estimators proposed in the paper. A simulation study evaluates the small sample performance of these estimators. Supplements provide analytic examples to illustrate situations where kernel weighting provides a reduction in variance together with proofs of the results in the paper.
با توجه به اطلاعات توزیع اضافی در قالب لحظه محدودیت ها ، چگالی هسته و برآوردگرهای عملکرد توزیع با ضمنی احتمال احتمال تجربی تعمیم یافته به عنوان وزنه ها کاهش می یابد در واریانس به دلیل استفاده منظم از این اطلاعات اضافی.خاص علاقه در اینجا تخمین تراکم یا توزیع (تعمیم یافته) است باقیمانده در مدلهای نیمه پارامتری تعریف شده توسط تعداد محدودی از لحظه محدودیت های.چنین برآوردها به طور بالقوه مورد علاقه عملی هستند استفاده برای اهداف تشخیصی ، از جمله آزمایش فرضیات پارامتری در توزیع خطا ، تست های مناسب یا تست های لحظه ای بیش از حد شناسایی محدودیت های.مقاله شرایطی را برای قوام می دهد و توصیف می کند میانگین خطای خطای بدون علامت از چگالی و توزیع هسته برآوردگرهای ارائه شده در مقاله.یک مطالعه شبیه سازی نمونه کوچک را ارزیابی می کند عملکرد این برآوردگرها.مکمل ها نمونه های تحلیلی را به موقعیت هایی را نشان می دهد که وزن هسته باعث کاهش واریانس می شود همراه با اثبات نتایج در مقاله.
30,244
Multivalued treatment models have typically been studied under restrictive assumptions: ordered choice, and more recently unordered monotonicity. We show how treatment effects can be identified in a more general class of models that allows for multidimensional unobserved heterogeneity. Our results rely on two main assumptions: treatment assignment must be a measurable function of threshold-crossing rules, and enough continuous instruments must be available. We illustrate our approach for several classes of models.
مدلهای درمانی چند تا حد به طور معمول تحت محدودیت مورد مطالعه قرار گرفته اند فرضیات: انتخاب سفارش داده شده و یکنواختی اخیراً بدون هماهنگ.ما نشان می دهیم چگونه می توان اثرات درمانی را در یک کلاس کلی تر از مدلها شناسایی کرد اجازه می دهد تا ناهمگونی بدون نظارت چند بعدی باشد.نتایج ما به دو متکی است فرضیات اصلی: واگذاری درمان باید یک عملکرد قابل اندازه گیری باشد قوانین عبور آستانه و ابزارهای مداوم به اندازه کافی باید در دسترس باشد. ما رویکرد خود را برای چندین کلاس از مدل ها نشان می دهیم.
30,245
This chapter covers methodological issues related to estimation, testing and computation for models involving structural changes. Our aim is to review developments as they relate to econometric applications based on linear models. Substantial advances have been made to cover models at a level of generality that allow a host of interesting practical applications. These include models with general stationary regressors and errors that can exhibit temporal dependence and heteroskedasticity, models with trending variables and possible unit roots and cointegrated models, among others. Advances have been made pertaining to computational aspects of constructing estimates, their limit distributions, tests for structural changes, and methods to determine the number of changes present. A variety of topics are covered. The first part summarizes and updates developments described in an earlier review, Perron (2006), with the exposition following heavily that of Perron (2008). Additions are included for recent developments: testing for common breaks, models with endogenous regressors (emphasizing that simply using least-squares is preferable over instrumental variables methods), quantile regressions, methods based on Lasso, panel data models, testing for changes in forecast accuracy, factors models and methods of inference based on a continuous records asymptotic framework. Our focus is on the so-called off-line methods whereby one wants to retrospectively test for breaks in a given sample of data and form confidence intervals about the break dates. The aim is to provide the readers with an overview of methods that are of direct usefulness in practice as opposed to issues that are mostly of theoretical interest.
در این فصل موضوعات روش شناختی مربوط به تخمین ، آزمایش و محاسبه برای مدل های مربوط به تغییرات ساختاری.هدف ما بررسی است تحولات مربوط به برنامه های اقتصاد سنجی بر اساس مدل های خطی است. پیشرفت های اساسی برای پوشاندن مدل ها در سطح کلی انجام شده است این امکان را فراهم می کند تا میزبان برنامه های عملی جالب باشد.اینها شامل مدل ها است با رگرسیون و خطاهای کلی ثابت که می توانند زمانی نشان دهند وابستگی و ناهمگونی ، مدل هایی با متغیرهای روند و ممکن ریشه های واحد و مدل های یکپارچه ، از جمله دیگر.پیشرفت هایی انجام شده است مربوط به جنبه های محاسباتی برآوردهای ساخت ، حد آنها توزیع ، آزمایش برای تغییرات ساختاری و روش های تعیین تعداد تغییرات موجود.موضوعات متنوعی پوشش داده شده است.بخش اول تحولات شرح داده شده در یک بررسی قبلی ، Perron را خلاصه و به روز می کند (2006) ، با نمایشگاه به شدت از پرورون (2008).موارد اضافی برای تحولات اخیر گنجانده شده است: آزمایش برای وقفه های مشترک ، مدل هایی با رگرسیون های درون زا (با تأکید بر اینکه به سادگی استفاده از حداقل مربعات است ارجح بر روشهای متغیرهای ابزاری) ، رگرسیون کمی ، روشها بر اساس Lasso ، مدل های داده پانل ، آزمایش تغییر در دقت پیش بینی ، مدلهای فاکتورها و روشهای استنباط بر اساس سوابق مداوم چارچوب بدون علامت.تمرکز ما بر روی روشهای به اصطلاح خارج از خط است که به موجب آن یکی می خواهد به صورت گذشته نگر برای شکستن در یک نمونه معین از داده ها و فرم ها آزمایش کند فواصل اطمینان در مورد تاریخ استراحت.هدف این است که خوانندگان را تهیه کنیم با مرور کلی از روش هایی که در عمل از مفیدیت مستقیم هستند برخلاف موضوعاتی که بیشتر مورد توجه نظری هستند.
30,246
In the following paper, we use a topic modeling algorithm and sentiment scoring methods to construct a novel metric that serves as a leading indicator in recession prediction models. We hypothesize that the inclusion of such a sentiment indicator, derived purely from unstructured news data, will improve our capabilities to forecast future recessions because it provides a direct measure of the polarity of the information consumers and producers are exposed to. We go on to show that the inclusion of our proposed news sentiment indicator, with traditional sentiment data, such as the Michigan Index of Consumer Sentiment and the Purchasing Manager's Index, and common factors derived from a large panel of economic and financial indicators helps improve model performance significantly.
در مقاله زیر از یک الگوریتم و احساسات مدل سازی موضوع استفاده می کنیم روش های امتیاز دهی برای ساخت یک متریک جدید که به عنوان یک شاخص پیشرو عمل می کند در مدل های پیش بینی رکود.ما فرض می کنیم که گنجاندن چنین نشانگر احساسات ، که صرفاً از داده های خبری بدون ساختار مشتق شده است ، بهبود می یابد توانایی های ما برای پیش بینی رکودهای آینده زیرا مستقیماً فراهم می کند اندازه گیری قطبیت اطلاعاتی که مصرف کنندگان و تولید کنندگان در معرض آن قرار دارند به.ما در ادامه نشان می دهیم که گنجاندن احساسات پیشنهادی ما شاخص ، با داده های احساساتی سنتی ، مانند فهرست میشیگان احساسات مصرف کننده و شاخص مدیر خرید و عوامل مشترک حاصل از یک صفحه بزرگ از شاخص های اقتصادی و مالی به بهبود کمک می کند عملکرد مدل به طور قابل توجهی.
30,247
The papers~\cite{hatfimmokomi11} and~\cite{azizbrilharr13} propose algorithms for testing whether the choice function induced by a (strict) preference list of length $N$ over a universe $U$ is substitutable. The running time of these algorithms is $O(|U|^3\cdot N^3)$, respectively $O(|U|^2\cdot N^3)$. In this note we present an algorithm with running time $O(|U|^2\cdot N^2)$. Note that $N$ may be exponential in the size $|U|$ of the universe.
مقالات ~ \ cite {hatfimmokomi11} و ~ \ cite {azizbrilharr13} الگوریتم ها برای آزمایش اینکه آیا عملکرد انتخاب ناشی از یک لیست اولویت (سخت) از طول $ n $ بیش از یک جهان $ u $ قابل تعویض است.زمان اجرا اینها الگوریتم ها $ o (| u |^3 \ cdot n^3) $ ، به ترتیب $ o (| u |^2 \ cdot n^3) $.در این توجه داشته باشید ما یک الگوریتم با زمان اجرا $ O (| u |^2 \ cdot n^2) $ ارائه می دهیم.توجه داشته باشید که $ n $ ممکن است در اندازه $ | u | $ جهان نمایی باشد.
30,248
The synthetic control method (SCM) is a popular approach for estimating the impact of a treatment on a single unit in panel data settings. The "synthetic control" is a weighted average of control units that balances the treated unit's pre-treatment outcomes as closely as possible. A critical feature of the original proposal is to use SCM only when the fit on pre-treatment outcomes is excellent. We propose Augmented SCM as an extension of SCM to settings where such pre-treatment fit is infeasible. Analogous to bias correction for inexact matching, Augmented SCM uses an outcome model to estimate the bias due to imperfect pre-treatment fit and then de-biases the original SCM estimate. Our main proposal, which uses ridge regression as the outcome model, directly controls pre-treatment fit while minimizing extrapolation from the convex hull. This estimator can also be expressed as a solution to a modified synthetic controls problem that allows negative weights on some donor units. We bound the estimation error of this approach under different data generating processes, including a linear factor model, and show how regularization helps to avoid over-fitting to noise. We demonstrate gains from Augmented SCM with extensive simulation studies and apply this framework to estimate the impact of the 2012 Kansas tax cuts on economic growth. We implement the proposed method in the new augsynth R package.
روش کنترل مصنوعی (SCM) یک رویکرد محبوب برای تخمین است تأثیر یک درمان بر روی یک واحد واحد در تنظیمات داده پانل."مصنوعی کنترل "میانگین وزنی واحدهای کنترل است که تحت درمان قرار می گیرد نتایج قبل از درمان واحد تا حد امکان نزدیک است.یک ویژگی مهم از پیشنهاد اصلی استفاده از SCM فقط در مواردی است که متناسب با نتایج قبل از درمان است عالیما SCM افزوده را به عنوان گسترش SCM به تنظیمات پیشنهاد می کنیم چنین تناسب قبل از درمان غیرقابل تحمل است.مشابه تصحیح تعصب برای ناکامی تطبیق ، SCM افزوده از یک مدل نتیجه برای تخمین تعصب به دلیل استفاده می کند ناقص قبل از درمان متناسب و سپس تخمین اصلی SCM را از بین می برد.ما پیشنهاد اصلی ، که به طور مستقیم از رگرسیون ریج به عنوان مدل نتیجه استفاده می کند قبل از درمان را کنترل می کند در حالی که برون یابی را از بدنه محدب به حداقل می رساند. این برآوردگر همچنین می تواند به عنوان یک راه حل برای یک مصنوعی اصلاح شده بیان شود مشکل را کنترل می کند که وزن منفی را در برخی از واحدهای اهدا کننده فراهم می کند.ما خطای تخمین این رویکرد تحت فرآیندهای مختلف تولید داده ها ، از جمله یک مدل فاکتور خطی ، و نشان می دهد که چگونه منظم سازی به جلوگیری از آن کمک می کند متناسب با سر و صدا.ما دستاوردهای SCM افزوده را با گسترده نشان می دهیم مطالعات شبیه سازی و استفاده از این چارچوب برای برآورد تأثیر 2012 کاهش مالیات کانزاس بر رشد اقتصادی.ما روش پیشنهادی را در جدید اجرا می کنیم بسته Augsynth r.
30,249
We propose a two-stage least squares (2SLS) estimator whose first stage is the equal-weighted average over a complete subset with $k$ instruments among $K$ available, which we call the complete subset averaging (CSA) 2SLS. The approximate mean squared error (MSE) is derived as a function of the subset size $k$ by the Nagar (1959) expansion. The subset size is chosen by minimizing the sample counterpart of the approximate MSE. We show that this method achieves the asymptotic optimality among the class of estimators with different subset sizes. To deal with averaging over a growing set of irrelevant instruments, we generalize the approximate MSE to find that the optimal $k$ is larger than otherwise. An extensive simulation experiment shows that the CSA-2SLS estimator outperforms the alternative estimators when instruments are correlated. As an empirical illustration, we estimate the logistic demand function in Berry, Levinsohn, and Pakes (1995) and find the CSA-2SLS estimate is better supported by economic theory than the alternative estimates.
ما یک برآوردگر حداقل مربعات دو مرحله ای (2SL) را پیشنهاد می کنیم که مرحله اول آنها است میانگین وزن برابر بیش از یک زیر مجموعه کامل با ابزارهای $ $ $ در میان $ k $ در دسترس است ، که ما آن را زیر مجموعه کامل (CSA) 2SLS می نامیم.در میانگین خطای مربع تقریبی (MSE) به عنوان تابعی از زیر مجموعه به دست می آید اندازه $ k $ توسط Nagar (1959) گسترش.اندازه زیر مجموعه با به حداقل رساندن انتخاب می شود همتای نمونه MSE تقریبی.ما نشان می دهیم که این روش به بهینه بودن بدون علامت در بین کلاس برآوردگرها با متفاوت می رسد اندازه زیر مجموعهبرای مقابله با میانگین در مورد مجموعه رو به رشد بی ربط ابزارها ، ما MSE تقریبی را تعمیم می دهیم تا دریابیم که بهینه $ k $ است بزرگتر از دیگری.یک آزمایش شبیه سازی گسترده نشان می دهد که برآوردگر CSA-2SLS از برآوردگرهای جایگزین در هنگام ابزارها بهتر عمل می کند همبستهما به عنوان یک تصویر تجربی ، تقاضای لجستیک را تخمین می زنیم عملکرد در توت ، لویینسون و پیکس (1995) و برآورد CSA-2SLS را پیدا کنید بهتر از برآوردهای جایگزین توسط تئوری اقتصادی پشتیبانی می شود.
30,250
Multidimensional heterogeneity and endogeneity are important features of a wide class of econometric models. We consider heterogenous coefficients models where the outcome is a linear combination of known functions of treatment and heterogenous coefficients. We use control variables to obtain identification results for average treatment effects. With discrete instruments in a triangular model we find that average treatment effects cannot be identified when the number of support points is less than or equal to the number of coefficients. A sufficient condition for identification is that the second moment matrix of the treatment functions given the control is nonsingular with probability one. We relate this condition to identification of average treatment effects with multiple treatments.
ناهمگونی و اندوژنیت چند بعدی از ویژگی های مهم یک است کلاس گسترده ای از مدلهای اقتصاد سنجی.ما مدلهای ضرایب ناهمگن را در نظر می گیریم جایی که نتیجه ترکیبی خطی از عملکردهای شناخته شده درمان و ضرایب ناهمگن.ما برای بدست آوردن شناسایی از متغیرهای کنترل استفاده می کنیم نتایج برای میانگین اثرات درمانی.با ابزارهای گسسته در مدل مثلثی متوجه می شویم که میانگین اثرات درمانی قابل شناسایی نیست هنگامی که تعداد نقاط پشتیبانی کمتر یا مساوی با تعداد است ضرایبشرط کافی برای شناسایی این است که دوم ماتریس لحظه ای از توابع درمانی با توجه به کنترل با آن غیرعادی است احتمال یکیما این شرط را با شناسایی میانگین مرتبط می کنیم اثرات درمانی با چندین درمان.
30,251
Berkson errors are commonplace in empirical microeconomics. In consumer demand this form of measurement error occurs when the price an individual pays is measured by the (weighted) average price paid by individuals in a specified group (e.g., a county), rather than the true transaction price. We show the importance of such measurement errors for the estimation of demand in a setting with nonseparable unobserved heterogeneity. We develop a consistent estimator using external information on the true distribution of prices. Examining the demand for gasoline in the U.S., we document substantial within-market price variability, and show that there are significant spatial differences in the magnitude of Berkson errors across regions of the U.S. Accounting for Berkson errors is found to be quantitatively important for estimating price effects and for welfare calculations. Imposing the Slutsky shape constraint greatly reduces the sensitivity to Berkson errors.
خطاهای برکسون در اقتصاد اقتصادی تجربی معمول است.در مصرف کننده تقاضای این شکل از خطای اندازه گیری هنگامی اتفاق می افتد که یک فرد پرداخت می کند با میانگین (وزنی) قیمت پرداخت شده توسط افراد در یک مشخص شده اندازه گیری می شود گروه (به عنوان مثال ، یک شهرستان) ، به جای قیمت واقعی معامله.ما نشان می دهیم اهمیت چنین خطاهای اندازه گیری برای تخمین تقاضا در یک تنظیم با ناهمگونی غیرقابل توصیف.ما یک برآوردگر ثابت تهیه می کنیم استفاده از اطلاعات خارجی در مورد توزیع واقعی قیمت ها.بررسی تقاضا برای بنزین در ایالات متحده ، ما قیمت قابل توجهی در بازار را مستند می کنیم تنوع ، و نشان می دهد که تفاوت های مکانی قابل توجهی در بزرگی خطاهای برکسون در مناطق ایالات متحده آمریکا حسابداری برای برکسون خطاها برای برآورد اثرات قیمت از نظر کمی مهم هستند برای محاسبات رفاهیتحمیل محدودیت شکل Slutsky به شدت کاهش می یابد حساسیت به خطاهای برکسون.
30,252
This paper introduces an intuitive and easy-to-implement nonparametric density estimator based on local polynomial techniques. The estimator is fully boundary adaptive and automatic, but does not require pre-binning or any other transformation of the data. We study the main asymptotic properties of the estimator, and use these results to provide principled estimation, inference, and bandwidth selection methods. As a substantive application of our results, we develop a novel discontinuity in density testing procedure, an important problem in regression discontinuity designs and other program evaluation settings. An illustrative empirical application is given. Two companion Stata and R software packages are provided.
در این مقاله یک غیرپارامتری بصری و آسان برای تکمیل ارائه شده است برآوردگر چگالی بر اساس تکنیک های چند جمله ای محلی.برآوردگر کاملاً است مرزی تطبیقی ​​و اتوماتیک ، اما نیازی به پیش از زازن یا موارد دیگر ندارد تحول داده ها.ما خواص اصلی بدون علامت را مطالعه می کنیم برآوردگر ، و از این نتایج برای ارائه تخمین اصولی ، استنباط ، استفاده کنید و روش های انتخاب پهنای باند.به عنوان یک کاربرد اساسی از نتایج ما ، ما در روش آزمایش چگالی یک ناپیوستگی جدید ایجاد می کنیم ، یک مهم مشکل در طرح های ناپیوستگی رگرسیون و ارزیابی سایر برنامه ها تنظیمات.یک برنامه تجربی مصور ارائه شده است.دو همراه استاتا و بسته های نرم افزاری R ارائه شده است.
30,253
We develop a distribution regression model under endogenous sample selection. This model is a semi-parametric generalization of the Heckman selection model. It accommodates much richer effects of the covariates on outcome distribution and patterns of heterogeneity in the selection process, and allows for drastic departures from the Gaussian error structure, while maintaining the same level tractability as the classical model. The model applies to continuous, discrete and mixed outcomes. We provide identification, estimation, and inference methods, and apply them to obtain wage decomposition for the UK. Here we decompose the difference between the male and female wage distributions into composition, wage structure, selection structure, and selection sorting effects. After controlling for endogenous employment selection, we still find substantial gender wage gap -- ranging from 21% to 40% throughout the (latent) offered wage distribution that is not explained by composition. We also uncover positive sorting for single men and negative sorting for married women that accounts for a substantive fraction of the gender wage gap at the top of the distribution.
ما یک مدل رگرسیون توزیع را تحت انتخاب نمونه درون زا ایجاد می کنیم. این مدل یک تعمیم نیمه پارامتری از مدل انتخاب هکمن است. این اثرات بسیار غنی تر از متغیرهای متغیر را در توزیع نتیجه قرار می دهد و الگوهای ناهمگونی در فرآیند انتخاب ، و امکان پذیر است عزیمت از ساختار خطای گاوسی ، ضمن حفظ همان سطح قابلیت پخش به عنوان مدل کلاسیک.این مدل مربوط به مداوم و گسسته است و نتایج مختلطما شناسایی ، تخمین و استنباط را ارائه می دهیم روشها ، و آنها را برای به دست آوردن تجزیه دستمزد برای انگلیس اعمال کنید.ما اینجاییم تفاوت بین توزیع دستمزد زن و مرد را در ترکیب ، ساختار دستمزد ، ساختار انتخاب و مرتب سازی انتخاب اثراتپس از کنترل انتخاب اشتغال درون زا ، ما هنوز هم می یابیم شکاف قابل توجه دستمزد جنسیت - از 21 ٪ تا 40 ٪ در طول (نهفته) توزیع دستمزد ارائه شده که توسط ترکیب توضیح داده نمی شود.ما نیز کشف می کنیم مرتب سازی مثبت برای مردان مجرد و مرتب سازی منفی برای زنان متاهل بخش مهمی از شکاف دستمزد جنسیت را در بالای توزیع
30,254
This paper investigates asset allocation problems when returns are predictable. We introduce a market-timing Bayesian hierarchical (BH) approach that adopts heterogeneous time-varying coefficients driven by lagged fundamental characteristics. Our approach includes a joint estimation of conditional expected returns and covariance matrix and considers estimation risk for portfolio analysis. The hierarchical prior allows modeling different assets separately while sharing information across assets. We demonstrate the performance of the U.S. equity market. Though the Bayesian forecast is slightly biased, our BH approach outperforms most alternative methods in point and interval prediction. Our BH approach in sector investment for the recent twenty years delivers a 0.92\% average monthly returns and a 0.32\% significant Jensen`s alpha. We also find technology, energy, and manufacturing are important sectors in the past decade, and size, investment, and short-term reversal factors are heavily weighted. Finally, the stochastic discount factor constructed by our BH approach explains most anomalies.
در این مقاله مشکلات تخصیص دارایی در هنگام بازده بررسی شده است قابل پیش بینی.ما یک رویکرد سلسله مراتبی بیزی (BH) در بازار را معرفی می کنیم که ضرایب متغیر متغیر ناهمگن را که توسط عقب مانده است ، اتخاذ می کند خصوصیات اساسی.رویکرد ما شامل یک تخمین مشترک از بازده مورد انتظار مشروط و ماتریس کواریانس و تخمین را در نظر می گیرد خطر تجزیه و تحلیل نمونه کارها.سلسله مراتبی قبلی اجازه می دهد تا مدل سازی متفاوت باشد دارایی ها به طور جداگانه هنگام به اشتراک گذاشتن اطلاعات در بین دارایی ها.ما نشان می دهیم عملکرد بازار سهام ایالات متحده.گرچه پیش بینی بیزی کمی است مغرضانه ، رویکرد BH ما بیش از همه روشهای جایگزین در نقطه و پیش بینی فاصلهرویکرد BH ما در سرمایه گذاری بخش برای بیست اخیر سالها میانگین بازده ماهانه 0.92 \ ٪ و 0.32 \ ٪ معنی دار را ارائه می دهد جنسن آلفا.ما همچنین می یابیم که فناوری ، انرژی و تولید هستند بخش های مهم در یک دهه گذشته و اندازه ، سرمایه گذاری و کوتاه مدت عوامل وارونه به شدت وزن دارند.سرانجام ، عامل تخفیف تصادفی ساخته شده با رویکرد BH ما بیشتر ناهنجاری ها را توضیح می دهد.
34,592
This paper develops a dynamic monetary model to study the (in)stability of the fractional reserve banking system. The model shows that the fractional reserve banking system can endanger stability in that equilibrium is more prone to exhibit endogenous cyclic, chaotic, and stochastic dynamics under lower reserve requirements, although it can increase consumption in the steady-state. Introducing endogenous unsecured credit to the baseline model does not change the main results. This paper also provides empirical evidence that is consistent with the prediction of the model. The calibrated exercise suggests that this channel could be another source of economic fluctuations.
در این مقاله یک مدل پولی پویا برای مطالعه پایداری (در) ایجاد شده است سیستم بانکی ذخیره کسری.مدل نشان می دهد که کسری است سیستم بانکی رزرو می تواند ثبات را در این امر به خطر بیندازد برای نمایش پویایی چرخه ای ، هرج و مرج و تصادفی درون زا در زیر پایین نیازهای ذخیره ، اگرچه می تواند مصرف در حالت پایدار را افزایش دهد. معرفی اعتبار ناامن درون زا به مدل پایه تغییر نمی کند نتایج اصلیدر این مقاله شواهد تجربی ارائه شده است مطابق با پیش بینی مدل.تمرین کالیبره شده نشان می دهد این کانال می تواند منبع دیگری برای نوسانات اقتصادی باشد.
30,255
We synthesize the knowledge present in various scientific disciplines for the development of semiparametric endogenous truncation-proof algorithm, correcting for truncation bias due to endogenous self-selection. This synthesis enriches the algorithm's accuracy, efficiency and applicability. Improving upon the covariate shift assumption, data are intrinsically affected and largely generated by their own behavior (cognition). Refining the concept of Vox Populi (Wisdom of Crowd) allows data points to sort themselves out depending on their estimated latent reference group opinion space. Monte Carlo simulations, based on 2,000,000 different distribution functions, practically generating 100 million realizations, attest to a very high accuracy of our model.
ما دانش موجود در رشته های مختلف علمی را برای توسعه الگوریتم ضد انفجار درون زا نیمه نیمه ، تصحیح برای تعصب کوتاه شدن به دلیل انتخاب خود درون زا.این سنتز غنی می شود دقت ، کارآیی و کاربرد الگوریتم.بهبود بر فرض تغییر متغیر ، داده ها ذاتاً تحت تأثیر قرار می گیرند و تا حد زیادی تحت تأثیر قرار می گیرند تولید شده توسط رفتار خودشان (شناخت).پالایش مفهوم Vox Populi (خرد از جمعیت) به داده های داده اجازه می دهد تا بسته به آنها خود را مرتب کنند فضای افکار گروه مرجع نهفته تخمین زده می شود.شبیه سازی مونت کارلو ، مبتنی بر در 2000،000 کارکرد توزیع مختلف ، عملاً 100 تولید می کند میلیون تحقق ، اثبات دقت بسیار بالایی از مدل ما.
30,256
We introduce the Stata package Binsreg, which implements the binscatter methods developed in Cattaneo, Crump, Farrell and Feng (2023a,b). The package includes seven commands: binsreg, binslogit, binsprobit, binsqreg, binstest, binspwc, and binsregselect. The first four commands implement point estimation and uncertainty quantification (confidence intervals and confidence bands) for canonical and extended least squares binscatter regression (binsreg) as well as generalized nonlinear binscatter regression (binslogit for Logit regression, binsprobit for Probit regression, and binsqreg for quantile regression). These commands also offer binned scatter plots, allowing for one- and multi-sample settings. The next two commands focus on pointwise and uniform inference: binstest implements hypothesis testing procedures for parametric specifications and for nonparametric shape restrictions of the unknown regression function, while binspwc implements multi-group pairwise statistical comparisons. These two commands cover both least squares as well as generalized nonlinear binscatter methods. All our methods allow for multi-sample analysis, which is useful when studying treatment effect heterogeneity in randomized and observational studies. Finally, the command binsregselect implements data-driven number of bins selectors for binscatter methods using either quantile-spaced or evenly-spaced binning/partitioning. All the commands allow for covariate adjustment, smoothness restrictions, weighting and clustering, among many other features. Companion Python and R packages with similar syntax and capabilities are also available.
ما BinsReg بسته بندی Stata را معرفی می کنیم ، که Binscatter را پیاده سازی می کند روشهای توسعه یافته در Cattaneo ، Crump ، Farrell و Feng (2023a ، b).بسته شامل هفت دستور: Binsreg ، binslogit ، binsprobit ، binsqreg ، binstest ، binspwc و binsregelect.چهار دستور اول تخمین نقطه را پیاده سازی می کنند و کمیت عدم اطمینان (فواصل اطمینان و باند اعتماد به نفس) برای رگرسیون Binscatter کم مربع متعارف و طولانی (BINSREG) و همچنین رگرسیون binscatter غیرخطی تعمیم یافته (Binslogit برای رگرسیون logit ، binsprobit برای رگرسیون پروبیت ، و binsqreg برای رگرسیون کمی).اینها دستورات همچنین توطئه های پراکنده ای را ارائه می دهند ، و این امکان را برای یک و چند نمونه فراهم می کند تنظیمات.دو دستور بعدی بر استنتاج نقطه ای و یکنواخت تمرکز می کنند: Binstest روشهای آزمایش فرضیه را برای مشخصات پارامتری پیاده سازی می کند و برای محدودیت های شکل غیرپارامتری عملکرد رگرسیون ناشناخته ، در حالی که BINSPWC مقایسه آماری چند گروهی را اجرا می کند.اینها دو فرمان هر دو حداقل مربع و همچنین غیرخطی تعمیم یافته را پوشش می دهند روش های Binscatter.تمام روشهای ما امکان تجزیه و تحلیل چند نمونه ای را فراهم می کند ، یعنی مفید هنگام مطالعه ناهمگونی اثر درمانی در تصادفی و مطالعات مشاهده ای.سرانجام ، فرمان Binsregelect پیاده سازی می کند تعداد انتخاب کنندگان سطل داده برای روش های Binscatter با استفاده از هر دو کمیته/تقسیم بندی فاصله یا مسافتی به طور مساوی.همه دستورات اجازه می دهند برای تنظیم همبستگی ، محدودیت های صافی ، وزن و خوشه بندی ، در میان بسیاری از ویژگی های دیگر.بسته های همراه پایتون و R با نحو مشابه و قابلیت ها نیز موجود است.
30,257
We propose a semiparametric two-stage least square estimator for the heterogeneous treatment effects (HTE). HTE is the solution to certain integral equation which belongs to the class of Fredholm integral equations of the first kind, which is known to be ill-posed problem. Naive semi/nonparametric methods do not provide stable solution to such problems. Then we propose to approximate the function of interest by orthogonal series under the constraint which makes the inverse mapping of integral to be continuous and eliminates the ill-posedness. We illustrate the performance of the proposed estimator through simulation experiments.
ما یک برآوردگر حداقل مربع دو مرحله ای نیمه مرحله ای را برای اثرات درمانی ناهمگن (HTE).hte راه حل خاص برای یکپارچه سازی است معادله ای که متعلق به کلاس معادلات انتگرال فردولم از اول است مهربان ، که به نظر می رسد مشکل بد نیست.روشهای نیمه ساده و غیر پارامتری راه حل پایدار برای چنین مشکلاتی ارائه ندهید.سپس ما پیشنهاد می کنیم تقریبی عملکرد علاقه توسط سری های متعامد تحت محدودیت که باعث می شود نقشه برداری معکوس انتگرال برای پیوستگی و از بین بردن بدبینیما عملکرد برآوردگر پیشنهادی را از طریق نشان می دهیم آزمایش های شبیه سازی.
30,258
We develop an LM test for Granger causality in high-dimensional VAR models based on penalized least squares estimations. To obtain a test retaining the appropriate size after the variable selection done by the lasso, we propose a post-double-selection procedure to partial out effects of nuisance variables and establish its uniform asymptotic validity. We conduct an extensive set of Monte-Carlo simulations that show our tests perform well under different data generating processes, even without sparsity. We apply our testing procedure to find networks of volatility spillovers and we find evidence that causal relationships become clearer in high-dimensional compared to standard low-dimensional VARs.
ما یک آزمایش LM برای علیت گرنجر در مدلهای VAR با ابعاد بالا توسعه می دهیم بر اساس تخمین حداقل مربعات مجازات.برای به دست آوردن یک آزمایش حفظ اندازه مناسب پس از انتخاب متغیر انجام شده توسط لاسو ، ما پیشنهاد می کنیم روش انتخاب پس از دو برابر به اثرات جزئی متغیرهای مزاحمت و اعتبار یکنواخت یکنواخت آن را تعیین کنید.ما مجموعه گسترده ای از شبیه سازی مونت کارلو که نشان می دهد تست های ما در داده های مختلف عملکرد خوبی دارند تولید فرآیندها ، حتی بدون کمبود.ما روش تست خود را به اعمال می کنیم شبکه هایی از سرریزهای نوسانات را پیدا کنید و ما شواهدی را پیدا می کنیم که علی روابط در مقایسه با استاندارد در ابعاد بالا واضح تر می شوند VAR های کم بعدی.
30,259
The Hodrick-Prescott (HP) filter is one of the most widely used econometric methods in applied macroeconomic research. Like all nonparametric methods, the HP filter depends critically on a tuning parameter that controls the degree of smoothing. Yet in contrast to modern nonparametric methods and applied work with these procedures, empirical practice with the HP filter almost universally relies on standard settings for the tuning parameter that have been suggested largely by experimentation with macroeconomic data and heuristic reasoning. As recent research (Phillips and Jin, 2015) has shown, standard settings may not be adequate in removing trends, particularly stochastic trends, in economic data. This paper proposes an easy-to-implement practical procedure of iterating the HP smoother that is intended to make the filter a smarter smoothing device for trend estimation and trend elimination. We call this iterated HP technique the boosted HP filter in view of its connection to $L_{2}$-boosting in machine learning. The paper develops limit theory to show that the boosted HP (bHP) filter asymptotically recovers trend mechanisms that involve unit root processes, deterministic polynomial drifts, and polynomial drifts with structural breaks. A stopping criterion is used to automate the iterative HP algorithm, making it a data-determined method that is ready for modern data-rich environments in economic research. The methodology is illustrated using three real data examples that highlight the differences between simple HP filtering, the data-determined boosted filter, and an alternative autoregressive approach. These examples show that the bHP filter is helpful in analyzing a large collection of heterogeneous macroeconomic time series that manifest various degrees of persistence, trend behavior, and volatility.
فیلتر Hodrick-Prescott (HP) یکی از پرکاربردترین اقتصاد سنجی است روش های تحقیقات کلان کاربردی.مانند همه روشهای غیرپارامتری ، فیلتر HP به یک پارامتر تنظیم بستگی دارد که درجه آن را کنترل می کند صاف کردنبا این حال ، برخلاف روش های غیر پارامتری مدرن و کار کاربردی با این رویه ها ، عمل تجربی با فیلتر HP تقریباً جهانی برای پارامتر تنظیم که پیشنهاد شده است به تنظیمات استاندارد متکی است عمدتا با آزمایش با داده های کلان اقتصادی و استدلال اکتشافی.مانند تحقیقات اخیر (فیلیپس و جین ، 2015) نشان داده است ، تنظیمات استاندارد ممکن است در از بین بردن روندها ، به ویژه روندهای تصادفی ، در اقتصادی کافی باشد داده ها. در این مقاله یک روش عملی آسان برای تکرار تکرار ارائه شده است HP نرم تر که قصد دارد فیلتر را به یک دستگاه صاف کننده باهوش تر تبدیل کند تخمین روند و حذف روند.ما این تکنیک HP را تکرار می کنیم فیلتر HP را با توجه به اتصال آن به $ L_ {2} $ تقویت کرد-افزایش در دستگاه یادگیری.این مقاله تئوری محدود را نشان می دهد تا نشان دهد HP تقویت شده (BHP) فیلتر به صورت مجانبی مکانیسم های روند را که شامل ریشه واحد است ، بازیابی می کند فرآیندها ، رانشهای چند جمله ای قطعی و رانشهای چند جمله ای با استراحت ساختاری.از معیار توقف برای اتوماسیون HP تکراری استفاده می شود الگوریتم ، آن را به یک روش تعیین شده با داده تبدیل می کند که برای مدرن آماده است محیط های غنی از داده ها در تحقیقات اقتصادی.این روش نشان داده شده است با استفاده از سه مثال داده واقعی که تفاوت های بین HP ساده را برجسته می کند فیلتر ، فیلتر افزایش یافته داده و یک گزینه جایگزین رویکرد خودکاراین مثالها نشان می دهد که فیلتر BHP در آن مفید است تجزیه و تحلیل مجموعه بزرگی از سری زمانی کلان ناهمگن که درجات مختلفی از پایداری ، رفتار روند و نوسانات را نشان می دهد.
30,371
Multidimensional heterogeneity and endogeneity are important features of models with multiple treatments. We consider a heterogeneous coefficients model where the outcome is a linear combination of dummy treatment variables, with each variable representing a different kind of treatment. We use control variables to give necessary and sufficient conditions for identification of average treatment effects. With mutually exclusive treatments we find that, provided the heterogeneous coefficients are mean independent from treatments given the controls, a simple identification condition is that the generalized propensity scores (Imbens, 2000) be bounded away from zero and that their sum be bounded away from one, with probability one. Our analysis extends to distributional and quantile treatment effects, as well as corresponding treatment effects on the treated. These results generalize the classical identification result of Rosenbaum and Rubin (1983) for binary treatments.
ناهمگونی و اندوژنیت چند بعدی از ویژگی های مهم این است مدل هایی با چندین درمان.ما یک مدل ضرایب ناهمگن را در نظر می گیریم جایی که نتیجه ترکیبی خطی از متغیرهای درمان ساختگی است ، با هر متغیر نمایانگر نوع دیگری از درمان است.ما از کنترل استفاده می کنیم متغیرهایی برای ارائه شرایط لازم و کافی برای شناسایی اثرات درمانی متوسط.با درمان های متقابل منحصر به فرد ، آن را می بینیم ، مشروط بر اینکه ضرایب ناهمگن میانگین مستقل از درمانها باشد با توجه به کنترل ها ، یک شرط شناسایی ساده این است که تعمیم یافته است نمرات گرایش (Imbens ، 2000) از صفر و مبلغ آنها محدود می شود به دور از یک ، با احتمال یک.تجزیه و تحلیل ما گسترش می یابد اثرات درمانی توزیع و کمی ، و همچنین مربوطه اثرات درمانی بر روی درمان.این نتایج کلاسیک را تعمیم می دهد نتیجه شناسایی روزنبوم و روبین (1983) برای درمان باینری.
30,260
Variational Bayes (VB), a method originating from machine learning, enables fast and scalable estimation of complex probabilistic models. Thus far, applications of VB in discrete choice analysis have been limited to mixed logit models with unobserved inter-individual taste heterogeneity. However, such a model formulation may be too restrictive in panel data settings, since tastes may vary both between individuals as well as across choice tasks encountered by the same individual. In this paper, we derive a VB method for posterior inference in mixed logit models with unobserved inter- and intra-individual heterogeneity. In a simulation study, we benchmark the performance of the proposed VB method against maximum simulated likelihood (MSL) and Markov chain Monte Carlo (MCMC) methods in terms of parameter recovery, predictive accuracy and computational efficiency. The simulation study shows that VB can be a fast, scalable and accurate alternative to MSL and MCMC estimation, especially in applications in which fast predictions are paramount. VB is observed to be between 2.8 and 17.7 times faster than the two competing methods, while affording comparable or superior accuracy. Besides, the simulation study demonstrates that a parallelised implementation of the MSL estimator with analytical gradients is a viable alternative to MCMC in terms of both estimation accuracy and computational efficiency, as the MSL estimator is observed to be between 0.9 and 2.1 times faster than MCMC.
Bayes متغیر (VB) ، روشی که از یادگیری ماشین سرچشمه می گیرد ، امکان پذیر است برآورد سریع و مقیاس پذیر مدلهای احتمالی پیچیده.تا کنون ، برنامه های VB در تجزیه و تحلیل انتخاب گسسته محدود به ورود به سیستم مختلط شده است مدل هایی با ناهمگونی طعم بین فردی.با این حال ، چنین فرمولاسیون مدل ممکن است در تنظیمات داده پانل بسیار محدود کننده باشد ، زیرا سلیقه ها ممکن است بین افراد و همچنین در مورد وظایف انتخابی که با آن روبرو هستند متفاوت باشد همان فرددر این مقاله ، ما یک روش VB را برای خلفی استخراج می کنیم استنتاج در مدل های ورود ناهمگونیدر یک مطالعه شبیه سازی ، ما عملکرد را معیار می کنیم روش VB پیشنهادی در برابر حداکثر احتمال شبیه سازی شده (MSL) و زنجیره مارکوف روشهای مونت کارلو (MCMC) از نظر بازیابی پارامتر ، دقت پیش بینی و راندمان محاسباتی.مطالعه شبیه سازی نشان می دهد که VB می تواند سریع باشد ، جایگزین مقیاس پذیر و دقیق برای برآورد MSL و MCMC ، به ویژه در برنامه هایی که پیش بینی های سریع در آن مهم هستند.VB مشاهده می شود بین 2.8 تا 17.7 برابر سریعتر از دو روش رقیب ، در حالی که تهیه دقت قابل مقایسه یا برتر.علاوه بر این ، مطالعه شبیه سازی نشان می دهد که اجرای موازی برآوردگر MSL با شیب تحلیلی از نظر هر دو جایگزین مناسب برای MCMC است دقت تخمین و راندمان محاسباتی ، همانطور که برآوردگر MSL است مشاهده شده بین 0.9 تا 2.1 برابر سریعتر از MCMC است.
30,261
This paper considers an augmented double autoregressive (DAR) model, which allows null volatility coefficients to circumvent the over-parameterization problem in the DAR model. Since the volatility coefficients might be on the boundary, the statistical inference methods based on the Gaussian quasi-maximum likelihood estimation (GQMLE) become non-standard, and their asymptotics require the data to have a finite sixth moment, which narrows applicable scope in studying heavy-tailed data. To overcome this deficiency, this paper develops a systematic statistical inference procedure based on the self-weighted GQMLE for the augmented DAR model. Except for the Lagrange multiplier test statistic, the Wald, quasi-likelihood ratio and portmanteau test statistics are all shown to have non-standard asymptotics. The entire procedure is valid as long as the data is stationary, and its usefulness is illustrated by simulation studies and one real example.
در این مقاله یک مدل خودجوش خودجوش دوتایی (DAR) در نظر گرفته شده است که به ضرایب نوسانات تهی اجازه می دهد تا بیش از حد پارامتری را دور بزنند مشکل در مدل DAR.از آنجا که ضرایب نوسانات ممکن است در مرز ، روشهای استنباط آماری مبتنی بر شبه حداکثر گاوسی برآورد احتمال (GQMLE) غیر استاندارد و بدون علامت آنها می شود به داده ها نیاز دارند که یک لحظه ششم محدود داشته باشند ، که دامنه قابل اجرا را باریک می کند در مطالعه داده های با دم سنگین.برای غلبه بر این کمبود ، این مقاله توسعه می یابد یک روش استنباط آماری سیستماتیک بر اساس GQMLE خود وزن برای مدل DAR افزوده.به جز آماری آزمون ضرب Lagrange ، آمار آزمون Wald ، Vylikeliout و Portmanteau همه نشان داده شده است داشتن بدون علامت غیر استاندارد.کل روش تا زمانی که معتبر باشد معتبر است داده ها ثابت است ، و سودمندی آن با مطالعات شبیه سازی و یک مثال واقعی
30,262
Timing decisions are common: when to file your taxes, finish a referee report, or complete a task at work. We ask whether time preferences can be inferred when \textsl{only} task completion is observed. To answer this question, we analyze the following model: each period a decision maker faces the choice whether to complete the task today or to postpone it to later. Cost and benefits of task completion cannot be directly observed by the analyst, but the analyst knows that net benefits are drawn independently between periods from a time-invariant distribution and that the agent has time-separable utility. Furthermore, we suppose the analyst can observe the agent's exact stopping probability. We establish that for any agent with quasi-hyperbolic $\beta,\delta$-preferences and given level of partial naivete $\hat{\beta}$, the probability of completing the task conditional on not having done it earlier increases towards the deadline. And conversely, for any given preference parameters $\beta,\delta$ and (weakly increasing) profile of task completion probability, there exists a stationary payoff distribution that rationalizes her behavior as long as the agent is either sophisticated or fully naive. An immediate corollary being that, without parametric assumptions, it is impossible to rule out time-consistency even when imposing an a priori assumption on the permissible long-run discount factor. We also provide an exact partial identification result when the analyst can, in addition to the stopping probability, observe the agent's continuation value.
تصمیمات زمان بندی متداول است: چه موقع مالیات خود را ثبت کنید ، یک داور را تمام کنید گزارش ، یا انجام یک کار در محل کار.ما می پرسیم که آیا ترجیحات زمانی می تواند باشد استنباط شده هنگامی که \ textsl {فقط} انجام کار مشاهده می شود.برای پاسخ به این سوال ، ما مدل زیر را تجزیه و تحلیل می کنیم: هر دوره ای که یک تصمیم گیرنده با آن روبرو است انتخاب اینکه آیا امروز کار را انجام دهید یا بعداً آن را به تعویق بیندازیم.هزینه و مزایای اتمام کار را نمی توان مستقیماً توسط تحلیلگر مشاهده کرد ، اما تحلیلگر می داند که مزایای خالص به طور مستقل بین دوره ها جلب می شود از توزیع زمان متغیر و این که نماینده از زمان قابل تفکیک است ابزارعلاوه بر این ، ما تصور می کنیم تحلیلگر می تواند دقیق عامل را مشاهده کند توقف احتمالما آن را برای هر نماینده ای با شبه هیپربولیک تعیین می کنیم $ \ Beta ، \ Delta $-preferences و سطح با توجه به سطح ساده لوح \ \ hat {\ beta} $ ، احتمال تکمیل کار مشروط به عدم انجام آن زودتر به مهلت افزایش می یابد.و برعکس ، برای هر داده شده پارامترهای ترجیحی $ \ بتا ، \ delta $ و (ضعیف در حال افزایش) مشخصات کار احتمال تکمیل ، توزیع بازپرداخت ثابت وجود دارد رفتار او را تا زمانی که عامل یا پیچیده یا کامل باشد ، منطقی می کند آدم ساده.نتیجه ای فوری که بدون فرضیات پارامتری ، این است غیرممکن است که حتی هنگام تحمیل پیشینی ، زمان مجازات را رد کنید فرض در مورد فاکتور تخفیف طولانی مدت مجاز.ما همچنین یک نتیجه دقیق شناسایی جزئی هنگامی که تحلیلگر می تواند علاوه بر متوقف کردن احتمال ، مقدار مداوم عامل را رعایت کنید.
30,263
We use supervised learning to identify factors that predict the cross-section of returns and maximum drawdown for stocks in the US equity market. Our data run from January 1970 to December 2019 and our analysis includes ordinary least squares, penalized linear regressions, tree-based models, and neural networks. We find that the most important predictors tended to be consistent across models, and that non-linear models had better predictive power than linear models. Predictive power was higher in calm periods than in stressed periods. Environmental, social, and governance indicators marginally impacted the predictive power of non-linear models in our data, despite their negative correlation with maximum drawdown and positive correlation with returns. Upon exploring whether ESG variables are captured by some models, we find that ESG data contribute to the prediction nonetheless.
ما برای شناسایی عواملی که مقطع را پیش بینی می کنند از یادگیری نظارت شده استفاده می کنیم بازده و حداکثر کاهش سهام در بازار سهام ایالات متحده.داده های ما از ژانویه 1970 تا دسامبر 2019 اجرا کنید و تجزیه و تحلیل ما شامل حداقل معمولی است مربع ، رگرسیون خطی مجازات شده ، مدل های مبتنی بر درخت و شبکه های عصبی. ما می دانیم که مهمترین پیش بینی کننده ها در سراسر آن سازگار هستند مدل ها ، و مدل های غیر خطی قدرت پیش بینی بهتری نسبت به خطی داشتند مدل ها.قدرت پیش بینی در دوره های آرام نسبت به دوره های استرس بیشتر بود. شاخص های زیست محیطی ، اجتماعی و حاکمیتی به حاشیه تأثیر گذاشت قدرت پیش بینی کننده مدل های غیر خطی در داده های ما ، با وجود منفی آنها همبستگی با حداکثر کاهش و همبستگی مثبت با بازده.بر بررسی اینکه آیا متغیرهای ESG توسط برخی مدل ها ضبط شده اند ، می فهمیم که ESG با این وجود داده ها به پیش بینی کمک می کنند.
30,264
When evaluating the impact of a policy on a metric of interest, it may not be possible to conduct a randomized control trial. In settings where only observational data is available, Synthetic Control (SC) methods provide a popular data-driven approach to estimate a "synthetic" control by combining measurements of "similar" units (donors). Recently, Robust SC (RSC) was proposed as a generalization of SC to overcome the challenges of missing data high levels of noise, while removing the reliance on domain knowledge for selecting donors. However, SC, RSC, and their variants, suffer from poor estimation when the pre-intervention period is too short. As the main contribution, we propose a generalization of unidimensional RSC to multi-dimensional RSC, mRSC. Our proposed mechanism incorporates multiple metrics to estimate a synthetic control, thus overcoming the challenge of poor inference from limited pre-intervention data. We show that the mRSC algorithm with $K$ metrics leads to a consistent estimator of the synthetic control for the target unit under any metric. Our finite-sample analysis suggests that the prediction error decays to zero at a rate faster than the RSC algorithm by a factor of $K$ and $\sqrt{K}$ for the training and testing periods (pre- and post-intervention), respectively. Additionally, we provide a diagnostic test that evaluates the utility of including additional metrics. Moreover, we introduce a mechanism to validate the performance of mRSC: time series prediction. That is, we propose a method to predict the future evolution of a time series based on limited data when the notion of time is relative and not absolute, i.e., we have access to a donor pool that has undergone the desired future evolution. Finally, we conduct experimentation to establish the efficacy of mRSC on synthetic data and two real-world case studies (retail and Cricket).
هنگام ارزیابی تأثیر یک سیاست بر روی یک معیار مورد علاقه ، ممکن است اینگونه نباشد انجام یک کارآزمایی کنترل تصادفی امکان پذیر است.در تنظیماتی که فقط داده های مشاهده ای در دسترس است ، روش های کنترل مصنوعی (SC) ارائه می دهند رویکرد محبوب داده محور برای برآورد کنترل "مصنوعی" با ترکیب اندازه گیری واحدهای "مشابه" (اهدا کنندگان).اخیراً ، SC قوی (RSC) بود به عنوان تعمیم SC برای غلبه بر چالش های داده های گمشده پیشنهاد شده است سطح بالایی از سر و صدا ، ضمن حذف اعتماد به دانش دامنه برای انتخاب اهدا کنندگانبا این حال ، SC ، RSC و انواع آنها از فقیر رنج می برند تخمین وقتی دوره قبل از مداخله خیلی کوتاه است.به عنوان اصلی مشارکت ، ما تعمیم RSC یک بعدی را پیشنهاد می کنیم RSC چند بعدی ، MRSC.مکانیسم پیشنهادی ما شامل چندین است معیارها برای برآورد کنترل مصنوعی ، بنابراین غلبه بر چالش فقیر استنتاج از داده های محدود قبل از مداخله.ما نشان می دهیم که الگوریتم MRSC با معیارهای $ $ $ منجر به یک برآوردگر مداوم از کنترل مصنوعی می شود واحد هدف تحت هر متریک.تجزیه و تحلیل نمونه محدود ما نشان می دهد که خطای پیش بینی با سرعت سریعتر از الگوریتم RSC توسط a به صفر می رسد عامل $ k $ و $ \ sqrt {k} $ برای دوره های آموزش و آزمایش (قبل و به ترتیب بعد از مداخله).علاوه بر این ، ما یک آزمایش تشخیصی ارائه می دهیم این کار ابزار شامل معیارهای اضافی را ارزیابی می کند.علاوه بر این ، ما مکانیسمی را برای اعتبارسنجی عملکرد MRSC: سری زمانی معرفی کنید پیش بینی.یعنی ما روشی را برای پیش بینی تکامل آینده a پیشنهاد می کنیم سری زمانی بر اساس داده های محدود وقتی مفهوم زمان نسبی است و نه مطلق ، یعنی ، ما به استخر اهدا کننده دسترسی داریم که مورد دلخواه قرار گرفته است تکامل آینده.سرانجام ، ما آزمایش را برای ایجاد اثربخشی انجام می دهیم MRSC در داده های مصنوعی و دو مطالعه موردی در دنیای واقعی (خرده فروشی و کریکت).
30,265
This paper describes three methods for carrying out non-asymptotic inference on partially identified parameters that are solutions to a class of optimization problems. Applications in which the optimization problems arise include estimation under shape restrictions, estimation of models of discrete games, and estimation based on grouped data. The partially identified parameters are characterized by restrictions that involve the unknown population means of observed random variables in addition to structural parameters. Inference consists of finding confidence intervals for functions of the structural parameters. Our theory provides finite-sample lower bounds on the coverage probabilities of the confidence intervals under three sets of assumptions of increasing strength. With the moderate sample sizes found in most economics applications, the bounds become tighter as the assumptions strengthen. We discuss estimation of population parameters that the bounds depend on and contrast our methods with alternative methods for obtaining confidence intervals for partially identified parameters. The results of Monte Carlo experiments and empirical examples illustrate the usefulness of our method.
در این مقاله سه روش برای انجام استنباط غیر متعارف شرح داده شده است در پارامترهای جزئی مشخص شده که راه حل برای یک کلاس از مشکلات بهینه سازیبرنامه هایی که در آن مشکلات بهینه سازی بوجود می آیند شامل تخمین تحت محدودیت های شکل ، تخمین مدل های گسسته بازی ها و تخمین ها بر اساس داده های گروه بندی شده.تا حدی مشخص شده است پارامترها با محدودیت هایی که شامل ناشناخته ها هستند مشخص می شوند معنی جمعیت متغیرهای تصادفی مشاهده شده علاوه بر ساختاری مولفه های.استنتاج شامل یافتن فواصل اطمینان برای کارکردها است پارامترهای ساختاری.نظریه ما مرزهای پایین نمونه محدود را در آن فراهم می کند احتمال پوشش فواصل اطمینان در سه مجموعه از فرضیات افزایش قدرت.با اندازه نمونه متوسط ​​موجود در بیشتر برنامه های اقتصاد ، مرزها به عنوان فرضیات محکم تر می شوند تقویت.ما در مورد برآورد پارامترهای جمعیتی که مرزها است بحث می کنیم به روشهای ما با روشهای جایگزین برای به دست آوردن بستگی دارد و در تضاد است فواصل اطمینان برای پارامترهای جزئی شناسایی شده.نتایج مونت آزمایشات کارلو و نمونه های تجربی سودمندی ما را نشان می دهد روش.
30,266
In this paper, we consider a framework adapting the notion of cointegration when two asset prices are generated by a driftless It\^{o}-semimartingale featuring jumps with infinite activity, observed regularly and synchronously at high frequency. We develop a regression based estimation of the cointegrated relations method and show the related consistency and central limit theory when there is cointegration within that framework. We also provide a Dickey-Fuller type residual based test for the null of no cointegration against the alternative of cointegration, along with its limit theory. Under no cointegration, the asymptotic limit is the same as that of the original Dickey-Fuller residual based test, so that critical values can be easily tabulated in the same way. Finite sample indicates adequate size and good power properties in a variety of realistic configurations, outperforming original Dickey-Fuller and Phillips-Perron type residual based tests, whose sizes are distorted by non ergodic time-varying variance and power is altered by price jumps. Two empirical examples consolidate the Monte-Carlo evidence that the adapted tests can be rejected while the original tests are not, and vice versa.
در این مقاله ، ما یک چارچوب را در نظر می گیریم که مفهوم ادغام را تطبیق می دهد هنگامی که دو قیمت دارایی توسط یک راننده آن ایجاد می شود \^{o} -semimartingale دارای پرش با فعالیت بی نهایت ، به طور مرتب و همزمان در فرکانس بالا.ما یک تخمین مبتنی بر رگرسیون از یکپارچه سازی ایجاد می کنیم روش روابط و نشان دادن قوام مربوطه و نظریه محدودیت مرکزی در زمان در آن چارچوب ادغام وجود دارد.ما همچنین یک dickey-fuller را تهیه می کنیم تست مبتنی بر باقیمانده را برای NULL از NO CONTEGRATION در برابر جایگزین Cointegration ، همراه با نظریه حد آن.زیر هیچ ادغام ، حد بدون علامت همانند اصلی است تست مبتنی بر باقیمانده Dickey-Fuller ، به طوری که مقادیر بحرانی به راحتی می توانند به همین روش جدول بندی شده است.نمونه محدود نشان دهنده اندازه کافی و قدرت خوب است خواص در انواع تنظیمات واقع بینانه ، از اصل بهتر است تست های مبتنی بر باقیمانده از نوع Dickey-Fuller و Phillips-Perron ، اندازه آنها است تحریف شده توسط واریانس و قدرت متغیر غیر ارگوودیک با قیمت تغییر می کند پرشدو نمونه تجربی ، شواهد مونت کارلو را تلفیق می کند که تست های اقتباس شده را می توان رد کرد در حالی که تست های اصلی نیستند و برعکس.
30,267
We consider a nonparametric instrumental regression model with continuous endogenous regressor where instruments are fully independent of the error term. This assumption allows us to extend the reach of this model to cases where the instrumental variable is discrete, and therefore to substantially enlarge its potential empirical applications. Under our assumptions, the regression function becomes solution to a nonlinear integral equation. We contribute to existing literature by providing an exhaustive analysis of identification and a simple iterative estimation procedure. Details on the implementation and on the asymptotic properties of this estimation algorithm are given. We conclude the paper with a simulation experiment for a binary instrument and an empirical application to the estimation of the Engel curve for food, where we show that our estimator delivers results that are consistent with existing evidence under several discretizations of the instrumental variable.
ما یک مدل رگرسیون ابزاری غیر پارامتری را با مداوم در نظر می گیریم رگرسیون درون زا که در آن سازها کاملاً از اصطلاح خطا مستقل هستند. این فرض به ما اجازه می دهد تا دسترسی این مدل را به مواردی گسترش دهیم که متغیر ابزاری گسسته است ، و بنابراین برای بزرگ کردن آن به طور قابل ملاحظه ای برنامه های تجربی بالقوه.تحت فرضیات ما ، رگرسیون عملکرد به یک معادله انتگرال غیرخطی تبدیل می شود.ما در ادبیات موجود با ارائه یک تحلیل جامع از شناسایی و الف روش تخمین تکراری ساده.جزئیات مربوط به اجرای و در خصوصیات بدون علامت این الگوریتم تخمین آورده شده است.ما نتیجه می گیریم مقاله با یک آزمایش شبیه سازی برای یک ابزار باینری و یک تجربی استفاده از تخمین منحنی انگل برای غذا ، جایی که ما آن را نشان می دهیم برآوردگر ما نتایج را ارائه می دهد که مطابق با شواهد موجود در زیر است چندین تفسیر متغیر ابزاری.
30,268
We propose to smooth the entire objective function, rather than only the check function, in a linear quantile regression context. Not only does the resulting smoothed quantile regression estimator yield a lower mean squared error and a more accurate Bahadur-Kiefer representation than the standard estimator, but it is also asymptotically differentiable. We exploit the latter to propose a quantile density estimator that does not suffer from the curse of dimensionality. This means estimating the conditional density function without worrying about the dimension of the covariate vector. It also allows for two-stage efficient quantile regression estimation. Our asymptotic theory holds uniformly with respect to the bandwidth and quantile level. Finally, we propose a rule of thumb for choosing the smoothing bandwidth that should approximate well the optimal bandwidth. Simulations confirm that our smoothed quantile regression estimator indeed performs very well in finite samples.
ما پیشنهاد می کنیم کل عملکرد عینی را صاف کنیم ، نه فقط عملکرد را در یک زمینه رگرسیون کمی خطی بررسی کنید.نه تنها برآوردگر رگرسیون کمی هموار ، میانگین مربع کمتری دارد خطا و نمایش دقیق تر بهادور-کیفر نسبت به استاندارد برآوردگر ، اما همچنین از نظر متمایز متفاوت است.ما از دومی سوء استفاده می کنیم برای پیشنهاد یک برآوردگر چگالی کمی که از نفرین رنج نمی برد ابعاداین به معنای تخمین عملکرد چگالی شرطی بدون آن است نگرانی در مورد ابعاد بردار متغیر.همچنین اجازه می دهد برآورد رگرسیون کمی کارآمد کارآمد.نظریه بدون علامت ما برگزار می شود به طور یکنواخت با توجه به پهنای باند و سطح کمی.سرانجام ، ما پیشنهاد می کنیم یک قانون شست برای انتخاب پهنای باند صاف کننده که باید تقریبی باشد خوب پهنای باند بهینه.شبیه سازی ها تأیید می کنند که کمی هموار ما برآوردگر رگرسیون در واقع در نمونه های محدود بسیار خوب عمل می کند.
30,269
This paper analyzes the diagnostic of near multicollinearity in a multiple linear regression from auxiliary centered regressions (with intercept) and non-centered (without intercept). From these auxiliary regression, the centered and non-centered Variance Inflation Factors are calculated, respectively. It is also presented an expression that relate both of them.
در این مقاله ، تشخیص چند قطبی نزدیک به چندگانه به تجزیه و تحلیل شده است رگرسیون خطی از رگرسیون محور کمکی (با رهگیری) و غیر محور (بدون رهگیری).از این رگرسیون کمکی ، محور و عوامل تورم واریانس غیر محور به ترتیب محاسبه می شوند.این است همچنین عبارتی را ارائه داد که هر دوی آنها را نشان می دهد.