id
int64
28.8k
36k
text
stringlengths
44
3.03k
translation
stringlengths
36
2.47k
30,565
This paper develops estimation and inference methods for conditional quantile factor models. We first introduce a simple sieve estimation, and establish asymptotic properties of the estimators under large $N$. We then provide a bootstrap procedure for estimating the distributions of the estimators. We also provide two consistent estimators for the number of factors. The methods allow us not only to estimate conditional factor structures of distributions of asset returns utilizing characteristics, but also to conduct robust inference in conditional factor models, which enables us to analyze the cross section of asset returns with heavy tails. We apply the methods to analyze the cross section of individual US stock returns.
این مقاله روشهای تخمین و استنباط را برای کمی مشروط ایجاد می کند مدل های فاکتور.ما ابتدا یک تخمین الک ساده را معرفی می کنیم و ایجاد می کنیم خواص بدون علامت تخمین ها تحت N $ N $.سپس ما یک روش bootstrap برای برآورد توزیع برآوردگرها.ما همچنین برای تعداد عوامل دو برآوردگر ثابت ارائه دهید.روشها اجازه می دهند ما نه تنها برای برآورد ساختارهای فاکتور مشروط توزیع دارایی بازده با استفاده از خصوصیات ، بلکه برای انجام استنتاج قوی در مدلهای ضریب مشروط ، که ما را قادر می سازد تا مقطع مقطع را تجزیه و تحلیل کنیم دارایی با دمهای سنگین باز می گردد.ما روشها را برای تجزیه و تحلیل صلیب اعمال می کنیم بخش بازده سهام ایالات متحده آمریکا.
30,566
Although the recursive logit (RL) model has been recently popular and has led to many applications and extensions, an important numerical issue with respect to the computation of value functions remains unsolved. This issue is particularly significant for model estimation, during which the parameters are updated every iteration and may violate the feasibility condition of the value function. To solve this numerical issue of the value function in the model estimation, this study performs an extensive analysis of a prism-constrained RL (Prism-RL) model proposed by Oyama and Hato (2019), which has a path set constrained by the prism defined based upon a state-extended network representation. The numerical experiments have shown two important properties of the Prism-RL model for parameter estimation. First, the prism-based approach enables estimation regardless of the initial and true parameter values, even in cases where the original RL model cannot be estimated due to the numerical problem. We also successfully captured a positive effect of the presence of street green on pedestrian route choice in a real application. Second, the Prism-RL model achieved better fit and prediction performance than the RL model, by implicitly restricting paths with large detour or many loops. Defining the prism-based path set in a data-oriented manner, we demonstrated the possibility of the Prism-RL model describing more realistic route choice behavior. The capture of positive network attributes while retaining the diversity of path alternatives is important in many applications such as pedestrian route choice and sequential destination choice behavior, and thus the prism-based approach significantly extends the practical applicability of the RL model.
اگرچه مدل ورود بازگشتی (RL) اخیراً محبوب بوده و منجر به آن شده است به بسیاری از برنامه ها و برنامه های افزودنی ، یک مسئله عددی مهم با احترام به محاسبه توابع ارزش حل نشده است.این مسئله است به ویژه برای برآورد مدل ، که در طی آن پارامترها هستند هر تکرار را به روز کرده و ممکن است شرایط امکان سنجی ارزش را نقض کند تابع.برای حل این مسئله عددی عملکرد ارزش در مدل برآورد ، این مطالعه تجزیه و تحلیل گسترده ای از RL محدود شده با منشور را انجام می دهد (Prism-RL) مدل ارائه شده توسط Oyama و Hato (2019) ، که دارای یک مسیر است محدود شده توسط منشور تعریف شده بر اساس یک شبکه دولتی نمایندگی.آزمایش های عددی دو ویژگی مهم را نشان داده اند مدل منشور RL برای برآورد پارامتر.اول ، رویکرد مبتنی بر منشور تخمین را بدون در نظر گرفتن مقادیر پارامتر اولیه و واقعی ، حتی در مواردی که مدل RL اصلی به دلیل عددی قابل تخمین نباشد مسئله.ما همچنین با موفقیت اثر مثبت حضور را ضبط کردیم خیابان سبز در انتخاب مسیر عابر پیاده در یک برنامه واقعی.دوم ، مدل Prism-RL نسبت به RL عملکرد بهتر و پیش بینی را بدست آورد مدل ، با محدود کردن ضمنی مسیرها با دفع بزرگ یا بسیاری از حلقه ها. با تعریف مسیر مبتنی بر منشور که به صورت داده محور تنظیم شده است ، ما نشان دادیم امکان مدل Prism-RL که انتخاب مسیر واقعی تر را توصیف می کند رفتار - اخلاق.ضبط ویژگی های شبکه مثبت ضمن حفظ تنوع گزینه های مسیر در بسیاری از برنامه ها از جمله مهم است انتخاب مسیر عابر پیاده و رفتار انتخاب مقصد پی در پی ، و بنابراین رویکرد مبتنی بر منش به طور قابل توجهی کاربرد عملی را گسترش می دهد مدل RL.
30,567
Kernel-weighted test statistics have been widely used in a variety of settings including non-stationary regression, inference on propensity score and panel data models. We develop the limit theory for a kernel-based specification test of a parametric conditional mean when the law of the regressors may not be absolutely continuous to the Lebesgue measure and is contaminated with singular components. This result is of independent interest and may be useful in other applications that utilize kernel smoothed U-statistics. Simulations illustrate the non-trivial impact of the distribution of the conditioning variables on the power properties of the test statistic.
آمار آزمون وزنی هسته به طور گسترده ای در انواع مختلفی استفاده شده است تنظیمات از جمله رگرسیون غیر ثابت ، استنباط در نمره گرایش و مدل های داده پانل.ما تئوری حد را برای مشخصات مبتنی بر هسته توسعه می دهیم آزمون یک شرط مشروط پارامتری زمانی که قانون رگرسیون ممکن است نباشد کاملاً مداوم به اندازه گیری Lebesgue و آلوده به مفرد است اجزاء.این نتیجه از علاقه مستقل برخوردار است و ممکن است در دیگری مفید باشد برنامه هایی که از هسته استفاده می کنند ، آمار U-Statistics را صاف کرده است.شبیه سازی ها نشان می دهد تأثیر غیر مهم توزیع متغیرهای تهویه بر خصوصیات قدرت آمار آزمون.
30,568
Finding the optimal product prices and product assortment are two fundamental problems in revenue management. Usually, a seller needs to jointly determine the prices and assortment while managing a network of resources with limited capacity. However, there is not yet a tractable method to efficiently solve such a problem. Existing papers studying static joint optimization of price and assortment cannot incorporate resource constraints. Then we study the revenue management problem with resource constraints and price bounds, where the prices and the product assortments need to be jointly determined over time. We showed that under the Markov chain (MC) choice model (which subsumes the multinomial logit (MNL) model), we could reformulate the choice-based joint optimization problem as a tractable convex conic optimization problem. We also proved that an optimal solution with a constant price vector exists even with constraints on resources. In addition, a solution with both constant assortment and price vector can be optimal when there is no resource constraint.
یافتن قیمت بهینه محصول و مجموعه محصولات دو اساسی است مشکلات در مدیریت درآمد.معمولاً یک فروشنده باید به طور مشترک تعیین کند قیمت و مجموعه در حین مدیریت شبکه ای از منابع با محدود ظرفیت.با این حال ، هنوز یک روش قابل ردیابی برای حل کارآمد وجود ندارد چنین مشکلیمقالات موجود در مطالعه بهینه سازی مشترک استاتیک قیمت و مجموعه نمی تواند محدودیت های منابع را در بر بگیرد.سپس درآمد را مطالعه می کنیم مشکل مدیریت با محدودیت منابع و مرزهای قیمت ، جایی که قیمت ها و مجموعه های محصول باید با گذشت زمان به طور مشترک مشخص شوند.ما نشان دادیم که تحت مدل انتخاب زنجیره مارکوف (MC) (که شامل چندمجمی است مدل Logit (MNL)) ، ما می توانیم بهینه سازی مشترک مبتنی بر انتخاب را اصلاح کنیم مشکل به عنوان یک مشکل بهینه سازی کنسرو محدب محدب.ما همچنین ثابت کردیم که یک راه حل بهینه با یک بردار قیمت ثابت حتی با محدودیت ها وجود دارد روی منابععلاوه بر این ، راه حلی با مجموعه ثابت و قیمت وکتور در صورت عدم وجود محدودیت منابع می تواند بهینه باشد.
30,569
In recent years, more and more state-owned enterprises (SOEs) have been embedded in the restructuring and governance of private enterprises through equity participation, providing a more advantageous environment for private enterprises in financing and innovation. However, there is a lack of knowledge about the underlying mechanisms of SOE intervention on corporate innovation performance. Hence, in this study, we investigated the association of state capital intervention with innovation performance, meanwhile further investigated the potential mediating and moderating role of managerial sentiment and financing constraints, respectively, using all listed non-ST firms from 2010 to 2020 as the sample. The results revealed two main findings: 1) state capital intervention would increase innovation performance through managerial sentiment; 2) financing constraints would moderate the effect of state capital intervention on firms' innovation performance.
در سالهای اخیر ، بیشتر و بیشتر شرکتهای دولتی (SOE) بوده اند تعبیه شده در بازسازی و مدیریت شرکتهای خصوصی از طریق مشارکت سهام عدالت ، فراهم کردن محیطی سودمندتر برای خصوصی شرکت ها در تأمین مالی و نوآوری.با این حال ، کمبود دانش وجود دارد درباره مکانیسم های اساسی مداخله SOE در نوآوری شرکت ها کارایی.از این رو ، در این مطالعه ، ما انجمن دولت را بررسی کردیم مداخله سرمایه با عملکرد نوآوری ، در عین حال بیشتر نقش واسطه گر بالقوه و تعدیل کننده مدیریتی را بررسی کرد به ترتیب ، با استفاده از کلیه موارد غیر ST ذکر شده ، محدودیت های احساسات و تأمین مالی شرکت ها از سال 2010 تا 2020 به عنوان نمونه.نتایج دو یافته اصلی را نشان داد: 1) مداخله سرمایه دولت باعث افزایش عملکرد نوآوری می شود احساسات مدیریتی ؛2) محدودیت های تأمین مالی اثر را تعدیل می کند مداخله سرمایه ایالتی بر عملکرد نوآوری بنگاهها.
30,570
Weak consistency and asymptotic normality of the ordinary least-squares estimator in a linear regression with adaptive learning is derived when the crucial, so-called, `gain' parameter is estimated in a first step by nonlinear least squares from an auxiliary model. The singular limiting distribution of the two-step estimator is normal and in general affected by the sampling uncertainty from the first step. However, this `generated-regressor' issue disappears for certain parameter combinations.
قوام ضعیف و نرمال بودن بدون علامت از حداقل مربعات معمولی برآوردگر در یک رگرسیون خطی با یادگیری تطبیقی ​​هنگامی که پارامتر مهم ، به اصطلاح ، "افزایش" در اولین قدم توسط غیرخطی تخمین زده می شود حداقل مربعات از یک مدل کمکی.توزیع محدود کننده مفرد از برآوردگر دو مرحله ای طبیعی است و به طور کلی تحت تأثیر نمونه برداری قرار می گیرد عدم اطمینان از مرحله اول.با این حال ، این مسئله "بازدارنده تولید شده" برای ترکیب پارامتر خاص ناپدید می شود.
30,571
Advances in estimating heterogeneous treatment effects enable firms to personalize marketing mix elements and target individuals at an unmatched level of granularity, but feasibility constraints limit such personalization. In practice, firms choose which unique treatments to offer and which individuals to offer these treatments with the goal of maximizing profits: we call this the coarse personalization problem. We propose a two-step solution that makes segmentation and targeting decisions in concert. First, the firm personalizes by estimating conditional average treatment effects. Second, the firm discretizes by utilizing treatment effects to choose which unique treatments to offer and who to assign to these treatments. We show that a combination of available machine learning tools for estimating heterogeneous treatment effects and a novel application of optimal transport methods provides a viable and efficient solution. With data from a large-scale field experiment for promotions management, we find that our methodology outperforms extant approaches that segment on consumer characteristics or preferences and those that only search over a prespecified grid. Using our procedure, the firm recoups over 99.5% of its expected incremental profits under fully granular personalization while offering only five unique treatments. We conclude by discussing how coarse personalization arises in other domains.
پیشرفت در برآورد اثرات درمانی ناهمگن شرکت ها را قادر می سازد عناصر مخلوط بازاریابی را شخصی سازی کرده و افراد را در سطح بی نظیر هدف قرار دهید از گرانول بودن ، اما محدودیت های امکان سنجی چنین شخصی سازی را محدود می کند.که در عمل ، شرکت ها انتخاب می کنند که کدام روش های درمانی منحصر به فرد را ارائه می دهد و افراد برای ارائه این روشهای درمانی با هدف حداکثر رساندن سود: ما این را آن می نامیم مشکل شخصی سازی درشت.ما یک راه حل دو مرحله ای را پیشنهاد می کنیم تقسیم بندی و تصمیم گیری های هدفمند در کنسرت.اول ، شرکت شخصی سازی می کند با برآورد اثرات درمانی متوسط ​​مشروط.دوم ، شرکت با استفاده از اثرات درمانی برای انتخاب کدام روشهای درمانی منحصر به فرد گسسته می شود پیشنهاد و چه کسی به این روشهای درمانی اختصاص دهد.ما نشان می دهیم که ترکیبی از ابزارهای یادگیری ماشین موجود برای برآورد اثرات درمانی ناهمگن و یک کاربرد جدید از روشهای حمل و نقل بهینه ، یک قابل دوام و راه حل کارآمدبا داده های مربوط به یک آزمایش میدانی در مقیاس بزرگ مدیریت تبلیغات ، ما می دانیم که روش ما بهتر است رویکردهای مربوط به ویژگی ها یا ترجیحات مصرف کننده و آن ها این فقط جستجوی یک شبکه از پیش تعیین شده است.با استفاده از رویه ما ، شرکت بیش از 99.5 ٪ از سودهای افزایشی مورد انتظار خود را تحت عنوان کاملاً گرانول بازپرداخت می کند شخصی سازی ضمن ارائه تنها پنج درمان منحصر به فرد.ما نتیجه می گیریم بحث در مورد چگونگی ایجاد شخصی در درشت در حوزه های دیگر.
30,572
We introduce a novel pricing kernel with time-varying variance risk aversion that yields closed-form expressions for the VIX. We also obtain closed-form expressions for option prices with a novel approximation method. The model can explain the observed time-variation in the shape of the pricing kernel. We estimate the model with S&P 500 returns and option prices and find that time-variation in volatility risk aversion brings a substantial reduction in derivative pricing errors. The variance risk ratio emerges as a fundamental variable and we show that it is closely related to economic fundamentals and key measures of sentiment and uncertainty.
ما یک هسته قیمت گذاری جدید را با ریسک واریانس متغیر زمان معرفی می کنیم این عبارات بسته برای VIX به دست می آورد.ما همچنین به شکل بسته به دست می آوریم عبارات قیمت گزینه با روش تقریب رمان.مدل می تواند متغیر زمانی مشاهده شده را در شکل هسته قیمت گذاری توضیح دهید.ما مدل را با بازده S&P 500 و قیمت گزینه تخمین بزنید و آن را پیدا کنید تغییر زمان در ریسک ریسک نوسانات کاهش قابل توجهی در خطاهای قیمت گذاری مشتق.نسبت ریسک واریانس به عنوان یک اساسی پدیدار می شود متغیر است و ما نشان می دهیم که از نزدیک با اصول اقتصادی ارتباط دارد و اقدامات کلیدی احساسات و عدم اطمینان.
30,573
In this paper we study the finite sample and asymptotic properties of various weighting estimators of the local average treatment effect (LATE), each of which can be motivated by Abadie's (2003) kappa theorem. Our framework presumes a binary treatment and a binary instrument, which may only be valid after conditioning on additional covariates. We argue that two of the estimators under consideration, which are weight normalized, are generally preferable. Several other estimators, which are unnormalized, do not satisfy the properties of scale invariance with respect to the natural logarithm and translation invariance, thereby exhibiting sensitivity to the units of measurement when estimating the LATE in logs and the centering of the outcome variable more generally. We also demonstrate that, when noncompliance is one sided, certain estimators have the advantage of being based on a denominator that is strictly greater than zero by construction. This is the case for only one of the two normalized estimators, and we recommend this estimator for wider use. We illustrate our findings with a simulation study and three empirical applications. The importance of normalization is particularly apparent in applications to real data. The simulations also suggest that covariate balancing estimation of instrument propensity scores may be more robust to misspecification. Software for implementing these methods is available in Stata.
در این مقاله نمونه محدود و خصوصیات بدون علامت مختلف را بررسی می کنیم برآوردگرهای وزنه برداری از اثر درمانی متوسط ​​محلی (اواخر) ، هر کدام که می تواند توسط قضیه Abadie's (2003) Kappa ایجاد شود.چارچوب ما فرض می شود یک درمان باینری و یک ابزار باینری ، که فقط ممکن است بعد از آن معتبر باشد تهویه بر روی متغیرهای اضافی.ما استدلال می کنیم که دو مورد از برآوردها در نظر گرفته شده ، که وزن عادی شده است ، به طور کلی ارجح است. چندین برآوردگر دیگر ، که غیر طبیعی هستند ، خواص را برآورده نمی کنند عدم تغییر مقیاس با توجه به لگاریتم طبیعی و ترجمه عدم تغییر ، از این طریق حساسیت به واحدهای اندازه گیری را نشان می دهد تخمین اواخر سیاههها و محوریت متغیر نتیجه بیشتر بطور کلی.ما همچنین نشان می دهیم که ، هنگامی که عدم رعایت یک طرفه ، مشخص است برآوردگرها این مزیت را دارند که بر اساس یک مخرج که کاملاً است بیشتر از صفر با ساخت و ساز.این مورد فقط برای یکی از این دو مورد است برآوردگرهای عادی شده ، و ما این برآوردگر را برای استفاده گسترده تر توصیه می کنیم.ما یافته های ما را با یک مطالعه شبیه سازی و سه تجربی نشان دهید برنامه های کاربردی.اهمیت عادی سازی به ویژه در برنامه های مربوط به داده های واقعی.شبیه سازی ها همچنین نشان می دهد که متغیر است تخمین متعادل کننده نمرات گرایش ابزار ممکن است قوی تر باشد شناسایی غلطنرم افزار برای اجرای این روش ها در دسترس است استاتا
30,574
This paper considers the problem of inference in cluster randomized experiments when cluster sizes are non-ignorable. Here, by a cluster randomized experiment, we mean one in which treatment is assigned at the level of the cluster; by non-ignorable cluster sizes we mean that the distribution of potential outcomes, and the treatment effects in particular, may depend non-trivially on the cluster sizes. In order to permit this sort of flexibility, we consider a sampling framework in which cluster sizes themselves are random. In this way, our analysis departs from earlier analyses of cluster randomized experiments in which cluster sizes are treated as non-random. We distinguish between two different parameters of interest: the equally-weighted cluster-level average treatment effect, and the size-weighted cluster-level average treatment effect. For each parameter, we provide methods for inference in an asymptotic framework where the number of clusters tends to infinity and treatment is assigned using a covariate-adaptive stratified randomization procedure. We additionally permit the experimenter to sample only a subset of the units within each cluster rather than the entire cluster and demonstrate the implications of such sampling for some commonly used estimators. A small simulation study and empirical demonstration show the practical relevance of our theoretical results.
در این مقاله مشکل استنباط در خوشه تصادفی در نظر گرفته شده است آزمایش ها هنگامی که اندازه خوشه ای غیر شایز است.در اینجا ، توسط یک خوشه تصادفی آزمایش ، منظور ما یکی از مواردی است که در آن درمان در سطح خوشه؛با اندازه خوشه های غیر عدالت منظور ما این است که توزیع نتایج بالقوه و به ویژه اثرات درمانی ممکن است بستگی داشته باشد به طور غیر واقعی در اندازه خوشه.به منظور اجازه این نوع انعطاف پذیری ، ما یک چارچوب نمونه گیری را در نظر می گیریم که در آن خوشه ها خود را اندازه می دهند تصادفی هستندبه این ترتیب ، تجزیه و تحلیل ما از تجزیه و تحلیل های قبلی از خوشه خارج می شود آزمایشات تصادفی که در آن اندازه خوشه به عنوان غیر تصادفی رفتار می شود.ما بین دو پارامتر مختلف مورد علاقه تفاوت قائل شوید: به همان اندازه وزن اثر متوسط ​​سطح خوشه ای و سطح خوشه ای با وزن اندازه اثر درمانی متوسط.برای هر پارامتر ، ما روش هایی برای استنباط ارائه می دهیم در یک چارچوب بدون علامت که در آن تعداد خوشه ها به بی نهایت و درمان با استفاده از یک تصادفی طبقه بندی متغیر متغیر انجام می شود روش.ما علاوه بر این به آزمایشگر اجازه می دهیم که فقط یک زیر مجموعه از واحدهای موجود در هر خوشه به جای کل خوشه و نشان می دهند پیامدهای چنین نمونه برداری برای برخی از برآوردگرهای متداول.یک کوچک مطالعه شبیه سازی و تظاهرات تجربی نشان دهنده ارتباط عملی از نتایج نظری ما
30,575
Modeling price risks is crucial for economic decision making in energy markets. Besides the risk of a single price, the dependence structure of multiple prices is often relevant. We therefore propose a generic and easy-to-implement method for creating multivariate probabilistic forecasts based on univariate point forecasts of day-ahead electricity prices. While each univariate point forecast refers to one of the day's 24 hours, the multivariate forecast distribution models dependencies across hours. The proposed method is based on simple copula techniques and an optional time series component. We illustrate the method for five benchmark data sets recently provided by Lago et al. (2020). Furthermore, we demonstrate an example for constructing realistic prediction intervals for the weighted sum of consecutive electricity prices, as, e.g., needed for pricing individual load profiles.
مدل سازی خطرات قیمت برای تصمیم گیری اقتصادی در انرژی بسیار مهم است بازارهاعلاوه بر خطر یک قیمت واحد ، ساختار وابستگی قیمت های متعدد اغلب مرتبط است.بنابراین ما یک عمومی و عمومی را پیشنهاد می کنیم روش آسان برای اجرای برای ایجاد پیش بینی های احتمالی چند متغیره بر اساس پیش بینی های نقطه ای متغیره از قیمت برق در روز.در حالی که هر یک پیش بینی نقطه یک متغیره به یکی از 24 ساعت روز ، چند متغیره اشاره دارد وابستگی های مدل های توزیع پیش بینی در ساعت ها.روش پیشنهادی است بر اساس تکنیک های ساده کوپلا و یک مؤلفه سری زمانی اختیاری.ما روش پنج مجموعه داده معیار را که اخیراً توسط Lago ET تهیه شده است ، نشان دهید هم(2020).علاوه بر این ، ما نمونه ای برای ساخت واقع گرایانه نشان می دهیم فواصل پیش بینی برای مبلغ وزنی قیمت های متوالی ، به عنوان مثال ، برای قیمت گذاری پروفایل های بار فردی مورد نیاز است.
30,576
We derive optimal statistical decision rules for discrete choice problems when payoffs depend on a partially-identified parameter $\theta$ and the decision maker can use a point-identified parameter $P$ to deduce restrictions on $\theta$. Leading examples include optimal treatment choice under partial identification and optimal pricing with rich unobserved heterogeneity. Our optimal decision rules minimize the maximum risk or regret over the identified set of payoffs conditional on $P$ and use the data efficiently to learn about $P$. We discuss implementation of optimal decision rules via the bootstrap and Bayesian methods, in both parametric and semiparametric models. We provide detailed applications to treatment choice and optimal pricing. Using a limits of experiments framework, we show that our optimal decision rules can dominate seemingly natural alternatives. Our asymptotic approach is well suited for realistic empirical settings in which the derivation of finite-sample optimal rules is intractable.
ما قوانین تصمیم آماری بهینه را برای مشکلات انتخاب گسسته استخراج می کنیم هنگامی که بازپرداخت به یک پارامتر جزئی مشخص شده بستگی دارد \ theta $ و تصمیم گیرنده می تواند از یک پارامتر مشخص شده نقطه $ P $ برای استنباط محدودیت ها استفاده کند در $ \ theta $.نمونه های پیشرو شامل انتخاب بهینه تحت عنوان جزئی است شناسایی و قیمت گذاری بهینه با ناهمگونی غنی غنی.ما قوانین تصمیم بهینه حداکثر خطر یا پشیمانی را نسبت به مشخص شده به حداقل می رساند مجموعه ای از بازپرداختها مشروط به P $ P $ و از داده ها به طور موثر برای یادگیری در مورد آن استفاده کنید $ P $.ما در مورد اجرای قوانین تصمیم بهینه از طریق بوت استرپ و روشهای بیزی ، در هر دو مدل پارامتری و نیمهرامتری.ما فراهم می کنیم کاربردهای دقیق برای انتخاب درمان و قیمت گذاری بهینه.با استفاده از محدودیت ها از چارچوب آزمایشات ، ما نشان می دهیم که قوانین تصمیم بهینه ما می تواند حاکم باشد گزینه های به ظاهر طبیعی.رویکرد بدون علامت ما مناسب است تنظیمات تجربی واقع گرایانه که در آن مشتق نمونه محدود بهینه قوانین غیرقابل تحمل است.
30,577
This work concerns the estimation of recursive route choice models in the situation that the trip observations are incomplete, i.e., there are unconnected links (or nodes) in the observations. A direct approach to handle this issue would be intractable because enumerating all paths between unconnected links (or nodes) in a real network is typically not possible. We exploit an expectation-maximization (EM) method that allows to deal with the missing-data issue by alternatively performing two steps of sampling the missing segments in the observations and solving maximum likelihood estimation problems. Moreover, observing that the EM method would be expensive, we propose a new estimation method based on the idea that the choice probabilities of unconnected link observations can be exactly computed by solving systems of linear equations. We further design a new algorithm, called as decomposition-composition (DC), that helps reduce the number of systems of linear equations to be solved and speed up the estimation. We compare our proposed algorithms with some standard baselines using a dataset from a real network and show that the DC algorithm outperforms the other approaches in recovering missing information in the observations. Our methods work with most of the recursive route choice models proposed in the literature, including the recursive logit, nested recursive logit, or discounted recursive models.
این کار مربوط به برآورد مدل های انتخاب مسیر بازگشتی در وضعیتی که مشاهدات سفر ناقص است ، یعنی وجود دارد پیوندهای بدون اتصال (یا گره) در مشاهدات.یک رویکرد مستقیم برای رسیدگی این مسئله غیرقابل تحمل خواهد بود زیرا همه مسیرها بین آنها را ذکر می کند پیوندهای بدون اتصال (یا گره ها) در یک شبکه واقعی به طور معمول امکان پذیر نیست.ما از روش انتظار حداکثر (EM) بهره برداری کنید که امکان مقابله با آن را فراهم می کند مسئله داده های گمشده با انجام دو مرحله از نمونه برداری بخش های از دست رفته در مشاهدات و حل برآورد حداکثر احتمال چالش ها و مسائل.علاوه بر این ، با مشاهده اینکه روش EM گران خواهد بود ، ما پیشنهاد می کنیم یک روش تخمین جدید بر اساس این ایده که احتمال انتخاب مشاهدات پیوند بدون اتصال می تواند دقیقاً با حل سیستم ها محاسبه شود معادلات خطی.ما بیشتر الگوریتم جدیدی را طراحی می کنیم ، به عنوان تجزیه و تحلیل (DC) ، که به کاهش تعداد سیستم های معادلات خطی برای حل و سریع تخمین سرعت می یابد.ما خود را مقایسه می کنیم الگوریتم های پیشنهادی با برخی از خطوط استاندارد با استفاده از مجموعه داده از یک واقعی شبکه و نشان دهید که الگوریتم DC از رویکردهای دیگر بهتر عمل می کند بازیابی اطلاعات مفقود شده در مشاهدات.روشهای ما با بیشتر کار می کنند از مدل های انتخاب مسیر بازگشتی که در ادبیات ارائه شده است ، از جمله ورود بازگشتی ، ورود به سیستم بازگشتی تو در تو یا مدل های بازگشتی تخفیف.
30,578
We are interested in the distribution of treatment effects for an experiment where units are randomized to a treatment but outcomes are measured for pairs of units. For example, we might measure risk sharing links between households enrolled in a microfinance program, employment relationships between workers and firms exposed to a trade shock, or bids from bidders to items assigned to an auction format. Such a double randomized experimental design may be appropriate when there are social interactions, market externalities, or other spillovers across units assigned to the same treatment. Or it may describe a natural or quasi experiment given to the researcher. In this paper, we propose a new empirical strategy that compares the eigenvalues of the outcome matrices associated with each treatment. Our proposal is based on a new matrix analog of the Fr\'echet-Hoeffding bounds that play a key role in the standard theory. We first use this result to bound the distribution of treatment effects. We then propose a new matrix analog of quantile treatment effects that is given by a difference in the eigenvalues. We call this analog spectral treatment effects.
ما علاقه مند به توزیع اثرات درمانی برای یک آزمایش هستیم جایی که واحدها به یک درمان تصادفی می شوند اما نتایج برای جفت اندازه گیری می شود واحدهابه عنوان مثال ، ما ممکن است پیوندهای به اشتراک گذاری ریسک بین خانوارها را اندازه گیری کنیم ثبت نام در یک برنامه تأمین مالی ، روابط اشتغال بین کارگران و شرکت هایی که در معرض شوک تجاری قرار گرفته اند ، یا پیشنهادات از داوطلبان به مواردی که به آنها اختصاص داده شده است یک قالب حراجچنین طراحی آزمایشی تصادفی مضاعف ممکن است باشد مناسب وقتی تعاملات اجتماعی ، بیرونی بازار یا موارد دیگر وجود دارد سرریز در واحدهای اختصاص داده شده به همان درمان.یا ممکن است توصیف کند آزمایش طبیعی یا شبه ای که به محقق داده می شود.در این مقاله ، ما پیشنهاد می کنیم یک استراتژی تجربی جدید که مقادیر ویژه ماتریس نتیجه را مقایسه می کند همراه با هر درمان.پیشنهاد ما براساس آنالوگ ماتریس جدید است محدوده های خروج از مرز که نقش مهمی در تئوری استاندارد دارند.ما ابتدا از این نتیجه برای محدود کردن توزیع اثرات درمانی استفاده کنید.سپس ما یک آنالوگ ماتریس جدید از اثرات درمانی کمی که توسط a داده شده است پیشنهاد کنید تفاوت در مقادیر ویژه.ما این اثرات درمانی طیفی آنالوگ را می نامیم.
30,579
We obtain a necessary and sufficient condition under which random-coefficient discrete choice models, such as mixed-logit models, are rich enough to approximate any nonparametric random utility models arbitrarily well across choice sets. The condition turns out to be the affine-independence of the set of characteristic vectors. When the condition fails, resulting in some random utility models that cannot be closely approximated, we identify preferences and substitution patterns that are challenging to approximate accurately. We also propose algorithms to quantify the magnitude of approximation errors.
ما یک شرایط لازم و کافی را که در آن ضریب تصادفی به دست می آوریم به دست می آوریم مدل های انتخاب گسسته ، مانند مدل های مخلوط مخلوط ، به اندازه کافی غنی هستند تقریبی هر مدل ابزار تصادفی غیر پارامتری به طور خودسرانه به خوبی در سراسر مجموعه های انتخاببه نظر می رسد که این شرط ، استقلال وابسته به مجموعه است بردارهای مشخصههنگامی که شرط از بین می رود ، و در نتیجه تصادفی انجام می شود مدل های ابزار که نمی توانند از نزدیک تقریبی باشند ، ما ترجیحات را شناسایی می کنیم و الگوهای جایگزینی که برای تقریبی دقیق چالش برانگیز هستند.ما همچنین الگوریتم هایی را برای تعیین کمیت بزرگی از خطاهای تقریبی پیشنهاد دهید.
30,586
We study a joint facility location and cost planning problem in a competitive market under random utility maximization (RUM) models. The objective is to locate new facilities and make decisions on the costs (or budgets) to spend on the new facilities, aiming to maximize an expected captured customer demand, assuming that customers choose a facility among all available facilities according to a RUM model. We examine two RUM frameworks in the discrete choice literature, namely, the additive and multiplicative RUM. While the former has been widely used in facility location problems, we are the first to explore the latter in the context. We numerically show that the two RUM frameworks can well approximate each other in the context of the cost optimization problem. In addition, we show that, under the additive RUM framework, the resultant cost optimization problem becomes highly non-convex and may have several local optima. In contrast, the use of the multiplicative RUM brings several advantages to the competitive facility location problem. For instance, the cost optimization problem under the multiplicative RUM can be solved efficiently by a general convex optimization solver or can be reformulated as a conic quadratic program and handled by a conic solver available in some off-the-shelf solvers such as CPLEX or GUROBI. Furthermore, we consider a joint location and cost optimization problem under the multiplicative RUM and propose three approaches to solve the problem, namely, an equivalent conic reformulation, a multi-cut outer-approximation algorithm, and a local search heuristic. We provide numerical experiments based on synthetic instances of various sizes to evaluate the performances of the proposed algorithms in solving the cost optimization, and the joint location and cost optimization problems.
ما یک مکان مشترک و مشکل برنامه ریزی هزینه را در یک رقابتی مطالعه می کنیم بازار تحت مدل های حداکثر استفاده تصادفی (RUM).هدف این است که تسهیلات جدید را پیدا کنید و در مورد هزینه ها (یا بودجه ها) برای هزینه کردن تصمیم بگیرید امکانات جدید با هدف به حداکثر رساندن تقاضای مشتری مورد انتظار ، با فرض اینکه مشتریان در بین کلیه امکانات موجود تسهیلات انتخاب می کنند طبق یک مدل رم.ما دو چارچوب رم را در انتخاب گسسته بررسی می کنیم ادبیات ، یعنی شایعه افزودنی و ضرب.در حالی که اولی ما به طور گسترده در مشکلات محل تسهیلات مورد استفاده قرار گرفته است ، ما اولین کسی هستیم که کشف می کنیم دوم در متن.ما از نظر عددی نشان می دهیم که دو چارچوب رم به خوبی می توانند در زمینه مشکل بهینه سازی هزینه ، یکدیگر را تقریبی کنید.که در علاوه بر این ، ما نشان می دهیم که ، تحت چارچوب RUM افزودنی ، هزینه حاصل مشکل بهینه سازی بسیار غیر کنسو می شود و ممکن است چندین محلی داشته باشد بهینهدر مقابل ، استفاده از شکمبه چند برابر چندین نفر را به ارمغان می آورد مزایای استفاده از مشکل مکان رقابتی.به عنوان مثال ، هزینه مشکل بهینه سازی در زیر شکم چند برابر می تواند به طور مؤثر حل شود یک حل کننده بهینه سازی کلی محدب یا می تواند به عنوان مخروط اصلاح شود برنامه درجه دوم و توسط یک حل کننده مخروطی که در برخی از قفسه های خارج از قفسه موجود است ، اداره می شود حلال هایی مانند CPLEX یا GUROBI.علاوه بر این ، ما یک مکان مشترک را در نظر می گیریم و مشکل بهینه سازی هزینه تحت رم ضرب و سه پیشنهاد رویکردها برای حل مسئله ، یعنی یک اصلاح مجدد مخروط معادل ، الف الگوریتم تجاوز بیرونی چند برش و یک اکتشافی جستجوی محلی.ما آزمایش های عددی را بر اساس نمونه های مصنوعی در اندازه های مختلف ارائه دهید عملکرد الگوریتم های پیشنهادی را در حل هزینه ارزیابی کنید بهینه سازی ، و مکان مشترک و مشکلات بهینه سازی هزینه.
30,580
Marketplace companies rely heavily on experimentation when making changes to the design or operation of their platforms. The workhorse of experimentation is the randomized controlled trial (RCT), or A/B test, in which users are randomly assigned to treatment or control groups. However, marketplace interference causes the Stable Unit Treatment Value Assumption (SUTVA) to be violated, leading to bias in the standard RCT metric. In this work, we propose techniques for platforms to run standard RCTs and still obtain meaningful estimates despite the presence of marketplace interference. We specifically consider a generalized matching setting, in which the platform explicitly matches supply with demand via a linear programming algorithm. Our first proposal is for the platform to estimate the value of global treatment and global control via optimization. We prove that this approach is unbiased in the fluid limit. Our second proposal is to compare the average shadow price of the treatment and control groups rather than the total value accrued by each group. We prove that this technique corresponds to the correct first-order approximation (in a Taylor series sense) of the value function of interest even in a finite-size system. We then use this result to prove that, under reasonable assumptions, our estimator is less biased than the RCT estimator. At the heart of our result is the idea that it is relatively easy to model interference in matching-driven marketplaces since, in such markets, the platform intermediates the spillover.
شرکت های بازار در هنگام ایجاد تغییر به آزمایش بسیار متکی هستند طراحی یا عملکرد سیستم عامل های آنها.کارگاه آزمایشی است آزمایش کنترل شده تصادفی (RCT) یا آزمون A/B ، که در آن کاربران به طور تصادفی هستند به گروههای درمانی یا کنترل اختصاص داده شده است.با این حال ، تداخل بازار باعث می شود فرض ارزش تصفیه واحد پایدار (SUTVA) نقض شود ، منجر به تعصب در متریک استاندارد RCT.در این کار ، ما تکنیک ها را پیشنهاد می کنیم برای اینکه سیستم عامل ها RCT های استاندارد را اجرا کنند و هنوز هم تخمین های معنی دار بدست آورند با وجود حضور دخالت در بازار.ما به طور خاص a را در نظر می گیریم تنظیم تطبیق تعمیم یافته ، که در آن پلت فرم صریحاً با عرضه مطابقت دارد با تقاضا از طریق الگوریتم برنامه نویسی خطی.اولین پیشنهاد ما برای بستر برای برآورد ارزش درمان جهانی و کنترل جهانی از طریق بهينه سازي.ما ثابت می کنیم که این رویکرد در حد سیال بی طرفانه است.ما پیشنهاد دوم مقایسه میانگین قیمت سایه درمان و گروه های کنترل به جای ارزش کل توسط هر گروه.ما ثابت می کنیم که این روش با تقریب صحیح مرتبه اول مطابقت دارد (در a Sense Series Taylor) از عملکرد ارزش علاقه حتی در یک اندازه محدود سیستم.سپس ما از این نتیجه استفاده می کنیم تا ثابت کنیم که تحت فرضیات معقول ، برآوردگر ما نسبت به برآوردگر RCT بیشتر مغرضانه است.در قلب نتیجه ما این ایده است که مدل سازی تداخل در تطبیق محور نسبتاً آسان است بازارهای بازار از آنجا که ، در چنین بازارهایی ، این سکو باعث افزایش سرریز می شود.
30,581
There are many kinds of exogeneity assumptions. How should researchers choose among them? When exogeneity is imposed on an unobservable like a potential outcome, we argue that the form of exogeneity should be chosen based on the kind of selection on unobservables it allows. Consequently, researchers can assess the plausibility of any exogeneity assumption by studying the distributions of treatment given the unobservables that are consistent with that assumption. We use this approach to study two common exogeneity assumptions: quantile and mean independence. We show that both assumptions require a kind of non-monotonic relationship between treatment and the potential outcomes. We discuss how to assess the plausibility of this kind of treatment selection. We also show how to define a new and weaker version of quantile independence that allows for monotonic treatment selection. We then show the implications of the choice of exogeneity assumption for identification. We apply these results in an empirical illustration of the effect of child soldiering on wages.
انواع مختلفی از فرضیات اگزوژن وجود دارد.چگونه محققان باید انتخاب کنند در میان آنها؟هنگامی که اگزوژن بر روی یک پتانسیل غیرقابل کنترل تحمیل می شود نتیجه ، ما استدلال می کنیم که شکل اگزوژن باید بر اساس نوع انتخاب بر روی محاصره های غیر قابل استفاده است.در نتیجه ، محققان می توانند قابل قبول بودن هرگونه فرض اگزوژنی را با مطالعه ارزیابی کنید توزیع درمان با توجه به موارد غیر قابل استفاده که سازگار است این فرضما از این روش برای مطالعه دو اگزوژنیت مشترک استفاده می کنیم فرضیات: استقلال کمی و متوسط.ما نشان می دهیم که هر دو فرض نیاز به نوعی رابطه غیر یکتایی بین درمان و نتایج بالقوهما در مورد چگونگی ارزیابی محتمل بودن این نوع بحث می کنیم انتخاب درمان.ما همچنین نشان می دهیم که چگونه یک نسخه جدید و ضعیف را تعریف کنیم استقلال کمی که امکان انتخاب درمان یکنواخت را فراهم می کند.سپس ما پیامدهای انتخاب فرض اگزوژن را برای شناسایی.ما این نتایج را در یک تصویر تجربی از تأثیر سربازان کودک بر دستمزد.
30,582
When sample data are governed by an unknown sequence of independent but possibly non-identical distributions, the data-generating process (DGP) in general cannot be perfectly identified from the data. For making decisions facing such uncertainty, this paper presents a novel approach by studying how the data can best be used to robustly improve decisions. That is, no matter which DGP governs the uncertainty, one can make a better decision than without using the data. I show that common inference methods, e.g., maximum likelihood and Bayesian updating cannot achieve this goal. To address, I develop new updating rules that lead to robustly better decisions either asymptotically almost surely or in finite sample with a pre-specified probability. Especially, they are easy to implement as are given by simple extensions of the standard statistical procedures in the case where the possible DGPs are all independent and identically distributed. Finally, I show that the new updating rules also lead to more intuitive conclusions in existing economic models such as asset pricing under ambiguity.
هنگامی که داده های نمونه توسط یک توالی ناشناخته از مستقل اداره می شوند اما احتمالاً توزیع غیر یکسان ، فرآیند تولید داده (DGP) در عمومی را نمی توان کاملاً از داده ها شناسایی کرد.برای تصمیم گیری در مواجهه با چنین عدم اطمینان ، این مقاله با مطالعه چگونگی یک رویکرد جدید ارائه می دهد از داده ها می توان به بهترین وجه برای بهبود محکم تصمیمات استفاده کرد.یعنی مهم نیست که DGP بر عدم اطمینان حاکم است ، می توان تصمیم بهتری نسبت به بدون آن گرفت با استفاده از داده هامن نشان می دهم که روشهای استنتاج مشترک ، به عنوان مثال ، حداکثر احتمال و به روزرسانی بیزی نمی تواند به این هدف برسد.برای پرداختن به آدرس ، من جدید توسعه می دهم به روزرسانی قوانینی که منجر به تصمیمات محکم بهتر یا بدون علامت می شود تقریباً مطمئناً یا در نمونه محدود با احتمال از پیش تعیین شده.بخصوص، اجرای آنها آسان است همانطور که توسط پسوندهای ساده استاندارد ارائه می شود روشهای آماری در موردی که DGP های احتمالی همه مستقل هستند و به طور یکسان توزیع شده است.سرانجام ، من نشان می دهم که قوانین جدید به روزرسانی نیز منجر به نتیجه گیری شهودی تر در مدلهای اقتصادی موجود مانند دارایی قیمت گذاری تحت ابهام.
30,583
We consider the problem of learning personalized treatment policies that are externally valid or generalizable: they perform well in other target populations besides the experimental (or training) population from which data are sampled. We first show that welfare-maximizing policies for the experimental population are robust to shifts in the distribution of outcomes (but not characteristics) between the experimental and target populations. We then develop new methods for learning policies that are robust to shifts in outcomes and characteristics. In doing so, we highlight how treatment effect heterogeneity within the experimental population affects the generalizability of policies. Our methods may be used with experimental or observational data (where treatment is endogenous). Many of our methods can be implemented with linear programming.
ما مشکل یادگیری سیاستهای درمانی شخصی را که وجود دارد در نظر می گیریم از نظر بیرونی معتبر یا قابل تعمیم: آنها در هدف دیگر عملکرد خوبی دارند جمعیت علاوه بر جمعیت تجربی (یا آموزش) که از آن داده ها نمونه برداری شده اندما ابتدا نشان می دهیم که سیاست های حداکثر رفاهی برای جمعیت تجربی در تغییر نتایج قوی در تغییر نتایج هستند (اما نه خصوصیات) بین جمعیت آزمایش و هدف.ما سپس روش های جدیدی را برای یادگیری سیاست هایی که در تغییر در آن قوی هستند ایجاد کنید نتایج و خصوصیات.با انجام این کار ، ما چگونه اثر درمانی را برجسته می کنیم ناهمگونی در جمعیت آزمایشی بر تعمیم پذیری تأثیر می گذارد سیاست هاروشهای ما ممکن است با داده های تجربی یا مشاهده ای استفاده شود (جایی که درمان درون زا است).بسیاری از روشهای ما با آنها قابل اجرا هستند برنامه ریزی خطی.
30,584
A typical situation in competing risks analysis is that the researcher is only interested in a subset of risks. This paper considers a depending competing risks model with the distribution of one risk being a parametric or semi-parametric model, while the model for the other risks being unknown. Identifiability is shown for popular classes of parametric models and the semiparametric proportional hazards model. The identifiability of the parametric models does not require a covariate, while the semiparametric model requires at least one. Estimation approaches are suggested which are shown to be $\sqrt{n}$-consistent. Applicability and attractive finite sample performance are demonstrated with the help of simulations and data examples.
یک وضعیت معمولی در تجزیه و تحلیل ریسک های رقیب این است که محقق است فقط به زیر مجموعه خطرات علاقه مند است.در این مقاله بسته به نظر می رسد مدل خطرات رقیب با توزیع یک خطر پارامتری یا مدل نیمه پارامتری ، در حالی که مدل برای سایر خطرات ناشناخته است. شناسایی برای کلاسهای محبوب مدل های پارامتری و مدل خطرات متناسب نیمهرامتری.شناسایی مدلهای پارامتری نیازی به همبستگی ندارند ، در حالی که مدل نیمه پارامتری حداقل به یک نیاز دارد.رویکردهای تخمین پیشنهاد شده است که نشان داده شده است $ \ sqrt {n} $-سازگار باشد.کاربرد و نمونه محدود جذاب عملکرد با کمک شبیه سازی ها و نمونه های داده نشان داده شده است.
30,585
We develop a new permutation test for inference on a subvector of coefficients in linear models. The test is exact when the regressors and the error terms are independent. Then, we show that the test is asymptotically of correct level, consistent and has power against local alternatives when the independence condition is relaxed, under two main conditions. The first is a slight reinforcement of the usual absence of correlation between the regressors and the error term. The second is that the number of strata, defined by values of the regressors not involved in the subvector test, is small compared to the sample size. The latter implies that the vector of nuisance regressors is discrete. Simulations and empirical illustrations suggest that the test has good power in practice if, indeed, the number of strata is small compared to the sample size.
ما یک تست جایگشت جدید برای استنباط در زیر فهرست ایجاد می کنیم ضرایب در مدل های خطی.آزمون دقیق است که رگرسیون ها و شرایط خطا مستقل است.سپس ، ما نشان می دهیم که آزمایش بدون علامت است سطح صحیح ، سازگار و در برابر گزینه های محلی قدرت دارد شرایط استقلال در دو شرط اصلی آرام است.اولی تقویت جزئی عدم وجود همبستگی بین رگرسیون و اصطلاح خطادوم این است که تعداد اقشار ، تعریف شده توسط مقادیر از رگرسیون که در آزمون زیر فهرست شرکت نمی کنند ، در مقایسه با اندازهی نمونه.دومی به این معنی است که بردار رگرسرهای مزاحم است گسسته.شبیه سازی ها و تصاویر تجربی نشان می دهد که این آزمون دارد قدرت خوب در عمل اگر در واقع تعداد اقشار در مقایسه با اندازه نمونه
30,587
Incomplete observability of data generates an identification problem. There is no panacea for missing data. What one can learn about a population parameter depends on the assumptions one finds credible to maintain. The credibility of assumptions varies with the empirical setting. No specific assumptions can provide a realistic general solution to the problem of inference with missing data. Yet Rubin has promoted random multiple imputation (RMI) as a general way to deal with missing values in public-use data. This recommendation has been influential to empirical researchers who seek a simple fix to the nuisance of missing data. This paper adds to my earlier critiques of imputation. It provides a transparent assessment of the mix of Bayesian and frequentist thinking used by Rubin to argue for RMI. It evaluates random imputation to replace missing outcome or covariate data when the objective is to learn a conditional expectation. It considers steps that might help combat the allure of making stuff up.
مشاهده ناقص داده ها یک مشکل شناسایی ایجاد می کند.آنجا برای داده های گمشده هیچ پاناسه وجود ندارد.آنچه می تواند در مورد یک پارامتر جمعیت بیاموزد بستگی به فرضیاتی دارد که فرد برای حفظ آن معتبر است.اعتبار فرضیات با محیط تجربی متفاوت است.هیچ فرض خاصی نمی تواند یک راه حل کلی واقع بینانه برای مشکل استنباط با گم شدن ارائه دهید داده ها.با این حال ، روبین ، تغییر چندگانه تصادفی (RMI) را به عنوان یک روش کلی ارتقا داده است برای مقابله با مقادیر مفقود شده در داده های استفاده عمومی.این توصیه بوده است محققان تجربی تأثیرگذار که به دنبال یک مشکل ساده برای مزاحمت هستند داده های گمشدهاین مقاله به انتقادات قبلی من در مورد نقض می افزاید.آی تی ارزیابی شفاف از ترکیب بیزی و مکرر ارائه می دهد تفکر استفاده شده توسط روبین برای استدلال برای RMI.این تغییر تصادفی به هنگامی که هدف یادگیری a است ، نتیجه یا داده های متغیر را جایگزین کنید انتظار مشروطاین مراحل را در نظر می گیرد که ممکن است به مبارزه با جذابیت کمک کند ساخت مواد
30,588
Despite the impressive success of deep neural networks in many application areas, neural network models have so far not been widely adopted in the context of volatility forecasting. In this work, we aim to bridge the conceptual gap between established time series approaches, such as the Heterogeneous Autoregressive (HAR) model, and state-of-the-art deep neural network models. The newly introduced HARNet is based on a hierarchy of dilated convolutional layers, which facilitates an exponential growth of the receptive field of the model in the number of model parameters. HARNets allow for an explicit initialization scheme such that before optimization, a HARNet yields identical predictions as the respective baseline HAR model. Particularly when considering the QLIKE error as a loss function, we find that this approach significantly stabilizes the optimization of HARNets. We evaluate the performance of HARNets with respect to three different stock market indexes. Based on this evaluation, we formulate clear guidelines for the optimization of HARNets and show that HARNets can substantially improve upon the forecasting accuracy of their respective HAR baseline models. In a qualitative analysis of the filter weights learnt by a HARNet, we report clear patterns regarding the predictive power of past information. Among information from the previous week, yesterday and the day before, yesterday's volatility makes by far the most contribution to today's realized volatility forecast. Moroever, within the previous month, the importance of single weeks diminishes almost linearly when moving further into the past.
با وجود موفقیت چشمگیر شبکه های عصبی عمیق در بسیاری از کاربردها مناطق ، مدل های شبکه عصبی تاکنون در این زمینه به طور گسترده اتخاذ نشده اند پیش بینی نوساناتدر این کار ، هدف ما این است که شکاف مفهومی را برطرف کنیم بین رویکردهای سری زمانی تعیین شده ، مانند ناهمگن مدل اتورگرایی (HAR) و مدلهای پیشرفته شبکه های عصبی عمیق. هارنت تازه معرفی شده مبتنی بر سلسله مراتب حلقوی گشاد شده است لایه ها ، که رشد نمایی میدان گیرنده را تسهیل می کند مدل در تعداد پارامترهای مدل.هارنت ها صریح را مجاز می دانند طرح اولیه سازی به گونه ای که قبل از بهینه سازی ، یک هارنت یکسان است پیش بینی ها به عنوان مدل HAR پایه مربوطه.مخصوصاً هنگام در نظر گرفتن خطای Qlike به عنوان یک تابع ضرر ، متوجه می شویم که این رویکرد به طور قابل توجهی بهینه سازی هارنت ها را تثبیت می کند.ما عملکرد Harnets را ارزیابی می کنیم با توجه به سه شاخص مختلف بازار سهام.بر اساس این ارزیابی ، ما دستورالعمل های روشنی را برای بهینه سازی Harnets تدوین می کنیم و نشان می دهیم که Harnets با دقت پیش بینی آنها می تواند به طور قابل ملاحظه ای بهبود یابد مدل های پایه HAR مربوطه.در یک تجزیه و تحلیل کیفی از وزن فیلتر ما توسط یک هارنت آموخته شده ، ما الگوهای روشنی را در مورد قدرت پیش بینی کننده گزارش می کنیم اطلاعات گذشتهاز جمله اطلاعات هفته گذشته ، دیروز و روز قبل ، نوسانات دیروز بیشترین سهم را در پیش بینی نوسانات تحقق یافته امروز.مورو ، در ماه قبل ، اهمیت هفته های یک هفته تقریباً به صورت خطی کاهش می یابد گذشته.
30,589
The literature focuses on minimizing the mean of welfare regret, which can lead to undesirable treatment choice due to sampling uncertainty. We propose to minimize the mean of a nonlinear transformation of regret and show that admissible rules are fractional for nonlinear regret. Focusing on mean square regret, we derive closed-form fractions for finite-sample Bayes and minimax optimal rules. Our approach is grounded in decision theory and extends to limit experiments. The treatment fractions can be viewed as the strength of evidence favoring treatment. We apply our framework to a normal regression model and sample size calculations in randomized experiments.
ادبیات بر به حداقل رساندن میانگین پشیمانی رفاه متمرکز است ، که می تواند به دلیل عدم اطمینان نمونه برداری منجر به انتخاب درمانی نامطلوب می شود.ما پیشنهاد می کنیم میانگین تحول غیرخطی از پشیمانی را به حداقل برسانید و نشان دهید قوانین قابل قبول برای پشیمانی غیرخطی کسری است.تمرکز روی مربع میانگین پشیمانی ، ما کسری از فرم بسته را برای بندهای نمونه محدود و مینیماکس به دست می آوریم قوانین بهینهرویکرد ما در تئوری تصمیم گیری پایه گذاری شده و محدود می شود آزمایش.بخش های درمانی را می توان به عنوان قدرت شواهد دانست به نفع درمانما چارچوب خود را در یک مدل رگرسیون عادی اعمال می کنیم و محاسبات اندازه نمونه در آزمایشات تصادفی.
30,590
Researchers often use covariate balance tests to assess whether a treatment variable is assigned "as-if" at random. However, standard tests may shed no light on a key condition for causal inference: the independence of treatment assignment and potential outcomes. We focus on a key factor that affects the sensitivity and specificity of balance tests: the extent to which covariates are prognostic, that is, predictive of potential outcomes. We propose a "conditional balance test" based on the weighted sum of covariate differences of means, where the weights are coefficients from a standardized regression of observed outcomes on covariates. Our theory and simulations show that this approach increases power relative to other global tests when potential outcomes are imbalanced, while limiting spurious rejections due to imbalance on irrelevant covariates.
محققان غالباً از آزمایش تعادل متغیر برای ارزیابی اینکه آیا یک درمان استفاده می کند متغیر به طور تصادفی "as-if" اختصاص داده می شود.با این حال ، آزمایش های استاندارد ممکن است نه نور در یک شرط کلیدی برای استنباط علی: استقلال درمان واگذاری و نتایج بالقوه.ما روی یک عامل کلیدی تمرکز می کنیم که بر آن تأثیر می گذارد حساسیت و ویژگی تست های تعادل: میزان همبستگی پیش آگهی ، یعنی پیش بینی نتایج بالقوه.ما پیشنهاد می کنیم "تست تعادل شرطی" بر اساس مقدار وزنی اختلافات همبستگی از معنی ، جایی که وزنه ها ضرایب یک رگرسیون استاندارد هستند نتایج مشاهده شده در متغیرهای متغیر.نظریه و شبیه سازی ما نشان می دهد که این رویکرد نسبت به سایر تست های جهانی در هنگام نتایج بالقوه قدرت را افزایش می دهد نامتوازن هستند ، در حالی که به دلیل عدم تعادل در مورد عدم تعادل محدود کردن ، طرد های فریبنده را محدود می کنند متغیرهای بی ربط.
30,591
This paper proposes a causal decomposition framework for settings in which an initial regime randomization influences the timing of a treatment duration. The initial randomization and treatment affect in turn a duration outcome of interest. Our empirical application considers the survival of individuals on the kidney transplant waitlist. Upon entering the waitlist, individuals with an AB blood type, who are universal recipients, are effectively randomized to a regime with a higher propensity to rapidly receive a kidney transplant. Our dynamic potential outcomes framework allows us to identify the pre-transplant effect of the blood type, and the transplant effects depending on blood type. We further develop dynamic assumptions which build on the LATE framework and allow researchers to separate effects for different population substrata. Our main empirical result is that AB blood type candidates display a higher pre-transplant mortality. We provide evidence that this effect is due to behavioural changes rather than biological differences.
در این مقاله یک چارچوب تجزیه علّی برای تنظیماتی که در آن قرار دارد پیشنهاد می کند تصادفی سازی رژیم اولیه بر زمان مدت زمان درمان تأثیر می گذارد.در تصادفی سازی و درمان اولیه به نوبه خود نتیجه مدت زمان را تحت تأثیر قرار می دهد علاقه.برنامه تجربی ما بقای افراد را در نظر می گیرد لیست انتظار پیوند کلیه.پس از ورود به لیست انتظار ، افراد دارای گروه خونی AB ، که گیرندگان جهانی هستند ، به طور موثری به صورت تصادفی می شوند رژیم با تمایل بالاتر برای دریافت سریع پیوند کلیه.ما چارچوب نتایج بالقوه پویا به ما امکان می دهد تا قبل از پیوند را شناسایی کنیم تأثیر خون و اثرات پیوند بسته به نوع خون. ما بیشتر فرضیات پویا را توسعه می دهیم که در چارچوب دیررس و به محققان اجازه می دهد تا تأثیرات مربوط به بسترهای مختلف جمعیت را جدا کنند.ما نتیجه اصلی تجربی این است که نامزدهای خون AB بالاتری نشان می دهند مرگ و میر قبل از پیوند.ما شواهدی ارائه می دهیم که این اثر ناشی از آن است تغییرات رفتاری به جای تفاوت های بیولوژیکی.
30,596
In this paper, we survey recent econometric contributions to measure the relationship between economic activity and climate change. Due to the critical relevance of these effects for the well-being of future generations, there is an explosion of publications devoted to measuring this relationship and its main channels. The relation between economic activity and climate change is complex with the possibility of causality running in both directions. Starting from economic activity, the channels that relate economic activity and climate change are energy consumption and the consequent pollution. Hence, we first describe the main econometric contributions about the interactions between economic activity and energy consumption, moving then to describing the contributions on the interactions between economic activity and pollution. Finally, we look at the main results on the relationship between climate change and economic activity. An important consequence of climate change is the increasing occurrence of extreme weather phenomena. Therefore, we also survey contributions on the economic effects of catastrophic climate phenomena.
در این مقاله ، ما برای اندازه گیری رابطه بین فعالیت اقتصادی و تغییرات آب و هوا.به دلیل بحرانی ارتباط این تأثیرات برای بهزیستی نسل های آینده ، وجود دارد انفجار انتشارات اختصاص داده شده به اندازه گیری این رابطه و آن کانال های اصلیرابطه بین فعالیت اقتصادی و تغییرات آب و هوا است پیچیده با احتمال اجرای علیت در هر دو جهت.راه افتادن از فعالیت اقتصادی ، کانال هایی که فعالیت اقتصادی و آب و هوا را مرتبط می کنند تغییر مصرف انرژی و متعاقب آن آلودگی است.از این رو ، ابتدا مشارکتهای اصلی اقتصاد سنجی در مورد تعامل بین فعالیت اقتصادی و مصرف انرژی ، و سپس به توصیف مشارکت در تعامل بین فعالیت اقتصادی و آلودگی. سرانجام ، ما به نتایج اصلی در رابطه بین تغییرات آب و هوا نگاه می کنیم و فعالیت اقتصادینتیجه مهم تغییرات آب و هوا این است افزایش بروز پدیده های شدید آب و هوا.بنابراین ، ما نیز بررسی می کنیم مشارکت در تأثیرات اقتصادی پدیده های آب و هوایی فاجعه بار.
30,592
The internet has changed the way we live, work and take decisions. As it is the major modern resource for research, detailed data on internet usage exhibits vast amounts of behavioral information. This paper aims to answer the question whether this information can be facilitated to predict future returns of stocks on financial capital markets. In an empirical analysis it implements gradient boosted decision trees to learn relationships between abnormal returns of stocks within the S&P 100 index and lagged predictors derived from historical financial data, as well as search term query volumes on the internet search engine Google. Models predict the occurrence of day-ahead stock returns in excess of the index median. On a time frame from 2005 to 2017, all disparate datasets exhibit valuable information. Evaluated models have average areas under the receiver operating characteristic between 54.2% and 56.7%, clearly indicating a classification better than random guessing. Implementing a simple statistical arbitrage strategy, models are used to create daily trading portfolios of ten stocks and result in annual performances of more than 57% before transaction costs. With ensembles of different data sets topping up the performance ranking, the results further question the weak form and semi-strong form efficiency of modern financial capital markets. Even though transaction costs are not included, the approach adds to the existing literature. It gives guidance on how to use and transform data on internet usage behavior for financial and economic modeling and forecasting.
اینترنت شیوه زندگی ، کار و تصمیم گیری را تغییر داده است.همانطور که هست منبع اصلی مدرن برای تحقیق ، داده های دقیق در مورد استفاده از اینترنت مقادیر زیادی از اطلاعات رفتاری را نشان می دهد.این مقاله با هدف پاسخ دادن به سوال کنید که آیا این اطلاعات می تواند برای پیش بینی بازده آینده تسهیل شود سهام در بازارهای سرمایه مالی.در یک تحلیل تجربی آن را پیاده سازی می کند درختان تصمیم گیری شیب برای یادگیری روابط بین بازده غیر طبیعی سهام موجود در شاخص S&P 100 و پیش بینی کننده های عقب مانده از داده های مالی تاریخی و همچنین حجم پرس و جو در اینترنت موتور جستجو Google.مدل ها وقوع بازده سهام روز را پیش بینی می کنند بیش از میانگین شاخص.در یک بازه زمانی از سال 2005 تا 2017 ، همه متفاوت هستند مجموعه داده ها اطلاعات ارزشمندی را نشان می دهند.مدل های ارزیابی شده دارای مناطق متوسط ​​هستند تحت مشخصات عملکرد گیرنده بین 54.2 تا 56.7 ٪ ، به وضوح نشانگر طبقه بندی بهتر از حدس تصادفی.اجرای یک ساده استراتژی داوری آماری ، از مدل ها برای ایجاد معاملات روزانه استفاده می شود پرتفوی ده سهام و منجر به عملکرد سالانه بیش از 57 ٪ قبل از هزینه های معاملهبا مجموعه های مجموعه داده های مختلف در صدر رتبه بندی عملکرد ، نتایج بیشتر شکل ضعیف و نیمه قوی را زیر سوال می برد کارآیی بازارهای سرمایه مالی مدرن را تشکیل می دهد.حتی اگر معامله هزینه ها شامل نمی شوند ، این رویکرد به ادبیات موجود می افزاید.می دهد راهنمایی در مورد نحوه استفاده و تبدیل داده ها در رفتار استفاده از اینترنت برای مدل سازی و پیش بینی مالی و اقتصادی.
30,593
The synthetic control method has become a widely popular tool to estimate causal effects with observational data. Despite this, inference for synthetic control methods remains challenging. Often, inferential results rely on linear factor model data generating processes. In this paper, we characterize the conditions on the factor model primitives (the factor loadings) for which the statistical risk minimizers are synthetic controls (in the simplex). Then, we propose a Bayesian alternative to the synthetic control method that preserves the main features of the standard method and provides a new way of doing valid inference. We explore a Bernstein-von Mises style result to link our Bayesian inference to the frequentist inference. For linear factor model frameworks we show that a maximum likelihood estimator (MLE) of the synthetic control weights can consistently estimate the predictive function of the potential outcomes for the treated unit and that our Bayes estimator is asymptotically close to the MLE in the total variation sense. Through simulations, we show that there is convergence between the Bayes and frequentist approach even in sparse settings. Finally, we apply the method to re-visit the study of the economic costs of the German re-unification and the Catalan secession movement. The Bayesian synthetic control method is available in the bsynth R-package.
روش کنترل مصنوعی به ابزاری بسیار محبوب برای برآورد تبدیل شده است اثرات علّی با داده های مشاهده ای.با وجود این ، استنباط مصنوعی روش های کنترل همچنان چالش برانگیز است.اغلب ، نتایج استنباطی به خطی متکی است فرایندهای تولید داده های مدل فاکتور.در این مقاله ، ما توصیف می کنیم شرایط در مورد مدل اولیه فاکتور (بارهای عاملی) که برای آن مینیم کننده های خطر آماری کنترل مصنوعی (در Simplex) هستند.سپس ، ما یک جایگزین بیزی برای روش کنترل مصنوعی که حفظ می کند پیشنهاد دهید ویژگی های اصلی روش استاندارد و روش جدیدی برای انجام معتبر ارائه می دهد استنتاجما یک نتیجه به سبک برنشتاین-ون میزس را کشف می کنیم تا بیزی خود را پیوند دهیم استنتاج به استنتاج مکرر.برای چارچوب های مدل فاکتور خطی ما نشان دهید که یک برآوردگر حداکثر احتمال (MLE) از وزن کنترل مصنوعی می تواند به طور مداوم عملکرد پیش بینی کننده نتایج بالقوه را تخمین بزند واحد تحت درمان و این که برآوردگر بیز ما به صورت مجانبی نزدیک به MLE به حس تنوع کل.از طریق شبیه سازی ها ، ما نشان می دهیم که وجود دارد همگرایی بین بیز و رویکرد مکرر حتی در تنظیمات پراکنده. سرانجام ، ما روش را برای بازدید مجدد از مطالعه هزینه های اقتصادی استفاده می کنیم اتحاد مجدد آلمانی و جنبش جدایی کاتالونیا.بیزی روش کنترل مصنوعی در بسته R Bsynth R موجود است.
30,594
Omitted variables are one of the most important threats to the identification of causal effects. Several widely used approaches, including Oster (2019), assess the impact of omitted variables on empirical conclusions by comparing measures of selection on observables with measures of selection on unobservables. These approaches either (1) assume the omitted variables are uncorrelated with the included controls, an assumption that is often considered strong and implausible, or (2) use a method called residualization to avoid this assumption. In our first contribution, we develop a framework for objectively comparing sensitivity parameters. We use this framework to formally prove that the residualization method generally leads to incorrect conclusions about robustness. In our second contribution, we then provide a new approach to sensitivity analysis that avoids this critique, allows the omitted variables to be correlated with the included controls, and lets researchers calibrate sensitivity parameters by comparing the magnitude of selection on observables with the magnitude of selection on unobservables as in previous methods. We illustrate our results in an empirical study of the effect of historical American frontier life on modern cultural beliefs. Finally, we implement these methods in the companion Stata module regsensitivity for easy use in practice.
متغیرهای حذف شده یکی از مهمترین تهدیدها برای شناسایی است اثرات علیچندین رویکرد گسترده استفاده شده ، از جمله Oster (2019) ، تأثیر متغیرهای حذف شده در نتیجه گیری تجربی را با مقایسه ارزیابی کنید اقدامات انتخاب در مورد مشاهدات با اقدامات انتخاب در محجوباین رویکردها یا (1) فرض می کنند متغیرهای حذف شده هستند با کنترل های موجود در ارتباط نیست ، فرضیه ای که اغلب در نظر گرفته می شود قوی و غیرممکن ، یا (2) از روشی به نام باقیمانده برای جلوگیری از این فرضدر اولین سهم ما ، ما یک چارچوب برای مقایسه عینی پارامترهای حساسیت.ما از این چارچوب برای رسما استفاده می کنیم ثابت کنید که روش باقیمانده به طور کلی منجر به نتیجه گیری نادرست می شود در مورد استحکامدر سهم دوم ما ، ما رویکرد جدیدی به آن ارائه می دهیم تجزیه و تحلیل حساسیت که از این نقد جلوگیری می کند ، به متغیرهای حذف شده اجازه می دهد تا با کنترل های موجود در ارتباط باشد و به محققان اجازه می دهد تا کالیبراسیون کنند پارامترهای حساسیت با مقایسه میزان انتخاب بر روی مشاهدات با بزرگی انتخاب بر روی موارد غیر قابل استفاده مانند روشهای قبلی.ما نتایج ما را در یک مطالعه تجربی از تأثیر تاریخی نشان می دهد زندگی مرزی آمریکا بر اعتقادات فرهنگی مدرن.سرانجام ، ما اینها را پیاده سازی می کنیم روشهای موجود در ماژول Companion Stata برای استفاده آسان در عمل.
30,595
We investigate the performance and sampling variability of estimated forecast combinations, with particular attention given to the combination of forecast distributions. Unknown parameters in the forecast combination are optimized according to criterion functions based on proper scoring rules, which are chosen to reward the form of forecast accuracy that matters for the problem at hand, and forecast performance is measured using the out-of-sample expectation of said scoring rule. Our results provide novel insights into the behavior of estimated forecast combinations. Firstly, we show that, asymptotically, the sampling variability in the performance of standard forecast combinations is determined solely by estimation of the constituent models, with estimation of the combination weights contributing no sampling variability whatsoever, at first order. Secondly, we show that, if computationally feasible, forecast combinations produced in a single step -- in which the constituent model and combination function parameters are estimated jointly -- have superior predictive accuracy and lower sampling variability than standard forecast combinations -- where constituent model and combination function parameters are estimated in two steps. These theoretical insights are demonstrated numerically, both in simulation settings and in an extensive empirical illustration using a time series of S&P500 returns.
ما عملکرد و تنوع نمونه گیری پیش بینی تخمین زده شده را بررسی می کنیم ترکیبی ، با توجه ویژه به ترکیب پیش بینی توزیعپارامترهای ناشناخته در ترکیب پیش بینی بهینه شده اند با توجه به توابع معیار مبتنی بر قوانین امتیاز دهی مناسب ، که هستند انتخاب شده برای پاداش شکل دقت پیش بینی که برای مشکل مهم است دست و عملکرد پیش بینی با استفاده از انتظار خارج از نمونه اندازه گیری می شود از قانون امتیاز دهینتایج ما بینش جدیدی در مورد رفتار ارائه می دهد ترکیبات پیش بینی شده تخمین زده می شود.اولا ، ما نشان می دهیم که ، بدون علامت ، تنوع نمونه گیری در عملکرد ترکیبات پیش بینی استاندارد است فقط با برآورد مدلهای تشکیل دهنده تعیین می شود ، با تخمین وزن ترکیبی که هیچ تنوع نمونه برداری را در هر صورت ، در مرتبه اولثانیا ، ما نشان می دهیم ، اگر از نظر محاسباتی امکان پذیر باشد ، پیش بینی می شود ترکیبات تولید شده در یک مرحله واحد - که در آن مدل تشکیل دهنده و پارامترهای عملکرد ترکیبی به طور مشترک تخمین زده می شوند - برتر هستند دقت پیش بینی کننده و تغییرپذیری نمونه برداری پایین تر از پیش بینی استاندارد ترکیبی - جایی که پارامترهای مدل سازنده و عملکرد ترکیبی هستند در دو مرحله تخمین زده می شود.این بینش های نظری نشان داده شده است از نظر عددی ، هم در تنظیمات شبیه سازی و هم در یک تجربی گسترده تصویر با استفاده از یک سری زمانی از بازگشت S&P500.
30,597
This paper examines the relationship between the price of the Dubai crude oil and the price of the US natural gas using an updated monthly dataset from 1992 to 2018, incorporating the latter events in the energy markets. After employing a variety of unit root and cointegration tests, the long-run relationship is examined via the autoregressive distributed lag (ARDL) cointegration technique, along with the Toda-Yamamoto (1995) causality test. Our results indicate that there is a long-run relationship with a unidirectional causality running from the Dubai crude oil market to the US natural gas market. A variety of post specification tests indicate that the selected ARDL model is well-specified, and the results of the Toda-Yamamoto approach via impulse response functions, forecast error variance decompositions, and historical decompositions with generalized weights, show that the Dubai crude oil price retains a positive relationship and affects the US natural gas price.
در این مقاله رابطه بین قیمت نفت خام دبی بررسی شده است و قیمت گاز طبیعی ایالات متحده با استفاده از یک مجموعه داده ماهانه به روز شده از سال 1992 تا سال 2018 ، شامل وقایع دوم در بازارهای انرژی.پس از کار انواع تست های ریشه و ادغام واحد ، رابطه بلند مدت است بررسی از طریق تکنیک ادغام توزیع توزیع شده (ARDL) ، همراه با تست علیت تدا-یاماموتو (1995).نتایج ما نشان می دهد که یک رابطه بلند مدت با یک علیت یک طرفه وجود دارد بازار نفت خام دبی به بازار گاز طبیعی ایالات متحده.انواع پست تست های مشخصات نشان می دهد که مدل ARDL انتخاب شده به خوبی مشخص شده است ، و نتایج رویکرد تودا-یاماموتو از طریق توابع پاسخ ضربه ، پیش بینی تجزیه واریانس خطای و تجزیه تاریخی با وزن های عمومی ، نشان می دهد که قیمت نفت خام دبی مثبت است رابطه و بر قیمت گاز طبیعی ایالات متحده تأثیر می گذارد.
30,599
We address challenges in variable selection with highly correlated data that are frequently present in finance, economics, but also in complex natural systems as e.g. weather. We develop a robustified version of the knockoff framework, which addresses challenges with high dependence among possibly many influencing factors and strong time correlation. In particular, the repeated subsampling strategy tackles the variability of the knockoffs and the dependency of factors. Simultaneously, we also control the proportion of false discoveries over a grid of all possible values, which mitigates variability of selected factors from ad-hoc choices of a specific false discovery level. In the application for corporate bond recovery rates, we identify new important groups of relevant factors on top of the known standard drivers. But we also show that out-of-sample, the resulting sparse model has similar predictive power to state-of-the-art machine learning models that use the entire set of predictors.
ما در انتخاب متغیر با داده های بسیار همبسته به چالش ها می پردازیم که غالباً در امور مالی ، اقتصاد ، بلکه به صورت طبیعی پیچیده وجود دارند سیستم ها به عنوان مثالهوا.ما یک نسخه محکم از حذفی تهیه می کنیم چارچوب ، که به چالش هایی با وابستگی زیاد در بین بسیاری از آنها می پردازد عوامل تأثیرگذار و همبستگی زمان قوی.به طور خاص ، تکرار شده استراتژی نمونه برداری بر تغییرپذیری حذفی و وابستگی به عوامل.به طور همزمان ، ما همچنین نسبت کاذب را کنترل می کنیم اکتشافات بیش از یک شبکه از تمام مقادیر ممکن ، که تغییرپذیری از آن را کاهش می دهد عوامل منتخب از انتخاب های موقت از یک سطح کشف کاذب خاص.که در درخواست نرخ بازیابی اوراق بهادار شرکت ، ما مهم جدید را شناسایی می کنیم گروه هایی از عوامل مرتبط در بالای رانندگان استاندارد شناخته شده.اما ما نیز نشان می دهد که خارج از نمونه ، مدل پراکنده حاصل پیش بینی مشابه دارد قدرت به مدلهای یادگیری ماشین پیشرفته که از کل مجموعه استفاده می کنند پیش بینی کننده ها
30,600
In this paper we describe, formalize, implement, and experimentally evaluate a novel transaction re-identification attack against official foreign-trade statistics releases in Brazil. The attack's goal is to re-identify the importers of foreign-trade transactions (by revealing the identity of the company performing that transaction), which consequently violates those importers' fiscal secrecy (by revealing sensitive information: the value and volume of traded goods). We provide a mathematical formalization of this fiscal secrecy problem using principles from the framework of quantitative information flow (QIF), then carefully identify the main sources of imprecision in the official data releases used as auxiliary information in the attack, and model transaction re-construction as a linear optimization problem solvable through integer linear programming (ILP). We show that this problem is NP-complete, and provide a methodology to identify tractable instances. We exemplify the feasibility of our attack by performing 2,003 transaction re-identifications that in total amount to more than \$137M, and affect 348 Brazilian companies. Further, since similar statistics are produced by other statistical agencies, our attack is of broader concern.
در این مقاله ، ما به صورت تجربی ، رسمی ، پیاده سازی و ارزیابی می کنیم یک حمله جدید شناسایی معامله جدید علیه تجارت رسمی خارجی انتشار آمار در برزیل.هدف حمله این است که دوباره شناسایی شود واردکنندگان معاملات تجارت خارجی (با آشکار کردن هویت شرکت انجام آن معامله) ، که در نتیجه نقض آن است رازداری مالی واردکنندگان (با آشکار کردن اطلاعات حساس: ارزش و حجم کالاهای معامله شده).ما رسمیت ریاضی از این مالی ارائه می دهیم مشکل رازداری با استفاده از اصول از چارچوب اطلاعات کمی جریان (QIF) ، سپس منابع اصلی عدم دقت در نسخه های رسمی داده های مورد استفاده به عنوان اطلاعات کمکی در حمله و مدل ساخت مجدد معامله به عنوان یک مسئله بهینه سازی خطی قابل حل از طریق برنامه نویسی خطی عدد صحیح (ILP).ما نشان می دهیم که این مشکل NP-Complete است ، و یک روش برای شناسایی نمونه های قابل ردیابی ارائه دهید.ما مثال زدیم امکان حمله ما با انجام 2،003 شناسایی مجدد معامله این مبلغ بیش از 137 میلیون دلار است و 348 شرکت برزیل را تحت تأثیر قرار می دهد. علاوه بر این ، از آنجا که آمار مشابه توسط سایر آژانس های آماری تولید می شود ، حمله ما مورد نگرانی گسترده تری است.
30,601
A comprehensive methodology for inference in vector autoregressions (VARs) using sign and other structural restrictions is developed. The reduced-form VAR disturbances are driven by a few common factors and structural identification restrictions can be incorporated in their loadings in the form of parametric restrictions. A Gibbs sampler is derived that allows for reduced-form parameters and structural restrictions to be sampled efficiently in one step. A key benefit of the proposed approach is that it allows for treating parameter estimation and structural inference as a joint problem. An additional benefit is that the methodology can scale to large VARs with multiple shocks, and it can be extended to accommodate non-linearities, asymmetries, and numerous other interesting empirical features. The excellent properties of the new algorithm for inference are explored using synthetic data experiments, and by revisiting the role of financial factors in economic fluctuations using identification based on sign restrictions.
یک روش جامع برای استنباط در اتورژهای بردار (VARS) با استفاده از علامت و سایر محدودیت های ساختاری توسعه یافته است.VAR با فرم کاهش یافته اختلالات توسط چند عامل مشترک و شناسایی ساختاری هدایت می شود محدودیت ها را می توان در بارهای آنها به صورت پارامتری گنجانید محدودیت های.یک نمونه گیبس به دست آمده است که امکان کاهش فرم را فراهم می کند پارامترها و محدودیتهای ساختاری که در یک مرحله به طور کارآمد نمونه برداری می شوند.آ سود اصلی رویکرد پیشنهادی این است که امکان درمان پارامتر را فراهم می کند تخمین و استنباط ساختاری به عنوان یک مشکل مشترک.یک مزیت اضافی این است که این روش می تواند به VAR های بزرگ با شوک های متعدد مقیاس بپردازد ، و آن می توان برای اسکان غیر خطی ها ، عدم تقارن ها و موارد دیگر گسترش یافت ویژگی های جالب تجربی.خصوصیات عالی الگوریتم جدید برای استنباط با استفاده از آزمایش داده های مصنوعی و با بازنگری مورد بررسی قرار می گیرد نقش عوامل مالی در نوسانات اقتصادی با استفاده از شناسایی بر اساس محدودیت های علامت.
30,602
We present a data-driven prescriptive framework for fair decisions, motivated by hiring. An employer evaluates a set of applicants based on their observable attributes. The goal is to hire the best candidates while avoiding bias with regard to a certain protected attribute. Simply ignoring the protected attribute will not eliminate bias due to correlations in the data. We present a hiring policy that depends on the protected attribute functionally, but not statistically, and we prove that, among all possible fair policies, ours is optimal with respect to the firm's objective. We test our approach on both synthetic and real data, and find that it shows great practical potential to improve equity for underrepresented and historically marginalized groups.
ما یک چارچوب تجربی داده محور برای تصمیمات منصفانه ، با انگیزه ارائه می دهیم با استخدامیک کارفرما مجموعه ای از متقاضیان را بر اساس قابل مشاهده خود ارزیابی می کند ویژگی های.هدف استخدام بهترین نامزدها در حالی است که از تعصب جلوگیری می کنید با توجه به یک ویژگی محافظت شده خاص.به سادگی نادیده گرفتن محافظت شده ویژگی به دلیل همبستگی در داده ها تعصب را از بین نمی برد.ما ارائه می دهیم سیاست استخدام که به ویژگی محافظت شده بستگی دارد ، اما نه از نظر آماری ، و ما ثابت می کنیم که ، در بین همه سیاست های عادلانه ممکن ، ماست بهینه با توجه به هدف شرکت.ما رویکرد خود را در هر دو آزمایش می کنیم داده های مصنوعی و واقعی ، و دریابید که پتانسیل عملی بسیار خوبی را نشان می دهد بهبود سهام برای گروه های کمتری در حاشیه و تاریخی.
30,603
The sample selection bias problem arises when a variable of interest is correlated with a latent variable, and involves situations in which the response variable had part of its observations censored. Heckman (1976) proposed a sample selection model based on the bivariate normal distribution that fits both the variable of interest and the latent variable. Recently, this assumption of normality has been relaxed by more flexible models such as the Student-t distribution (Marchenko and Genton, 2012; Lachos et al., 2021). The aim of this work is to propose generalized Heckman sample selection models based on symmetric distributions (Fang et al., 1990). This is a new class of sample selection models, in which variables are added to the dispersion and correlation parameters. A Monte Carlo simulation study is performed to assess the behavior of the parameter estimation method. Two real data sets are analyzed to illustrate the proposed approach.
مسئله تعصب انتخاب نمونه هنگامی بوجود می آید که متغیر علاقه است با یک متغیر نهفته ارتباط دارد و شامل موقعیت هایی است که در آن متغیر پاسخ بخشی از مشاهدات خود سانسور شده بود.هکمن (1976) یک مدل انتخاب نمونه را بر اساس توزیع عادی دو متغیره ارائه داد این هم متغیر علاقه و هم متغیر نهفته است.اخیراً ، این فرض نرمال بودن توسط مدلهای انعطاف پذیر تر از قبیل آرامش یافته است توزیع دانش آموز-T (Marchenko and Genton ، 2012 ؛ Lachos et al. ، 2021).در هدف از این کار پیشنهاد مدل های انتخابی نمونه هکمن است بر اساس توزیع متقارن (Fang et al. ، 1990).این یک کلاس جدید از مدل های انتخاب نمونه ، که در آن متغیرها به پراکندگی اضافه می شوند و پارامترهای همبستگی.یک مطالعه شبیه سازی مونت کارلو برای ارزیابی انجام شده است رفتار روش تخمین پارامتر.دو مجموعه داده واقعی هستند تجزیه و تحلیل شده برای نشان دادن رویکرد پیشنهادی.
30,604
We use "glide charts" (plots of sequences of root mean squared forecast errors as the target date is approached) to evaluate and compare fixed-target forecasts of Arctic sea ice. We first use them to evaluate the simple feature-engineered linear regression (FELR) forecasts of Diebold and Goebel (2021), and to compare FELR forecasts to naive pure-trend benchmark forecasts. Then we introduce a much more sophisticated feature-engineered machine learning (FEML) model, and we use glide charts to evaluate FEML forecasts and compare them to a FELR benchmark. Our substantive results include the frequent appearance of predictability thresholds, which differ across months, meaning that accuracy initially fails to improve as the target date is approached but then increases progressively once a threshold lead time is crossed. Also, we find that FEML can improve appreciably over FELR when forecasting "turning point" months in the annual cycle at horizons of one to three months ahead.
ما از "نمودارهای سرطان" استفاده می کنیم (توالی توالی پیش بینی مربع میانگین ریشه خطاها با نزدیک شدن به تاریخ هدف) برای ارزیابی و مقایسه هدف ثابت پیش بینی یخ دریای قطب شمال.ما ابتدا از آنها برای ارزیابی ساده استفاده می کنیم پیش بینی های رگرسیون خطی مهندسی (FELR) از Diebold و Goebel (2021) ، و برای مقایسه پیش بینی های FELR با پیش بینی های معیار خالص و روند خالص. سپس ما یک یادگیری ماشین مهندسی با ویژگی بسیار پیچیده تر را معرفی می کنیم (FEML) مدل ، و ما برای ارزیابی پیش بینی های FEML و مقایسه از نمودارهای Glide استفاده می کنیم آنها را به یک معیار FELR.نتایج اساسی ما شامل مکرر است ظاهر آستانه های پیش بینی ، که در طول ماه ها متفاوت است ، به معنی این دقت در ابتدا با نزدیک شدن به تاریخ هدف ، بهبود نمی یابد اما پس از عبور از زمان سرب آستانه به تدریج افزایش می یابد.همچنین ، ما دریابید که FEML هنگام پیش بینی "چرخش" می تواند به طرز چشمگیری نسبت به FELR بهبود یابد "ماه های ماه در چرخه سالانه در افق یک تا سه ماه پیش.
30,606
This paper elaborates on the sectoral-regional view of the business cycle synchronization in the EU -- a necessary condition for the optimal currency area. We argue that complete and tidy clustering of the data improves the decision maker's understanding of the business cycle and, by extension, the quality of economic decisions. We define the business cycles by applying a wavelet approach to drift-adjusted gross value added data spanning over 2000Q1 to 2021Q2. For the application of the synchronization analysis, we propose the novel soft-clustering approach, which adjusts hierarchical clustering in several aspects. First, the method relies on synchronicity dissimilarity measures, noting that, for time series data, the feature space is the set of all points in time. Then, the ``soft'' part of the approach strengthens the synchronization signal by using silhouette measures. Finally, we add a probabilistic sparsity algorithm to drop out the most asynchronous ``noisy'' data improving the silhouette scores of the most and less synchronous groups. The method, hence, splits the sectoral-regional data into three groups: the synchronous group that shapes the EU business cycle; the less synchronous group that may hint at cycle forecasting relevant information; the asynchronous group that may help investors to diversify through-the-cycle risks of the investment portfolios. The results support the core-periphery hypothesis.
این مقاله در مورد دیدگاه بخش و منطقه ای از چرخه تجارت توضیح می دهد هماهنگ سازی در اتحادیه اروپا - شرط لازم برای ارز بهینه حوزه.ما استدلال می کنیم که خوشه بندی کامل و مرتب از داده ها باعث بهبود می شود درک تصمیم گیرنده از چرخه تجارت و با گسترش ، کیفیت تصمیمات اقتصادی.ما چرخه های تجاری را با استفاده از a تعریف می کنیم رویکرد موجک به داده های ارزش افزوده ناخالص تنظیم شده با بیش از 2000q1 به 2021Q2.برای استفاده از تجزیه و تحلیل هماهنگ سازی ، ما پیشنهاد می کنیم رویکرد خوشه بندی نرم رمان ، که خوشه بندی سلسله مراتبی را در جنبه های مختلفاول ، این روش به تفاوت همگام سازی متکی است اقدامات ، با توجه به این که ، برای داده های سری زمانی ، فضای ویژگی مجموعه ای از است تمام نقاط در زمانسپس ، قسمت "نرم" از رویکرد تقویت می کند سیگنال هماهنگ سازی با استفاده از اقدامات silhouette.سرانجام ، ما اضافه می کنیم الگوریتم پراکندگی احتمالی برای رها کردن ناهمزمان ترین `` «پر سر و صدا» داده های بهبود نمرات Silhouette از گروه های بیشترین و کمتر همزمان. این روش ، از این رو ، داده های بخش منطقه ای را به سه گروه تقسیم می کند: گروه همزمان که چرخه تجارت اتحادیه اروپا را شکل می دهد.گروه کمتر همزمان این ممکن است در مورد پیش بینی چرخه اطلاعات مربوطه اشاره کند.گروه ناهمزمان این ممکن است به سرمایه گذاران کمک کند تا خطرات از طریق چرخه سرمایه گذاری را متنوع کنند اوراق بهادارنتایج از فرضیه اصلی و پریفری پشتیبانی می کند.
30,607
We use a simulation study to compare three methods for adaptive experimentation: Thompson sampling, Tempered Thompson sampling, and Exploration sampling. We gauge the performance of each in terms of social welfare and estimation accuracy, and as a function of the number of experimental waves. We further construct a set of novel "hybrid" loss measures to identify which methods are optimal for researchers pursuing a combination of experimental aims. Our main results are: 1) the relative performance of Thompson sampling depends on the number of experimental waves, 2) Tempered Thompson sampling uniquely distributes losses across multiple experimental aims, and 3) in most cases, Exploration sampling performs similarly to random assignment.
ما از یک مطالعه شبیه سازی برای مقایسه سه روش برای تطبیقی ​​استفاده می کنیم آزمایش: نمونه گیری تامپسون ، نمونه گیری تامپسون و اکتشافات نمونه برداریما عملکرد هر یک را از نظر رفاه اجتماعی ارزیابی می کنیم و دقت تخمین ، و به عنوان تابعی از تعداد امواج تجربی.ما بیشتر مجموعه ای از اقدامات از دست دادن "ترکیبی" جدید را برای شناسایی کدام یک بسازید روشها برای محققانی که ترکیبی از تجربی را دنبال می کنند بهینه است اهدافنتایج اصلی ما عبارتند از: 1) عملکرد نسبی نمونه گیری تامپسون بستگی به تعداد امواج آزمایشی ، 2) نمونه برداری از تامپسون دارد منحصر به فرد ضررها را در اهداف آزمایشی متعدد توزیع می کند ، و 3) در بیشتر موارد ، نمونه گیری اکتشاف به طور مشابه با تکلیف تصادفی انجام می شود.
30,608
We provide an analytical characterization of the model flexibility of the synthetic control method (SCM) in the familiar form of degrees of freedom. We obtain estimable information criteria. These may be used to circumvent cross-validation when selecting either the weighting matrix in the SCM with covariates, or the tuning parameter in model averaging or penalized variants of SCM. We assess the impact of car license rationing in Tianjin and make a novel use of SCM; while a natural match is available, it and other donors are noisy, inviting the use of SCM to average over approximately matching donors. The very large number of candidate donors calls for model averaging or penalized variants of SCM and, with short pre-treatment series, model selection per information criteria outperforms that per cross-validation.
ما یک خصوصیات تحلیلی از انعطاف پذیری مدل از روش کنترل مصنوعی (SCM) در شکل آشنای درجه آزادی.ما معیارهای اطلاعاتی برآورد را بدست آورید.این ممکن است برای دور زدن استفاده شود اعتبار سنجی متقاطع هنگام انتخاب ماتریس وزنه برداری در SCM با متغیرهای متغیر ، یا پارامتر تنظیم در مدل میانگین یا مجازات های مدل از SCMما تأثیر جیره بندی مجوز اتومبیل در تیانجین را ارزیابی می کنیم و رمان می سازیم استفاده از SCM ؛در حالی که یک مسابقه طبیعی در دسترس است ، آن و سایر اهدا کنندگان پر سر و صدا هستند ، دعوت از استفاده از SCM به طور متوسط ​​بیش از اهدا کنندگان تقریباً مطابق.خیلی تعداد زیادی از اهدا کنندگان نامزد خواستار میانگین یا مجازات مدل هستند انواع SCM و با سری قبل از درمان کوتاه ، انتخاب مدل در هر معیارهای اطلاعات نسبت به اعتبار سنجی متقابل بهتر است.
30,609
Vector autoregressions (VARs) with multivariate stochastic volatility are widely used for structural analysis. Often the structural model identified through economically meaningful restrictions--e.g., sign restrictions--is supposed to be independent of how the dependent variables are ordered. But since the reduced-form model is not order invariant, results from the structural analysis depend on the order of the variables. We consider a VAR based on the factor stochastic volatility that is constructed to be order invariant. We show that the presence of multivariate stochastic volatility allows for statistical identification of the model. We further prove that, with a suitable set of sign restrictions, the corresponding structural model is point-identified. An additional appeal of the proposed approach is that it can easily handle a large number of dependent variables as well as sign restrictions. We demonstrate the methodology through a structural analysis in which we use a 20-variable VAR with sign restrictions to identify 5 structural shocks.
اتورهای وکتور (VARS) با نوسانات تصادفی چند متغیره هستند به طور گسترده ای برای تجزیه و تحلیل ساختاری استفاده می شود.اغلب مدل ساختاری شناسایی می شود از طریق محدودیت های معنادار اقتصادی-E.g. ، محدودیت ها را امضا می کند- قرار است مستقل از نحوه سفارش متغیرهای وابسته باشند.ولی از آنجا تجزیه و تحلیل ساختاری به ترتیب متغیرها بستگی دارد.ما یک var را در نظر می گیریم بر اساس نوسانات تصادفی فاکتور که برای سفارش ساخته شده است ثابت.ما نشان می دهیم که وجود نوسانات تصادفی چند متغیره امکان شناسایی آماری مدل را فراهم می کند.ما بیشتر ثابت می کنیم ، با مجموعه ای مناسب از محدودیت های علامت ، مدل ساختاری مربوطه است نقطه شناسایی شدهجذابیت اضافی از رویکرد پیشنهادی این است که می تواند به راحتی تعداد زیادی از متغیرهای وابسته و همچنین علامت را کنترل کنید محدودیت های.ما روش شناسی را از طریق یک تحلیل ساختاری در که ما از VAR 20 متغیر با محدودیت های علامت برای شناسایی 5 ساختاری استفاده می کنیم شوک
30,610
We produce methodology for regression analysis when the geographic locations of the independent and dependent variables do not coincide, in which case we speak of misaligned data. We develop and investigate two complementary methods for regression analysis with misaligned data that circumvent the need to estimate or specify the covariance of the regression errors. We carry out a detailed reanalysis of Maccini and Yang (2009) and find economically significant quantitative differences but sustain most qualitative conclusions.
ما در هنگام مکان های جغرافیایی روش برای تجزیه و تحلیل رگرسیون تولید می کنیم از متغیرهای مستقل و وابسته همزمان نیستند ، در این صورت ما از داده های نادرست صحبت کنید.ما دو روش مکمل را توسعه داده و بررسی می کنیم برای تجزیه و تحلیل رگرسیون با داده های نادرست که نیاز به آن را دور می زند کواریانس خطاهای رگرسیون را برآورد یا مشخص کنید.ما انجام می دهیم تجزیه و تحلیل دقیق Maccini و Yang (2009) و پیدا کردن از نظر اقتصادی تفاوت های کمی قابل توجه اما نتیجه گیری کیفی را حفظ می کند.
30,611
Model diagnostics is an indispensable component of regression analysis, yet it is not well addressed in standard textbooks on generalized linear models. The lack of exposition is attributed to the fact that when outcome data are discrete, classical methods (e.g., Pearson/deviance residual analysis and goodness-of-fit tests) have limited utility in model diagnostics and treatment. This paper establishes a novel framework for model diagnostics of discrete data regression. Unlike the literature defining a single-valued quantity as the residual, we propose to use a function as a vehicle to retain the residual information. In the presence of discreteness, we show that such a functional residual is appropriate for summarizing the residual randomness that cannot be captured by the structural part of the model. We establish its theoretical properties, which leads to the innovation of new diagnostic tools including the functional-residual-vs covariate plot and Function-to-Function (Fn-Fn) plot. Our numerical studies demonstrate that the use of these tools can reveal a variety of model misspecifications, such as not properly including a higher-order term, an explanatory variable, an interaction effect, a dispersion parameter, or a zero-inflation component. The functional residual yields, as a byproduct, Liu-Zhang's surrogate residual mainly developed for cumulative link models for ordinal data (Liu and Zhang, 2018, JASA). As a general notion, it considerably broadens the diagnostic scope as it applies to virtually all parametric models for binary, ordinal and count data, all in a unified diagnostic scheme.
Diagnostics یک مؤلفه ضروری از تجزیه و تحلیل رگرسیون است ، اما در کتابهای درسی استاندارد در مدل های خطی عمومی به خوبی مورد توجه قرار نمی گیرد. عدم نمایش به این واقعیت نسبت داده می شود که وقتی داده های نتیجه هستند روشهای گسسته و کلاسیک (به عنوان مثال ، تجزیه و تحلیل باقیمانده پیرسون/انحراف و تست های مناسب بودن) از کاربرد محدود در تشخیص مدل و درمان برخوردار هستند. در این مقاله یک چارچوب جدید برای تشخیص مدل داده های گسسته ایجاد شده است پسرفت.بر خلاف ادبیات که یک مقدار واحد با ارزش را به عنوان تعریف می کند باقیمانده ، ما پیشنهاد می کنیم از یک عملکرد به عنوان وسیله نقلیه برای حفظ باقیمانده استفاده کنیم اطلاعاتدر صورت وجود تفسیر ، ما چنین عملکردی را نشان می دهیم باقیمانده برای خلاصه کردن تصادفی باقیمانده مناسب است که نمی تواند باشد اسیر شده توسط قسمت ساختاری مدل.ما نظری آن را تعیین می کنیم خواص ، که منجر به نوآوری ابزارهای تشخیصی جدید از جمله طرح متغیر و عملکرد متغیر عملکردی-VS و عملکرد عملکرد به عملکرد (FN-FN). مطالعات عددی ما نشان می دهد که استفاده از این ابزارها می تواند نشان دهد انواع غلط های مدل ، مانند نه به درستی از جمله اصطلاح مرتبه بالاتر ، یک متغیر توضیحی ، یک اثر متقابل ، پراکندگی پارامتر ، یا یک مؤلفه تورم صفر.بازده باقیمانده عملکردی ، به عنوان محصول جانبی ، باقیمانده جانشین لیو زنگ به طور عمده برای پیوند تجمعی توسعه یافته است مدل های داده های معمولی (لیو و ژانگ ، 2018 ، جاسا).به عنوان یک مفهوم کلی ، آن دامنه تشخیصی را به طور قابل توجهی گسترش می دهد زیرا تقریباً در مورد همه اعمال می شود مدلهای پارامتری برای داده های باینری ، منظم و شمارش ، همه در یک متحد طرح تشخیصی.
30,612
Univariate normal regression models are statistical tools widely applied in many areas of economics. Nevertheless, income data have asymmetric behavior and are best modeled by non-normal distributions. The modeling of income plays an important role in determining workers' earnings, as well as being an important research topic in labor economics. Thus, the objective of this work is to propose parametric quantile regression models based on two important asymmetric income distributions, namely, Dagum and Singh-Maddala distributions. The proposed quantile models are based on reparameterizations of the original distributions by inserting a quantile parameter. We present the reparameterizations, some properties of the distributions, and the quantile regression models with their inferential aspects. We proceed with Monte Carlo simulation studies, considering the maximum likelihood estimation performance evaluation and an analysis of the empirical distribution of two residuals. The Monte Carlo results show that both models meet the expected outcomes. We apply the proposed quantile regression models to a household income data set provided by the National Institute of Statistics of Chile. We showed that both proposed models had a good performance both in terms of model fitting. Thus, we conclude that results were favorable to the use of Singh-Maddala and Dagum quantile regression models for positive asymmetric data, such as income data.
مدلهای رگرسیون عادی تک متغیره ابزارهای آماری هستند که به طور گسترده ای در آن اعمال می شوند بسیاری از زمینه های اقتصاد.با این وجود ، داده های درآمد دارای رفتار نامتقارن هستند و بهترین ها توسط توزیع های غیر عادی مدل می شوند.مدل سازی درآمد بازی می کند نقش مهم در تعیین درآمد کارگران و همچنین مهم بودن موضوع تحقیق در اقتصاد کار.بنابراین ، هدف این کار این است که مدلهای رگرسیون پارامتری را بر اساس دو نامتقارن مهم پیشنهاد دهید توزیع درآمد ، یعنی توزیع Dagum و Singh-Maddala.در مدلهای کمی پیشنهادی مبتنی بر reparameterizations اصلی هستند توزیع با درج یک پارامتر کمی.ما ارائه می دهیم reparameterizations ، برخی از خواص توزیع و کمیت مدل های رگرسیون با جنبه های استنباطی آنها.ما با مونت کارلو پیش می رویم مطالعات شبیه سازی ، با توجه به حداکثر عملکرد تخمین احتمال ارزیابی و تجزیه و تحلیل توزیع تجربی دو باقیمانده.در نتایج مونت کارلو نشان می دهد که هر دو مدل نتایج مورد انتظار را برآورده می کنند.ما اقدام می کنیم مدلهای رگرسیون کوکتری پیشنهادی به مجموعه داده های درآمد خانوار ارائه شده است توسط انستیتوی ملی آمار شیلی.ما نشان دادیم که هر دو پیشنهاد شده اند مدل ها از نظر اتصالات مدل عملکرد خوبی داشتند.بنابراین ، ما نتیجه می گیریم این نتایج برای استفاده از Singh-Maddala و Dagum Quantile مطلوب بود مدل های رگرسیون برای داده های نامتقارن مثبت ، مانند داده های درآمد.
30,613
This paper introduces and proves asymptotic normality for a new semi-parametric estimator of continuous treatment effects in panel data. Specifically, we estimate the average derivative. Our estimator uses the panel structure of data to account for unobservable time-invariant heterogeneity and machine learning (ML) methods to preserve statistical power while modeling high-dimensional relationships. We construct our estimator using tools from double de-biased machine learning (DML) literature. Monte Carlo simulations in a nonlinear panel setting show that our method estimates the average derivative with low bias and variance relative to other approaches. Lastly, we use our estimator to measure the impact of extreme heat on United States (U.S.) corn production, after flexibly controlling for precipitation and other weather features. Our approach yields extreme heat effect estimates that are 50% larger than estimates using linear regression. This difference in estimates corresponds to an additional $3.17 billion in annual damages by 2050 under median climate scenarios. We also estimate a dose-response curve, which shows that damages from extreme heat decline somewhat in counties with more extreme heat exposure.
در این مقاله عادی بودن بدون علامت برای یک جدید معرفی و اثبات شده است برآوردگر نیمه پارامتری اثرات درمانی مداوم در داده های پانل. به طور خاص ، ما مشتق متوسط ​​را تخمین می زنیم.برآوردگر ما از پانل استفاده می کند ساختار داده ها برای به حساب کردن ناهمگونی زمان غیرقابل کنترل و روشهای یادگیری ماشین (ML) برای حفظ قدرت آماری هنگام مدل سازی روابط با ابعاد بالا.ما برآوردگر خود را با استفاده از ابزارهایی از ادبیات یادگیری ماشین مضاعف (DML).شبیه سازی مونت کارلو در تنظیم پانل غیرخطی نشان می دهد که روش ما متوسط ​​مشتق را تخمین می زند با تعصب کم و واریانس نسبت به سایر رویکردها.در آخر ، ما از خود استفاده می کنیم برآوردگر برای اندازه گیری تأثیر گرمای شدید بر روی ذرت ایالات متحده (ایالات متحده) تولید ، پس از کنترل انعطاف پذیر برای بارش و سایر آب و هوا امکانات.رویکرد ما برآورد اثر گرمای شدید را نشان می دهد که 50 ٪ بزرگتر هستند از تخمین های استفاده از رگرسیون خطی.این تفاوت در تخمین ها مطابق با 3.17 میلیارد دلار اضافی در خسارت سالانه تا سال 2050 در زیر سناریوهای متوسط ​​آب و هوا.ما همچنین یک منحنی پاسخ دوز را تخمین می زنیم ، که نشان می دهد این آسیب ناشی از گرمای شدید تا حدودی در شهرستانها با شدیدتر است قرار گرفتن در معرض گرما.
30,614
We propose a one-to-many matching estimator of the average treatment effect based on propensity scores estimated by isotonic regression. The method relies on the monotonicity assumption on the propensity score function, which can be justified in many applications in economics. We show that the nature of the isotonic estimator can help us to fix many problems of existing matching methods, including efficiency, choice of the number of matches, choice of tuning parameters, robustness to propensity score misspecification, and bootstrap validity. As a by-product, a uniformly consistent isotonic estimator is developed for our proposed matching method.
ما یک برآوردگر تطبیق یک به بسیاری از اثر درمانی متوسط ​​پیشنهاد می کنیم بر اساس نمرات گرایش تخمین زده شده توسط رگرسیون ایزوتونیک.روش متکی است بر فرض یکنواختی در عملکرد نمره گرایش ، که می تواند باشد در بسیاری از برنامه های کاربردی در اقتصاد توجیه شده است.ما نشان می دهیم که ماهیت برآوردگر ایزوتونیک می تواند به ما کمک کند تا بسیاری از مشکلات تطبیق موجود را برطرف کنیم روش ها ، از جمله کارایی ، انتخاب تعداد مسابقات ، انتخاب پارامترهای تنظیم ، استحکام به نمره تقصیر نمره گرایش ، و اعتبار بوت استرپ.به عنوان یک محصول جانبی ، یک برآوردگر ایزوتونیک یکنواخت سازگار برای روش تطبیق پیشنهادی ما تهیه شده است.
30,615
Bias correction can often improve the finite sample performance of estimators. We show that the choice of bias correction method has no effect on the higher-order variance of semiparametrically efficient parametric estimators, so long as the estimate of the bias is asymptotically linear. It is also shown that bootstrap, jackknife, and analytical bias estimates are asymptotically linear for estimators with higher-order expansions of a standard form. In particular, we find that for a variety of estimators the straightforward bootstrap bias correction gives the same higher-order variance as more complicated analytical or jackknife bias corrections. In contrast, bias corrections that do not estimate the bias at the parametric rate, such as the split-sample jackknife, result in larger higher-order variances in the i.i.d. setting we focus on. For both a cross-sectional MLE and a panel model with individual fixed effects, we show that the split-sample jackknife has a higher-order variance term that is twice as large as that of the `leave-one-out' jackknife.
تصحیح تعصب اغلب می تواند عملکرد نمونه محدود را بهبود بخشد برآوردگرهاما نشان می دهیم که انتخاب روش تصحیح تعصب هیچ تاثیری در آن ندارد واریانس مرتبه بالاتر پارامتری نیمه کارآمد برآوردگرها ، تا زمانی که برآورد تعصب به صورت بدون علامت خطی باشد.این است همچنین نشان داده شده است که برآورد تعصب Bootstrap ، jackknife و تحلیلی است بدون علامت خطی برای برآوردگرهای دارای گسترش مرتبه بالاتر از یک استاندارد فرم.به طور خاص ، ما می دانیم که برای انواع تخمین ها اصلاح تعصب بوت استرپ مستقیم همان واریانس مرتبه بالاتر را می دهد به عنوان اصلاحات تعصب تحلیلی یا جککین پیچیده تر.در مقابل ، تعصب اصلاحاتی که تعصب را با سرعت پارامتری تخمین نمی زند ، مانند Jackknife نمونه تقسیم شده ، منجر به واریانس های مرتبه بالاتر در I.I.D. تنظیم ما روی آن تمرکز می کنیم.برای هر دو MLE مقطعی و یک مدل پانل با جلوه های ثابت فردی ، ما نشان می دهیم که jackknife نمونه تقسیم شده اصطلاح واریانس مرتبه بالاتر که دو برابر بیشتر از آن است «ترک-یکی از خارج» jackknife.
30,616
In this paper we propose a new time-varying econometric model, called Time-Varying Poisson AutoRegressive with eXogenous covariates (TV-PARX), suited to model and forecast time series of counts. {We show that the score-driven framework is particularly suitable to recover the evolution of time-varying parameters and provides the required flexibility to model and forecast time series of counts characterized by convoluted nonlinear dynamics and structural breaks.} We study the asymptotic properties of the TV-PARX model and prove that, under mild conditions, maximum likelihood estimation (MLE) yields strongly consistent and asymptotically normal parameter estimates. Finite-sample performance and forecasting accuracy are evaluated through Monte Carlo simulations. The empirical usefulness of the time-varying specification of the proposed TV-PARX model is shown by analyzing the number of new daily COVID-19 infections in Italy and the number of corporate defaults in the US.
در این مقاله ما یک مدل اقتصاد سنجی متغیر متغیر زمان را پیشنهاد می کنیم ، به نام متغیر متغیر Poisson با همبستگی های اگزوژن (TV-parx) ، مناسب برای مدل سازی و پیش بینی سری زمانی شمارش.{ما نشان می دهیم که نمره محور چارچوب به ویژه برای بازیابی تکامل متغیر زمان مناسب است پارامترها و انعطاف پذیری لازم را برای مدل و زمان پیش بینی فراهم می کند مجموعه ای از شمارش ها که با پویایی غیرخطی پیچیده و ساختاری مشخص می شوند Breaks.} ما خواص بدون علامت مدل TV-parx را مطالعه می کنیم و اثبات می کنیم که ، در شرایط خفیف ، حداکثر برآورد احتمال (MLE) بازده برآورد پارامتر به شدت سازگار و بدون علامت طبیعی. عملکرد نمونه محدود و دقت پیش بینی از طریق مونت ارزیابی می شود شبیه سازی های کارلو.سودمندی تجربی مشخصات متغیر زمان از مدل TV-Parx پیشنهادی با تجزیه و تحلیل تعداد روزانه جدید نشان داده شده است عفونت های Covid-19 در ایتالیا و تعداد پیش فرض های شرکت در ایالات متحده.
30,617
The difference-in-differences (DID) design is one of the most popular methods used in empirical economics research. However, there is almost no work examining what the DID method identifies in the presence of a misclassified treatment variable. This paper studies the identification of treatment effects in DID designs when the treatment is misclassified. Misclassification arises in various ways, including when the timing of a policy intervention is ambiguous or when researchers need to infer treatment from auxiliary data. We show that the DID estimand is biased and recovers a weighted average of the average treatment effects on the treated (ATT) in two subpopulations -- the correctly classified and misclassified groups. In some cases, the DID estimand may yield the wrong sign and is otherwise attenuated. We provide bounds on the ATT when the researcher has access to information on the extent of misclassification in the data. We demonstrate our theoretical results using simulations and provide two empirical applications to guide researchers in performing sensitivity analysis using our proposed methods.
طراحی تفاوت در تفاوت (DID) یکی از محبوب ترین روش ها است مورد استفاده در تحقیقات اقتصاد تجربی.با این حال ، تقریباً هیچ کاری وجود ندارد بررسی آنچه که روش DID در حضور یک طبقه بندی نادرست مشخص می شود متغیر درمانی.در این مقاله به بررسی شناسایی اثرات درمانی می پردازیم در طرح های DID وقتی که درمان نادرست است.طبقه بندی نادرست در بوجود می آید روشهای مختلف ، از جمله زمانی که زمان مداخله سیاست مبهم است یا هنگامی که محققان نیاز به استنباط از داده های کمکی دارند.ما نشان می دهیم که تخمین DID مغرضانه است و میانگین وزنی متوسط ​​را بازیابی می کند اثرات درمانی بر روی درمان شده (ATT) در دو زیر گروه - به درستی گروههای طبقه بندی شده و طبقه بندی شده.در بعضی موارد ، تخمین DID ممکن است عملکرد داشته باشد علامت اشتباه و در غیر این صورت ضعیف است.ما در هنگام AST مرزهایی را فراهم می کنیم محقق به اطلاعات مربوط به میزان سوء طبقه بندی در اطلاعات دسترسی دارد داده.ما نتایج نظری خود را با استفاده از شبیه سازی ها نشان می دهیم و ارائه می دهیم دو برنامه تجربی برای راهنمایی محققان در انجام حساسیت تجزیه و تحلیل با استفاده از روشهای پیشنهادی ما.
30,619
In this paper, we forecast euro area inflation and its main components using an econometric model which exploits a massive number of time series on survey expectations for the European Commission's Business and Consumer Survey. To make estimation of such a huge model tractable, we use recent advances in computational statistics to carry out posterior simulation and inference. Our findings suggest that the inclusion of a wide range of firms and consumers' opinions about future economic developments offers useful information to forecast prices and assess tail risks to inflation. These predictive improvements do not only arise from surveys related to expected inflation but also from other questions related to the general economic environment. Finally, we find that firms' expectations about the future seem to have more predictive content than consumer expectations.
در این مقاله ، ما تورم منطقه یورو و اجزای اصلی آن را پیش بینی می کنیم یک مدل اقتصاد سنجی که از تعداد زیادی از سری های زمانی در بررسی بهره برداری می کند انتظارات برای بررسی تجارت و مصرف کننده کمیسیون اروپا.به تخمین چنین مدل عظیمی را قابل ردیابی می کند ، ما از پیشرفت های اخیر در آن استفاده می کنیم آمار محاسباتی برای انجام شبیه سازی و استنباط خلفی.ما یافته ها نشان می دهد که گنجاندن طیف گسترده ای از بنگاه ها و مصرف کنندگان نظرات در مورد تحولات اقتصادی آینده اطلاعات مفیدی را ارائه می دهد قیمت های پیش بینی و ارزیابی خطرات دم در تورم.این پیش بینی کننده پیشرفت ها نه تنها از نظرسنجی های مربوط به تورم مورد انتظار ناشی می شود بلکه همچنین از سایر سؤالات مربوط به محیط اقتصادی عمومی.سرانجام، ما می دانیم که به نظر می رسد انتظارات بنگاه ها در مورد آینده پیش بینی کننده تری دارند محتوا از انتظارات مصرف کننده.
30,620
These notes shows how to do inference on the Demographic Parity (DP) metric. Although the metric is a complex statistic involving min and max computations, we propose a smooth approximation of those functions and derive its asymptotic distribution. The limit of these approximations and their gradients converge to those of the true max and min functions, wherever they exist. More importantly, when the true max and min functions are not differentiable, the approximations still are, and they provide valid asymptotic inference everywhere in the domain. We conclude with some directions on how to compute confidence intervals for DP, how to test if it is under 0.8 (the U.S. Equal Employment Opportunity Commission fairness threshold), and how to do inference in an A/B test.
این یادداشت ها نشان می دهد که چگونه می توان استنباط در متریک برابری جمعیتی (DP) انجام داد. اگرچه متریک یک آمار پیچیده است که شامل محاسبات حداقل و حداکثر است ، ما تقریب صاف از آن کارکردها را پیشنهاد می کنیم و بدون علامت آن را استخراج می کنیم توزیعحد این تقریب ها و شیب آنها به همگرا می شوند عملکردهای حداکثر و مین واقعی ، هر کجا که وجود داشته باشد.مهمتر از همه ، هنگامی که توابع حداکثر و حداقل واقعی متفاوت نیستند ، تقریب ها هنوز هم وجود دارد ، و آنها استنتاج معتبر بدون علامت را در همه جای موجود در آن ارائه می دهند دامنه.ما با برخی از جهات در مورد چگونگی محاسبه فواصل اطمینان نتیجه می گیریم برای DP ، نحوه آزمایش اگر زیر 0.8 باشد (فرصت اشتغال برابر ایالات متحده آستانه انصاف کمیسیون) ، و نحوه استنباط در آزمون A/B.
30,621
Motivated by growing evidence of agents' mistakes in strategically simple environments, we propose a solution concept -- robust equilibrium -- that requires only an asymptotically optimal behavior. We use it to study large random matching markets operated by the applicant-proposing Deferred Acceptance (DA). Although truth-telling is a dominant strategy, almost all applicants may be non-truthful in robust equilibrium; however, the outcome must be arbitrarily close to the stable matching. Our results imply that one can assume truthful agents to study DA outcomes, theoretically or counterfactually. However, to estimate the preferences of mistaken agents, one should assume stable matching but not truth-telling.
با انگیزه در حال رشد شواهد در مورد اشتباهات نمایندگان در استراتژیک ساده محیط ، ما یک مفهوم راه حل - تعادل قوی - پیشنهاد می کنیم که فقط به یک رفتار بدون علامت بهینه نیاز دارد.ما از آن برای مطالعه بزرگ استفاده می کنیم بازارهای تطبیق تصادفی که توسط متقاضی پذیرش به تعویق افتاده اداره می شود (دا).اگرچه حقیقت یک استراتژی غالب است ، اما تقریباً همه متقاضیان ممکن است در تعادل قوی غیر صادق باشید.با این حال ، نتیجه باید خودسرانه باشد نزدیک به تطبیق پایدار.نتایج ما حاکی از آن است که می توان صادقانه فرض کرد عوامل برای مطالعه نتایج DA ، از لحاظ نظری یا ضد خلاف.با این حال ، به ترجیحات عوامل اشتباه را تخمین بزنید ، باید تطبیق پایدار را فرض کرد اما حقیقت را نادیده نمی گیرد.
30,622
A central goal in social science is to evaluate the causal effect of a policy. One dominant approach is through panel data analysis in which the behaviors of multiple units are observed over time. The information across time and space motivates two general approaches: (i) horizontal regression (i.e., unconfoundedness), which exploits time series patterns, and (ii) vertical regression (e.g., synthetic controls), which exploits cross-sectional patterns. Conventional wisdom states that the two approaches are fundamentally different. We establish this position to be partly false for estimation but generally true for inference. In particular, we prove that both approaches yield identical point estimates under several standard settings. For the same point estimate, however, each approach quantifies uncertainty with respect to a distinct estimand. In turn, the confidence interval developed for one estimand may have incorrect coverage for another. This emphasizes that the source of randomness that researchers assume has direct implications for the accuracy of inference.
یک هدف اصلی در علوم اجتماعی ارزیابی اثر علی یک است خط مشی.یک رویکرد غالب از طریق تجزیه و تحلیل داده های پانل است که در آن رفتارهای چند واحد با گذشت زمان مشاهده می شود.اطلاعات در طول زمان و فضا دو رویکرد کلی را ایجاد می کند: (i) رگرسیون افقی (یعنی ، عدم وجود) ، که از الگوهای سری زمانی سوء استفاده می کند ، و (ب) عمودی رگرسیون (به عنوان مثال ، کنترل های مصنوعی) ، که از الگوهای مقطعی سوء استفاده می کند. خرد متعارف بیان می کند که این دو رویکرد اساساً متفاوت هستند. ما این موقعیت را تعیین می کنیم که برای تخمین تا حدی نادرست باشد اما به طور کلی درست است برای استنباطبه طور خاص ، ما ثابت می کنیم که هر دو رویکرد یکسان هستند برآورد نقطه تحت چندین تنظیم استاندارد.برای همین تخمین نقطه ، با این حال ، هر رویکرد عدم اطمینان را با توجه به یک مجزا تعیین می کند برآوردبه نوبه خود ، فاصله اطمینان ایجاد شده برای یک برآورد ممکن است داشته باشد پوشش نادرست برای دیگری.این تأکید می کند که منبع تصادفی است محققان فرض می کنند پیامدهای مستقیمی برای صحت استنباط دارد.
30,623
Omitted variables are a common concern in empirical research. We distinguish between two ways omitted variables can affect baseline estimates: by driving them to zero or by reversing their sign. We show that, depending on how the impact of omitted variables is measured, it can be substantially easier for omitted variables to flip coefficient signs than to drive them to zero. Consequently, results which are considered robust to being "explained away" by omitted variables are not necessarily robust to sign changes. We show that this behavior occurs with "Oster's delta" (Oster 2019), a commonly reported measure of regression coefficient robustness to the presence of omitted variables. Specifically, we show that any time this measure is large--suggesting that omitted variables may be unimportant--a much smaller value reverses the sign of the parameter of interest. Relatedly, we show that selection bias adjusted estimands can be extremely sensitive to the choice of the sensitivity parameter. Specifically, researchers commonly compute a bias adjustment under the assumption that Oster's delta equals one. Under the alternative assumption that delta is very close to one, but not exactly equal to one, we show that the bias can instead be arbitrarily large. To address these concerns, we propose a modified measure of robustness that accounts for such sign changes, and discuss best practices for assessing sensitivity to omitted variables. We demonstrate this sign flipping behavior in an empirical application to social capital and the rise of the Nazi party, where we show how it can overturn conclusions about robustness, and how our proposed modifications can be used to regain robustness. We analyze three additional empirical applications as well. We implement our proposed methods in the companion Stata module regsensitivity for easy use in practice.
متغیرهای حذف شده یک نگرانی مشترک در تحقیقات تجربی است.ما متمایز می کنیم بین دو روش متغیرهای حذف شده می توانند برآوردهای پایه را تحت تأثیر قرار دهند: با رانندگی آنها را به صفر یا با معکوس کردن علامت خود.ما این را نشان می دهیم ، بسته به اینکه چگونه تأثیر متغیرهای حذف شده اندازه گیری می شود ، می توان آن را بسیار ساده تر کرد متغیرهای حذف شده برای چرخاندن علائم ضریب نسبت به هدایت آنها به صفر. در نتیجه ، نتایجی که برای "توضیح" توسط "از بین بروند" قوی تلقی می شوند متغیرهای حذف شده لزوماً برای امضای تغییرات قوی نیستند.ما نشان می دهیم که این رفتار با "دلتای اوستر" (Oster 2019) ، یک اندازه گیری معمولاً گزارش شده است ضریب رگرسیون به حضور متغیرهای حذف شده. به طور خاص ، ما نشان می دهیم که هر زمان این اندازه بزرگ است- متغیرهای حذف شده ممکن است بی اهمیت باشند-یک مقدار بسیار کوچکتر علامت را معکوس می کند پارامتر علاقه.به همین ترتیب ، ما نشان می دهیم که تعصب انتخاب تنظیم شده است برآوردها می توانند نسبت به انتخاب حساسیت بسیار حساس باشند پارامتر.به طور خاص ، محققان معمولاً تنظیم تعصب را در زیر محاسبه می کنند این فرض که دلتای اوستر برابر با یکی است.تحت فرض جایگزین آن دلتا بسیار نزدیک به یک است ، اما دقیقاً برابر با یک نیست ، ما نشان می دهیم که در عوض تعصب می تواند به طور خودسرانه بزرگ باشد.برای پرداختن به این نگرانی ها ، ما پیشنهاد می کنیم اندازه گیری اصلاح شده از استحکام که چنین تغییر نشانه ای را به خود اختصاص داده و بحث می کند بهترین روشها برای ارزیابی حساسیت به متغیرهای حذف شده.ما نشان می دهیم این نشانه رفتار در یک کاربرد تجربی در سرمایه اجتماعی و ظهور حزب نازی ، جایی که ما نشان می دهیم که چگونه می تواند نتیجه گیری را لغو کند استحکام ، و اینکه چگونه می توان از تغییرات پیشنهادی ما برای بازیابی مجدد استفاده کرد نیرومندی.ما سه برنامه تجربی اضافی را نیز تجزیه و تحلیل می کنیم.ما روشهای پیشنهادی ما را در ماژول Companion Stata Regsensensivity برای اجرا کنید استفاده آسان در عمل.
30,624
We develop a penalized two-pass regression with time-varying factor loadings. The penalization in the first pass enforces sparsity for the time-variation drivers while also maintaining compatibility with the no-arbitrage restrictions by regularizing appropriate groups of coefficients. The second pass delivers risk premia estimates to predict equity excess returns. Our Monte Carlo results and our empirical results on a large cross-sectional data set of US individual stocks show that penalization without grouping can yield to nearly all estimated time-varying models violating the no-arbitrage restrictions. Moreover, our results demonstrate that the proposed method reduces the prediction errors compared to a penalized approach without appropriate grouping or a time-invariant factor model.
ما با بارگذاری فاکتور متغیر زمان ، یک رگرسیون دو پاس مجازات ایجاد می کنیم. مجازات در پاس اول ، پراکندگی را برای متغیر زمانی تقویت می کند رانندگان ضمن حفظ سازگاری با محدودیت های بدون آربیتراژ با تنظیم گروه های مناسب از ضرایب.پاس دوم ارائه می دهد تخمین حق ریسک برای پیش بینی بازده اضافی سهام.نتایج مونت کارلو ما و نتایج تجربی ما در یک مجموعه داده های مقطعی بزرگ از فرد ما سهام نشان می دهد که مجازات بدون گروه بندی می تواند تقریباً به همه منجر شود مدلهای متغیر زمانی تخمین زده می شود که محدودیت های بدون آربیتراژ را نقض می کند. علاوه بر این ، نتایج ما نشان می دهد که روش پیشنهادی کاهش می یابد خطاهای پیش بینی در مقایسه با یک رویکرد مجازات بدون گروه بندی مناسب یا یک مدل فاکتور متغیر زمان.
30,630
Conducting causal inference with panel data is a core challenge in social science research. We adapt a deep neural architecture for time series forecasting (the N-BEATS algorithm) to more accurately predict the counterfactual evolution of a treated unit had treatment not occurred. Across a range of settings, the resulting estimator ("SyNBEATS") significantly outperforms commonly employed methods (synthetic controls, two-way fixed effects), and attains comparable or more accurate performance compared to recently proposed methods (synthetic difference-in-differences, matrix completion). Our results highlight how advances in the forecasting literature can be harnessed to improve causal inference in panel data settings.
انجام استنتاج علی با داده های پانل یک چالش اساسی در اجتماعی است تحقیقات علمی.ما یک معماری عصبی عمیق را برای سریال های زمانی تطبیق می دهیم پیش بینی (الگوریتم N-Beats) برای پیش بینی دقیق تر تکامل ضد عملی یک واحد تحت درمان با درمان رخ نداد.در سراسر دامنه تنظیمات ، برآوردگر حاصل ("synbeats") به طور قابل توجهی از روشهای متداول استفاده می شود (کنترل های مصنوعی ، دو طرفه ثابت است اثرات) ، و عملکرد قابل مقایسه یا دقیق تری در مقایسه با روشهای پیشنهادی اخیراً (تفاوت مصنوعی در تمایز ، ماتریس تکمیل).نتایج ما نشان می دهد که چگونه پیشرفت در ادبیات پیش بینی می توان برای بهبود استنتاج علی در تنظیمات داده های پانل ، مهار کرد.
30,625
We revisit the problem of estimating the local average treatment effect (LATE) and the local average treatment effect on the treated (LATT) when control variables are available, either to render the instrumental variable (IV) suitably exogenous or to improve precision. Unlike previous approaches, our doubly robust (DR) estimation procedures use quasi-likelihood methods weighted by the inverse of the IV propensity score - so-called inverse probability weighted regression adjustment (IPWRA) estimators. By properly choosing models for the propensity score and outcome models, fitted values are ensured to be in the logical range determined by the response variable, producing DR estimators of LATE and LATT with appealing small sample properties. Inference is relatively straightforward both analytically and using the nonparametric bootstrap. Our DR LATE and DR LATT estimators work well in simulations. We also propose a DR version of the Hausman test that can be used to assess the unconfoundedness assumption through a comparison of different estimates of the average treatment effect on the treated (ATT) under one-sided noncompliance. Unlike the usual test that compares OLS and IV estimates, this procedure is robust to treatment effect heterogeneity.
ما دوباره مشکل تخمین اثر متوسط ​​درمانی محلی را بررسی می کنیم (دیر) و میانگین اثر درمانی موضعی بر روی درمان شده (LATT) هنگامی که متغیرهای کنترل در دسترس هستند ، یا برای ارائه متغیر ابزاری (IV) به طور مناسب اگزوژن یا برای بهبود دقت.برخلاف رویکردهای قبلی ، روشهای تخمین مضاعف ما (DR) از روشهای شبه احتمال استفاده می کنند وزن معکوس نمره گرایش IV - به اصطلاح معکوس برآوردگرهای تنظیم رگرسیون وزنی (IPWRA) احتمال.به درستی انتخاب مدل ها برای نمره گرایش و مدل های نتیجه ، مقادیر مناسب هستند تضمین شده در محدوده منطقی تعیین شده توسط متغیر پاسخ ، تولید برآوردگرهای DR از اواخر و لات با نمونه کوچک جذاب خواصاستنتاج هم از نظر تحلیلی و هم از نظر تحلیلی نسبتاً ساده است بوت استرپ غیر پارامتری.برآوردگرهای دکتر اواخر و دکتر لت ما به خوبی کار می کنند شبیه سازیما همچنین یک نسخه DR از تست Hausman را پیشنهاد می کنیم که می توان از آن استفاده کرد برای ارزیابی فرض عدم تحقیر از طریق مقایسه متفاوت برآورد میانگین اثر درمانی در تحت یک طرفه تحت درمان (ATT) عدم انطباق.بر خلاف آزمایش معمول که برآوردهای OLS و IV را مقایسه می کند ، این روش برای ناهمگونی اثر درمانی قوی است.
30,626
This paper is concerned with the findings related to the robust first-stage F-statistic in the Monte Carlo analysis of Andrews (2018), who found in a heteroskedastic grouped-data design that even for very large values of the robust F-statistic, the standard 2SLS confidence intervals had large coverage distortions. This finding appears to discredit the robust F-statistic as a test for underidentification. However, it is shown here that large values of the robust F-statistic do imply that there is first-stage information, but this may not be utilized well by the 2SLS estimator, or the standard GMM estimator. An estimator that corrects for this is a robust GMM estimator, denoted GMMf, with the robust weight matrix not based on the structural residuals, but on the first-stage residuals. For the grouped-data setting of Andrews (2018), this GMMf estimator gives the weights to the group specific estimators according to the group specific concentration parameters in the same way as 2SLS does under homoskedasticity, which is formally shown using weak instrument asymptotics. The GMMf estimator is much better behaved than the 2SLS estimator in the Andrews (2018) design, behaving well in terms of relative bias and Wald-test size distortion at more standard values of the robust F-statistic. We show that the same patterns can occur in a dynamic panel data model when the error variance is heteroskedastic over time. We further derive the conditions under which the Stock and Yogo (2005) weak instruments critical values apply to the robust F-statistic in relation to the behaviour of the GMMf estimator.
این مقاله مربوط به یافته های مربوط به مرحله اول قوی است F-Statistic در آنالیز مونت کارلو از اندروز (2018) ، که در یک طراحی داده های گروه بندی شده Heteroskedastic که حتی برای مقادیر بسیار بزرگ از فواصل اطمینان 2SLS استاندارد 2SLS دارای پوشش بزرگی بود تحریفبه نظر می رسد این یافته به عنوان یک آزمون ، استاتیک قوی F را بی اعتبار می کند برای شناساییبا این حال ، در اینجا نشان داده شده است که مقادیر بزرگ قوی F-Statistic دلالت بر این دارد که اطلاعات مرحله اول وجود دارد ، اما این ممکن است توسط برآوردگر 2SLS یا برآوردگر استاندارد GMM به خوبی مورد استفاده قرار نمی گیرد.در برآوردگر که برای این کار تصحیح می کند ، یک برآوردگر قوی GMM است ، GMMF ، با ماتریس وزن قوی نه بر اساس باقیمانده های ساختاری بلکه در باقیمانده های مرحله اول.برای تنظیم داده های گروه بندی شده اندروز (2018) ، این برآوردگر GMMF با توجه به برآوردگرهای خاص گروه می دهد پارامترهای غلظت خاص گروه به همان روش 2SLS تحت homoskedasticity ، که به طور رسمی با استفاده از بدون علامت ابزار ضعیف نشان داده می شود. برآوردگر GMMF بسیار بهتر از برآوردگر 2SLS در اندروز (2018) طراحی ، از نظر تعصب نسبی و آزمون والد رفتار خوبی داشت اعوجاج اندازه در مقادیر استاندارد تر F-Statistic قوی.ما نشان می دهیم که در هنگام خطا ، همین الگوهای در یک مدل داده پانل پویا ممکن است رخ دهد واریانس با گذشت زمان ناهمگن است.ما بیشتر شرایط را به دست می آوریم که سهام و یوگو (2005) مقادیر بحرانی ابزارهای ضعیف برای F-Statistic قوی در رابطه با رفتار برآوردگر GMMF.
30,627
We consider bootstrap inference for estimators which are (asymptotically) biased. We show that, even when the bias term cannot be consistently estimated, valid inference can be obtained by proper implementations of the bootstrap. Specifically, we show that the prepivoting approach of Beran (1987, 1988), originally proposed to deliver higher-order refinements, restores bootstrap validity by transforming the original bootstrap p-value into an asymptotically uniform random variable. We propose two different implementations of prepivoting (plug-in and double bootstrap), and provide general high-level conditions that imply validity of bootstrap inference. To illustrate the practical relevance and implementation of our results, we discuss five examples: (i) inference on a target parameter based on model averaging; (ii) ridge-type regularized estimators; (iii) nonparametric regression; (iv) a location model for infinite variance data; and (v) dynamic panel data models.
ما استنتاج bootstrap را برای برآوردگرها در نظر می گیریم (به صورت بدون علامت) جانبدارانه.ما نشان می دهیم که ، حتی اگر اصطلاح تعصب به طور مداوم تخمین زده شود ، استنتاج معتبر را می توان با اجرای مناسب بوت استرپ بدست آورد. به طور خاص ، ما نشان می دهیم که رویکرد مقدماتی بران (1987 ، 1988) ، در ابتدا برای ارائه اصلاحات مرتبه بالاتر پیشنهاد شده است ، bootstrap را بازیابی می کند اعتبار با تبدیل مقدار اصلی بوت استرپ به صورت بدون علامت متغیر تصادفی یکنواخت.ما دو پیاده سازی متفاوت از Prepivoting (پلاگین و بوت استرپ) ، و سطح بالایی را فراهم می کند شرایطی که حاکی از اعتبار استنباط بوت استرپ است.برای نشان دادن ارتباط عملی و اجرای نتایج ما ، ما در مورد پنج مورد بحث می کنیم مثالها: (i) استنباط در یک پارامتر هدف بر اساس میانگین مدل.(ب) برآوردگرهای منظم از نوع خط الراس ؛(iii) رگرسیون غیر پارامتری ؛(IV) الف مدل موقعیت مکانی برای داده های واریانس نامحدود ؛و (v) مدل های داده پانل پویا.
30,628
Decision-making often involves ranking and selection. For example, to assemble a team of political forecasters, we might begin by narrowing our choice set to the candidates we are confident rank among the top 10% in forecasting ability. Unfortunately, we do not know each candidate's true ability but observe a noisy estimate of it. This paper develops new Bayesian algorithms to rank and select candidates based on noisy estimates. Using simulations based on empirical data, we show that our algorithms often outperform frequentist ranking and selection algorithms. Our Bayesian ranking algorithms yield shorter rank confidence intervals while maintaining approximately correct coverage. Our Bayesian selection algorithms select more candidates while maintaining correct error rates. We apply our ranking and selection procedures to field experiments, economic mobility, forecasting, and similar problems. Finally, we implement our ranking and selection techniques in a user-friendly Python package documented here: https://dsbowen-conditional-inference.readthedocs.io/en/latest/.
تصمیم گیری اغلب شامل رتبه بندی و انتخاب است.به عنوان مثال ، به تیمی از پیش بینی کنندگان سیاسی را جمع کنید ، ممکن است با تنگ کردن خود شروع کنیم انتخاب برای نامزدها ما اطمینان داریم که در بین 10 ٪ برتر در رتبه بندی قرار داریم توانایی پیش بینیمتأسفانه ، ما واقعی هر نامزد را نمی دانیم توانایی اما تخمین پر سر و صدا از آن را مشاهده کنید.این مقاله بیزی جدید را توسعه می دهد الگوریتم ها برای رتبه بندی و انتخاب نامزدها بر اساس تخمین های پر سر و صدا.استفاده كردن شبیه سازی های مبتنی بر داده های تجربی ، ما نشان می دهیم که الگوریتم های ما اغلب از الگوریتم های رتبه بندی و انتخاب مکرر ، بهتر عمل کنید.رتبه بندی بیزی ما الگوریتم ها در حالی که حفظ می کنند ، فواصل اعتماد به نفس کمتری دارند پوشش تقریباً صحیح.الگوریتم های انتخاب بیزی ما بیشتر را انتخاب کنید داوطلبان ضمن حفظ نرخ خطای صحیح.ما رتبه بندی خود را اعمال می کنیم و روشهای انتخاب برای آزمایش های میدانی ، تحرک اقتصادی ، پیش بینی و مشکلات مشابهسرانجام ، ما تکنیک های رتبه بندی و انتخاب خود را در اجرا می کنیم یک بسته پایتون کاربر پسند که در اینجا مستند شده است: https://dsbowen-conditionation-inference.readthedocs.io/en/latest/.
30,629
We establish new results for estimation and inference in financial durations models, where events are observed over a given time span, such as a trading day, or a week. For the classical autoregressive conditional duration (ACD) models by Engle and Russell (1998, Econometrica 66, 1127-1162), we show that the large sample behavior of likelihood estimators is highly sensitive to the tail behavior of the financial durations. In particular, even under stationarity, asymptotic normality breaks down for tail indices smaller than one or, equivalently, when the clustering behaviour of the observed events is such that the unconditional distribution of the durations has no finite mean. Instead, we find that estimators are mixed Gaussian and have non-standard rates of convergence. The results are based on exploiting the crucial fact that for duration data the number of observations within any given time span is random. Our results apply to general econometric models where the number of observed events is random.
ما نتایج جدیدی را برای برآورد و استنباط در مدت زمان مالی ایجاد می کنیم مدل ها ، جایی که وقایع در طول مدت زمان مشخص مانند تجارت مشاهده می شوند روز یا یک هفتهبرای مدت زمان مشروط اتوگرافی کلاسیک (ACD) مدل های Engle and Russell (1998 ، Econometrica 66 ، 1127-1162) ، ما این را نشان می دهیم رفتار نمونه بزرگ برآوردگرهای احتمال بسیار حساس به رفتار دم مدت زمان مالی.به طور خاص ، حتی زیر ثابت بودن ، نرمال بودن بدون علامت برای شاخص های دم کوچکتر تجزیه می شود یک یا معادل آن ، هنگامی که رفتار خوشه بندی وقایع مشاهده شده است به گونه ای که توزیع بی قید و شرط مدت زمان ، میانگین محدودی ندارد. در عوض ، ما می دانیم که برآوردگرها گاوسی مختلط هستند و نرخ غیر استاندارد دارند همگرایینتایج مبتنی بر بهره برداری از واقعیت اساسی است که برای داده های مدت زمان تعداد مشاهدات در هر بازه زمانی معین تصادفی است. نتایج ما در مورد مدلهای اقتصاد سنجی عمومی که تعداد مشاهده شده است اعمال می شود وقایع تصادفی است.
30,666
We offer retrospective and prospective assessments of the Diebold-Yilmaz connectedness research program, combined with personal recollections of its development. Its centerpiece in many respects is Diebold and Yilmaz (2014), around which our discussion is organized.
ما ارزیابی های گذشته نگر و آینده نگر از Diebold-Yilmaz را ارائه می دهیم برنامه تحقیقاتی اتصال ، همراه با یادآوری های شخصی آن توسعه.محور آن از بسیاری جهات Diebold و Yilmaz (2014) است. بحث ما در مورد ما سازمان یافته است.
30,631
Nowadays, patenting activities are essential in converting applied science to technology in the prevailing innovation model. To gain strategic advantages in the technological competitions between regions, nations need to leverage the investments of public and private funds to diversify over all technologies or specialize in a small number of technologies. In this paper, we investigated who the leaders are at the regional and assignee levels, how they attained their leadership positions, and whether they adopted diversification or specialization strategies, using a dataset of 176,193 patent records on graphene between 1986 and 2017 downloaded from Derwent Innovation. By applying a co-clustering method to the IPC subclasses in the patents and using a z-score method to extract keywords from their titles and abstracts, we identified seven graphene technology areas emerging in the sequence synthesis - composites - sensors - devices - catalyst - batteries - water treatment. We then examined the top regions in their investment preferences and their changes in rankings over time and found that they invested in all seven technology areas. In contrast, at the assignee level, some were diversified while others were specialized. We found that large entities diversified their portfolios across multiple technology areas, while small entities specialized around their core competencies. In addition, we found that universities had higher entropy values than corporations on average, leading us to the hypothesis that corporations file, buy, or sell patents to enable product development. In contrast, universities focus only on licensing their patents. We validated this hypothesis through an aggregate analysis of reassignment and licensing and a more detailed analysis of three case studies - SAMSUNG, RICE UNIVERSITY, and DYSON.
امروزه ، فعالیت های ثبت اختراع در تبدیل علم کاربردی به فناوری در مدل نوآوری غالب.برای به دست آوردن مزایای استراتژیک در مسابقات فناوری بین مناطق ، ملل باید از این امر استفاده کنند سرمایه گذاری صندوق های دولتی و خصوصی برای متنوع سازی در تمام فناوری ها یا در تعداد کمی از فناوری ها تخصص داشته باشید.در این مقاله ، ما بررسی کردیم چه کسی رهبران در سطح منطقه ای و انتصاب هستند ، چگونه آنها به دست آوردند مواضع رهبری آنها ، و اینکه آیا آنها تنوع را اتخاذ کرده اند یا استراتژی های تخصصی ، با استفاده از مجموعه داده 176193 ثبت اختراع ثبت شده در گرافن بین سالهای 1986 و 2017 از Derwent Innovation بارگیری شده است.با استفاده از یک روش خوشه بندی به زیر کلاسهای IPC در ثبت اختراعات و با استفاده از یک نمره Z روش استخراج کلمات کلیدی از عناوین و خلاصه های آنها ، هفت شناسایی کردیم مناطق فناوری گرافن که در سنتز دنباله ظاهر می شوند - کامپوزیت ها - سنسورها - دستگاه ها - کاتالیزور - باتری - تصفیه آب.سپس بررسی کردیم مناطق برتر در ترجیحات سرمایه گذاری و تغییرات آنها در رتبه بندی ها با گذشت زمان و دریافتند که آنها در هر هفت زمینه فناوری سرمایه گذاری کرده اند.که در تضاد ، در سطح انتساب ، برخی متنوع بودند و برخی دیگر بودند تخصصیما دریافتیم که نهادهای بزرگ اوراق بهادار خود را در سراسر متنوع می کنند مناطق چند فناوری ، در حالی که نهادهای کوچک در اطراف هسته خود تخصص داشتند شایستگی هاعلاوه بر این ، ما دریافتیم که دانشگاه ها مقادیر آنتروپی بالاتری دارند به طور متوسط ​​از شرکت ها ، ما را به این فرضیه که شرکت ها پرونده ، خرید یا فروش حق ثبت اختراع را برای فعال کردن توسعه محصول.متقابلا، دانشگاه ها فقط روی صدور مجوز ثبت اختراعات خود تمرکز می کنند.ما این را تأیید کردیم فرضیه از طریق تجزیه و تحلیل کل از انتصاب مجدد و مجوز و الف تجزیه و تحلیل دقیق تر از سه مطالعه موردی - سامسونگ ، دانشگاه رایس ، و Dyson
30,632
Historically, testing if decision-makers obey certain choice axioms using choice data takes two distinct approaches. The 'functional' approach observes and tests the entire 'demand' or 'choice' function, whereas the 'revealed preference(RP)' approach constructs inequalities to test finite choices. I demonstrate that a statistical recasting of the revealed enables uniting both approaches. Specifically, I construct a computationally efficient algorithm to output one-sided statistical tests of choice data from functional characterizations of axiomatic behavior, thus linking statistical and RP testing. An application to weakly separable preferences, where RP characterizations are provably NP-Hard, demonstrates the approach's merit. I also show that without assuming monotonicity, all restrictions disappear. Hence, any ability to resolve axiomatic behavior relies on the monotonicity assumption.
از نظر تاریخی ، آزمایش اگر تصمیم گیرندگان از بدیهیات انتخاب خاصی استفاده کنند داده های انتخاب دو رویکرد متمایز است.رویکرد "عملکردی" مشاهده می کند و کل عملکرد "تقاضا" یا "انتخاب" را آزمایش می کند ، در حالی که "آشکار شد رویکرد اولویت (RP) نابرابری ها را برای آزمایش انتخاب های محدود ایجاد می کند.من نشان می دهد که تجدید نظر آماری از آشکار شده باعث می شود که هر دو متحد شوند رویکردبه طور خاص ، من یک الگوریتم محاسباتی کارآمد را ایجاد می کنم آزمایشات آماری یک طرفه داده های انتخابی از عملکردی خصوصیات رفتار بدیهی ، بنابراین پیوند آماری و RP آزمایش کردن.برنامه ای برای تنظیمات پایین قابل جدا شدن ، جایی که RP خصوصیات به طور قابل توجهی NP-HARD هستند ، شایستگی این رویکرد را نشان می دهد.من همچنین نشان می دهد که بدون فرض یکنواختی ، همه محدودیت ها از بین می روند. از این رو ، هر توانایی برای حل رفتار بدیهی به یکنواختی متکی است فرض.
30,633
In a linear instrumental variables (IV) setting for estimating the causal effects of multiple confounded exposure/treatment variables on an outcome, we investigate the adaptive Lasso method for selecting valid instrumental variables from a set of available instruments that may contain invalid ones. An instrument is invalid if it fails the exclusion conditions and enters the model as an explanatory variable. We extend the results as developed in Windmeijer et al. (2019) for the single exposure model to the multiple exposures case. In particular we propose a median-of-medians estimator and show that the conditions on the minimum number of valid instruments under which this estimator is consistent for the causal effects are only moderately stronger than the simple majority rule that applies to the median estimator for the single exposure case. The adaptive Lasso method which uses the initial median-of-medians estimator for the penalty weights achieves consistent selection with oracle properties of the resulting IV estimator. This is confirmed by some Monte Carlo simulation results. We apply the method to estimate the causal effects of educational attainment and cognitive ability on body mass index (BMI) in a Mendelian Randomization setting.
در یک تنظیم متغیرهای ابزاری خطی (IV) برای برآورد علت اثرات متغیرهای متعدد قرار گرفتن در معرض/درمان در نتیجه ، ما برای انتخاب ابزارهای معتبر ، روش لاسو تطبیقی ​​را بررسی کنید متغیرهای مجموعه ای از ابزارهای موجود که ممکن است حاوی موارد نامعتبر باشند.در در صورت عدم موفقیت شرایط محرومیت ، ابزار نامعتبر است و وارد مدل می شود به عنوان یک متغیر توضیحی.ما نتایج را در Windmeijer ET گسترش می دهیم هم(2019) برای مدل قرار گرفتن در معرض واحد در مورد چند مورد قرار گرفتن در معرض.که در ما به طور خاص ما یک برآوردگر متوسط ​​از داروها را پیشنهاد می کنیم و نشان می دهیم که شرایط حداقل تعداد ابزارهای معتبر که در آن قرار دارند برآوردگر برای اثرات علی فقط نسبتاً قوی تر است از قانون اکثریت ساده که در مورد برآوردگر متوسط ​​برای مورد قرار گرفتن در معرض منفرد.روش لاسو تطبیقی ​​که از اولیه استفاده می کند برآوردگر متوسط ​​از مدرک برای وزنهای پنالتی به هم پیوسته است انتخاب با خصوصیات اوراکل برآوردگر IV حاصل.این هست تأیید شده توسط برخی از نتایج شبیه سازی مونت کارلو.ما این روش را به کار می گیریم تأثیرات علّی دستیابی به تحصیلات و توانایی شناختی بر روی آن را تخمین بزنید شاخص توده بدنی (BMI) در یک تنظیم تصادفی مندلی.
30,634
One challenge in the estimation of financial market agent-based models (FABMs) is to infer reliable insights using numerical simulations validated by only a single observed time series. Ergodicity (besides stationarity) is a strong precondition for any estimation, however it has not been systematically explored and is often simply presumed. For finite-sample lengths and limited computational resources empirical estimation always takes place in pre-asymptopia. Thus broken ergodicity must be considered the rule, but it remains largely unclear how to deal with the remaining uncertainty in non-ergodic observables. Here we show how an understanding of the ergodic properties of moment functions can help to improve the estimation of (F)ABMs. We run Monte Carlo experiments and study the convergence behaviour of moment functions of two prototype models. We find infeasibly-long convergence times for most. Choosing an efficient mix of ensemble size and simulated time length guided our estimation and might help in general.
یک چالش در تخمین مدل های مبتنی بر عامل بازار مالی (fabms) برای استنباط بینش قابل اعتماد با استفاده از شبیه سازی های عددی تأیید شده توسط فقط یک سری زمانی مشاهده شده.ergodicity (علاوه بر استیکاریت) یک است پیش شرط قوی برای هر تخمین ، با این حال به طور سیستماتیک نبوده است کاوش شده و اغلب به سادگی فرض می شود.برای طول نمونه محدود و محدود منابع محاسباتی برآورد تجربی همیشه در قبل از asymptopia.بنابراین ارگوسیت شکسته باید این قانون در نظر گرفته شود ، اما این تا حد زیادی مشخص نیست که چگونه می توان با عدم اطمینان باقی مانده در آن مقابله کرد مشاهدات غیر ارگودیک.در اینجا ما نشان می دهیم که چگونه درک ارگودیک خواص توابع لحظه ای می تواند به بهبود تخمین (F) ABMS کمک کند. ما آزمایش های مونت کارلو را انجام می دهیم و رفتار همگرایی لحظه را مطالعه می کنیم توابع دو مدل نمونه اولیه.ما زمان همگرایی طولانی مدت را پیدا می کنیم برای اکثر.انتخاب ترکیبی کارآمد از اندازه گروه و طول زمان شبیه سازی شده تخمین ما را راهنمایی کرده و به طور کلی ممکن است کمک کند.
30,635
This paper introduces a matrix quantile factor model for matrix-valued data with a low-rank structure. We estimate the row and column factor spaces via minimizing the empirical check loss function over all panels. We show the estimates converge at rate $1/\min\{\sqrt{p_1p_2}, \sqrt{p_2T},$ $\sqrt{p_1T}\}$ in average Frobenius norm, where $p_1$, $p_2$ and $T$ are the row dimensionality, column dimensionality and length of the matrix sequence. This rate is faster than that of the quantile estimates via ``flattening" the matrix model into a large vector model. Smoothed estimates are given and their central limit theorems are derived under some mild condition. We provide three consistent criteria to determine the pair of row and column factor numbers. Extensive simulation studies and an empirical study justify our theory.
در این مقاله یک مدل فاکتور کمیت ماتریس برای داده های با ارزش ماتریس معرفی شده است با ساختار کم درجه.ما فضاهای عامل ردیف و ستون را از طریق تخمین می زنیم به حداقل رساندن عملکرد از دست دادن بررسی تجربی در تمام پانل ها.ما نشان می دهیم تخمین ها با نرخ 1 $ 1/\ min \ {\ sqrt {p_1p_2} ، \ sqrt {p_2t} ، $ $ \ sqrt {p_1t} \} $ به طور متوسط ​​هنجار frobenius ، جایی که $ p_1 $ ، $ p_2 $ و $ t $ هستند ابعاد ردیف ، ابعاد ستون و طول دنباله ماتریس. این نرخ سریعتر از تخمین های کمی از طریق "صاف کردن" است مدل ماتریس به یک مدل بردار بزرگ.برآوردهای صاف و آنها داده می شود و آنها قضیه های محدودیت مرکزی در شرایط خفیف به دست می آیند.ما سه ارائه می دهیم معیارهای مداوم برای تعیین جفت شماره های ردیف و ستون. مطالعات شبیه سازی گسترده و یک مطالعه تجربی نظریه ما را توجیه می کند.
30,636
pystacked implements stacked generalization (Wolpert, 1992) for regression and binary classification via Python's scikit-learn. Stacking combines multiple supervised machine learners -- the "base" or "level-0" learners -- into a single learner. The currently supported base learners include regularized regression, random forest, gradient boosted trees, support vector machines, and feed-forward neural nets (multi-layer perceptron). pystacked can also be used with as a `regular' machine learning program to fit a single base learner and, thus, provides an easy-to-use API for scikit-learn's machine learning algorithms.
Pystacked Loccements تعمیم انباشته شده (Wolpert ، 1992) برای رگرسیون و طبقه بندی باینری از طریق Python's Scikit-Learn.انباشت چندین ترکیب زبان آموزان تحت نظارت-زبان آموزان "پایه" یا "سطح 0"- یادگیرنده مجرد.زبان آموزان پایه پشتیبانی شده در حال حاضر شامل منظم هستند رگرسیون ، جنگل تصادفی ، درختان تقویت شده گرادیان ، دستگاه های بردار پشتیبانی ، و شبکه های عصبی به جلو (Perceptron چند لایه).همچنین می توان از Pystacked استفاده کرد با به عنوان یک برنامه یادگیری ماشین "معمولی" متناسب با یک یادگیرنده پایه و ، بنابراین ، یک API آسان برای یادگیری ماشین Scikit-Learn فراهم می کند الگوریتم ها.
30,637
Large Bayesian vector autoregressions with various forms of stochastic volatility have become increasingly popular in empirical macroeconomics. One main difficulty for practitioners is to choose the most suitable stochastic volatility specification for their particular application. We develop Bayesian model comparison methods -- based on marginal likelihood estimators that combine conditional Monte Carlo and adaptive importance sampling -- to choose among a variety of stochastic volatility specifications. The proposed methods can also be used to select an appropriate shrinkage prior on the VAR coefficients, which is a critical component for avoiding over-fitting in high-dimensional settings. Using US quarterly data of different dimensions, we find that both the Cholesky stochastic volatility and factor stochastic volatility outperform the common stochastic volatility specification. Their superior performance, however, can mostly be attributed to the more flexible priors that accommodate cross-variable shrinkage.
اتورژهای بزرگ بردار بیزی با اشکال مختلف تصادفی نوسانات در اقتصاد کلان تجربی به طور فزاینده ای محبوب شده است.یکی مشکل اصلی برای پزشکان انتخاب مناسب ترین تصادفی است مشخصات نوسانات برای کاربرد خاص آنها.ما بیزی را توسعه می دهیم روش مقایسه مدل - بر اساس برآوردگرهای احتمال حاشیه ای که ترکیب مونت کارلو مشروط و نمونه گیری از اهمیت تطبیقی ​​- برای انتخاب در میان انواع مشخصات نوسانات تصادفی.روشهای پیشنهادی همچنین می تواند برای انتخاب یک انقباض مناسب قبل از var استفاده شود ضرایب ، که یک مؤلفه مهم برای جلوگیری از تناسب بیش از حد است تنظیمات با ابعاد بالا.ما با استفاده از داده های سه ماهه با ابعاد مختلف ، ما دریابید که هم نوسانات تصادفی cholesky و هم فاکتور تصادفی نوسانات از مشخصات نوسانات تصادفی متداول بهتر عمل می کند.آنها با این حال ، عملکرد برتر بیشتر می تواند به انعطاف پذیرتر نسبت داده شود مقدماتی که انقباض متقاطع را در خود جای می دهند.
30,638
The regression discontinuity (RD) design is widely used for program evaluation with observational data. The primary focus of the existing literature has been the estimation of the local average treatment effect at the existing treatment cutoff. In contrast, we consider policy learning under the RD design. Because the treatment assignment mechanism is deterministic, learning better treatment cutoffs requires extrapolation. We develop a robust optimization approach to finding optimal treatment cutoffs that improve upon the existing ones. We first decompose the expected utility into point-identifiable and unidentifiable components. We then propose an efficient doubly-robust estimator for the identifiable parts. To account for the unidentifiable components, we leverage the existence of multiple cutoffs that are common under the RD design. Specifically, we assume that the heterogeneity in the conditional expectations of potential outcomes across different groups vary smoothly along the running variable. Under this assumption, we minimize the worst case utility loss relative to the status quo policy. The resulting new treatment cutoffs have a safety guarantee that they will not yield a worse overall outcome than the existing cutoffs. Finally, we establish the asymptotic regret bounds for the learned policy using semi-parametric efficiency theory. We apply the proposed methodology to empirical and simulated data sets.
طرح ناپیوستگی رگرسیون (RD) به طور گسترده ای برای برنامه استفاده می شود ارزیابی با داده های مشاهده ای.تمرکز اصلی موجود ادبیات تخمین اثر متوسط ​​درمان محلی در قطع درمانی موجود.در مقابل ، ما یادگیری سیاست را تحت طراحی RD.از آنجا که مکانیسم واگذاری درمان قطعی است ، یادگیری برش بهتر درمان نیاز به برون یابی دارد.ما یک قوی ایجاد می کنیم رویکرد بهینه سازی برای یافتن برش های بهینه درمان که بهبود می یابد موجودات موجودما ابتدا ابزار مورد انتظار را در آن تجزیه می کنیم مؤلفه های قابل شناسایی و غیرقابل شناسایی.سپس ما یک کارآمد را پیشنهاد می کنیم برآوردگر مضاعف برای قطعات قابل شناسایی.حساب کردن مؤلفه های ناشناخته ، ما از وجود چندین برش استفاده می کنیم که تحت طراحی RD مشترک هستند.به طور خاص ، ما فرض می کنیم که ناهمگونی در انتظارات مشروط از نتایج بالقوه در گروه های مختلف در طول متغیر در حال اجرا هموار متفاوت است.تحت این فرض ، ما به حداقل می رسیم بدترین ضرر از دست دادن ابزار نسبت به خط مشی وضع موجود.نتیجه برش های درمانی جدید ضمانت ایمنی دارند که بدتر نمی شوند نتیجه کلی از برش های موجود.سرانجام ، ما بدون علامت ایجاد می کنیم مرزهای پشیمانی برای سیاست آموخته شده با استفاده از تئوری کارایی نیمه پارامتری. ما روش پیشنهادی را در مجموعه داده های تجربی و شبیه سازی شده اعمال می کنیم.
30,639
The switchback is an experimental design that measures treatment effects by repeatedly turning an intervention on and off for a whole system. Switchback experiments are a robust way to overcome cross-unit spillover effects; however, they are vulnerable to bias from temporal carryovers. In this paper, we consider properties of switchback experiments in Markovian systems that mix at a geometric rate. We find that, in this setting, standard switchback designs suffer considerably from carryover bias: Their estimation error decays as $T^{-1/3}$ in terms of the experiment horizon $T$, whereas in the absence of carryovers a faster rate of $T^{-1/2}$ would have been possible. We also show, however, that judicious use of burn-in periods can considerably improve the situation, and enables errors that decay as $\log(T)^{1/2}T^{-1/2}$. Our formal results are mirrored in an empirical evaluation.
سوئیچ بازپرداخت یک طرح آزمایشی است که اثرات درمانی را توسط آن اندازه گیری می کند بارها و بارها مداخله را برای یک سیستم کامل روشن و خاموش کنید.بازپرداخت آزمایشات یک روش قوی برای غلبه بر اثرات سرریز متقابل است.با این حال، آنها در برابر تعصب از حمل و نقل زمانی آسیب پذیر هستند.در این مقاله ، ما خصوصیات آزمایش های برگشت در سیستم های مارکووی را در نظر بگیرید که در آن مخلوط می شوند نرخ هندسی.ما می دانیم که ، در این تنظیمات ، طرح های سوئیچی استاندارد به طور قابل توجهی از تعصب حمل رنج می برند: خطای تخمین آنها به صورت پوسیده می شود $ t^{-1/3} $ از نظر افق آزمایش $ t $ ، در حالی که در غیاب حمل سریعتر از $ t^{-1/2} $ امکان پذیر بود.ما همچنین نشان می دهیم ، با این حال ، این استفاده معقول از دوره های سوختگی می تواند به طور قابل توجهی بهبود یابد وضعیت ، و خطاهایی را که پوسیدگی به عنوان $ \ log (t)^{1/2} t^{-1/2} $ است ، امکان پذیر می کند.رسمی ما نتایج در یک ارزیابی تجربی آینه می شوند.
30,640
Timely characterizations of risks in economic and financial systems play an essential role in both economic policy and private sector decisions. However, the informational content of low-frequency variables and the results from conditional mean models provide only limited evidence to investigate this problem. We propose a novel mixed-frequency quantile vector autoregression (MF-QVAR) model to address this issue. Inspired by the univariate Bayesian quantile regression literature, the multivariate asymmetric Laplace distribution is exploited under the Bayesian framework to form the likelihood. A data augmentation approach coupled with a precision sampler efficiently estimates the missing low-frequency variables at higher frequencies under the state-space representation. The proposed methods allow us to nowcast conditional quantiles for multiple variables of interest and to derive quantile-related risk measures at high frequency, thus enabling timely policy interventions. The main application of the model is to nowcast conditional quantiles of the US GDP, which is strictly related to the quantification of Value-at-Risk and the Expected Shortfall.
خصوصیات به موقع خطرات در سیستم های اقتصادی و مالی بازی می کند نقش اساسی در سیاست های اقتصادی و تصمیمات بخش خصوصی.با این حال، محتوای اطلاعاتی متغیرهای با فرکانس پایین و نتایج حاصل از مدلهای میانگین مشروط فقط شواهد محدودی برای بررسی این موضوع ارائه می دهند مسئله.ما یک رمان وکتور وکتور کمی با فرکانس مخلوط را پیشنهاد می کنیم (MF-QVAR) مدل برای پرداختن به این مسئله.با الهام از بیزیان تک متغیره ادبیات رگرسیون کمی ، لاپلاس نامتقارن چند متغیره توزیع در زیر چارچوب بیزی مورد سوء استفاده قرار می گیرد تا احتمال وجود داشته باشد. یک رویکرد تقویت داده همراه با یک نمونه گیری دقیق به طور کارآمد متغیرهای با فرکانس پایین از دست رفته را در فرکانس های بالاتر در زیر تخمین می زند نمایندگی دولت فضای.روشهای پیشنهادی به ما امکان می دهد Nowcast مقادیر مشروط برای متغیرهای مختلف مورد علاقه و استخراج اقدامات ریسک مربوط به کمی در فرکانس بالا ، بنابراین سیاست به موقع را قادر می سازد مداخلاتکاربرد اصلی مدل برای Nowcast Condition است مقدار تولید ناخالص داخلی ایالات متحده ، که کاملاً مربوط به کمیت است ارزش در معرض خطر و کمبود مورد انتظار.
30,641
The academic evaluation of the publication record of researchers is relevant for identifying talented candidates for promotion and funding. A key tool for this is the use of the indexes provided by Web of Science and SCOPUS, costly databases that sometimes exceed the possibilities of academic institutions in many parts of the world. We show here how the data in one of the bases can be used to infer the main index of the other one. Methods of data analysis used in Machine Learning allow us to select just a few of the hundreds of variables in a database, which later are used in a panel regression, yielding a good approximation to the main index in the other database. Since the information of SCOPUS can be freely scraped from the Web, this approach allows to infer for free the Impact Factor of publications, the main index used in research assessments around the globe.
ارزیابی دانشگاهی سابقه انتشار محققان مرتبط است برای شناسایی نامزدهای با استعداد برای ارتقاء و بودجه.یک ابزار کلیدی برای این استفاده از فهرست های ارائه شده توسط Web of Science و Scopus ، پرهزینه است پایگاه داده هایی که گاهی اوقات از امکانات موسسات دانشگاهی در بسیاری از نقاط جهان.ما در اینجا نشان می دهیم که چگونه داده ها در یکی از پایه ها می توانند باشند برای استنباط شاخص اصلی دیگری استفاده می شود.روشهای تجزیه و تحلیل داده ها در یادگیری ماشین به ما اجازه می دهد فقط چند مورد از صدها متغیر را در انتخاب کنیم یک پایگاه داده ، که بعداً در یک رگرسیون پانل استفاده می شود ، و یک مورد خوب است تقریب به شاخص اصلی در پایگاه داده دیگر.از آنجا که اطلاعات Scopus را می توان آزادانه از وب جدا کرد ، این روش اجازه می دهد تا استنباط شود عامل تأثیر انتشارات ، شاخص اصلی مورد استفاده در تحقیقات را آزاد کنید ارزیابی در سراسر جهان.
30,642
We propose a method for estimation and inference for bounds for heterogeneous causal effect parameters in general sample selection models where the treatment can affect whether an outcome is observed and no exclusion restrictions are available. The method provides conditional effect bounds as functions of policy relevant pre-treatment variables. It allows for conducting valid statistical inference on the unidentified conditional effects. We use a flexible debiased/double machine learning approach that can accommodate non-linear functional forms and high-dimensional confounders. Easily verifiable high-level conditions for estimation, misspecification robust confidence intervals, and uniform confidence bands are provided as well. Re-analyzing data from a large scale field experiment on Facebook, we find significant depolarization effects of counter-attitudinal news subscription nudges. The effect bounds are highly heterogeneous and suggest strong depolarization effects for moderates, conservatives, and younger users.
ما روشی را برای تخمین و استنباط برای مرزهای ناهمگن پیشنهاد می کنیم پارامترهای اثر علیت در مدلهای انتخاب نمونه عمومی که در آن درمان است می تواند تأثیر بگذارد که آیا نتیجه مشاهده شده است و محدودیت های محرومیت وجود ندارد در دسترس.این روش مرزهای اثر مشروط را به عنوان توابع سیاست ارائه می دهد متغیرهای قبل از درمان.این امکان را برای انجام آماری معتبر فراهم می کند استنباط بر اثرات مشروط ناشناس.ما از انعطاف پذیر استفاده می کنیم رویکرد یادگیری ماشین Debiased/Double که می تواند غیر خطی باشد اشکال کاربردی و مخدوشان با ابعاد بالا.به راحتی سطح بالا قابل اثبات است شرایط تخمین ، فواصل اعتماد به نفس مقاوم در برابر اشتباه ، و باند اعتماد به نفس یکنواخت نیز ارائه می شود.تجزیه و تحلیل مجدد داده ها از یک بزرگ آزمایش میدانی مقیاس در فیس بوک ، ما اثرات دپلاریزاسیون قابل توجهی پیدا می کنیم نوجوانان اشتراک خبرهای ضد همبستگی.مرزهای اثر بسیار زیاد است ناهمگن و اثرات دپلاریزاسیون قوی برای میانه روها ، محافظه کاران و کاربران جوان تر.
30,643
In this paper, we consider testing the martingale difference hypothesis for high-dimensional time series. Our test is built on the sum of squares of the element-wise max-norm of the proposed matrix-valued nonlinear dependence measure at different lags. To conduct the inference, we approximate the null distribution of our test statistic by Gaussian approximation and provide a simulation-based approach to generate critical values. The asymptotic behavior of the test statistic under the alternative is also studied. Our approach is nonparametric as the null hypothesis only assumes the time series concerned is martingale difference without specifying any parametric forms of its conditional moments. As an advantage of Gaussian approximation, our test is robust to the cross-series dependence of unknown magnitude. To the best of our knowledge, this is the first valid test for the martingale difference hypothesis that not only allows for large dimension but also captures nonlinear serial dependence. The practical usefulness of our test is illustrated via simulation and a real data analysis. The test is implemented in a user-friendly R-function.
در این مقاله ، ما آزمایش فرضیه تفاوت مارتینگال را در نظر می گیریم سری زمانی با ابعاد بالا.آزمایش ما بر روی جمع مربع های ساخته شده است حداکثر عناصر حداکثر از وابستگی غیرخطی با ارزش ماتریس پیشنهادی اندازه گیری در تاخیر مختلف.برای انجام استنتاج ، ما تهی را تقریب می دهیم توزیع آمار آزمون ما توسط تقریب گاوسی و ارائه a رویکرد مبتنی بر شبیه سازی برای تولید مقادیر بحرانی.رفتار بدون علامت از آمار آزمون تحت جایگزین نیز مورد بررسی قرار گرفته است.رویکرد ماست غیرپارامتری همانطور که فرضیه تهی فقط فرض می کند سری زمانی مربوطه است تفاوت Martingale بدون مشخص کردن اشکال پارامتری آن لحظات مشروطبه عنوان مزیت تقریب گاوسی ، آزمون ما این است قوی به وابستگی سری متقاطع از بزرگی ناشناخته.به بهترین ما دانش ، این اولین تست معتبر برای تفاوت مارتینگال است فرضیه ای که نه تنها امکان ابعاد بزرگ را فراهم می کند بلکه اسیر غیرخطی می شود وابستگی سریالسودمندی عملی آزمون ما از طریق نشان داده شده است شبیه سازی و تجزیه و تحلیل داده های واقعی.این آزمون در یک کاربر پسند اجرا شده است عملکرد R
30,644
We constructed a frequently updated, near-real-time global power generation dataset: Carbon Monitor-Power since January, 2016 at national levels with near-global coverage and hourly-to-daily time resolution. The data presented here are collected from 37 countries across all continents for eight source groups, including three types of fossil sources (coal, gas, and oil), nuclear energy and four groups of renewable energy sources (solar energy, wind energy, hydro energy and other renewables including biomass, geothermal, etc.). The global near-real-time power dataset shows the dynamics of the global power system, including its hourly, daily, weekly and seasonal patterns as influenced by daily periodical activities, weekends, seasonal cycles, regular and irregular events (i.e., holidays) and extreme events (i.e., the COVID-19 pandemic). The Carbon Monitor-Power dataset reveals that the COVID-19 pandemic caused strong disruptions in some countries (i.e., China and India), leading to a temporary or long-lasting shift to low carbon intensity, while it had only little impact in some other countries (i.e., Australia). This dataset offers a large range of opportunities for power-related scientific research and policy-making.
ما یک تولید برق جهانی که اغلب به روز شده و تقریباً واقعی به روز شده ایم ، ساختیم مجموعه داده ها: قدرت مانیتور کربن از ژانویه سال 2016 در سطح ملی با پوشش نزدیک به گلوبال و وضوح ساعت به روز.داده های ارائه شده در اینجا از 37 کشور در تمام قاره ها برای هشت منبع جمع آوری شده است گروه ها ، از جمله سه نوع منبع فسیلی (زغال سنگ ، گاز و نفت) ، هسته ای انرژی و چهار گروه از منابع انرژی تجدید پذیر (انرژی خورشیدی ، انرژی باد ، انرژی هیدرو و سایر تجدید پذیر از جمله زیست توده ، زمین گرمایی و غیره).در مجموعه داده های قدرت جهانی تقریباً واقعی ، پویایی قدرت جهانی را نشان می دهد سیستم ، از جمله الگوهای ساعتی ، روزانه ، هفتگی و فصلی آن تحت تأثیر با فعالیت های دوره ای روزانه ، آخر هفته ها ، چرخه های فصلی ، منظم و وقایع نامنظم (یعنی تعطیلات) و رویدادهای شدید (یعنی Covid-19 پاندمی).مجموعه داده مانیتور کربن نشان می دهد که همه گیر Covid-19 در برخی از کشورها (یعنی چین و هند) باعث ایجاد اختلال شدید شد و منجر به آن شد یک تغییر موقت یا ماندگار به شدت کم کربن ، در حالی که فقط داشت تأثیر کمی در برخی از کشورهای دیگر (یعنی استرالیا).این مجموعه داده طیف گسترده ای از فرصت ها برای تحقیقات علمی مرتبط با قدرت و سیاست گذاری
30,645
We estimate the causal effect of shared e-scooter services on traffic accidents by exploiting variation in availability of e-scooter services, induced by the staggered rollout across 93 cities in six countries. Police-reported accidents in the average month increased by around 8.2% after shared e-scooters were introduced. For cities with limited cycling infrastructure and where mobility relies heavily on cars, estimated effects are largest. In contrast, no effects are detectable in cities with high bike-lane density. This heterogeneity suggests that public policy can play a crucial role in mitigating accidents related to e-scooters and, more generally, to changes in urban mobility.
ما تأثیر علی خدمات مشترک الکترونیکی در ترافیک را تخمین می زنیم تصادفات با سوء استفاده از تنوع در دسترس بودن خدمات E-Scooter ، ناشی از غلتک مبهم در 93 شهر در شش کشور. تصادفات گزارش شده توسط پلیس در ماه به طور متوسط ​​حدود 8.2 ٪ پس از آن افزایش یافته است اسکوترهای الکترونیکی مشترک معرفی شدند.برای شهرهایی که دارای دوچرخه سواری محدود هستند زیرساخت ها و جایی که تحرک به شدت به اتومبیل ها متکی است ، اثرات تخمین زده شده است بزرگترین.در مقابل ، هیچ اثری در شهرهایی که دارای دوچرخه بالایی هستند قابل تشخیص نیست تراکماین ناهمگونی نشان می دهد که سیاست های عمومی می تواند نقش مهمی ایفا کند در کاهش تصادفات مربوط به اسکوتر الکترونیکی و به طور کلی با تغییرات در تحرک شهری
30,646
The objective of this paper is to identify and analyze the response actions of a set of players embedded in sub-networks in the context of interaction and learning. We characterize strategic network formation as a static game of interactions where players maximize their utility depending on the connections they establish and multiple interdependent actions that permit group-specific parameters of players. It is challenging to apply this type of model to real-life scenarios for two reasons: The computation of the Bayesian Nash Equilibrium is highly demanding and the identification of social influence requires the use of excluded variables that are oftentimes unavailable. Based on the theoretical proposal, we propose a set of simulant equations and discuss the identification of the social interaction effect employing multi-modal network autoregressive.
هدف این مقاله شناسایی و تجزیه و تحلیل اقدامات پاسخ است مجموعه ای از بازیکنان تعبیه شده در زیر شبکه ها در زمینه تعامل و یادگیری.ما شکل گیری شبکه استراتژیک را به عنوان یک بازی استاتیک توصیف می کنیم تعامل که بازیکنان بسته به اتصالات ، ابزار خود را به حداکثر می رسانند آنها اقدامات وابسته به یکدیگر را ایجاد می کنند و به گروه خاص اجازه می دهند پارامترهای بازیکنان.استفاده از این نوع مدل در آن چالش برانگیز است سناریوهای زندگی واقعی به دو دلیل: محاسبه Nash Bayesian تعادل بسیار خواستار و شناسایی نفوذ اجتماعی است نیاز به استفاده از متغیرهای محروم که اغلب در دسترس نیستند.مستقر در مورد پیشنهاد نظری ، ما مجموعه ای از معادلات شبیه سازی را پیشنهاد می کنیم و بحث می کنیم شناسایی اثر تعامل اجتماعی با استفاده از چند ماده شبکه اتورژیک.
30,647
We propose a flexible stochastic block model for multi-layer networks, where layer-specific hidden Markov-chain processes drive the changes in the formation of communities. The changes in block membership of a node in a given layer may be influenced by its own past membership in other layers. This allows for clustering overlap, clustering decoupling, or more complex relationships between layers including settings of unidirectional, or bidirectional, block causality. We cope with the overparameterization issue of a saturated specification by assuming a Multi-Laplacian prior distribution within a Bayesian framework. Data augmentation and Gibbs sampling are used to make the inference problem more tractable. Through simulations, we show that the standard linear models are not able to detect the block causality under the great majority of scenarios. As an application to trade networks, we show that our model provides a unified framework including community detection and Gravity equation. The model is used to study the causality between trade agreements and trade looking at the global topological properties of the networks as opposed to the main existent approaches which focus on local bilateral relationships. We are able to provide new evidence of unidirectional causality from the free trade agreements network to the non-observable trade barriers network structure for 159 countries in the period 1995-2017.
ما یک مدل بلوک تصادفی انعطاف پذیر را برای شبکه های چند لایه پیشنهاد می کنیم ، کجا فرآیندهای زنجیره ای مخفی پنهان مخصوص لایه ، تغییرات در شکل گیری را هدایت می کند جوامعتغییرات در عضویت در یک گره در یک لایه معین ممکن است تحت تأثیر عضویت گذشته خود در لایه های دیگر قرار دارد.این اجازه می دهد همپوشانی خوشه بندی ، جداشدگی خوشه بندی یا روابط پیچیده تر بین لایه ها از جمله تنظیمات یک طرفه یا دو طرفه ، بلوک علیتما با مسئله بیش از حد یک اشباع شده مقابله می کنیم مشخصات با فرض توزیع قبلی چند لاپلاسی در یک چارچوب بیزی.افزایش داده ها و نمونه گیری گیبس برای ساخت مشکل استنتاج قابل ردیابی بیشتر است.از طریق شبیه سازی ها ، ما نشان می دهیم که مدلهای خطی استاندارد قادر به تشخیص علیت بلوک در زیر نیستند اکثریت سناریوها.ما به عنوان یک برنامه برای شبکه های تجاری ، این را نشان می دهیم مدل ما یک چارچوب یکپارچه از جمله تشخیص جامعه و معادله گرانش.این مدل برای مطالعه علیت بین تجارت استفاده می شود توافق ها و تجارت با نگاهی به خصوصیات توپولوژیکی جهانی شبکه ها بر خلاف رویکردهای اصلی موجود که بر محلی متمرکز هستند روابط دو جانبهما قادر به ارائه شواهد جدیدی از یک طرفه هستیم علیت از شبکه توافق نامه تجارت آزاد به تجارت غیر قابل مشاهده ساختار شبکه موانع برای 159 کشور در دوره 1995-2017.
30,648
The global financial crisis and Covid recession have renewed discussion concerning trend-cycle discovery in macroeconomic data, and boosting has recently upgraded the popular HP filter to a modern machine learning device suited to data-rich and rapid computational environments. This paper sheds light on its versatility in trend-cycle determination, explaining in a simple manner both HP filter smoothing and the consistency delivered by boosting for general trend detection. Applied to a universe of time series in FRED databases, boosting outperforms other methods in timely capturing downturns at crises and recoveries that follow. With its wide applicability the boosted HP filter is a useful automated machine learning addition to the macroeconometric toolkit.
بحران مالی جهانی و رکود اقتصادی COVID بحث را تجدید کرده است در مورد کشف چرخه روند در داده های کلان اقتصادی ، و تقویت اخیراً فیلتر محبوب HP را به یک دستگاه یادگیری ماشین مدرن ارتقا داده است مناسب برای محیط های محاسباتی غنی و سریع.این مقاله ریخته می شود روشن بودن تطبیق پذیری آن در تعیین چرخه روند ، توضیح در یک ساده هم صاف کردن فیلتر HP و هم قوام تحویل داده شده با افزایش تشخیص روند عمومی.برای یک سری از سریال های زمانی در فرد اعمال شده است بانکهای اطلاعاتی ، افزایش عملکرد دیگر روشهای دیگر در ضبط به موقع رکود در بحران ها و بازیافت های بعدی.با کاربرد گسترده آن HP Boosted فیلتر یک یادگیری خودکار ماشین مفید است به کلان اقتصاد سنجی ابزار.
30,649
The COVID-19 pandemic dramatically catalyzed the proliferation of e-shopping. The dramatic growth of e-shopping will undoubtedly cause significant impacts on travel demand. As a result, transportation modeller's ability to model e-shopping demand is becoming increasingly important. This study developed models to predict household' weekly home delivery frequencies. We used both classical econometric and machine learning techniques to obtain the best model. It is found that socioeconomic factors such as having an online grocery membership, household members' average age, the percentage of male household members, the number of workers in the household and various land use factors influence home delivery demand. This study also compared the interpretations and performances of the machine learning models and the classical econometric model. Agreement is found in the variable's effects identified through the machine learning and econometric models. However, with similar recall accuracy, the ordered probit model, a classical econometric model, can accurately predict the aggregate distribution of household delivery demand. In contrast, both machine learning models failed to match the observed distribution.
همه گیر COVID-19 به طور چشمگیری در گسترش خرید الکترونیکی کاتالیز کرد. رشد چشمگیر خرید الکترونیکی بدون شک اثرات قابل توجهی در آن ایجاد خواهد کرد تقاضای سفردر نتیجه ، توانایی حمل و نقل Modeller در مدل سازی تقاضای خرید الکترونیکی به طور فزاینده ای اهمیت می یابد.این مطالعه توسعه یافته است مدل هایی برای پیش بینی فرکانس های تحویل هفتگی در خانه.ما از هر دو استفاده کردیم تکنیک های کلاسیک اقتصاد سنجی و یادگیری ماشین برای به دست آوردن بهترین مدل. مشخص شده است که عوامل اقتصادی اقتصادی مانند داشتن مواد غذایی آنلاین عضویت ، میانگین سن اعضای خانواده ، درصد خانواده مرد اعضا ، تعداد کارگران در خانواده و عوامل مختلف کاربری اراضی بر تقاضای تحویل خانه تأثیر می گذارد.این مطالعه همچنین تفسیرها را مقایسه کرد و عملکرد مدل های یادگیری ماشین و اقتصاد سنجی کلاسیک مدل.توافق در اثرات متغیر مشخص شده از طریق یادگیری ماشین و مدلهای اقتصاد سنجی.با این حال ، با دقت فراخوان مشابه ، مدل Probit سفارش داده شده ، یک مدل اقتصاد سنجی کلاسیک ، می تواند به طور دقیق پیش بینی کند توزیع کل تقاضای تحویل خانوار.در مقابل ، هر دو مدل های یادگیری ماشین نتوانستند با توزیع مشاهده شده مطابقت داشته باشند.
30,650
In this paper we revisit some common recommendations regarding the analysis of matched-pair and stratified experimental designs in the presence of attrition. Our main objective is to clarify a number of well-known claims about the practice of dropping pairs with an attrited unit when analyzing matched-pair designs. Contradictory advice appears in the literature about whether or not dropping pairs is beneficial or harmful, and stratifying into larger groups has been recommended as a resolution to the issue. To address these claims, we derive the estimands obtained from the difference-in-means estimator in a matched-pair design both when the observations from pairs with an attrited unit are retained and when they are dropped. We find limited evidence to support the claims that dropping pairs helps recover the average treatment effect, but we find that it may potentially help in recovering a convex weighted average of conditional average treatment effects. We report similar findings for stratified designs when studying the estimands obtained from a regression of outcomes on treatment with and without strata fixed effects.
در این مقاله ما برخی از توصیه های مشترک را در مورد تجزیه و تحلیل بررسی می کنیم طرح های آزمایشی جفت و طبقه بندی شده در حضور جاذبههدف اصلی ما روشن کردن تعدادی از ادعاهای شناخته شده در مورد است عمل رها کردن جفت با یک واحد جذاب هنگام تجزیه و تحلیل طرح های جفت همسان.توصیه های متناقض در ادبیات درباره این که آیا جفت کردن جفت مفید یا مضر است و طبقه بندی می شود و طبقه بندی می شود گروه های بزرگتر به عنوان قطعنامه ای برای موضوع توصیه شده است.آدرس این ادعاها ، ما برآوردهای به دست آمده از اختلاف را به دست می آوریم برآوردگر در یک طراحی جفت همسان هر دو هنگامی که مشاهدات از جفت با یک واحد جاذبه حفظ می شود و هنگامی که آنها از بین می روند.ما محدود می یابیم شواهدی برای حمایت از ادعاها مبنی بر کاهش جفت به بازیابی میانگین اثر درمانی ، اما می فهمیم که به طور بالقوه ممکن است در بازیابی a کمک کند میانگین وزنی محدب اثرات درمانی متوسط ​​مشروط.ما گزارش می دهیم یافته های مشابه برای طرح های طبقه بندی شده هنگام مطالعه برآوردهای به دست آمده از رگرسیون نتایج در مورد درمان با و بدون اقشار ثابت اثرات
30,651
Big data analytics has opened new avenues in economic research, but the challenge of analyzing datasets with tens of millions of observations is substantial. Conventional econometric methods based on extreme estimators require large amounts of computing resources and memory, which are often not readily available. In this paper, we focus on linear quantile regression applied to "ultra-large" datasets, such as U.S. decennial censuses. A fast inference framework is presented, utilizing stochastic subgradient descent (S-subGD) updates. The inference procedure handles cross-sectional data sequentially: (i) updating the parameter estimate with each incoming "new observation", (ii) aggregating it as a $\textit{Polyak-Ruppert}$ average, and (iii) computing a pivotal statistic for inference using only a solution path. The methodology draws from time-series regression to create an asymptotically pivotal statistic through random scaling. Our proposed test statistic is calculated in a fully online fashion and critical values are calculated without resampling. We conduct extensive numerical studies to showcase the computational merits of our proposed inference. For inference problems as large as $(n, d) \sim (10^7, 10^3)$, where $n$ is the sample size and $d$ is the number of regressors, our method generates new insights, surpassing current inference methods in computation. Our method specifically reveals trends in the gender gap in the U.S. college wage premium using millions of observations, while controlling over $10^3$ covariates to mitigate confounding effects.
Big Data Analytics راه های جدیدی را در تحقیقات اقتصادی باز کرده است ، اما چالش تجزیه و تحلیل مجموعه داده ها با ده ها میلیون مشاهده اساسیروشهای اقتصاد سنجی متعارف بر اساس برآوردگرهای شدید به مقادیر زیادی از منابع محاسباتی و حافظه نیاز دارید ، که اغلب نیستند به راحتی در دسترس استدر این مقاله ، ما روی رگرسیون کمی خطی تمرکز می کنیم در مجموعه داده های "فوق العاده بزرگ" مانند سرشماری های تصمیم گیری در ایالات متحده اعمال می شود.روزه چارچوب استنتاج با استفاده از نزول زیر بخش تصادفی ارائه شده است (S-Subgd) به روزرسانی ها.روش استنتاج داده های مقطعی را اداره می کند به طور متوالی: (i) به روزرسانی برآورد پارامتر با هر ورودی "جدید مشاهده "، (ii) جمع آوری آن به عنوان $ \ textit {polyak-ruppert} $ ، و (iii) محاسبه یک آمار محوری برای استنباط با استفاده از تنها یک مسیر راه حل. این روش از رگرسیون سری زمان به دست می آید تا بدون علامت ایجاد شود آمار محوری از طریق مقیاس تصادفی.آمار آزمون پیشنهادی ما است محاسبه شده به صورت کاملاً آنلاین و مقادیر بحرانی بدون محاسبه می شود رزولوشنما مطالعات عددی گسترده ای انجام می دهیم تا به نمایش بگذاریم شایستگی های محاسباتی استنباط پیشنهادی ما.برای مشکلات استنباط به عنوان بزرگ به عنوان $ (n ، d) \ sim (10^7 ، 10^3) ​​$ ، جایی که $ n $ اندازه نمونه و $ d $ است تعداد رگرسیونرها ، روش ما بینش جدیدی ایجاد می کند و از جریان فراتر می رود روشهای استنتاج در محاسبه.روش ما به طور خاص روند در شکاف جنسیتی در کالج ایالات متحده با استفاده از میلیون ها مشاهده ، حق بیمه دستمزد کالج ایالات متحده در حالی که بیش از 10 دلار^3 $ متغیر برای کاهش اثرات مخدوش کنترل می کند.
30,652
Statistical inference under market equilibrium effects has attracted increasing attention recently. In this paper we focus on the specific case of linear Fisher markets. They have been widely use in fair resource allocation of food/blood donations and budget management in large-scale Internet ad auctions. In resource allocation, it is crucial to quantify the variability of the resource received by the agents (such as blood banks and food banks) in addition to fairness and efficiency properties of the systems. For ad auction markets, it is important to establish statistical properties of the platform's revenues in addition to their expected values. To this end, we propose a statistical framework based on the concept of infinite-dimensional Fisher markets. In our framework, we observe a market formed by a finite number of items sampled from an underlying distribution (the "observed market") and aim to infer several important equilibrium quantities of the underlying long-run market. These equilibrium quantities include individual utilities, social welfare, and pacing multipliers. Through the lens of sample average approximation (SSA), we derive a collection of statistical results and show that the observed market provides useful statistical information of the long-run market. In other words, the equilibrium quantities of the observed market converge to the true ones of the long-run market with strong statistical guarantees. These include consistency, finite sample bounds, asymptotics, and confidence. As an extension, we discuss revenue inference in quasilinear Fisher markets.
استنباط آماری تحت تأثیر تعادل بازار اخیراً توجه افزایش یافته است.در این مقاله ما به مورد خاص از بازارهای خطی فیشر.آنها به طور گسترده در تخصیص منابع منصفانه استفاده شده اند کمک های غذایی/خون و مدیریت بودجه در حراج های تبلیغاتی در اینترنت در مقیاس بزرگ. در تخصیص منابع ، تعیین کمیت تنوع بسیار مهم است منابع دریافت شده توسط نمایندگان (مانند بانک های خون و بانک های مواد غذایی) در علاوه بر انصاف و خصوصیات کارآیی سیستم ها.برای حراج تبلیغاتی بازارها ، ایجاد خصوصیات آماری از سکو بسیار مهم است درآمدها علاوه بر مقادیر مورد انتظار آنها.برای این منظور ، ما پیشنهاد می کنیم چارچوب آماری مبتنی بر مفهوم فیشر بی نهایت بعدی بازارهادر چارچوب ما ، بازاری را که توسط تعداد محدودی از آنها تشکیل شده است مشاهده می کنیم مواردی که از یک توزیع اساسی ("بازار مشاهده شده") نمونه برداری شده است و هدف برای استنباط چندین مقدار تعادل مهم از طولانی مدت بازار.این مقادیر تعادل شامل خدمات شخصی ، اجتماعی است رفاه ، و ضربان های قدم زدن.از طریق لنز میانگین نمونه تقریب (SSA) ، ما مجموعه ای از نتایج آماری را به دست می آوریم و نشان می دهیم که بازار مشاهده شده اطلاعات آماری مفیدی از بازار بلند مدت.به عبارت دیگر ، مقادیر تعادل مشاهده شده بازار به بازار واقعی بازار بلند مدت با آماری قوی همگرا می شود ضمانتاینها شامل قوام ، مرزهای نمونه محدود ، بدون علامت و اعتماد به نفس.به عنوان یک پسوند ، ما در مورد استنباط درآمد در فیشر شبه خطی بحث می کنیم بازارها
30,653
This paper identifies the probability of causation when there is sample selection. We show that the probability of causation is partially identified for individuals who are always observed regardless of treatment status and derive sharp bounds under three increasingly restrictive sets of assumptions. The first set imposes an exogenous treatment and a monotone sample selection mechanism. To tighten these bounds, the second set also imposes the monotone treatment response assumption, while the third set additionally imposes a stochastic dominance assumption. Finally, we use experimental data from the Colombian job training program J\'ovenes en Acci\'on to empirically illustrate our approach's usefulness. We find that, among always-employed women, at least 18% and at most 24% transitioned to the formal labor market because of the program.
در این مقاله احتمال علت در هنگام نمونه وجود دارد انتخاب.ما نشان می دهیم که احتمال علیت تا حدی مشخص شده است برای افرادی که همیشه بدون در نظر گرفتن وضعیت درمان و مرزهای تیز را زیر سه مجموعه فرضیه به طور فزاینده محدود کنید. مجموعه اول یک درمان برونزا و انتخاب نمونه یکنواخت را تحمیل می کند سازوکار.برای محکم کردن این مرزها ، مجموعه دوم نیز یکنواخت را تحمیل می کند فرض پاسخ درمانی ، در حالی که مجموعه سوم علاوه بر این فرض تسلط تصادفی.سرانجام ، ما از داده های تجربی از برنامه آموزش شغلی کلمبیا j \ 'Onees en acci \' برای نشان دادن تجربی سودمندی رویکرد ماما می دانیم که ، حداقل در بین زنان همیشه شاغل ، 18 ٪ و حداکثر 24 ٪ به دلیل برنامه
30,654
We study the problem of selecting the best $m$ units from a set of $n$ as $m / n \to \alpha \in (0, 1)$, where noisy, heteroskedastic measurements of the units' true values are available and the decision-maker wishes to maximize the average true value of the units selected. Given a parametric prior distribution, the empirical Bayes decision rule incurs $O_p(n^{-1})$ regret relative to the Bayesian oracle that knows the true prior. More generally, if the error in the estimated prior is of order $O_p(r_n)$, regret is $O_p(r_n^2)$. In this sense selecting the best units is easier than estimating their values. We show this regret bound is sharp in the parametric case, by giving an example in which it is attained. Using priors calibrated from a dataset of over four thousand internet experiments, we find that empirical Bayes methods perform well in practice for detecting the best treatments given only a modest number of experiments.
ما مشکل انتخاب بهترین واحدهای $ m $ را از مجموعه $ n $ به عنوان $ m مطالعه می کنیم / n \ to \ alpha \ in (0 ، 1) $ ، که در آن اندازه گیری های پر سر و صدا و ناهمگن مقادیر واقعی واحدها در دسترس هستند و تصمیم گیرنده می خواهد حداکثر رساندن میانگین مقدار واقعی واحدهای انتخاب شده.با توجه به یک پارامتری قبلی توزیع ، قانون تصمیم تجربی Bayes $ O_P (n^{-1}) $ پشیمان است نسبت به اوراکل بیزی که قبلی را می شناسد.به طور کلی ، اگر خطا در تخمین زده شده قبلی از سفارش $ o_p (r_n) $ است ، پشیمانی است $ o_p (r_n^2) $.به این معنا انتخاب بهترین واحدها آسانتر از تخمین است ارزشهای آنهاما نشان می دهیم که این پشیمانی در مورد پارامتری تیز است ، توسط مثالی که در آن حاصل می شود.با استفاده از Priors کالیبره شده از a مجموعه داده بیش از چهار هزار آزمایش اینترنتی ، ما آن تجربی را می یابیم روشهای بیز در عمل برای تشخیص بهترین روشهای درمانی داده شده عملکرد خوبی دارند فقط تعداد متوسط ​​آزمایشات.
30,655
This research aims at building a multivariate statistical model for assessing users' perceptions of acceptance of ride-sharing services in Dhaka City. A structured questionnaire is developed based on the users' reported attitudes and perceived risks. A total of 350 normally distributed responses are collected from ride-sharing service users and stakeholders of Dhaka City. Respondents are interviewed to express their experience and opinions on ride-sharing services through the stated preference questionnaire. Structural Equation Modeling (SEM) is used to validate the research hypotheses. Statistical parameters and several trials are used to choose the best SEM. The responses are also analyzed using the Relative Importance Index (RII) method, validating the chosen SEM. Inside SEM, the quality of ride-sharing services is measured by two latent and eighteen observed variables. The latent variable 'safety & security' is more influential than 'service performance' on the overall quality of service index. Under 'safety & security' the other two variables, i.e., 'account information' and 'personal information' are found to be the most significant that impact the decision to share rides with others. In addition, 'risk of conflict' and 'possibility of accident' are identified using the perception model as the lowest contributing variables. Factor analysis reveals the suitability and reliability of the proposed SEM. Identifying the influential parameters in this will help the service providers understand and improve the quality of ride-sharing service for users.
این تحقیق با هدف ساختن یک مدل آماری چند متغیره برای ارزیابی درک کاربران از پذیرش خدمات به اشتراک گذاری سواری در شهر داکا.آ پرسشنامه ساختاری بر اساس نگرش گزارش شده کاربران تهیه شده است و خطرات درک شدهدر مجموع 350 پاسخ عادی توزیع شده است جمع آوری شده از کاربران خدمات به اشتراک گذاری سواری و ذینفعان شهر داکا. پاسخ دهندگان برای ابراز تجربه و نظرات خود در مورد آنها مصاحبه می شوند خدمات به اشتراک گذاری سوار از طریق پرسشنامه ترجیحی بیان شده.ساختاری از مدل سازی معادله (SEM) برای اعتبارسنجی فرضیه های تحقیق استفاده می شود. پارامترهای آماری و چندین آزمایش برای انتخاب بهترین SEM استفاده می شود.در پاسخ ها همچنین با استفاده از روش شاخص اهمیت نسبی (RII) مورد تجزیه و تحلیل قرار می گیرند ، اعتبار سنجی SEM انتخاب شده.در داخل SEM ، کیفیت خدمات به اشتراک گذاری سواری است اندازه گیری شده توسط دو متغیر پنهان و هجده مشاهده شده.متغیر نهفته "ایمنی و امنیت" تأثیرگذارتر از "عملکرد خدمات" در کیفیت کلی شاخص خدمات.تحت "ایمنی و امنیت" دو نفر دیگر متغیرها ، یعنی "اطلاعات حساب" و "اطلاعات شخصی" یافت می شوند مهمترین تأثیرگذاری بر تصمیم به اشتراک گذاری سواری با دیگران است.که در علاوه بر این ، "خطر درگیری" و "احتمال تصادف" با استفاده از آن مشخص می شود مدل ادراک به عنوان کمترین متغیرهای کمک کننده.تحلیل عاملی مناسب بودن و قابلیت اطمینان SEM پیشنهادی را نشان می دهد.شناسایی پارامترهای تأثیرگذار در این امر به ارائه دهندگان خدمات کمک می کند تا درک کنند و کیفیت خدمات به اشتراک گذاری سواری را برای کاربران بهبود بخشید.
30,656
We consider estimation and inference for a regression coefficient in panels with interactive fixed effects (i.e., with a factor structure). We show that previously developed estimators and confidence intervals (CIs) might be heavily biased and size-distorted when some of the factors are weak. We propose estimators with improved rates of convergence and bias-aware CIs that are uniformly valid regardless of whether the factors are strong or not. Our approach applies the theory of minimax linear estimation to form a debiased estimate using a nuclear norm bound on the error of an initial estimate of the interactive fixed effects. We use the obtained estimate to construct a bias-aware CI taking into account the remaining bias due to weak factors. In Monte Carlo experiments, we find a substantial improvement over conventional approaches when factors are weak, with little cost to estimation error when factors are strong.
ما تخمین و استنباط ضریب رگرسیون را در پانل ها در نظر می گیریم با اثرات ثابت تعاملی (یعنی با ساختار عاملی).ما نشان می دهیم که برآوردگرهای قبلاً توسعه یافته و فواصل اطمینان (CI) ممکن است به شدت باشد هنگامی که برخی از عوامل ضعیف هستند ، مغرضانه و اندازه متجاوز هستند.ما پیشنهاد می کنیم برآوردگرهای با نرخ بهبود همگرایی و CI های آگاهانه تعصب که هستند بدون توجه به اینکه عوامل قوی هستند یا نه ، به طور یکنواخت معتبر هستند.ما رویکرد نظریه تخمین خطی Minimax را برای تشکیل یک debiased اعمال می کند تخمین با استفاده از یک هنجار هسته ای محدود به خطای تخمین اولیه از اثرات ثابت تعاملی.ما از تخمین به دست آمده برای ساخت a استفاده می کنیم تعصب CI با در نظر گرفتن تعصب باقیمانده به دلیل عوامل ضعیف.که در آزمایش های مونت کارلو ، ما پیشرفت قابل توجهی نسبت به معمولی می یابیم رویکردها وقتی عوامل ضعیف هستند ، با هزینه کمی برای خطای تخمین وقتی عوامل قوی هستند.
30,657
This paper presents a fast algorithm for estimating hidden states of Bayesian state space models. The algorithm is a variation of amortized simulation-based inference algorithms, where a large number of artificial datasets are generated at the first stage, and then a flexible model is trained to predict the variables of interest. In contrast to those proposed earlier, the procedure described in this paper makes it possible to train estimators for hidden states by concentrating only on certain characteristics of the marginal posterior distributions and introducing inductive bias. Illustrations using the examples of the stochastic volatility model, nonlinear dynamic stochastic general equilibrium model, and seasonal adjustment procedure with breaks in seasonality show that the algorithm has sufficient accuracy for practical use. Moreover, after pretraining, which takes several hours, finding the posterior distribution for any dataset takes from hundredths to tenths of a second.
در این مقاله یک الگوریتم سریع برای برآورد حالتهای پنهان بیزی ارائه شده است مدل های فضایی حالت.این الگوریتم نوعی از شبیه سازی استهلاک است الگوریتم های استنتاج ، که در آن تعداد زیادی از مجموعه داده های مصنوعی تولید می شوند در مرحله اول ، و سپس یک مدل انعطاف پذیر برای پیش بینی آموزش داده می شود متغیرهای مورد علاقه.برخلاف موارد قبلی ، روش شرح داده شده در این مقاله ، آموزش برآوردگرها برای حالتهای پنهان امکان پذیر است با تمرکز فقط بر روی خصوصیات خاص خلفی حاشیه توزیع و معرفی تعصب القایی.تصاویر با استفاده از مثالها از مدل نوسانات تصادفی ، ژنرال تصادفی غیرخطی پویا مدل تعادل و روش تنظیم فصلی با استراحت در فصلی نشان دهید که الگوریتم از دقت کافی برای استفاده عملی برخوردار است.علاوه بر این، بعد از پیشگویی ، که چندین ساعت طول می کشد ، پیدا کردن خلفی توزیع برای هر مجموعه داده از صدها تا دهم ثانیه طول می کشد.
30,658
We propose a new method for generating random correlation matrices that makes it simple to control both location and dispersion. The method is based on a vector parameterization, gamma = g(C), which maps any distribution on R^d, d = n(n-1)/2 to a distribution on the space of non-singular nxn correlation matrices. Correlation matrices with certain properties, such as being well-conditioned, having block structures, and having strictly positive elements, are simple to generate. We compare the new method with existing methods.
ما یک روش جدید برای تولید ماتریس همبستگی تصادفی پیشنهاد می کنیم که باعث می شود کنترل هر دو مکان و پراکندگی ساده است.این روش مبتنی بر a است پارامترهای بردار ، گاما = g (c) ، که هرگونه توزیع در r^d ، d = را ترسیم می کند n (n-1)/2 به توزیع در فضای همبستگی NXN غیر سایننگر ماتریسماتریس همبستگی با خصوصیات خاص ، مانند بودن با شرایط خوب ، داشتن ساختارهای بلوک و داشتن کاملاً مثبت عناصر ، تولید ساده هستند.ما روش جدید را با موجود مقایسه می کنیم مواد و روش ها.
30,659
We develop a methodology for conducting inference on extreme quantiles of unobserved individual heterogeneity (heterogeneous coefficients, heterogeneous treatment effects, etc.) in a panel data or meta-analysis setting. Inference in such settings is challenging: only noisy estimates of unobserved heterogeneity are available, and approximations based on the central limit theorem work poorly for extreme quantiles. For this situation, under weak assumptions we derive an extreme value theorem and an intermediate order theorem for noisy estimates and appropriate rate and moment conditions. Both theorems are then used to construct confidence intervals for extremal quantiles. The intervals are simple to construct and require no optimization. Inference based on the intermediate order theorem involves a novel self-normalized intermediate order theorem. In simulations, our extremal confidence intervals have favorable coverage properties in the tail. Our methodology is illustrated with an application to firm productivity in denser and less dense areas.
ما یک متدولوژی برای انجام استنباط در مقادیر شدید از ناهمگونی فردی تحت نظارت (ضرایب ناهمگن ، ناهمگن اثرات درمانی و غیره) در یک داده پانل یا تنظیم متاآنالیز.استنباط در چنین تنظیماتی چالش برانگیز است: فقط تخمین های پر سر و صدا از ناهمگونی بدون نظارت در دسترس هستند و تقریب بر اساس کار قضیه حد اصلی برای مقادیر شدید ضعیف است.برای این وضعیت ، تحت فرضیات ضعیف ما یک قضیه با ارزش افراطی و یک قضیه مرتبه متوسط ​​برای پر سر و صدا استخراج کنید تخمین ها و شرایط مناسب و لحظه ای.هر دو قضیه هستند برای ساخت فواصل اطمینان برای مقادیر افراطی استفاده می شود.فواصل برای ساخت ساده و نیازی به بهینه سازی ندارند.استنتاج بر اساس قضیه نظم میانی شامل یک نظم واسطه ای خود طبیعی است قضیهدر شبیه سازی ها ، فواصل اعتماد به نفس افراطی ما مطلوب است خواص پوشش در دم.روش ما با یک نشان داده شده است کاربرد برای بهره وری شرکت در مناطق متراکم و کمتر متراکم.
30,660
Variational Bayes methods are a potential scalable estimation approach for state space models. However, existing methods are inaccurate or computationally infeasible for many state space models. This paper proposes a variational approximation that is accurate and fast for any model with a closed-form measurement density function and a state transition distribution within the exponential family of distributions. We show that our method can accurately and quickly estimate a multivariate Skellam stochastic volatility model with high-frequency tick-by-tick discrete price changes of four stocks, and a time-varying parameter vector autoregression with a stochastic volatility model using eight macroeconomic variables.
روشهای متغیر Bayes یک رویکرد تخمین مقیاس پذیر بالقوه برای مدل های فضایی حالت.با این حال ، روشهای موجود نادرست یا محاسباتی هستند برای بسیاری از مدلهای فضایی دولتی غیرقابل نفوذ است.در این مقاله یک تنوع ارائه شده است تقریبی که برای هر مدل با فرم بسته دقیق و سریع است عملکرد چگالی اندازه گیری و توزیع انتقال حالت در خانواده نمایی توزیع.ما نشان می دهیم که روش ما به طور دقیق می تواند و به سرعت یک مدل نوسانات تصادفی چند متغیره Skellam را با آن تخمین بزنید با فرکانس بالا تغییر قیمت گسسته با رنگ چهار سهام و الف تنوع زمان سنجی وکتور اتوگرافی با یک مدل نوسانات تصادفی با استفاده از هشت متغیر کلان اقتصادی.
30,661
In this paper, we propose a class of low-rank panel quantile regression models which allow for unobserved slope heterogeneity over both individuals and time. We estimate the heterogeneous intercept and slope matrices via nuclear norm regularization followed by sample splitting, row- and column-wise quantile regressions and debiasing. We show that the estimators of the factors and factor loadings associated with the intercept and slope matrices are asymptotically normally distributed. In addition, we develop two specification tests: one for the null hypothesis that the slope coefficient is a constant over time and/or individuals under the case that true rank of slope matrix equals one, and the other for the null hypothesis that the slope coefficient exhibits an additive structure under the case that the true rank of slope matrix equals two. We illustrate the finite sample performance of estimation and inference via Monte Carlo simulations and real datasets.
در این مقاله ، ما یک کلاس از رگرسیون کمیت پانل کمتری پیشنهاد می کنیم مدلهایی که ناهمگونی شیب را در هر دو افراد و زمان.ما ماتریس رهگیری ناهمگن و شیب را از طریق هسته ای تخمین می زنیم منظم سازی هنجار و به دنبال آن تقسیم نمونه ، کمی ردیف و ستون رگرسیون و مبهم.ما نشان می دهیم که برآوردگرهای عوامل و بارهای عاملی مرتبط با ماتریس رهگیری و شیب است به طور غیر عادی به طور عادی توزیع می شود.علاوه بر این ، ما دو مشخصات را تهیه می کنیم آزمون ها: یکی برای فرضیه تهی مبنی بر اینکه ضریب شیب ثابت است با گذشت زمان و/یا افراد تحت این مورد که رتبه واقعی ماتریس شیب است برابر با یک و دیگری برای فرضیه تهی که ضریب شیب است یک ساختار افزودنی را در این مورد نشان می دهد که رتبه واقعی شیب ماتریس برابر است با دو.ما عملکرد نمونه محدود تخمین را نشان می دهیم و استنتاج از طریق شبیه سازی مونت کارلو و مجموعه داده های واقعی.
30,662
The generalized least square (GLS) is one of the most basic tools in regression analyses. A major issue in implementing the GLS is estimation of the conditional variance function of the error term, which typically requires a restrictive functional form assumption for parametric estimation or tuning parameters for nonparametric estimation. In this paper, we propose an alternative approach to estimate the conditional variance function under nonparametric monotonicity constraints by utilizing the isotonic regression method. Our GLS estimator is shown to be asymptotically equivalent to the infeasible GLS estimator with knowledge of the conditional error variance, and is free from tuning parameters, not only for point estimation but also for interval estimation or hypothesis testing. Our analysis extends the scope of the isotonic regression method by showing that the isotonic estimates, possibly with generated variables, can be employed as first stage estimates to be plugged in for semiparametric objects. Simulation studies illustrate excellent finite sample performances of the proposed method. As an empirical example, we revisit Acemoglu and Restrepo's (2017) study on the relationship between an aging population and economic growth to illustrate how our GLS estimator effectively reduces estimation errors.
حداقل مربع عمومی (GLS) یکی از اساسی ترین ابزارها در آن است تجزیه و تحلیل رگرسیون.یک مسئله مهم در اجرای GLS تخمین از عملکرد واریانس شرطی اصطلاح خطا ، که به طور معمول به فرض فرم عملکردی محدود کننده برای برآورد پارامتری یا تنظیم پارامترهای تخمین غیر پارامتری.در این مقاله ، ما پیشنهاد می کنیم رویکرد جایگزین برای برآورد عملکرد واریانس شرطی در زیر محدودیت های یکنواختی غیر پارامتری با استفاده از رگرسیون ایزوتونیک روش.برآوردگر GLS ما به صورت مجانبی معادل با برآوردگر GLS غیرقابل نفوذ با آگاهی از واریانس خطای شرطی ، و عاری از تنظیم پارامترها ، نه تنها برای تخمین نقطه بلکه برای برآورد فاصله یا آزمایش فرضیه.تجزیه و تحلیل ما دامنه آن را گسترش می دهد روش رگرسیون ایزوتونیک با نشان دادن تخمین ایزوتونیک ، احتمالاً با متغیرهای تولید شده می تواند به عنوان تخمین مرحله اول استفاده شود برای اشیاء نیمهرامتری وصل شده است.مطالعات شبیه سازی بسیار عالی است عملکرد نمونه محدود روش پیشنهادی.به عنوان یک نمونه تجربی ، ما مطالعه مجدد Acemoglu و Restrepo (2017) در مورد رابطه بین جمعیت سالخورده و رشد اقتصادی برای نشان دادن چگونگی برآوردگر GLS ما به طور موثری خطاهای تخمین را کاهش می دهد.
30,663
Event Studies (ES) are statistical tools that assess whether a particular event of interest has caused changes in the level of one or more relevant time series. We are interested in ES applied to multivariate time series characterized by high spatial (cross-sectional) and temporal dependence. We pursue two goals. First, we propose to extend the existing taxonomy on ES, mainly deriving from the financial field, by generalizing the underlying statistical concepts and then adapting them to the time series analysis of airborne pollutant concentrations. Second, we address the spatial cross-sectional dependence by adopting a twofold adjustment. Initially, we use a linear mixed spatio-temporal regression model (HDGM) to estimate the relationship between the response variable and a set of exogenous factors, while accounting for the spatio-temporal dynamics of the observations. Later, we apply a set of sixteen ES test statistics, both parametric and nonparametric, some of which directly adjusted for cross-sectional dependence. We apply ES to evaluate the impact on NO2 concentrations generated by the lockdown restrictions adopted in the Lombardy region (Italy) during the COVID-19 pandemic in 2020. The HDGM model distinctly reveals the level shift caused by the event of interest, while reducing the volatility and isolating the spatial dependence of the data. Moreover, all the test statistics unanimously suggest that the lockdown restrictions generated significant reductions in the average NO2 concentrations.
مطالعات رویداد (ES) ابزارهای آماری هستند که آیا خاص را ارزیابی می کنند رویداد علاقه باعث تغییر در سطح یک یا چند زمان مرتبط شده است سلسله.ما علاقه مند به ES هستیم که در سری زمانی چند متغیره اعمال می شود با وابستگی مکانی بالا (مقطعی) و زمانی مشخص می شود.ما دو هدف را دنبال کنید.اول ، ما پیشنهاد می کنیم تا طبقه بندی موجود در ES را گسترش دهیم ، عمدتاً با تعمیم زیرین از حوزه مالی ناشی می شود مفاهیم آماری و سپس تطبیق آنها با تجزیه و تحلیل سری زمانی غلظت آلاینده های هوایی.دوم ، ما به فضایی می پردازیم وابستگی مقطعی با اتخاذ یک تنظیم دو برابر.در ابتدا ، ما استفاده می کنیم یک مدل رگرسیون فضا-زمانی مخلوط خطی (HDGM) برای برآورد رابطه بین متغیر پاسخ و مجموعه ای از عوامل اگزوژن ، در حالی که برای پویایی فضایی-زمانی مشاهدات حساب می کند.بعد، ما مجموعه ای از آمار آزمون شانزدهم ES را اجرا می کنیم ، هم پارامتری و هم غیرپارامتری ، که برخی از آنها به طور مستقیم برای وابستگی مقطعی تنظیم می شوند. ما ES را برای ارزیابی تأثیر بر غلظت NO2 تولید شده توسط محدودیت های قفل شده در منطقه لومباردی (ایتالیا) در طول همه گیر Covid-19 در سال 2020. مدل HDGM به طور مشخص تغییر سطح را نشان می دهد ناشی از وقوع علاقه ، ضمن کاهش نوسانات و انزوا وابستگی مکانی داده ها.علاوه بر این ، تمام آمار آزمون به اتفاق آرا نشان می دهد که محدودیت های قفل شده قابل توجه است کاهش در میانگین غلظت NO2.
30,664
Despite the popularity of factor models with sparse loading matrices, little attention has been given to formally address identifiability of these models beyond standard rotation-based identification such as the positive lower triangular constraint. To fill this gap, we present a counting rule on the number of nonzero factor loadings that is sufficient for achieving generic uniqueness of the variance decomposition in the factor representation. This is formalized in the framework of sparse matrix spaces and some classical elements from graph and network theory. Furthermore, we provide a computationally efficient tool for verifying the counting rule. Our methodology is illustrated for real data in the context of post-processing posterior draws in Bayesian sparse factor analysis.
با وجود محبوبیت مدل های فاکتور با ماتریس بارگذاری پراکنده ، کمی توجه شده است که به طور رسمی به شناسایی این مدل ها بپردازد فراتر از شناسایی مبتنی بر چرخش استاندارد مانند پایین مثبت محدودیت مثلثی.برای پر کردن این شکاف ، ما یک قانون شمارش را در مورد ارائه می دهیم تعداد بارهای فاکتور غیرزرو که برای دستیابی به عمومی کافی است منحصر به فرد بودن تجزیه واریانس در نمایندگی فاکتور.این هست در چارچوب فضاهای ماتریس پراکنده و برخی از عناصر کلاسیک رسمی شده است از نمودار و تئوری شبکه.علاوه بر این ، ما یک محاسباتی ارائه می دهیم ابزار کارآمد برای تأیید قانون شمارش.روش ما نشان داده شده است برای داده های واقعی در زمینه تساوی خلفی پس از پردازش در بیزی تجزیه و تحلیل عاملی پراکنده.
30,665
To effectively optimize and personalize treatments, it is necessary to investigate the heterogeneity of treatment effects. With the wide range of users being treated over many online controlled experiments, the typical approach of manually investigating each dimension of heterogeneity becomes overly cumbersome and prone to subjective human biases. We need an efficient way to search through thousands of experiments with hundreds of target covariates and hundreds of breakdown dimensions. In this paper, we propose a systematic paradigm for detecting, surfacing and characterizing heterogeneous treatment effects. First, we detect if treatment effect variation is present in an experiment, prior to specifying any breakdowns. Second, we surface the most relevant dimensions for heterogeneity. Finally, we characterize the heterogeneity beyond just the conditional average treatment effects (CATE) by studying the conditional distributions of the estimated individual treatment effects. We show the effectiveness of our methods using simulated data and empirical studies.
برای بهینه سازی و شخصی سازی درمان ها ، لازم است ناهمگونی اثرات درمانی را بررسی کنید.با طیف گسترده ای از کاربرانی که در بسیاری از آزمایشات کنترل شده آنلاین ، معمولی تحت درمان قرار می گیرند رویکرد بررسی دستی هر بعد ناهمگونی می شود بیش از حد دست و پا گیر و مستعد تعصبات ذهنی انسان است.ما به یک کارآمد نیاز داریم راهی برای جستجوی هزاران آزمایش با صدها هدف متغیرهای متغیر و صدها ابعاد شکست.در این مقاله ، ما پیشنهاد می کنیم پارادایم سیستماتیک برای تشخیص ، گشت و گذار و توصیف ناهمگن اثرات درمانی.اول ، ما تشخیص می دهیم که آیا تغییر اثر درمانی در آن وجود دارد یک آزمایش ، قبل از مشخص کردن هرگونه شکست.دوم ، ما بیشترین سطح را داریم ابعاد مربوط به ناهمگونی.سرانجام ، ما توصیف می کنیم ناهمگونی فراتر از اثرات درمانی متوسط ​​مشروط (CATE) توسط مطالعه توزیع مشروط درمان برآورد شده فردی اثراتما اثربخشی روشهای خود را با استفاده از داده های شبیه سازی شده نشان می دهیم و مطالعات تجربی.
30,667
We develop Bayesian neural networks (BNNs) that permit to model generic nonlinearities and time variation for (possibly large sets of) macroeconomic and financial variables. From a methodological point of view, we allow for a general specification of networks that can be applied to either dense or sparse datasets, and combines various activation functions, a possibly very large number of neurons, and stochastic volatility (SV) for the error term. From a computational point of view, we develop fast and efficient estimation algorithms for the general BNNs we introduce. From an empirical point of view, we show both with simulated data and with a set of common macro and financial applications that our BNNs can be of practical use, particularly so for observations in the tails of the cross-sectional or time series distributions of the target variables, which makes the method particularly informative for policy making in uncommon times.
ما شبکه های عصبی بیزی (BNN) توسعه می دهیم که اجازه مدل سازی عمومی را می دهند غیرخطی ها و تغییر زمان برای (احتمالاً مجموعه های بزرگ) کلان اقتصادی و متغیرهای مالی.از دیدگاه روش شناختی ، ما اجازه می دهیم مشخصات کلی شبکه هایی که می توانند برای متراکم یا پراکنده اعمال شوند مجموعه داده ها ، و عملکردهای مختلف فعال سازی را ترکیب می کند ، احتمالاً بسیار بزرگ تعداد نورون ها و نوسانات تصادفی (SV) برای اصطلاح خطا.از دیدگاه محاسباتی ، ما تخمین سریع و کارآمد را توسعه می دهیم الگوریتم های مربوط به BNN های عمومی که ما معرفی می کنیم.از دیدگاه تجربی ، ما هم با داده های شبیه سازی شده و هم با مجموعه ای از کلان و مالی مشترک نشان می دهیم برنامه هایی که BNN های ما می توانند از کاربردی استفاده کنند ، به ویژه برای مشاهدات در دمهای توزیع مقطعی یا سری زمانی از متغیرهای هدف ، که این روش را به ویژه آموزنده می کند سیاست گذاری در زمان های غیر معمول.