id
int64
28.8k
36k
text
stringlengths
44
3.03k
translation
stringlengths
36
2.47k
30,071
We study regression discontinuity designs when covariates are included in the estimation. We examine local polynomial estimators that include discrete or continuous covariates in an additive separable way, but without imposing any parametric restrictions on the underlying population regression functions. We recommend a covariate-adjustment approach that retains consistency under intuitive conditions, and characterize the potential for estimation and inference improvements. We also present new covariate-adjusted mean squared error expansions and robust bias-corrected inference procedures, with heteroskedasticity-consistent and cluster-robust standard errors. An empirical illustration and an extensive simulation study is presented. All methods are implemented in \texttt{R} and \texttt{Stata} software packages.
ما طرح های ناپیوستگی رگرسیون را هنگامی که متغیرهای متغیر در آن گنجانده شده است مطالعه می کنیم برآورد کردن.ما برآوردگرهای چند جملهای محلی را که شامل گسسته یا گسسته است ، بررسی می کنیم متغیرهای متغیر مداوم به روشی قابل جدا شدن افزودنی ، اما بدون تحمیل محدودیت های پارامتری در عملکردهای رگرسیون جمعیتی اساسی.ما یک رویکرد تنظیم متغیرهای متغیر را پیشنهاد کنید که قوام را در زیر حفظ کند شرایط بصری ، و پتانسیل تخمین را توصیف می کند و بهبود استنتاج.ما همچنین میانگین مربع تنظیم شده با همبستگی جدید را ارائه می دهیم گسترش خطا و روشهای استنتاج اصلاح شده با تعصب قوی ، با خطاهای استاندارد-سازگار با ناهمگن و خوشه ای.تجربی تصویر و یک مطالعه شبیه سازی گسترده ارائه شده است.همه روشها هستند در بسته های نرم افزاری در \ texttt {r} و \ texttt {stata.
30,072
Due to the increasing availability of high-dimensional empirical applications in many research disciplines, valid simultaneous inference becomes more and more important. For instance, high-dimensional settings might arise in economic studies due to very rich data sets with many potential covariates or in the analysis of treatment heterogeneities. Also the evaluation of potentially more complicated (non-linear) functional forms of the regression relationship leads to many potential variables for which simultaneous inferential statements might be of interest. Here we provide a review of classical and modern methods for simultaneous inference in (high-dimensional) settings and illustrate their use by a case study using the R package hdm. The R package hdm implements valid joint powerful and efficient hypothesis tests for a potentially large number of coeffcients as well as the construction of simultaneous confidence intervals and, therefore, provides useful methods to perform valid post-selection inference based on the LASSO.
به دلیل افزایش در دسترس بودن برنامه های تجربی با ابعاد بالا در بسیاری از رشته های تحقیقاتی ، استنباط همزمان معتبر بیشتر می شود و مهمتر.به عنوان مثال ، تنظیمات با ابعاد بالا ممکن است در اقتصادی ایجاد شود مطالعات به دلیل مجموعه داده های بسیار غنی با بسیاری از متغیرهای بالقوه یا در تجزیه و تحلیل ناهمگونی های درمان.همچنین ارزیابی بالقوه بیشتر اشکال پیچیده (غیر خطی) از روابط رگرسیون منجر می شود به بسیاری از متغیرهای بالقوه که اظهارات استنباطی همزمان ممکن است مورد توجه قرار گیرددر اینجا ما مروری بر روشهای کلاسیک و مدرن برای استنباط همزمان در تنظیمات (با ابعاد بالا) و استفاده از آنها را نشان می دهد توسط یک مطالعه موردی با استفاده از بسته R HDM.بسته R HDM ​​معتبر است آزمون فرضیه قدرتمند و کارآمد مشترک برای تعداد بالقوه زیادی ضرایب و همچنین ساخت فواصل اطمینان همزمان و بنابراین ، روشهای مفیدی برای انجام انتخابات معتبر پس از انتخاب فراهم می کند استنتاج بر اساس لاسو.
30,073
Control variables provide an important means of controlling for endogeneity in econometric models with nonseparable and/or multidimensional heterogeneity. We allow for discrete instruments, giving identification results under a variety of restrictions on the way the endogenous variable and the control variables affect the outcome. We consider many structural objects of interest, such as average or quantile treatment effects. We illustrate our results with an empirical application to Engel curve estimation.
متغیرهای کنترل وسیله مهمی برای کنترل درون زا را فراهم می کنند در مدلهای اقتصاد سنجی با ناهمگونی غیر قابل تفکیک و/یا چند بعدی. ما به ابزارهای گسسته اجازه می دهیم ، و نتایج شناسایی را در زیر ارائه می دهیم انواع محدودیت ها در نحوه متغیر درون زا و کنترل متغیرها بر نتیجه تأثیر می گذارند.ما بسیاری از اشیاء ساختاری مورد علاقه را در نظر می گیریم ، مانند اثرات درمانی متوسط ​​یا کمی.ما نتایج خود را با یک برنامه تجربی برای برآورد منحنی انگل.
30,074
Central to many inferential situations is the estimation of rational functions of parameters. The mainstream in statistics and econometrics estimates these quantities based on the plug-in approach without consideration of the main objective of the inferential situation. We propose the Bayesian Minimum Expected Loss (MELO) approach focusing explicitly on the function of interest, and calculating its frequentist variability. Asymptotic properties of the MELO estimator are similar to the plug-in approach. Nevertheless, simulation exercises show that our proposal is better in situations characterized by small sample sizes and noisy models. In addition, we observe in the applications that our approach gives lower standard errors than frequently used alternatives when datasets are not very informative.
محوری در بسیاری از موقعیت های استنباطی تخمین منطقی است توابع پارامترها.جریان اصلی در آمار و اقتصاد سنجی این مقادیر را بر اساس رویکرد افزونه بدون در نظر گرفتن تخمین می زند از هدف اصلی وضعیت استنباطی.ما بیزی را پیشنهاد می کنیم رویکرد حداقل از دست دادن (MELO) با تمرکز صریح بر عملکرد علاقه ، و محاسبه تنوع مکرر آن.خصوصیات بدون علامت از برآوردگر Melo شبیه به روش افزونه است.با این اوصاف، تمرینات شبیه سازی نشان می دهد که پیشنهاد ما در موقعیت ها بهتر است با اندازه نمونه های کوچک و مدل های پر سر و صدا مشخص می شود.علاوه بر این ، ما مشاهده می کنیم در برنامه هایی که رویکرد ما خطاهای استاندارد پایین تری از آن می دهد هنگامی که مجموعه داده ها خیلی آموزنده نیستند ، از گزینه های متداول استفاده می شود.
30,075
In this paper we propose the Single-equation Penalized Error Correction Selector (SPECS) as an automated estimation procedure for dynamic single-equation models with a large number of potentially (co)integrated variables. By extending the classical single-equation error correction model, SPECS enables the researcher to model large cointegrated datasets without necessitating any form of pre-testing for the order of integration or cointegrating rank. Under an asymptotic regime in which both the number of parameters and time series observations jointly diverge to infinity, we show that SPECS is able to consistently estimate an appropriate linear combination of the cointegrating vectors that may occur in the underlying DGP. In addition, SPECS is shown to enable the correct recovery of sparsity patterns in the parameter space and to posses the same limiting distribution as the OLS oracle procedure. A simulation study shows strong selective capabilities, as well as superior predictive performance in the context of nowcasting compared to high-dimensional models that ignore cointegration. An empirical application to nowcasting Dutch unemployment rates using Google Trends confirms the strong practical performance of our procedure.
در این مقاله تصحیح خطای مجازات تک عادلانه را پیشنهاد می کنیم انتخاب کننده (مشخصات) به عنوان یک روش تخمین خودکار برای پویا مدل های تک عادلانه با تعداد زیادی از بالقوه (CO) یکپارچه متغیرهابا گسترش مدل اصلاح خطای تک عادلانه کلاسیک ، مشخصات محقق را قادر می سازد تا از مجموعه داده های بزرگ ادغام شده بدون استفاده استفاده کند نیاز به هر نوع قبل از آزمایش برای ترتیب ادغام یا رتبه ادغام.تحت یک رژیم بدون علامت که در آن هر دو تعداد پارامترها و مشاهدات سری زمانی به طور مشترک از بی نهایت منحرف می شوند ، ما نشان می دهیم این مشخصات قادر به تخمین مداوم یک ترکیب خطی مناسب است از بردارهای ادغام کننده ای که ممکن است در DGP اساسی رخ دهد.علاوه بر این، مشخصات مشخص شده برای بازیابی صحیح الگوهای کمبود در فضای پارامتر و دارای همان توزیع محدود مانند OLS Oracle است روش.یک مطالعه شبیه سازی قابلیت های انتخابی قوی و همچنین عملکرد پیش بینی برتر در زمینه Nowcasting در مقایسه با مدل های با ابعاد بالا که از ادغام نادیده گرفته می شوند.یک برنامه تجربی به Nowcasting نرخ بیکاری هلندی با استفاده از Google Trends ، قوی را تأیید می کند عملکرد عملی رویه ما.
30,076
Although stochastic volatility and GARCH (generalized autoregressive conditional heteroscedasticity) models have successfully described the volatility dynamics of univariate asset returns, extending them to the multivariate models with dynamic correlations has been difficult due to several major problems. First, there are too many parameters to estimate if available data are only daily returns, which results in unstable estimates. One solution to this problem is to incorporate additional observations based on intraday asset returns, such as realized covariances. Second, since multivariate asset returns are not synchronously traded, we have to use the largest time intervals such that all asset returns are observed in order to compute the realized covariance matrices. However, in this study, we fail to make full use of the available intraday informations when there are less frequently traded assets. Third, it is not straightforward to guarantee that the estimated (and the realized) covariance matrices are positive definite. Our contributions are the following: (1) we obtain the stable parameter estimates for the dynamic correlation models using the realized measures, (2) we make full use of intraday informations by using pairwise realized correlations, (3) the covariance matrices are guaranteed to be positive definite, (4) we avoid the arbitrariness of the ordering of asset returns, (5) we propose the flexible correlation structure model (e.g., such as setting some correlations to be zero if necessary), and (6) the parsimonious specification for the leverage effect is proposed. Our proposed models are applied to the daily returns of nine U.S. stocks with their realized volatilities and pairwise realized correlations and are shown to outperform the existing models with respect to portfolio performances.
اگرچه نوسانات تصادفی و گارچ (خودجوش عمومی ناهمگونی مشروط) مدل ها با موفقیت شرح داده اند پویایی نوسانات بازده دارایی تک متغیره ، آنها را به سمت مدلهای چند متغیره با همبستگی پویا به دلیل چندین مورد دشوار بوده است مشکلات عمدهاول ، پارامترهای زیادی برای تخمین در صورت وجود وجود دارد داده ها فقط بازده روزانه هستند که منجر به برآورد ناپایدار می شود.یک راه حل برای این مشکل ، ادغام مشاهدات اضافی بر اساس داخل بدن است بازده دارایی ، مانند کواریانس های تحقق یافته.دوم ، از دارایی چند متغیره بازده ها به طور همزمان معامله نمی شوند ، ما باید از بزرگترین فواصل زمانی استفاده کنیم به گونه ای که تمام بازده دارایی به منظور محاسبه تحقق یافته مشاهده می شود ماتریس کواریانس.با این حال ، در این مطالعه ، ما نمی توانیم از کامل استفاده کنیم اطلاعات داخلی در دسترس است که دارایی های کمتر معامله می شود. سوم ، این ساده نیست که تضمین کنید که تخمین زده شده (و تحقق یافته) ماتریس های کواریانس قطعی مثبت هستند.مشارکتهای ما این است در زیر: (1) ما تخمین پارامتر پایدار را برای پویا بدست می آوریم مدل های همبستگی با استفاده از اقدامات تحقق یافته ، (2) ما از آن استفاده کامل می کنیم اطلاعات intraday با استفاده از همبستگی های تحقق یافته زوج ، (3) ماتریس های کواریانس تضمین شده است که قطعی مثبت هستند ، (4) ما از آن جلوگیری می کنیم خودباره سفارش بازده دارایی ، (5) ما انعطاف پذیر را پیشنهاد می کنیم مدل ساختار همبستگی (به عنوان مثال ، مانند تنظیم برخی از همبستگی ها صفر است در صورت لزوم) ، و (6) مشخصات پارسا برای اثر اهرم پیشنهاد شده استمدل های پیشنهادی ما برای بازده روزانه نه ایالات متحده اعمال می شود سهام با نوسانات تحقق یافته و همبستگی های زوجی و همبستگی نشان داده شده است که از مدل های موجود با توجه به نمونه کارها بهتر عمل می کند اجراها
30,077
In this paper we investigate panel regression models with interactive fixed effects. We propose two new estimation methods that are based on minimizing convex objective functions. The first method minimizes the sum of squared residuals with a nuclear (trace) norm regularization. The second method minimizes the nuclear norm of the residuals. We establish the consistency of the two resulting estimators. Those estimators have a very important computational advantage compared to the existing least squares (LS) estimator, in that they are defined as minimizers of a convex objective function. In addition, the nuclear norm penalization helps to resolve a potential identification problem for interactive fixed effect models, in particular when the regressors are low-rank and the number of the factors is unknown. We also show how to construct estimators that are asymptotically equivalent to the least squares (LS) estimator in Bai (2009) and Moon and Weidner (2017) by using our nuclear norm regularized or minimized estimators as initial values for a finite number of LS minimizing iteration steps. This iteration avoids any non-convex minimization, while the original LS estimation problem is generally non-convex, and can have multiple local minima.
در این مقاله مدل های رگرسیون پانل را با ثابت تعاملی بررسی می کنیم اثراتما دو روش تخمین جدید را پیشنهاد می کنیم که مبتنی بر به حداقل رساندن هستند توابع عینی محدب.روش اول جمع مربع را به حداقل می رساند باقیمانده با تنظیم هنجار هسته ای (ردیابی).روش دوم هنجار هسته ای باقیمانده ها را به حداقل می رساند.ما قوام را تعیین می کنیم دو برآوردگر نتیجه.این برآوردگرها بسیار مهم هستند مزیت محاسباتی در مقایسه با برآوردگر حداقل مربعات موجود (LS) ، در این صورت آنها به عنوان مینیمیزرهای یک عملکرد هدف محدب تعریف می شوند.که در علاوه بر این ، مجازات هنجار هسته ای به حل یک پتانسیل کمک می کند مشکل شناسایی برای مدل های اثر ثابت تعاملی ، به ویژه در زمان رگرسیون ها درجه پایین هستند و تعداد عوامل ناشناخته است.ما همچنین نحوه ساخت برآوردگرهایی را که به صورت مجانبی معادل با برآوردگر حداقل مربعات (LS) در BAI (2009) و Moon and Weidner (2017) با استفاده هنجار هسته ای ما برآوردگرهای منظم یا به حداقل رساندن به عنوان مقادیر اولیه برای a تعداد محدود LS مراحل تکرار را به حداقل می رساند.این تکرار از هر چیزی جلوگیری می کند به حداقل رساندن غیر Convex ، در حالی که مشکل تخمین LS اصلی به طور کلی است غیر CONVEX ، و می تواند چندین حداقل محلی داشته باشد.
30,078
Can instrumental variables be found from data? While instrumental variable (IV) methods are widely used to identify causal effect, testing their validity from observed data remains a challenge. This is because validity of an IV depends on two assumptions, exclusion and as-if-random, that are largely believed to be untestable from data. In this paper, we show that under certain conditions, testing for instrumental variables is possible. We build upon prior work on necessary tests to derive a test that characterizes the odds of being a valid instrument, thus yielding the name "necessary and probably sufficient". The test works by defining the class of invalid-IV and valid-IV causal models as Bayesian generative models and comparing their marginal likelihood based on observed data. When all variables are discrete, we also provide a method to efficiently compute these marginal likelihoods. We evaluate the test on an extensive set of simulations for binary data, inspired by an open problem for IV testing proposed in past work. We find that the test is most powerful when an instrument follows monotonicity---effect on treatment is either non-decreasing or non-increasing---and has moderate-to-weak strength; incidentally, such instruments are commonly used in observational studies. Among as-if-random and exclusion, it detects exclusion violations with higher power. Applying the test to IVs from two seminal studies on instrumental variables and five recent studies from the American Economic Review shows that many of the instruments may be flawed, at least when all variables are discretized. The proposed test opens the possibility of data-driven validation and search for instrumental variables.
آیا می توان متغیرهای ابزاری را از داده ها یافت؟در حالی که متغیر ابزاری است (IV) روشها برای شناسایی اثر علی و آزمایش اعتبار آنها به طور گسترده ای استفاده می شود از داده های مشاهده شده یک چالش باقی مانده است.این امر به این دلیل است که اعتبار یک IV بستگی به دو فرض ، محرومیت و AS-IF-RANDOM ، که عمدتا هستند اعتقاد بر این است که از داده ها غیرقابل تحمل است.در این مقاله ، ما آن را زیر مشخص نشان می دهیم شرایط ، آزمایش برای متغیرهای ابزاری امکان پذیر است.ما قبل از آن ساختیم روی تست های لازم کار کنید تا آزمایشی انجام شود که شانس بودن را نشان می دهد ابزار معتبر ، بدین ترتیب نام "لازم و احتمالاً کافی" را ارائه می دهد. این آزمون با تعریف کلاس مدلهای علی نامعتبر-IV و معتبر-IV کار می کند به عنوان مدل های تولیدی بیزی و مقایسه احتمال حاشیه آنها بر اساس داده های مشاهده شدهوقتی همه متغیرها گسسته هستند ، ما نیز روشی را ارائه می دهیم به طور موثر این احتمال حاشیه را محاسبه کنید. ما آزمون را در مجموعه گسترده ای از شبیه سازی ها برای داده های باینری ارزیابی می کنیم ، با الهام از یک مشکل باز برای آزمایش IV که در کار گذشته ارائه شده است.ما این را پیدا می کنیم وقتی یک ابزار از یکنواختی پیروی می کند --- تأثیر بر روی یک تست قدرتمندتر است درمان غیر کاهش دهنده یا غیر افزایش دهنده است-و دارای خستگی متوسط ​​است استحکام - قدرت؛اتفاقاً چنین ابزارهایی معمولاً در مشاهده استفاده می شوند مطالعات.در میان as-if-random و محرومیت ، تخلفات محرومیت با آن را تشخیص می دهد قدرت بالاتر.استفاده از آزمون در IV از دو مطالعه اصلی در مورد ابزار متغیرها و پنج مطالعه اخیر از بررسی اقتصادی آمریکا نشان می دهد که حداقل بسیاری از ابزارها ممکن است نقص داشته باشند ، حداقل وقتی همه متغیرها هستند گسسته شدهآزمون پیشنهادی امکان اعتبار سنجی داده محور را باز می کند و متغیرهای ابزاری را جستجو کنید.
30,079
Uncovering the heterogeneity of causal effects of policies and business decisions at various levels of granularity provides substantial value to decision makers. This paper develops new estimation and inference procedures for multiple treatment models in a selection-on-observables framework by modifying the Causal Forest approach suggested by Wager and Athey (2018) in several dimensions. The new estimators have desirable theoretical, computational and practical properties for various aggregation levels of the causal effects. While an Empirical Monte Carlo study suggests that they outperform previously suggested estimators, an application to the evaluation of an active labour market programme shows the value of the new methods for applied research.
پرده برداری از ناهمگونی اثرات علّی سیاست ها و تجارت تصمیمات در سطوح مختلف گرانول ارزش قابل توجهی را فراهم می کند تصمیم گیرندگان.این مقاله رویه های جدید تخمین و استنباط را تهیه می کند برای مدل های درمانی متعدد در یک چارچوب انتخاب بر روی obsinvables توسط اصلاح رویکرد جنگل علیت که توسط Wager and Athey (2018) پیشنهاد شده است ابعاد مختلفبرآوردگرهای جدید نظری مطلوب دارند ، خصوصیات محاسباتی و عملی برای سطح مختلف تجمع اثرات علیدر حالی که یک مطالعه تجربی مونت کارلو نشان می دهد که آنها پیش فرض پیش از این برآوردگرهای پیشنهادی ، کاربردی برای ارزیابی یک برنامه بازار کار فعال ارزش روشهای جدید را برای تحقیقات کاربردی.
30,080
What should researchers do when their baseline model is refuted? We provide four constructive answers. First, researchers can measure the extent of falsification. To do this, we consider continuous relaxations of the baseline assumptions of concern. We then define the falsification frontier: The smallest relaxations of the baseline model which are not refuted. This frontier provides a quantitative measure of the extent of falsification. Second, researchers can present the identified set for the parameter of interest under the assumption that the true model lies somewhere on this frontier. We call this the falsification adaptive set. This set generalizes the standard baseline estimand to account for possible falsification. Third, researchers can present the identified set for a specific point on this frontier. Finally, as a sensitivity analysis, researchers can present identified sets for points beyond the frontier. To illustrate these four ways of salvaging falsified models, we study overidentifying restrictions in two instrumental variable models: a homogeneous effects linear model, and heterogeneous effect models with either binary or continuous outcomes. In the linear model, we consider the classical overidentifying restrictions implied when multiple instruments are observed. We generalize these conditions by considering continuous relaxations of the classical exclusion restrictions. By sufficiently weakening the assumptions, a falsified baseline model becomes non-falsified. We obtain analogous results in the heterogeneous effect models, where we derive identified sets for marginal distributions of potential outcomes, falsification frontiers, and falsification adaptive sets under continuous relaxations of the instrument exogeneity assumptions. We illustrate our results in four different empirical applications.
محققان وقتی مدل پایه خود رد می شود چه کاری باید انجام دهند؟ما فراهم می کنیم چهار پاسخ سازنده.اول ، محققان می توانند میزان آن را اندازه بگیرند تحریف.برای انجام این کار ، ما آرامش مداوم از پایه را در نظر می گیریم فرضیات نگرانیسپس مرز جعلی را تعریف می کنیم: کوچکترین آرامش مدل پایه که رد نمی شود.این مرز فراهم می کند اندازه گیری کمی از میزان جعل.دوم ، محققان می توانند مجموعه مشخص شده را برای پارامتر بهره تحت فرض ارائه دهید که مدل واقعی در جایی در این مرز قرار دارد.ما این را می نامیم مجموعه تطبیقی ​​جعلی.این مجموعه برآورد پایه استاندارد را تعمیم می دهد برای جعل جعل احتمالی.سوم ، محققان می توانند ارائه دهند مجموعه مشخص شده برای یک نقطه خاص در این مرز.سرانجام ، به عنوان یک حساسیت تجزیه و تحلیل ، محققان می توانند مجموعه های شناسایی شده را برای امتیازات فراتر از آن ارائه دهند مرزبرای نشان دادن این چهار روش برای نجات مدل های جعلی ، ما مطالعه می کنیم محدودیت های بیش از حد در دو مدل متغیر ابزاری: یک همگن مدل های خطی و مدل های اثر ناهمگن با باینری یا نتایج مداومدر مدل خطی ، کلاسیک را در نظر می گیریم محدودیت های بیش از حد مشخص شده در هنگام مشاهده ابزارهای متعدد حاکی از آن است.ما این شرایط را با در نظر گرفتن آرامش مداوم از محدودیت های محرومیت کلاسیک.با تضعیف کافی فرضیات ، الف مدل پایه جعلی غیر متعارف می شود.ما نتایج مشابهی کسب می کنیم مدل های اثر ناهمگن ، جایی که مجموعه های شناسایی شده برای حاشیه را بدست می آوریم توزیع نتایج بالقوه ، مرزهای جعلی و جعل مجموعه های تطبیقی ​​تحت آرامش مداوم اگزوژن ساز فرضیاتما نتایج خود را در چهار تجربی مختلف نشان می دهیم برنامه های کاربردی.
30,081
We analyze the role of selection bias in generating the changes in the observed distribution of female hourly wages in the United States using CPS data for the years 1975 to 2020. We account for the selection bias from the employment decision by modeling the distribution of the number of working hours and estimating a nonseparable model of wages. We decompose changes in the wage distribution into composition, structural and selection effects. Composition effects have increased wages at all quantiles while the impact of the structural effects varies by time period and quantile. Changes in the role of selection only appear at the lower quantiles of the wage distribution. The evidence suggests that there is positive selection in the 1970s which diminishes until the later 1990s. This reduces wages at lower quantiles and increases wage inequality. Post 2000 there appears to be an increase in positive sorting which reduces the selection effects on wage inequality.
ما نقش تعصب انتخاب را در ایجاد تغییرات در توزیع مشاهده شده دستمزد ساعتی زن در ایالات متحده با استفاده از CPS داده ها برای سالهای 1975 تا 2020. ما تعصب انتخاب را از تصمیم اشتغال با مدل سازی توزیع تعداد ساعات کاری و تخمین یک مدل غیر قابل تفکیک دستمزد.ما تغییرات در دستمزد را تجزیه می کنیم توزیع در ترکیب ، اثرات ساختاری و انتخاب.ترکیب بندی اثرات در همه مقدار دستمزد افزایش یافته است در حالی که تأثیر آن اثرات ساختاری براساس دوره زمانی و کمی متفاوت است.تغییرات در نقش انتخاب فقط در مقدار پایین توزیع دستمزد ظاهر می شود.در شواهد نشان می دهد که در دهه 1970 انتخاب مثبتی وجود دارد که کاهش می یابد تا دهه 1990.این باعث کاهش دستمزدها در کمیتهای پایین تر و نابرابری دستمزد را افزایش می دهد.به نظر می رسد که در سال 2000 افزایش یافته است مرتب سازی مثبت که اثرات انتخاب بر نابرابری دستمزد را کاهش می دهد.
30,082
International trade research plays an important role to inform trade policy and shed light on wider issues relating to poverty, development, migration, productivity, and economy. With recent advances in information technology, global and regional agencies distribute an enormous amount of internationally comparable trading data among a large number of countries over time, providing a goldmine for empirical analysis of international trade. Meanwhile, an array of new statistical methods are recently developed for dynamic network analysis. However, these advanced methods have not been utilized for analyzing such massive dynamic cross-country trading data. International trade data can be viewed as a dynamic transport network because it emphasizes the amount of goods moving across a network. Most literature on dynamic network analysis concentrates on the connectivity network that focuses on link formation or deformation rather than the transport moving across the network. We take a different perspective from the pervasive node-and-edge level modeling: the dynamic transport network is modeled as a time series of relational matrices. We adopt a matrix factor model of \cite{wang2018factor}, with a specific interpretation for the dynamic transport network. Under the model, the observed surface network is assumed to be driven by a latent dynamic transport network with lower dimensions. The proposed method is able to unveil the latent dynamic structure and achieve the objective of dimension reduction. We applied the proposed framework and methodology to a data set of monthly trading volumes among 24 countries and regions from 1982 to 2015. Our findings shed light on trading hubs, centrality, trends and patterns of international trade and show matching change points to trading policies. The dataset also provides a fertile ground for future research on international trade.
تحقیقات تجارت بین المللی نقش مهمی برای اطلاع رسانی به سیاست تجارت ایفا می کند و در مورد مسائل گسترده تر مربوط به فقر ، توسعه ، مهاجرت ، روشن شد بهره وری و اقتصاد.با پیشرفت های اخیر در فناوری اطلاعات ، آژانس های جهانی و منطقه ای تعداد زیادی از بین المللی را توزیع می کنند داده های تجاری قابل مقایسه در بین تعداد زیادی از کشورها با گذشت زمان ، ارائه مین طلای برای تجزیه و تحلیل تجربی تجارت بین المللی.در همین حال ، یک آرایه از روشهای جدید آماری اخیراً برای تجزیه و تحلیل شبکه پویا تهیه شده است. با این حال ، این روشهای پیشرفته برای تجزیه و تحلیل چنین مواردی استفاده نشده است داده های معاملاتی متقاطع پویا.داده های تجارت بین المللی می تواند باشد به عنوان یک شبکه حمل و نقل پویا مشاهده می شود زیرا بر میزان کالاها تأکید دارد حرکت در سراسر یک شبکه.بیشتر ادبیات در مورد تجزیه و تحلیل شبکه پویا متمرکز بر شبکه اتصال که در شکل گیری پیوند متمرکز است یا تغییر شکل به جای حمل و نقل در شبکه.ما می گیریم دیدگاه متفاوت از مدل سازی سطح گره و لبه فراگیر: شبکه حمل و نقل پویا به عنوان یک سری زمانی از ماتریس های رابطه ای مدل می شود. ما یک مدل فاکتور ماتریس از \ cite {Wang2018Factor} را با یک خاص اتخاذ می کنیم تفسیر برای شبکه حمل و نقل پویا.تحت مدل ، مشاهده شده فرض بر این است که شبکه سطحی توسط یک شبکه حمل و نقل پویا نهفته هدایت می شود با ابعاد پایینروش پیشنهادی قادر به رونمایی از پویا نهفته است ساختار و دستیابی به هدف کاهش بعد.ما اعمال کردیم چارچوب و روش پیشنهادی به مجموعه داده های حجم معاملات ماهانه از بین 24 کشور و منطقه از سال 1982 تا 2015. یافته های ما روشن شد مراکز تجاری ، مرکزیت ، روندها و الگوهای تجارت و نمایش بین المللی تطبیق امتیازات به سیاست های معاملاتی.مجموعه داده همچنین حاصلخیز را فراهم می کند زمینه برای تحقیقات آینده در مورد تجارت بین المللی.
30,108
We provide a novel method for large volatility matrix prediction with high-frequency data by applying eigen-decomposition to daily realized volatility matrix estimators and capturing eigenvalue dynamics with ARMA models. Given a sequence of daily volatility matrix estimators, we compute the aggregated eigenvectors and obtain the corresponding eigenvalues. Eigenvalues in the same relative magnitude form a time series and the ARMA models are further employed to model the dynamics within each eigenvalue time series to produce a predictor. We predict future large volatility matrix based on the predicted eigenvalues and the aggregated eigenvectors, and demonstrate the advantages of the proposed method in volatility prediction and portfolio allocation problems.
ما یک روش جدید برای پیش بینی ماتریس نوسانات بزرگ با داده های با فرکانس بالا با استفاده از تجویز ویژه در روزانه تحقق یافته برآوردگرهای ماتریس نوسانات و گرفتن دینامیک مقادیر ویژه با آرما مدل ها.با توجه به دنباله ای از برآوردگرهای ماتریس نوسانات روزانه ، ما محاسبه می کنیم Eigenvectors جمع شده و مقادیر ویژه مربوطه را بدست می آورند.مقادیر ویژه در همان قدر نسبی یک سری زمانی تشکیل می شود و مدل های ARMA هستند بیشتر برای مدل سازی دینامیک در هر سری زمانی ویژه به پیش بینی کننده تولید کنید.ما ماتریس نوسانات بزرگ آینده را بر اساس مقادیر ویژه و ویژه های ویژه را پیش بینی کرده و نشان می دهد مزایای روش پیشنهادی در پیش بینی نوسانات و نمونه کارها مشکلات تخصیص
30,083
The relationship between democracy and economic growth is of long-standing interest. We revisit the panel data analysis of this relationship by Acemoglu, Naidu, Restrepo and Robinson (forthcoming) using state of the art econometric methods. We argue that this and lots of other panel data settings in economics are in fact high-dimensional, resulting in principal estimators -- the fixed effects (FE) and Arellano-Bond (AB) estimators -- to be biased to the degree that invalidates statistical inference. We can however remove these biases by using simple analytical and sample-splitting methods, and thereby restore valid statistical inference. We find that the debiased FE and AB estimators produce substantially higher estimates of the long-run effect of democracy on growth, providing even stronger support for the key hypothesis in Acemoglu, Naidu, Restrepo and Robinson (forthcoming). Given the ubiquitous nature of panel data, we conclude that the use of debiased panel data estimators should substantially improve the quality of empirical inference in economics.
رابطه دموکراسی و رشد اقتصادی دیرینه است علاقه.ما دوباره تجزیه و تحلیل داده های پانل این رابطه توسط Acemoglu را بررسی می کنیم ، Naidu ، Restrepo و Robinson (آینده) با استفاده از حالت اقتصاد هنری مواد و روش ها.ما استدلال می کنیم که این و بسیاری از تنظیمات داده های پانل دیگر در اقتصاد در واقع با ابعاد بالا و در نتیجه برآوردگرهای اصلی-ثابت هستند برآوردگرهای اثرات (FE) و Arellano-Bond (AB)-تا حدودی مغرضانه هستند این استنباط آماری را باطل می کند.با این حال ما می توانیم این تعصبات را حذف کنیم با استفاده از روشهای ساده تحلیلی و نمونه برداری نمونه ، و از این طریق معتبر بازیابی می شود استنباط آماری.ما می دانیم که برآوردگرهای Debiased FE و AB تولید می کنند تخمین های قابل ملاحظه ای بالاتر از تأثیر بلند مدت دموکراسی بر رشد ، ارائه پشتیبانی حتی قوی تر برای فرضیه کلیدی در Acemoglu ، Naidu ، Restrepo و رابینسون (آینده).با توجه به ماهیت همه جا داده های پانل ، نتیجه می گیریم که استفاده از برآوردگرهای داده پانل debiased باید بطور قابل توجهی بهبود کیفیت استنتاج تجربی در اقتصاد.
30,084
In this paper we consider estimation of unobserved components in state space models using a dynamic factor approach to incorporate auxiliary information from high-dimensional data sources. We apply the methodology to unemployment estimation as done by Statistics Netherlands, who uses a multivariate state space model to produce monthly figures for the unemployment using series observed with the labour force survey (LFS). We extend the model by including auxiliary series of Google Trends about job-search and economic uncertainty, and claimant counts, partially observed at higher frequencies. Our factor model allows for nowcasting the variable of interest, providing reliable unemployment estimates in real-time before LFS data become available.
در این مقاله تخمین اجزای بدون نظارت در فضای دولتی را در نظر می گیریم مدل هایی با استفاده از یک رویکرد فاکتور پویا برای ترکیب اطلاعات کمکی از منابع داده با ابعاد بالا.ما روش را برای بیکاری اعمال می کنیم تخمین همانطور که توسط آمار هلند انجام می شود ، که از یک کشور چند متغیره استفاده می کند مدل فضایی برای تولید ارقام ماهانه برای بیکاری با استفاده از سری با بررسی نیروی کار (LFS) مشاهده شد.ما مدل را با استفاده از آن گسترش می دهیم سری کمکی روندهای گوگل در مورد جستجوی شغل و عدم اطمینان اقتصادی ، و متقاضیان ، که تا حدی در فرکانس های بالاتر مشاهده می شود.مدل فاکتور ما اجازه می دهد تا متغیر علاقه را فراهم کند ، و بیکاری قابل اعتماد را فراهم می کند تخمین در زمان واقعی قبل از در دسترس بودن داده های LFS.
30,085
This paper is concerned with cross-sectional dependence arising because observations are interconnected through an observed network. Following Doukhan and Louhichi (1999), we measure the strength of dependence by covariances of nonlinearly transformed variables. We provide a law of large numbers and central limit theorem for network dependent variables. We also provide a method of calculating standard errors robust to general forms of network dependence. For that purpose, we rely on a network heteroskedasticity and autocorrelation consistent (HAC) variance estimator, and show its consistency. The results rely on conditions characterized by tradeoffs between the rate of decay of dependence across a network and network's denseness. Our approach can accommodate data generated by network formation models, random fields on graphs, conditional dependency graphs, and large functional-causal systems of equations.
این مقاله مربوط به وابستگی مقطعی ناشی از آن است زیرا مشاهدات از طریق یک شبکه مشاهده شده به هم پیوسته اند.به دنبال دوخان و لوئیچی (1999) ، ما قدرت وابستگی توسط کواریانس را اندازه گیری می کنیم متغیرهای تبدیل شده غیرخطی.ما قانونی از تعداد زیادی را ارائه می دهیم و قضیه محدودیت مرکزی برای متغیرهای وابسته به شبکه.ما همچنین یک روش ارائه می دهیم محاسبه خطاهای استاندارد قوی به اشکال عمومی وابستگی به شبکه. برای این منظور ، ما به یک ناهمگونی شبکه و همبستگی شبکه تکیه می کنیم برآوردگر واریانس سازگار (HAC) ، و قوام آن را نشان می دهد.نتایج متکی هستند در مورد شرایطی که با تجارت بین نرخ پوسیدگی مشخص می شود وابستگی به تراکم شبکه و شبکه.رویکرد ما می تواند داده های تولید شده توسط مدل های تشکیل شبکه ، زمینه های تصادفی را در خود جای دهید نمودارها ، نمودارهای وابستگی مشروط و سیستم های بزرگ عملکردی معادلات
30,086
Ethane is the most abundant non-methane hydrocarbon in the Earth's atmosphere and an important precursor of tropospheric ozone through various chemical pathways. Ethane is also an indirect greenhouse gas (global warming potential), influencing the atmospheric lifetime of methane through the consumption of the hydroxyl radical (OH). Understanding the development of trends and identifying trend reversals in atmospheric ethane is therefore crucial. Our dataset consists of four series of daily ethane columns obtained from ground-based FTIR measurements. As many other decadal time series, our data are characterized by autocorrelation, heteroskedasticity, and seasonal effects. Additionally, missing observations due to instrument failure or unfavorable measurement conditions are common in such series. The goal of this paper is therefore to analyze trends in atmospheric ethane with statistical tools that correctly address these data features. We present selected methods designed for the analysis of time trends and trend reversals. We consider bootstrap inference on broken linear trends and smoothly varying nonlinear trends. In particular, for the broken trend model, we propose a bootstrap method for inference on the break location and the corresponding changes in slope. For the smooth trend model we construct simultaneous confidence bands around the nonparametrically estimated trend. Our autoregressive wild bootstrap approach, combined with a seasonal filter, is able to handle all issues mentioned above.
اتان فراوان ترین هیدروکربن غیر متان در جو زمین است و یک پیشرو مهم ازن گرمسیری از طریق مواد شیمیایی مختلف مسیرهااتان همچنین یک گاز گلخانه ای غیرمستقیم (پتانسیل گرمایش جهانی) است ، تأثیرگذاری بر طول عمر جوی متان از طریق مصرف هیدروکسیل رادیکال (OH).درک پیشرفت روندها و شناسایی معکوس روند در اتان جوی بسیار مهم است.مجموعه داده ما متشکل از چهار سری ستون های اتان روزانه است که از FTIR زمینی به دست می آید اندازه گیریمانند بسیاری از سری های زمانی دیگر ، داده های ما توسط مشخص می شوند همبستگی ، ناهمگونی و اثرات فصلی.علاوه بر این ، مشاهدات از دست رفته به دلیل عدم موفقیت ابزار یا اندازه گیری نامطلوب شرایط در چنین سری ها رایج است.هدف این مقاله به این نتیجه است روندهای اتان جوی را با ابزارهای آماری که به درستی تجزیه و تحلیل کنید این ویژگی های داده را آدرس دهید.ما روشهای انتخاب شده ای را که برای آن طراحی شده است ارائه می دهیم تجزیه و تحلیل روند زمان و معکوس روند.ما استنتاج bootstrap را در نظر می گیریم روندهای خطی شکسته و روندهای غیرخطی با هموار متفاوت.به طور خاص ، برای مدل روند شکسته ، ما یک روش bootstrap برای استنباط در محل را بشکنید و تغییرات مربوط به شیب.برای روند صاف مدل ما باندهای اعتماد به نفس همزمان را در اطراف غیر پارامتری می سازیم روند تخمین زده شدهرویکرد بوت استرپ وحشی خودکار ما ، همراه با فیلتر فصلی ، قادر به رسیدگی به کلیه موارد ذکر شده در بالا است.
30,087
A decision maker starts from a judgmental decision and moves to the closest boundary of the confidence interval. This statistical decision rule is admissible and does not perform worse than the judgmental decision with a probability equal to the confidence level, which is interpreted as a coefficient of statistical risk aversion. The confidence level is related to the decision maker's aversion to uncertainty and can be elicited with laboratory experiments using urns a la Ellsberg. The decision rule is applied to a problem of asset allocation for an investor whose judgmental decision is to keep all her wealth in cash.
یک تصمیم گیرنده از یک تصمیم داوری شروع می کند و به نزدیکترین حرکت می کند مرز فاصله اطمینان.این قانون تصمیم آماری است قابل قبول و عملکرد بدتر از تصمیم داوری با a احتمال برابر با سطح اطمینان ، که به عنوان یک تفسیر می شود ضریب افت ریسک آماری.سطح اطمینان مربوط به آن است گریز تصمیم گیرنده به عدم اطمینان و می توان با آن انتخاب شد آزمایش های آزمایشگاهی با استفاده از URNS A La Ellsberg.قانون تصمیم اعمال می شود به مشکل تخصیص دارایی برای یک سرمایه گذار که تصمیم داوری آن است تا تمام ثروت خود را به صورت نقدی حفظ کند.
30,088
For regulatory and interpretability reasons, logistic regression is still widely used. To improve prediction accuracy and interpretability, a preprocessing step quantizing both continuous and categorical data is usually performed: continuous features are discretized and, if numerous, levels of categorical features are grouped. An even better predictive accuracy can be reached by embedding this quantization estimation step directly into the predictive estimation step itself. But doing so, the predictive loss has to be optimized on a huge set. To overcome this difficulty, we introduce a specific two-step optimization strategy: first, the optimization problem is relaxed by approximating discontinuous quantization functions by smooth functions; second, the resulting relaxed optimization problem is solved via a particular neural network. The good performances of this approach, which we call glmdisc, are illustrated on simulated and real data from the UCI library and Cr\'edit Agricole Consumer Finance (a major European historic player in the consumer credit market).
به دلایل نظارتی و تفسیر ، رگرسیون لجستیک هنوز هم است مورد استفاده گستردهبرای بهبود دقت و تفسیر پیش بینی ، الف مرحله پیش پردازش ، معمولاً داده های مداوم و طبقه بندی را تعیین می کند انجام شده: ویژگی های مداوم گسسته شده و در صورت تعداد بیشمار ، سطح ویژگی های طبقه بندی شده گروه بندی می شوند.دقت پیش بینی حتی بهتر می تواند باشد با تعبیه این مرحله تخمین کمیت به طور مستقیم به تخمین پیش بینی کننده خود.اما انجام این کار ، ضرر پیش بینی کننده باید باشد بهینه شده در یک مجموعه عظیم.برای غلبه بر این دشواری ، ما یک خاص را معرفی می کنیم استراتژی بهینه سازی دو مرحله ای: اول ، مشکل بهینه سازی توسط آرام است تقریبی توابع کمیت ناپیوسته توسط توابع صاف.دومین، مشکل بهینه سازی آرام حاصل از طریق یک عصبی خاص حل می شود شبکه.عملکردهای خوب این رویکرد ، که ما آن را GLMDISC می نامیم ، هستند در مورد داده های شبیه سازی شده و واقعی از کتابخانه UCI و ویرایش Cr \ نشان داده شده است امور مالی مصرف کننده Agricole (یک بازیگر مهم تاریخی اروپا در مصرف کننده بازار اعتبار).
30,089
We discuss the relevance of the recent Machine Learning (ML) literature for economics and econometrics. First we discuss the differences in goals, methods and settings between the ML literature and the traditional econometrics and statistics literatures. Then we discuss some specific methods from the machine learning literature that we view as important for empirical researchers in economics. These include supervised learning methods for regression and classification, unsupervised learning methods, as well as matrix completion methods. Finally, we highlight newly developed methods at the intersection of ML and econometrics, methods that typically perform better than either off-the-shelf ML or more traditional econometric methods when applied to particular classes of problems, problems that include causal inference for average treatment effects, optimal policy estimation, and estimation of the counterfactual effect of price changes in consumer choice models.
ما در مورد ارتباط ادبیات اخیر یادگیری ماشین (ML) برای اقتصاد و اقتصاد.ابتدا در مورد تفاوت در اهداف ، روش ها بحث می کنیم و تنظیمات بین ادبیات ML و اقتصاد سنجی سنتی و ادبیات آمار.سپس ما در مورد برخی روش های خاص از دستگاه بحث می کنیم ادبیات یادگیری که ما برای محققان تجربی در آن مهم است اقتصاد.اینها شامل روشهای یادگیری نظارت شده برای رگرسیون و طبقه بندی ، روشهای یادگیری بدون نظارت و همچنین تکمیل ماتریس مواد و روش ها.سرانجام ، ما روشهای تازه توسعه یافته را در تقاطع برجسته می کنیم ML و Econometrics ، روشهایی که به طور معمول بهتر از هر دو عمل می کنند خارج از قفسه ML یا روشهای اقتصادی سنتی بیشتر هنگام استفاده طبقه های خاصی از مشکلات ، مشکلاتی که شامل استنتاج علی است میانگین اثرات درمانی ، برآورد بهینه سیاست و برآورد اثر ضد عملی تغییرات قیمت در مدل های انتخاب مصرف کننده.
30,090
Dynamic decisions are pivotal to economic policy making. We show how existing evidence from randomized control trials can be utilized to guide personalized decisions in challenging dynamic environments with constraints such as limited budget or queues. Recent developments in reinforcement learning make it possible to solve many realistically complex settings for the first time. We allow for restricted policy functions and prove that their regret decays at rate $n^{-1/2}$, the same as in the static case. We illustrate our methods with an application to job training. The approach scales to a wide range of important problems faced by policy makers.
تصمیمات پویا برای سیاست گذاری اقتصادی مهم است.ما نشان می دهیم که چقدر موجود است از شواهد حاصل از آزمایشات کنترل تصادفی می توان برای راهنمایی شخصی سازی شده استفاده کرد تصمیمات در مورد محیط های پویا به چالش کشیدن با محدودیت هایی مانند محدود بودجه یا صف.تحولات اخیر در یادگیری تقویت باعث می شود برای اولین بار برای حل بسیاری از تنظیمات واقع بینانه امکان پذیر است.ما عملکردهای محدود سیاست را مجاز می دانند و ثابت می کنند که پشیمانی آنها در آن پوسیده می شود نرخ $ n^{-1/2} $ ، همان مورد استاتیک.ما روشهای خود را با یک برنامه برای آموزش شغلی.مقیاس رویکرد به طیف گسترده ای از مشکلات مهمی که سیاست گذاران با آن روبرو هستند.
30,091
Consider a predictor who ranks eventualities on the basis of past cases: for instance a search engine ranking webpages given past searches. Resampling past cases leads to different rankings and the extraction of deeper information. Yet a rich database, with sufficiently diverse rankings, is often beyond reach. Inexperience demands either "on the fly" learning-by-doing or prudence: the arrival of a novel case does not force (i) a revision of current rankings, (ii) dogmatism towards new rankings, or (iii) intransitivity. For this higher-order framework of inductive inference, we derive a suitably unique numerical representation of these rankings via a matrix on eventualities x cases and describe a robust test of prudence. Applications include: the success/failure of startups; the veracity of fake news; and novel conditions for the existence of a yield curve that is robustly arbitrage-free.
پیش بینی کننده ای را در نظر بگیرید که براساس موارد گذشته ، وقایع را رتبه بندی کند: برای به عنوان مثال ، صفحات رتبه بندی موتور جستجو با استفاده از جستجوهای گذشته.مجدداً به گذشته موارد منجر به رتبه بندی های مختلف و استخراج اطلاعات عمیق تر می شود.هنوز یک بانک اطلاعاتی غنی ، با رتبه بندی کافی متنوع ، اغلب فراتر از دسترس است. بی تجربگی خواستار "در پرواز" یادگیری توسط انجام دادن یا احتیاط است: ورود یک مورد جدید ، مجبور به تجدید نظر در رتبه بندی های فعلی نیست ، (ii) دگماتیسم به سمت رتبه های جدید ، یا (iii) Intrantitivity.برای این مرتبه بالاتر چارچوب استنباط القایی ، ما یک عددی مناسب و منحصر به فرد را به دست می آوریم نمایندگی این رتبه بندی ها از طریق ماتریس در مورد موارد رویداد x و یک آزمایش دقیق از احتیاط را شرح دهید.برنامه ها عبارتند از: موفقیت/شکست از استارتاپ ها ؛صحت اخبار جعلی ؛و شرایط جدید برای وجود از منحنی عملکرد که به شدت بدون داوری است.
30,092
Accurate estimation for extent of cross{sectional dependence in large panel data analysis is paramount to further statistical analysis on the data under study. Grouping more data with weak relations (cross{sectional dependence) together often results in less efficient dimension reduction and worse forecasting. This paper describes cross-sectional dependence among a large number of objects (time series) via a factor model and parameterizes its extent in terms of strength of factor loadings. A new joint estimation method, benefiting from unique feature of dimension reduction for high dimensional time series, is proposed for the parameter representing the extent and some other parameters involved in the estimation procedure. Moreover, a joint asymptotic distribution for a pair of estimators is established. Simulations illustrate the effectiveness of the proposed estimation method in the finite sample performance. Applications in cross-country macro-variables and stock returns from S&P 500 are studied.
تخمین دقیق برای میزان وابستگی مقطعی در پانل بزرگ تجزیه و تحلیل داده ها مهمترین تجزیه و تحلیل آماری در مورد داده های زیر است مطالعه.گروه بندی داده های بیشتر با روابط ضعیف (وابستگی مقطعی) با هم اغلب منجر به کاهش ابعاد کمتری و بدتر می شود پیش بینیدر این مقاله ، وابستگی مقطعی در میان یک بزرگ توضیح داده شده است تعداد اشیاء (سری زمانی) از طریق یک مدل فاکتور و میزان آن را پارامتر می کند از نظر قدرت بارهای عامل.یک روش جدید تخمین مشترک ، بهره مندی از ویژگی منحصر به فرد کاهش ابعاد برای زمان ابعادی بالا سری ، برای پارامتر نمایانگر وسعت و برخی دیگر پیشنهاد شده است پارامترهای درگیر در روش تخمین.علاوه بر این ، یک بدون علامت مشترک توزیع یک جفت برآوردگر برقرار شده است.شبیه سازی ها نشان می دهد اثربخشی روش تخمین پیشنهادی در نمونه محدود کارایی.برنامه های کاربردی در متغیرهای کلان کشور و بازده سهام از S&P 500 مورد مطالعه قرار گرفته است.
30,093
The goal of this paper is to provide some tools for nonparametric estimation and inference in psychological and economic experiments. We consider an experimental framework in which each of $n$subjects provides $T$ responses to a vector of $T$ stimuli. We propose to estimate the unknown function $f$ linking stimuli to responses through a nonparametric sieve estimator. We give conditions for consistency when either $n$ or $T$ or both diverge. The rate of convergence depends upon the error covariance structure, that is allowed to differ across subjects. With these results we derive the optimal divergence rate of the dimension of the sieve basis with both $n$ and $T$. We provide guidance about the optimal balance between the number of subjects and questions in a laboratory experiment and argue that a large $n$is often better than a large $T$. We derive conditions for asymptotic normality of functionals of the estimator of $T$ and apply them to obtain the asymptotic distribution of the Wald test when the number of constraints under the null is finite and when it diverges along with other asymptotic parameters. Lastly, we investigate the previous properties when the conditional covariance matrix is replaced by an estimator.
هدف این مقاله ارائه برخی ابزارها برای برآورد غیرپارامتری است و استنباط در آزمایش های روانشناختی و اقتصادی.ما یک را در نظر می گیریم چارچوب آزمایشی که در آن هر یک از موضوعات $ $ $ پاسخ می دهد $ t $ به a وکتور محرک $ t $.ما پیشنهاد می کنیم عملکرد ناشناخته $ f $ پیوند را تخمین بزنیم محرک پاسخ از طریق یک برآوردگر غربال غیر پارامتری.ما می دهیم شرایط مربوط به سازگاری هنگامی که $ n $ یا $ t $ یا هر دو واگرایی است.نرخ همگرایی به ساختار کواریانس خطایی بستگی دارد ، که مجاز به آن است در بین افراد متفاوت است.با این نتایج ، واگرایی بهینه را استخراج می کنیم نرخ ابعاد مبنای الک با هر دو $ n $ و $ t $.ما فراهم می کنیم راهنمایی در مورد تعادل بهینه بین تعداد موضوعات و سوالات در یک آزمایشگاه آزمایشگاهی و استدلال کنید که یک $ بزرگ $ اغلب بهتر از یک است بزرگ $ t $.ما شرایطی را برای عادی بودن بدون علامت عملکردهای عملکرد به دست می آوریم برآوردگر $ t $ و آنها را برای به دست آوردن توزیع بدون علامت از تست والد وقتی تعداد محدودیت های زیر تهی محدود است و چه زمانی به همراه سایر پارامترهای بدون علامت متفاوت است.در آخر ، ما تحقیق می کنیم خواص قبلی هنگامی که ماتریس کواریانس مشروط با یک جایگزین می شود برآوردگر
30,094
This paper investigates the role of high-dimensional information sets in the context of Markov switching models with time varying transition probabilities. Markov switching models are commonly employed in empirical macroeconomic research and policy work. However, the information used to model the switching process is usually limited drastically to ensure stability of the model. Increasing the number of included variables to enlarge the information set might even result in decreasing precision of the model. Moreover, it is often not clear a priori which variables are actually relevant when it comes to informing the switching behavior. Building strongly on recent contributions in the field of factor analysis, we introduce a general type of Markov switching autoregressive models for non-linear time series analysis. Large numbers of time series are allowed to inform the switching process through a factor structure. This factor-augmented Markov switching (FAMS) model overcomes estimation issues that are likely to arise in previous assessments of the modeling framework. More accurate estimates of the switching behavior as well as improved model fit result. The performance of the FAMS model is illustrated in a simulated data example as well as in an US business cycle application.
در این مقاله به بررسی نقش مجموعه های اطلاعاتی با ابعاد بالا در زمینه مدل های سوئیچینگ مارکوف با احتمالات مختلف انتقال. مدل های سوئیچینگ مارکوف معمولاً در اقتصاد کلان تجربی استفاده می شوند تحقیق و کار سیاست.با این حال ، اطلاعات مورد استفاده برای مدل سازی سوئیچینگ فرآیند معمولاً برای اطمینان از ثبات مدل به طرز چشمگیری محدود است. افزایش تعداد متغیرهای موجود برای بزرگنمایی مجموعه اطلاعات حتی ممکن است منجر به کاهش دقت مدل شود.علاوه بر این ، اغلب پیشینی روشن نیست که متغیرها در واقع در واقع مرتبط هستند آگاهی از رفتار سوئیچینگ.ساختمان به شدت در مورد مشارکتهای اخیر در زمینه تجزیه و تحلیل عاملی ، ما یک نوع کلی از سوئیچینگ مارکوف را معرفی می کنیم مدل های خودکار برای تجزیه و تحلیل سری زمانی غیرخطی.تعداد زیادی از سری های زمانی مجاز به اطلاع رسانی از طریق یک عامل هستند ساختاراین مدل سوئیچینگ مارکوف (FAMS) با ضریب عامل غلبه می کند مسائل تخمین که احتمالاً در ارزیابی های قبلی از چارچوب مدل سازی.تخمین دقیق تر از رفتار تعویض نیز به عنوان نتیجه مناسب مدل مناسب.عملکرد مدل FAMS نشان داده شده است در یک مثال داده شبیه سازی شده و همچنین در یک برنامه چرخه تجارت ایالات متحده.
30,095
Structural models that admit multiple reduced forms, such as game-theoretic models with multiple equilibria, pose challenges in practice, especially when parameters are set-identified and the identified set is large. In such cases, researchers often choose to focus on a particular subset of equilibria for counterfactual analysis, but this choice can be hard to justify. This paper shows that some parameter values can be more "desirable" than others for counterfactual analysis, even if they are empirically equivalent given the data. In particular, within the identified set, some counterfactual predictions can exhibit more robustness than others, against local perturbations of the reduced forms (e.g. the equilibrium selection rule). We provide a representation of this subset which can be used to simplify the implementation. We illustrate our message using moment inequality models, and provide an empirical application based on a model with top-coded data.
مدل های ساختاری که چندین فرم کاهش یافته را قبول می کنند ، مانند بازی نظری بازی مدلهایی با تعادل متعدد ، در عمل چالش هایی را ایجاد می کنند ، به خصوص هنگامی که پارامترها مشخص شده و مجموعه مشخص شده بزرگ است.در اینگونه موارد، محققان غالباً تصمیم می گیرند روی زیر مجموعه خاصی از تعادل تمرکز کنند تجزیه و تحلیل متقابل ، اما این انتخاب می تواند برای توجیه سخت باشد.این کاغذ نشان می دهد که برخی از مقادیر پارامتر می توانند "مطلوب" از سایرین باشند تجزیه و تحلیل ضد خلاف ، حتی اگر از نظر تجربی با توجه به داده ها.به طور خاص ، در مجموعه مشخص شده ، برخی از پیش بینی های ضد عملی می تواند استحکام بیشتری نسبت به سایرین داشته باشد ، در برابر آشفتگی های محلی فرم های کاهش یافته (به عنوان مثال قانون انتخاب تعادل).ما ارائه می دهیم بازنمایی این زیر مجموعه که می تواند برای ساده سازی اجرای آن استفاده شود. ما پیام خود را با استفاده از مدل های نابرابری لحظه ای نشان می دهیم و یک برنامه تجربی مبتنی بر یک مدل با داده های دارای کد بالا.
30,096
We offer a rationalization of the weak generalized axiom of revealed preference (WGARP) for both finite and infinite data sets of consumer choice. We call it maximin rationalization, in which each pairwise choice is associated with a "local" utility function. We develop its associated weak revealed-preference theory. We show that preference recoverability and welfare analysis \`a la Varian (1982) may not be informative enough, when the weak axiom holds, but when consumers are not utility maximizers. We clarify the reasons for this failure and provide new informative bounds for the consumer's true preferences.
ما عقلانی از بدیهیات عمومی ضعیف آشکار شده را ارائه می دهیم اولویت (WGARP) برای هر دو مجموعه داده محدود و نامحدود از انتخاب مصرف کننده. ما آن را حداکثر عقلانیت می نامیم ، که در آن هر انتخاب زوجی در ارتباط است با یک عملکرد ابزار "محلی".ما ضعیف آن را توسعه می دهیم نظریه مقدمات فاش شده.ما نشان می دهیم که قابلیت بازیابی و رفاه ترجیح تجزیه و تحلیل \ `a la varian (1982) ممکن است به اندازه کافی آموزنده نباشد ، وقتی ضعیف باشد Axiom نگه می دارد ، اما وقتی مصرف کنندگان حداکثر سازنده نیستند.ما روشن می کنیم دلایل این عدم موفقیت و ارائه مرزهای آموزنده جدید برای مصرف کننده ترجیحات واقعی
30,097
Over the last decade, big data have poured into econometrics, demanding new statistical methods for analysing high-dimensional data and complex non-linear relationships. A common approach for addressing dimensionality issues relies on the use of static graphical structures for extracting the most significant dependence interrelationships between the variables of interest. Recently, Bayesian nonparametric techniques have become popular for modelling complex phenomena in a flexible and efficient manner, but only few attempts have been made in econometrics. In this paper, we provide an innovative Bayesian nonparametric (BNP) time-varying graphical framework for making inference in high-dimensional time series. We include a Bayesian nonparametric dependent prior specification on the matrix of coefficients and the covariance matrix by mean of a Time-Series DPP as in Nieto-Barajas et al. (2012). Following Billio et al. (2019), our hierarchical prior overcomes over-parametrization and over-fitting issues by clustering the vector autoregressive (VAR) coefficients into groups and by shrinking the coefficients of each group toward a common location. Our BNP timevarying VAR model is based on a spike-and-slab construction coupled with dependent Dirichlet Process prior (DPP) and allows to: (i) infer time-varying Granger causality networks from time series; (ii) flexibly model and cluster non-zero time-varying coefficients; (iii) accommodate for potential non-linearities. In order to assess the performance of the model, we study the merits of our approach by considering a well-known macroeconomic dataset. Moreover, we check the robustness of the method by comparing two alternative specifications, with Dirac and diffuse spike prior distributions.
در طول یک دهه گذشته ، داده های بزرگ در اقتصاد سنجی ریخته و خواستار جدید هستند روشهای آماری برای تجزیه و تحلیل داده های با ابعاد بالا و غیر خطی پیچیده روابطیک رویکرد مشترک برای پرداختن به موضوعات بعد متکی است استفاده از ساختارهای گرافیکی استاتیک برای استخراج مهمترین وابستگی متقابل بین متغیرهای مورد علاقه.به تازگی، تکنیک های غیرپارامتری بیزی برای مجموعه مدل سازی محبوب شده اند پدیده ها به شیوه ای انعطاف پذیر و کارآمد ، اما تنها تلاش های کمی انجام شده است ساخته شده در اقتصاد سنجی.در این مقاله ، ما یک بیزی نوآورانه ارائه می دهیم چارچوب گرافیکی متغیر زمان غیر پارامتری (BNP) برای استنباط در سری زمانی با ابعاد بالا.ما شامل یک وابسته غیر پارامتری بیزی هستیم مشخصات قبلی در مورد ماتریس ضرایب و ماتریس کوواریانس توسط میانگین DPP سری زمانی مانند Nieto-Barajas و همکاران.(2012).به دنبال بیلیو و همکاران(2019) ، قبل از سلسله مراتبی ما غلبه بر پارامت بیش از حد و مسائل بیش از حد متناسب با خوشه بندی ضرایب وکتور اتورگرایی (VAR) به گروه ها و با کوچک کردن ضرایب هر گروه به سمت یک مشترک محل.مدل VAR Timevarying BNP ما مبتنی بر سنبله و تخته است ساخت و ساز همراه با فرآیند وابسته Dirichlet قبل (DPP) و اجازه می دهد به: (i) شبکه های علیت گرنجر متغیر استنباط از سری زمانی.(ب) انعطاف پذیر مدل و ضرایب متغیر زمان غیر صفر.(iii) برای غیر خطی های احتمالی اسکان دهید.به منظور ارزیابی عملکرد از این مدل ، ما با در نظر گرفتن یک شناخته شده ، شایستگی های رویکرد خود را مطالعه می کنیم مجموعه داده های کلان اقتصادی.علاوه بر این ، ما استحکام روش را بررسی می کنیم مقایسه دو مشخصات جایگزین ، با دیراک و سنبله پراکنده توزیع
30,098
Market sectors play a key role in the efficient flow of capital through the modern Global economy. We analyze existing sectorization heuristics, and observe that the most popular - the GICS (which informs the S&P 500), and the NAICS (published by the U.S. Government) - are not entirely quantitatively driven, but rather appear to be highly subjective and rooted in dogma. Building on inferences from analysis of the capital structure irrelevance principle and the Modigliani-Miller theoretic universe conditions, we postulate that corporation fundamentals - particularly those components specific to the Modigliani-Miller universe conditions - would be optimal descriptors of the true economic domain of operation of a company. We generate a set of potential candidate learned sector universes by varying the linkage method of a hierarchical clustering algorithm, and the number of resulting sectors derived from the model (ranging from 5 to 19), resulting in a total of 60 candidate learned sector universes. We then introduce reIndexer, a backtest-driven sector universe evaluation research tool, to rank the candidate sector universes produced by our learned sector classification heuristic. This rank was utilized to identify the risk-adjusted return optimal learned sector universe as being the universe generated under CLINK (i.e. complete linkage), with 17 sectors. The optimal learned sector universe was tested against the benchmark GICS classification universe with reIndexer, outperforming on both absolute portfolio value, and risk-adjusted return over the backtest period. We conclude that our fundamentals-driven Learned Sector classification heuristic provides a superior risk-diversification profile than the status quo classification heuristic.
بخش های بازار نقش مهمی در جریان کارآمد سرمایه از طریق اقتصاد جهانی مدرن.ما اکتشافی بخش سازی موجود را تحلیل می کنیم ، و مشاهده کنید که محبوب ترین آنها - GICS (که S&P 500 را آگاه می کند) و NAICS (منتشر شده توسط دولت ایالات متحده) - کاملاً کمی نیست رانده شده ، اما به نظر می رسد بسیار ذهنی و ریشه در جزم است.ساختمان در مورد استنتاج از تجزیه و تحلیل ساختار سرمایه بی ربط و شرایط جهان نظری Modigliani-Miller ، ما آن را فرض می کنیم اصول شرکت - به ویژه مؤلفه های خاص برای شرایط جهان Modigliani -Miller - توصیف کننده های بهینه از حوزه اقتصادی واقعی بهره برداری یک شرکت.ما مجموعه ای از پتانسیل ها را تولید می کنیم نامزد جهان بخش های بخش را با تغییر روش پیوند یک الگوریتم خوشه بندی سلسله مراتبی ، و تعداد بخش های حاصل مشتق شده از مدل (از 5 تا 19) ، و در نتیجه 60 نامزد جهان های بخش آموخته.سپس Reindexer ، یک بخش پشتی محور را معرفی می کنیم ابزار تحقیق ارزیابی جهان ، برای رتبه بندی جهان بخش کاندیداها تولید شده توسط اکتشافی طبقه بندی بخش آموخته ما.از این رتبه استفاده شد برای شناسایی بازده تنظیم شده بهینه بازده بهینه آموخته شده ، به عنوان موجود جهان تولید شده در زیر Clink (یعنی پیوند کامل) ، با 17 بخش. جهان بهینه آموخته شده در برابر معیار GICS آزمایش شد جهان طبقه بندی با reindexer ، از هر دو مطلق بهتر است ارزش نمونه کارها و بازده تنظیم ریسک در دوره پشتی.نتیجه می گیریم این که اصول طبقه بندی آموخته شده از اصول ما را ارائه می دهد مشخصات انحراف ریسک برتر از طبقه بندی وضع موجود ابتکاری.
30,099
The presence of \b{eta}-convergence in European regions is an important issue to be analyzed. In this paper, we adopt a quantile regression approach in analyzing economic convergence. While previous work has performed quantile regression at the national level, we focus on 187 European NUTS2 regions for the period 1981-2009 and use spatial quantile regression to account for spatial dependence.
حضور \ b {eta} -convergence در مناطق اروپایی یک مسئله مهم است برای تجزیه و تحلیلدر این مقاله ، ما یک رویکرد رگرسیون کمی را در آن اتخاذ می کنیم تجزیه و تحلیل همگرایی اقتصادی.در حالی که کار قبلی کمی انجام داده است رگرسیون در سطح ملی ، ما روی 187 منطقه NUTS2 اروپا تمرکز می کنیم دوره 1981-2009 و از رگرسیون کمی مکانی برای به حساب می آید وابستگی.
30,100
We propose new confidence sets (CSs) for the regression discontinuity parameter in fuzzy designs. Our CSs are based on local linear regression, and are bias-aware, in the sense that they take possible bias explicitly into account. Their construction shares similarities with that of Anderson-Rubin CSs in exactly identified instrumental variable models, and thereby avoids issues with "delta method" approximations that underlie most commonly used existing inference methods for fuzzy regression discontinuity analysis. Our CSs are asymptotically equivalent to existing procedures in canonical settings with strong identification and a continuous running variable. However, due to their particular construction they are also valid under a wide range of empirically relevant conditions in which existing methods can fail, such as setups with discrete running variables, donut designs, and weak identification.
ما مجموعه اعتماد به نفس جدید (CSS) را برای ناپیوستگی رگرسیون پیشنهاد می کنیم پارامتر در طرح های فازی.CSS ما مبتنی بر رگرسیون خطی محلی است ، و تعصب آگاه هستند ، به این معنا که تعصب احتمالی را به صراحت وارد می کنند حساب.ساخت و ساز آنها شباهت هایی با Anderson-Rubin CSS دارد در مدل های متغیر ابزاری دقیقاً مشخص شده ، و از این طریق از مشکلات جلوگیری می کند با تقریب "روش دلتا" که زیربنای ترین آنها موجود است روشهای استنباط برای تجزیه و تحلیل ناپیوستگی رگرسیون فازی.CSS ما هستند بدون علامت معادل رویه های موجود در تنظیمات متعارف با شناسایی قوی و متغیر در حال اجرا مداوم.با این حال ، به دلیل آنها ساخت و سازهای خاص آنها نیز تحت طیف گسترده ای از تجربی معتبر هستند شرایط مربوطه که در آن روشهای موجود می توانند شکست بخورند ، مانند تنظیمات با متغیرهای در حال اجرا گسسته ، طرح های پیراشکی و شناسایی ضعیف.
30,101
Economists are often interested in estimating averages with respect to distributions of unobservables, such as moments of individual fixed-effects, or average partial effects in discrete choice models. For such quantities, we propose and study posterior average effects (PAE), where the average is computed conditional on the sample, in the spirit of empirical Bayes and shrinkage methods. While the usefulness of shrinkage for prediction is well-understood, a justification of posterior conditioning to estimate population averages is currently lacking. We show that PAE have minimum worst-case specification error under various forms of misspecification of the parametric distribution of unobservables. In addition, we introduce a measure of informativeness of the posterior conditioning, which quantifies the worst-case specification error of PAE relative to parametric model-based estimators. As illustrations, we report PAE estimates of distributions of neighborhood effects in the US, and of permanent and transitory components in a model of income dynamics.
اقتصاددانان غالباً علاقه مند به تخمین میانگین با توجه به آنها هستند توزیع ناآگاهان ، مانند لحظات اثر ثابت فردی ، یا اثرات جزئی متوسط ​​در مدلهای انتخاب گسسته.برای چنین مقادیر ، ما اثرات متوسط ​​خلفی (PAE) را پیشنهاد و مطالعه کنید ، جایی که میانگین آن است محاسبه مشروط بر نمونه ، با روح بیزهای تجربی و روشهای کوچک شدن.در حالی که سودمندی انقباض برای پیش بینی است خوب درک ، توجیهی از تهویه خلفی برای برآورد میانگین جمعیت در حال حاضر فاقد آن است.ما نشان می دهیم که PAE حداقل دارد خطای مشخصات بدترین حالت تحت اشکال مختلف اشتباه غلط توزیع پارامتری غیر قابل استفاده.علاوه بر این ، ما یک اندازه گیری را معرفی می کنیم اطلاعات مربوط به تهویه خلفی ، که کمیت می کند خطای مشخصات بدترین حالت PAE نسبت به مدل پارامتری مبتنی بر برآوردگرهابه عنوان تصاویر ، ما برآوردهای PAE توزیع را گزارش می کنیم اثرات همسایگی در ایالات متحده و اجزای دائمی و گذرا در مدل پویایی درآمد.
30,102
Based on the high-frequency recordings from Kraken, a cryptocurrency exchange and professional trading platform that aims to bring Bitcoin and other cryptocurrencies into the mainstream, the multiscale cross-correlations involving the Bitcoin (BTC), Ethereum (ETH), Euro (EUR) and US dollar (USD) are studied over the period between July 1, 2016 and December 31, 2018. It is shown that the multiscaling characteristics of the exchange rate fluctuations related to the cryptocurrency market approach those of the Forex. This, in particular, applies to the BTC/ETH exchange rate, whose Hurst exponent by the end of 2018 started approaching the value of 0.5, which is characteristic of the mature world markets. Furthermore, the BTC/ETH direct exchange rate has already developed multifractality, which manifests itself via broad singularity spectra. A particularly significant result is that the measures applied for detecting cross-correlations between the dynamics of the BTC/ETH and EUR/USD exchange rates do not show any noticeable relationships. This may be taken as an indication that the cryptocurrency market has begun decoupling itself from the Forex.
بر اساس ضبط های فرکانس بالا از Kraken ، مبادله رمزنگاری و بستر معاملاتی حرفه ای که هدف آن آوردن بیت کوین و دیگری است ارزهای رمزنگاری شده به جریان اصلی ، همبستگی های متقابل چند طبقه شامل بیت کوین (BTC) ، اتریوم (ETH) ، یورو (یورو) و دلار آمریکا (USD) در طول دوره بین 1 ژوئیه 2016 و 31 دسامبر 2018 مطالعه شده است. این نشان داده شده است که ویژگی های چند منظوره نوسانات نرخ ارز مرتبط است به رویکرد بازار cryptocurrency آنهایی که فارکس است.این ، به ویژه ، مربوط به نرخ ارز BTC/ETH است که تا پایان سال 2018 نماینده Hurst است شروع به نزدیک شدن به مقدار 0.5 ، که مشخصه بالغ است بازارهای جهانیعلاوه بر این ، نرخ ارز مستقیم BTC/ETH قبلاً داشته است چند فرتیته توسعه یافته ، که خود را از طریق تکینگی گسترده تجلی می یابد طیفنتیجه قابل توجه این است که اقدامات مورد استفاده تشخیص همبستگی های متقابل بین پویایی BTC/ETH و EUR/USD نرخ ارز هیچ رابطه قابل توجهی را نشان نمی دهد.این ممکن است به عنوان گرفته شود نشانه ای مبنی بر اینکه بازار رمزنگاری از خود شروع به جدا کردن خود کرده است فارکس
30,103
A joint conditional autoregressive expectile and Expected Shortfall framework is proposed. The framework is extended through incorporating a measurement equation which models the contemporaneous dependence between the realized measures and the latent conditional expectile. Nonlinear threshold specification is further incorporated into the proposed framework. A Bayesian Markov Chain Monte Carlo method is adapted for estimation, whose properties are assessed and compared with maximum likelihood via a simulation study. One-day-ahead VaR and ES forecasting studies, with seven market indices, provide empirical support to the proposed models.
یک چارچوب کمبود انتظار و پیش بینی شده اتوراسیون مشترک مشترک پیشنهاد شده استاین چارچوب از طریق ترکیب یک اندازه گیری گسترش می یابد معادله ای که وابستگی معاصر بین تحقق یافته را مدل می کند اقدامات و انتظار شرطی نهفته.آستانه غیرخطی مشخصات بیشتر در چارچوب پیشنهادی گنجانیده شده است.یک بیزی Markov Chain Monte Carlo روش برای تخمین سازگار است ، که خواص آن است ارزیابی و مقایسه با حداکثر احتمال از طریق یک مطالعه شبیه سازی. مطالعات پیش بینی یک روزه VAR و ES ، با هفت شاخص بازار ، پشتیبانی تجربی از مدلهای پیشنهادی ارائه می دهد.
30,104
This study aims to find a Box-Jenkins time series model for the monthly OFW's remittance in the Philippines. Forecasts of OFW's remittance for the years 2018 and 2019 will be generated using the appropriate time series model. The data were retrieved from the official website of Bangko Sentral ng Pilipinas. There are 108 observations, 96 of which were used in model building and the remaining 12 observations were used in forecast evaluation. ACF and PACF were used to examine the stationarity of the series. Augmented Dickey Fuller test was used to confirm the stationarity of the series. The data was found to have a seasonal component, thus, seasonality has been considered in the final model which is SARIMA (2,1,0)x(0,0,2)_12. There are no significant spikes in the ACF and PACF of residuals of the final model and the L-jung Box Q* test confirms further that the residuals of the model are uncorrelated. Also, based on the result of the Shapiro-Wilk test for the forecast errors, the forecast errors can be considered a Gaussian white noise. Considering the results of diagnostic checking and forecast evaluation, SARIMA (2,1,0)x(0,0,2)_12 is an appropriate model for the series. All necessary computations were done using the R statistical software.
این مطالعه با هدف یافتن یک مدل سری زمانی باکس-جنکینز برای ماهانه OFW حواله در فیلیپین.پیش بینی حواله OFW برای سالهای 2018 و سال 2019 با استفاده از مدل سری زمانی مناسب تولید می شود.داده از وب سایت رسمی بانکو Sentral NG Pilipinas بازیابی شد.آنجا 108 مشاهده است که 96 مورد از آنها در ساختمان مدل و باقیمانده استفاده شده است 12 مشاهده در ارزیابی پیش بینی استفاده شد.ACF و PACF مورد استفاده قرار گرفتند ثابت بودن سریال را بررسی کنید.از آزمون افزودنی دیکی فولر استفاده شد برای تأیید ثابت بودن سریال.داده ها پیدا شده است مؤلفه فصلی ، بنابراین ، فصلی در مدل نهایی در نظر گرفته شده است که Sarima (2،1،0) x (0،0،2) _12 است.در ACF هیچ سنبله قابل توجهی وجود ندارد و PACF باقیمانده های مدل نهایی و آزمایش L-Jung Q* تأیید می کند علاوه بر این که باقیمانده های مدل با هم مرتبط نیستند.همچنین ، بر اساس نتیجه آزمایش Shapiro-Wilk برای خطاهای پیش بینی ، خطاهای پیش بینی می توان یک صدای سفید گاوسی را در نظر گرفت.با توجه به نتایج تشخیص بررسی و ارزیابی پیش بینی ، Sarima (2،1،0) x (0،0،2) _12 مناسب است مدل برای این سریال.تمام محاسبات لازم با استفاده از r انجام شد نرم افزار آماری.
30,105
In this study we used company level administrative data from the National Labour Inspectorate and The Polish Social Insurance Institution in order to estimate the prevalence of informal employment in Poland. Since the selection mechanism is non-ignorable we employed a generalization of Heckman's sample selection model assuming non-Gaussian correlation of errors and clustering by incorporation of random effects. We found that 5.7% (4.6%, 7.1%; 95% CI) of registered enterprises in Poland, to some extent, take advantage of the informal labour force. Our study exemplifies a new approach to measuring informal employment, which can be implemented in other countries. It also contributes to the existing literature by providing, to the best of our knowledge, the first estimates of informal employment at the level of companies based solely on administrative data.
در این مطالعه از داده های اداری سطح شرکت از ملی استفاده کردیم بازرس کار و موسسه بیمه اجتماعی لهستان به منظور شیوع اشتغال غیررسمی در لهستان را تخمین بزنید.از زمان انتخاب مکانیسم غیر شایز است ، ما از تعمیم نمونه هکمن استفاده کردیم مدل انتخاب با فرض همبستگی غیر گاوسی خطاها و خوشه بندی توسط ترکیب اثرات تصادفی.ما دریافتیم که 5.7 ٪ (4.6 ٪ ، 7.1 ٪ ؛ CI 95 ٪) از شرکت های ثبت شده در لهستان ، تا حدی ، از نیروی کار غیررسمی.مطالعه ما یک رویکرد جدید برای اندازه گیری را نشان می دهد اشتغال غیررسمی ، که می تواند در کشورهای دیگر اجرا شود.همچنین با ارائه ، به بهترین وجهی به ادبیات موجود کمک می کند دانش ، اولین تخمین های اشتغال غیررسمی در سطح شرکت ها صرفاً بر اساس داده های اداری.
30,106
Purchase data from retail chains provide proxy measures of private household expenditure on items that are the most troublesome to collect in the traditional expenditure survey. Due to the sheer amount of proxy data, the bias due to coverage and selection errors completely dominates the variance. We develop tests for bias based on audit sampling, which makes use of available survey data that cannot be linked to the proxy data source at the individual level. However, audit sampling fails to yield a meaningful mean squared error estimate, because the sampling variance is too large compared to the bias of the big data estimate. We propose a novel accuracy measure that is applicable in such situations. This can provide a necessary part of the statistical argument for the uptake of big data source, in replacement of traditional survey sampling. An application to disaggregated food price index is used to demonstrate the proposed approach.
داده های خرید از زنجیره های خرده فروشی اقدامات پروکسی خانواده خصوصی را ارائه می دهند هزینه های مربوط به مواردی که برای جمع آوری در آن مشکل ساز هستند بررسی هزینه های سنتی.با توجه به مقدار کامل داده های پروکسی ، تعصب با توجه به خطاهای پوشش و انتخاب کاملاً بر واریانس حاکم است.ما تست های تعصب را بر اساس نمونه گیری حسابرسی توسعه دهید ، که باعث استفاده از آن می شود داده های نظرسنجی که نمی توانند به منبع داده پروکسی در فرد مرتبط شوند مرحله.با این حال ، نمونه گیری حسابرسی نتواند خطای میانگین مربعی معنی دار را به همراه داشته باشد تخمین بزنید ، زیرا واریانس نمونه برداری در مقایسه با تعصب بسیار زیاد است برآورد داده های بزرگ.ما یک اندازه گیری دقت جدید را ارائه می دهیم که قابل اجرا است در چنین شرایطیاین می تواند بخش لازم از آماری را فراهم کند استدلال برای جذب منبع داده بزرگ ، در جایگزینی سنتی نمونه گیری بررسی.برنامه ای برای تقسیم قیمت مواد غذایی تفکیک شده استفاده می شود رویکرد پیشنهادی را نشان دهید.
30,109
Datasets that are terabytes in size are increasingly common, but computer bottlenecks often frustrate a complete analysis of the data. While more data are better than less, diminishing returns suggest that we may not need terabytes of data to estimate a parameter or test a hypothesis. But which rows of data should we analyze, and might an arbitrary subset of rows preserve the features of the original data? This paper reviews a line of work that is grounded in theoretical computer science and numerical linear algebra, and which finds that an algorithmically desirable sketch, which is a randomly chosen subset of the data, must preserve the eigenstructure of the data, a property known as a subspace embedding. Building on this work, we study how prediction and inference can be affected by data sketching within a linear regression setup. We show that the sketching error is small compared to the sample size effect which a researcher can control. As a sketch size that is algorithmically optimal may not be suitable for prediction and inference, we use statistical arguments to provide 'inference conscious' guides to the sketch size. When appropriately implemented, an estimator that pools over different sketches can be nearly as efficient as the infeasible one using the full sample.
مجموعه داده هایی که از نظر اندازه ترابایت هستند به طور فزاینده ای متداول هستند ، اما رایانه تنگناها اغلب تجزیه و تحلیل کامل داده ها را ناامید می کنند.در حالی که داده های بیشتر بهتر از کمتر است ، کاهش بازده نشان می دهد که ممکن است ما نیازی نداریم Terabytes از داده ها برای برآورد یک پارامتر یا آزمایش یک فرضیه.اما کدام ردیف ها از داده ها باید تجزیه و تحلیل کنیم ، و ممکن است یک زیر مجموعه دلخواه از ردیف ها ویژگی های داده های اصلی؟در این مقاله یک خط کار بررسی شده است مبتنی بر علوم نظری کامپیوتر و جبر خطی عددی ، و که می یابد یک طرح الگوریتمی مطلوب ، که به طور تصادفی است زیر مجموعه داده های منتخب ، باید ساختار ویژه داده ها را حفظ کند ، a املاک معروف به فضای زیر فضای.با تکیه بر این کار ، ما چگونه مطالعه می کنیم پیش بینی و استنباط می تواند تحت تأثیر طراحی داده ها در یک خطی باشد تنظیم رگرسیون.ما نشان می دهیم که خطای طراحی در مقایسه با تأثیر اندازه نمونه که یک محقق می تواند کنترل کند.به عنوان یک اندازه طرح که هست از نظر الگوریتمی بهینه ممکن است برای پیش بینی و استنباط مناسب نباشد ، ما از استدلال های آماری برای ارائه راهنماهای "استنباط آگاهانه" به طرح استفاده کنید اندازه.هنگامی که به طور مناسب اجرا شد ، برآوردگر دیگری است که جمع می شود طرح ها می توانند تقریباً به همان اندازه کارآمد باشند که با استفاده از کامل نمونه.
30,110
In economic development, there are often regions that share similar economic characteristics, and economic models on such regions tend to have similar covariate effects. In this paper, we propose a Bayesian clustered regression for spatially dependent data in order to detect clusters in the covariate effects. Our proposed method is based on the Dirichlet process which provides a probabilistic framework for simultaneous inference of the number of clusters and the clustering configurations. The usage of our method is illustrated both in simulation studies and an application to a housing cost dataset of Georgia.
در توسعه اقتصادی ، اغلب مناطقی وجود دارند که اقتصادی مشابه دارند ویژگی ها ، و مدل های اقتصادی در چنین مناطقی تمایل به مشابه دارند اثرات متغیر.در این مقاله ، ما یک رگرسیون خوشه ای بیزی پیشنهاد می کنیم برای داده های وابسته به مکانی به منظور تشخیص خوشه ها در متغیر اثراتروش پیشنهادی ما مبتنی بر فرآیند Dirichlet است که ارائه می دهد چارچوب احتمالی برای استنباط همزمان تعداد خوشه ها و تنظیمات خوشه بندی.استفاده از روش ما هر دو نشان داده شده است در مطالعات شبیه سازی و کاربردی برای مجموعه داده هزینه مسکن جورجیا.
30,111
This paper considers a semiparametric generalized autoregressive conditional heteroskedasticity (S-GARCH) model. For this model, we first estimate the time-varying long run component for unconditional variance by the kernel estimator, and then estimate the non-time-varying parameters in GARCH-type short run component by the quasi maximum likelihood estimator (QMLE). We show that the QMLE is asymptotically normal with the parametric convergence rate. Next, we construct a Lagrange multiplier test for linear parameter constraint and a portmanteau test for model checking, and obtain their asymptotic null distributions. Our entire statistical inference procedure works for the non-stationary data with two important features: first, our QMLE and two tests are adaptive to the unknown form of the long run component; second, our QMLE and two tests share the same efficiency and testing power as those in variance targeting method when the S-GARCH model is stationary.
در این مقاله یک مشروط خودجوش عمومی نیمهرامتری در نظر گرفته شده است مدل ناهمگن (S-GARCH).برای این مدل ، ابتدا تخمین می زنیم مؤلفه بلند مدت متغیر برای واریانس بی قید و شرط توسط هسته برآوردگر ، و سپس پارامترهای غیر متغیر را در نوع Garch تخمین بزنید مؤلفه کوتاه مدت توسط برآوردگر حداکثر احتمال شبه (QMLE).ما نشان می دهیم اینکه QMLE با نرخ همگرایی پارامتری به صورت مجانبی طبیعی است. در مرحله بعد ، ما یک تست ضرب Lagrange را برای محدودیت پارامتر خطی می سازیم و یک آزمایش Portmanteau برای بررسی مدل ، و تهی بدون علامت آنها توزیعکل روش استنباط آماری ما برای داده های غیر ثابت با دو ویژگی مهم: اول ، QMLE و دو تست ما سازگار با فرم ناشناخته مؤلفه بلند مدت هستند.دوم ، qmle ما و دو آزمایش با همان کارایی و قدرت آزمایش به عنوان واریانس مشترک هستند روش هدف گذاری هنگامی که مدل S-GARCH ثابت است.
30,112
We propose a framework for nonparametric identification and estimation of discrete choice models with unobserved choice sets. We recover the joint distribution of choice sets and preferences from a panel dataset on choices. We assume that either the latent choice sets are sparse or that the panel is sufficiently long. Sparsity requires the number of possible choice sets to be relatively small. It is satisfied, for instance, when the choice sets are nested, or when they form a partition. Our estimation procedure is computationally fast and uses mixed-integer optimization to recover the sparse support of choice sets. Analyzing the ready-to-eat cereal industry using a household scanner dataset, we find that ignoring the unobservability of choice sets can lead to biased estimates of preferences due to significant latent heterogeneity in choice sets.
ما چارچوبی را برای شناسایی غیرپارامتری و تخمین پیشنهاد می کنیم مدل های انتخاب گسسته با مجموعه های انتخابی بدون محافظت.ما مفصل را بازیابی می کنیم توزیع مجموعه ها و تنظیمات انتخابی از یک مجموعه داده پانل در گزینه ها.ما فرض کنید که یا مجموعه های انتخاب نهفته پراکنده هستند یا پانل است به اندازه کافی طولانیکمبود نیاز به تعداد مجموعه های انتخابی ممکن است نسبتا کوچک.به عنوان مثال ، وقتی مجموعه های انتخابی هستند راضی است تو در تو ، یا هنگامی که آنها یک پارتیشن تشکیل می دهند.روش تخمین ما است از نظر محاسباتی سریع و از بهینه سازی مخلوط مخلوط برای بازیابی پراکنده استفاده می کند پشتیبانی از مجموعه های انتخاب.تجزیه و تحلیل صنعت غلات آماده برای خوردن با استفاده از a مجموعه داده های اسکنر خانگی ، ما می دانیم که نادیده گرفتن غیرقابل کنترل از انتخاب مجموعه ها می توانند منجر به تخمین های مغرضانه از ترجیحات ناشی از نهفته قابل توجه شوند ناهمگونی در مجموعه های انتخاب.
30,113
Climate change is a massive multidimensional shift. Temperature shifts, in particular, have important implications for urbanization, agriculture, health, productivity, and poverty, among other things. While much research has documented rising mean temperature \emph{levels}, we also examine range-based measures of daily temperature \emph{volatility}. Specifically, using data for select U.S. cities over the past half-century, we compare the evolving time series dynamics of the average temperature level, AVG, and the diurnal temperature range, DTR (the difference between the daily maximum and minimum temperatures). We characterize trend and seasonality in these two series using linear models with time-varying coefficients. These straightforward yet flexible approximations provide evidence of evolving DTR seasonality and stable AVG seasonality.
تغییر آب و هوا یک تغییر چند بعدی گسترده است.تغییر دما ، در به طور خاص ، پیامدهای مهمی برای شهرنشینی ، کشاورزی ، سلامت ، بهره وری و فقر ، از جمله موارد دیگر.در حالی که تحقیقات زیادی انجام شده است میانگین دما در حال افزایش مستند \ it {سطح} ، ما همچنین بر اساس محدوده بررسی می کنیم اقدامات دمای روزانه \ تأکید {نوسانات}.به طور خاص ، استفاده از داده ها شهرهای ایالات متحده را طی نیم قرن گذشته انتخاب کنید ، ما زمان در حال تحول را مقایسه می کنیم دینامیک سری از میانگین دما ، AVG و روزانه دامنه دما ، DTR (تفاوت بین حداکثر و حداقل روزانه دما).ما در این دو سری با استفاده از روند و فصلی توصیف می کنیم مدل های خطی با ضرایب متغیر زمان.این موارد ساده هنوز تقریبی انعطاف پذیر شواهدی از تحول فصلی DTR و پایدار ارائه می دهد فصلی AVG.
30,114
Travel decisions tend to exhibit sensitivity to uncertainty and information processing constraints. These behavioural conditions can be characterized by a generative learning process. We propose a data-driven generative model version of rational inattention theory to emulate these behavioural representations. We outline the methodology of the generative model and the associated learning process as well as provide an intuitive explanation of how this process captures the value of prior information in the choice utility specification. We demonstrate the effects of information heterogeneity on a travel choice, analyze the econometric interpretation, and explore the properties of our generative model. Our findings indicate a strong correlation with rational inattention behaviour theory, which suggest that individuals may ignore certain exogenous variables and rely on prior information for evaluating decisions under uncertainty. Finally, the principles demonstrated in this study can be formulated as a generalized entropy and utility based multinomial logit model.
تصمیمات مسافرتی تمایل به حساسیت به عدم اطمینان و اطلاعات دارد محدودیت های پردازش.این شرایط رفتاری را می توان با a مشخص کرد فرایند یادگیری تولیدی.ما یک نسخه مدل تولیدی داده محور را پیشنهاد می کنیم نظریه عدم توجه منطقی برای تقلید از این بازنمودهای رفتاری.ما روش شناسی مدل تولیدی و یادگیری مرتبط را تشریح کنید فرآیند و همچنین توضیحی شهودی در مورد چگونگی این فرایند ارائه می دهد ارزش اطلاعات قبلی را در مشخصات ابزار انتخاب ضبط می کند.ما اثرات ناهمگونی اطلاعات را در انتخاب سفر نشان دهید ، تفسیر اقتصاد سنجی را تجزیه و تحلیل کرده و خواص ما را کشف کنید مدل تولیدی.یافته های ما نشانگر همبستگی قوی با منطقی است نظریه رفتار بی توجه ، که نشان می دهد افراد ممکن است مطمئن را نادیده بگیرند متغیرهای اگزوژن و برای ارزیابی تصمیمات به اطلاعات قبلی متکی هستند تحت عدم اطمینانسرانجام ، اصول نشان داده شده در این مطالعه می تواند باشد به عنوان یک آنتروپی تعمیم یافته و مدل ورود به سیستم چند منظوره مبتنی بر ابزار.
30,134
With the rapid development of Internet finance, a large number of studies have shown that Internet financial platforms have different financial systemic risk characteristics when they are subject to macroeconomic shocks or fragile internal crisis. From the perspective of regional development of Internet finance, this paper uses t-SNE machine learning algorithm to obtain data mining of China's Internet finance development index involving 31 provinces and 335 cities and regions. The conclusion of the peak and thick tail characteristics, then proposed three classification risks of Internet financial systemic risk, providing more regionally targeted recommendations for the systematic risk of Internet finance.
با توسعه سریع تأمین مالی اینترنت ، تعداد زیادی از مطالعات نشان داده اند که سیستم عامل های مالی اینترنت دارای سیستماتیک مالی متفاوتی هستند ویژگی های خطر در معرض شوک های کلان اقتصادی یا شکننده است بحران داخلیاز منظر توسعه منطقه ای اینترنت امور مالی ، این مقاله از الگوریتم یادگیری ماشین T-SNE برای به دست آوردن داده کاوی استفاده می کند شاخص توسعه مالی اینترنت چین شامل 31 استان و 335 شهرها و مناطق.نتیجه گیری از ویژگی های اوج و ضخیم ، سپس سه خطر طبقه بندی ریسک سیستمیک مالی اینترنت را پیشنهاد کرد ، ارائه توصیه های هدفمند منطقه ای برای خطر سیستماتیک از امور مالی اینترنت.
30,115
Time-varying parameter (TVP) models are widely used in time series analysis to flexibly deal with processes which gradually change over time. However, the risk of overfitting in TVP models is well known. This issue can be dealt with using appropriate global-local shrinkage priors, which pull time-varying parameters towards static ones. In this paper, we introduce the R package shrinkTVP (Knaus, Bitto-Nemling, Cadonna, and Fr\"uhwirth-Schnatter 2019), which provides a fully Bayesian implementation of shrinkage priors for TVP models, taking advantage of recent developments in the literature, in particular that of Bitto and Fr\"uhwirth-Schnatter (2019). The package shrinkTVP allows for posterior simulation of the parameters through an efficient Markov Chain Monte Carlo (MCMC) scheme. Moreover, summary and visualization methods, as well as the possibility of assessing predictive performance through log predictive density scores (LPDSs), are provided. The computationally intensive tasks have been implemented in C++ and interfaced with R. The paper includes a brief overview of the models and shrinkage priors implemented in the package. Furthermore, core functionalities are illustrated, both with simulated and real data.
مدل های پارامتر متغیر زمان (TVP) به طور گسترده در تجزیه و تحلیل سری زمانی استفاده می شود برای مقابله با انعطاف پذیری با فرآیندی که به تدریج با گذشت زمان تغییر می کنند.با این حال خطر ابتلا به بیش از حد در مدل های TVP به خوبی شناخته شده است.این موضوع را می توان پرداخته است با استفاده از مقدمات مناسب برای کوچک شدن جهانی-محلی ، که باعث ایجاد متغیر زمان می شوند پارامترها به سمت استاتیک.در این مقاله ، بسته R را معرفی می کنیم Shrinktvp (Knaus ، Bitto-Nemling ، Cadonna و Fr \ "Uhwirth-Schnatter 2019) ، که اجرای کاملاً بیزی از Priors کوچک برای TVP را فراهم می کند مدل ها ، با بهره گیری از تحولات اخیر در ادبیات ، در به ویژه از Bitto و fr \ "Uhwirth-Schnatter (2019) ShrinkTVP امکان شبیه سازی خلفی پارامترها را از طریق یک طرح کارآمد زنجیره ای مارکوف مونت کارلو (MCMC).علاوه بر این ، خلاصه و روشهای تجسم و همچنین امکان ارزیابی پیش بینی عملکرد از طریق نمرات چگالی پیش بینی Log (LPDS) ارائه شده است.در وظایف فشرده محاسباتی در C ++ اجرا شده و با هم ارتباط برقرار شده است با R. این مقاله شامل یک مرور کلی از مدل ها و Priors کوچک شدن است در بسته اجرا شده است.علاوه بر این ، عملکردهای اصلی نشان داده شده است ، هم با داده های شبیه سازی شده و هم واقعی.
30,116
The heterogeneous autoregressive (HAR) model is revised by modeling the joint distribution of the four partial-volatility terms therein involved. Namely, today's, yesterday's, last week's and last month's volatility components. The joint distribution relies on a (C-) Vine copula construction, allowing to conveniently extract volatility forecasts based on the conditional expectation of today's volatility given its past terms. The proposed empirical application involves more than seven years of high-frequency transaction prices for ten stocks and evaluates the in-sample, out-of-sample and one-step-ahead forecast performance of our model for daily realized-kernel measures. The model proposed in this paper is shown to outperform the HAR counterpart under different models for marginal distributions, copula construction methods, and forecasting settings.
مدل اتورگرایی ناهمگن (HAR) با مدل سازی مفصل اصلاح می شود توزیع چهار اصطلاح نامی جزئی در آن درگیر است.برای مثال، امروز ، دیروز ، هفته گذشته و اجزای نوسانات ماه گذشته.در توزیع مشترک به ساخت و ساز (C-) Copula Vine متکی است ، پیش بینی نوسانات را به راحتی براساس انتظار مشروط استخراج کنید از نوسانات امروز با توجه به شرایط گذشته خود.برنامه تجربی پیشنهادی شامل بیش از هفت سال قیمت معاملات با فرکانس بالا برای ده سهام را در نمونه ، خارج از نمونه و پیش بینی یک مرحله ای ارزیابی می کند عملکرد مدل ما برای اقدامات روزانه تحقق یافته.مدل پیشنهادی در این مقاله نشان داده شده است که از همتای HAR تحت مدل های مختلف بهتر عمل می کند برای توزیع های حاشیه ای ، روش های ساخت کوپلا و پیش بینی تنظیمات.
30,117
This study conducts a benchmarking study, comparing 23 different statistical and machine learning methods in a credit scoring application. In order to do so, the models' performance is evaluated over four different data sets in combination with five data sampling strategies to tackle existing class imbalances in the data. Six different performance measures are used to cover different aspects of predictive performance. The results indicate a strong superiority of ensemble methods and show that simple sampling strategies deliver better results than more sophisticated ones.
این مطالعه یک مطالعه معیار را انجام می دهد ، و 23 آماری مختلف را با هم مقایسه می کند و روشهای یادگیری ماشین در یک برنامه امتیاز دهی اعتبار.به منظور انجام بنابراین ، عملکرد مدل ها بیش از چهار مجموعه داده مختلف در ارزیابی می شود ترکیب با پنج استراتژی نمونه گیری داده برای مقابله با کلاس موجود عدم تعادل در داده ها.شش اقدام مختلف عملکرد برای پوشش استفاده می شود جنبه های مختلف عملکرد پیش بینی.نتایج حاکی از قوی است برتری روشهای گروهی و نشان می دهد که استراتژی های نمونه برداری ساده نتایج بهتری نسبت به نتایج پیچیده تر ارائه دهید.
30,118
We discuss a simplified version of the testing problem considered by Pelican and Graham (2019): testing for interdependencies in preferences over links among N (possibly heterogeneous) agents in a network. We describe an exact test which conditions on a sufficient statistic for the nuisance parameter characterizing any agent-level heterogeneity. Employing an algorithm due to Blitzstein and Diaconis (2011), we show how to simulate the null distribution of the test statistic in order to estimate critical values and/or p-values. We illustrate our methods using the Nyakatoke risk-sharing network. We find that the transitivity of the Nyakatoke network far exceeds what can be explained by degree heterogeneity across households alone.
ما در مورد نسخه ساده شده از مشکل آزمایش که توسط Pelican در نظر گرفته شده است بحث می کنیم و گراهام (2019): آزمایش وابستگی های متقابل در ترجیحات بیش از پیوندها در میان نمایندگان N (احتمالاً ناهمگن) در یک شبکه.ما یک آزمون دقیق را توصیف می کنیم کدام یک از یک آمار کافی برای پارامتر مزاحمت است توصیف هر ناهمگونی سطح عامل.استفاده از الگوریتم به دلیل Blitzstein and Diaconis (2011) ، ما نحوه شبیه سازی توزیع تهی را نشان می دهیم از آمار آزمون به منظور برآورد مقادیر بحرانی و/یا مقادیر p.ما روشهای ما را با استفاده از شبکه تقسیم ریسک Nyakatoke نشان دهید.ما این را پیدا می کنیم انتقال شبکه Nyakatoke به مراتب فراتر از آنچه است که می توان آن را توضیح داد ناهمگونی درجه فقط در بین خانوارها.
30,119
We study a class of permutation tests of the randomness of a collection of Bernoulli sequences and their application to analyses of the human tendency to perceive streaks of consecutive successes as overly representative of positive dependence - the hot hand fallacy. In particular, we study permutation tests of the null hypothesis of randomness (i.e., that trials are i.i.d.) based on test statistics that compare the proportion of successes that directly follow k consecutive successes with either the overall proportion of successes or the proportion of successes that directly follow k consecutive failures. We characterize the asymptotic distributions of these test statistics and their permutation distributions under randomness, under a set of general stationary processes, and under a class of Markov chain alternatives, which allow us to derive their local asymptotic power. The results are applied to evaluate the empirical support for the hot hand fallacy provided by four controlled basketball shooting experiments. We establish that substantially larger data sets are required to derive an informative measurement of the deviation from randomness in basketball shooting. In one experiment, for which we were able to obtain data, multiple testing procedures reveal that one shooter exhibits a shooting pattern significantly inconsistent with randomness - supplying strong evidence that basketball shooting is not random for all shooters all of the time. However, we find that the evidence against randomness in this experiment is limited to this shooter. Our results provide a mathematical and statistical foundation for the design and validation of experiments that directly compare deviations from randomness with human beliefs about deviations from randomness, and thereby constitute a direct test of the hot hand fallacy.
ما یک کلاس از تست های جابجایی از تصادفی مجموعه ای از مجموعه را مطالعه می کنیم توالی های برنولی و کاربرد آنها در تجزیه و تحلیل تمایل انسان به رگه های موفقیت های متوالی را به عنوان نماینده بیش از حد مثبت درک کنید وابستگی - مغالطه دست داغ.به طور خاص ، ما تست های جایگشت را مطالعه می کنیم فرضیه تهی از تصادفی (به عنوان مثال ، این آزمایشات I.I.D.) بر اساس آزمون آماری که نسبت موفقیت هایی را که مستقیماً از K دنبال می کنند مقایسه می کند موفقیت های متوالی با نسبت کلی موفقیت ها یا نسبت موفقیت هایی که مستقیماً از شکست های متوالی پیروی می کنند.ما توزیع های بدون علامت این آمار آزمون و آنها را مشخص کنید توزیع جابجایی تحت تصادفی ، تحت مجموعه ای از ثابت عمومی فرآیندها ، و تحت یک کلاس از گزینه های زنجیره ای مارکوف ، که به ما امکان می دهد قدرت بدون علامت محلی خود را به دست آورید.نتایج برای ارزیابی پشتیبانی تجربی از مغالطه دست داغ ارائه شده توسط چهار کنترل شده آزمایش های تیراندازی بسکتبال.ما داده های قابل ملاحظه ای بزرگتر را تعیین می کنیم مجموعه ها برای استخراج یک اندازه گیری آموزنده از انحراف از تصادفی در تیراندازی بسکتبال.در یک آزمایش ، که برای آن توانستیم به دست آوردن داده ها ، روشهای آزمایش چندگانه نشان می دهد که یک تیرانداز نمایشگاه A را نشان می دهد الگوی تیراندازی به طور قابل توجهی با تصادفی مغایرت دارد - تأمین قوی شواهدی مبنی بر اینکه تیراندازی بسکتبال برای همه تیراندازها تصادفی نیست زمان.با این حال ، ما می دانیم که شواهد در برابر تصادفی در این آزمایش محدود به این تیرانداز است.نتایج ما یک ریاضی و آماری را ارائه می دهد پایه و اساس طراحی و اعتبار سنجی آزمایشاتی که مستقیماً مقایسه می شوند انحراف از تصادفی با اعتقادات انسانی در مورد انحراف از تصادفی ، و بدین ترتیب یک آزمایش مستقیم از مغالطه دست داغ است.
30,120
This paper develops the asymptotic theory of a Fully Modified Generalized Least Squares estimator for multivariate cointegrating polynomial regressions. Such regressions allow for deterministic trends, stochastic trends and integer powers of stochastic trends to enter the cointegrating relations. Our fully modified estimator incorporates: (1) the direct estimation of the inverse autocovariance matrix of the multidimensional errors, and (2) second order bias corrections. The resulting estimator has the intuitive interpretation of applying a weighted least squares objective function to filtered data series. Moreover, the required second order bias corrections are convenient byproducts of our approach and lead to standard asymptotic inference. We also study several multivariate KPSS-type of tests for the null of cointegration. A comprehensive simulation study shows good performance of the FM-GLS estimator and the related tests. As a practical illustration, we reinvestigate the Environmental Kuznets Curve (EKC) hypothesis for six early industrialized countries as in Wagner et al. (2020).
این مقاله نظریه بدون علامت یک تعمیم کاملاً اصلاح شده را توسعه می دهد حداقل برآوردگر مربع برای رگرسیون چند متغیره چند متغیره. چنین رگرسیونی ها روند قطعی ، روندهای تصادفی و عدد صحیح را فراهم می کنند قدرت روندهای تصادفی برای ورود به روابط همگرایی.ما برآوردگر اصلاح شده شامل می شود: (1) تخمین مستقیم معکوس ماتریس اتوکوارانس از خطاهای چند بعدی و (2) تعصب مرتبه دوم اصلاحاتبرآوردگر حاصل دارای تفسیر شهودی از استفاده از یک تابع هدف حداقل مربعات وزنی در سری داده های فیلتر شده. علاوه بر این ، اصلاحات تعصب مرتبه دوم کالاهای جانبی مناسب است رویکرد ما و منجر به استنباط استاندارد بدون علامت.ما همچنین مطالعه می کنیم چندین آزمایش چند متغیره KPSS برای NULL CONTEGRATION.آ مطالعه جامع شبیه سازی عملکرد خوبی از برآوردگر FM-GLS را نشان می دهد و تست های مربوطهبه عنوان یک تصویر عملی ، ما دوباره تحقیق می کنیم فرضیه منحنی Kuznets محیطی (EKC) برای شش اوایل صنعتی کشورهایی مانند واگنر و همکاران.(2020).
30,121
A generalized distributed tool for mobility choice modelling is presented, where participants do not share personal raw data, while all computations are done locally. Participants use Blockchain based Smart Mobility Data-market (BSMD), where all transactions are secure and private. Nodes in blockchain can transact information with other participants as long as both parties agree to the transaction rules issued by the owner of the data. A case study is presented where a mode choice model is distributed and estimated over BSMD. As an example, the parameter estimation problem is solved on a distributed version of simulated annealing. It is demonstrated that the estimated model parameters are consistent and reproducible.
یک ابزار توزیع شده عمومی برای مدل سازی انتخاب تحرک ارائه شده است ، جایی که شرکت کنندگان داده های خام شخصی را به اشتراک نمی گذارند ، در حالی که تمام محاسبات هستند انجام شده در محلیشرکت کنندگان از بازار داده تحرک هوشمند مبتنی بر blockchain استفاده می کنند (BSMD) ، جایی که تمام معاملات ایمن و خصوصی هستند.گره ها در blockchain می توانند انتقال اطلاعات با سایر شرکت کنندگان تا زمانی که هر دو طرف با آن موافقت کنند قوانین معامله صادر شده توسط صاحب داده ها.یک مطالعه موردی است ارائه شده در جایی که یک مدل انتخاب حالت توزیع و تخمین زده می شود از BSMD.مانند به عنوان مثال ، مشکل تخمین پارامتر در یک نسخه توزیع شده حل می شود بازپرداخت شبیه سازی شدهنشان داده شده است که پارامترهای مدل تخمین زده شده سازگار و قابل تکرار هستند.
30,122
We propose a modification of the classical Black-Derman-Toy (BDT) interest rate tree model, which includes the possibility of a jump with small probability at each step to a practically zero interest rate. The corresponding BDT algorithms are consequently modified to calibrate the tree containing the zero interest rate scenarios. This modification is motivated by the recent 2008-2009 crisis in the United States and it quantifies the risk of a future crises in bond prices and derivatives. The proposed model is useful to price derivatives. This exercise also provides a tool to calibrate the probability of this event. A comparison of option prices and implied volatilities on US Treasury bonds computed with both the proposed and the classical tree model is provided, in six different scenarios along the different periods comprising the years 2002-2017.
ما یک تغییر علاقه کلاسیک سیاه و سفید (BDT) را پیشنهاد می کنیم مدل درختی را که شامل احتمال پرش با کوچک است احتمال در هر مرحله به نرخ بهره تقریباً صفر.مربوطه در نتیجه الگوریتم های BDT برای کالیبراسیون درخت حاوی اصلاح می شوند سناریوهای نرخ بهره صفر.این اصلاح توسط اخیر ایجاد شده است بحران 2008-2009 در ایالات متحده و خطر آینده را تعیین می کند بحران در قیمت اوراق قرضه و مشتقات.مدل پیشنهادی برای قیمت مفید است مشتقاتاین تمرین همچنین ابزاری برای کالیبراسیون احتمال وجود دارد این رخداد.مقایسه قیمت گزینه ها و نوسانات ضمنی بر ما اوراق بهادار خزانه داری با هر دو مدل پیشنهادی و کلاسیک محاسبه می شود در شش سناریو مختلف در طول دوره های مختلف شامل سالهای 2002-2017.
30,123
I develop a model of a randomized experiment with a binary intervention and a binary outcome. Potential outcomes in the intervention and control groups give rise to four types of participants. Fixing ideas such that the outcome is mortality, some participants would live regardless, others would be saved, others would be killed, and others would die regardless. These potential outcome types are not observable. However, I use the model to develop estimators of the number of participants of each type. The model relies on the randomization within the experiment and on deductive reasoning. I apply the model to an important clinical trial, the PROWESS trial, and I perform a Monte Carlo simulation calibrated to estimates from the trial. The reduced form from the trial shows a reduction in mortality, which provided a rationale for FDA approval. However, I find that the intervention killed two participants for every three it saved.
من یک مدل از یک آزمایش تصادفی با یک مداخله باینری و a ایجاد می کنم نتیجه دودویینتایج بالقوه در گروه های مداخله و کنترل می دهد به چهار نوع شرکت کننده صعود کنید.رفع ایده ها به گونه ای که نتیجه باشد مرگ و میر ، برخی از شرکت کنندگان بدون در نظر گرفتن زندگی می کنند ، برخی دیگر نجات می یابند ، دیگران کشته می شوند و دیگران بدون در نظر گرفتن می میرند.این پتانسیل ها انواع نتیجه قابل مشاهده نیست.با این حال ، من از مدل برای توسعه استفاده می کنم برآوردگرهای تعداد شرکت کنندگان از هر نوع.مدل به تصادفی سازی در آزمایش و استدلال قیاسی.من اعمال می کنم مدل به یک کارآزمایی بالینی مهم ، کارآزمایی قدرتمند ، و من یک مونت را انجام می دهم شبیه سازی کارلو به تخمین های آزمایشی کالیبره شده است.فرم کاهش یافته از محاکمه کاهش مرگ و میر را نشان می دهد ، که منطقی برای FDA فراهم کرده است تصویب.با این حال ، فهمیدم که این مداخله باعث کشته شدن دو شرکت کننده شد هر سه آن را نجات داد.
30,124
The LATE monotonicity assumption of Imbens and Angrist (1994) precludes "defiers," individuals whose treatment always runs counter to the instrument, in the terminology of Balke and Pearl (1993) and Angrist et al. (1996). I allow for defiers in a model with a binary instrument and a binary treatment. The model is explicit about the randomization process that gives rise to the instrument. I use the model to develop estimators of the counts of defiers, always takers, compliers, and never takers. I propose separate versions of the estimators for contexts in which the parameter of the randomization process is unspecified, which I intend for use with natural experiments with virtual random assignment. I present an empirical application that revisits Angrist and Evans (1998), which examines the impact of virtual random assignment of the sex of the first two children on subsequent fertility. I find that subsequent fertility is much more responsive to the sex mix of the first two children when defiers are allowed.
فرض یکنواختی اواخر Imbens و Angrist (1994) مانع می شود "Defiers" ، افرادی که درمان آنها همیشه خلاف ساز است ، در اصطلاحات Balke و Pearl (1993) و Angrist et al.(1996).من اجازه میدهم برای Defiers در یک مدل با ابزار باینری و یک درمان باینری.در مدل در مورد فرآیند تصادفی که باعث ایجاد می شود صریح است ابزار.من از این مدل برای توسعه برآوردگرهای تعداد Defiers استفاده می کنم ، همیشه متقاضیان ، تعارفات و هرگز متصدی.من نسخه های جداگانه ای از برآوردگرها برای زمینه هایی که پارامتر فرآیند تصادفی در آن است نامشخص ، که من قصد دارم با آزمایش های طبیعی با مجازی استفاده کنم انتساب تصادفیمن یک برنامه تجربی ارائه می دهم که مجدداً مجدداً و ایوانز (1998) ، که تأثیر تکالیف تصادفی مجازی جنس را بررسی می کند از دو کودک اول در مورد باروری بعدی.من آن را بعدی پیدا می کنم باروری بسیار بیشتر به ترکیب جنسی دو کودک اول پاسخگو است Defiers مجاز است.
30,125
The drift diffusion model (DDM) is a model of sequential sampling with diffusion (Brownian) signals, where the decision maker accumulates evidence until the process hits a stopping boundary, and then stops and chooses the alternative that corresponds to that boundary. This model has been widely used in psychology, neuroeconomics, and neuroscience to explain the observed patterns of choice and response times in a range of binary choice decision problems. This paper provides a statistical test for DDM's with general boundaries. We first prove a characterization theorem: we find a condition on choice probabilities that is satisfied if and only if the choice probabilities are generated by some DDM. Moreover, we show that the drift and the boundary are uniquely identified. We then use our condition to nonparametrically estimate the drift and the boundary and construct a test statistic.
مدل انتشار رانش (DDM) یک مدل از نمونه گیری متوالی با سیگنال های انتشار (براون) ، جایی که تصمیم گیرنده شواهدی را جمع می کند تا زمانی که این روند به یک مرز متوقف نشود ، و سپس متوقف و انتخاب می کند جایگزین که با آن مرز مطابقت دارد.این مدل به طور گسترده ای مورد استفاده قرار گرفته است در روانشناسی ، اقتصاد عصبی و علوم اعصاب برای توضیح مشاهده شده الگوهای انتخاب و زمان پاسخ در طیف وسیعی از تصمیم انتخاب باینری چالش ها و مسائل.در این مقاله یک آزمایش آماری برای DDM با عمومی ارائه شده است مرزهاما ابتدا یک قضیه شخصیت پردازی را اثبات می کنیم: ما یک شرط را پیدا می کنیم احتمالات انتخابی که راضی باشد و فقط اگر احتمال انتخاب باشد توسط برخی از DDM تولید می شود.علاوه بر این ، ما نشان می دهیم که رانش و مرز منحصر به فرد شناسایی شده اندسپس ما از شرایط خود برای غیر پارامتری استفاده می کنیم رانش و مرز را تخمین بزنید و یک آمار آزمون بسازید.
30,126
This paper investigates the time-varying impacts of international macroeconomic uncertainty shocks. We use a global vector autoregressive specification with drifting coefficients and factor stochastic volatility in the errors to model six economies jointly. The measure of uncertainty is constructed endogenously by estimating a scalar driving the innovation variances of the latent factors, which is also included in the mean of the process. To achieve regularization, we use Bayesian techniques for estimation, and introduce a set of hierarchical global-local priors. The adopted priors center the model on a constant parameter specification with homoscedastic errors, but allow for time-variation if suggested by likelihood information. Moreover, we assume coefficients across economies to be similar, but provide sufficient flexibility via the hierarchical prior for country-specific idiosyncrasies. The results point towards pronounced real and financial effects of uncertainty shocks in all countries, with differences across economies and over time.
در این مقاله تأثیرات متغیر بین المللی بررسی شده است شوک های عدم قطعیت کلان.ما از یک وکتور جهانی استفاده می کنیم مشخصات با ضرایب رانش و نوسانات تصادفی فاکتور در خطاهای مربوط به الگوی شش اقتصاد به طور مشترک.اندازه گیری عدم اطمینان است با برآورد یک مقیاس رانندگی نوآوری به صورت درون زا ساخته شده است واریانس فاکتورهای نهفته ، که در میانگین آن نیز گنجانده شده است روند.برای دستیابی به منظم ، ما از تکنیک های بیزی برای تخمین استفاده می کنیم ، و مجموعه ای از مقدمات جهانی و محلی سلسله مراتبی را معرفی کنید.مقدمات پذیرفته شده مدل را روی مشخصات پارامتر ثابت با homoscedastic متمرکز کنید خطاها ، اما در صورت پیشنهاد با اطلاعات احتمال ، متغیر زمان را فراهم می کند. علاوه بر این ، ما فرض می کنیم ضرایب در سراسر اقتصاد مشابه هستند ، اما فراهم می کنند انعطاف پذیری کافی از طریق سلسله مراتبی قبلی برای کشور خاص اصطلاحات خاص.نتایج به سمت اثرات واقعی و مالی برجسته می شود شوک های عدم اطمینان در همه کشورها ، با تفاوت در اقتصادها و در طول زمان.
30,127
Dyadic data, where outcomes reflecting pairwise interaction among sampled units are of primary interest, arise frequently in social science research. Regression analyses with such data feature prominently in many research literatures (e.g., gravity models of trade). The dependence structure associated with dyadic data raises special estimation and, especially, inference issues. This chapter reviews currently available methods for (parametric) dyadic regression analysis and presents guidelines for empirical researchers.
داده های دیدی ، که در آن نتایج منعکس کننده تعامل زوجی بین نمونه برداری شده است واحدها مورد توجه اصلی هستند ، که اغلب در تحقیقات علوم اجتماعی بوجود می آیند. تجزیه و تحلیل رگرسیون با چنین ویژگی های برجسته در بسیاری از تحقیقات ادبیات (به عنوان مثال ، مدل های گرانشی تجارت).ساختار وابستگی مرتبط با داده های دیادی تخمین ویژه ای را افزایش می دهد و به ویژه ، مسائل استنباطدر این فصل روشهای موجود برای (پارامتری) تجزیه و تحلیل رگرسیون دیادی و دستورالعمل هایی را برای تجربی ارائه می دهد محققان
30,128
This paper presents the asymptotic behavior of a linear instrumental variables (IV) estimator that uses a ridge regression penalty. The regularization tuning parameter is selected empirically by splitting the observed data into training and test samples. Conditional on the tuning parameter, the training sample creates a path from the IV estimator to a prior. The optimal tuning parameter is the value along this path that minimizes the IV objective function for the test sample. The empirically selected regularization tuning parameter becomes an estimated parameter that jointly converges with the parameters of interest. The asymptotic distribution of the tuning parameter is a nonstandard mixture distribution. Monte Carlo simulations show the asymptotic distribution captures the characteristics of the sampling distributions and when this ridge estimator performs better than two-stage least squares.
در این مقاله رفتار بدون علامت یک ابزار خطی ارائه شده است متغیرهای (IV) برآوردگر که از مجازات رگرسیون ریج استفاده می کند.در پارامتر تنظیم منظم با تقسیم داده های مشاهده شده در نمونه های آموزش و آزمایش.مشروط به تنظیم پارامتر ، نمونه آموزش مسیری را از برآوردگر IV به قبلی ایجاد می کند. پارامتر تنظیم بهینه مقدار در طول این مسیر است که IV را به حداقل می رساند عملکرد هدف برای نمونه آزمون. پارامتر تنظیم تنظیم منظم تجربی تخمین زده می شود پارامتر که به طور مشترک با پارامترهای مورد علاقه همگرا می شود.در توزیع بدون علامت از پارامتر تنظیم یک مخلوط غیر استاندارد است توزیعشبیه سازی مونت کارلو ضبط توزیع بدون علامت را نشان می دهد ویژگی های توزیع نمونه گیری و هنگامی که این برآوردگر خط الراس است عملکرد بهتری از حداقل مربعات دو مرحله ای دارد.
30,129
Forecasting costs is now a front burner in empirical economics. We propose an unconventional tool for stochastic prediction of future expenses based on the individual (micro) developments of recorded events. Consider a firm, enterprise, institution, or state, which possesses knowledge about particular historical events. For each event, there is a series of several related subevents: payments or losses spread over time, which all leads to an infinitely stochastic process at the end. Nevertheless, the issue is that some already occurred events do not have to be necessarily reported. The aim lies in forecasting future subevent flows coming from already reported, occurred but not reported, and yet not occurred events. Our methodology is illustrated on quantitative risk assessment, however, it can be applied to other areas such as startups, epidemics, war damages, advertising and commercials, digital payments, or drug prescription as manifested in the paper. As a theoretical contribution, inference for infinitely stochastic processes is developed. In particular, a non-homogeneous Poisson process with non-homogeneous Poisson processes as marks is used, which includes for instance the Cox process as a special case.
هزینه های پیش بینی اکنون مشعل جلو در اقتصاد تجربی است.ما پیشنهاد می کنیم ابزار غیر متعارف برای پیش بینی تصادفی از هزینه های آینده بر اساس تحولات فردی (میکرو) وقایع ضبط شده.یک محکم را در نظر بگیرید ، شرکت ، موسسه یا ایالت ، که دانش خاصی در مورد آن دارد رویداد های تاریخی.برای هر رویداد ، یک سری از چندین مرتبط وجود دارد زیرمجموعه ها: پرداخت ها یا ضررها با گذشت زمان گسترش می یابد ، که همه منجر به یک فرآیند بی نهایت تصادفی در پایان.با این وجود ، مسئله این است که برخی در حال حاضر اتفاقات لازم نیست که لزوماً گزارش شوند.هدف نهفته است پیش بینی جریان های زیرزمینی آینده که از قبل گزارش شده است ، رخ داده است اما گزارش نشده است ، و در عین حال اتفاقاتی رخ نداده است.روش ما در نشان داده شده است با این حال ، ارزیابی ریسک کمی می تواند در مناطق دیگر مانند استفاده شود استارتاپ ها ، اپیدمی ها ، خسارت های جنگ ، تبلیغات و تبلیغات ، دیجیتال پرداخت یا تجویز مواد مخدر همانطور که در مقاله آشکار می شود.به عنوان یک نظری مشارکت ، استنباط فرآیندهای بی نهایت تصادفی توسعه یافته است.که در به ویژه ، یک فرایند پواسون غیر همگن با پواسون غیر همگن فرآیندها به عنوان علائم استفاده می شود ، که به عنوان مثال فرآیند COX به عنوان a مورد خاص.
30,130
We present a symmetry analysis of the distribution of variations of different financial indices, by means of a statistical procedure developed by the authors based on a symmetry statistic by Einmahl and Mckeague. We applied this statistical methodology to financial uninterrupted daily trends returns and to other derived observable. In our opinion, to study distributional symmetry, trends returns offer more advantages than the commonly used daily financial returns; the two most important being: 1) Trends returns involve sampling over different time scales and 2) By construction, this variable time series contains practically the same number of non-negative and negative entry values. We also show that these time multi-scale returns display distributional bi-modality. Daily financial indices analyzed in this work, are the Mexican IPC, the American DJIA, DAX from Germany and the Japanese Market index Nikkei, covering a time period from 11-08-1991 to 06-30-2017. We show that, at the time scale resolution and significance considered in this paper, it is almost always feasible to find an interval of possible symmetry points containing one most plausible symmetry point denoted by C. Finally, we study the temporal evolution of C showing that this point is seldom zero and responds with sensitivity to extreme market events.
ما یک تجزیه و تحلیل تقارن از توزیع تغییرات مختلف ارائه می دهیم شاخص های مالی ، با استفاده از یک روش آماری که توسط نویسندگان تهیه شده است بر اساس آمار تقارن توسط اینمال و مک کیاگ.ما این را اعمال کردیم روش آماری به روندهای روزانه بدون وقفه مالی و به دیگر قابل مشاهده است.به نظر ما ، برای مطالعه تقارن توزیع ، بازده روندها مزایای بیشتری را نسبت به مالی روزانه متداول ارائه می دهد بازگشتدو مهمترین این: 1) روند بازده شامل نمونه برداری است مقیاس زمانی مختلف و 2) با ساخت و ساز ، این سری زمانی متغیر تقریباً همان تعداد مقادیر ورود غیر منفی و منفی را شامل می شود. ما همچنین نشان می دهیم که این زمان توزیع چند مقیاس توزیع نمایشگر دو مادهشاخص های مالی روزانه که در این کار مورد تجزیه و تحلیل قرار گرفته است ، مکزیکی هستند IPC ، DJIA آمریکایی ، DAX از آلمان و شاخص بازار ژاپن Nikkei ، پوشش یک دوره زمانی از 11-08-1991 تا 06-30-2017.ما این را نشان می دهیم ، در آن زمان وضوح مقیاس و اهمیت در نظر گرفته شده در این مقاله ، تقریباً همیشه است امکان یافتن فاصله ای از نقاط تقارن احتمالی حاوی یک بیشترین نقطه تقارن قابل قبول که توسط C. مشخص شده است ، سرانجام ، ما تکامل زمانی را مطالعه می کنیم از C نشان می دهد که این نقطه به ندرت صفر است و با حساسیت به آن پاسخ می دهد رویدادهای شدید بازار.
30,131
Language and cultural diversity is a fundamental aspect of the present world. We study three modern multilingual societies -- the Basque Country, Ireland and Wales -- which are endowed with two, linguistically distant, official languages: $A$, spoken by all individuals, and $B$, spoken by a bilingual minority. In the three cases it is observed a decay in the use of minoritarian $B$, a sign of diversity loss. However, for the "Council of Europe" the key factor to avoid the shift of $B$ is its use in all domains. Thus, we investigate the language choices of the bilinguals by means of an evolutionary game theoretic model. We show that the language population dynamics has reached an evolutionary stable equilibrium where a fraction of bilinguals have shifted to speak $A$. Thus, this equilibrium captures the decline in the use of $B$. To test the theory we build empirical models that predict the use of $B$ for each proportion of bilinguals. We show that model-based predictions fit very well the observed use of Basque, Irish, and Welsh.
زبان و تنوع فرهنگی جنبه اساسی جهان فعلی است. ما سه جامعه چند زبانه مدرن را مطالعه می کنیم - کشور باسک ، ایرلند و ولز - که دارای دو ، از نظر زبانی از نظر زبانی ، رسمی است زبانها: $ $ ، توسط همه افراد صحبت می شود ، و $ $ ، که توسط یک دو زبانه صحبت می شود اقلیتدر سه مورد ، یک پوسیدگی در استفاده از صغیر مشاهده می شود $ B $ ، نشانه ضرر تنوع.با این حال ، برای "شورای اروپا" کلید فاکتور برای جلوگیری از تغییر $ B $ استفاده از آن در همه دامنه ها است.بنابراین ، ما انتخاب زبان دو زبانه را با استفاده از تکاملی بررسی کنید مدل نظری بازی.ما نشان می دهیم که پویایی جمعیت زبان به آن رسیده است تعادل پایدار تکاملی که در آن بخشی از دو زبانه تغییر کرده است برای صحبت $ $.بنابراین ، این تعادل باعث کاهش استفاده از $ B $ می شود.به نظریه ما را آزمایش می کنیم مدلهای تجربی می سازیم که استفاده از $ B $ را برای هر یک پیش بینی می کند نسبت دو زبانه.ما نشان می دهیم که پیش بینی های مبتنی بر مدل بسیار مناسب است استفاده مشاهده شده از باسک ، ایرلندی و ولزی.
30,132
Chernozhukov et al. (2018) proposed the sorted effect method for nonlinear regression models. This method consists of reporting percentiles of the partial effects in addition to the average commonly used to summarize the heterogeneity in the partial effects. They also proposed to use the sorted effects to carry out classification analysis where the observational units are classified as most and least affected if their causal effects are above or below some tail sorted effects. The R package SortedEffects implements the estimation and inference methods therein and provides tools to visualize the results. This vignette serves as an introduction to the package and displays basic functionality of the functions within.
Chernozhukov و همکاران.(2018) روش اثر مرتب شده را برای غیرخطی پیشنهاد کرد مدل های رگرسیون.این روش شامل گزارش صدرهای جزئی است اثرات علاوه بر میانگین که معمولاً برای خلاصه ناهمگونی استفاده می شود در اثرات جزئیآنها همچنین پیشنهاد کردند که از جلوه های مرتب شده برای حمل استفاده کنند تجزیه و تحلیل طبقه بندی خارج که در آن واحدهای مشاهده ای به عنوان طبقه بندی می شوند اگر اثرات علی آنها بالاتر یا پایین تر از دم باشد ، بیشترین و کمترین آسیب را تحت تأثیر قرار می دهد اثرات مرتب شدهبسته بندی R SortedEffects تخمین را پیاده سازی می کند و روشهای استنتاج در آن و ابزاری برای تجسم نتایج فراهم می کند.این Vignette به عنوان مقدمه ای برای بسته بندی خدمت می کند و BASIC را نمایش می دهد عملکرد توابع درون.
30,133
When researchers develop new econometric methods it is common practice to compare the performance of the new methods to those of existing methods in Monte Carlo studies. The credibility of such Monte Carlo studies is often limited because of the freedom the researcher has in choosing the design. In recent years a new class of generative models emerged in the machine learning literature, termed Generative Adversarial Networks (GANs) that can be used to systematically generate artificial data that closely mimics real economic datasets, while limiting the degrees of freedom for the researcher and optionally satisfying privacy guarantees with respect to their training data. In addition if an applied researcher is concerned with the performance of a particular statistical method on a specific data set (beyond its theoretical properties in large samples), she may wish to assess the performance, e.g., the coverage rate of confidence intervals or the bias of the estimator, using simulated data which resembles her setting. Tol illustrate these methods we apply Wasserstein GANs (WGANs) to compare a number of different estimators for average treatment effects under unconfoundedness in three distinct settings (corresponding to three real data sets) and present a methodology for assessing the robustness of the results. In this example, we find that (i) there is not one estimator that outperforms the others in all three settings, so researchers should tailor their analytic approach to a given setting, and (ii) systematic simulation studies can be helpful for selecting among competing methods in this situation.
وقتی محققان روشهای جدید اقتصاد سنجی را توسعه می دهند ، این روش معمول است عملکرد روشهای جدید را با روشهای موجود در مقایسه کنید مطالعات مونت کارلو.اعتبار چنین مطالعات مونت کارلو اغلب است محدود به دلیل آزادی که محقق در انتخاب طراحی دارد.که در سالهای اخیر کلاس جدیدی از مدلهای تولیدی در یادگیری ماشین پدیدار شد ادبیات ، شبکه های مخالف مولد (GAN) نامیده می شوند که می توانند مورد استفاده قرار گیرند به طور سیستماتیک داده های مصنوعی تولید می کند که از نزدیک اقتصادی واقعی را تقلید می کند مجموعه داده ها ، ضمن محدود کردن درجه های آزادی برای محقق و تضمین های حریم خصوصی را به صورت اختیاری با توجه به داده های آموزشی آنها رضایت بخشید. علاوه بر این اگر یک محقق کاربردی نگران عملکرد a باشد روش آماری خاص در یک مجموعه داده خاص (فراتر از نظری آن خواص در نمونه های بزرگ) ، او ممکن است بخواهد عملکرد را ارزیابی کند ، به عنوان مثال میزان پوشش فواصل اطمینان یا تعصب برآوردگر ، با استفاده از داده های شبیه سازی شده ای که شبیه تنظیم او است.TOL این روشها را نشان می دهد Wasserstein Gans (WGANS) را برای مقایسه تعدادی از برآوردگرهای مختلف برای استفاده کنید میانگین اثرات درمانی تحت نامحدودی در سه تنظیم مجزا (مربوط به سه مجموعه داده واقعی) و یک روش برای ارزیابی ارائه دهید استحکام نتایج.در این مثال ، می فهمیم که (i) وجود ندارد یکی از تخمین هایی که در هر سه تنظیم از دیگران بهتر عمل می کند ، بنابراین محققان باید رویکرد تحلیلی خود را به یک تنظیم خاص متناسب کند ، و (ii) سیستماتیک مطالعات شبیه سازی می تواند برای انتخاب بین روشهای رقیب در این مورد مفید باشد وضعیت.
30,135
We investigate the nature and extent of reallocation occurring within the Indian income distribution, with a particular focus on the dynamics of the bottom of the distribution. Specifically, we use a stochastic model of Geometric Brownian Motion with a reallocation parameter that was constructed to capture the quantum and direction of composite redistribution implied in the income distribution. It is well known that inequality has been rising in India in the recent past, but the assumption has been that while the rich benefit more than proportionally from economic growth, the poor are also better off than before. Findings from our model refute this, as we find that since the early 2000s reallocation has consistently been negative, and that the Indian income distribution has entered a regime of perverse redistribution of resources from the poor to the rich. Outcomes from the model indicate not only that income shares of the bottom decile (~1%) and bottom percentile (~0.03%) are at historic lows, but also that real incomes of the bottom decile (-2.5%) and percentile (-6%) have declined in the 2000s. We validate these findings using income distribution data and find support for our contention of persistent negative reallocation in the 2000s. We characterize these findings in the context of increasing informalization of the workforce in the formal manufacturing and service sectors, as well as the growing economic insecurity of the agricultural workforce in India. Significant structural changes will be required to address this phenomenon.
ما ماهیت و میزان جابجایی را که در آن اتفاق می افتد بررسی می کنیم توزیع درآمد هند ، با تمرکز ویژه بر پویایی پایین توزیع.به طور خاص ، ما از یک مدل تصادفی از حرکت هندسی براونیان با یک پارامتر جابجایی که به آن ساخته شده است کوانتومی و جهت توزیع مجدد کامپوزیت را که در آن وجود دارد ضبط کنید توزیع درآمد.کاملاً شناخته شده است که نابرابری در هند رو به افزایش است در گذشته اخیر ، اما فرض این بوده است که در حالی که سود غنی است بیش از متناسب با رشد اقتصادی ، فقرا نیز بهتر هستند نسبت به قبل.یافته های مدل ما این را رد می کند ، همانطور که می دانیم که از زمان در اوایل دهه 2000 امکان جابجایی به طور مداوم منفی بوده است و هندی ها توزیع درآمد وارد رژیم توزیع مجدد منحرف شده است منابع از فقرا تا ثروتمندان.نتایج حاصل از مدل نه تنها نشان می دهد این سهام درآمدی از دکوراسیون پایین (1 ~ ~) و صدک پایین (0.03 ~) در پایین ترین سطح تاریخی هستند ، اما همچنین درآمد واقعی Decile Decile (-2.5 ٪) و صدک (-6 ٪) در دهه 2000 کاهش یافته است.ما این یافته ها را تأیید می کنیم با استفاده از داده های توزیع درآمد و پشتیبانی از ادعای ما جابجایی منفی مداوم در دهه 2000.ما این یافته ها را توصیف می کنیم در زمینه افزایش غیر رسمی بودن نیروی کار در رسمی بخش های تولید و خدمات و همچنین رو به رشد ناامنی اقتصادی نیروی کار کشاورزی در هند.تغییرات ساختاری قابل توجهی خواهد بود برای پرداختن به این پدیده مورد نیاز است.
30,136
To make informed policy recommendations from observational data, we must be able to discern true treatment effects from random noise and effects due to confounding. Difference-in-Difference techniques which match treated units to control units based on pre-treatment outcomes, such as the synthetic control approach have been presented as principled methods to account for confounding. However, we show that use of synthetic controls or other matching procedures can introduce regression to the mean (RTM) bias into estimates of the average treatment effect on the treated. Through simulations, we show RTM bias can lead to inflated type I error rates as well as decreased power in typical policy evaluation settings. Further, we provide a novel correction for RTM bias which can reduce bias and attain appropriate type I error rates. This correction can be used to perform a sensitivity analysis which determines how results may be affected by RTM. We use our proposed correction and sensitivity analysis to reanalyze data concerning the effects of California's Proposition 99, a large-scale tobacco control program, on statewide smoking rates.
برای ارائه توصیه های آگاهانه سیاست از داده های مشاهده ای ، ما باید باشیم قادر به تشخیص اثرات درمانی واقعی از سر و صدای تصادفی و اثرات ناشی از گیج کنندهتکنیک های اختلاف در اختلاف که با واحدهای تحت درمان مطابقت دارد واحدهای کنترل بر اساس نتایج قبل از درمان ، مانند کنترل مصنوعی رویکرد به عنوان روشهای اصولی برای پاسخگویی به مخدوش ارائه شده است. با این حال ، ما نشان می دهیم که استفاده از کنترل های مصنوعی یا سایر روشهای تطبیق می تواند رگرسیون را با میانگین تعصب (RTM) به تخمین میانگین معرفی کند اثر درمانی بر روی درمان.از طریق شبیه سازی ، ما نشان می دهیم که تعصب RTM می تواند منجر شود به نرخ خطای Type I Type I و همچنین کاهش قدرت در خط مشی معمولی تنظیمات ارزیابی.علاوه بر این ، ما یک اصلاح جدید برای تعصب RTM ارائه می دهیم که می تواند تعصب را کاهش داده و نرخ خطای نوع I را بدست آورد.این اصلاح می تواند برای انجام یک تجزیه و تحلیل حساسیت استفاده می شود که تعیین می کند چگونه نتایج ممکن است باشد تحت تأثیر RTM.ما از تجزیه و تحلیل تصحیح و حساسیت پیشنهادی خود استفاده می کنیم داده های مربوط به تأثیر گزاره 99 کالیفرنیا ، الف برنامه کنترل دخانیات در مقیاس بزرگ ، با میزان سیگار کشیدن در سراسر کشور.
30,137
In this paper, an application of three GARCH-type models (sGARCH, iGARCH, and tGARCH) with Student t-distribution, Generalized Error distribution (GED), and Normal Inverse Gaussian (NIG) distribution are examined. The new development allows for the modeling of volatility clustering effects, the leptokurtic and the skewed distributions in the return series of Bitcoin. Comparative to the two distributions, the normal inverse Gaussian distribution captured adequately the fat tails and skewness in all the GARCH type models. The tGARCH model was the best model as it described the asymmetric occurrence of shocks in the Bitcoin market. That is, the response of investors to the same amount of good and bad news are distinct. From the empirical results, it can be concluded that tGARCH-NIG was the best model to estimate the volatility in the return series of Bitcoin. Generally, it would be optimal to use the NIG distribution in GARCH type models since time series of most cryptocurrency are leptokurtic.
در این مقاله ، کاربرد سه مدل از نوع Garch (Sgarch ، igarch ، و tgarch) با توزیع t دانشجویی ، توزیع خطای عمومی (GED) ، و توزیع معکوس گاوسی معکوس (NIG) مورد بررسی قرار می گیرد.توسعه جدید امکان مدل سازی اثرات خوشه بندی نوسانات ، لپتوکورتیک و توزیع های skewed در سری بازگشت بیت کوین.تطبیقی ​​با دو توزیع ، توزیع معکوس طبیعی گاوسی به اندازه کافی ضبط شد دم و چربی چربی در تمام مدل های نوع Garch.مدل Tgarch بود بهترین مدل همانطور که وقوع نامتقارن شوک ها را در آن توصیف می کند بازار بیت کوین.یعنی پاسخ سرمایه گذاران به همان مقدار خوب و خبرهای بد مشخص است.از نتایج تجربی ، می توان نتیجه گرفت که Tgarch-Nig بهترین مدل برای برآورد نوسانات در سری بازگشت بود از بیت کوینبه طور کلی ، استفاده از توزیع NIG در گارچ بهینه خواهد بود مدل های نوع از سری زمانی بیشتر رمزنگاری ها لپتوکورتیک هستند.
30,138
We study preferences estimated from finite choice experiments and provide sufficient conditions for convergence to a unique underlying "true" preference. Our conditions are weak, and therefore valid in a wide range of economic environments. We develop applications to expected utility theory, choice over consumption bundles, menu choice and intertemporal consumption. Our framework unifies the revealed preference tradition with models that allow for errors.
ما ترجیحات تخمین زده شده از آزمایش های انتخاب محدود را مطالعه می کنیم و ارائه می دهیم شرایط کافی برای همگرایی به یک اولویت "واقعی" اساسی منحصر به فرد. شرایط ما ضعیف است و بنابراین در طیف گسترده ای از اقتصادی معتبر است محیطما برنامه هایی را برای تئوری ابزار مورد انتظار ، انتخاب بیش از بسته های مصرف ، انتخاب منو و مصرف بین المللی.چارچوب ما سنت اولویت آشکار را با مدلهایی که خطاها را فراهم می کند ، متحد می کند.
30,139
This paper develops a framework for quantile regression in binary longitudinal data settings. A novel Markov chain Monte Carlo (MCMC) method is designed to fit the model and its computational efficiency is demonstrated in a simulation study. The proposed approach is flexible in that it can account for common and individual-specific parameters, as well as multivariate heterogeneity associated with several covariates. The methodology is applied to study female labor force participation and home ownership in the United States. The results offer new insights at the various quantiles, which are of interest to policymakers and researchers alike.
این مقاله چارچوبی برای رگرسیون کمی در باینری ایجاد می کند تنظیمات داده های طولی.یک روش جدید زنجیره مارکوف مونت کارلو (MCMC) است طراحی شده برای متناسب با مدل و راندمان محاسباتی آن در a نشان داده شده است مطالعه شبیه سازی.رویکرد پیشنهادی از این نظر انعطاف پذیر است که می تواند حساب کند پارامترهای مشترک و خاص و همچنین چند متغیره ناهمگونی مرتبط با چندین متغیر متغیر.این روش برای مشارکت نیروی کار زن و مالکیت خانه در ایالات متحده را مطالعه کنید. نتایج بینش های جدیدی را در مقدار مختلف ارائه می دهد ، که مورد توجه است به سیاست گذاران و محققان به طور یکسان.
30,140
The Wald development of statistical decision theory addresses decision making with sample data. Wald's concept of a statistical decision function (SDF) embraces all mappings of the form [data -> decision]. An SDF need not perform statistical inference; that is, it need not use data to draw conclusions about the true state of nature. Inference-based SDFs have the sequential form [data -> inference -> decision]. This paper motivates inference-based SDFs as practical procedures for decision making that may accomplish some of what Wald envisioned. The paper first addresses binary choice problems, where all SDFs may be viewed as hypothesis tests. It next considers as-if optimization, which uses a point estimate of the true state as if the estimate were accurate. It then extends this idea to as-if maximin and minimax-regret decisions, which use point estimates of some features of the true state as if they were accurate. The paper primarily uses finite-sample maximum regret to evaluate the performance of inference-based SDFs. To illustrate abstract ideas, it presents specific findings concerning treatment choice and point prediction with sample data.
توسعه والد تئوری تصمیم آماری به تصمیم گیری می پردازد با داده های نمونهمفهوم والد از یک عملکرد تصمیم آماری (SDF) تمام نگاشتهای فرم [داده -> تصمیم] را در آغوش می گیرد.SDF نیازی به انجام ندارد استنباط آماری ؛یعنی نیازی به استفاده از داده ها برای نتیجه گیری در مورد نیست وضعیت واقعی طبیعت.SDF های مبتنی بر استنتاج فرم متوالی دارند [داده ها -> استنتاج -> تصمیم].این مقاله SDF های مبتنی بر استنتاج را به عنوان ایجاد می کند رویه های عملی برای تصمیم گیری که ممکن است برخی از آنچه والد را انجام می دهد پیش بینی شدهاین مقاله ابتدا به مشکلات انتخاب باینری می پردازد ، جایی که همه SDF ها ممکن است به عنوان آزمون فرضیه مشاهده شود.در ادامه بهینه سازی AS-IF را در نظر می گیرد ، که از برآورد نقطه ای از حالت واقعی استفاده می کند که گویی تخمین دقیق است.آی تی سپس این ایده را در تصمیمات حداکثر و Minimax-Regret ، که از آنها استفاده می کنند ، گسترش می دهد برآورد نقطه از برخی از ویژگی های حالت واقعی به نظر می رسد که آنها دقیق هستند. این مقاله در درجه اول از حداکثر پشیمانی نمونه محدود برای ارزیابی استفاده می کند عملکرد SDF های مبتنی بر استنتاج.برای نشان دادن ایده های انتزاعی ، آن را ارائه می دهد یافته های خاص در مورد انتخاب درمان و پیش بینی نقطه با نمونه داده ها.
30,141
We propose a robust method for constructing conditionally valid prediction intervals based on models for conditional distributions such as quantile and distribution regression. Our approach can be applied to important prediction problems including cross-sectional prediction, k-step-ahead forecasts, synthetic controls and counterfactual prediction, and individual treatment effects prediction. Our method exploits the probability integral transform and relies on permuting estimated ranks. Unlike regression residuals, ranks are independent of the predictors, allowing us to construct conditionally valid prediction intervals under heteroskedasticity. We establish approximate conditional validity under consistent estimation and provide approximate unconditional validity under model misspecification, overfitting, and with time series data. We also propose a simple "shape" adjustment of our baseline method that yields optimal prediction intervals.
ما یک روش قوی برای ساخت پیش بینی معتبر مشروط پیشنهاد می کنیم فواصل مبتنی بر مدل های توزیع مشروط مانند Quantile و رگرسیون توزیع.رویکرد ما می تواند برای پیش بینی مهم اعمال شود مشکلات از جمله پیش بینی مقطعی ، پیش بینی های k-step-head ، کنترل های مصنوعی و پیش بینی ضد عملی و درمان فردی پیش بینی اثرات.روش ما از تغییر انتگرال احتمال سوء استفاده می کند و متکی به رتبه های تخمین زده شده است.برخلاف باقیمانده های رگرسیون ، رتبه ها هستند مستقل از پیش بینی کننده ها ، به ما این امکان را می دهد تا به طور مشروط معتبر بسازیم فواصل پیش بینی تحت ناهمگونی.ما تقریبی ایجاد می کنیم اعتبار مشروط تحت برآورد مداوم و ارائه تقریبی روایی بی قید و شرط تحت اشتباه غلط مدل ، بیش از حد و با گذشت زمان داده های سری.ما همچنین یک تنظیم "شکل" ساده از روش پایه خود را پیشنهاد می کنیم که فواصل پیش بینی بهینه را به همراه دارد.
30,142
The empirical analysis of discrete complete-information games has relied on behavioral restrictions in the form of solution concepts, such as Nash equilibrium. Choosing the right solution concept is crucial not just for identification of payoff parameters, but also for the validity and informativeness of counterfactual exercises and policy implications. We say that a solution concept is discernible if it is possible to determine whether it generated the observed data on the players' behavior and covariates. We propose a set of conditions that make it possible to discern solution concepts. In particular, our conditions are sufficient to tell whether the players' choices emerged from Nash equilibria. We can also discern between rationalizable behavior, maxmin behavior, and collusive behavior. Finally, we identify the correlation structure of unobserved shocks in our model using a novel approach.
تجزیه و تحلیل تجربی بازی های اطلاعاتی کامل گسسته به آن متکی است محدودیت های رفتاری به شکل مفاهیم راه حل ، مانند NASH تعادلانتخاب مفهوم راه حل مناسب نه فقط برای شناسایی پارامترهای بازپرداخت ، بلکه برای اعتبار و اطلاع رسانی از تمرینات ضد خلاف و پیامدهای سیاست.ما میگوییم این که یک مفهوم راه حل در صورت امکان تعیین اینکه آیا می توان تشخیص داد این داده های مشاهده شده در مورد رفتار بازیکنان و متغیرهای متغیر را ایجاد می کند.ما مجموعه ای از شرایط را پیشنهاد کنید که امکان تشخیص مفاهیم راه حل را فراهم می کند. به ویژه ، شرایط ما برای گفتن اینکه آیا بازیکنان کافی است کافی است گزینه ها از تعادل Nash پدیدار شد.ما همچنین می توانیم بین آن تشخیص دهیم رفتار قابل ملاحظه ، رفتار حداکثر و رفتار تبانی.بالاخره ، ما ساختار همبستگی شوکهای بدون نظارت در مدل ما را با استفاده از a شناسایی کنید رویکرد جدید.
30,143
Causal decomposition analyses can help build the evidence base for interventions that address health disparities (inequities). They ask how disparities in outcomes may change under hypothetical intervention. Through study design and assumptions, they can rule out alternate explanations such as confounding, selection-bias, and measurement error, thereby identifying potential targets for intervention. Unfortunately, the literature on causal decomposition analysis and related methods have largely ignored equity concerns that actual interventionists would respect, limiting their relevance and practical value. This paper addresses these concerns by explicitly considering what covariates the outcome disparity and hypothetical intervention adjust for (so-called allowable covariates) and the equity value judgements these choices convey, drawing from the bioethics, biostatistics, epidemiology, and health services research literatures. From this discussion, we generalize decomposition estimands and formulae to incorporate allowable covariate sets, to reflect equity choices, while still allowing for adjustment of non-allowable covariates needed to satisfy causal assumptions. For these general formulae, we provide weighting-based estimators based on adaptations of ratio-of-mediator-probability and inverse-odds-ratio weighting. We discuss when these estimators reduce to already used estimators under certain equity value judgements, and a novel adaptation under other judgements.
تجزیه و تحلیل تجزیه علّی می تواند به ساخت پایه و اساس برای مداخلات مربوط به نابرابری های بهداشتی (نابرابری ها).آنها می پرسند چگونه اختلافات در نتایج ممکن است تحت مداخله فرضی تغییر کند.از طریق طراحی و فرضیات را مطالعه کنید ، آنها می توانند توضیحات متناوب مانند را رد کنند خطای گیج کننده ، انتخاب و خطای اندازه گیری ، در نتیجه شناسایی اهداف بالقوه برای مداخله.متأسفانه ، ادبیات مربوط به علت تجزیه و تحلیل تجزیه و روشهای مرتبط تا حد زیادی نگرانی های عدالت را نادیده گرفته است که مداخلات واقعی به آنها احترام می گذارند ، اهمیت آنها را محدود می کنند و ارزش عملیدر این مقاله با بررسی صریح به این نگرانی ها می پردازیم آنچه همبستگی نتیجه را متغیر می کند و مداخله فرضی را تنظیم می کند (به اصطلاح متغیرهای مجاز) و داوری ارزش سهام این گزینه ها انتقال ، ترسیم از زیست شناسی ، زیست شناسی ، اپیدمیولوژی و سلامتی ادبیات تحقیقاتی خدمات.از این بحث ، ما تعمیم می دهیم برآوردهای تجزیه و فرمولها برای ترکیب مجموعه های متغیر متغیر ، برای بازتاب انتخاب سهام ، در حالی که هنوز امکان تنظیم غیر قابل استفاده را فراهم می کند متغیرهای متغیر برای برآورده کردن فرضیات علی مورد نیاز هستند.برای این فرمول های کلی ، ما برآوردگرهای مبتنی بر وزنه برداری را بر اساس اقتباس از نسبت متوسط ​​و وزن و وزن معکوس و نسبت به نسبت متوسط.ما بحث می کنیم چه زمانی این برآوردگرها با ارزش سهام خاص به برآوردگرهای قبلاً استفاده شده کاهش می یابد احکام و اقتباس جدید تحت احکام دیگر.
30,144
Conventional financial models fail to explain the economic and monetary properties of cryptocurrencies due to the latter's dual nature: their usage as financial assets on the one side and their tight connection to the underlying blockchain structure on the other. In an effort to examine both components via a unified approach, we apply a recently developed Non-Homogeneous Hidden Markov (NHHM) model with an extended set of financial and blockchain specific covariates on the Bitcoin (BTC) and Ether (ETH) price data. Based on the observable series, the NHHM model offers a novel perspective on the underlying microstructure of the cryptocurrency market and provides insight on unobservable parameters such as the behavior of investors, traders and miners. The algorithm identifies two alternating periods (hidden states) of inherently different activity -- fundamental versus uninformed or noise traders -- in the Bitcoin ecosystem and unveils differences in both the short/long run dynamics and in the financial characteristics of the two states, such as significant explanatory variables, extreme events and varying series autocorrelation. In a somewhat unexpected result, the Bitcoin and Ether markets are found to be influenced by markedly distinct indicators despite their perceived correlation. The current approach backs earlier findings that cryptocurrencies are unlike any conventional financial asset and makes a first step towards understanding cryptocurrency markets via a more comprehensive lens.
مدلهای مالی متعارف در توضیح اقتصادی و پولی ناکام هستند خواص ارزهای رمزپایه به دلیل ماهیت دوگانه دوم: استفاده از آنها به عنوان دارایی های مالی از یک طرف و ارتباط محکم آنها با زیربنایی ساختار blockchain از طرف دیگر.در تلاش برای بررسی هر دو مؤلفه از طریق یک رویکرد یکپارچه ، ما یک مارکوف پنهان غیر همگن را که اخیراً توسعه یافته است ، اعمال می کنیم (NHHM) مدل با مجموعه گسترده ای از مالی و blockchain خاص متغیرهای متغیر روی داده های قیمت بیت کوین (BTC) و اتر (ETH).بر اساس سریال قابل مشاهده ، مدل NHHM چشم انداز جدیدی را در مورد زمینه ارائه می دهد ریزساختار بازار cryptocurrency و بینش در مورد پارامترهای غیرقابل کنترل مانند رفتار سرمایه گذاران ، بازرگانان و معدنچیان. این الگوریتم دو دوره متناوب (حالت های پنهان) ذاتاً مشخص می کند فعالیت های مختلف - اساسی در مقابل معامله گران ناآگاه یا سر و صدا - در اکوسیستم بیت کوین و تفاوت در هر دو دینامیک کوتاه/بلند مدت را رونمایی می کند و در ویژگی های مالی دو کشور ، مانند قابل توجه متغیرهای توضیحی ، وقایع شدید و همبستگی سری متفاوت.در یک نتیجه غیر منتظره ، بازارهای بیت کوین و اتر پیدا شده است با وجود همبستگی درک شده آنها تحت تأثیر شاخص های قابل توجه مشخص قرار گرفته است. رویکرد فعلی یافته های قبلی را نشان می دهد که ارزهای رمزنگاری بر خلاف است هر دارایی مالی متعارف و اولین قدم به سمت درک بازارهای cryptocurrency از طریق یک لنز جامع تر.
30,145
We propose a new nonparametric estimator for first-price auctions with independent private values that imposes the monotonicity constraint on the estimated inverse bidding strategy. We show that our estimator has a smaller asymptotic variance than that of Guerre, Perrigne and Vuong's (2000) estimator. In addition to establishing pointwise asymptotic normality of our estimator, we provide a bootstrap-based approach to constructing uniform confidence bands for the density function of latent valuations.
ما یک برآوردگر غیرپارامتری جدید برای حراج های قیمت اول با ارزشهای خصوصی مستقل که محدودیت یکنواختی را در آن تحمیل می کند استراتژی مناقصه معکوس تخمین زده می شود.ما نشان می دهیم که برآوردگر ما کوچکتر است واریانس مجانبی نسبت به برآوردگر Guerre ، Perrigne و Vuong (2000). علاوه بر ایجاد عادی بودن بدون علامت از برآوردگر ما ، ما یک رویکرد مبتنی بر بوت استرپ برای ساخت باند اعتماد به نفس یکنواخت برای عملکرد چگالی ارزشهای نهفته.
30,146
We obtain an elementary invariance principle for multi-dimensional Brownian sheet where the underlying random fields are not necessarily independent or stationary. Possible applications include unit-root tests for spatial as well as panel data models.
ما یک اصل تغییر ابتدایی برای براون چند بعدی به دست می آوریم ورق که در آن زمینه های تصادفی اساسی لزوماً مستقل نیستند یا ثابتبرنامه های ممکن شامل آزمایش های ریشه واحد نیز برای فضایی نیز هست به عنوان مدل های داده پانل.
30,163
Many economic activities are embedded in networks: sets of agents and the (often) rivalrous relationships connecting them to one another. Input sourcing by firms, interbank lending, scientific research, and job search are four examples, among many, of networked economic activities. Motivated by the premise that networks' structures are consequential, this chapter describes econometric methods for analyzing them. I emphasize (i) dyadic regression analysis incorporating unobserved agent-specific heterogeneity and supporting causal inference, (ii) techniques for estimating, and conducting inference on, summary network parameters (e.g., the degree distribution or transitivity index); and (iii) empirical models of strategic network formation admitting interdependencies in preferences. Current research challenges and open questions are also discussed.
بسیاری از فعالیت های اقتصادی در شبکه ها تعبیه شده اند: مجموعه ای از عوامل و (اغلب) روابط رقیب که آنها را به یکدیگر متصل می کنند.منابع ورودی توسط بنگاه ها ، وام های بین بانکی ، تحقیقات علمی و جستجوی شغل چهار نفر هستند نمونه هایی از بسیاری از فعالیت های اقتصادی شبکه ای.با انگیزه توسط این فصل فرضیه که ساختارهای شبکه ها نتیجه آن هستند ، توضیح می دهد روشهای اقتصاد سنجی برای تجزیه و تحلیل آنها.من تأکید می کنم (i) رگرسیون دادی تجزیه و تحلیل شامل ناهمگونی و پشتیبانی از عامل خاص و پشتیبانی استنباط علی ، (ب) تکنیک های تخمین و انجام استنباط در ، خلاصه پارامترهای شبکه (به عنوان مثال ، توزیع درجه یا انتقال فهرست مطالب)؛و (iii) مدل های تجربی تشکیل شبکه استراتژیک پذیرش وابستگی های متقابل در ترجیحات.چالش های تحقیق فعلی و باز سوالات نیز مورد بحث قرار می گیرد.
30,147
High dimensional predictive regressions are useful in wide range of applications. However, the theory is mainly developed assuming that the model is stationary with time invariant parameters. This is at odds with the prevalent evidence for parameter instability in economic time series, but theories for parameter instability are mainly developed for models with a small number of covariates. In this paper, we present two $L_2$ boosting algorithms for estimating high dimensional models in which the coefficients are modeled as functions evolving smoothly over time and the predictors are locally stationary. The first method uses componentwise local constant estimators as base learner, while the second relies on componentwise local linear estimators. We establish consistency of both methods, and address the practical issues of choosing the bandwidth for the base learners and the number of boosting iterations. In an extensive application to macroeconomic forecasting with many potential predictors, we find that the benefits to modeling time variation are substantial and they increase with the forecast horizon. Furthermore, the timing of the benefits suggests that the Great Moderation is associated with substantial instability in the conditional mean of various economic series.
رگرسیون پیش بینی کننده ابعادی بالا در طیف گسترده ای مفید است برنامه های کاربردی.با این حال ، این تئوری عمدتاً با فرض اینکه مدل باشد توسعه یافته است با پارامترهای ثابت زمان ثابت است.این با شواهد رایج برای بی ثباتی پارامترها در سری زمانی اقتصادی ، اما نظریه های ناپایداری پارامتر عمدتاً برای مدل هایی با کوچک توسعه یافته است تعداد متغیرهای متغیر.در این مقاله ، ما دو الگوریتم تقویت کننده $ L_2 $ ارائه می دهیم برای برآورد مدلهای ابعادی بالا که در آن ضرایب به عنوان مدل شده اند توابع با گذشت زمان هموار در حال تحول هستند و پیش بینی کننده ها به صورت محلی هستند ثابتروش اول از برآوردگرهای ثابت محلی کامپوننتیک استفاده می کند یادگیرنده پایه ، در حالی که دوم به برآوردگرهای خطی محلی کاملاً متکی است. ما سازگاری هر دو روش را ایجاد می کنیم و به موضوعات عملی پرداخت می کنیم انتخاب پهنای باند برای زبان آموزان پایه و تعداد تقویت تکرارهادر یک برنامه گسترده برای پیش بینی اقتصاد کلان با بسیاری پیش بینی کننده های بالقوه ، می فهمیم که مزایای تغییر زمان مدل سازی است قابل توجه و با افق پیش بینی افزایش می یابد.علاوه بر این ، زمان بندی مزایا نشان می دهد که اعتدال بزرگ با آن همراه است بی ثباتی اساسی در میانگین مشروط سری های مختلف اقتصادی.
30,148
International trade policies have recently garnered attention for limiting cross-border exchange of essential goods (e.g. steel, aluminum, soybeans, and beef). Since trade critically affects employment and wages, predicting future patterns of trade is a high-priority for policy makers around the world. While traditional economic models aim to be reliable predictors, we consider the possibility that Machine Learning (ML) techniques allow for better predictions to inform policy decisions. Open-government data provide the fuel to power the algorithms that can explain and forecast trade flows to inform policies. Data collected in this article describe international trade transactions and commonly associated economic factors. Machine learning (ML) models deployed include: ARIMA, GBoosting, XGBoosting, and LightGBM for predicting future trade patterns, and K-Means clustering of countries according to economic factors. Unlike short-term and subjective (straight-line) projections and medium-term (aggre-gated) projections, ML methods provide a range of data-driven and interpretable projections for individual commodities. Models, their results, and policies are introduced and evaluated for prediction quality.
سیاست های تجارت بین المللی اخیراً توجه محدود کردن را به خود جلب کرده است تبادل مرزی کالاهای ضروری (به عنوان مثال فولاد ، آلومینیوم ، سویا ، و گوشت گاو).از آنجا که تجارت به طور جدی بر اشتغال و دستمزد تأثیر می گذارد ، آینده را پیش بینی می کند الگوهای تجارت برای سیاست گذاران در سراسر جهان اولویت بالایی است.در حالی که مدلهای اقتصادی سنتی قصد دارند پیش بینی کننده های قابل اعتماد باشند ، ما در نظر می گیریم این امکان وجود دارد که تکنیک های یادگیری ماشین (ML) پیش بینی های بهتری را فراهم کند برای اطلاع رسانی در مورد تصمیمات سیاست.داده های دولت باز سوخت را برای تأمین نیرو فراهم می کند الگوریتم هایی که می توانند برای اطلاع رسانی به سیاست ها ، جریان تجارت را توضیح دهند و پیش بینی کنند.داده ها جمع آوری شده در این مقاله ، معاملات تجاری بین المللی را شرح می دهد و عوامل اقتصادی معمولاً همراه است.مدل های یادگیری ماشین (ML) مستقر شده است شامل: Arima ، Gboosting ، XGBoosting و LightGBM برای پیش بینی تجارت آینده الگوهای ، و خوشه بندی K به معنای کشورها با توجه به عوامل اقتصادی. برخلاف پیش بینی های کوتاه مدت و ذهنی (مستقیم) و میان مدت پیش بینی ها ، روشهای ML طیف وسیعی از داده محور و پیش بینی های قابل تفسیر برای کالاهای فردی.مدل ها ، نتایج آنها ، و سیاست ها برای کیفیت پیش بینی معرفی و ارزیابی می شوند.
30,149
Beliefs are important determinants of an individual's choices and economic outcomes, so understanding how they comove and differ across individuals is of considerable interest. Researchers often rely on surveys that report individual beliefs as qualitative data. We propose using a Bayesian hierarchical latent class model to analyze the comovements and observed heterogeneity in categorical survey responses. We show that the statistical model corresponds to an economic structural model of information acquisition, which guides interpretation and estimation of the model parameters. An algorithm based on stochastic optimization is proposed to estimate a model for repeated surveys when responses follow a dynamic structure and conjugate priors are not appropriate. Guidance on selecting the number of belief types is also provided. Two examples are considered. The first shows that there is information in the Michigan survey responses beyond the consumer sentiment index that is officially published. The second shows that belief types constructed from survey responses can be used in a subsequent analysis to estimate heterogeneous returns to education.
اعتقادات تعیین کننده مهم انتخاب و اقتصادی یک فرد هستند نتایج ، بنابراین درک چگونگی جمع شدن و تفاوت در افراد علاقه قابل توجهمحققان غالباً به نظرسنجی هایی که گزارش می دهند متکی هستند اعتقادات به عنوان داده های کیفی.ما با استفاده از یک نهان سلسله مراتبی بیزی پیشنهاد می کنیم مدل کلاس برای تجزیه و تحلیل همبستگی ها و ناهمگونی مشاهده شده در پاسخ های بررسی طبقه بندی شده.ما نشان می دهیم که مدل آماری با آن مطابقت دارد یک الگوی ساختاری اقتصادی از کسب اطلاعات ، که راهنمایی می کند تفسیر و تخمین پارامترهای مدل.یک الگوریتم مبتنی بر بهینه سازی تصادفی برای برآورد مدلی برای بررسی های مکرر پیشنهاد شده است هنگامی که پاسخ ها از یک ساختار پویا پیروی می کنند و مقدمات مزدوج نیست مناسب.راهنمایی در مورد انتخاب تعداد انواع اعتقاد نیز ارائه شده است. دو مثال در نظر گرفته شده است.اولین نشان می دهد که اطلاعات در پاسخ های نظرسنجی میشیگان فراتر از شاخص احساسات مصرف کننده رسماً منتشر شده است.دوم نشان می دهد که انواع اعتقادات ساخته شده از پاسخ های نظرسنجی می تواند در یک تجزیه و تحلیل بعدی برای برآورد ناهمگن استفاده شود به آموزش و پرورش باز می گردد.
30,150
Regression discontinuity designs are frequently used to estimate the causal effect of election outcomes and policy interventions. In these contexts, treatment effects are typically estimated with covariates included to improve efficiency. While including covariates improves precision asymptotically, in practice, treatment effects are estimated with a small number of observations, resulting in considerable fluctuations in treatment effect magnitude and precision depending upon the covariates chosen. This practice thus incentivizes researchers to select covariates which maximize treatment effect statistical significance rather than precision. Here, I propose a principled approach for estimating RDDs which provides a means of improving precision with covariates while minimizing adverse incentives. This is accomplished by integrating the adaptive LASSO, a machine learning method, into RDD estimation using an R package developed for this purpose, adaptiveRDD. Using simulations, I show that this method significantly improves treatment effect precision, particularly when estimating treatment effects with fewer than 200 observations.
طرح های ناپیوستگی رگرسیون اغلب برای برآورد علی استفاده می شود تأثیر نتایج انتخابات و مداخلات سیاست.در این زمینه ها ، اثرات درمانی به طور معمول با متغیرهای متغیر برای بهبود تخمین زده می شود بهره وری.در حالی که شامل متغیرهای متغیر است ، به صورت مجانبی بهبود می یابد ، در تمرین ، اثرات درمانی با تعداد کمی از مشاهدات تخمین زده می شود ، منجر به نوسانات قابل توجهی در بزرگی اثر درمانی و دقت بسته به متغیرهای انتخاب شده.این عمل بدین ترتیب انگیزه می کند محققان برای انتخاب متغیرهای متغیر که حداکثر اثر درمانی را به حداکثر می رسانند اهمیت به جای دقت.در اینجا ، من یک رویکرد اصولی را برای تخمین RDD هایی که وسیله ای برای بهبود دقت با متغیرهای متغیر است در حالی که مشوق های منفی را به حداقل می رساند.این با ادغام لاسو تطبیقی ​​، یک روش یادگیری ماشین ، به تخمین RDD با استفاده از R بسته بندی شده برای این منظور ، Adaptiverdd.با استفاده از شبیه سازی ها ، من این را نشان می دهم این روش به طور قابل توجهی دقت اثر درمانی را بهبود می بخشد ، به ویژه هنگام برآورد اثرات درمانی با کمتر از 200 مشاهده.
30,151
Social interactions determine many economic behaviors, but information on social ties does not exist in most publicly available and widely used datasets. We present results on the identification of social networks from observational panel data that contains no information on social ties between agents. In the context of a canonical social interactions model, we provide sufficient conditions under which the social interactions matrix, endogenous and exogenous social effect parameters are all globally identified. While this result is relevant across different estimation strategies, we then describe how high-dimensional estimation techniques can be used to estimate the interactions model based on the Adaptive Elastic Net GMM method. We employ the method to study tax competition across US states. We find the identified social interactions matrix implies tax competition differs markedly from the common assumption of competition between geographically neighboring states, providing further insights for the long-standing debate on the relative roles of factor mobility and yardstick competition in driving tax setting behavior across states. Most broadly, our identification and application show the analysis of social interactions can be extended to economic realms where no network data exists.
تعامل اجتماعی بسیاری از رفتارهای اقتصادی را تعیین می کند ، اما اطلاعات مربوط به پیوندهای اجتماعی در بیشتر مجموعه داده های عمومی و گسترده استفاده نمی شود. ما نتایج را در مورد شناسایی شبکه های اجتماعی از مشاهده ارائه می دهیم داده های پانل که هیچ اطلاعاتی در مورد روابط اجتماعی بین نمایندگان ندارد.در زمینه یک مدل تعامل اجتماعی متعارف ، ما کافی ارائه می دهیم شرایطی که تحت آن ماتریس تعامل اجتماعی ، درون زا و اگزوژن پارامترهای اثر اجتماعی همه در سطح جهان مشخص می شوند.در حالی که این نتیجه است مرتبط با استراتژی های مختلف تخمین ، ما چگونه توضیح می دهیم از تکنیک های تخمین با ابعاد بالا می توان برای برآورد تعامل استفاده کرد مدل مبتنی بر روش GMM خالص الاستیک تطبیقی.ما از این روش استفاده می کنیم رقابت مالیاتی را در ایالات متحده آمریکا مطالعه کنید.ما اجتماعی شناسایی شده را پیدا می کنیم ماتریس تعامل به معنای رقابت مالیاتی به طور قابل توجهی با مشترک متفاوت است فرض رقابت بین کشورهای همسایه جغرافیایی ، تأمین بینش های بیشتر برای بحث دیرینه در مورد نقش های نسبی فاکتور تحرک و رقابت در حیاط در رانندگی در تنظیم مالیات بر سر ایالت ها.به طور گسترده ، شناسایی و کاربرد ما تجزیه و تحلیل را نشان می دهد تعاملات اجتماعی را می توان به قلمروهای اقتصادی که در آن داده های شبکه ای وجود ندارد گسترش یابد وجود دارد
30,152
Strategic valuation of efficient and well-timed network investments under uncertain electricity market environment has become increasingly challenging, because there generally exist multiple interacting options in these investments, and failing to systematically consider these options can lead to decisions that undervalue the investment. In our work, a real options valuation (ROV) framework is proposed to determine the optimal strategy for executing multiple interacting options within a distribution network investment, to mitigate the risk of financial losses in the presence of future uncertainties. To demonstrate the characteristics of the proposed framework, we determine the optimal strategy to economically justify the investment in residential PV-battery systems for additional grid supply during peak demand periods. The options to defer, and then expand, are considered as multi-stage compound options, since the option to expand is a subsequent option of the former. These options are valued via the least squares Monte Carlo method, incorporating uncertainty over growing power demand, varying diesel fuel price, and the declining cost of PV-battery technology as random variables. Finally, a sensitivity analysis is performed to demonstrate how the proposed framework responds to uncertain events. The proposed framework shows that executing the interacting options at the optimal timing increases the investment value.
ارزیابی استراتژیک سرمایه گذاری های شبکه ای کارآمد و به موقع تحت محیط بازار نامشخص برق به طور فزاینده ای چالش برانگیز شده است ، زیرا به طور کلی چندین گزینه متقابل در این موارد وجود دارد سرمایه گذاری ، و عدم در نظر گرفتن سیستماتیک این گزینه ها می تواند منجر شود تصمیماتی که سرمایه گذاری را کاهش می دهد.در کار ما ، یک ارزیابی گزینه های واقعی (ROV) چارچوب برای تعیین استراتژی بهینه برای اجرای ارائه شده است چندین گزینه تعامل در یک سرمایه گذاری در شبکه توزیع ، به در حضور عدم قطعیت های آینده ، خطر خسارات مالی را کاهش دهید. برای نشان دادن ویژگی های چارچوب پیشنهادی ، ما تعیین می کنیم استراتژی بهینه برای توجیه اقتصادی سرمایه گذاری در مسکونی سیستم های باتری PV برای عرضه شبکه اضافی در دوره های اوج تقاضای.در گزینه هایی برای تعویق و سپس گسترش ، به عنوان ترکیب چند مرحله ای در نظر گرفته می شوند گزینه ها ، از آنجا که گزینه گسترش گزینه بعدی از اولی است.اینها گزینه ها از طریق کمترین مربع مونت کارلو ، با ارزش ، ارزش گذاری می شوند عدم اطمینان در مورد افزایش تقاضای برق ، متفاوت بودن قیمت سوخت دیزل و کاهش هزینه فناوری PV-battery به عنوان متغیرهای تصادفی.سرانجام ، الف تجزیه و تحلیل حساسیت برای نشان دادن چگونگی چارچوب پیشنهادی انجام می شود به وقایع نامشخص پاسخ می دهد.چارچوب پیشنهادی نشان می دهد که اجرای گزینه های تعامل در زمان بهینه ، ارزش سرمایه گذاری را افزایش می دهد.
30,153
In this paper, we write the time-varying parameter (TVP) regression model involving K explanatory variables and T observations as a constant coefficient regression model with KT explanatory variables. In contrast with much of the existing literature which assumes coefficients to evolve according to a random walk, a hierarchical mixture model on the TVPs is introduced. The resulting model closely mimics a random coefficients specification which groups the TVPs into several regimes. These flexible mixtures allow for TVPs that feature a small, moderate or large number of structural breaks. We develop computationally efficient Bayesian econometric methods based on the singular value decomposition of the KT regressors. In artificial data, we find our methods to be accurate and much faster than standard approaches in terms of computation time. In an empirical exercise involving inflation forecasting using a large number of predictors, we find our models to forecast better than alternative approaches and document different patterns of parameter change than are found with approaches which assume random walk evolution of parameters.
در این مقاله ، ما مدل رگرسیون پارامتر متغیر زمان (TVP) را می نویسیم شامل متغیرهای توضیحی K و مشاهدات T به عنوان یک ضریب ثابت مدل رگرسیون با متغیرهای توضیحی KT.در مقابل با بسیاری از ادبیات موجود که ضرایب را برای تکامل با توجه به یک تصادفی فرض می کند WALK ، یک مدل مخلوط سلسله مراتبی در TVP ها معرفی شده است.نتیجه مدل از نزدیک از مشخصات ضرایب تصادفی تقلید می کند که TVP ها را گروه بندی می کند به چندین رژیماین مخلوط های انعطاف پذیر امکان TVP هایی را فراهم می کنند که دارای a هستند تعداد کوچک ، متوسط ​​یا زیاد استراحت ساختاری.ما توسعه می دهیم روشهای اقتصاد سنجی بیزی از نظر محاسباتی بر اساس مفرد کارآمد است تجزیه ارزش رگرسیون KT.در داده های مصنوعی ، ما خود را پیدا می کنیم روشهای دقیق و بسیار سریعتر از رویکردهای استاندارد از نظر زمان محاسبهدر یک تمرین تجربی شامل پیش بینی تورم با استفاده از تعداد زیادی پیش بینی کننده ، مدل های خود را بهتر از پیش بینی می کنیم رویکردهای جایگزین و الگوهای مختلف تغییر پارامتر را مستند می کند با رویکردهایی یافت می شوند که تکامل پیاده روی تصادفی پارامترها را فرض می کنند.
30,154
This paper provides a thorough analysis on the dynamic structures and predictability of China's Consumer Price Index (CPI-CN), with a comparison to those of the United States. Despite the differences in the two leading economies, both series can be well modeled by a class of Seasonal Autoregressive Integrated Moving Average Model with Covariates (S-ARIMAX). The CPI-CN series possess regular patterns of dynamics with stable annual cycles and strong Spring Festival effects, with fitting and forecasting errors largely comparable to their US counterparts. Finally, for the CPI-CN, the diffusion index (DI) approach offers improved predictions than the S-ARIMAX models.
در این مقاله یک تجزیه و تحلیل کامل در مورد ساختارهای پویا ارائه شده است و پیش بینی شاخص قیمت مصرف کننده چین (CPI-CN) ، با مقایسه با آنهایی که از ایالات متحده هستند.با وجود تفاوت در این دو رهبر اقتصاد ، هر دو سریال می توانند به خوبی توسط یک کلاس فصلی مدل شوند مدل میانگین متحرک یکپارچه خودروگرایی با متغیرهای متغیر (S-arimax).در سری CPI-CN دارای الگوهای منظم پویایی با چرخه سالانه پایدار است و جلوه های جشنواره بهار قوی ، با خطاهای مناسب و پیش بینی شده تا حد زیادی قابل مقایسه با همتایان آمریکایی آنها.سرانجام ، برای CPI-CN ، انتشار رویکرد Index (DI) پیش بینی های بهبود یافته نسبت به مدل های S-Arimax را ارائه می دهد.
30,155
The existence of stylized facts in financial data has been documented in many studies. In the past decade the modeling of financial markets by agent-based computational economic market models has become a frequently used modeling approach. The main purpose of these models is to replicate stylized facts and to identify sufficient conditions for their creations. In this paper we introduce the most prominent examples of stylized facts and especially present stylized facts of financial data. Furthermore, we given an introduction to agent-based modeling. Here, we not only provide an overview of this topic but introduce the idea of universal building blocks for agent-based economic market models.
وجود حقایق تلطیف شده در داده های مالی در بسیاری از آنها ثبت شده است مطالعات.در یک دهه گذشته ، مدل سازی بازارهای مالی توسط عامل مبتنی بر مدل های بازار اقتصادی محاسباتی به یک مدل سازی متداول تبدیل شده است رویکرد.هدف اصلی این مدلها تکرار حقایق تلطیف شده و برای شناسایی شرایط کافی برای خلاقیت های آنها.در این مقاله ما برجسته ترین نمونه های حقایق تلطیف شده و به ویژه موجود را معرفی کنید حقایق تلطیف شده داده های مالی.علاوه بر این ، ما مقدمه ای را ارائه دادیم مدل سازی مبتنی بر عامل.در اینجا ، ما نه تنها مروری بر این موضوع ارائه می دهیم بلکه ایده بلوک های ساختمانی جهانی را برای بازار اقتصادی مبتنی بر عامل معرفی کنید مدل ها.
30,156
Time-varying parameter (TVP) models are very flexible in capturing gradual changes in the effect of a predictor on the outcome variable. However, in particular when the number of predictors is large, there is a known risk of overfitting and poor predictive performance, since the effect of some predictors is constant over time. We propose a prior for variance shrinkage in TVP models, called triple gamma. The triple gamma prior encompasses a number of priors that have been suggested previously, such as the Bayesian lasso, the double gamma prior and the Horseshoe prior. We present the desirable properties of such a prior and its relationship to Bayesian Model Averaging for variance selection. The features of the triple gamma prior are then illustrated in the context of time varying parameter vector autoregressive models, both for simulated datasets and for a series of macroeconomics variables in the Euro Area.
مدلهای پارامتر متغیر زمان (TVP) در ضبط تدریجی بسیار انعطاف پذیر هستند تغییرات در تأثیر پیش بینی کننده در متغیر نتیجه.با این حال ، در به ویژه وقتی تعداد پیش بینی کننده ها زیاد باشد ، خطر شناخته شده ای وجود دارد عملکرد بیش از حد و عملکرد پیش بینی ضعیف ، از آنجا که اثر برخی است پیش بینی کنندگان با گذشت زمان ثابت است.ما برای انقباض واریانس قبلی پیشنهاد می کنیم مدل های TVP ، با نام Triple Gamma.گاما سه گام قبلی تعدادی را در بر می گیرد مقدماتی که قبلاً پیشنهاد شده است ، مانند لاسو بیزی ، دوتایی گاما قبل و اسب اسب قبلی.ما خواص مطلوب را ارائه می دهیم از چنین قبلی و رابطه آن با مدل بیزی که میانگین واریانس است انتخاب.ویژگی های گامای سه گام قبل از آن در زمان نشان داده شده است زمینه زمان متغیر پارامتر وکتور مدل های اتورگرایی ، هر دو برای مجموعه داده های شبیه سازی شده و برای یک سری متغیرهای اقتصاد کلان در یورو حوزه.
30,157
Staggered adoption of policies by different units at different times creates promising opportunities for observational causal inference. Estimation remains challenging, however, and common regression methods can give misleading results. A promising alternative is the synthetic control method (SCM), which finds a weighted average of control units that closely balances the treated unit's pre-treatment outcomes. In this paper, we generalize SCM, originally designed to study a single treated unit, to the staggered adoption setting. We first bound the error for the average effect and show that it depends on both the imbalance for each treated unit separately and the imbalance for the average of the treated units. We then propose "partially pooled" SCM weights to minimize a weighted combination of these measures; approaches that focus only on balancing one of the two components can lead to bias. We extend this approach to incorporate unit-level intercept shifts and auxiliary covariates. We assess the performance of the proposed method via extensive simulations and apply our results to the question of whether teacher collective bargaining leads to higher school spending, finding minimal impacts. We implement the proposed method in the augsynth R package.
تصویب مبهم سیاست توسط واحدهای مختلف در زمان های مختلف ایجاد می کند فرصت های امیدوارکننده برای استنباط علیت مشاهده.تخمین باقی مانده است با این حال ، چالش برانگیز ، و روش های رگرسیون مشترک می تواند گمراه کننده باشد نتایج.یک جایگزین امیدوار کننده روش کنترل مصنوعی (SCM) است که میانگین وزنی واحدهای کنترل را پیدا می کند که از نزدیک تحت درمان قرار می گیرد نتایج قبل از درمان واحد.در این مقاله ، ما در ابتدا SCM را تعمیم می دهیم طراحی شده برای مطالعه یک واحد تحت درمان ، به محیط پذیرش مبهم.ما ابتدا خطا را برای اثر متوسط ​​محدود کرده و نشان می دهد که به هر دو بستگی دارد عدم تعادل برای هر واحد تحت درمان به طور جداگانه و عدم تعادل برای میانگین واحدهای تحت درمان.ما سپس وزن SCM "جزئی مخلوط" را به ترکیبی از وزن این اقدامات را به حداقل برسانید.رویکردهایی که فقط تمرکز دارند در متعادل کردن یکی از دو مؤلفه می تواند منجر به تعصب شود.ما این را گسترش می دهیم رویکرد برای ترکیب شیفت های رهگیری در سطح واحد و متغیرهای کمکی. ما عملکرد روش پیشنهادی را از طریق شبیه سازی های گسترده ارزیابی می کنیم و نتایج ما را به این سؤال بپردازید که آیا چانه زنی جمعی معلم منجر به هزینه های دبیرستان می شود و تأثیرات کمتری پیدا می کند.ما اجرا می کنیم روش پیشنهادی در بسته Augsynth r.
30,158
Energy system optimization models (ESOMs) should be used in an interactive way to uncover knife-edge solutions, explore alternative system configurations, and suggest different ways to achieve policy objectives under conditions of deep uncertainty. In this paper, we do so by employing an existing optimization technique called modeling to generate alternatives (MGA), which involves a change in the model structure in order to systematically explore the near-optimal decision space. The MGA capability is incorporated into Tools for Energy Model Optimization and Analysis (Temoa), an open source framework that also includes a technology rich, bottom up ESOM. In this analysis, Temoa is used to explore alternative energy futures in a simplified single region energy system that represents the U.S. electric sector and a portion of the light duty transport sector. Given the dataset limitations, we place greater emphasis on the methodological approach rather than specific results.
مدل های بهینه سازی سیستم انرژی (ESOM) باید در یک تعاملی استفاده شود راهی برای کشف راه حل های لبه چاقو ، کشف تنظیمات سیستم جایگزین ، و روشهای مختلفی را برای دستیابی به اهداف سیاسی در شرایط ارائه دهید عدم اطمینان عمیقدر این مقاله ، ما این کار را با استفاده از یک بهینه سازی موجود انجام می دهیم تکنیک به نام مدل سازی برای تولید گزینه های دیگر (MGA) ، که شامل a است تغییر در ساختار مدل به منظور کشف سیستماتیک فضای تصمیم گیری تقریباً بهینه.قابلیت MGA در ابزارهایی برای بهینه سازی و تجزیه و تحلیل مدل انرژی (TEMOA) ، یک چارچوب منبع باز که همچنین شامل یک فناوری غنی ، پایین به بالا ESOM است.در این تجزیه و تحلیل ، TEMOA است برای کشف آینده انرژی جایگزین در یک انرژی واحد ساده منطقه استفاده می شود سیستمی که نماینده بخش الکتریکی ایالات متحده و بخشی از وظیفه سبک است بخش حمل و نقل.با توجه به محدودیت های مجموعه داده ، ما تأکید بیشتری بر روی آن قرار می دهیم رویکرد روش شناختی به جای نتایج خاص.
30,159
We consider the estimation of approximate factor models for time series data, where strong serial and cross-sectional correlations amongst the idiosyncratic component are present. This setting comes up naturally in many applications, but existing approaches in the literature rely on the assumption that such correlations are weak, leading to mis-specification of the number of factors selected and consequently inaccurate inference. In this paper, we explicitly incorporate the dependent structure present in the idiosyncratic component through lagged values of the observed multivariate time series. We formulate a constrained optimization problem to estimate the factor space and the transition matrices of the lagged values {\em simultaneously}, wherein the constraints reflect the low rank nature of the common factors and the sparsity of the transition matrices. We establish theoretical properties of the obtained estimates, and introduce an easy-to-implement computational procedure for empirical work. The performance of the model and the implementation procedure is evaluated on synthetic data and compared with competing approaches, and further illustrated on a data set involving weekly log-returns of 75 US large financial institutions for the 2001-2016 period.
ما تخمین مدل های تقریبی فاکتور را برای داده های سری زمانی در نظر می گیریم ، جایی که همبستگی های سریال و مقطعی قوی بین اصطلاحات خاص مؤلفه موجود است.این تنظیم به طور طبیعی در بسیاری از برنامه ها ظاهر می شود ، اما رویکردهای موجود در ادبیات به این فرض متکی است همبستگی ضعیف است و منجر به مشخص کردن نادرست تعداد عوامل می شود استنباط انتخاب شده و در نتیجه نادرست.در این مقاله ، ما صریحاً ساختار وابسته موجود در مؤلفه ایدیوسنکراتیک را درج کنید از طریق مقادیر تاخیر سری زمانی چند متغیره مشاهده شده.ما فرموله می کنیم مشکل بهینه سازی محدود برای تخمین فضای فاکتور و ماتریس انتقال مقادیر تاخیر {\ em به طور همزمان} ، که در آن محدودیت ها منعکس کننده ماهیت پایین عوامل متداول و کمبود است ماتریس های انتقالما خصوصیات نظری به دست آمده را ایجاد می کنیم تخمین می زند ، و یک روش محاسباتی آسان برای اجرای آن را معرفی می کند کار تجربیعملکرد مدل و روش اجرای بر روی داده های مصنوعی ارزیابی می شود و با رویکردهای رقابتی مقایسه می شود و بیشتر در مجموعه داده هایی که شامل برگه های هفتگی 75 ایالات متحده است ، نشان داده شده است موسسات مالی برای دوره 2001-2016.
30,160
A factor-augmented vector autoregressive (FAVAR) model is defined by a VAR equation that captures lead-lag correlations amongst a set of observed variables $X$ and latent factors $F$, and a calibration equation that relates another set of observed variables $Y$ with $F$ and $X$. The latter equation is used to estimate the factors that are subsequently used in estimating the parameters of the VAR system. The FAVAR model has become popular in applied economic research, since it can summarize a large number of variables of interest as a few factors through the calibration equation and subsequently examine their influence on core variables of primary interest through the VAR equation. However, there is increasing need for examining lead-lag relationships between a large number of time series, while incorporating information from another high-dimensional set of variables. Hence, in this paper we investigate the FAVAR model under high-dimensional scaling. We introduce an appropriate identification constraint for the model parameters, which when incorporated into the formulated optimization problem yields estimates with good statistical properties. Further, we address a number of technical challenges introduced by the fact that estimates of the VAR system model parameters are based on estimated rather than directly observed quantities. The performance of the proposed estimators is evaluated on synthetic data. Further, the model is applied to commodity prices and reveals interesting and interpretable relationships between the prices and the factors extracted from a set of global macroeconomic indicators.
یک مدل وکتور اتورگرایی (FAVAR) یک وکتور با یک وکتور توسط یک VAR تعریف شده است معادله ای که همبستگی های سرب را بین مجموعه ای از مشاهده شده ضبط می کند متغیرهای $ x $ و فاکتورهای نهفته $ f $ ، و یک معادله کالیبراسیون که مربوط می شود مجموعه دیگری از متغیرهای مشاهده شده $ y $ با $ f $ و $ x $.معادله دوم است برای تخمین عواملی که متعاقباً در تخمین استفاده می شود استفاده می شود پارامترهای سیستم VAR.مدل Favar در کاربردی محبوب شده است تحقیقات اقتصادی ، از آنجا که می تواند تعداد زیادی از متغیرها را خلاصه کند علاقه به عنوان چند عامل از طریق معادله کالیبراسیون و متعاقباً تأثیر آنها را بر متغیرهای اصلی مورد علاقه اصلی از طریق VAR بررسی کنید معادلهبا این حال ، نیاز فزاینده ای برای بررسی سرب وجود دارد روابط بین تعداد زیادی از سریال های زمانی ، در حالی که شامل می شود اطلاعات از مجموعه متغیرهای دیگر با ابعاد بالا.از این رو ، در این مقاله ما مدل FAVAR را در مقیاس بندی با ابعاد بالا بررسی می کنیم.ما یک محدودیت شناسایی مناسب برای پارامترهای مدل را معرفی کنید ، که در صورت بازده مشکل بهینه سازی فرموله شده گنجانیده می شود برآورد با خصوصیات آماری خوب.علاوه بر این ، ما به تعدادی از چالش های فنی با این واقعیت که برآورد سیستم VAR است پارامترهای مدل بر اساس تخمین زده می شوند و نه مستقیماً مشاهده می شوند مقادیر.عملکرد برآوردگرهای پیشنهادی روی ارزیابی می شود داده های مصنوعی.علاوه بر این ، این مدل برای قیمت کالاها اعمال می شود و فاش می کند روابط جالب و قابل تفسیر بین قیمت ها و عوامل استخراج شده از مجموعه ای از شاخص های کلان اقتصادی جهانی.
30,161
Dynamic model averaging (DMA) combines the forecasts of a large number of dynamic linear models (DLMs) to predict the future value of a time series. The performance of DMA critically depends on the appropriate choice of two forgetting factors. The first of these controls the speed of adaptation of the coefficient vector of each DLM, while the second enables time variation in the model averaging stage. In this paper we develop a novel, adaptive dynamic model averaging (ADMA) methodology. The proposed methodology employs a stochastic optimisation algorithm that sequentially updates the forgetting factor of each DLM, and uses a state-of-the-art non-parametric model combination algorithm from the prediction with expert advice literature, which offers finite-time performance guarantees. An empirical application to quarterly UK house price data suggests that ADMA produces more accurate forecasts than the benchmark autoregressive model, as well as competing DMA specifications.
میانگین مدل پویا (DMA) پیش بینی های تعداد زیادی از مدلهای خطی پویا (DLM) برای پیش بینی ارزش آینده یک سری زمانی.در عملکرد DMA به طور جدی به انتخاب مناسب دو بستگی دارد عوامل فراموشیاولین مورد از این کنترل سرعت سازگاری وکتور ضریب هر DLM ، در حالی که دوم تغییر زمان در مرحله میانگین مدل.در این مقاله ما یک مدل پویا رمان و سازگار ایجاد می کنیم روش متوسط ​​(ADMA).روش پیشنهادی از یک تصادفی استفاده می کند الگوریتم بهینه سازی که پی در پی ضریب فراموشی هر یک را به روز می کند DLM ، و از یک الگوریتم ترکیبی مدل غیر پارامتری پیشرفته استفاده می کند از پیش بینی با ادبیات مشاوره تخصصی ، که زمان محدود را ارائه می دهد ضمانت عملکرد.یک برنامه تجربی برای قیمت سه ماهه خانه انگلستان داده ها نشان می دهد که ADMA پیش بینی های دقیق تری نسبت به معیار تولید می کند مدل خودکار و همچنین مشخصات DMA رقیب.
30,162
We propose a regularized factor-augmented vector autoregressive (FAVAR) model that allows for sparsity in the factor loadings. In this framework, factors may only load on a subset of variables which simplifies the factor identification and their economic interpretation. We identify the factors in a data-driven manner without imposing specific relations between the unobserved factors and the underlying time series. Using our approach, the effects of structural shocks can be investigated on economically meaningful factors and on all observed time series included in the FAVAR model. We prove consistency for the estimators of the factor loadings, the covariance matrix of the idiosyncratic component, the factors, as well as the autoregressive parameters in the dynamic model. In an empirical application, we investigate the effects of a monetary policy shock on a broad range of economically relevant variables. We identify this shock using a joint identification of the factor model and the structural innovations in the VAR model. We find impulse response functions which are in line with economic rationale, both on the factor aggregates and observed time series level.
ما یک مدل وکتور تنظیم شده با فاکتور تنظیم شده (FAVAR) را پیشنهاد می کنیم این امکان را فراهم می کند تا کمبود در بارهای عاملی باشد.در این چارچوب ، عوامل ممکن است فقط در زیر مجموعه متغیرهایی که شناسایی عامل را ساده می کند بارگذاری کنید و تفسیر اقتصادی آنهاما عوامل موجود در یک داده محور را شناسایی می کنیم روش بدون تحمیل روابط خاص بین عوامل بدون نظارت و سری زمانی اساسی.با استفاده از رویکرد ما ، اثرات ساختاری شوک ها را می توان در مورد عوامل معنادار اقتصادی و از همه بررسی کرد سری زمانی مشاهده شده در مدل Favar.ما ثبات را برای برآوردگرهای بارهای عاملی ، ماتریس کواریانس از اصطلاحات مؤلفه ، فاکتورها و همچنین پارامترهای اتورگرایی در پویا مدل.در یک کاربرد تجربی ، ما اثرات پولی را بررسی می کنیم شوک سیاست در طیف گسترده ای از متغیرهای اقتصادی مرتبط.ما شناسایی می کنیم این شوک با استفاده از شناسایی مشترک مدل فاکتور و ساختاری نوآوری در مدل VAR.ما توابع پاسخ ضربه ای را پیدا می کنیم که در آن وجود دارد خط با منطقی اقتصادی ، هم در جمع فاکتور و هم زمان مشاهده شده سطح سری.
30,164
Uncertainty quantification is a fundamental problem in the analysis and interpretation of synthetic control (SC) methods. We develop conditional prediction intervals in the SC framework, and provide conditions under which these intervals offer finite-sample probability guarantees. Our method allows for covariate adjustment and non-stationary data. The construction begins by noting that the statistical uncertainty of the SC prediction is governed by two distinct sources of randomness: one coming from the construction of the (likely misspecified) SC weights in the pre-treatment period, and the other coming from the unobservable stochastic error in the post-treatment period when the treatment effect is analyzed. Accordingly, our proposed prediction intervals are constructed taking into account both sources of randomness. For implementation, we propose a simulation-based approach along with finite-sample-based probability bound arguments, naturally leading to principled sensitivity analysis methods. We illustrate the numerical performance of our methods using empirical applications and a small simulation study. \texttt{Python}, \texttt{R} and \texttt{Stata} software packages implementing our methodology are available.
کمیت عدم اطمینان یک مشکل اساسی در تجزیه و تحلیل و تفسیر روشهای کنترل مصنوعی (SC).ما مشروط ایجاد می کنیم فواصل پیش بینی در چارچوب SC ، و شرایطی را فراهم می کند که تحت آن این فواصل ضمانت های احتمال نمونه محدود را ارائه می دهد.روش ما اجازه می دهد برای تنظیم همبستگی و داده های غیر ثابت.ساخت و ساز توسط آغاز می شود با توجه به اینکه عدم اطمینان آماری پیش بینی SC توسط دو مورد اداره می شود منابع متمایز از تصادفی: یکی از ساخت و ساز (احتمالاً اشتباه) وزن SC در دوره قبل از درمان ، و دیگری از آن استفاده می شود خطای تصادفی غیرقابل کنترل در دوره پس از درمان که اثر درمانی مورد تجزیه و تحلیل قرار می گیرد.بر این اساس ، فواصل پیش بینی پیشنهادی ما با در نظر گرفتن هر دو منبع تصادفی ساخته می شوند.برای اجرای ، ما یک رویکرد مبتنی بر شبیه سازی را به همراه پیشنهاد می کنیم استدلال های محدود مبتنی بر نمونه محدود ، به طور طبیعی منجر به روشهای تجزیه و تحلیل حساسیت اصولی.ما عددی را نشان می دهیم عملکرد روشهای ما با استفاده از برنامه های تجربی و یک شبیه سازی کوچک مطالعه.\ texttt {python} ، \ texttt {r} و \ texttt {stata} بسته های نرم افزاری اجرای روش ما در دسترس است.
30,165
We introduce the \texttt{Stata} (and \texttt{R}) package \texttt{rdmulti}, which includes three commands (\texttt{rdmc}, \texttt{rdmcplot}, \texttt{rdms}) for analyzing Regression Discontinuity (RD) designs with multiple cutoffs or multiple scores. The command \texttt{rdmc} applies to non-cumulative and cumulative multi-cutoff RD settings. It calculates pooled and cutoff-specific RD treatment effects, and provides robust bias-corrected inference procedures. Post estimation and inference is allowed. The command \texttt{rdmcplot} offers RD plots for multi-cutoff settings. Finally, the command \texttt{rdms} concerns multi-score settings, covering in particular cumulative cutoffs and two running variables contexts. It also calculates pooled and cutoff-specific RD treatment effects, provides robust bias-corrected inference procedures, and allows for post-estimation estimation and inference. These commands employ the \texttt{Stata} (and \texttt{R}) package \texttt{rdrobust} for plotting, estimation, and inference. Companion \texttt{R} functions with the same syntax and capabilities are provided.
ما بسته \ texttt {stata} (و \ texttt {r}) را معرفی می کنیم \ texttt {rdmulti} ، که شامل سه دستور (\ texttt {rdmc} ، \ texttt {rdmcplot} ، \ texttt {rdms}) برای تجزیه و تحلیل طرح های ناپیوستگی رگرسیون (RD) با برش های متعدد یا نمرات چندگانهدستور \ texttt {rdmc} در مورد غیر تجمعی و تنظیمات RD Multi-Cutoff تجمعی.این محاسبه شده و خاص برش را محاسبه می کند اثرات درمانی RD ، و روشهای استنتاج اصلاح شده توسط تعصب را ارائه می دهد. تخمین پست و استنباط مجاز است.دستور \ texttt {rdmcplot} ارائه می دهد توطئه های RD برای تنظیمات چند برش.سرانجام ، دستور \ texttt {rdms} نگرانی ها تنظیمات چند نمره ای ، پوشش به ویژه برش های تجمعی و دو در حال اجرا متغیرها زمینه ها.همچنین درمان RD و برش خاص RD را محاسبه می کند اثرات ، روشهای استنتاج اصلاح شده توسط تعصب را فراهم می کند ، و امکان پذیر است برآورد و استنباط پس از تخمین.این دستورات \ texttt {stata} (و \ texttt {r}) بسته \ texttt {rdrobust} برای ترسیم ، تخمین و استنباط.همراه \ texttt {r} توابع با همان نحو و قابلیت ها ارائه شده است.
30,166
Interest-rate risk is a key factor for property-casualty insurer capital. P&C companies tend to be highly leveraged, with bond holdings much greater than capital. For GAAP capital, bonds are marked to market but liabilities are not, so shifts in the yield curve can have a significant impact on capital. Yield-curve scenario generators are one approach to quantifying this risk. They produce many future simulated evolutions of the yield curve, which can be used to quantify the probabilities of bond-value changes that would result from various maturity-mix strategies. Some of these generators are provided as black-box models where the user gets only the projected scenarios. One focus of this paper is to provide methods for testing generated scenarios from such models by comparing to known distributional properties of yield curves. P&C insurers hold bonds to maturity and manage cash-flow risk by matching asset and liability flows. Derivative pricing and stochastic volatility are of little concern over the relevant time frames. This requires different models and model testing than what is common in the broader financial markets. To complicate things further, interest rates for the last decade have not been following the patterns established in the sixty years following WWII. We are now coming out of the period of very low rates, yet are still not returning to what had been thought of as normal before that. Modeling and model testing are in an evolving state while new patterns emerge. Our analysis starts with a review of the literature on interest-rate model testing, with a P&C focus, and an update of the tests for current market behavior. We then discuss models, and use them to illustrate the fitting and testing methods. The testing discussion does not require the model-building section.
ریسک نرخ بهره یکی از عوامل اصلی برای سرمایه بیمه املاک است.P&C شرکت ها تمایل به بسیار اهرم دارند و دارایی های اوراق بهادار بسیار بیشتر از سرمایه، پایتخت.برای سرمایه GAAP ، اوراق بهادار به بازار مشخص شده است اما بدهی ها نیستند ، بنابراین تغییر در منحنی عملکرد می تواند تأثیر قابل توجهی در سرمایه داشته باشد. ژنراتورهای سناریو عملکرد یک رویکرد برای تعیین کمیت این خطر هستند.آنها بسیاری از تحولات شبیه سازی شده در آینده از منحنی عملکرد را تولید می کند ، که می توان از آنها استفاده کرد برای تعیین کمیت احتمالات تغییرات ارزش اوراق قرضه که ناشی از آن است استراتژی های مختلف مخلوط بلوغ.برخی از این ژنراتورها به عنوان ارائه شده اند مدل های جعبه سیاه که در آن کاربر فقط سناریوهای پیش بینی شده را دریافت می کند.یک تمرکز از این مقاله ارائه روش هایی برای آزمایش سناریوهای تولید شده از چنین است مدل ها با مقایسه با خصوصیات توزیع شناخته شده منحنی های عملکرد. بیمه گذاران P&C اوراق بهادار را به سررسید و با تطبیق ریسک جریان نقدی را مدیریت می کنند جریان دارایی و مسئولیت.قیمت گذاری مشتق و نوسانات تصادفی از نگرانی کمی در مورد بازه های زمانی مربوطه.این به مدل های مختلفی نیاز دارد و آزمایش مدل از آنچه در بازارهای مالی گسترده تر رایج است. برای پیچیده تر کردن چیزها ، نرخ بهره برای دهه گذشته چنین نشده است الگوهای تعیین شده در شصت سال پس از جنگ جهانی دوم را دنبال کرده است.ما اکنون از دوره بسیار پایین خارج می شوند ، اما هنوز برنمی گردند آنچه قبل از آن به عنوان عادی تصور شده بود.مدل سازی و تست مدل در حالی که الگوهای جدید پدیدار می شوند ، در حال تحول هستند. تجزیه و تحلیل ما با بررسی ادبیات در مورد مدل نرخ بهره آغاز می شود آزمایش ، با تمرکز P&C و به روزرسانی تست های بازار فعلی رفتار - اخلاق.سپس ما در مورد مدل ها بحث می کنیم و از آنها برای نشان دادن اتصالات و استفاده می کنیم روش های آزمایش.بحث آزمایش نیازی به مدل سازی ندارد بخش.
30,167
The downward trend in the amount of Arctic sea ice has a wide range of environmental and economic consequences including important effects on the pace and intensity of global climate change. Based on several decades of satellite data, we provide statistical forecasts of Arctic sea ice extent during the rest of this century. The best fitting statistical model indicates that overall sea ice coverage is declining at an increasing rate. By contrast, average projections from the CMIP5 global climate models foresee a gradual slowing of Arctic sea ice loss even in scenarios with high carbon emissions. Our long-range statistical projections also deliver probability assessments of the timing of an ice-free Arctic. These results indicate almost a 60 percent chance of an effectively ice-free Arctic Ocean sometime during the 2030s -- much earlier than the average projection from the global climate models.
روند نزولی در میزان یخ دریای قطب شمال طیف گسترده ای از پیامدهای زیست محیطی و اقتصادی از جمله تأثیرات مهم بر سرعت و شدت تغییرات آب و هوایی جهانی.بر اساس چندین دهه ماهواره داده ها ، ما پیش بینی های آماری از میزان یخ دریای قطب شمال را در طول بقیه ارائه می دهیم از این قرنبهترین مدل آماری مناسب نشان می دهد که دریای کلی پوشش یخ با سرعت زیاد رو به کاهش است.در مقابل ، متوسط پیش بینی های مدل های آب و هوایی جهانی CMIP5 باعث کاهش سرعت تدریجی می شود از دست دادن یخ دریای قطب شمال حتی در سناریوهایی با انتشار کربن بالا.ما پیش بینی های آماری دوربرد نیز ارزیابی های احتمال را ارائه می دهد زمان قطب شمال بدون یخ.این نتایج تقریباً 60 درصد شانس را نشان می دهد از یک اقیانوس قطب شمال عاری از یخ در دهه 2030-بسیار زودتر از پیش بینی متوسط ​​از مدلهای جهانی آب و هوا.
30,168
The Pareto model is very popular in risk management, since simple analytical formulas can be derived for financial downside risk measures (Value-at-Risk, Expected Shortfall) or reinsurance premiums and related quantities (Large Claim Index, Return Period). Nevertheless, in practice, distributions are (strictly) Pareto only in the tails, above (possible very) large threshold. Therefore, it could be interesting to take into account second order behavior to provide a better fit. In this article, we present how to go from a strict Pareto model to Pareto-type distributions. We discuss inference, and derive formulas for various measures and indices, and finally provide applications on insurance losses and financial risks.
مدل پارتو از نظر تحلیلی ساده در مدیریت ریسک بسیار محبوب است فرمول ها را می توان برای اقدامات ریسک نزولی مالی بدست آورد (ارزش در معرض خطر ، کمبود پیش بینی شده) یا حق بیمه اتکایی و مقادیر مربوطه (ادعای بزرگ فهرست ، دوره بازگشت).با این وجود ، در عمل ، توزیع ها (کاملاً) هستند پارتو فقط در دمها ، در بالا (بسیار ممکن) آستانه بزرگ.بنابراین ، آن می تواند جالب باشد که رفتار مرتبه دوم را در نظر بگیرید تناسب بهتردر این مقاله ، ما ارائه می دهیم که چگونه می توان از یک مدل سخت پارتو به توزیع از نوع پارتو.ما در مورد استنباط بحث می کنیم و فرمول های مشتق شده برای اقدامات و شاخص های مختلف ، و در نهایت برنامه های بیمه را ارائه می دهد ضررها و خطرات مالی.
30,169
This paper provides a simple, yet reliable, alternative to the (Bayesian) estimation of large multivariate VARs with time variation in the conditional mean equations and/or in the covariance structure. With our new methodology, the original multivariate, n dimensional model is treated as a set of n univariate estimation problems, and cross-dependence is handled through the use of a copula. Thus, only univariate distribution functions are needed when estimating the individual equations, which are often available in closed form, and easy to handle with MCMC (or other techniques). Estimation is carried out in parallel for the individual equations. Thereafter, the individual posteriors are combined with the copula, so obtaining a joint posterior which can be easily resampled. We illustrate our approach by applying it to a large time-varying parameter VAR with 25 macroeconomic variables.
در این مقاله یک جایگزین ساده و در عین حال قابل اعتماد برای (بیزی) ارائه شده است تخمین VAR های بزرگ چند متغیره با تغییر زمان در شرطی معادلات متوسط ​​و/یا در ساختار کواریانس.با روش جدید ما ، مدل بعدی چند متغیره ، N بعدی به عنوان مجموعه ای از n درمان می شود مشکلات تخمین تک متغیره ، و وابستگی متقابل از طریق استفاده انجام می شود از یک کوپلابنابراین ، فقط توابع توزیع یک متغیره در صورت نیاز است تخمین معادلات فردی ، که اغلب به صورت بسته در دسترس هستند ، و با MCMC (یا تکنیک های دیگر) آسان است.تخمین انجام می شود به موازات معادلات فردی.پس از آن ، خلفی های فردی با کوپلا ترکیب می شوند ، بنابراین به دست آوردن خلفی مفصل که می تواند باشد به راحتی مجدداً پر شده است.ما رویکرد خود را با استفاده از آن در یک بزرگ نشان می دهیم پارامتر متغیر متغیر با 25 متغیر کلان اقتصادی.
30,170
We consider discrete default intensity based and logit type reduced form models for conditional default probabilities for corporate loans where we develop simple closed form approximations to the maximum likelihood estimator (MLE) when the underlying covariates follow a stationary Gaussian process. In a practically reasonable asymptotic regime where the default probabilities are small, say 1-3% annually, the number of firms and the time period of data available is reasonably large, we rigorously show that the proposed estimator behaves similarly or slightly worse than the MLE when the underlying model is correctly specified. For more realistic case of model misspecification, both estimators are seen to be equally good, or equally bad. Further, beyond a point, both are more-or-less insensitive to increase in data. These conclusions are validated on empirical and simulated data. The proposed approximations should also have applications outside finance, where logit-type models are used and probabilities of interest are small.
ما فرم کاهش یافته مبتنی بر شدت پیش فرض گسسته را در نظر می گیریم مدلهایی برای احتمالات پیش فرض مشروط برای وام های شرکتی که در آن هستیم تقریب فرم بسته ساده را به حداکثر برآوردگر احتمال توسعه دهید (MLE) هنگامی که متغیرهای اصلی یک روند ثابت گاوسی را دنبال می کنند.در یک رژیم بدون علامت معقول که در آن احتمالات پیش فرض وجود دارد کوچک ، مثلاً سالانه 1-3 ٪ ، تعداد بنگاه ها و مدت زمان داده ها در دسترس از نظر منطقی بزرگ است ، ما به شدت نشان می دهیم که برآوردگر پیشنهادی وقتی مدل زیرین است ، به طور مشابه یا کمی بدتر از MLE رفتار می کند درست مشخص شده استبرای مورد واقع گرایانه تر از اشتباه مدل ، هر دو به نظر می رسد که برآوردگرها به همان اندازه خوب یا به همان اندازه بد هستند.بیشتر ، فراتر از نکته ، هر دو نسبت به افزایش داده ها نسبت به کم و بیش حساس نیستند.این نتیجه گیری ها در داده های تجربی و شبیه سازی شده تأیید می شوند.تقریبی پیشنهادی همچنین باید دارای برنامه های خارج از امور مالی باشد ، جایی که از مدل های نوع logit استفاده می شود و احتمالات مورد علاقه اندک است.
30,171
The term natural experiment is used inconsistently. In one interpretation, it refers to an experiment where a treatment is randomly assigned by someone other than the researcher. In another interpretation, it refers to a study in which there is no controlled random assignment, but treatment is assigned by some external factor in a way that loosely resembles a randomized experiment---often described as an "as if random" assignment. In yet another interpretation, it refers to any non-randomized study that compares a treatment to a control group, without any specific requirements on how the treatment is assigned. I introduce an alternative definition that seeks to clarify the integral features of natural experiments and at the same time distinguish them from randomized controlled experiments. I define a natural experiment as a research study where the treatment assignment mechanism (i) is neither designed nor implemented by the researcher, (ii) is unknown to the researcher, and (iii) is probabilistic by virtue of depending on an external factor. The main message of this definition is that the difference between a randomized controlled experiment and a natural experiment is not a matter of degree, but of essence, and thus conceptualizing a natural experiment as a research design akin to a randomized experiment is neither rigorous nor a useful guide to empirical analysis. Using my alternative definition, I discuss how a natural experiment differs from a traditional observational study, and offer practical recommendations for researchers who wish to use natural experiments to study causal effects.
اصطلاح آزمایش طبیعی متناقض استفاده می شود.در یک تفسیر ، آن به آزمایشی اشاره دارد که در آن یک درمان به طور تصادفی توسط شخص دیگری انجام می شود از محققدر تفسیر دیگر ، به مطالعه ای اشاره دارد که در آن هیچ تکلیف تصادفی کنترل شده وجود ندارد ، اما برخی از آنها توسط برخی اختصاص داده می شود عامل خارجی به روشی که به راحتی شبیه یک آزمایش تصادفی باشد --- اغلب به عنوان یک تکلیف "گویی تصادفی" توصیف شده است.در تفسیر دیگر ، آن اشاره به هر مطالعه غیر تصادفی است که یک درمان را با یک کنترل مقایسه می کند گروه ، بدون هیچ گونه الزام خاصی در مورد نحوه تعیین درمان.من یک تعریف جایگزین را معرفی کنید که به دنبال روشن شدن ویژگی های انتگرال است آزمایشات طبیعی و در عین حال آنها را از تصادفی متمایز می کند آزمایش های کنترل شده.من یک آزمایش طبیعی را به عنوان یک مطالعه تحقیق تعریف می کنم که در آن مکانیسم واگذاری درمان (I) نه توسط طراحی و نه پیاده سازی شده است محقق ، (ii) برای محقق ناشناخته است ، و (iii) احتمالی است با توجه به یک عامل خارجی.پیام اصلی این تعریف این است که تفاوت بین یک آزمایش کنترل شده تصادفی و یک آزمایش طبیعی موضوع درجه ای نیست ، بلکه جوهر است و بنابراین مفهوم سازی یک آزمایش طبیعی به عنوان یک طرح تحقیق شبیه به یک تصادفی آزمایش نه سختگیرانه است و نه یک راهنمای مفید برای تجزیه و تحلیل تجربی.استفاده كردن تعریف جایگزین من ، من بحث می کنم که چگونه یک آزمایش طبیعی با یک متفاوت است مطالعه مشاهده ای سنتی ، و توصیه های عملی را برای محققانی که مایل به استفاده از آزمایشات طبیعی برای مطالعه اثرات علی هستند.