id
int64
28.8k
36k
text
stringlengths
44
3.03k
translation
stringlengths
36
2.47k
30,368
A multivariate score-driven filter is developed to extract signals from noisy vector processes. By assuming that the conditional location vector from a multivariate Student's t distribution changes over time, we construct a robust filter which is able to overcome several issues that naturally arise when modeling heavy-tailed phenomena and, more in general, vectors of dependent non-Gaussian time series. We derive conditions for stationarity and invertibility and estimate the unknown parameters by maximum likelihood (ML). Strong consistency and asymptotic normality of the estimator are proved and the finite sample properties are illustrated by a Monte-Carlo study. From a computational point of view, analytical formulae are derived, which consent to develop estimation procedures based on the Fisher scoring method. The theory is supported by a novel empirical illustration that shows how the model can be effectively applied to estimate consumer prices from home scanner data.
یک فیلتر نمره چند متغیره محور برای استخراج سیگنال ها از پر سر و صدا تهیه شده است فرآیندهای بردار.با فرض اینکه بردار محل مشروط از a توزیع T دانش آموز چند متغیره با گذشت زمان تغییر می کند ، ما یک قوی می سازیم فیلتر که قادر به غلبه بر چندین مسئله است که به طور طبیعی وقتی بوجود می آیند مدل سازی پدیده های با دم سنگین و به طور کلی بردارهای وابسته سریال های زمانی غیر Gaussian.ما شرایط را برای ثابت بودن به دست می آوریم و قابلیت استفاده و تخمین پارامترهای ناشناخته با حداکثر احتمال (ML). قوام قوی و نرمال بودن بدون علامت برآوردگر اثبات شده و خواص نمونه محدود توسط یک مطالعه مونت کارلو نشان داده شده است.از دیدگاه محاسباتی ، فرمولهای تحلیلی به دست می آیند ، که رضایت از آن روشهای تخمین را بر اساس روش امتیاز دهی فیشر تهیه کنید.نظریه است پشتیبانی شده توسط یک تصویر تجربی رمان که نشان می دهد مدل چگونه می تواند باشد به طور مؤثر برای برآورد قیمت مصرف کننده از داده های اسکنر خانگی استفاده می شود.
30,369
Much of the recent success of Artificial Intelligence (AI) has been spurred on by impressive achievements within a broader family of machine learning methods, commonly referred to as Deep Learning (DL). This paper provides insights on the diffusion and impact of DL in science. Through a Natural Language Processing (NLP) approach on the arXiv.org publication corpus, we delineate the emerging DL technology and identify a list of relevant search terms. These search terms allow us to retrieve DL-related publications from Web of Science across all sciences. Based on that sample, we document the DL diffusion process in the scientific system. We find i) an exponential growth in the adoption of DL as a research tool across all sciences and all over the world, ii) regional differentiation in DL application domains, and iii) a transition from interdisciplinary DL applications to disciplinary research within application domains. In a second step, we investigate how the adoption of DL methods affects scientific development. Therefore, we empirically assess how DL adoption relates to re-combinatorial novelty and scientific impact in the health sciences. We find that DL adoption is negatively correlated with re-combinatorial novelty, but positively correlated with expectation as well as variance of citation performance. Our findings suggest that DL does not (yet?) work as an autopilot to navigate complex knowledge landscapes and overthrow their structure. However, the 'DL principle' qualifies for its versatility as the nucleus of a general scientific method that advances science in a measurable way.
بخش اعظم موفقیت اخیر هوش مصنوعی (AI) تحریک شده است با دستاوردهای چشمگیر در خانواده وسیع تری از یادگیری ماشین روشها ، معمولاً به عنوان یادگیری عمیق (DL) گفته می شود.این مقاله ارائه می دهد بینش در مورد انتشار و تأثیر DL در علم.از طریق یک طبیعی رویکرد پردازش زبان (NLP) در Corpus انتشارات Arxiv.org ، ما فناوری DL در حال ظهور را ترسیم کرده و لیستی از جستجوی مربوطه را مشخص کنید مقررات.این اصطلاحات جستجو به ما امکان می دهد انتشارات مربوط به DL را از وب بازیابی کنیم علم در تمام علوم.بر اساس آن نمونه ، DL را مستند می کنیم فرآیند انتشار در سیستم علمی.ما می یابیم) رشد نمایی در اتخاذ DL به عنوان یک ابزار تحقیقاتی در همه علوم و در سراسر جهان ، ب) تمایز منطقه ای در حوزه های کاربردی DL ، و iii) a انتقال از برنامه های DL بین رشته ای به تحقیقات انضباطی در حوزه های برنامه.در مرحله دوم ، ما بررسی می کنیم که چگونه فرزندخواندگی روشهای DL بر توسعه علمی تأثیر می گذارد.بنابراین ، ما به صورت تجربی ارزیابی می کنیم نحوه پذیرش DL با تازگی مجدد و تأثیر علمی در علوم بهداشتی.ما می دانیم که پذیرش DL با همبستگی منفی است تازگی مجدد ، اما با انتظار و همچنین همبستگی مثبت دارد واریانس عملکرد استناد.یافته های ما نشان می دهد که DL هنوز هم ندارد به عنوان یک اتوپیلوت برای حرکت در مناظر پیچیده دانش و سرنگونی کار کنید ساختار آنهابا این حال ، "اصل DL" برای تطبیق پذیری خود واجد شرایط است هسته یک روش علمی عمومی که در یک علم پیشرفت می کند روش قابل اندازه گیری
30,372
This paper proposes a doubly robust two-stage semiparametric difference-in-difference estimator for estimating heterogeneous treatment effects with high-dimensional data. Our new estimator is robust to model miss-specifications and allows for, but does not require, many more regressors than observations. The first stage allows a general set of machine learning methods to be used to estimate the propensity score. In the second stage, we derive the rates of convergence for both the parametric parameter and the unknown function under a partially linear specification for the outcome equation. We also provide bias correction procedures to allow for valid inference for the heterogeneous treatment effects. We evaluate the finite sample performance with extensive simulation studies. Additionally, a real data analysis on the effect of Fair Minimum Wage Act on the unemployment rate is performed as an illustration of our method. An R package for implementing the proposed method is available on Github.
در این مقاله یک نیمه قطبی دو مرحله ای دو برابر قوی پیشنهاد شده است برآوردگر اختلاف در اختلاف برای برآورد درمان ناهمگن اثرات با داده های با ابعاد بالا.برآوردگر جدید ما برای مدل سازی قوی است مشخصات را از دست می دهد و اجازه می دهد ، اما نیازی به آن نیست ، بسیاری از رگرسیون های دیگر از مشاهداتمرحله اول به مجموعه کلی از یادگیری ماشین اجازه می دهد روشهای مورد استفاده برای برآورد نمره گرایش.در مرحله دوم ، ما نرخ همگرایی را برای هر دو پارامتر پارامتری و عملکرد ناشناخته تحت یک مشخصات جزئی خطی برای نتیجه معادلهما همچنین روشهای تصحیح تعصب را ارائه می دهیم تا معتبر باشد استنتاج برای اثرات درمانی ناهمگن.ما محدود را ارزیابی می کنیم عملکرد نمونه با مطالعات شبیه سازی گسترده.علاوه بر این ، یک داده واقعی تجزیه و تحلیل در مورد تأثیر حداقل دستمزد منصفانه بر نرخ بیکاری است به عنوان نمونه ای از روش ما انجام شده است.بسته R برای اجرای روش پیشنهادی در GitHub موجود است.
30,373
Accuracy of crop price forecasting techniques is important because it enables the supply chain planners and government bodies to take appropriate actions by estimating market factors such as demand and supply. In emerging economies such as India, the crop prices at marketplaces are manually entered every day, which can be prone to human-induced errors like the entry of incorrect data or entry of no data for many days. In addition to such human prone errors, the fluctuations in the prices itself make the creation of stable and robust forecasting solution a challenging task. Considering such complexities in crop price forecasting, in this paper, we present techniques to build robust crop price prediction models considering various features such as (i) historical price and market arrival quantity of crops, (ii) historical weather data that influence crop production and transportation, (iii) data quality-related features obtained by performing statistical analysis. We additionally propose a framework for context-based model selection and retraining considering factors such as model stability, data quality metrics, and trend analysis of crop prices. To show the efficacy of the proposed approach, we show experimental results on two crops - Tomato and Maize for 14 marketplaces in India and demonstrate that the proposed approach not only improves accuracy metrics significantly when compared against the standard forecasting techniques but also provides robust models.
صحت تکنیک های پیش بینی قیمت محصولات مهم است زیرا امکان پذیر است برنامه ریزان زنجیره تأمین و نهادهای دولتی برای انجام اقدامات مناسب توسط تخمین عوامل بازار مانند تقاضا و عرضه.در اقتصادهای نوظهور چنین به عنوان هند ، قیمت محصولات زراعی در بازارها هر روز به صورت دستی وارد می شود ، که می تواند مستعد خطاهای ناشی از انسان مانند ورود داده های نادرست یا ورود باشد هیچ داده ای برای روزهای زیادی وجود ندارد.علاوه بر چنین خطاهای مستعد انسانی ، نوسانات در قیمت ها باعث ایجاد پایدار و قوی می شود پیش بینی راه حل یک کار چالش برانگیز.با توجه به چنین پیچیدگی هایی در محصول پیش بینی قیمت ، در این مقاله ، ما تکنیک هایی برای ساخت محصول قوی ارائه می دهیم مدل های پیش بینی قیمت با توجه به ویژگی های مختلف مانند (i) تاریخی قیمت و مقدار ورود به بازار محصولات زراعی ، (ب) داده های آب و هوایی تاریخی که تأثیر تولید و حمل و نقل محصول ، (iii) مربوط به کیفیت داده ها ویژگی های به دست آمده با انجام تجزیه و تحلیل آماری.ما علاوه بر این پیشنهاد می کنیم چارچوبی برای انتخاب مدل مبتنی بر زمینه و بازآموزی با توجه به عوامل مانند ثبات مدل ، معیارهای کیفیت داده و تجزیه و تحلیل روند محصول قیمت.برای نشان دادن اثربخشی رویکرد پیشنهادی ، ما تجربی را نشان می دهیم نتایج دو محصول - گوجه فرنگی و ذرت برای 14 بازار در هند و نشان می دهد که رویکرد پیشنهادی نه تنها معیارهای دقت را بهبود می بخشد به طور قابل توجهی در مقایسه با تکنیک های پیش بینی استاندارد اما همچنین مدل های قوی را ارائه می دهد.
30,374
Outliers in discrete choice response data may result from misclassification and misreporting of the response variable and from choice behaviour that is inconsistent with modelling assumptions (e.g. random utility maximisation). In the presence of outliers, standard discrete choice models produce biased estimates and suffer from compromised predictive accuracy. Robust statistical models are less sensitive to outliers than standard non-robust models. This paper analyses two robust alternatives to the multinomial probit (MNP) model. The two models are robit models whose kernel error distributions are heavy-tailed t-distributions to moderate the influence of outliers. The first model is the multinomial robit (MNR) model, in which a generic degrees of freedom parameter controls the heavy-tailedness of the kernel error distribution. The second model, the generalised multinomial robit (Gen-MNR) model, is more flexible than MNR, as it allows for distinct heavy-tailedness in each dimension of the kernel error distribution. For both models, we derive Gibbs samplers for posterior inference. In a simulation study, we illustrate the excellent finite sample properties of the proposed Bayes estimators and show that MNR and Gen-MNR produce more accurate estimates if the choice data contain outliers through the lens of the non-robust MNP model. In a case study on transport mode choice behaviour, MNR and Gen-MNR outperform MNP by substantial margins in terms of in-sample fit and out-of-sample predictive accuracy. The case study also highlights differences in elasticity estimates across models.
Outliers در داده های پاسخ انتخاب گسسته ممکن است ناشی از طبقه بندی نادرست باشد و گزارش نادرست متغیر پاسخ و از رفتار انتخابی که هست متناقض با فرضیات مدل سازی (به عنوان مثال حداکثر رساندن ابزار تصادفی).که در وجود مدلهای انتخابی گسسته استاندارد ، مغرضانه تولید می کند تخمین ها و از دقت پیش بینی به خطر افتاده رنج می برند.استحکام آماری مدل ها نسبت به مدلهای استاندارد غیر راوب نسبت به Outliers حساسیت کمتری دارند.این مقاله دو گزینه جایگزین قوی برای مدل پروبیت چند علی (MNP) را تجزیه و تحلیل می کند. این دو مدل مدل های Robit هستند که توزیع خطای هسته آنها است توزیع های Tailed Tailed برای تعدیل تأثیر Outliers.اولین مدل مدل Robit Multinomial (MNR) است ، که در آن درجه های عمومی از پارامتر آزادی دمای سنگین خطای هسته را کنترل می کند توزیعمدل دوم ، Robit Multinomial عمومی (Gen-MNR) مدل ، انعطاف پذیرتر از MNR است ، زیرا این امکان را فراهم می کند هر بعد توزیع خطای هسته.برای هر دو مدل ، ما مشتق می شویم نمونه های گیبس برای استنباط خلفی.در یک مطالعه شبیه سازی ، ما نشان می دهیم خصوصیات نمونه محدود نمونه از برآوردگرهای پیشنهادی بیز و نشان می دهد که اگر داده های انتخابی تخمین های دقیق تری داشته باشند ، MNR و Gen-MNR تخمین های دقیق تری تولید می کنند حاوی دور از طریق لنزهای مدل MNP غیر Robust است.در یک مطالعه موردی در رفتار انتخاب حالت حمل و نقل ، MNR و Gen-MNR از MNP بهتر از حاشیه های اساسی از نظر تناسب درون نمونه و پیش بینی خارج از نمونه دقت.مطالعه موردی همچنین تفاوت در برآوردهای خاصیت ارتجاعی را برجسته می کند در سراسر مدل ها.
30,375
This paper derives identification, estimation, and inference results using spatial differencing in sample selection models with unobserved heterogeneity. We show that under the assumption of smooth changes across space of the unobserved sub-location specific heterogeneities and inverse Mills ratio, key parameters of a sample selection model are identified. The smoothness of the sub-location specific heterogeneities implies a correlation in the outcomes. We assume that the correlation is restricted within a location or cluster and derive asymptotic results showing that as the number of independent clusters increases, the estimators are consistent and asymptotically normal. We also propose a formula for standard error estimation. A Monte-Carlo experiment illustrates the small sample properties of our estimator. The application of our procedure to estimate the determinants of the municipality tax rate in Finland shows the importance of accounting for unobserved heterogeneity.
این مقاله با استفاده از شناسایی ، تخمین و استنباط حاصل می شود تفاوت مکانی در مدل های انتخاب نمونه با ناهمگونی بدون نظارت. ما نشان می دهیم که تحت فرض تغییرات صاف در فضای موجود ناهمگونی های خاص زیر مکان و نسبت آسیاب معکوس ، کلیدی پارامترهای یک مدل انتخاب نمونه مشخص می شوند.صافی ناهمگونی های خاص در زیر محل به معنای همبستگی در نتایج است.ما فرض کنید که این همبستگی در یک مکان یا خوشه محدود شده است و نتایج بدون علامت را نشان می دهد که نشان می دهد تعداد خوشه های مستقل افزایش ، برآوردگرها سازگار و بدون علامت طبیعی هستند.ما همچنین برای برآورد خطای استاندارد فرمول پیشنهاد دهید.یک آزمایش مونت کارلو خصوصیات نمونه کوچک برآوردگر ما را نشان می دهد.کاربرد روش ما برای تخمین عوامل تعیین کننده نرخ مالیات شهرداری در فنلاند اهمیت حسابداری را برای ناهمگونی بدون نظارت نشان می دهد.
30,376
We present a new identification condition for regression discontinuity designs. We replace the local randomization of Lee (2008) with two restrictions on its threat, namely, the manipulation of the running variable. Furthermore, we provide the first auxiliary assumption of McCrary's (2008) diagnostic test to detect manipulation. Based on our auxiliary assumption, we derive a novel expression of moments that immediately implies the worst-case bounds of Gerard, Rokkanen, and Rothe (2020) and an enhanced interpretation of their target parameters. We highlight two issues: an overlooked source of identification failure, and a missing auxiliary assumption to detect manipulation. In the case studies, we illustrate our solution to these issues using institutional details and economic theories.
ما یک شرط شناسایی جدید برای ناپیوستگی رگرسیون ارائه می دهیم طرح ها.ما تصادفی محلی لی (2008) را با دو محدودیت جایگزین می کنیم در مورد تهدید آن ، یعنی دستکاری متغیر در حال اجرا.علاوه بر این، ما اولین فرض کمکی آزمایش تشخیصی مک کراری (2008) را ارائه می دهیم برای تشخیص دستکاری.بر اساس فرض کمکی ما ، ما یک رمان را استخراج می کنیم بیان لحظاتی که بلافاصله حاکی از بدترین محدوده های جرارد است ، Rokkanen ، و Rothe (2020) و تفسیر پیشرفته ای از هدف آنها مولفه های.ما دو موضوع را برجسته می کنیم: یک منبع شناسایی نادیده گرفته شده عدم موفقیت و فرض کمکی مفقود شده برای تشخیص دستکاری.در مورد مطالعات ، ما با استفاده از جزئیات نهادی ، راه حل خود را برای این موضوعات نشان می دهیم و نظریه های اقتصادی
30,598
We conduct an incentivized experiment on a nationally representative US sample \\ (N=708) to test whether people prefer to avoid ambiguity even when it means choosing dominated options. In contrast to the literature, we find that 55\% of subjects prefer a risky act to an ambiguous act that always provides a larger probability of winning. Our experimental design shows that such a preference is not mainly due to a lack of understanding. We conclude that subjects avoid ambiguity \textit{per se} rather than avoiding ambiguity because it may yield a worse outcome. Such behavior cannot be reconciled with existing models of ambiguity aversion in a straightforward manner.
ما یک آزمایش تحریک آمیز را برای یک نماینده ملی انجام می دهیم نمونه \\ (n = 708) برای آزمایش اینکه آیا مردم ترجیح می دهند از ابهام جلوگیری کنند حتی در صورت به معنای انتخاب گزینه های تحت تسلط است.برخلاف ادبیات ، ما آن را می یابیم 55 \ ٪ از افراد یک عمل خطرناک را به یک عمل مبهم ترجیح می دهند که همیشه یک احتمال بزرگتر پیروزی.طرح آزمایشی ما نشان می دهد که چنین اولویت عمدتاً به دلیل عدم درک نیست.نتیجه می گیریم که افراد به جای اجتناب از ابهام ، از ابهام \ textit {به خودی خود جلوگیری می کنند زیرا ممکن است نتیجه بدتری داشته باشد.چنین رفتاری را نمی توان با موجود آشتی داد مدل های دوری از ابهام به روشی ساده.
30,377
Proper scoring rules are used to assess the out-of-sample accuracy of probabilistic forecasts, with different scoring rules rewarding distinct aspects of forecast performance. Herein, we re-investigate the practice of using proper scoring rules to produce probabilistic forecasts that are `optimal' according to a given score, and assess when their out-of-sample accuracy is superior to alternative forecasts, according to that score. Particular attention is paid to relative predictive performance under misspecification of the predictive model. Using numerical illustrations, we document several novel findings within this paradigm that highlight the important interplay between the true data generating process, the assumed predictive model and the scoring rule. Notably, we show that only when a predictive model is sufficiently compatible with the true process to allow a particular score criterion to reward what it is designed to reward, will this approach to forecasting reap benefits. Subject to this compatibility however, the superiority of the optimal forecast will be greater, the greater is the degree of misspecification. We explore these issues under a range of different scenarios, and using both artificially simulated and empirical data.
از قوانین امتیاز دهی مناسب برای ارزیابی دقت خارج از نمونه استفاده می شود پیش بینی های احتمالی ، با قوانین امتیاز دهی متفاوت پاداش متمایز جنبه های عملکرد پیش بینی.در اینجا ، ما دوباره عمل می کنیم با استفاده از قوانین امتیاز دهی مناسب برای تولید پیش بینی های احتمالی که هستند "بهینه" با توجه به یک نمره معین ، و ارزیابی زمان خارج از نمونه آنها مطابق با این امتیاز ، دقت نسبت به پیش بینی های جایگزین برتر است. توجه ویژه به عملکرد پیش بینی نسبی در زیر غلط گیری مدل پیش بینی.با استفاده از تصاویر عددی ، ما چندین یافته جدید را در این الگوی مستند کنید که برجسته است تعامل مهم بین فرآیند تولید داده های واقعی ، فرض شده مدل پیش بینی کننده و قانون امتیاز دهی.نکته قابل توجه ، ما نشان می دهیم که فقط وقتی a مدل پیش بینی به اندازه کافی با فرآیند واقعی سازگار است تا به معیار نمره خاص برای پاداش آنچه که برای پاداش طراحی شده است ، آیا این رویکرد برای پیش بینی مزایای درو.با این حال با این سازگاری ، برتری پیش بینی بهینه بیشتر خواهد بود ، بیشتر است درجه شناسایی اشتباه.ما این مسائل را تحت طیف وسیعی از موارد مختلف کشف می کنیم سناریوها ، و با استفاده از داده های شبیه سازی شده و تجربی.
30,378
This paper makes a selective survey on the recent development of the factor model and its application on statistical learnings. We focus on the perspective of the low-rank structure of factor models, and particularly draws attentions to estimating the model from the low-rank recovery point of view. The survey mainly consists of three parts: the first part is a review on new factor estimations based on modern techniques on recovering low-rank structures of high-dimensional models. The second part discusses statistical inferences of several factor-augmented models and applications in econometric learning models. The final part summarizes new developments dealing with unbalanced panels from the matrix completion perspective.
در این مقاله یک بررسی انتخابی در مورد توسعه اخیر فاکتور انجام شده است مدل و کاربرد آن در یادگیری آماری.ما روی چشم انداز تمرکز می کنیم از ساختار درجه پایین مدل های فاکتور ، و به ویژه توجه را جلب می کند برای برآورد مدل از دیدگاه بازیابی درجه پایین.بررسی عمدتا از سه بخش تشکیل شده است: بخش اول بررسی فاکتور جدید است برآوردهای مبتنی بر تکنیک های مدرن در مورد بازیابی ساختارهای کم رتبه از مدل های با ابعاد بالا.بخش دوم در مورد استنتاج های آماری درباره بحث می کند چندین مدل و برنامه های کاربردی با همبستگی در یادگیری اقتصاد سنجی مدل ها.بخش آخر خلاصه تحولات جدید است که با نامتوازن سروکار دارد پانل ها از منظر تکمیل ماتریس.
30,379
We study a semi-/nonparametric regression model with a general form of nonclassical measurement error in the outcome variable. We show equivalence of this model to a generalized regression model. Our main identifying assumptions are a special regressor type restriction and monotonicity in the nonlinear relationship between the observed and unobserved true outcome. Nonparametric identification is then obtained under a normalization of the unknown link function, which is a natural extension of the classical measurement error case. We propose a novel sieve rank estimator for the regression function and establish its rate of convergence. In Monte Carlo simulations, we find that our estimator corrects for biases induced by nonclassical measurement error and provides numerically stable results. We apply our method to analyze belief formation of stock market expectations with survey data from the German Socio-Economic Panel (SOEP) and find evidence for nonclassical measurement error in subjective belief data.
ما یک مدل رگرسیون نیمه/غیر پارامتری را با یک شکل کلی مطالعه می کنیم خطای اندازه گیری غیر کلاسیک در متغیر نتیجه.ما هم ارزی را نشان می دهیم این مدل به یک مدل رگرسیون عمومی.فرضیات اصلی شناسایی ما محدودیت و یکنواختی از نوع رگرسور در غیرخطی است رابطه بین نتیجه واقعی مشاهده شده و بدون نظارت.غیر پارامتری سپس شناسایی تحت عادی سازی لینک ناشناخته به دست می آید عملکرد ، که یک گسترش طبیعی مورد خطای اندازه گیری کلاسیک است. ما یک برآوردگر رتبه Sieve جدید را برای عملکرد رگرسیون پیشنهاد می کنیم و میزان همگرایی خود را تعیین کنید. در شبیه سازی های مونت کارلو ، می فهمیم که برآوردگر ما تعصب را تصحیح می کند ناشی از خطای اندازه گیری غیر کلاسیک و از نظر عددی پایدار است نتایج.ما از روش خود برای تجزیه و تحلیل شکل گیری اعتقاد به بازار سهام استفاده می کنیم انتظارات با داده های نظرسنجی از پانل اقتصادی و اجتماعی آلمان (SOEP) و شواهدی برای خطای اندازه گیری غیر کلاسیک در داده های اعتقاد ذهنی پیدا کنید.
30,380
Multivariate dynamic time series models are widely encountered in practical studies, e.g., modelling policy transmission mechanism and measuring connectedness between economic agents. To better capture the dynamics, this paper proposes a wide class of multivariate dynamic models with time-varying coefficients, which have a general time-varying vector moving average (VMA) representation, and nest, for instance, time-varying vector autoregression (VAR), time-varying vector autoregression moving-average (VARMA), and so forth as special cases. The paper then develops a unified estimation method for the unknown quantities before an asymptotic theory for the proposed estimators is established. In the empirical study, we investigate the transmission mechanism of monetary policy using U.S. data, and uncover a fall in the volatilities of exogenous shocks. In addition, we find that (i) monetary policy shocks have less influence on inflation before and during the so-called Great Moderation, (ii) inflation is more anchored recently, and (iii) the long-run level of inflation is below, but quite close to the Federal Reserve's target of two percent after the beginning of the Great Moderation period.
مدل های سری زمانی پویا چند متغیره به طور گسترده ای در عملی روبرو می شوند مطالعات ، به عنوان مثال ، مکانیسم انتقال سیاست مدل سازی و اندازه گیری ارتباط بین عوامل اقتصادی.برای گرفتن بهتر پویایی ، این مقاله کلاس گسترده ای از مدلهای پویا چند متغیره را با متغیر زمان ارائه می دهد ضرایب ، که دارای یک وکتور متغیر کلی در حال حرکت هستند (VMA) نمایندگی و لانه ، به عنوان مثال ، اتمام وکتور متغیر زمان . به عنوان موارد خاصمقاله سپس یک روش تخمین متحد را برای مقادیر ناشناخته قبل از یک نظریه بدون علامت برای برآوردگرهای پیشنهادی است ایجاد.در مطالعه تجربی ، مکانیسم انتقال را بررسی می کنیم از سیاست های پولی با استفاده از داده های ایالات متحده ، و از سقوط در نوسانات شوک های اگزوژن.علاوه بر این ، ما می دانیم که (i) شوک های سیاست پولی تأثیر کمتری بر تورم قبل و در طول به اصطلاح اعتدال بزرگ ، (ب) تورم اخیراً لنگر انداخته شده است ، و (iii) سطح بلند مدت تورم در زیر است ، اما کاملاً نزدیک به هدف فدرال رزرو دو نفر است درصد پس از شروع دوره اعتدال بزرگ.
30,381
We propose a recursive logit model which captures the notion of choice aversion by imposing a penalty term that accounts for the dimension of the choice set at each node of the transportation network. We make three contributions. First, we show that our model overcomes the correlation problem between routes, a common pitfall of traditional logit models, and that the choice aversion model can be seen as an alternative to these models. Second, we show how our model can generate violations of regularity in the path choice probabilities. In particular, we show that removing edges in the network may decrease the probability for existing paths. Finally, we show that under the presence of choice aversion, adding edges to the network can make users worse off. In other words, a type of Braess's paradox can emerge outside of congestion and can be characterized in terms of a parameter that measures users' degree of choice aversion. We validate these contributions by estimating this parameter over GPS traffic data captured on a real-world transportation network.
ما یک مدل ورود بازگشتی را پیشنهاد می کنیم که مفهوم انتخاب را ضبط می کند گریزی با تحمیل یک مجازات مجازات که ابعاد آن را تشکیل می دهد انتخاب در هر گره از شبکه حمل و نقل.ما سه می سازیم مشارکتهااول ، ما نشان می دهیم که مدل ما بر مشکل همبستگی غلبه می کند بین مسیرها ، یک خطای مشترک از مدل های ورود به سیستم سنتی ، و آن مدل انتخاب انتخاب می تواند به عنوان جایگزینی برای این مدل ها تلقی شود.دوم ، ما نشان می دهد که چگونه مدل ما می تواند در انتخاب مسیر تخلفات منظم را ایجاد کند احتمالاتبه طور خاص ، ما نشان می دهیم که حذف لبه ها در شبکه ممکن است احتمال مسیرهای موجود را کاهش دهید.سرانجام ، ما آن را در زیر نشان می دهیم وجود گریزی انتخاب ، اضافه کردن لبه ها به شبکه می تواند کاربران را بدتر کند خاموشبه عبارت دیگر ، یک نوع پارادوکس برس می تواند در خارج از کشور ظاهر شود احتقان و از نظر پارامتری که اندازه گیری می شود قابل توصیف است میزان انتخاب کاربران.ما با برآورد این کمک ها را تأیید می کنیم این پارامتر بر روی داده های ترافیکی GPS که در حمل و نقل در دنیای واقعی ضبط شده است شبکه.
30,382
I introduce a generic method for inference about a scalar parameter in research designs with a finite number of heterogeneous clusters where only a single cluster received treatment. This situation is commonplace in difference-in-differences estimation but the test developed here applies more generally. I show that the test controls size and has power under asymptotics where the number of observations within each cluster is large but the number of clusters is fixed. The test combines weighted, approximately Gaussian parameter estimates with a rearrangement procedure to obtain its critical values. The weights needed for most empirically relevant situations are tabulated in the paper. Calculation of the critical values is computationally simple and does not require simulation or resampling. The rearrangement test is highly robust to situations where some clusters are much more variable than others. Examples and an empirical application are provided.
من یک روش عمومی برای استنباط در مورد یک پارامتر مقیاس در طرح های تحقیقاتی با تعداد محدودی از خوشه های ناهمگن که فقط a خوشه منفرد درمان دریافت کرد.این وضعیت در برآورد اختلاف در اختلافات اما آزمون توسعه یافته در اینجا بیشتر اعمال می شود بطور کلی.من نشان می دهم که تست اندازه را کنترل می کند و تحت مجانب قدرت دارد جایی که تعداد مشاهدات موجود در هر خوشه بزرگ است اما تعداد آنها خوشه ها ثابت هستند.این تست پارامتر وزنی تقریباً گاوسی را با هم ترکیب می کند تخمین ها با یک روش تنظیم مجدد برای به دست آوردن مقادیر مهم آن.در وزن مورد نیاز برای اکثر شرایط تجربی در این جدول بندی شده است کاغذ.محاسبه مقادیر بحرانی از نظر محاسباتی ساده است و انجام می دهد نیازی به شبیه سازی یا استفاده مجدد نیست.تست تنظیم مجدد بسیار قوی است در شرایطی که برخی از خوشه ها بسیار متغیر تر از سایرین هستند.مثال ها و یک برنامه تجربی ارائه شده است.
30,383
This paper assesses when the validity of difference-in-differences depends on functional form. We provide a novel characterization: the parallel trends assumption holds under all strictly monotonic transformations of the outcome if and only if a stronger ``parallel trends''-type condition holds for the cumulative distribution function of untreated potential outcomes. This condition for parallel trends to be insensitive to functional form is satisfied if and essentially only if the population can be partitioned into a subgroup for which treatment is effectively randomly assigned and a remaining subgroup for which the distribution of untreated potential outcomes is stable over time. These conditions have testable implications, and we introduce falsification tests for the null that parallel trends is insensitive to functional form.
در این مقاله ارزیابی می شود که اعتبار تفاوت در اختلافات بستگی به آن دارد فرم عملکردیما یک شخصیت جدید ارائه می دهیم: روندهای موازی فرض در مورد همه تحولات کاملاً یکنواختی نتیجه وجود دارد و فقط اگر یک "روندهای موازی" قوی تر باشد-شرایط نوع برای عملکرد توزیع تجمعی نتایج بالقوه درمان نشده.این شرط اینکه روند موازی نسبت به فرم عملکردی بی حس شود رضایت دارد اگر و اساساً فقط در صورتی که جمعیت بتوانند در زیر گروه تقسیم شوند که برای آن درمان به طور تصادفی اختصاص داده می شود و یک زیر گروه باقیمانده است که برای آن توزیع نتایج بالقوه درمان نشده با گذشت زمان پایدار است. این شرایط پیامدهای قابل آزمایش دارد و ما جعل را معرفی می کنیم تست هایی برای تهی مبنی بر اینکه روند موازی نسبت به فرم عملکردی غیر حساس است.
30,384
Randomized controlled trials generate experimental variation that can credibly identify causal effects, but often suffer from limited scale, while observational datasets are large, but often violate desired identification assumptions. To improve estimation efficiency, I propose a method that leverages imperfect instruments - pretreatment covariates that satisfy the relevance condition but may violate the exclusion restriction. I show that these imperfect instruments can be used to derive moment restrictions that, in combination with the experimental data, improve estimation efficiency. I outline estimators for implementing this strategy, and show that my methods can reduce variance by up to 50%; therefore, only half of the experimental sample is required to attain the same statistical precision. I apply my method to a search listing dataset from Expedia that studies the causal effect of search rankings on clicks, and show that the method can substantially improve the precision.
کارآزمایی های کنترل شده تصادفی تنوع تجربی ایجاد می کنند که می تواند اثرات علی را به طور قابل توجهی شناسایی کنید ، اما اغلب از مقیاس محدود رنج می برند ، در حالی که مجموعه داده های مشاهده ای بزرگ هستند ، اما اغلب شناسایی مورد نظر را نقض می کنند فرضیاتبرای بهبود راندمان تخمین ، من روشی را پیشنهاد می کنم که ابزارهای ناقص را اعمال می کند - متغیرهای پیش درمانی که برآورده می شوند شرایط ارتباط اما ممکن است محدودیت محرومیت را نقض کند.من نشان می دهم که از این ابزارهای ناقص می توان برای به دست آوردن محدودیت های لحظه ای استفاده کرد که در آن ترکیب با داده های تجربی ، بازده تخمین را بهبود می بخشد.من برآوردگرهای طرح بندی برای اجرای این استراتژی ، و نشان می دهد که روش های من می توانند واریانس را تا 50 ٪ کاهش دهید.بنابراین ، فقط نیمی از نمونه آزمایشی برای دستیابی به همان دقت آماری لازم است.من روش خود را در a اعمال می کنم مجموعه داده های لیست جستجو از Expedia که تأثیر علی جستجو را بررسی می کند رتبه بندی روی کلیک ، و نشان می دهد که این روش به طور قابل توجهی می تواند بهبود یابد دقت، درستی.
30,385
This note discusses two recent studies on identification of individualized treatment rules using instrumental variables---Cui and Tchetgen Tchetgen (2020) and Qiu et al. (2020). It also proposes identifying assumptions that are alternative to what is used in both studies.
این یادداشت دو مطالعه اخیر در مورد شناسایی فردی را مورد بحث قرار می دهد قوانین درمانی با استفاده از متغیرهای ابزاری --- Cui و Tchetgen Tchetgen (2020) و Qiu و همکاران.(2020).همچنین پیشنهادات شناسایی را پیشنهاد می کند جایگزین برای آنچه در هر دو مطالعه استفاده می شود.
30,386
Researchers often treat data-driven and theory-driven models as two disparate or even conflicting methods in travel behavior analysis. However, the two methods are highly complementary because data-driven methods are more predictive but less interpretable and robust, while theory-driven methods are more interpretable and robust but less predictive. Using their complementary nature, this study designs a theory-based residual neural network (TB-ResNet) framework, which synergizes discrete choice models (DCMs) and deep neural networks (DNNs) based on their shared utility interpretation. The TB-ResNet framework is simple, as it uses a ($\delta$, 1-$\delta$) weighting to take advantage of DCMs' simplicity and DNNs' richness, and to prevent underfitting from the DCMs and overfitting from the DNNs. This framework is also flexible: three instances of TB-ResNets are designed based on multinomial logit model (MNL-ResNets), prospect theory (PT-ResNets), and hyperbolic discounting (HD-ResNets), which are tested on three data sets. Compared to pure DCMs, the TB-ResNets provide greater prediction accuracy and reveal a richer set of behavioral mechanisms owing to the utility function augmented by the DNN component in the TB-ResNets. Compared to pure DNNs, the TB-ResNets can modestly improve prediction and significantly improve interpretation and robustness, because the DCM component in the TB-ResNets stabilizes the utility functions and input gradients. Overall, this study demonstrates that it is both feasible and desirable to synergize DCMs and DNNs by combining their utility specifications under a TB-ResNet framework. Although some limitations remain, this TB-ResNet framework is an important first step to create mutual benefits between DCMs and DNNs for travel behavior modeling, with joint improvement in prediction, interpretation, and robustness.
محققان غالباً مدلهای داده محور و تئوری محور را به عنوان دو متفاوت درمان می کنند یا حتی روشهای متناقض در تجزیه و تحلیل رفتار سفر.با این حال ، این دو روشها بسیار مکمل هستند زیرا روشهای داده محور بیشتر هستند پیش بینی کننده اما کمتر قابل تفسیر و قوی است ، در حالی که روش های تئوری محور هستند قابل تفسیر و قوی تر اما پیش بینی کمتر.با استفاده از مکمل آنها طبیعت ، این مطالعه یک شبکه عصبی باقیمانده مبتنی بر تئوری (TB-RESNET) را طراحی می کند چارچوب ، که مدل های انتخاب گسسته (DCM) و عصبی عمیق را هم افزایی می کند شبکه ها (DNNS) بر اساس تفسیر ابزار مشترک خود.RESNET TB چارچوب ساده است ، زیرا از وزن ($ \ delta $ ، 1-$ \ delta $) استفاده می کند تا مصرف کند مزیت سادگی DCMS و غنای DNNS ، و برای جلوگیری از کمبود از DCM ها و بیش از حد از DNN ها.این چارچوب نیز انعطاف پذیر است: سه نمونه از Resnets بر اساس مدل ورود به سیستم چند منظوره طراحی شده است (RESNETS MNL) ، نظریه چشم انداز (PT-RESNETS) و تخفیف بیش از حد (Resnets HD) ، که در سه مجموعه داده آزمایش می شوند.در مقایسه با DCM های خالص ، Resnets Tb دقت پیش بینی بیشتری را ارائه می دهد و مجموعه ای غنی تر از آن را نشان می دهد مکانیسم های رفتاری به دلیل عملکرد ابزار تقویت شده توسط DNN مؤلفه در Resnets سل.در مقایسه با DNN های خالص ، Resnets Tb می توانند به طور متوسط پیش بینی را بهبود بخشید و تفسیر و استحکام را به طور قابل توجهی بهبود بخشید ، زیرا مؤلفه DCM در RESNETS توابع ابزار را تثبیت می کند و شیب ورودیبه طور کلی ، این مطالعه نشان می دهد که هر دو امکان پذیر است و مطلوب برای هم افزایی DCM ها و DNN ها با ترکیب ابزار آنها مشخصات تحت یک چارچوب TB-RESNET.اگرچه برخی از محدودیت ها باقی مانده است ، این چارچوب TB-RESNET اولین گام مهم برای ایجاد مزایای متقابل است بین DCMS و DNN ها برای مدل سازی رفتار سفر ، با بهبود مفصل در پیش بینی ، تفسیر و استحکام.
30,387
Gross domestic product (GDP) is an important economic indicator that aggregates useful information to assist economic agents and policymakers in their decision-making process. In this context, GDP forecasting becomes a powerful decision optimization tool in several areas. In order to contribute in this direction, we investigated the efficiency of classical time series models, the state-space models, and the neural network models, applied to Brazilian gross domestic product. The models used were: a Seasonal Autoregressive Integrated Moving Average (SARIMA) and a Holt-Winters method, which are classical time series models; the dynamic linear model, a state-space model; and neural network autoregression and the multilayer perceptron, artificial neural network models. Based on statistical metrics of model comparison, the multilayer perceptron presented the best in-sample and out-sample forecasting performance for the analyzed period, also incorporating the growth rate structure significantly.
تولید ناخالص داخلی (تولید ناخالص داخلی) یک شاخص مهم اقتصادی است که جمع آوری اطلاعات مفید برای کمک به عوامل اقتصادی و سیاست گذاران در روند تصمیم گیری آنهادر این زمینه ، پیش بینی تولید ناخالص داخلی تبدیل می شود ابزار بهینه سازی تصمیم گیری قدرتمند در چندین زمینه.به منظور مشارکت در این جهت ، ما به بررسی کارآیی مدلهای سری زمانی کلاسیک ، مدل های فضای دولتی و مدل های شبکه عصبی برای برزیلی اعمال می شود تولید ناخالص داخلی.مدل های مورد استفاده عبارت بودند از: یک خودجوش فصلی میانگین متحرک یکپارچه (Sarima) و یک روش Holt-Winters ، که هستند مدل های سری زمانی کلاسیک ؛مدل خطی پویا ، یک مدل حالت فضای. و Autoregression شبکه عصبی و Perceptron چند لایه ، مصنوعی مدل های شبکه عصبی.بر اساس معیارهای آماری مقایسه مدل ، Perceptron چند لایه بهترین پیش بینی در نمونه و نمونه را ارائه داد عملکرد برای دوره تجزیه و تحلیل ، همچنین شامل نرخ رشد است ساختار به طور قابل توجهی
30,388
Companies survey their customers to measure their satisfaction levels with the company and its services. The received responses are crucial as they allow companies to assess their respective performances and find ways to make needed improvements. This study focuses on the non-systematic bias that arises when customers assign numerical values in ordinal surveys. Using real customer satisfaction survey data of a large retail bank, we show that the common practice of segmenting ordinal survey responses into uneven segments limit the value that can be extracted from the data. We then show that it is possible to assess the magnitude of the irreducible error under simple assumptions, even in real surveys, and place the achievable modeling goal in perspective. We finish the study by suggesting that a thoughtful survey design, which uses either a careful binning strategy or proper calibration, can reduce the compounding non-systematic error even in elaborated ordinal surveys. A possible application of the calibration method we propose is efficiently conducting targeted surveys using active learning.
شرکت ها مشتریان خود را بررسی می کنند تا سطح رضایت خود را با آنها اندازه گیری کنند شرکت و خدمات آن.پاسخ های دریافت شده همانطور که اجازه می دهند بسیار مهم است شرکت هایی برای ارزیابی عملکردهای مربوطه و یافتن راه هایی برای نیازهای مورد نیاز پیشرفت هااین مطالعه بر تعصب غیر سیستمی است که وقتی بوجود می آید مشتریان مقادیر عددی را در نظرسنجی های نظم اختصاص می دهند.استفاده از مشتری واقعی داده های بررسی رضایت از یک بانک خرده فروشی بزرگ ، ما نشان می دهیم که مشترک عمل تقسیم پاسخ های نظرسنجی نظم به بخش های ناهموار محدود را محدود می کند مقداری که می تواند از داده ها استخراج شود.سپس نشان می دهیم که امکان وجود دارد میزان خطای غیرقابل برگشت را با فرضیات ساده ارزیابی کنید ، حتی در نظرسنجی های واقعی ، و هدف مدل سازی قابل دستیابی را در چشم انداز قرار دهید.ما تمام کردیم این مطالعه با بیان اینکه یک طرح نظرسنجی متفکرانه ، که از آن استفاده می کند استراتژی دقیق یا کالیبراسیون مناسب ، می تواند ترکیب را کاهش دهد خطای غیر سیستمی حتی در نظرسنجی های مفصل.یک برنامه ممکن از روش کالیبراسیون که ما پیشنهاد می کنیم ، انجام نظرسنجی های هدفمند است با استفاده از یادگیری فعال
30,418
Stips, Macias, Coughlan, Garcia-Gorriz, and Liang (2016, Nature Scientific Reports) use information flows (Liang, 2008, 2014) to establish causality from various forcings to global temperature. We show that the formulas being used hinges on a simplifying assumption that is nearly always rejected by the data. We propose an adequate measure of information flow based on Vector Autoregressions, and find that most results in Stips et al. (2016) cannot be corroborated. Then, it is discussed which modeling choices (e.g., the choice of CO2 series and assumptions about simultaneous relationships) may help in extracting credible estimates of causal flows and the transient climate response simply by looking at the joint dynamics of two climatic time series.
Stips ، Macias ، Coughlan ، Garcia-worriz و Liang (2016 ، Nature Scientific گزارش ها) از جریان اطلاعات استفاده کنید (لیانگ ، 2008 ، 2014) برای ایجاد علیت از نیروهای مختلف به دمای جهانی.ما نشان می دهیم که فرمول های مورد استفاده به یک فرض ساده که تقریباً همیشه توسط داده ها رد می شود ، لولا است. ما یک اندازه کافی از جریان اطلاعات را بر اساس بردار پیشنهاد می کنیم اتورژها ، و می بینید که بیشتر منجر به استیپس و همکاران می شود.(2016) نمی تواند باشد تأیید شدهسپس مورد بحث قرار می گیرد که کدام گزینه های مدل سازی (به عنوان مثال ، انتخاب سری CO2 و فرضیات در مورد روابط همزمان) ممکن است به شما کمک کند استخراج برآوردهای معتبر از جریان های علی و آب و هوای گذرا پاسخ به سادگی با نگاهی به پویایی مشترک دو سری زمانی آب و هوایی.
30,389
Recurrent boom-and-bust cycles are a salient feature of economic and financial history. Cycles found in the data are stochastic, often highly persistent, and span substantial fractions of the sample size. We refer to such cycles as "long". In this paper, we develop a novel approach to modeling cyclical behavior specifically designed to capture long cycles. We show that existing inferential procedures may produce misleading results in the presence of long cycles, and propose a new econometric procedure for the inference on the cycle length. Our procedure is asymptotically valid regardless of the cycle length. We apply our methodology to a set of macroeconomic and financial variables for the U.S. We find evidence of long stochastic cycles in the standard business cycle variables, as well as in credit and house prices. However, we rule out the presence of stochastic cycles in asset market data. Moreover, according to our result, financial cycles as characterized by credit and house prices tend to be twice as long as business cycles.
چرخه های رونق و شلوغ مکرر از ویژگی های برجسته اقتصادی و تاریخ مالی.چرخه های موجود در داده ها تصادفی هستند ، اغلب بخش های مداوم و قابل توجهی از اندازه نمونه.ما به چنین مواردی اشاره می کنیم چرخه ها به عنوان "طولانی".در این مقاله ، ما یک رویکرد جدید برای مدل سازی ایجاد می کنیم رفتار چرخه ای به طور خاص برای گرفتن چرخه های طولانی طراحی شده است.ما نشان می دهیم که روشهای استنباطی موجود ممکن است نتایج گمراه کننده ای در حضور ایجاد کند از چرخه های طولانی ، و یک روش اقتصاد سنجی جدید برای استنباط را پیشنهاد کنید طول چرخهروش ما بدون در نظر گرفتن چرخه از نظر نامتقارن معتبر است طولما روش خود را برای مجموعه ای از کلان اقتصادی و مالی اعمال می کنیم متغیرهای ایالات متحده آمریکا شواهدی از چرخه های تصادفی طولانی در متغیرهای چرخه تجاری استاندارد و همچنین در قیمت های اعتباری و خانه. با این حال ، ما وجود چرخه های تصادفی در داده های بازار دارایی را رد می کنیم. علاوه بر این ، طبق نتیجه ما ، چرخه های مالی که با اعتبار مشخص می شود و قیمت خانه ها دو برابر چرخه های تجاری است.
30,390
We propose a model of labor market sector self-selection that combines comparative advantage, as in the Roy model, and sector composition preference. Two groups choose between two sectors based on heterogeneous potential incomes and group compositions in each sector. Potential incomes incorporate group specific human capital accumulation and wage discrimination. Composition preferences are interpreted as reflecting group specific amenity preferences as well as homophily and aversion to minority status. We show that occupational segregation is amplified by the composition preferences and we highlight a resulting tension between redistribution and diversity. The model also exhibits tipping from extreme compositions to more balanced ones. Tipping occurs when a small nudge, associated with affirmative action, pushes the system to a very different equilibrium, and when the set of equilibria changes abruptly when a parameter governing the relative importance of pecuniary and composition preferences crosses a threshold.
ما مدلی از انتخاب خود بخش بازار کار را پیشنهاد می کنیم که ترکیبی است مزیت تطبیقی ​​، مانند مدل روی و ترجیح ترکیب بخش. دو گروه بین دو بخش بر اساس درآمد بالقوه ناهمگن انتخاب می کنند و ترکیبات گروهی در هر بخش.درآمد بالقوه شامل گروه است تجمع سرمایه خاص سرمایه انسانی و تبعیض دستمزد.ترکیب بندی ترجیحات به عنوان بازتاب دهنده ترجیحات ویژه گروهی تفسیر می شوند و همچنین هموفیلی و بیزاری از وضعیت اقلیت.ما آن شغلی را نشان می دهیم تفکیک توسط ترجیحات ترکیب تقویت می شود و ما را برجسته می کنیم تنش ناشی از توزیع مجدد و تنوع.این مدل همچنین نمایش داده می شود از ترکیبات شدید به نسخه های متعادل تر.اوج هنگامی اتفاق می افتد که a گودال کوچک ، همراه با اقدام مثبت ، سیستم را به یک بسیار سوق می دهد تعادل مختلف ، و هنگامی که مجموعه تعادل به طور ناگهانی تغییر می کند وقتی a پارامتر حاکم بر اهمیت نسبی مالی و ترکیب ترجیحات از آستانه عبور می کند.
30,391
For a panel model considered by Abadie et al. (2010), the counterfactual outcomes constructed by Abadie et al., Hsiao et al. (2012), and Doudchenko and Imbens (2017) may all be confounded by uncontrolled heterogenous trends. Based on exact-matching on the trend predictors, I propose new methods of estimating the model-specific treatment effects, which are free from heterogenous trends. When applied to Abadie et al.'s (2010) model and data, the new estimators suggest considerably smaller effects of California's tobacco control program.
برای یک مدل پانل در نظر گرفته شده توسط آبادی و همکاران.(2010) ، خلاف واقع نتایج ساخته شده توسط آبادی و همکاران ، هسیائو و همکاران.(2012) ، و Doudchenko و Imbens (2017) ممکن است همه با روندهای ناهمگن کنترل نشده اشتباه گرفته شود.مستقر در مورد تطبیق دقیق در پیش بینی کننده های روند ، من روش های جدیدی برای تخمین پیشنهاد می کنم اثرات درمانی خاص مدل ، که عاری از روندهای ناهمگن هستند. برآوردگرهای جدید وقتی در مدل و داده های Abadie و همکاران (2010) اعمال می شود اثرات قابل توجهی کوچکتر از برنامه کنترل دخانیات کالیفرنیا را نشان می دهد.
30,392
There is an innate human tendency, one might call it the "league table mentality," to construct rankings. Schools, hospitals, sports teams, movies, and myriad other objects are ranked even though their inherent multi-dimensionality would suggest that -- at best -- only partial orderings were possible. We consider a large class of elementary ranking problems in which we observe noisy, scalar measurements of merit for $n$ objects of potentially heterogeneous precision and are asked to select a group of the objects that are "most meritorious." The problem is naturally formulated in the compound decision framework of Robbins's (1956) empirical Bayes theory, but it also exhibits close connections to the recent literature on multiple testing. The nonparametric maximum likelihood estimator for mixture models (Kiefer and Wolfowitz (1956)) is employed to construct optimal ranking and selection rules. Performance of the rules is evaluated in simulations and an application to ranking U.S kidney dialysis centers.
تمایل انسانی ذاتی وجود دارد ، ممکن است آن را "جدول لیگ" بنامد ذهنیت ، "برای ساخت رتبه بندی. مدارس ، بیمارستان ها ، تیم های ورزشی ، فیلم ها ، و بی شمار اشیاء دیگر با وجود ذاتی آنها رتبه بندی می شوند چند بعدی نشان می دهد که-در بهترین حالت-فقط سفارشات جزئی ممکن بودما کلاس بزرگی از مشکلات رتبه بندی ابتدایی را در نظر می گیریم که ما اندازه گیری های پر سر و صدا ، مقیاس شایستگی را برای اشیاء $ n $ مشاهده می کنیم دقت بالقوه ناهمگن است و از آنها خواسته می شود گروهی از اشیاء "شایسته ترین".مشکل به طور طبیعی در چارچوب تصمیم گیری مرکب تئوری تجربی رابینز (1956) ، اما آن همچنین در مورد آزمایش های متعدد ارتباطات نزدیک با ادبیات اخیر را نشان می دهد. برآوردگر حداکثر احتمال غیرپارامتری برای مدل های مخلوط (کیفر و Wolfowitz (1956)) برای ساخت قوانین بهینه رتبه بندی و انتخاب استفاده می شود. عملکرد قوانین در شبیه سازی ها ارزیابی می شود و کاربردی در رتبه بندی مراکز دیالیز کلیه ایالات متحده.
30,393
Count time series obtained from online social media data, such as Twitter, have drawn increasing interest among academics and market analysts over the past decade. Transforming Web activity records into counts yields time series with peculiar features, including the coexistence of smooth paths and sudden jumps, as well as cross-sectional and temporal dependence. Using Twitter posts about country risks for the United Kingdom and the United States, this paper proposes an innovative state space model for multivariate count data with jumps. We use the proposed model to assess the impact of public concerns in these countries on market systems. To do so, public concerns inferred from Twitter data are unpacked into country-specific persistent terms, risk social amplification events, and co-movements of the country series. The identified components are then used to investigate the existence and magnitude of country-risk spillovers and social amplification effects on the volatility of financial markets.
مجموعه زمانی به دست آمده از داده های رسانه های اجتماعی آنلاین ، مانند توییتر ، علاقه فزاینده ای بین دانشگاهیان و تحلیلگران بازار نسبت به دههی گذشته.تبدیل سوابق فعالیت وب به شمارش سری بازده های زمانی با ویژگی های عجیب و غریب ، از جمله همزیستی مسیرهای صاف و ناگهانی پرش ها ، و همچنین وابستگی مقطعی و زمانی.با استفاده از پست های توییتر در مورد خطرات کشور برای انگلستان و ایالات متحده ، این مقاله یک مدل فضایی دولتی نوآورانه را برای داده های شمارش چند متغیره با پیشنهاد می کند پرشما از مدل پیشنهادی برای ارزیابی تأثیر نگرانی های عمومی در استفاده می کنیم این کشورها در سیستم های بازار.برای این کار ، نگرانی های عمومی استنباط شده از داده های توییتر به شرایط مداوم و خاص کشور بسته نشده است ، در معرض خطر اجتماعی است رویدادهای تقویت و همبستگی های سری کشور.مشخص شده سپس از مؤلفه ها برای بررسی وجود و بزرگی استفاده می شود سرریزهای خطرناک کشور و تأثیرات تقویت اجتماعی بر نوسانات بازارهای مالی.
30,394
The paper aims at developing the Bayesian seasonally cointegrated model for quarterly data. We propose the prior structure, derive the set of full conditional posterior distributions, and propose the sampling scheme. The identification of cointegrating spaces is obtained \emph{via} orthonormality restrictions imposed on vectors spanning them. In the case of annual frequency, the cointegrating vectors are complex, which should be taken into account when identifying them. The point estimation of the cointegrating spaces is also discussed. The presented methods are illustrated by a simulation experiment and are employed in the analysis of money and prices in the Polish economy.
این مقاله با هدف توسعه مدل یکپارچه فصلی بیزی برای داده های سه ماههما ساختار قبلی را پیشنهاد می کنیم ، مجموعه کامل را استخراج می کنیم توزیع خلفی مشروط ، و طرح نمونه گیری را پیشنهاد می کند.در شناسایی فضاهای ادغام شده به دست می آید \ emph {از طریق ارتقاء محدودیت هایی که بر روی بردارهایی که آنها را پوشانده اند تحمیل می شود.در مورد فرکانس سالانه ، بردارهای ادغام شده پیچیده هستند ، که باید در نظر گرفته شود شناسایی آنهاتخمین نقطه از فضاهای همگرایی نیز هست بحث شدهروشهای ارائه شده توسط یک آزمایش شبیه سازی نشان داده شده است و در تجزیه و تحلیل پول و قیمت در اقتصاد لهستان شاغل هستند.
30,395
We consider inference on a scalar regression coefficient under a constraint on the magnitude of the control coefficients. A class of estimators based on a regularized propensity score regression is shown to exactly solve a tradeoff between worst-case bias and variance. We derive confidence intervals (CIs) based on these estimators that are bias-aware: they account for the possible bias of the estimator. Under homoskedastic Gaussian errors, these estimators and CIs are near-optimal in finite samples for MSE and CI length. We also provide conditions for asymptotic validity of the CI with unknown and possibly heteroskedastic error distribution, and derive novel optimal rates of convergence under high-dimensional asymptotics that allow the number of regressors to increase more quickly than the number of observations. Extensive simulations and an empirical application illustrate the performance of our methods.
ما استنتاج را در ضریب رگرسیون مقیاس تحت محدودیت در نظر می گیریم بر روی بزرگی ضرایب کنترل.طبقه ای از برآوردگرها بر اساس a رگرسیون نمره تمایل منظم نشان داده شده است که دقیقاً یک تجارت را حل می کند بین تعصب بدترین حالت و واریانس.ما فواصل اعتماد به نفس را استخراج می کنیم (CIS) بر اساس این برآوردگرهایی که آگاهانه تعصب هستند: آنها ممکن است تعصب برآوردگر.این برآوردگرها تحت خطاهای Homoskedastic Gaussian ، این برآوردگرها و CI در نمونه های محدود برای طول MSE و CI تقریباً بهینه هستند.ما همچنین شرایطی را برای اعتبار بدون علامت CI با ناشناخته و احتمالاً فراهم کنید توزیع خطای ناهمگن ، و نرخ بهینه جدید جدید همگرایی تحت بدون علامت های با ابعاد بالا که تعداد آنها را امکان پذیر می کند رگرسیون برای افزایش سریعتر از تعداد مشاهدات.گسترده شبیه سازی ها و یک برنامه تجربی عملکرد ما را نشان می دهد مواد و روش ها.
30,396
We propose a sensitivity analysis for Synthetic Control (SC) treatment effect estimates to interrogate the assumption that the SC method is well-specified, namely that choosing weights to minimize pre-treatment prediction error yields accurate predictions of counterfactual post-treatment outcomes. Our data-driven procedure recovers the set of treatment effects consistent with the assumption that the misspecification error incurred by the SC method is at most the observable misspecification error incurred when using the SC estimator to predict the outcomes of some control unit. We show that under one definition of misspecification error, our procedure provides a simple, geometric motivation for comparing the estimated treatment effect to the distribution of placebo residuals to assess estimate credibility. When we apply our procedure to several canonical studies that report SC estimates, we broadly confirm the conclusions drawn by the source papers.
ما یک تجزیه و تحلیل حساسیت برای اثر درمانی کنترل مصنوعی (SC) پیشنهاد می کنیم تخمین برای بازجویی از این فرض که روش SC به خوبی مشخص شده است ، یعنی اینکه انتخاب وزنه ها برای به حداقل رساندن بازده خطای پیش بینی قبل از درمان پیش بینی های دقیق از نتایج پس از درمان.داده های محور ما روش مجموعه اثرات درمانی مطابق با فرض را بازیابی می کند اینکه خطای شناسایی اشتباه ناشی از روش SC حداکثر است خطای قابل مشاهده قابل مشاهده در هنگام استفاده از برآوردگر SC به نتایج برخی از واحد کنترل را پیش بینی کنید.ما نشان می دهیم که تحت یک تعریف از خطای شناسایی اشتباه ، روش ما یک انگیزه هندسی ساده و ساده را فراهم می کند برای مقایسه اثر درمانی تخمین زده شده با توزیع دارونما باقیمانده ها برای ارزیابی اعتبار برآورد.وقتی روش خود را به اعمال می کنیم چندین مطالعه متعارف که تخمین های SC را گزارش می کنند ، ما به طور گسترده ای را تأیید می کنیم نتیجه گیری توسط مقالات منبع.
30,397
This paper provides a set of methods for quantifying the robustness of treatment effects estimated using the unconfoundedness assumption (also known as selection on observables or conditional independence). Specifically, we estimate and do inference on bounds on various treatment effect parameters, like the average treatment effect (ATE) and the average effect of treatment on the treated (ATT), under nonparametric relaxations of the unconfoundedness assumption indexed by a scalar sensitivity parameter c. These relaxations allow for limited selection on unobservables, depending on the value of c. For large enough c, these bounds equal the no assumptions bounds. Using a non-standard bootstrap method, we show how to construct confidence bands for these bound functions which are uniform over all values of c. We illustrate these methods with an empirical application to effects of the National Supported Work Demonstration program. We implement these methods in a companion Stata module for easy use in practice.
در این مقاله مجموعه ای از روش ها برای تعیین استحکام ارائه شده است اثرات درمانی تخمین زده می شود با استفاده از فرض عدم تمایل (همچنین شناخته شده است به عنوان انتخاب بر روی مشاهدات یا استقلال مشروط).به طور خاص ، ما برآورد و استنباط در مرزها در پارامترهای مختلف اثر درمانی ، مانند میانگین اثر درمانی (ATE) و میانگین اثر درمان بر تحت درمان (ATT) ، تحت آرامش غیرپارامتری از عدم وجود فرضیه فهرست بندی شده توسط یک پارامتر حساسیت مقیاس c.این آرامش ها اجازه می دهند برای انتخاب محدود بر روی محاصره ، بسته به ارزش c.برای بزرگ به اندازه کافی c ، این مرزها با مرزهای بدون فرض برابر است.با استفاده از یک استاندارد روش bootstrap ، ما نشان می دهیم که چگونه می توان باندهای اعتماد به نفس را برای این محدوده ساخت توابع یکنواخت نسبت به تمام مقادیر c.ما این روش ها را نشان می دهیم با یک کاربرد تجربی برای تأثیرات کار پشتیبانی ملی برنامه تظاهرات.ما این روش ها را در یک ماژول stata همراه اجرا می کنیم برای استفاده آسان در عمل.
30,398
Network models represent a useful tool to describe the complex set of financial relationships among heterogeneous firms in the system. In this paper, we propose a new semiparametric model for temporal multilayer causal networks with both intra- and inter-layer connectivity. A Bayesian model with a hierarchical mixture prior distribution is assumed to capture heterogeneity in the response of the network edges to a set of risk factors including the European COVID-19 cases. We measure the financial connectedness arising from the interactions between two layers defined by stock returns and volatilities. In the empirical analysis, we study the topology of the network before and after the spreading of the COVID-19 disease.
مدل های شبکه یک ابزار مفید برای توصیف مجموعه پیچیده از روابط مالی بین بنگاه های ناهمگن در سیستم.در این صفحه، ما یک مدل نیمهرامتری جدید برای شبکه های علیت چند لایه زمانی پیشنهاد می کنیم با هر دو اتصال داخل و بین لایه.یک مدل بیزی با a مخلوط سلسله مراتبی توزیع قبلی برای ضبط ناهمگونی در پاسخ لبه های شبکه به مجموعه ای از عوامل خطر از جمله موارد COVID-19 اروپا.ما ارتباط مالی ناشی از آن را اندازه می گیریم تعامل بین دو لایه تعریف شده توسط بازده سهام و نوسانات. در تجزیه و تحلیل تجربی ، ما توپولوژی شبکه را قبل و مطالعه می کنیم پس از گسترش بیماری Covid-19.
30,399
Numerous empirical studies employ regression discontinuity designs with multiple cutoffs and heterogeneous treatments. A common practice is to normalize all the cutoffs to zero and estimate one effect. This procedure identifies the average treatment effect (ATE) on the observed distribution of individuals local to existing cutoffs. However, researchers often want to make inferences on more meaningful ATEs, computed over general counterfactual distributions of individuals, rather than simply the observed distribution of individuals local to existing cutoffs. This paper proposes a consistent and asymptotically normal estimator for such ATEs when heterogeneity follows a non-parametric function of cutoff characteristics in the sharp case. The proposed estimator converges at the minimax optimal rate of root-n for a specific choice of tuning parameters. Identification in the fuzzy case, with multiple cutoffs, is impossible unless heterogeneity follows a finite-dimensional function of cutoff characteristics. Under parametric heterogeneity, this paper proposes an ATE estimator for the fuzzy case that optimally combines observations to maximize its precision.
مطالعات تجربی بی شماری از طرح های ناپیوستگی رگرسیون استفاده می کند برش های چندگانه و درمان های ناهمگن.یک عمل معمول این است که همه برش ها را به صفر برسانید و یک اثر را تخمین بزنید.این روش میانگین اثر درمانی (ATE) را در توزیع مشاهده شده مشخص می کند افراد محلی تا برش های موجود.با این حال ، محققان اغلب می خواهند بسازند استنتاج در ATE های معنی دار تر ، محاسبه شده بر روی ضد خلاف عمومی توزیع افراد ، به جای توزیع مشاهده شده از افراد محلی تا برش های موجود.در این مقاله یک سازگار و برآوردگر بدون علامت طبیعی برای چنین ATES هنگامی که ناهمگونی از a پیروی می کند عملکرد غیر پارامتری خصوصیات برش در مورد تیز.در برآوردگر پیشنهادی با نرخ بهینه حداقل root-n برای a همگرا می شود انتخاب خاص پارامترهای تنظیم.شناسایی در مورد فازی ، با برش های چندگانه ، غیرممکن است مگر اینکه ناهمگونی پیروی کند عملکرد محدود و بعدی از ویژگی های برش.تحت پارامتری ناهمگونی ، این مقاله یک برآوردگر ATE را برای پرونده فازی ارائه می دهد که بهینه مشاهدات را برای به حداکثر رساندن دقت آن ترکیب می کند.
30,400
Recent advances in the literature have demonstrated that standard supervised learning algorithms are ill-suited for problems with endogenous explanatory variables. To correct for the endogeneity bias, many variants of nonparameteric instrumental variable regression methods have been developed. In this paper, we propose an alternative algorithm called boostIV that builds on the traditional gradient boosting algorithm and corrects for the endogeneity bias. The algorithm is very intuitive and resembles an iterative version of the standard 2SLS estimator. Moreover, our approach is data driven, meaning that the researcher does not have to make a stance on neither the form of the target function approximation nor the choice of instruments. We demonstrate that our estimator is consistent under mild conditions. We carry out extensive Monte Carlo simulations to demonstrate the finite sample performance of our algorithm compared to other recently developed methods. We show that boostIV is at worst on par with the existing methods and on average significantly outperforms them.
پیشرفت های اخیر در ادبیات نشان داده است که استاندارد نظارت شده است الگوریتم های یادگیری برای مشکلات توضیحی درون زا مناسب نیستند متغیرهابرای تصحیح تعصب درون زا ، بسیاری از انواع غیر پارامتری روشهای رگرسیون متغیر ابزاری ایجاد شده است.در این مقاله ، ما یک الگوریتم جایگزین به نام Boostiv را پیشنهاد کنید که بر روی سنتی بنا شده است الگوریتم تقویت شیب و اصلاحات تعصب درون زا.در الگوریتم بسیار بصری است و شبیه نسخه تکراری از استاندارد است برآوردگر 2SLS.علاوه بر این ، رویکرد ما داده ها محور است ، به این معنی که محقق نیازی به ایجاد موضع گیری در مورد شکل هدف ندارد تقریب عملکرد و نه انتخاب ابزارها.ما نشان می دهیم که ما برآوردگر در شرایط خفیف سازگار است.ما مونت گسترده ای را انجام می دهیم شبیه سازی کارلو برای نشان دادن عملکرد نمونه محدود الگوریتم ما در مقایسه با سایر روشهای اخیراً توسعه یافته.ما نشان می دهیم که Boostiv در بدترین حالت است به طور هم زمان با روشهای موجود و به طور متوسط ​​از آنها بهتر عمل می کند.
30,401
The literature on using yield curves to forecast recessions customarily uses 10-year--three-month Treasury yield spread without verification on the pair selection. This study investigates whether the predictive ability of spread can be improved by letting a machine learning algorithm identify the best maturity pair and coefficients. Our comprehensive analysis shows that, despite the likelihood gain, the machine learning approach does not significantly improve prediction, owing to the estimation error. This is robust to the forecasting horizon, control variable, sample period, and oversampling of the recession observations. Our finding supports the use of the 10-year--three-month spread.
ادبیات در مورد استفاده از منحنی های بازده برای پیش بینی رکودها به طور معمول استفاده می کند 10 ساله-عملکرد خزانه سه ماهه بدون تأیید بر روی این جفت گسترش یافت انتخاب.این مطالعه بررسی می کند که آیا توانایی پیش بینی گسترش می تواند با اجازه دادن به یک الگوریتم یادگیری ماشین بهترین بلوغ را بهبود بخشید جفت و ضرایب.تحلیل جامع ما نشان می دهد که ، با وجود احتمال افزایش احتمال ، رویکرد یادگیری ماشین به طور قابل توجهی بهبود نمی یابد پیش بینی ، به دلیل خطای تخمین.این برای پیش بینی قوی است افق ، متغیر کنترل ، دوره نمونه و نمونه برداری از رکود اقتصادی مشاهداتیافته های ما از استفاده از 10 ساله-سه ماه گسترش پشتیبانی می کند.
30,605
Central banks manage about \$12 trillion in foreign exchange reserves, influencing global exchange rates and asset prices. However, some of the largest holders of reserves report minimal information about their currency composition, hindering empirical analysis. I describe a Hidden Markov Model to estimate the composition of a central bank's reserves by relating the fluctuation in the portfolio's valuation to the exchange rates of major reserve currencies. I apply the model to China and Singapore, two countries that collectively hold about \$3.4 trillion in reserves and conceal their composition. I find that both China's reserve composition likely resembles the global average, while Singapore probably holds fewer US dollars.
بانک های مرکزی حدود 12 تریلیون دلار در ذخایر ارزی مدیریت می کنند ، تأثیر نرخ ارز جهانی و قیمت دارایی.با این حال ، برخی از بزرگترین دارندگان ذخایر اطلاعات حداقل در مورد ارز خود را گزارش می دهند ترکیب ، مانع تجزیه و تحلیل تجربی.من یک مدل مارکوف پنهان را به ترکیب ذخایر یک بانک مرکزی را با ارتباط با آن تخمین بزنید نوسان در ارزیابی نمونه کارها به نرخ ارز ذخیره عمده ارزمن این مدل را در چین و سنگاپور ، دو کشور اعمال می کنم در مجموع حدود \ 3.4 تریلیون دلار در ذخایر نگه دارید و آنها را پنهان کنید ترکیب بندی.فهمیدم که هر دو ترکیب ذخیره چین به احتمال زیاد شبیه است میانگین جهانی ، در حالی که سنگاپور احتمالاً کمتر دلار آمریکا دارد.
30,402
Since their introduction in Abadie and Gardeazabal (2003), Synthetic Control (SC) methods have quickly become one of the leading methods for estimating causal effects in observational studies in settings with panel data. Formal discussions often motivate SC methods by the assumption that the potential outcomes were generated by a factor model. Here we study SC methods from a design-based perspective, assuming a model for the selection of the treated unit(s) and period(s). We show that the standard SC estimator is generally biased under random assignment. We propose a Modified Unbiased Synthetic Control (MUSC) estimator that guarantees unbiasedness under random assignment and derive its exact, randomization-based, finite-sample variance. We also propose an unbiased estimator for this variance. We document in settings with real data that under random assignment, SC-type estimators can have root mean-squared errors that are substantially lower than that of other common estimators. We show that such an improvement is weakly guaranteed if the treated period is similar to the other periods, for example, if the treated period was randomly selected. While our results only directly apply in settings where treatment is assigned randomly, we believe that they can complement model-based approaches even for observational studies.
از زمان معرفی آنها در آبادی و گاردیازابل (2003) ، کنترل مصنوعی (SC) روشها به سرعت به یکی از روشهای پیشرو برای تخمین تبدیل شده اند اثرات علی در مطالعات مشاهده ای در تنظیمات با داده های پانل.رسمی بحث ها اغلب با این فرض که پتانسیل را ایجاد می کند ، روشهای SC را ایجاد می کند نتایج توسط یک مدل فاکتور تولید شد.در اینجا ما روشهای SC را از a مطالعه می کنیم چشم انداز مبتنی بر طراحی ، با فرض الگویی برای انتخاب تحت درمان واحد (ها) و دوره (ها).ما نشان می دهیم که برآوردگر استاندارد SC به طور کلی است مغرضانه تحت تکلیف تصادفی.ما یک مصنوعی اصلاح شده بی طرفانه پیشنهاد می کنیم برآوردگر کنترل (MUSC) که بی طرفی تحت واگذاری تصادفی تضمین می کند و واریانس دقیق ، مبتنی بر تصادفی و نمونه محدود آن را استخراج کنید.ما همچنین یک برآوردگر بی طرفانه برای این واریانس پیشنهاد دهید.ما در تنظیمات با داده های واقعی که تحت انتساب تصادفی ، برآوردگرهای نوع SC می توانند ریشه داشته باشند میانگین خطاهای مربع که به طور قابل ملاحظه ای پایین تر از سایر موارد مشترک هستند برآوردگرهاما نشان می دهیم که چنین پیشرفتی ضعیف تضمین شده است اگر دوره تحت درمان با دوره های دیگر ، به عنوان مثال ، در صورت درمان است دوره به طور تصادفی انتخاب شد.در حالی که نتایج ما فقط به طور مستقیم در تنظیمات اعمال می شود جایی که درمان به طور تصادفی انجام می شود ، ما معتقدیم که آنها می توانند مکمل شوند رویکردهای مبتنی بر مدل حتی برای مطالعات مشاهده ای.
30,403
We propose a reduced-form benchmark predictive model (BPM) for fixed-target forecasting of Arctic sea ice extent, and we provide a case study of its real-time performance for target date September 2020. We visually detail the evolution of the statistically-optimal point, interval, and density forecasts as time passes, new information arrives, and the end of September approaches. Comparison to the BPM may prove useful for evaluating and selecting among various more sophisticated dynamical sea ice models, which are widely used to quantify the likely future evolution of Arctic conditions and their two-way interaction with economic activity.
ما یک مدل پیش بینی شده معیار با فرم کاهش یافته (BPM) را برای هدف ثابت پیشنهاد می کنیم پیش بینی میزان یخ دریای قطب شمال ، و ما یک مطالعه موردی از آن را ارائه می دهیم عملکرد زمان واقعی برای تاریخ هدف سپتامبر 2020. ما از نظر بصری جزئیات تکامل نقطه ، فاصله و چگالی آماری از نظر آماری با گذشت زمان ، اطلاعات جدید فرا می رسد و پایان ماه سپتامبر نزدیک می شود. مقایسه با BPM ممکن است برای ارزیابی و انتخاب در میان مفید باشد مدل های یخ دریای دینامیکی مختلف پیچیده تر ، که به طور گسترده ای مورد استفاده قرار می گیرند تکامل احتمالی آینده شرایط قطب شمال و دو طرفه آنها را کم کنید تعامل با فعالیت اقتصادی.
30,404
In this paper, we present a new approach based on dynamic factor models (DFMs) to perform nowcasts for the percentage annual variation of the Mexican Global Economic Activity Indicator (IGAE in Spanish). The procedure consists of the following steps: i) build a timely and correlated database by using economic and financial time series and real-time variables such as social mobility and significant topics extracted by Google Trends; ii) estimate the common factors using the two-step methodology of Doz et al. (2011); iii) use the common factors in univariate time-series models for test data; and iv) according to the best results obtained in the previous step, combine the statistically equal better nowcasts (Diebold-Mariano test) to generate the current nowcasts. We obtain timely and accurate nowcasts for the IGAE, including those for the current phase of drastic drops in the economy related to COVID-19 sanitary measures. Additionally, the approach allows us to disentangle the key variables in the DFM by estimating the confidence interval for both the factor loadings and the factor estimates. This approach can be used in official statistics to obtain preliminary estimates for IGAE up to 50 days before the official results.
در این مقاله ، ما یک رویکرد جدید را بر اساس مدل های فاکتور پویا ارائه می دهیم (DFMS) برای انجام Nowcasts برای درصد تغییرات سالانه مکزیکی شاخص فعالیت اقتصادی جهانی (IGAE به زبان اسپانیایی).این روش از مراحل زیر: من) با استفاده از یک پایگاه داده به موقع و همبسته بسازید سری زمانی اقتصادی و مالی و متغیرهای زمان واقعی مانند اجتماعی تحرک و مباحث قابل توجهی که توسط Google Trends استخراج شده است.ii) تخمین عوامل متداول با استفاده از روش دو مرحله ای Doz و همکاران.(2011) ؛iii) استفاده عوامل متداول در مدل های سری زمانی تک متغیره برای داده های آزمون.و IV) با توجه به بهترین نتایج به دست آمده در مرحله قبل ، ترکیب را ترکیب کنید از نظر آماری مساوی بهتر (تست Diebold-Marano) برای تولید Nowcasts فعلی.ما Nowcasts به موقع و دقیق را برای IGAE بدست می آوریم ، از جمله مواردی برای مرحله فعلی افت شدید در اقتصاد به COVID-19 اقدامات بهداشتی.علاوه بر این ، این رویکرد به ما امکان می دهد متغیرهای کلیدی در DFM را با برآورد فاصله اطمینان جدا کنید هم برای بارگذاری عاملی و هم برای تخمین فاکتور.این رویکرد می تواند باشد در آمار رسمی برای به دست آوردن برآوردهای اولیه برای IGAE تا 50 استفاده می شود چند روز قبل از نتایج رسمی.
30,405
Methods for linking individuals across historical data sets, typically in combination with AI based transcription models, are developing rapidly. Probably the single most important identifier for linking is personal names. However, personal names are prone to enumeration and transcription errors and although modern linking methods are designed to handle such challenges, these sources of errors are critical and should be minimized. For this purpose, improved transcription methods and large-scale databases are crucial components. This paper describes and provides documentation for HANA, a newly constructed large-scale database which consists of more than 3.3 million names. The database contain more than 105 thousand unique names with a total of more than 1.1 million images of personal names, which proves useful for transfer learning to other settings. We provide three examples hereof, obtaining significantly improved transcription accuracy on both Danish and US census data. In addition, we present benchmark results for deep learning models automatically transcribing the personal names from the scanned documents. Through making more challenging large-scale databases publicly available we hope to foster more sophisticated, accurate, and robust models for handwritten text recognition.
روشهای پیوند دادن افراد در مجموعه داده های تاریخی ، به طور معمول در ترکیب با مدل های رونویسی مبتنی بر AI ، به سرعت در حال توسعه است. احتمالاً مهمترین شناسه برای پیوند ، نام های شخصی است. با این حال ، نام های شخصی مستعد خطاهای شمارش و رونویسی هستند و اگرچه روشهای پیوند مدرن برای رسیدگی به چنین چالش هایی طراحی شده اند ، اما اینها منابع خطاها بسیار مهم هستند و باید به حداقل برسند.به این منظور، روشهای رونویسی بهبود یافته و بانکهای اطلاعاتی در مقیاس بزرگ بسیار مهم هستند اجزاء.در این مقاله مستندات مربوط به هانا ، تازه پایگاه داده در مقیاس بزرگ ساخته شده است که شامل بیش از 3.3 میلیون نام است. این بانک اطلاعاتی حاوی بیش از 105 هزار نام منحصر به فرد با تعداد بیشتری است بیش از 1.1 میلیون تصویر از نامهای شخصی ، که برای انتقال مفید است یادگیری به سایر تنظیمات.ما سه نمونه از این را ارائه می دهیم ، به دست می آوریم به طور قابل توجهی دقت رونویسی را در سرشماری دانمارکی و ایالات متحده بهبود بخشید داده ها.علاوه بر این ، ما نتایج معیار را برای مدلهای یادگیری عمیق ارائه می دهیم به طور خودکار نام های شخصی را از اسناد اسکن شده رونویسی می کند. از طریق ایجاد بانکهای اطلاعاتی در مقیاس بزرگ به چالش کشیدیم که ما در دسترس عموم هستیم امیدوارم مدل های پیشرفته تر ، دقیق تر و قوی تر برای دست نویس شناخت متن
30,406
In this paper we propose the adaptive lasso for predictive quantile regression (ALQR). Reflecting empirical findings, we allow predictors to have various degrees of persistence and exhibit different signal strengths. The number of predictors is allowed to grow with the sample size. We study regularity conditions under which stationary, local unit root, and cointegrated predictors are present simultaneously. We next show the convergence rates, model selection consistency, and asymptotic distributions of ALQR. We apply the proposed method to the out-of-sample quantile prediction problem of stock returns and find that it outperforms the existing alternatives. We also provide numerical evidence from additional Monte Carlo experiments, supporting the theoretical results.
در این مقاله ما لاسو تطبیقی ​​را برای کمی پیش بینی کننده پیشنهاد می کنیم رگرسیون (ALQR).بازتاب یافته های تجربی ، ما به پیش بینی کنندگان اجازه می دهیم که داشته باشند درجات مختلفی از پایداری و نقاط قوت سیگنال مختلف را نشان می دهد.در تعداد پیش بینی کننده ها با اندازه نمونه رشد می کنند.ما مطالعه میکنیم شرایط منظم که تحت آن ریشه ثابت ، ریشه واحد محلی و یکپارچه شده است پیش بینی کننده ها به طور همزمان حضور دارند.ما بعدی نرخ همگرایی را نشان می دهیم ، قوام انتخاب مدل و توزیع بدون علامت ALQR.ما اعمال می کنیم روش پیشنهادی برای مشکل پیش بینی کمی از نمونه از سهام باز می گردد و می فهمد که از گزینه های موجود فراتر است.ما همچنین ارائه می دهیم شواهد عددی از آزمایشات اضافی مونت کارلو ، حمایت از نتایج نظری
30,417
We propose a contemporaneous bilinear transformation for a $p\times q$ matrix time series to alleviate the difficulties in modeling and forecasting matrix time series when $p$ and/or $q$ are large. The resulting transformed matrix assumes a block structure consisting of several small matrices, and those small matrix series are uncorrelated across all times. Hence an overall parsimonious model is achieved by modelling each of those small matrix series separately without the loss of information on the linear dynamics. Such a parsimonious model often has better forecasting performance, even when the underlying true dynamics deviates from the assumed uncorrelated block structure after transformation. The uniform convergence rates of the estimated transformation are derived, which vindicate an important virtue of the proposed bilinear transformation, i.e. it is technically equivalent to the decorrelation of a vector time series of dimension max$(p,q)$ instead of $p\times q$. The proposed method is illustrated numerically via both simulated and real data examples.
ما یک تحول دو طرفه معاصر را برای یک ماتریس $ p \ times q $ پیشنهاد می کنیم سری زمانی برای کاهش مشکلات در مدل سازی و پیش بینی ماتریس سری زمانی که $ p $ و/یا $ q $ بزرگ هستند.ماتریس تبدیل شده حاصل یک ساختار بلوک متشکل از چندین ماتریس کوچک و آن دسته از افراد کوچک را فرض می کند سریال ماتریس در همه زمان ها بی ارتباط است.از این رو یک پارسای کلی مدل با مدل سازی هر یک از آن سری های ماتریس کوچک به طور جداگانه حاصل می شود بدون از دست دادن اطلاعات در مورد پویایی خطی.چنین پارسای مدل اغلب عملکرد پیش بینی بهتری دارد ، حتی اگر زیربنایی درست باشد دینامیک پس از ساختار بلوک غیر مرتبط با هم منحرف می شود دگرگونی.نرخ همگرایی یکنواخت تحول تخمین زده شده مشتق شده اند ، که فضیلت مهمی از دو طرفه پیشنهادی را تأیید می کند تحول ، یعنی از نظر فنی معادل دکوراسیون a است سری زمانی بردار حداکثر حداکثر $ (p ، q) $ به جای $ p \ times q $.پیشنهاد روش از طریق هر دو نمونه داده شبیه سازی شده و واقعی به صورت عددی نشان داده می شود.
30,407
Since its inception, the choice modelling field has been dominated by theory-driven modelling approaches. Machine learning offers an alternative data-driven approach for modelling choice behaviour and is increasingly drawing interest in our field. Cross-pollination of machine learning models, techniques and practices could help overcome problems and limitations encountered in the current theory-driven modelling paradigm, such as subjective labour-intensive search processes for model selection, and the inability to work with text and image data. However, despite the potential benefits of using the advances of machine learning to improve choice modelling practices, the choice modelling field has been hesitant to embrace machine learning. This discussion paper aims to consolidate knowledge on the use of machine learning models, techniques and practices for choice modelling, and discuss their potential. Thereby, we hope not only to make the case that further integration of machine learning in choice modelling is beneficial, but also to further facilitate it. To this end, we clarify the similarities and differences between the two modelling paradigms; we review the use of machine learning for choice modelling; and we explore areas of opportunities for embracing machine learning models and techniques to improve our practices. To conclude this discussion paper, we put forward a set of research questions which must be addressed to better understand if and how machine learning can benefit choice modelling.
از زمان آغاز آن ، زمینه مدل سازی انتخاب تحت سلطه است رویکردهای مدل سازی تئوری محور.یادگیری ماشین یک جایگزین ارائه می دهد رویکرد داده محور برای انتخاب رفتار انتخاب و به طور فزاینده ای ترسیم می شود علاقه به حوزه ماگرده افشانی متقابل مدل های یادگیری ماشین ، تکنیک ها و شیوه ها می تواند به غلبه بر مشکلات و محدودیت های موجود در آن کمک کند پارادایم مدل سازی تئوری محور فعلی ، مانند کارگروه ذهنی فرآیندهای جستجو برای انتخاب مدل و عدم توانایی کار با متن و داده های تصویربا این حال ، با وجود مزایای احتمالی استفاده از پیشرفت های یادگیری ماشین برای بهبود شیوه های مدل سازی انتخاب ، مدل سازی انتخاب زمینه در پذیرش یادگیری ماشین مردد بوده است.این مقاله بحث است ادغام دانش در مورد استفاده از مدل های یادگیری ماشین ، تکنیک ها و شیوه های مدل سازی انتخاب ، و بحث در مورد پتانسیل های آنها.در نتیجه ، ما امیدواریم نه تنها برای اینكه موردی باشد كه ادغام بیشتر یادگیری ماشین در آن باشد مدل سازی انتخاب مفید است ، اما همچنین برای تسهیل بیشتر آن.به این منظور ، ما شباهت ها و تفاوت های بین دو مدل سازی را روشن می کنیم پارادایم ها ؛ما استفاده از یادگیری ماشین را برای مدل سازی انتخاب مرور می کنیم.و ما مناطقی از فرصت ها را برای پذیرش مدل های یادگیری ماشین کشف کنید و تکنیک هایی برای بهبود شیوه های ما.برای نتیجه گیری این مقاله بحث ، ما قرار دادیم مجموعه ای از سؤالات تحقیق را ارسال کنید که باید برای بهتر کردن مورد توجه قرار گیرد درک کنید که آیا و چگونه یادگیری ماشین می تواند از مدل سازی انتخاب بهره مند شود.
30,408
We present a Gaussian Process - Latent Class Choice Model (GP-LCCM) to integrate a non-parametric class of probabilistic machine learning within discrete choice models (DCMs). Gaussian Processes (GPs) are kernel-based algorithms that incorporate expert knowledge by assuming priors over latent functions rather than priors over parameters, which makes them more flexible in addressing nonlinear problems. By integrating a Gaussian Process within a LCCM structure, we aim at improving discrete representations of unobserved heterogeneity. The proposed model would assign individuals probabilistically to behaviorally homogeneous clusters (latent classes) using GPs and simultaneously estimate class-specific choice models by relying on random utility models. Furthermore, we derive and implement an Expectation-Maximization (EM) algorithm to jointly estimate/infer the hyperparameters of the GP kernel function and the class-specific choice parameters by relying on a Laplace approximation and gradient-based numerical optimization methods, respectively. The model is tested on two different mode choice applications and compared against different LCCM benchmarks. Results show that GP-LCCM allows for a more complex and flexible representation of heterogeneity and improves both in-sample fit and out-of-sample predictive power. Moreover, behavioral and economic interpretability is maintained at the class-specific choice model level while local interpretation of the latent classes can still be achieved, although the non-parametric characteristic of GPs lessens the transparency of the model.
ما یک فرایند گاوسی - مدل انتخاب کلاس نهان (GP -LCCM) را ارائه می دهیم یک کلاس غیر پارامتری از یادگیری ماشین احتمالی را در درون ادغام کنید مدل های انتخاب گسسته (DCMS).فرآیندهای گاوسی (GPS) مبتنی بر هسته هستند الگوریتم هایی که دانش تخصصی را با فرض Priors نسبت به نهفته شامل می کنند توابع به جای Priors نسبت به پارامترها ، که باعث می شود آنها در پرداختن به مشکلات غیرخطی.با ادغام یک فرآیند گاوسی در یک LCCM ساختار ، ما هدف ما بهبود بازنمایی های گسسته از بدون نظارت است ناهمگونیمدل پیشنهادی افراد را به طور احتمالی به آن اختصاص می دهد خوشه های همگن رفتاری (کلاسهای نهفته) با استفاده از GPS و همزمان با تکیه بر مدلهای ابزار تصادفی ، مدل های انتخاب خاص کلاس را تخمین بزنید. علاوه بر این ، ما یک الگوریتم انتظار حداکثر انتظار (EM) را استخراج و پیاده سازی می کنیم برای برآورد/استنباط/استنباط های بیش از حد عملکرد هسته GP و پارامترهای انتخاب خاص کلاس با تکیه بر تقریب Laplace و روشهای بهینه سازی عددی مبتنی بر گرادیان ، به ترتیب.مدل است در دو برنامه مختلف انتخاب حالت آزمایش شده و در برابر متفاوت مقایسه شده است معیارهای LCCM.نتایج نشان می دهد که GP-LCCM امکان پیچیده تری را فراهم می کند بازنمایی انعطاف پذیر از ناهمگونی و بهبود هم در نمونه و قدرت پیش بینی خارج از نمونه.علاوه بر این ، رفتاری و اقتصادی تفسیر در سطح مدل انتخاب خاص کلاس در حالی که حفظ می شود تفسیر محلی از طبقات نهفته هنوز هم می تواند حاصل شود ، اگرچه ویژگی غیر پارامتری GPS شفافیت مدل را کاهش می دهد.
30,409
Since network data commonly consists of observations from a single large network, researchers often partition the network into clusters in order to apply cluster-robust inference methods. Existing such methods require clusters to be asymptotically independent. Under mild conditions, we prove that, for this requirement to hold for network-dependent data, it is necessary and sufficient that clusters have low conductance, the ratio of edge boundary size to volume. This yields a simple measure of cluster quality. We find in simulations that when clusters have low conductance, cluster-robust methods control size better than HAC estimators. However, for important classes of networks lacking low-conductance clusters, the former can exhibit substantial size distortion. To determine the number of low-conductance clusters and construct them, we draw on results in spectral graph theory that connect conductance to the spectrum of the graph Laplacian. Based on these results, we propose to use the spectrum to determine the number of low-conductance clusters and spectral clustering to construct them.
از آنجا که داده های شبکه معمولاً شامل مشاهدات از یک بزرگ است شبکه ، محققان اغلب شبکه را به خوشه ها تقسیم می کنند روشهای استنتاج خوشه ای را به کار ببرید.چنین روشهایی موجود به خوشه نیاز دارند مستقل بودن بدون علامت.در شرایط خفیف ، ما آن را ثابت می کنیم. این الزام برای نگه داشتن داده های وابسته به شبکه ، لازم است و کافی است که خوشه ها دارای هدایت کم هستند ، نسبت اندازه مرز لبه به حجماین یک اندازه گیری ساده از کیفیت خوشه است.ما پیدا می کنیم شبیه سازی هایی که وقتی خوشه ها دارای هدایت کم هستند ، روش های خوشه ای را با خوشه اندازه کنترل بهتر از برآوردگرهای HAC.با این حال ، برای کلاس های مهم از شبکه هایی که فاقد خوشه های کم هرایی هستند ، سابق می توانند از نظر قابل توجهی نشان دهند اعوجاج اندازهبرای تعیین تعداد خوشه های کم ارتفاع و آنها را بسازید ، ما نتایج را در تئوری نمودار طیفی که به هم وصل می شوند ترسیم می کنیم هدایت به طیف گراف لاپلاسی.بر اساس این نتایج ، ما پیشنهاد استفاده از طیف را برای تعیین تعداد خوشه های کم ارتفاع و خوشه بندی طیفی برای ساخت آنها.
30,410
In this paper, we develop a penalized realized variance (PRV) estimator of the quadratic variation (QV) of a high-dimensional continuous It\^{o} semimartingale. We adapt the principle idea of regularization from linear regression to covariance estimation in a continuous-time high-frequency setting. We show that under a nuclear norm penalization, the PRV is computed by soft-thresholding the eigenvalues of realized variance (RV). It therefore encourages sparsity of singular values or, equivalently, low rank of the solution. We prove our estimator is minimax optimal up to a logarithmic factor. We derive a concentration inequality, which reveals that the rank of PRV is -- with a high probability -- the number of non-negligible eigenvalues of the QV. Moreover, we also provide the associated non-asymptotic analysis for the spot variance. We suggest an intuitive data-driven bootstrap procedure to select the shrinkage parameter. Our theory is supplemented by a simulation study and an empirical application. The PRV detects about three-five factors in the equity market, with a notable rank decrease during times of distress in financial markets. This is consistent with most standard asset pricing models, where a limited amount of systematic factors driving the cross-section of stock returns are perturbed by idiosyncratic errors, rendering the QV -- and also RV -- of full rank.
در این مقاله ، ما یک برآوردگر واریانس تحقق یافته مجازات شده (PRV) از آن ایجاد می کنیم تنوع درجه دوم (QV) از یک بعدی با ابعاد بالا \^{o} semimartingale.ما ایده اصلی تنظیم مجدد را از خطی تطبیق می دهیم رگرسیون به تخمین کواریانس در یک فرکانس بالا مداوم تنظیمات.ما نشان می دهیم که تحت یک مجازات هنجار هسته ای ، PRV توسط محاسبه می شود آستانه نرم و مقادیر ویژه واریانس تحقق یافته (RV).بنابراین کمبود ارزش های مفرد یا ، به طور معادل ، رتبه پایین از راه حل.ما ثابت می کنیم که برآوردگر ما تا حد متوسط ​​تا یک عامل لگاریتمی است. ما نابرابری غلظت را استخراج می کنیم ، که نشان می دهد رتبه PRV است - با احتمال بالایی-تعداد مقادیر ویژه غیر قابل تحمل QV. علاوه بر این ، ما همچنین تجزیه و تحلیل غیر متعارف مرتبط را برای نقطه ارائه می دهیم واریانسما یک روش بوت استرپ با محور داده محور را برای انتخاب پیشنهاد می کنیم پارامتر انقباض.نظریه ما توسط یک مطالعه شبیه سازی و یک کاربرد تجربیPRV حدود سه و پنج عامل در سهام را تشخیص می دهد بازار ، با کاهش رتبه قابل توجه در مواقع پریشانی در مالی بازارهااین با اکثر مدل های قیمت گذاری دارایی استاندارد ، جایی که a سازگار است مقدار محدودی از فاکتورهای سیستماتیک رانندگی مقطع بازده سهام از خطاهای ایدیوسنکراتیک آشفته می شوند و QV - و همچنین RV - را ارائه می دهند رتبه کامل
30,411
We find the set of extremal points of Lorenz curves with fixed Gini index and compute the maximal $L^1$-distance between Lorenz curves with given values of their Gini coefficients. As an application we introduce a bidimensional index that simultaneously measures relative inequality and dissimilarity between two populations. This proposal employs the Gini indices of the variables and an $L^1$-distance between their Lorenz curves. The index takes values in a right-angled triangle, two of whose sides characterize perfect relative inequality-expressed by the Lorenz ordering between the underlying distributions. Further, the hypotenuse represents maximal distance between the two distributions. As a consequence, we construct a chart to, graphically, either see the evolution of (relative) inequality and distance between two income distributions over time or to compare the distribution of income of a specific population between a fixed time point and a range of years. We prove the mathematical results behind the above claims and provide a full description of the asymptotic properties of the plug-in estimator of this index. Finally, we apply the proposed bidimensional index to several real EU-SILC income datasets to illustrate its performance in practice.
ما مجموعه ای از نقاط افراطی منحنی های لورنز را با شاخص جینی ثابت و محاسبه حداکثر $ L^1 $-بین منحنی های لورنز با مقادیر داده شده ضرایب جینی آنها.به عنوان یک برنامه ، ما یک شاخص پیشنهادی را معرفی می کنیم که همزمان نابرابری نسبی و اختلاف بین دو را اندازه گیری می کند جمعیتاین پیشنهاد از شاخص های جینی متغیرها و یک استفاده می کند $ l^1 $-بین منحنی های لورنز آنها.شاخص مقادیر را در a می گیرد مثلث راست زاویه دار ، دو طرف آنها را توصیف می کنند نابرابری-بیان شده توسط لورنز سفارش بین زیرین توزیععلاوه بر این ، hypotenuse نشانگر حداکثر فاصله بین دو توزیعدر نتیجه ، ما یک نمودار را به صورت گرافیکی می سازیم. یا تکامل نابرابری (نسبی) و فاصله بین دو را ببینید توزیع درآمد با گذشت زمان یا برای مقایسه توزیع درآمد a جمعیت خاص بین یک نقطه زمانی ثابت و طیف وسیعی از سالها.ما ثابت می کنیم نتایج ریاضی در پشت ادعاهای فوق و شرح کامل ارائه می دهد از خصوصیات بدون علامت برآوردگر افزونه این شاخص.سرانجام، ما شاخص پیشنهادی پیشنهادی را برای چندین درآمد واقعی اتحادیه اروپا SILC اعمال می کنیم مجموعه داده ها برای نشان دادن عملکرد آن در عمل.
30,412
In order to further overcome the difficulties of the existing models in dealing with the non-stationary and nonlinear characteristics of high-frequency financial time series data, especially its weak generalization ability, this paper proposes an ensemble method based on data denoising methods, including the wavelet transform (WT) and singular spectrum analysis (SSA), and long-term short-term memory neural network (LSTM) to build a data prediction model, The financial time series is decomposed and reconstructed by WT and SSA to denoise. Under the condition of denoising, the smooth sequence with effective information is reconstructed. The smoothing sequence is introduced into LSTM and the predicted value is obtained. With the Dow Jones industrial average index (DJIA) as the research object, the closing price of the DJIA every five minutes is divided into short-term (1 hour), medium-term (3 hours) and long-term (6 hours) respectively. . Based on root mean square error (RMSE), mean absolute error (MAE), mean absolute percentage error (MAPE) and absolute percentage error standard deviation (SDAPE), the experimental results show that in the short-term, medium-term and long-term, data denoising can greatly improve the accuracy and stability of the prediction, and can effectively improve the generalization ability of LSTM prediction model. As WT and SSA can extract useful information from the original sequence and avoid overfitting, the hybrid model can better grasp the sequence pattern of the closing price of the DJIA. And the WT-LSTM model is better than the benchmark LSTM model and SSA-LSTM model.
به منظور غلبه بیشتر بر مشکلات مدل های موجود در برخورد با ویژگی های غیر ثابت و غیرخطی با فرکانس بالا داده های سری زمانی مالی ، به ویژه توانایی عمومی سازی ضعیف آن ، این مقاله یک روش گروه را بر اساس روشهای dooising داده ها ، از جمله ارائه می دهد تبدیل موجک (WT) و تجزیه و تحلیل طیف مفرد (SSA) و طولانی مدت شبکه عصبی حافظه کوتاه مدت (LSTM) برای ساختن یک مدل پیش بینی داده ، سری زمانی مالی توسط WT و SSA به Denoise تجزیه و بازسازی می شود. تحت شرط دفع ، دنباله صاف با مؤثر اطلاعات بازسازی می شود.توالی هموار سازی به LSTM معرفی می شود و مقدار پیش بینی شده به دست می آید.با میانگین صنعتی داو جونز فهرست (DJIA) به عنوان شیء تحقیق ، قیمت بسته شدن DJIA هر پنج دقیقه ها به کوتاه مدت (1 ساعت) ، میان مدت (3 ساعت) و به ترتیب طولانی مدت (6 ساعت).بشربر اساس خطای میانگین مربع ریشه (RMSE) ، میانگین خطای مطلق (MAE) ، میانگین خطای درصد مطلق (MAPE) و مطلق خطای درصد انحراف استاندارد (SDAPE) ، نتایج تجربی نشان می دهد که در کوتاه مدت ، میان مدت و بلند مدت ، داده های ناشایست می توانند تا حد زیادی دقت و ثبات پیش بینی را بهبود بخشید و به طور موثری می تواند توانایی تعمیم مدل پیش بینی LSTM را بهبود بخشید.همانطور که WT و SSA می توانند اطلاعات مفید را از دنباله اصلی استخراج کرده و از بیش از حد جلوگیری کنید ، مدل ترکیبی می تواند الگوی توالی قیمت بسته شدن را بهتر درک کند DJIAو مدل WT-LSTM بهتر از مدل LSTM معیار و مدل SSA-LSTM.
30,413
This paper proposes methods for Bayesian inference in time-varying parameter (TVP) quantile regression (QR) models featuring conditional heteroskedasticity. I use data augmentation schemes to render the model conditionally Gaussian and develop an efficient Gibbs sampling algorithm. Regularization of the high-dimensional parameter space is achieved via flexible dynamic shrinkage priors. A simple version of TVP-QR based on an unobserved component model is applied to dynamically trace the quantiles of the distribution of inflation in the United States, the United Kingdom and the euro area. In an out-of-sample forecast exercise, I find the proposed model to be competitive and perform particularly well for higher-order and tail forecasts. A detailed analysis of the resulting predictive distributions reveals that they are sometimes skewed and occasionally feature heavy tails.
در این مقاله روش هایی برای استنباط بیزی در پارامتر متغیر زمان ارائه شده است (TVP) مدل های رگرسیون کمی (QR) که دارای ناهمگونی مشروط هستند. من از طرح های تقویت داده برای ارائه مدل به صورت مشروط گاوسی استفاده می کنم یک الگوریتم نمونه گیری کارآمد گیبس ایجاد کنید.منظم سازی فضای پارامتر با ابعاد بالا از طریق انقباض پویا انعطاف پذیر حاصل می شود مقدماتیک نسخه ساده از TVP-QR بر اساس یک مدل مؤلفه بدون نظارت است اعمال شده برای ردیابی پویا در مقدار توزیع تورم در ایالات متحده ، انگلستان و منطقه یورو.در یک نمونه خارج تمرین پیش بینی ، من مدل پیشنهادی را رقابتی و اجرا می دانم به ویژه برای پیش بینی های مرتبه بالاتر و دم.تجزیه و تحلیل دقیق از توزیع پیش بینی کننده نتیجه نشان می دهد که بعضی اوقات آنها کم رنگ هستند و گاهی اوقات دارای دمهای سنگین است.
30,415
The classic censored regression model (tobit model) has been widely used in the economic literature. This model assumes normality for the error distribution and is not recommended for cases where positive skewness is present. Moreover, in regression analysis, it is well-known that a quantile regression approach allows us to study the influences of the explanatory variables on the dependent variable considering different quantiles. Therefore, we propose in this paper a quantile tobit regression model based on quantile-based log-symmetric distributions. The proposed methodology allows us to model data with positive skewness (which is not suitable for the classic tobit model), and to study the influence of the quantiles of interest, in addition to accommodating heteroscedasticity. The model parameters are estimated using the maximum likelihood method and an elaborate Monte Carlo study is performed to evaluate the performance of the estimates. Finally, the proposed methodology is illustrated using two female labor supply data sets. The results show that the proposed log-symmetric quantile tobit model has a better fit than the classic tobit model.
مدل رگرسیون کلاسیک سانسور شده (مدل TOBIT) به طور گسترده ای در آن استفاده شده است ادبیات اقتصادی.این مدل برای خطا عادی بودن را فرض می کند توزیع است و برای مواردی که پوستی مثبت است توصیه نمی شود حاضر.علاوه بر این ، در تجزیه و تحلیل رگرسیون ، کاملاً شناخته شده است رویکرد رگرسیون به ما امکان می دهد تا تأثیرات توضیحی را مطالعه کنیم متغیرهای متغیر وابسته با توجه به مقادیر مختلف.از این رو، ما در این مقاله یک مدل رگرسیون کمیته کمی را بر اساس پیشنهاد می کنیم توزیع های متقارن مبتنی بر کمی.روش پیشنهادی به ما امکان می دهد برای مدل سازی داده ها با پوستی مثبت (که برای کلاسیک مناسب نیست مدل TOBIT) ، و برای مطالعه تأثیر مقدار مورد علاقه ، در علاوه بر این ، ناهمگونی.پارامترهای مدل هستند تخمین زده می شود با استفاده از روش حداکثر احتمال و یک مونت کارلو پیچیده مطالعه برای ارزیابی عملکرد تخمین ها انجام می شود.بالاخره ، روش پیشنهادی با استفاده از دو مجموعه داده تأمین نیروی کار زن نشان داده شده است. نتایج نشان می دهد که مدل TOBIT کم متقارن log-mymmetric پیشنهادی دارای a است تناسب بهتر از مدل کلاسیک Tobit.
30,416
This paper reexamines the seminal Lagrange multiplier test for cross-section independence in a large panel model where both the number of cross-sectional units n and the number of time series observations T can be large. The first contribution of the paper is an enlargement of the test with two extensions: firstly the new asymptotic normality is derived in a simultaneous limiting scheme where the two dimensions (n, T) tend to infinity with comparable magnitudes; second, the result is valid for general error distribution (not necessarily normal). The second contribution of the paper is a new test statistic based on the sum of the fourth powers of cross-section correlations from OLS residuals, instead of their squares used in the Lagrange multiplier statistic. This new test is generally more powerful, and the improvement is particularly visible against alternatives with weak or sparse cross-section dependence. Both simulation study and real data analysis are proposed to demonstrate the advantages of the enlarged Lagrange multiplier test and the power enhanced test in comparison with the existing procedures.
در این مقاله ، آزمایش ضرب لاگرانژ منی برای مقطع مورد بررسی قرار می گیرد استقلال در یک مدل پانل بزرگ که در آن هر دو تعداد مقطعی واحدهای N و تعداد مشاهدات سری زمانی T می تواند بزرگ باشد.اولین سهم مقاله بزرگ شدن آزمون با دو پسوند است: در مرحله اول ، عادی بودن بدون علامت جدید در یک محدود کننده همزمان به دست می آید طرح که در آن دو بعد (n ، t) تمایل به بی نهایت با قابل مقایسه دارند بزرگی ؛دوم ، نتیجه برای توزیع خطای عمومی معتبر است (نه لزوماً طبیعی).سهم دوم مقاله یک آزمایش جدید است آماری بر اساس مجموع قدرت چهارم همبستگی های مقطعی از باقیمانده های OLS ، به جای مربع های آنها در ضرب Lagrange استفاده می شود آماریاین آزمایش جدید به طور کلی قدرتمندتر است و پیشرفت آن است به خصوص در برابر گزینه های با مقطع ضعیف یا پراکنده قابل مشاهده است وابستگی.هر دو مطالعه شبیه سازی و تجزیه و تحلیل داده های واقعی ارائه شده است مزایای آزمون ضرب Lagrange بزرگ شده و تست تقویت شده قدرت در مقایسه با روشهای موجود.
30,419
This study provides an efficient approach for using text data to calculate patent-to-patent (p2p) technological similarity, and presents a hybrid framework for leveraging the resulting p2p similarity for applications such as semantic search and automated patent classification. We create embeddings using Sentence-BERT (SBERT) based on patent claims. We leverage SBERTs efficiency in creating embedding distance measures to map p2p similarity in large sets of patent data. We deploy our framework for classification with a simple Nearest Neighbors (KNN) model that predicts Cooperative Patent Classification (CPC) of a patent based on the class assignment of the K patents with the highest p2p similarity. We thereby validate that the p2p similarity captures their technological features in terms of CPC overlap, and at the same demonstrate the usefulness of this approach for automatic patent classification based on text data. Furthermore, the presented classification framework is simple and the results easy to interpret and evaluate by end-users. In the out-of-sample model validation, we are able to perform a multi-label prediction of all assigned CPC classes on the subclass (663) level on 1,492,294 patents with an accuracy of 54% and F1 score > 66%, which suggests that our model outperforms the current state-of-the-art in text-based multi-label and multi-class patent classification. We furthermore discuss the applicability of the presented framework for semantic IP search, patent landscaping, and technology intelligence. We finally point towards a future research agenda for leveraging multi-source patent embeddings, their appropriateness across applications, as well as to improve and validate patent embeddings by creating domain-expert curated Semantic Textual Similarity (STS) benchmark datasets.
این مطالعه یک رویکرد کارآمد برای استفاده از داده های متن برای محاسبه ارائه می دهد شباهت فن آوری ثبت اختراع (P2P) ، و یک هیبرید را ارائه می دهد چارچوب برای اعمال شباهت P2P حاصل برای برنامه هایی مانند جستجوی معنایی و طبقه بندی ثبت اختراع خودکار.ما با استفاده از تعبیه ایجاد می کنیم جمله-برت (Sbert) بر اساس ادعاهای ثبت اختراع.ما از کارآیی Sberts در ایجاد اقدامات از راه دور تعبیه برای نقشه برداری شباهت P2P در مجموعه های بزرگی از داده های ثبت اختراعما چارچوب خود را برای طبقه بندی با نزدیکترین ساده مستقر می کنیم مدل همسایگان (KNN) که طبقه بندی ثبت اختراع تعاونی (CPC) را پیش بینی می کند حق ثبت اختراع بر اساس تکلیف کلاس ثبت اختراعات K با بالاترین P2P شباهتما از این طریق تأیید می کنیم که شباهت P2P آنها را ضبط می کند ویژگی های فن آوری از نظر همپوشانی CPC ، و در همان نشان می دهد سودمندی این رویکرد برای طبقه بندی ثبت اختراع خودکار بر اساس متن داده ها.علاوه بر این ، چارچوب طبقه بندی ارائه شده ساده است و نتایج آسان برای تفسیر و ارزیابی توسط کاربران نهایی.در مدل خارج از نمونه اعتبار سنجی ، ما قادر به پیش بینی چند برچسب از کلیه CPC اختصاص یافته هستیم کلاسهای زیر کلاس (663) در 1،492،294 ثبت اختراع با دقت نمره 54 ٪ و F1> 66 ٪ ، که نشان می دهد مدل ما از جریان بهتر است پیشرفته در زمینه ثبت اختراع چند برچسب و چند طبقه مبتنی بر متن طبقه بندی.علاوه بر این ، ما در مورد کاربرد ارائه شده بحث می کنیم چارچوب جستجوی IP معنایی ، محوطه سازی ثبت اختراع و فناوری هوشما سرانجام به یک برنامه تحقیقاتی آینده برای اعمال استفاده می کنیم تعبیه ثبت اختراع چند منبع ، مناسب بودن آنها در بین برنامه ها ، و همچنین برای بهبود و اعتبار دادن به تعبیه های ثبت اختراع با ایجاد دامنه-اکسپرت مجموعه داده های معیار معنایی معنایی (STS).
30,420
Many real life situations require a set of items to be repeatedly placed in a random sequence. In such circumstances, it is often desirable to test whether such randomization indeed obtains, yet this problem has received very limited attention in the literature. This paper articulates the key features of this problem and presents three "untargeted" tests that require no a priori information from the analyst. These methods are used to analyze the order in which lottery numbers are drawn in Powerball, the order in which contestants perform on American Idol, and the order of candidates on primary election ballots in Texas and West Virginia. In this last application, multiple deviations from full randomization are detected, with potentially serious political and legal consequences. The form these deviations take varies, depending on institutional factors, which sometimes necessitates the use of tests that exchange power for increased robustness.
بسیاری از موقعیت های زندگی واقعی نیاز به مجموعه ای از موارد دارند که به طور مکرر در یک قرار می گیرند دنباله تصادفی.در چنین شرایطی ، اغلب مطلوب است که آزمایش کنیم چنین تصادفی سازی در واقع به دست می آید ، اما این مشکل بسیار محدود شده است توجه در ادبیات.این مقاله ویژگی های اصلی این را بیان می کند مشکل و سه آزمایش "بدون هدف" را ارائه می دهد که نیازی به پیشینی ندارند اطلاعات از تحلیلگر.از این روشها برای تجزیه و تحلیل ترتیب استفاده می شود کدام تعداد قرعه کشی در Powerball ترسیم شده است ، نظمی که در آن شرکت کنندگان در American Idol و ترتیب نامزدها در انتخابات اولیه اجرا کنید آراء در تگزاس و ویرجینیا غربی.در این برنامه آخر ، چندگانه انحراف از تصادفی کامل ، با بالقوه جدی تشخیص داده می شود عواقب سیاسی و حقوقی.فرم این انحرافات متفاوت است ، بسته به عوامل نهادی ، که گاهی اوقات استفاده از آن را ضروری می کند آزمایشات مبادله ای برای افزایش استحکام.
30,421
This paper proposes a hierarchical approximate-factor approach to analyzing high-dimensional, large-scale heterogeneous time series data using distributed computing. The new method employs a multiple-fold dimension reduction procedure using Principal Component Analysis (PCA) and shows great promises for modeling large-scale data that cannot be stored nor analyzed by a single machine. Each computer at the basic level performs a PCA to extract common factors among the time series assigned to it and transfers those factors to one and only one node of the second level. Each 2nd-level computer collects the common factors from its subordinates and performs another PCA to select the 2nd-level common factors. This process is repeated until the central server is reached, which collects common factors from its direct subordinates and performs a final PCA to select the global common factors. The noise terms of the 2nd-level approximate factor model are the unique common factors of the 1st-level clusters. We focus on the case of 2 levels in our theoretical derivations, but the idea can easily be generalized to any finite number of hierarchies. We discuss some clustering methods when the group memberships are unknown and introduce a new diffusion index approach to forecasting. We further extend the analysis to unit-root nonstationary time series. Asymptotic properties of the proposed method are derived for the diverging dimension of the data in each computing unit and the sample size $T$. We use both simulated data and real examples to assess the performance of the proposed method in finite samples, and compare our method with the commonly used ones in the literature concerning the forecastability of extracted factors.
در این مقاله یک رویکرد تقریبی عاملی سلسله مراتبی برای تجزیه و تحلیل ارائه شده است داده های سری ناهمگن در مقیاس بزرگ و در مقیاس بزرگ با استفاده از توزیع شده محاسبه.روش جدید از یک روش کاهش ابعاد چند برابر استفاده می کند با استفاده از تجزیه و تحلیل مؤلفه اصلی (PCA) و وعده های خوبی برای مدل سازی نشان می دهد داده های در مقیاس بزرگ که توسط یک دستگاه واحد قابل ذخیره نیستند و تجزیه و تحلیل نمی شوند.هر یک رایانه در سطح پایه PCA را برای استخراج عوامل مشترک در بین سری زمانی که به آن اختصاص داده شده و آن عوامل را به یک و فقط یک گره منتقل می کند از سطح دومهر رایانه سطح 2 فاکتورهای مشترک را از آن جمع می کند زیردستان آن و PCA دیگری را برای انتخاب مشترک سطح 2 انجام می دهد عوامل.این فرآیند تا رسیدن به سرور مرکزی تکرار می شود ، که عوامل متداول را از زیردستان مستقیم آن جمع می کند و PCA نهایی را انجام می دهد برای انتخاب عوامل مشترک جهانی.شرایط سر و صدا سطح 2 مدل فاکتور تقریبی عوامل متداول منحصر به فرد سطح 1 است خوشه هاما در مورد 2 سطح در مشتقات نظری خود تمرکز می کنیم ، اما این ایده به راحتی می تواند به هر تعداد محدود سلسله مراتب تعمیم داده شود.ما در مورد برخی از روشهای خوشه بندی صحبت کنید وقتی که عضویت در گروه ناشناخته است و یک رویکرد جدید شاخص انتشار برای پیش بینی را معرفی کنید.ما بیشتر گسترش می دهیم تجزیه و تحلیل به سری زمانی غیر استاتوری واحد.خصوصیات بدون علامت روش پیشنهادی برای بعد واگرایی داده ها در هر یک به دست آمده است واحد محاسبات و اندازه نمونه $ t $.ما از داده های شبیه سازی شده و واقعی استفاده می کنیم مثالهایی برای ارزیابی عملکرد روش پیشنهادی در نمونه های محدود ، و روش ما را با روشهای متداول در ادبیات مربوطه مقایسه کنید پیش بینی عوامل استخراج شده.
30,422
We propose a definition for the average indirect effect of a binary treatment in the potential outcomes model for causal inference under cross-unit interference. Our definition is analogous to the standard definition of the average direct effect, and can be expressed without needing to compare outcomes across multiple randomized experiments. We show that the proposed indirect effect satisfies a decomposition theorem whereby, in a Bernoulli trial, the sum of the average direct and indirect effects always corresponds to the effect of a policy intervention that infinitesimally increases treatment probabilities. We also consider a number of parametric models for interference, and find that our non-parametric indirect effect remains a natural estimand when re-expressed in the context of these models.
ما تعریفی را برای میانگین اثر غیرمستقیم یک درمان باینری پیشنهاد می کنیم در مدل نتایج بالقوه برای استنباط علی در زیر واحد متقابل دخالت.تعریف ما مشابه تعریف استاندارد از میانگین اثر مستقیم ، و بدون نیاز به مقایسه نتایج می توان بیان کرد در طی چندین آزمایش تصادفی.ما نشان می دهیم که غیرمستقیم پیشنهادی اثر یک قضیه تجزیه را برآورده می کند که به موجب آن ، در یک محاکمه برنولی ، مبلغ از میانگین اثرات مستقیم و غیرمستقیم همیشه با تأثیر آن مطابقت دارد مداخله سیاست که به طور نامتناهی احتمال درمان را افزایش می دهد. ما همچنین تعدادی از مدل های پارامتری را برای تداخل در نظر می گیریم و آن را می یابیم اثر غیرمستقیم غیر پارامتری ما هنگام بیان مجدد یک برآورد طبیعی باقی مانده است در زمینه این مدل ها.
30,423
We show that the identification problem for a class of dynamic panel logit models with fixed effects has a connection to the truncated moment problem in mathematics. We use this connection to show that the sharp identified set of the structural parameters is characterized by a set of moment equality and inequality conditions. This result provides sharp bounds in models where moment equality conditions do not exist or do not point identify the parameters. We also show that the sharp identifying content of the non-parametric latent distribution of the fixed effects is characterized by a vector of its generalized moments, and that the number of moments grows linearly in T. This final result lets us point identify, or sharply bound, specific classes of functionals, without solving an optimization problem with respect to the latent distribution.
ما نشان می دهیم که مشکل شناسایی برای یک کلاس از ورود به پانل پویا است مدل هایی با جلوه های ثابت ارتباط با مشکل لحظه کوتاه در ریاضیاتما از این اتصال استفاده می کنیم تا نشان دهیم که مجموعه مشخص شده تیز پارامترهای ساختاری با مجموعه ای از برابری لحظه ای مشخص می شود و شرایط نابرابری.این نتیجه مرزهای تیز در مدلهایی را که لحظه ای در آن فراهم می کند فراهم می کند شرایط برابری وجود ندارد یا پارامترها را مشخص نمی کند.ما همچنین نشان می دهد که محتوای تیز و تیز نهفته غیر پارامتری توزیع جلوه های ثابت توسط یک بردار آن مشخص می شود لحظات تعمیم یافته ، و اینکه تعداد لحظات به صورت خطی در T رشد می کند. نتیجه نهایی به ما اجازه می دهد تا کلاسهای خاصی از کلاسهای خاص را شناسایی یا به شدت محدود کنیم عملکردها ، بدون حل یک مشکل بهینه سازی با توجه به نهفته توزیع
30,430
This article considers average marginal effects (AME) in a panel data fixed effects logit model. Relating the identified set of the AME to an extremal moment problem, we first show how to obtain sharp bounds on the AME straightforwardly, without any optimization. Then, we consider two strategies to build confidence intervals on the AME. In the first, we estimate the sharp bounds with a semiparametric two-step estimator. The second, very simple strategy estimates instead a quantity known to be at a bounded distance from the AME. It does not require any nonparametric estimation but may result in larger confidence intervals. Monte Carlo simulations suggest that both approaches work well in practice, the second being often very competitive. Finally, we show that our results also apply to average treatment effects, the average structural functions and ordered, fixed effects logit models.
در این مقاله ، میانگین اثرات حاشیه ای (AME) در داده های پانل ثابت در نظر گرفته شده است مدل ورود به جلو.مربوط به مجموعه مشخص شده AME به افراطی مشکل لحظه ای ، ما ابتدا نشان می دهیم که چگونه می توان مرزهای تیز را در AME بدست آورد مستقیم ، بدون هیچ گونه بهینه سازی.سپس ، ما دو استراتژی را در نظر می گیریم برای ایجاد فواصل اطمینان در AME.در وهله اول ، ما تیز را تخمین می زنیم مرزها با یک برآوردگر دو مرحله ای نیمهرامتری.دوم ، بسیار ساده به جای آن ، یک مقدار شناخته شده در فاصله محدود از فاصله ، برآورد استراتژی است AMEنیازی به تخمین غیرپارامتری ندارد اما ممکن است منجر به آن شود فواصل اعتماد به نفس بزرگتر.شبیه سازی مونت کارلو نشان می دهد که هر دو رویکردها در عمل به خوبی کار می کنند ، دومین مورد اغلب بسیار رقابتی است. سرانجام ، ما نشان می دهیم که نتایج ما نیز در مورد میانگین اثرات درمانی اعمال می شود ، عملکردهای ساختاری متوسط ​​و مدل های ورود به سیستم جلوه های ثابت.
30,424
The presence of outlying observations may adversely affect statistical testing procedures that result in unstable test statistics and unreliable inferences depending on the distortion in parameter estimates. In spite of the fact that the adverse effects of outliers in panel data models, there are only a few robust testing procedures available for model specification. In this paper, a new weighted likelihood based robust specification test is proposed to determine the appropriate approach in panel data including individual-specific components. The proposed test has been shown to have the same asymptotic distribution as that of most commonly used Hausman's specification test under null hypothesis of random effects specification. The finite sample properties of the robust testing procedure are illustrated by means of Monte Carlo simulations and an economic-growth data from the member countries of the Organisation for Economic Co-operation and Development. Our records reveal that the robust specification test exhibit improved performance in terms of size and power of the test in the presence of contamination.
وجود مشاهدات دور افتاده ممکن است بر آماری تأثیر منفی بگذارد روشهای آزمایش که منجر به آمار آزمون ناپایدار و غیرقابل اعتماد می شوند استنباط بسته به اعوجاج در برآورد پارامتر.علی رغم این واقعیت که اثرات منفی Outriers در مدل های داده پانل ، فقط وجود دارد چند روش آزمایش قوی برای مشخصات مدل موجود است.در این مقاله ، یک آزمون مشخصات قوی مبتنی بر وزن جدید ارائه شده است رویکرد مناسب در داده های پانل از جمله خاص فردی را تعیین کنید اجزاء.آزمایش پیشنهادی نشان داده شده است که دارای یکسان است توزیع به عنوان آزمون مشخصات Hausman که معمولاً مورد استفاده قرار می گیرد فرضیه تهی از مشخصات اثرات تصادفی.خصوصیات نمونه محدود از روش آزمایش قوی با استفاده از مونت کارلو نشان داده شده است شبیه سازی ها و داده های رشد اقتصادی از کشورهای عضو سازمان همکاری اقتصادی و توسعه.سوابق ما نشان می دهد که نمایشگاه تست مشخصات قوی از نظر اندازه و عملکرد بهبود یافته است قدرت آزمون در حضور آلودگی.
30,425
This paper establishes bounds on the performance of empirical risk minimization for large-dimensional linear regression. We generalize existing results by allowing the data to be dependent and heavy-tailed. The analysis covers both the cases of identically and heterogeneously distributed observations. Our analysis is nonparametric in the sense that the relationship between the regressand and the regressors is not specified. The main results of this paper show that the empirical risk minimizer achieves the optimal performance (up to a logarithmic factor) in a dependent data setting.
در این مقاله محدودیت هایی در مورد عملکرد خطر تجربی تعیین شده است به حداقل رساندن برای رگرسیون خطی با ابعاد بزرگ.ما موجود را تعمیم می دهیم نتایج با اجازه دادن به داده ها وابسته و سنگین است.تجزیه و تحلیل هر دو مورد از نظر یکسان و ناهمگن توزیع می شود مشاهداتتجزیه و تحلیل ما به این معنا که رابطه غیرپارامتری است بین regressand و regressors مشخص نشده است.نتایج اصلی از این مقاله نشان می دهد که مینیم کننده خطر تجربی بهینه می شود عملکرد (حداکثر یک عامل لگاریتمی) در یک تنظیم داده وابسته.
30,426
Two-sided marketplace platforms often run experiments to test the effect of an intervention before launching it platform-wide. A typical approach is to randomize individuals into the treatment group, which receives the intervention, and the control group, which does not. The platform then compares the performance in the two groups to estimate the effect if the intervention were launched to everyone. We focus on two common experiment types, where the platform randomizes individuals either on the supply side or on the demand side. The resulting estimates of the treatment effect in these experiments are typically biased: because individuals in the market compete with each other, individuals in the treatment group affect those in the control group and vice versa, creating interference. We develop a simple tractable market model to study bias and variance in these experiments with interference. We focus on two choices available to the platform: (1) Which side of the platform should it randomize on (supply or demand)? (2) What proportion of individuals should be allocated to treatment? We find that both choices affect the bias and variance of the resulting estimators but in different ways. The bias-optimal choice of experiment type depends on the relative amounts of supply and demand in the market, and we discuss how a platform can use market data to select the experiment type. Importantly, we find in many circumstances, choosing the bias-optimal experiment type has little effect on variance. On the other hand, the choice of treatment proportion can induce a bias-variance tradeoff, where the bias-minimizing proportion increases variance. We discuss how a platform can navigate this tradeoff and best choose the treatment proportion, using a combination of modeling as well as contextual knowledge about the market, the risk of the intervention, and reasonable effect sizes of the intervention.
سیستم عامل های دو طرفه بازار اغلب آزمایشاتی را انجام می دهند تا تأثیر آن را آزمایش کنند مداخله قبل از راه اندازی پلت فرم IT.یک رویکرد معمولی این است افراد را به گروه درمانی که دریافت می کند ، تصادفی کنید مداخله ، و گروه کنترل ، که چنین نیست.سپس پلتفرم مقایسه می کند عملکرد در دو گروه برای تخمین اثر در صورت مداخله برای همه راه اندازی شدند.ما روی دو نوع آزمایش مشترک تمرکز می کنیم ، جایی که پلت فرم افراد را در سمت عرضه یا تقاضا تصادفی می کند سمت.برآوردهای حاصل از اثر درمانی در این آزمایشات است به طور معمول مغرضانه: زیرا افراد موجود در بازار با یکدیگر رقابت می کنند ، افراد در گروه درمانی افراد گروه کنترل و معاون را تحت تأثیر قرار می دهند برعکس ، ایجاد تداخل.ما یک مدل بازار قابل ردیابی ساده را توسعه می دهیم تعصب و واریانس را در این آزمایشات با تداخل مطالعه کنید.ما روی دو تمرکز می کنیم گزینه های موجود در سیستم عامل: (1) کدام یک از سکو باید از آن استفاده کند تصادفی در (عرضه یا تقاضا)؟(2) نسبت افراد باید چه باشد به درمان اختصاص داده شده است؟ما می دانیم که هر دو گزینه بر تعصب و واریانس تأثیر می گذارند از برآوردگرهای حاصل اما به روش های مختلف.انتخاب تعصب-بهینه از نوع آزمایش به مقادیر نسبی عرضه و تقاضا در آن بستگی دارد بازار ، و ما بحث می کنیم که چگونه یک پلتفرم می تواند از داده های بازار برای انتخاب استفاده کند نوع آزمایش.مهمتر از همه ، ما در بسیاری از شرایط ، انتخاب می کنیم نوع آزمایش تعصب-بهینه تأثیر کمی در واریانس دارد.از سوی دیگر، انتخاب نسبت درمان می تواند باعث ایجاد یک تجارت تعصب و تغییر کند ، جایی که نسبت تعصب-استخراج واریانس را افزایش می دهد.ما در مورد چگونگی یک پلتفرم بحث می کنیم می تواند در این تجارت حرکت کند و به بهترین وجه با استفاده از یک مورد درمان را انتخاب کند ترکیبی از مدل سازی و همچنین دانش متنی در مورد بازار ، خطر مداخله و اندازه اثر معقول مداخله.
30,427
Economists often estimate economic models on data and use the point estimates as a stand-in for the truth when studying the model's implications for optimal decision-making. This practice ignores model ambiguity, exposes the decision problem to misspecification, and ultimately leads to post-decision disappointment. Using statistical decision theory, we develop a framework to explore, evaluate, and optimize robust decision rules that explicitly account for estimation uncertainty. We show how to operationalize our analysis by studying robust decisions in a stochastic dynamic investment model in which a decision-maker directly accounts for uncertainty in the model's transition dynamics.
اقتصاددانان غالباً مدل های اقتصادی را بر روی داده ها تخمین می زنند و از تخمین های نقطه استفاده می کنند به عنوان یک ایستاده برای حقیقت هنگام مطالعه پیامدهای مدل برای بهینه تصمیم گیری.این عمل ابهام مدل را نادیده می گیرد ، تصمیم را در معرض نمایش می گذارد مشکلی برای شناسایی اشتباه ، و در نهایت منجر به تصمیم گیری پس از آن می شود ناامیدیبا استفاده از تئوری تصمیم آماری ، ما چارچوبی را توسعه می دهیم قوانین تصمیم گیری قوی را که صریحاً حساب می کنند ، کاوش ، ارزیابی و بهینه سازی کنید برای عدم اطمینان تخمین.ما نشان می دهیم که چگونه می توان تحلیل خود را عملیاتی کرد مطالعه تصمیمات قوی در یک مدل سرمایه گذاری پویا تصادفی که در آن تصمیم گیرنده مستقیماً عدم اطمینان در انتقال مدل را به خود اختصاص می دهد پویایی شناسی.
30,428
This paper studies sequential search models that (1) incorporate unobserved product quality, which can be correlated with endogenous observable characteristics (such as price) and endogenous search cost variables (such as product rankings in online search intermediaries); and (2) do not require researchers to know the true distribution of the match value between consumers and products. A likelihood approach to estimate such models gives biased results. Therefore, I propose a new estimator -- pairwise maximum rank (PMR) estimator -- for both preference and search cost parameters. I show that the PMR estimator is consistent using only data on consumers' search order among one pair of products rather than data on consumers' full consideration set or final purchase. Additionally, we can use the PMR estimator to test for the true match value distribution in the data. In the empirical application, I apply the PMR estimator to quantify the effect of rankings in Expedia hotel search using two samples of the data set, to which consumers are randomly assigned. I find the position effect to be \$0.11-\$0.36, and the effect estimated using the sample with randomly generated rankings is close to the effect estimated using the sample with endogenous rankings. Moreover, I find that the true match value distribution in the data is unlikely to be N(0,1). Likelihood estimation ignoring endogeneity gives an upward bias of at least \$1.17; misspecification of match value distribution as N(0,1) gives an upward bias of at least \$2.99.
این مقاله به بررسی مدلهای جستجوی متوالی که (1) شامل موارد غیرمجاز است کیفیت محصول ، که می تواند با مشاهده درون زا در ارتباط باشد ویژگی ها (مانند قیمت) و متغیرهای هزینه جستجوی درون زا (مانند رتبه بندی محصولات در واسطه های جستجوی آنلاین) ؛و (2) نیازی نیست محققان برای دانستن توزیع واقعی ارزش مسابقه بین مصرف کنندگان و محصولاتیک رویکرد احتمال برای برآورد چنین مدلهایی مغرضانه می دهد نتایج.بنابراین ، من یک برآوردگر جدید را پیشنهاد می کنم - حداکثر رتبه جفت (PMR) برآوردگر - برای هر دو پارامترهای ترجیحی و هزینه جستجو.من نشان می دهم که برآوردگر PMR فقط با استفاده از داده ها در مورد سفارش جستجوی مصرف کنندگان سازگار است یک جفت محصول به جای داده در مورد مجموعه توجه کامل مصرف کنندگان یا خرید نهاییعلاوه بر این ، ما می توانیم از برآوردگر PMR برای آزمایش واقعی استفاده کنیم توزیع مقدار مطابقت در داده ها.در برنامه تجربی ، من اعمال می کنم برآوردگر PMR برای کمیت تأثیر رتبه بندی در جستجوی هتل Expedia با استفاده از دو نمونه از مجموعه داده ها ، که مصرف کنندگان به طور تصادفی به آنها اختصاص داده می شوند.من پیدا کردم اثر موقعیتی \ 0.11 $-\ 0.36 $ ، و اثر تخمین زده شده با استفاده از نمونه با رتبه بندی های تصادفی تولید شده نزدیک به اثر تخمین زده شده با استفاده است نمونه با رتبه های درون زا.علاوه بر این ، من می فهمم که مقدار مسابقه واقعی توزیع در داده ها بعید به نظر می رسد n (0،1).تخمین احتمال نادیده گرفتن درون زایی ، تعصب رو به بالا حداقل \ 1.17 دلار را می بخشد.شناسایی غلط توزیع ارزش مسابقه به عنوان n (0،1) تعصب رو به بالا حداقل \ 2.99 دلار می دهد.
30,429
How do inter-organizational networks emerge? Accounting for interdependence among ties while studying tie formation is one of the key challenges in this area of research. We address this challenge using an equilibrium framework where firms' decisions to form links with other firms are modeled as a strategic game. In this game, firms weigh the costs and benefits of establishing a relationship with other firms and form ties if their net payoffs are positive. We characterize the equilibrium networks as exponential random graphs (ERGM), and we estimate the firms' payoffs using a Bayesian approach. To demonstrate the usefulness of our approach, we apply the framework to a co-investment network of venture capital firms in the medical device industry. The equilibrium framework allows researchers to draw economic interpretation from parameter estimates of the ERGM Model. We learn that firms rely on their joint partners (transitivity) and prefer to form ties with firms similar to themselves (homophily). These results hold after controlling for the interdependence among ties. Another, critical advantage of a structural approach is that it allows us to simulate the effects of economic shocks or policy counterfactuals. We test two such policy shocks, namely, firm entry and regulatory change. We show how new firms' entry or a regulatory shock of minimum capital requirements increase the co-investment network's density and clustering.
چگونه شبکه های بین سازمانی پدیدار می شوند؟حسابداری برای وابستگی متقابل در میان پیوندها هنگام مطالعه سازند کراوات یکی از مهمترین چالش ها در این مورد است حوزه تحقیقات.ما با استفاده از یک چارچوب تعادل به این چالش می پردازیم جایی که تصمیمات بنگاهها برای ایجاد پیوندها با سایر بنگاهها به عنوان یک مدل سازی شده است بازی استراتژیک.در این بازی ، شرکت ها هزینه ها و مزایای آن را وزن می کنند برقراری رابطه با سایر بنگاهها و در صورت بازپرداخت خالص آنها ارتباط برقرار می کند مثبت هستندما شبکه های تعادل را به صورت تصادفی نمایی توصیف می کنیم نمودارها (ERGM) ، و ما بازپرداخت شرکت ها را با استفاده از رویکرد بیزی تخمین می زنیم.به سودمندی رویکرد ما را نشان می دهد ، ما چارچوب را در a اعمال می کنیم شبکه سرمایه گذاری شرکت های سرمایه گذاری سرمایه گذاری در صنعت دستگاه های پزشکی. چارچوب تعادل به محققان اجازه می دهد تا تفسیر اقتصادی را ترسیم کنند از برآورد پارامتر مدل ERGM.ما می آموزیم که بنگاه ها به خود متکی هستند شرکای مشترک (انتقال) و ترجیح می دهند با بنگاههای مشابه ارتباط برقرار کنند خود (هموفیلی).این نتایج پس از کنترل برای وابستگی متقابل بین پیوندها.یکی دیگر از مزیت های مهم ساختاری رویکرد این است که به ما اجازه می دهد تا اثرات شوک های اقتصادی را شبیه سازی کنیم ضد مسیرهای ضد سیاست.ما دو شوک از این قبیل سیاست ، یعنی ورود محکم و تغییر نظارتی.ما نشان می دهیم که چگونه ورود بنگاه های جدید یا شوک نظارتی از حداقل نیازهای سرمایه چگالی شبکه سرمایه گذاری را افزایش می دهد و خوشه بندی
30,431
With the heightened volatility in stock prices during the Covid-19 pandemic, the need for price forecasting has become more critical. We investigated the forecast performance of four models including Long-Short Term Memory, XGBoost, Autoregression, and Last Value on stock prices of Facebook, Amazon, Tesla, Google, and Apple in COVID-19 pandemic time to understand the accuracy and predictability of the models in this highly volatile time region. To train the models, the data of all stocks are split into train and test datasets. The test dataset starts from January 2020 to April 2021 which covers the COVID-19 pandemic period. The results show that the Autoregression and Last value models have higher accuracy in predicting the stock prices because of the strong correlation between the previous day and the next day's price value. Additionally, the results suggest that the machine learning models (Long-Short Term Memory and XGBoost) are not performing as well as Autoregression models when the market experiences high volatility.
با افزایش نوسانات در قیمت سهام در طول همه گیر Covid-19 ، نیاز به پیش بینی قیمت بسیار مهم تر شده است.ما تحقیق کردیم پیش بینی عملکرد چهار مدل از جمله حافظه کوتاه مدت کوتاه ، xgboost ، Autoregression و آخرین ارزش در قیمت سهام Facebook ، Amazon ، Tesla ، Google ، و Apple در زمان همه گیر Covid-19 برای درک صحت و پیش بینی مدل ها در این منطقه بسیار بی ثبات.برای آموزش مدل ها ، داده های همه سهام به مجموعه داده های قطار و آزمایش تقسیم می شوند.امتحان مجموعه داده ها از ژانویه 2020 تا آوریل 2021 شروع می شود که Covid-19 را پوشش می دهد دوره همه گیرنتایج نشان می دهد که مدل های Autoregression و Last Value در پیش بینی قیمت سهام به دلیل قوی ، از دقت بیشتری برخوردار هستند همبستگی بین روز قبل و ارزش قیمت روز بعد. علاوه بر این ، نتایج نشان می دهد که مدل های یادگیری ماشین (کوتاه مدت Memory Term و XGBoost) و همچنین مدل های Autoregression در حال اجرا نیستند وقتی بازار نوسانات بالایی را تجربه می کند.
30,432
We study linear peer effects models where peers interact in groups, individual's outcomes are linear in the group mean outcome and characteristics, and group effects are random. Our specification is motivated by the moment conditions imposed in Graham 2008. We show that these moment conditions can be cast in terms of a linear random group effects model and lead to a class of GMM estimators that are generally identified as long as there is sufficient variation in group size. We also show that our class of GMM estimators contains a Quasi Maximum Likelihood estimator (QMLE) for the random group effects model, as well as the Wald estimator of Graham 2008 and the within estimator of Lee 2007 as special cases. Our identification results extend insights in Graham 2008 that show how assumptions about random group effects as well as variation in group size can be used to overcome the reflection problem in identifying peer effects. Our QMLE and GMM estimators accommodate additional covariates and are valid in situations with a large but finite number of different group sizes or types. Because our estimators are general moment based procedures, using instruments other than binary group indicators in estimation is straight forward. Our QMLE estimator accommodates group level covariates in the spirit of Mundlak and Chamberlain and offers an alternative to fixed effects specifications. Monte-Carlo simulations show that the bias of the QMLE estimator decreases with the number of groups and the variation in group size, and increases with group size. We also prove the consistency and asymptotic normality of the estimator under reasonable assumptions.
ما مدلهای اثرات همسالان خطی را مطالعه می کنیم که همسالان در گروه ها در تعامل هستند ، نتایج فرد در گروه میانگین نتیجه و ویژگی ها خطی است ، و اثرات گروهی تصادفی است.مشخصات ما در لحظه انگیزه است شرایط تحمیل شده در گراهام 2008. ما نشان می دهیم که این شرایط لحظه ای می تواند باشد بازیگران از نظر یک مدل اثر گروهی تصادفی خطی و منجر به کلاس GMM برآوردگرهایی که به طور کلی شناسایی می شوند تا زمانی که کافی باشد تغییر در اندازه گروه.ما همچنین نشان می دهیم که کلاس برآوردگرهای GMM ما حاوی است یک برآوردگر حداکثر احتمال شبه (QMLE) برای مدل اثرات گروهی تصادفی ، و همچنین برآوردگر والد گراهام 2008 و برآوردگر لی لی 2007 به عنوان موارد خاص.نتایج شناسایی ما بینش در گراهام را گسترش می دهد 2008 که نشان می دهد چگونه فرضیات در مورد اثرات گروه تصادفی و همچنین تنوع در اندازه گروه می تواند برای غلبه بر مشکل بازتاب در شناسایی استفاده شود اثرات همسالانبرآوردگرهای QMLE و GMM ما متغیرهای متغیر اضافی و در موقعیت هایی با تعداد زیادی اما محدود از اندازه گروه های مختلف معتبر هستند یا انواعاز آنجا که برآوردگرهای ما روشهای کلی مبتنی بر لحظه هستند ، با استفاده از ابزاری غیر از شاخص های گروه باینری در تخمین مستقیم است رو به جلو.برآوردگر QMLE ما متغیرهای سطح گروه را در روح قرار می دهد از Mundlak و Chamberlain و جایگزینی برای جلوه های ثابت ارائه می دهد مشخصات فنی.شبیه سازی مونت کارلو نشان می دهد که تعصب QMLE برآوردگر با تعداد گروه ها و تغییر در اندازه گروه کاهش می یابد ، و با اندازه گروه افزایش می یابد.ما همچنین قوام و بدون علامت را اثبات می کنیم عادی بودن برآوردگر تحت فرضیات معقول.
30,433
One of the important and widely used classes of models for non-Gaussian time series is the generalized autoregressive model average models (GARMA), which specifies an ARMA structure for the conditional mean process of the underlying time series. However, in many applications one often encounters conditional heteroskedasticity. In this paper we propose a new class of models, referred to as GARMA-GARCH models, that jointly specify both the conditional mean and conditional variance processes of a general non-Gaussian time series. Under the general modeling framework, we propose three specific models, as examples, for proportional time series, nonnegative time series, and skewed and heavy-tailed financial time series. Maximum likelihood estimator (MLE) and quasi Gaussian MLE (GMLE) are used to estimate the parameters. Simulation studies and three applications are used to demonstrate the properties of the models and the estimation procedures.
یکی از کلاسهای مهم و گسترده ای از مدل ها برای زمان غیر گاوسی سریال مدل های متوسط ​​مدل خودجوش عمومی (GARMA) است که ساختار ARMA را برای فرآیند میانگین مشروط زیرین مشخص می کند سری زمانی.با این حال ، در بسیاری از برنامه ها اغلب با مشروط روبرو می شود ناهمگونی.در این مقاله ما یک کلاس جدید از مدل ها را ارائه می دهیم به عنوان مدل های گرما-بازی ، که به طور مشترک هم میانگین مشروط را مشخص می کند و فرآیندهای واریانس مشروط از یک سری زمانی عمومی غیر گاوسی.در زیر چارچوب مدل سازی عمومی ، ما سه مدل خاص را به عنوان نمونه پیشنهاد می کنیم سری زمانی متناسب ، سریال های زمانی غیر منفی ، و کم رنگ و سنگین سری زمانی مالی.حداکثر برآوردگر احتمال (MLE) و شبه گاوسی از MLE (GMLE) برای برآورد پارامترها استفاده می شود.مطالعات شبیه سازی و سه برنامه های کاربردی برای نشان دادن خصوصیات مدل ها و روشهای تخمین.
30,434
We propose a fast and flexible method to scale multivariate return volatility predictions up to high-dimensions using a dynamic risk factor model. Our approach increases parsimony via time-varying sparsity on factor loadings and is able to sequentially learn the use of constant or time-varying parameters and volatilities. We show in a dynamic portfolio allocation problem with 452 stocks from the S&P 500 index that our dynamic risk factor model is able to produce more stable and sparse predictions, achieving not just considerable portfolio performance improvements but also higher utility gains for the mean-variance investor compared to the traditional Wishart benchmark and the passive investment on the market index.
ما یک روش سریع و انعطاف پذیر برای مقیاس نوسانات بازگشت چند متغیره پیشنهاد می کنیم پیش بینی ها تا با استفاده از یک مدل فاکتور خطر پویا ، تا زمان های بالا.ما رویکرد باعث افزایش پارسیمونی از طریق کمبود زمان در بارهای عامل و قادر است به طور متوالی استفاده از پارامترهای ثابت یا متغیر را بیاموزد و نوساناتما در یک مشکل تخصیص نمونه کارها پویا با 452 نشان می دهیم سهام از فهرست S&P 500 که مدل فاکتور ریسک پویا ما قادر به آن است پیش بینی های پایدارتر و پراکنده تری تولید می کند ، و نه تنها قابل توجه است پیشرفت عملکرد نمونه کارها اما همچنین سودهای بیشتری برای این کار سرمایه گذار میانگین واریانس در مقایسه با معیار سنتی ویشارت و سرمایه گذاری منفعل در شاخص بازار.
30,435
We propose employing a debiased-regularized, high-dimensional generalized method of moments (GMM) framework to perform inference on large-scale spatial panel networks. In particular, network structure with a flexible sparse deviation, which can be regarded either as latent or as misspecified from a predetermined adjacency matrix, is estimated using debiased machine learning approach. The theoretical analysis establishes the consistency and asymptotic normality of our proposed estimator, taking into account general temporal and spatial dependency inherent in the data-generating processes. The dimensionality allowance in presence of dependency is discussed. A primary contribution of our study is the development of uniform inference theory that enables hypothesis testing on the parameters of interest, including zero or non-zero elements in the network structure. Additionally, the asymptotic properties for the estimator are derived for both linear and nonlinear moments. Simulations demonstrate superior performance of our proposed approach. Lastly, we apply our methodology to investigate the spatial network effect of stock returns.
ما پیشنهاد می کنیم که از یک عمومیت با ابعاد بالا استفاده کنید چارچوب Method of Moments (GMM) برای انجام استنتاج در فضایی در مقیاس بزرگ شبکه های پانل.به طور خاص ، ساختار شبکه با پراکنده انعطاف پذیر انحراف ، که می تواند به عنوان نهفته یا به عنوان غلط از یک در نظر گرفته شود ماتریس مجاورت از پیش تعیین شده ، با استفاده از یادگیری ماشین دفع شده تخمین زده می شود رویکرد.تجزیه و تحلیل نظری قوام و بدون علامت را تعیین می کند نرمال بودن برآوردگر پیشنهادی ما ، با در نظر گرفتن زمانی عمومی و وابستگی مکانی ذاتی در فرآیندهای تولید داده.در کمک هزینه ابعاد در حضور وابستگی مورد بحث قرار گرفته است.ابتدایی سهم مطالعه ما توسعه تئوری استنباط یکنواخت است که آزمایش فرضیه را در مورد پارامترهای مورد علاقه ، از جمله صفر یا عناصر غیر صفر در ساختار شبکه.علاوه بر این ، بدون علامت خواص برآوردگر برای هر دو لحظه خطی و غیرخطی بدست می آید. شبیه سازی ها عملکرد برتر رویکرد پیشنهادی ما را نشان می دهد.در آخر، ما از روش خود برای بررسی تأثیر شبکه مکانی سهام استفاده می کنیم برمی گردد
30,436
Recently, Szufa et al. [AAMAS 2020] presented a "map of elections" that visualizes a set of 800 elections generated from various statistical cultures. While similar elections are grouped together on this map, there is no obvious interpretation of the elections' positions. We provide such an interpretation by introducing four canonical "extreme" elections, acting as a compass on the map. We use them to analyze both a dataset provided by Szufa et al. and a number of real-life elections. In effect, we find a new variant of the Mallows model and show that it captures real-life scenarios particularly well.
اخیراً ، Szufa و همکاران.[AAMAS 2020] "نقشه انتخابات" را ارائه داد که مجموعه ای از 800 انتخابات حاصل از فرهنگ های مختلف آماری را تجسم می کند. در حالی که انتخابات مشابه در این نقشه با هم گروه بندی می شوند ، هیچ آشکاری وجود ندارد تفسیر مواضع انتخابات.ما چنین تفسیری ارائه می دهیم با معرفی چهار انتخابات "افراطی" متعارف ، به عنوان قطب نما در نقشهما از آنها برای تجزیه و تحلیل هر دو مجموعه داده ارائه شده توسط Szufa و همکاران استفاده می کنیم.و الف تعداد انتخابات زندگی واقعی.در واقع ، ما یک نوع جدید از Mallows پیدا می کنیم مدل و نشان می دهد که سناریوهای زندگی واقعی را به خوبی ضبط می کند.
30,437
With uncertain changes of the economic environment, macroeconomic downturns during recessions and crises can hardly be explained by a Gaussian structural shock. There is evidence that the distribution of macroeconomic variables is skewed and heavy tailed. In this paper, we contribute to the literature by extending a vector autoregression (VAR) model to account for a more realistic assumption of the multivariate distribution of the macroeconomic variables. We propose a general class of generalized hyperbolic skew Student's t distribution with stochastic volatility for the error term in the VAR model that allows us to take into account skewness and heavy tails. Tools for Bayesian inference and model selection using a Gibbs sampler are provided. In an empirical study, we present evidence of skewness and heavy tails for monthly macroeconomic variables. The analysis also gives a clear message that skewness should be taken into account for better predictions during recessions and crises.
با تغییرات نامشخص در محیط اقتصادی ، رکودهای کلان اقتصادی در حین رکود اقتصادی و بحران ها به سختی توسط یک ساختاری گاوسی قابل توضیح است شوکه شدن.شواهدی وجود دارد که نشان می دهد توزیع متغیرهای کلان اقتصادی است خلوت و سنگیندر این مقاله ، ما به ادبیات کمک می کنیم گسترش یک مدل Autoregression بردار (VAR) برای پاسخگویی واقعی تر فرض توزیع چند متغیره متغیرهای کلان اقتصادی.ما یک کلاس کلی از توزیع T دانشجویی Hyperbolic Hyperbolic را پیشنهاد دهید با نوسانات تصادفی برای اصطلاح خطا در مدل VAR که به ما امکان می دهد برای در نظر گرفتن پوستی و دمهای سنگین.ابزارهایی برای استنباط بیزی و انتخاب مدل با استفاده از یک نمونه گیبس ارائه شده است.در یک مطالعه تجربی ، ما شواهد موجود در مورد پوستی و دمهای سنگین برای ماهانه اقتصاد کلان متغیرهاتجزیه و تحلیل همچنین یک پیام واضح ارائه می دهد که باید پوستی باشد در نظر گرفته شده برای پیش بینی های بهتر در هنگام رکود اقتصادی و بحران ها.
30,438
Financial advisors use questionnaires and discussions with clients to determine a suitable portfolio of assets that will allow clients to reach their investment objectives. Financial institutions assign risk ratings to each security they offer, and those ratings are used to guide clients and advisors to choose an investment portfolio risk that suits their stated risk tolerance. This paper compares client Know Your Client (KYC) profile risk allocations to their investment portfolio risk selections using a value-at-risk discrepancy methodology. Value-at-risk is used to measure elicited and revealed risk to show whether clients are over-risked or under-risked, changes in KYC risk lead to changes in portfolio configuration, and cash flow affects a client's portfolio risk. We demonstrate the effectiveness of value-at-risk at measuring clients' elicited and revealed risk on a dataset provided by a private Canadian financial dealership of over $50,000$ accounts for over $27,000$ clients and $300$ advisors. By measuring both elicited and revealed risk using the same measure, we can determine how well a client's portfolio aligns with their stated goals. We believe that using value-at-risk to measure client risk provides valuable insight to advisors to ensure that their practice is KYC compliant, to better tailor their client portfolios to stated goals, communicate advice to clients to either align their portfolios to stated goals or refresh their goals, and to monitor changes to the clients' risk positions across their practice.
مشاوران مالی از پرسشنامه ها و بحث و گفتگو با مشتریان استفاده می کنند یک نمونه کارها مناسب از دارایی ها را تعیین کنید که به مشتریان امکان دستیابی به آنها را می دهد اهداف سرمایه گذاری.موسسات مالی رتبه های ریسک را به هر یک اختصاص می دهند امنیتی که آنها ارائه می دهند ، و از این رتبه بندی ها برای راهنمایی مشتری و مشاوران استفاده می شود برای انتخاب یک ریسک نمونه کارها سرمایه گذاری که متناسب با ریسک اعلام شده آنها باشد. در این مقاله ، مشتری می شناسد که ریسک مشخصات مشتری (KYC) شما را می شناسد انتخاب ریسک پرتفوی سرمایه گذاری آنها با استفاده از اختلاف ارزش در معرض خطر روش شناسیارزش در معرض خطر برای اندازه گیری و خطر خطرناک استفاده می شود نشان می دهد که آیا مشتری بیش از حد در معرض خطر قرار گرفته است یا در معرض خطر نیست ، تغییرات در خطر KYC برای تغییر در پیکربندی نمونه کارها ، و جریان نقدی روی مشتری تأثیر می گذارد ریسک نمونه کارها.ما اثربخشی ارزش در معرض خطر در اندازه گیری را نشان می دهیم ریسک مشتری در یک مجموعه داده ارائه شده توسط یک کانادایی خصوصی ، نمایندگی مالی بیش از 50،000 دلار حساب بیش از 27،000 دلار مشتری و 300 دلار مشاوران.با اندازه گیری هر دو ریسک شده و با استفاده از همان خطر را نشان داد اندازه گیری ، ما می توانیم تعیین کنیم که چگونه نمونه کارها مشتری با آنها هماهنگ است اهداف بیان شدهما معتقدیم که استفاده از ارزش در معرض خطر برای اندازه گیری ریسک مشتری بینش ارزشمندی را برای مشاوران فراهم می کند تا اطمینان حاصل شود که عمل آنها KYC است سازگار ، برای بهتر کردن اوراق بهادار مشتری خود به اهداف اعلام شده ، مشاوره با مشتری ها برای هماهنگی اوراق بهادار خود به اهداف اعلام شده ارتباط برقرار کنید یا اهداف خود را تازه کنید و برای نظارت بر تغییرات در موقعیت های خطر مشتری در طول تمرین آنها
30,439
This paper develops tests for the correct specification of the conditional variance function in GARCH models when the true parameter may lie on the boundary of the parameter space. The test statistics considered are of Kolmogorov-Smirnov and Cram\'{e}r-von Mises type, and are based on a certain empirical process marked by centered squared residuals. The limiting distributions of the test statistics are not free from (unknown) nuisance parameters, and hence critical values cannot be tabulated. A novel bootstrap procedure is proposed to implement the tests; it is shown to be asymptotically valid under general conditions, irrespective of the presence of nuisance parameters on the boundary. The proposed bootstrap approach is based on shrinking of the parameter estimates used to generate the bootstrap sample toward the boundary of the parameter space at a proper rate. It is simple to implement and fast in applications, as the associated test statistics have simple closed form expressions. A simulation study demonstrates that the new tests: (i) have excellent finite sample behavior in terms of empirical rejection probabilities under the null as well as under the alternative; (ii) provide a useful complement to existing procedures based on Ljung-Box type approaches. Two data examples are considered to illustrate the tests.
در این مقاله تست هایی برای مشخصات صحیح مشروط ایجاد می شود عملکرد واریانس در مدلهای GARCH هنگامی که پارامتر واقعی ممکن است روی آن قرار داشته باشد مرز فضای پارامتر.آمار آزمون در نظر گرفته شده از Kolmogorov-Smirnov و Cram \ '{E} r-Von Mises نوع ، و مبتنی بر یک خاص است فرآیند تجربی مشخص شده توسط باقیمانده های مربع محور.محدود کننده توزیع آمار آزمون عاری از مزاحمت (ناشناخته) نیست پارامترها ، و از این رو مقادیر بحرانی نمی توانند جدول بندی شوند.یک بوت استرپ جدید روال برای اجرای آزمون ها پیشنهاد شده است.نشان داده شده به صورت بدون علامت است در شرایط کلی ، صرف نظر از حضور مزاحمت ، معتبر است پارامترهای موجود در مرز.رویکرد بوت استرپ پیشنهادی مبتنی بر است کوچک کردن برآورد پارامتر مورد استفاده برای تولید نمونه bootstrap به سمت مرز فضای پارامتر با سرعت مناسب.ساده است همانطور که آمار آزمون مرتبط با آن وجود دارد و سریع در برنامه ها اجرا و سریع اجرا می شود عبارات فرم بسته ساده.یک مطالعه شبیه سازی نشان می دهد که جدید تست ها: (i) از نظر تجربی رفتار نمونه محدود بسیار خوبی دارند احتمالات رد در زیر تهی و همچنین تحت گزینه جایگزین ؛(ب) یک مکمل مفید برای رویه های موجود بر اساس نوع Ljung-Box ارائه دهید رویکرددو نمونه داده برای نشان دادن آزمایشات در نظر گرفته شده است.
30,440
Datasets from field experiments with covariate-adaptive randomizations (CARs) usually contain extra covariates in addition to the strata indicators. We propose to incorporate these additional covariates via auxiliary regressions in the estimation and inference of unconditional quantile treatment effects (QTEs) under CARs. We establish the consistency and limit distribution of the regression-adjusted QTE estimator and prove that the use of multiplier bootstrap inference is non-conservative under CARs. The auxiliary regression may be estimated parametrically, nonparametrically, or via regularization when the data are high-dimensional. Even when the auxiliary regression is misspecified, the proposed bootstrap inferential procedure still achieves the nominal rejection probability in the limit under the null. When the auxiliary regression is correctly specified, the regression-adjusted estimator achieves the minimum asymptotic variance. We also discuss forms of adjustments that can improve the efficiency of the QTE estimators. The finite sample performance of the new estimation and inferential methods is studied in simulations and an empirical application to a well-known dataset concerned with expanding access to basic bank accounts on savings is reported.
مجموعه داده های آزمایش های میدانی با تصادفی سازی متغیر همبستگی (اتومبیل) معمولاً علاوه بر شاخص های اقشار حاوی متغیرهای اضافی است.ما پیشنهاد کنید که این متغیرهای اضافی را از طریق رگرسیون کمکی وارد کنید تخمین و استنباط اثرات درمانی کمی بی قید و شرط (QTES) زیر اتومبیلما قوام و توزیع محدود را تعیین می کنیم برآوردگر QTE تنظیم شده توسط رگرسیون و ثابت کردن استفاده از ضرب استنتاج bootstrap غیر محافظه کار در زیر اتومبیل ها است.رگرسیون کمکی ممکن است به صورت پارامتری ، غیر پارامتری یا از طریق تنظیم مجدد تخمین زده شود داده ها با ابعاد بالا هستند.حتی وقتی رگرسیون کمکی باشد غلط امضایی ، روش استنباطی بوت استرپ پیشنهادی هنوز به دست می آید احتمال رد اسمی در حد زیر تهی.وقتی کمکی است رگرسیون به درستی مشخص شده است ، برآوردگر تنظیم شده رگرسیون به دست می آید حداقل واریانس بدون علامت.ما همچنین در مورد اشکال تنظیماتی که می توانند بحث کنیم بهره وری برآوردگرهای QTE را بهبود بخشید.عملکرد نمونه محدود از تخمین جدید و روشهای استنباطی در شبیه سازی ها و یک مورد بررسی شده است برنامه تجربی به یک مجموعه داده مشهور مربوط به گسترش دسترسی به حساب های بانکی اساسی در مورد پس انداز گزارش شده است.
30,441
Recently, an approach to modeling portfolio distribution with risk factors distributed as Gram-Charlier (GC) expansions of the Gaussian law, has been conceived. GC expansions prove effective when dealing with moderately leptokurtic data. In order to cover the case of possibly severe leptokurtosis, the so-called GC-like expansions have been devised by reshaping parent leptokurtic distributions by means of orthogonal polynomials specific to them. In this paper, we focus on the hyperbolic-secant (HS) law as parent distribution whose GC-like expansions fit with kurtosis levels up to 19.4. A portfolio distribution has been obtained with risk factors modeled as GClike expansions of the HS law which duly account for excess kurtosis. Empirical evidence of the workings of the approach dealt with in the paper is included.
به تازگی ، رویکردی برای مدل سازی توزیع نمونه کارها با عوامل خطر توزیع شده به عنوان Gram-Charlier (GC) قانون گاوسی تصور شدهگسترش GC هنگام برخورد با متوسط ​​مؤثر است داده های leptokurtic.به منظور پوشش پرونده لپتوکورتوز احتمالاً شدید ، گسترش به اصطلاح GC مانند تغییر شکل والدین ابداع شده است توزیع لپتوکورتیک با استفاده از چند جمله ای متعامد خاص برای آنها. در این مقاله ، ما بر روی قانون Hyperbolic-Secant (HS) به عنوان والدین تمرکز می کنیم توزیع که گسترش GC مانند با سطح کورتوز تا 19.4 متناسب است.آ توزیع نمونه کارها با عوامل خطر مدل شده به عنوان GCLIKE به دست آمده است گسترش قانون HS که به درستی کورتوز اضافی را به خود اختصاص می دهد.تجربی شواهدی از عملکرد رویکرد که در مقاله به آن پرداخته شده است ، گنجانده شده است.
30,618
In this chapter, we review variance selection for time-varying parameter (TVP) models for univariate and multivariate time series within a Bayesian framework. We show how both continuous as well as discrete spike-and-slab shrinkage priors can be transferred from variable selection for regression models to variance selection for TVP models by using a non-centered parametrization. We discuss efficient MCMC estimation and provide an application to US inflation modeling.
در این فصل ، ما انتخاب واریانس را برای پارامتر متغیر زمان مرور می کنیم (TVP) مدل هایی برای سریال های زمانی متغیره و چند متغیره در یک بیزی چارچوبما نشان می دهیم که چگونه هر دو سنبله و تخته سنبله و سنبله گسسته Priors Emrinkage را می توان از انتخاب متغیر برای رگرسیون منتقل کرد مدل ها به انتخاب واریانس برای مدل های TVP با استفاده از یک غیر محور پارامتر سازیما در مورد تخمین کارآمد MCMC بحث می کنیم و ارائه می دهیم کاربرد برای مدل سازی تورم ایالات متحده.
30,442
While most treatment evaluations focus on binary interventions, a growing literature also considers continuously distributed treatments. We propose a Cram\'{e}r-von Mises-type test for testing whether the mean potential outcome given a specific treatment has a weakly monotonic relationship with the treatment dose under a weak unconfoundedness assumption. In a nonseparable structural model, applying our method amounts to testing monotonicity of the average structural function in the continuous treatment of interest. To flexibly control for a possibly high-dimensional set of covariates in our testing approach, we propose a double debiased machine learning estimator that accounts for covariates in a data-driven way. We show that the proposed test controls asymptotic size and is consistent against any fixed alternative. These theoretical findings are supported by the Monte-Carlo simulations. As an empirical illustration, we apply our test to the Job Corps study and reject a weakly negative relationship between the treatment (hours in academic and vocational training) and labor market performance among relatively low treatment values.
در حالی که بیشتر ارزیابی های درمانی بر مداخلات باینری متمرکز است ، در حال رشد است ادبیات همچنین درمانهای توزیع شده به طور مداوم را در نظر می گیرد.ما پیشنهاد می کنیم Cram \ '{E} r-von Mises-Type برای آزمایش اینکه آیا میانگین نتیجه بالقوه با توجه به یک درمان خاص رابطه ضعیف یکنواخت با دوز درمانی تحت یک فرض عدم موفقیت ضعیف.در غیر قابل تفکیک مدل ساختاری ، استفاده از روش ما برای آزمایش یکنواختی از عملکرد ساختاری متوسط ​​در درمان مداوم مورد علاقه.به کنترل انعطاف پذیر برای یک مجموعه متغیر احتمالاً با ابعاد بالا در ما رویکرد تست ، ما یک برآوردگر یادگیری ماشین مضاعف را پیشنهاد می کنیم که حساب های متغیرهای متغیر را به روشی محور داده حساب می کند.ما نشان می دهیم که آزمون پیشنهادی اندازه مجانبی را کنترل می کند و در برابر هر جایگزین ثابت سازگار است.اینها یافته های نظری توسط شبیه سازی مونت کارلو پشتیبانی می شود.به عنوان یک تصویر تجربی ، ما آزمون خود را در مطالعه سپاه شغلی اعمال می کنیم و a را رد می کنیم رابطه ضعیف منفی بین درمان (ساعت در دانشگاهی و آموزش حرفه ای) و عملکرد بازار کار در بین نسبتاً کم مقادیر درمانی.
30,443
We study regressions with multiple treatments and a set of controls that is flexible enough to purge omitted variable bias. We show these regressions generally fail to estimate convex averages of heterogeneous treatment effects; instead, estimates of each treatment's effect are contaminated by non-convex averages of the effects of other treatments. We discuss three estimation approaches that avoid such contamination bias, including a new estimator of efficiently weighted average effects. We find minimal bias in a re-analysis of Project STAR, due to idiosyncratic effect heterogeneity. But sizeable contamination bias arises when effect heterogeneity becomes correlated with treatment propensity scores.
ما رگرسیون را با چندین درمان و مجموعه ای از کنترل ها مطالعه می کنیم به اندازه کافی انعطاف پذیر برای پاکسازی تعصب متغیر حذف شده.ما این رگرسیون ها را نشان می دهیم به طور کلی در تخمین میانگین محدب اثرات درمانی ناهمگن. در عوض ، برآوردهای اثر هر درمان توسط غیر کنفکس آلوده می شود میانگین اثرات سایر درمانها.ما در مورد سه تخمین بحث می کنیم رویکردهایی که از چنین تعصب آلودگی جلوگیری می کنند ، از جمله برآوردگر جدید اثرات متوسط ​​وزن کارآمد.ما در تجزیه و تحلیل مجدد از حداقل تعصب پیدا می کنیم Project Star ، به دلیل ناهمگونی اثر خاص.اما قابل توجه تعصب آلودگی هنگامی بوجود می آید که ناهمگونی اثر با همبستگی شود نمرات تمایل به درمان.
30,444
Artificial neural networks (ANNs) have been the catalyst to numerous advances in a variety of fields and disciplines in recent years. Their impact on economics, however, has been comparatively muted. One type of ANN, the long short-term memory network (LSTM), is particularly wellsuited to deal with economic time-series. Here, the architecture's performance and characteristics are evaluated in comparison with the dynamic factor model (DFM), currently a popular choice in the field of economic nowcasting. LSTMs are found to produce superior results to DFMs in the nowcasting of three separate variables; global merchandise export values and volumes, and global services exports. Further advantages include their ability to handle large numbers of input features in a variety of time frequencies. A disadvantage is the inability to ascribe contributions of input features to model outputs, common to all ANNs. In order to facilitate continued applied research of the methodology by avoiding the need for any knowledge of deep-learning libraries, an accompanying Python library was developed using PyTorch, https://pypi.org/project/nowcast-lstm/.
شبکه های عصبی مصنوعی (ANNS) کاتالیزور پیشرفت های بی شماری بوده اند در زمینه ها و رشته های مختلف در سالهای اخیر.تأثیر آنها بر با این حال ، اقتصاد نسبتاً خاموش بوده است.یک نوع آن ، طولانی شبکه حافظه کوتاه مدت (LSTM) ، به ویژه برای مقابله سری زمانی اقتصادی.در اینجا ، عملکرد و ویژگی های معماری در مقایسه با مدل فاکتور پویا (DFM) ، در حال حاضر a ارزیابی می شوند انتخاب محبوب در زمینه Nowcasting اقتصادی.LSTM ها تولید می شوند نتایج برتر به DFMS در حال حاضر سه متغیر جداگانه.جهانی ارزش ها و حجم صادرات کالا و صادرات خدمات جهانی.به علاوه مزایا شامل توانایی آنها در رسیدگی به تعداد زیادی از ویژگی های ورودی در یک است انواع فرکانس های زمانی.یک ضرر ناتوانی در توصیف است سهم ویژگی های ورودی به خروجی های مدل ، مشترک برای همه ANN ها.به ترتیب برای تسهیل ادامه تحقیقات کاربردی روش شناسی با جلوگیری از نیاز به هرگونه دانش از کتابخانه های آموزش عمیق ، یک پایتون همراه کتابخانه با استفاده از Pytorch ، https://pypi.org/project/nowcast-lstm/ تهیه شد.
30,445
Extra-large datasets are becoming increasingly accessible, and computing tools designed to handle huge amount of data efficiently are democratizing rapidly. However, conventional statistical and econometric tools are still lacking fluency when dealing with such large datasets. This paper dives into econometrics on big datasets, specifically focusing on the logistic regression on Spark. We review the robustness of the functions available in Spark to fit logistic regression and introduce a package that we developed in PySpark which returns the statistical summary of the logistic regression, necessary for statistical inference.
مجموعه داده های فوق العاده بزرگ به طور فزاینده ای در دسترس و محاسبات قرار می گیرند ابزارهایی که برای رسیدگی به مقدار زیادی از داده ها طراحی شده اند دموکراتیک هستند به طور سریع.با این حال ، ابزارهای آماری و اقتصادی معمولی هنوز هم هستند فاقد تسلط در هنگام برخورد با چنین مجموعه داده های بزرگ.این مقاله به داخل اقتصاد سنجی در مجموعه داده های بزرگ ، به طور خاص با تمرکز بر رگرسیون لجستیک در جرقهما استحکام عملکردهای موجود در Spark را مرور می کنیم تا متناسب باشد رگرسیون لجستیک و بسته ای را که در Pyspark ایجاد کردیم معرفی کنیم خلاصه آماری از رگرسیون لجستیک ، لازم برای استنباط آماری.
30,446
In time-series analyses, particularly for finance, generalized autoregressive conditional heteroscedasticity (GARCH) models are widely applied statistical tools for modelling volatility clusters (i.e., periods of increased or decreased risk). In contrast, it has not been considered to be of critical importance until now to model spatial dependence in the conditional second moments. Only a few models have been proposed for modelling local clusters of increased risks. In this paper, we introduce a novel spatial GARCH process in a unified spatial and spatiotemporal GARCH framework, which also covers all previously proposed spatial ARCH models, exponential spatial GARCH, and time-series GARCH models. In contrast to previous spatiotemporal and time series models, this spatial GARCH allows for instantaneous spill-overs across all spatial units. For this common modelling framework, estimators are derived based on a non-linear least-squares approach. Eventually, the use of the model is demonstrated by a Monte Carlo simulation study and by an empirical example that focuses on real estate prices from 1995 to 2014 across the ZIP-Code areas of Berlin. A spatial autoregressive model is applied to the data to illustrate how locally varying model uncertainties (e.g., due to latent regressors) can be captured by the spatial GARCH-type models.
در تحلیل های سری زمانی ، به ویژه برای امور مالی ، خودجوش عمومی مدل های ناهمگونی مشروط (GARCH) به طور گسترده ای آماری کاربردی هستند ابزارهایی برای مدل سازی خوشه های نوسانات (یعنی دوره های افزایش یافته یا کاهش خطر).در مقابل ، آن را بسیار مهم در نظر گرفته نشده است اهمیت تا کنون برای مدل سازی وابستگی مکانی در ثانیه شرطی لحظات.فقط چند مدل برای مدل سازی خوشه های محلی پیشنهاد شده است افزایش خطراتدر این مقاله ، ما یک فرآیند جدید فضایی گارچ را در یک معرفی می کنیم چارچوب یکپارچه فضایی و فضایی و مکانی گارچ ، که همه را نیز پوشش می دهد مدلهای قوس فضایی قبلاً پیشنهادی ، گارچ فضایی نمایی ، و مدل های سریال Garch.برخلاف مکانی و زمان قبلی مدل های سری ، این گارچ فضایی امکان ریختن فوری را در سراسر آن فراهم می کند همه واحدهای مکانی.برای این چارچوب مدل سازی مشترک ، برآوردگرها مشتق شده اند بر اساس یک رویکرد غیر خطی حداقل مربعات.سرانجام استفاده از مدل با یک مطالعه شبیه سازی مونت کارلو و با یک مثال تجربی نشان داده شده است که از سال 1995 تا 2014 در مناطق زیپ کد تمرکز دارد از برلینبرای نشان دادن یک مدل اتورگرایی مکانی برای داده ها اعمال می شود چگونه عدم قطعیت های مدل مختلف محلی (به عنوان مثال ، به دلیل رگرسیون های نهفته) می تواند باشد اسیر شده توسط مدل های فضایی از نوع Garch.
30,447
The paper proposes a supervised machine learning algorithm to uncover treatment effect heterogeneity in classical regression discontinuity (RD) designs. Extending Athey and Imbens (2016), I develop a criterion for building an honest "regression discontinuity tree", where each leaf of the tree contains the RD estimate of a treatment (assigned by a common cutoff rule) conditional on the values of some pre-treatment covariates. It is a priori unknown which covariates are relevant for capturing treatment effect heterogeneity, and it is the task of the algorithm to discover them, without invalidating inference. I study the performance of the method through Monte Carlo simulations and apply it to the data set compiled by Pop-Eleches and Urquiola (2013) to uncover various sources of heterogeneity in the impact of attending a better secondary school in Romania.
این مقاله یک الگوریتم یادگیری ماشین نظارت شده را برای کشف پیشنهاد می کند ناهمگونی اثر درمانی در ناپیوستگی رگرسیون کلاسیک (RD) طرح ها.با گسترش Athey and Imbens (2016) ، من یک معیار برای ساخت و ساز ایجاد می کنم "درخت ناپیوستگی رگرسیون صادقانه" ، که در آن هر برگ درخت حاوی آن است برآورد RD از یک درمان (که توسط یک قانون قطع مشترک اختصاص داده شده است) مشروط در مورد مقادیر برخی از متغیرهای قبل از درمان.این یک پیشینی ناشناخته است که متغیرهای متغیر برای ضبط ناهمگونی اثر درمانی مرتبط هستند و این است وظیفه الگوریتم برای کشف آنها ، بدون استنباط بی اعتبار.من عملکرد این روش را از طریق شبیه سازی مونت کارلو مطالعه کرده و اعمال کنید آن را به مجموعه داده های جمع آوری شده توسط Pop-Eleches و Urquiola (2013) برای کشف منابع مختلف ناهمگونی در تأثیر حضور در یک ثانویه بهتر مدرسه در رومانی.
35,163
We explore the properties of optimal multi-dimensional auctions in a model where a single object of multiple qualities is sold to several buyers. Using simulations, we test some hypotheses conjectured by Belloni et al. [3] and Kushnir and Shourideh [7]. As part of this work, we provide the first open-source library for multi-dimensional auction simulations written in Python.
ما خواص حراج های بهینه چند بعدی را در یک مدل بررسی می کنیم جایی که یک شیء واحد از خصوصیات متعدد به چندین خریدار فروخته می شود.استفاده كردن شبیه سازی ، ما برخی فرضیه ها را که توسط بلونی و همکاران حدس زده شده است ، آزمایش می کنیم.[3] و کوشنیر و شوورید [7].به عنوان بخشی از این کار ، ما اولین کار را ارائه می دهیم کتابخانه منبع باز برای شبیه سازی های حراج چند بعدی نوشته شده در پایتون
30,448
This paper studies identification and inference in transformation models with endogenous censoring. Many kinds of duration models, such as the accelerated failure time model, proportional hazard model, and mixed proportional hazard model, can be viewed as transformation models. We allow the censoring of a duration outcome to be arbitrarily correlated with observed covariates and unobserved heterogeneity. We impose no parametric restrictions on either the transformation function or the distribution function of the unobserved heterogeneity. In this setting, we develop bounds on the regression parameters and the transformation function, which are characterized by conditional moment inequalities involving U-statistics. We provide inference methods for them by constructing an inference approach for conditional moment inequality models in which the sample analogs of moments are U-statistics. We apply the proposed inference methods to evaluate the effect of heart transplants on patients' survival time using data from the Stanford Heart Transplant Study.
این مقاله به بررسی شناسایی و استنباط در مدل های تحول با سانسور درون زا.انواع بسیاری از مدل ها ، مانند شتاب مدل زمان شکست ، مدل خطر متناسب و خطر متناسب متناسب مدل ، می تواند به عنوان مدل های تحول مشاهده شود.ما اجازه می دهیم سانسور a نتیجه مدت زمان به طور خودسرانه با همبستگی های مشاهده شده و ناهمگونی بدون نظارت.ما هیچ محدودیت پارامتری را به هیچ وجه تحمیل نمی کنیم تابع تحول یا عملکرد توزیع بی نظیر ناهمگونیدر این تنظیم ، ما در پارامترهای رگرسیون محدودیتی ایجاد می کنیم و عملکرد تحول ، که با لحظه مشروط مشخص می شوند نابرابری های مربوط به آمار U.ما روشهای استنتاج را برای آنها ارائه می دهیم ساخت یک رویکرد استنباط برای مدل های نابرابری لحظه مشروط در که نمونه آنالوگ های لحظه ها u-statistics هستند.ما پیشنهادی را اعمال می کنیم روشهای استنباط برای ارزیابی تأثیر پیوند قلب بر بیماران زمان بقا با استفاده از داده های مطالعه پیوند قلب استنفورد.
30,449
Many differentiated products have key attributes that are unstructured and thus high-dimensional (e.g., design, text). Instead of treating unstructured attributes as unobservables in economic models, quantifying them can be important to answer interesting economic questions. To propose an analytical framework for this type of products, this paper considers one of the simplest design products -- fonts -- and investigates merger and product differentiation using an original dataset from the world's largest online marketplace for fonts. We quantify font shapes by constructing embeddings from a deep convolutional neural network. Each embedding maps a font's shape onto a low-dimensional vector. In the resulting product space, designers are assumed to engage in Hotelling-type spatial competition. From the image embeddings, we construct two alternative measures that capture the degree of design differentiation. We then study the causal effects of a merger on the merging firm's creative decisions using the constructed measures in a synthetic control method. We find that the merger causes the merging firm to increase the visual variety of font design. Notably, such effects are not captured when using traditional measures for product offerings (e.g., specifications and the number of products) constructed from structured data.
بسیاری از محصولات متمایز ویژگی های کلیدی دارند که بدون ساختار هستند و بنابراین با ابعاد بالا (به عنوان مثال ، طراحی ، متن).به جای درمان بدون ساختار ویژگی ها به عنوان ناآگاه در مدل های اقتصادی ، کمیت آنها می تواند باشد برای پاسخ به سوالات جالب اقتصادی مهم است.برای پیشنهاد تحلیلی چارچوب این نوع محصولات ، این مقاله یکی از ساده ترین را در نظر می گیرد محصولات طراحی - قلم - و تفکیک ادغام و محصول را بررسی می کند استفاده از یک مجموعه داده اصلی از بزرگترین بازار آنلاین جهان برای قلمما با ساخت تعبیه از اعماق ، شکل فونت را کمیت می کنیم شبکه عصبی حلقوی.هر تعبیه شکل یک قلم را بر روی a قرار می دهد بردار کم بعدی.در فضای محصول حاصل ، طراحان فرض می شوند برای شرکت در رقابت مکانی از نوع هتل.از تعبیه های تصویر ، ما دو اقدام جایگزین ایجاد کنید که میزان طراحی را ضبط می کنند تفکیک.سپس اثرات علی یک ادغام را در ادغام بررسی می کنیم تصمیمات خلاقانه شرکت با استفاده از اقدامات ساخته شده در یک کنترل مصنوعی روش.ما می دانیم که ادغام باعث می شود شرکت ادغام افزایش بصری را افزایش دهد تنوع طراحی قلم.نکته قابل توجه ، چنین اثرات هنگام استفاده ضبط نمی شوند اقدامات سنتی برای ارائه محصولات (به عنوان مثال ، مشخصات و تعداد آنها از محصولات) ساخته شده از داده های ساختاری.
30,450
A factor copula model is proposed in which factors are either simulable or estimable from exogenous information. Point estimation and inference are based on a simulated methods of moments (SMM) approach with non-overlapping simulation draws. Consistency and limiting normality of the estimator is established and the validity of bootstrap standard errors is shown. Doing so, previous results from the literature are verified under low-level conditions imposed on the individual components of the factor structure. Monte Carlo evidence confirms the accuracy of the asymptotic theory in finite samples and an empirical application illustrates the usefulness of the model to explain the cross-sectional dependence between stock returns.
یک مدل فاکتور کوپلا پیشنهاد شده است که در آن عوامل شبیه سازی یا از اطلاعات اگزوژن قابل تخمین است.برآورد نقطه و استنباط مبتنی است با روش شبیه سازی شده از لحظات (SMM) با غیر همپوشانی طراحی شبیه سازی.قوام و محدود کردن نرمال بودن برآوردگر است ایجاد شده و اعتبار خطاهای استاندارد Bootstrap نشان داده شده است.انجام این کار ، نتایج قبلی از ادبیات در شرایط سطح پایین تأیید می شود تحمیل شده به مؤلفه های فردی ساختار عاملی.مونت کارلو شواهد صحت نظریه بدون علامت را در نمونه های محدود و یک برنامه تجربی سودمندی مدل را برای توضیح توضیح می دهد وابستگی مقطعی بین بازده سهام.
30,451
This article is an introduction to machine learning for financial forecasting, planning and analysis (FP\&A). Machine learning appears well suited to support FP\&A with the highly automated extraction of information from large amounts of data. However, because most traditional machine learning techniques focus on forecasting (prediction), we discuss the particular care that must be taken to avoid the pitfalls of using them for planning and resource allocation (causal inference). While the naive application of machine learning usually fails in this context, the recently developed double machine learning framework can address causal questions of interest. We review the current literature on machine learning in FP\&A and illustrate in a simulation study how machine learning can be used for both forecasting and planning. We also investigate how forecasting and planning improve as the number of data points increases.
این مقاله مقدمه ای برای یادگیری ماشین برای مالی است پیش بینی ، برنامه ریزی و تجزیه و تحلیل (FP \ & A).یادگیری ماشین خوب به نظر می رسد مناسب برای پشتیبانی از FP \ & A با استخراج بسیار خودکار اطلاعات از مقادیر زیادی از داده ها.با این حال ، زیرا بیشتر یادگیری ماشین سنتی تکنیک ها بر پیش بینی (پیش بینی) تمرکز می کنند ، ما در مورد مراقبت خاص بحث می کنیم برای جلوگیری از مشکلات استفاده از آنها برای برنامه ریزی و تخصیص منابع (استنتاج علی).در حالی که کاربرد ساده دستگاه یادگیری معمولاً در این زمینه از بین می رود ، دستگاه دوتایی که اخیراً توسعه یافته است چارچوب یادگیری می تواند به سؤالات علّی مورد علاقه بپردازد.ما مرور می کنیم ادبیات فعلی در مورد یادگیری ماشین در FP \ & a و در یک شبیه سازی نشان می دهد بررسی کنید که چگونه می توان از یادگیری ماشین برای پیش بینی و برنامه ریزی استفاده کرد.ما همچنین بررسی کنید که چگونه پیش بینی و برنامه ریزی به عنوان تعداد داده ها بهبود می یابد امتیاز افزایش می یابد.
30,452
The proportional odds cumulative logit model (POCLM) is a standard regression model for an ordinal response. Ordinality of predictors can be incorporated by monotonicity constraints for the corresponding parameters. It is shown that estimators defined by optimization, such as maximum likelihood estimators, for an unconstrained model and for parameters in the interior set of the parameter space of a constrained model are asymptotically equivalent. This is used in order to derive asymptotic confidence regions and tests for the constrained model, involving simple modifications for finite samples. The finite sample coverage probability of the confidence regions is investigated by simulation. Tests concern the effect of individual variables, monotonicity, and a specified monotonicity direction. The methodology is applied on real data related to the assessment of school performance.
مدل logit تجمعی شانس متناسب (POCLM) یک رگرسیون استاندارد است مدل برای یک پاسخ نظم.ترتیب پیش بینی کننده ها می توانند توسط محدودیت های یکنواختی برای پارامترهای مربوطه.نشان داده شده است که برآوردگرهای تعریف شده توسط بهینه سازی ، مانند برآوردگرهای حداکثر ، برای یک مدل بدون محدودیت و برای پارامترهای موجود در مجموعه داخلی پارامتر فضای یک مدل محدود به صورت مجانبی معادل است.این در استفاده می شود به منظور به دست آوردن مناطق اعتماد به نفس بدون علامت و آزمایشات محدود شده مدل ، شامل اصلاحات ساده برای نمونه های محدود.نمونه محدود احتمال پوشش مناطق اعتماد به نفس با شبیه سازی بررسی شده است. آزمایشات مربوط به تأثیر متغیرهای فردی ، یکنواختی و مشخص شده است جهت یکنواختی.این روش بر روی داده های واقعی مربوط به ارزیابی عملکرد مدرسه.
30,453
In nonseparable triangular models with a binary endogenous treatment and a binary instrumental variable, Vuong and Xu (2017) established identification results for individual treatment effects (ITEs) under the rank invariance assumption. Using their approach, Feng, Vuong, and Xu (2019) proposed a uniformly consistent kernel estimator for the density of the ITE that utilizes estimated ITEs. In this paper, we establish the asymptotic normality of the density estimator of Feng, Vuong, and Xu (2019) and show that the ITE estimation errors have a non-negligible effect on the asymptotic distribution of the estimator. We propose asymptotically valid standard errors that account for ITEs estimation, as well as a bias correction. Furthermore, we develop uniform confidence bands for the density of the ITE using the jackknife multiplier or nonparametric bootstrap critical values.
در مدلهای مثلثی غیر قابل جدا شدن با یک درمان درون زا باینری و متغیر ابزاری باینری ، Vuong و Xu (2017) شناسایی را ایجاد کردند نتایج برای اثرات درمانی فردی (ITE) تحت تغییر رتبه بندی فرض.با استفاده از رویکرد آنها ، فنگ ، وونگ و Xu (2019) پیشنهاد داد برآوردگر هسته به طور یکنواخت سازگار برای چگالی ITE که از آن استفاده می کند ites تخمین زده شده است.در این مقاله ، ما عادی بودن بدون علامت را تعیین می کنیم برآوردگر چگالی فنگ ، ووونگ و Xu (2019) و نشان می دهد که ite خطاهای برآورد تأثیر غیر قابل بحث در توزیع بدون علامت دارند از برآوردگرما خطاهای استاندارد بدون علامت معتبر را ارائه می دهیم که حساب می کنند برای تخمین ITES ، و همچنین اصلاح تعصب.علاوه بر این ، ما توسعه می دهیم باند اعتماد به نفس یکنواخت برای چگالی ITE با استفاده از jackknife مقادیر بحرانی بوت استرپ چند برابر یا غیر پارامتری.
34,454
We describe a two-stage mechanism that fully implements the set of efficient outcomes in two-agent environments with quasi-linear utilities. The mechanism asks one agent to set prices for each outcome, and the other agent to make a choice, paying the corresponding price: Price \& Choose. We extend our implementation result in three main directions: an arbitrary number of players, non-quasi linear utilities, and robustness to max-min behavior. Finally, we discuss how to reduce the payoff inequality between players while still achieving efficiency.
ما یک مکانیسم دو مرحله ای را توصیف می کنیم که مجموعه ای از کارآمد را به طور کامل پیاده سازی می کند نتایج در محیط های دو عامل با خدمات شبه خطی.مکانیسم از یک نماینده می خواهد که قیمت هر نتیجه را تعیین کند ، و عامل دیگر برای ساختن انتخاب ، پرداخت قیمت مربوطه: قیمت \ و انتخاب کنید.ما خود را گسترش می دهیم اجرای در سه جهت اصلی: تعداد دلخواه بازیکنان ، برنامه های خطی غیر Quasi و استحکام در رفتار حداکثر دقیقه.بالاخره ، ما در مورد چگونگی کاهش نابرابری بازپرداخت بین بازیکنان در حالی که هنوز هم است بحث کنید دستیابی به کارآیی.
30,454
Score tests have the advantage of requiring estimation alone of the model restricted by the null hypothesis, which often is much simpler than models defined under the alternative hypothesis. This is typically so when the alternative hypothesis involves inequality constraints. However, existing score tests address only jointly testing all parameters of interest; a leading example is testing all ARCH parameters or variances of random coefficients being zero or not. In such testing problems rejection of the null hypothesis does not provide evidence on rejection of specific elements of parameter of interest. This paper proposes a class of one-sided score tests for testing a model parameter that is subject to inequality constraints. Proposed tests are constructed based on the minimum of a set of $p$-values. The minimand includes the $p$-values for testing individual elements of parameter of interest using individual scores. It may be extended to include a $p$-value of existing score tests. We show that our tests perform better than/or perform as good as existing score tests in terms of joint testing, and has furthermore the added benefit of allowing for simultaneously testing individual elements of parameter of interest. The added benefit is appealing in the sense that it can identify a model without estimating it. We illustrate our tests in linear regression models, ARCH and random coefficient models. A detailed simulation study is provided to examine the finite sample performance of the proposed tests and we find that our tests perform well as expected.
آزمون های نمره این مزیت را دارند که به تنهایی مدل نیاز به تخمین مدل دارند محدود با فرضیه تهی ، که اغلب بسیار ساده تر از مدل ها است تحت فرضیه جایگزین تعریف شده است.این به طور معمول است که وقتی فرضیه جایگزین شامل محدودیت های نابرابری است.با این حال ، نمره موجود تست ها فقط به طور مشترک همه پارامترهای مورد علاقه را آزمایش می کنند.یک پیشرو مثال آزمایش تمام پارامترهای قوس یا واریانس ضرایب تصادفی است صفر بودن یا نهدر چنین تست مشکلات رد فرضیه تهی شواهدی در مورد رد عناصر خاص پارامتر ارائه نمی دهد علاقه.در این مقاله یک کلاس از تست های نمره یک طرفه برای آزمایش a پیشنهاد شده است پارامتر مدل که در معرض محدودیت های نابرابری است.تست های پیشنهادی هستند ساخته شده بر اساس حداقل مجموعه ای از مقادیر $ P $.حداقل شامل می شود مقادیر $ P $ برای آزمایش عناصر فردی پارامتر مورد علاقه با استفاده از نمرات فردیاین ممکن است شامل یک ارزش $ P $ از نمره موجود باشد آزمون هاما نشان می دهیم که تست های ما عملکرد بهتری از/یا عملکرد خوب دارند تست های نمره موجود از نظر آزمایش مشترک ، و علاوه بر این اضافه شده است سود این امکان را برای آزمایش همزمان عناصر فردی پارامتر فراهم می کند مورد علاقه.سود اضافه شده جذاب است به این معنا که می تواند یک را شناسایی کند مدل بدون تخمین آن.ما آزمون های خود را در رگرسیون خطی نشان می دهیم مدل ها ، مدل های قوس و ضریب تصادفی.یک مطالعه شبیه سازی دقیق است ارائه شده برای بررسی عملکرد نمونه محدود آزمون های پیشنهادی و ما دریابید که تست های ما همانطور که انتظار می رود عملکرد خوبی دارند.
30,455
This paper provides three results for SVARs under the assumption that the primitive shocks are mutually independent. First, a framework is proposed to accommodate a disaster-type variable with infinite variance into a SVAR. We show that the least squares estimates of the SVAR are consistent but have non-standard asymptotics. Second, the disaster shock is identified as the component with the largest kurtosis and whose impact effect is negative. An estimator that is robust to infinite variance is used to recover the mutually independent components. Third, an independence test on the residuals pre-whitened by the Choleski decomposition is proposed to test the restrictions imposed on a SVAR. The test can be applied whether the data have fat or thin tails, and to over as well as exactly identified models. Three applications are considered. In the first, the independence test is used to shed light on the conflicting evidence regarding the role of uncertainty in economic fluctuations. In the second, disaster shocks are shown to have short term economic impact arising mostly from feedback dynamics. The third uses the framework to study the dynamic effects of economic shocks post-covid.
در این مقاله سه نتیجه برای SVAR با این فرض که شوکهای بدوی مستقل هستند.اول ، یک چارچوب پیشنهاد شده است یک متغیر از نوع فاجعه را با واریانس نامحدود در SVAR قرار دهید.ما نشان می دهد که کمترین تخمین مربع از SVAR سازگار است اما دارای بدون علامت غیر استاندارد.دوم ، شوک فاجعه به عنوان مؤلفه با بزرگترین کورتوز و تأثیر تأثیر آن منفی است.در برآوردگر که به واریانس بی نهایت قوی است برای بازیابی متقابل استفاده می شود اجزای مستقل.سوم ، یک آزمایش استقلال در باقیمانده ها برای آزمایش محدودیت ها از قبل توسط تجزیه Choleski پیشنهاد شده است تحمیل شده به SVAR.این آزمایش می تواند اعمال شود چه داده های چربی یا نازک داشته باشند دم ، و به و همچنین مدل های دقیقاً مشخص شده.سه برنامه است در نظر گرفته شده.در وهله اول ، از آزمایش استقلال برای روشن کردن نور استفاده می شود شواهد متناقض در مورد نقش عدم اطمینان در اقتصادی نوساناتدر دوم ، شوک های فاجعه کوتاه مدت نشان داده شده است تأثیر اقتصادی که بیشتر ناشی از پویایی بازخورد است.سوم استفاده می کند چارچوب برای بررسی اثرات پویا شوک های اقتصادی پس از کاو.
30,456
We consider a class of semi-parametric dynamic models with strong white noise errors. This class of processes includes the standard Vector Autoregressive (VAR) model, the nonfundamental structural VAR, the mixed causal-noncausal models, as well as nonlinear dynamic models such as the (multivariate) ARCH-M model. For estimation of processes in this class, we propose the Generalized Covariance (GCov) estimator, which is obtained by minimizing a residual-based multivariate portmanteau statistic as an alternative to the Generalized Method of Moments. We derive the asymptotic properties of the GCov estimator and of the associated residual-based portmanteau statistic. Moreover, we show that the GCov estimators are semi-parametrically efficient and the residual-based portmanteau statistics are asymptotically chi-square distributed. The finite sample performance of the GCov estimator is illustrated in a simulation study. The estimator is also applied to a dynamic model of cryptocurrency prices.
ما یک کلاس از مدل های پویا نیمه پارامتری با سر و صدای سفید قوی را در نظر می گیریم خطااین کلاس از فرآیندها شامل یک وکتور استاندارد خودکار است (VAR) مدل ، ساختاری ساختاری غیر تأمین شده ، علی علی علی مدل ها ، و همچنین مدل های پویا غیرخطی مانند Arch-M (چند متغیره) مدل.برای برآورد فرآیندها در این کلاس ، ما تعمیم یافته را پیشنهاد می کنیم برآوردگر کواریانس (GCOV) ، که با به حداقل رساندن یک باقیمانده به دست می آید آمار چند متغیره Portmanteau به عنوان جایگزینی برای روش تعمیم یافته از لحظاتما خصوصیات بدون علامت برآوردگر GCOV و از آماری مبتنی بر Portmanteau مبتنی بر باقیمانده.علاوه بر این ، ما نشان می دهیم که برآوردگرهای GCOV از نظر نیمه پارامتری کارآمد و مبتنی بر باقیمانده هستند آمار Portmanteau به صورت بدون علامت مجذور کای توزیع شده است.محدود عملکرد نمونه برآوردگر GCOV در یک مطالعه شبیه سازی نشان داده شده است. این برآوردگر همچنین به یک مدل پویا از قیمت های رمزنگاری اعمال می شود.
30,457
Macroeconomists using large datasets often face the choice of working with either a large Vector Autoregression (VAR) or a factor model. In this paper, we develop methods for combining the two using a subspace shrinkage prior. Subspace priors shrink towards a class of functions rather than directly forcing the parameters of a model towards some pre-specified location. We develop a conjugate VAR prior which shrinks towards the subspace which is defined by a factor model. Our approach allows for estimating the strength of the shrinkage as well as the number of factors. After establishing the theoretical properties of our proposed prior, we carry out simulations and apply it to US macroeconomic data. Using simulations we show that our framework successfully detects the number of factors. In a forecasting exercise involving a large macroeconomic data set we find that combining VARs with factor models using our prior can lead to forecast improvements.
اقتصاد شناسان کلان با استفاده از مجموعه داده های بزرگ اغلب با انتخاب کار با آنها روبرو هستند یا یک بردار بزرگ بردار (VAR) یا یک مدل فاکتور.در این مقاله ، ما روش هایی را برای ترکیب این دو با استفاده از یک فضای زیر فضای قبلی ایجاد کنید. Priors Subpace به جای مستقیم به سمت یک کلاس از کارکردها کوچک می شوند مجبور کردن پارامترهای یک مدل به سمت برخی از مکان های از پیش تعیین شده.ما پیش از این یک پیشانی مزدوج ایجاد کنید که به سمت فضای زیر فضای آن کوچک می شود تعریف شده توسط یک مدل فاکتور.رویکرد ما امکان تخمین قدرت را فراهم می کند انقباض و همچنین تعداد عوامل.پس از ایجاد خصوصیات نظری قبلی پیشنهادی ما ، ما شبیه سازی ها را انجام می دهیم و آن را برای داده های کلان اقتصادی استفاده کنید.با استفاده از شبیه سازی ها نشان می دهیم که چارچوب ما با موفقیت تعداد عوامل را تشخیص می دهد.در یک تمرین پیش بینی کننده یک مجموعه داده کلان اقتصادی بزرگ متوجه می شویم که ترکیب VAR ها با مدل های فاکتور استفاده از قبلی ما می تواند منجر به پیشرفت های پیش بینی شود.
30,458
Empirical regression discontinuity (RD) studies often use covariates to increase the precision of their estimates. In this paper, we propose a novel class of estimators that use such covariate information more efficiently than the linear adjustment estimators that are currently used widely in practice. Our approach can accommodate a possibly large number of either discrete or continuous covariates. It involves running a standard RD analysis with an appropriately modified outcome variable, which takes the form of the difference between the original outcome and a function of the covariates. We characterize the function that leads to the estimator with the smallest asymptotic variance, and show how it can be estimated via modern machine learning, nonparametric regression, or classical parametric methods. The resulting estimator is easy to implement, as tuning parameters can be chosen as in a conventional RD analysis. An extensive simulation study illustrates the performance of our approach.
ناپیوستگی رگرسیون تجربی (RD) مطالعات اغلب از متغیرهای متغیر استفاده می کنند دقت تخمین های آنها را افزایش دهید.در این مقاله ، ما رمان را پیشنهاد می کنیم کلاس برآوردگرهایی که از چنین اطلاعات متغیر استفاده می کنند تا کارآمدتر از برآوردگرهای تنظیم خطی که در حال حاضر در عمل بسیار مورد استفاده قرار می گیرند. رویکرد ما می تواند تعداد زیادی از گسسته ها را در خود جای دهد متغیرهای متغیر مداوم.این شامل اجرای یک تجزیه و تحلیل استاندارد RD با یک است متغیر نتیجه مناسب اصلاح شده ، که شکل تفاوت را در نظر می گیرد بین نتیجه اصلی و عملکردی از متغیرها.ما توصیف می کنیم عملکردی که با کوچکترین واریانس بدون علامت به برآوردگر منتهی می شود ، و نشان دهید که چگونه می توان آن را از طریق یادگیری ماشین مدرن ، غیرپارامتری تخمین زد رگرسیون یا روشهای پارامتری کلاسیک.برآوردگر حاصل آسان است پیاده سازی ، به عنوان پارامترهای تنظیم می تواند مانند یک تجزیه و تحلیل RD معمولی انتخاب شود. یک مطالعه شبیه سازی گسترده ، عملکرد رویکرد ما را نشان می دهد.
30,459
Latent variable models are becoming increasingly popular in economics for high-dimensional categorical data such as text and surveys. Often the resulting low-dimensional representations are plugged into downstream econometric models that ignore the statistical structure of the upstream model, which presents serious challenges for valid inference. We show how Hamiltonian Monte Carlo (HMC) implemented with parallelized automatic differentiation provides a computationally efficient, easy-to-code, and statistically robust solution for this problem. Via a series of applications, we show that modeling integrated structure can non-trivially affect inference and that HMC appears to markedly outperform current approaches to inference in integrated models.
مدل های متغیر نهفته در اقتصاد به طور فزاینده ای محبوب می شوند داده های طبقه بندی شده با ابعاد بالا مانند متن و نظرسنجی.اغلب نتیجه بازنمایی های کم بعدی به مدلهای اقتصاد سنجی پایین دست وصل می شوند که ساختار آماری مدل بالادست را که ارائه می دهد نادیده می گیرد چالش های جدی برای استنباط معتبر.ما نشان می دهیم که چگونه همیلتون مونت کارلو (HMC) که با تمایز خودکار موازی اجرا شده است از نظر محاسباتی کارآمد ، کاربردی آسان و از نظر آماری قوی برای این مشکل.از طریق یک سری برنامه ها ، ما نشان می دهیم که مدل سازی یکپارچه است ساختار می تواند به طور غیر واقعی بر استنباط تأثیر بگذارد و به نظر می رسد HMC به طور قابل توجهی به نظر می رسد رویکردهای فعلی برای استنتاج در مدلهای یکپارچه.
30,460
This paper extends the idea of decoupling shrinkage and sparsity for continuous priors to Bayesian Quantile Regression (BQR). The procedure follows two steps: In the first step, we shrink the quantile regression posterior through state of the art continuous priors and in the second step, we sparsify the posterior through an efficient variant of the adaptive lasso, the signal adaptive variable selection (SAVS) algorithm. We propose a new variant of the SAVS which automates the choice of penalisation through quantile specific loss-functions that are valid in high dimensions. We show in large scale simulations that our selection procedure decreases bias irrespective of the true underlying degree of sparsity in the data, compared to the un-sparsified regression posterior. We apply our two-step approach to a high dimensional growth-at-risk (GaR) exercise. The prediction accuracy of the un-sparsified posterior is retained while yielding interpretable quantile specific variable selection results. Our procedure can be used to communicate to policymakers which variables drive downside risk to the macro economy.
این مقاله ایده جدا کردن انقباض و کمبود را گسترش می دهد مقدمات مداوم به رگرسیون کوانتین بیزی (BQR).این روش به شرح زیر است دو مرحله: در مرحله اول ، خلفی رگرسیون کمی را کوچک می کنیم از طریق دولت مقدماتی و در مرحله دوم ، ما را پراکنده می کنیم خلفی از طریق یک نوع کارآمد از لاسو تطبیقی ​​، سیگنال الگوریتم انتخاب متغیر تطبیقی ​​(SAVS).ما یک نوع جدید از پس انداز می کند که انتخاب مجازات را از طریق خاص Quantile خودکار می کند عملکردهای ضرر که در ابعاد بالا معتبر هستند.ما در مقیاس بزرگ نشان می دهیم شبیه سازی هایی که روش انتخاب ما بدون در نظر گرفتن تعصب کاهش می یابد درجه زیربنایی واقعی پراکندگی در داده ها ، در مقایسه با غیرقانونی خلفی رگرسیون.ما رویکرد دو مرحله ای خود را به یک ابعاد بالا اعمال می کنیم تمرین رشد در معرض خطر (GAR).دقت پیش بینی غیرقانونی خلفی در حالی که متغیر خاص قابل تفسیر قابل تفسیر است حفظ می شود نتایج انتخاباز روش ما می توان برای برقراری ارتباط با سیاست گذاران استفاده کرد که متغیرها خطر نزولی را برای اقتصاد کلان سوق می دهند.
30,461
Income inequality estimators are biased in small samples, leading generally to an underestimation. This aspect deserves particular attention when estimating inequality in small domains and performing small area estimation at the area level. We propose a bias correction framework for a large class of inequality measures comprising the Gini Index, the Generalized Entropy and the Atkinson index families by accounting for complex survey designs. The proposed methodology does not require any parametric assumption on income distribution, being very flexible. Design-based performance evaluation of our proposal has been carried out using EU-SILC data, their results show a noticeable bias reduction for all the measures. Lastly, an illustrative example of application in small area estimation confirms that ignoring ex-ante bias correction determines model misspecification.
برآوردگرهای نابرابری درآمدی در نمونه های کوچک مغرضانه هستند و به طور کلی منجر می شوند به دست کم گرفتناین جنبه سزاوار توجه ویژه ای است تخمین نابرابری در حوزه های کوچک و انجام تخمین منطقه کوچک در سطح منطقهما یک چارچوب تصحیح تعصب را برای یک کلاس بزرگ پیشنهاد می کنیم اقدامات نابرابری شامل شاخص جینی ، آنتروپی عمومی و خانواده های شاخص اتکینسون با حسابداری از طرح های پیمایشی پیچیده.پیشنهاد روش شناسی نیازی به فرض پارامتری در مورد توزیع درآمد ندارد ، بسیار انعطاف پذیر بودنارزیابی عملکرد مبتنی بر طراحی از پیشنهاد ما با استفاده از داده های EU-SILC انجام شده است ، نتایج آنها تعصب قابل توجه را نشان می دهد کاهش برای همه اقدامات.در آخر ، یک نمونه مصور از کاربرد در تخمین منطقه کوچک تأیید می کند که نادیده گرفتن اصلاح تعصب سابق تعیین غلط مدل را تعیین می کند.
30,462
We examine machine learning and factor-based portfolio optimization. We find that factors based on autoencoder neural networks exhibit a weaker relationship with commonly used characteristic-sorted portfolios than popular dimensionality reduction techniques. Machine learning methods also lead to covariance and portfolio weight structures that diverge from simpler estimators. Minimum-variance portfolios using latent factors derived from autoencoders and sparse methods outperform simpler benchmarks in terms of risk minimization. These effects are amplified for investors with an increased sensitivity to risk-adjusted returns, during high volatility periods or when accounting for tail risk.
ما یادگیری ماشین و بهینه سازی نمونه کارها مبتنی بر فاکتور را بررسی می کنیم.ما پیدا می کنیم این عوامل مبتنی بر شبکه های عصبی AutoEncoder رابطه ضعیف تری دارند با پرتفوی های مرتب شده متداول نسبت به ابعاد محبوب تکنیک های کاهشروشهای یادگیری ماشین همچنین منجر به کواریانس و ساختارهای وزن نمونه کارها که از برآوردگرهای ساده تر جدا می شوند. اوراق بهادار حداقل واریانس با استفاده از فاکتورهای نهفته حاصل از autoencoders و روشهای پراکنده از معیارهای ساده تر از نظر به حداقل رساندن ریسک بهتر است. این اثرات برای سرمایه گذاران با افزایش حساسیت به آن تقویت می شود بازده تنظیم شده ریسک ، در دوره های نوسانات بالا یا هنگام حساب کردن خطر دم
30,463
We study inference on the common stochastic trends in a non-stationary, $N$-variate time series $y_{t}$, in the possible presence of heavy tails. We propose a novel methodology which does not require any knowledge or estimation of the tail index, or even knowledge as to whether certain moments (such as the variance) exist or not, and develop an estimator of the number of stochastic trends $m$ based on the eigenvalues of the sample second moment matrix of $y_{t}$. We study the rates of such eigenvalues, showing that the first $m$ ones diverge, as the sample size $T$ passes to infinity, at a rate faster by $O\left(T \right)$ than the remaining $N-m$ ones, irrespective of the tail index. We thus exploit this eigen-gap by constructing, for each eigenvalue, a test statistic which diverges to positive infinity or drifts to zero according to whether the relevant eigenvalue belongs to the set of the first $m$ eigenvalues or not. We then construct a randomised statistic based on this, using it as part of a sequential testing procedure, ensuring consistency of the resulting estimator of $m$. We also discuss an estimator of the common trends based on principal components and show that, up to a an invertible linear transformation, such estimator is consistent in the sense that the estimation error is of smaller order than the trend itself. Finally, we also consider the case in which we relax the standard assumption of \textit{i.i.d.} innovations, by allowing for heterogeneity of a very general form in the scale of the innovations. A Monte Carlo study shows that the proposed estimator for $m$ performs particularly well, even in samples of small size. We complete the paper by presenting four illustrative applications covering commodity prices, interest rates data, long run PPP and cryptocurrency markets.
ما استنتاج را بر روی روندهای تصادفی مشترک در یک غیر ثابت مطالعه می کنیم ، $ n $-series زمان متغیر $ y_ {t} $ ، در حضور احتمالی دمهای سنگین.ما یک روش جدید را پیشنهاد کنید که نیازی به دانش یا تخمین ندارد از شاخص دم یا حتی دانش در مورد لحظات خاص (مانند واریانس) وجود دارد یا نه ، و برآوردگر تعداد تصادفی را توسعه دهید روند $ m $ بر اساس مقادیر ویژه نمونه ماتریس لحظه دوم نمونه $ y_ {t} $.ما نرخ چنین مقادیر ویژه ای را مطالعه می کنیم ، نشان می دهد که اولین دلار $ $ آنهایی که واگرایی می کنند ، زیرا اندازه نمونه $ t $ به بی نهایت منتقل می شود ، با سرعت بیشتری $ o \ سمت چپ (t \ راست) $ نسبت به $ n-m $ باقی مانده ، صرف نظر از دم فهرست مطالب.بنابراین ما با ساخت ، برای هر مقادیر ویژه ، از این شکاف ویژه سوء استفاده می کنیم آماری را آزمایش کنید که به بی نهایت مثبت یا به صفر برسد به اینکه آیا مقادیر ویژه مربوط به مجموعه اولین $ m $ است مقادیر ویژه یا نه.ما سپس یک آمار تصادفی بر اساس این امر می سازیم ، استفاده از آن به عنوان بخشی از یک روش آزمایش متوالی ، اطمینان از قوام برآوردگر نتیجه $ M $.ما همچنین در مورد تخمین روندهای مشترک بحث می کنیم بر اساس مؤلفه های اصلی و نشان می دهد که ، تا یک خطی غیرقابل برگشت تحول ، چنین برآوردگر به این معنا که تخمین سازگار است سازگار است خطا از نظم کوچکتر از خود روند است.سرانجام ، ما نیز در نظر می گیریم موردی که در آن ما فرض استاندارد \ textit {i.i.d را آرام می کنیم ، نوآوری ها ، با اجازه ناهمگونی یک شکل بسیار کلی در مقیاس نوآوری ها.یک مطالعه مونت کارلو نشان می دهد که برآوردگر پیشنهادی برای $ M $ حتی در نمونه هایی با اندازه کوچک ، به ویژه عملکرد خوبی دارد.ما کامل را کامل می کنیم مقاله با ارائه چهار برنامه مصور که قیمت کالاها را پوشش می دهد ، داده های نرخ بهره ، بازارهای طولانی مدت PPP و cryptocurrency.
30,464
We develop a Stata command, bootranktest, for implementing the matrix rank test of Chen and Fang (2019) in linear instrumental variable regression models. Existing rank tests employ critical values that may be too small, and hence may not even be first order valid in the sense that they may fail to control the Type I error. By appealing to the bootstrap, they devise a test that overcomes the deficiency of existing tests. The command bootranktest implements the two-step version of their test, and also the analytic version if chosen. The command also accommodates data with temporal and cluster dependence.
ما برای اجرای رتبه ماتریس یک دستور stata ، bootranktest تهیه می کنیم آزمون چن و نیش (2019) در مدلهای رگرسیون متغیر ابزاری خطی. آزمون های رتبه موجود از مقادیر بحرانی استفاده می کنند که ممکن است خیلی کوچک باشد و از این رو ممکن است حتی مرتبه اول معتبر نیست به این معنا که ممکن است در کنترل آنها نتوانند خطای نوع I.آنها با جذابیت به بوت استرپ ، تست هایی را که بر آن غلبه می کند ، ابداع می کنند کمبود تست های موجود.Command Bootranktest پیاده سازی می کند نسخه دو مرحله ای از آزمون آنها و همچنین نسخه تحلیلی در صورت انتخاب.در Command همچنین داده ها را با وابستگی زمانی و خوشه ای قرار می دهد.
30,465
It is important for policymakers to understand which financial policies are effective in increasing climate risk disclosure in corporate reporting. We use machine learning to automatically identify disclosures of five different types of climate-related risks. For this purpose, we have created a dataset of over 120 manually-annotated annual reports by European firms. Applying our approach to reporting of 337 firms over the last 20 years, we find that risk disclosure is increasing. Disclosure of transition risks grows more dynamically than physical risks, and there are marked differences across industries. Country-specific dynamics indicate that regulatory environments potentially have an important role to play for increasing disclosure.
برای سیاستگذاران برای سیاست گذاران مهم است که سیاست های مالی کدام است در افزایش افشای خطر آب و هوا در گزارشگری شرکت ها مؤثر است.ما استفاده می کنیم یادگیری ماشین برای شناسایی خودکار افشای پنج نوع مختلف خطرات مرتبط با آب و هوابرای این منظور ، ما یک مجموعه داده از Over ایجاد کرده ایم 120 گزارش سالانه به صورت دستی توسط شرکت های اروپایی.استفاده از رویکرد ما برای گزارش 337 بنگاه در طی 20 سال گذشته ، متوجه می شویم که افشای خطر در حال افزایش است.افشای خطرات انتقال به صورت پویاتر از آن رشد می کند خطرات جسمی ، و تفاوت های قابل توجهی در صنایع وجود دارد. پویایی خاص کشور نشان می دهد که محیط های نظارتی به طور بالقوه نقش مهمی برای افزایش افشای افشای داشته باشید.