id
int64 28.8k
36k
| text
stringlengths 44
3.03k
| translation
stringlengths 36
2.47k
|
---|---|---|
30,172 | Our paper aims to model supply and demand curves of electricity day-ahead
auction in a parsimonious way. Our main task is to build an appropriate
algorithm to present the information about electricity prices and demands with
far less parameters than the original one. We represent each curve using
mesh-free interpolation techniques based on radial basis function
approximation. We describe results of this method for the day-ahead IPEX spot
price of Italy. | مقاله ما با هدف مدل سازی منحنی های عرضه و تقاضا روز برق در روز است
حراج به روشی پارسا.وظیفه اصلی ما ساخت مناسب است
الگوریتم برای ارائه اطلاعات در مورد قیمت ها و خواسته های برق با
پارامترهای بسیار کمتری نسبت به نسخه اصلی.ما هر منحنی را با استفاده از
تکنیک های درون یابی بدون مش بر اساس عملکرد پایه شعاعی
تقریبما نتایج این روش را برای نقطه IPEX در روز توصیف می کنیم
قیمت ایتالیا. |
30,173 | In time-series analysis, the term "lead-lag effect" is used to describe a
delayed effect on a given time series caused by another time series. lead-lag
effects are ubiquitous in practice and are specifically critical in formulating
investment strategies in high-frequency trading. At present, there are three
major challenges in analyzing the lead-lag effects. First, in practical
applications, not all time series are observed synchronously. Second, the size
of the relevant dataset and rate of change of the environment is increasingly
faster, and it is becoming more difficult to complete the computation within a
particular time limit. Third, some lead-lag effects are time-varying and only
last for a short period, and their delay lengths are often affected by external
factors. In this paper, we propose NAPLES (Negative And Positive lead-lag
EStimator), a new statistical measure that resolves all these problems. Through
experiments on artificial and real datasets, we demonstrate that NAPLES has a
strong correlation with the actual lead-lag effects, including those triggered
by significant macroeconomic announcements. | در تجزیه و تحلیل سری زمانی ، از اصطلاح "اثر سرب" برای توصیف a استفاده می شود
تأثیر تأخیر در یک سری زمانی معین ناشی از سری زمانی دیگر.شتاب - تأخیر
تأثیرات در عمل همه گیر هستند و به طور خاص در تدوین بسیار مهم هستند
استراتژی های سرمایه گذاری در معاملات با فرکانس بالا.در حال حاضر ، سه نفر وجود دارد
چالش های اساسی در تجزیه و تحلیل اثرات سرب.اول ، در عملی
برنامه ها ، تمام سری های زمانی به طور همزمان مشاهده نمی شوند.دوم ، اندازه
از مجموعه داده های مربوطه و میزان تغییر محیط به طور فزاینده ای است
سریعتر ، و تکمیل محاسبات در یک دشوارتر می شود
محدودیت زمانی خاص.سوم ، برخی از اثرات سرب و تنها متغیر است و فقط
آخرین بار برای یک دوره کوتاه ، و طول تأخیر آنها اغلب تحت تأثیر خارجی قرار می گیرد
عوامل.در این مقاله ، ناپل را پیشنهاد می کنیم (سرب منفی و مثبت
برآوردگر) ، یک اقدام آماری جدید که تمام این مشکلات را برطرف می کند.از طریق
آزمایش در مجموعه داده های مصنوعی و واقعی ، ما نشان می دهیم که ناپل دارای یک است
همبستگی قوی با اثرات واقعی سرب ، از جمله موارد تحریک شده
با اطلاعیه های کلان اقتصادی قابل توجه. |
30,174 | We develop inference procedures robust to general forms of weak dependence.
The procedures utilize test statistics constructed by resampling in a manner
that does not depend on the unknown correlation structure of the data. We prove
that the statistics are asymptotically normal under the weak requirement that
the target parameter can be consistently estimated at the parametric rate. This
holds for regular estimators under many well-known forms of weak dependence and
justifies the claim of dependence-robustness. We consider applications to
settings with unknown or complicated forms of dependence, with various forms of
network dependence as leading examples. We develop tests for both moment
equalities and inequalities. | ما روشهای استنباط را به اشکال عمومی وابستگی ضعیف قوی می کنیم.
این روشها از آمار آزمون ساخته شده با استفاده مجدد به روشی استفاده می کنند
این به ساختار همبستگی ناشناخته داده ها بستگی ندارد.ما ثابت می کنیم
که آمار تحت الزام ضعیف به صورت مجانبی طبیعی است
پارامتر هدف را می توان به طور مداوم با نرخ پارامتری تخمین زد.این
برای برآوردگرهای منظم تحت بسیاری از اشکال شناخته شده وابستگی ضعیف و
ادعای وابستگی را توجیه می کند.ما برنامه هایی را در نظر می گیریم
تنظیمات با اشکال وابستگی ناشناخته یا پیچیده ، با اشکال مختلف
وابستگی شبکه به عنوان نمونه های برجسته.ما هر دو لحظه تست ها را توسعه می دهیم
برابری و نابرابری ها. |
30,175 | This paper introduces a new stochastic process with values in the set Z of
integers with sign. The increments of process are Poisson differences and the
dynamics has an autoregressive structure. We study the properties of the
process and exploit the thinning representation to derive stationarity
conditions and the stationary distribution of the process. We provide a
Bayesian inference method and an efficient posterior approximation procedure
based on Monte Carlo. Numerical illustrations on both simulated and real data
show the effectiveness of the proposed inference. | در این مقاله یک فرآیند تصادفی جدید با مقادیر موجود در مجموعه z از
اعداد صحیح با علامت.افزایش فرآیند تفاوت های پواسون و
Dynamics ساختار خودکار دارد.ما خواص
پردازش و سوءاستفاده از نمایندگی نازک برای به دست آوردن ثابت بودن
شرایط و توزیع ثابت روند.ما ارائه می دهیم
روش استنتاج بیزی و یک روش تقریب خلفی کارآمد
بر اساس مونت کارلو.تصاویر عددی در هر دو داده شبیه سازی شده و واقعی
اثربخشی استنباط پیشنهادی را نشان می دهد. |
30,187 | Unit root tests form an essential part of any time series analysis. We
provide practitioners with a single, unified framework for comprehensive and
reliable unit root testing in the R package bootUR.The package's backbone is
the popular augmented Dickey-Fuller test paired with a union of rejections
principle, which can be performed directly on single time series or multiple
(including panel) time series. Accurate inference is ensured through the use of
bootstrap methods. The package addresses the needs of both novice users, by
providing user-friendly and easy-to-implement functions with sensible default
options, as well as expert users, by giving full user-control to adjust the
tests to one's desired settings. Our parallelized C++ implementation ensures
that all unit root tests are scalable to datasets containing many time series. | تست های ریشه واحد بخش اساسی هر تجزیه و تحلیل سری زمانی را تشکیل می دهند.ما
یک چارچوب واحد و یکپارچه را برای جامع و یکپارچه در اختیار پزشکان قرار دهید
آزمایش ریشه واحد قابل اعتماد در Bootur Pack.The Package است.
آزمون محبوب دیکی مولف افزایش یافته با اتحادیه رد
اصل ، که می تواند به طور مستقیم در سری های زمانی یا چندگانه انجام شود
(از جمله پانل) سری زمانی.استنتاج دقیق با استفاده از
روش های بوت استرپ.این بسته نیازهای هر دو کاربران تازه کار را برطرف می کند
ارائه توابع کاربر پسند و آسان برای اجرای با پیش فرض معقول
گزینه ها ، و همچنین کاربران متخصص ، با ارائه کنترل کامل کاربر برای تنظیم
آزمایشات به تنظیمات مورد نظر شخص.اجرای C ++ موازی ما تضمین می کند
اینکه تمام تست های ریشه واحد به مجموعه داده های حاوی سری های زمانی زیادی مقیاس پذیر هستند. |
30,176 | Causal mediation analysis aims at disentangling a treatment effect into an
indirect mechanism operating through an intermediate outcome or mediator, as
well as the direct effect of the treatment on the outcome of interest. However,
the evaluation of direct and indirect effects is frequently complicated by
non-ignorable selection into the treatment and/or mediator, even after
controlling for observables, as well as sample selection/outcome attrition. We
propose a method for bounding direct and indirect effects in the presence of
such complications using a method that is based on a sequence of linear
programming problems. Considering inverse probability weighting by propensity
scores, we compute the weights that would yield identification in the absence
of complications and perturb them by an entropy parameter reflecting a specific
amount of propensity score misspecification to set-identify the effects of
interest. We apply our method to data from the National Longitudinal Survey of
Youth 1979 to derive bounds on the explained and unexplained components of a
gender wage gap decomposition that is likely prone to non-ignorable mediator
selection and outcome attrition. | تجزیه و تحلیل میانجیگری علیت با هدف جدا کردن اثر درمانی در یک
مکانیسم غیرمستقیم که از طریق یک نتیجه متوسط یا واسطه کار می کند ،
و همچنین تأثیر مستقیم درمان بر نتیجه علاقه.با این حال،
ارزیابی اثرات مستقیم و غیرمستقیم غالباً پیچیده است
حتی پس از
کنترل برای مشاهدات ، و همچنین انتخاب/انتخاب نمونه.ما
روشی را برای محدود کردن اثرات مستقیم و غیرمستقیم در حضور ارائه دهید
چنین عوارضی با استفاده از روشی که مبتنی بر توالی خطی است
مشکلات برنامه نویسی.با توجه به وزن احتمال معکوس با تمایل
نمرات ، ما وزنهایی را که در غیاب شناسایی می شود محاسبه می کنیم
از عوارض و آنها را با یک پارامتر آنتروپی منعکس می کند که یک خاص است
میزان تقدیر نمره نمره تمایل برای شناسایی اثرات آن
علاقه.ما روش خود را در مورد داده های بررسی طولی ملی استفاده می کنیم
جوانان 1979 برای به دست آوردن مرزهای مربوط به مؤلفه های توضیح داده شده و غیر قابل توضیح
تجزیه فاصله دستمزد جنسیتی که احتمالاً مستعد واسطه غیر شایز است
انتخاب و جذابیت نتیجه. |
30,177 | We develop an analytical framework to study experimental design in two-sided
marketplaces. Many of these experiments exhibit interference, where an
intervention applied to one market participant influences the behavior of
another participant. This interference leads to biased estimates of the
treatment effect of the intervention. We develop a stochastic market model and
associated mean field limit to capture dynamics in such experiments, and use
our model to investigate how the performance of different designs and
estimators is affected by marketplace interference effects. Platforms typically
use two common experimental designs: demand-side ("customer") randomization
(CR) and supply-side ("listing") randomization (LR), along with their
associated estimators. We show that good experimental design depends on market
balance: in highly demand-constrained markets, CR is unbiased, while LR is
biased; conversely, in highly supply-constrained markets, LR is unbiased, while
CR is biased. We also introduce and study a novel experimental design based on
two-sided randomization (TSR) where both customers and listings are randomized
to treatment and control. We show that appropriate choices of TSR designs can
be unbiased in both extremes of market balance, while yielding relatively low
bias in intermediate regimes of market balance. | ما یک چارچوب تحلیلی برای مطالعه طراحی آزمایشی در دو طرفه ایجاد می کنیم
بازارهابسیاری از این آزمایشات تداخل دارند ، جایی که
مداخله ای که برای یک شرکت کننده در بازار اعمال می شود بر رفتار تأثیر می گذارد
یک شرکت کننده دیگراین تداخل منجر به برآوردهای مغرضانه از
اثر درمانی مداخله.ما یک مدل بازار تصادفی و
میانگین محدوده میدان همراه برای گرفتن دینامیک در چنین آزمایشاتی و استفاده
مدل ما برای بررسی چگونگی عملکرد طرح های مختلف و
برآوردگرها تحت تأثیر اثرات تداخل بازار قرار دارند.سیستم عامل ها به طور معمول
از دو طرح تجربی مشترک استفاده کنید: تصادفی طرف تقاضا ("مشتری")
(CR) و طرف عرضه ("لیست") تصادفی (LR) ، به همراه آنها
برآوردگرهای مرتبطما نشان می دهیم که طراحی آزمایشی خوب به بازار بستگی دارد
تعادل: در بازارهای بسیار محدود به تقاضا ، CR بی طرفانه است ، در حالی که LR است
جانبدارانه؛برعکس ، در بازارهای بسیار محدود با عرضه ، LR بی طرفانه است ، در حالی که
CR مغرضانه است.ما همچنین یک طرح تجربی جدید را بر اساس معرفی و مطالعه می کنیم
تصادفی دو طرفه (TSR) که در آن هر دو مشتری و لیست ها تصادفی هستند
به درمان و کنترل.ما نشان می دهیم که گزینه های مناسب از طرح های TSR می توانند
در هر دو حالت تعادل بازار بی طرف باشید ، در حالی که نسبتاً کم است
تعصب در رژیم های میانی تعادل بازار. |
30,178 | As technology continues to advance, there is increasing concern about
individuals being left behind. Many businesses are striving to adopt
responsible design practices and avoid any unintended consequences of their
products and services, ranging from privacy vulnerabilities to algorithmic
bias. We propose a novel approach to fairness and inclusiveness based on
experimentation. We use experimentation because we want to assess not only the
intrinsic properties of products and algorithms but also their impact on
people. We do this by introducing an inequality approach to A/B testing,
leveraging the Atkinson index from the economics literature. We show how to
perform causal inference over this inequality measure. We also introduce the
concept of site-wide inequality impact, which captures the inclusiveness impact
of targeting specific subpopulations for experiments, and show how to conduct
statistical inference on this impact. We provide real examples from LinkedIn,
as well as an open-source, highly scalable implementation of the computation of
the Atkinson index and its variance in Spark/Scala. We also provide over a
year's worth of learnings -- gathered by deploying our method at scale and
analyzing thousands of experiments -- on which areas and which kinds of product
innovations seem to inherently foster fairness through inclusiveness. | با پیشرفت فناوری ، نگرانی های فزاینده ای وجود دارد
افرادی که پشت سر گذاشته می شوند.بسیاری از مشاغل در تلاشند تا اتخاذ کنند
شیوه های طراحی مسئول و از هرگونه پیامدهای ناخواسته آنها جلوگیری کنید
محصولات و خدمات ، از آسیب پذیری های حریم خصوصی گرفته تا الگوریتمی
جانبداری.ما یک رویکرد جدید برای انصاف و فراگیر بودن بر اساس پیشنهاد می کنیم
آزمایشما از آزمایش استفاده می کنیم زیرا می خواهیم نه تنها ارزیابی کنیم
خصوصیات ذاتی محصولات و الگوریتم ها اما همچنین تأثیر آنها بر
مردم.ما این کار را با معرفی یک رویکرد نابرابری در آزمایش A/B انجام می دهیم ،
استفاده از شاخص اتکینسون از ادبیات اقتصاد.ما نشان می دهیم که چگونه
استنباط علی بر این اندازه نابرابری انجام دهید.ما همچنین معرفی می کنیم
مفهوم تأثیر نابرابری در سطح سایت ، که تأثیر فراگیر بودن را ضبط می کند
هدف قرار دادن زیرمجموعه های خاص برای آزمایش ، و نحوه انجام آن را نشان می دهد
استنباط آماری در این تأثیر.ما نمونه های واقعی از LinkedIn را ارائه می دهیم ،
و همچنین اجرای منبع باز و بسیار مقیاس پذیر محاسبه
شاخص اتکینسون و واریانس آن در Spark/Scala.ما همچنین بیش از a
ارزش یادگیری سال - با استفاده از روش ما در مقیاس و
تجزیه و تحلیل هزاران آزمایش - در کدام زمینه ها و کدام نوع محصول
به نظر می رسد که نوآوری ها ذاتاً انصاف را از طریق فراگیر تقویت می کنند. |
30,179 | This paper compares different implementations of monetary policy in a
new-Keynesian setting. We can show that a shift from Ramsey optimal policy
under short-term commitment (based on a negative feedback mechanism) to a
Taylor rule (based on a positive feedback mechanism) corresponds to a Hopf
bifurcation with opposite policy advice and a change of the dynamic properties.
This bifurcation occurs because of the ad hoc assumption that interest rate is
a forward-looking variable when policy targets (inflation and output gap) are
forward-looking variables in the new-Keynesian theory. | در این مقاله ، پیاده سازی های مختلف سیاست پولی در a مقایسه شده است
تنظیم جدید کینزی.ما می توانیم نشان دهیم که تغییر از سیاست بهینه رمزی
تحت تعهد کوتاه مدت (بر اساس مکانیسم بازخورد منفی) به
قانون تیلور (بر اساس مکانیسم بازخورد مثبت) با هاپف مطابقت دارد
bifurcation با مشاوره مخالف سیاست و تغییر خصوصیات پویا.
این bifurcation به دلیل فرض موقت که نرخ بهره است رخ می دهد
متغیر آینده نگر وقتی اهداف سیاست (تورم و شکاف خروجی) هستند
متغیرهای آینده نگر در نظریه جدید کینزی. |
30,180 | We study identification and estimation in the Regression Discontinuity Design
(RDD) with a multivalued treatment variable. We also allow for the inclusion of
covariates. We show that without additional information, treatment effects are
not identified. We give necessary and sufficient conditions that lead to
identification of LATEs as well as of weighted averages of the conditional
LATEs. We show that if the first stage discontinuities of the multiple
treatments conditional on covariates are linearly independent, then it is
possible to identify multivariate weighted averages of the treatment effects
with convenient identifiable weights. If, moreover, treatment effects do not
vary with some covariates or a flexible parametric structure can be assumed, it
is possible to identify (in fact, over-identify) all the treatment effects. The
over-identification can be used to test these assumptions. We propose a simple
estimator, which can be programmed in packaged software as a Two-Stage Least
Squares regression, and packaged standard errors and tests can also be used.
Finally, we implement our approach to identify the effects of different types
of insurance coverage on health care utilization, as in Card, Dobkin and
Maestas (2008). | ما شناسایی و تخمین را در طراحی ناپیوستگی رگرسیون مطالعه می کنیم
(RDD) با متغیر درمانی چندگانه.ما همچنین اجازه می دهیم
متغیرهای متغیرما نشان می دهیم که بدون اطلاعات بیشتر ، اثرات درمانی است
شناسایی نشده.ما شرایط لازم و کافی را ارائه می دهیم که منجر به آن می شود
شناسایی Lates و همچنین میانگین وزنی از شرطی
LATESما نشان می دهیم که اگر مرحله اول ناپیوستگی چندگانه باشد
درمان های مشروط به متغیرهای متغیر به صورت خطی مستقل هستند ، پس از آن
برای شناسایی میانگین وزنی چند متغیره از اثرات درمانی امکان پذیر است
با وزنهای قابل شناسایی مناسب.علاوه بر این ، اثرات درمانی این کار را نمی کند
با برخی از متغیرهای متغیر متفاوت است یا می توان یک ساختار پارامتری انعطاف پذیر را فرض کرد.
برای شناسایی (در واقع ، بیش از حد شناسایی) تمام اثرات درمانی امکان پذیر است.در
شناسایی بیش از حد می تواند برای آزمایش این فرضیات استفاده شود.ما یک ساده پیشنهاد می کنیم
برآوردگر ، که می تواند در نرم افزار بسته بندی شده به عنوان حداقل دو مرحله ای برنامه ریزی شود
رگرسیون مربع ها و خطاها و آزمایشات استاندارد بسته بندی شده نیز می توانند استفاده شوند.
سرانجام ، ما رویکرد خود را برای شناسایی اثرات انواع مختلف پیاده سازی می کنیم
پوشش بیمه ای در مورد استفاده از مراقبت های بهداشتی ، مانند کارت ، دوبکین و
Maestas (2008). |
30,200 | This paper illustrates the use of entropy balancing in
difference-in-differences analyses when pre-intervention outcome trends suggest
a possible violation of the parallel trends assumption. We describe a set of
assumptions under which weighting to balance intervention and comparison groups
on pre-intervention outcome trends leads to consistent
difference-in-differences estimates even when pre-intervention outcome trends
are not parallel. Simulated results verify that entropy balancing of
pre-intervention outcomes trends can remove bias when the parallel trends
assumption is not directly satisfied, and thus may enable researchers to use
difference-in-differences designs in a wider range of observational settings
than previously acknowledged. | در این مقاله استفاده از تعادل آنتروپی در
تفاوت در اختلافات هنگامی که روند نتیجه قبل از مداخله نشان می دهد تجزیه و تحلیل می شود
نقض احتمالی فرض روند موازی.ما مجموعه ای از
فرضیاتی که براساس آن وزنه برداری برای تعادل گروه های مداخله و مقایسه
روند نتیجه قبل از مداخله منجر به سازگار می شود
تخمین اختلاف در اختلافات حتی در صورت روند نتیجه قبل از مداخله
موازی نیستندنتایج شبیه سازی شده تأیید می کند که متعادل کردن آنتروپی از
نتایج نتایج قبل از مداخله می تواند تعصب را در هنگام روند موازی از بین ببرد
فرض به طور مستقیم راضی نیست ، بنابراین ممکن است محققان بتوانند از آن استفاده کنند
تفاوت در اختلافات در طیف وسیع تری از تنظیمات مشاهده ای
از آنچه قبلاً تصدیق شده بود |
30,181 | Crowding valuation of subway riders is an important input to various
supply-side decisions of transit operators. The crowding cost perceived by a
transit rider is generally estimated by capturing the trade-off that the rider
makes between crowding and travel time while choosing a route. However,
existing studies rely on static compensatory choice models and fail to account
for inertia and the learning behaviour of riders. To address these challenges,
we propose a new dynamic latent class model (DLCM) which (i) assigns riders to
latent compensatory and inertia/habit classes based on different decision
rules, (ii) enables transitions between these classes over time, and (iii)
adopts instance-based learning theory to account for the learning behaviour of
riders. We use the expectation-maximisation algorithm to estimate DLCM, and the
most probable sequence of latent classes for each rider is retrieved using the
Viterbi algorithm. The proposed DLCM can be applied in any choice context to
capture the dynamics of decision rules used by a decision-maker. We demonstrate
its practical advantages in estimating the crowding valuation of an Asian
metro's riders. To calibrate the model, we recover the daily route preferences
and in-vehicle crowding experiences of regular metro riders using a
two-month-long smart card and vehicle location data. The results indicate that
the average rider follows the compensatory rule on only 25.5% of route choice
occasions. DLCM estimates also show an increase of 47% in metro riders'
valuation of travel time under extremely crowded conditions relative to that
under uncrowded conditions. | ارزش جمع آوری سواران مترو یک ورودی مهم برای مختلف است
تصمیمات سمت عرضه اپراتورهای ترانزیت.هزینه شلوغی درک شده توسط a
سوار ترانزیت به طور کلی با ضبط معامله ای که سوارکار است تخمین زده می شود
در هنگام انتخاب مسیر ، بین شلوغی و زمان سفر ایجاد می شود.با این حال،
مطالعات موجود به مدلهای انتخاب جبرانی استاتیک متکی است و پاسخ نمی دهد
برای اینرسی و رفتار یادگیری سواران.برای پرداختن به این چالش ها ،
ما یک مدل کلاس نهان پویا جدید (DLCM) پیشنهاد می کنیم که (i) سواران را به آن اختصاص می دهد
کلاسهای جبرانی و بی تحرکی/عادت نهفته بر اساس تصمیمات مختلف
قوانین ، (ب) انتقال بین این کلاس ها به مرور زمان ، و (iii)
نظریه یادگیری مبتنی بر نمونه را اتخاذ می کند تا رفتار یادگیری را به حساب آورد
سوارانما از الگوریتم انتظار حداکثر برای تخمین DLCM و
احتمالی ترین دنباله کلاسهای نهفته برای هر سوار با استفاده از
الگوریتم Viterbi.DLCM پیشنهادی می تواند در هر زمینه انتخابی اعمال شود
پویایی قوانین تصمیم گیری را که توسط یک تصمیم گیرنده استفاده می شود ، ضبط کنید.ما نشان می دهیم
مزایای عملی آن در برآورد ارزیابی شلوغی یک آسیایی
سواران مترو.برای کالیبراسیون مدل ، ترجیحات مسیر روزانه را بازیابی می کنیم
و تجارب شلوغی درون وسیله نقلیه از سواران مترو معمولی با استفاده از a
داده های کارت هوشمند دو ماهه و داده های مکان خودرو.نتایج نشان می دهد که
یک سوار متوسط فقط 25.5 ٪ از انتخاب مسیر را از قانون جبرانی پیروی می کند
مواردتخمین های DLCM همچنین افزایش 47 ٪ در مترو سواران را نشان می دهد
ارزیابی زمان سفر در شرایط بسیار شلوغ نسبت به آن
در شرایط غیرمجاز. |
30,182 | A structural Gaussian mixture vector autoregressive model is introduced. The
shocks are identified by combining simultaneous diagonalization of the reduced
form error covariance matrices with constraints on the time-varying impact
matrix. This leads to flexible identification conditions, and some of the
constraints are also testable. The empirical application studies asymmetries in
the effects of the U.S. monetary policy shock and finds strong asymmetries with
respect to the sign and size of the shock and to the initial state of the
economy. The accompanying CRAN distributed R package gmvarkit provides a
comprehensive set of tools for numerical analysis. | یک مدل وکتور مخلوط سازه ساختاری گاوسی معرفی شده است.در
شوک ها با ترکیب مورب همزمان کاهش یافته شناسایی می شوند
خطای ماتریس کواریانس با محدودیت در تأثیر متغیر زمان
ماتریساین منجر به شرایط شناسایی انعطاف پذیر و برخی از موارد می شود
محدودیت ها نیز قابل آزمایش هستند.کاربرد تجربی عدم تقارن در
تأثیر شوک سیاست پولی ایالات متحده و عدم تقارن شدید با
احترام به علامت و اندازه شوک و وضعیت اولیه
اقتصادCRAN همراه با بسته R توزیع Gmvarkit یک A را فراهم می کند
مجموعه ای جامع از ابزارها برای تجزیه و تحلیل عددی. |
30,183 | We introduce Multivariate Circulant Singular Spectrum Analysis (M-CiSSA) to
provide a comprehensive framework to analyze fluctuations, extracting the
underlying components of a set of time series, disentangling their sources of
variation and assessing their relative phase or cyclical position at each
frequency. Our novel method is non-parametric and can be applied to series out
of phase, highly nonlinear and modulated both in frequency and amplitude. We
prove a uniqueness theorem that in the case of common information and without
the need of fitting a factor model, allows us to identify common sources of
variation. This technique can be quite useful in several fields such as
climatology, biometrics, engineering or economics among others. We show the
performance of M-CiSSA through a synthetic example of latent signals modulated
both in amplitude and frequency and through the real data analysis of energy
prices to understand the main drivers and co-movements of primary energy
commodity prices at various frequencies that are key to assess energy policy at
different time horizons. | ما تجزیه و تحلیل طیف مفرد گردش چند متغیره (M-CISSA) را به
یک چارچوب جامع برای تجزیه و تحلیل نوسانات ، استخراج
مؤلفه های اساسی مجموعه ای از سری های زمانی ، از منابع آنها جدا شده است
تغییر و ارزیابی فاز نسبی یا موقعیت چرخه ای آنها در هر یک
فرکانس.روش جدید ما غیر پارامتری است و می تواند برای سری استفاده شود
فاز ، بسیار غیرخطی و هم در فرکانس و هم در دامنه تعدیل شده است.ما
یک قضیه منحصر به فرد را اثبات کنید که در مورد اطلاعات مشترک و بدون
نیاز به نصب یک مدل فاکتور ، به ما امکان می دهد منابع مشترک را شناسایی کنیم
تغییر.این تکنیک می تواند در چندین زمینه از جمله بسیار مفید باشد
اقلیم شناسی ، بیومتریک ، مهندسی یا اقتصاد در میان دیگران.ما نشان می دهیم
عملکرد M-CISSA از طریق یک نمونه مصنوعی از سیگنال های نهفته مدوله شده
هم در دامنه و هم از طریق تجزیه و تحلیل داده های واقعی انرژی
قیمت ها برای درک محرک های اصلی و همبستگی های انرژی اولیه
قیمت کالاها در فرکانسهای مختلف که برای ارزیابی سیاست انرژی مهم هستند
افق زمانی متفاوت. |
30,184 | In the data-rich environment, using many economic predictors to forecast a
few key variables has become a new trend in econometrics. The commonly used
approach is factor augment (FA) approach. In this paper, we pursue another
direction, variable selection (VS) approach, to handle high-dimensional
predictors. VS is an active topic in statistics and computer science. However,
it does not receive as much attention as FA in economics. This paper introduces
several cutting-edge VS methods to economic forecasting, which includes: (1)
classical greedy procedures; (2) l1 regularization; (3) gradient descent with
sparsification and (4) meta-heuristic algorithms. Comprehensive simulation
studies are conducted to compare their variable selection accuracy and
prediction performance under different scenarios. Among the reviewed methods, a
meta-heuristic algorithm called sequential Monte Carlo algorithm performs the
best. Surprisingly the classical forward selection is comparable to it and
better than other more sophisticated algorithms. In addition, we apply these VS
methods on economic forecasting and compare with the popular FA approach. It
turns out for employment rate and CPI inflation, some VS methods can achieve
considerable improvement over FA, and the selected predictors can be well
explained by economic theories. | در محیط غنی از داده ها ، استفاده از بسیاری از پیش بینی کننده های اقتصادی برای پیش بینی a
تعداد کمی از متغیرهای کلیدی به یک روند جدید در اقتصاد سنج تبدیل شده است.معمولاً استفاده می شود
رویکرد رویکرد عاملی (FA) است.در این مقاله ، ما دیگری را دنبال می کنیم
جهت ، رویکرد انتخاب متغیر (VS) ، برای رسیدگی به ابعاد بالا
پیش بینی کننده هاVS یک موضوع فعال در آمار و علوم کامپیوتر است.با این حال،
به اندازه FA در اقتصاد توجه زیادی نمی کند.در این مقاله معرفی شده است
چندین روش برش در مقابل پیش بینی اقتصادی ، که شامل موارد زیر است: (1)
روشهای حریص کلاسیک ؛(2) تنظیم L1 ؛(3) نزول شیب با
پاریسی سازی و (4) الگوریتم های متا-هوریستی.شبیه سازی جامع
مطالعات برای مقایسه دقت انتخاب متغیر آنها انجام می شود و
عملکرد پیش بینی تحت سناریوهای مختلف.از جمله روشهای بررسی شده ، الف
الگوریتم متا-هوریستی به نام الگوریتم متوالی مونت کارلو انجام می دهد
بهترین.با کمال تعجب انتخاب کلاسیک جلو با آن قابل مقایسه است و
بهتر از سایر الگوریتم های پیشرفته تر.علاوه بر این ، ما این VS را اعمال می کنیم
روشهای پیش بینی اقتصادی و مقایسه با رویکرد محبوب FA.آی تی
برای نرخ اشتغال و تورم CPI معلوم می شود ، برخی از روشهای VS می توانند به دست بیاورند
پیشرفت قابل توجهی نسبت به FA ، و پیش بینی کننده های منتخب می توانند خوب باشند
توضیح داده شده توسط تئوری های اقتصادی. |
30,185 | Multivalued treatments are commonplace in applications. We explore the use of
discrete-valued instruments to control for selection bias in this setting. Our
discussion revolves around the concept of targeting instruments: which
instruments target which treatments. It allows us to establish conditions under
which counterfactual averages and treatment effects are point- or
partially-identified for composite complier groups. We illustrate the
usefulness of our framework by applying it to data from the Head Start Impact
Study. Under a plausible positive selection assumption, we derive informative
bounds that suggest less beneficial effects of Head Start expansions than the
parametric estimates of Kline and Walters (2016). | درمانهای چندگانه در برنامه ها امری عادی است.ما استفاده از
ابزارهای دارای ارزش گسسته برای کنترل تعصب انتخاب در این تنظیم.ما
بحث حول مفهوم ابزارهای هدفمند است: کدام
ابزارها کدام روش درمانی را هدف قرار می دهند.این امکان را به ما می دهد تا شرایط را در زیر ایجاد کنیم
کدام میانگین های ضد خلاف و اثرات درمانی نقطه یا است
تا حدی برای گروه های Composite Complier مشخص شده است.ما نشان می دهیم
سودمندی چارچوب ما با استفاده از آن در داده ها از ضربه شروع سر
مطالعه.تحت یک فرض انتخاب مثبت قابل قبول ، ما آموزنده می گیریم
مرزهایی که اثرات مفید کمتری از گسترش سر را نسبت به آن نشان می دهد
برآورد پارامتری Kline و Walters (2016). |
30,186 | A novel deep neural network framework -- that we refer to as Deep Dynamic
Factor Model (D$^2$FM) --, is able to encode the information available, from
hundreds of macroeconomic and financial time-series into a handful of
unobserved latent states. While similar in spirit to traditional dynamic factor
models (DFMs), differently from those, this new class of models allows for
nonlinearities between factors and observables due to the autoencoder neural
network structure. However, by design, the latent states of the model can still
be interpreted as in a standard factor model. Both in a fully real-time
out-of-sample nowcasting and forecasting exercise with US data and in a Monte
Carlo experiment, the D$^2$FM improves over the performances of a
state-of-the-art DFM. | یک چارچوب شبکه عصبی عمیق رمان - که ما از آن به عنوان پویا عمیق یاد می کنیم
مدل فاکتور (d $^2 $ fm) -قادر به رمزگذاری اطلاعات موجود است ،
صدها سری زمانی کلان اقتصادی و مالی به تعداد انگشت شماری از
حالتهای نهفته بی نظیر.در حالی که از نظر روحی با فاکتور پویا سنتی مشابه است
مدل ها (DFMS) ، متفاوت از آن ، این کلاس جدید از مدل ها امکان پذیر است
غیرخطی بین عوامل و مشاهدات به دلیل عصبی AutoEncoder
ساختار شبکه.با این حال ، با طراحی ، حالت های نهفته مدل هنوز هم می توانند
همانطور که در یک مدل فاکتور استاندارد تفسیر می شود.هر دو در یک زمان کاملاً واقعی
خارج از نمونه تمرین و پیش بینی تمرین با داده های ایالات متحده و در یک مونت
آزمایش کارلو ، d $ 2 $ fm نسبت به عملکردهای یک بهبود می یابد
DFM پیشرفته. |
30,188 | This paper aims to examine whether the global economic policy uncertainty
(GEPU) and uncertainty changes have different impacts on crude oil futures
volatility. We establish single-factor and two-factor models under the
GARCH-MIDAS framework to investigate the predictive power of GEPU and GEPU
changes excluding and including realized volatility. The findings show that the
models with rolling-window specification perform better than those with
fixed-span specification. For single-factor models, the GEPU index and its
changes, as well as realized volatility, are consistent effective factors in
predicting the volatility of crude oil futures. Specially, GEPU changes have
stronger predictive power than the GEPU index. For two-factor models, GEPU is
not an effective forecast factor for the volatility of WTI crude oil futures or
Brent crude oil futures. The two-factor model with GEPU changes contains more
information and exhibits stronger forecasting ability for crude oil futures
market volatility than the single-factor models. The GEPU changes are indeed
the main source of long-term volatility of the crude oil futures. | این مقاله با هدف بررسی اینکه آیا عدم قطعیت سیاست اقتصادی جهانی بررسی شده است
(GEPU) و تغییرات عدم اطمینان تأثیرات متفاوتی بر آینده های نفت خام دارد
نوسان.ما مدلهای تک عاملی و دو عاملی را در زیر ایجاد می کنیم
چارچوب Garch-Midas برای بررسی قدرت پیش بینی GEPU و GEPU
تغییرات به استثنای و از جمله نوسانات تحقق یافته.یافته ها نشان می دهد که
مدل هایی با مشخصات پنجره نورد بهتر از مدل های دارای
مشخصات اسپانیایی ثابت.برای مدل های تک عاملی ، شاخص GEPU و آن
تغییرات ، و همچنین نوسانات تحقق یافته ، فاکتورهای مؤثر سازگار در
پیش بینی نوسانات آینده نفت خام.به ویژه ، تغییرات GePu وجود دارد
قدرت پیش بینی قوی تر از شاخص GEPU.برای مدل های دو عاملی ، GEPU است
یک عامل پیش بینی مؤثر برای نوسانات آینده نفت خام WTI یا
آینده نفت خام برنت.مدل دو عاملی با تغییرات GEPU حاوی موارد بیشتری است
اطلاعات و توانایی پیش بینی قوی تر برای آینده های نفت خام را نشان می دهد
نوسانات بازار نسبت به مدل های تک عاملی.تغییرات GEPU در واقع است
منبع اصلی نوسانات طولانی مدت آینده نفت خام. |
30,189 | We report results from the first comprehensive total quality evaluation of
five major indicators in the U.S. Census Bureau's Longitudinal
Employer-Household Dynamics (LEHD) Program Quarterly Workforce Indicators
(QWI): total flow-employment, beginning-of-quarter employment, full-quarter
employment, average monthly earnings of full-quarter employees, and total
quarterly payroll. Beginning-of-quarter employment is also the main tabulation
variable in the LEHD Origin-Destination Employment Statistics (LODES) workplace
reports as displayed in OnTheMap (OTM), including OnTheMap for Emergency
Management. We account for errors due to coverage; record-level non-response;
edit and imputation of item missing data; and statistical disclosure
limitation. The analysis reveals that the five publication variables under
study are estimated very accurately for tabulations involving at least 10 jobs.
Tabulations involving three to nine jobs are a transition zone, where cells may
be fit for use with caution. Tabulations involving one or two jobs, which are
generally suppressed on fitness-for-use criteria in the QWI and synthesized in
LODES, have substantial total variability but can still be used to estimate
statistics for untabulated aggregates as long as the job count in the aggregate
is more than 10. | ما نتایج حاصل از اولین ارزیابی جامع کل کیفیت کل را گزارش می کنیم
پنج شاخص اصلی در طولی دفتر سرشماری ایالات متحده
کارفرمایان-خانه دینامیک (LEHD) برنامه های سه ماهه نیروی کار
(QWI): کل اشتغال جریان ، اشتغال آغاز از سه ماهه ، هر چهارم
اشتغال ، متوسط درآمد ماهانه کارمندان کامل و در کل
حقوق و دستمزد سه ماهه.اشتغال شروع سه ماهه نیز جدول بندی اصلی است
متغیر در LEHD Origin-Destination Assistictions usy (LODES) در محل کار
گزارش هایی که در OntheMap (OTM) نمایش داده می شود ، از جمله OntheMap برای اضطراری
مدیریت.ما خطاها را به دلیل پوشش حساب می کنیم.عدم پاسخ سطح ضبط ؛
ویرایش و تحمیل داده های مفقود شده مورد ؛و افشای آماری
محدودیتتجزیه و تحلیل نشان می دهد که پنج متغیر انتشار در زیر
مطالعه بسیار دقیق برای جدول بندی های مربوط به حداقل 10 شغل تخمین زده می شود.
جدول بندی های مربوط به سه تا نه شغل یک منطقه انتقال است که در آن سلول ها ممکن است
برای استفاده با احتیاط مناسب باشید.جدول بندی های مربوط به یک یا دو شغل ، که هستند
به طور کلی بر معیارهای تناسب اندام برای استفاده در QWI سرکوب می شود و در سنتز می شود
Lodes ، دارای تنوع قابل توجهی در کل اما هنوز هم می توان برای تخمین استفاده کرد
آمار مربوط به سنگدانه های غیرمجاز تا زمانی که کار در کل باشد
بیش از 10 است |
30,190 | Recent research finds that forecasting electricity prices is very relevant.
In many applications, it might be interesting to predict daily electricity
prices by using their own lags or renewable energy sources. However, the recent
turmoil of energy prices and the Russian-Ukrainian war increased attention in
evaluating the relevance of industrial production and the Purchasing Managers'
Index output survey in forecasting the daily electricity prices. We develop a
Bayesian reverse unrestricted MIDAS model which accounts for the mismatch in
frequency between the daily prices and the monthly macro variables in Germany
and Italy. We find that the inclusion of macroeconomic low frequency variables
is more important for short than medium term horizons by means of point and
density measures. In particular, accuracy increases by combining hard and soft
information, while using only surveys gives less accurate forecasts than using
only industrial production data. | تحقیقات اخیر نشان می دهد که پیش بینی قیمت برق بسیار مهم است.
در بسیاری از برنامه ها ، پیش بینی برق روزانه جالب است
قیمت ها با استفاده از تاخیر یا منابع انرژی تجدید پذیر خود.با این حال ، اخیر
آشفتگی قیمت انرژی و جنگ روسیه و اوکراین توجه را در
ارزیابی ارتباط تولید صنعتی و مدیران خرید
بررسی خروجی شاخص در پیش بینی قیمت روزانه برق.ما توسعه می دهیم
مدل MIDAS بدون محدودیت Bayesian معکوس که عدم تطابق در آن را به خود اختصاص می دهد
فرکانس بین قیمت های روزانه و متغیرهای کلان ماهانه در آلمان
و ایتالیاما می دانیم که گنجاندن متغیرهای فرکانس پایین کلان اقتصادی
برای افق های کوتاه مدت از میان مدت با استفاده از نقطه و
اقدامات چگالیبه طور خاص ، با ترکیب سخت و نرم ، دقت افزایش می یابد
اطلاعات ، در حالی که فقط با استفاده از نظرسنجی ها پیش بینی های دقیق کمتری نسبت به استفاده می کند
فقط داده های تولید صنعتی. |
30,191 | The COVID-19 recession that started in March 2020 led to an unprecedented
decline in economic activity across the globe. To fight this recession, policy
makers in central banks engaged in expansionary monetary policy. This paper
asks whether the measures adopted by the US Federal Reserve (Fed) have been
effective in boosting real activity and calming financial markets. To measure
these effects at high frequencies, we propose a novel mixed frequency vector
autoregressive (MF-VAR) model. This model allows us to combine weekly and
monthly information within an unified framework. Our model combines a set of
macroeconomic aggregates such as industrial production, unemployment rates and
inflation with high frequency information from financial markets such as stock
prices, interest rate spreads and weekly information on the Feds balance sheet
size. The latter set of high frequency time series is used to dynamically
interpolate the monthly time series to obtain weekly macroeconomic measures. We
use this setup to simulate counterfactuals in absence of monetary stimulus. The
results show that the monetary expansion caused higher output growth and stock
market returns, more favorable long-term financing conditions and a
depreciation of the US dollar compared to a no-policy benchmark scenario. | رکود اقتصادی Covid-19 که از مارس 2020 آغاز شد ، منجر به بی سابقه ای شد
کاهش فعالیت اقتصادی در سراسر جهان.برای مبارزه با این رکود اقتصادی ، سیاست
سازندگان در بانکهای مرکزی مشغول سیاست های پولی گسترده بودند.این کاغذ
می پرسد که آیا اقدامات اتخاذ شده توسط فدرال رزرو ایالات متحده (FED) بوده است؟
در تقویت فعالیت واقعی و آرام کردن بازارهای مالی مؤثر است.اندازه گرفتن
این اثرات در فرکانس های بالا ، ما یک بردار فرکانس مخلوط رمان پیشنهاد می کنیم
مدل خودکار (MF-VAR).این مدل به ما امکان می دهد هفتگی و
اطلاعات ماهانه در یک چارچوب یکپارچه.مدل ما مجموعه ای از
سنگدانه های کلان اقتصادی مانند تولید صنعتی ، نرخ بیکاری و
تورم با اطلاعات فرکانس بالا از بازارهای مالی مانند سهام
قیمت ها ، گسترش نرخ بهره و اطلاعات هفتگی در ترازنامه FEDS
اندازه.مجموعه دوم سری زمانی فرکانس بالا برای پویا استفاده می شود
سری زمانی ماهانه را برای به دست آوردن اقدامات هفتگی اقتصاد کلان درج کنید.ما
در صورت عدم وجود محرک پولی ، از این تنظیم برای شبیه سازی متقابل استفاده کنید.در
نتایج نشان می دهد که انبساط پولی باعث رشد و بازده بالاتری شده است
بازده بازار ، شرایط تأمین مالی طولانی مدت و یک
استهلاک دلار آمریکا در مقایسه با سناریوی معیار بدون سیاست. |
30,192 | Many events and policies (treatments) occur at specific spatial locations,
with researchers interested in their effects on nearby units of interest. I
approach the spatial treatment setting from an experimental perspective: What
ideal experiment would we design to estimate the causal effects of spatial
treatments? This perspective motivates a comparison between individuals near
realized treatment locations and individuals near counterfactual (unrealized)
candidate locations, which differs from current empirical practice. I derive
design-based standard errors that are straightforward to compute irrespective
of spatial correlations in outcomes. Furthermore, I propose machine learning
methods to find counterfactual candidate locations using observational data
under unconfounded assignment of the treatment to locations. I apply the
proposed methods to study the causal effects of grocery stores on foot traffic
to nearby businesses during COVID-19 shelter-in-place policies, finding a
substantial positive effect at a very short distance, with no effect at larger
distances. | بسیاری
با محققان علاقه مند به تأثیرات آنها در واحدهای مورد علاقه در این نزدیکی.من
از دیدگاه تجربی به تنظیمات درمانی مکانی نزدیک شوید: چه
آزمایش ایده آل آیا ما برای برآورد اثرات علی فضایی طراحی می کنیم
درمان؟این دیدگاه باعث ایجاد مقایسه بین افراد نزدیک می شود
مکانهای درمانی تحقق یافته و افراد در نزدیکی ضد خلاف واقع (غیر واقعی)
مکان های نامزد ، که با عمل تجربی فعلی متفاوت است.من مشتق شده ام
خطاهای استاندارد مبتنی بر طراحی که بدون در نظر گرفتن محاسبه ساده است
همبستگی های مکانی در نتایج.علاوه بر این ، من یادگیری ماشین را پیشنهاد می کنم
روش هایی برای یافتن مکان های نامزد ضد خلاف با استفاده از داده های مشاهده ای
تحت تکلیف غیرمجاز از درمان به مکانها.من اعمال می کنم
روشهای پیشنهادی برای بررسی اثرات علیت فروشگاه های مواد غذایی بر روی ترافیک پا
به مشاغل اطراف در طول سیاست های پناهگاه Covid-19 ، پیدا کردن
اثر مثبت قابل توجه در مسافت بسیار کوتاه ، بدون تأثیر در بزرگتر
فاصله ها. |
34,568 | We study the canonical signaling game, endowing the sender with commitment
power. We provide a geometric characterization of the sender's attainable
payoffs, described by the topological join of the graphs of the sender's
interim payoff functions associated with different sender actions. We compare
the sender's payoffs in this setting with two benchmarks. In the first, in
addition to committing to her actions, the sender can commit to provide the
receiver with additional information. In the second, the sender can only commit
to release information, but cannot commit to her actions. We illustrate our
results with applications to job market signaling, communication with lying
costs, and disclosure. | ما بازی سیگنالینگ متعارف را مطالعه می کنیم و فرستنده را با تعهد وقف می کنیم
قدرت.ما یک شخصیت هندسی از قابل دستیابی فرستنده را ارائه می دهیم
بازپرداخت ، توصیف شده توسط پیوستن توپولوژیکی نمودارهای فرستنده
توابع بازپرداخت موقت مرتبط با اقدامات مختلف فرستنده.ما مقایسه می کنیم
بازپرداخت فرستنده در این تنظیم با دو معیار.در اول ، در
علاوه بر تعهد به اقدامات خود ، فرستنده می تواند متعهد شود
گیرنده با اطلاعات اضافی.در دوم ، فرستنده فقط می تواند مرتکب شود
برای انتشار اطلاعات ، اما نمی تواند به اقدامات خود متعهد شود.ما خود را نشان می دهیم
نتایج با برنامه های کاربردی به سیگنالینگ بازار کار ، ارتباط با دروغگویی
هزینه ها و افشای اطلاعات. |
30,193 | Graphical models are a powerful tool to estimate a high-dimensional inverse
covariance (precision) matrix, which has been applied for a portfolio
allocation problem. The assumption made by these models is a sparsity of the
precision matrix. However, when stock returns are driven by common factors,
such assumption does not hold. We address this limitation and develop a
framework, Factor Graphical Lasso (FGL), which integrates graphical models with
the factor structure in the context of portfolio allocation by decomposing a
precision matrix into low-rank and sparse components. Our theoretical results
and simulations show that FGL consistently estimates the portfolio weights and
risk exposure and also that FGL is robust to heavy-tailed distributions which
makes our method suitable for financial applications. FGL-based portfolios are
shown to exhibit superior performance over several prominent competitors
including equal-weighted and Index portfolios in the empirical application for
the S&P500 constituents. | مدل های گرافیکی ابزاری قدرتمند برای تخمین معکوس با ابعاد بالا هستند
ماتریس کواریانس (دقت) ، که برای یک نمونه کارها اعمال شده است
مشکل تخصیصفرض ساخته شده توسط این مدل ها ، کمبودی است
ماتریس دقیق.با این حال ، هنگامی که بازده سهام توسط عوامل مشترک هدایت می شود ،
چنین فرضیه ای ندارد.ما به این محدودیت می پردازیم و توسعه می دهیم
چارچوب ، فاکتور گرافیکی Lasso (FGL) ، که مدلهای گرافیکی را با آن ادغام می کند
ساختار عاملی در زمینه تخصیص نمونه کارها با تجزیه a
ماتریس دقیق به اجزای کم درجه و پراکنده.نتایج نظری ما
و شبیه سازی ها نشان می دهد که FGL به طور مداوم وزن نمونه کارها را تخمین می زند و
قرار گرفتن در معرض خطر و همچنین اینکه FGL نسبت به توزیع های با دم سنگین قوی است
روش ما را برای برنامه های مالی مناسب می کند.اوراق بهادار مبتنی بر FGL هستند
نشان داده شده است که عملکرد برتر را نسبت به چندین رقبای برجسته نشان می دهد
از جمله پرتفوی با وزن برابر و شاخص در برنامه تجربی برای
ترکیبات S&P500. |
30,194 | This paper investigates the benefits of internet search data in the form of
Google Trends for nowcasting real U.S. GDP growth in real time through the lens
of mixed frequency Bayesian Structural Time Series (BSTS) models. We augment
and enhance both model and methodology to make these better amenable to
nowcasting with large number of potential covariates. Specifically, we allow
shrinking state variances towards zero to avoid overfitting, extend the SSVS
(spike and slab variable selection) prior to the more flexible
normal-inverse-gamma prior which stays agnostic about the underlying model
size, as well as adapt the horseshoe prior to the BSTS. The application to
nowcasting GDP growth as well as a simulation study demonstrate that the
horseshoe prior BSTS improves markedly upon the SSVS and the original BSTS
model with the largest gains in dense data-generating-processes. Our
application also shows that a large dimensional set of search terms is able to
improve nowcasts early in a specific quarter before other macroeconomic data
become available. Search terms with high inclusion probability have good
economic interpretation, reflecting leading signals of economic anxiety and
wealth effects. | در این مقاله به بررسی مزایای داده های جستجوی اینترنت در قالب
Google Trends برای رشد تولید ناخالص داخلی واقعی ایالات متحده در زمان واقعی از طریق لنز
از مدل های سری سازه ساختاری بیزی فرکانس مختلط (BSTS).ما تقویت می کنیم
و هر دو مدل و روش را تقویت کنید تا این موارد بهتر از آن استفاده کنند
در حال حاضر با تعداد زیادی از متغیرهای بالقوه.به طور خاص ، ما اجازه می دهیم
برای جلوگیری از بیش از حد ، واریانس حالت را به سمت صفر کاهش دهید ، SSV ها را گسترش دهید
(انتخاب متغیر سنبله و دال) قبل از انعطاف پذیر تر
گاما-گاما طبیعی که در مورد مدل زیرین آگنوستیک باقی می ماند
اندازه ، و همچنین نعل اسب را قبل از BST ها سازگار کنید.برنامه به
رشد تولید ناخالص داخلی Nowcasting و همچنین یک مطالعه شبیه سازی نشان می دهد که
BSTS Horseshoe BSTS به طور قابل توجهی بر روی SSV ها و BST های اصلی بهبود می یابد
مدل با بزرگترین سود در فرآیندهای تولیدی متراکم.ما
برنامه همچنین نشان می دهد که یک مجموعه بزرگ ابعادی از اصطلاحات جستجو قادر است
قبل از سایر داده های کلان اقتصادی ، در اوایل یک سه ماهه خاص را بهبود بخشید
در دسترس قرار می گیردشرایط جستجو با احتمال ورود زیاد به خوبی دارند
تفسیر اقتصادی ، منعکس کننده سیگنال های برجسته اضطراب اقتصادی و
اثرات ثروت. |
30,195 | Rapid and accurate detection of community outbreaks is critical to address
the threat of resurgent waves of COVID-19. A practical challenge in outbreak
detection is balancing accuracy vs. speed. In particular, while estimation
accuracy improves with longer fitting windows, speed degrades. This paper
presents a machine learning framework to balance this tradeoff using
generalized random forests (GRF), and applies it to detect county level
COVID-19 outbreaks. This algorithm chooses an adaptive fitting window size for
each county based on relevant features affecting the disease spread, such as
changes in social distancing policies. Experiment results show that our method
outperforms any non-adaptive window size choices in 7-day ahead COVID-19
outbreak case number predictions. | تشخیص سریع و دقیق شیوع جامعه برای رسیدگی بسیار مهم است
تهدید امواج زنده کننده Covid-19.یک چالش عملی در شیوع
تشخیص دقت در مقابل سرعت است.به طور خاص ، در حالی که تخمین
دقت با پنجره های مناسب تر ، تخریب سرعت بهبود می یابد.این کاغذ
یک چارچوب یادگیری ماشین را برای تعادل این تجارت با استفاده از آن ارائه می دهد
جنگل های تصادفی عمومی (GRF) ، و آن را برای تشخیص سطح شهرستان اعمال می کند
شیوع Covid-19.این الگوریتم اندازه پنجره مناسب تطبیقی را برای انتخاب می کند
هر ایالت بر اساس ویژگی های مربوطه که بر گسترش بیماری تأثیر می گذارد ، مانند
تغییر در سیاست های فاصله اجتماعی.نتایج آزمایش نشان می دهد که روش ما
از هرگونه انتخاب اندازه پنجره غیر سازگار در 7 روز پیش رو Covid-19 بهتر است
پیش بینی شماره مورد شیوع. |
30,196 | We consider settings where an allocation has to be chosen repeatedly, returns
are unknown but can be learned, and decisions are subject to constraints. Our
model covers two-sided and one-sided matching, even with complex constraints.
We propose an approach based on Thompson sampling. Our main result is a
prior-independent finite-sample bound on the expected regret for this
algorithm. Although the number of allocations grows exponentially in the number
of participants, the bound does not depend on this number. We illustrate the
performance of our algorithm using data on refugee resettlement in the United
States. | ما تنظیماتی را در نظر می گیریم که یک تخصیص باید به طور مکرر انتخاب شود ، باز می گردد
ناشناخته هستند اما می توان آموخت ، و تصمیمات منوط به محدودیت ها هستند.ما
مدل شامل تطبیق دو طرفه و یک طرفه ، حتی با محدودیت های پیچیده است.
ما یک رویکرد مبتنی بر نمونه گیری تامپسون پیشنهاد می کنیم.نتیجه اصلی ما یک است
نمونه محدود و مستقل قبلی به پشیمانی مورد انتظار برای این امر محدود شده است
الگوریتماگرچه تعداد تخصیص ها به صورت نمایی در تعداد رشد می کند
از شرکت کنندگان ، محدوده به این تعداد بستگی ندارد.ما نشان می دهیم
عملکرد الگوریتم ما با استفاده از داده های اسکان مجدد پناهندگان در یونایتد
ایالت ها. |
30,197 | Superspreading complicates the study of SARS-CoV-2 transmission. I propose a
model for aggregated case data that accounts for superspreading and improves
statistical inference. In a Bayesian framework, the model is estimated on
German data featuring over 60,000 cases with date of symptom onset and age
group. Several factors were associated with a strong reduction in transmission:
public awareness rising, testing and tracing, information on local incidence,
and high temperature. Immunity after infection, school and restaurant closures,
stay-at-home orders, and mandatory face covering were associated with a smaller
reduction in transmission. The data suggests that public distancing rules
increased transmission in young adults. Information on local incidence was
associated with a reduction in transmission of up to 44% (95%-CI: [40%, 48%]),
which suggests a prominent role of behavioral adaptations to local risk of
infection. Testing and tracing reduced transmission by 15% (95%-CI: [9%,20%]),
where the effect was strongest among the elderly. Extrapolating weather
effects, I estimate that transmission increases by 53% (95%-CI: [43%, 64%]) in
colder seasons. | فوق العاده ، مطالعه انتقال SARS-COV-2 را پیچیده می کند.من پیشنهاد می کنم
الگویی برای داده های موردی جمع شده که برای تولید فوق العاده به حساب می آید و بهبود می یابد
استنباط آماری.در یک چارچوب بیزی ، مدل برآورد شده است
داده های آلمانی با بیش از 60،000 مورد با تاریخ شروع و سن علائم
گروهعوامل مختلفی با کاهش شدید انتقال همراه بودند:
افزایش آگاهی عمومی ، آزمایش و ردیابی ، اطلاعات مربوط به بروز محلی ،
و درجه حرارت بالامصونیت بعد از عفونت ، بسته شدن مدرسه و رستوران ،
دستورات در خانه و پوشش اجباری صورت با کوچکتر همراه بود
کاهش انتقال.داده ها حاکی از آن است که قوانین دور زدن عمومی
افزایش انتقال در بزرگسالان جوان.اطلاعات مربوط به بروز محلی بود
همراه با کاهش انتقال تا 44 ٪ (95 ٪ -CI: [40 ٪ ، 48 ٪] ،
که نقش برجسته ای از سازگاری های رفتاری با خطر محلی را نشان می دهد
عفونتآزمایش و ردیابی کاهش 15 ٪ (95 ٪ -CI: [9 ٪ ، 20 ٪]) ،
جایی که این اثر در بین سالمندان قوی ترین بود.برون یابی هوا
اثرات ، من تخمین می زنم که انتقال 53 ٪ (95 ٪ -CI: [43 ٪ ، 64 ٪]) در
فصل های سردتر. |
30,198 | The existing approaches to sparse wealth allocations (1) are limited to
low-dimensional setup when the number of assets is less than the sample size;
(2) lack theoretical analysis of sparse wealth allocations and their impact on
portfolio exposure; (3) are suboptimal due to the bias induced by an
$\ell_1$-penalty. We address these shortcomings and develop an approach to
construct sparse portfolios in high dimensions. Our contribution is twofold:
from the theoretical perspective, we establish the oracle bounds of sparse
weight estimators and provide guidance regarding their distribution. From the
empirical perspective, we examine the merit of sparse portfolios during
different market scenarios. We find that in contrast to non-sparse
counterparts, our strategy is robust to recessions and can be used as a hedging
vehicle during such times. | رویکردهای موجود برای تخصیص ثروت پراکنده (1) محدود به
تنظیم کم بعدی هنگامی که تعداد دارایی ها کمتر از اندازه نمونه باشد.
(2) فاقد تجزیه و تحلیل نظری از تخصیص ثروت پراکنده و تأثیر آنها بر
قرار گرفتن در معرض نمونه کارها ؛(3) به دلیل تعصب ناشی از یک زیر حد متوسط هستند
$ \ ell_1 $ -penalty.ما به این کاستی ها می پردازیم و رویکردی را توسعه می دهیم
ساخت اوراق بهادار پراکنده در ابعاد بالا.سهم ما دو برابر است:
از دیدگاه نظری ، مرزهای اوراکل پراکنده را تعیین می کنیم
برآوردگر وزن و راهنمایی در مورد توزیع آنها ارائه می دهد.از
دیدگاه تجربی ، ما شایستگی اوراق بهادار پراکنده را در طول بررسی می کنیم
سناریوهای مختلف بازار.ما می دانیم که برخلاف غیررس
همتا ، استراتژی ما نسبت به رکود اقتصادی قوی است و می تواند به عنوان پرچین استفاده شود
وسیله نقلیه در چنین مواقعی. |
30,199 | In this paper we propose a time-varying parameter (TVP) vector error
correction model (VECM) with heteroskedastic disturbances. We propose tools to
carry out dynamic model specification in an automatic fashion. This involves
using global-local priors, and postprocessing the parameters to achieve truly
sparse solutions. Depending on the respective set of coefficients, we achieve
this via minimizing auxiliary loss functions. Our two-step approach limits
overfitting and reduces parameter estimation uncertainty. We apply this
framework to modeling European electricity prices. When considering daily
electricity prices for different markets jointly, our model highlights the
importance of explicitly addressing cointegration and nonlinearities. In a
forecast exercise focusing on hourly prices for Germany, our approach yields
competitive metrics of predictive accuracy. | در این مقاله ما یک خطای بردار پارامتر متغیر زمان (TVP) را پیشنهاد می کنیم
مدل تصحیح (VECM) با اختلالات هتروسیکاستیکی.ما ابزاری را پیشنهاد می کنیم
مشخصات مدل پویا را به صورت خودکار انجام دهید.این شامل می شود
با استفاده از مقدمات جهانی محلی و پس از پردازش پارامترها برای دستیابی به واقعاً
راه حل های پراکنده.بسته به مجموعه ضرایب مربوطه ، ما به دست می آوریم
این از طریق به حداقل رساندن توابع از دست دادن کمکی.رویکرد دو مرحله ای ما
بیش از حد و تخمین پارامتر را کاهش داده و کاهش می دهد.ما این را اعمال می کنیم
چارچوب مدل سازی قیمت برق اروپا.وقتی روزانه در نظر می گیرید
قیمت برق برای بازارهای مختلف به طور مشترک ، مدل ما برجسته است
اهمیت صریح پرداختن به همبستگی و غیرخطی.در یک
تمرین پیش بینی با تمرکز بر قیمت ساعتی برای آلمان ، رویکرد ما بازده
معیارهای رقابتی دقت پیش بینی. |
30,201 | This paper is concerned with testing and dating structural breaks in the
dependence structure of multivariate time series. We consider a cumulative sum
(CUSUM) type test for constant copula-based dependence measures, such as
Spearman's rank correlation and quantile dependencies. The asymptotic null
distribution is not known in closed form and critical values are estimated by
an i.i.d. bootstrap procedure. We analyze size and power properties in a
simulation study under different dependence measure settings, such as skewed
and fat-tailed distributions. To date break points and to decide whether two
estimated break locations belong to the same break event, we propose a pivot
confidence interval procedure. Finally, we apply the test to the historical
data of ten large financial firms during the last financial crisis from 2002 to
mid-2013. | این مقاله مربوط به آزمایش و دوستیابی استراحت ساختاری در
ساختار وابستگی سری زمانی چند متغیره.ما مبلغ تجمعی را در نظر می گیریم
(cusum) تست نوع برای اقدامات وابستگی مبتنی بر کوپول ، مانند
همبستگی رتبه Spearman و وابستگی های کمی.تهی بدون علامت
توزیع به صورت بسته مشخص نیست و مقادیر بحرانی توسط تخمین زده می شود
یک I.I.D.روش bootstrap.ما اندازه و خصوصیات برق را در a تجزیه و تحلیل می کنیم
مطالعه شبیه سازی تحت تنظیمات مختلف اندازه گیری وابستگی ، مانند skewed
و توزیع های دم چربی.تا به امروز نقاط شکست و تصمیم گیری در مورد دو
مکان های تخمین زده شده به همان رویداد شکست تعلق دارند ، ما یک محوری پیشنهاد می کنیم
روش فاصله اطمینان.سرانجام ، ما آزمون را به تاریخی اعمال می کنیم
اطلاعات ده شرکت بزرگ مالی در آخرین بحران مالی از سال 2002 تا
اواسط سال 2013. |
30,202 | Conditional distribution functions are important statistical objects for the
analysis of a wide class of problems in econometrics and statistics. We propose
flexible Gaussian representations for conditional distribution functions and
give a concave likelihood formulation for their global estimation. We obtain
solutions that satisfy the monotonicity property of conditional distribution
functions, including under general misspecification and in finite samples. A
Lasso-type penalized version of the corresponding maximum likelihood estimator
is given that expands the scope of our estimation analysis to models with
sparsity. Inference and estimation results for conditional distribution,
quantile and density functions implied by our representations are provided and
illustrated with an empirical example and simulations. | توابع توزیع مشروط اشیاء آماری مهمی برای
تجزیه و تحلیل طبقه گسترده ای از مشکلات در اقتصاد سنج و آمار.ما پیشنهاد می کنیم
بازنمودهای انعطاف پذیر گاوسی برای توابع توزیع مشروط و
برای برآورد جهانی خود یک فرمول احتمال مقعر ارائه دهید.ما بدست می آوریم
راه حل هایی که خاصیت یکنواختی توزیع مشروط را برآورده می کنند
توابع ، از جمله تحت عنوان غلط عمومی و در نمونه های محدود.آ
نسخه مجازات شده از نوع لاسو از برآوردگر حداکثر احتمال
داده شده است که دامنه تجزیه و تحلیل تخمین ما را به مدل ها گسترش می دهد
کمبوداستنباط و نتایج تخمین برای توزیع مشروط ،
توابع کمی و چگالی که توسط بازنمایی ما دلالت دارد ارائه شده و
با یک مثال تجربی و شبیه سازی ها نشان داده شده است. |
30,203 | In this paper I revisit the interpretation of the linear instrumental
variables (IV) estimand as a weighted average of conditional local average
treatment effects (LATEs). I focus on a practically relevant situation in which
additional covariates are required for identification while the reduced-form
and first-stage regressions implicitly restrict the effects of the instrument
to be homogeneous, and are thus possibly misspecified. I show that the weights
on some conditional LATEs are negative and the IV estimand is no longer
interpretable as a causal effect under a weaker version of monotonicity, i.e.
when there are compliers but no defiers at some covariate values and defiers
but no compliers elsewhere. The problem of negative weights disappears in the
overidentified specification of Angrist and Imbens (1995) and in an alternative
method, termed "reordered IV," that I also outline. Even if all weights are
positive, the IV estimand in the just identified specification is not
interpretable as the unconditional LATE parameter unless the groups with
different values of the instrument are roughly equal sized. I illustrate my
findings in an application to causal effects of college education using the
college proximity instrument. The benchmark estimates suggest that college
attendance yields earnings gains of about 60 log points, which is well outside
the range of estimates in the recent literature. I demonstrate, however, that
this result is driven by the presence of negative weights. Corrected estimates
indicate that attending college causes earnings to be roughly 20% higher. | در این مقاله ، تفسیر ابزار خطی را دوباره مرور می کنم
متغیرها (IV) برآورد به عنوان میانگین وزنی متوسط محلی مشروط
اثرات درمانی (LATES).من روی یک وضعیت عملاً مرتبط تمرکز می کنم که در آن
متغیرهای اضافی برای شناسایی در حالی که فرم کاهش یافته است لازم است
و رگرسیون مرحله اول به طور ضمنی اثرات ساز را محدود می کند
همگن بودن ، و از این رو احتمالاً اشتباه می شود.من نشان می دهم که وزن
در برخی از مشروط های مشروط منفی است و برآورد IV دیگر نیست
قابل تفسیر به عنوان یک اثر علیت تحت یک نسخه ضعیف تر از یکنواختی ، یعنی.
هنگامی که تعارف وجود دارد اما در برخی از مقادیر متغیرهای متغیرهای متغیر وجود ندارد
اما هیچ جاسیسی در جای دیگر وجود ندارد.مشکل وزن منفی در
مشخصات بیش از حد Angrist and Imbens (1995) و در یک جایگزین
روش ، با نام "تنظیم شده IV" نامیده می شود که من نیز بیان می کنم.حتی اگر همه وزن ها باشند
مثبت ، برآورد IV در مشخصات مشخص شده درست نیست
قابل تفسیر به عنوان پارامتر دیرهنگام بی قید و شرط مگر اینکه گروه هایی با آن
مقادیر مختلف ابزار تقریباً برابر است.من خود را نشان می دهم
یافته ها در یک برنامه کاربردی برای تأثیرات علیت آموزش دانشگاه با استفاده از
ابزار مجاورت کالج.برآوردهای معیار نشان می دهد که کالج
حضور و غیاب سود درآمد حدود 60 امتیاز ورود به سیستم را به دست می آورد ، که در خارج است
دامنه تخمین ها در ادبیات اخیر.با این حال ، من این را نشان می دهم
این نتیجه با وجود وزن منفی هدایت می شود.برآوردهای اصلاح شده
نشان می دهد که حضور در کالج باعث می شود درآمد تقریباً 20 ٪ بیشتر شود. |
30,204 | The impacts of new real estate developments are strongly associated to its
population distribution (types and compositions of households, incomes, social
demographics) conditioned on aspects such as dwelling typology, price,
location, and floor level. This paper presents a Machine Learning based method
to model the population distribution of upcoming developments of new buildings
within larger neighborhood/condo settings.
We use a real data set from Ecopark Township, a real estate development
project in Hanoi, Vietnam, where we study two machine learning algorithms from
the deep generative models literature to create a population of synthetic
agents: Conditional Variational Auto-Encoder (CVAE) and Conditional Generative
Adversarial Networks (CGAN). A large experimental study was performed, showing
that the CVAE outperforms both the empirical distribution, a non-trivial
baseline model, and the CGAN in estimating the population distribution of new
real estate development projects. | تأثیرات تحولات جدید املاک و مستغلات به شدت با آن همراه است
توزیع جمعیت (انواع و ترکیب خانوارها ، درآمد ، اجتماعی
جمعیتی) با توجه به جنبه هایی مانند نوع شناسی مسکن ، قیمت ،
مکان و سطح کف.در این مقاله یک روش مبتنی بر یادگیری ماشین ارائه شده است
برای الگوبرداری از توزیع جمعیت تحولات آینده ساختمانهای جدید
در تنظیمات محله/کاندو بزرگتر.
ما از یک مجموعه داده واقعی از Ecopark Township ، توسعه املاک و مستغلات استفاده می کنیم
پروژه در هانوی ، ویتنام ، جایی که ما دو الگوریتم یادگیری ماشین را از آن مطالعه می کنیم
ادبیات مدل های تولیدی عمیق برای ایجاد جمعیتی از مصنوعی
عوامل: رمزگذاری خودکار متغیر مشروط (CVAE) و تولید کننده مشروط
شبکه های مخالف (CGAN).یک مطالعه آزمایشی بزرگ انجام شد که نشان می دهد
اینکه CVAE از توزیع تجربی بهتر است ، غیرعادی
مدل پایه و CGAN در تخمین توزیع جمعیت جدید
پروژه های توسعه املاک و مستغلات. |
30,205 | In the stochastic volatility models for multivariate daily stock returns, it
has been found that the estimates of parameters become unstable as the
dimension of returns increases. To solve this problem, we focus on the factor
structure of multiple returns and consider two additional sources of
information: first, the realized stock index associated with the market factor,
and second, the realized covariance matrix calculated from high frequency data.
The proposed dynamic factor model with the leverage effect and realized
measures is applied to ten of the top stocks composing the exchange traded fund
linked with the investment return of the SP500 index and the model is shown to
have a stable advantage in portfolio performance. | در مدلهای نوسانات تصادفی برای بازده سهام روزانه چند متغیره ، آن
مشخص شده است که برآورد پارامترها به عنوان ناپایدار می شوند
بعد بازده افزایش می یابد.برای حل این مشکل ، ما روی عامل تمرکز می کنیم
ساختار بازده های متعدد و دو منبع اضافی را در نظر بگیرید
اطلاعات: اول ، شاخص سهام تحقق یافته مرتبط با عامل بازار ،
و دوم ، ماتریس کواریانس تحقق یافته از داده های فرکانس بالا محاسبه می شود.
مدل فاکتور پویا پیشنهادی با اثر اهرم و تحقق یافته
اقدامات برای ده سهام برتر که صندوق معامله شده ارز را تشکیل می دهند اعمال می شود
مرتبط با بازده سرمایه گذاری شاخص SP500 و مدل نشان داده شده است
در عملکرد نمونه کارها یک مزیت پایدار داشته باشید. |
30,206 | This paper shows how to use a randomized saturation experimental design to
identify and estimate causal effects in the presence of spillovers--one
person's treatment may affect another's outcome--and one-sided
non-compliance--subjects can only be offered treatment, not compelled to take
it up. Two distinct causal effects are of interest in this setting: direct
effects quantify how a person's own treatment changes her outcome, while
indirect effects quantify how her peers' treatments change her outcome. We
consider the case in which spillovers occur within known groups, and take-up
decisions are invariant to peers' realized offers. In this setting we point
identify the effects of treatment-on-the-treated, both direct and indirect, in
a flexible random coefficients model that allows for heterogeneous treatment
effects and endogenous selection into treatment. We go on to propose a feasible
estimator that is consistent and asymptotically normal as the number and size
of groups increases. We apply our estimator to data from a large-scale job
placement services experiment, and find negative indirect treatment effects on
the likelihood of employment for those willing to take up the program. These
negative spillovers are offset by positive direct treatment effects from own
take-up. | این مقاله نحوه استفاده از یک طرح آزمایشی اشباع تصادفی را نشان می دهد
اثرات علی را در حضور سرریزها شناسایی و تخمین بزنید-یکی
درمان شخص ممکن است بر نتیجه دیگری تأثیر بگذارد-و یک طرفه
عدم انطباق-افراد فقط می توانند تحت درمان قرار بگیرند ، و مجبور به انجام آن نیستند
آن را بالادو اثر علیت متمایز مورد توجه این تنظیمات است: مستقیم
اثرات را تعیین می کند که چگونه درمان شخصی شخص نتیجه او را تغییر می دهد ، در حالی که
اثرات غیرمستقیم چگونگی تغییر درمان همسالانش نتیجه او را تعیین می کند.ما
موردی را در نظر بگیرید که در آن سرریزها در گروههای شناخته شده اتفاق می افتد و برداشت می شود
تصمیمات برای پیشنهادات تحقق یافته همسالان متغیر است.در این تنظیم ما اشاره می کنیم
اثرات درمان بر روی درمان ، مستقیم و غیرمستقیم را در آن شناسایی کنید
یک مدل ضرایب تصادفی انعطاف پذیر که امکان درمان ناهمگن را فراهم می کند
اثرات و انتخاب درون زا در درمان.ما ادامه می دهیم تا یک امکان پذیر ارائه دهیم
برآوردگر سازگار و بدون علامت طبیعی به عنوان تعداد و اندازه
از گروه ها افزایش می یابد.ما برآوردگر خود را برای داده های یک کار در مقیاس بزرگ اعمال می کنیم
آزمایش خدمات قرار دادن ، و اثرات درمانی غیرمستقیم منفی بر روی
احتمال اشتغال برای کسانی که مایل به انجام برنامه هستند.اینها
سرریزهای منفی با اثرات مثبت درمانی مثبت از خود جبران می شوند
گرفتن |
30,207 | This paper proposes a criterion for simultaneous GMM model and moment
selection: the generalized focused information criterion (GFIC). Rather than
attempting to identify the "true" specification, the GFIC chooses from a set of
potentially mis-specified moment conditions and parameter restrictions to
minimize the mean-squared error (MSE) of a user-specified target parameter. The
intent of the GFIC is to formalize a situation common in applied practice. An
applied researcher begins with a set of fairly weak "baseline" assumptions,
assumed to be correct, and must decide whether to impose any of a number of
stronger, more controversial "suspect" assumptions that yield parameter
restrictions, additional moment conditions, or both. Provided that the baseline
assumptions identify the model, we show how to construct an asymptotically
unbiased estimator of the asymptotic MSE to select over these suspect
assumptions: the GFIC. We go on to provide results for post-selection inference
and model averaging that can be applied both to the GFIC and various
alternative selection criteria. To illustrate how our criterion can be used in
practice, we specialize the GFIC to the problem of selecting over exogeneity
assumptions and lag lengths in a dynamic panel model, and show that it performs
well in simulations. We conclude by applying the GFIC to a dynamic panel data
model for the price elasticity of cigarette demand. | در این مقاله معیار برای مدل و لحظه GMM همزمان ارائه شده است
انتخاب: معیار اطلاعات متمرکز عمومی (GFIC).به جای
GFIC با تلاش برای شناسایی مشخصات "واقعی" ، مجموعه ای از
شرایط لحظه ای که به طور بالقوه مشخص شده است و محدودیت های پارامتر به
خطای میانگین مربع (MSE) یک پارامتر هدف مشخص شده توسط کاربر را به حداقل برسانید.در
هدف از GFF رسمی سازی وضعیتی مشترک در عمل کاربردی است.در
محقق کاربردی با مجموعه ای از فرضیات "پایه" نسبتاً ضعیف ، شروع می شود ،
فرض می شود که صحیح باشد ، و باید تصمیم بگیرد که آیا تعدادی از آنها را تحمیل کند
فرضیات "مشکوک" قوی تر و بحث برانگیزتر که پارامتر تولید می کنند
محدودیت ها ، شرایط لحظه اضافی یا هر دو.به شرط آنکه پایه باشد
فرضیات مدل را شناسایی می کنیم ، ما نشان می دهیم که چگونه می توان بدون علامت ساخت
برآوردگر بی طرفانه از MSE بدون علامت برای انتخاب این مظنون
فرضیات: gff.ما در ادامه می خواهیم نتایج استنباط پس از انتخابات را ارائه دهیم
و میانگین مدل که می تواند هم در GFIC و هم در مختلف اعمال شود
معیارهای انتخاب جایگزین.برای نشان دادن چگونگی استفاده از معیار ما
تمرین ، ما GFIC را برای مشکل انتخاب بیش از اگزوژن تخصص می دهیم
فرضیات و طول تاخیر در یک مدل پانل پویا ، و نشان می دهد که انجام می دهد
خوب در شبیه سازی ها.ما با استفاده از GFIC در داده های پانل پویا نتیجه می گیریم
مدل برای کشش قیمت تقاضای سیگار. |
30,208 | Factor model is an appealing and effective analytic tool for high-dimensional
time series, with a wide range of applications in economics, finance and
statistics. This paper develops two criteria for the determination of the
number of factors for tensor factor models where the signal part of an observed
tensor time series assumes a Tucker decomposition with the core tensor as the
factor tensor. The task is to determine the dimensions of the core tensor. One
of the proposed criteria is similar to information based criteria of model
selection, and the other is an extension of the approaches based on the ratios
of consecutive eigenvalues often used in factor analysis for panel time series.
Theoretically results, including sufficient conditions and convergence rates,
are established. The results include the vector factor models as special cases,
with an additional convergence rates. Simulation studies provide promising
finite sample performance for the two criteria. | مدل فاکتور یک ابزار تحلیلی جذاب و مؤثر برای ابعاد بالا است
سری زمانی ، با طیف گسترده ای از برنامه های کاربردی در اقتصاد ، امور مالی و
آمار.این مقاله دو معیار برای تعیین
تعداد عوامل برای مدلهای فاکتور تانسور که در آن قسمت سیگنال مشاهده شده است
سری زمانی Tensor فرضیه تجزیه Tucker با Tensor Core را به عنوان
فاکتور تانسور.وظیفه تعیین ابعاد تانسور هسته است.یکی
از معیارهای پیشنهادی مشابه معیارهای مبتنی بر اطلاعات مدل است
انتخاب و دیگری گسترش رویکردها بر اساس نسبت ها
از مقادیر ویژه متوالی که اغلب در تجزیه و تحلیل عاملی برای سری زمانی پانل استفاده می شود.
از لحاظ تئوریکی نتایج ، از جمله شرایط کافی و نرخ همگرایی ،
تأسیس شده اندنتایج شامل مدل های عامل بردار به عنوان موارد خاص است ،
با نرخ همگرایی اضافی.مطالعات شبیه سازی امیدوار کننده است
عملکرد نمونه محدود برای دو معیار. |
30,209 | We propose a new framework for modeling high-dimensional matrix-variate time
series by a two-way transformation, where the transformed data consist of a
matrix-variate factor process, which is dynamically dependent, and three other
blocks of white noises. Specifically, for a given $p_1\times p_2$
matrix-variate time series, we seek common nonsingular transformations to
project the rows and columns onto another $p_1$ and $p_2$ directions according
to the strength of the dynamic dependence of the series on the past values.
Consequently, we treat the data as nonsingular linear row and column
transformations of dynamically dependent common factors and white noise
idiosyncratic components. We propose a common orthonormal projection method to
estimate the front and back loading matrices of the matrix-variate factors.
Under the setting that the largest eigenvalues of the covariance of the
vectorized idiosyncratic term diverge for large $p_1$ and $p_2$, we introduce a
two-way projected Principal Component Analysis (PCA) to estimate the associated
loading matrices of the idiosyncratic terms to mitigate such diverging noise
effects. A diagonal-path white noise testing procedure is proposed to estimate
the order of the factor matrix. %under the assumption that the idiosyncratic
term is a matrix-variate white noise process. Asymptotic properties of the
proposed method are established for both fixed and diverging dimensions as the
sample size increases to infinity. We use simulated and real examples to assess
the performance of the proposed method. We also compare our method with some
existing ones in the literature and find that the proposed approach not only
provides interpretable results but also performs well in out-of-sample
forecasting. | ما یک چارچوب جدید برای مدل سازی زمان ماتریس با ابعاد بالا پیشنهاد می کنیم
سری توسط یک تحول دو طرفه ، که در آن داده های تبدیل شده از a تشکیل شده است
فرآیند فاکتور متغیر ماتریس ، که به صورت پویا وابسته است و سه مورد دیگر
بلوک صداهای سفید.به طور خاص ، برای یک $ p_1 \ times p_2 $
سریال زمانی ماتریس متغیر ، ما به دنبال تحولات غیرقانونی مشترک به
ردیف ها و ستون ها را روی دستورالعمل های $ p_1 $ و $ p_2 $ با توجه به
به قدرت وابستگی پویا این سریال به مقادیر گذشته.
در نتیجه ، ما داده ها را به عنوان ردیف و ستون خطی nonsingular درمان می کنیم
تحولات عوامل مشترک وابسته به پویا و سر و صدای سفید
اجزای خاص.ما یک روش پیش بینی متعامد مشترک را به
ماتریس بارگذاری جلو و عقب از عوامل متغیر ماتریس را تخمین بزنید.
تحت این تنظیم که بزرگترین مقادیر ویژه کواریانس
واگرایی اصطلاحات وکتور شده برای واگرایی بزرگ برای $ p_1 $ و $ p_2 $ ، ما یک معرفی می کنیم
تجزیه و تحلیل مؤلفه اصلی پیش بینی شده دو طرفه (PCA) برای برآورد همراه
بارگیری ماتریس از اصطلاحات ایدیوسنکراتیک برای کاهش چنین سر و صدای واگرا
اثراتروش آزمایش سر و صدای سفید مورب برای برآورد پیشنهاد شده است
ترتیب ماتریس فاکتور.٪ با این فرض که احمقانه است
اصطلاح یک فرآیند نویز سفید ماتریس متغیر است.خصوصیات بدون علامت
روش پیشنهادی برای هر دو ابعاد ثابت و واگرا به عنوان
اندازه نمونه به بی نهایت افزایش می یابد.ما برای ارزیابی از نمونه های شبیه سازی شده و واقعی استفاده می کنیم
عملکرد روش پیشنهادی.ما همچنین روش خود را با برخی مقایسه می کنیم
موجودات موجود در ادبیات و دریافتند که رویکرد پیشنهادی نه تنها
نتایج قابل تفسیر را ارائه می دهد اما در خارج از نمونه نیز عملکرد خوبی دارد
پیش بینی |
30,210 | We provide an inference procedure for the sharp regression discontinuity
design (RDD) under monotonicity, with possibly multiple running variables.
Specifically, we consider the case where the true regression function is
monotone with respect to (all or some of) the running variables and assumed to
lie in a Lipschitz smoothness class. Such a monotonicity condition is natural
in many empirical contexts, and the Lipschitz constant has an intuitive
interpretation. We propose a minimax two-sided confidence interval (CI) and an
adaptive one-sided CI. For the two-sided CI, the researcher is required to
choose a Lipschitz constant where she believes the true regression function to
lie in. This is the only tuning parameter, and the resulting CI has uniform
coverage and obtains the minimax optimal length. The one-sided CI can be
constructed to maintain coverage over all monotone functions, providing maximum
credibility in terms of the choice of the Lipschitz constant. Moreover, the
monotonicity makes it possible for the (excess) length of the CI to adapt to
the true Lipschitz constant of the unknown regression function. Overall, the
proposed procedures make it easy to see under what conditions on the underlying
regression function the given estimates are significant, which can add more
transparency to research using RDD methods. | ما یک روش استنباط برای ناپیوستگی رگرسیون شدید ارائه می دهیم
طراحی (RDD) تحت یکنواختی ، با متغیرهای متعدد در حال اجرا.
به طور خاص ، ما موردی را در نظر می گیریم که عملکرد رگرسیون واقعی باشد
یکنواخت با توجه به متغیرهای در حال اجرا (همه یا برخی از)
در یک کلاس صافی لیپشیتز دراز بکشید.چنین شرایط یکنواختی طبیعی است
در بسیاری از زمینه های تجربی ، و ثابت Lipschitz شهودی دارد
تفسیرما یک فاصله اطمینان دو طرفه Minimax (CI) و A را پیشنهاد می کنیم
CI یک طرفه تطبیقی.برای CI دو طرفه ، محقق مورد نیاز است
در جایی که او معتقد است عملکرد رگرسیون واقعی به آن ثابت می کند ، یک Lipschitz ثابت را انتخاب کنید
دروغ بگوییم این تنها پارامتر تنظیم است و CI حاصل از آن یکنواخت است
پوشش و طول بهینه Minimax را بدست می آورد.CI یک طرفه می تواند باشد
ساخته شده برای حفظ پوشش بیش از همه توابع یکنواخت ، ارائه حداکثر
اعتبار از نظر انتخاب ثابت لیپشیتز.علاوه بر این ،
یکنواختی این امکان را برای طول (بیش از حد) CI فراهم می کند تا با آن سازگار شود
ثابت واقعی لیپشیتز عملکرد رگرسیون ناشناخته.در کل ،
رویه های پیشنهادی می توان در چه شرایطی در زیرین ، مشاهده کرد
عملکرد رگرسیون تخمین های داده شده قابل توجه است ، که می تواند بیشتر اضافه کند
شفافیت در تحقیق با استفاده از روشهای RDD. |
30,211 | Urban transportation and land use models have used theory and statistical
modeling methods to develop model systems that are useful in planning
applications. Machine learning methods have been considered too 'black box',
lacking interpretability, and their use has been limited within the land use
and transportation modeling literature. We present a use case in which
predictive accuracy is of primary importance, and compare the use of random
forest regression to multiple regression using ordinary least squares, to
predict rents per square foot in the San Francisco Bay Area using a large
volume of rental listings scraped from the Craigslist website. We find that we
are able to obtain useful predictions from both models using almost exclusively
local accessibility variables, though the predictive accuracy of the random
forest model is substantially higher. | مدل های حمل و نقل شهری و استفاده از زمین از تئوری و آماری استفاده کرده اند
روش های مدل سازی برای توسعه سیستم های مدل که در برنامه ریزی مفید هستند
برنامه های کاربردی.روشهای یادگیری ماشین بیش از حد "جعبه سیاه" در نظر گرفته شده است ،
فاقد تفسیر ، و استفاده از آنها در استفاده از زمین محدود شده است
و ادبیات مدل سازی حمل و نقل.ما یک مورد استفاده را ارائه می دهیم که در آن
دقت پیش بینی از اهمیت اصلی برخوردار است و استفاده از تصادفی را مقایسه می کند
رگرسیون جنگل به رگرسیون چندگانه با استفاده از حداقل مربعات معمولی ، به
پیش بینی اجاره به ازای هر فوت مربع در منطقه خلیج سانفرانسیسکو با استفاده از یک بزرگ
حجم لیست های اجاره ای که از وب سایت Craigslist جدا شده است.متوجه می شویم که ما
با استفاده از تقریباً منحصراً قادر به پیش بینی های مفیدی از هر دو مدل هستند
متغیرهای دسترسی محلی ، هرچند دقت پیش بینی تصادفی
مدل جنگل از نظر قابل ملاحظه ای بالاتر است. |
30,212 | Study samples often differ from the target populations of inference and
policy decisions in non-random ways. Researchers typically believe that such
departures from random sampling -- due to changes in the population over time
and space, or difficulties in sampling truly randomly -- are small, and their
corresponding impact on the inference should be small as well. We might
therefore be concerned if the conclusions of our studies are excessively
sensitive to a very small proportion of our sample data. We propose a method to
assess the sensitivity of applied econometric conclusions to the removal of a
small fraction of the sample. Manually checking the influence of all possible
small subsets is computationally infeasible, so we use an approximation to find
the most influential subset. Our metric, the "Approximate Maximum Influence
Perturbation," is based on the classical influence function, and is
automatically computable for common methods including (but not limited to) OLS,
IV, MLE, GMM, and variational Bayes. We provide finite-sample error bounds on
approximation performance. At minimal extra cost, we provide an exact
finite-sample lower bound on sensitivity. We find that sensitivity is driven by
a signal-to-noise ratio in the inference problem, is not reflected in standard
errors, does not disappear asymptotically, and is not due to misspecification.
While some empirical applications are robust, results of several influential
economics papers can be overturned by removing less than 1% of the sample. | نمونه های مطالعه اغلب با جمعیت هدف استنباط متفاوت هستند و
تصمیمات سیاست به روش های غیر تصادفی.محققان به طور معمول معتقدند که چنین
عزیمت از نمونه گیری تصادفی - به دلیل تغییر در جمعیت به مرور زمان
و فضا ، یا مشکلات در نمونه برداری واقعاً به طور تصادفی - کوچک و آنها است
تأثیر متناظر بر استنباط نیز باید کوچک باشد.ما ممکن است
بنابراین اگر نتیجه گیری از مطالعات ما بیش از حد باشد نگران باشید
حساس به بخش بسیار کمی از داده های نمونه ما.ما روشی را پیشنهاد می کنیم
ارزیابی حساسیت نتیجه گیری اقتصاد سنجی کاربردی در حذف a
بخش کوچکی از نمونه.بررسی دستی تأثیر همه ممکن
زیر مجموعه های کوچک از نظر محاسباتی غیرقابل نفوذ است ، بنابراین ما برای یافتن از تقریب استفاده می کنیم
تأثیرگذارترین زیر مجموعه.متریک ما ، "حداکثر تأثیر تقریبی
آشفتگی ، "مبتنی بر عملکرد نفوذ کلاسیک است ، و هست
به طور خودکار برای روشهای مشترک از جمله (اما محدود به) OLS قابل محاسبه است ،
IV ، MLE ، GMM و Bayes متنوع.ما مرزهای خطای نمونه محدود را ارائه می دهیم
عملکرد تقریبی.با حداقل هزینه اضافی ، ما دقیقاً ارائه می دهیم
نمونه محدود محدود به حساسیت.ما می دانیم که حساسیت توسط هدایت می شود
نسبت سیگنال به نویز در مشکل استنباط ، در استاندارد منعکس نمی شود
خطاها ، بدون علامت ناپدید نمی شوند و به دلیل اشتباه اشتباه نیست.
در حالی که برخی از کاربردهای تجربی قوی هستند ، نتایج چندین تأثیرگذار
مقالات اقتصاد را می توان با از بین بردن کمتر از 1 ٪ نمونه از بین برد. |
30,213 | Researchers have compared machine learning (ML) classifiers and discrete
choice models (DCMs) in predicting travel behavior, but the generalizability of
the findings is limited by the specifics of data, contexts, and authors'
expertise. This study seeks to provide a generalizable empirical benchmark by
comparing hundreds of ML and DCM classifiers in a highly structured manner. The
experiments evaluate both prediction accuracy and computational cost by
spanning four hyper-dimensions, including 105 ML and DCM classifiers from 12
model families, 3 datasets, 3 sample sizes, and 3 outputs. This experimental
design leads to an immense number of 6,970 experiments, which are corroborated
with a meta dataset of 136 experiment points from 35 previous studies. This
study is hitherto the most comprehensive and almost exhaustive comparison of
the classifiers for travel behavioral prediction. We found that the ensemble
methods and deep neural networks achieve the highest predictive performance,
but at a relatively high computational cost. Random forests are the most
computationally efficient, balancing between prediction and computation. While
discrete choice models offer accuracy with only 3-4 percentage points lower
than the top ML classifiers, they have much longer computational time and
become computationally impossible with large sample size, high input
dimensions, or simulation-based estimation. The relative ranking of the ML and
DCM classifiers is highly stable, while the absolute values of the prediction
accuracy and computational time have large variations. Overall, this paper
suggests using deep neural networks, model ensembles, and random forests as
baseline models for future travel behavior prediction. For choice modeling, the
DCM community should switch more attention from fitting models to improving
computational efficiency, so that the DCMs can be widely adopted in the big
data context. | محققان طبقه بندی کننده های یادگیری ماشین (ML) و گسسته را مقایسه کرده اند
مدل های انتخاب (DCM) در پیش بینی رفتار سفر ، اما تعمیم پذیری
این یافته ها با مشخصات داده ها ، زمینه ها و نویسندگان محدود است
تجربه و تخصص.این مطالعه به دنبال ارائه یک معیار تجربی قابل تعمیم توسط توسط
مقایسه صدها طبقه بندی کننده ML و DCM به روشی بسیار ساخت یافته.در
آزمایشات هم دقت پیش بینی و هم هزینه محاسباتی را توسط
شامل چهار تقسیم بیش از حد ، از جمله طبقه بندی 105 میلی لیتر و DCM از 12
خانواده های مدل ، 3 مجموعه داده ، 3 اندازه نمونه و 3 خروجی.این آزمایشی
طراحی منجر به تعداد عظیمی از 6،970 آزمایش ، که تأیید شده اند
با یک مجموعه داده متا از 136 امتیاز آزمایش از 35 مطالعه قبلی.این
مطالعه تاکنون جامع ترین و تقریباً جامع ترین مقایسه است
طبقه بندی کننده های پیش بینی رفتاری سفر.متوجه شدیم که این گروه
روش ها و شبکه های عصبی عمیق به بالاترین عملکرد پیش بینی کننده دست می یابند ،
اما با هزینه محاسباتی نسبتاً بالا.جنگل های تصادفی بیشترین دارند
از نظر محاسباتی کارآمد ، متعادل بین پیش بینی و محاسبات.در حالی که
مدل های انتخاب گسسته ، دقت را با تنها 3-4 درصد پایین تر ارائه می دهند
از طبقه بندی کننده های برتر ML ، آنها زمان محاسباتی بسیار طولانی تری دارند و
با اندازه نمونه بزرگ ، ورودی زیاد از نظر محاسباتی غیرممکن شوید
ابعاد ، یا برآورد مبتنی بر شبیه سازی.رتبه نسبی ML و
طبقه بندی کننده های DCM بسیار پایدار است ، در حالی که مقادیر مطلق پیش بینی
دقت و زمان محاسباتی دارای تغییرات زیادی است.در کل ، این مقاله
پیشنهاد می کند از شبکه های عصبی عمیق ، مجموعه های مدل و جنگل های تصادفی به عنوان
مدل های پایه برای پیش بینی رفتار سفر در آینده.برای مدل سازی انتخاب ،
جامعه DCM باید توجه بیشتری را از مدل های متناسب به بهبود تغییر دهد
راندمان محاسباتی ، به طوری که DCM ها می توانند به طور گسترده ای در BIG اتخاذ شوند
متن داده. |
30,214 | This paper investigates the size performance of Wald tests for CAViaR models
(Engle and Manganelli, 2004). We find that the usual estimation strategy on
test statistics yields inaccuracies. Indeed, we show that existing density
estimation methods cannot adapt to the time-variation in the conditional
probability densities of CAViaR models. Consequently, we develop a method
called adaptive random bandwidth which can approximate time-varying conditional
probability densities robustly for inference testing on CAViaR models based on
the asymptotic normality of the model parameter estimator. This proposed method
also avoids the problem of choosing an optimal bandwidth in estimating
probability densities, and can be extended to multivariate quantile regressions
straightforward. | در این مقاله به بررسی عملکرد اندازه تست های والد برای مدلهای خاویار می پردازیم
(انگل و مانگانلی ، 2004).ما می دانیم که استراتژی تخمین معمول در
آمار آزمون نادرست ها را نشان می دهد.در واقع ، ما نشان می دهیم که چگالی موجود
روشهای تخمین نمی توانند با متغیر زمان در شرطی سازگار شوند
تراکم احتمال مدلهای خاویار.در نتیجه ، ما یک روش را توسعه می دهیم
پهنای باند تصادفی تطبیقی نامیده می شود که می تواند مشروط متغیر زمان باشد
تراکم احتمال برای آزمایش استنباط بر روی مدلهای خاویار بر اساس
نرمال بودن بدون علامت برآوردگر پارامتر مدل.این روش پیشنهادی
همچنین از مشکل انتخاب پهنای باند بهینه در تخمین جلوگیری می کند
تراکم احتمال ، و می توان به رگرسیون کمی چند متغیره گسترش داد
مستقیم |
30,215 | We develop a novel method of constructing confidence bands for nonparametric
regression functions under shape constraints. This method can be implemented
via a linear programming, and it is thus computationally appealing. We
illustrate a usage of our proposed method with an application to the regression
kink design (RKD). Econometric analyses based on the RKD often suffer from wide
confidence intervals due to slow convergence rates of nonparametric derivative
estimators. We demonstrate that economic models and structures motivate shape
restrictions, which in turn contribute to shrinking the confidence interval for
an analysis of the causal effects of unemployment insurance benefits on
unemployment durations. | ما یک روش جدید برای ساخت باند های اعتماد به نفس برای غیر پارامتری ایجاد می کنیم
توابع رگرسیون تحت محدودیت های شکل.این روش قابل اجرا است
از طریق یک برنامه نویسی خطی ، و از این رو از نظر محاسباتی جذاب است.ما
استفاده از روش پیشنهادی ما را با یک برنامه برای رگرسیون نشان دهید
طراحی Kink (RKD).تجزیه و تحلیل اقتصاد سنجی بر اساس RKD اغلب از گسترده رنج می برد
فواصل اطمینان به دلیل سرعت همگرایی آهسته مشتق غیرپارامتری
برآوردگرهاما نشان می دهیم که مدل ها و ساختارهای اقتصادی شکل انگیزه شکل می دهند
محدودیت ها ، که به نوبه خود به کاهش فاصله اطمینان برای
تجزیه و تحلیل اثرات علّی مزایای بیمه بیکاری بر
مدت زمان بیکاری. |
30,216 | This article develops new closed-form variance expressions for power analyses
for commonly used difference-in-differences (DID) and comparative interrupted
time series (CITS) panel data estimators. The main contribution is to
incorporate variation in treatment timing into the analysis. The power formulas
also account for other key design features that arise in practice:
autocorrelated errors, unequal measurement intervals, and clustering due to the
unit of treatment assignment. We consider power formulas for both
cross-sectional and longitudinal models and allow for covariates. An
illustrative power analysis provides guidance on appropriate sample sizes. The
key finding is that accounting for treatment timing increases required sample
sizes. Further, DID estimators have considerably more power than standard CITS
and ITS estimators. An available Shiny R dashboard performs the sample size
calculations for the considered estimators. | این مقاله عبارات واریانس جدید و بسته جدیدی را برای تجزیه و تحلیل قدرت ایجاد می کند
برای تفاوتهای متداول (DID) و تطبیقی قطع شده
برآوردگرهای داده پانل سری زمانی (CITS).سهم اصلی این است
تنوع در زمان بندی درمانی را در تجزیه و تحلیل وارد کنید.فرمول های قدرت
همچنین سایر ویژگی های طراحی کلیدی را که در عمل بوجود می آیند حساب کنید:
خطاهای همبستگی ، فواصل اندازه گیری نابرابر و خوشه بندی به دلیل
واحد واگذاری درمان.ما فرمول های قدرت را برای هر دو در نظر می گیریم
مدل های مقطعی و طولی و امکان متغیرهای متغیر را فراهم می کند.در
تجزیه و تحلیل قدرت مصور راهنمایی در مورد اندازه های نمونه مناسب را ارائه می دهد.در
یافته های کلیدی این است که حسابداری برای زمان بندی درمان نمونه مورد نیاز را افزایش می دهد
اندازهعلاوه بر این ، برآوردگرهای DID قدرت قابل توجهی بیشتر از CIT های استاندارد دارند
و برآوردگرهای آنداشبورد R براق موجود اندازه نمونه را انجام می دهد
محاسبات برای برآوردگرهای در نظر گرفته شده. |
30,217 | This paper introduces a feasible and practical Bayesian method for unit root
testing in financial time series. We propose a convenient approximation of the
Bayes factor in terms of the Bayesian Information Criterion as a
straightforward and effective strategy for testing the unit root hypothesis.
Our approximate approach relies on few assumptions, is of general
applicability, and preserves a satisfactory error rate. Among its advantages,
it does not require the prior distribution on model's parameters to be
specified. Our simulation study and empirical application on real exchange
rates show great accordance between the suggested simple approach and both
Bayesian and non-Bayesian alternatives. | در این مقاله یک روش عملی و عملی بیزی برای ریشه واحد ارائه شده است
آزمایش در سری زمانی مالی.ما یک تقریب مناسب از
فاکتور بیز از نظر معیار اطلاعات بیزی به عنوان یک
استراتژی ساده و مؤثر برای آزمایش فرضیه ریشه واحد.
رویکرد تقریبی ما به چند فرضیه متکی است ، کلی است
قابلیت استفاده ، و نرخ خطای رضایت بخش را حفظ می کند.از جمله مزایای آن ،
نیازی به توزیع قبلی در پارامترهای مدل نیست
مشخص شده.مطالعه شبیه سازی ما و کاربرد تجربی در مبادله واقعی
نرخ ها بین رویکرد ساده پیشنهادی و هر دو نشان می دهد
گزینه های بیزی و غیر بیسی. |
30,219 | A growing area of research in epidemiology is the identification of
health-related sibling spillover effects, or the effect of one individual's
exposure on their sibling's outcome. The health and health care of family
members may be inextricably confounded by unobserved factors, rendering
identification of spillover effects within families particularly challenging.
We demonstrate a gain-score regression method for identifying
exposure-to-outcome spillover effects within sibling pairs in a linear fixed
effects framework. The method can identify the exposure-to-outcome spillover
effect if only one sibling's exposure affects the other's outcome; and it
identifies the difference between the spillover effects if both siblings'
exposures affect the others' outcomes. The method fails in the presence of
outcome-to-exposure spillover and outcome-to-outcome spillover. Analytic
results and Monte Carlo simulations demonstrate the method and its limitations.
To exercise this method, we estimate the spillover effect of a child's preterm
birth on an older sibling's literacy skills, measured by the Phonological
Awarenesses Literacy Screening-Kindergarten test. We analyze 20,010 sibling
pairs from a population-wide, Wisconsin-based (United States) birth cohort.
Without covariate adjustment, we estimate that preterm birth modestly decreases
an older sibling's test score (-2.11 points; 95% confidence interval: -3.82,
-0.40 points). In conclusion, gain-scores are a promising strategy for
identifying exposure-to-outcome spillovers in sibling pairs while controlling
for sibling-invariant unobserved confounding in linear settings. | یک منطقه در حال رشد از تحقیقات در اپیدمیولوژی شناسایی است
اثرات سر و صدا خواهر و برادر مرتبط با سلامتی ، یا تأثیر یک فرد
قرار گرفتن در معرض نتیجه خواهر و برادر آنها.بهداشت و مراقبت های بهداشتی خانواده
اعضا ممکن است به طور غیرقابل توصیف توسط عوامل غیرمجاز اشتباه بگیرند ،
شناسایی اثرات سرریز در خانواده ها به ویژه چالش برانگیز است.
ما یک روش رگرسیون نمره سود را برای شناسایی نشان می دهیم
اثرات سرریز قرار گرفتن در معرض نتیجه در جفت خواهر و برادر در یک خطی ثابت
چارچوب اثرات.این روش می تواند سرریز مواجهه با نتیجه را شناسایی کند
تأثیر اگر تنها قرار گرفتن در معرض یک خواهر و برادر بر نتیجه دیگران تأثیر بگذارد.و آن
اگر هر دو خواهر و برادر تفاوت بین اثرات سرریز را مشخص می کنند
قرار گرفتن در معرض نتایج دیگران را تحت تأثیر قرار می دهد.این روش در حضور
سرریز نتیجه به مواجهه و سرریز نتیجه به نتیجه.تحلیلی
نتایج و شبیه سازی مونت کارلو روش و محدودیت های آن را نشان می دهد.
برای استفاده از این روش ، ما اثر سرریز زودرس کودک را تخمین می زنیم
تولد بر روی مهارت های سوادآموزی خواهر و برادر بزرگتر ، که توسط واجی اندازه گیری می شود
آگاهی از غربالگری سوادآموزی-آزمون مهد کودک.ما 20،010 خواهر و برادر را تجزیه و تحلیل می کنیم
جفت از گروه تولد در سطح جمعیت ، ویسکانسین (ایالات متحده).
بدون تنظیم همبستگی ، ما تخمین می زنیم که زایمان زودرس به طور متوسط کاهش می یابد
نمره آزمون خواهر و برادر بزرگتر (-2.11 امتیاز ؛ فاصله اطمینان 95 ٪: -3.82 ،
-0.40 امتیاز).در پایان ، امتیازات سود یک استراتژی امیدوار کننده برای
شناسایی سرریزهای قرار گرفتن در معرض نتیجه در جفت خواهر و برادر هنگام کنترل
برای خواهر و برادر بی نظیر و بی نظیر در تنظیمات خطی. |
30,220 | Researchers regularly perform conditional prediction using imputed values of
missing data. However, applications of imputation often lack a firm foundation
in statistical theory. This paper originated when we were unable to find
analysis substantiating claims that imputation of missing data has good
frequentist properties when data are missing at random (MAR). We focused on the
use of observed covariates to impute missing covariates when estimating
conditional means of the form E(y|x, w). Here y is an outcome whose
realizations are always observed, x is a covariate whose realizations are
always observed, and w is a covariate whose realizations are sometimes
unobserved. We examine the probability limit of simple imputation estimates of
E(y|x, w) as sample size goes to infinity. We find that these estimates are not
consistent when covariate data are MAR. To the contrary, the estimates suffer
from a shrinkage problem. They converge to points intermediate between the
conditional mean of interest, E(y|x, w), and the mean E(y|x) that conditions
only on x. We use a type of genotype imputation to illustrate. | محققان به طور مرتب پیش بینی مشروط را با استفاده از مقادیر منتخب انجام می دهند
داده های گمشدهبا این حال ، برنامه های کاربردی غالباً فاقد یک پایه محکم است
در تئوری آماری.این مقاله هنگامی که نتوانستیم پیدا کنیم سرچشمه گرفته است
تجزیه و تحلیل اثبات ادعاهای مبنی بر عدم تحقق داده های گمشده خوب است
خصوصیات مکرر هنگامی که داده ها به طور تصادفی از دست می روند (MAR).ما روی
استفاده از متغیرهای مشاهده شده برای تحمیل متغیرهای مفقود شده هنگام تخمین
وسیله مشروط فرم E (y | x ، w).در اینجا y نتیجه ای است که
تحقق همیشه مشاهده می شود ، x یک همبستگی است که تحقق آن است
همیشه مشاهده می شود ، و W یک همبستگی است که تحقق آن گاهی اوقات است
بی نظیرما حد احتمال تخمین های ساده را از آن بررسی می کنیم
E (y | x ، w) به عنوان اندازه نمونه به بی نهایت می رود.ما می دانیم که این تخمین ها نیستند
سازگار وقتی داده های متغیر متغیر هستند.برعکس ، تخمین ها رنج می برند
از یک مشکل انقباض.آنها به نقاط میانی بین
میانگین مشروط علاقه ، E (y | x ، w) و میانگین E (y | x) که شرایط
فقط در xما برای نشان دادن از نوعی از ژنوتیپ استفاده می کنیم. |
30,221 | Factor and sparse models are two widely used methods to impose a
low-dimensional structure in high-dimensions. However, they are seemingly
mutually exclusive. We propose a lifting method that combines the merits of
these two models in a supervised learning methodology that allows for
efficiently exploring all the information in high-dimensional datasets. The
method is based on a flexible model for high-dimensional panel data, called
factor-augmented regression model with observable and/or latent common factors,
as well as idiosyncratic components. This model not only includes both
principal component regression and sparse regression as specific models but
also significantly weakens the cross-sectional dependence and facilitates model
selection and interpretability. The method consists of several steps and a
novel test for (partial) covariance structure in high dimensions to infer the
remaining cross-section dependence at each step. We develop the theory for the
model and demonstrate the validity of the multiplier bootstrap for testing a
high-dimensional (partial) covariance structure. The theory is supported by a
simulation study and applications. | مدلهای فاکتور و پراکنده دو روش گسترده برای تحمیل a هستند
ساختار کم بعدی در ابعاد بالا.با این حال ، آنها به ظاهر هستند
متقابل منحصر به فردما یک روش بلند کردن را پیشنهاد می کنیم که شایستگی های آن را ترکیب می کند
این دو مدل در یک روش یادگیری نظارت شده که امکان پذیر است
کاوش در تمام اطلاعات در مجموعه داده های با ابعاد بالا.در
روش مبتنی بر یک مدل انعطاف پذیر برای داده های پانل با ابعاد بالا است ، به نام
مدل رگرسیون فاکتور با فاکتورهای مشترک و/یا نهفته ،
و همچنین اجزای خاص.این مدل نه تنها شامل هر دو است
رگرسیون مؤلفه اصلی و رگرسیون پراکنده به عنوان مدل های خاص اما
همچنین وابستگی مقطعی را به طور قابل توجهی تضعیف می کند و مدل را تسهیل می کند
انتخاب و تفسیر.این روش شامل چندین مرحله و الف است
آزمایش جدید برای ساختار کواریانس (جزئی) در ابعاد بالا برای استنباط
باقی ماندن وابستگی به مقطع در هر مرحله.ما تئوری را برای
مدل و اعتبار بوت استرپ چند برابر را برای آزمایش a نشان دهید
ساختار کواریانس با ابعاد بالا (جزئی).این تئوری توسط a پشتیبانی می شود
مطالعه شبیه سازی و برنامه ها. |
30,222 | Mixed-frequency Vector AutoRegressions (MF-VAR) model the dynamics between
variables recorded at different frequencies. However, as the number of series
and high-frequency observations per low-frequency period grow, MF-VARs suffer
from the "curse of dimensionality". We curb this curse through a regularizer
that permits hierarchical sparsity patterns by prioritizing the inclusion of
coefficients according to the recency of the information they contain.
Additionally, we investigate the presence of nowcasting relations by sparsely
estimating the MF-VAR error covariance matrix. We study predictive Granger
causality relations in a MF-VAR for the U.S. economy and construct a coincident
indicator of GDP growth. Supplementary Materials for this article are available
online. | اتورهای بردار با فرکانس مخلوط (MF-VAR) مدل پویایی بین
متغیرهای ثبت شده در فرکانس های مختلف.با این حال ، به عنوان تعداد سریال
و مشاهدات با فرکانس بالا در هر دوره با فرکانس پایین رشد می کند ، MF-VARS رنج می برد
از "نفرین ابعاد".ما این نفرین را از طریق یک تنظیم کننده مهار می کنیم
که با اولویت بندی گنجاندن ، الگوهای کمبود سلسله مراتبی را امکان پذیر می کند
ضرایب با توجه به بازپرداخت اطلاعات موجود در آنها.
علاوه بر این ، ما در مورد حضور روابط Nowcasting توسط پراکنده بررسی می کنیم
تخمین ماتریس کواریانس خطای VAR.ما گرنجر پیش بینی را مطالعه می کنیم
روابط علیت در یک MF-VAR برای اقتصاد ایالات متحده و ایجاد یک همزمان
شاخص رشد تولید ناخالص داخلی.مواد تکمیلی برای این مقاله در دسترس است
برخط. |
30,223 | We provide a comprehensive theory of conducting in-sample statistical
inference about receiver operating characteristic (ROC) curves that are based
on predicted values from a first stage model with estimated parameters (such as
a logit regression). The term "in-sample" refers to the practice of using the
same data for model estimation (training) and subsequent evaluation, i.e., the
construction of the ROC curve. We show that in this case the first stage
estimation error has a generally non-negligible impact on the asymptotic
distribution of the ROC curve and develop the appropriate pointwise and
functional limit theory. We propose methods for simulating the distribution of
the limit process and show how to use the results in practice in comparing ROC
curves. | ما یک تئوری جامع در مورد انجام آماری در نمونه ارائه می دهیم
استنتاج در مورد منحنی های مشخصه عملکرد گیرنده (ROC) که مبتنی بر آنها هستند
در مقادیر پیش بینی شده از یک مدل مرحله اول با پارامترهای تخمین زده شده (مانند
رگرسیون ورود به سیستم).اصطلاح "در نمونه" به تمرین استفاده از آن اشاره دارد
داده های مشابه برای برآورد مدل (آموزش) و ارزیابی متعاقب آن ، یعنی ،
ساخت منحنی ROC.ما نشان می دهیم که در این حالت مرحله اول
خطای تخمین به طور کلی تأثیر غیر قابل کنترل در مجانبی دارد
توزیع منحنی ROC و توسعه نقطه مناسب و
نظریه حد عملکردی.ما روش هایی را برای شبیه سازی توزیع پیشنهاد می کنیم
روند محدودیت و نشان دادن نحوه استفاده از نتایج در عمل در مقایسه ROC
منحنی ها |
30,224 | This paper studies nonparametric identification and estimation of causal
effects in centralized school assignment. In many centralized assignment
settings, students are subjected to both lottery-driven variation and
regression discontinuity (RD) driven variation. We characterize the full set of
identified atomic treatment effects (aTEs), defined as the conditional average
treatment effect between a pair of schools, given student characteristics.
Atomic treatment effects are the building blocks of more aggregated notions of
treatment contrasts, and common approaches estimating aggregations of aTEs can
mask important heterogeneity. In particular, many aggregations of aTEs put zero
weight on aTEs driven by RD variation, and estimators of such aggregations put
asymptotically vanishing weight on the RD-driven aTEs. We develop a diagnostic
tool for empirically assessing the weight put on aTEs driven by RD variation.
Lastly, we provide estimators and accompanying asymptotic results for inference
on aggregations of RD-driven aTEs. | در این مقاله به بررسی شناسایی غیرپارامتری و تخمین علت می پردازیم
اثرات در تکالیف متمرکز مدرسه.در بسیاری از تکالیف متمرکز
تنظیمات ، دانش آموزان در معرض تغییر قرعه کشی و هم قرار می گیرند
ناپیوستگی رگرسیون (RD) تنوع رانده شده.ما مجموعه کامل از
اثرات درمانی اتمی (ATE) شناسایی شده ، به عنوان میانگین مشروط تعریف شده است
اثر درمانی بین یک جفت مدرسه ، با توجه به ویژگی های دانش آموزان.
اثرات تصفیه اتمی بلوک های ساختمانی مفاهیم جمع شده تر از
تضادهای درمانی ، و رویکردهای متداول تخمین تجمع ATE ها
ناهمگونی مهم ماسک.به طور خاص ، بسیاری از تجمع ATE صفر را قرار می دهد
وزن بر روی ATES ناشی از تنوع RD ، و برآوردگرهای چنین تجمع هایی قرار داده شده است
وزن بدون علامت در ATES RD محور.ما یک تشخیص ایجاد می کنیم
ابزاری برای ارزیابی تجربی وزن قرار داده شده بر روی ATES ناشی از تنوع RD.
سرانجام ، ما برآوردگرها و نتایج بدون علامت همراه را برای استنباط ارائه می دهیم
در جمع ATES RD محور. |
30,225 | The ability to generalize experimental results from randomized control trials
(RCTs) across locations is crucial for informing policy decisions in targeted
regions. Such generalization is often hindered by the lack of identifiability
due to unmeasured effect modifiers that compromise direct transport of
treatment effect estimates from one location to another. We build upon
sensitivity analysis in observational studies and propose an optimization
procedure that allows us to get bounds on the treatment effects in targeted
regions. Furthermore, we construct more informative bounds by balancing on the
moments of covariates. In simulation experiments, we show that the covariate
balancing approach is promising in getting sharper identification intervals. | توانایی تعمیم نتایج آزمایشی از آزمایشات کنترل تصادفی
(RCTS) در سراسر مکان ها برای اطلاع رسانی تصمیمات سیاست در هدفمند بسیار مهم است
مناطقچنین تعمیم اغلب به دلیل عدم شناسایی مانع می شود
با توجه به اصلاح کننده های اثر غیرقابل اندازه گیری که حمل و نقل مستقیم را به خطر می اندازند
تخمین اثر درمانی از یک مکان به مکان دیگر.ما بر روی
تجزیه و تحلیل حساسیت در مطالعات مشاهده ای و ارائه بهینه سازی
رویه ای که به ما امکان می دهد تا اثرات درمانی را در هدف قرار دهیم
مناطقعلاوه بر این ، ما با تعادل در آن مرزهای آموزنده تری می سازیم
لحظات متغیرهای متغیر.در آزمایش های شبیه سازی ، ما نشان می دهیم که متغیر
رویکرد متعادل کننده نویدبخش است که فواصل شناسایی واضح تر را بدست آورید. |
30,226 | We show that the Realized GARCH model yields close-form expression for both
the Volatility Index (VIX) and the volatility risk premium (VRP). The Realized
GARCH model is driven by two shocks, a return shock and a volatility shock, and
these are natural state variables in the stochastic discount factor (SDF). The
volatility shock endows the exponentially affine SDF with a compensation for
volatility risk. This leads to dissimilar dynamic properties under the physical
and risk-neutral measures that can explain time-variation in the VRP. In an
empirical application with the S&P 500 returns, the VIX, and the VRP, we find
that the Realized GARCH model significantly outperforms conventional GARCH
models. | ما نشان می دهیم که مدل GARCH تحقق یافته برای هر دو بیان نزدیک است
شاخص نوسانات (VIX) و حق بیمه خطر نوسانات (VRP).تحقق یافته
مدل گارچ توسط دو شوک ، شوک بازگشت و شوک نوسانات هدایت می شود و
اینها متغیرهای حالت طبیعی در فاکتور تخفیف تصادفی (SDF) هستند.در
شوک نوسانات SDF را به صورت نمایی وابسته به جبران خسارت می کند
خطر نوسانات.این منجر به خصوصیات پویا متفاوت تحت فیزیکی می شود
و اقدامات بی طرف خطر که می تواند متغیر زمانی در VRP را توضیح دهد.در یک
برنامه تجربی با بازگشت S&P 500 ، VIX و VRP ، ما پیدا می کنیم
که مدل گارچ تحقق یافته به طور قابل توجهی از گارچ معمولی بهتر عمل می کند
مدل ها. |
30,227 | We introduce a new volatility model for option pricing that combines Markov
switching with the Realized GARCH framework. This leads to a novel pricing
kernel with a state-dependent variance risk premium and a pricing formula for
European options, which is derived with an analytical approximation method. We
apply the Markov switching Realized GARCH model to S&P 500 index options from
1990 to 2019 and find that investors' aversion to volatility-specific risk is
time-varying. The proposed framework outperforms competing models and reduces
(in-sample and out-of-sample) option pricing errors by 15% or more. | ما یک مدل نوسانات جدید را برای قیمت گذاری گزینه ای که ترکیبی از مارکوف است معرفی می کنیم
سوئیچینگ با چارچوب تحقق یافته Garch.این منجر به قیمت گذاری جدید می شود
هسته با حق بیمه خطر واریانس وابسته به دولت و فرمول قیمت گذاری برای
گزینه های اروپایی ، که با یک روش تقریب تحلیلی مشتق شده است.ما
Markov Switching Model Garch را در گزینه های شاخص S&P 500 از آن استفاده کنید
1990 تا 2019 و دریابید که بیزاری سرمایه گذاران از ریسک خاص نوسانات است
متغیر زمانچارچوب پیشنهادی از مدل های رقیب بهتر عمل می کند و کاهش می یابد
(در نمونه و خارج از نمونه) خطاهای قیمت گذاری گزینه 15 ٪ یا بیشتر. |
30,228 | Synthetic control (SC) methods have been widely applied to estimate the
causal effect of large-scale interventions, e.g., the state-wide effect of a
change in policy. The idea of synthetic controls is to approximate one unit's
counterfactual outcomes using a weighted combination of some other units'
observed outcomes. The motivating question of this paper is: how does the SC
strategy lead to valid causal inferences? We address this question by
re-formulating the causal inference problem targeted by SC with a more
fine-grained model, where we change the unit of the analysis from "large units"
(e.g., states) to "small units" (e.g., individuals in states). Under this
re-formulation, we derive sufficient conditions for the non-parametric causal
identification of the causal effect. We highlight two implications of the
reformulation: (1) it clarifies where "linearity" comes from, and how it falls
naturally out of the more fine-grained and flexible model, and (2) it suggests
new ways of using available data with SC methods for valid causal inference, in
particular, new ways of selecting observations from which to estimate the
counterfactual. | روشهای کنترل مصنوعی (SC) به طور گسترده ای برای برآورد استفاده شده است
اثر علیت مداخلات در مقیاس بزرگ ، به عنوان مثال ، اثر گسترده ای از a
تغییر در سیاست.ایده کنترل مصنوعی تقریبی یک واحد است
نتایج متقابل با استفاده از ترکیب وزنی برخی از واحدهای دیگر '
نتایج مشاهده شدهسوال انگیزه این مقاله این است: SC چگونه می تواند
استراتژی منجر به استنتاج علیت معتبر می شود؟ما به این س question ال می پردازیم
دوباره ایجاد مشکل استنباط علی که توسط SC با موارد بیشتری هدف قرار گرفته است
مدل ریز دانه ، که در آن واحد تجزیه و تحلیل را از "واحدهای بزرگ" تغییر می دهیم
(به عنوان مثال ، ایالات) به "واحدهای کوچک" (به عنوان مثال ، افراد در ایالت ها).زیر این
شکل گیری مجدد ، ما شرایط کافی را برای علت غیر پارامتری به دست می آوریم
شناسایی اثر علی.ما دو پیامد را برجسته می کنیم
اصلاح مجدد: (1) این روشن می کند که "خطی" از کجا ناشی می شود و چگونه می افتد
به طور طبیعی از مدل ریز و انعطاف پذیر تر خارج شده است ، و (2) آن را پیشنهاد می کند
روشهای جدید استفاده از داده های موجود با روشهای SC برای استنتاج علیت معتبر ، در
به ویژه ، روشهای جدید برای انتخاب مشاهدات برای تخمین
خلاف واقع |
30,229 | We provide a decision theoretic analysis of bandit experiments. Working
within the framework of diffusion asymptotics, we define suitable notions of
asymptotic Bayes and minimax risk for these experiments. For normally
distributed rewards, the minimal Bayes risk can be characterized as the
solution to a second-order partial differential equation (PDE). Using a limit
of experiments approach, we show that this PDE characterization also holds
asymptotically under both parametric and non-parametric distributions of the
rewards. The approach further describes the state variables it is
asymptotically sufficient to restrict attention to, and thereby suggests a
practical strategy for dimension reduction. The PDEs characterizing minimal
Bayes risk can be solved efficiently using sparse matrix routines. We derive
the optimal Bayes and minimax policies from their numerical solutions. These
optimal policies substantially dominate existing methods such as Thompson
sampling and UCB, often by a factor of two. The framework also covers time
discounting and pure exploration. | ما یک تجزیه و تحلیل نظری تصمیم گیری از آزمایش های راهزن ارائه می دهیم.کار کردن
در چارچوب بدون علامت انتشار ، ما مفاهیم مناسب از
Bayes بدون علامت و خطر Minimax برای این آزمایشات.برای عادی
پاداش های توزیع شده ، حداقل خطر بیز را می توان به عنوان
راه حل برای معادله دیفرانسیل جزئی مرتبه دوم (PDE).با استفاده از یک حد
از رویکرد آزمایشات ، ما نشان می دهیم که این خصوصیات PDE نیز وجود دارد
بدون علامت تحت هر دو توزیع پارامتری و غیر پارامتری
پاداشاین رویکرد بیشتر متغیرهای حالت را توصیف می کند
بدون علامت کافی برای محدود کردن توجه ، و در نتیجه پیشنهاد می کند
استراتژی عملی برای کاهش بعد.PDE ها حداقل را توصیف می کنند
ریسک بیز با استفاده از روال های ماتریس پراکنده می تواند به طور مؤثر حل شود.ما مشتق می شویم
خط مشی های بهینه و مینیماکس از راه حل های عددی آنها.اینها
سیاستهای بهینه به طور قابل ملاحظه ای بر روشهای موجود مانند تامپسون حاکم است
نمونه برداری و UCB ، اغلب توسط یک عامل دو.این چارچوب همچنین زمان را در بر می گیرد
تخفیف و اکتشاف خالص. |
30,230 | We reconcile the two worlds of dense and sparse modeling by exploiting the
positive aspects of both. We employ a factor model and assume {the dynamic of
the factors is non-pervasive while} the idiosyncratic term follows a sparse
vector autoregressive model (VAR) {which allows} for cross-sectional and time
dependence. The estimation is articulated in two steps: first, the factors and
their loadings are estimated via principal component analysis and second, the
sparse VAR is estimated by regularized regression on the estimated
idiosyncratic components. We prove the consistency of the proposed estimation
approach as the time and cross-sectional dimension diverge. In the second step,
the estimation error of the first step needs to be accounted for. Here, we do
not follow the naive approach of simply plugging in the standard rates derived
for the factor estimation. Instead, we derive a more refined expression of the
error. This enables us to derive tighter rates. We discuss the implications of
our model for forecasting, factor augmented regression, bootstrap of factor
models, and time series dependence networks via semi-parametric estimation of
the inverse of the spectral density matrix. | ما دو جهان از مدل سازی متراکم و پراکنده را با بهره برداری از آن آشتی می دهیم
جنبه های مثبت هر دو.ما از یک مدل عاملی استفاده می کنیم و فرض می کنیم - پویایی
فاکتورها غیر فرسوده است در حالی که} اصطلاح ایدیوسنکراتیک از یک پراکنده پیروی می کند
مدل اتورگرایی وکتور (VAR) {که اجازه می دهد} برای مقطعی و زمان
وابستگی.تخمین در دو مرحله بیان شده است: اول ، عوامل و
بارهای آنها از طریق تجزیه و تحلیل مؤلفه اصلی تخمین زده می شود و دوم ،
VAR پراکنده با رگرسیون منظم در تخمین زده شده تخمین زده می شود
اجزای خاص.ما قوام برآورد پیشنهادی را اثبات می کنیم
به عنوان زمان و بعد مقطعی واگرایی می شود.در مرحله دوم ،
خطای تخمین مرحله اول باید حساب شود.در اینجا ، ما انجام می دهیم
از رویکرد ساده لوحانه وصل کردن نرخ استاندارد مشتق شده پیروی نکنید
برای تخمین عاملدر عوض ، ما یک بیان تصفیه شده تر از
خطااین ما را قادر می سازد تا نرخ های سخت تری را بدست آوریم.ما در مورد پیامدهای
مدل ما برای پیش بینی ، رگرسیون تقویت شده عامل ، بوت استرپ فاکتور
مدل ها ، و شبکه های وابستگی به سری زمانی از طریق تخمین نیمه پارامتری
معکوس ماتریس چگالی طیفی. |
30,231 | We provide the first behavioral characterization of nested logit, a
foundational and widely applied discrete choice model, through the introduction
of a non-parametric version of nested logit that we call Nested Stochastic
Choice (NSC). NSC is characterized by a single axiom that weakens Independence
of Irrelevant Alternatives based on revealed similarity to allow for the
similarity effect. Nested logit is characterized by an additional
menu-independence axiom. Our axiomatic characterization leads to a practical,
data-driven algorithm that identifies the true nest structure from choice data.
We also discuss limitations of generalizing nested logit by studying the
testable implications of cross-nested logit. | ما اولین خصوصیات رفتاری از ورود به تو در تو را ارائه می دهیم ، a
از طریق مقدمه ، مدل انتخاب گسسته و به طور گسترده کاربردی
از نسخه غیر پارامتری از ورود به تو در تو در تو در توخالی که ما آن را تصادفی می نامیم
انتخاب (NSC).NSC با یک بدیهیات واحد مشخص می شود که استقلال را تضعیف می کند
از گزینه های بی ربط بر اساس شباهت آشکار شده برای امکان
اثر شباهتورود به تو در تو در تو با یک اضافی مشخص می شود
بدیهی منو-استقلال.خصوصیات بدیهی ما منجر به عملی می شود ،
الگوریتم داده محور که ساختار لانه واقعی را از داده های انتخاب مشخص می کند.
ما همچنین در مورد محدودیت های عمومی سازی ورود به تو در تو در تو در مورد مطالعه بحث می کنیم
پیامدهای قابل آزمایش از ورود به لانه متقابل. |
30,232 | State-space mixed-frequency vector autoregressions are now widely used for
nowcasting. Despite their popularity, estimating such models can be
computationally intensive, especially for large systems with stochastic
volatility. To tackle the computational challenges, we propose two novel
precision-based samplers to draw the missing observations of the low-frequency
variables in these models, building on recent advances in the band and sparse
matrix algorithms for state-space models. We show via a simulation study that
the proposed methods are more numerically accurate and computationally
efficient compared to standard Kalman-filter based methods. We demonstrate how
the proposed method can be applied in two empirical macroeconomic applications:
estimating the monthly output gap and studying the response of GDP to a
monetary policy shock at the monthly frequency. Results from these two
empirical applications highlight the importance of incorporating high-frequency
indicators in macroeconomic models. | در حال حاضر اتورهای وکتور با فرکانس مخلوط دولت اکنون به طور گسترده ای مورد استفاده قرار می گیرند
Nowcastingبا وجود محبوبیت آنها ، تخمین چنین مدل هایی می تواند باشد
از نظر محاسباتی فشرده ، به ویژه برای سیستم های بزرگ با تصادفی
نوسان.برای مقابله با چالش های محاسباتی ، ما دو رمان را پیشنهاد می کنیم
نمونه برداران مبتنی بر دقت برای ترسیم مشاهدات گمشده از فرکانس پایین
متغیرهای موجود در این مدل ها ، بر اساس پیشرفت های اخیر در گروه و پراکنده
الگوریتم های ماتریس برای مدل های فضای حالت.ما از طریق یک مطالعه شبیه سازی نشان می دهیم که
روشهای پیشنهادی از نظر عددی دقیق تر و محاسباتی هستند
کارآمد در مقایسه با روشهای استاندارد مبتنی بر فیلتر کالمن.ما نشان می دهیم که چگونه
روش پیشنهادی را می توان در دو برنامه کلان اقتصادی تجربی اعمال کرد:
تخمین شکاف خروجی ماهانه و مطالعه پاسخ تولید ناخالص داخلی به a
شوک سیاست پولی در فرکانس ماهانه.نتایج این دو
برنامه های تجربی اهمیت ترکیب فرکانس بالا را برجسته می کند
شاخص ها در مدلهای کلان اقتصادی. |
30,233 | We present a novel characterization of random rank-dependent expected utility
for finite datasets and finite prizes. The test lends itself to statistical
testing using the tools in Kitamura and Stoye (2018). | ما یک ویژگی جدید از ابزار مورد انتظار وابسته به رتبه تصادفی ارائه می دهیم
برای مجموعه داده های محدود و جوایز محدود.این آزمون خود را به آماری وام می دهد
آزمایش با استفاده از ابزارهای موجود در کیتامورا و استوی (2018). |
30,234 | We study a continuous treatment effect model in the presence of treatment
spillovers through social networks. We assume that one's outcome is affected
not only by his/her own treatment but also by a (weighted) average of his/her
neighbors' treatments, both of which are treated as endogenous variables. Using
a control function approach with appropriate instrumental variables, we show
that the conditional mean potential outcome can be nonparametrically
identified. We also consider a more empirically tractable semiparametric model
and develop a three-step estimation procedure for this model. As an empirical
illustration, we investigate the causal effect of the regional unemployment
rate on the crime rate. | ما یک مدل اثر درمانی مداوم را در حضور درمان مطالعه می کنیم
سرریز از طریق شبکه های اجتماعی.ما فرض می کنیم که نتیجه شخص تحت تأثیر قرار می گیرد
نه تنها با معالجه خود بلکه با میانگین (وزنی) از او
درمان همسایگان ، که هر دو به عنوان متغیرهای درون زا تحت درمان قرار می گیرند.استفاده كردن
یک رویکرد عملکرد کنترل با متغیرهای ابزار مناسب ، ما نشان می دهیم
اینکه میانگین نتیجه احتمالی نتیجه بالقوه غیرعادی باشد
شناخته شده است.ما همچنین یک مدل نیمهرامتری قابل استفاده تر را در نظر می گیریم
و یک روش تخمین سه مرحله ای برای این مدل تهیه کنید.به عنوان یک تجربی
تصویر ، ما تأثیر علی بیکاری منطقه ای را بررسی می کنیم
نرخ در نرخ جرم. |
30,235 | Causally identifying the effect of digital advertising is challenging,
because experimentation is expensive, and observational data lacks random
variation. This paper identifies a pervasive source of naturally occurring,
quasi-experimental variation in user-level ad-exposure in digital advertising
campaigns. It shows how this variation can be utilized by ad-publishers to
identify the causal effect of advertising campaigns. The variation pertains to
auction throttling, a probabilistic method of budget pacing that is widely used
to spread an ad-campaign`s budget over its deployed duration, so that the
campaign`s budget is not exceeded or overly concentrated in any one period. The
throttling mechanism is implemented by computing a participation probability
based on the campaign`s budget spending rate and then including the campaign in
a random subset of available ad-auctions each period according to this
probability. We show that access to logged-participation probabilities enables
identifying the local average treatment effect (LATE) in the ad-campaign. We
present a new estimator that leverages this identification strategy and outline
a bootstrap procedure for quantifying its variability. We apply our method to
real-world ad-campaign data from an e-commerce advertising platform, which uses
such throttling for budget pacing. We show our estimate is statistically
different from estimates derived using other standard observational methods
such as OLS and two-stage least squares estimators. Our estimated conversion
lift is 110%, a more plausible number than 600%, the conversion lifts estimated
using naive observational methods. | شناسایی علت تأثیر تبلیغات دیجیتال چالش برانگیز است ،
از آنجا که آزمایش گران است و داده های مشاهده ای فاقد تصادفی است
تغییر.در این مقاله یک منبع فراگیر از طبیعی وجود دارد ،
تنوع شبه تجربی در مواجهه با سطح کاربر در تبلیغات دیجیتال
کمپین هااین نشان می دهد که چگونه می توان این تغییر را توسط ناشران تبلیغاتی مورد استفاده قرار داد
تأثیر علی تبلیغات تبلیغاتی را مشخص کنید.تنوع مربوط به
حراج ، یک روش احتمالی قدم زدن در بودجه که به طور گسترده ای مورد استفاده قرار می گیرد
برای گسترش بودجه Ad-Campaign در طول مدت مستقر آن ، به طوری که
بودجه کمپین در هر دوره ای بیش از یا بیش از حد متمرکز نیست.در
مکانیسم پرتاب با محاسبه احتمال مشارکت اجرا می شود
بر اساس نرخ هزینه بودجه کمپین و سپس از جمله کمپین در
یک زیر مجموعه تصادفی از حراج های موجود در هر دوره با توجه به این
احتمالما نشان می دهیم که دسترسی به احتمالات مشارکت در سیستم امکان پذیر است
شناسایی اثر درمانی متوسط محلی (دیر) در AD-MAMPAIGHT.ما
یک برآوردگر جدید ارائه دهید که از این استراتژی شناسایی و طرح ریزی استفاده می کند
یک روش bootstrap برای کمیت تنوع آن.ما روش خود را در
داده های تبلیغاتی تبلیغاتی در دنیای واقعی از یک پلت فرم تبلیغات تجارت الکترونیکی ، که از آن استفاده می کند
چنین فشار برای قدم زدن در بودجه.ما نشان می دهیم که تخمین ما از نظر آماری است
متفاوت از برآوردهای حاصل از سایر روشهای مشاهده استاندارد
مانند OLS و برآوردگرهای حداقل مربعات دو مرحله ای.تبدیل تخمین زده شده ما
آسانسور 110 ٪ است ، تعداد قابل قبول تر از 600 ٪ ، آسانسورهای تبدیل تخمین زده می شوند
با استفاده از روشهای مشاهده ای ساده لوح. |
30,236 | In this paper, we consider a high-dimensional quantile regression model where
the sparsity structure may differ between two sub-populations. We develop
$\ell_1$-penalized estimators of both regression coefficients and the threshold
parameter. Our penalized estimators not only select covariates but also
discriminate between a model with homogeneous sparsity and a model with a
change point. As a result, it is not necessary to know or pretest whether the
change point is present, or where it occurs. Our estimator of the change point
achieves an oracle property in the sense that its asymptotic distribution is
the same as if the unknown active sets of regression coefficients were known.
Importantly, we establish this oracle property without a perfect covariate
selection, thereby avoiding the need for the minimum level condition on the
signals of active covariates. Dealing with high-dimensional quantile regression
with an unknown change point calls for a new proof technique since the quantile
loss function is non-smooth and furthermore the corresponding objective
function is non-convex with respect to the change point. The technique
developed in this paper is applicable to a general M-estimation framework with
a change point, which may be of independent interest. The proposed methods are
then illustrated via Monte Carlo experiments and an application to tipping in
the dynamics of racial segregation. | در این مقاله ، ما یک مدل رگرسیون کمی با ابعاد بالا را در نظر می گیریم که در آن
ساختار کمبود ممکن است بین دو جمعیت زیر متفاوت باشد.ما توسعه می دهیم
$ \ ELL_1 $-برآوردگرهای ضعف هر دو ضرایب رگرسیون و آستانه
پارامتر.برآوردگرهای مجازات ما نه تنها متغیرهای متغیر را انتخاب می کنند بلکه همچنین
بین یک مدل با کمبود همگن و یک مدل با a تبعیض قائل شوید
نقطه تغییردر نتیجه ، لازم نیست بدانید که آیا
نقطه تغییر موجود است ، یا جایی که رخ می دهد.برآوردگر ما از نقطه تغییر
به این معنا که توزیع مجانبی آن است ، به یک خاصیت اوراکل دست می یابد
همان چیزی که اگر مجموعه های فعال ناشناخته ضرایب رگرسیون شناخته شده بودند.
مهمتر از همه ، ما این خاصیت اوراکل را بدون یک همبستگی کامل ایجاد می کنیم
انتخاب ، از این طریق از نیاز به حداقل سطح سطح جلوگیری می شود
سیگنال های متغیرهای فعال.برخورد با رگرسیون کوانتین با ابعاد بالا
با یک نقطه تغییر ناشناخته خواستار تکنیک اثبات جدید از زمان کمیت است
عملکرد از دست دادن غیر صاف است و علاوه بر این هدف مربوطه
تابع با توجه به نقطه تغییر غیر متمایز است.تکنیک
توسعه یافته در این مقاله برای یک چارچوب کلی تخمین m قابل استفاده است
یک نقطه تغییر ، که ممکن است مورد علاقه مستقل باشد.روشهای پیشنهادی هستند
سپس از طریق آزمایش های مونت کارلو و یک برنامه کاربردی برای Tipping IN نشان داده شده است
پویایی تفکیک نژادی. |
30,237 | In a randomized control trial, the precision of an average treatment effect
estimator can be improved either by collecting data on additional individuals,
or by collecting additional covariates that predict the outcome variable. We
propose the use of pre-experimental data such as a census, or a household
survey, to inform the choice of both the sample size and the covariates to be
collected. Our procedure seeks to minimize the resulting average treatment
effect estimator's mean squared error, subject to the researcher's budget
constraint. We rely on a modification of an orthogonal greedy algorithm that is
conceptually simple and easy to implement in the presence of a large number of
potential covariates, and does not require any tuning parameters. In two
empirical applications, we show that our procedure can lead to substantial
gains of up to 58%, measured either in terms of reductions in data collection
costs or in terms of improvements in the precision of the treatment effect
estimator. | در یک کارآزمایی کنترل تصادفی ، دقت یک اثر درمانی متوسط
برآوردگر می تواند با جمع آوری داده ها در مورد افراد اضافی بهبود یابد ،
یا با جمع آوری متغیرهای اضافی که متغیر نتیجه را پیش بینی می کند.ما
استفاده از داده های قبل از تجربی مانند سرشماری یا یک خانواده را پیشنهاد دهید
نظرسنجی ، برای اطلاع از انتخاب اندازه نمونه و متغیرهای متغیر
جمع آوری شده.روش ما به دنبال به حداقل رساندن میانگین متوسط درمان است
میانگین خطای مربع برآوردگر اثر ، منوط به بودجه محقق
محدودیتما به اصلاح یک الگوریتم حریص متعامد متکی هستیم که است
از نظر مفهومی ساده و آسان برای حضور در حضور تعداد زیادی از
متغیرهای متغیر بالقوه ، و به هیچ پارامتری تنظیم نیاز ندارد.در دو
برنامه های تجربی ، ما نشان می دهیم که رویه ما می تواند به قابل توجهی منجر شود
سود حداکثر 58 ٪ ، از نظر کاهش جمع آوری داده ها اندازه گیری می شود
هزینه ها یا از نظر پیشرفت در دقت اثر درمانی
برآوردگر |
30,238 | We study factor models augmented by observed covariates that have explanatory
powers on the unknown factors. In financial factor models, the unknown factors
can be reasonably well explained by a few observable proxies, such as the
Fama-French factors. In diffusion index forecasts, identified factors are
strongly related to several directly measurable economic variables such as
consumption-wealth variable, financial ratios, and term spread. With those
covariates, both the factors and loadings are identifiable up to a rotation
matrix even only with a finite dimension. To incorporate the explanatory power
of these covariates, we propose a smoothed principal component analysis (PCA):
(i) regress the data onto the observed covariates, and (ii) take the principal
components of the fitted data to estimate the loadings and factors. This allows
us to accurately estimate the percentage of both explained and unexplained
components in factors and thus to assess the explanatory power of covariates.
We show that both the estimated factors and loadings can be estimated with
improved rates of convergence compared to the benchmark method. The degree of
improvement depends on the strength of the signals, representing the
explanatory power of the covariates on the factors. The proposed estimator is
robust to possibly heavy-tailed distributions. We apply the model to forecast
US bond risk premia, and find that the observed macroeconomic characteristics
contain strong explanatory powers of the factors. The gain of forecast is more
substantial when the characteristics are incorporated to estimate the common
factors than directly used for forecasts. | ما مدلهای عاملی را که توسط متغیرهای متغیر مشاهده شده افزایش می یابد ، مطالعه می کنیم
قدرت در مورد عوامل ناشناخته.در مدل های فاکتور مالی ، عوامل ناشناخته
می توان منطقی را به خوبی توسط چند پروکسی قابل مشاهده مانند توضیح داد.
عوامل فاما-فرانسوی.در پیش بینی شاخص انتشار ، عوامل شناسایی شده هستند
به شدت با چندین متغیر اقتصادی قابل اندازه گیری مستقیم مانند
متغیر مصرف-سلامتی ، نسبت های مالی و گسترش مدت.با انها
متغیرهای متغیر ، هم عوامل و هم بارگذاری تا چرخش قابل شناسایی هستند
ماتریس حتی فقط با یک بعد محدود.برای ترکیب قدرت توضیحی
از بین این متغیرها ، ما یک تجزیه و تحلیل مؤلفه اصلی صاف (PCA) را پیشنهاد می کنیم:
(i) داده ها را بر روی متغیرهای مشاهده شده رگرسیون کنید ، و (ب) اصلی را بگیرید
مؤلفه های داده های مناسب برای برآورد بار و عوامل.این اجازه می دهد
ما برای تخمین دقیق درصد توضیحات و غیر قابل توضیح
مؤلفه های موجود در عوامل و در نتیجه ارزیابی قدرت توضیحی متغیرهای متغیر.
ما نشان می دهیم که هر دو فاکتور و بارهای برآورد شده را می توان با آن تخمین زد
نرخ همگرایی بهبود یافته در مقایسه با روش معیار.درجه
بهبود بستگی به قدرت سیگنال ها دارد ،
قدرت توضیحی متغیرهای متغیر در مورد عوامل.برآوردگر پیشنهادی است
توزیع های قوی و احتمالاً با دم سنگین.ما مدل را برای پیش بینی اعمال می کنیم
حق ریسک ریسک اوراق بهادار ایالات متحده ، و دریافت که ویژگی های کلان اقتصادی مشاهده شده
حاوی قدرت توضیحی قوی از عوامل است.سود پیش بینی بیشتر است
مهم است که ویژگی ها برای برآورد مشترک گنجانیده شود
عواملی نسبت به مستقیم برای پیش بینی ها استفاده می شود. |
30,239 | The random coefficients model is an extension of the linear regression model
that allows for unobserved heterogeneity in the population by modeling the
regression coefficients as random variables. Given data from this model, the
statistical challenge is to recover information about the joint density of the
random coefficients which is a multivariate and ill-posed problem. Because of
the curse of dimensionality and the ill-posedness, pointwise nonparametric
estimation of the joint density is difficult and suffers from slow convergence
rates. Larger features, such as an increase of the density along some direction
or a well-accentuated mode can, however, be much easier detected from data by
means of statistical tests. In this article, we follow this strategy and
construct tests and confidence statements for qualitative features of the joint
density, such as increases, decreases and modes. We propose a multiple testing
approach based on aggregating single tests which are designed to extract shape
information on fixed scales and directions. Using recent tools for Gaussian
approximations of multivariate empirical processes, we derive expressions for
the critical value. We apply our method to simulated and real data. | مدل ضرایب تصادفی پسوند مدل رگرسیون خطی است
این امر باعث می شود ناهمگونی بی نظیر در جمعیت با مدل سازی
ضرایب رگرسیون به عنوان متغیرهای تصادفی.با توجه به داده های این مدل ،
چالش آماری بازیابی اطلاعات در مورد چگالی مشترک این است
ضرایب تصادفی که یک مشکل چند متغیره و بد نیست.به خاطر اینکه
نفرین ابعاد و بدبینی ، غیر پارامتری به نظر می رسد
تخمین تراکم مفصل دشوار است و از همگرایی آهسته رنج می برد
نرخویژگی های بزرگتر ، مانند افزایش چگالی در طول جهت
با این حال ، یک حالت خوب و متمرکز می تواند از داده ها توسط داده ها بسیار ساده تر باشد
معنی تست های آماری.در این مقاله ، ما این استراتژی را دنبال می کنیم و
تست ها و اظهارات اعتماد به نفس برای ویژگی های کیفی مفصل
چگالی مانند افزایش ، کاهش و حالت ها.ما یک آزمایش چندگانه پیشنهاد می کنیم
رویکرد مبتنی بر تست های جداگانه که برای استخراج شکل طراحی شده اند
اطلاعات در مورد مقیاس ها و دستورالعمل های ثابت.استفاده از ابزارهای اخیر برای گاوسی
تقریب فرآیندهای تجربی چند متغیره ، ما عبارات را برای
مقدار بحرانیما روش خود را برای داده های شبیه سازی شده و واقعی اعمال می کنیم. |
30,240 | Triangular systems with nonadditively separable unobserved heterogeneity
provide a theoretically appealing framework for the modelling of complex
structural relationships. However, they are not commonly used in practice due
to the need for exogenous variables with large support for identification, the
curse of dimensionality in estimation, and the lack of inferential tools. This
paper introduces two classes of semiparametric nonseparable triangular models
that address these limitations. They are based on distribution and quantile
regression modelling of the reduced form conditional distributions of the
endogenous variables. We show that average, distribution and quantile
structural functions are identified in these systems through a control function
approach that does not require a large support condition. We propose a
computationally attractive three-stage procedure to estimate the structural
functions where the first two stages consist of quantile or distribution
regressions. We provide asymptotic theory and uniform inference methods for
each stage. In particular, we derive functional central limit theorems and
bootstrap functional central limit theorems for the distribution regression
estimators of the structural functions. These results establish the validity of
the bootstrap for three-stage estimators of structural functions, and lead to
simple inference algorithms. We illustrate the implementation and applicability
of all our methods with numerical simulations and an empirical application to
demand analysis. | سیستم های مثلثی با ناهمگونی غیر قابل استفاده جدا از هم جدا شده است
یک چارچوب نظری جذاب برای مدل سازی پیچیده فراهم کنید
روابط ساختاری.با این حال ، آنها معمولاً در عمل به دلیل استفاده نمی شوند
به نیاز به متغیرهای اگزوژن با پشتیبانی زیاد برای شناسایی ،
نفرین ابعاد در تخمین و عدم وجود ابزارهای استنباطی.این
مقاله دو کلاس از مدلهای مثلثی غیر قابل جدا شدن نیمه جدا شده را معرفی می کند
این محدودیت ها را برطرف می کند.آنها مبتنی بر توزیع و کمیت هستند
مدل سازی رگرسیون از توزیع مشروط فرم کاهش یافته
متغیرهای درون زا.ما این میانگین ، توزیع و کمیت را نشان می دهیم
عملکردهای ساختاری در این سیستم ها از طریق یک عملکرد کنترل مشخص می شوند
رویکردی که نیازی به یک وضعیت پشتیبانی بزرگ ندارد.ما پیشنهاد می کنیم
روش سه مرحله ای جذاب محاسباتی برای برآورد ساختاری
توابعی که در آن دو مرحله اول از کمی یا توزیع تشکیل شده است
رگرسیونما نظریه بدون علامت و روشهای استنباط یکنواخت را برای
هر مرحله.به طور خاص ، ما قضایای محدودیت مرکزی عملکردی را استخراج می کنیم و
قضایای محدودیت مرکزی عملکردی Bootstrap برای رگرسیون توزیع
برآوردگرهای عملکردهای ساختاری.این نتایج اعتبار آن را تعیین می کند
بوت استرپ برای برآوردگرهای سه مرحله ای از عملکردهای ساختاری ، و منجر به
الگوریتم های استنتاج ساده.ما اجرای و کاربرد را نشان می دهیم
از تمام روشهای ما با شبیه سازی های عددی و یک کاربرد تجربی در
تجزیه و تحلیل تقاضا. |
30,241 | In this paper we extend the work by Ryuzo Sato devoted to the development of
economic growth models within the framework of the Lie group theory. We propose
a new growth model based on the assumption of logistic growth in factors. It is
employed to derive new production functions and introduce a new notion of wage
share. In the process it is shown that the new functions compare reasonably
well against relevant economic data. The corresponding problem of maximization
of profit under conditions of perfect competition is solved with the aid of one
of these functions. In addition, it is explained in reasonably rigorous
mathematical terms why Bowley's law no longer holds true in post-1960 data. | در این مقاله کار Ryuzo Sato را که به توسعه آن اختصاص داده شده است گسترش می دهیم
مدل های رشد اقتصادی در چارچوب نظریه گروه دروغ.ما پیشنهاد می کنیم
یک مدل رشد جدید مبتنی بر فرض رشد لجستیک در عوامل.این است
برای به دست آوردن عملکردهای جدید تولید و معرفی مفهوم جدید دستمزد استفاده شده است
اشتراک گذاری.در این فرآیند نشان داده شده است که توابع جدید به طور منطقی مقایسه می کنند
خوب در برابر داده های اقتصادی مربوطه.مشکل مربوط به حداکثر رساندن
سود در شرایط رقابت کامل با کمک یک حل می شود
از این توابععلاوه بر این ، آن را به طور منطقی دقیق توضیح داده شده است
اصطلاحات ریاضی چرا قانون بولی دیگر در داده های پس از 1960 صادق نیست. |
30,242 | We consider continuous-time models with a large panel of moment conditions,
where the structural parameter depends on a set of characteristics, whose
effects are of interest. The leading example is the linear factor model in
financial economics where factor betas depend on observed characteristics such
as firm specific instruments and macroeconomic variables, and their effects
pick up long-run time-varying beta fluctuations. We specify the factor betas as
the sum of characteristic effects and an orthogonal idiosyncratic parameter
that captures high-frequency movements. It is often the case that researchers
do not know whether or not the latter exists, or its strengths, and thus the
inference about the characteristic effects should be valid uniformly over a
broad class of data generating processes for idiosyncratic parameters. We
construct our estimation and inference in a two-step continuous-time GMM
framework. It is found that the limiting distribution of the estimated
characteristic effects has a discontinuity when the variance of the
idiosyncratic parameter is near the boundary (zero), which makes the usual
"plug-in" method using the estimated asymptotic variance only valid pointwise
and may produce either over- or under- coveraging probabilities. We show that
the uniformity can be achieved by cross-sectional bootstrap. Our procedure
allows both known and estimated factors, and also features a bias correction
for the effect of estimating unknown factors. | ما مدلهای زمان مداوم را با یک صفحه بزرگ از شرایط لحظه ای در نظر می گیریم ،
جایی که پارامتر ساختاری به مجموعه ای از خصوصیات بستگی دارد ،
اثرات مورد توجه است.مثال اصلی مدل فاکتور خطی در
اقتصاد مالی که در آن بتاهای عامل به ویژگی های مشاهده شده از جمله بستگی دارند
به عنوان ابزارهای خاص و متغیرهای کلان اقتصادی و تأثیرات آنها
نوسانات بتا متغیر با مدت طولانی را انتخاب کنید.ما فاکتور بتاس را به عنوان مشخص می کنیم
مجموع جلوه های مشخصه و یک پارامتر خاصیت خاص متعامد
که حرکات با فرکانس بالا را ضبط می کند.اغلب این مورد است که محققان
نمی دانید که آیا دومی وجود دارد یا نه نقاط قوت آن ، و بنابراین
استنتاج در مورد اثرات مشخصه باید به طور یکنواخت در مورد
کلاس گسترده ای از فرآیندهای تولید داده ها برای پارامترهای ایدیوسنکراتیک.ما
تخمین و استنباط ما را در یک GMM دو مرحله ای مداوم بسازید
چارچوبمشخص شده است که توزیع محدود تخمین زده شده است
اثرات مشخصه در هنگام واریانس ناپیوستگی دارد
پارامتر Idiosyncratic در نزدیکی مرز (صفر) است که باعث می شود معمول باشد
روش "افزونه" با استفاده از واریانس بدون علامت تخمین زده شده فقط نکته معتبر
و ممکن است احتمالات تحت پوشش بیش از حد یا تحت پوشش را ایجاد کند.ما نشان می دهیم که
یکنواختی را می توان با استفاده از بوت استرپ مقطعی بدست آورد.رویه ما
هر دو عامل شناخته شده و تخمین زده شده را امکان پذیر می کند ، و همچنین دارای اصلاح تعصب است
برای تأثیر تخمین عوامل ناشناخته. |
30,243 | Given additional distributional information in the form of moment
restrictions, kernel density and distribution function estimators with implied
generalised empirical likelihood probabilities as weights achieve a reduction
in variance due to the systematic use of this extra information. The particular
interest here is the estimation of densities or distributions of (generalised)
residuals in semi-parametric models defined by a finite number of moment
restrictions. Such estimates are of great practical interest, being potentially
of use for diagnostic purposes, including tests of parametric assumptions on an
error distribution, goodness-of-fit tests or tests of overidentifying moment
restrictions. The paper gives conditions for the consistency and describes the
asymptotic mean squared error properties of the kernel density and distribution
estimators proposed in the paper. A simulation study evaluates the small sample
performance of these estimators. Supplements provide analytic examples to
illustrate situations where kernel weighting provides a reduction in variance
together with proofs of the results in the paper. | با توجه به اطلاعات توزیع اضافی در قالب لحظه
محدودیت ها ، چگالی هسته و برآوردگرهای عملکرد توزیع با ضمنی
احتمال احتمال تجربی تعمیم یافته به عنوان وزنه ها کاهش می یابد
در واریانس به دلیل استفاده منظم از این اطلاعات اضافی.خاص
علاقه در اینجا تخمین تراکم یا توزیع (تعمیم یافته) است
باقیمانده در مدلهای نیمه پارامتری تعریف شده توسط تعداد محدودی از لحظه
محدودیت های.چنین برآوردها به طور بالقوه مورد علاقه عملی هستند
استفاده برای اهداف تشخیصی ، از جمله آزمایش فرضیات پارامتری در
توزیع خطا ، تست های مناسب یا تست های لحظه ای بیش از حد شناسایی
محدودیت های.مقاله شرایطی را برای قوام می دهد و توصیف می کند
میانگین خطای خطای بدون علامت از چگالی و توزیع هسته
برآوردگرهای ارائه شده در مقاله.یک مطالعه شبیه سازی نمونه کوچک را ارزیابی می کند
عملکرد این برآوردگرها.مکمل ها نمونه های تحلیلی را به
موقعیت هایی را نشان می دهد که وزن هسته باعث کاهش واریانس می شود
همراه با اثبات نتایج در مقاله. |
30,244 | Multivalued treatment models have typically been studied under restrictive
assumptions: ordered choice, and more recently unordered monotonicity. We show
how treatment effects can be identified in a more general class of models that
allows for multidimensional unobserved heterogeneity. Our results rely on two
main assumptions: treatment assignment must be a measurable function of
threshold-crossing rules, and enough continuous instruments must be available.
We illustrate our approach for several classes of models. | مدلهای درمانی چند تا حد به طور معمول تحت محدودیت مورد مطالعه قرار گرفته اند
فرضیات: انتخاب سفارش داده شده و یکنواختی اخیراً بدون هماهنگ.ما نشان می دهیم
چگونه می توان اثرات درمانی را در یک کلاس کلی تر از مدلها شناسایی کرد
اجازه می دهد تا ناهمگونی بدون نظارت چند بعدی باشد.نتایج ما به دو متکی است
فرضیات اصلی: واگذاری درمان باید یک عملکرد قابل اندازه گیری باشد
قوانین عبور آستانه و ابزارهای مداوم به اندازه کافی باید در دسترس باشد.
ما رویکرد خود را برای چندین کلاس از مدل ها نشان می دهیم. |
30,245 | This chapter covers methodological issues related to estimation, testing and
computation for models involving structural changes. Our aim is to review
developments as they relate to econometric applications based on linear models.
Substantial advances have been made to cover models at a level of generality
that allow a host of interesting practical applications. These include models
with general stationary regressors and errors that can exhibit temporal
dependence and heteroskedasticity, models with trending variables and possible
unit roots and cointegrated models, among others. Advances have been made
pertaining to computational aspects of constructing estimates, their limit
distributions, tests for structural changes, and methods to determine the
number of changes present. A variety of topics are covered. The first part
summarizes and updates developments described in an earlier review, Perron
(2006), with the exposition following heavily that of Perron (2008). Additions
are included for recent developments: testing for common breaks, models with
endogenous regressors (emphasizing that simply using least-squares is
preferable over instrumental variables methods), quantile regressions, methods
based on Lasso, panel data models, testing for changes in forecast accuracy,
factors models and methods of inference based on a continuous records
asymptotic framework. Our focus is on the so-called off-line methods whereby
one wants to retrospectively test for breaks in a given sample of data and form
confidence intervals about the break dates. The aim is to provide the readers
with an overview of methods that are of direct usefulness in practice as
opposed to issues that are mostly of theoretical interest. | در این فصل موضوعات روش شناختی مربوط به تخمین ، آزمایش و
محاسبه برای مدل های مربوط به تغییرات ساختاری.هدف ما بررسی است
تحولات مربوط به برنامه های اقتصاد سنجی بر اساس مدل های خطی است.
پیشرفت های اساسی برای پوشاندن مدل ها در سطح کلی انجام شده است
این امکان را فراهم می کند تا میزبان برنامه های عملی جالب باشد.اینها شامل مدل ها است
با رگرسیون و خطاهای کلی ثابت که می توانند زمانی نشان دهند
وابستگی و ناهمگونی ، مدل هایی با متغیرهای روند و ممکن
ریشه های واحد و مدل های یکپارچه ، از جمله دیگر.پیشرفت هایی انجام شده است
مربوط به جنبه های محاسباتی برآوردهای ساخت ، حد آنها
توزیع ، آزمایش برای تغییرات ساختاری و روش های تعیین
تعداد تغییرات موجود.موضوعات متنوعی پوشش داده شده است.بخش اول
تحولات شرح داده شده در یک بررسی قبلی ، Perron را خلاصه و به روز می کند
(2006) ، با نمایشگاه به شدت از پرورون (2008).موارد اضافی
برای تحولات اخیر گنجانده شده است: آزمایش برای وقفه های مشترک ، مدل هایی با
رگرسیون های درون زا (با تأکید بر اینکه به سادگی استفاده از حداقل مربعات است
ارجح بر روشهای متغیرهای ابزاری) ، رگرسیون کمی ، روشها
بر اساس Lasso ، مدل های داده پانل ، آزمایش تغییر در دقت پیش بینی ،
مدلهای فاکتورها و روشهای استنباط بر اساس سوابق مداوم
چارچوب بدون علامت.تمرکز ما بر روی روشهای به اصطلاح خارج از خط است که به موجب آن
یکی می خواهد به صورت گذشته نگر برای شکستن در یک نمونه معین از داده ها و فرم ها آزمایش کند
فواصل اطمینان در مورد تاریخ استراحت.هدف این است که خوانندگان را تهیه کنیم
با مرور کلی از روش هایی که در عمل از مفیدیت مستقیم هستند
برخلاف موضوعاتی که بیشتر مورد توجه نظری هستند. |
30,246 | In the following paper, we use a topic modeling algorithm and sentiment
scoring methods to construct a novel metric that serves as a leading indicator
in recession prediction models. We hypothesize that the inclusion of such a
sentiment indicator, derived purely from unstructured news data, will improve
our capabilities to forecast future recessions because it provides a direct
measure of the polarity of the information consumers and producers are exposed
to. We go on to show that the inclusion of our proposed news sentiment
indicator, with traditional sentiment data, such as the Michigan Index of
Consumer Sentiment and the Purchasing Manager's Index, and common factors
derived from a large panel of economic and financial indicators helps improve
model performance significantly. | در مقاله زیر از یک الگوریتم و احساسات مدل سازی موضوع استفاده می کنیم
روش های امتیاز دهی برای ساخت یک متریک جدید که به عنوان یک شاخص پیشرو عمل می کند
در مدل های پیش بینی رکود.ما فرض می کنیم که گنجاندن چنین
نشانگر احساسات ، که صرفاً از داده های خبری بدون ساختار مشتق شده است ، بهبود می یابد
توانایی های ما برای پیش بینی رکودهای آینده زیرا مستقیماً فراهم می کند
اندازه گیری قطبیت اطلاعاتی که مصرف کنندگان و تولید کنندگان در معرض آن قرار دارند
به.ما در ادامه نشان می دهیم که گنجاندن احساسات پیشنهادی ما
شاخص ، با داده های احساساتی سنتی ، مانند فهرست میشیگان
احساسات مصرف کننده و شاخص مدیر خرید و عوامل مشترک
حاصل از یک صفحه بزرگ از شاخص های اقتصادی و مالی به بهبود کمک می کند
عملکرد مدل به طور قابل توجهی. |
30,247 | The papers~\cite{hatfimmokomi11} and~\cite{azizbrilharr13} propose algorithms
for testing whether the choice function induced by a (strict) preference list
of length $N$ over a universe $U$ is substitutable. The running time of these
algorithms is $O(|U|^3\cdot N^3)$, respectively $O(|U|^2\cdot N^3)$. In this
note we present an algorithm with running time $O(|U|^2\cdot N^2)$. Note that
$N$ may be exponential in the size $|U|$ of the universe. | مقالات ~ \ cite {hatfimmokomi11} و ~ \ cite {azizbrilharr13} الگوریتم ها
برای آزمایش اینکه آیا عملکرد انتخاب ناشی از یک لیست اولویت (سخت)
از طول $ n $ بیش از یک جهان $ u $ قابل تعویض است.زمان اجرا اینها
الگوریتم ها $ o (| u |^3 \ cdot n^3) $ ، به ترتیب $ o (| u |^2 \ cdot n^3) $.در این
توجه داشته باشید ما یک الگوریتم با زمان اجرا $ O (| u |^2 \ cdot n^2) $ ارائه می دهیم.توجه داشته باشید که
$ n $ ممکن است در اندازه $ | u | $ جهان نمایی باشد. |
30,248 | The synthetic control method (SCM) is a popular approach for estimating the
impact of a treatment on a single unit in panel data settings. The "synthetic
control" is a weighted average of control units that balances the treated
unit's pre-treatment outcomes as closely as possible. A critical feature of the
original proposal is to use SCM only when the fit on pre-treatment outcomes is
excellent. We propose Augmented SCM as an extension of SCM to settings where
such pre-treatment fit is infeasible. Analogous to bias correction for inexact
matching, Augmented SCM uses an outcome model to estimate the bias due to
imperfect pre-treatment fit and then de-biases the original SCM estimate. Our
main proposal, which uses ridge regression as the outcome model, directly
controls pre-treatment fit while minimizing extrapolation from the convex hull.
This estimator can also be expressed as a solution to a modified synthetic
controls problem that allows negative weights on some donor units. We bound the
estimation error of this approach under different data generating processes,
including a linear factor model, and show how regularization helps to avoid
over-fitting to noise. We demonstrate gains from Augmented SCM with extensive
simulation studies and apply this framework to estimate the impact of the 2012
Kansas tax cuts on economic growth. We implement the proposed method in the new
augsynth R package. | روش کنترل مصنوعی (SCM) یک رویکرد محبوب برای تخمین است
تأثیر یک درمان بر روی یک واحد واحد در تنظیمات داده پانل."مصنوعی
کنترل "میانگین وزنی واحدهای کنترل است که تحت درمان قرار می گیرد
نتایج قبل از درمان واحد تا حد امکان نزدیک است.یک ویژگی مهم از
پیشنهاد اصلی استفاده از SCM فقط در مواردی است که متناسب با نتایج قبل از درمان است
عالیما SCM افزوده را به عنوان گسترش SCM به تنظیمات پیشنهاد می کنیم
چنین تناسب قبل از درمان غیرقابل تحمل است.مشابه تصحیح تعصب برای ناکامی
تطبیق ، SCM افزوده از یک مدل نتیجه برای تخمین تعصب به دلیل استفاده می کند
ناقص قبل از درمان متناسب و سپس تخمین اصلی SCM را از بین می برد.ما
پیشنهاد اصلی ، که به طور مستقیم از رگرسیون ریج به عنوان مدل نتیجه استفاده می کند
قبل از درمان را کنترل می کند در حالی که برون یابی را از بدنه محدب به حداقل می رساند.
این برآوردگر همچنین می تواند به عنوان یک راه حل برای یک مصنوعی اصلاح شده بیان شود
مشکل را کنترل می کند که وزن منفی را در برخی از واحدهای اهدا کننده فراهم می کند.ما
خطای تخمین این رویکرد تحت فرآیندهای مختلف تولید داده ها ،
از جمله یک مدل فاکتور خطی ، و نشان می دهد که چگونه منظم سازی به جلوگیری از آن کمک می کند
متناسب با سر و صدا.ما دستاوردهای SCM افزوده را با گسترده نشان می دهیم
مطالعات شبیه سازی و استفاده از این چارچوب برای برآورد تأثیر 2012
کاهش مالیات کانزاس بر رشد اقتصادی.ما روش پیشنهادی را در جدید اجرا می کنیم
بسته Augsynth r. |
30,249 | We propose a two-stage least squares (2SLS) estimator whose first stage is
the equal-weighted average over a complete subset with $k$ instruments among
$K$ available, which we call the complete subset averaging (CSA) 2SLS. The
approximate mean squared error (MSE) is derived as a function of the subset
size $k$ by the Nagar (1959) expansion. The subset size is chosen by minimizing
the sample counterpart of the approximate MSE. We show that this method
achieves the asymptotic optimality among the class of estimators with different
subset sizes. To deal with averaging over a growing set of irrelevant
instruments, we generalize the approximate MSE to find that the optimal $k$ is
larger than otherwise. An extensive simulation experiment shows that the
CSA-2SLS estimator outperforms the alternative estimators when instruments are
correlated. As an empirical illustration, we estimate the logistic demand
function in Berry, Levinsohn, and Pakes (1995) and find the CSA-2SLS estimate
is better supported by economic theory than the alternative estimates. | ما یک برآوردگر حداقل مربعات دو مرحله ای (2SL) را پیشنهاد می کنیم که مرحله اول آنها است
میانگین وزن برابر بیش از یک زیر مجموعه کامل با ابزارهای $ $ $ در میان
$ k $ در دسترس است ، که ما آن را زیر مجموعه کامل (CSA) 2SLS می نامیم.در
میانگین خطای مربع تقریبی (MSE) به عنوان تابعی از زیر مجموعه به دست می آید
اندازه $ k $ توسط Nagar (1959) گسترش.اندازه زیر مجموعه با به حداقل رساندن انتخاب می شود
همتای نمونه MSE تقریبی.ما نشان می دهیم که این روش
به بهینه بودن بدون علامت در بین کلاس برآوردگرها با متفاوت می رسد
اندازه زیر مجموعهبرای مقابله با میانگین در مورد مجموعه رو به رشد بی ربط
ابزارها ، ما MSE تقریبی را تعمیم می دهیم تا دریابیم که بهینه $ k $ است
بزرگتر از دیگری.یک آزمایش شبیه سازی گسترده نشان می دهد که
برآوردگر CSA-2SLS از برآوردگرهای جایگزین در هنگام ابزارها بهتر عمل می کند
همبستهما به عنوان یک تصویر تجربی ، تقاضای لجستیک را تخمین می زنیم
عملکرد در توت ، لویینسون و پیکس (1995) و برآورد CSA-2SLS را پیدا کنید
بهتر از برآوردهای جایگزین توسط تئوری اقتصادی پشتیبانی می شود. |
30,250 | Multidimensional heterogeneity and endogeneity are important features of a
wide class of econometric models. We consider heterogenous coefficients models
where the outcome is a linear combination of known functions of treatment and
heterogenous coefficients. We use control variables to obtain identification
results for average treatment effects. With discrete instruments in a
triangular model we find that average treatment effects cannot be identified
when the number of support points is less than or equal to the number of
coefficients. A sufficient condition for identification is that the second
moment matrix of the treatment functions given the control is nonsingular with
probability one. We relate this condition to identification of average
treatment effects with multiple treatments. | ناهمگونی و اندوژنیت چند بعدی از ویژگی های مهم یک است
کلاس گسترده ای از مدلهای اقتصاد سنجی.ما مدلهای ضرایب ناهمگن را در نظر می گیریم
جایی که نتیجه ترکیبی خطی از عملکردهای شناخته شده درمان و
ضرایب ناهمگن.ما برای بدست آوردن شناسایی از متغیرهای کنترل استفاده می کنیم
نتایج برای میانگین اثرات درمانی.با ابزارهای گسسته در
مدل مثلثی متوجه می شویم که میانگین اثرات درمانی قابل شناسایی نیست
هنگامی که تعداد نقاط پشتیبانی کمتر یا مساوی با تعداد است
ضرایبشرط کافی برای شناسایی این است که دوم
ماتریس لحظه ای از توابع درمانی با توجه به کنترل با آن غیرعادی است
احتمال یکیما این شرط را با شناسایی میانگین مرتبط می کنیم
اثرات درمانی با چندین درمان. |
30,251 | Berkson errors are commonplace in empirical microeconomics. In consumer
demand this form of measurement error occurs when the price an individual pays
is measured by the (weighted) average price paid by individuals in a specified
group (e.g., a county), rather than the true transaction price. We show the
importance of such measurement errors for the estimation of demand in a setting
with nonseparable unobserved heterogeneity. We develop a consistent estimator
using external information on the true distribution of prices. Examining the
demand for gasoline in the U.S., we document substantial within-market price
variability, and show that there are significant spatial differences in the
magnitude of Berkson errors across regions of the U.S. Accounting for Berkson
errors is found to be quantitatively important for estimating price effects and
for welfare calculations. Imposing the Slutsky shape constraint greatly reduces
the sensitivity to Berkson errors. | خطاهای برکسون در اقتصاد اقتصادی تجربی معمول است.در مصرف کننده
تقاضای این شکل از خطای اندازه گیری هنگامی اتفاق می افتد که یک فرد پرداخت می کند
با میانگین (وزنی) قیمت پرداخت شده توسط افراد در یک مشخص شده اندازه گیری می شود
گروه (به عنوان مثال ، یک شهرستان) ، به جای قیمت واقعی معامله.ما نشان می دهیم
اهمیت چنین خطاهای اندازه گیری برای تخمین تقاضا در یک تنظیم
با ناهمگونی غیرقابل توصیف.ما یک برآوردگر ثابت تهیه می کنیم
استفاده از اطلاعات خارجی در مورد توزیع واقعی قیمت ها.بررسی
تقاضا برای بنزین در ایالات متحده ، ما قیمت قابل توجهی در بازار را مستند می کنیم
تنوع ، و نشان می دهد که تفاوت های مکانی قابل توجهی در
بزرگی خطاهای برکسون در مناطق ایالات متحده آمریکا حسابداری برای برکسون
خطاها برای برآورد اثرات قیمت از نظر کمی مهم هستند
برای محاسبات رفاهیتحمیل محدودیت شکل Slutsky به شدت کاهش می یابد
حساسیت به خطاهای برکسون. |
30,252 | This paper introduces an intuitive and easy-to-implement nonparametric
density estimator based on local polynomial techniques. The estimator is fully
boundary adaptive and automatic, but does not require pre-binning or any other
transformation of the data. We study the main asymptotic properties of the
estimator, and use these results to provide principled estimation, inference,
and bandwidth selection methods. As a substantive application of our results,
we develop a novel discontinuity in density testing procedure, an important
problem in regression discontinuity designs and other program evaluation
settings. An illustrative empirical application is given. Two companion Stata
and R software packages are provided. | در این مقاله یک غیرپارامتری بصری و آسان برای تکمیل ارائه شده است
برآوردگر چگالی بر اساس تکنیک های چند جمله ای محلی.برآوردگر کاملاً است
مرزی تطبیقی و اتوماتیک ، اما نیازی به پیش از زازن یا موارد دیگر ندارد
تحول داده ها.ما خواص اصلی بدون علامت را مطالعه می کنیم
برآوردگر ، و از این نتایج برای ارائه تخمین اصولی ، استنباط ، استفاده کنید
و روش های انتخاب پهنای باند.به عنوان یک کاربرد اساسی از نتایج ما ،
ما در روش آزمایش چگالی یک ناپیوستگی جدید ایجاد می کنیم ، یک مهم
مشکل در طرح های ناپیوستگی رگرسیون و ارزیابی سایر برنامه ها
تنظیمات.یک برنامه تجربی مصور ارائه شده است.دو همراه استاتا
و بسته های نرم افزاری R ارائه شده است. |
30,253 | We develop a distribution regression model under endogenous sample selection.
This model is a semi-parametric generalization of the Heckman selection model.
It accommodates much richer effects of the covariates on outcome distribution
and patterns of heterogeneity in the selection process, and allows for drastic
departures from the Gaussian error structure, while maintaining the same level
tractability as the classical model. The model applies to continuous, discrete
and mixed outcomes. We provide identification, estimation, and inference
methods, and apply them to obtain wage decomposition for the UK. Here we
decompose the difference between the male and female wage distributions into
composition, wage structure, selection structure, and selection sorting
effects. After controlling for endogenous employment selection, we still find
substantial gender wage gap -- ranging from 21% to 40% throughout the (latent)
offered wage distribution that is not explained by composition. We also uncover
positive sorting for single men and negative sorting for married women that
accounts for a substantive fraction of the gender wage gap at the top of the
distribution. | ما یک مدل رگرسیون توزیع را تحت انتخاب نمونه درون زا ایجاد می کنیم.
این مدل یک تعمیم نیمه پارامتری از مدل انتخاب هکمن است.
این اثرات بسیار غنی تر از متغیرهای متغیر را در توزیع نتیجه قرار می دهد
و الگوهای ناهمگونی در فرآیند انتخاب ، و امکان پذیر است
عزیمت از ساختار خطای گاوسی ، ضمن حفظ همان سطح
قابلیت پخش به عنوان مدل کلاسیک.این مدل مربوط به مداوم و گسسته است
و نتایج مختلطما شناسایی ، تخمین و استنباط را ارائه می دهیم
روشها ، و آنها را برای به دست آوردن تجزیه دستمزد برای انگلیس اعمال کنید.ما اینجاییم
تفاوت بین توزیع دستمزد زن و مرد را در
ترکیب ، ساختار دستمزد ، ساختار انتخاب و مرتب سازی انتخاب
اثراتپس از کنترل انتخاب اشتغال درون زا ، ما هنوز هم می یابیم
شکاف قابل توجه دستمزد جنسیت - از 21 ٪ تا 40 ٪ در طول (نهفته)
توزیع دستمزد ارائه شده که توسط ترکیب توضیح داده نمی شود.ما نیز کشف می کنیم
مرتب سازی مثبت برای مردان مجرد و مرتب سازی منفی برای زنان متاهل
بخش مهمی از شکاف دستمزد جنسیت را در بالای
توزیع |
30,254 | This paper investigates asset allocation problems when returns are
predictable. We introduce a market-timing Bayesian hierarchical (BH) approach
that adopts heterogeneous time-varying coefficients driven by lagged
fundamental characteristics. Our approach includes a joint estimation of
conditional expected returns and covariance matrix and considers estimation
risk for portfolio analysis. The hierarchical prior allows modeling different
assets separately while sharing information across assets. We demonstrate the
performance of the U.S. equity market. Though the Bayesian forecast is slightly
biased, our BH approach outperforms most alternative methods in point and
interval prediction. Our BH approach in sector investment for the recent twenty
years delivers a 0.92\% average monthly returns and a 0.32\% significant
Jensen`s alpha. We also find technology, energy, and manufacturing are
important sectors in the past decade, and size, investment, and short-term
reversal factors are heavily weighted. Finally, the stochastic discount factor
constructed by our BH approach explains most anomalies. | در این مقاله مشکلات تخصیص دارایی در هنگام بازده بررسی شده است
قابل پیش بینی.ما یک رویکرد سلسله مراتبی بیزی (BH) در بازار را معرفی می کنیم
که ضرایب متغیر متغیر ناهمگن را که توسط عقب مانده است ، اتخاذ می کند
خصوصیات اساسی.رویکرد ما شامل یک تخمین مشترک از
بازده مورد انتظار مشروط و ماتریس کواریانس و تخمین را در نظر می گیرد
خطر تجزیه و تحلیل نمونه کارها.سلسله مراتبی قبلی اجازه می دهد تا مدل سازی متفاوت باشد
دارایی ها به طور جداگانه هنگام به اشتراک گذاشتن اطلاعات در بین دارایی ها.ما نشان می دهیم
عملکرد بازار سهام ایالات متحده.گرچه پیش بینی بیزی کمی است
مغرضانه ، رویکرد BH ما بیش از همه روشهای جایگزین در نقطه و
پیش بینی فاصلهرویکرد BH ما در سرمایه گذاری بخش برای بیست اخیر
سالها میانگین بازده ماهانه 0.92 \ ٪ و 0.32 \ ٪ معنی دار را ارائه می دهد
جنسن آلفا.ما همچنین می یابیم که فناوری ، انرژی و تولید هستند
بخش های مهم در یک دهه گذشته و اندازه ، سرمایه گذاری و کوتاه مدت
عوامل وارونه به شدت وزن دارند.سرانجام ، عامل تخفیف تصادفی
ساخته شده با رویکرد BH ما بیشتر ناهنجاری ها را توضیح می دهد. |
34,592 | This paper develops a dynamic monetary model to study the (in)stability of
the fractional reserve banking system. The model shows that the fractional
reserve banking system can endanger stability in that equilibrium is more prone
to exhibit endogenous cyclic, chaotic, and stochastic dynamics under lower
reserve requirements, although it can increase consumption in the steady-state.
Introducing endogenous unsecured credit to the baseline model does not change
the main results. This paper also provides empirical evidence that is
consistent with the prediction of the model. The calibrated exercise suggests
that this channel could be another source of economic fluctuations. | در این مقاله یک مدل پولی پویا برای مطالعه پایداری (در) ایجاد شده است
سیستم بانکی ذخیره کسری.مدل نشان می دهد که کسری است
سیستم بانکی رزرو می تواند ثبات را در این امر به خطر بیندازد
برای نمایش پویایی چرخه ای ، هرج و مرج و تصادفی درون زا در زیر پایین
نیازهای ذخیره ، اگرچه می تواند مصرف در حالت پایدار را افزایش دهد.
معرفی اعتبار ناامن درون زا به مدل پایه تغییر نمی کند
نتایج اصلیدر این مقاله شواهد تجربی ارائه شده است
مطابق با پیش بینی مدل.تمرین کالیبره شده نشان می دهد
این کانال می تواند منبع دیگری برای نوسانات اقتصادی باشد. |
30,255 | We synthesize the knowledge present in various scientific disciplines for the
development of semiparametric endogenous truncation-proof algorithm, correcting
for truncation bias due to endogenous self-selection. This synthesis enriches
the algorithm's accuracy, efficiency and applicability. Improving upon the
covariate shift assumption, data are intrinsically affected and largely
generated by their own behavior (cognition). Refining the concept of Vox Populi
(Wisdom of Crowd) allows data points to sort themselves out depending on their
estimated latent reference group opinion space. Monte Carlo simulations, based
on 2,000,000 different distribution functions, practically generating 100
million realizations, attest to a very high accuracy of our model. | ما دانش موجود در رشته های مختلف علمی را برای
توسعه الگوریتم ضد انفجار درون زا نیمه نیمه ، تصحیح
برای تعصب کوتاه شدن به دلیل انتخاب خود درون زا.این سنتز غنی می شود
دقت ، کارآیی و کاربرد الگوریتم.بهبود بر
فرض تغییر متغیر ، داده ها ذاتاً تحت تأثیر قرار می گیرند و تا حد زیادی تحت تأثیر قرار می گیرند
تولید شده توسط رفتار خودشان (شناخت).پالایش مفهوم Vox Populi
(خرد از جمعیت) به داده های داده اجازه می دهد تا بسته به آنها خود را مرتب کنند
فضای افکار گروه مرجع نهفته تخمین زده می شود.شبیه سازی مونت کارلو ، مبتنی بر
در 2000،000 کارکرد توزیع مختلف ، عملاً 100 تولید می کند
میلیون تحقق ، اثبات دقت بسیار بالایی از مدل ما. |
30,256 | We introduce the Stata package Binsreg, which implements the binscatter
methods developed in Cattaneo, Crump, Farrell and Feng (2023a,b). The package
includes seven commands: binsreg, binslogit, binsprobit, binsqreg, binstest,
binspwc, and binsregselect. The first four commands implement point estimation
and uncertainty quantification (confidence intervals and confidence bands) for
canonical and extended least squares binscatter regression (binsreg) as well as
generalized nonlinear binscatter regression (binslogit for Logit regression,
binsprobit for Probit regression, and binsqreg for quantile regression). These
commands also offer binned scatter plots, allowing for one- and multi-sample
settings. The next two commands focus on pointwise and uniform inference:
binstest implements hypothesis testing procedures for parametric specifications
and for nonparametric shape restrictions of the unknown regression function,
while binspwc implements multi-group pairwise statistical comparisons. These
two commands cover both least squares as well as generalized nonlinear
binscatter methods. All our methods allow for multi-sample analysis, which is
useful when studying treatment effect heterogeneity in randomized and
observational studies. Finally, the command binsregselect implements
data-driven number of bins selectors for binscatter methods using either
quantile-spaced or evenly-spaced binning/partitioning. All the commands allow
for covariate adjustment, smoothness restrictions, weighting and clustering,
among many other features. Companion Python and R packages with similar syntax
and capabilities are also available. | ما BinsReg بسته بندی Stata را معرفی می کنیم ، که Binscatter را پیاده سازی می کند
روشهای توسعه یافته در Cattaneo ، Crump ، Farrell و Feng (2023a ، b).بسته
شامل هفت دستور: Binsreg ، binslogit ، binsprobit ، binsqreg ، binstest ،
binspwc و binsregelect.چهار دستور اول تخمین نقطه را پیاده سازی می کنند
و کمیت عدم اطمینان (فواصل اطمینان و باند اعتماد به نفس) برای
رگرسیون Binscatter کم مربع متعارف و طولانی (BINSREG) و همچنین
رگرسیون binscatter غیرخطی تعمیم یافته (Binslogit برای رگرسیون logit ،
binsprobit برای رگرسیون پروبیت ، و binsqreg برای رگرسیون کمی).اینها
دستورات همچنین توطئه های پراکنده ای را ارائه می دهند ، و این امکان را برای یک و چند نمونه فراهم می کند
تنظیمات.دو دستور بعدی بر استنتاج نقطه ای و یکنواخت تمرکز می کنند:
Binstest روشهای آزمایش فرضیه را برای مشخصات پارامتری پیاده سازی می کند
و برای محدودیت های شکل غیرپارامتری عملکرد رگرسیون ناشناخته ،
در حالی که BINSPWC مقایسه آماری چند گروهی را اجرا می کند.اینها
دو فرمان هر دو حداقل مربع و همچنین غیرخطی تعمیم یافته را پوشش می دهند
روش های Binscatter.تمام روشهای ما امکان تجزیه و تحلیل چند نمونه ای را فراهم می کند ، یعنی
مفید هنگام مطالعه ناهمگونی اثر درمانی در تصادفی و
مطالعات مشاهده ای.سرانجام ، فرمان Binsregelect پیاده سازی می کند
تعداد انتخاب کنندگان سطل داده برای روش های Binscatter با استفاده از هر دو
کمیته/تقسیم بندی فاصله یا مسافتی به طور مساوی.همه دستورات اجازه می دهند
برای تنظیم همبستگی ، محدودیت های صافی ، وزن و خوشه بندی ،
در میان بسیاری از ویژگی های دیگر.بسته های همراه پایتون و R با نحو مشابه
و قابلیت ها نیز موجود است. |
30,257 | We propose a semiparametric two-stage least square estimator for the
heterogeneous treatment effects (HTE). HTE is the solution to certain integral
equation which belongs to the class of Fredholm integral equations of the first
kind, which is known to be ill-posed problem. Naive semi/nonparametric methods
do not provide stable solution to such problems. Then we propose to approximate
the function of interest by orthogonal series under the constraint which makes
the inverse mapping of integral to be continuous and eliminates the
ill-posedness. We illustrate the performance of the proposed estimator through
simulation experiments. | ما یک برآوردگر حداقل مربع دو مرحله ای نیمه مرحله ای را برای
اثرات درمانی ناهمگن (HTE).hte راه حل خاص برای یکپارچه سازی است
معادله ای که متعلق به کلاس معادلات انتگرال فردولم از اول است
مهربان ، که به نظر می رسد مشکل بد نیست.روشهای نیمه ساده و غیر پارامتری
راه حل پایدار برای چنین مشکلاتی ارائه ندهید.سپس ما پیشنهاد می کنیم تقریبی
عملکرد علاقه توسط سری های متعامد تحت محدودیت که باعث می شود
نقشه برداری معکوس انتگرال برای پیوستگی و از بین بردن
بدبینیما عملکرد برآوردگر پیشنهادی را از طریق نشان می دهیم
آزمایش های شبیه سازی. |
30,258 | We develop an LM test for Granger causality in high-dimensional VAR models
based on penalized least squares estimations. To obtain a test retaining the
appropriate size after the variable selection done by the lasso, we propose a
post-double-selection procedure to partial out effects of nuisance variables
and establish its uniform asymptotic validity. We conduct an extensive set of
Monte-Carlo simulations that show our tests perform well under different data
generating processes, even without sparsity. We apply our testing procedure to
find networks of volatility spillovers and we find evidence that causal
relationships become clearer in high-dimensional compared to standard
low-dimensional VARs. | ما یک آزمایش LM برای علیت گرنجر در مدلهای VAR با ابعاد بالا توسعه می دهیم
بر اساس تخمین حداقل مربعات مجازات.برای به دست آوردن یک آزمایش حفظ
اندازه مناسب پس از انتخاب متغیر انجام شده توسط لاسو ، ما پیشنهاد می کنیم
روش انتخاب پس از دو برابر به اثرات جزئی متغیرهای مزاحمت
و اعتبار یکنواخت یکنواخت آن را تعیین کنید.ما مجموعه گسترده ای از
شبیه سازی مونت کارلو که نشان می دهد تست های ما در داده های مختلف عملکرد خوبی دارند
تولید فرآیندها ، حتی بدون کمبود.ما روش تست خود را به اعمال می کنیم
شبکه هایی از سرریزهای نوسانات را پیدا کنید و ما شواهدی را پیدا می کنیم که علی
روابط در مقایسه با استاندارد در ابعاد بالا واضح تر می شوند
VAR های کم بعدی. |
30,259 | The Hodrick-Prescott (HP) filter is one of the most widely used econometric
methods in applied macroeconomic research. Like all nonparametric methods, the
HP filter depends critically on a tuning parameter that controls the degree of
smoothing. Yet in contrast to modern nonparametric methods and applied work
with these procedures, empirical practice with the HP filter almost universally
relies on standard settings for the tuning parameter that have been suggested
largely by experimentation with macroeconomic data and heuristic reasoning. As
recent research (Phillips and Jin, 2015) has shown, standard settings may not
be adequate in removing trends, particularly stochastic trends, in economic
data.
This paper proposes an easy-to-implement practical procedure of iterating the
HP smoother that is intended to make the filter a smarter smoothing device for
trend estimation and trend elimination. We call this iterated HP technique the
boosted HP filter in view of its connection to $L_{2}$-boosting in machine
learning. The paper develops limit theory to show that the boosted HP (bHP)
filter asymptotically recovers trend mechanisms that involve unit root
processes, deterministic polynomial drifts, and polynomial drifts with
structural breaks. A stopping criterion is used to automate the iterative HP
algorithm, making it a data-determined method that is ready for modern
data-rich environments in economic research. The methodology is illustrated
using three real data examples that highlight the differences between simple HP
filtering, the data-determined boosted filter, and an alternative
autoregressive approach. These examples show that the bHP filter is helpful in
analyzing a large collection of heterogeneous macroeconomic time series that
manifest various degrees of persistence, trend behavior, and volatility. | فیلتر Hodrick-Prescott (HP) یکی از پرکاربردترین اقتصاد سنجی است
روش های تحقیقات کلان کاربردی.مانند همه روشهای غیرپارامتری ،
فیلتر HP به یک پارامتر تنظیم بستگی دارد که درجه آن را کنترل می کند
صاف کردنبا این حال ، برخلاف روش های غیر پارامتری مدرن و کار کاربردی
با این رویه ها ، عمل تجربی با فیلتر HP تقریباً جهانی
برای پارامتر تنظیم که پیشنهاد شده است به تنظیمات استاندارد متکی است
عمدتا با آزمایش با داده های کلان اقتصادی و استدلال اکتشافی.مانند
تحقیقات اخیر (فیلیپس و جین ، 2015) نشان داده است ، تنظیمات استاندارد ممکن است
در از بین بردن روندها ، به ویژه روندهای تصادفی ، در اقتصادی کافی باشد
داده ها.
در این مقاله یک روش عملی آسان برای تکرار تکرار ارائه شده است
HP نرم تر که قصد دارد فیلتر را به یک دستگاه صاف کننده باهوش تر تبدیل کند
تخمین روند و حذف روند.ما این تکنیک HP را تکرار می کنیم
فیلتر HP را با توجه به اتصال آن به $ L_ {2} $ تقویت کرد-افزایش در دستگاه
یادگیری.این مقاله تئوری محدود را نشان می دهد تا نشان دهد HP تقویت شده (BHP)
فیلتر به صورت مجانبی مکانیسم های روند را که شامل ریشه واحد است ، بازیابی می کند
فرآیندها ، رانشهای چند جمله ای قطعی و رانشهای چند جمله ای با
استراحت ساختاری.از معیار توقف برای اتوماسیون HP تکراری استفاده می شود
الگوریتم ، آن را به یک روش تعیین شده با داده تبدیل می کند که برای مدرن آماده است
محیط های غنی از داده ها در تحقیقات اقتصادی.این روش نشان داده شده است
با استفاده از سه مثال داده واقعی که تفاوت های بین HP ساده را برجسته می کند
فیلتر ، فیلتر افزایش یافته داده و یک گزینه جایگزین
رویکرد خودکاراین مثالها نشان می دهد که فیلتر BHP در آن مفید است
تجزیه و تحلیل مجموعه بزرگی از سری زمانی کلان ناهمگن که
درجات مختلفی از پایداری ، رفتار روند و نوسانات را نشان می دهد. |
30,371 | Multidimensional heterogeneity and endogeneity are important features of
models with multiple treatments. We consider a heterogeneous coefficients model
where the outcome is a linear combination of dummy treatment variables, with
each variable representing a different kind of treatment. We use control
variables to give necessary and sufficient conditions for identification of
average treatment effects. With mutually exclusive treatments we find that,
provided the heterogeneous coefficients are mean independent from treatments
given the controls, a simple identification condition is that the generalized
propensity scores (Imbens, 2000) be bounded away from zero and that their sum
be bounded away from one, with probability one. Our analysis extends to
distributional and quantile treatment effects, as well as corresponding
treatment effects on the treated. These results generalize the classical
identification result of Rosenbaum and Rubin (1983) for binary treatments. | ناهمگونی و اندوژنیت چند بعدی از ویژگی های مهم این است
مدل هایی با چندین درمان.ما یک مدل ضرایب ناهمگن را در نظر می گیریم
جایی که نتیجه ترکیبی خطی از متغیرهای درمان ساختگی است ، با
هر متغیر نمایانگر نوع دیگری از درمان است.ما از کنترل استفاده می کنیم
متغیرهایی برای ارائه شرایط لازم و کافی برای شناسایی
اثرات درمانی متوسط.با درمان های متقابل منحصر به فرد ، آن را می بینیم ،
مشروط بر اینکه ضرایب ناهمگن میانگین مستقل از درمانها باشد
با توجه به کنترل ها ، یک شرط شناسایی ساده این است که تعمیم یافته است
نمرات گرایش (Imbens ، 2000) از صفر و مبلغ آنها محدود می شود
به دور از یک ، با احتمال یک.تجزیه و تحلیل ما گسترش می یابد
اثرات درمانی توزیع و کمی ، و همچنین مربوطه
اثرات درمانی بر روی درمان.این نتایج کلاسیک را تعمیم می دهد
نتیجه شناسایی روزنبوم و روبین (1983) برای درمان باینری. |
30,260 | Variational Bayes (VB), a method originating from machine learning, enables
fast and scalable estimation of complex probabilistic models. Thus far,
applications of VB in discrete choice analysis have been limited to mixed logit
models with unobserved inter-individual taste heterogeneity. However, such a
model formulation may be too restrictive in panel data settings, since tastes
may vary both between individuals as well as across choice tasks encountered by
the same individual. In this paper, we derive a VB method for posterior
inference in mixed logit models with unobserved inter- and intra-individual
heterogeneity. In a simulation study, we benchmark the performance of the
proposed VB method against maximum simulated likelihood (MSL) and Markov chain
Monte Carlo (MCMC) methods in terms of parameter recovery, predictive accuracy
and computational efficiency. The simulation study shows that VB can be a fast,
scalable and accurate alternative to MSL and MCMC estimation, especially in
applications in which fast predictions are paramount. VB is observed to be
between 2.8 and 17.7 times faster than the two competing methods, while
affording comparable or superior accuracy. Besides, the simulation study
demonstrates that a parallelised implementation of the MSL estimator with
analytical gradients is a viable alternative to MCMC in terms of both
estimation accuracy and computational efficiency, as the MSL estimator is
observed to be between 0.9 and 2.1 times faster than MCMC. | Bayes متغیر (VB) ، روشی که از یادگیری ماشین سرچشمه می گیرد ، امکان پذیر است
برآورد سریع و مقیاس پذیر مدلهای احتمالی پیچیده.تا کنون ،
برنامه های VB در تجزیه و تحلیل انتخاب گسسته محدود به ورود به سیستم مختلط شده است
مدل هایی با ناهمگونی طعم بین فردی.با این حال ، چنین
فرمولاسیون مدل ممکن است در تنظیمات داده پانل بسیار محدود کننده باشد ، زیرا سلیقه ها
ممکن است بین افراد و همچنین در مورد وظایف انتخابی که با آن روبرو هستند متفاوت باشد
همان فرددر این مقاله ، ما یک روش VB را برای خلفی استخراج می کنیم
استنتاج در مدل های ورود
ناهمگونیدر یک مطالعه شبیه سازی ، ما عملکرد را معیار می کنیم
روش VB پیشنهادی در برابر حداکثر احتمال شبیه سازی شده (MSL) و زنجیره مارکوف
روشهای مونت کارلو (MCMC) از نظر بازیابی پارامتر ، دقت پیش بینی
و راندمان محاسباتی.مطالعه شبیه سازی نشان می دهد که VB می تواند سریع باشد ،
جایگزین مقیاس پذیر و دقیق برای برآورد MSL و MCMC ، به ویژه در
برنامه هایی که پیش بینی های سریع در آن مهم هستند.VB مشاهده می شود
بین 2.8 تا 17.7 برابر سریعتر از دو روش رقیب ، در حالی که
تهیه دقت قابل مقایسه یا برتر.علاوه بر این ، مطالعه شبیه سازی
نشان می دهد که اجرای موازی برآوردگر MSL با
شیب تحلیلی از نظر هر دو جایگزین مناسب برای MCMC است
دقت تخمین و راندمان محاسباتی ، همانطور که برآوردگر MSL است
مشاهده شده بین 0.9 تا 2.1 برابر سریعتر از MCMC است. |
30,261 | This paper considers an augmented double autoregressive (DAR) model, which
allows null volatility coefficients to circumvent the over-parameterization
problem in the DAR model. Since the volatility coefficients might be on the
boundary, the statistical inference methods based on the Gaussian quasi-maximum
likelihood estimation (GQMLE) become non-standard, and their asymptotics
require the data to have a finite sixth moment, which narrows applicable scope
in studying heavy-tailed data. To overcome this deficiency, this paper develops
a systematic statistical inference procedure based on the self-weighted GQMLE
for the augmented DAR model. Except for the Lagrange multiplier test statistic,
the Wald, quasi-likelihood ratio and portmanteau test statistics are all shown
to have non-standard asymptotics. The entire procedure is valid as long as the
data is stationary, and its usefulness is illustrated by simulation studies and
one real example. | در این مقاله یک مدل خودجوش خودجوش دوتایی (DAR) در نظر گرفته شده است که
به ضرایب نوسانات تهی اجازه می دهد تا بیش از حد پارامتری را دور بزنند
مشکل در مدل DAR.از آنجا که ضرایب نوسانات ممکن است در
مرز ، روشهای استنباط آماری مبتنی بر شبه حداکثر گاوسی
برآورد احتمال (GQMLE) غیر استاندارد و بدون علامت آنها می شود
به داده ها نیاز دارند که یک لحظه ششم محدود داشته باشند ، که دامنه قابل اجرا را باریک می کند
در مطالعه داده های با دم سنگین.برای غلبه بر این کمبود ، این مقاله توسعه می یابد
یک روش استنباط آماری سیستماتیک بر اساس GQMLE خود وزن
برای مدل DAR افزوده.به جز آماری آزمون ضرب Lagrange ،
آمار آزمون Wald ، Vylikeliout و Portmanteau همه نشان داده شده است
داشتن بدون علامت غیر استاندارد.کل روش تا زمانی که معتبر باشد معتبر است
داده ها ثابت است ، و سودمندی آن با مطالعات شبیه سازی و
یک مثال واقعی |
30,262 | Timing decisions are common: when to file your taxes, finish a referee
report, or complete a task at work. We ask whether time preferences can be
inferred when \textsl{only} task completion is observed. To answer this
question, we analyze the following model: each period a decision maker faces
the choice whether to complete the task today or to postpone it to later. Cost
and benefits of task completion cannot be directly observed by the analyst, but
the analyst knows that net benefits are drawn independently between periods
from a time-invariant distribution and that the agent has time-separable
utility. Furthermore, we suppose the analyst can observe the agent's exact
stopping probability. We establish that for any agent with quasi-hyperbolic
$\beta,\delta$-preferences and given level of partial naivete $\hat{\beta}$,
the probability of completing the task conditional on not having done it
earlier increases towards the deadline. And conversely, for any given
preference parameters $\beta,\delta$ and (weakly increasing) profile of task
completion probability, there exists a stationary payoff distribution that
rationalizes her behavior as long as the agent is either sophisticated or fully
naive. An immediate corollary being that, without parametric assumptions, it is
impossible to rule out time-consistency even when imposing an a priori
assumption on the permissible long-run discount factor. We also provide an
exact partial identification result when the analyst can, in addition to the
stopping probability, observe the agent's continuation value. | تصمیمات زمان بندی متداول است: چه موقع مالیات خود را ثبت کنید ، یک داور را تمام کنید
گزارش ، یا انجام یک کار در محل کار.ما می پرسیم که آیا ترجیحات زمانی می تواند باشد
استنباط شده هنگامی که \ textsl {فقط} انجام کار مشاهده می شود.برای پاسخ به این
سوال ، ما مدل زیر را تجزیه و تحلیل می کنیم: هر دوره ای که یک تصمیم گیرنده با آن روبرو است
انتخاب اینکه آیا امروز کار را انجام دهید یا بعداً آن را به تعویق بیندازیم.هزینه
و مزایای اتمام کار را نمی توان مستقیماً توسط تحلیلگر مشاهده کرد ، اما
تحلیلگر می داند که مزایای خالص به طور مستقل بین دوره ها جلب می شود
از توزیع زمان متغیر و این که نماینده از زمان قابل تفکیک است
ابزارعلاوه بر این ، ما تصور می کنیم تحلیلگر می تواند دقیق عامل را مشاهده کند
توقف احتمالما آن را برای هر نماینده ای با شبه هیپربولیک تعیین می کنیم
$ \ Beta ، \ Delta $-preferences و سطح با توجه به سطح ساده لوح \ \ hat {\ beta} $ ،
احتمال تکمیل کار مشروط به عدم انجام آن
زودتر به مهلت افزایش می یابد.و برعکس ، برای هر داده شده
پارامترهای ترجیحی $ \ بتا ، \ delta $ و (ضعیف در حال افزایش) مشخصات کار
احتمال تکمیل ، توزیع بازپرداخت ثابت وجود دارد
رفتار او را تا زمانی که عامل یا پیچیده یا کامل باشد ، منطقی می کند
آدم ساده.نتیجه ای فوری که بدون فرضیات پارامتری ، این است
غیرممکن است که حتی هنگام تحمیل پیشینی ، زمان مجازات را رد کنید
فرض در مورد فاکتور تخفیف طولانی مدت مجاز.ما همچنین یک
نتیجه دقیق شناسایی جزئی هنگامی که تحلیلگر می تواند علاوه بر
متوقف کردن احتمال ، مقدار مداوم عامل را رعایت کنید. |
30,263 | We use supervised learning to identify factors that predict the cross-section
of returns and maximum drawdown for stocks in the US equity market. Our data
run from January 1970 to December 2019 and our analysis includes ordinary least
squares, penalized linear regressions, tree-based models, and neural networks.
We find that the most important predictors tended to be consistent across
models, and that non-linear models had better predictive power than linear
models. Predictive power was higher in calm periods than in stressed periods.
Environmental, social, and governance indicators marginally impacted the
predictive power of non-linear models in our data, despite their negative
correlation with maximum drawdown and positive correlation with returns. Upon
exploring whether ESG variables are captured by some models, we find that ESG
data contribute to the prediction nonetheless. | ما برای شناسایی عواملی که مقطع را پیش بینی می کنند از یادگیری نظارت شده استفاده می کنیم
بازده و حداکثر کاهش سهام در بازار سهام ایالات متحده.داده های ما
از ژانویه 1970 تا دسامبر 2019 اجرا کنید و تجزیه و تحلیل ما شامل حداقل معمولی است
مربع ، رگرسیون خطی مجازات شده ، مدل های مبتنی بر درخت و شبکه های عصبی.
ما می دانیم که مهمترین پیش بینی کننده ها در سراسر آن سازگار هستند
مدل ها ، و مدل های غیر خطی قدرت پیش بینی بهتری نسبت به خطی داشتند
مدل ها.قدرت پیش بینی در دوره های آرام نسبت به دوره های استرس بیشتر بود.
شاخص های زیست محیطی ، اجتماعی و حاکمیتی به حاشیه تأثیر گذاشت
قدرت پیش بینی کننده مدل های غیر خطی در داده های ما ، با وجود منفی آنها
همبستگی با حداکثر کاهش و همبستگی مثبت با بازده.بر
بررسی اینکه آیا متغیرهای ESG توسط برخی مدل ها ضبط شده اند ، می فهمیم که ESG
با این وجود داده ها به پیش بینی کمک می کنند. |
30,264 | When evaluating the impact of a policy on a metric of interest, it may not be
possible to conduct a randomized control trial. In settings where only
observational data is available, Synthetic Control (SC) methods provide a
popular data-driven approach to estimate a "synthetic" control by combining
measurements of "similar" units (donors). Recently, Robust SC (RSC) was
proposed as a generalization of SC to overcome the challenges of missing data
high levels of noise, while removing the reliance on domain knowledge for
selecting donors. However, SC, RSC, and their variants, suffer from poor
estimation when the pre-intervention period is too short. As the main
contribution, we propose a generalization of unidimensional RSC to
multi-dimensional RSC, mRSC. Our proposed mechanism incorporates multiple
metrics to estimate a synthetic control, thus overcoming the challenge of poor
inference from limited pre-intervention data. We show that the mRSC algorithm
with $K$ metrics leads to a consistent estimator of the synthetic control for
the target unit under any metric. Our finite-sample analysis suggests that the
prediction error decays to zero at a rate faster than the RSC algorithm by a
factor of $K$ and $\sqrt{K}$ for the training and testing periods (pre- and
post-intervention), respectively. Additionally, we provide a diagnostic test
that evaluates the utility of including additional metrics. Moreover, we
introduce a mechanism to validate the performance of mRSC: time series
prediction. That is, we propose a method to predict the future evolution of a
time series based on limited data when the notion of time is relative and not
absolute, i.e., we have access to a donor pool that has undergone the desired
future evolution. Finally, we conduct experimentation to establish the efficacy
of mRSC on synthetic data and two real-world case studies (retail and Cricket). | هنگام ارزیابی تأثیر یک سیاست بر روی یک معیار مورد علاقه ، ممکن است اینگونه نباشد
انجام یک کارآزمایی کنترل تصادفی امکان پذیر است.در تنظیماتی که فقط
داده های مشاهده ای در دسترس است ، روش های کنترل مصنوعی (SC) ارائه می دهند
رویکرد محبوب داده محور برای برآورد کنترل "مصنوعی" با ترکیب
اندازه گیری واحدهای "مشابه" (اهدا کنندگان).اخیراً ، SC قوی (RSC) بود
به عنوان تعمیم SC برای غلبه بر چالش های داده های گمشده پیشنهاد شده است
سطح بالایی از سر و صدا ، ضمن حذف اعتماد به دانش دامنه برای
انتخاب اهدا کنندگانبا این حال ، SC ، RSC و انواع آنها از فقیر رنج می برند
تخمین وقتی دوره قبل از مداخله خیلی کوتاه است.به عنوان اصلی
مشارکت ، ما تعمیم RSC یک بعدی را پیشنهاد می کنیم
RSC چند بعدی ، MRSC.مکانیسم پیشنهادی ما شامل چندین است
معیارها برای برآورد کنترل مصنوعی ، بنابراین غلبه بر چالش فقیر
استنتاج از داده های محدود قبل از مداخله.ما نشان می دهیم که الگوریتم MRSC
با معیارهای $ $ $ منجر به یک برآوردگر مداوم از کنترل مصنوعی می شود
واحد هدف تحت هر متریک.تجزیه و تحلیل نمونه محدود ما نشان می دهد که
خطای پیش بینی با سرعت سریعتر از الگوریتم RSC توسط a به صفر می رسد
عامل $ k $ و $ \ sqrt {k} $ برای دوره های آموزش و آزمایش (قبل و
به ترتیب بعد از مداخله).علاوه بر این ، ما یک آزمایش تشخیصی ارائه می دهیم
این کار ابزار شامل معیارهای اضافی را ارزیابی می کند.علاوه بر این ، ما
مکانیسمی را برای اعتبارسنجی عملکرد MRSC: سری زمانی معرفی کنید
پیش بینی.یعنی ما روشی را برای پیش بینی تکامل آینده a پیشنهاد می کنیم
سری زمانی بر اساس داده های محدود وقتی مفهوم زمان نسبی است و نه
مطلق ، یعنی ، ما به استخر اهدا کننده دسترسی داریم که مورد دلخواه قرار گرفته است
تکامل آینده.سرانجام ، ما آزمایش را برای ایجاد اثربخشی انجام می دهیم
MRSC در داده های مصنوعی و دو مطالعه موردی در دنیای واقعی (خرده فروشی و کریکت). |
30,265 | This paper describes three methods for carrying out non-asymptotic inference
on partially identified parameters that are solutions to a class of
optimization problems. Applications in which the optimization problems arise
include estimation under shape restrictions, estimation of models of discrete
games, and estimation based on grouped data. The partially identified
parameters are characterized by restrictions that involve the unknown
population means of observed random variables in addition to structural
parameters. Inference consists of finding confidence intervals for functions of
the structural parameters. Our theory provides finite-sample lower bounds on
the coverage probabilities of the confidence intervals under three sets of
assumptions of increasing strength. With the moderate sample sizes found in
most economics applications, the bounds become tighter as the assumptions
strengthen. We discuss estimation of population parameters that the bounds
depend on and contrast our methods with alternative methods for obtaining
confidence intervals for partially identified parameters. The results of Monte
Carlo experiments and empirical examples illustrate the usefulness of our
method. | در این مقاله سه روش برای انجام استنباط غیر متعارف شرح داده شده است
در پارامترهای جزئی مشخص شده که راه حل برای یک کلاس از
مشکلات بهینه سازیبرنامه هایی که در آن مشکلات بهینه سازی بوجود می آیند
شامل تخمین تحت محدودیت های شکل ، تخمین مدل های گسسته
بازی ها و تخمین ها بر اساس داده های گروه بندی شده.تا حدی مشخص شده است
پارامترها با محدودیت هایی که شامل ناشناخته ها هستند مشخص می شوند
معنی جمعیت متغیرهای تصادفی مشاهده شده علاوه بر ساختاری
مولفه های.استنتاج شامل یافتن فواصل اطمینان برای کارکردها است
پارامترهای ساختاری.نظریه ما مرزهای پایین نمونه محدود را در آن فراهم می کند
احتمال پوشش فواصل اطمینان در سه مجموعه از
فرضیات افزایش قدرت.با اندازه نمونه متوسط موجود در
بیشتر برنامه های اقتصاد ، مرزها به عنوان فرضیات محکم تر می شوند
تقویت.ما در مورد برآورد پارامترهای جمعیتی که مرزها است بحث می کنیم
به روشهای ما با روشهای جایگزین برای به دست آوردن بستگی دارد و در تضاد است
فواصل اطمینان برای پارامترهای جزئی شناسایی شده.نتایج مونت
آزمایشات کارلو و نمونه های تجربی سودمندی ما را نشان می دهد
روش. |
30,266 | In this paper, we consider a framework adapting the notion of cointegration
when two asset prices are generated by a driftless It\^{o}-semimartingale
featuring jumps with infinite activity, observed regularly and synchronously at
high frequency. We develop a regression based estimation of the cointegrated
relations method and show the related consistency and central limit theory when
there is cointegration within that framework. We also provide a Dickey-Fuller
type residual based test for the null of no cointegration against the
alternative of cointegration, along with its limit theory. Under no
cointegration, the asymptotic limit is the same as that of the original
Dickey-Fuller residual based test, so that critical values can be easily
tabulated in the same way. Finite sample indicates adequate size and good power
properties in a variety of realistic configurations, outperforming original
Dickey-Fuller and Phillips-Perron type residual based tests, whose sizes are
distorted by non ergodic time-varying variance and power is altered by price
jumps. Two empirical examples consolidate the Monte-Carlo evidence that the
adapted tests can be rejected while the original tests are not, and vice versa. | در این مقاله ، ما یک چارچوب را در نظر می گیریم که مفهوم ادغام را تطبیق می دهد
هنگامی که دو قیمت دارایی توسط یک راننده آن ایجاد می شود \^{o} -semimartingale
دارای پرش با فعالیت بی نهایت ، به طور مرتب و همزمان در
فرکانس بالا.ما یک تخمین مبتنی بر رگرسیون از یکپارچه سازی ایجاد می کنیم
روش روابط و نشان دادن قوام مربوطه و نظریه محدودیت مرکزی در زمان
در آن چارچوب ادغام وجود دارد.ما همچنین یک dickey-fuller را تهیه می کنیم
تست مبتنی بر باقیمانده را برای NULL از NO CONTEGRATION در برابر
جایگزین Cointegration ، همراه با نظریه حد آن.زیر هیچ
ادغام ، حد بدون علامت همانند اصلی است
تست مبتنی بر باقیمانده Dickey-Fuller ، به طوری که مقادیر بحرانی به راحتی می توانند
به همین روش جدول بندی شده است.نمونه محدود نشان دهنده اندازه کافی و قدرت خوب است
خواص در انواع تنظیمات واقع بینانه ، از اصل بهتر است
تست های مبتنی بر باقیمانده از نوع Dickey-Fuller و Phillips-Perron ، اندازه آنها است
تحریف شده توسط واریانس و قدرت متغیر غیر ارگوودیک با قیمت تغییر می کند
پرشدو نمونه تجربی ، شواهد مونت کارلو را تلفیق می کند که
تست های اقتباس شده را می توان رد کرد در حالی که تست های اصلی نیستند و برعکس. |
30,267 | We consider a nonparametric instrumental regression model with continuous
endogenous regressor where instruments are fully independent of the error term.
This assumption allows us to extend the reach of this model to cases where the
instrumental variable is discrete, and therefore to substantially enlarge its
potential empirical applications. Under our assumptions, the regression
function becomes solution to a nonlinear integral equation. We contribute to
existing literature by providing an exhaustive analysis of identification and a
simple iterative estimation procedure. Details on the implementation and on the
asymptotic properties of this estimation algorithm are given. We conclude the
paper with a simulation experiment for a binary instrument and an empirical
application to the estimation of the Engel curve for food, where we show that
our estimator delivers results that are consistent with existing evidence under
several discretizations of the instrumental variable. | ما یک مدل رگرسیون ابزاری غیر پارامتری را با مداوم در نظر می گیریم
رگرسیون درون زا که در آن سازها کاملاً از اصطلاح خطا مستقل هستند.
این فرض به ما اجازه می دهد تا دسترسی این مدل را به مواردی گسترش دهیم که
متغیر ابزاری گسسته است ، و بنابراین برای بزرگ کردن آن به طور قابل ملاحظه ای
برنامه های تجربی بالقوه.تحت فرضیات ما ، رگرسیون
عملکرد به یک معادله انتگرال غیرخطی تبدیل می شود.ما در
ادبیات موجود با ارائه یک تحلیل جامع از شناسایی و الف
روش تخمین تکراری ساده.جزئیات مربوط به اجرای و در
خصوصیات بدون علامت این الگوریتم تخمین آورده شده است.ما نتیجه می گیریم
مقاله با یک آزمایش شبیه سازی برای یک ابزار باینری و یک تجربی
استفاده از تخمین منحنی انگل برای غذا ، جایی که ما آن را نشان می دهیم
برآوردگر ما نتایج را ارائه می دهد که مطابق با شواهد موجود در زیر است
چندین تفسیر متغیر ابزاری. |
30,268 | We propose to smooth the entire objective function, rather than only the
check function, in a linear quantile regression context. Not only does the
resulting smoothed quantile regression estimator yield a lower mean squared
error and a more accurate Bahadur-Kiefer representation than the standard
estimator, but it is also asymptotically differentiable. We exploit the latter
to propose a quantile density estimator that does not suffer from the curse of
dimensionality. This means estimating the conditional density function without
worrying about the dimension of the covariate vector. It also allows for
two-stage efficient quantile regression estimation. Our asymptotic theory holds
uniformly with respect to the bandwidth and quantile level. Finally, we propose
a rule of thumb for choosing the smoothing bandwidth that should approximate
well the optimal bandwidth. Simulations confirm that our smoothed quantile
regression estimator indeed performs very well in finite samples. | ما پیشنهاد می کنیم کل عملکرد عینی را صاف کنیم ، نه فقط
عملکرد را در یک زمینه رگرسیون کمی خطی بررسی کنید.نه تنها
برآوردگر رگرسیون کمی هموار ، میانگین مربع کمتری دارد
خطا و نمایش دقیق تر بهادور-کیفر نسبت به استاندارد
برآوردگر ، اما همچنین از نظر متمایز متفاوت است.ما از دومی سوء استفاده می کنیم
برای پیشنهاد یک برآوردگر چگالی کمی که از نفرین رنج نمی برد
ابعاداین به معنای تخمین عملکرد چگالی شرطی بدون آن است
نگرانی در مورد ابعاد بردار متغیر.همچنین اجازه می دهد
برآورد رگرسیون کمی کارآمد کارآمد.نظریه بدون علامت ما برگزار می شود
به طور یکنواخت با توجه به پهنای باند و سطح کمی.سرانجام ، ما پیشنهاد می کنیم
یک قانون شست برای انتخاب پهنای باند صاف کننده که باید تقریبی باشد
خوب پهنای باند بهینه.شبیه سازی ها تأیید می کنند که کمی هموار ما
برآوردگر رگرسیون در واقع در نمونه های محدود بسیار خوب عمل می کند. |
30,269 | This paper analyzes the diagnostic of near multicollinearity in a multiple
linear regression from auxiliary centered regressions (with intercept) and
non-centered (without intercept). From these auxiliary regression, the centered
and non-centered Variance Inflation Factors are calculated, respectively. It is
also presented an expression that relate both of them. | در این مقاله ، تشخیص چند قطبی نزدیک به چندگانه به تجزیه و تحلیل شده است
رگرسیون خطی از رگرسیون محور کمکی (با رهگیری) و
غیر محور (بدون رهگیری).از این رگرسیون کمکی ، محور
و عوامل تورم واریانس غیر محور به ترتیب محاسبه می شوند.این است
همچنین عبارتی را ارائه داد که هر دوی آنها را نشان می دهد. |