id
int64 28.8k
36k
| text
stringlengths 44
3.03k
| translation
stringlengths 36
2.47k
|
---|---|---|
30,071 | We study regression discontinuity designs when covariates are included in the
estimation. We examine local polynomial estimators that include discrete or
continuous covariates in an additive separable way, but without imposing any
parametric restrictions on the underlying population regression functions. We
recommend a covariate-adjustment approach that retains consistency under
intuitive conditions, and characterize the potential for estimation and
inference improvements. We also present new covariate-adjusted mean squared
error expansions and robust bias-corrected inference procedures, with
heteroskedasticity-consistent and cluster-robust standard errors. An empirical
illustration and an extensive simulation study is presented. All methods are
implemented in \texttt{R} and \texttt{Stata} software packages. | ما طرح های ناپیوستگی رگرسیون را هنگامی که متغیرهای متغیر در آن گنجانده شده است مطالعه می کنیم
برآورد کردن.ما برآوردگرهای چند جملهای محلی را که شامل گسسته یا گسسته است ، بررسی می کنیم
متغیرهای متغیر مداوم به روشی قابل جدا شدن افزودنی ، اما بدون تحمیل
محدودیت های پارامتری در عملکردهای رگرسیون جمعیتی اساسی.ما
یک رویکرد تنظیم متغیرهای متغیر را پیشنهاد کنید که قوام را در زیر حفظ کند
شرایط بصری ، و پتانسیل تخمین را توصیف می کند و
بهبود استنتاج.ما همچنین میانگین مربع تنظیم شده با همبستگی جدید را ارائه می دهیم
گسترش خطا و روشهای استنتاج اصلاح شده با تعصب قوی ، با
خطاهای استاندارد-سازگار با ناهمگن و خوشه ای.تجربی
تصویر و یک مطالعه شبیه سازی گسترده ارائه شده است.همه روشها هستند
در بسته های نرم افزاری در \ texttt {r} و \ texttt {stata. |
30,072 | Due to the increasing availability of high-dimensional empirical applications
in many research disciplines, valid simultaneous inference becomes more and
more important. For instance, high-dimensional settings might arise in economic
studies due to very rich data sets with many potential covariates or in the
analysis of treatment heterogeneities. Also the evaluation of potentially more
complicated (non-linear) functional forms of the regression relationship leads
to many potential variables for which simultaneous inferential statements might
be of interest. Here we provide a review of classical and modern methods for
simultaneous inference in (high-dimensional) settings and illustrate their use
by a case study using the R package hdm. The R package hdm implements valid
joint powerful and efficient hypothesis tests for a potentially large number of
coeffcients as well as the construction of simultaneous confidence intervals
and, therefore, provides useful methods to perform valid post-selection
inference based on the LASSO. | به دلیل افزایش در دسترس بودن برنامه های تجربی با ابعاد بالا
در بسیاری از رشته های تحقیقاتی ، استنباط همزمان معتبر بیشتر می شود و
مهمتر.به عنوان مثال ، تنظیمات با ابعاد بالا ممکن است در اقتصادی ایجاد شود
مطالعات به دلیل مجموعه داده های بسیار غنی با بسیاری از متغیرهای بالقوه یا در
تجزیه و تحلیل ناهمگونی های درمان.همچنین ارزیابی بالقوه بیشتر
اشکال پیچیده (غیر خطی) از روابط رگرسیون منجر می شود
به بسیاری از متغیرهای بالقوه که اظهارات استنباطی همزمان ممکن است
مورد توجه قرار گیرددر اینجا ما مروری بر روشهای کلاسیک و مدرن برای
استنباط همزمان در تنظیمات (با ابعاد بالا) و استفاده از آنها را نشان می دهد
توسط یک مطالعه موردی با استفاده از بسته R HDM.بسته R HDM معتبر است
آزمون فرضیه قدرتمند و کارآمد مشترک برای تعداد بالقوه زیادی
ضرایب و همچنین ساخت فواصل اطمینان همزمان
و بنابراین ، روشهای مفیدی برای انجام انتخابات معتبر پس از انتخاب فراهم می کند
استنتاج بر اساس لاسو. |
30,073 | Control variables provide an important means of controlling for endogeneity
in econometric models with nonseparable and/or multidimensional heterogeneity.
We allow for discrete instruments, giving identification results under a
variety of restrictions on the way the endogenous variable and the control
variables affect the outcome. We consider many structural objects of interest,
such as average or quantile treatment effects. We illustrate our results with
an empirical application to Engel curve estimation. | متغیرهای کنترل وسیله مهمی برای کنترل درون زا را فراهم می کنند
در مدلهای اقتصاد سنجی با ناهمگونی غیر قابل تفکیک و/یا چند بعدی.
ما به ابزارهای گسسته اجازه می دهیم ، و نتایج شناسایی را در زیر ارائه می دهیم
انواع محدودیت ها در نحوه متغیر درون زا و کنترل
متغیرها بر نتیجه تأثیر می گذارند.ما بسیاری از اشیاء ساختاری مورد علاقه را در نظر می گیریم ،
مانند اثرات درمانی متوسط یا کمی.ما نتایج خود را با
یک برنامه تجربی برای برآورد منحنی انگل. |
30,074 | Central to many inferential situations is the estimation of rational
functions of parameters. The mainstream in statistics and econometrics
estimates these quantities based on the plug-in approach without consideration
of the main objective of the inferential situation. We propose the Bayesian
Minimum Expected Loss (MELO) approach focusing explicitly on the function of
interest, and calculating its frequentist variability. Asymptotic properties of
the MELO estimator are similar to the plug-in approach. Nevertheless,
simulation exercises show that our proposal is better in situations
characterized by small sample sizes and noisy models. In addition, we observe
in the applications that our approach gives lower standard errors than
frequently used alternatives when datasets are not very informative. | محوری در بسیاری از موقعیت های استنباطی تخمین منطقی است
توابع پارامترها.جریان اصلی در آمار و اقتصاد سنجی
این مقادیر را بر اساس رویکرد افزونه بدون در نظر گرفتن تخمین می زند
از هدف اصلی وضعیت استنباطی.ما بیزی را پیشنهاد می کنیم
رویکرد حداقل از دست دادن (MELO) با تمرکز صریح بر عملکرد
علاقه ، و محاسبه تنوع مکرر آن.خصوصیات بدون علامت از
برآوردگر Melo شبیه به روش افزونه است.با این اوصاف،
تمرینات شبیه سازی نشان می دهد که پیشنهاد ما در موقعیت ها بهتر است
با اندازه نمونه های کوچک و مدل های پر سر و صدا مشخص می شود.علاوه بر این ، ما مشاهده می کنیم
در برنامه هایی که رویکرد ما خطاهای استاندارد پایین تری از آن می دهد
هنگامی که مجموعه داده ها خیلی آموزنده نیستند ، از گزینه های متداول استفاده می شود. |
30,075 | In this paper we propose the Single-equation Penalized Error Correction
Selector (SPECS) as an automated estimation procedure for dynamic
single-equation models with a large number of potentially (co)integrated
variables. By extending the classical single-equation error correction model,
SPECS enables the researcher to model large cointegrated datasets without
necessitating any form of pre-testing for the order of integration or
cointegrating rank. Under an asymptotic regime in which both the number of
parameters and time series observations jointly diverge to infinity, we show
that SPECS is able to consistently estimate an appropriate linear combination
of the cointegrating vectors that may occur in the underlying DGP. In addition,
SPECS is shown to enable the correct recovery of sparsity patterns in the
parameter space and to posses the same limiting distribution as the OLS oracle
procedure. A simulation study shows strong selective capabilities, as well as
superior predictive performance in the context of nowcasting compared to
high-dimensional models that ignore cointegration. An empirical application to
nowcasting Dutch unemployment rates using Google Trends confirms the strong
practical performance of our procedure. | در این مقاله تصحیح خطای مجازات تک عادلانه را پیشنهاد می کنیم
انتخاب کننده (مشخصات) به عنوان یک روش تخمین خودکار برای پویا
مدل های تک عادلانه با تعداد زیادی از بالقوه (CO) یکپارچه
متغیرهابا گسترش مدل اصلاح خطای تک عادلانه کلاسیک ،
مشخصات محقق را قادر می سازد تا از مجموعه داده های بزرگ ادغام شده بدون استفاده استفاده کند
نیاز به هر نوع قبل از آزمایش برای ترتیب ادغام یا
رتبه ادغام.تحت یک رژیم بدون علامت که در آن هر دو تعداد
پارامترها و مشاهدات سری زمانی به طور مشترک از بی نهایت منحرف می شوند ، ما نشان می دهیم
این مشخصات قادر به تخمین مداوم یک ترکیب خطی مناسب است
از بردارهای ادغام کننده ای که ممکن است در DGP اساسی رخ دهد.علاوه بر این،
مشخصات مشخص شده برای بازیابی صحیح الگوهای کمبود در
فضای پارامتر و دارای همان توزیع محدود مانند OLS Oracle است
روش.یک مطالعه شبیه سازی قابلیت های انتخابی قوی و همچنین
عملکرد پیش بینی برتر در زمینه Nowcasting در مقایسه با
مدل های با ابعاد بالا که از ادغام نادیده گرفته می شوند.یک برنامه تجربی به
Nowcasting نرخ بیکاری هلندی با استفاده از Google Trends ، قوی را تأیید می کند
عملکرد عملی رویه ما. |
30,076 | Although stochastic volatility and GARCH (generalized autoregressive
conditional heteroscedasticity) models have successfully described the
volatility dynamics of univariate asset returns, extending them to the
multivariate models with dynamic correlations has been difficult due to several
major problems. First, there are too many parameters to estimate if available
data are only daily returns, which results in unstable estimates. One solution
to this problem is to incorporate additional observations based on intraday
asset returns, such as realized covariances. Second, since multivariate asset
returns are not synchronously traded, we have to use the largest time intervals
such that all asset returns are observed in order to compute the realized
covariance matrices. However, in this study, we fail to make full use of the
available intraday informations when there are less frequently traded assets.
Third, it is not straightforward to guarantee that the estimated (and the
realized) covariance matrices are positive definite. Our contributions are the
following: (1) we obtain the stable parameter estimates for the dynamic
correlation models using the realized measures, (2) we make full use of
intraday informations by using pairwise realized correlations, (3) the
covariance matrices are guaranteed to be positive definite, (4) we avoid the
arbitrariness of the ordering of asset returns, (5) we propose the flexible
correlation structure model (e.g., such as setting some correlations to be zero
if necessary), and (6) the parsimonious specification for the leverage effect
is proposed. Our proposed models are applied to the daily returns of nine U.S.
stocks with their realized volatilities and pairwise realized correlations and
are shown to outperform the existing models with respect to portfolio
performances. | اگرچه نوسانات تصادفی و گارچ (خودجوش عمومی
ناهمگونی مشروط) مدل ها با موفقیت شرح داده اند
پویایی نوسانات بازده دارایی تک متغیره ، آنها را به سمت
مدلهای چند متغیره با همبستگی پویا به دلیل چندین مورد دشوار بوده است
مشکلات عمدهاول ، پارامترهای زیادی برای تخمین در صورت وجود وجود دارد
داده ها فقط بازده روزانه هستند که منجر به برآورد ناپایدار می شود.یک راه حل
برای این مشکل ، ادغام مشاهدات اضافی بر اساس داخل بدن است
بازده دارایی ، مانند کواریانس های تحقق یافته.دوم ، از دارایی چند متغیره
بازده ها به طور همزمان معامله نمی شوند ، ما باید از بزرگترین فواصل زمانی استفاده کنیم
به گونه ای که تمام بازده دارایی به منظور محاسبه تحقق یافته مشاهده می شود
ماتریس کواریانس.با این حال ، در این مطالعه ، ما نمی توانیم از کامل استفاده کنیم
اطلاعات داخلی در دسترس است که دارایی های کمتر معامله می شود.
سوم ، این ساده نیست که تضمین کنید که تخمین زده شده (و
تحقق یافته) ماتریس های کواریانس قطعی مثبت هستند.مشارکتهای ما این است
در زیر: (1) ما تخمین پارامتر پایدار را برای پویا بدست می آوریم
مدل های همبستگی با استفاده از اقدامات تحقق یافته ، (2) ما از آن استفاده کامل می کنیم
اطلاعات intraday با استفاده از همبستگی های تحقق یافته زوج ، (3)
ماتریس های کواریانس تضمین شده است که قطعی مثبت هستند ، (4) ما از آن جلوگیری می کنیم
خودباره سفارش بازده دارایی ، (5) ما انعطاف پذیر را پیشنهاد می کنیم
مدل ساختار همبستگی (به عنوان مثال ، مانند تنظیم برخی از همبستگی ها صفر است
در صورت لزوم) ، و (6) مشخصات پارسا برای اثر اهرم
پیشنهاد شده استمدل های پیشنهادی ما برای بازده روزانه نه ایالات متحده اعمال می شود
سهام با نوسانات تحقق یافته و همبستگی های زوجی و همبستگی
نشان داده شده است که از مدل های موجود با توجه به نمونه کارها بهتر عمل می کند
اجراها |
30,077 | In this paper we investigate panel regression models with interactive fixed
effects. We propose two new estimation methods that are based on minimizing
convex objective functions. The first method minimizes the sum of squared
residuals with a nuclear (trace) norm regularization. The second method
minimizes the nuclear norm of the residuals. We establish the consistency of
the two resulting estimators. Those estimators have a very important
computational advantage compared to the existing least squares (LS) estimator,
in that they are defined as minimizers of a convex objective function. In
addition, the nuclear norm penalization helps to resolve a potential
identification problem for interactive fixed effect models, in particular when
the regressors are low-rank and the number of the factors is unknown. We also
show how to construct estimators that are asymptotically equivalent to the
least squares (LS) estimator in Bai (2009) and Moon and Weidner (2017) by using
our nuclear norm regularized or minimized estimators as initial values for a
finite number of LS minimizing iteration steps. This iteration avoids any
non-convex minimization, while the original LS estimation problem is generally
non-convex, and can have multiple local minima. | در این مقاله مدل های رگرسیون پانل را با ثابت تعاملی بررسی می کنیم
اثراتما دو روش تخمین جدید را پیشنهاد می کنیم که مبتنی بر به حداقل رساندن هستند
توابع عینی محدب.روش اول جمع مربع را به حداقل می رساند
باقیمانده با تنظیم هنجار هسته ای (ردیابی).روش دوم
هنجار هسته ای باقیمانده ها را به حداقل می رساند.ما قوام را تعیین می کنیم
دو برآوردگر نتیجه.این برآوردگرها بسیار مهم هستند
مزیت محاسباتی در مقایسه با برآوردگر حداقل مربعات موجود (LS) ،
در این صورت آنها به عنوان مینیمیزرهای یک عملکرد هدف محدب تعریف می شوند.که در
علاوه بر این ، مجازات هنجار هسته ای به حل یک پتانسیل کمک می کند
مشکل شناسایی برای مدل های اثر ثابت تعاملی ، به ویژه در زمان
رگرسیون ها درجه پایین هستند و تعداد عوامل ناشناخته است.ما همچنین
نحوه ساخت برآوردگرهایی را که به صورت مجانبی معادل با
برآوردگر حداقل مربعات (LS) در BAI (2009) و Moon and Weidner (2017) با استفاده
هنجار هسته ای ما برآوردگرهای منظم یا به حداقل رساندن به عنوان مقادیر اولیه برای a
تعداد محدود LS مراحل تکرار را به حداقل می رساند.این تکرار از هر چیزی جلوگیری می کند
به حداقل رساندن غیر Convex ، در حالی که مشکل تخمین LS اصلی به طور کلی است
غیر CONVEX ، و می تواند چندین حداقل محلی داشته باشد. |
30,078 | Can instrumental variables be found from data? While instrumental variable
(IV) methods are widely used to identify causal effect, testing their validity
from observed data remains a challenge. This is because validity of an IV
depends on two assumptions, exclusion and as-if-random, that are largely
believed to be untestable from data. In this paper, we show that under certain
conditions, testing for instrumental variables is possible. We build upon prior
work on necessary tests to derive a test that characterizes the odds of being a
valid instrument, thus yielding the name "necessary and probably sufficient".
The test works by defining the class of invalid-IV and valid-IV causal models
as Bayesian generative models and comparing their marginal likelihood based on
observed data. When all variables are discrete, we also provide a method to
efficiently compute these marginal likelihoods.
We evaluate the test on an extensive set of simulations for binary data,
inspired by an open problem for IV testing proposed in past work. We find that
the test is most powerful when an instrument follows monotonicity---effect on
treatment is either non-decreasing or non-increasing---and has moderate-to-weak
strength; incidentally, such instruments are commonly used in observational
studies. Among as-if-random and exclusion, it detects exclusion violations with
higher power. Applying the test to IVs from two seminal studies on instrumental
variables and five recent studies from the American Economic Review shows that
many of the instruments may be flawed, at least when all variables are
discretized. The proposed test opens the possibility of data-driven validation
and search for instrumental variables. | آیا می توان متغیرهای ابزاری را از داده ها یافت؟در حالی که متغیر ابزاری است
(IV) روشها برای شناسایی اثر علی و آزمایش اعتبار آنها به طور گسترده ای استفاده می شود
از داده های مشاهده شده یک چالش باقی مانده است.این امر به این دلیل است که اعتبار یک IV
بستگی به دو فرض ، محرومیت و AS-IF-RANDOM ، که عمدتا هستند
اعتقاد بر این است که از داده ها غیرقابل تحمل است.در این مقاله ، ما آن را زیر مشخص نشان می دهیم
شرایط ، آزمایش برای متغیرهای ابزاری امکان پذیر است.ما قبل از آن ساختیم
روی تست های لازم کار کنید تا آزمایشی انجام شود که شانس بودن را نشان می دهد
ابزار معتبر ، بدین ترتیب نام "لازم و احتمالاً کافی" را ارائه می دهد.
این آزمون با تعریف کلاس مدلهای علی نامعتبر-IV و معتبر-IV کار می کند
به عنوان مدل های تولیدی بیزی و مقایسه احتمال حاشیه آنها بر اساس
داده های مشاهده شدهوقتی همه متغیرها گسسته هستند ، ما نیز روشی را ارائه می دهیم
به طور موثر این احتمال حاشیه را محاسبه کنید.
ما آزمون را در مجموعه گسترده ای از شبیه سازی ها برای داده های باینری ارزیابی می کنیم ،
با الهام از یک مشکل باز برای آزمایش IV که در کار گذشته ارائه شده است.ما این را پیدا می کنیم
وقتی یک ابزار از یکنواختی پیروی می کند --- تأثیر بر روی یک تست قدرتمندتر است
درمان غیر کاهش دهنده یا غیر افزایش دهنده است-و دارای خستگی متوسط است
استحکام - قدرت؛اتفاقاً چنین ابزارهایی معمولاً در مشاهده استفاده می شوند
مطالعات.در میان as-if-random و محرومیت ، تخلفات محرومیت با آن را تشخیص می دهد
قدرت بالاتر.استفاده از آزمون در IV از دو مطالعه اصلی در مورد ابزار
متغیرها و پنج مطالعه اخیر از بررسی اقتصادی آمریکا نشان می دهد که
حداقل بسیاری از ابزارها ممکن است نقص داشته باشند ، حداقل وقتی همه متغیرها هستند
گسسته شدهآزمون پیشنهادی امکان اعتبار سنجی داده محور را باز می کند
و متغیرهای ابزاری را جستجو کنید. |
30,079 | Uncovering the heterogeneity of causal effects of policies and business
decisions at various levels of granularity provides substantial value to
decision makers. This paper develops new estimation and inference procedures
for multiple treatment models in a selection-on-observables framework by
modifying the Causal Forest approach suggested by Wager and Athey (2018) in
several dimensions. The new estimators have desirable theoretical,
computational and practical properties for various aggregation levels of the
causal effects. While an Empirical Monte Carlo study suggests that they
outperform previously suggested estimators, an application to the evaluation of
an active labour market programme shows the value of the new methods for
applied research. | پرده برداری از ناهمگونی اثرات علّی سیاست ها و تجارت
تصمیمات در سطوح مختلف گرانول ارزش قابل توجهی را فراهم می کند
تصمیم گیرندگان.این مقاله رویه های جدید تخمین و استنباط را تهیه می کند
برای مدل های درمانی متعدد در یک چارچوب انتخاب بر روی obsinvables توسط
اصلاح رویکرد جنگل علیت که توسط Wager and Athey (2018) پیشنهاد شده است
ابعاد مختلفبرآوردگرهای جدید نظری مطلوب دارند ،
خصوصیات محاسباتی و عملی برای سطح مختلف تجمع
اثرات علیدر حالی که یک مطالعه تجربی مونت کارلو نشان می دهد که آنها
پیش فرض پیش از این برآوردگرهای پیشنهادی ، کاربردی برای ارزیابی
یک برنامه بازار کار فعال ارزش روشهای جدید را برای
تحقیقات کاربردی. |
30,080 | What should researchers do when their baseline model is refuted? We provide
four constructive answers. First, researchers can measure the extent of
falsification. To do this, we consider continuous relaxations of the baseline
assumptions of concern. We then define the falsification frontier: The smallest
relaxations of the baseline model which are not refuted. This frontier provides
a quantitative measure of the extent of falsification. Second, researchers can
present the identified set for the parameter of interest under the assumption
that the true model lies somewhere on this frontier. We call this the
falsification adaptive set. This set generalizes the standard baseline estimand
to account for possible falsification. Third, researchers can present the
identified set for a specific point on this frontier. Finally, as a sensitivity
analysis, researchers can present identified sets for points beyond the
frontier. To illustrate these four ways of salvaging falsified models, we study
overidentifying restrictions in two instrumental variable models: a homogeneous
effects linear model, and heterogeneous effect models with either binary or
continuous outcomes. In the linear model, we consider the classical
overidentifying restrictions implied when multiple instruments are observed. We
generalize these conditions by considering continuous relaxations of the
classical exclusion restrictions. By sufficiently weakening the assumptions, a
falsified baseline model becomes non-falsified. We obtain analogous results in
the heterogeneous effect models, where we derive identified sets for marginal
distributions of potential outcomes, falsification frontiers, and falsification
adaptive sets under continuous relaxations of the instrument exogeneity
assumptions. We illustrate our results in four different empirical
applications. | محققان وقتی مدل پایه خود رد می شود چه کاری باید انجام دهند؟ما فراهم می کنیم
چهار پاسخ سازنده.اول ، محققان می توانند میزان آن را اندازه بگیرند
تحریف.برای انجام این کار ، ما آرامش مداوم از پایه را در نظر می گیریم
فرضیات نگرانیسپس مرز جعلی را تعریف می کنیم: کوچکترین
آرامش مدل پایه که رد نمی شود.این مرز فراهم می کند
اندازه گیری کمی از میزان جعل.دوم ، محققان می توانند
مجموعه مشخص شده را برای پارامتر بهره تحت فرض ارائه دهید
که مدل واقعی در جایی در این مرز قرار دارد.ما این را می نامیم
مجموعه تطبیقی جعلی.این مجموعه برآورد پایه استاندارد را تعمیم می دهد
برای جعل جعل احتمالی.سوم ، محققان می توانند ارائه دهند
مجموعه مشخص شده برای یک نقطه خاص در این مرز.سرانجام ، به عنوان یک حساسیت
تجزیه و تحلیل ، محققان می توانند مجموعه های شناسایی شده را برای امتیازات فراتر از آن ارائه دهند
مرزبرای نشان دادن این چهار روش برای نجات مدل های جعلی ، ما مطالعه می کنیم
محدودیت های بیش از حد در دو مدل متغیر ابزاری: یک همگن
مدل های خطی و مدل های اثر ناهمگن با باینری یا
نتایج مداومدر مدل خطی ، کلاسیک را در نظر می گیریم
محدودیت های بیش از حد مشخص شده در هنگام مشاهده ابزارهای متعدد حاکی از آن است.ما
این شرایط را با در نظر گرفتن آرامش مداوم از
محدودیت های محرومیت کلاسیک.با تضعیف کافی فرضیات ، الف
مدل پایه جعلی غیر متعارف می شود.ما نتایج مشابهی کسب می کنیم
مدل های اثر ناهمگن ، جایی که مجموعه های شناسایی شده برای حاشیه را بدست می آوریم
توزیع نتایج بالقوه ، مرزهای جعلی و جعل
مجموعه های تطبیقی تحت آرامش مداوم اگزوژن ساز
فرضیاتما نتایج خود را در چهار تجربی مختلف نشان می دهیم
برنامه های کاربردی. |
30,081 | We analyze the role of selection bias in generating the changes in the
observed distribution of female hourly wages in the United States using CPS
data for the years 1975 to 2020. We account for the selection bias from the
employment decision by modeling the distribution of the number of working hours
and estimating a nonseparable model of wages. We decompose changes in the wage
distribution into composition, structural and selection effects. Composition
effects have increased wages at all quantiles while the impact of the
structural effects varies by time period and quantile. Changes in the role of
selection only appear at the lower quantiles of the wage distribution. The
evidence suggests that there is positive selection in the 1970s which
diminishes until the later 1990s. This reduces wages at lower quantiles and
increases wage inequality. Post 2000 there appears to be an increase in
positive sorting which reduces the selection effects on wage inequality. | ما نقش تعصب انتخاب را در ایجاد تغییرات در
توزیع مشاهده شده دستمزد ساعتی زن در ایالات متحده با استفاده از CPS
داده ها برای سالهای 1975 تا 2020. ما تعصب انتخاب را از
تصمیم اشتغال با مدل سازی توزیع تعداد ساعات کاری
و تخمین یک مدل غیر قابل تفکیک دستمزد.ما تغییرات در دستمزد را تجزیه می کنیم
توزیع در ترکیب ، اثرات ساختاری و انتخاب.ترکیب بندی
اثرات در همه مقدار دستمزد افزایش یافته است در حالی که تأثیر آن
اثرات ساختاری براساس دوره زمانی و کمی متفاوت است.تغییرات در نقش
انتخاب فقط در مقدار پایین توزیع دستمزد ظاهر می شود.در
شواهد نشان می دهد که در دهه 1970 انتخاب مثبتی وجود دارد که
کاهش می یابد تا دهه 1990.این باعث کاهش دستمزدها در کمیتهای پایین تر و
نابرابری دستمزد را افزایش می دهد.به نظر می رسد که در سال 2000 افزایش یافته است
مرتب سازی مثبت که اثرات انتخاب بر نابرابری دستمزد را کاهش می دهد. |
30,082 | International trade research plays an important role to inform trade policy
and shed light on wider issues relating to poverty, development, migration,
productivity, and economy. With recent advances in information technology,
global and regional agencies distribute an enormous amount of internationally
comparable trading data among a large number of countries over time, providing
a goldmine for empirical analysis of international trade. Meanwhile, an array
of new statistical methods are recently developed for dynamic network analysis.
However, these advanced methods have not been utilized for analyzing such
massive dynamic cross-country trading data. International trade data can be
viewed as a dynamic transport network because it emphasizes the amount of goods
moving across a network. Most literature on dynamic network analysis
concentrates on the connectivity network that focuses on link formation or
deformation rather than the transport moving across the network. We take a
different perspective from the pervasive node-and-edge level modeling: the
dynamic transport network is modeled as a time series of relational matrices.
We adopt a matrix factor model of \cite{wang2018factor}, with a specific
interpretation for the dynamic transport network. Under the model, the observed
surface network is assumed to be driven by a latent dynamic transport network
with lower dimensions. The proposed method is able to unveil the latent dynamic
structure and achieve the objective of dimension reduction. We applied the
proposed framework and methodology to a data set of monthly trading volumes
among 24 countries and regions from 1982 to 2015. Our findings shed light on
trading hubs, centrality, trends and patterns of international trade and show
matching change points to trading policies. The dataset also provides a fertile
ground for future research on international trade. | تحقیقات تجارت بین المللی نقش مهمی برای اطلاع رسانی به سیاست تجارت ایفا می کند
و در مورد مسائل گسترده تر مربوط به فقر ، توسعه ، مهاجرت ، روشن شد
بهره وری و اقتصاد.با پیشرفت های اخیر در فناوری اطلاعات ،
آژانس های جهانی و منطقه ای تعداد زیادی از بین المللی را توزیع می کنند
داده های تجاری قابل مقایسه در بین تعداد زیادی از کشورها با گذشت زمان ، ارائه
مین طلای برای تجزیه و تحلیل تجربی تجارت بین المللی.در همین حال ، یک آرایه
از روشهای جدید آماری اخیراً برای تجزیه و تحلیل شبکه پویا تهیه شده است.
با این حال ، این روشهای پیشرفته برای تجزیه و تحلیل چنین مواردی استفاده نشده است
داده های معاملاتی متقاطع پویا.داده های تجارت بین المللی می تواند باشد
به عنوان یک شبکه حمل و نقل پویا مشاهده می شود زیرا بر میزان کالاها تأکید دارد
حرکت در سراسر یک شبکه.بیشتر ادبیات در مورد تجزیه و تحلیل شبکه پویا
متمرکز بر شبکه اتصال که در شکل گیری پیوند متمرکز است یا
تغییر شکل به جای حمل و نقل در شبکه.ما می گیریم
دیدگاه متفاوت از مدل سازی سطح گره و لبه فراگیر:
شبکه حمل و نقل پویا به عنوان یک سری زمانی از ماتریس های رابطه ای مدل می شود.
ما یک مدل فاکتور ماتریس از \ cite {Wang2018Factor} را با یک خاص اتخاذ می کنیم
تفسیر برای شبکه حمل و نقل پویا.تحت مدل ، مشاهده شده
فرض بر این است که شبکه سطحی توسط یک شبکه حمل و نقل پویا نهفته هدایت می شود
با ابعاد پایینروش پیشنهادی قادر به رونمایی از پویا نهفته است
ساختار و دستیابی به هدف کاهش بعد.ما اعمال کردیم
چارچوب و روش پیشنهادی به مجموعه داده های حجم معاملات ماهانه
از بین 24 کشور و منطقه از سال 1982 تا 2015. یافته های ما روشن شد
مراکز تجاری ، مرکزیت ، روندها و الگوهای تجارت و نمایش بین المللی
تطبیق امتیازات به سیاست های معاملاتی.مجموعه داده همچنین حاصلخیز را فراهم می کند
زمینه برای تحقیقات آینده در مورد تجارت بین المللی. |
30,108 | We provide a novel method for large volatility matrix prediction with
high-frequency data by applying eigen-decomposition to daily realized
volatility matrix estimators and capturing eigenvalue dynamics with ARMA
models. Given a sequence of daily volatility matrix estimators, we compute the
aggregated eigenvectors and obtain the corresponding eigenvalues. Eigenvalues
in the same relative magnitude form a time series and the ARMA models are
further employed to model the dynamics within each eigenvalue time series to
produce a predictor. We predict future large volatility matrix based on the
predicted eigenvalues and the aggregated eigenvectors, and demonstrate the
advantages of the proposed method in volatility prediction and portfolio
allocation problems. | ما یک روش جدید برای پیش بینی ماتریس نوسانات بزرگ با
داده های با فرکانس بالا با استفاده از تجویز ویژه در روزانه تحقق یافته
برآوردگرهای ماتریس نوسانات و گرفتن دینامیک مقادیر ویژه با آرما
مدل ها.با توجه به دنباله ای از برآوردگرهای ماتریس نوسانات روزانه ، ما محاسبه می کنیم
Eigenvectors جمع شده و مقادیر ویژه مربوطه را بدست می آورند.مقادیر ویژه
در همان قدر نسبی یک سری زمانی تشکیل می شود و مدل های ARMA هستند
بیشتر برای مدل سازی دینامیک در هر سری زمانی ویژه به
پیش بینی کننده تولید کنید.ما ماتریس نوسانات بزرگ آینده را بر اساس
مقادیر ویژه و ویژه های ویژه را پیش بینی کرده و نشان می دهد
مزایای روش پیشنهادی در پیش بینی نوسانات و نمونه کارها
مشکلات تخصیص |
30,083 | The relationship between democracy and economic growth is of long-standing
interest. We revisit the panel data analysis of this relationship by Acemoglu,
Naidu, Restrepo and Robinson (forthcoming) using state of the art econometric
methods. We argue that this and lots of other panel data settings in economics
are in fact high-dimensional, resulting in principal estimators -- the fixed
effects (FE) and Arellano-Bond (AB) estimators -- to be biased to the degree
that invalidates statistical inference. We can however remove these biases by
using simple analytical and sample-splitting methods, and thereby restore valid
statistical inference. We find that the debiased FE and AB estimators produce
substantially higher estimates of the long-run effect of democracy on growth,
providing even stronger support for the key hypothesis in Acemoglu, Naidu,
Restrepo and Robinson (forthcoming). Given the ubiquitous nature of panel data,
we conclude that the use of debiased panel data estimators should substantially
improve the quality of empirical inference in economics. | رابطه دموکراسی و رشد اقتصادی دیرینه است
علاقه.ما دوباره تجزیه و تحلیل داده های پانل این رابطه توسط Acemoglu را بررسی می کنیم ،
Naidu ، Restrepo و Robinson (آینده) با استفاده از حالت اقتصاد هنری
مواد و روش ها.ما استدلال می کنیم که این و بسیاری از تنظیمات داده های پانل دیگر در اقتصاد
در واقع با ابعاد بالا و در نتیجه برآوردگرهای اصلی-ثابت هستند
برآوردگرهای اثرات (FE) و Arellano-Bond (AB)-تا حدودی مغرضانه هستند
این استنباط آماری را باطل می کند.با این حال ما می توانیم این تعصبات را حذف کنیم
با استفاده از روشهای ساده تحلیلی و نمونه برداری نمونه ، و از این طریق معتبر بازیابی می شود
استنباط آماری.ما می دانیم که برآوردگرهای Debiased FE و AB تولید می کنند
تخمین های قابل ملاحظه ای بالاتر از تأثیر بلند مدت دموکراسی بر رشد ،
ارائه پشتیبانی حتی قوی تر برای فرضیه کلیدی در Acemoglu ، Naidu ،
Restrepo و رابینسون (آینده).با توجه به ماهیت همه جا داده های پانل ،
نتیجه می گیریم که استفاده از برآوردگرهای داده پانل debiased باید بطور قابل توجهی
بهبود کیفیت استنتاج تجربی در اقتصاد. |
30,084 | In this paper we consider estimation of unobserved components in state space
models using a dynamic factor approach to incorporate auxiliary information
from high-dimensional data sources. We apply the methodology to unemployment
estimation as done by Statistics Netherlands, who uses a multivariate state
space model to produce monthly figures for the unemployment using series
observed with the labour force survey (LFS). We extend the model by including
auxiliary series of Google Trends about job-search and economic uncertainty,
and claimant counts, partially observed at higher frequencies. Our factor model
allows for nowcasting the variable of interest, providing reliable unemployment
estimates in real-time before LFS data become available. | در این مقاله تخمین اجزای بدون نظارت در فضای دولتی را در نظر می گیریم
مدل هایی با استفاده از یک رویکرد فاکتور پویا برای ترکیب اطلاعات کمکی
از منابع داده با ابعاد بالا.ما روش را برای بیکاری اعمال می کنیم
تخمین همانطور که توسط آمار هلند انجام می شود ، که از یک کشور چند متغیره استفاده می کند
مدل فضایی برای تولید ارقام ماهانه برای بیکاری با استفاده از سری
با بررسی نیروی کار (LFS) مشاهده شد.ما مدل را با استفاده از آن گسترش می دهیم
سری کمکی روندهای گوگل در مورد جستجوی شغل و عدم اطمینان اقتصادی ،
و متقاضیان ، که تا حدی در فرکانس های بالاتر مشاهده می شود.مدل فاکتور ما
اجازه می دهد تا متغیر علاقه را فراهم کند ، و بیکاری قابل اعتماد را فراهم می کند
تخمین در زمان واقعی قبل از در دسترس بودن داده های LFS. |
30,085 | This paper is concerned with cross-sectional dependence arising because
observations are interconnected through an observed network. Following Doukhan
and Louhichi (1999), we measure the strength of dependence by covariances of
nonlinearly transformed variables. We provide a law of large numbers and
central limit theorem for network dependent variables. We also provide a method
of calculating standard errors robust to general forms of network dependence.
For that purpose, we rely on a network heteroskedasticity and autocorrelation
consistent (HAC) variance estimator, and show its consistency. The results rely
on conditions characterized by tradeoffs between the rate of decay of
dependence across a network and network's denseness. Our approach can
accommodate data generated by network formation models, random fields on
graphs, conditional dependency graphs, and large functional-causal systems of
equations. | این مقاله مربوط به وابستگی مقطعی ناشی از آن است زیرا
مشاهدات از طریق یک شبکه مشاهده شده به هم پیوسته اند.به دنبال دوخان
و لوئیچی (1999) ، ما قدرت وابستگی توسط کواریانس را اندازه گیری می کنیم
متغیرهای تبدیل شده غیرخطی.ما قانونی از تعداد زیادی را ارائه می دهیم و
قضیه محدودیت مرکزی برای متغیرهای وابسته به شبکه.ما همچنین یک روش ارائه می دهیم
محاسبه خطاهای استاندارد قوی به اشکال عمومی وابستگی به شبکه.
برای این منظور ، ما به یک ناهمگونی شبکه و همبستگی شبکه تکیه می کنیم
برآوردگر واریانس سازگار (HAC) ، و قوام آن را نشان می دهد.نتایج متکی هستند
در مورد شرایطی که با تجارت بین نرخ پوسیدگی مشخص می شود
وابستگی به تراکم شبکه و شبکه.رویکرد ما می تواند
داده های تولید شده توسط مدل های تشکیل شبکه ، زمینه های تصادفی را در خود جای دهید
نمودارها ، نمودارهای وابستگی مشروط و سیستم های بزرگ عملکردی
معادلات |
30,086 | Ethane is the most abundant non-methane hydrocarbon in the Earth's atmosphere
and an important precursor of tropospheric ozone through various chemical
pathways. Ethane is also an indirect greenhouse gas (global warming potential),
influencing the atmospheric lifetime of methane through the consumption of the
hydroxyl radical (OH). Understanding the development of trends and identifying
trend reversals in atmospheric ethane is therefore crucial. Our dataset
consists of four series of daily ethane columns obtained from ground-based FTIR
measurements. As many other decadal time series, our data are characterized by
autocorrelation, heteroskedasticity, and seasonal effects. Additionally,
missing observations due to instrument failure or unfavorable measurement
conditions are common in such series. The goal of this paper is therefore to
analyze trends in atmospheric ethane with statistical tools that correctly
address these data features. We present selected methods designed for the
analysis of time trends and trend reversals. We consider bootstrap inference on
broken linear trends and smoothly varying nonlinear trends. In particular, for
the broken trend model, we propose a bootstrap method for inference on the
break location and the corresponding changes in slope. For the smooth trend
model we construct simultaneous confidence bands around the nonparametrically
estimated trend. Our autoregressive wild bootstrap approach, combined with a
seasonal filter, is able to handle all issues mentioned above. | اتان فراوان ترین هیدروکربن غیر متان در جو زمین است
و یک پیشرو مهم ازن گرمسیری از طریق مواد شیمیایی مختلف
مسیرهااتان همچنین یک گاز گلخانه ای غیرمستقیم (پتانسیل گرمایش جهانی) است ،
تأثیرگذاری بر طول عمر جوی متان از طریق مصرف
هیدروکسیل رادیکال (OH).درک پیشرفت روندها و شناسایی
معکوس روند در اتان جوی بسیار مهم است.مجموعه داده ما
متشکل از چهار سری ستون های اتان روزانه است که از FTIR زمینی به دست می آید
اندازه گیریمانند بسیاری از سری های زمانی دیگر ، داده های ما توسط مشخص می شوند
همبستگی ، ناهمگونی و اثرات فصلی.علاوه بر این ،
مشاهدات از دست رفته به دلیل عدم موفقیت ابزار یا اندازه گیری نامطلوب
شرایط در چنین سری ها رایج است.هدف این مقاله به این نتیجه است
روندهای اتان جوی را با ابزارهای آماری که به درستی تجزیه و تحلیل کنید
این ویژگی های داده را آدرس دهید.ما روشهای انتخاب شده ای را که برای آن طراحی شده است ارائه می دهیم
تجزیه و تحلیل روند زمان و معکوس روند.ما استنتاج bootstrap را در نظر می گیریم
روندهای خطی شکسته و روندهای غیرخطی با هموار متفاوت.به طور خاص ، برای
مدل روند شکسته ، ما یک روش bootstrap برای استنباط در
محل را بشکنید و تغییرات مربوط به شیب.برای روند صاف
مدل ما باندهای اعتماد به نفس همزمان را در اطراف غیر پارامتری می سازیم
روند تخمین زده شدهرویکرد بوت استرپ وحشی خودکار ما ، همراه با
فیلتر فصلی ، قادر به رسیدگی به کلیه موارد ذکر شده در بالا است. |
30,087 | A decision maker starts from a judgmental decision and moves to the closest
boundary of the confidence interval. This statistical decision rule is
admissible and does not perform worse than the judgmental decision with a
probability equal to the confidence level, which is interpreted as a
coefficient of statistical risk aversion. The confidence level is related to
the decision maker's aversion to uncertainty and can be elicited with
laboratory experiments using urns a la Ellsberg. The decision rule is applied
to a problem of asset allocation for an investor whose judgmental decision is
to keep all her wealth in cash. | یک تصمیم گیرنده از یک تصمیم داوری شروع می کند و به نزدیکترین حرکت می کند
مرز فاصله اطمینان.این قانون تصمیم آماری است
قابل قبول و عملکرد بدتر از تصمیم داوری با a
احتمال برابر با سطح اطمینان ، که به عنوان یک تفسیر می شود
ضریب افت ریسک آماری.سطح اطمینان مربوط به آن است
گریز تصمیم گیرنده به عدم اطمینان و می توان با آن انتخاب شد
آزمایش های آزمایشگاهی با استفاده از URNS A La Ellsberg.قانون تصمیم اعمال می شود
به مشکل تخصیص دارایی برای یک سرمایه گذار که تصمیم داوری آن است
تا تمام ثروت خود را به صورت نقدی حفظ کند. |
30,088 | For regulatory and interpretability reasons, logistic regression is still
widely used. To improve prediction accuracy and interpretability, a
preprocessing step quantizing both continuous and categorical data is usually
performed: continuous features are discretized and, if numerous, levels of
categorical features are grouped. An even better predictive accuracy can be
reached by embedding this quantization estimation step directly into the
predictive estimation step itself. But doing so, the predictive loss has to be
optimized on a huge set. To overcome this difficulty, we introduce a specific
two-step optimization strategy: first, the optimization problem is relaxed by
approximating discontinuous quantization functions by smooth functions; second,
the resulting relaxed optimization problem is solved via a particular neural
network. The good performances of this approach, which we call glmdisc, are
illustrated on simulated and real data from the UCI library and Cr\'edit
Agricole Consumer Finance (a major European historic player in the consumer
credit market). | به دلایل نظارتی و تفسیر ، رگرسیون لجستیک هنوز هم است
مورد استفاده گستردهبرای بهبود دقت و تفسیر پیش بینی ، الف
مرحله پیش پردازش ، معمولاً داده های مداوم و طبقه بندی را تعیین می کند
انجام شده: ویژگی های مداوم گسسته شده و در صورت تعداد بیشمار ، سطح
ویژگی های طبقه بندی شده گروه بندی می شوند.دقت پیش بینی حتی بهتر می تواند باشد
با تعبیه این مرحله تخمین کمیت به طور مستقیم به
تخمین پیش بینی کننده خود.اما انجام این کار ، ضرر پیش بینی کننده باید باشد
بهینه شده در یک مجموعه عظیم.برای غلبه بر این دشواری ، ما یک خاص را معرفی می کنیم
استراتژی بهینه سازی دو مرحله ای: اول ، مشکل بهینه سازی توسط آرام است
تقریبی توابع کمیت ناپیوسته توسط توابع صاف.دومین،
مشکل بهینه سازی آرام حاصل از طریق یک عصبی خاص حل می شود
شبکه.عملکردهای خوب این رویکرد ، که ما آن را GLMDISC می نامیم ، هستند
در مورد داده های شبیه سازی شده و واقعی از کتابخانه UCI و ویرایش Cr \ نشان داده شده است
امور مالی مصرف کننده Agricole (یک بازیگر مهم تاریخی اروپا در مصرف کننده
بازار اعتبار). |
30,089 | We discuss the relevance of the recent Machine Learning (ML) literature for
economics and econometrics. First we discuss the differences in goals, methods
and settings between the ML literature and the traditional econometrics and
statistics literatures. Then we discuss some specific methods from the machine
learning literature that we view as important for empirical researchers in
economics. These include supervised learning methods for regression and
classification, unsupervised learning methods, as well as matrix completion
methods. Finally, we highlight newly developed methods at the intersection of
ML and econometrics, methods that typically perform better than either
off-the-shelf ML or more traditional econometric methods when applied to
particular classes of problems, problems that include causal inference for
average treatment effects, optimal policy estimation, and estimation of the
counterfactual effect of price changes in consumer choice models. | ما در مورد ارتباط ادبیات اخیر یادگیری ماشین (ML) برای
اقتصاد و اقتصاد.ابتدا در مورد تفاوت در اهداف ، روش ها بحث می کنیم
و تنظیمات بین ادبیات ML و اقتصاد سنجی سنتی و
ادبیات آمار.سپس ما در مورد برخی روش های خاص از دستگاه بحث می کنیم
ادبیات یادگیری که ما برای محققان تجربی در آن مهم است
اقتصاد.اینها شامل روشهای یادگیری نظارت شده برای رگرسیون و
طبقه بندی ، روشهای یادگیری بدون نظارت و همچنین تکمیل ماتریس
مواد و روش ها.سرانجام ، ما روشهای تازه توسعه یافته را در تقاطع برجسته می کنیم
ML و Econometrics ، روشهایی که به طور معمول بهتر از هر دو عمل می کنند
خارج از قفسه ML یا روشهای اقتصادی سنتی بیشتر هنگام استفاده
طبقه های خاصی از مشکلات ، مشکلاتی که شامل استنتاج علی است
میانگین اثرات درمانی ، برآورد بهینه سیاست و برآورد
اثر ضد عملی تغییرات قیمت در مدل های انتخاب مصرف کننده. |
30,090 | Dynamic decisions are pivotal to economic policy making. We show how existing
evidence from randomized control trials can be utilized to guide personalized
decisions in challenging dynamic environments with constraints such as limited
budget or queues. Recent developments in reinforcement learning make it
possible to solve many realistically complex settings for the first time. We
allow for restricted policy functions and prove that their regret decays at
rate $n^{-1/2}$, the same as in the static case. We illustrate our methods with
an application to job training. The approach scales to a wide range of
important problems faced by policy makers. | تصمیمات پویا برای سیاست گذاری اقتصادی مهم است.ما نشان می دهیم که چقدر موجود است
از شواهد حاصل از آزمایشات کنترل تصادفی می توان برای راهنمایی شخصی سازی شده استفاده کرد
تصمیمات در مورد محیط های پویا به چالش کشیدن با محدودیت هایی مانند محدود
بودجه یا صف.تحولات اخیر در یادگیری تقویت باعث می شود
برای اولین بار برای حل بسیاری از تنظیمات واقع بینانه امکان پذیر است.ما
عملکردهای محدود سیاست را مجاز می دانند و ثابت می کنند که پشیمانی آنها در آن پوسیده می شود
نرخ $ n^{-1/2} $ ، همان مورد استاتیک.ما روشهای خود را با
یک برنامه برای آموزش شغلی.مقیاس رویکرد به طیف گسترده ای از
مشکلات مهمی که سیاست گذاران با آن روبرو هستند. |
30,091 | Consider a predictor who ranks eventualities on the basis of past cases: for
instance a search engine ranking webpages given past searches. Resampling past
cases leads to different rankings and the extraction of deeper information. Yet
a rich database, with sufficiently diverse rankings, is often beyond reach.
Inexperience demands either "on the fly" learning-by-doing or prudence: the
arrival of a novel case does not force (i) a revision of current rankings, (ii)
dogmatism towards new rankings, or (iii) intransitivity. For this higher-order
framework of inductive inference, we derive a suitably unique numerical
representation of these rankings via a matrix on eventualities x cases and
describe a robust test of prudence. Applications include: the success/failure
of startups; the veracity of fake news; and novel conditions for the existence
of a yield curve that is robustly arbitrage-free. | پیش بینی کننده ای را در نظر بگیرید که براساس موارد گذشته ، وقایع را رتبه بندی کند: برای
به عنوان مثال ، صفحات رتبه بندی موتور جستجو با استفاده از جستجوهای گذشته.مجدداً به گذشته
موارد منجر به رتبه بندی های مختلف و استخراج اطلاعات عمیق تر می شود.هنوز
یک بانک اطلاعاتی غنی ، با رتبه بندی کافی متنوع ، اغلب فراتر از دسترس است.
بی تجربگی خواستار "در پرواز" یادگیری توسط انجام دادن یا احتیاط است:
ورود یک مورد جدید ، مجبور به تجدید نظر در رتبه بندی های فعلی نیست ، (ii)
دگماتیسم به سمت رتبه های جدید ، یا (iii) Intrantitivity.برای این مرتبه بالاتر
چارچوب استنباط القایی ، ما یک عددی مناسب و منحصر به فرد را به دست می آوریم
نمایندگی این رتبه بندی ها از طریق ماتریس در مورد موارد رویداد x و
یک آزمایش دقیق از احتیاط را شرح دهید.برنامه ها عبارتند از: موفقیت/شکست
از استارتاپ ها ؛صحت اخبار جعلی ؛و شرایط جدید برای وجود
از منحنی عملکرد که به شدت بدون داوری است. |
30,092 | Accurate estimation for extent of cross{sectional dependence in large panel
data analysis is paramount to further statistical analysis on the data under
study. Grouping more data with weak relations (cross{sectional dependence)
together often results in less efficient dimension reduction and worse
forecasting. This paper describes cross-sectional dependence among a large
number of objects (time series) via a factor model and parameterizes its extent
in terms of strength of factor loadings. A new joint estimation method,
benefiting from unique feature of dimension reduction for high dimensional time
series, is proposed for the parameter representing the extent and some other
parameters involved in the estimation procedure. Moreover, a joint asymptotic
distribution for a pair of estimators is established. Simulations illustrate
the effectiveness of the proposed estimation method in the finite sample
performance. Applications in cross-country macro-variables and stock returns
from S&P 500 are studied. | تخمین دقیق برای میزان وابستگی مقطعی در پانل بزرگ
تجزیه و تحلیل داده ها مهمترین تجزیه و تحلیل آماری در مورد داده های زیر است
مطالعه.گروه بندی داده های بیشتر با روابط ضعیف (وابستگی مقطعی)
با هم اغلب منجر به کاهش ابعاد کمتری و بدتر می شود
پیش بینیدر این مقاله ، وابستگی مقطعی در میان یک بزرگ توضیح داده شده است
تعداد اشیاء (سری زمانی) از طریق یک مدل فاکتور و میزان آن را پارامتر می کند
از نظر قدرت بارهای عامل.یک روش جدید تخمین مشترک ،
بهره مندی از ویژگی منحصر به فرد کاهش ابعاد برای زمان ابعادی بالا
سری ، برای پارامتر نمایانگر وسعت و برخی دیگر پیشنهاد شده است
پارامترهای درگیر در روش تخمین.علاوه بر این ، یک بدون علامت مشترک
توزیع یک جفت برآوردگر برقرار شده است.شبیه سازی ها نشان می دهد
اثربخشی روش تخمین پیشنهادی در نمونه محدود
کارایی.برنامه های کاربردی در متغیرهای کلان کشور و بازده سهام
از S&P 500 مورد مطالعه قرار گرفته است. |
30,093 | The goal of this paper is to provide some tools for nonparametric estimation
and inference in psychological and economic experiments. We consider an
experimental framework in which each of $n$subjects provides $T$ responses to a
vector of $T$ stimuli. We propose to estimate the unknown function $f$ linking
stimuli to responses through a nonparametric sieve estimator. We give
conditions for consistency when either $n$ or $T$ or both diverge. The rate of
convergence depends upon the error covariance structure, that is allowed to
differ across subjects. With these results we derive the optimal divergence
rate of the dimension of the sieve basis with both $n$ and $T$. We provide
guidance about the optimal balance between the number of subjects and questions
in a laboratory experiment and argue that a large $n$is often better than a
large $T$. We derive conditions for asymptotic normality of functionals of the
estimator of $T$ and apply them to obtain the asymptotic distribution of the
Wald test when the number of constraints under the null is finite and when it
diverges along with other asymptotic parameters. Lastly, we investigate the
previous properties when the conditional covariance matrix is replaced by an
estimator. | هدف این مقاله ارائه برخی ابزارها برای برآورد غیرپارامتری است
و استنباط در آزمایش های روانشناختی و اقتصادی.ما یک را در نظر می گیریم
چارچوب آزمایشی که در آن هر یک از موضوعات $ $ $ پاسخ می دهد $ t $ به a
وکتور محرک $ t $.ما پیشنهاد می کنیم عملکرد ناشناخته $ f $ پیوند را تخمین بزنیم
محرک پاسخ از طریق یک برآوردگر غربال غیر پارامتری.ما می دهیم
شرایط مربوط به سازگاری هنگامی که $ n $ یا $ t $ یا هر دو واگرایی است.نرخ
همگرایی به ساختار کواریانس خطایی بستگی دارد ، که مجاز به آن است
در بین افراد متفاوت است.با این نتایج ، واگرایی بهینه را استخراج می کنیم
نرخ ابعاد مبنای الک با هر دو $ n $ و $ t $.ما فراهم می کنیم
راهنمایی در مورد تعادل بهینه بین تعداد موضوعات و سوالات
در یک آزمایشگاه آزمایشگاهی و استدلال کنید که یک $ بزرگ $ اغلب بهتر از یک است
بزرگ $ t $.ما شرایطی را برای عادی بودن بدون علامت عملکردهای عملکرد به دست می آوریم
برآوردگر $ t $ و آنها را برای به دست آوردن توزیع بدون علامت از
تست والد وقتی تعداد محدودیت های زیر تهی محدود است و چه زمانی
به همراه سایر پارامترهای بدون علامت متفاوت است.در آخر ، ما تحقیق می کنیم
خواص قبلی هنگامی که ماتریس کواریانس مشروط با یک جایگزین می شود
برآوردگر |
30,094 | This paper investigates the role of high-dimensional information sets in the
context of Markov switching models with time varying transition probabilities.
Markov switching models are commonly employed in empirical macroeconomic
research and policy work. However, the information used to model the switching
process is usually limited drastically to ensure stability of the model.
Increasing the number of included variables to enlarge the information set
might even result in decreasing precision of the model. Moreover, it is often
not clear a priori which variables are actually relevant when it comes to
informing the switching behavior. Building strongly on recent contributions in
the field of factor analysis, we introduce a general type of Markov switching
autoregressive models for non-linear time series analysis. Large numbers of
time series are allowed to inform the switching process through a factor
structure. This factor-augmented Markov switching (FAMS) model overcomes
estimation issues that are likely to arise in previous assessments of the
modeling framework. More accurate estimates of the switching behavior as well
as improved model fit result. The performance of the FAMS model is illustrated
in a simulated data example as well as in an US business cycle application. | در این مقاله به بررسی نقش مجموعه های اطلاعاتی با ابعاد بالا در
زمینه مدل های سوئیچینگ مارکوف با احتمالات مختلف انتقال.
مدل های سوئیچینگ مارکوف معمولاً در اقتصاد کلان تجربی استفاده می شوند
تحقیق و کار سیاست.با این حال ، اطلاعات مورد استفاده برای مدل سازی سوئیچینگ
فرآیند معمولاً برای اطمینان از ثبات مدل به طرز چشمگیری محدود است.
افزایش تعداد متغیرهای موجود برای بزرگنمایی مجموعه اطلاعات
حتی ممکن است منجر به کاهش دقت مدل شود.علاوه بر این ، اغلب
پیشینی روشن نیست که متغیرها در واقع در واقع مرتبط هستند
آگاهی از رفتار سوئیچینگ.ساختمان به شدت در مورد مشارکتهای اخیر در
زمینه تجزیه و تحلیل عاملی ، ما یک نوع کلی از سوئیچینگ مارکوف را معرفی می کنیم
مدل های خودکار برای تجزیه و تحلیل سری زمانی غیرخطی.تعداد زیادی از
سری های زمانی مجاز به اطلاع رسانی از طریق یک عامل هستند
ساختاراین مدل سوئیچینگ مارکوف (FAMS) با ضریب عامل غلبه می کند
مسائل تخمین که احتمالاً در ارزیابی های قبلی از
چارچوب مدل سازی.تخمین دقیق تر از رفتار تعویض نیز
به عنوان نتیجه مناسب مدل مناسب.عملکرد مدل FAMS نشان داده شده است
در یک مثال داده شبیه سازی شده و همچنین در یک برنامه چرخه تجارت ایالات متحده. |
30,095 | Structural models that admit multiple reduced forms, such as game-theoretic
models with multiple equilibria, pose challenges in practice, especially when
parameters are set-identified and the identified set is large. In such cases,
researchers often choose to focus on a particular subset of equilibria for
counterfactual analysis, but this choice can be hard to justify. This paper
shows that some parameter values can be more "desirable" than others for
counterfactual analysis, even if they are empirically equivalent given the
data. In particular, within the identified set, some counterfactual predictions
can exhibit more robustness than others, against local perturbations of the
reduced forms (e.g. the equilibrium selection rule). We provide a
representation of this subset which can be used to simplify the implementation.
We illustrate our message using moment inequality models, and provide an
empirical application based on a model with top-coded data. | مدل های ساختاری که چندین فرم کاهش یافته را قبول می کنند ، مانند بازی نظری بازی
مدلهایی با تعادل متعدد ، در عمل چالش هایی را ایجاد می کنند ، به خصوص هنگامی که
پارامترها مشخص شده و مجموعه مشخص شده بزرگ است.در اینگونه موارد،
محققان غالباً تصمیم می گیرند روی زیر مجموعه خاصی از تعادل تمرکز کنند
تجزیه و تحلیل متقابل ، اما این انتخاب می تواند برای توجیه سخت باشد.این کاغذ
نشان می دهد که برخی از مقادیر پارامتر می توانند "مطلوب" از سایرین باشند
تجزیه و تحلیل ضد خلاف ، حتی اگر از نظر تجربی با توجه به
داده ها.به طور خاص ، در مجموعه مشخص شده ، برخی از پیش بینی های ضد عملی
می تواند استحکام بیشتری نسبت به سایرین داشته باشد ، در برابر آشفتگی های محلی
فرم های کاهش یافته (به عنوان مثال قانون انتخاب تعادل).ما ارائه می دهیم
بازنمایی این زیر مجموعه که می تواند برای ساده سازی اجرای آن استفاده شود.
ما پیام خود را با استفاده از مدل های نابرابری لحظه ای نشان می دهیم و یک
برنامه تجربی مبتنی بر یک مدل با داده های دارای کد بالا. |
30,096 | We offer a rationalization of the weak generalized axiom of revealed
preference (WGARP) for both finite and infinite data sets of consumer choice.
We call it maximin rationalization, in which each pairwise choice is associated
with a "local" utility function. We develop its associated weak
revealed-preference theory. We show that preference recoverability and welfare
analysis \`a la Varian (1982) may not be informative enough, when the weak
axiom holds, but when consumers are not utility maximizers. We clarify the
reasons for this failure and provide new informative bounds for the consumer's
true preferences. | ما عقلانی از بدیهیات عمومی ضعیف آشکار شده را ارائه می دهیم
اولویت (WGARP) برای هر دو مجموعه داده محدود و نامحدود از انتخاب مصرف کننده.
ما آن را حداکثر عقلانیت می نامیم ، که در آن هر انتخاب زوجی در ارتباط است
با یک عملکرد ابزار "محلی".ما ضعیف آن را توسعه می دهیم
نظریه مقدمات فاش شده.ما نشان می دهیم که قابلیت بازیابی و رفاه ترجیح
تجزیه و تحلیل \ `a la varian (1982) ممکن است به اندازه کافی آموزنده نباشد ، وقتی ضعیف باشد
Axiom نگه می دارد ، اما وقتی مصرف کنندگان حداکثر سازنده نیستند.ما روشن می کنیم
دلایل این عدم موفقیت و ارائه مرزهای آموزنده جدید برای مصرف کننده
ترجیحات واقعی |
30,097 | Over the last decade, big data have poured into econometrics, demanding new
statistical methods for analysing high-dimensional data and complex non-linear
relationships. A common approach for addressing dimensionality issues relies on
the use of static graphical structures for extracting the most significant
dependence interrelationships between the variables of interest. Recently,
Bayesian nonparametric techniques have become popular for modelling complex
phenomena in a flexible and efficient manner, but only few attempts have been
made in econometrics. In this paper, we provide an innovative Bayesian
nonparametric (BNP) time-varying graphical framework for making inference in
high-dimensional time series. We include a Bayesian nonparametric dependent
prior specification on the matrix of coefficients and the covariance matrix by
mean of a Time-Series DPP as in Nieto-Barajas et al. (2012). Following Billio
et al. (2019), our hierarchical prior overcomes over-parametrization and
over-fitting issues by clustering the vector autoregressive (VAR) coefficients
into groups and by shrinking the coefficients of each group toward a common
location. Our BNP timevarying VAR model is based on a spike-and-slab
construction coupled with dependent Dirichlet Process prior (DPP) and allows
to: (i) infer time-varying Granger causality networks from time series; (ii)
flexibly model and cluster non-zero time-varying coefficients; (iii)
accommodate for potential non-linearities. In order to assess the performance
of the model, we study the merits of our approach by considering a well-known
macroeconomic dataset. Moreover, we check the robustness of the method by
comparing two alternative specifications, with Dirac and diffuse spike prior
distributions. | در طول یک دهه گذشته ، داده های بزرگ در اقتصاد سنجی ریخته و خواستار جدید هستند
روشهای آماری برای تجزیه و تحلیل داده های با ابعاد بالا و غیر خطی پیچیده
روابطیک رویکرد مشترک برای پرداختن به موضوعات بعد متکی است
استفاده از ساختارهای گرافیکی استاتیک برای استخراج مهمترین
وابستگی متقابل بین متغیرهای مورد علاقه.به تازگی،
تکنیک های غیرپارامتری بیزی برای مجموعه مدل سازی محبوب شده اند
پدیده ها به شیوه ای انعطاف پذیر و کارآمد ، اما تنها تلاش های کمی انجام شده است
ساخته شده در اقتصاد سنجی.در این مقاله ، ما یک بیزی نوآورانه ارائه می دهیم
چارچوب گرافیکی متغیر زمان غیر پارامتری (BNP) برای استنباط در
سری زمانی با ابعاد بالا.ما شامل یک وابسته غیر پارامتری بیزی هستیم
مشخصات قبلی در مورد ماتریس ضرایب و ماتریس کوواریانس توسط
میانگین DPP سری زمانی مانند Nieto-Barajas و همکاران.(2012).به دنبال بیلیو
و همکاران(2019) ، قبل از سلسله مراتبی ما غلبه بر پارامت بیش از حد و
مسائل بیش از حد متناسب با خوشه بندی ضرایب وکتور اتورگرایی (VAR)
به گروه ها و با کوچک کردن ضرایب هر گروه به سمت یک مشترک
محل.مدل VAR Timevarying BNP ما مبتنی بر سنبله و تخته است
ساخت و ساز همراه با فرآیند وابسته Dirichlet قبل (DPP) و اجازه می دهد
به: (i) شبکه های علیت گرنجر متغیر استنباط از سری زمانی.(ب)
انعطاف پذیر مدل و ضرایب متغیر زمان غیر صفر.(iii)
برای غیر خطی های احتمالی اسکان دهید.به منظور ارزیابی عملکرد
از این مدل ، ما با در نظر گرفتن یک شناخته شده ، شایستگی های رویکرد خود را مطالعه می کنیم
مجموعه داده های کلان اقتصادی.علاوه بر این ، ما استحکام روش را بررسی می کنیم
مقایسه دو مشخصات جایگزین ، با دیراک و سنبله پراکنده
توزیع |
30,098 | Market sectors play a key role in the efficient flow of capital through the
modern Global economy. We analyze existing sectorization heuristics, and
observe that the most popular - the GICS (which informs the S&P 500), and the
NAICS (published by the U.S. Government) - are not entirely quantitatively
driven, but rather appear to be highly subjective and rooted in dogma. Building
on inferences from analysis of the capital structure irrelevance principle and
the Modigliani-Miller theoretic universe conditions, we postulate that
corporation fundamentals - particularly those components specific to the
Modigliani-Miller universe conditions - would be optimal descriptors of the
true economic domain of operation of a company. We generate a set of potential
candidate learned sector universes by varying the linkage method of a
hierarchical clustering algorithm, and the number of resulting sectors derived
from the model (ranging from 5 to 19), resulting in a total of 60 candidate
learned sector universes. We then introduce reIndexer, a backtest-driven sector
universe evaluation research tool, to rank the candidate sector universes
produced by our learned sector classification heuristic. This rank was utilized
to identify the risk-adjusted return optimal learned sector universe as being
the universe generated under CLINK (i.e. complete linkage), with 17 sectors.
The optimal learned sector universe was tested against the benchmark GICS
classification universe with reIndexer, outperforming on both absolute
portfolio value, and risk-adjusted return over the backtest period. We conclude
that our fundamentals-driven Learned Sector classification heuristic provides a
superior risk-diversification profile than the status quo classification
heuristic. | بخش های بازار نقش مهمی در جریان کارآمد سرمایه از طریق
اقتصاد جهانی مدرن.ما اکتشافی بخش سازی موجود را تحلیل می کنیم ، و
مشاهده کنید که محبوب ترین آنها - GICS (که S&P 500 را آگاه می کند) و
NAICS (منتشر شده توسط دولت ایالات متحده) - کاملاً کمی نیست
رانده شده ، اما به نظر می رسد بسیار ذهنی و ریشه در جزم است.ساختمان
در مورد استنتاج از تجزیه و تحلیل ساختار سرمایه بی ربط و
شرایط جهان نظری Modigliani-Miller ، ما آن را فرض می کنیم
اصول شرکت - به ویژه مؤلفه های خاص برای
شرایط جهان Modigliani -Miller - توصیف کننده های بهینه از
حوزه اقتصادی واقعی بهره برداری یک شرکت.ما مجموعه ای از پتانسیل ها را تولید می کنیم
نامزد جهان بخش های بخش را با تغییر روش پیوند یک
الگوریتم خوشه بندی سلسله مراتبی ، و تعداد بخش های حاصل مشتق شده
از مدل (از 5 تا 19) ، و در نتیجه 60 نامزد
جهان های بخش آموخته.سپس Reindexer ، یک بخش پشتی محور را معرفی می کنیم
ابزار تحقیق ارزیابی جهان ، برای رتبه بندی جهان بخش کاندیداها
تولید شده توسط اکتشافی طبقه بندی بخش آموخته ما.از این رتبه استفاده شد
برای شناسایی بازده تنظیم شده بهینه بازده بهینه آموخته شده ، به عنوان موجود
جهان تولید شده در زیر Clink (یعنی پیوند کامل) ، با 17 بخش.
جهان بهینه آموخته شده در برابر معیار GICS آزمایش شد
جهان طبقه بندی با reindexer ، از هر دو مطلق بهتر است
ارزش نمونه کارها و بازده تنظیم ریسک در دوره پشتی.نتیجه می گیریم
این که اصول طبقه بندی آموخته شده از اصول ما را ارائه می دهد
مشخصات انحراف ریسک برتر از طبقه بندی وضع موجود
ابتکاری. |
30,099 | The presence of \b{eta}-convergence in European regions is an important issue
to be analyzed. In this paper, we adopt a quantile regression approach in
analyzing economic convergence. While previous work has performed quantile
regression at the national level, we focus on 187 European NUTS2 regions for
the period 1981-2009 and use spatial quantile regression to account for spatial
dependence. | حضور \ b {eta} -convergence در مناطق اروپایی یک مسئله مهم است
برای تجزیه و تحلیلدر این مقاله ، ما یک رویکرد رگرسیون کمی را در آن اتخاذ می کنیم
تجزیه و تحلیل همگرایی اقتصادی.در حالی که کار قبلی کمی انجام داده است
رگرسیون در سطح ملی ، ما روی 187 منطقه NUTS2 اروپا تمرکز می کنیم
دوره 1981-2009 و از رگرسیون کمی مکانی برای به حساب می آید
وابستگی. |
30,100 | We propose new confidence sets (CSs) for the regression discontinuity
parameter in fuzzy designs. Our CSs are based on local linear regression, and
are bias-aware, in the sense that they take possible bias explicitly into
account. Their construction shares similarities with that of Anderson-Rubin CSs
in exactly identified instrumental variable models, and thereby avoids issues
with "delta method" approximations that underlie most commonly used existing
inference methods for fuzzy regression discontinuity analysis. Our CSs are
asymptotically equivalent to existing procedures in canonical settings with
strong identification and a continuous running variable. However, due to their
particular construction they are also valid under a wide range of empirically
relevant conditions in which existing methods can fail, such as setups with
discrete running variables, donut designs, and weak identification. | ما مجموعه اعتماد به نفس جدید (CSS) را برای ناپیوستگی رگرسیون پیشنهاد می کنیم
پارامتر در طرح های فازی.CSS ما مبتنی بر رگرسیون خطی محلی است ، و
تعصب آگاه هستند ، به این معنا که تعصب احتمالی را به صراحت وارد می کنند
حساب.ساخت و ساز آنها شباهت هایی با Anderson-Rubin CSS دارد
در مدل های متغیر ابزاری دقیقاً مشخص شده ، و از این طریق از مشکلات جلوگیری می کند
با تقریب "روش دلتا" که زیربنای ترین آنها موجود است
روشهای استنباط برای تجزیه و تحلیل ناپیوستگی رگرسیون فازی.CSS ما هستند
بدون علامت معادل رویه های موجود در تنظیمات متعارف با
شناسایی قوی و متغیر در حال اجرا مداوم.با این حال ، به دلیل آنها
ساخت و سازهای خاص آنها نیز تحت طیف گسترده ای از تجربی معتبر هستند
شرایط مربوطه که در آن روشهای موجود می توانند شکست بخورند ، مانند تنظیمات با
متغیرهای در حال اجرا گسسته ، طرح های پیراشکی و شناسایی ضعیف. |
30,101 | Economists are often interested in estimating averages with respect to
distributions of unobservables, such as moments of individual fixed-effects, or
average partial effects in discrete choice models. For such quantities, we
propose and study posterior average effects (PAE), where the average is
computed conditional on the sample, in the spirit of empirical Bayes and
shrinkage methods. While the usefulness of shrinkage for prediction is
well-understood, a justification of posterior conditioning to estimate
population averages is currently lacking. We show that PAE have minimum
worst-case specification error under various forms of misspecification of the
parametric distribution of unobservables. In addition, we introduce a measure
of informativeness of the posterior conditioning, which quantifies the
worst-case specification error of PAE relative to parametric model-based
estimators. As illustrations, we report PAE estimates of distributions of
neighborhood effects in the US, and of permanent and transitory components in a
model of income dynamics. | اقتصاددانان غالباً علاقه مند به تخمین میانگین با توجه به آنها هستند
توزیع ناآگاهان ، مانند لحظات اثر ثابت فردی ، یا
اثرات جزئی متوسط در مدلهای انتخاب گسسته.برای چنین مقادیر ، ما
اثرات متوسط خلفی (PAE) را پیشنهاد و مطالعه کنید ، جایی که میانگین آن است
محاسبه مشروط بر نمونه ، با روح بیزهای تجربی و
روشهای کوچک شدن.در حالی که سودمندی انقباض برای پیش بینی است
خوب درک ، توجیهی از تهویه خلفی برای برآورد
میانگین جمعیت در حال حاضر فاقد آن است.ما نشان می دهیم که PAE حداقل دارد
خطای مشخصات بدترین حالت تحت اشکال مختلف اشتباه غلط
توزیع پارامتری غیر قابل استفاده.علاوه بر این ، ما یک اندازه گیری را معرفی می کنیم
اطلاعات مربوط به تهویه خلفی ، که کمیت می کند
خطای مشخصات بدترین حالت PAE نسبت به مدل پارامتری مبتنی بر
برآوردگرهابه عنوان تصاویر ، ما برآوردهای PAE توزیع را گزارش می کنیم
اثرات همسایگی در ایالات متحده و اجزای دائمی و گذرا در
مدل پویایی درآمد. |
30,102 | Based on the high-frequency recordings from Kraken, a cryptocurrency exchange
and professional trading platform that aims to bring Bitcoin and other
cryptocurrencies into the mainstream, the multiscale cross-correlations
involving the Bitcoin (BTC), Ethereum (ETH), Euro (EUR) and US dollar (USD) are
studied over the period between July 1, 2016 and December 31, 2018. It is shown
that the multiscaling characteristics of the exchange rate fluctuations related
to the cryptocurrency market approach those of the Forex. This, in particular,
applies to the BTC/ETH exchange rate, whose Hurst exponent by the end of 2018
started approaching the value of 0.5, which is characteristic of the mature
world markets. Furthermore, the BTC/ETH direct exchange rate has already
developed multifractality, which manifests itself via broad singularity
spectra. A particularly significant result is that the measures applied for
detecting cross-correlations between the dynamics of the BTC/ETH and EUR/USD
exchange rates do not show any noticeable relationships. This may be taken as
an indication that the cryptocurrency market has begun decoupling itself from
the Forex. | بر اساس ضبط های فرکانس بالا از Kraken ، مبادله رمزنگاری
و بستر معاملاتی حرفه ای که هدف آن آوردن بیت کوین و دیگری است
ارزهای رمزنگاری شده به جریان اصلی ، همبستگی های متقابل چند طبقه
شامل بیت کوین (BTC) ، اتریوم (ETH) ، یورو (یورو) و دلار آمریکا (USD)
در طول دوره بین 1 ژوئیه 2016 و 31 دسامبر 2018 مطالعه شده است. این نشان داده شده است
که ویژگی های چند منظوره نوسانات نرخ ارز مرتبط است
به رویکرد بازار cryptocurrency آنهایی که فارکس است.این ، به ویژه ،
مربوط به نرخ ارز BTC/ETH است که تا پایان سال 2018 نماینده Hurst است
شروع به نزدیک شدن به مقدار 0.5 ، که مشخصه بالغ است
بازارهای جهانیعلاوه بر این ، نرخ ارز مستقیم BTC/ETH قبلاً داشته است
چند فرتیته توسعه یافته ، که خود را از طریق تکینگی گسترده تجلی می یابد
طیفنتیجه قابل توجه این است که اقدامات مورد استفاده
تشخیص همبستگی های متقابل بین پویایی BTC/ETH و EUR/USD
نرخ ارز هیچ رابطه قابل توجهی را نشان نمی دهد.این ممکن است به عنوان گرفته شود
نشانه ای مبنی بر اینکه بازار رمزنگاری از خود شروع به جدا کردن خود کرده است
فارکس |
30,103 | A joint conditional autoregressive expectile and Expected Shortfall framework
is proposed. The framework is extended through incorporating a measurement
equation which models the contemporaneous dependence between the realized
measures and the latent conditional expectile. Nonlinear threshold
specification is further incorporated into the proposed framework. A Bayesian
Markov Chain Monte Carlo method is adapted for estimation, whose properties are
assessed and compared with maximum likelihood via a simulation study.
One-day-ahead VaR and ES forecasting studies, with seven market indices,
provide empirical support to the proposed models. | یک چارچوب کمبود انتظار و پیش بینی شده اتوراسیون مشترک مشترک
پیشنهاد شده استاین چارچوب از طریق ترکیب یک اندازه گیری گسترش می یابد
معادله ای که وابستگی معاصر بین تحقق یافته را مدل می کند
اقدامات و انتظار شرطی نهفته.آستانه غیرخطی
مشخصات بیشتر در چارچوب پیشنهادی گنجانیده شده است.یک بیزی
Markov Chain Monte Carlo روش برای تخمین سازگار است ، که خواص آن است
ارزیابی و مقایسه با حداکثر احتمال از طریق یک مطالعه شبیه سازی.
مطالعات پیش بینی یک روزه VAR و ES ، با هفت شاخص بازار ،
پشتیبانی تجربی از مدلهای پیشنهادی ارائه می دهد. |
30,104 | This study aims to find a Box-Jenkins time series model for the monthly OFW's
remittance in the Philippines. Forecasts of OFW's remittance for the years 2018
and 2019 will be generated using the appropriate time series model. The data
were retrieved from the official website of Bangko Sentral ng Pilipinas. There
are 108 observations, 96 of which were used in model building and the remaining
12 observations were used in forecast evaluation. ACF and PACF were used to
examine the stationarity of the series. Augmented Dickey Fuller test was used
to confirm the stationarity of the series. The data was found to have a
seasonal component, thus, seasonality has been considered in the final model
which is SARIMA (2,1,0)x(0,0,2)_12. There are no significant spikes in the ACF
and PACF of residuals of the final model and the L-jung Box Q* test confirms
further that the residuals of the model are uncorrelated. Also, based on the
result of the Shapiro-Wilk test for the forecast errors, the forecast errors
can be considered a Gaussian white noise. Considering the results of diagnostic
checking and forecast evaluation, SARIMA (2,1,0)x(0,0,2)_12 is an appropriate
model for the series. All necessary computations were done using the R
statistical software. | این مطالعه با هدف یافتن یک مدل سری زمانی باکس-جنکینز برای ماهانه OFW
حواله در فیلیپین.پیش بینی حواله OFW برای سالهای 2018
و سال 2019 با استفاده از مدل سری زمانی مناسب تولید می شود.داده
از وب سایت رسمی بانکو Sentral NG Pilipinas بازیابی شد.آنجا
108 مشاهده است که 96 مورد از آنها در ساختمان مدل و باقیمانده استفاده شده است
12 مشاهده در ارزیابی پیش بینی استفاده شد.ACF و PACF مورد استفاده قرار گرفتند
ثابت بودن سریال را بررسی کنید.از آزمون افزودنی دیکی فولر استفاده شد
برای تأیید ثابت بودن سریال.داده ها پیدا شده است
مؤلفه فصلی ، بنابراین ، فصلی در مدل نهایی در نظر گرفته شده است
که Sarima (2،1،0) x (0،0،2) _12 است.در ACF هیچ سنبله قابل توجهی وجود ندارد
و PACF باقیمانده های مدل نهایی و آزمایش L-Jung Q* تأیید می کند
علاوه بر این که باقیمانده های مدل با هم مرتبط نیستند.همچنین ، بر اساس
نتیجه آزمایش Shapiro-Wilk برای خطاهای پیش بینی ، خطاهای پیش بینی
می توان یک صدای سفید گاوسی را در نظر گرفت.با توجه به نتایج تشخیص
بررسی و ارزیابی پیش بینی ، Sarima (2،1،0) x (0،0،2) _12 مناسب است
مدل برای این سریال.تمام محاسبات لازم با استفاده از r انجام شد
نرم افزار آماری. |
30,105 | In this study we used company level administrative data from the National
Labour Inspectorate and The Polish Social Insurance Institution in order to
estimate the prevalence of informal employment in Poland. Since the selection
mechanism is non-ignorable we employed a generalization of Heckman's sample
selection model assuming non-Gaussian correlation of errors and clustering by
incorporation of random effects. We found that 5.7% (4.6%, 7.1%; 95% CI) of
registered enterprises in Poland, to some extent, take advantage of the
informal labour force. Our study exemplifies a new approach to measuring
informal employment, which can be implemented in other countries. It also
contributes to the existing literature by providing, to the best of our
knowledge, the first estimates of informal employment at the level of companies
based solely on administrative data. | در این مطالعه از داده های اداری سطح شرکت از ملی استفاده کردیم
بازرس کار و موسسه بیمه اجتماعی لهستان به منظور
شیوع اشتغال غیررسمی در لهستان را تخمین بزنید.از زمان انتخاب
مکانیسم غیر شایز است ، ما از تعمیم نمونه هکمن استفاده کردیم
مدل انتخاب با فرض همبستگی غیر گاوسی خطاها و خوشه بندی توسط
ترکیب اثرات تصادفی.ما دریافتیم که 5.7 ٪ (4.6 ٪ ، 7.1 ٪ ؛ CI 95 ٪) از
شرکت های ثبت شده در لهستان ، تا حدی ، از
نیروی کار غیررسمی.مطالعه ما یک رویکرد جدید برای اندازه گیری را نشان می دهد
اشتغال غیررسمی ، که می تواند در کشورهای دیگر اجرا شود.همچنین
با ارائه ، به بهترین وجهی به ادبیات موجود کمک می کند
دانش ، اولین تخمین های اشتغال غیررسمی در سطح شرکت ها
صرفاً بر اساس داده های اداری. |
30,106 | Purchase data from retail chains provide proxy measures of private household
expenditure on items that are the most troublesome to collect in the
traditional expenditure survey. Due to the sheer amount of proxy data, the bias
due to coverage and selection errors completely dominates the variance. We
develop tests for bias based on audit sampling, which makes use of available
survey data that cannot be linked to the proxy data source at the individual
level. However, audit sampling fails to yield a meaningful mean squared error
estimate, because the sampling variance is too large compared to the bias of
the big data estimate. We propose a novel accuracy measure that is applicable
in such situations. This can provide a necessary part of the statistical
argument for the uptake of big data source, in replacement of traditional
survey sampling. An application to disaggregated food price index is used to
demonstrate the proposed approach. | داده های خرید از زنجیره های خرده فروشی اقدامات پروکسی خانواده خصوصی را ارائه می دهند
هزینه های مربوط به مواردی که برای جمع آوری در آن مشکل ساز هستند
بررسی هزینه های سنتی.با توجه به مقدار کامل داده های پروکسی ، تعصب
با توجه به خطاهای پوشش و انتخاب کاملاً بر واریانس حاکم است.ما
تست های تعصب را بر اساس نمونه گیری حسابرسی توسعه دهید ، که باعث استفاده از آن می شود
داده های نظرسنجی که نمی توانند به منبع داده پروکسی در فرد مرتبط شوند
مرحله.با این حال ، نمونه گیری حسابرسی نتواند خطای میانگین مربعی معنی دار را به همراه داشته باشد
تخمین بزنید ، زیرا واریانس نمونه برداری در مقایسه با تعصب بسیار زیاد است
برآورد داده های بزرگ.ما یک اندازه گیری دقت جدید را ارائه می دهیم که قابل اجرا است
در چنین شرایطیاین می تواند بخش لازم از آماری را فراهم کند
استدلال برای جذب منبع داده بزرگ ، در جایگزینی سنتی
نمونه گیری بررسی.برنامه ای برای تقسیم قیمت مواد غذایی تفکیک شده استفاده می شود
رویکرد پیشنهادی را نشان دهید. |
30,109 | Datasets that are terabytes in size are increasingly common, but computer
bottlenecks often frustrate a complete analysis of the data. While more data
are better than less, diminishing returns suggest that we may not need
terabytes of data to estimate a parameter or test a hypothesis. But which rows
of data should we analyze, and might an arbitrary subset of rows preserve the
features of the original data? This paper reviews a line of work that is
grounded in theoretical computer science and numerical linear algebra, and
which finds that an algorithmically desirable sketch, which is a randomly
chosen subset of the data, must preserve the eigenstructure of the data, a
property known as a subspace embedding. Building on this work, we study how
prediction and inference can be affected by data sketching within a linear
regression setup. We show that the sketching error is small compared to the
sample size effect which a researcher can control. As a sketch size that is
algorithmically optimal may not be suitable for prediction and inference, we
use statistical arguments to provide 'inference conscious' guides to the sketch
size. When appropriately implemented, an estimator that pools over different
sketches can be nearly as efficient as the infeasible one using the full
sample. | مجموعه داده هایی که از نظر اندازه ترابایت هستند به طور فزاینده ای متداول هستند ، اما رایانه
تنگناها اغلب تجزیه و تحلیل کامل داده ها را ناامید می کنند.در حالی که داده های بیشتر
بهتر از کمتر است ، کاهش بازده نشان می دهد که ممکن است ما نیازی نداریم
Terabytes از داده ها برای برآورد یک پارامتر یا آزمایش یک فرضیه.اما کدام ردیف ها
از داده ها باید تجزیه و تحلیل کنیم ، و ممکن است یک زیر مجموعه دلخواه از ردیف ها
ویژگی های داده های اصلی؟در این مقاله یک خط کار بررسی شده است
مبتنی بر علوم نظری کامپیوتر و جبر خطی عددی ، و
که می یابد یک طرح الگوریتمی مطلوب ، که به طور تصادفی است
زیر مجموعه داده های منتخب ، باید ساختار ویژه داده ها را حفظ کند ، a
املاک معروف به فضای زیر فضای.با تکیه بر این کار ، ما چگونه مطالعه می کنیم
پیش بینی و استنباط می تواند تحت تأثیر طراحی داده ها در یک خطی باشد
تنظیم رگرسیون.ما نشان می دهیم که خطای طراحی در مقایسه با
تأثیر اندازه نمونه که یک محقق می تواند کنترل کند.به عنوان یک اندازه طرح که هست
از نظر الگوریتمی بهینه ممکن است برای پیش بینی و استنباط مناسب نباشد ، ما
از استدلال های آماری برای ارائه راهنماهای "استنباط آگاهانه" به طرح استفاده کنید
اندازه.هنگامی که به طور مناسب اجرا شد ، برآوردگر دیگری است که جمع می شود
طرح ها می توانند تقریباً به همان اندازه کارآمد باشند که با استفاده از کامل
نمونه. |
30,110 | In economic development, there are often regions that share similar economic
characteristics, and economic models on such regions tend to have similar
covariate effects. In this paper, we propose a Bayesian clustered regression
for spatially dependent data in order to detect clusters in the covariate
effects. Our proposed method is based on the Dirichlet process which provides a
probabilistic framework for simultaneous inference of the number of clusters
and the clustering configurations. The usage of our method is illustrated both
in simulation studies and an application to a housing cost dataset of Georgia. | در توسعه اقتصادی ، اغلب مناطقی وجود دارند که اقتصادی مشابه دارند
ویژگی ها ، و مدل های اقتصادی در چنین مناطقی تمایل به مشابه دارند
اثرات متغیر.در این مقاله ، ما یک رگرسیون خوشه ای بیزی پیشنهاد می کنیم
برای داده های وابسته به مکانی به منظور تشخیص خوشه ها در متغیر
اثراتروش پیشنهادی ما مبتنی بر فرآیند Dirichlet است که ارائه می دهد
چارچوب احتمالی برای استنباط همزمان تعداد خوشه ها
و تنظیمات خوشه بندی.استفاده از روش ما هر دو نشان داده شده است
در مطالعات شبیه سازی و کاربردی برای مجموعه داده هزینه مسکن جورجیا. |
30,111 | This paper considers a semiparametric generalized autoregressive conditional
heteroskedasticity (S-GARCH) model. For this model, we first estimate the
time-varying long run component for unconditional variance by the kernel
estimator, and then estimate the non-time-varying parameters in GARCH-type
short run component by the quasi maximum likelihood estimator (QMLE). We show
that the QMLE is asymptotically normal with the parametric convergence rate.
Next, we construct a Lagrange multiplier test for linear parameter constraint
and a portmanteau test for model checking, and obtain their asymptotic null
distributions. Our entire statistical inference procedure works for the
non-stationary data with two important features: first, our QMLE and two tests
are adaptive to the unknown form of the long run component; second, our QMLE
and two tests share the same efficiency and testing power as those in variance
targeting method when the S-GARCH model is stationary. | در این مقاله یک مشروط خودجوش عمومی نیمهرامتری در نظر گرفته شده است
مدل ناهمگن (S-GARCH).برای این مدل ، ابتدا تخمین می زنیم
مؤلفه بلند مدت متغیر برای واریانس بی قید و شرط توسط هسته
برآوردگر ، و سپس پارامترهای غیر متغیر را در نوع Garch تخمین بزنید
مؤلفه کوتاه مدت توسط برآوردگر حداکثر احتمال شبه (QMLE).ما نشان می دهیم
اینکه QMLE با نرخ همگرایی پارامتری به صورت مجانبی طبیعی است.
در مرحله بعد ، ما یک تست ضرب Lagrange را برای محدودیت پارامتر خطی می سازیم
و یک آزمایش Portmanteau برای بررسی مدل ، و تهی بدون علامت آنها
توزیعکل روش استنباط آماری ما برای
داده های غیر ثابت با دو ویژگی مهم: اول ، QMLE و دو تست ما
سازگار با فرم ناشناخته مؤلفه بلند مدت هستند.دوم ، qmle ما
و دو آزمایش با همان کارایی و قدرت آزمایش به عنوان واریانس مشترک هستند
روش هدف گذاری هنگامی که مدل S-GARCH ثابت است. |
30,112 | We propose a framework for nonparametric identification and estimation of
discrete choice models with unobserved choice sets. We recover the joint
distribution of choice sets and preferences from a panel dataset on choices. We
assume that either the latent choice sets are sparse or that the panel is
sufficiently long. Sparsity requires the number of possible choice sets to be
relatively small. It is satisfied, for instance, when the choice sets are
nested, or when they form a partition. Our estimation procedure is
computationally fast and uses mixed-integer optimization to recover the sparse
support of choice sets. Analyzing the ready-to-eat cereal industry using a
household scanner dataset, we find that ignoring the unobservability of choice
sets can lead to biased estimates of preferences due to significant latent
heterogeneity in choice sets. | ما چارچوبی را برای شناسایی غیرپارامتری و تخمین پیشنهاد می کنیم
مدل های انتخاب گسسته با مجموعه های انتخابی بدون محافظت.ما مفصل را بازیابی می کنیم
توزیع مجموعه ها و تنظیمات انتخابی از یک مجموعه داده پانل در گزینه ها.ما
فرض کنید که یا مجموعه های انتخاب نهفته پراکنده هستند یا پانل است
به اندازه کافی طولانیکمبود نیاز به تعداد مجموعه های انتخابی ممکن است
نسبتا کوچک.به عنوان مثال ، وقتی مجموعه های انتخابی هستند راضی است
تو در تو ، یا هنگامی که آنها یک پارتیشن تشکیل می دهند.روش تخمین ما است
از نظر محاسباتی سریع و از بهینه سازی مخلوط مخلوط برای بازیابی پراکنده استفاده می کند
پشتیبانی از مجموعه های انتخاب.تجزیه و تحلیل صنعت غلات آماده برای خوردن با استفاده از a
مجموعه داده های اسکنر خانگی ، ما می دانیم که نادیده گرفتن غیرقابل کنترل از انتخاب
مجموعه ها می توانند منجر به تخمین های مغرضانه از ترجیحات ناشی از نهفته قابل توجه شوند
ناهمگونی در مجموعه های انتخاب. |
30,113 | Climate change is a massive multidimensional shift. Temperature shifts, in
particular, have important implications for urbanization, agriculture, health,
productivity, and poverty, among other things. While much research has
documented rising mean temperature \emph{levels}, we also examine range-based
measures of daily temperature \emph{volatility}. Specifically, using data for
select U.S. cities over the past half-century, we compare the evolving time
series dynamics of the average temperature level, AVG, and the diurnal
temperature range, DTR (the difference between the daily maximum and minimum
temperatures). We characterize trend and seasonality in these two series using
linear models with time-varying coefficients. These straightforward yet
flexible approximations provide evidence of evolving DTR seasonality and stable
AVG seasonality. | تغییر آب و هوا یک تغییر چند بعدی گسترده است.تغییر دما ، در
به طور خاص ، پیامدهای مهمی برای شهرنشینی ، کشاورزی ، سلامت ،
بهره وری و فقر ، از جمله موارد دیگر.در حالی که تحقیقات زیادی انجام شده است
میانگین دما در حال افزایش مستند \ it {سطح} ، ما همچنین بر اساس محدوده بررسی می کنیم
اقدامات دمای روزانه \ تأکید {نوسانات}.به طور خاص ، استفاده از داده ها
شهرهای ایالات متحده را طی نیم قرن گذشته انتخاب کنید ، ما زمان در حال تحول را مقایسه می کنیم
دینامیک سری از میانگین دما ، AVG و روزانه
دامنه دما ، DTR (تفاوت بین حداکثر و حداقل روزانه
دما).ما در این دو سری با استفاده از روند و فصلی توصیف می کنیم
مدل های خطی با ضرایب متغیر زمان.این موارد ساده هنوز
تقریبی انعطاف پذیر شواهدی از تحول فصلی DTR و پایدار ارائه می دهد
فصلی AVG. |
30,114 | Travel decisions tend to exhibit sensitivity to uncertainty and information
processing constraints. These behavioural conditions can be characterized by a
generative learning process. We propose a data-driven generative model version
of rational inattention theory to emulate these behavioural representations. We
outline the methodology of the generative model and the associated learning
process as well as provide an intuitive explanation of how this process
captures the value of prior information in the choice utility specification. We
demonstrate the effects of information heterogeneity on a travel choice,
analyze the econometric interpretation, and explore the properties of our
generative model. Our findings indicate a strong correlation with rational
inattention behaviour theory, which suggest that individuals may ignore certain
exogenous variables and rely on prior information for evaluating decisions
under uncertainty. Finally, the principles demonstrated in this study can be
formulated as a generalized entropy and utility based multinomial logit model. | تصمیمات مسافرتی تمایل به حساسیت به عدم اطمینان و اطلاعات دارد
محدودیت های پردازش.این شرایط رفتاری را می توان با a مشخص کرد
فرایند یادگیری تولیدی.ما یک نسخه مدل تولیدی داده محور را پیشنهاد می کنیم
نظریه عدم توجه منطقی برای تقلید از این بازنمودهای رفتاری.ما
روش شناسی مدل تولیدی و یادگیری مرتبط را تشریح کنید
فرآیند و همچنین توضیحی شهودی در مورد چگونگی این فرایند ارائه می دهد
ارزش اطلاعات قبلی را در مشخصات ابزار انتخاب ضبط می کند.ما
اثرات ناهمگونی اطلاعات را در انتخاب سفر نشان دهید ،
تفسیر اقتصاد سنجی را تجزیه و تحلیل کرده و خواص ما را کشف کنید
مدل تولیدی.یافته های ما نشانگر همبستگی قوی با منطقی است
نظریه رفتار بی توجه ، که نشان می دهد افراد ممکن است مطمئن را نادیده بگیرند
متغیرهای اگزوژن و برای ارزیابی تصمیمات به اطلاعات قبلی متکی هستند
تحت عدم اطمینانسرانجام ، اصول نشان داده شده در این مطالعه می تواند باشد
به عنوان یک آنتروپی تعمیم یافته و مدل ورود به سیستم چند منظوره مبتنی بر ابزار. |
30,134 | With the rapid development of Internet finance, a large number of studies
have shown that Internet financial platforms have different financial systemic
risk characteristics when they are subject to macroeconomic shocks or fragile
internal crisis. From the perspective of regional development of Internet
finance, this paper uses t-SNE machine learning algorithm to obtain data mining
of China's Internet finance development index involving 31 provinces and 335
cities and regions. The conclusion of the peak and thick tail characteristics,
then proposed three classification risks of Internet financial systemic risk,
providing more regionally targeted recommendations for the systematic risk of
Internet finance. | با توسعه سریع تأمین مالی اینترنت ، تعداد زیادی از مطالعات
نشان داده اند که سیستم عامل های مالی اینترنت دارای سیستماتیک مالی متفاوتی هستند
ویژگی های خطر در معرض شوک های کلان اقتصادی یا شکننده است
بحران داخلیاز منظر توسعه منطقه ای اینترنت
امور مالی ، این مقاله از الگوریتم یادگیری ماشین T-SNE برای به دست آوردن داده کاوی استفاده می کند
شاخص توسعه مالی اینترنت چین شامل 31 استان و 335
شهرها و مناطق.نتیجه گیری از ویژگی های اوج و ضخیم ،
سپس سه خطر طبقه بندی ریسک سیستمیک مالی اینترنت را پیشنهاد کرد ،
ارائه توصیه های هدفمند منطقه ای برای خطر سیستماتیک از
امور مالی اینترنت. |
30,115 | Time-varying parameter (TVP) models are widely used in time series analysis
to flexibly deal with processes which gradually change over time. However, the
risk of overfitting in TVP models is well known. This issue can be dealt with
using appropriate global-local shrinkage priors, which pull time-varying
parameters towards static ones. In this paper, we introduce the R package
shrinkTVP (Knaus, Bitto-Nemling, Cadonna, and Fr\"uhwirth-Schnatter 2019),
which provides a fully Bayesian implementation of shrinkage priors for TVP
models, taking advantage of recent developments in the literature, in
particular that of Bitto and Fr\"uhwirth-Schnatter (2019). The package
shrinkTVP allows for posterior simulation of the parameters through an
efficient Markov Chain Monte Carlo (MCMC) scheme. Moreover, summary and
visualization methods, as well as the possibility of assessing predictive
performance through log predictive density scores (LPDSs), are provided. The
computationally intensive tasks have been implemented in C++ and interfaced
with R. The paper includes a brief overview of the models and shrinkage priors
implemented in the package. Furthermore, core functionalities are illustrated,
both with simulated and real data. | مدل های پارامتر متغیر زمان (TVP) به طور گسترده در تجزیه و تحلیل سری زمانی استفاده می شود
برای مقابله با انعطاف پذیری با فرآیندی که به تدریج با گذشت زمان تغییر می کنند.با این حال
خطر ابتلا به بیش از حد در مدل های TVP به خوبی شناخته شده است.این موضوع را می توان پرداخته است
با استفاده از مقدمات مناسب برای کوچک شدن جهانی-محلی ، که باعث ایجاد متغیر زمان می شوند
پارامترها به سمت استاتیک.در این مقاله ، بسته R را معرفی می کنیم
Shrinktvp (Knaus ، Bitto-Nemling ، Cadonna و Fr \ "Uhwirth-Schnatter 2019) ،
که اجرای کاملاً بیزی از Priors کوچک برای TVP را فراهم می کند
مدل ها ، با بهره گیری از تحولات اخیر در ادبیات ، در
به ویژه از Bitto و fr \ "Uhwirth-Schnatter (2019)
ShrinkTVP امکان شبیه سازی خلفی پارامترها را از طریق یک
طرح کارآمد زنجیره ای مارکوف مونت کارلو (MCMC).علاوه بر این ، خلاصه و
روشهای تجسم و همچنین امکان ارزیابی پیش بینی
عملکرد از طریق نمرات چگالی پیش بینی Log (LPDS) ارائه شده است.در
وظایف فشرده محاسباتی در C ++ اجرا شده و با هم ارتباط برقرار شده است
با R. این مقاله شامل یک مرور کلی از مدل ها و Priors کوچک شدن است
در بسته اجرا شده است.علاوه بر این ، عملکردهای اصلی نشان داده شده است ،
هم با داده های شبیه سازی شده و هم واقعی. |
30,116 | The heterogeneous autoregressive (HAR) model is revised by modeling the joint
distribution of the four partial-volatility terms therein involved. Namely,
today's, yesterday's, last week's and last month's volatility components. The
joint distribution relies on a (C-) Vine copula construction, allowing to
conveniently extract volatility forecasts based on the conditional expectation
of today's volatility given its past terms. The proposed empirical application
involves more than seven years of high-frequency transaction prices for ten
stocks and evaluates the in-sample, out-of-sample and one-step-ahead forecast
performance of our model for daily realized-kernel measures. The model proposed
in this paper is shown to outperform the HAR counterpart under different models
for marginal distributions, copula construction methods, and forecasting
settings. | مدل اتورگرایی ناهمگن (HAR) با مدل سازی مفصل اصلاح می شود
توزیع چهار اصطلاح نامی جزئی در آن درگیر است.برای مثال،
امروز ، دیروز ، هفته گذشته و اجزای نوسانات ماه گذشته.در
توزیع مشترک به ساخت و ساز (C-) Copula Vine متکی است ،
پیش بینی نوسانات را به راحتی براساس انتظار مشروط استخراج کنید
از نوسانات امروز با توجه به شرایط گذشته خود.برنامه تجربی پیشنهادی
شامل بیش از هفت سال قیمت معاملات با فرکانس بالا برای ده
سهام را در نمونه ، خارج از نمونه و پیش بینی یک مرحله ای ارزیابی می کند
عملکرد مدل ما برای اقدامات روزانه تحقق یافته.مدل پیشنهادی
در این مقاله نشان داده شده است که از همتای HAR تحت مدل های مختلف بهتر عمل می کند
برای توزیع های حاشیه ای ، روش های ساخت کوپلا و پیش بینی
تنظیمات. |
30,117 | This study conducts a benchmarking study, comparing 23 different statistical
and machine learning methods in a credit scoring application. In order to do
so, the models' performance is evaluated over four different data sets in
combination with five data sampling strategies to tackle existing class
imbalances in the data. Six different performance measures are used to cover
different aspects of predictive performance. The results indicate a strong
superiority of ensemble methods and show that simple sampling strategies
deliver better results than more sophisticated ones. | این مطالعه یک مطالعه معیار را انجام می دهد ، و 23 آماری مختلف را با هم مقایسه می کند
و روشهای یادگیری ماشین در یک برنامه امتیاز دهی اعتبار.به منظور انجام
بنابراین ، عملکرد مدل ها بیش از چهار مجموعه داده مختلف در ارزیابی می شود
ترکیب با پنج استراتژی نمونه گیری داده برای مقابله با کلاس موجود
عدم تعادل در داده ها.شش اقدام مختلف عملکرد برای پوشش استفاده می شود
جنبه های مختلف عملکرد پیش بینی.نتایج حاکی از قوی است
برتری روشهای گروهی و نشان می دهد که استراتژی های نمونه برداری ساده
نتایج بهتری نسبت به نتایج پیچیده تر ارائه دهید. |
30,118 | We discuss a simplified version of the testing problem considered by Pelican
and Graham (2019): testing for interdependencies in preferences over links
among N (possibly heterogeneous) agents in a network. We describe an exact test
which conditions on a sufficient statistic for the nuisance parameter
characterizing any agent-level heterogeneity. Employing an algorithm due to
Blitzstein and Diaconis (2011), we show how to simulate the null distribution
of the test statistic in order to estimate critical values and/or p-values. We
illustrate our methods using the Nyakatoke risk-sharing network. We find that
the transitivity of the Nyakatoke network far exceeds what can be explained by
degree heterogeneity across households alone. | ما در مورد نسخه ساده شده از مشکل آزمایش که توسط Pelican در نظر گرفته شده است بحث می کنیم
و گراهام (2019): آزمایش وابستگی های متقابل در ترجیحات بیش از پیوندها
در میان نمایندگان N (احتمالاً ناهمگن) در یک شبکه.ما یک آزمون دقیق را توصیف می کنیم
کدام یک از یک آمار کافی برای پارامتر مزاحمت است
توصیف هر ناهمگونی سطح عامل.استفاده از الگوریتم به دلیل
Blitzstein and Diaconis (2011) ، ما نحوه شبیه سازی توزیع تهی را نشان می دهیم
از آمار آزمون به منظور برآورد مقادیر بحرانی و/یا مقادیر p.ما
روشهای ما را با استفاده از شبکه تقسیم ریسک Nyakatoke نشان دهید.ما این را پیدا می کنیم
انتقال شبکه Nyakatoke به مراتب فراتر از آنچه است که می توان آن را توضیح داد
ناهمگونی درجه فقط در بین خانوارها. |
30,119 | We study a class of permutation tests of the randomness of a collection of
Bernoulli sequences and their application to analyses of the human tendency to
perceive streaks of consecutive successes as overly representative of positive
dependence - the hot hand fallacy. In particular, we study permutation tests of
the null hypothesis of randomness (i.e., that trials are i.i.d.) based on test
statistics that compare the proportion of successes that directly follow k
consecutive successes with either the overall proportion of successes or the
proportion of successes that directly follow k consecutive failures. We
characterize the asymptotic distributions of these test statistics and their
permutation distributions under randomness, under a set of general stationary
processes, and under a class of Markov chain alternatives, which allow us to
derive their local asymptotic power. The results are applied to evaluate the
empirical support for the hot hand fallacy provided by four controlled
basketball shooting experiments. We establish that substantially larger data
sets are required to derive an informative measurement of the deviation from
randomness in basketball shooting. In one experiment, for which we were able to
obtain data, multiple testing procedures reveal that one shooter exhibits a
shooting pattern significantly inconsistent with randomness - supplying strong
evidence that basketball shooting is not random for all shooters all of the
time. However, we find that the evidence against randomness in this experiment
is limited to this shooter. Our results provide a mathematical and statistical
foundation for the design and validation of experiments that directly compare
deviations from randomness with human beliefs about deviations from randomness,
and thereby constitute a direct test of the hot hand fallacy. | ما یک کلاس از تست های جابجایی از تصادفی مجموعه ای از مجموعه را مطالعه می کنیم
توالی های برنولی و کاربرد آنها در تجزیه و تحلیل تمایل انسان به
رگه های موفقیت های متوالی را به عنوان نماینده بیش از حد مثبت درک کنید
وابستگی - مغالطه دست داغ.به طور خاص ، ما تست های جایگشت را مطالعه می کنیم
فرضیه تهی از تصادفی (به عنوان مثال ، این آزمایشات I.I.D.) بر اساس آزمون
آماری که نسبت موفقیت هایی را که مستقیماً از K دنبال می کنند مقایسه می کند
موفقیت های متوالی با نسبت کلی موفقیت ها یا
نسبت موفقیت هایی که مستقیماً از شکست های متوالی پیروی می کنند.ما
توزیع های بدون علامت این آمار آزمون و آنها را مشخص کنید
توزیع جابجایی تحت تصادفی ، تحت مجموعه ای از ثابت عمومی
فرآیندها ، و تحت یک کلاس از گزینه های زنجیره ای مارکوف ، که به ما امکان می دهد
قدرت بدون علامت محلی خود را به دست آورید.نتایج برای ارزیابی
پشتیبانی تجربی از مغالطه دست داغ ارائه شده توسط چهار کنترل شده
آزمایش های تیراندازی بسکتبال.ما داده های قابل ملاحظه ای بزرگتر را تعیین می کنیم
مجموعه ها برای استخراج یک اندازه گیری آموزنده از انحراف از
تصادفی در تیراندازی بسکتبال.در یک آزمایش ، که برای آن توانستیم
به دست آوردن داده ها ، روشهای آزمایش چندگانه نشان می دهد که یک تیرانداز نمایشگاه A را نشان می دهد
الگوی تیراندازی به طور قابل توجهی با تصادفی مغایرت دارد - تأمین قوی
شواهدی مبنی بر اینکه تیراندازی بسکتبال برای همه تیراندازها تصادفی نیست
زمان.با این حال ، ما می دانیم که شواهد در برابر تصادفی در این آزمایش
محدود به این تیرانداز است.نتایج ما یک ریاضی و آماری را ارائه می دهد
پایه و اساس طراحی و اعتبار سنجی آزمایشاتی که مستقیماً مقایسه می شوند
انحراف از تصادفی با اعتقادات انسانی در مورد انحراف از تصادفی ،
و بدین ترتیب یک آزمایش مستقیم از مغالطه دست داغ است. |
30,120 | This paper develops the asymptotic theory of a Fully Modified Generalized
Least Squares estimator for multivariate cointegrating polynomial regressions.
Such regressions allow for deterministic trends, stochastic trends and integer
powers of stochastic trends to enter the cointegrating relations. Our fully
modified estimator incorporates: (1) the direct estimation of the inverse
autocovariance matrix of the multidimensional errors, and (2) second order bias
corrections. The resulting estimator has the intuitive interpretation of
applying a weighted least squares objective function to filtered data series.
Moreover, the required second order bias corrections are convenient byproducts
of our approach and lead to standard asymptotic inference. We also study
several multivariate KPSS-type of tests for the null of cointegration. A
comprehensive simulation study shows good performance of the FM-GLS estimator
and the related tests. As a practical illustration, we reinvestigate the
Environmental Kuznets Curve (EKC) hypothesis for six early industrialized
countries as in Wagner et al. (2020). | این مقاله نظریه بدون علامت یک تعمیم کاملاً اصلاح شده را توسعه می دهد
حداقل برآوردگر مربع برای رگرسیون چند متغیره چند متغیره.
چنین رگرسیونی ها روند قطعی ، روندهای تصادفی و عدد صحیح را فراهم می کنند
قدرت روندهای تصادفی برای ورود به روابط همگرایی.ما
برآوردگر اصلاح شده شامل می شود: (1) تخمین مستقیم معکوس
ماتریس اتوکوارانس از خطاهای چند بعدی و (2) تعصب مرتبه دوم
اصلاحاتبرآوردگر حاصل دارای تفسیر شهودی از
استفاده از یک تابع هدف حداقل مربعات وزنی در سری داده های فیلتر شده.
علاوه بر این ، اصلاحات تعصب مرتبه دوم کالاهای جانبی مناسب است
رویکرد ما و منجر به استنباط استاندارد بدون علامت.ما همچنین مطالعه می کنیم
چندین آزمایش چند متغیره KPSS برای NULL CONTEGRATION.آ
مطالعه جامع شبیه سازی عملکرد خوبی از برآوردگر FM-GLS را نشان می دهد
و تست های مربوطهبه عنوان یک تصویر عملی ، ما دوباره تحقیق می کنیم
فرضیه منحنی Kuznets محیطی (EKC) برای شش اوایل صنعتی
کشورهایی مانند واگنر و همکاران.(2020). |
30,121 | A generalized distributed tool for mobility choice modelling is presented,
where participants do not share personal raw data, while all computations are
done locally. Participants use Blockchain based Smart Mobility Data-market
(BSMD), where all transactions are secure and private. Nodes in blockchain can
transact information with other participants as long as both parties agree to
the transaction rules issued by the owner of the data. A case study is
presented where a mode choice model is distributed and estimated over BSMD. As
an example, the parameter estimation problem is solved on a distributed version
of simulated annealing. It is demonstrated that the estimated model parameters
are consistent and reproducible. | یک ابزار توزیع شده عمومی برای مدل سازی انتخاب تحرک ارائه شده است ،
جایی که شرکت کنندگان داده های خام شخصی را به اشتراک نمی گذارند ، در حالی که تمام محاسبات هستند
انجام شده در محلیشرکت کنندگان از بازار داده تحرک هوشمند مبتنی بر blockchain استفاده می کنند
(BSMD) ، جایی که تمام معاملات ایمن و خصوصی هستند.گره ها در blockchain می توانند
انتقال اطلاعات با سایر شرکت کنندگان تا زمانی که هر دو طرف با آن موافقت کنند
قوانین معامله صادر شده توسط صاحب داده ها.یک مطالعه موردی است
ارائه شده در جایی که یک مدل انتخاب حالت توزیع و تخمین زده می شود از BSMD.مانند
به عنوان مثال ، مشکل تخمین پارامتر در یک نسخه توزیع شده حل می شود
بازپرداخت شبیه سازی شدهنشان داده شده است که پارامترهای مدل تخمین زده شده
سازگار و قابل تکرار هستند. |
30,122 | We propose a modification of the classical Black-Derman-Toy (BDT) interest
rate tree model, which includes the possibility of a jump with small
probability at each step to a practically zero interest rate. The corresponding
BDT algorithms are consequently modified to calibrate the tree containing the
zero interest rate scenarios. This modification is motivated by the recent
2008-2009 crisis in the United States and it quantifies the risk of a future
crises in bond prices and derivatives. The proposed model is useful to price
derivatives. This exercise also provides a tool to calibrate the probability of
this event. A comparison of option prices and implied volatilities on US
Treasury bonds computed with both the proposed and the classical tree model is
provided, in six different scenarios along the different periods comprising the
years 2002-2017. | ما یک تغییر علاقه کلاسیک سیاه و سفید (BDT) را پیشنهاد می کنیم
مدل درختی را که شامل احتمال پرش با کوچک است
احتمال در هر مرحله به نرخ بهره تقریباً صفر.مربوطه
در نتیجه الگوریتم های BDT برای کالیبراسیون درخت حاوی اصلاح می شوند
سناریوهای نرخ بهره صفر.این اصلاح توسط اخیر ایجاد شده است
بحران 2008-2009 در ایالات متحده و خطر آینده را تعیین می کند
بحران در قیمت اوراق قرضه و مشتقات.مدل پیشنهادی برای قیمت مفید است
مشتقاتاین تمرین همچنین ابزاری برای کالیبراسیون احتمال وجود دارد
این رخداد.مقایسه قیمت گزینه ها و نوسانات ضمنی بر ما
اوراق بهادار خزانه داری با هر دو مدل پیشنهادی و کلاسیک محاسبه می شود
در شش سناریو مختلف در طول دوره های مختلف شامل
سالهای 2002-2017. |
30,123 | I develop a model of a randomized experiment with a binary intervention and a
binary outcome. Potential outcomes in the intervention and control groups give
rise to four types of participants. Fixing ideas such that the outcome is
mortality, some participants would live regardless, others would be saved,
others would be killed, and others would die regardless. These potential
outcome types are not observable. However, I use the model to develop
estimators of the number of participants of each type. The model relies on the
randomization within the experiment and on deductive reasoning. I apply the
model to an important clinical trial, the PROWESS trial, and I perform a Monte
Carlo simulation calibrated to estimates from the trial. The reduced form from
the trial shows a reduction in mortality, which provided a rationale for FDA
approval. However, I find that the intervention killed two participants for
every three it saved. | من یک مدل از یک آزمایش تصادفی با یک مداخله باینری و a ایجاد می کنم
نتیجه دودویینتایج بالقوه در گروه های مداخله و کنترل می دهد
به چهار نوع شرکت کننده صعود کنید.رفع ایده ها به گونه ای که نتیجه باشد
مرگ و میر ، برخی از شرکت کنندگان بدون در نظر گرفتن زندگی می کنند ، برخی دیگر نجات می یابند ،
دیگران کشته می شوند و دیگران بدون در نظر گرفتن می میرند.این پتانسیل ها
انواع نتیجه قابل مشاهده نیست.با این حال ، من از مدل برای توسعه استفاده می کنم
برآوردگرهای تعداد شرکت کنندگان از هر نوع.مدل به
تصادفی سازی در آزمایش و استدلال قیاسی.من اعمال می کنم
مدل به یک کارآزمایی بالینی مهم ، کارآزمایی قدرتمند ، و من یک مونت را انجام می دهم
شبیه سازی کارلو به تخمین های آزمایشی کالیبره شده است.فرم کاهش یافته از
محاکمه کاهش مرگ و میر را نشان می دهد ، که منطقی برای FDA فراهم کرده است
تصویب.با این حال ، فهمیدم که این مداخله باعث کشته شدن دو شرکت کننده شد
هر سه آن را نجات داد. |
30,124 | The LATE monotonicity assumption of Imbens and Angrist (1994) precludes
"defiers," individuals whose treatment always runs counter to the instrument,
in the terminology of Balke and Pearl (1993) and Angrist et al. (1996). I allow
for defiers in a model with a binary instrument and a binary treatment. The
model is explicit about the randomization process that gives rise to the
instrument. I use the model to develop estimators of the counts of defiers,
always takers, compliers, and never takers. I propose separate versions of the
estimators for contexts in which the parameter of the randomization process is
unspecified, which I intend for use with natural experiments with virtual
random assignment. I present an empirical application that revisits Angrist and
Evans (1998), which examines the impact of virtual random assignment of the sex
of the first two children on subsequent fertility. I find that subsequent
fertility is much more responsive to the sex mix of the first two children when
defiers are allowed. | فرض یکنواختی اواخر Imbens و Angrist (1994) مانع می شود
"Defiers" ، افرادی که درمان آنها همیشه خلاف ساز است ،
در اصطلاحات Balke و Pearl (1993) و Angrist et al.(1996).من اجازه میدهم
برای Defiers در یک مدل با ابزار باینری و یک درمان باینری.در
مدل در مورد فرآیند تصادفی که باعث ایجاد می شود صریح است
ابزار.من از این مدل برای توسعه برآوردگرهای تعداد Defiers استفاده می کنم ،
همیشه متقاضیان ، تعارفات و هرگز متصدی.من نسخه های جداگانه ای از
برآوردگرها برای زمینه هایی که پارامتر فرآیند تصادفی در آن است
نامشخص ، که من قصد دارم با آزمایش های طبیعی با مجازی استفاده کنم
انتساب تصادفیمن یک برنامه تجربی ارائه می دهم که مجدداً مجدداً و
ایوانز (1998) ، که تأثیر تکالیف تصادفی مجازی جنس را بررسی می کند
از دو کودک اول در مورد باروری بعدی.من آن را بعدی پیدا می کنم
باروری بسیار بیشتر به ترکیب جنسی دو کودک اول پاسخگو است
Defiers مجاز است. |
30,125 | The drift diffusion model (DDM) is a model of sequential sampling with
diffusion (Brownian) signals, where the decision maker accumulates evidence
until the process hits a stopping boundary, and then stops and chooses the
alternative that corresponds to that boundary. This model has been widely used
in psychology, neuroeconomics, and neuroscience to explain the observed
patterns of choice and response times in a range of binary choice decision
problems. This paper provides a statistical test for DDM's with general
boundaries. We first prove a characterization theorem: we find a condition on
choice probabilities that is satisfied if and only if the choice probabilities
are generated by some DDM. Moreover, we show that the drift and the boundary
are uniquely identified. We then use our condition to nonparametrically
estimate the drift and the boundary and construct a test statistic. | مدل انتشار رانش (DDM) یک مدل از نمونه گیری متوالی با
سیگنال های انتشار (براون) ، جایی که تصمیم گیرنده شواهدی را جمع می کند
تا زمانی که این روند به یک مرز متوقف نشود ، و سپس متوقف و انتخاب می کند
جایگزین که با آن مرز مطابقت دارد.این مدل به طور گسترده ای مورد استفاده قرار گرفته است
در روانشناسی ، اقتصاد عصبی و علوم اعصاب برای توضیح مشاهده شده
الگوهای انتخاب و زمان پاسخ در طیف وسیعی از تصمیم انتخاب باینری
چالش ها و مسائل.در این مقاله یک آزمایش آماری برای DDM با عمومی ارائه شده است
مرزهاما ابتدا یک قضیه شخصیت پردازی را اثبات می کنیم: ما یک شرط را پیدا می کنیم
احتمالات انتخابی که راضی باشد و فقط اگر احتمال انتخاب باشد
توسط برخی از DDM تولید می شود.علاوه بر این ، ما نشان می دهیم که رانش و مرز
منحصر به فرد شناسایی شده اندسپس ما از شرایط خود برای غیر پارامتری استفاده می کنیم
رانش و مرز را تخمین بزنید و یک آمار آزمون بسازید. |
30,126 | This paper investigates the time-varying impacts of international
macroeconomic uncertainty shocks. We use a global vector autoregressive
specification with drifting coefficients and factor stochastic volatility in
the errors to model six economies jointly. The measure of uncertainty is
constructed endogenously by estimating a scalar driving the innovation
variances of the latent factors, which is also included in the mean of the
process. To achieve regularization, we use Bayesian techniques for estimation,
and introduce a set of hierarchical global-local priors. The adopted priors
center the model on a constant parameter specification with homoscedastic
errors, but allow for time-variation if suggested by likelihood information.
Moreover, we assume coefficients across economies to be similar, but provide
sufficient flexibility via the hierarchical prior for country-specific
idiosyncrasies. The results point towards pronounced real and financial effects
of uncertainty shocks in all countries, with differences across economies and
over time. | در این مقاله تأثیرات متغیر بین المللی بررسی شده است
شوک های عدم قطعیت کلان.ما از یک وکتور جهانی استفاده می کنیم
مشخصات با ضرایب رانش و نوسانات تصادفی فاکتور در
خطاهای مربوط به الگوی شش اقتصاد به طور مشترک.اندازه گیری عدم اطمینان است
با برآورد یک مقیاس رانندگی نوآوری به صورت درون زا ساخته شده است
واریانس فاکتورهای نهفته ، که در میانگین آن نیز گنجانده شده است
روند.برای دستیابی به منظم ، ما از تکنیک های بیزی برای تخمین استفاده می کنیم ،
و مجموعه ای از مقدمات جهانی و محلی سلسله مراتبی را معرفی کنید.مقدمات پذیرفته شده
مدل را روی مشخصات پارامتر ثابت با homoscedastic متمرکز کنید
خطاها ، اما در صورت پیشنهاد با اطلاعات احتمال ، متغیر زمان را فراهم می کند.
علاوه بر این ، ما فرض می کنیم ضرایب در سراسر اقتصاد مشابه هستند ، اما فراهم می کنند
انعطاف پذیری کافی از طریق سلسله مراتبی قبلی برای کشور خاص
اصطلاحات خاص.نتایج به سمت اثرات واقعی و مالی برجسته می شود
شوک های عدم اطمینان در همه کشورها ، با تفاوت در اقتصادها و
در طول زمان. |
30,127 | Dyadic data, where outcomes reflecting pairwise interaction among sampled
units are of primary interest, arise frequently in social science research.
Regression analyses with such data feature prominently in many research
literatures (e.g., gravity models of trade). The dependence structure
associated with dyadic data raises special estimation and, especially,
inference issues. This chapter reviews currently available methods for
(parametric) dyadic regression analysis and presents guidelines for empirical
researchers. | داده های دیدی ، که در آن نتایج منعکس کننده تعامل زوجی بین نمونه برداری شده است
واحدها مورد توجه اصلی هستند ، که اغلب در تحقیقات علوم اجتماعی بوجود می آیند.
تجزیه و تحلیل رگرسیون با چنین ویژگی های برجسته در بسیاری از تحقیقات
ادبیات (به عنوان مثال ، مدل های گرانشی تجارت).ساختار وابستگی
مرتبط با داده های دیادی تخمین ویژه ای را افزایش می دهد و به ویژه ،
مسائل استنباطدر این فصل روشهای موجود برای
(پارامتری) تجزیه و تحلیل رگرسیون دیادی و دستورالعمل هایی را برای تجربی ارائه می دهد
محققان |
30,128 | This paper presents the asymptotic behavior of a linear instrumental
variables (IV) estimator that uses a ridge regression penalty. The
regularization tuning parameter is selected empirically by splitting the
observed data into training and test samples. Conditional on the tuning
parameter, the training sample creates a path from the IV estimator to a prior.
The optimal tuning parameter is the value along this path that minimizes the IV
objective function for the test sample.
The empirically selected regularization tuning parameter becomes an estimated
parameter that jointly converges with the parameters of interest. The
asymptotic distribution of the tuning parameter is a nonstandard mixture
distribution. Monte Carlo simulations show the asymptotic distribution captures
the characteristics of the sampling distributions and when this ridge estimator
performs better than two-stage least squares. | در این مقاله رفتار بدون علامت یک ابزار خطی ارائه شده است
متغیرهای (IV) برآوردگر که از مجازات رگرسیون ریج استفاده می کند.در
پارامتر تنظیم منظم با تقسیم
داده های مشاهده شده در نمونه های آموزش و آزمایش.مشروط به تنظیم
پارامتر ، نمونه آموزش مسیری را از برآوردگر IV به قبلی ایجاد می کند.
پارامتر تنظیم بهینه مقدار در طول این مسیر است که IV را به حداقل می رساند
عملکرد هدف برای نمونه آزمون.
پارامتر تنظیم تنظیم منظم تجربی تخمین زده می شود
پارامتر که به طور مشترک با پارامترهای مورد علاقه همگرا می شود.در
توزیع بدون علامت از پارامتر تنظیم یک مخلوط غیر استاندارد است
توزیعشبیه سازی مونت کارلو ضبط توزیع بدون علامت را نشان می دهد
ویژگی های توزیع نمونه گیری و هنگامی که این برآوردگر خط الراس است
عملکرد بهتری از حداقل مربعات دو مرحله ای دارد. |
30,129 | Forecasting costs is now a front burner in empirical economics. We propose an
unconventional tool for stochastic prediction of future expenses based on the
individual (micro) developments of recorded events. Consider a firm,
enterprise, institution, or state, which possesses knowledge about particular
historical events. For each event, there is a series of several related
subevents: payments or losses spread over time, which all leads to an
infinitely stochastic process at the end. Nevertheless, the issue is that some
already occurred events do not have to be necessarily reported. The aim lies in
forecasting future subevent flows coming from already reported, occurred but
not reported, and yet not occurred events. Our methodology is illustrated on
quantitative risk assessment, however, it can be applied to other areas such as
startups, epidemics, war damages, advertising and commercials, digital
payments, or drug prescription as manifested in the paper. As a theoretical
contribution, inference for infinitely stochastic processes is developed. In
particular, a non-homogeneous Poisson process with non-homogeneous Poisson
processes as marks is used, which includes for instance the Cox process as a
special case. | هزینه های پیش بینی اکنون مشعل جلو در اقتصاد تجربی است.ما پیشنهاد می کنیم
ابزار غیر متعارف برای پیش بینی تصادفی از هزینه های آینده بر اساس
تحولات فردی (میکرو) وقایع ضبط شده.یک محکم را در نظر بگیرید ،
شرکت ، موسسه یا ایالت ، که دانش خاصی در مورد آن دارد
رویداد های تاریخی.برای هر رویداد ، یک سری از چندین مرتبط وجود دارد
زیرمجموعه ها: پرداخت ها یا ضررها با گذشت زمان گسترش می یابد ، که همه منجر به یک
فرآیند بی نهایت تصادفی در پایان.با این وجود ، مسئله این است که برخی
در حال حاضر اتفاقات لازم نیست که لزوماً گزارش شوند.هدف نهفته است
پیش بینی جریان های زیرزمینی آینده که از قبل گزارش شده است ، رخ داده است اما
گزارش نشده است ، و در عین حال اتفاقاتی رخ نداده است.روش ما در نشان داده شده است
با این حال ، ارزیابی ریسک کمی می تواند در مناطق دیگر مانند استفاده شود
استارتاپ ها ، اپیدمی ها ، خسارت های جنگ ، تبلیغات و تبلیغات ، دیجیتال
پرداخت یا تجویز مواد مخدر همانطور که در مقاله آشکار می شود.به عنوان یک نظری
مشارکت ، استنباط فرآیندهای بی نهایت تصادفی توسعه یافته است.که در
به ویژه ، یک فرایند پواسون غیر همگن با پواسون غیر همگن
فرآیندها به عنوان علائم استفاده می شود ، که به عنوان مثال فرآیند COX به عنوان a
مورد خاص. |
30,130 | We present a symmetry analysis of the distribution of variations of different
financial indices, by means of a statistical procedure developed by the authors
based on a symmetry statistic by Einmahl and Mckeague. We applied this
statistical methodology to financial uninterrupted daily trends returns and to
other derived observable. In our opinion, to study distributional symmetry,
trends returns offer more advantages than the commonly used daily financial
returns; the two most important being: 1) Trends returns involve sampling over
different time scales and 2) By construction, this variable time series
contains practically the same number of non-negative and negative entry values.
We also show that these time multi-scale returns display distributional
bi-modality. Daily financial indices analyzed in this work, are the Mexican
IPC, the American DJIA, DAX from Germany and the Japanese Market index Nikkei,
covering a time period from 11-08-1991 to 06-30-2017. We show that, at the time
scale resolution and significance considered in this paper, it is almost always
feasible to find an interval of possible symmetry points containing one most
plausible symmetry point denoted by C. Finally, we study the temporal evolution
of C showing that this point is seldom zero and responds with sensitivity to
extreme market events. | ما یک تجزیه و تحلیل تقارن از توزیع تغییرات مختلف ارائه می دهیم
شاخص های مالی ، با استفاده از یک روش آماری که توسط نویسندگان تهیه شده است
بر اساس آمار تقارن توسط اینمال و مک کیاگ.ما این را اعمال کردیم
روش آماری به روندهای روزانه بدون وقفه مالی و به
دیگر قابل مشاهده است.به نظر ما ، برای مطالعه تقارن توزیع ،
بازده روندها مزایای بیشتری را نسبت به مالی روزانه متداول ارائه می دهد
بازگشتدو مهمترین این: 1) روند بازده شامل نمونه برداری است
مقیاس زمانی مختلف و 2) با ساخت و ساز ، این سری زمانی متغیر
تقریباً همان تعداد مقادیر ورود غیر منفی و منفی را شامل می شود.
ما همچنین نشان می دهیم که این زمان توزیع چند مقیاس توزیع نمایشگر
دو مادهشاخص های مالی روزانه که در این کار مورد تجزیه و تحلیل قرار گرفته است ، مکزیکی هستند
IPC ، DJIA آمریکایی ، DAX از آلمان و شاخص بازار ژاپن Nikkei ،
پوشش یک دوره زمانی از 11-08-1991 تا 06-30-2017.ما این را نشان می دهیم ، در آن زمان
وضوح مقیاس و اهمیت در نظر گرفته شده در این مقاله ، تقریباً همیشه است
امکان یافتن فاصله ای از نقاط تقارن احتمالی حاوی یک بیشترین
نقطه تقارن قابل قبول که توسط C. مشخص شده است ، سرانجام ، ما تکامل زمانی را مطالعه می کنیم
از C نشان می دهد که این نقطه به ندرت صفر است و با حساسیت به آن پاسخ می دهد
رویدادهای شدید بازار. |
30,131 | Language and cultural diversity is a fundamental aspect of the present world.
We study three modern multilingual societies -- the Basque Country, Ireland and
Wales -- which are endowed with two, linguistically distant, official
languages: $A$, spoken by all individuals, and $B$, spoken by a bilingual
minority. In the three cases it is observed a decay in the use of minoritarian
$B$, a sign of diversity loss. However, for the "Council of Europe" the key
factor to avoid the shift of $B$ is its use in all domains. Thus, we
investigate the language choices of the bilinguals by means of an evolutionary
game theoretic model. We show that the language population dynamics has reached
an evolutionary stable equilibrium where a fraction of bilinguals have shifted
to speak $A$. Thus, this equilibrium captures the decline in the use of $B$. To
test the theory we build empirical models that predict the use of $B$ for each
proportion of bilinguals. We show that model-based predictions fit very well
the observed use of Basque, Irish, and Welsh. | زبان و تنوع فرهنگی جنبه اساسی جهان فعلی است.
ما سه جامعه چند زبانه مدرن را مطالعه می کنیم - کشور باسک ، ایرلند و
ولز - که دارای دو ، از نظر زبانی از نظر زبانی ، رسمی است
زبانها: $ $ ، توسط همه افراد صحبت می شود ، و $ $ ، که توسط یک دو زبانه صحبت می شود
اقلیتدر سه مورد ، یک پوسیدگی در استفاده از صغیر مشاهده می شود
$ B $ ، نشانه ضرر تنوع.با این حال ، برای "شورای اروپا" کلید
فاکتور برای جلوگیری از تغییر $ B $ استفاده از آن در همه دامنه ها است.بنابراین ، ما
انتخاب زبان دو زبانه را با استفاده از تکاملی بررسی کنید
مدل نظری بازی.ما نشان می دهیم که پویایی جمعیت زبان به آن رسیده است
تعادل پایدار تکاملی که در آن بخشی از دو زبانه تغییر کرده است
برای صحبت $ $.بنابراین ، این تعادل باعث کاهش استفاده از $ B $ می شود.به
نظریه ما را آزمایش می کنیم مدلهای تجربی می سازیم که استفاده از $ B $ را برای هر یک پیش بینی می کند
نسبت دو زبانه.ما نشان می دهیم که پیش بینی های مبتنی بر مدل بسیار مناسب است
استفاده مشاهده شده از باسک ، ایرلندی و ولزی. |
30,132 | Chernozhukov et al. (2018) proposed the sorted effect method for nonlinear
regression models. This method consists of reporting percentiles of the partial
effects in addition to the average commonly used to summarize the heterogeneity
in the partial effects. They also proposed to use the sorted effects to carry
out classification analysis where the observational units are classified as
most and least affected if their causal effects are above or below some tail
sorted effects. The R package SortedEffects implements the estimation and
inference methods therein and provides tools to visualize the results. This
vignette serves as an introduction to the package and displays basic
functionality of the functions within. | Chernozhukov و همکاران.(2018) روش اثر مرتب شده را برای غیرخطی پیشنهاد کرد
مدل های رگرسیون.این روش شامل گزارش صدرهای جزئی است
اثرات علاوه بر میانگین که معمولاً برای خلاصه ناهمگونی استفاده می شود
در اثرات جزئیآنها همچنین پیشنهاد کردند که از جلوه های مرتب شده برای حمل استفاده کنند
تجزیه و تحلیل طبقه بندی خارج که در آن واحدهای مشاهده ای به عنوان طبقه بندی می شوند
اگر اثرات علی آنها بالاتر یا پایین تر از دم باشد ، بیشترین و کمترین آسیب را تحت تأثیر قرار می دهد
اثرات مرتب شدهبسته بندی R SortedEffects تخمین را پیاده سازی می کند و
روشهای استنتاج در آن و ابزاری برای تجسم نتایج فراهم می کند.این
Vignette به عنوان مقدمه ای برای بسته بندی خدمت می کند و BASIC را نمایش می دهد
عملکرد توابع درون. |
30,133 | When researchers develop new econometric methods it is common practice to
compare the performance of the new methods to those of existing methods in
Monte Carlo studies. The credibility of such Monte Carlo studies is often
limited because of the freedom the researcher has in choosing the design. In
recent years a new class of generative models emerged in the machine learning
literature, termed Generative Adversarial Networks (GANs) that can be used to
systematically generate artificial data that closely mimics real economic
datasets, while limiting the degrees of freedom for the researcher and
optionally satisfying privacy guarantees with respect to their training data.
In addition if an applied researcher is concerned with the performance of a
particular statistical method on a specific data set (beyond its theoretical
properties in large samples), she may wish to assess the performance, e.g., the
coverage rate of confidence intervals or the bias of the estimator, using
simulated data which resembles her setting. Tol illustrate these methods we
apply Wasserstein GANs (WGANs) to compare a number of different estimators for
average treatment effects under unconfoundedness in three distinct settings
(corresponding to three real data sets) and present a methodology for assessing
the robustness of the results. In this example, we find that (i) there is not
one estimator that outperforms the others in all three settings, so researchers
should tailor their analytic approach to a given setting, and (ii) systematic
simulation studies can be helpful for selecting among competing methods in this
situation. | وقتی محققان روشهای جدید اقتصاد سنجی را توسعه می دهند ، این روش معمول است
عملکرد روشهای جدید را با روشهای موجود در مقایسه کنید
مطالعات مونت کارلو.اعتبار چنین مطالعات مونت کارلو اغلب است
محدود به دلیل آزادی که محقق در انتخاب طراحی دارد.که در
سالهای اخیر کلاس جدیدی از مدلهای تولیدی در یادگیری ماشین پدیدار شد
ادبیات ، شبکه های مخالف مولد (GAN) نامیده می شوند که می توانند مورد استفاده قرار گیرند
به طور سیستماتیک داده های مصنوعی تولید می کند که از نزدیک اقتصادی واقعی را تقلید می کند
مجموعه داده ها ، ضمن محدود کردن درجه های آزادی برای محقق و
تضمین های حریم خصوصی را به صورت اختیاری با توجه به داده های آموزشی آنها رضایت بخشید.
علاوه بر این اگر یک محقق کاربردی نگران عملکرد a باشد
روش آماری خاص در یک مجموعه داده خاص (فراتر از نظری آن
خواص در نمونه های بزرگ) ، او ممکن است بخواهد عملکرد را ارزیابی کند ، به عنوان مثال
میزان پوشش فواصل اطمینان یا تعصب برآوردگر ، با استفاده از
داده های شبیه سازی شده ای که شبیه تنظیم او است.TOL این روشها را نشان می دهد
Wasserstein Gans (WGANS) را برای مقایسه تعدادی از برآوردگرهای مختلف برای استفاده کنید
میانگین اثرات درمانی تحت نامحدودی در سه تنظیم مجزا
(مربوط به سه مجموعه داده واقعی) و یک روش برای ارزیابی ارائه دهید
استحکام نتایج.در این مثال ، می فهمیم که (i) وجود ندارد
یکی از تخمین هایی که در هر سه تنظیم از دیگران بهتر عمل می کند ، بنابراین محققان
باید رویکرد تحلیلی خود را به یک تنظیم خاص متناسب کند ، و (ii) سیستماتیک
مطالعات شبیه سازی می تواند برای انتخاب بین روشهای رقیب در این مورد مفید باشد
وضعیت. |
30,135 | We investigate the nature and extent of reallocation occurring within the
Indian income distribution, with a particular focus on the dynamics of the
bottom of the distribution. Specifically, we use a stochastic model of
Geometric Brownian Motion with a reallocation parameter that was constructed to
capture the quantum and direction of composite redistribution implied in the
income distribution. It is well known that inequality has been rising in India
in the recent past, but the assumption has been that while the rich benefit
more than proportionally from economic growth, the poor are also better off
than before. Findings from our model refute this, as we find that since the
early 2000s reallocation has consistently been negative, and that the Indian
income distribution has entered a regime of perverse redistribution of
resources from the poor to the rich. Outcomes from the model indicate not only
that income shares of the bottom decile (~1%) and bottom percentile (~0.03%)
are at historic lows, but also that real incomes of the bottom decile (-2.5%)
and percentile (-6%) have declined in the 2000s. We validate these findings
using income distribution data and find support for our contention of
persistent negative reallocation in the 2000s. We characterize these findings
in the context of increasing informalization of the workforce in the formal
manufacturing and service sectors, as well as the growing economic insecurity
of the agricultural workforce in India. Significant structural changes will be
required to address this phenomenon. | ما ماهیت و میزان جابجایی را که در آن اتفاق می افتد بررسی می کنیم
توزیع درآمد هند ، با تمرکز ویژه بر پویایی
پایین توزیع.به طور خاص ، ما از یک مدل تصادفی از
حرکت هندسی براونیان با یک پارامتر جابجایی که به آن ساخته شده است
کوانتومی و جهت توزیع مجدد کامپوزیت را که در آن وجود دارد ضبط کنید
توزیع درآمد.کاملاً شناخته شده است که نابرابری در هند رو به افزایش است
در گذشته اخیر ، اما فرض این بوده است که در حالی که سود غنی است
بیش از متناسب با رشد اقتصادی ، فقرا نیز بهتر هستند
نسبت به قبل.یافته های مدل ما این را رد می کند ، همانطور که می دانیم که از زمان
در اوایل دهه 2000 امکان جابجایی به طور مداوم منفی بوده است و هندی ها
توزیع درآمد وارد رژیم توزیع مجدد منحرف شده است
منابع از فقرا تا ثروتمندان.نتایج حاصل از مدل نه تنها نشان می دهد
این سهام درآمدی از دکوراسیون پایین (1 ~ ~) و صدک پایین (0.03 ~)
در پایین ترین سطح تاریخی هستند ، اما همچنین درآمد واقعی Decile Decile (-2.5 ٪)
و صدک (-6 ٪) در دهه 2000 کاهش یافته است.ما این یافته ها را تأیید می کنیم
با استفاده از داده های توزیع درآمد و پشتیبانی از ادعای ما
جابجایی منفی مداوم در دهه 2000.ما این یافته ها را توصیف می کنیم
در زمینه افزایش غیر رسمی بودن نیروی کار در رسمی
بخش های تولید و خدمات و همچنین رو به رشد ناامنی اقتصادی
نیروی کار کشاورزی در هند.تغییرات ساختاری قابل توجهی خواهد بود
برای پرداختن به این پدیده مورد نیاز است. |
30,136 | To make informed policy recommendations from observational data, we must be
able to discern true treatment effects from random noise and effects due to
confounding. Difference-in-Difference techniques which match treated units to
control units based on pre-treatment outcomes, such as the synthetic control
approach have been presented as principled methods to account for confounding.
However, we show that use of synthetic controls or other matching procedures
can introduce regression to the mean (RTM) bias into estimates of the average
treatment effect on the treated. Through simulations, we show RTM bias can lead
to inflated type I error rates as well as decreased power in typical policy
evaluation settings. Further, we provide a novel correction for RTM bias which
can reduce bias and attain appropriate type I error rates. This correction can
be used to perform a sensitivity analysis which determines how results may be
affected by RTM. We use our proposed correction and sensitivity analysis to
reanalyze data concerning the effects of California's Proposition 99, a
large-scale tobacco control program, on statewide smoking rates. | برای ارائه توصیه های آگاهانه سیاست از داده های مشاهده ای ، ما باید باشیم
قادر به تشخیص اثرات درمانی واقعی از سر و صدای تصادفی و اثرات ناشی از
گیج کنندهتکنیک های اختلاف در اختلاف که با واحدهای تحت درمان مطابقت دارد
واحدهای کنترل بر اساس نتایج قبل از درمان ، مانند کنترل مصنوعی
رویکرد به عنوان روشهای اصولی برای پاسخگویی به مخدوش ارائه شده است.
با این حال ، ما نشان می دهیم که استفاده از کنترل های مصنوعی یا سایر روشهای تطبیق
می تواند رگرسیون را با میانگین تعصب (RTM) به تخمین میانگین معرفی کند
اثر درمانی بر روی درمان.از طریق شبیه سازی ، ما نشان می دهیم که تعصب RTM می تواند منجر شود
به نرخ خطای Type I Type I و همچنین کاهش قدرت در خط مشی معمولی
تنظیمات ارزیابی.علاوه بر این ، ما یک اصلاح جدید برای تعصب RTM ارائه می دهیم که
می تواند تعصب را کاهش داده و نرخ خطای نوع I را بدست آورد.این اصلاح می تواند
برای انجام یک تجزیه و تحلیل حساسیت استفاده می شود که تعیین می کند چگونه نتایج ممکن است باشد
تحت تأثیر RTM.ما از تجزیه و تحلیل تصحیح و حساسیت پیشنهادی خود استفاده می کنیم
داده های مربوط به تأثیر گزاره 99 کالیفرنیا ، الف
برنامه کنترل دخانیات در مقیاس بزرگ ، با میزان سیگار کشیدن در سراسر کشور. |
30,137 | In this paper, an application of three GARCH-type models (sGARCH, iGARCH, and
tGARCH) with Student t-distribution, Generalized Error distribution (GED), and
Normal Inverse Gaussian (NIG) distribution are examined. The new development
allows for the modeling of volatility clustering effects, the leptokurtic and
the skewed distributions in the return series of Bitcoin. Comparative to the
two distributions, the normal inverse Gaussian distribution captured adequately
the fat tails and skewness in all the GARCH type models. The tGARCH model was
the best model as it described the asymmetric occurrence of shocks in the
Bitcoin market. That is, the response of investors to the same amount of good
and bad news are distinct. From the empirical results, it can be concluded that
tGARCH-NIG was the best model to estimate the volatility in the return series
of Bitcoin. Generally, it would be optimal to use the NIG distribution in GARCH
type models since time series of most cryptocurrency are leptokurtic. | در این مقاله ، کاربرد سه مدل از نوع Garch (Sgarch ، igarch ، و
tgarch) با توزیع t دانشجویی ، توزیع خطای عمومی (GED) ، و
توزیع معکوس گاوسی معکوس (NIG) مورد بررسی قرار می گیرد.توسعه جدید
امکان مدل سازی اثرات خوشه بندی نوسانات ، لپتوکورتیک و
توزیع های skewed در سری بازگشت بیت کوین.تطبیقی با
دو توزیع ، توزیع معکوس طبیعی گاوسی به اندازه کافی ضبط شد
دم و چربی چربی در تمام مدل های نوع Garch.مدل Tgarch بود
بهترین مدل همانطور که وقوع نامتقارن شوک ها را در آن توصیف می کند
بازار بیت کوین.یعنی پاسخ سرمایه گذاران به همان مقدار خوب
و خبرهای بد مشخص است.از نتایج تجربی ، می توان نتیجه گرفت که
Tgarch-Nig بهترین مدل برای برآورد نوسانات در سری بازگشت بود
از بیت کوینبه طور کلی ، استفاده از توزیع NIG در گارچ بهینه خواهد بود
مدل های نوع از سری زمانی بیشتر رمزنگاری ها لپتوکورتیک هستند. |
30,138 | We study preferences estimated from finite choice experiments and provide
sufficient conditions for convergence to a unique underlying "true" preference.
Our conditions are weak, and therefore valid in a wide range of economic
environments. We develop applications to expected utility theory, choice over
consumption bundles, menu choice and intertemporal consumption. Our framework
unifies the revealed preference tradition with models that allow for errors. | ما ترجیحات تخمین زده شده از آزمایش های انتخاب محدود را مطالعه می کنیم و ارائه می دهیم
شرایط کافی برای همگرایی به یک اولویت "واقعی" اساسی منحصر به فرد.
شرایط ما ضعیف است و بنابراین در طیف گسترده ای از اقتصادی معتبر است
محیطما برنامه هایی را برای تئوری ابزار مورد انتظار ، انتخاب بیش از
بسته های مصرف ، انتخاب منو و مصرف بین المللی.چارچوب ما
سنت اولویت آشکار را با مدلهایی که خطاها را فراهم می کند ، متحد می کند. |
30,139 | This paper develops a framework for quantile regression in binary
longitudinal data settings. A novel Markov chain Monte Carlo (MCMC) method is
designed to fit the model and its computational efficiency is demonstrated in a
simulation study. The proposed approach is flexible in that it can account for
common and individual-specific parameters, as well as multivariate
heterogeneity associated with several covariates. The methodology is applied to
study female labor force participation and home ownership in the United States.
The results offer new insights at the various quantiles, which are of interest
to policymakers and researchers alike. | این مقاله چارچوبی برای رگرسیون کمی در باینری ایجاد می کند
تنظیمات داده های طولی.یک روش جدید زنجیره مارکوف مونت کارلو (MCMC) است
طراحی شده برای متناسب با مدل و راندمان محاسباتی آن در a نشان داده شده است
مطالعه شبیه سازی.رویکرد پیشنهادی از این نظر انعطاف پذیر است که می تواند حساب کند
پارامترهای مشترک و خاص و همچنین چند متغیره
ناهمگونی مرتبط با چندین متغیر متغیر.این روش برای
مشارکت نیروی کار زن و مالکیت خانه در ایالات متحده را مطالعه کنید.
نتایج بینش های جدیدی را در مقدار مختلف ارائه می دهد ، که مورد توجه است
به سیاست گذاران و محققان به طور یکسان. |
30,140 | The Wald development of statistical decision theory addresses decision making
with sample data. Wald's concept of a statistical decision function (SDF)
embraces all mappings of the form [data -> decision]. An SDF need not perform
statistical inference; that is, it need not use data to draw conclusions about
the true state of nature. Inference-based SDFs have the sequential form [data
-> inference -> decision]. This paper motivates inference-based SDFs as
practical procedures for decision making that may accomplish some of what Wald
envisioned. The paper first addresses binary choice problems, where all SDFs
may be viewed as hypothesis tests. It next considers as-if optimization, which
uses a point estimate of the true state as if the estimate were accurate. It
then extends this idea to as-if maximin and minimax-regret decisions, which use
point estimates of some features of the true state as if they were accurate.
The paper primarily uses finite-sample maximum regret to evaluate the
performance of inference-based SDFs. To illustrate abstract ideas, it presents
specific findings concerning treatment choice and point prediction with sample
data. | توسعه والد تئوری تصمیم آماری به تصمیم گیری می پردازد
با داده های نمونهمفهوم والد از یک عملکرد تصمیم آماری (SDF)
تمام نگاشتهای فرم [داده -> تصمیم] را در آغوش می گیرد.SDF نیازی به انجام ندارد
استنباط آماری ؛یعنی نیازی به استفاده از داده ها برای نتیجه گیری در مورد نیست
وضعیت واقعی طبیعت.SDF های مبتنی بر استنتاج فرم متوالی دارند [داده ها
-> استنتاج -> تصمیم].این مقاله SDF های مبتنی بر استنتاج را به عنوان ایجاد می کند
رویه های عملی برای تصمیم گیری که ممکن است برخی از آنچه والد را انجام می دهد
پیش بینی شدهاین مقاله ابتدا به مشکلات انتخاب باینری می پردازد ، جایی که همه SDF ها
ممکن است به عنوان آزمون فرضیه مشاهده شود.در ادامه بهینه سازی AS-IF را در نظر می گیرد ، که
از برآورد نقطه ای از حالت واقعی استفاده می کند که گویی تخمین دقیق است.آی تی
سپس این ایده را در تصمیمات حداکثر و Minimax-Regret ، که از آنها استفاده می کنند ، گسترش می دهد
برآورد نقطه از برخی از ویژگی های حالت واقعی به نظر می رسد که آنها دقیق هستند.
این مقاله در درجه اول از حداکثر پشیمانی نمونه محدود برای ارزیابی استفاده می کند
عملکرد SDF های مبتنی بر استنتاج.برای نشان دادن ایده های انتزاعی ، آن را ارائه می دهد
یافته های خاص در مورد انتخاب درمان و پیش بینی نقطه با نمونه
داده ها. |
30,141 | We propose a robust method for constructing conditionally valid prediction
intervals based on models for conditional distributions such as quantile and
distribution regression. Our approach can be applied to important prediction
problems including cross-sectional prediction, k-step-ahead forecasts,
synthetic controls and counterfactual prediction, and individual treatment
effects prediction. Our method exploits the probability integral transform and
relies on permuting estimated ranks. Unlike regression residuals, ranks are
independent of the predictors, allowing us to construct conditionally valid
prediction intervals under heteroskedasticity. We establish approximate
conditional validity under consistent estimation and provide approximate
unconditional validity under model misspecification, overfitting, and with time
series data. We also propose a simple "shape" adjustment of our baseline method
that yields optimal prediction intervals. | ما یک روش قوی برای ساخت پیش بینی معتبر مشروط پیشنهاد می کنیم
فواصل مبتنی بر مدل های توزیع مشروط مانند Quantile و
رگرسیون توزیع.رویکرد ما می تواند برای پیش بینی مهم اعمال شود
مشکلات از جمله پیش بینی مقطعی ، پیش بینی های k-step-head ،
کنترل های مصنوعی و پیش بینی ضد عملی و درمان فردی
پیش بینی اثرات.روش ما از تغییر انتگرال احتمال سوء استفاده می کند و
متکی به رتبه های تخمین زده شده است.برخلاف باقیمانده های رگرسیون ، رتبه ها هستند
مستقل از پیش بینی کننده ها ، به ما این امکان را می دهد تا به طور مشروط معتبر بسازیم
فواصل پیش بینی تحت ناهمگونی.ما تقریبی ایجاد می کنیم
اعتبار مشروط تحت برآورد مداوم و ارائه تقریبی
روایی بی قید و شرط تحت اشتباه غلط مدل ، بیش از حد و با گذشت زمان
داده های سری.ما همچنین یک تنظیم "شکل" ساده از روش پایه خود را پیشنهاد می کنیم
که فواصل پیش بینی بهینه را به همراه دارد. |
30,142 | The empirical analysis of discrete complete-information games has relied on
behavioral restrictions in the form of solution concepts, such as Nash
equilibrium. Choosing the right solution concept is crucial not just for
identification of payoff parameters, but also for the validity and
informativeness of counterfactual exercises and policy implications. We say
that a solution concept is discernible if it is possible to determine whether
it generated the observed data on the players' behavior and covariates. We
propose a set of conditions that make it possible to discern solution concepts.
In particular, our conditions are sufficient to tell whether the players'
choices emerged from Nash equilibria. We can also discern between
rationalizable behavior, maxmin behavior, and collusive behavior. Finally, we
identify the correlation structure of unobserved shocks in our model using a
novel approach. | تجزیه و تحلیل تجربی بازی های اطلاعاتی کامل گسسته به آن متکی است
محدودیت های رفتاری به شکل مفاهیم راه حل ، مانند NASH
تعادلانتخاب مفهوم راه حل مناسب نه فقط برای
شناسایی پارامترهای بازپرداخت ، بلکه برای اعتبار و
اطلاع رسانی از تمرینات ضد خلاف و پیامدهای سیاست.ما میگوییم
این که یک مفهوم راه حل در صورت امکان تعیین اینکه آیا می توان تشخیص داد
این داده های مشاهده شده در مورد رفتار بازیکنان و متغیرهای متغیر را ایجاد می کند.ما
مجموعه ای از شرایط را پیشنهاد کنید که امکان تشخیص مفاهیم راه حل را فراهم می کند.
به ویژه ، شرایط ما برای گفتن اینکه آیا بازیکنان کافی است کافی است
گزینه ها از تعادل Nash پدیدار شد.ما همچنین می توانیم بین آن تشخیص دهیم
رفتار قابل ملاحظه ، رفتار حداکثر و رفتار تبانی.بالاخره ، ما
ساختار همبستگی شوکهای بدون نظارت در مدل ما را با استفاده از a شناسایی کنید
رویکرد جدید. |
30,143 | Causal decomposition analyses can help build the evidence base for
interventions that address health disparities (inequities). They ask how
disparities in outcomes may change under hypothetical intervention. Through
study design and assumptions, they can rule out alternate explanations such as
confounding, selection-bias, and measurement error, thereby identifying
potential targets for intervention. Unfortunately, the literature on causal
decomposition analysis and related methods have largely ignored equity concerns
that actual interventionists would respect, limiting their relevance and
practical value. This paper addresses these concerns by explicitly considering
what covariates the outcome disparity and hypothetical intervention adjust for
(so-called allowable covariates) and the equity value judgements these choices
convey, drawing from the bioethics, biostatistics, epidemiology, and health
services research literatures. From this discussion, we generalize
decomposition estimands and formulae to incorporate allowable covariate sets,
to reflect equity choices, while still allowing for adjustment of non-allowable
covariates needed to satisfy causal assumptions. For these general formulae, we
provide weighting-based estimators based on adaptations of
ratio-of-mediator-probability and inverse-odds-ratio weighting. We discuss when
these estimators reduce to already used estimators under certain equity value
judgements, and a novel adaptation under other judgements. | تجزیه و تحلیل تجزیه علّی می تواند به ساخت پایه و اساس برای
مداخلات مربوط به نابرابری های بهداشتی (نابرابری ها).آنها می پرسند چگونه
اختلافات در نتایج ممکن است تحت مداخله فرضی تغییر کند.از طریق
طراحی و فرضیات را مطالعه کنید ، آنها می توانند توضیحات متناوب مانند را رد کنند
خطای گیج کننده ، انتخاب و خطای اندازه گیری ، در نتیجه شناسایی
اهداف بالقوه برای مداخله.متأسفانه ، ادبیات مربوط به علت
تجزیه و تحلیل تجزیه و روشهای مرتبط تا حد زیادی نگرانی های عدالت را نادیده گرفته است
که مداخلات واقعی به آنها احترام می گذارند ، اهمیت آنها را محدود می کنند و
ارزش عملیدر این مقاله با بررسی صریح به این نگرانی ها می پردازیم
آنچه همبستگی نتیجه را متغیر می کند و مداخله فرضی را تنظیم می کند
(به اصطلاح متغیرهای مجاز) و داوری ارزش سهام این گزینه ها
انتقال ، ترسیم از زیست شناسی ، زیست شناسی ، اپیدمیولوژی و سلامتی
ادبیات تحقیقاتی خدمات.از این بحث ، ما تعمیم می دهیم
برآوردهای تجزیه و فرمولها برای ترکیب مجموعه های متغیر متغیر ،
برای بازتاب انتخاب سهام ، در حالی که هنوز امکان تنظیم غیر قابل استفاده را فراهم می کند
متغیرهای متغیر برای برآورده کردن فرضیات علی مورد نیاز هستند.برای این فرمول های کلی ، ما
برآوردگرهای مبتنی بر وزنه برداری را بر اساس اقتباس از
نسبت متوسط و وزن و وزن معکوس و نسبت به نسبت متوسط.ما بحث می کنیم چه زمانی
این برآوردگرها با ارزش سهام خاص به برآوردگرهای قبلاً استفاده شده کاهش می یابد
احکام و اقتباس جدید تحت احکام دیگر. |
30,144 | Conventional financial models fail to explain the economic and monetary
properties of cryptocurrencies due to the latter's dual nature: their usage as
financial assets on the one side and their tight connection to the underlying
blockchain structure on the other. In an effort to examine both components via
a unified approach, we apply a recently developed Non-Homogeneous Hidden Markov
(NHHM) model with an extended set of financial and blockchain specific
covariates on the Bitcoin (BTC) and Ether (ETH) price data. Based on the
observable series, the NHHM model offers a novel perspective on the underlying
microstructure of the cryptocurrency market and provides insight on
unobservable parameters such as the behavior of investors, traders and miners.
The algorithm identifies two alternating periods (hidden states) of inherently
different activity -- fundamental versus uninformed or noise traders -- in the
Bitcoin ecosystem and unveils differences in both the short/long run dynamics
and in the financial characteristics of the two states, such as significant
explanatory variables, extreme events and varying series autocorrelation. In a
somewhat unexpected result, the Bitcoin and Ether markets are found to be
influenced by markedly distinct indicators despite their perceived correlation.
The current approach backs earlier findings that cryptocurrencies are unlike
any conventional financial asset and makes a first step towards understanding
cryptocurrency markets via a more comprehensive lens. | مدلهای مالی متعارف در توضیح اقتصادی و پولی ناکام هستند
خواص ارزهای رمزپایه به دلیل ماهیت دوگانه دوم: استفاده از آنها به عنوان
دارایی های مالی از یک طرف و ارتباط محکم آنها با زیربنایی
ساختار blockchain از طرف دیگر.در تلاش برای بررسی هر دو مؤلفه از طریق
یک رویکرد یکپارچه ، ما یک مارکوف پنهان غیر همگن را که اخیراً توسعه یافته است ، اعمال می کنیم
(NHHM) مدل با مجموعه گسترده ای از مالی و blockchain خاص
متغیرهای متغیر روی داده های قیمت بیت کوین (BTC) و اتر (ETH).بر اساس
سریال قابل مشاهده ، مدل NHHM چشم انداز جدیدی را در مورد زمینه ارائه می دهد
ریزساختار بازار cryptocurrency و بینش در مورد
پارامترهای غیرقابل کنترل مانند رفتار سرمایه گذاران ، بازرگانان و معدنچیان.
این الگوریتم دو دوره متناوب (حالت های پنهان) ذاتاً مشخص می کند
فعالیت های مختلف - اساسی در مقابل معامله گران ناآگاه یا سر و صدا - در
اکوسیستم بیت کوین و تفاوت در هر دو دینامیک کوتاه/بلند مدت را رونمایی می کند
و در ویژگی های مالی دو کشور ، مانند قابل توجه
متغیرهای توضیحی ، وقایع شدید و همبستگی سری متفاوت.در یک
نتیجه غیر منتظره ، بازارهای بیت کوین و اتر پیدا شده است
با وجود همبستگی درک شده آنها تحت تأثیر شاخص های قابل توجه مشخص قرار گرفته است.
رویکرد فعلی یافته های قبلی را نشان می دهد که ارزهای رمزنگاری بر خلاف است
هر دارایی مالی متعارف و اولین قدم به سمت درک
بازارهای cryptocurrency از طریق یک لنز جامع تر. |
30,145 | We propose a new nonparametric estimator for first-price auctions with
independent private values that imposes the monotonicity constraint on the
estimated inverse bidding strategy. We show that our estimator has a smaller
asymptotic variance than that of Guerre, Perrigne and Vuong's (2000) estimator.
In addition to establishing pointwise asymptotic normality of our estimator, we
provide a bootstrap-based approach to constructing uniform confidence bands for
the density function of latent valuations. | ما یک برآوردگر غیرپارامتری جدید برای حراج های قیمت اول با
ارزشهای خصوصی مستقل که محدودیت یکنواختی را در آن تحمیل می کند
استراتژی مناقصه معکوس تخمین زده می شود.ما نشان می دهیم که برآوردگر ما کوچکتر است
واریانس مجانبی نسبت به برآوردگر Guerre ، Perrigne و Vuong (2000).
علاوه بر ایجاد عادی بودن بدون علامت از برآوردگر ما ، ما
یک رویکرد مبتنی بر بوت استرپ برای ساخت باند اعتماد به نفس یکنواخت برای
عملکرد چگالی ارزشهای نهفته. |
30,146 | We obtain an elementary invariance principle for multi-dimensional Brownian
sheet where the underlying random fields are not necessarily independent or
stationary. Possible applications include unit-root tests for spatial as well
as panel data models. | ما یک اصل تغییر ابتدایی برای براون چند بعدی به دست می آوریم
ورق که در آن زمینه های تصادفی اساسی لزوماً مستقل نیستند یا
ثابتبرنامه های ممکن شامل آزمایش های ریشه واحد نیز برای فضایی نیز هست
به عنوان مدل های داده پانل. |
30,163 | Many economic activities are embedded in networks: sets of agents and the
(often) rivalrous relationships connecting them to one another. Input sourcing
by firms, interbank lending, scientific research, and job search are four
examples, among many, of networked economic activities. Motivated by the
premise that networks' structures are consequential, this chapter describes
econometric methods for analyzing them. I emphasize (i) dyadic regression
analysis incorporating unobserved agent-specific heterogeneity and supporting
causal inference, (ii) techniques for estimating, and conducting inference on,
summary network parameters (e.g., the degree distribution or transitivity
index); and (iii) empirical models of strategic network formation admitting
interdependencies in preferences. Current research challenges and open
questions are also discussed. | بسیاری از فعالیت های اقتصادی در شبکه ها تعبیه شده اند: مجموعه ای از عوامل و
(اغلب) روابط رقیب که آنها را به یکدیگر متصل می کنند.منابع ورودی
توسط بنگاه ها ، وام های بین بانکی ، تحقیقات علمی و جستجوی شغل چهار نفر هستند
نمونه هایی از بسیاری از فعالیت های اقتصادی شبکه ای.با انگیزه توسط
این فصل فرضیه که ساختارهای شبکه ها نتیجه آن هستند ، توضیح می دهد
روشهای اقتصاد سنجی برای تجزیه و تحلیل آنها.من تأکید می کنم (i) رگرسیون دادی
تجزیه و تحلیل شامل ناهمگونی و پشتیبانی از عامل خاص و پشتیبانی
استنباط علی ، (ب) تکنیک های تخمین و انجام استنباط در ،
خلاصه پارامترهای شبکه (به عنوان مثال ، توزیع درجه یا انتقال
فهرست مطالب)؛و (iii) مدل های تجربی تشکیل شبکه استراتژیک پذیرش
وابستگی های متقابل در ترجیحات.چالش های تحقیق فعلی و باز
سوالات نیز مورد بحث قرار می گیرد. |
30,147 | High dimensional predictive regressions are useful in wide range of
applications. However, the theory is mainly developed assuming that the model
is stationary with time invariant parameters. This is at odds with the
prevalent evidence for parameter instability in economic time series, but
theories for parameter instability are mainly developed for models with a small
number of covariates. In this paper, we present two $L_2$ boosting algorithms
for estimating high dimensional models in which the coefficients are modeled as
functions evolving smoothly over time and the predictors are locally
stationary. The first method uses componentwise local constant estimators as
base learner, while the second relies on componentwise local linear estimators.
We establish consistency of both methods, and address the practical issues of
choosing the bandwidth for the base learners and the number of boosting
iterations. In an extensive application to macroeconomic forecasting with many
potential predictors, we find that the benefits to modeling time variation are
substantial and they increase with the forecast horizon. Furthermore, the
timing of the benefits suggests that the Great Moderation is associated with
substantial instability in the conditional mean of various economic series. | رگرسیون پیش بینی کننده ابعادی بالا در طیف گسترده ای مفید است
برنامه های کاربردی.با این حال ، این تئوری عمدتاً با فرض اینکه مدل باشد توسعه یافته است
با پارامترهای ثابت زمان ثابت است.این با
شواهد رایج برای بی ثباتی پارامترها در سری زمانی اقتصادی ، اما
نظریه های ناپایداری پارامتر عمدتاً برای مدل هایی با کوچک توسعه یافته است
تعداد متغیرهای متغیر.در این مقاله ، ما دو الگوریتم تقویت کننده $ L_2 $ ارائه می دهیم
برای برآورد مدلهای ابعادی بالا که در آن ضرایب به عنوان مدل شده اند
توابع با گذشت زمان هموار در حال تحول هستند و پیش بینی کننده ها به صورت محلی هستند
ثابتروش اول از برآوردگرهای ثابت محلی کامپوننتیک استفاده می کند
یادگیرنده پایه ، در حالی که دوم به برآوردگرهای خطی محلی کاملاً متکی است.
ما سازگاری هر دو روش را ایجاد می کنیم و به موضوعات عملی پرداخت می کنیم
انتخاب پهنای باند برای زبان آموزان پایه و تعداد تقویت
تکرارهادر یک برنامه گسترده برای پیش بینی اقتصاد کلان با بسیاری
پیش بینی کننده های بالقوه ، می فهمیم که مزایای تغییر زمان مدل سازی است
قابل توجه و با افق پیش بینی افزایش می یابد.علاوه بر این ،
زمان بندی مزایا نشان می دهد که اعتدال بزرگ با آن همراه است
بی ثباتی اساسی در میانگین مشروط سری های مختلف اقتصادی. |
30,148 | International trade policies have recently garnered attention for limiting
cross-border exchange of essential goods (e.g. steel, aluminum, soybeans, and
beef). Since trade critically affects employment and wages, predicting future
patterns of trade is a high-priority for policy makers around the world. While
traditional economic models aim to be reliable predictors, we consider the
possibility that Machine Learning (ML) techniques allow for better predictions
to inform policy decisions. Open-government data provide the fuel to power the
algorithms that can explain and forecast trade flows to inform policies. Data
collected in this article describe international trade transactions and
commonly associated economic factors. Machine learning (ML) models deployed
include: ARIMA, GBoosting, XGBoosting, and LightGBM for predicting future trade
patterns, and K-Means clustering of countries according to economic factors.
Unlike short-term and subjective (straight-line) projections and medium-term
(aggre-gated) projections, ML methods provide a range of data-driven and
interpretable projections for individual commodities. Models, their results,
and policies are introduced and evaluated for prediction quality. | سیاست های تجارت بین المللی اخیراً توجه محدود کردن را به خود جلب کرده است
تبادل مرزی کالاهای ضروری (به عنوان مثال فولاد ، آلومینیوم ، سویا ، و
گوشت گاو).از آنجا که تجارت به طور جدی بر اشتغال و دستمزد تأثیر می گذارد ، آینده را پیش بینی می کند
الگوهای تجارت برای سیاست گذاران در سراسر جهان اولویت بالایی است.در حالی که
مدلهای اقتصادی سنتی قصد دارند پیش بینی کننده های قابل اعتماد باشند ، ما در نظر می گیریم
این امکان وجود دارد که تکنیک های یادگیری ماشین (ML) پیش بینی های بهتری را فراهم کند
برای اطلاع رسانی در مورد تصمیمات سیاست.داده های دولت باز سوخت را برای تأمین نیرو فراهم می کند
الگوریتم هایی که می توانند برای اطلاع رسانی به سیاست ها ، جریان تجارت را توضیح دهند و پیش بینی کنند.داده ها
جمع آوری شده در این مقاله ، معاملات تجاری بین المللی را شرح می دهد و
عوامل اقتصادی معمولاً همراه است.مدل های یادگیری ماشین (ML) مستقر شده است
شامل: Arima ، Gboosting ، XGBoosting و LightGBM برای پیش بینی تجارت آینده
الگوهای ، و خوشه بندی K به معنای کشورها با توجه به عوامل اقتصادی.
برخلاف پیش بینی های کوتاه مدت و ذهنی (مستقیم) و میان مدت
پیش بینی ها ، روشهای ML طیف وسیعی از داده محور و
پیش بینی های قابل تفسیر برای کالاهای فردی.مدل ها ، نتایج آنها ،
و سیاست ها برای کیفیت پیش بینی معرفی و ارزیابی می شوند. |
30,149 | Beliefs are important determinants of an individual's choices and economic
outcomes, so understanding how they comove and differ across individuals is of
considerable interest. Researchers often rely on surveys that report individual
beliefs as qualitative data. We propose using a Bayesian hierarchical latent
class model to analyze the comovements and observed heterogeneity in
categorical survey responses. We show that the statistical model corresponds to
an economic structural model of information acquisition, which guides
interpretation and estimation of the model parameters. An algorithm based on
stochastic optimization is proposed to estimate a model for repeated surveys
when responses follow a dynamic structure and conjugate priors are not
appropriate. Guidance on selecting the number of belief types is also provided.
Two examples are considered. The first shows that there is information in the
Michigan survey responses beyond the consumer sentiment index that is
officially published. The second shows that belief types constructed from
survey responses can be used in a subsequent analysis to estimate heterogeneous
returns to education. | اعتقادات تعیین کننده مهم انتخاب و اقتصادی یک فرد هستند
نتایج ، بنابراین درک چگونگی جمع شدن و تفاوت در افراد
علاقه قابل توجهمحققان غالباً به نظرسنجی هایی که گزارش می دهند متکی هستند
اعتقادات به عنوان داده های کیفی.ما با استفاده از یک نهان سلسله مراتبی بیزی پیشنهاد می کنیم
مدل کلاس برای تجزیه و تحلیل همبستگی ها و ناهمگونی مشاهده شده در
پاسخ های بررسی طبقه بندی شده.ما نشان می دهیم که مدل آماری با آن مطابقت دارد
یک الگوی ساختاری اقتصادی از کسب اطلاعات ، که راهنمایی می کند
تفسیر و تخمین پارامترهای مدل.یک الگوریتم مبتنی بر
بهینه سازی تصادفی برای برآورد مدلی برای بررسی های مکرر پیشنهاد شده است
هنگامی که پاسخ ها از یک ساختار پویا پیروی می کنند و مقدمات مزدوج نیست
مناسب.راهنمایی در مورد انتخاب تعداد انواع اعتقاد نیز ارائه شده است.
دو مثال در نظر گرفته شده است.اولین نشان می دهد که اطلاعات در
پاسخ های نظرسنجی میشیگان فراتر از شاخص احساسات مصرف کننده
رسماً منتشر شده است.دوم نشان می دهد که انواع اعتقادات ساخته شده از
پاسخ های نظرسنجی می تواند در یک تجزیه و تحلیل بعدی برای برآورد ناهمگن استفاده شود
به آموزش و پرورش باز می گردد. |
30,150 | Regression discontinuity designs are frequently used to estimate the causal
effect of election outcomes and policy interventions. In these contexts,
treatment effects are typically estimated with covariates included to improve
efficiency. While including covariates improves precision asymptotically, in
practice, treatment effects are estimated with a small number of observations,
resulting in considerable fluctuations in treatment effect magnitude and
precision depending upon the covariates chosen. This practice thus incentivizes
researchers to select covariates which maximize treatment effect statistical
significance rather than precision. Here, I propose a principled approach for
estimating RDDs which provides a means of improving precision with covariates
while minimizing adverse incentives. This is accomplished by integrating the
adaptive LASSO, a machine learning method, into RDD estimation using an R
package developed for this purpose, adaptiveRDD. Using simulations, I show that
this method significantly improves treatment effect precision, particularly
when estimating treatment effects with fewer than 200 observations. | طرح های ناپیوستگی رگرسیون اغلب برای برآورد علی استفاده می شود
تأثیر نتایج انتخابات و مداخلات سیاست.در این زمینه ها ،
اثرات درمانی به طور معمول با متغیرهای متغیر برای بهبود تخمین زده می شود
بهره وری.در حالی که شامل متغیرهای متغیر است ، به صورت مجانبی بهبود می یابد ، در
تمرین ، اثرات درمانی با تعداد کمی از مشاهدات تخمین زده می شود ،
منجر به نوسانات قابل توجهی در بزرگی اثر درمانی و
دقت بسته به متغیرهای انتخاب شده.این عمل بدین ترتیب انگیزه می کند
محققان برای انتخاب متغیرهای متغیر که حداکثر اثر درمانی را به حداکثر می رسانند
اهمیت به جای دقت.در اینجا ، من یک رویکرد اصولی را برای
تخمین RDD هایی که وسیله ای برای بهبود دقت با متغیرهای متغیر است
در حالی که مشوق های منفی را به حداقل می رساند.این با ادغام
لاسو تطبیقی ، یک روش یادگیری ماشین ، به تخمین RDD با استفاده از R
بسته بندی شده برای این منظور ، Adaptiverdd.با استفاده از شبیه سازی ها ، من این را نشان می دهم
این روش به طور قابل توجهی دقت اثر درمانی را بهبود می بخشد ، به ویژه
هنگام برآورد اثرات درمانی با کمتر از 200 مشاهده. |
30,151 | Social interactions determine many economic behaviors, but information on
social ties does not exist in most publicly available and widely used datasets.
We present results on the identification of social networks from observational
panel data that contains no information on social ties between agents. In the
context of a canonical social interactions model, we provide sufficient
conditions under which the social interactions matrix, endogenous and exogenous
social effect parameters are all globally identified. While this result is
relevant across different estimation strategies, we then describe how
high-dimensional estimation techniques can be used to estimate the interactions
model based on the Adaptive Elastic Net GMM method. We employ the method to
study tax competition across US states. We find the identified social
interactions matrix implies tax competition differs markedly from the common
assumption of competition between geographically neighboring states, providing
further insights for the long-standing debate on the relative roles of factor
mobility and yardstick competition in driving tax setting behavior across
states. Most broadly, our identification and application show the analysis of
social interactions can be extended to economic realms where no network data
exists. | تعامل اجتماعی بسیاری از رفتارهای اقتصادی را تعیین می کند ، اما اطلاعات مربوط به
پیوندهای اجتماعی در بیشتر مجموعه داده های عمومی و گسترده استفاده نمی شود.
ما نتایج را در مورد شناسایی شبکه های اجتماعی از مشاهده ارائه می دهیم
داده های پانل که هیچ اطلاعاتی در مورد روابط اجتماعی بین نمایندگان ندارد.در
زمینه یک مدل تعامل اجتماعی متعارف ، ما کافی ارائه می دهیم
شرایطی که تحت آن ماتریس تعامل اجتماعی ، درون زا و اگزوژن
پارامترهای اثر اجتماعی همه در سطح جهان مشخص می شوند.در حالی که این نتیجه است
مرتبط با استراتژی های مختلف تخمین ، ما چگونه توضیح می دهیم
از تکنیک های تخمین با ابعاد بالا می توان برای برآورد تعامل استفاده کرد
مدل مبتنی بر روش GMM خالص الاستیک تطبیقی.ما از این روش استفاده می کنیم
رقابت مالیاتی را در ایالات متحده آمریکا مطالعه کنید.ما اجتماعی شناسایی شده را پیدا می کنیم
ماتریس تعامل به معنای رقابت مالیاتی به طور قابل توجهی با مشترک متفاوت است
فرض رقابت بین کشورهای همسایه جغرافیایی ، تأمین
بینش های بیشتر برای بحث دیرینه در مورد نقش های نسبی فاکتور
تحرک و رقابت در حیاط در رانندگی در تنظیم مالیات بر سر
ایالت ها.به طور گسترده ، شناسایی و کاربرد ما تجزیه و تحلیل را نشان می دهد
تعاملات اجتماعی را می توان به قلمروهای اقتصادی که در آن داده های شبکه ای وجود ندارد گسترش یابد
وجود دارد |
30,152 | Strategic valuation of efficient and well-timed network investments under
uncertain electricity market environment has become increasingly challenging,
because there generally exist multiple interacting options in these
investments, and failing to systematically consider these options can lead to
decisions that undervalue the investment. In our work, a real options valuation
(ROV) framework is proposed to determine the optimal strategy for executing
multiple interacting options within a distribution network investment, to
mitigate the risk of financial losses in the presence of future uncertainties.
To demonstrate the characteristics of the proposed framework, we determine the
optimal strategy to economically justify the investment in residential
PV-battery systems for additional grid supply during peak demand periods. The
options to defer, and then expand, are considered as multi-stage compound
options, since the option to expand is a subsequent option of the former. These
options are valued via the least squares Monte Carlo method, incorporating
uncertainty over growing power demand, varying diesel fuel price, and the
declining cost of PV-battery technology as random variables. Finally, a
sensitivity analysis is performed to demonstrate how the proposed framework
responds to uncertain events. The proposed framework shows that executing the
interacting options at the optimal timing increases the investment value. | ارزیابی استراتژیک سرمایه گذاری های شبکه ای کارآمد و به موقع تحت
محیط بازار نامشخص برق به طور فزاینده ای چالش برانگیز شده است ،
زیرا به طور کلی چندین گزینه متقابل در این موارد وجود دارد
سرمایه گذاری ، و عدم در نظر گرفتن سیستماتیک این گزینه ها می تواند منجر شود
تصمیماتی که سرمایه گذاری را کاهش می دهد.در کار ما ، یک ارزیابی گزینه های واقعی
(ROV) چارچوب برای تعیین استراتژی بهینه برای اجرای ارائه شده است
چندین گزینه تعامل در یک سرمایه گذاری در شبکه توزیع ، به
در حضور عدم قطعیت های آینده ، خطر خسارات مالی را کاهش دهید.
برای نشان دادن ویژگی های چارچوب پیشنهادی ، ما تعیین می کنیم
استراتژی بهینه برای توجیه اقتصادی سرمایه گذاری در مسکونی
سیستم های باتری PV برای عرضه شبکه اضافی در دوره های اوج تقاضای.در
گزینه هایی برای تعویق و سپس گسترش ، به عنوان ترکیب چند مرحله ای در نظر گرفته می شوند
گزینه ها ، از آنجا که گزینه گسترش گزینه بعدی از اولی است.اینها
گزینه ها از طریق کمترین مربع مونت کارلو ، با ارزش ، ارزش گذاری می شوند
عدم اطمینان در مورد افزایش تقاضای برق ، متفاوت بودن قیمت سوخت دیزل و
کاهش هزینه فناوری PV-battery به عنوان متغیرهای تصادفی.سرانجام ، الف
تجزیه و تحلیل حساسیت برای نشان دادن چگونگی چارچوب پیشنهادی انجام می شود
به وقایع نامشخص پاسخ می دهد.چارچوب پیشنهادی نشان می دهد که اجرای
گزینه های تعامل در زمان بهینه ، ارزش سرمایه گذاری را افزایش می دهد. |
30,153 | In this paper, we write the time-varying parameter (TVP) regression model
involving K explanatory variables and T observations as a constant coefficient
regression model with KT explanatory variables. In contrast with much of the
existing literature which assumes coefficients to evolve according to a random
walk, a hierarchical mixture model on the TVPs is introduced. The resulting
model closely mimics a random coefficients specification which groups the TVPs
into several regimes. These flexible mixtures allow for TVPs that feature a
small, moderate or large number of structural breaks. We develop
computationally efficient Bayesian econometric methods based on the singular
value decomposition of the KT regressors. In artificial data, we find our
methods to be accurate and much faster than standard approaches in terms of
computation time. In an empirical exercise involving inflation forecasting
using a large number of predictors, we find our models to forecast better than
alternative approaches and document different patterns of parameter change than
are found with approaches which assume random walk evolution of parameters. | در این مقاله ، ما مدل رگرسیون پارامتر متغیر زمان (TVP) را می نویسیم
شامل متغیرهای توضیحی K و مشاهدات T به عنوان یک ضریب ثابت
مدل رگرسیون با متغیرهای توضیحی KT.در مقابل با بسیاری از
ادبیات موجود که ضرایب را برای تکامل با توجه به یک تصادفی فرض می کند
WALK ، یک مدل مخلوط سلسله مراتبی در TVP ها معرفی شده است.نتیجه
مدل از نزدیک از مشخصات ضرایب تصادفی تقلید می کند که TVP ها را گروه بندی می کند
به چندین رژیماین مخلوط های انعطاف پذیر امکان TVP هایی را فراهم می کنند که دارای a هستند
تعداد کوچک ، متوسط یا زیاد استراحت ساختاری.ما توسعه می دهیم
روشهای اقتصاد سنجی بیزی از نظر محاسباتی بر اساس مفرد کارآمد است
تجزیه ارزش رگرسیون KT.در داده های مصنوعی ، ما خود را پیدا می کنیم
روشهای دقیق و بسیار سریعتر از رویکردهای استاندارد از نظر
زمان محاسبهدر یک تمرین تجربی شامل پیش بینی تورم
با استفاده از تعداد زیادی پیش بینی کننده ، مدل های خود را بهتر از پیش بینی می کنیم
رویکردهای جایگزین و الگوهای مختلف تغییر پارامتر را مستند می کند
با رویکردهایی یافت می شوند که تکامل پیاده روی تصادفی پارامترها را فرض می کنند. |
30,154 | This paper provides a thorough analysis on the dynamic structures and
predictability of China's Consumer Price Index (CPI-CN), with a comparison to
those of the United States. Despite the differences in the two leading
economies, both series can be well modeled by a class of Seasonal
Autoregressive Integrated Moving Average Model with Covariates (S-ARIMAX). The
CPI-CN series possess regular patterns of dynamics with stable annual cycles
and strong Spring Festival effects, with fitting and forecasting errors largely
comparable to their US counterparts. Finally, for the CPI-CN, the diffusion
index (DI) approach offers improved predictions than the S-ARIMAX models. | در این مقاله یک تجزیه و تحلیل کامل در مورد ساختارهای پویا ارائه شده است و
پیش بینی شاخص قیمت مصرف کننده چین (CPI-CN) ، با مقایسه با
آنهایی که از ایالات متحده هستند.با وجود تفاوت در این دو رهبر
اقتصاد ، هر دو سریال می توانند به خوبی توسط یک کلاس فصلی مدل شوند
مدل میانگین متحرک یکپارچه خودروگرایی با متغیرهای متغیر (S-arimax).در
سری CPI-CN دارای الگوهای منظم پویایی با چرخه سالانه پایدار است
و جلوه های جشنواره بهار قوی ، با خطاهای مناسب و پیش بینی شده تا حد زیادی
قابل مقایسه با همتایان آمریکایی آنها.سرانجام ، برای CPI-CN ، انتشار
رویکرد Index (DI) پیش بینی های بهبود یافته نسبت به مدل های S-Arimax را ارائه می دهد. |
30,155 | The existence of stylized facts in financial data has been documented in many
studies. In the past decade the modeling of financial markets by agent-based
computational economic market models has become a frequently used modeling
approach. The main purpose of these models is to replicate stylized facts and
to identify sufficient conditions for their creations. In this paper we
introduce the most prominent examples of stylized facts and especially present
stylized facts of financial data. Furthermore, we given an introduction to
agent-based modeling. Here, we not only provide an overview of this topic but
introduce the idea of universal building blocks for agent-based economic market
models. | وجود حقایق تلطیف شده در داده های مالی در بسیاری از آنها ثبت شده است
مطالعات.در یک دهه گذشته ، مدل سازی بازارهای مالی توسط عامل مبتنی بر
مدل های بازار اقتصادی محاسباتی به یک مدل سازی متداول تبدیل شده است
رویکرد.هدف اصلی این مدلها تکرار حقایق تلطیف شده و
برای شناسایی شرایط کافی برای خلاقیت های آنها.در این مقاله ما
برجسته ترین نمونه های حقایق تلطیف شده و به ویژه موجود را معرفی کنید
حقایق تلطیف شده داده های مالی.علاوه بر این ، ما مقدمه ای را ارائه دادیم
مدل سازی مبتنی بر عامل.در اینجا ، ما نه تنها مروری بر این موضوع ارائه می دهیم بلکه
ایده بلوک های ساختمانی جهانی را برای بازار اقتصادی مبتنی بر عامل معرفی کنید
مدل ها. |
30,156 | Time-varying parameter (TVP) models are very flexible in capturing gradual
changes in the effect of a predictor on the outcome variable. However, in
particular when the number of predictors is large, there is a known risk of
overfitting and poor predictive performance, since the effect of some
predictors is constant over time. We propose a prior for variance shrinkage in
TVP models, called triple gamma. The triple gamma prior encompasses a number of
priors that have been suggested previously, such as the Bayesian lasso, the
double gamma prior and the Horseshoe prior. We present the desirable properties
of such a prior and its relationship to Bayesian Model Averaging for variance
selection. The features of the triple gamma prior are then illustrated in the
context of time varying parameter vector autoregressive models, both for
simulated datasets and for a series of macroeconomics variables in the Euro
Area. | مدلهای پارامتر متغیر زمان (TVP) در ضبط تدریجی بسیار انعطاف پذیر هستند
تغییرات در تأثیر پیش بینی کننده در متغیر نتیجه.با این حال ، در
به ویژه وقتی تعداد پیش بینی کننده ها زیاد باشد ، خطر شناخته شده ای وجود دارد
عملکرد بیش از حد و عملکرد پیش بینی ضعیف ، از آنجا که اثر برخی است
پیش بینی کنندگان با گذشت زمان ثابت است.ما برای انقباض واریانس قبلی پیشنهاد می کنیم
مدل های TVP ، با نام Triple Gamma.گاما سه گام قبلی تعدادی را در بر می گیرد
مقدماتی که قبلاً پیشنهاد شده است ، مانند لاسو بیزی ،
دوتایی گاما قبل و اسب اسب قبلی.ما خواص مطلوب را ارائه می دهیم
از چنین قبلی و رابطه آن با مدل بیزی که میانگین واریانس است
انتخاب.ویژگی های گامای سه گام قبل از آن در زمان نشان داده شده است
زمینه زمان متغیر پارامتر وکتور مدل های اتورگرایی ، هر دو برای
مجموعه داده های شبیه سازی شده و برای یک سری متغیرهای اقتصاد کلان در یورو
حوزه. |
30,157 | Staggered adoption of policies by different units at different times creates
promising opportunities for observational causal inference. Estimation remains
challenging, however, and common regression methods can give misleading
results. A promising alternative is the synthetic control method (SCM), which
finds a weighted average of control units that closely balances the treated
unit's pre-treatment outcomes. In this paper, we generalize SCM, originally
designed to study a single treated unit, to the staggered adoption setting. We
first bound the error for the average effect and show that it depends on both
the imbalance for each treated unit separately and the imbalance for the
average of the treated units. We then propose "partially pooled" SCM weights to
minimize a weighted combination of these measures; approaches that focus only
on balancing one of the two components can lead to bias. We extend this
approach to incorporate unit-level intercept shifts and auxiliary covariates.
We assess the performance of the proposed method via extensive simulations and
apply our results to the question of whether teacher collective bargaining
leads to higher school spending, finding minimal impacts. We implement the
proposed method in the augsynth R package. | تصویب مبهم سیاست توسط واحدهای مختلف در زمان های مختلف ایجاد می کند
فرصت های امیدوارکننده برای استنباط علیت مشاهده.تخمین باقی مانده است
با این حال ، چالش برانگیز ، و روش های رگرسیون مشترک می تواند گمراه کننده باشد
نتایج.یک جایگزین امیدوار کننده روش کنترل مصنوعی (SCM) است که
میانگین وزنی واحدهای کنترل را پیدا می کند که از نزدیک تحت درمان قرار می گیرد
نتایج قبل از درمان واحد.در این مقاله ، ما در ابتدا SCM را تعمیم می دهیم
طراحی شده برای مطالعه یک واحد تحت درمان ، به محیط پذیرش مبهم.ما
ابتدا خطا را برای اثر متوسط محدود کرده و نشان می دهد که به هر دو بستگی دارد
عدم تعادل برای هر واحد تحت درمان به طور جداگانه و عدم تعادل برای
میانگین واحدهای تحت درمان.ما سپس وزن SCM "جزئی مخلوط" را به
ترکیبی از وزن این اقدامات را به حداقل برسانید.رویکردهایی که فقط تمرکز دارند
در متعادل کردن یکی از دو مؤلفه می تواند منجر به تعصب شود.ما این را گسترش می دهیم
رویکرد برای ترکیب شیفت های رهگیری در سطح واحد و متغیرهای کمکی.
ما عملکرد روش پیشنهادی را از طریق شبیه سازی های گسترده ارزیابی می کنیم و
نتایج ما را به این سؤال بپردازید که آیا چانه زنی جمعی معلم
منجر به هزینه های دبیرستان می شود و تأثیرات کمتری پیدا می کند.ما اجرا می کنیم
روش پیشنهادی در بسته Augsynth r. |
30,158 | Energy system optimization models (ESOMs) should be used in an interactive
way to uncover knife-edge solutions, explore alternative system configurations,
and suggest different ways to achieve policy objectives under conditions of
deep uncertainty. In this paper, we do so by employing an existing optimization
technique called modeling to generate alternatives (MGA), which involves a
change in the model structure in order to systematically explore the
near-optimal decision space. The MGA capability is incorporated into Tools for
Energy Model Optimization and Analysis (Temoa), an open source framework that
also includes a technology rich, bottom up ESOM. In this analysis, Temoa is
used to explore alternative energy futures in a simplified single region energy
system that represents the U.S. electric sector and a portion of the light duty
transport sector. Given the dataset limitations, we place greater emphasis on
the methodological approach rather than specific results. | مدل های بهینه سازی سیستم انرژی (ESOM) باید در یک تعاملی استفاده شود
راهی برای کشف راه حل های لبه چاقو ، کشف تنظیمات سیستم جایگزین ،
و روشهای مختلفی را برای دستیابی به اهداف سیاسی در شرایط ارائه دهید
عدم اطمینان عمیقدر این مقاله ، ما این کار را با استفاده از یک بهینه سازی موجود انجام می دهیم
تکنیک به نام مدل سازی برای تولید گزینه های دیگر (MGA) ، که شامل a است
تغییر در ساختار مدل به منظور کشف سیستماتیک
فضای تصمیم گیری تقریباً بهینه.قابلیت MGA در ابزارهایی برای
بهینه سازی و تجزیه و تحلیل مدل انرژی (TEMOA) ، یک چارچوب منبع باز که
همچنین شامل یک فناوری غنی ، پایین به بالا ESOM است.در این تجزیه و تحلیل ، TEMOA است
برای کشف آینده انرژی جایگزین در یک انرژی واحد ساده منطقه استفاده می شود
سیستمی که نماینده بخش الکتریکی ایالات متحده و بخشی از وظیفه سبک است
بخش حمل و نقل.با توجه به محدودیت های مجموعه داده ، ما تأکید بیشتری بر روی آن قرار می دهیم
رویکرد روش شناختی به جای نتایج خاص. |
30,159 | We consider the estimation of approximate factor models for time series data,
where strong serial and cross-sectional correlations amongst the idiosyncratic
component are present. This setting comes up naturally in many applications,
but existing approaches in the literature rely on the assumption that such
correlations are weak, leading to mis-specification of the number of factors
selected and consequently inaccurate inference. In this paper, we explicitly
incorporate the dependent structure present in the idiosyncratic component
through lagged values of the observed multivariate time series. We formulate a
constrained optimization problem to estimate the factor space and the
transition matrices of the lagged values {\em simultaneously}, wherein the
constraints reflect the low rank nature of the common factors and the sparsity
of the transition matrices. We establish theoretical properties of the obtained
estimates, and introduce an easy-to-implement computational procedure for
empirical work. The performance of the model and the implementation procedure
is evaluated on synthetic data and compared with competing approaches, and
further illustrated on a data set involving weekly log-returns of 75 US large
financial institutions for the 2001-2016 period. | ما تخمین مدل های تقریبی فاکتور را برای داده های سری زمانی در نظر می گیریم ،
جایی که همبستگی های سریال و مقطعی قوی بین اصطلاحات خاص
مؤلفه موجود است.این تنظیم به طور طبیعی در بسیاری از برنامه ها ظاهر می شود ،
اما رویکردهای موجود در ادبیات به این فرض متکی است
همبستگی ضعیف است و منجر به مشخص کردن نادرست تعداد عوامل می شود
استنباط انتخاب شده و در نتیجه نادرست.در این مقاله ، ما صریحاً
ساختار وابسته موجود در مؤلفه ایدیوسنکراتیک را درج کنید
از طریق مقادیر تاخیر سری زمانی چند متغیره مشاهده شده.ما فرموله می کنیم
مشکل بهینه سازی محدود برای تخمین فضای فاکتور و
ماتریس انتقال مقادیر تاخیر {\ em به طور همزمان} ، که در آن
محدودیت ها منعکس کننده ماهیت پایین عوامل متداول و کمبود است
ماتریس های انتقالما خصوصیات نظری به دست آمده را ایجاد می کنیم
تخمین می زند ، و یک روش محاسباتی آسان برای اجرای آن را معرفی می کند
کار تجربیعملکرد مدل و روش اجرای
بر روی داده های مصنوعی ارزیابی می شود و با رویکردهای رقابتی مقایسه می شود و
بیشتر در مجموعه داده هایی که شامل برگه های هفتگی 75 ایالات متحده است ، نشان داده شده است
موسسات مالی برای دوره 2001-2016. |
30,160 | A factor-augmented vector autoregressive (FAVAR) model is defined by a VAR
equation that captures lead-lag correlations amongst a set of observed
variables $X$ and latent factors $F$, and a calibration equation that relates
another set of observed variables $Y$ with $F$ and $X$. The latter equation is
used to estimate the factors that are subsequently used in estimating the
parameters of the VAR system. The FAVAR model has become popular in applied
economic research, since it can summarize a large number of variables of
interest as a few factors through the calibration equation and subsequently
examine their influence on core variables of primary interest through the VAR
equation. However, there is increasing need for examining lead-lag
relationships between a large number of time series, while incorporating
information from another high-dimensional set of variables. Hence, in this
paper we investigate the FAVAR model under high-dimensional scaling. We
introduce an appropriate identification constraint for the model parameters,
which when incorporated into the formulated optimization problem yields
estimates with good statistical properties. Further, we address a number of
technical challenges introduced by the fact that estimates of the VAR system
model parameters are based on estimated rather than directly observed
quantities. The performance of the proposed estimators is evaluated on
synthetic data. Further, the model is applied to commodity prices and reveals
interesting and interpretable relationships between the prices and the factors
extracted from a set of global macroeconomic indicators. | یک مدل وکتور اتورگرایی (FAVAR) یک وکتور با یک وکتور توسط یک VAR تعریف شده است
معادله ای که همبستگی های سرب را بین مجموعه ای از مشاهده شده ضبط می کند
متغیرهای $ x $ و فاکتورهای نهفته $ f $ ، و یک معادله کالیبراسیون که مربوط می شود
مجموعه دیگری از متغیرهای مشاهده شده $ y $ با $ f $ و $ x $.معادله دوم است
برای تخمین عواملی که متعاقباً در تخمین استفاده می شود استفاده می شود
پارامترهای سیستم VAR.مدل Favar در کاربردی محبوب شده است
تحقیقات اقتصادی ، از آنجا که می تواند تعداد زیادی از متغیرها را خلاصه کند
علاقه به عنوان چند عامل از طریق معادله کالیبراسیون و متعاقباً
تأثیر آنها را بر متغیرهای اصلی مورد علاقه اصلی از طریق VAR بررسی کنید
معادلهبا این حال ، نیاز فزاینده ای برای بررسی سرب وجود دارد
روابط بین تعداد زیادی از سریال های زمانی ، در حالی که شامل می شود
اطلاعات از مجموعه متغیرهای دیگر با ابعاد بالا.از این رو ، در این
مقاله ما مدل FAVAR را در مقیاس بندی با ابعاد بالا بررسی می کنیم.ما
یک محدودیت شناسایی مناسب برای پارامترهای مدل را معرفی کنید ،
که در صورت بازده مشکل بهینه سازی فرموله شده گنجانیده می شود
برآورد با خصوصیات آماری خوب.علاوه بر این ، ما به تعدادی از
چالش های فنی با این واقعیت که برآورد سیستم VAR است
پارامترهای مدل بر اساس تخمین زده می شوند و نه مستقیماً مشاهده می شوند
مقادیر.عملکرد برآوردگرهای پیشنهادی روی ارزیابی می شود
داده های مصنوعی.علاوه بر این ، این مدل برای قیمت کالاها اعمال می شود و فاش می کند
روابط جالب و قابل تفسیر بین قیمت ها و عوامل
استخراج شده از مجموعه ای از شاخص های کلان اقتصادی جهانی. |
30,161 | Dynamic model averaging (DMA) combines the forecasts of a large number of
dynamic linear models (DLMs) to predict the future value of a time series. The
performance of DMA critically depends on the appropriate choice of two
forgetting factors. The first of these controls the speed of adaptation of the
coefficient vector of each DLM, while the second enables time variation in the
model averaging stage. In this paper we develop a novel, adaptive dynamic model
averaging (ADMA) methodology. The proposed methodology employs a stochastic
optimisation algorithm that sequentially updates the forgetting factor of each
DLM, and uses a state-of-the-art non-parametric model combination algorithm
from the prediction with expert advice literature, which offers finite-time
performance guarantees. An empirical application to quarterly UK house price
data suggests that ADMA produces more accurate forecasts than the benchmark
autoregressive model, as well as competing DMA specifications. | میانگین مدل پویا (DMA) پیش بینی های تعداد زیادی از
مدلهای خطی پویا (DLM) برای پیش بینی ارزش آینده یک سری زمانی.در
عملکرد DMA به طور جدی به انتخاب مناسب دو بستگی دارد
عوامل فراموشیاولین مورد از این کنترل سرعت سازگاری
وکتور ضریب هر DLM ، در حالی که دوم تغییر زمان در
مرحله میانگین مدل.در این مقاله ما یک مدل پویا رمان و سازگار ایجاد می کنیم
روش متوسط (ADMA).روش پیشنهادی از یک تصادفی استفاده می کند
الگوریتم بهینه سازی که پی در پی ضریب فراموشی هر یک را به روز می کند
DLM ، و از یک الگوریتم ترکیبی مدل غیر پارامتری پیشرفته استفاده می کند
از پیش بینی با ادبیات مشاوره تخصصی ، که زمان محدود را ارائه می دهد
ضمانت عملکرد.یک برنامه تجربی برای قیمت سه ماهه خانه انگلستان
داده ها نشان می دهد که ADMA پیش بینی های دقیق تری نسبت به معیار تولید می کند
مدل خودکار و همچنین مشخصات DMA رقیب. |
30,162 | We propose a regularized factor-augmented vector autoregressive (FAVAR) model
that allows for sparsity in the factor loadings. In this framework, factors may
only load on a subset of variables which simplifies the factor identification
and their economic interpretation. We identify the factors in a data-driven
manner without imposing specific relations between the unobserved factors and
the underlying time series. Using our approach, the effects of structural
shocks can be investigated on economically meaningful factors and on all
observed time series included in the FAVAR model. We prove consistency for the
estimators of the factor loadings, the covariance matrix of the idiosyncratic
component, the factors, as well as the autoregressive parameters in the dynamic
model. In an empirical application, we investigate the effects of a monetary
policy shock on a broad range of economically relevant variables. We identify
this shock using a joint identification of the factor model and the structural
innovations in the VAR model. We find impulse response functions which are in
line with economic rationale, both on the factor aggregates and observed time
series level. | ما یک مدل وکتور تنظیم شده با فاکتور تنظیم شده (FAVAR) را پیشنهاد می کنیم
این امکان را فراهم می کند تا کمبود در بارهای عاملی باشد.در این چارچوب ، عوامل ممکن است
فقط در زیر مجموعه متغیرهایی که شناسایی عامل را ساده می کند بارگذاری کنید
و تفسیر اقتصادی آنهاما عوامل موجود در یک داده محور را شناسایی می کنیم
روش بدون تحمیل روابط خاص بین عوامل بدون نظارت و
سری زمانی اساسی.با استفاده از رویکرد ما ، اثرات ساختاری
شوک ها را می توان در مورد عوامل معنادار اقتصادی و از همه بررسی کرد
سری زمانی مشاهده شده در مدل Favar.ما ثبات را برای
برآوردگرهای بارهای عاملی ، ماتریس کواریانس از اصطلاحات
مؤلفه ، فاکتورها و همچنین پارامترهای اتورگرایی در پویا
مدل.در یک کاربرد تجربی ، ما اثرات پولی را بررسی می کنیم
شوک سیاست در طیف گسترده ای از متغیرهای اقتصادی مرتبط.ما شناسایی می کنیم
این شوک با استفاده از شناسایی مشترک مدل فاکتور و ساختاری
نوآوری در مدل VAR.ما توابع پاسخ ضربه ای را پیدا می کنیم که در آن وجود دارد
خط با منطقی اقتصادی ، هم در جمع فاکتور و هم زمان مشاهده شده
سطح سری. |
30,164 | Uncertainty quantification is a fundamental problem in the analysis and
interpretation of synthetic control (SC) methods. We develop conditional
prediction intervals in the SC framework, and provide conditions under which
these intervals offer finite-sample probability guarantees. Our method allows
for covariate adjustment and non-stationary data. The construction begins by
noting that the statistical uncertainty of the SC prediction is governed by two
distinct sources of randomness: one coming from the construction of the (likely
misspecified) SC weights in the pre-treatment period, and the other coming from
the unobservable stochastic error in the post-treatment period when the
treatment effect is analyzed. Accordingly, our proposed prediction intervals
are constructed taking into account both sources of randomness. For
implementation, we propose a simulation-based approach along with
finite-sample-based probability bound arguments, naturally leading to
principled sensitivity analysis methods. We illustrate the numerical
performance of our methods using empirical applications and a small simulation
study. \texttt{Python}, \texttt{R} and \texttt{Stata} software packages
implementing our methodology are available. | کمیت عدم اطمینان یک مشکل اساسی در تجزیه و تحلیل و
تفسیر روشهای کنترل مصنوعی (SC).ما مشروط ایجاد می کنیم
فواصل پیش بینی در چارچوب SC ، و شرایطی را فراهم می کند که تحت آن
این فواصل ضمانت های احتمال نمونه محدود را ارائه می دهد.روش ما اجازه می دهد
برای تنظیم همبستگی و داده های غیر ثابت.ساخت و ساز توسط آغاز می شود
با توجه به اینکه عدم اطمینان آماری پیش بینی SC توسط دو مورد اداره می شود
منابع متمایز از تصادفی: یکی از ساخت و ساز (احتمالاً
اشتباه) وزن SC در دوره قبل از درمان ، و دیگری از آن استفاده می شود
خطای تصادفی غیرقابل کنترل در دوره پس از درمان که
اثر درمانی مورد تجزیه و تحلیل قرار می گیرد.بر این اساس ، فواصل پیش بینی پیشنهادی ما
با در نظر گرفتن هر دو منبع تصادفی ساخته می شوند.برای
اجرای ، ما یک رویکرد مبتنی بر شبیه سازی را به همراه پیشنهاد می کنیم
استدلال های محدود مبتنی بر نمونه محدود ، به طور طبیعی منجر به
روشهای تجزیه و تحلیل حساسیت اصولی.ما عددی را نشان می دهیم
عملکرد روشهای ما با استفاده از برنامه های تجربی و یک شبیه سازی کوچک
مطالعه.\ texttt {python} ، \ texttt {r} و \ texttt {stata} بسته های نرم افزاری
اجرای روش ما در دسترس است. |
30,165 | We introduce the \texttt{Stata} (and \texttt{R}) package \texttt{rdmulti},
which includes three commands (\texttt{rdmc}, \texttt{rdmcplot}, \texttt{rdms})
for analyzing Regression Discontinuity (RD) designs with multiple cutoffs or
multiple scores. The command \texttt{rdmc} applies to non-cumulative and
cumulative multi-cutoff RD settings. It calculates pooled and cutoff-specific
RD treatment effects, and provides robust bias-corrected inference procedures.
Post estimation and inference is allowed. The command \texttt{rdmcplot} offers
RD plots for multi-cutoff settings. Finally, the command \texttt{rdms} concerns
multi-score settings, covering in particular cumulative cutoffs and two running
variables contexts. It also calculates pooled and cutoff-specific RD treatment
effects, provides robust bias-corrected inference procedures, and allows for
post-estimation estimation and inference. These commands employ the
\texttt{Stata} (and \texttt{R}) package \texttt{rdrobust} for plotting,
estimation, and inference. Companion \texttt{R} functions with the same syntax
and capabilities are provided. | ما بسته \ texttt {stata} (و \ texttt {r}) را معرفی می کنیم \ texttt {rdmulti} ،
که شامل سه دستور (\ texttt {rdmc} ، \ texttt {rdmcplot} ، \ texttt {rdms})
برای تجزیه و تحلیل طرح های ناپیوستگی رگرسیون (RD) با برش های متعدد یا
نمرات چندگانهدستور \ texttt {rdmc} در مورد غیر تجمعی و
تنظیمات RD Multi-Cutoff تجمعی.این محاسبه شده و خاص برش را محاسبه می کند
اثرات درمانی RD ، و روشهای استنتاج اصلاح شده توسط تعصب را ارائه می دهد.
تخمین پست و استنباط مجاز است.دستور \ texttt {rdmcplot} ارائه می دهد
توطئه های RD برای تنظیمات چند برش.سرانجام ، دستور \ texttt {rdms} نگرانی ها
تنظیمات چند نمره ای ، پوشش به ویژه برش های تجمعی و دو در حال اجرا
متغیرها زمینه ها.همچنین درمان RD و برش خاص RD را محاسبه می کند
اثرات ، روشهای استنتاج اصلاح شده توسط تعصب را فراهم می کند ، و امکان پذیر است
برآورد و استنباط پس از تخمین.این دستورات
\ texttt {stata} (و \ texttt {r}) بسته \ texttt {rdrobust} برای ترسیم ،
تخمین و استنباط.همراه \ texttt {r} توابع با همان نحو
و قابلیت ها ارائه شده است. |
30,166 | Interest-rate risk is a key factor for property-casualty insurer capital. P&C
companies tend to be highly leveraged, with bond holdings much greater than
capital. For GAAP capital, bonds are marked to market but liabilities are not,
so shifts in the yield curve can have a significant impact on capital.
Yield-curve scenario generators are one approach to quantifying this risk. They
produce many future simulated evolutions of the yield curve, which can be used
to quantify the probabilities of bond-value changes that would result from
various maturity-mix strategies. Some of these generators are provided as
black-box models where the user gets only the projected scenarios. One focus of
this paper is to provide methods for testing generated scenarios from such
models by comparing to known distributional properties of yield curves.
P&C insurers hold bonds to maturity and manage cash-flow risk by matching
asset and liability flows. Derivative pricing and stochastic volatility are of
little concern over the relevant time frames. This requires different models
and model testing than what is common in the broader financial markets.
To complicate things further, interest rates for the last decade have not
been following the patterns established in the sixty years following WWII. We
are now coming out of the period of very low rates, yet are still not returning
to what had been thought of as normal before that. Modeling and model testing
are in an evolving state while new patterns emerge.
Our analysis starts with a review of the literature on interest-rate model
testing, with a P&C focus, and an update of the tests for current market
behavior. We then discuss models, and use them to illustrate the fitting and
testing methods. The testing discussion does not require the model-building
section. | ریسک نرخ بهره یکی از عوامل اصلی برای سرمایه بیمه املاک است.P&C
شرکت ها تمایل به بسیار اهرم دارند و دارایی های اوراق بهادار بسیار بیشتر از
سرمایه، پایتخت.برای سرمایه GAAP ، اوراق بهادار به بازار مشخص شده است اما بدهی ها نیستند ،
بنابراین تغییر در منحنی عملکرد می تواند تأثیر قابل توجهی در سرمایه داشته باشد.
ژنراتورهای سناریو عملکرد یک رویکرد برای تعیین کمیت این خطر هستند.آنها
بسیاری از تحولات شبیه سازی شده در آینده از منحنی عملکرد را تولید می کند ، که می توان از آنها استفاده کرد
برای تعیین کمیت احتمالات تغییرات ارزش اوراق قرضه که ناشی از آن است
استراتژی های مختلف مخلوط بلوغ.برخی از این ژنراتورها به عنوان ارائه شده اند
مدل های جعبه سیاه که در آن کاربر فقط سناریوهای پیش بینی شده را دریافت می کند.یک تمرکز از
این مقاله ارائه روش هایی برای آزمایش سناریوهای تولید شده از چنین است
مدل ها با مقایسه با خصوصیات توزیع شناخته شده منحنی های عملکرد.
بیمه گذاران P&C اوراق بهادار را به سررسید و با تطبیق ریسک جریان نقدی را مدیریت می کنند
جریان دارایی و مسئولیت.قیمت گذاری مشتق و نوسانات تصادفی از
نگرانی کمی در مورد بازه های زمانی مربوطه.این به مدل های مختلفی نیاز دارد
و آزمایش مدل از آنچه در بازارهای مالی گسترده تر رایج است.
برای پیچیده تر کردن چیزها ، نرخ بهره برای دهه گذشته چنین نشده است
الگوهای تعیین شده در شصت سال پس از جنگ جهانی دوم را دنبال کرده است.ما
اکنون از دوره بسیار پایین خارج می شوند ، اما هنوز برنمی گردند
آنچه قبل از آن به عنوان عادی تصور شده بود.مدل سازی و تست مدل
در حالی که الگوهای جدید پدیدار می شوند ، در حال تحول هستند.
تجزیه و تحلیل ما با بررسی ادبیات در مورد مدل نرخ بهره آغاز می شود
آزمایش ، با تمرکز P&C و به روزرسانی تست های بازار فعلی
رفتار - اخلاق.سپس ما در مورد مدل ها بحث می کنیم و از آنها برای نشان دادن اتصالات و استفاده می کنیم
روش های آزمایش.بحث آزمایش نیازی به مدل سازی ندارد
بخش. |
30,167 | The downward trend in the amount of Arctic sea ice has a wide range of
environmental and economic consequences including important effects on the pace
and intensity of global climate change. Based on several decades of satellite
data, we provide statistical forecasts of Arctic sea ice extent during the rest
of this century. The best fitting statistical model indicates that overall sea
ice coverage is declining at an increasing rate. By contrast, average
projections from the CMIP5 global climate models foresee a gradual slowing of
Arctic sea ice loss even in scenarios with high carbon emissions. Our
long-range statistical projections also deliver probability assessments of the
timing of an ice-free Arctic. These results indicate almost a 60 percent chance
of an effectively ice-free Arctic Ocean sometime during the 2030s -- much
earlier than the average projection from the global climate models. | روند نزولی در میزان یخ دریای قطب شمال طیف گسترده ای از
پیامدهای زیست محیطی و اقتصادی از جمله تأثیرات مهم بر سرعت
و شدت تغییرات آب و هوایی جهانی.بر اساس چندین دهه ماهواره
داده ها ، ما پیش بینی های آماری از میزان یخ دریای قطب شمال را در طول بقیه ارائه می دهیم
از این قرنبهترین مدل آماری مناسب نشان می دهد که دریای کلی
پوشش یخ با سرعت زیاد رو به کاهش است.در مقابل ، متوسط
پیش بینی های مدل های آب و هوایی جهانی CMIP5 باعث کاهش سرعت تدریجی می شود
از دست دادن یخ دریای قطب شمال حتی در سناریوهایی با انتشار کربن بالا.ما
پیش بینی های آماری دوربرد نیز ارزیابی های احتمال را ارائه می دهد
زمان قطب شمال بدون یخ.این نتایج تقریباً 60 درصد شانس را نشان می دهد
از یک اقیانوس قطب شمال عاری از یخ در دهه 2030-بسیار
زودتر از پیش بینی متوسط از مدلهای جهانی آب و هوا. |
30,168 | The Pareto model is very popular in risk management, since simple analytical
formulas can be derived for financial downside risk measures (Value-at-Risk,
Expected Shortfall) or reinsurance premiums and related quantities (Large Claim
Index, Return Period). Nevertheless, in practice, distributions are (strictly)
Pareto only in the tails, above (possible very) large threshold. Therefore, it
could be interesting to take into account second order behavior to provide a
better fit. In this article, we present how to go from a strict Pareto model to
Pareto-type distributions. We discuss inference, and derive formulas for
various measures and indices, and finally provide applications on insurance
losses and financial risks. | مدل پارتو از نظر تحلیلی ساده در مدیریت ریسک بسیار محبوب است
فرمول ها را می توان برای اقدامات ریسک نزولی مالی بدست آورد (ارزش در معرض خطر ،
کمبود پیش بینی شده) یا حق بیمه اتکایی و مقادیر مربوطه (ادعای بزرگ
فهرست ، دوره بازگشت).با این وجود ، در عمل ، توزیع ها (کاملاً) هستند
پارتو فقط در دمها ، در بالا (بسیار ممکن) آستانه بزرگ.بنابراین ، آن
می تواند جالب باشد که رفتار مرتبه دوم را در نظر بگیرید
تناسب بهتردر این مقاله ، ما ارائه می دهیم که چگونه می توان از یک مدل سخت پارتو به
توزیع از نوع پارتو.ما در مورد استنباط بحث می کنیم و فرمول های مشتق شده برای
اقدامات و شاخص های مختلف ، و در نهایت برنامه های بیمه را ارائه می دهد
ضررها و خطرات مالی. |
30,169 | This paper provides a simple, yet reliable, alternative to the (Bayesian)
estimation of large multivariate VARs with time variation in the conditional
mean equations and/or in the covariance structure. With our new methodology,
the original multivariate, n dimensional model is treated as a set of n
univariate estimation problems, and cross-dependence is handled through the use
of a copula. Thus, only univariate distribution functions are needed when
estimating the individual equations, which are often available in closed form,
and easy to handle with MCMC (or other techniques). Estimation is carried out
in parallel for the individual equations. Thereafter, the individual posteriors
are combined with the copula, so obtaining a joint posterior which can be
easily resampled. We illustrate our approach by applying it to a large
time-varying parameter VAR with 25 macroeconomic variables. | در این مقاله یک جایگزین ساده و در عین حال قابل اعتماد برای (بیزی) ارائه شده است
تخمین VAR های بزرگ چند متغیره با تغییر زمان در شرطی
معادلات متوسط و/یا در ساختار کواریانس.با روش جدید ما ،
مدل بعدی چند متغیره ، N بعدی به عنوان مجموعه ای از n درمان می شود
مشکلات تخمین تک متغیره ، و وابستگی متقابل از طریق استفاده انجام می شود
از یک کوپلابنابراین ، فقط توابع توزیع یک متغیره در صورت نیاز است
تخمین معادلات فردی ، که اغلب به صورت بسته در دسترس هستند ،
و با MCMC (یا تکنیک های دیگر) آسان است.تخمین انجام می شود
به موازات معادلات فردی.پس از آن ، خلفی های فردی
با کوپلا ترکیب می شوند ، بنابراین به دست آوردن خلفی مفصل که می تواند باشد
به راحتی مجدداً پر شده است.ما رویکرد خود را با استفاده از آن در یک بزرگ نشان می دهیم
پارامتر متغیر متغیر با 25 متغیر کلان اقتصادی. |
30,170 | We consider discrete default intensity based and logit type reduced form
models for conditional default probabilities for corporate loans where we
develop simple closed form approximations to the maximum likelihood estimator
(MLE) when the underlying covariates follow a stationary Gaussian process. In a
practically reasonable asymptotic regime where the default probabilities are
small, say 1-3% annually, the number of firms and the time period of data
available is reasonably large, we rigorously show that the proposed estimator
behaves similarly or slightly worse than the MLE when the underlying model is
correctly specified. For more realistic case of model misspecification, both
estimators are seen to be equally good, or equally bad. Further, beyond a
point, both are more-or-less insensitive to increase in data. These conclusions
are validated on empirical and simulated data. The proposed approximations
should also have applications outside finance, where logit-type models are used
and probabilities of interest are small. | ما فرم کاهش یافته مبتنی بر شدت پیش فرض گسسته را در نظر می گیریم
مدلهایی برای احتمالات پیش فرض مشروط برای وام های شرکتی که در آن هستیم
تقریب فرم بسته ساده را به حداکثر برآوردگر احتمال توسعه دهید
(MLE) هنگامی که متغیرهای اصلی یک روند ثابت گاوسی را دنبال می کنند.در یک
رژیم بدون علامت معقول که در آن احتمالات پیش فرض وجود دارد
کوچک ، مثلاً سالانه 1-3 ٪ ، تعداد بنگاه ها و مدت زمان داده ها
در دسترس از نظر منطقی بزرگ است ، ما به شدت نشان می دهیم که برآوردگر پیشنهادی
وقتی مدل زیرین است ، به طور مشابه یا کمی بدتر از MLE رفتار می کند
درست مشخص شده استبرای مورد واقع گرایانه تر از اشتباه مدل ، هر دو
به نظر می رسد که برآوردگرها به همان اندازه خوب یا به همان اندازه بد هستند.بیشتر ، فراتر از
نکته ، هر دو نسبت به افزایش داده ها نسبت به کم و بیش حساس نیستند.این نتیجه گیری ها
در داده های تجربی و شبیه سازی شده تأیید می شوند.تقریبی پیشنهادی
همچنین باید دارای برنامه های خارج از امور مالی باشد ، جایی که از مدل های نوع logit استفاده می شود
و احتمالات مورد علاقه اندک است. |
30,171 | The term natural experiment is used inconsistently. In one interpretation, it
refers to an experiment where a treatment is randomly assigned by someone other
than the researcher. In another interpretation, it refers to a study in which
there is no controlled random assignment, but treatment is assigned by some
external factor in a way that loosely resembles a randomized experiment---often
described as an "as if random" assignment. In yet another interpretation, it
refers to any non-randomized study that compares a treatment to a control
group, without any specific requirements on how the treatment is assigned. I
introduce an alternative definition that seeks to clarify the integral features
of natural experiments and at the same time distinguish them from randomized
controlled experiments. I define a natural experiment as a research study where
the treatment assignment mechanism (i) is neither designed nor implemented by
the researcher, (ii) is unknown to the researcher, and (iii) is probabilistic
by virtue of depending on an external factor. The main message of this
definition is that the difference between a randomized controlled experiment
and a natural experiment is not a matter of degree, but of essence, and thus
conceptualizing a natural experiment as a research design akin to a randomized
experiment is neither rigorous nor a useful guide to empirical analysis. Using
my alternative definition, I discuss how a natural experiment differs from a
traditional observational study, and offer practical recommendations for
researchers who wish to use natural experiments to study causal effects. | اصطلاح آزمایش طبیعی متناقض استفاده می شود.در یک تفسیر ، آن
به آزمایشی اشاره دارد که در آن یک درمان به طور تصادفی توسط شخص دیگری انجام می شود
از محققدر تفسیر دیگر ، به مطالعه ای اشاره دارد که در آن
هیچ تکلیف تصادفی کنترل شده وجود ندارد ، اما برخی از آنها توسط برخی اختصاص داده می شود
عامل خارجی به روشی که به راحتی شبیه یک آزمایش تصادفی باشد --- اغلب
به عنوان یک تکلیف "گویی تصادفی" توصیف شده است.در تفسیر دیگر ، آن
اشاره به هر مطالعه غیر تصادفی است که یک درمان را با یک کنترل مقایسه می کند
گروه ، بدون هیچ گونه الزام خاصی در مورد نحوه تعیین درمان.من
یک تعریف جایگزین را معرفی کنید که به دنبال روشن شدن ویژگی های انتگرال است
آزمایشات طبیعی و در عین حال آنها را از تصادفی متمایز می کند
آزمایش های کنترل شده.من یک آزمایش طبیعی را به عنوان یک مطالعه تحقیق تعریف می کنم که در آن
مکانیسم واگذاری درمان (I) نه توسط طراحی و نه پیاده سازی شده است
محقق ، (ii) برای محقق ناشناخته است ، و (iii) احتمالی است
با توجه به یک عامل خارجی.پیام اصلی این
تعریف این است که تفاوت بین یک آزمایش کنترل شده تصادفی
و یک آزمایش طبیعی موضوع درجه ای نیست ، بلکه جوهر است و بنابراین
مفهوم سازی یک آزمایش طبیعی به عنوان یک طرح تحقیق شبیه به یک تصادفی
آزمایش نه سختگیرانه است و نه یک راهنمای مفید برای تجزیه و تحلیل تجربی.استفاده كردن
تعریف جایگزین من ، من بحث می کنم که چگونه یک آزمایش طبیعی با یک متفاوت است
مطالعه مشاهده ای سنتی ، و توصیه های عملی را برای
محققانی که مایل به استفاده از آزمایشات طبیعی برای مطالعه اثرات علی هستند. |