id
int64 28.8k
36k
| text
stringlengths 44
3.03k
| translation
stringlengths 36
2.47k
|
---|---|---|
30,368 | A multivariate score-driven filter is developed to extract signals from noisy
vector processes. By assuming that the conditional location vector from a
multivariate Student's t distribution changes over time, we construct a robust
filter which is able to overcome several issues that naturally arise when
modeling heavy-tailed phenomena and, more in general, vectors of dependent
non-Gaussian time series. We derive conditions for stationarity and
invertibility and estimate the unknown parameters by maximum likelihood (ML).
Strong consistency and asymptotic normality of the estimator are proved and the
finite sample properties are illustrated by a Monte-Carlo study. From a
computational point of view, analytical formulae are derived, which consent to
develop estimation procedures based on the Fisher scoring method. The theory is
supported by a novel empirical illustration that shows how the model can be
effectively applied to estimate consumer prices from home scanner data. | یک فیلتر نمره چند متغیره محور برای استخراج سیگنال ها از پر سر و صدا تهیه شده است
فرآیندهای بردار.با فرض اینکه بردار محل مشروط از a
توزیع T دانش آموز چند متغیره با گذشت زمان تغییر می کند ، ما یک قوی می سازیم
فیلتر که قادر به غلبه بر چندین مسئله است که به طور طبیعی وقتی بوجود می آیند
مدل سازی پدیده های با دم سنگین و به طور کلی بردارهای وابسته
سریال های زمانی غیر Gaussian.ما شرایط را برای ثابت بودن به دست می آوریم و
قابلیت استفاده و تخمین پارامترهای ناشناخته با حداکثر احتمال (ML).
قوام قوی و نرمال بودن بدون علامت برآوردگر اثبات شده و
خواص نمونه محدود توسط یک مطالعه مونت کارلو نشان داده شده است.از
دیدگاه محاسباتی ، فرمولهای تحلیلی به دست می آیند ، که رضایت از آن
روشهای تخمین را بر اساس روش امتیاز دهی فیشر تهیه کنید.نظریه است
پشتیبانی شده توسط یک تصویر تجربی رمان که نشان می دهد مدل چگونه می تواند باشد
به طور مؤثر برای برآورد قیمت مصرف کننده از داده های اسکنر خانگی استفاده می شود. |
30,369 | Much of the recent success of Artificial Intelligence (AI) has been spurred
on by impressive achievements within a broader family of machine learning
methods, commonly referred to as Deep Learning (DL). This paper provides
insights on the diffusion and impact of DL in science. Through a Natural
Language Processing (NLP) approach on the arXiv.org publication corpus, we
delineate the emerging DL technology and identify a list of relevant search
terms. These search terms allow us to retrieve DL-related publications from Web
of Science across all sciences. Based on that sample, we document the DL
diffusion process in the scientific system. We find i) an exponential growth in
the adoption of DL as a research tool across all sciences and all over the
world, ii) regional differentiation in DL application domains, and iii) a
transition from interdisciplinary DL applications to disciplinary research
within application domains. In a second step, we investigate how the adoption
of DL methods affects scientific development. Therefore, we empirically assess
how DL adoption relates to re-combinatorial novelty and scientific impact in
the health sciences. We find that DL adoption is negatively correlated with
re-combinatorial novelty, but positively correlated with expectation as well as
variance of citation performance. Our findings suggest that DL does not (yet?)
work as an autopilot to navigate complex knowledge landscapes and overthrow
their structure. However, the 'DL principle' qualifies for its versatility as
the nucleus of a general scientific method that advances science in a
measurable way. | بخش اعظم موفقیت اخیر هوش مصنوعی (AI) تحریک شده است
با دستاوردهای چشمگیر در خانواده وسیع تری از یادگیری ماشین
روشها ، معمولاً به عنوان یادگیری عمیق (DL) گفته می شود.این مقاله ارائه می دهد
بینش در مورد انتشار و تأثیر DL در علم.از طریق یک طبیعی
رویکرد پردازش زبان (NLP) در Corpus انتشارات Arxiv.org ، ما
فناوری DL در حال ظهور را ترسیم کرده و لیستی از جستجوی مربوطه را مشخص کنید
مقررات.این اصطلاحات جستجو به ما امکان می دهد انتشارات مربوط به DL را از وب بازیابی کنیم
علم در تمام علوم.بر اساس آن نمونه ، DL را مستند می کنیم
فرآیند انتشار در سیستم علمی.ما می یابیم) رشد نمایی در
اتخاذ DL به عنوان یک ابزار تحقیقاتی در همه علوم و در سراسر
جهان ، ب) تمایز منطقه ای در حوزه های کاربردی DL ، و iii) a
انتقال از برنامه های DL بین رشته ای به تحقیقات انضباطی
در حوزه های برنامه.در مرحله دوم ، ما بررسی می کنیم که چگونه فرزندخواندگی
روشهای DL بر توسعه علمی تأثیر می گذارد.بنابراین ، ما به صورت تجربی ارزیابی می کنیم
نحوه پذیرش DL با تازگی مجدد و تأثیر علمی در
علوم بهداشتی.ما می دانیم که پذیرش DL با همبستگی منفی است
تازگی مجدد ، اما با انتظار و همچنین همبستگی مثبت دارد
واریانس عملکرد استناد.یافته های ما نشان می دهد که DL هنوز هم ندارد
به عنوان یک اتوپیلوت برای حرکت در مناظر پیچیده دانش و سرنگونی کار کنید
ساختار آنهابا این حال ، "اصل DL" برای تطبیق پذیری خود واجد شرایط است
هسته یک روش علمی عمومی که در یک علم پیشرفت می کند
روش قابل اندازه گیری |
30,372 | This paper proposes a doubly robust two-stage semiparametric
difference-in-difference estimator for estimating heterogeneous treatment
effects with high-dimensional data. Our new estimator is robust to model
miss-specifications and allows for, but does not require, many more regressors
than observations. The first stage allows a general set of machine learning
methods to be used to estimate the propensity score. In the second stage, we
derive the rates of convergence for both the parametric parameter and the
unknown function under a partially linear specification for the outcome
equation. We also provide bias correction procedures to allow for valid
inference for the heterogeneous treatment effects. We evaluate the finite
sample performance with extensive simulation studies. Additionally, a real data
analysis on the effect of Fair Minimum Wage Act on the unemployment rate is
performed as an illustration of our method. An R package for implementing the
proposed method is available on Github. | در این مقاله یک نیمه قطبی دو مرحله ای دو برابر قوی پیشنهاد شده است
برآوردگر اختلاف در اختلاف برای برآورد درمان ناهمگن
اثرات با داده های با ابعاد بالا.برآوردگر جدید ما برای مدل سازی قوی است
مشخصات را از دست می دهد و اجازه می دهد ، اما نیازی به آن نیست ، بسیاری از رگرسیون های دیگر
از مشاهداتمرحله اول به مجموعه کلی از یادگیری ماشین اجازه می دهد
روشهای مورد استفاده برای برآورد نمره گرایش.در مرحله دوم ، ما
نرخ همگرایی را برای هر دو پارامتر پارامتری و
عملکرد ناشناخته تحت یک مشخصات جزئی خطی برای نتیجه
معادلهما همچنین روشهای تصحیح تعصب را ارائه می دهیم تا معتبر باشد
استنتاج برای اثرات درمانی ناهمگن.ما محدود را ارزیابی می کنیم
عملکرد نمونه با مطالعات شبیه سازی گسترده.علاوه بر این ، یک داده واقعی
تجزیه و تحلیل در مورد تأثیر حداقل دستمزد منصفانه بر نرخ بیکاری است
به عنوان نمونه ای از روش ما انجام شده است.بسته R برای اجرای
روش پیشنهادی در GitHub موجود است. |
30,373 | Accuracy of crop price forecasting techniques is important because it enables
the supply chain planners and government bodies to take appropriate actions by
estimating market factors such as demand and supply. In emerging economies such
as India, the crop prices at marketplaces are manually entered every day, which
can be prone to human-induced errors like the entry of incorrect data or entry
of no data for many days. In addition to such human prone errors, the
fluctuations in the prices itself make the creation of stable and robust
forecasting solution a challenging task. Considering such complexities in crop
price forecasting, in this paper, we present techniques to build robust crop
price prediction models considering various features such as (i) historical
price and market arrival quantity of crops, (ii) historical weather data that
influence crop production and transportation, (iii) data quality-related
features obtained by performing statistical analysis. We additionally propose a
framework for context-based model selection and retraining considering factors
such as model stability, data quality metrics, and trend analysis of crop
prices. To show the efficacy of the proposed approach, we show experimental
results on two crops - Tomato and Maize for 14 marketplaces in India and
demonstrate that the proposed approach not only improves accuracy metrics
significantly when compared against the standard forecasting techniques but
also provides robust models. | صحت تکنیک های پیش بینی قیمت محصولات مهم است زیرا امکان پذیر است
برنامه ریزان زنجیره تأمین و نهادهای دولتی برای انجام اقدامات مناسب توسط
تخمین عوامل بازار مانند تقاضا و عرضه.در اقتصادهای نوظهور چنین
به عنوان هند ، قیمت محصولات زراعی در بازارها هر روز به صورت دستی وارد می شود ، که
می تواند مستعد خطاهای ناشی از انسان مانند ورود داده های نادرست یا ورود باشد
هیچ داده ای برای روزهای زیادی وجود ندارد.علاوه بر چنین خطاهای مستعد انسانی ،
نوسانات در قیمت ها باعث ایجاد پایدار و قوی می شود
پیش بینی راه حل یک کار چالش برانگیز.با توجه به چنین پیچیدگی هایی در محصول
پیش بینی قیمت ، در این مقاله ، ما تکنیک هایی برای ساخت محصول قوی ارائه می دهیم
مدل های پیش بینی قیمت با توجه به ویژگی های مختلف مانند (i) تاریخی
قیمت و مقدار ورود به بازار محصولات زراعی ، (ب) داده های آب و هوایی تاریخی که
تأثیر تولید و حمل و نقل محصول ، (iii) مربوط به کیفیت داده ها
ویژگی های به دست آمده با انجام تجزیه و تحلیل آماری.ما علاوه بر این پیشنهاد می کنیم
چارچوبی برای انتخاب مدل مبتنی بر زمینه و بازآموزی با توجه به عوامل
مانند ثبات مدل ، معیارهای کیفیت داده و تجزیه و تحلیل روند محصول
قیمت.برای نشان دادن اثربخشی رویکرد پیشنهادی ، ما تجربی را نشان می دهیم
نتایج دو محصول - گوجه فرنگی و ذرت برای 14 بازار در هند و
نشان می دهد که رویکرد پیشنهادی نه تنها معیارهای دقت را بهبود می بخشد
به طور قابل توجهی در مقایسه با تکنیک های پیش بینی استاندارد اما
همچنین مدل های قوی را ارائه می دهد. |
30,374 | Outliers in discrete choice response data may result from misclassification
and misreporting of the response variable and from choice behaviour that is
inconsistent with modelling assumptions (e.g. random utility maximisation). In
the presence of outliers, standard discrete choice models produce biased
estimates and suffer from compromised predictive accuracy. Robust statistical
models are less sensitive to outliers than standard non-robust models. This
paper analyses two robust alternatives to the multinomial probit (MNP) model.
The two models are robit models whose kernel error distributions are
heavy-tailed t-distributions to moderate the influence of outliers. The first
model is the multinomial robit (MNR) model, in which a generic degrees of
freedom parameter controls the heavy-tailedness of the kernel error
distribution. The second model, the generalised multinomial robit (Gen-MNR)
model, is more flexible than MNR, as it allows for distinct heavy-tailedness in
each dimension of the kernel error distribution. For both models, we derive
Gibbs samplers for posterior inference. In a simulation study, we illustrate
the excellent finite sample properties of the proposed Bayes estimators and
show that MNR and Gen-MNR produce more accurate estimates if the choice data
contain outliers through the lens of the non-robust MNP model. In a case study
on transport mode choice behaviour, MNR and Gen-MNR outperform MNP by
substantial margins in terms of in-sample fit and out-of-sample predictive
accuracy. The case study also highlights differences in elasticity estimates
across models. | Outliers در داده های پاسخ انتخاب گسسته ممکن است ناشی از طبقه بندی نادرست باشد
و گزارش نادرست متغیر پاسخ و از رفتار انتخابی که هست
متناقض با فرضیات مدل سازی (به عنوان مثال حداکثر رساندن ابزار تصادفی).که در
وجود مدلهای انتخابی گسسته استاندارد ، مغرضانه تولید می کند
تخمین ها و از دقت پیش بینی به خطر افتاده رنج می برند.استحکام آماری
مدل ها نسبت به مدلهای استاندارد غیر راوب نسبت به Outliers حساسیت کمتری دارند.این
مقاله دو گزینه جایگزین قوی برای مدل پروبیت چند علی (MNP) را تجزیه و تحلیل می کند.
این دو مدل مدل های Robit هستند که توزیع خطای هسته آنها است
توزیع های Tailed Tailed برای تعدیل تأثیر Outliers.اولین
مدل مدل Robit Multinomial (MNR) است ، که در آن درجه های عمومی از
پارامتر آزادی دمای سنگین خطای هسته را کنترل می کند
توزیعمدل دوم ، Robit Multinomial عمومی (Gen-MNR)
مدل ، انعطاف پذیرتر از MNR است ، زیرا این امکان را فراهم می کند
هر بعد توزیع خطای هسته.برای هر دو مدل ، ما مشتق می شویم
نمونه های گیبس برای استنباط خلفی.در یک مطالعه شبیه سازی ، ما نشان می دهیم
خصوصیات نمونه محدود نمونه از برآوردگرهای پیشنهادی بیز و
نشان می دهد که اگر داده های انتخابی تخمین های دقیق تری داشته باشند ، MNR و Gen-MNR تخمین های دقیق تری تولید می کنند
حاوی دور از طریق لنزهای مدل MNP غیر Robust است.در یک مطالعه موردی
در رفتار انتخاب حالت حمل و نقل ، MNR و Gen-MNR از MNP بهتر از
حاشیه های اساسی از نظر تناسب درون نمونه و پیش بینی خارج از نمونه
دقت.مطالعه موردی همچنین تفاوت در برآوردهای خاصیت ارتجاعی را برجسته می کند
در سراسر مدل ها. |
30,375 | This paper derives identification, estimation, and inference results using
spatial differencing in sample selection models with unobserved heterogeneity.
We show that under the assumption of smooth changes across space of the
unobserved sub-location specific heterogeneities and inverse Mills ratio, key
parameters of a sample selection model are identified. The smoothness of the
sub-location specific heterogeneities implies a correlation in the outcomes. We
assume that the correlation is restricted within a location or cluster and
derive asymptotic results showing that as the number of independent clusters
increases, the estimators are consistent and asymptotically normal. We also
propose a formula for standard error estimation. A Monte-Carlo experiment
illustrates the small sample properties of our estimator. The application of
our procedure to estimate the determinants of the municipality tax rate in
Finland shows the importance of accounting for unobserved heterogeneity. | این مقاله با استفاده از شناسایی ، تخمین و استنباط حاصل می شود
تفاوت مکانی در مدل های انتخاب نمونه با ناهمگونی بدون نظارت.
ما نشان می دهیم که تحت فرض تغییرات صاف در فضای موجود
ناهمگونی های خاص زیر مکان و نسبت آسیاب معکوس ، کلیدی
پارامترهای یک مدل انتخاب نمونه مشخص می شوند.صافی
ناهمگونی های خاص در زیر محل به معنای همبستگی در نتایج است.ما
فرض کنید که این همبستگی در یک مکان یا خوشه محدود شده است و
نتایج بدون علامت را نشان می دهد که نشان می دهد تعداد خوشه های مستقل
افزایش ، برآوردگرها سازگار و بدون علامت طبیعی هستند.ما همچنین
برای برآورد خطای استاندارد فرمول پیشنهاد دهید.یک آزمایش مونت کارلو
خصوصیات نمونه کوچک برآوردگر ما را نشان می دهد.کاربرد
روش ما برای تخمین عوامل تعیین کننده نرخ مالیات شهرداری در
فنلاند اهمیت حسابداری را برای ناهمگونی بدون نظارت نشان می دهد. |
30,376 | We present a new identification condition for regression discontinuity
designs. We replace the local randomization of Lee (2008) with two restrictions
on its threat, namely, the manipulation of the running variable. Furthermore,
we provide the first auxiliary assumption of McCrary's (2008) diagnostic test
to detect manipulation. Based on our auxiliary assumption, we derive a novel
expression of moments that immediately implies the worst-case bounds of Gerard,
Rokkanen, and Rothe (2020) and an enhanced interpretation of their target
parameters. We highlight two issues: an overlooked source of identification
failure, and a missing auxiliary assumption to detect manipulation. In the case
studies, we illustrate our solution to these issues using institutional details
and economic theories. | ما یک شرط شناسایی جدید برای ناپیوستگی رگرسیون ارائه می دهیم
طرح ها.ما تصادفی محلی لی (2008) را با دو محدودیت جایگزین می کنیم
در مورد تهدید آن ، یعنی دستکاری متغیر در حال اجرا.علاوه بر این،
ما اولین فرض کمکی آزمایش تشخیصی مک کراری (2008) را ارائه می دهیم
برای تشخیص دستکاری.بر اساس فرض کمکی ما ، ما یک رمان را استخراج می کنیم
بیان لحظاتی که بلافاصله حاکی از بدترین محدوده های جرارد است ،
Rokkanen ، و Rothe (2020) و تفسیر پیشرفته ای از هدف آنها
مولفه های.ما دو موضوع را برجسته می کنیم: یک منبع شناسایی نادیده گرفته شده
عدم موفقیت و فرض کمکی مفقود شده برای تشخیص دستکاری.در مورد
مطالعات ، ما با استفاده از جزئیات نهادی ، راه حل خود را برای این موضوعات نشان می دهیم
و نظریه های اقتصادی |
30,598 | We conduct an incentivized experiment on a nationally representative US
sample \\ (N=708) to test whether people prefer to avoid ambiguity even when it
means choosing dominated options. In contrast to the literature, we find that
55\% of subjects prefer a risky act to an ambiguous act that always provides a
larger probability of winning. Our experimental design shows that such a
preference is not mainly due to a lack of understanding. We conclude that
subjects avoid ambiguity \textit{per se} rather than avoiding ambiguity because
it may yield a worse outcome. Such behavior cannot be reconciled with existing
models of ambiguity aversion in a straightforward manner. | ما یک آزمایش تحریک آمیز را برای یک نماینده ملی انجام می دهیم
نمونه \\ (n = 708) برای آزمایش اینکه آیا مردم ترجیح می دهند از ابهام جلوگیری کنند حتی در صورت
به معنای انتخاب گزینه های تحت تسلط است.برخلاف ادبیات ، ما آن را می یابیم
55 \ ٪ از افراد یک عمل خطرناک را به یک عمل مبهم ترجیح می دهند که همیشه یک
احتمال بزرگتر پیروزی.طرح آزمایشی ما نشان می دهد که چنین
اولویت عمدتاً به دلیل عدم درک نیست.نتیجه می گیریم که
افراد به جای اجتناب از ابهام ، از ابهام \ textit {به خودی خود جلوگیری می کنند زیرا
ممکن است نتیجه بدتری داشته باشد.چنین رفتاری را نمی توان با موجود آشتی داد
مدل های دوری از ابهام به روشی ساده. |
30,377 | Proper scoring rules are used to assess the out-of-sample accuracy of
probabilistic forecasts, with different scoring rules rewarding distinct
aspects of forecast performance. Herein, we re-investigate the practice of
using proper scoring rules to produce probabilistic forecasts that are
`optimal' according to a given score, and assess when their out-of-sample
accuracy is superior to alternative forecasts, according to that score.
Particular attention is paid to relative predictive performance under
misspecification of the predictive model. Using numerical illustrations, we
document several novel findings within this paradigm that highlight the
important interplay between the true data generating process, the assumed
predictive model and the scoring rule. Notably, we show that only when a
predictive model is sufficiently compatible with the true process to allow a
particular score criterion to reward what it is designed to reward, will this
approach to forecasting reap benefits. Subject to this compatibility however,
the superiority of the optimal forecast will be greater, the greater is the
degree of misspecification. We explore these issues under a range of different
scenarios, and using both artificially simulated and empirical data. | از قوانین امتیاز دهی مناسب برای ارزیابی دقت خارج از نمونه استفاده می شود
پیش بینی های احتمالی ، با قوانین امتیاز دهی متفاوت پاداش متمایز
جنبه های عملکرد پیش بینی.در اینجا ، ما دوباره عمل می کنیم
با استفاده از قوانین امتیاز دهی مناسب برای تولید پیش بینی های احتمالی که هستند
"بهینه" با توجه به یک نمره معین ، و ارزیابی زمان خارج از نمونه آنها
مطابق با این امتیاز ، دقت نسبت به پیش بینی های جایگزین برتر است.
توجه ویژه به عملکرد پیش بینی نسبی در زیر
غلط گیری مدل پیش بینی.با استفاده از تصاویر عددی ، ما
چندین یافته جدید را در این الگوی مستند کنید که برجسته است
تعامل مهم بین فرآیند تولید داده های واقعی ، فرض شده
مدل پیش بینی کننده و قانون امتیاز دهی.نکته قابل توجه ، ما نشان می دهیم که فقط وقتی a
مدل پیش بینی به اندازه کافی با فرآیند واقعی سازگار است تا به
معیار نمره خاص برای پاداش آنچه که برای پاداش طراحی شده است ، آیا این
رویکرد برای پیش بینی مزایای درو.با این حال با این سازگاری ،
برتری پیش بینی بهینه بیشتر خواهد بود ، بیشتر است
درجه شناسایی اشتباه.ما این مسائل را تحت طیف وسیعی از موارد مختلف کشف می کنیم
سناریوها ، و با استفاده از داده های شبیه سازی شده و تجربی. |
30,378 | This paper makes a selective survey on the recent development of the factor
model and its application on statistical learnings. We focus on the perspective
of the low-rank structure of factor models, and particularly draws attentions
to estimating the model from the low-rank recovery point of view. The survey
mainly consists of three parts: the first part is a review on new factor
estimations based on modern techniques on recovering low-rank structures of
high-dimensional models. The second part discusses statistical inferences of
several factor-augmented models and applications in econometric learning
models. The final part summarizes new developments dealing with unbalanced
panels from the matrix completion perspective. | در این مقاله یک بررسی انتخابی در مورد توسعه اخیر فاکتور انجام شده است
مدل و کاربرد آن در یادگیری آماری.ما روی چشم انداز تمرکز می کنیم
از ساختار درجه پایین مدل های فاکتور ، و به ویژه توجه را جلب می کند
برای برآورد مدل از دیدگاه بازیابی درجه پایین.بررسی
عمدتا از سه بخش تشکیل شده است: بخش اول بررسی فاکتور جدید است
برآوردهای مبتنی بر تکنیک های مدرن در مورد بازیابی ساختارهای کم رتبه از
مدل های با ابعاد بالا.بخش دوم در مورد استنتاج های آماری درباره بحث می کند
چندین مدل و برنامه های کاربردی با همبستگی در یادگیری اقتصاد سنجی
مدل ها.بخش آخر خلاصه تحولات جدید است که با نامتوازن سروکار دارد
پانل ها از منظر تکمیل ماتریس. |
30,379 | We study a semi-/nonparametric regression model with a general form of
nonclassical measurement error in the outcome variable. We show equivalence of
this model to a generalized regression model. Our main identifying assumptions
are a special regressor type restriction and monotonicity in the nonlinear
relationship between the observed and unobserved true outcome. Nonparametric
identification is then obtained under a normalization of the unknown link
function, which is a natural extension of the classical measurement error case.
We propose a novel sieve rank estimator for the regression function and
establish its rate of convergence.
In Monte Carlo simulations, we find that our estimator corrects for biases
induced by nonclassical measurement error and provides numerically stable
results. We apply our method to analyze belief formation of stock market
expectations with survey data from the German Socio-Economic Panel (SOEP) and
find evidence for nonclassical measurement error in subjective belief data. | ما یک مدل رگرسیون نیمه/غیر پارامتری را با یک شکل کلی مطالعه می کنیم
خطای اندازه گیری غیر کلاسیک در متغیر نتیجه.ما هم ارزی را نشان می دهیم
این مدل به یک مدل رگرسیون عمومی.فرضیات اصلی شناسایی ما
محدودیت و یکنواختی از نوع رگرسور در غیرخطی است
رابطه بین نتیجه واقعی مشاهده شده و بدون نظارت.غیر پارامتری
سپس شناسایی تحت عادی سازی لینک ناشناخته به دست می آید
عملکرد ، که یک گسترش طبیعی مورد خطای اندازه گیری کلاسیک است.
ما یک برآوردگر رتبه Sieve جدید را برای عملکرد رگرسیون پیشنهاد می کنیم و
میزان همگرایی خود را تعیین کنید.
در شبیه سازی های مونت کارلو ، می فهمیم که برآوردگر ما تعصب را تصحیح می کند
ناشی از خطای اندازه گیری غیر کلاسیک و از نظر عددی پایدار است
نتایج.ما از روش خود برای تجزیه و تحلیل شکل گیری اعتقاد به بازار سهام استفاده می کنیم
انتظارات با داده های نظرسنجی از پانل اقتصادی و اجتماعی آلمان (SOEP) و
شواهدی برای خطای اندازه گیری غیر کلاسیک در داده های اعتقاد ذهنی پیدا کنید. |
30,380 | Multivariate dynamic time series models are widely encountered in practical
studies, e.g., modelling policy transmission mechanism and measuring
connectedness between economic agents. To better capture the dynamics, this
paper proposes a wide class of multivariate dynamic models with time-varying
coefficients, which have a general time-varying vector moving average (VMA)
representation, and nest, for instance, time-varying vector autoregression
(VAR), time-varying vector autoregression moving-average (VARMA), and so forth
as special cases. The paper then develops a unified estimation method for the
unknown quantities before an asymptotic theory for the proposed estimators is
established. In the empirical study, we investigate the transmission mechanism
of monetary policy using U.S. data, and uncover a fall in the volatilities of
exogenous shocks. In addition, we find that (i) monetary policy shocks have
less influence on inflation before and during the so-called Great Moderation,
(ii) inflation is more anchored recently, and (iii) the long-run level of
inflation is below, but quite close to the Federal Reserve's target of two
percent after the beginning of the Great Moderation period. | مدل های سری زمانی پویا چند متغیره به طور گسترده ای در عملی روبرو می شوند
مطالعات ، به عنوان مثال ، مکانیسم انتقال سیاست مدل سازی و اندازه گیری
ارتباط بین عوامل اقتصادی.برای گرفتن بهتر پویایی ، این
مقاله کلاس گسترده ای از مدلهای پویا چند متغیره را با متغیر زمان ارائه می دهد
ضرایب ، که دارای یک وکتور متغیر کلی در حال حرکت هستند (VMA)
نمایندگی و لانه ، به عنوان مثال ، اتمام وکتور متغیر زمان
.
به عنوان موارد خاصمقاله سپس یک روش تخمین متحد را برای
مقادیر ناشناخته قبل از یک نظریه بدون علامت برای برآوردگرهای پیشنهادی است
ایجاد.در مطالعه تجربی ، مکانیسم انتقال را بررسی می کنیم
از سیاست های پولی با استفاده از داده های ایالات متحده ، و از سقوط در نوسانات
شوک های اگزوژن.علاوه بر این ، ما می دانیم که (i) شوک های سیاست پولی
تأثیر کمتری بر تورم قبل و در طول به اصطلاح اعتدال بزرگ ،
(ب) تورم اخیراً لنگر انداخته شده است ، و (iii) سطح بلند مدت
تورم در زیر است ، اما کاملاً نزدیک به هدف فدرال رزرو دو نفر است
درصد پس از شروع دوره اعتدال بزرگ. |
30,381 | We propose a recursive logit model which captures the notion of choice
aversion by imposing a penalty term that accounts for the dimension of the
choice set at each node of the transportation network. We make three
contributions. First, we show that our model overcomes the correlation problem
between routes, a common pitfall of traditional logit models, and that the
choice aversion model can be seen as an alternative to these models. Second, we
show how our model can generate violations of regularity in the path choice
probabilities. In particular, we show that removing edges in the network may
decrease the probability for existing paths. Finally, we show that under the
presence of choice aversion, adding edges to the network can make users worse
off. In other words, a type of Braess's paradox can emerge outside of
congestion and can be characterized in terms of a parameter that measures
users' degree of choice aversion. We validate these contributions by estimating
this parameter over GPS traffic data captured on a real-world transportation
network. | ما یک مدل ورود بازگشتی را پیشنهاد می کنیم که مفهوم انتخاب را ضبط می کند
گریزی با تحمیل یک مجازات مجازات که ابعاد آن را تشکیل می دهد
انتخاب در هر گره از شبکه حمل و نقل.ما سه می سازیم
مشارکتهااول ، ما نشان می دهیم که مدل ما بر مشکل همبستگی غلبه می کند
بین مسیرها ، یک خطای مشترک از مدل های ورود به سیستم سنتی ، و آن
مدل انتخاب انتخاب می تواند به عنوان جایگزینی برای این مدل ها تلقی شود.دوم ، ما
نشان می دهد که چگونه مدل ما می تواند در انتخاب مسیر تخلفات منظم را ایجاد کند
احتمالاتبه طور خاص ، ما نشان می دهیم که حذف لبه ها در شبکه ممکن است
احتمال مسیرهای موجود را کاهش دهید.سرانجام ، ما آن را در زیر نشان می دهیم
وجود گریزی انتخاب ، اضافه کردن لبه ها به شبکه می تواند کاربران را بدتر کند
خاموشبه عبارت دیگر ، یک نوع پارادوکس برس می تواند در خارج از کشور ظاهر شود
احتقان و از نظر پارامتری که اندازه گیری می شود قابل توصیف است
میزان انتخاب کاربران.ما با برآورد این کمک ها را تأیید می کنیم
این پارامتر بر روی داده های ترافیکی GPS که در حمل و نقل در دنیای واقعی ضبط شده است
شبکه. |
30,382 | I introduce a generic method for inference about a scalar parameter in
research designs with a finite number of heterogeneous clusters where only a
single cluster received treatment. This situation is commonplace in
difference-in-differences estimation but the test developed here applies more
generally. I show that the test controls size and has power under asymptotics
where the number of observations within each cluster is large but the number of
clusters is fixed. The test combines weighted, approximately Gaussian parameter
estimates with a rearrangement procedure to obtain its critical values. The
weights needed for most empirically relevant situations are tabulated in the
paper. Calculation of the critical values is computationally simple and does
not require simulation or resampling. The rearrangement test is highly robust
to situations where some clusters are much more variable than others. Examples
and an empirical application are provided. | من یک روش عمومی برای استنباط در مورد یک پارامتر مقیاس در
طرح های تحقیقاتی با تعداد محدودی از خوشه های ناهمگن که فقط a
خوشه منفرد درمان دریافت کرد.این وضعیت در
برآورد اختلاف در اختلافات اما آزمون توسعه یافته در اینجا بیشتر اعمال می شود
بطور کلی.من نشان می دهم که تست اندازه را کنترل می کند و تحت مجانب قدرت دارد
جایی که تعداد مشاهدات موجود در هر خوشه بزرگ است اما تعداد آنها
خوشه ها ثابت هستند.این تست پارامتر وزنی تقریباً گاوسی را با هم ترکیب می کند
تخمین ها با یک روش تنظیم مجدد برای به دست آوردن مقادیر مهم آن.در
وزن مورد نیاز برای اکثر شرایط تجربی در این جدول بندی شده است
کاغذ.محاسبه مقادیر بحرانی از نظر محاسباتی ساده است و انجام می دهد
نیازی به شبیه سازی یا استفاده مجدد نیست.تست تنظیم مجدد بسیار قوی است
در شرایطی که برخی از خوشه ها بسیار متغیر تر از سایرین هستند.مثال ها
و یک برنامه تجربی ارائه شده است. |
30,383 | This paper assesses when the validity of difference-in-differences depends on
functional form. We provide a novel characterization: the parallel trends
assumption holds under all strictly monotonic transformations of the outcome if
and only if a stronger ``parallel trends''-type condition holds for the
cumulative distribution function of untreated potential outcomes. This
condition for parallel trends to be insensitive to functional form is satisfied
if and essentially only if the population can be partitioned into a subgroup
for which treatment is effectively randomly assigned and a remaining subgroup
for which the distribution of untreated potential outcomes is stable over time.
These conditions have testable implications, and we introduce falsification
tests for the null that parallel trends is insensitive to functional form. | در این مقاله ارزیابی می شود که اعتبار تفاوت در اختلافات بستگی به آن دارد
فرم عملکردیما یک شخصیت جدید ارائه می دهیم: روندهای موازی
فرض در مورد همه تحولات کاملاً یکنواختی نتیجه وجود دارد
و فقط اگر یک "روندهای موازی" قوی تر باشد-شرایط نوع برای
عملکرد توزیع تجمعی نتایج بالقوه درمان نشده.این
شرط اینکه روند موازی نسبت به فرم عملکردی بی حس شود رضایت دارد
اگر و اساساً فقط در صورتی که جمعیت بتوانند در زیر گروه تقسیم شوند
که برای آن درمان به طور تصادفی اختصاص داده می شود و یک زیر گروه باقیمانده است
که برای آن توزیع نتایج بالقوه درمان نشده با گذشت زمان پایدار است.
این شرایط پیامدهای قابل آزمایش دارد و ما جعل را معرفی می کنیم
تست هایی برای تهی مبنی بر اینکه روند موازی نسبت به فرم عملکردی غیر حساس است. |
30,384 | Randomized controlled trials generate experimental variation that can
credibly identify causal effects, but often suffer from limited scale, while
observational datasets are large, but often violate desired identification
assumptions. To improve estimation efficiency, I propose a method that
leverages imperfect instruments - pretreatment covariates that satisfy the
relevance condition but may violate the exclusion restriction. I show that
these imperfect instruments can be used to derive moment restrictions that, in
combination with the experimental data, improve estimation efficiency. I
outline estimators for implementing this strategy, and show that my methods can
reduce variance by up to 50%; therefore, only half of the experimental sample
is required to attain the same statistical precision. I apply my method to a
search listing dataset from Expedia that studies the causal effect of search
rankings on clicks, and show that the method can substantially improve the
precision. | کارآزمایی های کنترل شده تصادفی تنوع تجربی ایجاد می کنند که می تواند
اثرات علی را به طور قابل توجهی شناسایی کنید ، اما اغلب از مقیاس محدود رنج می برند ، در حالی که
مجموعه داده های مشاهده ای بزرگ هستند ، اما اغلب شناسایی مورد نظر را نقض می کنند
فرضیاتبرای بهبود راندمان تخمین ، من روشی را پیشنهاد می کنم که
ابزارهای ناقص را اعمال می کند - متغیرهای پیش درمانی که برآورده می شوند
شرایط ارتباط اما ممکن است محدودیت محرومیت را نقض کند.من نشان می دهم که
از این ابزارهای ناقص می توان برای به دست آوردن محدودیت های لحظه ای استفاده کرد که در آن
ترکیب با داده های تجربی ، بازده تخمین را بهبود می بخشد.من
برآوردگرهای طرح بندی برای اجرای این استراتژی ، و نشان می دهد که روش های من می توانند
واریانس را تا 50 ٪ کاهش دهید.بنابراین ، فقط نیمی از نمونه آزمایشی
برای دستیابی به همان دقت آماری لازم است.من روش خود را در a اعمال می کنم
مجموعه داده های لیست جستجو از Expedia که تأثیر علی جستجو را بررسی می کند
رتبه بندی روی کلیک ، و نشان می دهد که این روش به طور قابل توجهی می تواند بهبود یابد
دقت، درستی. |
30,385 | This note discusses two recent studies on identification of individualized
treatment rules using instrumental variables---Cui and Tchetgen Tchetgen (2020)
and Qiu et al. (2020). It also proposes identifying assumptions that are
alternative to what is used in both studies. | این یادداشت دو مطالعه اخیر در مورد شناسایی فردی را مورد بحث قرار می دهد
قوانین درمانی با استفاده از متغیرهای ابزاری --- Cui و Tchetgen Tchetgen (2020)
و Qiu و همکاران.(2020).همچنین پیشنهادات شناسایی را پیشنهاد می کند
جایگزین برای آنچه در هر دو مطالعه استفاده می شود. |
30,386 | Researchers often treat data-driven and theory-driven models as two disparate
or even conflicting methods in travel behavior analysis. However, the two
methods are highly complementary because data-driven methods are more
predictive but less interpretable and robust, while theory-driven methods are
more interpretable and robust but less predictive. Using their complementary
nature, this study designs a theory-based residual neural network (TB-ResNet)
framework, which synergizes discrete choice models (DCMs) and deep neural
networks (DNNs) based on their shared utility interpretation. The TB-ResNet
framework is simple, as it uses a ($\delta$, 1-$\delta$) weighting to take
advantage of DCMs' simplicity and DNNs' richness, and to prevent underfitting
from the DCMs and overfitting from the DNNs. This framework is also flexible:
three instances of TB-ResNets are designed based on multinomial logit model
(MNL-ResNets), prospect theory (PT-ResNets), and hyperbolic discounting
(HD-ResNets), which are tested on three data sets. Compared to pure DCMs, the
TB-ResNets provide greater prediction accuracy and reveal a richer set of
behavioral mechanisms owing to the utility function augmented by the DNN
component in the TB-ResNets. Compared to pure DNNs, the TB-ResNets can modestly
improve prediction and significantly improve interpretation and robustness,
because the DCM component in the TB-ResNets stabilizes the utility functions
and input gradients. Overall, this study demonstrates that it is both feasible
and desirable to synergize DCMs and DNNs by combining their utility
specifications under a TB-ResNet framework. Although some limitations remain,
this TB-ResNet framework is an important first step to create mutual benefits
between DCMs and DNNs for travel behavior modeling, with joint improvement in
prediction, interpretation, and robustness. | محققان غالباً مدلهای داده محور و تئوری محور را به عنوان دو متفاوت درمان می کنند
یا حتی روشهای متناقض در تجزیه و تحلیل رفتار سفر.با این حال ، این دو
روشها بسیار مکمل هستند زیرا روشهای داده محور بیشتر هستند
پیش بینی کننده اما کمتر قابل تفسیر و قوی است ، در حالی که روش های تئوری محور هستند
قابل تفسیر و قوی تر اما پیش بینی کمتر.با استفاده از مکمل آنها
طبیعت ، این مطالعه یک شبکه عصبی باقیمانده مبتنی بر تئوری (TB-RESNET) را طراحی می کند
چارچوب ، که مدل های انتخاب گسسته (DCM) و عصبی عمیق را هم افزایی می کند
شبکه ها (DNNS) بر اساس تفسیر ابزار مشترک خود.RESNET TB
چارچوب ساده است ، زیرا از وزن ($ \ delta $ ، 1-$ \ delta $) استفاده می کند تا مصرف کند
مزیت سادگی DCMS و غنای DNNS ، و برای جلوگیری از کمبود
از DCM ها و بیش از حد از DNN ها.این چارچوب نیز انعطاف پذیر است:
سه نمونه از Resnets بر اساس مدل ورود به سیستم چند منظوره طراحی شده است
(RESNETS MNL) ، نظریه چشم انداز (PT-RESNETS) و تخفیف بیش از حد
(Resnets HD) ، که در سه مجموعه داده آزمایش می شوند.در مقایسه با DCM های خالص ،
Resnets Tb دقت پیش بینی بیشتری را ارائه می دهد و مجموعه ای غنی تر از آن را نشان می دهد
مکانیسم های رفتاری به دلیل عملکرد ابزار تقویت شده توسط DNN
مؤلفه در Resnets سل.در مقایسه با DNN های خالص ، Resnets Tb می توانند به طور متوسط
پیش بینی را بهبود بخشید و تفسیر و استحکام را به طور قابل توجهی بهبود بخشید ،
زیرا مؤلفه DCM در RESNETS توابع ابزار را تثبیت می کند
و شیب ورودیبه طور کلی ، این مطالعه نشان می دهد که هر دو امکان پذیر است
و مطلوب برای هم افزایی DCM ها و DNN ها با ترکیب ابزار آنها
مشخصات تحت یک چارچوب TB-RESNET.اگرچه برخی از محدودیت ها باقی مانده است ،
این چارچوب TB-RESNET اولین گام مهم برای ایجاد مزایای متقابل است
بین DCMS و DNN ها برای مدل سازی رفتار سفر ، با بهبود مفصل در
پیش بینی ، تفسیر و استحکام. |
30,387 | Gross domestic product (GDP) is an important economic indicator that
aggregates useful information to assist economic agents and policymakers in
their decision-making process. In this context, GDP forecasting becomes a
powerful decision optimization tool in several areas. In order to contribute in
this direction, we investigated the efficiency of classical time series models,
the state-space models, and the neural network models, applied to Brazilian
gross domestic product. The models used were: a Seasonal Autoregressive
Integrated Moving Average (SARIMA) and a Holt-Winters method, which are
classical time series models; the dynamic linear model, a state-space model;
and neural network autoregression and the multilayer perceptron, artificial
neural network models. Based on statistical metrics of model comparison, the
multilayer perceptron presented the best in-sample and out-sample forecasting
performance for the analyzed period, also incorporating the growth rate
structure significantly. | تولید ناخالص داخلی (تولید ناخالص داخلی) یک شاخص مهم اقتصادی است که
جمع آوری اطلاعات مفید برای کمک به عوامل اقتصادی و سیاست گذاران در
روند تصمیم گیری آنهادر این زمینه ، پیش بینی تولید ناخالص داخلی تبدیل می شود
ابزار بهینه سازی تصمیم گیری قدرتمند در چندین زمینه.به منظور مشارکت در
این جهت ، ما به بررسی کارآیی مدلهای سری زمانی کلاسیک ،
مدل های فضای دولتی و مدل های شبکه عصبی برای برزیلی اعمال می شود
تولید ناخالص داخلی.مدل های مورد استفاده عبارت بودند از: یک خودجوش فصلی
میانگین متحرک یکپارچه (Sarima) و یک روش Holt-Winters ، که هستند
مدل های سری زمانی کلاسیک ؛مدل خطی پویا ، یک مدل حالت فضای.
و Autoregression شبکه عصبی و Perceptron چند لایه ، مصنوعی
مدل های شبکه عصبی.بر اساس معیارهای آماری مقایسه مدل ،
Perceptron چند لایه بهترین پیش بینی در نمونه و نمونه را ارائه داد
عملکرد برای دوره تجزیه و تحلیل ، همچنین شامل نرخ رشد است
ساختار به طور قابل توجهی |
30,388 | Companies survey their customers to measure their satisfaction levels with
the company and its services. The received responses are crucial as they allow
companies to assess their respective performances and find ways to make needed
improvements. This study focuses on the non-systematic bias that arises when
customers assign numerical values in ordinal surveys. Using real customer
satisfaction survey data of a large retail bank, we show that the common
practice of segmenting ordinal survey responses into uneven segments limit the
value that can be extracted from the data. We then show that it is possible to
assess the magnitude of the irreducible error under simple assumptions, even in
real surveys, and place the achievable modeling goal in perspective. We finish
the study by suggesting that a thoughtful survey design, which uses either a
careful binning strategy or proper calibration, can reduce the compounding
non-systematic error even in elaborated ordinal surveys. A possible application
of the calibration method we propose is efficiently conducting targeted surveys
using active learning. | شرکت ها مشتریان خود را بررسی می کنند تا سطح رضایت خود را با آنها اندازه گیری کنند
شرکت و خدمات آن.پاسخ های دریافت شده همانطور که اجازه می دهند بسیار مهم است
شرکت هایی برای ارزیابی عملکردهای مربوطه و یافتن راه هایی برای نیازهای مورد نیاز
پیشرفت هااین مطالعه بر تعصب غیر سیستمی است که وقتی بوجود می آید
مشتریان مقادیر عددی را در نظرسنجی های نظم اختصاص می دهند.استفاده از مشتری واقعی
داده های بررسی رضایت از یک بانک خرده فروشی بزرگ ، ما نشان می دهیم که مشترک
عمل تقسیم پاسخ های نظرسنجی نظم به بخش های ناهموار محدود را محدود می کند
مقداری که می تواند از داده ها استخراج شود.سپس نشان می دهیم که امکان وجود دارد
میزان خطای غیرقابل برگشت را با فرضیات ساده ارزیابی کنید ، حتی در
نظرسنجی های واقعی ، و هدف مدل سازی قابل دستیابی را در چشم انداز قرار دهید.ما تمام کردیم
این مطالعه با بیان اینکه یک طرح نظرسنجی متفکرانه ، که از آن استفاده می کند
استراتژی دقیق یا کالیبراسیون مناسب ، می تواند ترکیب را کاهش دهد
خطای غیر سیستمی حتی در نظرسنجی های مفصل.یک برنامه ممکن
از روش کالیبراسیون که ما پیشنهاد می کنیم ، انجام نظرسنجی های هدفمند است
با استفاده از یادگیری فعال |
30,418 | Stips, Macias, Coughlan, Garcia-Gorriz, and Liang (2016, Nature Scientific
Reports) use information flows (Liang, 2008, 2014) to establish causality from
various forcings to global temperature. We show that the formulas being used
hinges on a simplifying assumption that is nearly always rejected by the data.
We propose an adequate measure of information flow based on Vector
Autoregressions, and find that most results in Stips et al. (2016) cannot be
corroborated. Then, it is discussed which modeling choices (e.g., the choice of
CO2 series and assumptions about simultaneous relationships) may help in
extracting credible estimates of causal flows and the transient climate
response simply by looking at the joint dynamics of two climatic time series. | Stips ، Macias ، Coughlan ، Garcia-worriz و Liang (2016 ، Nature Scientific
گزارش ها) از جریان اطلاعات استفاده کنید (لیانگ ، 2008 ، 2014) برای ایجاد علیت از
نیروهای مختلف به دمای جهانی.ما نشان می دهیم که فرمول های مورد استفاده
به یک فرض ساده که تقریباً همیشه توسط داده ها رد می شود ، لولا است.
ما یک اندازه کافی از جریان اطلاعات را بر اساس بردار پیشنهاد می کنیم
اتورژها ، و می بینید که بیشتر منجر به استیپس و همکاران می شود.(2016) نمی تواند باشد
تأیید شدهسپس مورد بحث قرار می گیرد که کدام گزینه های مدل سازی (به عنوان مثال ، انتخاب
سری CO2 و فرضیات در مورد روابط همزمان) ممکن است به شما کمک کند
استخراج برآوردهای معتبر از جریان های علی و آب و هوای گذرا
پاسخ به سادگی با نگاهی به پویایی مشترک دو سری زمانی آب و هوایی. |
30,389 | Recurrent boom-and-bust cycles are a salient feature of economic and
financial history. Cycles found in the data are stochastic, often highly
persistent, and span substantial fractions of the sample size. We refer to such
cycles as "long". In this paper, we develop a novel approach to modeling
cyclical behavior specifically designed to capture long cycles. We show that
existing inferential procedures may produce misleading results in the presence
of long cycles, and propose a new econometric procedure for the inference on
the cycle length. Our procedure is asymptotically valid regardless of the cycle
length. We apply our methodology to a set of macroeconomic and financial
variables for the U.S. We find evidence of long stochastic cycles in the
standard business cycle variables, as well as in credit and house prices.
However, we rule out the presence of stochastic cycles in asset market data.
Moreover, according to our result, financial cycles as characterized by credit
and house prices tend to be twice as long as business cycles. | چرخه های رونق و شلوغ مکرر از ویژگی های برجسته اقتصادی و
تاریخ مالی.چرخه های موجود در داده ها تصادفی هستند ، اغلب
بخش های مداوم و قابل توجهی از اندازه نمونه.ما به چنین مواردی اشاره می کنیم
چرخه ها به عنوان "طولانی".در این مقاله ، ما یک رویکرد جدید برای مدل سازی ایجاد می کنیم
رفتار چرخه ای به طور خاص برای گرفتن چرخه های طولانی طراحی شده است.ما نشان می دهیم که
روشهای استنباطی موجود ممکن است نتایج گمراه کننده ای در حضور ایجاد کند
از چرخه های طولانی ، و یک روش اقتصاد سنجی جدید برای استنباط را پیشنهاد کنید
طول چرخهروش ما بدون در نظر گرفتن چرخه از نظر نامتقارن معتبر است
طولما روش خود را برای مجموعه ای از کلان اقتصادی و مالی اعمال می کنیم
متغیرهای ایالات متحده آمریکا شواهدی از چرخه های تصادفی طولانی در
متغیرهای چرخه تجاری استاندارد و همچنین در قیمت های اعتباری و خانه.
با این حال ، ما وجود چرخه های تصادفی در داده های بازار دارایی را رد می کنیم.
علاوه بر این ، طبق نتیجه ما ، چرخه های مالی که با اعتبار مشخص می شود
و قیمت خانه ها دو برابر چرخه های تجاری است. |
30,390 | We propose a model of labor market sector self-selection that combines
comparative advantage, as in the Roy model, and sector composition preference.
Two groups choose between two sectors based on heterogeneous potential incomes
and group compositions in each sector. Potential incomes incorporate group
specific human capital accumulation and wage discrimination. Composition
preferences are interpreted as reflecting group specific amenity preferences as
well as homophily and aversion to minority status. We show that occupational
segregation is amplified by the composition preferences and we highlight a
resulting tension between redistribution and diversity. The model also exhibits
tipping from extreme compositions to more balanced ones. Tipping occurs when a
small nudge, associated with affirmative action, pushes the system to a very
different equilibrium, and when the set of equilibria changes abruptly when a
parameter governing the relative importance of pecuniary and composition
preferences crosses a threshold. | ما مدلی از انتخاب خود بخش بازار کار را پیشنهاد می کنیم که ترکیبی است
مزیت تطبیقی ، مانند مدل روی و ترجیح ترکیب بخش.
دو گروه بین دو بخش بر اساس درآمد بالقوه ناهمگن انتخاب می کنند
و ترکیبات گروهی در هر بخش.درآمد بالقوه شامل گروه است
تجمع سرمایه خاص سرمایه انسانی و تبعیض دستمزد.ترکیب بندی
ترجیحات به عنوان بازتاب دهنده ترجیحات ویژه گروهی تفسیر می شوند
و همچنین هموفیلی و بیزاری از وضعیت اقلیت.ما آن شغلی را نشان می دهیم
تفکیک توسط ترجیحات ترکیب تقویت می شود و ما را برجسته می کنیم
تنش ناشی از توزیع مجدد و تنوع.این مدل همچنین نمایش داده می شود
از ترکیبات شدید به نسخه های متعادل تر.اوج هنگامی اتفاق می افتد که a
گودال کوچک ، همراه با اقدام مثبت ، سیستم را به یک بسیار سوق می دهد
تعادل مختلف ، و هنگامی که مجموعه تعادل به طور ناگهانی تغییر می کند وقتی a
پارامتر حاکم بر اهمیت نسبی مالی و ترکیب
ترجیحات از آستانه عبور می کند. |
30,391 | For a panel model considered by Abadie et al. (2010), the counterfactual
outcomes constructed by Abadie et al., Hsiao et al. (2012), and Doudchenko and
Imbens (2017) may all be confounded by uncontrolled heterogenous trends. Based
on exact-matching on the trend predictors, I propose new methods of estimating
the model-specific treatment effects, which are free from heterogenous trends.
When applied to Abadie et al.'s (2010) model and data, the new estimators
suggest considerably smaller effects of California's tobacco control program. | برای یک مدل پانل در نظر گرفته شده توسط آبادی و همکاران.(2010) ، خلاف واقع
نتایج ساخته شده توسط آبادی و همکاران ، هسیائو و همکاران.(2012) ، و Doudchenko و
Imbens (2017) ممکن است همه با روندهای ناهمگن کنترل نشده اشتباه گرفته شود.مستقر
در مورد تطبیق دقیق در پیش بینی کننده های روند ، من روش های جدیدی برای تخمین پیشنهاد می کنم
اثرات درمانی خاص مدل ، که عاری از روندهای ناهمگن هستند.
برآوردگرهای جدید وقتی در مدل و داده های Abadie و همکاران (2010) اعمال می شود
اثرات قابل توجهی کوچکتر از برنامه کنترل دخانیات کالیفرنیا را نشان می دهد. |
30,392 | There is an innate human tendency, one might call it the "league table
mentality," to construct rankings. Schools, hospitals, sports teams, movies,
and myriad other objects are ranked even though their inherent
multi-dimensionality would suggest that -- at best -- only partial orderings
were possible. We consider a large class of elementary ranking problems in
which we observe noisy, scalar measurements of merit for $n$ objects of
potentially heterogeneous precision and are asked to select a group of the
objects that are "most meritorious." The problem is naturally formulated in the
compound decision framework of Robbins's (1956) empirical Bayes theory, but it
also exhibits close connections to the recent literature on multiple testing.
The nonparametric maximum likelihood estimator for mixture models (Kiefer and
Wolfowitz (1956)) is employed to construct optimal ranking and selection rules.
Performance of the rules is evaluated in simulations and an application to
ranking U.S kidney dialysis centers. | تمایل انسانی ذاتی وجود دارد ، ممکن است آن را "جدول لیگ" بنامد
ذهنیت ، "برای ساخت رتبه بندی. مدارس ، بیمارستان ها ، تیم های ورزشی ، فیلم ها ،
و بی شمار اشیاء دیگر با وجود ذاتی آنها رتبه بندی می شوند
چند بعدی نشان می دهد که-در بهترین حالت-فقط سفارشات جزئی
ممکن بودما کلاس بزرگی از مشکلات رتبه بندی ابتدایی را در نظر می گیریم
که ما اندازه گیری های پر سر و صدا ، مقیاس شایستگی را برای اشیاء $ n $ مشاهده می کنیم
دقت بالقوه ناهمگن است و از آنها خواسته می شود گروهی از
اشیاء "شایسته ترین".مشکل به طور طبیعی در
چارچوب تصمیم گیری مرکب تئوری تجربی رابینز (1956) ، اما آن
همچنین در مورد آزمایش های متعدد ارتباطات نزدیک با ادبیات اخیر را نشان می دهد.
برآوردگر حداکثر احتمال غیرپارامتری برای مدل های مخلوط (کیفر و
Wolfowitz (1956)) برای ساخت قوانین بهینه رتبه بندی و انتخاب استفاده می شود.
عملکرد قوانین در شبیه سازی ها ارزیابی می شود و کاربردی در
رتبه بندی مراکز دیالیز کلیه ایالات متحده. |
30,393 | Count time series obtained from online social media data, such as Twitter,
have drawn increasing interest among academics and market analysts over the
past decade. Transforming Web activity records into counts yields time series
with peculiar features, including the coexistence of smooth paths and sudden
jumps, as well as cross-sectional and temporal dependence. Using Twitter posts
about country risks for the United Kingdom and the United States, this paper
proposes an innovative state space model for multivariate count data with
jumps. We use the proposed model to assess the impact of public concerns in
these countries on market systems. To do so, public concerns inferred from
Twitter data are unpacked into country-specific persistent terms, risk social
amplification events, and co-movements of the country series. The identified
components are then used to investigate the existence and magnitude of
country-risk spillovers and social amplification effects on the volatility of
financial markets. | مجموعه زمانی به دست آمده از داده های رسانه های اجتماعی آنلاین ، مانند توییتر ،
علاقه فزاینده ای بین دانشگاهیان و تحلیلگران بازار نسبت به
دههی گذشته.تبدیل سوابق فعالیت وب به شمارش سری بازده های زمانی
با ویژگی های عجیب و غریب ، از جمله همزیستی مسیرهای صاف و ناگهانی
پرش ها ، و همچنین وابستگی مقطعی و زمانی.با استفاده از پست های توییتر
در مورد خطرات کشور برای انگلستان و ایالات متحده ، این مقاله
یک مدل فضایی دولتی نوآورانه را برای داده های شمارش چند متغیره با پیشنهاد می کند
پرشما از مدل پیشنهادی برای ارزیابی تأثیر نگرانی های عمومی در استفاده می کنیم
این کشورها در سیستم های بازار.برای این کار ، نگرانی های عمومی استنباط شده از
داده های توییتر به شرایط مداوم و خاص کشور بسته نشده است ، در معرض خطر اجتماعی است
رویدادهای تقویت و همبستگی های سری کشور.مشخص شده
سپس از مؤلفه ها برای بررسی وجود و بزرگی استفاده می شود
سرریزهای خطرناک کشور و تأثیرات تقویت اجتماعی بر نوسانات
بازارهای مالی. |
30,394 | The paper aims at developing the Bayesian seasonally cointegrated model for
quarterly data. We propose the prior structure, derive the set of full
conditional posterior distributions, and propose the sampling scheme. The
identification of cointegrating spaces is obtained \emph{via} orthonormality
restrictions imposed on vectors spanning them. In the case of annual frequency,
the cointegrating vectors are complex, which should be taken into account when
identifying them. The point estimation of the cointegrating spaces is also
discussed. The presented methods are illustrated by a simulation experiment and
are employed in the analysis of money and prices in the Polish economy. | این مقاله با هدف توسعه مدل یکپارچه فصلی بیزی برای
داده های سه ماههما ساختار قبلی را پیشنهاد می کنیم ، مجموعه کامل را استخراج می کنیم
توزیع خلفی مشروط ، و طرح نمونه گیری را پیشنهاد می کند.در
شناسایی فضاهای ادغام شده به دست می آید \ emph {از طریق ارتقاء
محدودیت هایی که بر روی بردارهایی که آنها را پوشانده اند تحمیل می شود.در مورد فرکانس سالانه ،
بردارهای ادغام شده پیچیده هستند ، که باید در نظر گرفته شود
شناسایی آنهاتخمین نقطه از فضاهای همگرایی نیز هست
بحث شدهروشهای ارائه شده توسط یک آزمایش شبیه سازی نشان داده شده است و
در تجزیه و تحلیل پول و قیمت در اقتصاد لهستان شاغل هستند. |
30,395 | We consider inference on a scalar regression coefficient under a constraint
on the magnitude of the control coefficients. A class of estimators based on a
regularized propensity score regression is shown to exactly solve a tradeoff
between worst-case bias and variance. We derive confidence intervals (CIs)
based on these estimators that are bias-aware: they account for the possible
bias of the estimator. Under homoskedastic Gaussian errors, these estimators
and CIs are near-optimal in finite samples for MSE and CI length. We also
provide conditions for asymptotic validity of the CI with unknown and possibly
heteroskedastic error distribution, and derive novel optimal rates of
convergence under high-dimensional asymptotics that allow the number of
regressors to increase more quickly than the number of observations. Extensive
simulations and an empirical application illustrate the performance of our
methods. | ما استنتاج را در ضریب رگرسیون مقیاس تحت محدودیت در نظر می گیریم
بر روی بزرگی ضرایب کنترل.طبقه ای از برآوردگرها بر اساس a
رگرسیون نمره تمایل منظم نشان داده شده است که دقیقاً یک تجارت را حل می کند
بین تعصب بدترین حالت و واریانس.ما فواصل اعتماد به نفس را استخراج می کنیم (CIS)
بر اساس این برآوردگرهایی که آگاهانه تعصب هستند: آنها ممکن است
تعصب برآوردگر.این برآوردگرها تحت خطاهای Homoskedastic Gaussian ، این برآوردگرها
و CI در نمونه های محدود برای طول MSE و CI تقریباً بهینه هستند.ما همچنین
شرایطی را برای اعتبار بدون علامت CI با ناشناخته و احتمالاً فراهم کنید
توزیع خطای ناهمگن ، و نرخ بهینه جدید جدید
همگرایی تحت بدون علامت های با ابعاد بالا که تعداد آنها را امکان پذیر می کند
رگرسیون برای افزایش سریعتر از تعداد مشاهدات.گسترده
شبیه سازی ها و یک برنامه تجربی عملکرد ما را نشان می دهد
مواد و روش ها. |
30,396 | We propose a sensitivity analysis for Synthetic Control (SC) treatment effect
estimates to interrogate the assumption that the SC method is well-specified,
namely that choosing weights to minimize pre-treatment prediction error yields
accurate predictions of counterfactual post-treatment outcomes. Our data-driven
procedure recovers the set of treatment effects consistent with the assumption
that the misspecification error incurred by the SC method is at most the
observable misspecification error incurred when using the SC estimator to
predict the outcomes of some control unit. We show that under one definition of
misspecification error, our procedure provides a simple, geometric motivation
for comparing the estimated treatment effect to the distribution of placebo
residuals to assess estimate credibility. When we apply our procedure to
several canonical studies that report SC estimates, we broadly confirm the
conclusions drawn by the source papers. | ما یک تجزیه و تحلیل حساسیت برای اثر درمانی کنترل مصنوعی (SC) پیشنهاد می کنیم
تخمین برای بازجویی از این فرض که روش SC به خوبی مشخص شده است ،
یعنی اینکه انتخاب وزنه ها برای به حداقل رساندن بازده خطای پیش بینی قبل از درمان
پیش بینی های دقیق از نتایج پس از درمان.داده های محور ما
روش مجموعه اثرات درمانی مطابق با فرض را بازیابی می کند
اینکه خطای شناسایی اشتباه ناشی از روش SC حداکثر است
خطای قابل مشاهده قابل مشاهده در هنگام استفاده از برآوردگر SC به
نتایج برخی از واحد کنترل را پیش بینی کنید.ما نشان می دهیم که تحت یک تعریف از
خطای شناسایی اشتباه ، روش ما یک انگیزه هندسی ساده و ساده را فراهم می کند
برای مقایسه اثر درمانی تخمین زده شده با توزیع دارونما
باقیمانده ها برای ارزیابی اعتبار برآورد.وقتی روش خود را به اعمال می کنیم
چندین مطالعه متعارف که تخمین های SC را گزارش می کنند ، ما به طور گسترده ای را تأیید می کنیم
نتیجه گیری توسط مقالات منبع. |
30,397 | This paper provides a set of methods for quantifying the robustness of
treatment effects estimated using the unconfoundedness assumption (also known
as selection on observables or conditional independence). Specifically, we
estimate and do inference on bounds on various treatment effect parameters,
like the average treatment effect (ATE) and the average effect of treatment on
the treated (ATT), under nonparametric relaxations of the unconfoundedness
assumption indexed by a scalar sensitivity parameter c. These relaxations allow
for limited selection on unobservables, depending on the value of c. For large
enough c, these bounds equal the no assumptions bounds. Using a non-standard
bootstrap method, we show how to construct confidence bands for these bound
functions which are uniform over all values of c. We illustrate these methods
with an empirical application to effects of the National Supported Work
Demonstration program. We implement these methods in a companion Stata module
for easy use in practice. | در این مقاله مجموعه ای از روش ها برای تعیین استحکام ارائه شده است
اثرات درمانی تخمین زده می شود با استفاده از فرض عدم تمایل (همچنین شناخته شده است
به عنوان انتخاب بر روی مشاهدات یا استقلال مشروط).به طور خاص ، ما
برآورد و استنباط در مرزها در پارامترهای مختلف اثر درمانی ،
مانند میانگین اثر درمانی (ATE) و میانگین اثر درمان بر
تحت درمان (ATT) ، تحت آرامش غیرپارامتری از عدم وجود
فرضیه فهرست بندی شده توسط یک پارامتر حساسیت مقیاس c.این آرامش ها اجازه می دهند
برای انتخاب محدود بر روی محاصره ، بسته به ارزش c.برای بزرگ
به اندازه کافی c ، این مرزها با مرزهای بدون فرض برابر است.با استفاده از یک استاندارد
روش bootstrap ، ما نشان می دهیم که چگونه می توان باندهای اعتماد به نفس را برای این محدوده ساخت
توابع یکنواخت نسبت به تمام مقادیر c.ما این روش ها را نشان می دهیم
با یک کاربرد تجربی برای تأثیرات کار پشتیبانی ملی
برنامه تظاهرات.ما این روش ها را در یک ماژول stata همراه اجرا می کنیم
برای استفاده آسان در عمل. |
30,398 | Network models represent a useful tool to describe the complex set of
financial relationships among heterogeneous firms in the system. In this paper,
we propose a new semiparametric model for temporal multilayer causal networks
with both intra- and inter-layer connectivity. A Bayesian model with a
hierarchical mixture prior distribution is assumed to capture heterogeneity in
the response of the network edges to a set of risk factors including the
European COVID-19 cases. We measure the financial connectedness arising from
the interactions between two layers defined by stock returns and volatilities.
In the empirical analysis, we study the topology of the network before and
after the spreading of the COVID-19 disease. | مدل های شبکه یک ابزار مفید برای توصیف مجموعه پیچیده از
روابط مالی بین بنگاه های ناهمگن در سیستم.در این صفحه،
ما یک مدل نیمهرامتری جدید برای شبکه های علیت چند لایه زمانی پیشنهاد می کنیم
با هر دو اتصال داخل و بین لایه.یک مدل بیزی با a
مخلوط سلسله مراتبی توزیع قبلی برای ضبط ناهمگونی در
پاسخ لبه های شبکه به مجموعه ای از عوامل خطر از جمله
موارد COVID-19 اروپا.ما ارتباط مالی ناشی از آن را اندازه می گیریم
تعامل بین دو لایه تعریف شده توسط بازده سهام و نوسانات.
در تجزیه و تحلیل تجربی ، ما توپولوژی شبکه را قبل و مطالعه می کنیم
پس از گسترش بیماری Covid-19. |
30,399 | Numerous empirical studies employ regression discontinuity designs with
multiple cutoffs and heterogeneous treatments. A common practice is to
normalize all the cutoffs to zero and estimate one effect. This procedure
identifies the average treatment effect (ATE) on the observed distribution of
individuals local to existing cutoffs. However, researchers often want to make
inferences on more meaningful ATEs, computed over general counterfactual
distributions of individuals, rather than simply the observed distribution of
individuals local to existing cutoffs. This paper proposes a consistent and
asymptotically normal estimator for such ATEs when heterogeneity follows a
non-parametric function of cutoff characteristics in the sharp case. The
proposed estimator converges at the minimax optimal rate of root-n for a
specific choice of tuning parameters. Identification in the fuzzy case, with
multiple cutoffs, is impossible unless heterogeneity follows a
finite-dimensional function of cutoff characteristics. Under parametric
heterogeneity, this paper proposes an ATE estimator for the fuzzy case that
optimally combines observations to maximize its precision. | مطالعات تجربی بی شماری از طرح های ناپیوستگی رگرسیون استفاده می کند
برش های چندگانه و درمان های ناهمگن.یک عمل معمول این است که
همه برش ها را به صفر برسانید و یک اثر را تخمین بزنید.این روش
میانگین اثر درمانی (ATE) را در توزیع مشاهده شده مشخص می کند
افراد محلی تا برش های موجود.با این حال ، محققان اغلب می خواهند بسازند
استنتاج در ATE های معنی دار تر ، محاسبه شده بر روی ضد خلاف عمومی
توزیع افراد ، به جای توزیع مشاهده شده از
افراد محلی تا برش های موجود.در این مقاله یک سازگار و
برآوردگر بدون علامت طبیعی برای چنین ATES هنگامی که ناهمگونی از a پیروی می کند
عملکرد غیر پارامتری خصوصیات برش در مورد تیز.در
برآوردگر پیشنهادی با نرخ بهینه حداقل root-n برای a همگرا می شود
انتخاب خاص پارامترهای تنظیم.شناسایی در مورد فازی ، با
برش های چندگانه ، غیرممکن است مگر اینکه ناهمگونی پیروی کند
عملکرد محدود و بعدی از ویژگی های برش.تحت پارامتری
ناهمگونی ، این مقاله یک برآوردگر ATE را برای پرونده فازی ارائه می دهد که
بهینه مشاهدات را برای به حداکثر رساندن دقت آن ترکیب می کند. |
30,400 | Recent advances in the literature have demonstrated that standard supervised
learning algorithms are ill-suited for problems with endogenous explanatory
variables. To correct for the endogeneity bias, many variants of nonparameteric
instrumental variable regression methods have been developed. In this paper, we
propose an alternative algorithm called boostIV that builds on the traditional
gradient boosting algorithm and corrects for the endogeneity bias. The
algorithm is very intuitive and resembles an iterative version of the standard
2SLS estimator. Moreover, our approach is data driven, meaning that the
researcher does not have to make a stance on neither the form of the target
function approximation nor the choice of instruments. We demonstrate that our
estimator is consistent under mild conditions. We carry out extensive Monte
Carlo simulations to demonstrate the finite sample performance of our algorithm
compared to other recently developed methods. We show that boostIV is at worst
on par with the existing methods and on average significantly outperforms them. | پیشرفت های اخیر در ادبیات نشان داده است که استاندارد نظارت شده است
الگوریتم های یادگیری برای مشکلات توضیحی درون زا مناسب نیستند
متغیرهابرای تصحیح تعصب درون زا ، بسیاری از انواع غیر پارامتری
روشهای رگرسیون متغیر ابزاری ایجاد شده است.در این مقاله ، ما
یک الگوریتم جایگزین به نام Boostiv را پیشنهاد کنید که بر روی سنتی بنا شده است
الگوریتم تقویت شیب و اصلاحات تعصب درون زا.در
الگوریتم بسیار بصری است و شبیه نسخه تکراری از استاندارد است
برآوردگر 2SLS.علاوه بر این ، رویکرد ما داده ها محور است ، به این معنی که
محقق نیازی به ایجاد موضع گیری در مورد شکل هدف ندارد
تقریب عملکرد و نه انتخاب ابزارها.ما نشان می دهیم که ما
برآوردگر در شرایط خفیف سازگار است.ما مونت گسترده ای را انجام می دهیم
شبیه سازی کارلو برای نشان دادن عملکرد نمونه محدود الگوریتم ما
در مقایسه با سایر روشهای اخیراً توسعه یافته.ما نشان می دهیم که Boostiv در بدترین حالت است
به طور هم زمان با روشهای موجود و به طور متوسط از آنها بهتر عمل می کند. |
30,401 | The literature on using yield curves to forecast recessions customarily uses
10-year--three-month Treasury yield spread without verification on the pair
selection. This study investigates whether the predictive ability of spread can
be improved by letting a machine learning algorithm identify the best maturity
pair and coefficients. Our comprehensive analysis shows that, despite the
likelihood gain, the machine learning approach does not significantly improve
prediction, owing to the estimation error. This is robust to the forecasting
horizon, control variable, sample period, and oversampling of the recession
observations. Our finding supports the use of the 10-year--three-month spread. | ادبیات در مورد استفاده از منحنی های بازده برای پیش بینی رکودها به طور معمول استفاده می کند
10 ساله-عملکرد خزانه سه ماهه بدون تأیید بر روی این جفت گسترش یافت
انتخاب.این مطالعه بررسی می کند که آیا توانایی پیش بینی گسترش می تواند
با اجازه دادن به یک الگوریتم یادگیری ماشین بهترین بلوغ را بهبود بخشید
جفت و ضرایب.تحلیل جامع ما نشان می دهد که ، با وجود
احتمال افزایش احتمال ، رویکرد یادگیری ماشین به طور قابل توجهی بهبود نمی یابد
پیش بینی ، به دلیل خطای تخمین.این برای پیش بینی قوی است
افق ، متغیر کنترل ، دوره نمونه و نمونه برداری از رکود اقتصادی
مشاهداتیافته های ما از استفاده از 10 ساله-سه ماه گسترش پشتیبانی می کند. |
30,605 | Central banks manage about \$12 trillion in foreign exchange reserves,
influencing global exchange rates and asset prices. However, some of the
largest holders of reserves report minimal information about their currency
composition, hindering empirical analysis. I describe a Hidden Markov Model to
estimate the composition of a central bank's reserves by relating the
fluctuation in the portfolio's valuation to the exchange rates of major reserve
currencies. I apply the model to China and Singapore, two countries that
collectively hold about \$3.4 trillion in reserves and conceal their
composition. I find that both China's reserve composition likely resembles the
global average, while Singapore probably holds fewer US dollars. | بانک های مرکزی حدود 12 تریلیون دلار در ذخایر ارزی مدیریت می کنند ،
تأثیر نرخ ارز جهانی و قیمت دارایی.با این حال ، برخی از
بزرگترین دارندگان ذخایر اطلاعات حداقل در مورد ارز خود را گزارش می دهند
ترکیب ، مانع تجزیه و تحلیل تجربی.من یک مدل مارکوف پنهان را به
ترکیب ذخایر یک بانک مرکزی را با ارتباط با آن تخمین بزنید
نوسان در ارزیابی نمونه کارها به نرخ ارز ذخیره عمده
ارزمن این مدل را در چین و سنگاپور ، دو کشور اعمال می کنم
در مجموع حدود \ 3.4 تریلیون دلار در ذخایر نگه دارید و آنها را پنهان کنید
ترکیب بندی.فهمیدم که هر دو ترکیب ذخیره چین به احتمال زیاد شبیه است
میانگین جهانی ، در حالی که سنگاپور احتمالاً کمتر دلار آمریکا دارد. |
30,402 | Since their introduction in Abadie and Gardeazabal (2003), Synthetic Control
(SC) methods have quickly become one of the leading methods for estimating
causal effects in observational studies in settings with panel data. Formal
discussions often motivate SC methods by the assumption that the potential
outcomes were generated by a factor model. Here we study SC methods from a
design-based perspective, assuming a model for the selection of the treated
unit(s) and period(s). We show that the standard SC estimator is generally
biased under random assignment. We propose a Modified Unbiased Synthetic
Control (MUSC) estimator that guarantees unbiasedness under random assignment
and derive its exact, randomization-based, finite-sample variance. We also
propose an unbiased estimator for this variance. We document in settings with
real data that under random assignment, SC-type estimators can have root
mean-squared errors that are substantially lower than that of other common
estimators. We show that such an improvement is weakly guaranteed if the
treated period is similar to the other periods, for example, if the treated
period was randomly selected. While our results only directly apply in settings
where treatment is assigned randomly, we believe that they can complement
model-based approaches even for observational studies. | از زمان معرفی آنها در آبادی و گاردیازابل (2003) ، کنترل مصنوعی
(SC) روشها به سرعت به یکی از روشهای پیشرو برای تخمین تبدیل شده اند
اثرات علی در مطالعات مشاهده ای در تنظیمات با داده های پانل.رسمی
بحث ها اغلب با این فرض که پتانسیل را ایجاد می کند ، روشهای SC را ایجاد می کند
نتایج توسط یک مدل فاکتور تولید شد.در اینجا ما روشهای SC را از a مطالعه می کنیم
چشم انداز مبتنی بر طراحی ، با فرض الگویی برای انتخاب تحت درمان
واحد (ها) و دوره (ها).ما نشان می دهیم که برآوردگر استاندارد SC به طور کلی است
مغرضانه تحت تکلیف تصادفی.ما یک مصنوعی اصلاح شده بی طرفانه پیشنهاد می کنیم
برآوردگر کنترل (MUSC) که بی طرفی تحت واگذاری تصادفی تضمین می کند
و واریانس دقیق ، مبتنی بر تصادفی و نمونه محدود آن را استخراج کنید.ما همچنین
یک برآوردگر بی طرفانه برای این واریانس پیشنهاد دهید.ما در تنظیمات با
داده های واقعی که تحت انتساب تصادفی ، برآوردگرهای نوع SC می توانند ریشه داشته باشند
میانگین خطاهای مربع که به طور قابل ملاحظه ای پایین تر از سایر موارد مشترک هستند
برآوردگرهاما نشان می دهیم که چنین پیشرفتی ضعیف تضمین شده است اگر
دوره تحت درمان با دوره های دیگر ، به عنوان مثال ، در صورت درمان است
دوره به طور تصادفی انتخاب شد.در حالی که نتایج ما فقط به طور مستقیم در تنظیمات اعمال می شود
جایی که درمان به طور تصادفی انجام می شود ، ما معتقدیم که آنها می توانند مکمل شوند
رویکردهای مبتنی بر مدل حتی برای مطالعات مشاهده ای. |
30,403 | We propose a reduced-form benchmark predictive model (BPM) for fixed-target
forecasting of Arctic sea ice extent, and we provide a case study of its
real-time performance for target date September 2020. We visually detail the
evolution of the statistically-optimal point, interval, and density forecasts
as time passes, new information arrives, and the end of September approaches.
Comparison to the BPM may prove useful for evaluating and selecting among
various more sophisticated dynamical sea ice models, which are widely used to
quantify the likely future evolution of Arctic conditions and their two-way
interaction with economic activity. | ما یک مدل پیش بینی شده معیار با فرم کاهش یافته (BPM) را برای هدف ثابت پیشنهاد می کنیم
پیش بینی میزان یخ دریای قطب شمال ، و ما یک مطالعه موردی از آن را ارائه می دهیم
عملکرد زمان واقعی برای تاریخ هدف سپتامبر 2020. ما از نظر بصری جزئیات
تکامل نقطه ، فاصله و چگالی آماری از نظر آماری
با گذشت زمان ، اطلاعات جدید فرا می رسد و پایان ماه سپتامبر نزدیک می شود.
مقایسه با BPM ممکن است برای ارزیابی و انتخاب در میان مفید باشد
مدل های یخ دریای دینامیکی مختلف پیچیده تر ، که به طور گسترده ای مورد استفاده قرار می گیرند
تکامل احتمالی آینده شرایط قطب شمال و دو طرفه آنها را کم کنید
تعامل با فعالیت اقتصادی. |
30,404 | In this paper, we present a new approach based on dynamic factor models
(DFMs) to perform nowcasts for the percentage annual variation of the Mexican
Global Economic Activity Indicator (IGAE in Spanish). The procedure consists of
the following steps: i) build a timely and correlated database by using
economic and financial time series and real-time variables such as social
mobility and significant topics extracted by Google Trends; ii) estimate the
common factors using the two-step methodology of Doz et al. (2011); iii) use
the common factors in univariate time-series models for test data; and iv)
according to the best results obtained in the previous step, combine the
statistically equal better nowcasts (Diebold-Mariano test) to generate the
current nowcasts. We obtain timely and accurate nowcasts for the IGAE,
including those for the current phase of drastic drops in the economy related
to COVID-19 sanitary measures. Additionally, the approach allows us to
disentangle the key variables in the DFM by estimating the confidence interval
for both the factor loadings and the factor estimates. This approach can be
used in official statistics to obtain preliminary estimates for IGAE up to 50
days before the official results. | در این مقاله ، ما یک رویکرد جدید را بر اساس مدل های فاکتور پویا ارائه می دهیم
(DFMS) برای انجام Nowcasts برای درصد تغییرات سالانه مکزیکی
شاخص فعالیت اقتصادی جهانی (IGAE به زبان اسپانیایی).این روش از
مراحل زیر: من) با استفاده از یک پایگاه داده به موقع و همبسته بسازید
سری زمانی اقتصادی و مالی و متغیرهای زمان واقعی مانند اجتماعی
تحرک و مباحث قابل توجهی که توسط Google Trends استخراج شده است.ii) تخمین
عوامل متداول با استفاده از روش دو مرحله ای Doz و همکاران.(2011) ؛iii) استفاده
عوامل متداول در مدل های سری زمانی تک متغیره برای داده های آزمون.و IV)
با توجه به بهترین نتایج به دست آمده در مرحله قبل ، ترکیب را ترکیب کنید
از نظر آماری مساوی بهتر (تست Diebold-Marano) برای تولید
Nowcasts فعلی.ما Nowcasts به موقع و دقیق را برای IGAE بدست می آوریم ،
از جمله مواردی برای مرحله فعلی افت شدید در اقتصاد
به COVID-19 اقدامات بهداشتی.علاوه بر این ، این رویکرد به ما امکان می دهد
متغیرهای کلیدی در DFM را با برآورد فاصله اطمینان جدا کنید
هم برای بارگذاری عاملی و هم برای تخمین فاکتور.این رویکرد می تواند باشد
در آمار رسمی برای به دست آوردن برآوردهای اولیه برای IGAE تا 50 استفاده می شود
چند روز قبل از نتایج رسمی. |
30,405 | Methods for linking individuals across historical data sets, typically in
combination with AI based transcription models, are developing rapidly.
Probably the single most important identifier for linking is personal names.
However, personal names are prone to enumeration and transcription errors and
although modern linking methods are designed to handle such challenges, these
sources of errors are critical and should be minimized. For this purpose,
improved transcription methods and large-scale databases are crucial
components. This paper describes and provides documentation for HANA, a newly
constructed large-scale database which consists of more than 3.3 million names.
The database contain more than 105 thousand unique names with a total of more
than 1.1 million images of personal names, which proves useful for transfer
learning to other settings. We provide three examples hereof, obtaining
significantly improved transcription accuracy on both Danish and US census
data. In addition, we present benchmark results for deep learning models
automatically transcribing the personal names from the scanned documents.
Through making more challenging large-scale databases publicly available we
hope to foster more sophisticated, accurate, and robust models for handwritten
text recognition. | روشهای پیوند دادن افراد در مجموعه داده های تاریخی ، به طور معمول در
ترکیب با مدل های رونویسی مبتنی بر AI ، به سرعت در حال توسعه است.
احتمالاً مهمترین شناسه برای پیوند ، نام های شخصی است.
با این حال ، نام های شخصی مستعد خطاهای شمارش و رونویسی هستند و
اگرچه روشهای پیوند مدرن برای رسیدگی به چنین چالش هایی طراحی شده اند ، اما اینها
منابع خطاها بسیار مهم هستند و باید به حداقل برسند.به این منظور،
روشهای رونویسی بهبود یافته و بانکهای اطلاعاتی در مقیاس بزرگ بسیار مهم هستند
اجزاء.در این مقاله مستندات مربوط به هانا ، تازه
پایگاه داده در مقیاس بزرگ ساخته شده است که شامل بیش از 3.3 میلیون نام است.
این بانک اطلاعاتی حاوی بیش از 105 هزار نام منحصر به فرد با تعداد بیشتری است
بیش از 1.1 میلیون تصویر از نامهای شخصی ، که برای انتقال مفید است
یادگیری به سایر تنظیمات.ما سه نمونه از این را ارائه می دهیم ، به دست می آوریم
به طور قابل توجهی دقت رونویسی را در سرشماری دانمارکی و ایالات متحده بهبود بخشید
داده ها.علاوه بر این ، ما نتایج معیار را برای مدلهای یادگیری عمیق ارائه می دهیم
به طور خودکار نام های شخصی را از اسناد اسکن شده رونویسی می کند.
از طریق ایجاد بانکهای اطلاعاتی در مقیاس بزرگ به چالش کشیدیم که ما در دسترس عموم هستیم
امیدوارم مدل های پیشرفته تر ، دقیق تر و قوی تر برای دست نویس
شناخت متن |
30,406 | In this paper we propose the adaptive lasso for predictive quantile
regression (ALQR). Reflecting empirical findings, we allow predictors to have
various degrees of persistence and exhibit different signal strengths. The
number of predictors is allowed to grow with the sample size. We study
regularity conditions under which stationary, local unit root, and cointegrated
predictors are present simultaneously. We next show the convergence rates,
model selection consistency, and asymptotic distributions of ALQR. We apply the
proposed method to the out-of-sample quantile prediction problem of stock
returns and find that it outperforms the existing alternatives. We also provide
numerical evidence from additional Monte Carlo experiments, supporting the
theoretical results. | در این مقاله ما لاسو تطبیقی را برای کمی پیش بینی کننده پیشنهاد می کنیم
رگرسیون (ALQR).بازتاب یافته های تجربی ، ما به پیش بینی کنندگان اجازه می دهیم که داشته باشند
درجات مختلفی از پایداری و نقاط قوت سیگنال مختلف را نشان می دهد.در
تعداد پیش بینی کننده ها با اندازه نمونه رشد می کنند.ما مطالعه میکنیم
شرایط منظم که تحت آن ریشه ثابت ، ریشه واحد محلی و یکپارچه شده است
پیش بینی کننده ها به طور همزمان حضور دارند.ما بعدی نرخ همگرایی را نشان می دهیم ،
قوام انتخاب مدل و توزیع بدون علامت ALQR.ما اعمال می کنیم
روش پیشنهادی برای مشکل پیش بینی کمی از نمونه از سهام
باز می گردد و می فهمد که از گزینه های موجود فراتر است.ما همچنین ارائه می دهیم
شواهد عددی از آزمایشات اضافی مونت کارلو ، حمایت از
نتایج نظری |
30,417 | We propose a contemporaneous bilinear transformation for a $p\times q$ matrix
time series to alleviate the difficulties in modeling and forecasting matrix
time series when $p$ and/or $q$ are large. The resulting transformed matrix
assumes a block structure consisting of several small matrices, and those small
matrix series are uncorrelated across all times. Hence an overall parsimonious
model is achieved by modelling each of those small matrix series separately
without the loss of information on the linear dynamics. Such a parsimonious
model often has better forecasting performance, even when the underlying true
dynamics deviates from the assumed uncorrelated block structure after
transformation. The uniform convergence rates of the estimated transformation
are derived, which vindicate an important virtue of the proposed bilinear
transformation, i.e. it is technically equivalent to the decorrelation of a
vector time series of dimension max$(p,q)$ instead of $p\times q$. The proposed
method is illustrated numerically via both simulated and real data examples. | ما یک تحول دو طرفه معاصر را برای یک ماتریس $ p \ times q $ پیشنهاد می کنیم
سری زمانی برای کاهش مشکلات در مدل سازی و پیش بینی ماتریس
سری زمانی که $ p $ و/یا $ q $ بزرگ هستند.ماتریس تبدیل شده حاصل
یک ساختار بلوک متشکل از چندین ماتریس کوچک و آن دسته از افراد کوچک را فرض می کند
سریال ماتریس در همه زمان ها بی ارتباط است.از این رو یک پارسای کلی
مدل با مدل سازی هر یک از آن سری های ماتریس کوچک به طور جداگانه حاصل می شود
بدون از دست دادن اطلاعات در مورد پویایی خطی.چنین پارسای
مدل اغلب عملکرد پیش بینی بهتری دارد ، حتی اگر زیربنایی درست باشد
دینامیک پس از ساختار بلوک غیر مرتبط با هم منحرف می شود
دگرگونی.نرخ همگرایی یکنواخت تحول تخمین زده شده
مشتق شده اند ، که فضیلت مهمی از دو طرفه پیشنهادی را تأیید می کند
تحول ، یعنی از نظر فنی معادل دکوراسیون a است
سری زمانی بردار حداکثر حداکثر $ (p ، q) $ به جای $ p \ times q $.پیشنهاد
روش از طریق هر دو نمونه داده شبیه سازی شده و واقعی به صورت عددی نشان داده می شود. |
30,407 | Since its inception, the choice modelling field has been dominated by
theory-driven modelling approaches. Machine learning offers an alternative
data-driven approach for modelling choice behaviour and is increasingly drawing
interest in our field. Cross-pollination of machine learning models, techniques
and practices could help overcome problems and limitations encountered in the
current theory-driven modelling paradigm, such as subjective labour-intensive
search processes for model selection, and the inability to work with text and
image data. However, despite the potential benefits of using the advances of
machine learning to improve choice modelling practices, the choice modelling
field has been hesitant to embrace machine learning. This discussion paper aims
to consolidate knowledge on the use of machine learning models, techniques and
practices for choice modelling, and discuss their potential. Thereby, we hope
not only to make the case that further integration of machine learning in
choice modelling is beneficial, but also to further facilitate it. To this end,
we clarify the similarities and differences between the two modelling
paradigms; we review the use of machine learning for choice modelling; and we
explore areas of opportunities for embracing machine learning models and
techniques to improve our practices. To conclude this discussion paper, we put
forward a set of research questions which must be addressed to better
understand if and how machine learning can benefit choice modelling. | از زمان آغاز آن ، زمینه مدل سازی انتخاب تحت سلطه است
رویکردهای مدل سازی تئوری محور.یادگیری ماشین یک جایگزین ارائه می دهد
رویکرد داده محور برای انتخاب رفتار انتخاب و به طور فزاینده ای ترسیم می شود
علاقه به حوزه ماگرده افشانی متقابل مدل های یادگیری ماشین ، تکنیک ها
و شیوه ها می تواند به غلبه بر مشکلات و محدودیت های موجود در آن کمک کند
پارادایم مدل سازی تئوری محور فعلی ، مانند کارگروه ذهنی
فرآیندهای جستجو برای انتخاب مدل و عدم توانایی کار با متن و
داده های تصویربا این حال ، با وجود مزایای احتمالی استفاده از پیشرفت های
یادگیری ماشین برای بهبود شیوه های مدل سازی انتخاب ، مدل سازی انتخاب
زمینه در پذیرش یادگیری ماشین مردد بوده است.این مقاله بحث است
ادغام دانش در مورد استفاده از مدل های یادگیری ماشین ، تکنیک ها و
شیوه های مدل سازی انتخاب ، و بحث در مورد پتانسیل های آنها.در نتیجه ، ما امیدواریم
نه تنها برای اینكه موردی باشد كه ادغام بیشتر یادگیری ماشین در آن باشد
مدل سازی انتخاب مفید است ، اما همچنین برای تسهیل بیشتر آن.به این منظور ،
ما شباهت ها و تفاوت های بین دو مدل سازی را روشن می کنیم
پارادایم ها ؛ما استفاده از یادگیری ماشین را برای مدل سازی انتخاب مرور می کنیم.و ما
مناطقی از فرصت ها را برای پذیرش مدل های یادگیری ماشین کشف کنید و
تکنیک هایی برای بهبود شیوه های ما.برای نتیجه گیری این مقاله بحث ، ما قرار دادیم
مجموعه ای از سؤالات تحقیق را ارسال کنید که باید برای بهتر کردن مورد توجه قرار گیرد
درک کنید که آیا و چگونه یادگیری ماشین می تواند از مدل سازی انتخاب بهره مند شود. |
30,408 | We present a Gaussian Process - Latent Class Choice Model (GP-LCCM) to
integrate a non-parametric class of probabilistic machine learning within
discrete choice models (DCMs). Gaussian Processes (GPs) are kernel-based
algorithms that incorporate expert knowledge by assuming priors over latent
functions rather than priors over parameters, which makes them more flexible in
addressing nonlinear problems. By integrating a Gaussian Process within a LCCM
structure, we aim at improving discrete representations of unobserved
heterogeneity. The proposed model would assign individuals probabilistically to
behaviorally homogeneous clusters (latent classes) using GPs and simultaneously
estimate class-specific choice models by relying on random utility models.
Furthermore, we derive and implement an Expectation-Maximization (EM) algorithm
to jointly estimate/infer the hyperparameters of the GP kernel function and the
class-specific choice parameters by relying on a Laplace approximation and
gradient-based numerical optimization methods, respectively. The model is
tested on two different mode choice applications and compared against different
LCCM benchmarks. Results show that GP-LCCM allows for a more complex and
flexible representation of heterogeneity and improves both in-sample fit and
out-of-sample predictive power. Moreover, behavioral and economic
interpretability is maintained at the class-specific choice model level while
local interpretation of the latent classes can still be achieved, although the
non-parametric characteristic of GPs lessens the transparency of the model. | ما یک فرایند گاوسی - مدل انتخاب کلاس نهان (GP -LCCM) را ارائه می دهیم
یک کلاس غیر پارامتری از یادگیری ماشین احتمالی را در درون ادغام کنید
مدل های انتخاب گسسته (DCMS).فرآیندهای گاوسی (GPS) مبتنی بر هسته هستند
الگوریتم هایی که دانش تخصصی را با فرض Priors نسبت به نهفته شامل می کنند
توابع به جای Priors نسبت به پارامترها ، که باعث می شود آنها در
پرداختن به مشکلات غیرخطی.با ادغام یک فرآیند گاوسی در یک LCCM
ساختار ، ما هدف ما بهبود بازنمایی های گسسته از بدون نظارت است
ناهمگونیمدل پیشنهادی افراد را به طور احتمالی به آن اختصاص می دهد
خوشه های همگن رفتاری (کلاسهای نهفته) با استفاده از GPS و همزمان
با تکیه بر مدلهای ابزار تصادفی ، مدل های انتخاب خاص کلاس را تخمین بزنید.
علاوه بر این ، ما یک الگوریتم انتظار حداکثر انتظار (EM) را استخراج و پیاده سازی می کنیم
برای برآورد/استنباط/استنباط های بیش از حد عملکرد هسته GP و
پارامترهای انتخاب خاص کلاس با تکیه بر تقریب Laplace و
روشهای بهینه سازی عددی مبتنی بر گرادیان ، به ترتیب.مدل است
در دو برنامه مختلف انتخاب حالت آزمایش شده و در برابر متفاوت مقایسه شده است
معیارهای LCCM.نتایج نشان می دهد که GP-LCCM امکان پیچیده تری را فراهم می کند
بازنمایی انعطاف پذیر از ناهمگونی و بهبود هم در نمونه و
قدرت پیش بینی خارج از نمونه.علاوه بر این ، رفتاری و اقتصادی
تفسیر در سطح مدل انتخاب خاص کلاس در حالی که حفظ می شود
تفسیر محلی از طبقات نهفته هنوز هم می تواند حاصل شود ، اگرچه
ویژگی غیر پارامتری GPS شفافیت مدل را کاهش می دهد. |
30,409 | Since network data commonly consists of observations from a single large
network, researchers often partition the network into clusters in order to
apply cluster-robust inference methods. Existing such methods require clusters
to be asymptotically independent. Under mild conditions, we prove that, for
this requirement to hold for network-dependent data, it is necessary and
sufficient that clusters have low conductance, the ratio of edge boundary size
to volume. This yields a simple measure of cluster quality. We find in
simulations that when clusters have low conductance, cluster-robust methods
control size better than HAC estimators. However, for important classes of
networks lacking low-conductance clusters, the former can exhibit substantial
size distortion. To determine the number of low-conductance clusters and
construct them, we draw on results in spectral graph theory that connect
conductance to the spectrum of the graph Laplacian. Based on these results, we
propose to use the spectrum to determine the number of low-conductance clusters
and spectral clustering to construct them. | از آنجا که داده های شبکه معمولاً شامل مشاهدات از یک بزرگ است
شبکه ، محققان اغلب شبکه را به خوشه ها تقسیم می کنند
روشهای استنتاج خوشه ای را به کار ببرید.چنین روشهایی موجود به خوشه نیاز دارند
مستقل بودن بدون علامت.در شرایط خفیف ، ما آن را ثابت می کنیم.
این الزام برای نگه داشتن داده های وابسته به شبکه ، لازم است و
کافی است که خوشه ها دارای هدایت کم هستند ، نسبت اندازه مرز لبه
به حجماین یک اندازه گیری ساده از کیفیت خوشه است.ما پیدا می کنیم
شبیه سازی هایی که وقتی خوشه ها دارای هدایت کم هستند ، روش های خوشه ای را با خوشه
اندازه کنترل بهتر از برآوردگرهای HAC.با این حال ، برای کلاس های مهم از
شبکه هایی که فاقد خوشه های کم هرایی هستند ، سابق می توانند از نظر قابل توجهی نشان دهند
اعوجاج اندازهبرای تعیین تعداد خوشه های کم ارتفاع و
آنها را بسازید ، ما نتایج را در تئوری نمودار طیفی که به هم وصل می شوند ترسیم می کنیم
هدایت به طیف گراف لاپلاسی.بر اساس این نتایج ، ما
پیشنهاد استفاده از طیف را برای تعیین تعداد خوشه های کم ارتفاع
و خوشه بندی طیفی برای ساخت آنها. |
30,410 | In this paper, we develop a penalized realized variance (PRV) estimator of
the quadratic variation (QV) of a high-dimensional continuous It\^{o}
semimartingale. We adapt the principle idea of regularization from linear
regression to covariance estimation in a continuous-time high-frequency
setting. We show that under a nuclear norm penalization, the PRV is computed by
soft-thresholding the eigenvalues of realized variance (RV). It therefore
encourages sparsity of singular values or, equivalently, low rank of the
solution. We prove our estimator is minimax optimal up to a logarithmic factor.
We derive a concentration inequality, which reveals that the rank of PRV is --
with a high probability -- the number of non-negligible eigenvalues of the QV.
Moreover, we also provide the associated non-asymptotic analysis for the spot
variance. We suggest an intuitive data-driven bootstrap procedure to select the
shrinkage parameter. Our theory is supplemented by a simulation study and an
empirical application. The PRV detects about three-five factors in the equity
market, with a notable rank decrease during times of distress in financial
markets. This is consistent with most standard asset pricing models, where a
limited amount of systematic factors driving the cross-section of stock returns
are perturbed by idiosyncratic errors, rendering the QV -- and also RV -- of
full rank. | در این مقاله ، ما یک برآوردگر واریانس تحقق یافته مجازات شده (PRV) از آن ایجاد می کنیم
تنوع درجه دوم (QV) از یک بعدی با ابعاد بالا \^{o}
semimartingale.ما ایده اصلی تنظیم مجدد را از خطی تطبیق می دهیم
رگرسیون به تخمین کواریانس در یک فرکانس بالا مداوم
تنظیمات.ما نشان می دهیم که تحت یک مجازات هنجار هسته ای ، PRV توسط محاسبه می شود
آستانه نرم و مقادیر ویژه واریانس تحقق یافته (RV).بنابراین
کمبود ارزش های مفرد یا ، به طور معادل ، رتبه پایین از
راه حل.ما ثابت می کنیم که برآوردگر ما تا حد متوسط تا یک عامل لگاریتمی است.
ما نابرابری غلظت را استخراج می کنیم ، که نشان می دهد رتبه PRV است -
با احتمال بالایی-تعداد مقادیر ویژه غیر قابل تحمل QV.
علاوه بر این ، ما همچنین تجزیه و تحلیل غیر متعارف مرتبط را برای نقطه ارائه می دهیم
واریانسما یک روش بوت استرپ با محور داده محور را برای انتخاب پیشنهاد می کنیم
پارامتر انقباض.نظریه ما توسط یک مطالعه شبیه سازی و یک
کاربرد تجربیPRV حدود سه و پنج عامل در سهام را تشخیص می دهد
بازار ، با کاهش رتبه قابل توجه در مواقع پریشانی در مالی
بازارهااین با اکثر مدل های قیمت گذاری دارایی استاندارد ، جایی که a سازگار است
مقدار محدودی از فاکتورهای سیستماتیک رانندگی مقطع بازده سهام
از خطاهای ایدیوسنکراتیک آشفته می شوند و QV - و همچنین RV - را ارائه می دهند
رتبه کامل |
30,411 | We find the set of extremal points of Lorenz curves with fixed Gini index and
compute the maximal $L^1$-distance between Lorenz curves with given values of
their Gini coefficients. As an application we introduce a bidimensional index
that simultaneously measures relative inequality and dissimilarity between two
populations. This proposal employs the Gini indices of the variables and an
$L^1$-distance between their Lorenz curves. The index takes values in a
right-angled triangle, two of whose sides characterize perfect relative
inequality-expressed by the Lorenz ordering between the underlying
distributions. Further, the hypotenuse represents maximal distance between the
two distributions. As a consequence, we construct a chart to, graphically,
either see the evolution of (relative) inequality and distance between two
income distributions over time or to compare the distribution of income of a
specific population between a fixed time point and a range of years. We prove
the mathematical results behind the above claims and provide a full description
of the asymptotic properties of the plug-in estimator of this index. Finally,
we apply the proposed bidimensional index to several real EU-SILC income
datasets to illustrate its performance in practice. | ما مجموعه ای از نقاط افراطی منحنی های لورنز را با شاخص جینی ثابت و
محاسبه حداکثر $ L^1 $-بین منحنی های لورنز با مقادیر داده شده
ضرایب جینی آنها.به عنوان یک برنامه ، ما یک شاخص پیشنهادی را معرفی می کنیم
که همزمان نابرابری نسبی و اختلاف بین دو را اندازه گیری می کند
جمعیتاین پیشنهاد از شاخص های جینی متغیرها و یک استفاده می کند
$ l^1 $-بین منحنی های لورنز آنها.شاخص مقادیر را در a می گیرد
مثلث راست زاویه دار ، دو طرف آنها را توصیف می کنند
نابرابری-بیان شده توسط لورنز سفارش بین زیرین
توزیععلاوه بر این ، hypotenuse نشانگر حداکثر فاصله بین
دو توزیعدر نتیجه ، ما یک نمودار را به صورت گرافیکی می سازیم.
یا تکامل نابرابری (نسبی) و فاصله بین دو را ببینید
توزیع درآمد با گذشت زمان یا برای مقایسه توزیع درآمد a
جمعیت خاص بین یک نقطه زمانی ثابت و طیف وسیعی از سالها.ما ثابت می کنیم
نتایج ریاضی در پشت ادعاهای فوق و شرح کامل ارائه می دهد
از خصوصیات بدون علامت برآوردگر افزونه این شاخص.سرانجام،
ما شاخص پیشنهادی پیشنهادی را برای چندین درآمد واقعی اتحادیه اروپا SILC اعمال می کنیم
مجموعه داده ها برای نشان دادن عملکرد آن در عمل. |
30,412 | In order to further overcome the difficulties of the existing models in
dealing with the non-stationary and nonlinear characteristics of high-frequency
financial time series data, especially its weak generalization ability, this
paper proposes an ensemble method based on data denoising methods, including
the wavelet transform (WT) and singular spectrum analysis (SSA), and long-term
short-term memory neural network (LSTM) to build a data prediction model, The
financial time series is decomposed and reconstructed by WT and SSA to denoise.
Under the condition of denoising, the smooth sequence with effective
information is reconstructed. The smoothing sequence is introduced into LSTM
and the predicted value is obtained. With the Dow Jones industrial average
index (DJIA) as the research object, the closing price of the DJIA every five
minutes is divided into short-term (1 hour), medium-term (3 hours) and
long-term (6 hours) respectively. . Based on root mean square error (RMSE),
mean absolute error (MAE), mean absolute percentage error (MAPE) and absolute
percentage error standard deviation (SDAPE), the experimental results show that
in the short-term, medium-term and long-term, data denoising can greatly
improve the accuracy and stability of the prediction, and can effectively
improve the generalization ability of LSTM prediction model. As WT and SSA can
extract useful information from the original sequence and avoid overfitting,
the hybrid model can better grasp the sequence pattern of the closing price of
the DJIA. And the WT-LSTM model is better than the benchmark LSTM model and
SSA-LSTM model. | به منظور غلبه بیشتر بر مشکلات مدل های موجود در
برخورد با ویژگی های غیر ثابت و غیرخطی با فرکانس بالا
داده های سری زمانی مالی ، به ویژه توانایی عمومی سازی ضعیف آن ، این
مقاله یک روش گروه را بر اساس روشهای dooising داده ها ، از جمله ارائه می دهد
تبدیل موجک (WT) و تجزیه و تحلیل طیف مفرد (SSA) و طولانی مدت
شبکه عصبی حافظه کوتاه مدت (LSTM) برای ساختن یک مدل پیش بینی داده ،
سری زمانی مالی توسط WT و SSA به Denoise تجزیه و بازسازی می شود.
تحت شرط دفع ، دنباله صاف با مؤثر
اطلاعات بازسازی می شود.توالی هموار سازی به LSTM معرفی می شود
و مقدار پیش بینی شده به دست می آید.با میانگین صنعتی داو جونز
فهرست (DJIA) به عنوان شیء تحقیق ، قیمت بسته شدن DJIA هر پنج
دقیقه ها به کوتاه مدت (1 ساعت) ، میان مدت (3 ساعت) و
به ترتیب طولانی مدت (6 ساعت).بشربر اساس خطای میانگین مربع ریشه (RMSE) ،
میانگین خطای مطلق (MAE) ، میانگین خطای درصد مطلق (MAPE) و مطلق
خطای درصد انحراف استاندارد (SDAPE) ، نتایج تجربی نشان می دهد که
در کوتاه مدت ، میان مدت و بلند مدت ، داده های ناشایست می توانند تا حد زیادی
دقت و ثبات پیش بینی را بهبود بخشید و به طور موثری می تواند
توانایی تعمیم مدل پیش بینی LSTM را بهبود بخشید.همانطور که WT و SSA می توانند
اطلاعات مفید را از دنباله اصلی استخراج کرده و از بیش از حد جلوگیری کنید ،
مدل ترکیبی می تواند الگوی توالی قیمت بسته شدن را بهتر درک کند
DJIAو مدل WT-LSTM بهتر از مدل LSTM معیار و
مدل SSA-LSTM. |
30,413 | This paper proposes methods for Bayesian inference in time-varying parameter
(TVP) quantile regression (QR) models featuring conditional heteroskedasticity.
I use data augmentation schemes to render the model conditionally Gaussian and
develop an efficient Gibbs sampling algorithm. Regularization of the
high-dimensional parameter space is achieved via flexible dynamic shrinkage
priors. A simple version of TVP-QR based on an unobserved component model is
applied to dynamically trace the quantiles of the distribution of inflation in
the United States, the United Kingdom and the euro area. In an out-of-sample
forecast exercise, I find the proposed model to be competitive and perform
particularly well for higher-order and tail forecasts. A detailed analysis of
the resulting predictive distributions reveals that they are sometimes skewed
and occasionally feature heavy tails. | در این مقاله روش هایی برای استنباط بیزی در پارامتر متغیر زمان ارائه شده است
(TVP) مدل های رگرسیون کمی (QR) که دارای ناهمگونی مشروط هستند.
من از طرح های تقویت داده برای ارائه مدل به صورت مشروط گاوسی استفاده می کنم
یک الگوریتم نمونه گیری کارآمد گیبس ایجاد کنید.منظم سازی
فضای پارامتر با ابعاد بالا از طریق انقباض پویا انعطاف پذیر حاصل می شود
مقدماتیک نسخه ساده از TVP-QR بر اساس یک مدل مؤلفه بدون نظارت است
اعمال شده برای ردیابی پویا در مقدار توزیع تورم در
ایالات متحده ، انگلستان و منطقه یورو.در یک نمونه خارج
تمرین پیش بینی ، من مدل پیشنهادی را رقابتی و اجرا می دانم
به ویژه برای پیش بینی های مرتبه بالاتر و دم.تجزیه و تحلیل دقیق از
توزیع پیش بینی کننده نتیجه نشان می دهد که بعضی اوقات آنها کم رنگ هستند
و گاهی اوقات دارای دمهای سنگین است. |
30,415 | The classic censored regression model (tobit model) has been widely used in
the economic literature. This model assumes normality for the error
distribution and is not recommended for cases where positive skewness is
present. Moreover, in regression analysis, it is well-known that a quantile
regression approach allows us to study the influences of the explanatory
variables on the dependent variable considering different quantiles. Therefore,
we propose in this paper a quantile tobit regression model based on
quantile-based log-symmetric distributions. The proposed methodology allows us
to model data with positive skewness (which is not suitable for the classic
tobit model), and to study the influence of the quantiles of interest, in
addition to accommodating heteroscedasticity. The model parameters are
estimated using the maximum likelihood method and an elaborate Monte Carlo
study is performed to evaluate the performance of the estimates. Finally, the
proposed methodology is illustrated using two female labor supply data sets.
The results show that the proposed log-symmetric quantile tobit model has a
better fit than the classic tobit model. | مدل رگرسیون کلاسیک سانسور شده (مدل TOBIT) به طور گسترده ای در آن استفاده شده است
ادبیات اقتصادی.این مدل برای خطا عادی بودن را فرض می کند
توزیع است و برای مواردی که پوستی مثبت است توصیه نمی شود
حاضر.علاوه بر این ، در تجزیه و تحلیل رگرسیون ، کاملاً شناخته شده است
رویکرد رگرسیون به ما امکان می دهد تا تأثیرات توضیحی را مطالعه کنیم
متغیرهای متغیر وابسته با توجه به مقادیر مختلف.از این رو،
ما در این مقاله یک مدل رگرسیون کمیته کمی را بر اساس پیشنهاد می کنیم
توزیع های متقارن مبتنی بر کمی.روش پیشنهادی به ما امکان می دهد
برای مدل سازی داده ها با پوستی مثبت (که برای کلاسیک مناسب نیست
مدل TOBIT) ، و برای مطالعه تأثیر مقدار مورد علاقه ، در
علاوه بر این ، ناهمگونی.پارامترهای مدل هستند
تخمین زده می شود با استفاده از روش حداکثر احتمال و یک مونت کارلو پیچیده
مطالعه برای ارزیابی عملکرد تخمین ها انجام می شود.بالاخره ،
روش پیشنهادی با استفاده از دو مجموعه داده تأمین نیروی کار زن نشان داده شده است.
نتایج نشان می دهد که مدل TOBIT کم متقارن log-mymmetric پیشنهادی دارای a است
تناسب بهتر از مدل کلاسیک Tobit. |
30,416 | This paper reexamines the seminal Lagrange multiplier test for cross-section
independence in a large panel model where both the number of cross-sectional
units n and the number of time series observations T can be large. The first
contribution of the paper is an enlargement of the test with two extensions:
firstly the new asymptotic normality is derived in a simultaneous limiting
scheme where the two dimensions (n, T) tend to infinity with comparable
magnitudes; second, the result is valid for general error distribution (not
necessarily normal). The second contribution of the paper is a new test
statistic based on the sum of the fourth powers of cross-section correlations
from OLS residuals, instead of their squares used in the Lagrange multiplier
statistic. This new test is generally more powerful, and the improvement is
particularly visible against alternatives with weak or sparse cross-section
dependence. Both simulation study and real data analysis are proposed to
demonstrate the advantages of the enlarged Lagrange multiplier test and the
power enhanced test in comparison with the existing procedures. | در این مقاله ، آزمایش ضرب لاگرانژ منی برای مقطع مورد بررسی قرار می گیرد
استقلال در یک مدل پانل بزرگ که در آن هر دو تعداد مقطعی
واحدهای N و تعداد مشاهدات سری زمانی T می تواند بزرگ باشد.اولین
سهم مقاله بزرگ شدن آزمون با دو پسوند است:
در مرحله اول ، عادی بودن بدون علامت جدید در یک محدود کننده همزمان به دست می آید
طرح که در آن دو بعد (n ، t) تمایل به بی نهایت با قابل مقایسه دارند
بزرگی ؛دوم ، نتیجه برای توزیع خطای عمومی معتبر است (نه
لزوماً طبیعی).سهم دوم مقاله یک آزمایش جدید است
آماری بر اساس مجموع قدرت چهارم همبستگی های مقطعی
از باقیمانده های OLS ، به جای مربع های آنها در ضرب Lagrange استفاده می شود
آماریاین آزمایش جدید به طور کلی قدرتمندتر است و پیشرفت آن است
به خصوص در برابر گزینه های با مقطع ضعیف یا پراکنده قابل مشاهده است
وابستگی.هر دو مطالعه شبیه سازی و تجزیه و تحلیل داده های واقعی ارائه شده است
مزایای آزمون ضرب Lagrange بزرگ شده و
تست تقویت شده قدرت در مقایسه با روشهای موجود. |
30,419 | This study provides an efficient approach for using text data to calculate
patent-to-patent (p2p) technological similarity, and presents a hybrid
framework for leveraging the resulting p2p similarity for applications such as
semantic search and automated patent classification. We create embeddings using
Sentence-BERT (SBERT) based on patent claims. We leverage SBERTs efficiency in
creating embedding distance measures to map p2p similarity in large sets of
patent data. We deploy our framework for classification with a simple Nearest
Neighbors (KNN) model that predicts Cooperative Patent Classification (CPC) of
a patent based on the class assignment of the K patents with the highest p2p
similarity. We thereby validate that the p2p similarity captures their
technological features in terms of CPC overlap, and at the same demonstrate the
usefulness of this approach for automatic patent classification based on text
data. Furthermore, the presented classification framework is simple and the
results easy to interpret and evaluate by end-users. In the out-of-sample model
validation, we are able to perform a multi-label prediction of all assigned CPC
classes on the subclass (663) level on 1,492,294 patents with an accuracy of
54% and F1 score > 66%, which suggests that our model outperforms the current
state-of-the-art in text-based multi-label and multi-class patent
classification. We furthermore discuss the applicability of the presented
framework for semantic IP search, patent landscaping, and technology
intelligence. We finally point towards a future research agenda for leveraging
multi-source patent embeddings, their appropriateness across applications, as
well as to improve and validate patent embeddings by creating domain-expert
curated Semantic Textual Similarity (STS) benchmark datasets. | این مطالعه یک رویکرد کارآمد برای استفاده از داده های متن برای محاسبه ارائه می دهد
شباهت فن آوری ثبت اختراع (P2P) ، و یک هیبرید را ارائه می دهد
چارچوب برای اعمال شباهت P2P حاصل برای برنامه هایی مانند
جستجوی معنایی و طبقه بندی ثبت اختراع خودکار.ما با استفاده از تعبیه ایجاد می کنیم
جمله-برت (Sbert) بر اساس ادعاهای ثبت اختراع.ما از کارآیی Sberts در
ایجاد اقدامات از راه دور تعبیه برای نقشه برداری شباهت P2P در مجموعه های بزرگی از
داده های ثبت اختراعما چارچوب خود را برای طبقه بندی با نزدیکترین ساده مستقر می کنیم
مدل همسایگان (KNN) که طبقه بندی ثبت اختراع تعاونی (CPC) را پیش بینی می کند
حق ثبت اختراع بر اساس تکلیف کلاس ثبت اختراعات K با بالاترین P2P
شباهتما از این طریق تأیید می کنیم که شباهت P2P آنها را ضبط می کند
ویژگی های فن آوری از نظر همپوشانی CPC ، و در همان نشان می دهد
سودمندی این رویکرد برای طبقه بندی ثبت اختراع خودکار بر اساس متن
داده ها.علاوه بر این ، چارچوب طبقه بندی ارائه شده ساده است و
نتایج آسان برای تفسیر و ارزیابی توسط کاربران نهایی.در مدل خارج از نمونه
اعتبار سنجی ، ما قادر به پیش بینی چند برچسب از کلیه CPC اختصاص یافته هستیم
کلاسهای زیر کلاس (663) در 1،492،294 ثبت اختراع با دقت
نمره 54 ٪ و F1> 66 ٪ ، که نشان می دهد مدل ما از جریان بهتر است
پیشرفته در زمینه ثبت اختراع چند برچسب و چند طبقه مبتنی بر متن
طبقه بندی.علاوه بر این ، ما در مورد کاربرد ارائه شده بحث می کنیم
چارچوب جستجوی IP معنایی ، محوطه سازی ثبت اختراع و فناوری
هوشما سرانجام به یک برنامه تحقیقاتی آینده برای اعمال استفاده می کنیم
تعبیه ثبت اختراع چند منبع ، مناسب بودن آنها در بین برنامه ها ،
و همچنین برای بهبود و اعتبار دادن به تعبیه های ثبت اختراع با ایجاد دامنه-اکسپرت
مجموعه داده های معیار معنایی معنایی (STS). |
30,420 | Many real life situations require a set of items to be repeatedly placed in a
random sequence. In such circumstances, it is often desirable to test whether
such randomization indeed obtains, yet this problem has received very limited
attention in the literature. This paper articulates the key features of this
problem and presents three "untargeted" tests that require no a priori
information from the analyst. These methods are used to analyze the order in
which lottery numbers are drawn in Powerball, the order in which contestants
perform on American Idol, and the order of candidates on primary election
ballots in Texas and West Virginia. In this last application, multiple
deviations from full randomization are detected, with potentially serious
political and legal consequences. The form these deviations take varies,
depending on institutional factors, which sometimes necessitates the use of
tests that exchange power for increased robustness. | بسیاری از موقعیت های زندگی واقعی نیاز به مجموعه ای از موارد دارند که به طور مکرر در یک قرار می گیرند
دنباله تصادفی.در چنین شرایطی ، اغلب مطلوب است که آزمایش کنیم
چنین تصادفی سازی در واقع به دست می آید ، اما این مشکل بسیار محدود شده است
توجه در ادبیات.این مقاله ویژگی های اصلی این را بیان می کند
مشکل و سه آزمایش "بدون هدف" را ارائه می دهد که نیازی به پیشینی ندارند
اطلاعات از تحلیلگر.از این روشها برای تجزیه و تحلیل ترتیب استفاده می شود
کدام تعداد قرعه کشی در Powerball ترسیم شده است ، نظمی که در آن شرکت کنندگان
در American Idol و ترتیب نامزدها در انتخابات اولیه اجرا کنید
آراء در تگزاس و ویرجینیا غربی.در این برنامه آخر ، چندگانه
انحراف از تصادفی کامل ، با بالقوه جدی تشخیص داده می شود
عواقب سیاسی و حقوقی.فرم این انحرافات متفاوت است ،
بسته به عوامل نهادی ، که گاهی اوقات استفاده از آن را ضروری می کند
آزمایشات مبادله ای برای افزایش استحکام. |
30,421 | This paper proposes a hierarchical approximate-factor approach to analyzing
high-dimensional, large-scale heterogeneous time series data using distributed
computing. The new method employs a multiple-fold dimension reduction procedure
using Principal Component Analysis (PCA) and shows great promises for modeling
large-scale data that cannot be stored nor analyzed by a single machine. Each
computer at the basic level performs a PCA to extract common factors among the
time series assigned to it and transfers those factors to one and only one node
of the second level. Each 2nd-level computer collects the common factors from
its subordinates and performs another PCA to select the 2nd-level common
factors. This process is repeated until the central server is reached, which
collects common factors from its direct subordinates and performs a final PCA
to select the global common factors. The noise terms of the 2nd-level
approximate factor model are the unique common factors of the 1st-level
clusters. We focus on the case of 2 levels in our theoretical derivations, but
the idea can easily be generalized to any finite number of hierarchies. We
discuss some clustering methods when the group memberships are unknown and
introduce a new diffusion index approach to forecasting. We further extend the
analysis to unit-root nonstationary time series. Asymptotic properties of the
proposed method are derived for the diverging dimension of the data in each
computing unit and the sample size $T$. We use both simulated data and real
examples to assess the performance of the proposed method in finite samples,
and compare our method with the commonly used ones in the literature concerning
the forecastability of extracted factors. | در این مقاله یک رویکرد تقریبی عاملی سلسله مراتبی برای تجزیه و تحلیل ارائه شده است
داده های سری ناهمگن در مقیاس بزرگ و در مقیاس بزرگ با استفاده از توزیع شده
محاسبه.روش جدید از یک روش کاهش ابعاد چند برابر استفاده می کند
با استفاده از تجزیه و تحلیل مؤلفه اصلی (PCA) و وعده های خوبی برای مدل سازی نشان می دهد
داده های در مقیاس بزرگ که توسط یک دستگاه واحد قابل ذخیره نیستند و تجزیه و تحلیل نمی شوند.هر یک
رایانه در سطح پایه PCA را برای استخراج عوامل مشترک در بین
سری زمانی که به آن اختصاص داده شده و آن عوامل را به یک و فقط یک گره منتقل می کند
از سطح دومهر رایانه سطح 2 فاکتورهای مشترک را از آن جمع می کند
زیردستان آن و PCA دیگری را برای انتخاب مشترک سطح 2 انجام می دهد
عوامل.این فرآیند تا رسیدن به سرور مرکزی تکرار می شود ، که
عوامل متداول را از زیردستان مستقیم آن جمع می کند و PCA نهایی را انجام می دهد
برای انتخاب عوامل مشترک جهانی.شرایط سر و صدا سطح 2
مدل فاکتور تقریبی عوامل متداول منحصر به فرد سطح 1 است
خوشه هاما در مورد 2 سطح در مشتقات نظری خود تمرکز می کنیم ، اما
این ایده به راحتی می تواند به هر تعداد محدود سلسله مراتب تعمیم داده شود.ما
در مورد برخی از روشهای خوشه بندی صحبت کنید وقتی که عضویت در گروه ناشناخته است و
یک رویکرد جدید شاخص انتشار برای پیش بینی را معرفی کنید.ما بیشتر گسترش می دهیم
تجزیه و تحلیل به سری زمانی غیر استاتوری واحد.خصوصیات بدون علامت
روش پیشنهادی برای بعد واگرایی داده ها در هر یک به دست آمده است
واحد محاسبات و اندازه نمونه $ t $.ما از داده های شبیه سازی شده و واقعی استفاده می کنیم
مثالهایی برای ارزیابی عملکرد روش پیشنهادی در نمونه های محدود ،
و روش ما را با روشهای متداول در ادبیات مربوطه مقایسه کنید
پیش بینی عوامل استخراج شده. |
30,422 | We propose a definition for the average indirect effect of a binary treatment
in the potential outcomes model for causal inference under cross-unit
interference. Our definition is analogous to the standard definition of the
average direct effect, and can be expressed without needing to compare outcomes
across multiple randomized experiments. We show that the proposed indirect
effect satisfies a decomposition theorem whereby, in a Bernoulli trial, the sum
of the average direct and indirect effects always corresponds to the effect of
a policy intervention that infinitesimally increases treatment probabilities.
We also consider a number of parametric models for interference, and find that
our non-parametric indirect effect remains a natural estimand when re-expressed
in the context of these models. | ما تعریفی را برای میانگین اثر غیرمستقیم یک درمان باینری پیشنهاد می کنیم
در مدل نتایج بالقوه برای استنباط علی در زیر واحد متقابل
دخالت.تعریف ما مشابه تعریف استاندارد از
میانگین اثر مستقیم ، و بدون نیاز به مقایسه نتایج می توان بیان کرد
در طی چندین آزمایش تصادفی.ما نشان می دهیم که غیرمستقیم پیشنهادی
اثر یک قضیه تجزیه را برآورده می کند که به موجب آن ، در یک محاکمه برنولی ، مبلغ
از میانگین اثرات مستقیم و غیرمستقیم همیشه با تأثیر آن مطابقت دارد
مداخله سیاست که به طور نامتناهی احتمال درمان را افزایش می دهد.
ما همچنین تعدادی از مدل های پارامتری را برای تداخل در نظر می گیریم و آن را می یابیم
اثر غیرمستقیم غیر پارامتری ما هنگام بیان مجدد یک برآورد طبیعی باقی مانده است
در زمینه این مدل ها. |
30,423 | We show that the identification problem for a class of dynamic panel logit
models with fixed effects has a connection to the truncated moment problem in
mathematics. We use this connection to show that the sharp identified set of
the structural parameters is characterized by a set of moment equality and
inequality conditions. This result provides sharp bounds in models where moment
equality conditions do not exist or do not point identify the parameters. We
also show that the sharp identifying content of the non-parametric latent
distribution of the fixed effects is characterized by a vector of its
generalized moments, and that the number of moments grows linearly in T. This
final result lets us point identify, or sharply bound, specific classes of
functionals, without solving an optimization problem with respect to the latent
distribution. | ما نشان می دهیم که مشکل شناسایی برای یک کلاس از ورود به پانل پویا است
مدل هایی با جلوه های ثابت ارتباط با مشکل لحظه کوتاه در
ریاضیاتما از این اتصال استفاده می کنیم تا نشان دهیم که مجموعه مشخص شده تیز
پارامترهای ساختاری با مجموعه ای از برابری لحظه ای مشخص می شود و
شرایط نابرابری.این نتیجه مرزهای تیز در مدلهایی را که لحظه ای در آن فراهم می کند فراهم می کند
شرایط برابری وجود ندارد یا پارامترها را مشخص نمی کند.ما
همچنین نشان می دهد که محتوای تیز و تیز نهفته غیر پارامتری
توزیع جلوه های ثابت توسط یک بردار آن مشخص می شود
لحظات تعمیم یافته ، و اینکه تعداد لحظات به صورت خطی در T رشد می کند.
نتیجه نهایی به ما اجازه می دهد تا کلاسهای خاصی از کلاسهای خاص را شناسایی یا به شدت محدود کنیم
عملکردها ، بدون حل یک مشکل بهینه سازی با توجه به نهفته
توزیع |
30,430 | This article considers average marginal effects (AME) in a panel data fixed
effects logit model. Relating the identified set of the AME to an extremal
moment problem, we first show how to obtain sharp bounds on the AME
straightforwardly, without any optimization. Then, we consider two strategies
to build confidence intervals on the AME. In the first, we estimate the sharp
bounds with a semiparametric two-step estimator. The second, very simple
strategy estimates instead a quantity known to be at a bounded distance from
the AME. It does not require any nonparametric estimation but may result in
larger confidence intervals. Monte Carlo simulations suggest that both
approaches work well in practice, the second being often very competitive.
Finally, we show that our results also apply to average treatment effects, the
average structural functions and ordered, fixed effects logit models. | در این مقاله ، میانگین اثرات حاشیه ای (AME) در داده های پانل ثابت در نظر گرفته شده است
مدل ورود به جلو.مربوط به مجموعه مشخص شده AME به افراطی
مشکل لحظه ای ، ما ابتدا نشان می دهیم که چگونه می توان مرزهای تیز را در AME بدست آورد
مستقیم ، بدون هیچ گونه بهینه سازی.سپس ، ما دو استراتژی را در نظر می گیریم
برای ایجاد فواصل اطمینان در AME.در وهله اول ، ما تیز را تخمین می زنیم
مرزها با یک برآوردگر دو مرحله ای نیمهرامتری.دوم ، بسیار ساده
به جای آن ، یک مقدار شناخته شده در فاصله محدود از فاصله ، برآورد استراتژی است
AMEنیازی به تخمین غیرپارامتری ندارد اما ممکن است منجر به آن شود
فواصل اعتماد به نفس بزرگتر.شبیه سازی مونت کارلو نشان می دهد که هر دو
رویکردها در عمل به خوبی کار می کنند ، دومین مورد اغلب بسیار رقابتی است.
سرانجام ، ما نشان می دهیم که نتایج ما نیز در مورد میانگین اثرات درمانی اعمال می شود ،
عملکردهای ساختاری متوسط و مدل های ورود به سیستم جلوه های ثابت. |
30,424 | The presence of outlying observations may adversely affect statistical
testing procedures that result in unstable test statistics and unreliable
inferences depending on the distortion in parameter estimates. In spite of the
fact that the adverse effects of outliers in panel data models, there are only
a few robust testing procedures available for model specification. In this
paper, a new weighted likelihood based robust specification test is proposed to
determine the appropriate approach in panel data including individual-specific
components. The proposed test has been shown to have the same asymptotic
distribution as that of most commonly used Hausman's specification test under
null hypothesis of random effects specification. The finite sample properties
of the robust testing procedure are illustrated by means of Monte Carlo
simulations and an economic-growth data from the member countries of the
Organisation for Economic Co-operation and Development. Our records reveal that
the robust specification test exhibit improved performance in terms of size and
power of the test in the presence of contamination. | وجود مشاهدات دور افتاده ممکن است بر آماری تأثیر منفی بگذارد
روشهای آزمایش که منجر به آمار آزمون ناپایدار و غیرقابل اعتماد می شوند
استنباط بسته به اعوجاج در برآورد پارامتر.علی رغم
این واقعیت که اثرات منفی Outriers در مدل های داده پانل ، فقط وجود دارد
چند روش آزمایش قوی برای مشخصات مدل موجود است.در این
مقاله ، یک آزمون مشخصات قوی مبتنی بر وزن جدید ارائه شده است
رویکرد مناسب در داده های پانل از جمله خاص فردی را تعیین کنید
اجزاء.آزمایش پیشنهادی نشان داده شده است که دارای یکسان است
توزیع به عنوان آزمون مشخصات Hausman که معمولاً مورد استفاده قرار می گیرد
فرضیه تهی از مشخصات اثرات تصادفی.خصوصیات نمونه محدود
از روش آزمایش قوی با استفاده از مونت کارلو نشان داده شده است
شبیه سازی ها و داده های رشد اقتصادی از کشورهای عضو
سازمان همکاری اقتصادی و توسعه.سوابق ما نشان می دهد که
نمایشگاه تست مشخصات قوی از نظر اندازه و عملکرد بهبود یافته است
قدرت آزمون در حضور آلودگی. |
30,425 | This paper establishes bounds on the performance of empirical risk
minimization for large-dimensional linear regression. We generalize existing
results by allowing the data to be dependent and heavy-tailed. The analysis
covers both the cases of identically and heterogeneously distributed
observations. Our analysis is nonparametric in the sense that the relationship
between the regressand and the regressors is not specified. The main results of
this paper show that the empirical risk minimizer achieves the optimal
performance (up to a logarithmic factor) in a dependent data setting. | در این مقاله محدودیت هایی در مورد عملکرد خطر تجربی تعیین شده است
به حداقل رساندن برای رگرسیون خطی با ابعاد بزرگ.ما موجود را تعمیم می دهیم
نتایج با اجازه دادن به داده ها وابسته و سنگین است.تجزیه و تحلیل
هر دو مورد از نظر یکسان و ناهمگن توزیع می شود
مشاهداتتجزیه و تحلیل ما به این معنا که رابطه غیرپارامتری است
بین regressand و regressors مشخص نشده است.نتایج اصلی از
این مقاله نشان می دهد که مینیم کننده خطر تجربی بهینه می شود
عملکرد (حداکثر یک عامل لگاریتمی) در یک تنظیم داده وابسته. |
30,426 | Two-sided marketplace platforms often run experiments to test the effect of
an intervention before launching it platform-wide. A typical approach is to
randomize individuals into the treatment group, which receives the
intervention, and the control group, which does not. The platform then compares
the performance in the two groups to estimate the effect if the intervention
were launched to everyone. We focus on two common experiment types, where the
platform randomizes individuals either on the supply side or on the demand
side. The resulting estimates of the treatment effect in these experiments are
typically biased: because individuals in the market compete with each other,
individuals in the treatment group affect those in the control group and vice
versa, creating interference. We develop a simple tractable market model to
study bias and variance in these experiments with interference. We focus on two
choices available to the platform: (1) Which side of the platform should it
randomize on (supply or demand)? (2) What proportion of individuals should be
allocated to treatment? We find that both choices affect the bias and variance
of the resulting estimators but in different ways. The bias-optimal choice of
experiment type depends on the relative amounts of supply and demand in the
market, and we discuss how a platform can use market data to select the
experiment type. Importantly, we find in many circumstances, choosing the
bias-optimal experiment type has little effect on variance. On the other hand,
the choice of treatment proportion can induce a bias-variance tradeoff, where
the bias-minimizing proportion increases variance. We discuss how a platform
can navigate this tradeoff and best choose the treatment proportion, using a
combination of modeling as well as contextual knowledge about the market, the
risk of the intervention, and reasonable effect sizes of the intervention. | سیستم عامل های دو طرفه بازار اغلب آزمایشاتی را انجام می دهند تا تأثیر آن را آزمایش کنند
مداخله قبل از راه اندازی پلت فرم IT.یک رویکرد معمولی این است
افراد را به گروه درمانی که دریافت می کند ، تصادفی کنید
مداخله ، و گروه کنترل ، که چنین نیست.سپس پلتفرم مقایسه می کند
عملکرد در دو گروه برای تخمین اثر در صورت مداخله
برای همه راه اندازی شدند.ما روی دو نوع آزمایش مشترک تمرکز می کنیم ، جایی که
پلت فرم افراد را در سمت عرضه یا تقاضا تصادفی می کند
سمت.برآوردهای حاصل از اثر درمانی در این آزمایشات است
به طور معمول مغرضانه: زیرا افراد موجود در بازار با یکدیگر رقابت می کنند ،
افراد در گروه درمانی افراد گروه کنترل و معاون را تحت تأثیر قرار می دهند
برعکس ، ایجاد تداخل.ما یک مدل بازار قابل ردیابی ساده را توسعه می دهیم
تعصب و واریانس را در این آزمایشات با تداخل مطالعه کنید.ما روی دو تمرکز می کنیم
گزینه های موجود در سیستم عامل: (1) کدام یک از سکو باید از آن استفاده کند
تصادفی در (عرضه یا تقاضا)؟(2) نسبت افراد باید چه باشد
به درمان اختصاص داده شده است؟ما می دانیم که هر دو گزینه بر تعصب و واریانس تأثیر می گذارند
از برآوردگرهای حاصل اما به روش های مختلف.انتخاب تعصب-بهینه از
نوع آزمایش به مقادیر نسبی عرضه و تقاضا در آن بستگی دارد
بازار ، و ما بحث می کنیم که چگونه یک پلتفرم می تواند از داده های بازار برای انتخاب استفاده کند
نوع آزمایش.مهمتر از همه ، ما در بسیاری از شرایط ، انتخاب می کنیم
نوع آزمایش تعصب-بهینه تأثیر کمی در واریانس دارد.از سوی دیگر،
انتخاب نسبت درمان می تواند باعث ایجاد یک تجارت تعصب و تغییر کند ، جایی که
نسبت تعصب-استخراج واریانس را افزایش می دهد.ما در مورد چگونگی یک پلتفرم بحث می کنیم
می تواند در این تجارت حرکت کند و به بهترین وجه با استفاده از یک مورد درمان را انتخاب کند
ترکیبی از مدل سازی و همچنین دانش متنی در مورد بازار ،
خطر مداخله و اندازه اثر معقول مداخله. |
30,427 | Economists often estimate economic models on data and use the point estimates
as a stand-in for the truth when studying the model's implications for optimal
decision-making. This practice ignores model ambiguity, exposes the decision
problem to misspecification, and ultimately leads to post-decision
disappointment. Using statistical decision theory, we develop a framework to
explore, evaluate, and optimize robust decision rules that explicitly account
for estimation uncertainty. We show how to operationalize our analysis by
studying robust decisions in a stochastic dynamic investment model in which a
decision-maker directly accounts for uncertainty in the model's transition
dynamics. | اقتصاددانان غالباً مدل های اقتصادی را بر روی داده ها تخمین می زنند و از تخمین های نقطه استفاده می کنند
به عنوان یک ایستاده برای حقیقت هنگام مطالعه پیامدهای مدل برای بهینه
تصمیم گیری.این عمل ابهام مدل را نادیده می گیرد ، تصمیم را در معرض نمایش می گذارد
مشکلی برای شناسایی اشتباه ، و در نهایت منجر به تصمیم گیری پس از آن می شود
ناامیدیبا استفاده از تئوری تصمیم آماری ، ما چارچوبی را توسعه می دهیم
قوانین تصمیم گیری قوی را که صریحاً حساب می کنند ، کاوش ، ارزیابی و بهینه سازی کنید
برای عدم اطمینان تخمین.ما نشان می دهیم که چگونه می توان تحلیل خود را عملیاتی کرد
مطالعه تصمیمات قوی در یک مدل سرمایه گذاری پویا تصادفی که در آن
تصمیم گیرنده مستقیماً عدم اطمینان در انتقال مدل را به خود اختصاص می دهد
پویایی شناسی. |
30,428 | This paper studies sequential search models that (1) incorporate unobserved
product quality, which can be correlated with endogenous observable
characteristics (such as price) and endogenous search cost variables (such as
product rankings in online search intermediaries); and (2) do not require
researchers to know the true distribution of the match value between consumers
and products. A likelihood approach to estimate such models gives biased
results. Therefore, I propose a new estimator -- pairwise maximum rank (PMR)
estimator -- for both preference and search cost parameters. I show that the
PMR estimator is consistent using only data on consumers' search order among
one pair of products rather than data on consumers' full consideration set or
final purchase. Additionally, we can use the PMR estimator to test for the true
match value distribution in the data. In the empirical application, I apply the
PMR estimator to quantify the effect of rankings in Expedia hotel search using
two samples of the data set, to which consumers are randomly assigned. I find
the position effect to be \$0.11-\$0.36, and the effect estimated using the
sample with randomly generated rankings is close to the effect estimated using
the sample with endogenous rankings. Moreover, I find that the true match value
distribution in the data is unlikely to be N(0,1). Likelihood estimation
ignoring endogeneity gives an upward bias of at least \$1.17; misspecification
of match value distribution as N(0,1) gives an upward bias of at least \$2.99. | این مقاله به بررسی مدلهای جستجوی متوالی که (1) شامل موارد غیرمجاز است
کیفیت محصول ، که می تواند با مشاهده درون زا در ارتباط باشد
ویژگی ها (مانند قیمت) و متغیرهای هزینه جستجوی درون زا (مانند
رتبه بندی محصولات در واسطه های جستجوی آنلاین) ؛و (2) نیازی نیست
محققان برای دانستن توزیع واقعی ارزش مسابقه بین مصرف کنندگان
و محصولاتیک رویکرد احتمال برای برآورد چنین مدلهایی مغرضانه می دهد
نتایج.بنابراین ، من یک برآوردگر جدید را پیشنهاد می کنم - حداکثر رتبه جفت (PMR)
برآوردگر - برای هر دو پارامترهای ترجیحی و هزینه جستجو.من نشان می دهم که
برآوردگر PMR فقط با استفاده از داده ها در مورد سفارش جستجوی مصرف کنندگان سازگار است
یک جفت محصول به جای داده در مورد مجموعه توجه کامل مصرف کنندگان یا
خرید نهاییعلاوه بر این ، ما می توانیم از برآوردگر PMR برای آزمایش واقعی استفاده کنیم
توزیع مقدار مطابقت در داده ها.در برنامه تجربی ، من اعمال می کنم
برآوردگر PMR برای کمیت تأثیر رتبه بندی در جستجوی هتل Expedia با استفاده از
دو نمونه از مجموعه داده ها ، که مصرف کنندگان به طور تصادفی به آنها اختصاص داده می شوند.من پیدا کردم
اثر موقعیتی \ 0.11 $-\ 0.36 $ ، و اثر تخمین زده شده با استفاده از
نمونه با رتبه بندی های تصادفی تولید شده نزدیک به اثر تخمین زده شده با استفاده است
نمونه با رتبه های درون زا.علاوه بر این ، من می فهمم که مقدار مسابقه واقعی
توزیع در داده ها بعید به نظر می رسد n (0،1).تخمین احتمال
نادیده گرفتن درون زایی ، تعصب رو به بالا حداقل \ 1.17 دلار را می بخشد.شناسایی غلط
توزیع ارزش مسابقه به عنوان n (0،1) تعصب رو به بالا حداقل \ 2.99 دلار می دهد. |
30,429 | How do inter-organizational networks emerge? Accounting for interdependence
among ties while studying tie formation is one of the key challenges in this
area of research. We address this challenge using an equilibrium framework
where firms' decisions to form links with other firms are modeled as a
strategic game. In this game, firms weigh the costs and benefits of
establishing a relationship with other firms and form ties if their net payoffs
are positive. We characterize the equilibrium networks as exponential random
graphs (ERGM), and we estimate the firms' payoffs using a Bayesian approach. To
demonstrate the usefulness of our approach, we apply the framework to a
co-investment network of venture capital firms in the medical device industry.
The equilibrium framework allows researchers to draw economic interpretation
from parameter estimates of the ERGM Model. We learn that firms rely on their
joint partners (transitivity) and prefer to form ties with firms similar to
themselves (homophily). These results hold after controlling for the
interdependence among ties. Another, critical advantage of a structural
approach is that it allows us to simulate the effects of economic shocks or
policy counterfactuals. We test two such policy shocks, namely, firm entry and
regulatory change. We show how new firms' entry or a regulatory shock of
minimum capital requirements increase the co-investment network's density and
clustering. | چگونه شبکه های بین سازمانی پدیدار می شوند؟حسابداری برای وابستگی متقابل
در میان پیوندها هنگام مطالعه سازند کراوات یکی از مهمترین چالش ها در این مورد است
حوزه تحقیقات.ما با استفاده از یک چارچوب تعادل به این چالش می پردازیم
جایی که تصمیمات بنگاهها برای ایجاد پیوندها با سایر بنگاهها به عنوان یک مدل سازی شده است
بازی استراتژیک.در این بازی ، شرکت ها هزینه ها و مزایای آن را وزن می کنند
برقراری رابطه با سایر بنگاهها و در صورت بازپرداخت خالص آنها ارتباط برقرار می کند
مثبت هستندما شبکه های تعادل را به صورت تصادفی نمایی توصیف می کنیم
نمودارها (ERGM) ، و ما بازپرداخت شرکت ها را با استفاده از رویکرد بیزی تخمین می زنیم.به
سودمندی رویکرد ما را نشان می دهد ، ما چارچوب را در a اعمال می کنیم
شبکه سرمایه گذاری شرکت های سرمایه گذاری سرمایه گذاری در صنعت دستگاه های پزشکی.
چارچوب تعادل به محققان اجازه می دهد تا تفسیر اقتصادی را ترسیم کنند
از برآورد پارامتر مدل ERGM.ما می آموزیم که بنگاه ها به خود متکی هستند
شرکای مشترک (انتقال) و ترجیح می دهند با بنگاههای مشابه ارتباط برقرار کنند
خود (هموفیلی).این نتایج پس از کنترل برای
وابستگی متقابل بین پیوندها.یکی دیگر از مزیت های مهم ساختاری
رویکرد این است که به ما اجازه می دهد تا اثرات شوک های اقتصادی را شبیه سازی کنیم
ضد مسیرهای ضد سیاست.ما دو شوک از این قبیل سیاست ، یعنی ورود محکم و
تغییر نظارتی.ما نشان می دهیم که چگونه ورود بنگاه های جدید یا شوک نظارتی از
حداقل نیازهای سرمایه چگالی شبکه سرمایه گذاری را افزایش می دهد و
خوشه بندی |
30,431 | With the heightened volatility in stock prices during the Covid-19 pandemic,
the need for price forecasting has become more critical. We investigated the
forecast performance of four models including Long-Short Term Memory, XGBoost,
Autoregression, and Last Value on stock prices of Facebook, Amazon, Tesla,
Google, and Apple in COVID-19 pandemic time to understand the accuracy and
predictability of the models in this highly volatile time region. To train the
models, the data of all stocks are split into train and test datasets. The test
dataset starts from January 2020 to April 2021 which covers the COVID-19
pandemic period. The results show that the Autoregression and Last value models
have higher accuracy in predicting the stock prices because of the strong
correlation between the previous day and the next day's price value.
Additionally, the results suggest that the machine learning models (Long-Short
Term Memory and XGBoost) are not performing as well as Autoregression models
when the market experiences high volatility. | با افزایش نوسانات در قیمت سهام در طول همه گیر Covid-19 ،
نیاز به پیش بینی قیمت بسیار مهم تر شده است.ما تحقیق کردیم
پیش بینی عملکرد چهار مدل از جمله حافظه کوتاه مدت کوتاه ، xgboost ،
Autoregression و آخرین ارزش در قیمت سهام Facebook ، Amazon ، Tesla ،
Google ، و Apple در زمان همه گیر Covid-19 برای درک صحت و
پیش بینی مدل ها در این منطقه بسیار بی ثبات.برای آموزش
مدل ها ، داده های همه سهام به مجموعه داده های قطار و آزمایش تقسیم می شوند.امتحان
مجموعه داده ها از ژانویه 2020 تا آوریل 2021 شروع می شود که Covid-19 را پوشش می دهد
دوره همه گیرنتایج نشان می دهد که مدل های Autoregression و Last Value
در پیش بینی قیمت سهام به دلیل قوی ، از دقت بیشتری برخوردار هستند
همبستگی بین روز قبل و ارزش قیمت روز بعد.
علاوه بر این ، نتایج نشان می دهد که مدل های یادگیری ماشین (کوتاه مدت
Memory Term و XGBoost) و همچنین مدل های Autoregression در حال اجرا نیستند
وقتی بازار نوسانات بالایی را تجربه می کند. |
30,432 | We study linear peer effects models where peers interact in groups,
individual's outcomes are linear in the group mean outcome and characteristics,
and group effects are random. Our specification is motivated by the moment
conditions imposed in Graham 2008. We show that these moment conditions can be
cast in terms of a linear random group effects model and lead to a class of GMM
estimators that are generally identified as long as there is sufficient
variation in group size. We also show that our class of GMM estimators contains
a Quasi Maximum Likelihood estimator (QMLE) for the random group effects model,
as well as the Wald estimator of Graham 2008 and the within estimator of Lee
2007 as special cases. Our identification results extend insights in Graham
2008 that show how assumptions about random group effects as well as variation
in group size can be used to overcome the reflection problem in identifying
peer effects. Our QMLE and GMM estimators accommodate additional covariates and
are valid in situations with a large but finite number of different group sizes
or types. Because our estimators are general moment based procedures, using
instruments other than binary group indicators in estimation is straight
forward. Our QMLE estimator accommodates group level covariates in the spirit
of Mundlak and Chamberlain and offers an alternative to fixed effects
specifications. Monte-Carlo simulations show that the bias of the QMLE
estimator decreases with the number of groups and the variation in group size,
and increases with group size. We also prove the consistency and asymptotic
normality of the estimator under reasonable assumptions. | ما مدلهای اثرات همسالان خطی را مطالعه می کنیم که همسالان در گروه ها در تعامل هستند ،
نتایج فرد در گروه میانگین نتیجه و ویژگی ها خطی است ،
و اثرات گروهی تصادفی است.مشخصات ما در لحظه انگیزه است
شرایط تحمیل شده در گراهام 2008. ما نشان می دهیم که این شرایط لحظه ای می تواند باشد
بازیگران از نظر یک مدل اثر گروهی تصادفی خطی و منجر به کلاس GMM
برآوردگرهایی که به طور کلی شناسایی می شوند تا زمانی که کافی باشد
تغییر در اندازه گروه.ما همچنین نشان می دهیم که کلاس برآوردگرهای GMM ما حاوی است
یک برآوردگر حداکثر احتمال شبه (QMLE) برای مدل اثرات گروهی تصادفی ،
و همچنین برآوردگر والد گراهام 2008 و برآوردگر لی لی
2007 به عنوان موارد خاص.نتایج شناسایی ما بینش در گراهام را گسترش می دهد
2008 که نشان می دهد چگونه فرضیات در مورد اثرات گروه تصادفی و همچنین تنوع
در اندازه گروه می تواند برای غلبه بر مشکل بازتاب در شناسایی استفاده شود
اثرات همسالانبرآوردگرهای QMLE و GMM ما متغیرهای متغیر اضافی و
در موقعیت هایی با تعداد زیادی اما محدود از اندازه گروه های مختلف معتبر هستند
یا انواعاز آنجا که برآوردگرهای ما روشهای کلی مبتنی بر لحظه هستند ، با استفاده از
ابزاری غیر از شاخص های گروه باینری در تخمین مستقیم است
رو به جلو.برآوردگر QMLE ما متغیرهای سطح گروه را در روح قرار می دهد
از Mundlak و Chamberlain و جایگزینی برای جلوه های ثابت ارائه می دهد
مشخصات فنی.شبیه سازی مونت کارلو نشان می دهد که تعصب QMLE
برآوردگر با تعداد گروه ها و تغییر در اندازه گروه کاهش می یابد ،
و با اندازه گروه افزایش می یابد.ما همچنین قوام و بدون علامت را اثبات می کنیم
عادی بودن برآوردگر تحت فرضیات معقول. |
30,433 | One of the important and widely used classes of models for non-Gaussian time
series is the generalized autoregressive model average models (GARMA), which
specifies an ARMA structure for the conditional mean process of the underlying
time series. However, in many applications one often encounters conditional
heteroskedasticity. In this paper we propose a new class of models, referred to
as GARMA-GARCH models, that jointly specify both the conditional mean and
conditional variance processes of a general non-Gaussian time series. Under the
general modeling framework, we propose three specific models, as examples, for
proportional time series, nonnegative time series, and skewed and heavy-tailed
financial time series. Maximum likelihood estimator (MLE) and quasi Gaussian
MLE (GMLE) are used to estimate the parameters. Simulation studies and three
applications are used to demonstrate the properties of the models and the
estimation procedures. | یکی از کلاسهای مهم و گسترده ای از مدل ها برای زمان غیر گاوسی
سریال مدل های متوسط مدل خودجوش عمومی (GARMA) است که
ساختار ARMA را برای فرآیند میانگین مشروط زیرین مشخص می کند
سری زمانی.با این حال ، در بسیاری از برنامه ها اغلب با مشروط روبرو می شود
ناهمگونی.در این مقاله ما یک کلاس جدید از مدل ها را ارائه می دهیم
به عنوان مدل های گرما-بازی ، که به طور مشترک هم میانگین مشروط را مشخص می کند و
فرآیندهای واریانس مشروط از یک سری زمانی عمومی غیر گاوسی.در زیر
چارچوب مدل سازی عمومی ، ما سه مدل خاص را به عنوان نمونه پیشنهاد می کنیم
سری زمانی متناسب ، سریال های زمانی غیر منفی ، و کم رنگ و سنگین
سری زمانی مالی.حداکثر برآوردگر احتمال (MLE) و شبه گاوسی
از MLE (GMLE) برای برآورد پارامترها استفاده می شود.مطالعات شبیه سازی و سه
برنامه های کاربردی برای نشان دادن خصوصیات مدل ها و
روشهای تخمین. |
30,434 | We propose a fast and flexible method to scale multivariate return volatility
predictions up to high-dimensions using a dynamic risk factor model. Our
approach increases parsimony via time-varying sparsity on factor loadings and
is able to sequentially learn the use of constant or time-varying parameters
and volatilities. We show in a dynamic portfolio allocation problem with 452
stocks from the S&P 500 index that our dynamic risk factor model is able to
produce more stable and sparse predictions, achieving not just considerable
portfolio performance improvements but also higher utility gains for the
mean-variance investor compared to the traditional Wishart benchmark and the
passive investment on the market index. | ما یک روش سریع و انعطاف پذیر برای مقیاس نوسانات بازگشت چند متغیره پیشنهاد می کنیم
پیش بینی ها تا با استفاده از یک مدل فاکتور خطر پویا ، تا زمان های بالا.ما
رویکرد باعث افزایش پارسیمونی از طریق کمبود زمان در بارهای عامل و
قادر است به طور متوالی استفاده از پارامترهای ثابت یا متغیر را بیاموزد
و نوساناتما در یک مشکل تخصیص نمونه کارها پویا با 452 نشان می دهیم
سهام از فهرست S&P 500 که مدل فاکتور ریسک پویا ما قادر به آن است
پیش بینی های پایدارتر و پراکنده تری تولید می کند ، و نه تنها قابل توجه است
پیشرفت عملکرد نمونه کارها اما همچنین سودهای بیشتری برای این کار
سرمایه گذار میانگین واریانس در مقایسه با معیار سنتی ویشارت و
سرمایه گذاری منفعل در شاخص بازار. |
30,435 | We propose employing a debiased-regularized, high-dimensional generalized
method of moments (GMM) framework to perform inference on large-scale spatial
panel networks. In particular, network structure with a flexible sparse
deviation, which can be regarded either as latent or as misspecified from a
predetermined adjacency matrix, is estimated using debiased machine learning
approach. The theoretical analysis establishes the consistency and asymptotic
normality of our proposed estimator, taking into account general temporal and
spatial dependency inherent in the data-generating processes. The
dimensionality allowance in presence of dependency is discussed. A primary
contribution of our study is the development of uniform inference theory that
enables hypothesis testing on the parameters of interest, including zero or
non-zero elements in the network structure. Additionally, the asymptotic
properties for the estimator are derived for both linear and nonlinear moments.
Simulations demonstrate superior performance of our proposed approach. Lastly,
we apply our methodology to investigate the spatial network effect of stock
returns. | ما پیشنهاد می کنیم که از یک عمومیت با ابعاد بالا استفاده کنید
چارچوب Method of Moments (GMM) برای انجام استنتاج در فضایی در مقیاس بزرگ
شبکه های پانل.به طور خاص ، ساختار شبکه با پراکنده انعطاف پذیر
انحراف ، که می تواند به عنوان نهفته یا به عنوان غلط از یک در نظر گرفته شود
ماتریس مجاورت از پیش تعیین شده ، با استفاده از یادگیری ماشین دفع شده تخمین زده می شود
رویکرد.تجزیه و تحلیل نظری قوام و بدون علامت را تعیین می کند
نرمال بودن برآوردگر پیشنهادی ما ، با در نظر گرفتن زمانی عمومی و
وابستگی مکانی ذاتی در فرآیندهای تولید داده.در
کمک هزینه ابعاد در حضور وابستگی مورد بحث قرار گرفته است.ابتدایی
سهم مطالعه ما توسعه تئوری استنباط یکنواخت است که
آزمایش فرضیه را در مورد پارامترهای مورد علاقه ، از جمله صفر یا
عناصر غیر صفر در ساختار شبکه.علاوه بر این ، بدون علامت
خواص برآوردگر برای هر دو لحظه خطی و غیرخطی بدست می آید.
شبیه سازی ها عملکرد برتر رویکرد پیشنهادی ما را نشان می دهد.در آخر،
ما از روش خود برای بررسی تأثیر شبکه مکانی سهام استفاده می کنیم
برمی گردد |
30,436 | Recently, Szufa et al. [AAMAS 2020] presented a "map of elections" that
visualizes a set of 800 elections generated from various statistical cultures.
While similar elections are grouped together on this map, there is no obvious
interpretation of the elections' positions. We provide such an interpretation
by introducing four canonical "extreme" elections, acting as a compass on the
map. We use them to analyze both a dataset provided by Szufa et al. and a
number of real-life elections. In effect, we find a new variant of the Mallows
model and show that it captures real-life scenarios particularly well. | اخیراً ، Szufa و همکاران.[AAMAS 2020] "نقشه انتخابات" را ارائه داد که
مجموعه ای از 800 انتخابات حاصل از فرهنگ های مختلف آماری را تجسم می کند.
در حالی که انتخابات مشابه در این نقشه با هم گروه بندی می شوند ، هیچ آشکاری وجود ندارد
تفسیر مواضع انتخابات.ما چنین تفسیری ارائه می دهیم
با معرفی چهار انتخابات "افراطی" متعارف ، به عنوان قطب نما در
نقشهما از آنها برای تجزیه و تحلیل هر دو مجموعه داده ارائه شده توسط Szufa و همکاران استفاده می کنیم.و الف
تعداد انتخابات زندگی واقعی.در واقع ، ما یک نوع جدید از Mallows پیدا می کنیم
مدل و نشان می دهد که سناریوهای زندگی واقعی را به خوبی ضبط می کند. |
30,437 | With uncertain changes of the economic environment, macroeconomic downturns
during recessions and crises can hardly be explained by a Gaussian structural
shock. There is evidence that the distribution of macroeconomic variables is
skewed and heavy tailed. In this paper, we contribute to the literature by
extending a vector autoregression (VAR) model to account for a more realistic
assumption of the multivariate distribution of the macroeconomic variables. We
propose a general class of generalized hyperbolic skew Student's t distribution
with stochastic volatility for the error term in the VAR model that allows us
to take into account skewness and heavy tails. Tools for Bayesian inference and
model selection using a Gibbs sampler are provided. In an empirical study, we
present evidence of skewness and heavy tails for monthly macroeconomic
variables. The analysis also gives a clear message that skewness should be
taken into account for better predictions during recessions and crises. | با تغییرات نامشخص در محیط اقتصادی ، رکودهای کلان اقتصادی
در حین رکود اقتصادی و بحران ها به سختی توسط یک ساختاری گاوسی قابل توضیح است
شوکه شدن.شواهدی وجود دارد که نشان می دهد توزیع متغیرهای کلان اقتصادی است
خلوت و سنگیندر این مقاله ، ما به ادبیات کمک می کنیم
گسترش یک مدل Autoregression بردار (VAR) برای پاسخگویی واقعی تر
فرض توزیع چند متغیره متغیرهای کلان اقتصادی.ما
یک کلاس کلی از توزیع T دانشجویی Hyperbolic Hyperbolic را پیشنهاد دهید
با نوسانات تصادفی برای اصطلاح خطا در مدل VAR که به ما امکان می دهد
برای در نظر گرفتن پوستی و دمهای سنگین.ابزارهایی برای استنباط بیزی و
انتخاب مدل با استفاده از یک نمونه گیبس ارائه شده است.در یک مطالعه تجربی ، ما
شواهد موجود در مورد پوستی و دمهای سنگین برای ماهانه اقتصاد کلان
متغیرهاتجزیه و تحلیل همچنین یک پیام واضح ارائه می دهد که باید پوستی باشد
در نظر گرفته شده برای پیش بینی های بهتر در هنگام رکود اقتصادی و بحران ها. |
30,438 | Financial advisors use questionnaires and discussions with clients to
determine a suitable portfolio of assets that will allow clients to reach their
investment objectives. Financial institutions assign risk ratings to each
security they offer, and those ratings are used to guide clients and advisors
to choose an investment portfolio risk that suits their stated risk tolerance.
This paper compares client Know Your Client (KYC) profile risk allocations to
their investment portfolio risk selections using a value-at-risk discrepancy
methodology. Value-at-risk is used to measure elicited and revealed risk to
show whether clients are over-risked or under-risked, changes in KYC risk lead
to changes in portfolio configuration, and cash flow affects a client's
portfolio risk. We demonstrate the effectiveness of value-at-risk at measuring
clients' elicited and revealed risk on a dataset provided by a private Canadian
financial dealership of over $50,000$ accounts for over $27,000$ clients and
$300$ advisors. By measuring both elicited and revealed risk using the same
measure, we can determine how well a client's portfolio aligns with their
stated goals. We believe that using value-at-risk to measure client risk
provides valuable insight to advisors to ensure that their practice is KYC
compliant, to better tailor their client portfolios to stated goals,
communicate advice to clients to either align their portfolios to stated goals
or refresh their goals, and to monitor changes to the clients' risk positions
across their practice. | مشاوران مالی از پرسشنامه ها و بحث و گفتگو با مشتریان استفاده می کنند
یک نمونه کارها مناسب از دارایی ها را تعیین کنید که به مشتریان امکان دستیابی به آنها را می دهد
اهداف سرمایه گذاری.موسسات مالی رتبه های ریسک را به هر یک اختصاص می دهند
امنیتی که آنها ارائه می دهند ، و از این رتبه بندی ها برای راهنمایی مشتری و مشاوران استفاده می شود
برای انتخاب یک ریسک نمونه کارها سرمایه گذاری که متناسب با ریسک اعلام شده آنها باشد.
در این مقاله ، مشتری می شناسد که ریسک مشخصات مشتری (KYC) شما را می شناسد
انتخاب ریسک پرتفوی سرمایه گذاری آنها با استفاده از اختلاف ارزش در معرض خطر
روش شناسیارزش در معرض خطر برای اندازه گیری و خطر خطرناک استفاده می شود
نشان می دهد که آیا مشتری بیش از حد در معرض خطر قرار گرفته است یا در معرض خطر نیست ، تغییرات در خطر KYC
برای تغییر در پیکربندی نمونه کارها ، و جریان نقدی روی مشتری تأثیر می گذارد
ریسک نمونه کارها.ما اثربخشی ارزش در معرض خطر در اندازه گیری را نشان می دهیم
ریسک مشتری در یک مجموعه داده ارائه شده توسط یک کانادایی خصوصی ،
نمایندگی مالی بیش از 50،000 دلار حساب بیش از 27،000 دلار مشتری و
300 دلار مشاوران.با اندازه گیری هر دو ریسک شده و با استفاده از همان خطر را نشان داد
اندازه گیری ، ما می توانیم تعیین کنیم که چگونه نمونه کارها مشتری با آنها هماهنگ است
اهداف بیان شدهما معتقدیم که استفاده از ارزش در معرض خطر برای اندازه گیری ریسک مشتری
بینش ارزشمندی را برای مشاوران فراهم می کند تا اطمینان حاصل شود که عمل آنها KYC است
سازگار ، برای بهتر کردن اوراق بهادار مشتری خود به اهداف اعلام شده ،
مشاوره با مشتری ها برای هماهنگی اوراق بهادار خود به اهداف اعلام شده ارتباط برقرار کنید
یا اهداف خود را تازه کنید و برای نظارت بر تغییرات در موقعیت های خطر مشتری
در طول تمرین آنها |
30,439 | This paper develops tests for the correct specification of the conditional
variance function in GARCH models when the true parameter may lie on the
boundary of the parameter space. The test statistics considered are of
Kolmogorov-Smirnov and Cram\'{e}r-von Mises type, and are based on a certain
empirical process marked by centered squared residuals. The limiting
distributions of the test statistics are not free from (unknown) nuisance
parameters, and hence critical values cannot be tabulated. A novel bootstrap
procedure is proposed to implement the tests; it is shown to be asymptotically
valid under general conditions, irrespective of the presence of nuisance
parameters on the boundary. The proposed bootstrap approach is based on
shrinking of the parameter estimates used to generate the bootstrap sample
toward the boundary of the parameter space at a proper rate. It is simple to
implement and fast in applications, as the associated test statistics have
simple closed form expressions. A simulation study demonstrates that the new
tests: (i) have excellent finite sample behavior in terms of empirical
rejection probabilities under the null as well as under the alternative; (ii)
provide a useful complement to existing procedures based on Ljung-Box type
approaches. Two data examples are considered to illustrate the tests. | در این مقاله تست هایی برای مشخصات صحیح مشروط ایجاد می شود
عملکرد واریانس در مدلهای GARCH هنگامی که پارامتر واقعی ممکن است روی آن قرار داشته باشد
مرز فضای پارامتر.آمار آزمون در نظر گرفته شده از
Kolmogorov-Smirnov و Cram \ '{E} r-Von Mises نوع ، و مبتنی بر یک خاص است
فرآیند تجربی مشخص شده توسط باقیمانده های مربع محور.محدود کننده
توزیع آمار آزمون عاری از مزاحمت (ناشناخته) نیست
پارامترها ، و از این رو مقادیر بحرانی نمی توانند جدول بندی شوند.یک بوت استرپ جدید
روال برای اجرای آزمون ها پیشنهاد شده است.نشان داده شده به صورت بدون علامت است
در شرایط کلی ، صرف نظر از حضور مزاحمت ، معتبر است
پارامترهای موجود در مرز.رویکرد بوت استرپ پیشنهادی مبتنی بر است
کوچک کردن برآورد پارامتر مورد استفاده برای تولید نمونه bootstrap
به سمت مرز فضای پارامتر با سرعت مناسب.ساده است
همانطور که آمار آزمون مرتبط با آن وجود دارد و سریع در برنامه ها اجرا و سریع اجرا می شود
عبارات فرم بسته ساده.یک مطالعه شبیه سازی نشان می دهد که جدید
تست ها: (i) از نظر تجربی رفتار نمونه محدود بسیار خوبی دارند
احتمالات رد در زیر تهی و همچنین تحت گزینه جایگزین ؛(ب)
یک مکمل مفید برای رویه های موجود بر اساس نوع Ljung-Box ارائه دهید
رویکرددو نمونه داده برای نشان دادن آزمایشات در نظر گرفته شده است. |
30,440 | Datasets from field experiments with covariate-adaptive randomizations (CARs)
usually contain extra covariates in addition to the strata indicators. We
propose to incorporate these additional covariates via auxiliary regressions in
the estimation and inference of unconditional quantile treatment effects (QTEs)
under CARs. We establish the consistency and limit distribution of the
regression-adjusted QTE estimator and prove that the use of multiplier
bootstrap inference is non-conservative under CARs. The auxiliary regression
may be estimated parametrically, nonparametrically, or via regularization when
the data are high-dimensional. Even when the auxiliary regression is
misspecified, the proposed bootstrap inferential procedure still achieves the
nominal rejection probability in the limit under the null. When the auxiliary
regression is correctly specified, the regression-adjusted estimator achieves
the minimum asymptotic variance. We also discuss forms of adjustments that can
improve the efficiency of the QTE estimators. The finite sample performance of
the new estimation and inferential methods is studied in simulations and an
empirical application to a well-known dataset concerned with expanding access
to basic bank accounts on savings is reported. | مجموعه داده های آزمایش های میدانی با تصادفی سازی متغیر همبستگی (اتومبیل)
معمولاً علاوه بر شاخص های اقشار حاوی متغیرهای اضافی است.ما
پیشنهاد کنید که این متغیرهای اضافی را از طریق رگرسیون کمکی وارد کنید
تخمین و استنباط اثرات درمانی کمی بی قید و شرط (QTES)
زیر اتومبیلما قوام و توزیع محدود را تعیین می کنیم
برآوردگر QTE تنظیم شده توسط رگرسیون و ثابت کردن استفاده از ضرب
استنتاج bootstrap غیر محافظه کار در زیر اتومبیل ها است.رگرسیون کمکی
ممکن است به صورت پارامتری ، غیر پارامتری یا از طریق تنظیم مجدد تخمین زده شود
داده ها با ابعاد بالا هستند.حتی وقتی رگرسیون کمکی باشد
غلط امضایی ، روش استنباطی بوت استرپ پیشنهادی هنوز به دست می آید
احتمال رد اسمی در حد زیر تهی.وقتی کمکی است
رگرسیون به درستی مشخص شده است ، برآوردگر تنظیم شده رگرسیون به دست می آید
حداقل واریانس بدون علامت.ما همچنین در مورد اشکال تنظیماتی که می توانند بحث کنیم
بهره وری برآوردگرهای QTE را بهبود بخشید.عملکرد نمونه محدود از
تخمین جدید و روشهای استنباطی در شبیه سازی ها و یک مورد بررسی شده است
برنامه تجربی به یک مجموعه داده مشهور مربوط به گسترش دسترسی
به حساب های بانکی اساسی در مورد پس انداز گزارش شده است. |
30,441 | Recently, an approach to modeling portfolio distribution with risk factors
distributed as Gram-Charlier (GC) expansions of the Gaussian law, has been
conceived. GC expansions prove effective when dealing with moderately
leptokurtic data. In order to cover the case of possibly severe leptokurtosis,
the so-called GC-like expansions have been devised by reshaping parent
leptokurtic distributions by means of orthogonal polynomials specific to them.
In this paper, we focus on the hyperbolic-secant (HS) law as parent
distribution whose GC-like expansions fit with kurtosis levels up to 19.4. A
portfolio distribution has been obtained with risk factors modeled as GClike
expansions of the HS law which duly account for excess kurtosis. Empirical
evidence of the workings of the approach dealt with in the paper is included. | به تازگی ، رویکردی برای مدل سازی توزیع نمونه کارها با عوامل خطر
توزیع شده به عنوان Gram-Charlier (GC) قانون گاوسی
تصور شدهگسترش GC هنگام برخورد با متوسط مؤثر است
داده های leptokurtic.به منظور پوشش پرونده لپتوکورتوز احتمالاً شدید ،
گسترش به اصطلاح GC مانند تغییر شکل والدین ابداع شده است
توزیع لپتوکورتیک با استفاده از چند جمله ای متعامد خاص برای آنها.
در این مقاله ، ما بر روی قانون Hyperbolic-Secant (HS) به عنوان والدین تمرکز می کنیم
توزیع که گسترش GC مانند با سطح کورتوز تا 19.4 متناسب است.آ
توزیع نمونه کارها با عوامل خطر مدل شده به عنوان GCLIKE به دست آمده است
گسترش قانون HS که به درستی کورتوز اضافی را به خود اختصاص می دهد.تجربی
شواهدی از عملکرد رویکرد که در مقاله به آن پرداخته شده است ، گنجانده شده است. |
30,618 | In this chapter, we review variance selection for time-varying parameter
(TVP) models for univariate and multivariate time series within a Bayesian
framework. We show how both continuous as well as discrete spike-and-slab
shrinkage priors can be transferred from variable selection for regression
models to variance selection for TVP models by using a non-centered
parametrization. We discuss efficient MCMC estimation and provide an
application to US inflation modeling. | در این فصل ، ما انتخاب واریانس را برای پارامتر متغیر زمان مرور می کنیم
(TVP) مدل هایی برای سریال های زمانی متغیره و چند متغیره در یک بیزی
چارچوبما نشان می دهیم که چگونه هر دو سنبله و تخته سنبله و سنبله گسسته
Priors Emrinkage را می توان از انتخاب متغیر برای رگرسیون منتقل کرد
مدل ها به انتخاب واریانس برای مدل های TVP با استفاده از یک غیر محور
پارامتر سازیما در مورد تخمین کارآمد MCMC بحث می کنیم و ارائه می دهیم
کاربرد برای مدل سازی تورم ایالات متحده. |
30,442 | While most treatment evaluations focus on binary interventions, a growing
literature also considers continuously distributed treatments. We propose a
Cram\'{e}r-von Mises-type test for testing whether the mean potential outcome
given a specific treatment has a weakly monotonic relationship with the
treatment dose under a weak unconfoundedness assumption. In a nonseparable
structural model, applying our method amounts to testing monotonicity of the
average structural function in the continuous treatment of interest. To
flexibly control for a possibly high-dimensional set of covariates in our
testing approach, we propose a double debiased machine learning estimator that
accounts for covariates in a data-driven way. We show that the proposed test
controls asymptotic size and is consistent against any fixed alternative. These
theoretical findings are supported by the Monte-Carlo simulations. As an
empirical illustration, we apply our test to the Job Corps study and reject a
weakly negative relationship between the treatment (hours in academic and
vocational training) and labor market performance among relatively low
treatment values. | در حالی که بیشتر ارزیابی های درمانی بر مداخلات باینری متمرکز است ، در حال رشد است
ادبیات همچنین درمانهای توزیع شده به طور مداوم را در نظر می گیرد.ما پیشنهاد می کنیم
Cram \ '{E} r-von Mises-Type برای آزمایش اینکه آیا میانگین نتیجه بالقوه
با توجه به یک درمان خاص رابطه ضعیف یکنواخت با
دوز درمانی تحت یک فرض عدم موفقیت ضعیف.در غیر قابل تفکیک
مدل ساختاری ، استفاده از روش ما برای آزمایش یکنواختی از
عملکرد ساختاری متوسط در درمان مداوم مورد علاقه.به
کنترل انعطاف پذیر برای یک مجموعه متغیر احتمالاً با ابعاد بالا در ما
رویکرد تست ، ما یک برآوردگر یادگیری ماشین مضاعف را پیشنهاد می کنیم که
حساب های متغیرهای متغیر را به روشی محور داده حساب می کند.ما نشان می دهیم که آزمون پیشنهادی
اندازه مجانبی را کنترل می کند و در برابر هر جایگزین ثابت سازگار است.اینها
یافته های نظری توسط شبیه سازی مونت کارلو پشتیبانی می شود.به عنوان یک
تصویر تجربی ، ما آزمون خود را در مطالعه سپاه شغلی اعمال می کنیم و a را رد می کنیم
رابطه ضعیف منفی بین درمان (ساعت در دانشگاهی و
آموزش حرفه ای) و عملکرد بازار کار در بین نسبتاً کم
مقادیر درمانی. |
30,443 | We study regressions with multiple treatments and a set of controls that is
flexible enough to purge omitted variable bias. We show these regressions
generally fail to estimate convex averages of heterogeneous treatment effects;
instead, estimates of each treatment's effect are contaminated by non-convex
averages of the effects of other treatments. We discuss three estimation
approaches that avoid such contamination bias, including a new estimator of
efficiently weighted average effects. We find minimal bias in a re-analysis of
Project STAR, due to idiosyncratic effect heterogeneity. But sizeable
contamination bias arises when effect heterogeneity becomes correlated with
treatment propensity scores. | ما رگرسیون را با چندین درمان و مجموعه ای از کنترل ها مطالعه می کنیم
به اندازه کافی انعطاف پذیر برای پاکسازی تعصب متغیر حذف شده.ما این رگرسیون ها را نشان می دهیم
به طور کلی در تخمین میانگین محدب اثرات درمانی ناهمگن.
در عوض ، برآوردهای اثر هر درمان توسط غیر کنفکس آلوده می شود
میانگین اثرات سایر درمانها.ما در مورد سه تخمین بحث می کنیم
رویکردهایی که از چنین تعصب آلودگی جلوگیری می کنند ، از جمله برآوردگر جدید
اثرات متوسط وزن کارآمد.ما در تجزیه و تحلیل مجدد از حداقل تعصب پیدا می کنیم
Project Star ، به دلیل ناهمگونی اثر خاص.اما قابل توجه
تعصب آلودگی هنگامی بوجود می آید که ناهمگونی اثر با همبستگی شود
نمرات تمایل به درمان. |
30,444 | Artificial neural networks (ANNs) have been the catalyst to numerous advances
in a variety of fields and disciplines in recent years. Their impact on
economics, however, has been comparatively muted. One type of ANN, the long
short-term memory network (LSTM), is particularly wellsuited to deal with
economic time-series. Here, the architecture's performance and characteristics
are evaluated in comparison with the dynamic factor model (DFM), currently a
popular choice in the field of economic nowcasting. LSTMs are found to produce
superior results to DFMs in the nowcasting of three separate variables; global
merchandise export values and volumes, and global services exports. Further
advantages include their ability to handle large numbers of input features in a
variety of time frequencies. A disadvantage is the inability to ascribe
contributions of input features to model outputs, common to all ANNs. In order
to facilitate continued applied research of the methodology by avoiding the
need for any knowledge of deep-learning libraries, an accompanying Python
library was developed using PyTorch, https://pypi.org/project/nowcast-lstm/. | شبکه های عصبی مصنوعی (ANNS) کاتالیزور پیشرفت های بی شماری بوده اند
در زمینه ها و رشته های مختلف در سالهای اخیر.تأثیر آنها بر
با این حال ، اقتصاد نسبتاً خاموش بوده است.یک نوع آن ، طولانی
شبکه حافظه کوتاه مدت (LSTM) ، به ویژه برای مقابله
سری زمانی اقتصادی.در اینجا ، عملکرد و ویژگی های معماری
در مقایسه با مدل فاکتور پویا (DFM) ، در حال حاضر a ارزیابی می شوند
انتخاب محبوب در زمینه Nowcasting اقتصادی.LSTM ها تولید می شوند
نتایج برتر به DFMS در حال حاضر سه متغیر جداگانه.جهانی
ارزش ها و حجم صادرات کالا و صادرات خدمات جهانی.به علاوه
مزایا شامل توانایی آنها در رسیدگی به تعداد زیادی از ویژگی های ورودی در یک است
انواع فرکانس های زمانی.یک ضرر ناتوانی در توصیف است
سهم ویژگی های ورودی به خروجی های مدل ، مشترک برای همه ANN ها.به ترتیب
برای تسهیل ادامه تحقیقات کاربردی روش شناسی با جلوگیری از
نیاز به هرگونه دانش از کتابخانه های آموزش عمیق ، یک پایتون همراه
کتابخانه با استفاده از Pytorch ، https://pypi.org/project/nowcast-lstm/ تهیه شد. |
30,445 | Extra-large datasets are becoming increasingly accessible, and computing
tools designed to handle huge amount of data efficiently are democratizing
rapidly. However, conventional statistical and econometric tools are still
lacking fluency when dealing with such large datasets. This paper dives into
econometrics on big datasets, specifically focusing on the logistic regression
on Spark. We review the robustness of the functions available in Spark to fit
logistic regression and introduce a package that we developed in PySpark which
returns the statistical summary of the logistic regression, necessary for
statistical inference. | مجموعه داده های فوق العاده بزرگ به طور فزاینده ای در دسترس و محاسبات قرار می گیرند
ابزارهایی که برای رسیدگی به مقدار زیادی از داده ها طراحی شده اند دموکراتیک هستند
به طور سریع.با این حال ، ابزارهای آماری و اقتصادی معمولی هنوز هم هستند
فاقد تسلط در هنگام برخورد با چنین مجموعه داده های بزرگ.این مقاله به داخل
اقتصاد سنجی در مجموعه داده های بزرگ ، به طور خاص با تمرکز بر رگرسیون لجستیک
در جرقهما استحکام عملکردهای موجود در Spark را مرور می کنیم تا متناسب باشد
رگرسیون لجستیک و بسته ای را که در Pyspark ایجاد کردیم معرفی کنیم
خلاصه آماری از رگرسیون لجستیک ، لازم برای
استنباط آماری. |
30,446 | In time-series analyses, particularly for finance, generalized autoregressive
conditional heteroscedasticity (GARCH) models are widely applied statistical
tools for modelling volatility clusters (i.e., periods of increased or
decreased risk). In contrast, it has not been considered to be of critical
importance until now to model spatial dependence in the conditional second
moments. Only a few models have been proposed for modelling local clusters of
increased risks. In this paper, we introduce a novel spatial GARCH process in a
unified spatial and spatiotemporal GARCH framework, which also covers all
previously proposed spatial ARCH models, exponential spatial GARCH, and
time-series GARCH models. In contrast to previous spatiotemporal and time
series models, this spatial GARCH allows for instantaneous spill-overs across
all spatial units. For this common modelling framework, estimators are derived
based on a non-linear least-squares approach. Eventually, the use of the model
is demonstrated by a Monte Carlo simulation study and by an empirical example
that focuses on real estate prices from 1995 to 2014 across the ZIP-Code areas
of Berlin. A spatial autoregressive model is applied to the data to illustrate
how locally varying model uncertainties (e.g., due to latent regressors) can be
captured by the spatial GARCH-type models. | در تحلیل های سری زمانی ، به ویژه برای امور مالی ، خودجوش عمومی
مدل های ناهمگونی مشروط (GARCH) به طور گسترده ای آماری کاربردی هستند
ابزارهایی برای مدل سازی خوشه های نوسانات (یعنی دوره های افزایش یافته یا
کاهش خطر).در مقابل ، آن را بسیار مهم در نظر گرفته نشده است
اهمیت تا کنون برای مدل سازی وابستگی مکانی در ثانیه شرطی
لحظات.فقط چند مدل برای مدل سازی خوشه های محلی پیشنهاد شده است
افزایش خطراتدر این مقاله ، ما یک فرآیند جدید فضایی گارچ را در یک معرفی می کنیم
چارچوب یکپارچه فضایی و فضایی و مکانی گارچ ، که همه را نیز پوشش می دهد
مدلهای قوس فضایی قبلاً پیشنهادی ، گارچ فضایی نمایی ، و
مدل های سریال Garch.برخلاف مکانی و زمان قبلی
مدل های سری ، این گارچ فضایی امکان ریختن فوری را در سراسر آن فراهم می کند
همه واحدهای مکانی.برای این چارچوب مدل سازی مشترک ، برآوردگرها مشتق شده اند
بر اساس یک رویکرد غیر خطی حداقل مربعات.سرانجام استفاده از مدل
با یک مطالعه شبیه سازی مونت کارلو و با یک مثال تجربی نشان داده شده است
که از سال 1995 تا 2014 در مناطق زیپ کد تمرکز دارد
از برلینبرای نشان دادن یک مدل اتورگرایی مکانی برای داده ها اعمال می شود
چگونه عدم قطعیت های مدل مختلف محلی (به عنوان مثال ، به دلیل رگرسیون های نهفته) می تواند باشد
اسیر شده توسط مدل های فضایی از نوع Garch. |
30,447 | The paper proposes a supervised machine learning algorithm to uncover
treatment effect heterogeneity in classical regression discontinuity (RD)
designs. Extending Athey and Imbens (2016), I develop a criterion for building
an honest "regression discontinuity tree", where each leaf of the tree contains
the RD estimate of a treatment (assigned by a common cutoff rule) conditional
on the values of some pre-treatment covariates. It is a priori unknown which
covariates are relevant for capturing treatment effect heterogeneity, and it is
the task of the algorithm to discover them, without invalidating inference. I
study the performance of the method through Monte Carlo simulations and apply
it to the data set compiled by Pop-Eleches and Urquiola (2013) to uncover
various sources of heterogeneity in the impact of attending a better secondary
school in Romania. | این مقاله یک الگوریتم یادگیری ماشین نظارت شده را برای کشف پیشنهاد می کند
ناهمگونی اثر درمانی در ناپیوستگی رگرسیون کلاسیک (RD)
طرح ها.با گسترش Athey and Imbens (2016) ، من یک معیار برای ساخت و ساز ایجاد می کنم
"درخت ناپیوستگی رگرسیون صادقانه" ، که در آن هر برگ درخت حاوی آن است
برآورد RD از یک درمان (که توسط یک قانون قطع مشترک اختصاص داده شده است) مشروط
در مورد مقادیر برخی از متغیرهای قبل از درمان.این یک پیشینی ناشناخته است که
متغیرهای متغیر برای ضبط ناهمگونی اثر درمانی مرتبط هستند و این است
وظیفه الگوریتم برای کشف آنها ، بدون استنباط بی اعتبار.من
عملکرد این روش را از طریق شبیه سازی مونت کارلو مطالعه کرده و اعمال کنید
آن را به مجموعه داده های جمع آوری شده توسط Pop-Eleches و Urquiola (2013) برای کشف
منابع مختلف ناهمگونی در تأثیر حضور در یک ثانویه بهتر
مدرسه در رومانی. |
35,163 | We explore the properties of optimal multi-dimensional auctions in a model
where a single object of multiple qualities is sold to several buyers. Using
simulations, we test some hypotheses conjectured by Belloni et al. [3] and
Kushnir and Shourideh [7]. As part of this work, we provide the first
open-source library for multi-dimensional auction simulations written in
Python. | ما خواص حراج های بهینه چند بعدی را در یک مدل بررسی می کنیم
جایی که یک شیء واحد از خصوصیات متعدد به چندین خریدار فروخته می شود.استفاده كردن
شبیه سازی ، ما برخی فرضیه ها را که توسط بلونی و همکاران حدس زده شده است ، آزمایش می کنیم.[3] و
کوشنیر و شوورید [7].به عنوان بخشی از این کار ، ما اولین کار را ارائه می دهیم
کتابخانه منبع باز برای شبیه سازی های حراج چند بعدی نوشته شده در
پایتون |
30,448 | This paper studies identification and inference in transformation models with
endogenous censoring. Many kinds of duration models, such as the accelerated
failure time model, proportional hazard model, and mixed proportional hazard
model, can be viewed as transformation models. We allow the censoring of a
duration outcome to be arbitrarily correlated with observed covariates and
unobserved heterogeneity. We impose no parametric restrictions on either the
transformation function or the distribution function of the unobserved
heterogeneity. In this setting, we develop bounds on the regression parameters
and the transformation function, which are characterized by conditional moment
inequalities involving U-statistics. We provide inference methods for them by
constructing an inference approach for conditional moment inequality models in
which the sample analogs of moments are U-statistics. We apply the proposed
inference methods to evaluate the effect of heart transplants on patients'
survival time using data from the Stanford Heart Transplant Study. | این مقاله به بررسی شناسایی و استنباط در مدل های تحول با
سانسور درون زا.انواع بسیاری از مدل ها ، مانند شتاب
مدل زمان شکست ، مدل خطر متناسب و خطر متناسب متناسب
مدل ، می تواند به عنوان مدل های تحول مشاهده شود.ما اجازه می دهیم سانسور a
نتیجه مدت زمان به طور خودسرانه با همبستگی های مشاهده شده و
ناهمگونی بدون نظارت.ما هیچ محدودیت پارامتری را به هیچ وجه تحمیل نمی کنیم
تابع تحول یا عملکرد توزیع بی نظیر
ناهمگونیدر این تنظیم ، ما در پارامترهای رگرسیون محدودیتی ایجاد می کنیم
و عملکرد تحول ، که با لحظه مشروط مشخص می شوند
نابرابری های مربوط به آمار U.ما روشهای استنتاج را برای آنها ارائه می دهیم
ساخت یک رویکرد استنباط برای مدل های نابرابری لحظه مشروط در
که نمونه آنالوگ های لحظه ها u-statistics هستند.ما پیشنهادی را اعمال می کنیم
روشهای استنباط برای ارزیابی تأثیر پیوند قلب بر بیماران
زمان بقا با استفاده از داده های مطالعه پیوند قلب استنفورد. |
30,449 | Many differentiated products have key attributes that are unstructured and
thus high-dimensional (e.g., design, text). Instead of treating unstructured
attributes as unobservables in economic models, quantifying them can be
important to answer interesting economic questions. To propose an analytical
framework for this type of products, this paper considers one of the simplest
design products -- fonts -- and investigates merger and product differentiation
using an original dataset from the world's largest online marketplace for
fonts. We quantify font shapes by constructing embeddings from a deep
convolutional neural network. Each embedding maps a font's shape onto a
low-dimensional vector. In the resulting product space, designers are assumed
to engage in Hotelling-type spatial competition. From the image embeddings, we
construct two alternative measures that capture the degree of design
differentiation. We then study the causal effects of a merger on the merging
firm's creative decisions using the constructed measures in a synthetic control
method. We find that the merger causes the merging firm to increase the visual
variety of font design. Notably, such effects are not captured when using
traditional measures for product offerings (e.g., specifications and the number
of products) constructed from structured data. | بسیاری از محصولات متمایز ویژگی های کلیدی دارند که بدون ساختار هستند و
بنابراین با ابعاد بالا (به عنوان مثال ، طراحی ، متن).به جای درمان بدون ساختار
ویژگی ها به عنوان ناآگاه در مدل های اقتصادی ، کمیت آنها می تواند باشد
برای پاسخ به سوالات جالب اقتصادی مهم است.برای پیشنهاد تحلیلی
چارچوب این نوع محصولات ، این مقاله یکی از ساده ترین را در نظر می گیرد
محصولات طراحی - قلم - و تفکیک ادغام و محصول را بررسی می کند
استفاده از یک مجموعه داده اصلی از بزرگترین بازار آنلاین جهان برای
قلمما با ساخت تعبیه از اعماق ، شکل فونت را کمیت می کنیم
شبکه عصبی حلقوی.هر تعبیه شکل یک قلم را بر روی a قرار می دهد
بردار کم بعدی.در فضای محصول حاصل ، طراحان فرض می شوند
برای شرکت در رقابت مکانی از نوع هتل.از تعبیه های تصویر ، ما
دو اقدام جایگزین ایجاد کنید که میزان طراحی را ضبط می کنند
تفکیک.سپس اثرات علی یک ادغام را در ادغام بررسی می کنیم
تصمیمات خلاقانه شرکت با استفاده از اقدامات ساخته شده در یک کنترل مصنوعی
روش.ما می دانیم که ادغام باعث می شود شرکت ادغام افزایش بصری را افزایش دهد
تنوع طراحی قلم.نکته قابل توجه ، چنین اثرات هنگام استفاده ضبط نمی شوند
اقدامات سنتی برای ارائه محصولات (به عنوان مثال ، مشخصات و تعداد آنها
از محصولات) ساخته شده از داده های ساختاری. |
30,450 | A factor copula model is proposed in which factors are either simulable or
estimable from exogenous information. Point estimation and inference are based
on a simulated methods of moments (SMM) approach with non-overlapping
simulation draws. Consistency and limiting normality of the estimator is
established and the validity of bootstrap standard errors is shown. Doing so,
previous results from the literature are verified under low-level conditions
imposed on the individual components of the factor structure. Monte Carlo
evidence confirms the accuracy of the asymptotic theory in finite samples and
an empirical application illustrates the usefulness of the model to explain the
cross-sectional dependence between stock returns. | یک مدل فاکتور کوپلا پیشنهاد شده است که در آن عوامل شبیه سازی یا
از اطلاعات اگزوژن قابل تخمین است.برآورد نقطه و استنباط مبتنی است
با روش شبیه سازی شده از لحظات (SMM) با غیر همپوشانی
طراحی شبیه سازی.قوام و محدود کردن نرمال بودن برآوردگر است
ایجاد شده و اعتبار خطاهای استاندارد Bootstrap نشان داده شده است.انجام این کار ،
نتایج قبلی از ادبیات در شرایط سطح پایین تأیید می شود
تحمیل شده به مؤلفه های فردی ساختار عاملی.مونت کارلو
شواهد صحت نظریه بدون علامت را در نمونه های محدود و
یک برنامه تجربی سودمندی مدل را برای توضیح توضیح می دهد
وابستگی مقطعی بین بازده سهام. |
30,451 | This article is an introduction to machine learning for financial
forecasting, planning and analysis (FP\&A). Machine learning appears well
suited to support FP\&A with the highly automated extraction of information
from large amounts of data. However, because most traditional machine learning
techniques focus on forecasting (prediction), we discuss the particular care
that must be taken to avoid the pitfalls of using them for planning and
resource allocation (causal inference). While the naive application of machine
learning usually fails in this context, the recently developed double machine
learning framework can address causal questions of interest. We review the
current literature on machine learning in FP\&A and illustrate in a simulation
study how machine learning can be used for both forecasting and planning. We
also investigate how forecasting and planning improve as the number of data
points increases. | این مقاله مقدمه ای برای یادگیری ماشین برای مالی است
پیش بینی ، برنامه ریزی و تجزیه و تحلیل (FP \ & A).یادگیری ماشین خوب به نظر می رسد
مناسب برای پشتیبانی از FP \ & A با استخراج بسیار خودکار اطلاعات
از مقادیر زیادی از داده ها.با این حال ، زیرا بیشتر یادگیری ماشین سنتی
تکنیک ها بر پیش بینی (پیش بینی) تمرکز می کنند ، ما در مورد مراقبت خاص بحث می کنیم
برای جلوگیری از مشکلات استفاده از آنها برای برنامه ریزی و
تخصیص منابع (استنتاج علی).در حالی که کاربرد ساده دستگاه
یادگیری معمولاً در این زمینه از بین می رود ، دستگاه دوتایی که اخیراً توسعه یافته است
چارچوب یادگیری می تواند به سؤالات علّی مورد علاقه بپردازد.ما مرور می کنیم
ادبیات فعلی در مورد یادگیری ماشین در FP \ & a و در یک شبیه سازی نشان می دهد
بررسی کنید که چگونه می توان از یادگیری ماشین برای پیش بینی و برنامه ریزی استفاده کرد.ما
همچنین بررسی کنید که چگونه پیش بینی و برنامه ریزی به عنوان تعداد داده ها بهبود می یابد
امتیاز افزایش می یابد. |
30,452 | The proportional odds cumulative logit model (POCLM) is a standard regression
model for an ordinal response. Ordinality of predictors can be incorporated by
monotonicity constraints for the corresponding parameters. It is shown that
estimators defined by optimization, such as maximum likelihood estimators, for
an unconstrained model and for parameters in the interior set of the parameter
space of a constrained model are asymptotically equivalent. This is used in
order to derive asymptotic confidence regions and tests for the constrained
model, involving simple modifications for finite samples. The finite sample
coverage probability of the confidence regions is investigated by simulation.
Tests concern the effect of individual variables, monotonicity, and a specified
monotonicity direction. The methodology is applied on real data related to the
assessment of school performance. | مدل logit تجمعی شانس متناسب (POCLM) یک رگرسیون استاندارد است
مدل برای یک پاسخ نظم.ترتیب پیش بینی کننده ها می توانند توسط
محدودیت های یکنواختی برای پارامترهای مربوطه.نشان داده شده است که
برآوردگرهای تعریف شده توسط بهینه سازی ، مانند برآوردگرهای حداکثر ، برای
یک مدل بدون محدودیت و برای پارامترهای موجود در مجموعه داخلی پارامتر
فضای یک مدل محدود به صورت مجانبی معادل است.این در استفاده می شود
به منظور به دست آوردن مناطق اعتماد به نفس بدون علامت و آزمایشات محدود شده
مدل ، شامل اصلاحات ساده برای نمونه های محدود.نمونه محدود
احتمال پوشش مناطق اعتماد به نفس با شبیه سازی بررسی شده است.
آزمایشات مربوط به تأثیر متغیرهای فردی ، یکنواختی و مشخص شده است
جهت یکنواختی.این روش بر روی داده های واقعی مربوط به
ارزیابی عملکرد مدرسه. |
30,453 | In nonseparable triangular models with a binary endogenous treatment and a
binary instrumental variable, Vuong and Xu (2017) established identification
results for individual treatment effects (ITEs) under the rank invariance
assumption. Using their approach, Feng, Vuong, and Xu (2019) proposed a
uniformly consistent kernel estimator for the density of the ITE that utilizes
estimated ITEs. In this paper, we establish the asymptotic normality of the
density estimator of Feng, Vuong, and Xu (2019) and show that the ITE
estimation errors have a non-negligible effect on the asymptotic distribution
of the estimator. We propose asymptotically valid standard errors that account
for ITEs estimation, as well as a bias correction. Furthermore, we develop
uniform confidence bands for the density of the ITE using the jackknife
multiplier or nonparametric bootstrap critical values. | در مدلهای مثلثی غیر قابل جدا شدن با یک درمان درون زا باینری و
متغیر ابزاری باینری ، Vuong و Xu (2017) شناسایی را ایجاد کردند
نتایج برای اثرات درمانی فردی (ITE) تحت تغییر رتبه بندی
فرض.با استفاده از رویکرد آنها ، فنگ ، وونگ و Xu (2019) پیشنهاد داد
برآوردگر هسته به طور یکنواخت سازگار برای چگالی ITE که از آن استفاده می کند
ites تخمین زده شده است.در این مقاله ، ما عادی بودن بدون علامت را تعیین می کنیم
برآوردگر چگالی فنگ ، ووونگ و Xu (2019) و نشان می دهد که ite
خطاهای برآورد تأثیر غیر قابل بحث در توزیع بدون علامت دارند
از برآوردگرما خطاهای استاندارد بدون علامت معتبر را ارائه می دهیم که حساب می کنند
برای تخمین ITES ، و همچنین اصلاح تعصب.علاوه بر این ، ما توسعه می دهیم
باند اعتماد به نفس یکنواخت برای چگالی ITE با استفاده از jackknife
مقادیر بحرانی بوت استرپ چند برابر یا غیر پارامتری. |
34,454 | We describe a two-stage mechanism that fully implements the set of efficient
outcomes in two-agent environments with quasi-linear utilities. The mechanism
asks one agent to set prices for each outcome, and the other agent to make a
choice, paying the corresponding price: Price \& Choose. We extend our
implementation result in three main directions: an arbitrary number of players,
non-quasi linear utilities, and robustness to max-min behavior. Finally, we
discuss how to reduce the payoff inequality between players while still
achieving efficiency. | ما یک مکانیسم دو مرحله ای را توصیف می کنیم که مجموعه ای از کارآمد را به طور کامل پیاده سازی می کند
نتایج در محیط های دو عامل با خدمات شبه خطی.مکانیسم
از یک نماینده می خواهد که قیمت هر نتیجه را تعیین کند ، و عامل دیگر برای ساختن
انتخاب ، پرداخت قیمت مربوطه: قیمت \ و انتخاب کنید.ما خود را گسترش می دهیم
اجرای در سه جهت اصلی: تعداد دلخواه بازیکنان ،
برنامه های خطی غیر Quasi و استحکام در رفتار حداکثر دقیقه.بالاخره ، ما
در مورد چگونگی کاهش نابرابری بازپرداخت بین بازیکنان در حالی که هنوز هم است بحث کنید
دستیابی به کارآیی. |
30,454 | Score tests have the advantage of requiring estimation alone of the model
restricted by the null hypothesis, which often is much simpler than models
defined under the alternative hypothesis. This is typically so when the
alternative hypothesis involves inequality constraints. However, existing score
tests address only jointly testing all parameters of interest; a leading
example is testing all ARCH parameters or variances of random coefficients
being zero or not. In such testing problems rejection of the null hypothesis
does not provide evidence on rejection of specific elements of parameter of
interest. This paper proposes a class of one-sided score tests for testing a
model parameter that is subject to inequality constraints. Proposed tests are
constructed based on the minimum of a set of $p$-values. The minimand includes
the $p$-values for testing individual elements of parameter of interest using
individual scores. It may be extended to include a $p$-value of existing score
tests. We show that our tests perform better than/or perform as good as
existing score tests in terms of joint testing, and has furthermore the added
benefit of allowing for simultaneously testing individual elements of parameter
of interest. The added benefit is appealing in the sense that it can identify a
model without estimating it. We illustrate our tests in linear regression
models, ARCH and random coefficient models. A detailed simulation study is
provided to examine the finite sample performance of the proposed tests and we
find that our tests perform well as expected. | آزمون های نمره این مزیت را دارند که به تنهایی مدل نیاز به تخمین مدل دارند
محدود با فرضیه تهی ، که اغلب بسیار ساده تر از مدل ها است
تحت فرضیه جایگزین تعریف شده است.این به طور معمول است که وقتی
فرضیه جایگزین شامل محدودیت های نابرابری است.با این حال ، نمره موجود
تست ها فقط به طور مشترک همه پارامترهای مورد علاقه را آزمایش می کنند.یک پیشرو
مثال آزمایش تمام پارامترهای قوس یا واریانس ضرایب تصادفی است
صفر بودن یا نهدر چنین تست مشکلات رد فرضیه تهی
شواهدی در مورد رد عناصر خاص پارامتر ارائه نمی دهد
علاقه.در این مقاله یک کلاس از تست های نمره یک طرفه برای آزمایش a پیشنهاد شده است
پارامتر مدل که در معرض محدودیت های نابرابری است.تست های پیشنهادی هستند
ساخته شده بر اساس حداقل مجموعه ای از مقادیر $ P $.حداقل شامل می شود
مقادیر $ P $ برای آزمایش عناصر فردی پارامتر مورد علاقه با استفاده از
نمرات فردیاین ممکن است شامل یک ارزش $ P $ از نمره موجود باشد
آزمون هاما نشان می دهیم که تست های ما عملکرد بهتری از/یا عملکرد خوب دارند
تست های نمره موجود از نظر آزمایش مشترک ، و علاوه بر این اضافه شده است
سود این امکان را برای آزمایش همزمان عناصر فردی پارامتر فراهم می کند
مورد علاقه.سود اضافه شده جذاب است به این معنا که می تواند یک را شناسایی کند
مدل بدون تخمین آن.ما آزمون های خود را در رگرسیون خطی نشان می دهیم
مدل ها ، مدل های قوس و ضریب تصادفی.یک مطالعه شبیه سازی دقیق است
ارائه شده برای بررسی عملکرد نمونه محدود آزمون های پیشنهادی و ما
دریابید که تست های ما همانطور که انتظار می رود عملکرد خوبی دارند. |
30,455 | This paper provides three results for SVARs under the assumption that the
primitive shocks are mutually independent. First, a framework is proposed to
accommodate a disaster-type variable with infinite variance into a SVAR. We
show that the least squares estimates of the SVAR are consistent but have
non-standard asymptotics. Second, the disaster shock is identified as the
component with the largest kurtosis and whose impact effect is negative. An
estimator that is robust to infinite variance is used to recover the mutually
independent components. Third, an independence test on the residuals
pre-whitened by the Choleski decomposition is proposed to test the restrictions
imposed on a SVAR. The test can be applied whether the data have fat or thin
tails, and to over as well as exactly identified models. Three applications are
considered. In the first, the independence test is used to shed light on the
conflicting evidence regarding the role of uncertainty in economic
fluctuations. In the second, disaster shocks are shown to have short term
economic impact arising mostly from feedback dynamics. The third uses the
framework to study the dynamic effects of economic shocks post-covid. | در این مقاله سه نتیجه برای SVAR با این فرض که
شوکهای بدوی مستقل هستند.اول ، یک چارچوب پیشنهاد شده است
یک متغیر از نوع فاجعه را با واریانس نامحدود در SVAR قرار دهید.ما
نشان می دهد که کمترین تخمین مربع از SVAR سازگار است اما دارای
بدون علامت غیر استاندارد.دوم ، شوک فاجعه به عنوان
مؤلفه با بزرگترین کورتوز و تأثیر تأثیر آن منفی است.در
برآوردگر که به واریانس بی نهایت قوی است برای بازیابی متقابل استفاده می شود
اجزای مستقل.سوم ، یک آزمایش استقلال در باقیمانده ها
برای آزمایش محدودیت ها از قبل توسط تجزیه Choleski پیشنهاد شده است
تحمیل شده به SVAR.این آزمایش می تواند اعمال شود چه داده های چربی یا نازک داشته باشند
دم ، و به و همچنین مدل های دقیقاً مشخص شده.سه برنامه است
در نظر گرفته شده.در وهله اول ، از آزمایش استقلال برای روشن کردن نور استفاده می شود
شواهد متناقض در مورد نقش عدم اطمینان در اقتصادی
نوساناتدر دوم ، شوک های فاجعه کوتاه مدت نشان داده شده است
تأثیر اقتصادی که بیشتر ناشی از پویایی بازخورد است.سوم استفاده می کند
چارچوب برای بررسی اثرات پویا شوک های اقتصادی پس از کاو. |
30,456 | We consider a class of semi-parametric dynamic models with strong white noise
errors. This class of processes includes the standard Vector Autoregressive
(VAR) model, the nonfundamental structural VAR, the mixed causal-noncausal
models, as well as nonlinear dynamic models such as the (multivariate) ARCH-M
model. For estimation of processes in this class, we propose the Generalized
Covariance (GCov) estimator, which is obtained by minimizing a residual-based
multivariate portmanteau statistic as an alternative to the Generalized Method
of Moments. We derive the asymptotic properties of the GCov estimator and of
the associated residual-based portmanteau statistic. Moreover, we show that the
GCov estimators are semi-parametrically efficient and the residual-based
portmanteau statistics are asymptotically chi-square distributed. The finite
sample performance of the GCov estimator is illustrated in a simulation study.
The estimator is also applied to a dynamic model of cryptocurrency prices. | ما یک کلاس از مدل های پویا نیمه پارامتری با سر و صدای سفید قوی را در نظر می گیریم
خطااین کلاس از فرآیندها شامل یک وکتور استاندارد خودکار است
(VAR) مدل ، ساختاری ساختاری غیر تأمین شده ، علی علی علی
مدل ها ، و همچنین مدل های پویا غیرخطی مانند Arch-M (چند متغیره)
مدل.برای برآورد فرآیندها در این کلاس ، ما تعمیم یافته را پیشنهاد می کنیم
برآوردگر کواریانس (GCOV) ، که با به حداقل رساندن یک باقیمانده به دست می آید
آمار چند متغیره Portmanteau به عنوان جایگزینی برای روش تعمیم یافته
از لحظاتما خصوصیات بدون علامت برآوردگر GCOV و از
آماری مبتنی بر Portmanteau مبتنی بر باقیمانده.علاوه بر این ، ما نشان می دهیم که
برآوردگرهای GCOV از نظر نیمه پارامتری کارآمد و مبتنی بر باقیمانده هستند
آمار Portmanteau به صورت بدون علامت مجذور کای توزیع شده است.محدود
عملکرد نمونه برآوردگر GCOV در یک مطالعه شبیه سازی نشان داده شده است.
این برآوردگر همچنین به یک مدل پویا از قیمت های رمزنگاری اعمال می شود. |
30,457 | Macroeconomists using large datasets often face the choice of working with
either a large Vector Autoregression (VAR) or a factor model. In this paper, we
develop methods for combining the two using a subspace shrinkage prior.
Subspace priors shrink towards a class of functions rather than directly
forcing the parameters of a model towards some pre-specified location. We
develop a conjugate VAR prior which shrinks towards the subspace which is
defined by a factor model. Our approach allows for estimating the strength of
the shrinkage as well as the number of factors. After establishing the
theoretical properties of our proposed prior, we carry out simulations and
apply it to US macroeconomic data. Using simulations we show that our framework
successfully detects the number of factors. In a forecasting exercise involving
a large macroeconomic data set we find that combining VARs with factor models
using our prior can lead to forecast improvements. | اقتصاد شناسان کلان با استفاده از مجموعه داده های بزرگ اغلب با انتخاب کار با آنها روبرو هستند
یا یک بردار بزرگ بردار (VAR) یا یک مدل فاکتور.در این مقاله ، ما
روش هایی را برای ترکیب این دو با استفاده از یک فضای زیر فضای قبلی ایجاد کنید.
Priors Subpace به جای مستقیم به سمت یک کلاس از کارکردها کوچک می شوند
مجبور کردن پارامترهای یک مدل به سمت برخی از مکان های از پیش تعیین شده.ما
پیش از این یک پیشانی مزدوج ایجاد کنید که به سمت فضای زیر فضای آن کوچک می شود
تعریف شده توسط یک مدل فاکتور.رویکرد ما امکان تخمین قدرت را فراهم می کند
انقباض و همچنین تعداد عوامل.پس از ایجاد
خصوصیات نظری قبلی پیشنهادی ما ، ما شبیه سازی ها را انجام می دهیم و
آن را برای داده های کلان اقتصادی استفاده کنید.با استفاده از شبیه سازی ها نشان می دهیم که چارچوب ما
با موفقیت تعداد عوامل را تشخیص می دهد.در یک تمرین پیش بینی کننده
یک مجموعه داده کلان اقتصادی بزرگ متوجه می شویم که ترکیب VAR ها با مدل های فاکتور
استفاده از قبلی ما می تواند منجر به پیشرفت های پیش بینی شود. |
30,458 | Empirical regression discontinuity (RD) studies often use covariates to
increase the precision of their estimates. In this paper, we propose a novel
class of estimators that use such covariate information more efficiently than
the linear adjustment estimators that are currently used widely in practice.
Our approach can accommodate a possibly large number of either discrete or
continuous covariates. It involves running a standard RD analysis with an
appropriately modified outcome variable, which takes the form of the difference
between the original outcome and a function of the covariates. We characterize
the function that leads to the estimator with the smallest asymptotic variance,
and show how it can be estimated via modern machine learning, nonparametric
regression, or classical parametric methods. The resulting estimator is easy to
implement, as tuning parameters can be chosen as in a conventional RD analysis.
An extensive simulation study illustrates the performance of our approach. | ناپیوستگی رگرسیون تجربی (RD) مطالعات اغلب از متغیرهای متغیر استفاده می کنند
دقت تخمین های آنها را افزایش دهید.در این مقاله ، ما رمان را پیشنهاد می کنیم
کلاس برآوردگرهایی که از چنین اطلاعات متغیر استفاده می کنند تا کارآمدتر از
برآوردگرهای تنظیم خطی که در حال حاضر در عمل بسیار مورد استفاده قرار می گیرند.
رویکرد ما می تواند تعداد زیادی از گسسته ها را در خود جای دهد
متغیرهای متغیر مداوم.این شامل اجرای یک تجزیه و تحلیل استاندارد RD با یک است
متغیر نتیجه مناسب اصلاح شده ، که شکل تفاوت را در نظر می گیرد
بین نتیجه اصلی و عملکردی از متغیرها.ما توصیف می کنیم
عملکردی که با کوچکترین واریانس بدون علامت به برآوردگر منتهی می شود ،
و نشان دهید که چگونه می توان آن را از طریق یادگیری ماشین مدرن ، غیرپارامتری تخمین زد
رگرسیون یا روشهای پارامتری کلاسیک.برآوردگر حاصل آسان است
پیاده سازی ، به عنوان پارامترهای تنظیم می تواند مانند یک تجزیه و تحلیل RD معمولی انتخاب شود.
یک مطالعه شبیه سازی گسترده ، عملکرد رویکرد ما را نشان می دهد. |
30,459 | Latent variable models are becoming increasingly popular in economics for
high-dimensional categorical data such as text and surveys. Often the resulting
low-dimensional representations are plugged into downstream econometric models
that ignore the statistical structure of the upstream model, which presents
serious challenges for valid inference. We show how Hamiltonian Monte Carlo
(HMC) implemented with parallelized automatic differentiation provides a
computationally efficient, easy-to-code, and statistically robust solution for
this problem. Via a series of applications, we show that modeling integrated
structure can non-trivially affect inference and that HMC appears to markedly
outperform current approaches to inference in integrated models. | مدل های متغیر نهفته در اقتصاد به طور فزاینده ای محبوب می شوند
داده های طبقه بندی شده با ابعاد بالا مانند متن و نظرسنجی.اغلب نتیجه
بازنمایی های کم بعدی به مدلهای اقتصاد سنجی پایین دست وصل می شوند
که ساختار آماری مدل بالادست را که ارائه می دهد نادیده می گیرد
چالش های جدی برای استنباط معتبر.ما نشان می دهیم که چگونه همیلتون مونت کارلو
(HMC) که با تمایز خودکار موازی اجرا شده است
از نظر محاسباتی کارآمد ، کاربردی آسان و از نظر آماری قوی برای
این مشکل.از طریق یک سری برنامه ها ، ما نشان می دهیم که مدل سازی یکپارچه است
ساختار می تواند به طور غیر واقعی بر استنباط تأثیر بگذارد و به نظر می رسد HMC به طور قابل توجهی به نظر می رسد
رویکردهای فعلی برای استنتاج در مدلهای یکپارچه. |
30,460 | This paper extends the idea of decoupling shrinkage and sparsity for
continuous priors to Bayesian Quantile Regression (BQR). The procedure follows
two steps: In the first step, we shrink the quantile regression posterior
through state of the art continuous priors and in the second step, we sparsify
the posterior through an efficient variant of the adaptive lasso, the signal
adaptive variable selection (SAVS) algorithm. We propose a new variant of the
SAVS which automates the choice of penalisation through quantile specific
loss-functions that are valid in high dimensions. We show in large scale
simulations that our selection procedure decreases bias irrespective of the
true underlying degree of sparsity in the data, compared to the un-sparsified
regression posterior. We apply our two-step approach to a high dimensional
growth-at-risk (GaR) exercise. The prediction accuracy of the un-sparsified
posterior is retained while yielding interpretable quantile specific variable
selection results. Our procedure can be used to communicate to policymakers
which variables drive downside risk to the macro economy. | این مقاله ایده جدا کردن انقباض و کمبود را گسترش می دهد
مقدمات مداوم به رگرسیون کوانتین بیزی (BQR).این روش به شرح زیر است
دو مرحله: در مرحله اول ، خلفی رگرسیون کمی را کوچک می کنیم
از طریق دولت مقدماتی و در مرحله دوم ، ما را پراکنده می کنیم
خلفی از طریق یک نوع کارآمد از لاسو تطبیقی ، سیگنال
الگوریتم انتخاب متغیر تطبیقی (SAVS).ما یک نوع جدید از
پس انداز می کند که انتخاب مجازات را از طریق خاص Quantile خودکار می کند
عملکردهای ضرر که در ابعاد بالا معتبر هستند.ما در مقیاس بزرگ نشان می دهیم
شبیه سازی هایی که روش انتخاب ما بدون در نظر گرفتن تعصب کاهش می یابد
درجه زیربنایی واقعی پراکندگی در داده ها ، در مقایسه با غیرقانونی
خلفی رگرسیون.ما رویکرد دو مرحله ای خود را به یک ابعاد بالا اعمال می کنیم
تمرین رشد در معرض خطر (GAR).دقت پیش بینی غیرقانونی
خلفی در حالی که متغیر خاص قابل تفسیر قابل تفسیر است حفظ می شود
نتایج انتخاباز روش ما می توان برای برقراری ارتباط با سیاست گذاران استفاده کرد
که متغیرها خطر نزولی را برای اقتصاد کلان سوق می دهند. |
30,461 | Income inequality estimators are biased in small samples, leading generally
to an underestimation. This aspect deserves particular attention when
estimating inequality in small domains and performing small area estimation at
the area level. We propose a bias correction framework for a large class of
inequality measures comprising the Gini Index, the Generalized Entropy and the
Atkinson index families by accounting for complex survey designs. The proposed
methodology does not require any parametric assumption on income distribution,
being very flexible. Design-based performance evaluation of our proposal has
been carried out using EU-SILC data, their results show a noticeable bias
reduction for all the measures. Lastly, an illustrative example of application
in small area estimation confirms that ignoring ex-ante bias correction
determines model misspecification. | برآوردگرهای نابرابری درآمدی در نمونه های کوچک مغرضانه هستند و به طور کلی منجر می شوند
به دست کم گرفتناین جنبه سزاوار توجه ویژه ای است
تخمین نابرابری در حوزه های کوچک و انجام تخمین منطقه کوچک در
سطح منطقهما یک چارچوب تصحیح تعصب را برای یک کلاس بزرگ پیشنهاد می کنیم
اقدامات نابرابری شامل شاخص جینی ، آنتروپی عمومی و
خانواده های شاخص اتکینسون با حسابداری از طرح های پیمایشی پیچیده.پیشنهاد
روش شناسی نیازی به فرض پارامتری در مورد توزیع درآمد ندارد ،
بسیار انعطاف پذیر بودنارزیابی عملکرد مبتنی بر طراحی از پیشنهاد ما
با استفاده از داده های EU-SILC انجام شده است ، نتایج آنها تعصب قابل توجه را نشان می دهد
کاهش برای همه اقدامات.در آخر ، یک نمونه مصور از کاربرد
در تخمین منطقه کوچک تأیید می کند که نادیده گرفتن اصلاح تعصب سابق
تعیین غلط مدل را تعیین می کند. |
30,462 | We examine machine learning and factor-based portfolio optimization. We find
that factors based on autoencoder neural networks exhibit a weaker relationship
with commonly used characteristic-sorted portfolios than popular dimensionality
reduction techniques. Machine learning methods also lead to covariance and
portfolio weight structures that diverge from simpler estimators.
Minimum-variance portfolios using latent factors derived from autoencoders and
sparse methods outperform simpler benchmarks in terms of risk minimization.
These effects are amplified for investors with an increased sensitivity to
risk-adjusted returns, during high volatility periods or when accounting for
tail risk. | ما یادگیری ماشین و بهینه سازی نمونه کارها مبتنی بر فاکتور را بررسی می کنیم.ما پیدا می کنیم
این عوامل مبتنی بر شبکه های عصبی AutoEncoder رابطه ضعیف تری دارند
با پرتفوی های مرتب شده متداول نسبت به ابعاد محبوب
تکنیک های کاهشروشهای یادگیری ماشین همچنین منجر به کواریانس و
ساختارهای وزن نمونه کارها که از برآوردگرهای ساده تر جدا می شوند.
اوراق بهادار حداقل واریانس با استفاده از فاکتورهای نهفته حاصل از autoencoders و
روشهای پراکنده از معیارهای ساده تر از نظر به حداقل رساندن ریسک بهتر است.
این اثرات برای سرمایه گذاران با افزایش حساسیت به آن تقویت می شود
بازده تنظیم شده ریسک ، در دوره های نوسانات بالا یا هنگام حساب کردن
خطر دم |
30,463 | We study inference on the common stochastic trends in a non-stationary,
$N$-variate time series $y_{t}$, in the possible presence of heavy tails. We
propose a novel methodology which does not require any knowledge or estimation
of the tail index, or even knowledge as to whether certain moments (such as the
variance) exist or not, and develop an estimator of the number of stochastic
trends $m$ based on the eigenvalues of the sample second moment matrix of
$y_{t}$. We study the rates of such eigenvalues, showing that the first $m$
ones diverge, as the sample size $T$ passes to infinity, at a rate faster by
$O\left(T \right)$ than the remaining $N-m$ ones, irrespective of the tail
index. We thus exploit this eigen-gap by constructing, for each eigenvalue, a
test statistic which diverges to positive infinity or drifts to zero according
to whether the relevant eigenvalue belongs to the set of the first $m$
eigenvalues or not. We then construct a randomised statistic based on this,
using it as part of a sequential testing procedure, ensuring consistency of the
resulting estimator of $m$. We also discuss an estimator of the common trends
based on principal components and show that, up to a an invertible linear
transformation, such estimator is consistent in the sense that the estimation
error is of smaller order than the trend itself. Finally, we also consider the
case in which we relax the standard assumption of \textit{i.i.d.} innovations,
by allowing for heterogeneity of a very general form in the scale of the
innovations. A Monte Carlo study shows that the proposed estimator for $m$
performs particularly well, even in samples of small size. We complete the
paper by presenting four illustrative applications covering commodity prices,
interest rates data, long run PPP and cryptocurrency markets. | ما استنتاج را بر روی روندهای تصادفی مشترک در یک غیر ثابت مطالعه می کنیم ،
$ n $-series زمان متغیر $ y_ {t} $ ، در حضور احتمالی دمهای سنگین.ما
یک روش جدید را پیشنهاد کنید که نیازی به دانش یا تخمین ندارد
از شاخص دم یا حتی دانش در مورد لحظات خاص (مانند
واریانس) وجود دارد یا نه ، و برآوردگر تعداد تصادفی را توسعه دهید
روند $ m $ بر اساس مقادیر ویژه نمونه ماتریس لحظه دوم نمونه
$ y_ {t} $.ما نرخ چنین مقادیر ویژه ای را مطالعه می کنیم ، نشان می دهد که اولین دلار $ $
آنهایی که واگرایی می کنند ، زیرا اندازه نمونه $ t $ به بی نهایت منتقل می شود ، با سرعت بیشتری
$ o \ سمت چپ (t \ راست) $ نسبت به $ n-m $ باقی مانده ، صرف نظر از دم
فهرست مطالب.بنابراین ما با ساخت ، برای هر مقادیر ویژه ، از این شکاف ویژه سوء استفاده می کنیم
آماری را آزمایش کنید که به بی نهایت مثبت یا به صفر برسد
به اینکه آیا مقادیر ویژه مربوط به مجموعه اولین $ m $ است
مقادیر ویژه یا نه.ما سپس یک آمار تصادفی بر اساس این امر می سازیم ،
استفاده از آن به عنوان بخشی از یک روش آزمایش متوالی ، اطمینان از قوام
برآوردگر نتیجه $ M $.ما همچنین در مورد تخمین روندهای مشترک بحث می کنیم
بر اساس مؤلفه های اصلی و نشان می دهد که ، تا یک خطی غیرقابل برگشت
تحول ، چنین برآوردگر به این معنا که تخمین سازگار است سازگار است
خطا از نظم کوچکتر از خود روند است.سرانجام ، ما نیز در نظر می گیریم
موردی که در آن ما فرض استاندارد \ textit {i.i.d را آرام می کنیم ، نوآوری ها ،
با اجازه ناهمگونی یک شکل بسیار کلی در مقیاس
نوآوری ها.یک مطالعه مونت کارلو نشان می دهد که برآوردگر پیشنهادی برای $ M $
حتی در نمونه هایی با اندازه کوچک ، به ویژه عملکرد خوبی دارد.ما کامل را کامل می کنیم
مقاله با ارائه چهار برنامه مصور که قیمت کالاها را پوشش می دهد ،
داده های نرخ بهره ، بازارهای طولانی مدت PPP و cryptocurrency. |
30,464 | We develop a Stata command, bootranktest, for implementing the matrix rank
test of Chen and Fang (2019) in linear instrumental variable regression models.
Existing rank tests employ critical values that may be too small, and hence may
not even be first order valid in the sense that they may fail to control the
Type I error. By appealing to the bootstrap, they devise a test that overcomes
the deficiency of existing tests. The command bootranktest implements the
two-step version of their test, and also the analytic version if chosen. The
command also accommodates data with temporal and cluster dependence. | ما برای اجرای رتبه ماتریس یک دستور stata ، bootranktest تهیه می کنیم
آزمون چن و نیش (2019) در مدلهای رگرسیون متغیر ابزاری خطی.
آزمون های رتبه موجود از مقادیر بحرانی استفاده می کنند که ممکن است خیلی کوچک باشد و از این رو ممکن است
حتی مرتبه اول معتبر نیست به این معنا که ممکن است در کنترل آنها نتوانند
خطای نوع I.آنها با جذابیت به بوت استرپ ، تست هایی را که بر آن غلبه می کند ، ابداع می کنند
کمبود تست های موجود.Command Bootranktest پیاده سازی می کند
نسخه دو مرحله ای از آزمون آنها و همچنین نسخه تحلیلی در صورت انتخاب.در
Command همچنین داده ها را با وابستگی زمانی و خوشه ای قرار می دهد. |
30,465 | It is important for policymakers to understand which financial policies are
effective in increasing climate risk disclosure in corporate reporting. We use
machine learning to automatically identify disclosures of five different types
of climate-related risks. For this purpose, we have created a dataset of over
120 manually-annotated annual reports by European firms. Applying our approach
to reporting of 337 firms over the last 20 years, we find that risk disclosure
is increasing. Disclosure of transition risks grows more dynamically than
physical risks, and there are marked differences across industries.
Country-specific dynamics indicate that regulatory environments potentially
have an important role to play for increasing disclosure. | برای سیاستگذاران برای سیاست گذاران مهم است که سیاست های مالی کدام است
در افزایش افشای خطر آب و هوا در گزارشگری شرکت ها مؤثر است.ما استفاده می کنیم
یادگیری ماشین برای شناسایی خودکار افشای پنج نوع مختلف
خطرات مرتبط با آب و هوابرای این منظور ، ما یک مجموعه داده از Over ایجاد کرده ایم
120 گزارش سالانه به صورت دستی توسط شرکت های اروپایی.استفاده از رویکرد ما
برای گزارش 337 بنگاه در طی 20 سال گذشته ، متوجه می شویم که افشای خطر
در حال افزایش است.افشای خطرات انتقال به صورت پویاتر از آن رشد می کند
خطرات جسمی ، و تفاوت های قابل توجهی در صنایع وجود دارد.
پویایی خاص کشور نشان می دهد که محیط های نظارتی به طور بالقوه
نقش مهمی برای افزایش افشای افشای داشته باشید. |