id
int64 28.8k
36k
| text
stringlengths 44
3.03k
| translation
stringlengths 36
2.47k
|
---|---|---|
30,466 | We study the impact of climate volatility on economic growth exploiting data
on 133 countries between 1960 and 2019. We show that the conditional (ex ante)
volatility of annual temperatures increased steadily over time, rendering
climate conditions less predictable across countries, with important
implications for growth. Controlling for concomitant changes in temperatures, a
+1 degree C increase in temperature volatility causes on average a 0.3 percent
decline in GDP growth and a 0.7 percent increase in the volatility of GDP.
Unlike changes in average temperatures, changes in temperature volatility
affect both rich and poor countries. | ما تأثیر نوسانات آب و هوا را بر روی داده های بهره برداری از رشد اقتصادی بررسی می کنیم
در 133 کشور بین سالهای 1960 تا 2019. ما نشان می دهیم که مشروط (سابق)
نوسانات درجه حرارت سالانه با گذشت زمان به طور پیوسته افزایش می یابد ،
شرایط آب و هوایی کمتر در سراسر کشورها قابل پیش بینی است ، با مهم
پیامدهای رشد.کنترل تغییرات همزمان در دما ، الف
1 درجه C افزایش در نوسانات دما به طور متوسط 0.3 درصد است
کاهش رشد تولید ناخالص داخلی و افزایش 0.7 درصدی در نوسانات تولید ناخالص داخلی.
برخلاف تغییر در دمای متوسط ، تغییر در نوسانات دما
هر دو کشور ثروتمند و فقیر را تحت تأثیر قرار دهید. |
30,467 | In this work, we propose a novel framework for density forecast combination
by constructing time-varying weights based on time series features, which is
called Feature-based Bayesian Forecasting Model Averaging (FEBAMA). Our
framework estimates weights in the forecast combination via Bayesian log
predictive scores, in which the optimal forecasting combination is determined
by time series features from historical information. In particular, we use an
automatic Bayesian variable selection method to add weight to the importance of
different features. To this end, our approach has better interpretability
compared to other black-box forecasting combination schemes. We apply our
framework to stock market data and M3 competition data. Based on our structure,
a simple maximum-a-posteriori scheme outperforms benchmark methods, and
Bayesian variable selection can further enhance the accuracy for both point and
density forecasts. | در این کار ، ما یک چارچوب جدید برای ترکیب پیش بینی چگالی پیشنهاد می کنیم
با ساخت وزنهای متغیر زمان بر اساس ویژگی های سری زمانی ، که است
به عنوان میانگین مدل پیش بینی بیزی مبتنی بر ویژگی (Febama).ما
چارچوب وزنهای موجود در ترکیب پیش بینی را از طریق ورود به سیستم بیزی تخمین می زند
نمرات پیش بینی کننده ، که در آن ترکیب پیش بینی بهینه تعیین می شود
ویژگی های سری زمانی از اطلاعات تاریخی.به طور خاص ، ما از
روش انتخاب متغیر بیزی اتوماتیک برای اضافه کردن وزن به اهمیت
ویژگی های مختلفبرای این منظور ، رویکرد ما تفسیر بهتری دارد
در مقایسه با سایر طرح های ترکیبی پیش بینی جعبه سیاه.ما خود را اعمال می کنیم
چارچوب داده های بازار سهام و داده های رقابت M3.بر اساس ساختار ما ،
یک طرح ساده حداکثر یک خلفی از روشهای معیار بهتر عمل می کند ، و
انتخاب متغیر بیزی می تواند دقت را برای هر دو نقطه و
پیش بینی چگالی. |
30,468 | This article studies experimental design in settings where the experimental
units are large aggregate entities (e.g., markets), and only one or a small
number of units can be exposed to the treatment. In such settings,
randomization of the treatment may result in treated and control groups with
very different characteristics at baseline, inducing biases. We propose a
variety of synthetic control designs (Abadie, Diamond and Hainmueller, 2010,
Abadie and Gardeazabal, 2003) as experimental designs to select treated units
in non-randomized experiments with large aggregate units, as well as the
untreated units to be used as a control group. Average potential outcomes are
estimated as weighted averages of treated units, for potential outcomes with
treatment -- and control units, for potential outcomes without treatment. We
analyze the properties of estimators based on synthetic control designs and
propose new inferential techniques. We show that in experimental settings with
aggregate units, synthetic control designs can substantially reduce estimation
biases in comparison to randomization of the treatment. | در این مقاله به بررسی طراحی تجربی در تنظیماتی که در آن آزمایشی است
واحدها نهادهای بزرگ (به عنوان مثال ، بازارها) و فقط یک یا یک کوچک هستند
تعداد واحدها را می توان در معرض درمان قرار داد.در چنین تنظیماتی ،
تصادفی سازی درمان ممکن است منجر به گروههای تحت درمان و کنترل شود
خصوصیات بسیار متفاوتی در ابتدا ، باعث تعصب می شود.ما پیشنهاد می کنیم
انواع طرح های کنترل مصنوعی (Abadie ، Diamond and Hainmueller ، 2010 ،
Abadie and Gardeazabal ، 2003) به عنوان طرح های آزمایشی برای انتخاب واحدهای تحت درمان
در آزمایشات غیر تصادفی با واحدهای بزرگ و همچنین
واحدهای درمان نشده به عنوان یک گروه کنترل استفاده می شوند.نتایج بالقوه متوسط است
به عنوان میانگین وزنی واحدهای تحت درمان تخمین زده می شود ، برای نتایج بالقوه با
واحدهای درمانی - و کنترل ، برای نتایج بالقوه بدون درمان.ما
ویژگی های برآوردگرها را بر اساس طرح های کنترل مصنوعی تجزیه و تحلیل کنید
تکنیک های جدید استنباطی را پیشنهاد دهید.ما نشان می دهیم که در تنظیمات آزمایشی
واحدهای کل ، طرح های کنترل مصنوعی می توانند به طور قابل توجهی تخمین را کاهش دهند
تعصب در مقایسه با تصادفی درمان. |
30,469 | We consider a high-dimensional model in which variables are observed over
time and space. The model consists of a spatio-temporal regression containing a
time lag and a spatial lag of the dependent variable. Unlike classical spatial
autoregressive models, we do not rely on a predetermined spatial interaction
matrix, but infer all spatial interactions from the data. Assuming sparsity, we
estimate the spatial and temporal dependence fully data-driven by penalizing a
set of Yule-Walker equations. This regularization can be left unstructured, but
we also propose customized shrinkage procedures when observations originate
from spatial grids (e.g. satellite images). Finite sample error bounds are
derived and estimation consistency is established in an asymptotic framework
wherein the sample size and the number of spatial units diverge jointly.
Exogenous variables can be included as well. A simulation exercise shows strong
finite sample performance compared to competing procedures. As an empirical
application, we model satellite measured NO2 concentrations in London. Our
approach delivers forecast improvements over a competitive benchmark and we
discover evidence for strong spatial interactions. | ما یک مدل با ابعاد بالا را در نظر می گیریم که در آن متغیرها بیش از حد مشاهده می شوند
زمان و فضا.این مدل شامل یک رگرسیون فضایی-زمانی است که حاوی a است
تاخیر زمانی و تاخیر مکانی از متغیر وابسته.برخلاف مکانی کلاسیک
مدلهای خودکار ، ما به تعامل مکانی از پیش تعیین شده اعتماد نمی کنیم
ماتریس ، اما تمام فعل و انفعالات مکانی از داده ها استنباط می شود.با فرض کمبود ، ما
وابستگی مکانی و زمانی را به طور کامل با مجازات کردن a تخمین بزنید
مجموعه ای از معادلات Yule-Walker.این تنظیم می تواند بدون ساختار باقی بماند ، اما
ما همچنین روشهای انقباض سفارشی را پیشنهاد می کنیم که مشاهدات سرچشمه می گیرند
از شبکه های مکانی (به عنوان مثال تصاویر ماهواره ای).مرزهای خطای نمونه محدود هستند
مشتق شده و قوام تخمین در یک چارچوب بدون علامت ایجاد می شود
که در آن اندازه نمونه و تعداد واحدهای مکانی به طور مشترک واگرایی می کنند.
متغیرهای اگزوژن نیز می توانند گنجانده شوند.یک تمرین شبیه سازی قوی را نشان می دهد
عملکرد نمونه محدود در مقایسه با روشهای رقابتی.به عنوان یک تجربی
کاربرد ، ما ماهواره ای غلظت NO2 را در لندن اندازه گیری می کنیم.ما
رویکرد پیشرفت های پیش بینی را نسبت به یک معیار رقابتی و ما ارائه می دهد
شواهدی را برای تعامل مکانی قوی کشف کنید. |
30,470 | The Gini index signals only the dispersion of the distribution and is not
very sensitive to income differences at the tails of the distribution. The
widely used index of inequality can be adjusted to also measure distributional
asymmetry by attaching weights to the distances between the Lorenz curve and
the 45-degree line. The measure is equivalent to the Gini if the distribution
is symmetric. The alternative measure of inequality inherits good properties
from the Gini but is more sensitive to changes in the extremes of the income
distribution. | شاخص جینی فقط پراکندگی توزیع را نشان می دهد و نیست
نسبت به اختلاف درآمد در دم توزیع بسیار حساس است.در
شاخص نابرابری به طور گسترده ای قابل استفاده است تا بتواند توزیع را نیز اندازه گیری کند
عدم تقارن با اتصال وزنه ها به مسافت بین منحنی لورنز و
خط 45 درجه.در صورت توزیع معادل جینی است
متقارن استاندازه گیری جایگزین نابرابری خواص خوبی را به ارث می برد
از جینی اما نسبت به تغییر در افراط و تفریط درآمد حساس تر است
توزیع |
30,471 | This study aims to show the fundamental difference between logistic
regression and Bayesian classifiers in the case of exponential and
unexponential families of distributions, yielding the following findings.
First, the logistic regression is a less general representation of a Bayesian
classifier. Second, one should suppose distributions of classes for the correct
specification of logistic regression equations. Third, in specific cases, there
is no difference between predicted probabilities from correctly specified
generative Bayesian classifier and discriminative logistic regression. | این مطالعه با هدف نشان دادن تفاوت اساسی بین لجستیک
رگرسیون و طبقه بندی کننده های بیزی در مورد نمایی و
خانواده های غیرمجاز توزیع ، یافته های زیر را ارائه می دهند.
اول ، رگرسیون لجستیک نمایندگی کمتری از یک بیزی است
طبقه بندی.دوم ، باید تصور کرد که توزیع کلاس ها برای صحیح است
مشخصات معادلات رگرسیون لجستیک.سوم ، در موارد خاص ، آنجا
هیچ تفاوتی بین احتمالات پیش بینی شده از درست مشخص نشده است
طبقه بندی کننده مولد بیزی و رگرسیون لجستیک تبعیض آمیز. |
30,472 | We develop a new approach for identifying and estimating average causal
effects in panel data under a linear factor model with unmeasured confounders.
Compared to other methods tackling factor models such as synthetic controls and
matrix completion, our method does not require the number of time periods to
grow infinitely. Instead, we draw inspiration from the two-way fixed effect
model as a special case of the linear factor model, where a simple
difference-in-differences transformation identifies the effect. We show that
analogous, albeit more complex, transformations exist in the more general
linear factor model, providing a new means to identify the effect in that
model. In fact many such transformations exist, called bridge functions, all
identifying the same causal effect estimand. This poses a unique challenge for
estimation and inference, which we solve by targeting the minimal bridge
function using a regularized estimation approach. We prove that our resulting
average causal effect estimator is root-N consistent and asymptotically normal,
and we provide asymptotically valid confidence intervals. Finally, we provide
extensions for the case of a linear factor model with time-varying unmeasured
confounders. | ما یک رویکرد جدید برای شناسایی و تخمین میانگین علی ایجاد می کنیم
اثرات در داده های پانل تحت یک مدل فاکتور خطی با مخدوشان اندازه گیری نشده.
در مقایسه با سایر روشها مدل های فاکتور مانند کنترل مصنوعی و
تکمیل ماتریس ، روش ما به تعداد دوره های زمانی نیاز ندارد
بی نهایت رشد کنید.در عوض ، ما از اثر ثابت دو طرفه الهام می گیریم
مدل به عنوان یک مورد خاص از مدل فاکتور خطی ، که در آن ساده است
تفاوت در اختلافات ، اثر را مشخص می کند.ما نشان می دهیم که
تحولات مشابه ، البته پیچیده تر ، به طور کلی وجود دارد
مدل فاکتور خطی ، فراهم کردن وسیله جدیدی برای شناسایی اثر در آن
مدل.در واقع بسیاری از این تحولات وجود دارد ، به نام توابع پل ، همه
شناسایی همان برآورد اثر علی.این یک چالش منحصر به فرد برای
تخمین و استنباط ، که ما با هدف قرار دادن پل حداقل آن را حل می کنیم
عملکرد با استفاده از یک رویکرد تخمین منظم.ما ثابت می کنیم که نتیجه ما
برآوردگر اثر علیت متوسط ریشه N سازگار و بدون علامت طبیعی است ،
و ما فواصل اطمینان بدون علامت معتبر را ارائه می دهیم.سرانجام ، ما ارائه می دهیم
پسوندها برای مورد یک مدل فاکتور خطی با عدم اندازه گیری زمان
گیج کننده |
30,541 | A new integer-valued autoregressive process (INAR) with Generalised
Lagrangian Katz (GLK) innovations is defined. We show that our GLK-INAR process
is stationary, discrete semi-self-decomposable, infinite divisible, and
provides a flexible modelling framework for count data allowing for under- and
over-dispersion, asymmetry, and excess of kurtosis. A Bayesian inference
framework and an efficient posterior approximation procedure based on Markov
Chain Monte Carlo are provided. The proposed model family is applied to a
Google Trend dataset which proxies the public concern about climate change
around the world. The empirical results provide new evidence of heterogeneity
across countries and keywords in the persistence, uncertainty, and long-run
public awareness level. | یک فرآیند جدید خودجوش با ارزش عدد صحیح (INAR) با تعمیم یافته
نوآوری های Lagrangian Katz (GLK) تعریف شده است.ما نشان می دهیم که روند GLK-inar ما
ثابت ، گسسته نیمه خود-دبستان ، تقسیم نامتناهی است ، و
یک چارچوب مدل سازی انعطاف پذیر برای داده های شمارش فراهم می کند که اجازه می دهد
پراکندگی بیش از حد ، عدم تقارن و بیش از حد کورتوز.یک استنباط بیزی
چارچوب و یک روش تقریب خلفی کارآمد بر اساس مارکوف
زنجیره مونت کارلو ارائه شده است.خانواده مدل پیشنهادی برای a اعمال می شود
مجموعه داده های Google Trend که نگرانی عمومی در مورد تغییرات آب و هوا را نشان می دهد
سراسر دنیا.نتایج تجربی شواهد جدیدی از ناهمگونی ارائه می دهد
در سراسر کشورها و کلمات کلیدی در پایداری ، عدم اطمینان و بلند مدت
سطح آگاهی عمومی. |
30,473 | This paper develops a general methodology to conduct statistical inference
for observations indexed by multiple sets of entities. We propose a novel
multiway empirical likelihood statistic that converges to a chi-square
distribution under the non-degenerate case, where corresponding Hoeffding type
decomposition is dominated by linear terms. Our methodology is related to the
notion of jackknife empirical likelihood but the leave-out pseudo values are
constructed by leaving columns or rows. We further develop a modified version
of our multiway empirical likelihood statistic, which converges to a chi-square
distribution regardless of the degeneracy, and discover its desirable
higher-order property compared to the t-ratio by the conventional Eicker-White
type variance estimator. The proposed methodology is illustrated by several
important statistical problems, such as bipartite network, generalized
estimating equations, and three-way observations. | در این مقاله یک روش کلی برای انجام استنتاج آماری تهیه شده است
برای مشاهدات نمایه شده توسط مجموعه های مختلف موجودات.ما یک رمان پیشنهاد می کنیم
آمار احتمال تجربی چند جانبه که به یک مربع مجذور همگرا می شود
توزیع تحت مورد غیر دفع ، که در آن نوع hoeffding مربوطه
تجزیه با اصطلاحات خطی حاکم است.روش ما مربوط به
مفهوم احتمال تجربی jackknife اما ارزش های شبه ترک خارج از کشور است
با ترک ستون ها یا ردیف ها ساخته شده است.ما بیشتر نسخه اصلاح شده را توسعه می دهیم
از آمار احتمال تجربی چند جانبه ما ، که به یک مجذور کای همگرا می شود
توزیع بدون در نظر گرفتن انحطاط ، و مطلوب آن را کشف کنید
خاصیت مرتبه بالاتر در مقایسه با نسبت T توسط Eicker-White معمولی
برآوردگر واریانس نوع.روش پیشنهادی توسط چندین نشان داده شده است
مشکلات مهم آماری ، مانند شبکه دو طرفه ، تعمیم یافته است
تخمین معادلات و مشاهدات سه طرفه. |
30,474 | A unified frequency domain cross-validation (FDCV) method is proposed to
obtain a heteroskedasticity and autocorrelation consistent (HAC) standard
error. This method enables model/tuning parameter selection across both
parametric and nonparametric spectral estimators simultaneously. The candidate
class for this approach consists of restricted maximum likelihood-based (REML)
autoregressive spectral estimators and lag-weights estimators with the Parzen
kernel. Additionally, an efficient technique for computing the REML estimators
of autoregressive models is provided. Through simulations, the reliability of
the FDCV method is demonstrated, comparing favorably with popular HAC
estimators such as Andrews-Monahan and Newey-West. | اعتبار سنجی متقاطع دامنه فرکانس یکپارچه (FDCV) ارائه شده است
یک استاندارد ناهمگن و همبستگی سازگار (HAC) به دست آورید
خطااین روش انتخاب پارامتر مدل/تنظیم را در هر دو امکان پذیر می کند
برآوردگرهای طیفی پارامتری و غیر پارامتری به طور همزمان.نامزد
کلاس برای این رویکرد شامل حداکثر محدودیت مبتنی بر احتمال (REML) است
برآوردگرهای طیفی خودکار و برآوردگرهای وزن تاخیر با پارزن
هستهعلاوه بر این ، یک تکنیک کارآمد برای محاسبه برآوردگرهای ReML
از مدل های خودکار ارائه شده است.از طریق شبیه سازی ، قابلیت اطمینان از
روش FDCV نشان داده شده است ، و مقایسه مطلوب با HAC محبوب
برآوردگرانی مانند اندروز-موناهان و نیوی وست. |
30,475 | We provide a sharp identification region for discrete choice models where
consumers' preferences are not necessarily complete and only aggregate choice
data is available. Behavior is modeled using an upper and a lower utility for
each alternative so that non-comparability can arise. The identification region
places intuitive bounds on the probability distribution of upper and lower
utilities. We show that the existence of an instrumental variable can be used
to reject the hypothesis that the preferences of all consumers are complete. We
apply our methods to data from the 2018 mid-term elections in Ohio. | ما یک منطقه شناسایی تیز برای مدل های انتخاب گسسته ارائه می دهیم
ترجیحات مصرف کنندگان لزوماً کامل نیست و فقط انتخاب کل است
داده ها در دسترس استرفتار با استفاده از یک ابزار بالا و پایین تر برای
هر گزینه دیگری به گونه ای که عدم مقایسه بتواند بوجود بیاید.منطقه شناسایی
مرزهای بصری را در توزیع احتمال فوقانی و پایین قرار می دهد
خدمات رفاهی.ما نشان می دهیم که می توان از وجود یک متغیر ابزاری استفاده کرد
برای رد این فرضیه مبنی بر اینکه ترجیحات کلیه مصرف کنندگان کامل است.ما
روشهای ما را برای داده های انتخابات میان دوره ای 2018 در اوهایو اعمال کنید. |
30,476 | Using a state-space system, I forecasted the US Treasury yields by employing
frequentist and Bayesian methods after first decomposing the yields of varying
maturities into its unobserved term structure factors. Then, I exploited the
structure of the state-space model to forecast the Treasury yields and compared
the forecast performance of each model using mean squared forecast error. Among
the frequentist methods, I applied the two-step Diebold-Li, two-step principal
components, and one-step Kalman filter approaches. Likewise, I imposed the five
different priors in Bayesian VARs: Diffuse, Minnesota, natural conjugate, the
independent normal inverse: Wishart, and the stochastic search variable
selection priors. After forecasting the Treasury yields for 9 different
forecast horizons, I found that the BVAR with Minnesota prior generally
minimizes the loss function. I augmented the above BVARs by including
macroeconomic variables and constructed impulse response functions with a
recursive ordering identification scheme. Finally, I fitted a sign-restricted
BVAR with dummy observations. | با استفاده از یک سیستم فضای دولتی ، من بازده خزانه داری ایالات متحده را با استفاده از آن پیش بینی کردم
روشهای مکرر و بیزی پس از تجزیه اول بازده های مختلف
سررسید در عوامل ساختار مدت غیرقابل کنترل آن.سپس ، من سوءاستفاده کردم
ساختار مدل فضای فضا برای پیش بینی بازده خزانه داری و مقایسه شده
عملکرد پیش بینی هر مدل با استفاده از خطای پیش بینی مربع میانگین.از جمله
روشهای مکرر ، من اصلی دو مرحله ای Diebold-LI ، دو مرحله ای را اعمال کردم
مؤلفه ها ، و فیلتر کلمن یک مرحله ای.به همین ترتیب ، من پنج نفر را تحمیل کردم
مقدمات مختلف در Bayesian Vars: پراکنده ، مینسوتا ، کونژوگه طبیعی ،
معکوس طبیعی مستقل: ویشارت ، و متغیر جستجوی تصادفی
انتخاب مقدماتی.پس از پیش بینی بازده خزانه برای 9 متفاوت
پیش بینی افق ، فهمیدم که BVAR با مینسوتا به طور کلی
عملکرد از دست دادن را به حداقل می رساند.من BVAR های فوق را با استفاده از آن افزودم
متغیرهای کلان اقتصادی و توابع پاسخ تکانه ساخته شده با a
طرح شناسایی سفارش بازگشتی.سرانجام ، من یک محدودیت محدود کردم
bvar با مشاهدات ساختگی. |
30,477 | We consider a causal inference model in which individuals interact in a
social network and they may not comply with the assigned treatments. In
particular, we suppose that the form of network interference is unknown to
researchers. To estimate meaningful causal parameters in this situation, we
introduce a new concept of exposure mapping, which summarizes potentially
complicated spillover effects into a fixed dimensional statistic of
instrumental variables. We investigate identification conditions for the
intention-to-treat effects and the average treatment effects for compliers,
while explicitly considering the possibility of misspecification of exposure
mapping. Based on our identification results, we develop nonparametric
estimation procedures via inverse probability weighting. Their asymptotic
properties, including consistency and asymptotic normality, are investigated
using an approximate neighborhood interference framework. For an empirical
illustration, we apply our method to experimental data on the anti-conflict
intervention school program. The proposed methods are readily available with
the companion R package latenetwork. | ما یک مدل استنباط علی را در نظر می گیریم که در آن افراد در یک تعامل دارند
شبکه اجتماعی و آنها ممکن است مطابق با درمان های اختصاصی نباشند.که در
به ویژه ، ما تصور می کنیم که شکل تداخل شبکه ناشناخته است
محققانبرای برآورد پارامترهای علی معنادار در این شرایط ، ما
مفهوم جدیدی از نقشه برداری از قرار گرفتن در معرض را معرفی کنید ، که به طور بالقوه خلاصه می شود
اثرات سرریز پیچیده به یک آمار بعدی ثابت از
متغیرهای ابزاری.ما شرایط شناسایی را برای
اثرات قصد به درمان و میانگین اثرات درمانی برای تعارفات ،
در حالی که صریحاً امکان شناسایی اشتباه قرار گرفتن در معرض را در نظر می گیرد
نقشه برداری.بر اساس نتایج شناسایی ما ، ما غیرپارامتری ایجاد می کنیم
روشهای تخمین از طریق وزن احتمال معکوس.بدون علامت آنها
خواص ، از جمله قوام و نرمال بودن بدون علامت ، مورد بررسی قرار گرفته است
با استفاده از یک چارچوب تداخل تقریبی محله.برای یک تجربی
تصویر ، ما روش خود را برای داده های تجربی در مورد ضد درگیری اعمال می کنیم
برنامه مدرسه مداخله.روشهای پیشنهادی به راحتی در دسترس هستند
بسته Companion R Latenetwork. |
30,478 | This paper develops an individual-based stochastic network SIR model for the
empirical analysis of the Covid-19 pandemic. It derives moment conditions for
the number of infected and active cases for single as well as multigroup
epidemic models. These moment conditions are used to investigate the
identification and estimation of the transmission rates. The paper then
proposes a method that jointly estimates the transmission rate and the
magnitude of under-reporting of infected cases. Empirical evidence on six
European countries matches the simulated outcomes once the under-reporting of
infected cases is addressed. It is estimated that the number of actual cases
could be between 4 to 10 times higher than the reported numbers in October 2020
and declined to 2 to 3 times in April 2021. The calibrated models are used in
the counterfactual analyses of the impact of social distancing and vaccination
on the epidemic evolution, and the timing of early interventions in the UK and
Germany. | این مقاله یک مدل شبکه تصادفی مبتنی بر فردی را برای آن تهیه می کند
تجزیه و تحلیل تجربی از همه گیر Covid-19.این شرایط لحظه ای را برای
تعداد موارد آلوده و فعال برای تک و چند گروه
مدل های اپیدمی.این شرایط لحظه ای برای بررسی استفاده می شود
شناسایی و تخمین نرخ انتقال.کاغذ سپس
روشی را پیشنهاد می کند که به طور مشترک نرخ انتقال و
بزرگی گزارش زیر موارد آلوده.شواهد تجربی در مورد شش
کشورهای اروپایی پس از گزارش زیر ، نتایج شبیه سازی شده را مطابقت می دهند
موارد آلوده مورد بررسی قرار می گیرد.تخمین زده می شود که تعداد موارد واقعی
می تواند بین 4 تا 10 برابر بیشتر از شماره های گزارش شده در اکتبر 2020 باشد
و در آوریل 2021 به 2 تا 3 بار خودداری کرد. از مدل های کالیبره شده در
تجزیه و تحلیل ضد خلاف تأثیر فاصله و واکسیناسیون اجتماعی
در مورد تکامل اپیدمی و زمان مداخلات اولیه در انگلیس و
آلمان |
30,485 | We study estimation of the conditional tail average treatment effect (CTATE),
defined as a difference between conditional tail expectations of potential
outcomes. The CTATE can capture heterogeneity and deliver aggregated local
information of treatment effects over different quantile levels, and is closely
related to the notion of second order stochastic dominance and the Lorenz
curve. These properties render it a valuable tool for policy evaluations. We
consider a semiparametric treatment effect framework under endogeneity for the
CTATE estimation using a newly introduced class of consistent loss functions
jointly for the conditioanl tail expectation and quantile. We establish
asymptotic theory of our proposed CTATE estimator and provide an efficient
algorithm for its implementation. We then apply the method to the evaluation of
effects from participating in programs of the Job Training Partnership Act in
the US. | ما تخمین از اثر متوسط درمان دم شرطی (CTATE) را بررسی می کنیم ،
به عنوان تفاوت بین انتظارات دم شرطی از پتانسیل تعریف شده است
عواقب.CTATE می تواند ناهمگونی را به دست آورد و محلی جمع شده را تحویل دهد
اطلاعات مربوط به اثرات درمانی بر روی سطوح مختلف ، و از نزدیک است
مربوط به مفهوم تسلط تصادفی مرتبه دوم و لورنز
منحنیاین خصوصیات آن را به ابزاری ارزشمند برای ارزیابی سیاست تبدیل می کند.ما
یک چارچوب اثر درمانی نیمهرامتری تحت درون زایی را در نظر بگیرید
برآورد CTATE با استفاده از یک کلاس تازه معرفی شده از توابع از دست دادن مداوم
به طور مشترک برای انتظار دم ConditioAnl و کمی.ما تأسیس می کنیم
نظریه بدون علامت از برآوردگر CTATE پیشنهادی ما و ارائه کارآمد
الگوریتم برای اجرای آن.ما سپس روش را برای ارزیابی استفاده می کنیم
تأثیرات شرکت در برنامه های قانون مشارکت آموزش شغلی در
ایالات متحده آمریکا. |
30,479 | We develop new semiparametric methods for estimating treatment effects. We
focus on settings where the outcome distributions may be thick tailed, where
treatment effects may be small, where sample sizes are large and where
assignment is completely random. This setting is of particular interest in
recent online experimentation. We propose using parametric models for the
treatment effects, leading to semiparametric models for the outcome
distributions. We derive the semiparametric efficiency bound for the treatment
effects for this setting, and propose efficient estimators. In the leading case
with constant quantile treatment effects one of the proposed efficient
estimators has an interesting interpretation as a weighted average of quantile
treatment effects, with the weights proportional to minus the second derivative
of the log of the density of the potential outcomes. Our analysis also suggests
an extension of Huber's model and trimmed mean to include asymmetry. | ما روشهای جدید نیمهرامتری را برای برآورد اثرات درمانی ایجاد می کنیم.ما
روی تنظیماتی تمرکز کنید که توزیع نتیجه ممکن است ضخیم باشد ، جایی که
اثرات درمانی ممکن است کوچک باشد ، جایی که اندازه نمونه ها بزرگ و در کجا هستند
انتساب کاملاً تصادفی است.این تنظیمات مورد توجه ویژه ای است
آزمایش آنلاین اخیر.ما با استفاده از مدلهای پارامتری برای
اثرات درمانی ، منجر به مدل های نیمهرامتری برای نتیجه
توزیعما کارآیی نیمهرامتری را برای درمان به دست می آوریم
اثرات این تنظیم ، و برآوردگرهای کارآمد را پیشنهاد می کند.در مورد پیشرو
با اثرات درمانی کمی ثابت یکی از کارآمدهای پیشنهادی
برآوردگرها تعبیر جالبی به عنوان میانگین وزنی کمیت دارند
اثرات درمانی ، با وزن متناسب با منهای مشتق دوم
ورود به سیستم چگالی نتایج بالقوه.تجزیه و تحلیل ما همچنین نشان می دهد
گسترش مدل هوبر و میانگین برش شامل عدم تقارن. |
30,480 | Pervasive cross-section dependence is increasingly recognized as a
characteristic of economic data and the approximate factor model provides a
useful framework for analysis. Assuming a strong factor structure where
$\Lop\Lo/N^\alpha$ is positive definite in the limit when $\alpha=1$, early
work established convergence of the principal component estimates of the
factors and loadings up to a rotation matrix. This paper shows that the
estimates are still consistent and asymptotically normal when $\alpha\in(0,1]$
albeit at slower rates and under additional assumptions on the sample size. The
results hold whether $\alpha$ is constant or varies across factor loadings. The
framework developed for heterogeneous loadings and the simplified proofs that
can be also used in strong factor analysis are of independent interest. | وابستگی مقطعی فراگیر به طور فزاینده ای به عنوان یک شناخته می شود
مشخصه داده های اقتصادی و مدل فاکتور تقریبی
چارچوب مفید برای تجزیه و تحلیل.با فرض ساختار عاملی قوی که در آن
$ \ lop \ lo/n^\ alpha $ در حد قطعی مثبت است وقتی $ \ alpha = 1 $ ، زود است
کار ایجاد همگرایی برآوردهای مؤلفه اصلی
عوامل و بارگذاری تا یک ماتریس چرخش.این مقاله نشان می دهد که
تخمین ها هنوز هم سازگار و از نظر غیر عادی طبیعی هستند وقتی $ \ alpha \ in (0،1] $
البته با نرخ کندتر و تحت فرضیات اضافی در مورد اندازه نمونه.در
نتایج معتقدند که آیا \ alpha $ ثابت است یا در بارهای عامل متفاوت است.در
چارچوب برای بارهای ناهمگن و اثبات ساده ای که ایجاد شده است
همچنین می توان در تجزیه و تحلیل عاملی قوی مورد استفاده قرار گرفت. |
30,481 | Autoregressive conditional duration (ACD) models are primarily used to deal
with data arising from times between two successive events. These models are
usually specified in terms of a time-varying conditional mean or median
duration. In this paper, we relax this assumption and consider a conditional
quantile approach to facilitate the modeling of different percentiles. The
proposed ACD quantile model is based on a skewed version of Birnbaum-Saunders
distribution, which provides better fitting of the tails than the traditional
Birnbaum-Saunders distribution, in addition to advancing the implementation of
an expectation conditional maximization (ECM) algorithm. A Monte Carlo
simulation study is performed to assess the behavior of the model as well as
the parameter estimation method and to evaluate a form of residual. A real
financial transaction data set is finally analyzed to illustrate the proposed
approach. | مدلهای مدت زمان مشروط (ACD) در درجه اول برای معامله استفاده می شوند
با داده های ناشی از زمان بین دو رویداد پی در پی.این مدل ها هستند
معمولاً از نظر میانگین مشروط یا میانگین مشروط مشخص شده است
مدت زمان.در این مقاله ، ما این فرض را آرام می کنیم و مشروط را در نظر می گیریم
رویکرد کمی برای تسهیل مدل سازی صدک های مختلف.در
مدل Quantile ACD پیشنهادی براساس نسخه ای از رنگهای Birnbaum-Saunders ساخته شده است
توزیع ، که اتصالات بهتری از دم را نسبت به سنتی فراهم می کند
توزیع Birnbaum-Saunders ، علاوه بر پیشبرد اجرای
الگوریتم حداکثر سازی مشروط انتظار (ECM).یک مونت کارلو
مطالعه شبیه سازی برای ارزیابی رفتار مدل و همچنین انجام می شود
روش تخمین پارامتر و ارزیابی نوعی از باقیمانده.یک واقعی
مجموعه داده های معامله مالی سرانجام برای نشان دادن پیشنهادی مورد تجزیه و تحلیل قرار می گیرد
رویکرد. |
30,482 | Implicit copulas are the most common copula choice for modeling dependence in
high dimensions. This broad class of copulas is introduced and surveyed,
including elliptical copulas, skew $t$ copulas, factor copulas, time series
copulas and regression copulas. The common auxiliary representation of implicit
copulas is outlined, and how this makes them both scalable and tractable for
statistical modeling. Issues such as parameter identification, extended
likelihoods for discrete or mixed data, parsimony in high dimensions, and
simulation from the copula model are considered. Bayesian approaches to
estimate the copula parameters, and predict from an implicit copula model, are
outlined. Particular attention is given to implicit copula processes
constructed from time series and regression models, which is at the forefront
of current research. Two econometric applications -- one from macroeconomic
time series and the other from financial asset pricing -- illustrate the
advantages of implicit copula models. | کوپل های ضمنی رایج ترین انتخاب کوپلا برای مدل سازی وابستگی در
ابعاد بالااین طبقه گسترده از کوپول ها معرفی و مورد بررسی قرار می گیرد ،
از جمله کوپل های بیضوی ، کوپول های $ t $ ، کپی های فاکتور ، سری زمانی
کوپول ها و کوپل های رگرسیون.نمایندگی مشترک کمکی ضمنی
کوپول ها تشریح شده است ، و اینکه چگونه این امر باعث می شود که آنها هم مقیاس پذیر و هم قابل تراکت باشند
مدل سازی آماری.موضوعاتی مانند شناسایی پارامتر ، گسترش یافته
احتمال داده های گسسته یا مختلط ، پارسیمونی در ابعاد بالا و
شبیه سازی از مدل Copula در نظر گرفته شده است.رویکردهای بیزی به
پارامترهای Copula را تخمین بزنید ، و از یک مدل ضمنی Copula پیش بینی کنید.
تشریح شدهتوجه ویژه ای به فرآیندهای ضمنی کوپول ها داده می شود
ساخته شده از سری زمانی و مدل های رگرسیون ، که در خط مقدم است
تحقیقات فعلیدو برنامه اقتصاد سنجی - یکی از کلان اقتصادی
سری زمانی و دیگری از قیمت گذاری دارایی های مالی - نشان می دهد
مزایای مدل های کوپول ضمنی. |
30,483 | Truncated conditional expectation functions are objects of interest in a wide
range of economic applications, including income inequality measurement,
financial risk management, and impact evaluation. They typically involve
truncating the outcome variable above or below certain quantiles of its
conditional distribution. In this paper, based on local linear methods, a
novel, two-stage, nonparametric estimator of such functions is proposed. In
this estimation problem, the conditional quantile function is a nuisance
parameter that has to be estimated in the first stage. The proposed estimator
is insensitive to the first-stage estimation error owing to the use of a
Neyman-orthogonal moment in the second stage. This construction ensures that
inference methods developed for the standard nonparametric regression can be
readily adapted to conduct inference on truncated conditional expectations. As
an extension, estimation with an estimated truncation quantile level is
considered. The proposed estimator is applied in two empirical settings: sharp
regression discontinuity designs with a manipulated running variable and
randomized experiments with sample selection. | توابع انتظارات شرطی کوتاه اشیاء مورد علاقه در گسترده ای هستند
طیف وسیعی از برنامه های اقتصادی ، از جمله اندازه گیری نابرابری درآمدی ،
مدیریت ریسک مالی و ارزیابی تأثیر.آنها به طور معمول درگیر هستند
کوتاه کردن متغیر نتیجه در بالا یا زیر مقدار خاصی از آن
توزیع مشروط.در این مقاله ، بر اساس روش های خطی محلی ، a
برآوردگر جدید ، دو مرحله ای ، غیرپارامتری چنین توابع ارائه شده است.که در
این مشکل تخمین ، عملکرد کمی مشروط یک مزاحمت است
پارامتر که باید در مرحله اول تخمین زده شود.برآوردگر پیشنهادی
به دلیل استفاده از a نسبت به خطای تخمین مرحله اول حساس نیست
لحظه Neyman-orthogonal در مرحله دوم.این ساخت و ساز تضمین می کند
روشهای استنباط توسعه یافته برای رگرسیون استاندارد غیرپارامتری می تواند باشد
به آسانی برای انجام استنباط در انتظارات مشروط کوتاه سازگار است.مانند
پسوند ، برآورد با سطح کمی تخمین زده شده است
در نظر گرفته شده.برآوردگر پیشنهادی در دو تنظیم تجربی اعمال می شود: تیز
طرح های ناپیوستگی رگرسیون با یک متغیر در حال اجرا دستکاری شده و
آزمایش های تصادفی با انتخاب نمونه. |
30,484 | This paper studies the case of possibly high-dimensional covariates in the
regression discontinuity design (RDD) analysis. In particular, we propose
estimation and inference methods for the RDD models with covariate selection
which perform stably regardless of the number of covariates. The proposed
methods combine the local approach using kernel weights with
$\ell_{1}$-penalization to handle high-dimensional covariates. We provide
theoretical and numerical results which illustrate the usefulness of the
proposed methods. Theoretically, we present risk and coverage properties for
our point estimation and inference methods, respectively. Under certain special
case, the proposed estimator becomes more efficient than the conventional
covariate adjusted estimator at the cost of an additional sparsity condition.
Numerically, our simulation experiments and empirical example show the robust
behaviors of the proposed methods to the number of covariates in terms of bias
and variance for point estimation and coverage probability and interval length
for inference. | در این مقاله مورد همبستگی های احتمالاً با ابعاد بالا در
تجزیه و تحلیل ناپیوستگی رگرسیون (RDD).به طور خاص ، ما پیشنهاد می کنیم
روش تخمین و استنباط برای مدل های RDD با انتخاب متغیر
که بدون توجه به تعداد متغیرهای متغیر ، پایدار عمل می کنند.پیشنهاد
روشها رویکرد محلی را با استفاده از وزن هسته با هم ترکیب می کنند
$ \ ell_ {1} $-مجازات برای رسیدگی به متغیرهای متغیر با ابعاد بالا.ما فراهم می کنیم
نتایج نظری و عددی که سودمندی را نشان می دهد
روشهای پیشنهادیاز لحاظ تئوریکی ، ما ویژگی های خطر و پوشش را برای آن ارائه می دهیم
به ترتیب برآورد نقطه و روشهای استنتاج ما.تحت خاص خاص
مورد ، برآوردگر پیشنهادی نسبت به متعارف کارآمدتر می شود
برآوردگر تنظیم شده متغیر با هزینه یک شرایط اضافی اضافی.
از نظر عددی ، آزمایش های شبیه سازی و مثال تجربی ما را قوی نشان می دهد
رفتارهای روشهای پیشنهادی به تعداد متغیرهای متغیر از نظر تعصب
و واریانس برای برآورد نقطه و احتمال پوشش و طول فاصله
برای استنباط |
30,542 | This article proposes an estimation method to detect breakpoints for linear
time series models with their parameters that jump scarcely. Its basic idea
owes the group LASSO (group least absolute shrinkage and selection operator).
The method practically provides estimates of such time-varying parameters of
the models. An example shows that our method can detect each structural
breakpoint's date and magnitude. | در این مقاله یک روش تخمین برای تشخیص نقاط شکست برای خطی ارائه شده است
مدل های سری زمانی با پارامترهای خود که به سختی می پرند.ایده اصلی آن
مدیون گروه Lasso (گروه حداقل کوچک شدن و انتخاب اپراتور انتخاب) است.
این روش عملاً تخمین هایی از چنین پارامترهای متغیر زمانی را ارائه می دهد
مدل هایک مثال نشان می دهد که روش ما می تواند هر ساختاری را تشخیص دهد
تاریخ و بزرگی Breakpoint. |
30,486 | This paper provides a design-based framework for variance (bound) estimation
in experimental analysis. Results are applicable to virtually any combination
of experimental design, linear estimator (e.g., difference-in-means, OLS, WLS)
and variance bound, allowing for unified treatment and a basis for systematic
study and comparison of designs using matrix spectral analysis. A proposed
variance estimator reproduces Eicker-Huber-White (aka. "robust",
"heteroskedastic consistent", "sandwich", "White", "Huber-White", "HC", etc.)
standard errors and "cluster-robust" standard errors as special cases. While
past work has shown algebraic equivalences between design-based and the
so-called "robust" standard errors under some designs, this paper motivates
them for a wide array of design-estimator-bound triplets. In so doing, it
provides a clearer and more general motivation for variance estimators. | در این مقاله یک چارچوب مبتنی بر طراحی برای تخمین واریانس (محدود) ارائه شده است
در تجزیه و تحلیل تجربی.نتایج برای هر ترکیبی تقریباً کاربرد دارد
از طراحی آزمایشی ، برآوردگر خطی (به عنوان مثال ، تفاوت در میانگین ، OLS ، WLS)
و واریانس محدود ، امکان درمان یکپارچه و پایه ای برای سیستماتیک
مطالعه و مقایسه طرح ها با استفاده از آنالیز طیفی ماتریس.پیشنهادی
برآوردگر واریانس Eicker-Huber-White را بازتولید می کند (با نام مستعار. "قوی" ،
"سازگار هتروسیکاستی" ، "ساندویچ" ، "سفید" ، "هوبر سفید" ، "HC" و غیره)
خطاهای استاندارد و خطاهای استاندارد "خوشه-روبست" به عنوان موارد خاص.در حالی که
کار گذشته معادل های جبری را بین طراحی مبتنی بر طراحی و
به اصطلاح خطاهای استاندارد "قوی" تحت برخی طرح ها ، این مقاله انگیزه دارد
آنها را برای طیف گسترده ای از سه گانه طراحی-تخمین سازنده.در انجام این کار ، آن
انگیزه واضح تر و عمومی تری برای برآوردگرهای واریانس فراهم می کند. |
30,487 | This chapter presents an overview of a specific form of limited dependent
variable models, namely discrete choice models, where the dependent (response
or outcome) variable takes values which are discrete, inherently ordered, and
characterized by an underlying continuous latent variable. Within this setting,
the dependent variable may take only two discrete values (such as 0 and 1)
giving rise to binary models (e.g., probit and logit models) or more than two
values (say $j=1,2, \ldots, J$, where $J$ is some integer, typically small)
giving rise to ordinal models (e.g., ordinal probit and ordinal logit models).
In these models, the primary goal is to model the probability of
responses/outcomes conditional on the covariates. We connect the outcomes of a
discrete choice model to the random utility framework in economics, discuss
estimation techniques, present the calculation of covariate effects and
measures to assess model fitting. Some recent advances in discrete data
modeling are also discussed. Following the theoretical review, we utilize the
binary and ordinal models to analyze public opinion on marijuana legalization
and the extent of legalization -- a socially relevant but controversial topic
in the United States. We obtain several interesting results including that past
use of marijuana, belief about legalization and political partisanship are
important factors that shape the public opinion. | در این فصل مروری بر یک شکل خاص از وابسته محدود ارائه شده است
مدل های متغیر ، یعنی مدل های انتخاب گسسته ، که در آن وابسته است (پاسخ
یا نتیجه) متغیر مقادیری را که گسسته ، ذاتاً سفارش داده می شوند ، می گیرد و
مشخص شده توسط یک متغیر پنهان مداوم.در این تنظیم ،
متغیر وابسته ممکن است فقط دو مقدار گسسته داشته باشد (مانند 0 و 1)
ایجاد مدلهای باینری (به عنوان مثال ، مدل های پروبیت و ورود به سیستم) یا بیش از دو
مقادیر (مثلاً $ j = 1،2 ، \ ldots ، j $ ، جایی که $ j $ مقداری عدد صحیح است ، به طور معمول کوچک)
ایجاد مدلهای معمولی (به عنوان مثال ، مدلهای پروبیت و الگوریته معمولی).
در این مدل ها ، هدف اصلی مدل سازی احتمال از آن است
پاسخ ها/نتایج مشروط به متغیرهای متغیر.ما نتایج a را به هم وصل می کنیم
مدل انتخاب گسسته به چارچوب ابزار تصادفی در اقتصاد ، بحث کنید
تکنیک های تخمین ، محاسبه اثرات متغیر و
اقدامات برای ارزیابی اتصالات مدل.برخی از پیشرفت های اخیر در داده های گسسته
مدل سازی نیز مورد بحث قرار گرفته است.پس از بررسی نظری ، ما از
مدلهای باینری و منظم برای تجزیه و تحلیل افکار عمومی در مورد قانونی شدن ماری جوانا
و میزان قانونی بودن - یک موضوع مرتبط با اجتماعی اما بحث برانگیز
در ایالات متحده.ما چندین نتیجه جالب از جمله گذشته به دست می آوریم
استفاده از ماری جوانا ، اعتقاد به قانونی بودن و حزب سیاسی است
عوامل مهمی که افکار عمومی را شکل می دهند. |
30,488 | This paper aims to project a climate change scenario using a stochastic
paleotemperature time series model and compare it with the prevailing
consensus. The ARIMA - Autoregressive Integrated Moving Average Process model
was used for this purpose. The results show that the parameter estimates of the
model were below what is established by the anthropogenic current and
governmental organs, such as the IPCC (UN), considering a 100-year scenario,
which suggests a period of temperature reduction and a probable cooling. Thus,
we hope with this study to contribute to the discussion by adding a statistical
element of paleoclimate in counterpoint to the current scientific consensus and
place the debate in a long-term historical dimension, in line with other
existing research on the topic. | این مقاله با هدف طرح یک سناریوی تغییر آب و هوا با استفاده از یک تصادفی
مدل سری زمانی paleotemperature و مقایسه آن با غالب
اجماع، وفاق.مدل متوسط فرآیند متحرک ARIMA - Autoregresgive یکپارچه
برای این منظور استفاده شدنتایج نشان می دهد که برآورد پارامتر از
مدل زیر آنچه توسط جریان انسان شناسی ایجاد شده است و
اندامهای دولتی ، مانند IPCC (UN) ، با توجه به سناریوی 100 ساله ،
که نشان می دهد دوره کاهش دما و خنک کننده احتمالی.بدین ترتیب،
ما امیدواریم که با این مطالعه با اضافه کردن یک آماری در بحث کمک کند
عنصر paleoclimate در نقطه مقابل به اجماع علمی فعلی و
بحث را در یک بعد تاریخی طولانی مدت ، مطابق با دیگران قرار دهید
تحقیقات موجود در مورد موضوع. |
30,489 | When randomized trials are run in a marketplace equilibriated by prices,
interference arises. To analyze this, we build a stochastic model of treatment
effects in equilibrium. We characterize the average direct (ADE) and indirect
treatment effect (AIE) asymptotically. A standard RCT can consistently estimate
the ADE, but confidence intervals and AIE estimation require price elasticity
estimates, which we provide using a novel experimental design. We define
heterogeneous treatment effects and derive an optimal targeting rule that meets
an equilibrium stability condition. We illustrate our results using a freelance
labor market simulation and data from a cash transfer experiment. | هنگامی که کارآزمایی های تصادفی در یک بازار تعادل با قیمت ها انجام می شود ،
تداخل بوجود می آید.برای تجزیه و تحلیل این ، ما یک مدل تصادفی از درمان می سازیم
اثرات در تعادل.ما میانگین مستقیم (ADE) و غیرمستقیم را توصیف می کنیم
اثر درمانی (AIE) بدون علامت.یک RCT استاندارد می تواند به طور مداوم تخمین بزند
ADE ، اما فواصل اطمینان و تخمین AIE به کشش قیمت نیاز دارند
تخمین ها ، که ما با استفاده از یک طرح آزمایشی جدید ارائه می دهیم.ما تعریف می کنیم
اثرات درمانی ناهمگن و یک قانون هدفمند بهینه را که برآورده می شود ، به دست می آورند
یک وضعیت پایداری تعادل.ما نتایج خود را با استفاده از یک آزاد نشان می دهیم
شبیه سازی بازار کار و داده های آزمایش انتقال نقدی. |
30,490 | Sibling fixed effects (FE) models are useful for estimating causal treatment
effects while offsetting unobserved sibling-invariant confounding. However,
treatment estimates are biased if an individual's outcome affects their
sibling's outcome. We propose a robustness test for assessing the presence of
outcome-to-outcome interference in linear two-sibling FE models. We regress a
gain-score--the difference between siblings' continuous outcomes--on both
siblings' treatments and on a pre-treatment observed FE. Under certain
restrictions, the observed FE's partial regression coefficient signals the
presence of outcome-to-outcome interference. Monte Carlo simulations
demonstrated the robustness test under several models. We found that an
observed FE signaled outcome-to-outcome spillover if it was directly associated
with an sibling-invariant confounder of treatments and outcomes, directly
associated with a sibling's treatment, or directly and equally associated with
both siblings' outcomes. However, the robustness test collapsed if the observed
FE was directly but differentially associated with siblings' outcomes or if
outcomes affected siblings' treatments. | مدلهای اثرات ثابت خواهر و برادر برای برآورد درمان علیت مفید هستند
اثرات در هنگام جبران مخرب خواهر و برادر بی توجه.با این حال،
اگر نتیجه فرد بر آنها تأثیر بگذارد ، تخمین های درمانی مغرضانه هستند
نتیجه خواهر و برادرما یک آزمایش استحکام برای ارزیابی حضور ارائه می دهیم
تداخل نتیجه به نتیجه در مدل های دو خواهر و برادر خطی.ما رکود
امتیاز کسب-تفاوت بین نتایج مداوم خواهر و برادر-در هر دو
درمانهای خواهر و برادر و در مورد پیش درمانی مشاهده شده است.تحت الشعاع
محدودیت ها ، ضریب رگرسیون جزئی مشاهده شده آهن را نشان می دهد
حضور تداخل نتیجه به نتیجه.شبیه سازی مونت کارلو
تست استحکام را تحت چندین مدل نشان داد.ما متوجه شدیم که
اگر مستقیماً در ارتباط باشد ، FE را مشاهده می کند.
مستقیماً با یک خواهر و برادر متغیر از معالجه و نتایج ، مستقیماً
همراه با درمان خواهر و برادر ، یا به طور مستقیم و به همان اندازه با
نتایج هر دو خواهر و برادر.با این حال ، در صورت مشاهده ، آزمایش استحکام از بین رفت
آه
نتایج تحت تأثیر درمان خواهران و برادران قرار گرفت. |
30,491 | A new mixture vector autoregressive model based on Gaussian and Student's $t$
distributions is introduced. As its mixture components, our model incorporates
conditionally homoskedastic linear Gaussian vector autoregressions and
conditionally heteroskedastic linear Student's $t$ vector autoregressions. For
a $p$th order model, the mixing weights depend on the full distribution of the
preceding $p$ observations, which leads to attractive theoretical properties
such as ergodicity and full knowledge of the stationary distribution of $p+1$
consecutive observations. A structural version of the model with statistically
identified shocks and a time-varying impact matrix is also proposed. The
empirical application studies asymmetries in the effects of the Euro area
monetary policy shock. Our model identifies two regimes: a high-growth regime
that is characterized by positive output gap and mainly prevailing before the
Financial crisis, and a low-growth regime that characterized by negative but
volatile output gap and mainly prevailing after the Financial crisis. The
average inflationary effects of the monetary policy shock are stronger in the
high-growth regime than in the low-growth regime. On average, the effects of an
expansionary shock are less enduring than of a contractionary shock. The CRAN
distributed R package gmvarkit accompanies the paper. | یک مدل جدید وکتور وکتور مخلوط بر اساس $ t $ گاوسی و دانشجویی
توزیع معرفی شده است.به عنوان اجزای مخلوط آن ، مدل ما گنجانیده شده است
به طور مشروط
به طور مشروط به اتورهای وکتور $ t $ دانش آموز خطی ناهمگن.برای
یک مدل مرتبه T $ P ، وزن مخلوط به توزیع کامل این بستگی دارد
مشاهدات قبل از $ P ، که منجر به خصوصیات نظری جذاب می شود
مانند ergodicity و دانش کامل در مورد توزیع ثابت $ P+1 $
مشاهدات متوالی.نسخه ساختاری مدل با آماری
شوک های شناسایی شده و یک ماتریس ضربه متغیر متغیر نیز پیشنهاد شده است.در
مطالعات کاربرد تجربی عدم تقارن در اثرات منطقه یورو
شوک سیاست پولی.مدل ما دو رژیم را مشخص می کند: یک رژیم با رشد بالا
که با شکاف خروجی مثبت مشخص می شود و عمدتاً قبل از آن غالب است
بحران مالی ، و یک رژیم با رشد کم که توسط منفی اما مشخص می شود
شکاف خروجی فرار و عمدتاً پس از بحران مالی غالب است.در
میانگین اثرات تورمی شوک سیاست پولی در آن قوی تر است
رژیم با رشد بالا نسبت به رژیم کم رشد.به طور متوسط ، اثرات یک
شوک انبساطی نسبت به یک شوک انقباضی کمتر ماندگار است.کران
بسته R توزیع Gmvarkit با مقاله همراه است. |
30,492 | A year following the initial COVID-19 outbreak in China, many countries have
approved emergency vaccines. Public-health practitioners and policymakers must
understand the predicted populational willingness for vaccines and implement
relevant stimulation measures. This study developed a framework for predicting
vaccination uptake rate based on traditional clinical data-involving an
autoregressive model with autoregressive integrated moving average (ARIMA)- and
innovative web search queries-involving a linear regression with ordinary least
squares/least absolute shrinkage and selection operator, and machine-learning
with boost and random forest. For accuracy, we implemented a stacking
regression for the clinical data and web search queries. The stacked regression
of ARIMA (1,0,8) for clinical data and boost with support vector machine for
web data formed the best model for forecasting vaccination speed in the US. The
stacked regression provided a more accurate forecast. These results can help
governments and policymakers predict vaccine demand and finance relevant
programs. | یک سال پس از شیوع اولیه Covid-19 در چین ، بسیاری از کشورها
واکسن های اضطراری تأیید شده.پزشکان و سیاستگذاران بهداشت عمومی باید
تمایل جمعیتی پیش بینی شده برای واکسن ها و اجرای آن را درک کنید
اقدامات تحریک مربوطه.این مطالعه چارچوبی برای پیش بینی ایجاد کرده است
میزان جذب واکسیناسیون بر اساس داده های بالینی سنتی درگیر
مدل خودکار با میانگین متحرک یکپارچه خودجوش (ARIMA)- و
جستجوی وب نوآورانه جستجوی رگرسیون خطی با حداقل معمولی
مربع ها/حداقل عملگر کوچک و انتخابی مطلق و یادگیری ماشین
با تقویت و جنگل تصادفی.برای صحت ، ما یک انباشت را اجرا کردیم
رگرسیون برای داده های بالینی و نمایش داده های جستجوی وب.رگرسیون انباشته
از Arima (1،0،8) برای داده های بالینی و تقویت با دستگاه بردار پشتیبانی برای
داده های وب بهترین مدل را برای پیش بینی سرعت واکسیناسیون در ایالات متحده تشکیل دادند.در
رگرسیون انباشته پیش بینی دقیق تری ارائه داد.این نتایج می تواند کمک کند
دولت ها و سیاستگذاران پیش بینی تقاضای واکسن و امور مالی مربوطه
برنامه ها. |
30,493 | This study presents contemporaneous modeling of asset return and price range
within the framework of stochastic volatility with leverage. A new
representation of the probability density function for the price range is
provided, and its accurate sampling algorithm is developed. A Bayesian
estimation using Markov chain Monte Carlo (MCMC) method is provided for the
model parameters and unobserved variables. MCMC samples can be generated
rigorously, despite the estimation procedure requiring sampling from a density
function with the sum of an infinite series. The empirical results obtained
using data from the U.S. market indices are consistent with the stylized facts
in the financial market, such as the existence of the leverage effect. In
addition, to explore the model's predictive ability, a model comparison based
on the volatility forecast performance is conducted. | این مطالعه مدل سازی معاصر بازده دارایی و دامنه قیمت را ارائه می دهد
در چارچوب نوسانات تصادفی با اهرم.جدید
بازنمایی عملکرد چگالی احتمال برای محدوده قیمت است
ارائه شده ، و الگوریتم نمونه برداری دقیق آن توسعه یافته است.یک بیزی
تخمین با استفاده از روش زنجیره ای مارکوف مونت کارلو (MCMC) برای
پارامترهای مدل و متغیرهای بدون نظارت.نمونه های MCMC قابل تولید است
با دقت ، با وجود روش تخمین نیاز به نمونه گیری از چگالی
عملکرد با مجموع یک سری بی نهایت.نتایج تجربی به دست آمده
استفاده از داده های شاخص های بازار ایالات متحده با حقایق تلطیف سازگار است
در بازار مالی ، مانند وجود اثر اهرم.که در
علاوه بر این ، برای کشف توانایی پیش بینی مدل ، یک مقایسه مدل مبتنی بر
در مورد عملکرد پیش بینی نوسانات انجام می شود. |
30,494 | We propose a simple dynamic model for estimating the relative contagiousness
of two virus variants. Maximum likelihood estimation and inference is
conveniently invariant to variation in the total number of cases over the
sample period and can be expressed as a logistic regression. We apply the model
to Danish SARS-CoV-2 variant data. We estimate the reproduction numbers of
Alpha and Delta to be larger than that of the ancestral variant by a factor of
1.51 [CI 95%: 1.50, 1.53] and 3.28 [CI 95%: 3.01, 3.58], respectively. In a
predominately vaccinated population, we estimate Omicron to be 3.15 [CI 95%:
2.83, 3.50] times more infectious than Delta. Forecasting the proportion of an
emerging virus variant is straight forward and we proceed to show how the
effective reproduction number for a new variant can be estimated without
contemporary sequencing results. This is useful for assessing the state of the
pandemic in real time as we illustrate empirically with the inferred effective
reproduction number for the Alpha variant. | ما یک مدل پویا ساده برای برآورد مسری نسبی پیشنهاد می کنیم
از دو نوع ویروس.حداکثر برآورد احتمال و استنباط است
به راحتی متغیر به تغییر در تعداد کل موارد در مورد
دوره نمونه و می تواند به عنوان یک رگرسیون لجستیک بیان شود.ما مدل را اعمال می کنیم
به داده های نوع SARS-COV-2 دانمارکی.ما تعداد تولید مثل را تخمین می زنیم
آلفا و دلتا بزرگتر از نوع اجدادی توسط عاملی هستند
1.51 [CI 95 ٪: 1.50 ، 1.53] و 3.28 [CI 95 ٪: 3.01 ، 3.58].در یک
ما عمدتا واکسینه شده جمعیت ، ما Omicron را 3.15 تخمین می زنیم [CI 95 ٪:
2.83 ، 3.50] برابر بیشتر از دلتا عفونی.پیش بینی نسبت یک
نوع ویروس در حال ظهور مستقیم به جلو است و ما نشان می دهیم که چگونه
تعداد تولید مثل مؤثر برای یک نوع جدید بدون تخمین زده می شود
نتایج توالی معاصر.این برای ارزیابی وضعیت مفید است
همه گیر در زمان واقعی ، همانطور که ما به صورت تجربی با مؤثر استنباط نشان می دهیم
تعداد تولید مثل برای نوع آلفا. |
30,495 | This paper extends my research applying statistical decision theory to
treatment choice with sample data, using maximum regret to evaluate the
performance of treatment rules. The specific new contribution is to study as-if
optimization using estimates of illness probabilities in clinical choice
between surveillance and aggressive treatment. Beyond its specifics, the paper
sends a broad message. Statisticians and computer scientists have addressed
conditional prediction for decision making in indirect ways, the former
applying classical statistical theory and the latter measuring prediction
accuracy in test samples. Neither approach is satisfactory. Statistical
decision theory provides a coherent, generally applicable methodology. | این مقاله تحقیقات من را با استفاده از تئوری تصمیم آماری گسترش می دهد
انتخاب درمان با داده های نمونه ، با استفاده از حداکثر پشیمانی برای ارزیابی
عملکرد قوانین درمانی.سهم جدید خاص مطالعه AS-IF است
بهینه سازی با استفاده از برآورد احتمالات بیماری در انتخاب بالینی
بین نظارت و درمان تهاجمی.فراتر از مشخصات آن ، مقاله
پیام گسترده ای ارسال می کند.آمارشناسان و دانشمندان رایانه به آن پرداخته اند
پیش بینی مشروط برای تصمیم گیری به روش های غیرمستقیم ، سابق
استفاده از نظریه آماری کلاسیک و پیش بینی اندازه گیری دوم
دقت در نمونه های آزمایش.هیچ رویکردی رضایت بخش نیست.وابسته به آماری
نظریه تصمیم گیری یک روش منسجم و به طور کلی کاربردی را ارائه می دهد. |
30,496 | One of the most important studies in finance is to find out whether stock
returns could be predicted. This research aims to create a new multivariate
model, which includes dividend yield, earnings-to-price ratio, book-to-market
ratio as well as consumption-wealth ratio as explanatory variables, for future
stock returns predictions. The new multivariate model will be assessed for its
forecasting performance using empirical analysis. The empirical analysis is
performed on S&P500 quarterly data from Quarter 1, 1952 to Quarter 4, 2019 as
well as S&P500 monthly data from Month 12, 1920 to Month 12, 2019. Results have
shown this new multivariate model has predictability for future stock returns.
When compared to other benchmark models, the new multivariate model performs
the best in terms of the Root Mean Squared Error (RMSE) most of the time. | یکی از مهمترین مطالعات در زمینه امور مالی ، یافتن سهام است
بازده را می توان پیش بینی کرد.این تحقیق با هدف ایجاد یک چند متغیره جدید
مدل ، که شامل سود سهام ، نسبت سود به قیمت ، کتاب به بازار است
نسبت و همچنین نسبت مصرف-سلامت به عنوان متغیرهای توضیحی ، برای آینده
پیش بینی های بازده سهام.مدل چند متغیره جدید برای آن ارزیابی خواهد شد
پیش بینی عملکرد با استفاده از تجزیه و تحلیل تجربی.تجزیه و تحلیل تجربی است
در داده های سه ماهه S&P500 از سه ماهه 1 ، 1952 تا سه ماهه 4 ، 2019 انجام شده است
خوب داده های ماهانه S & P500 از ماه 12 ، 1920 تا 12 ماه 2019
نشان داده شده این مدل چند متغیره جدید دارای پیش بینی برای بازده سهام آینده است.
در مقایسه با سایر مدلهای معیار ، مدل جدید چند متغیره انجام می شود
بهترین ها از نظر خطای میانگین مربع ریشه (RMSE) بیشتر اوقات. |
30,497 | Gambits are central to human decision-making. Our goal is to provide a theory
of Gambits. A Gambit is a combination of psychological and technical factors
designed to disrupt predictable play. Chess provides an environment to study
gambits and behavioral game theory. Our theory is based on the Bellman
optimality path for sequential decision-making. This allows us to calculate the
$Q$-values of a Gambit where material (usually a pawn) is sacrificed for
dynamic play. On the empirical side, we study the effectiveness of a number of
popular chess Gambits. This is a natural setting as chess Gambits require a
sequential assessment of a set of moves (a.k.a. policy) after the Gambit has
been accepted. Our analysis uses Stockfish 14.1 to calculate the optimal
Bellman $Q$ values, which fundamentally measures if a position is winning or
losing. To test whether Bellman's equation holds in play, we estimate the
transition probabilities to the next board state via a database of expert human
play. This then allows us to test whether the \emph{Gambiteer} is following the
optimal path in his decision-making. Our methodology is applied to the popular
Stafford and reverse Stafford (a.k.a. Boden-Kieretsky-Morphy) Gambit and other
common ones including the Smith-Morra, Goring, Danish and Halloween Gambits. We
build on research in human decision-making by proving an irrational skewness
preference within agents in chess. We conclude with directions for future
research. | گامبیت ها برای تصمیم گیری های انسانی اساسی هستند.هدف ما ارائه یک تئوری است
از گامبیتقمار ترکیبی از عوامل روانشناختی و فنی است
طراحی شده برای مختل کردن بازی قابل پیش بینی.شطرنج محیطی را برای مطالعه فراهم می کند
گامبیت و نظریه بازی رفتاری.نظریه ما مبتنی بر بلمن است
مسیر بهینه برای تصمیم گیری متوالی.این به ما اجازه می دهد تا
$ q $-مقادیر یک قمار که در آن ماده (معمولاً یک پیاده) برای آن قربانی می شود
بازی پویااز طرف تجربی ، ما اثربخشی تعدادی را بررسی می کنیم
گام های شطرنج محبوب.این یک محیط طبیعی است زیرا شطرنج های شطرنج به
ارزیابی متوالی مجموعه ای از حرکات (سیاست A.K.A.) پس از Gambit
پذیرفته شده استتجزیه و تحلیل ما برای محاسبه بهینه از سهام 14.1 استفاده می کند
Bellman $ q $ ارزش ها ، که اساساً در صورت برنده شدن یا
از دست دادن.برای آزمایش اینکه آیا معادله بلمن در بازی است ، ما تخمین می زنیم
احتمالات انتقال به حالت هیئت مدیره بعدی از طریق یک پایگاه داده از متخصص انسان
بازی.این به ما اجازه می دهد تا آزمایش کنیم که آیا \ amp {gambiteer} دنبال می شود
مسیر بهینه در تصمیم گیری وی.روش ما برای محبوب اعمال می شود
Stafford و معکوس Stafford (A.K.A. Boden-Kieretsky-Morphy) قمار و موارد دیگر
افراد متداول از جمله Smith-Morra ، Goring ، دانمارکی و هالووین Gambits.ما
با اثبات یک کمبود غیر منطقی ، در تصمیم گیری انسان بر اساس تحقیقات ایجاد کنید
اولویت در مأمورین در شطرنج.ما با دستورالعمل های آینده نتیجه می گیریم
پژوهش. |
34,455 | We propose an extensive-form solution concept, with players that neglect
information from hypothetical events, but make inferences from observed events.
Our concept modifies cursed equilibrium (Eyster and Rabin, 2005), and allows
that players can be 'cursed about' endogenous information. | ما یک مفهوم راه حل گسترده را با بازیکنانی که غفلت می کنند پیشنهاد می کنیم
اطلاعات مربوط به وقایع فرضی ، اما از وقایع مشاهده شده استنباط می شود.
مفهوم ما تعادل نفرین شده را اصلاح می کند (Eyster and Rabin ، 2005) ، و اجازه می دهد
این بازیکنان می توانند در مورد اطلاعات درون زا "نفرین شوند". |
30,498 | We develop a Bayesian non-parametric quantile panel regression model. Within
each quantile, the response function is a convex combination of a linear model
and a non-linear function, which we approximate using Bayesian Additive
Regression Trees (BART). Cross-sectional information at the pth quantile is
captured through a conditionally heteroscedastic latent factor. The
non-parametric feature of our model enhances flexibility, while the panel
feature, by exploiting cross-country information, increases the number of
observations in the tails. We develop Bayesian Markov chain Monte Carlo (MCMC)
methods for estimation and forecasting with our quantile factor BART model
(QF-BART), and apply them to study growth at risk dynamics in a panel of 11
advanced economies. | ما یک مدل رگرسیون پانل کمی غیر پارامتری بیزی ایجاد می کنیم.در داخل
هر کمی ، عملکرد پاسخ ترکیبی محدب از یک مدل خطی است
و یک عملکرد غیر خطی ، که ما با استفاده از افزودنی بیزی تقریب می دهیم
درختان رگرسیون (BART).اطلاعات مقطعی در Pth Quantile است
از طریق یک فاکتور نهفته هتروسکوپی به طور مشروط ضبط شده است.در
ویژگی غیر پارامتری مدل ما انعطاف پذیری را افزایش می دهد ، در حالی که پانل
ویژگی ، با بهره برداری از اطلاعات متقابل کشور ، تعداد آنها را افزایش می دهد
مشاهدات در دم.ما زنجیره مارکوف بیزی مونت کارلو (MCMC) را توسعه می دهیم
روشهای تخمین و پیش بینی با مدل بارت فاکتور کمی ما
(QF-BART) ، و آنها را برای مطالعه رشد در پویایی خطر در یک صفحه 11 استفاده کنید
اقتصاد پیشرفته. |
30,499 | A recent literature considers causal inference using noisy proxies for
unobserved confounding factors. The proxies are divided into two sets that are
independent conditional on the confounders. One set of proxies are `negative
control treatments' and the other are `negative control outcomes'. Existing
work applies to low-dimensional settings with a fixed number of proxies and
confounders. In this work we consider linear models with many proxy controls
and possibly many confounders. A key insight is that if each group of proxies
is strictly larger than the number of confounding factors, then a matrix of
nuisance parameters has a low-rank structure and a vector of nuisance
parameters has a sparse structure. We can exploit the rank-restriction and
sparsity to reduce the number of free parameters to be estimated. The number of
unobserved confounders is not known a priori but we show that it is identified,
and we apply penalization methods to adapt to this quantity. We provide an
estimator with a closed-form as well as a doubly-robust estimator that must be
evaluated using numerical methods. We provide conditions under which our
doubly-robust estimator is uniformly root-$n$ consistent, asymptotically
centered normal, and our suggested confidence intervals have asymptotically
correct coverage. We provide simulation evidence that our methods achieve
better performance than existing approaches in high dimensions, particularly
when the number of proxies is substantially larger than the number of
confounders. | ادبیات اخیر استنتاج علی را با استفاده از پروکسی های پر سر و صدا در نظر می گیرد
فاکتورهای مخدوش غیرقابل تحمل.پروکسی ها به دو مجموعه تقسیم می شوند
مشروط مستقل در مورد متجاوزان.یک مجموعه از پروکسی ها منفی هستند
تیمارهای کنترل و دیگری "نتایج کنترل منفی" هستند.موجود
کار در مورد تنظیمات کم بعدی با تعداد مشخصی از پروکسی ها و
گیج کنندهدر این کار مدل های خطی را با بسیاری از کنترل های پروکسی در نظر می گیریم
و احتمالاً بسیاری از گیج کننده ها.یک بینش مهم این است که اگر هر گروه از پروکسی ها
کاملاً بزرگتر از تعداد عوامل مخدوش است ، سپس یک ماتریس از
پارامترهای مزاحمت دارای ساختار کم رتبه و بردار مزاحمت هستند
پارامترها ساختار پراکنده ای دارند.ما می توانیم از رتبه بندی رتبه و
کمبود برای کاهش تعداد پارامترهای رایگان که باید تخمین زده شود.تعداد
مخدوشان بدون نظارت پیشینی شناخته نشده اند اما ما نشان می دهیم که شناسایی شده است ،
و ما روشهای مجازات را برای سازگاری با این مقدار اعمال می کنیم.ما ارائه می دهیم
برآوردگر با فرم بسته و همچنین یک برآوردگر دوتایی که باید باشد باید باشد
با استفاده از روشهای عددی ارزیابی شد.ما شرایطی را فراهم می کنیم که تحت آن قرار بگیریم
برآوردگر مضاعف رو به طور یکنواخت ریشه دارد-$ n $ سازگار ، بدون علامت
محور طبیعی است ، و فواصل اطمینان پیشنهادی ما بدون علامت است
پوشش صحیحما شواهد شبیه سازی را ارائه می دهیم که روشهای ما به دست می آورند
عملکرد بهتر از رویکردهای موجود در ابعاد بالا ، به ویژه
هنگامی که تعداد پروکسی ها از نظر تعداد قابل ملاحظه ای بزرگتر هستند
گیج کننده |
30,500 | Beyond the new results mentioned hereafter, this article aims at
familiarizing researchers working in applied fields -- such as physics or
economics -- with notions or formulas that they use daily without always
identifying all their theoretical features or potentialities. Various
situations where the L1-norm distance E|X-Y| between real-valued random
variables intervene are closely examined. The axiomatic surrounding this
distance is also explored. We constantly try to build bridges between the
concrete uses of E|X-Y| and the underlying probabilistic model. An alternative
interpretation of this distance is also examined, as well as its relation to
the Gini index (economics) and the Lukaszyk-Karmovsky distance (physics). The
main contributions are the following: (a) We show that under independence,
triangle inequality holds for the normalized form E|X-Y|/(E|X| + E|Y|). (b) In
order to present a concrete advance, we determine the analytic form of E|X-Y|
and of its normalized expression when X and Y are independent with Gaussian or
uniform distribution. The resulting formulas generalize relevant tools already
in use in areas such as physics and economics. (c) We propose with all the
required rigor a brief one-dimensional introduction to the optimal transport
problem, essentially for a L1 cost function. The chosen illustrations and
examples should be of great help for newcomers to the field. New proofs and new
results are proposed. | فراتر از نتایج جدید که از این پس ذکر شد ، این مقاله با هدف
محققانی که در زمینه های کاربردی کار می کنند - مانند فیزیک یا
اقتصاد - با مفاهیم یا فرمول هایی که روزانه بدون استفاده از آنها استفاده می کنند
شناسایی تمام ویژگی ها یا پتانسیل های نظری آنها.مختلف
موقعیت هایی که فاصله L1-norm e | x-y |بین تصادفی با ارزش واقعی
متغیرها مداخله از نزدیک مورد بررسی قرار می گیرند.بدیهیات اطراف این
مسافت نیز مورد بررسی قرار گرفته است.ما دائماً سعی می کنیم پل ها را بین
کاربردهای بتونی E | X-Y |و مدل احتمالی اساسی.یک جایگزین
تفسیر این فاصله نیز مورد بررسی قرار می گیرد ، و همچنین ارتباط آن با
شاخص جینی (اقتصاد) و فاصله لوکازیک-کرمافسکی (فیزیک).در
مشارکتهای اصلی موارد زیر است: (الف) ما این را تحت استقلال نشان می دهیم ،
نابرابری مثلث برای فرم نرمال شده E | X-Y |/(E | X | + E | Y |) نگه می دارد.(صندوقچه
برای ارائه یک پیشرفت بتونی ، ما شکل تحلیلی E | x-y | را تعیین می کنیم
و از بیان عادی آن هنگامی که x و y مستقل از گاوسی هستند یا
توزیع یکنواختفرمول های حاصل از قبل ابزارهای مربوطه را تعمیم می دهند
در زمینه هایی مانند فیزیک و اقتصاد استفاده می شود.(ج) ما با همه
لازم است یک مقدمه مختصر یک بعدی برای حمل و نقل بهینه
مشکل ، اساساً برای عملکرد هزینه L1.تصاویر انتخاب شده و
نمونه ها باید برای افراد تازه وارد در این زمینه کمک زیادی کنند.اثبات جدید و جدید
نتایج ارائه شده است |
30,501 | The Regression Discontinuity (RD) design is a widely used non-experimental
method for causal inference and program evaluation. While its canonical
formulation only requires a score and an outcome variable, it is common in
empirical work to encounter RD analyses where additional variables are used for
adjustment. This practice has led to misconceptions about the role of covariate
adjustment in RD analysis, from both methodological and empirical perspectives.
In this chapter, we review the different roles of covariate adjustment in RD
designs, and offer methodological guidance for its correct use. | طرح ناپیوستگی رگرسیون (RD) یک غیر تجربی است
روش برای استنباط علی و ارزیابی برنامه.در حالی که متعارف است
فرمولاسیون فقط به یک نمره و متغیر نتیجه نیاز دارد ، در آن رایج است
کار تجربی برای مواجهه با آنالیزهای RD که در آن از متغیرهای اضافی استفاده می شود
تنظیماین عمل منجر به تصورات غلط در مورد نقش همبستگی شده است
تنظیم در تجزیه و تحلیل RD ، از هر دو دیدگاه روش شناختی و تجربی.
در این فصل ، ما نقش های مختلف تنظیم همبستگی را در RD مرور می کنیم
طراحی ، و راهنمایی روش شناختی را برای استفاده صحیح از آن ارائه می دهد. |
30,502 | In an influential critique of empirical practice, Freedman (2008) showed that
the linear regression estimator was biased for the analysis of randomized
controlled trials under the randomization model. Under Freedman's assumptions,
we derive exact closed-form bias corrections for the linear regression
estimator with and without treatment-by-covariate interactions. We show that
the limiting distribution of the bias corrected estimator is identical to the
uncorrected estimator, implying that the asymptotic gains from adjustment can
be attained without introducing any risk of bias. Taken together with results
from Lin (2013), our results show that Freedman's theoretical arguments against
the use of regression adjustment can be completely resolved with minor
modifications to practice. | در یک انتقاد تأثیرگذار از عمل تجربی ، فریدمن (2008) این را نشان داد
برآوردگر رگرسیون خطی برای تجزیه و تحلیل تصادفی مغرضانه بود
کارآزمایی های کنترل شده تحت مدل تصادفی.تحت فرضیات فریدمن ،
ما برای رگرسیون خطی ، اصلاحات تعصب بسته بندی دقیق را انجام می دهیم
برآوردگر با و بدون تعامل با درمان- کونیایی.ما نشان می دهیم که
توزیع محدود کننده برآوردگر اصلاح شده تعصب یکسان با
برآوردگر اصلاح نشده ، دلالت بر اینکه دستاوردهای بدون علامت از تعدیل می تواند
بدون ایجاد خطر تعصب حاصل می شود.همراه با نتایج
از لین (2013) ، نتایج ما نشان می دهد که استدلال های نظری فریدمن علیه
استفاده از تعدیل رگرسیون را می توان به طور کامل با جزئی برطرف کرد
اصلاحات برای تمرین. |
30,503 | We revisit the finite-sample behavior of single-variable just-identified
instrumental variables (just-ID IV) estimators, arguing that in most
microeconometric applications, the usual inference strategies are likely
reliable. Three widely-cited applications are used to explain why this is so.
We then consider pretesting strategies of the form $t_{1}>c$, where $t_{1}$ is
the first-stage $t$-statistic, and the first-stage sign is given. Although
pervasive in empirical practice, pretesting on the first-stage $F$-statistic
exacerbates bias and distorts inference. We show, however, that median bias is
both minimized and roughly halved by setting $c=0$, that is by screening on the
sign of the \textit{estimated} first stage. This bias reduction is a free
lunch: conventional confidence interval coverage is unchanged by screening on
the estimated first-stage sign. To the extent that IV analysts sign-screen
already, these results strengthen the case for a sanguine view of the
finite-sample behavior of just-ID IV. | ما دوباره رفتار نمونه محدود از تک مشخصه تک متغیر را بررسی می کنیم
متغیرهای ابزاری (فقط IV IV) برآوردگرها ، با بیان اینکه در اکثر آنها
برنامه های خرد اقتصادی ، استراتژی های استنباط معمول محتمل است
قابل اعتماد.از سه برنامه گسترده استناد شده برای توضیح اینکه چرا چنین است ، استفاده می شود.
سپس استراتژی های پیش بینی فرم $ t_ {1}> c $ را در نظر می گیریم ، جایی که $ t_ {1} $ است
مرحله اول $ t $-statistic و نشانه مرحله اول ارائه شده است.با اينكه
فراگیر در عمل تجربی ، پیش بینی در مرحله اول $ f $-statistic
تعصب را تشدید می کند و استنباط را تحریف می کند.با این حال ، ما نشان می دهیم که تعصب متوسط است
هر دو با تنظیم $ c = 0 $ ، هر دو به حداقل رسیده و تقریباً نصف می شوند.
نشانه \ textit {تخمین زده شده} مرحله اول.این کاهش تعصب رایگان است
ناهار: پوشش فاصله اطمینان متعارف با غربالگری روشن بدون تغییر است
نشانه مرحله اول تخمین زده شده است.به حدی که تحلیلگران IV صفحه نمایش را امضا کنند
در حال حاضر ، این نتایج پرونده را برای یک دیدگاه سنگی از
رفتار نمونه محدود از IV Just-ID. |
30,504 | We introduce an Attention Overload Model that captures the idea that
alternatives compete for the decision maker's attention, and hence the
attention that each alternative receives decreases as the choice problem
becomes larger. We provide testable implications on the observed choice
behavior that can be used to (point or partially) identify the decision maker's
preference and attention frequency. We then enhance our attention overload
model to accommodate heterogeneous preferences based on the idea of List-based
Attention Overload, where alternatives are presented to the decision makers as
a list that correlates with both heterogeneous preferences and random
attention. We show that preference and attention frequencies are (point or
partially) identifiable under nonparametric assumptions on the list and
attention formation mechanisms, even when the true underlying list is unknown
to the researcher. Building on our identification results, we develop
econometric methods for estimation and inference. | ما یک مدل اضافه بار توجه را معرفی می کنیم که این ایده را ضبط می کند
گزینه های دیگر برای توجه تصمیم گیرنده رقابت می کنند و از این رو
توجه که هر گزینه جایگزین دریافت می کند به عنوان مشکل انتخاب کاهش می یابد
بزرگتر می شودما پیامدهای قابل آزمایش در انتخاب مشاهده شده ارائه می دهیم
رفتاری که می تواند برای (اشاره یا جزئی) شناسایی تصمیم گیرنده استفاده شود
اولویت و فرکانس توجه.سپس اضافه بار توجه خود را افزایش می دهیم
مدل برای قرار دادن ترجیحات ناهمگن بر اساس ایده مبتنی بر لیست
اضافه بار توجه ، جایی که گزینه های دیگری برای تصمیم گیرندگان ارائه می شود
لیستی که با ترجیحات ناهمگن و تصادفی ارتباط دارد
توجهما نشان می دهیم که فرکانس های اولویت و توجه (نقطه یا
تا حدی) تحت فرضیات غیرپارامتری در لیست قابل شناسایی است و
مکانیسم های شکل گیری توجه ، حتی اگر لیست زیرین واقعی ناشناخته باشد
به محققبا تکیه بر نتایج شناسایی ما ، ما توسعه می دهیم
روشهای اقتصاد سنجی برای برآورد و استنباط. |
30,505 | Functional linear regression gets its popularity as a statistical tool to
study the relationship between function-valued response and exogenous
explanatory variables. However, in practice, it is hard to expect that the
explanatory variables of interest are perfectly exogenous, due to, for example,
the presence of omitted variables and measurement error. Despite its empirical
relevance, it was not until recently that this issue of endogeneity was studied
in the literature on functional regression, and the development in this
direction does not seem to sufficiently meet practitioners' needs; for example,
this issue has been discussed with paying particular attention on consistent
estimation and thus distributional properties of the proposed estimators still
remain to be further explored. To fill this gap, this paper proposes new
consistent FPCA-based instrumental variable estimators and develops their
asymptotic properties in detail. Simulation experiments under a wide range of
settings show that the proposed estimators perform considerably well. We apply
our methodology to estimate the impact of immigration on native wages. | رگرسیون خطی عملکردی محبوبیت خود را به عنوان ابزاری آماری به دست می آورد
رابطه بین پاسخ با ارزش عملکرد و اگزوژن را مطالعه کنید
متغیرهای توضیحی.با این حال ، در عمل ، دشوار است که انتظار داشته باشید
متغیرهای توضیحی مورد علاقه کاملاً برونزا هستند ، به عنوان مثال ،
وجود متغیرهای حذف شده و خطای اندازه گیری.علی رغم تجربی
ارتباط ، تا همین اواخر نبود که این موضوع از درون زایی مورد بررسی قرار گرفت
در ادبیات مربوط به رگرسیون عملکردی و توسعه در این
به نظر نمی رسد که جهت به اندازه کافی نیازهای پزشکان را برآورده کند.مثلا،
این موضوع با توجه خاص به سازگار مورد بحث قرار گرفته است
تخمین و در نتیجه خصوصیات توزیع برآوردگرهای پیشنهادی هنوز
برای کاوش بیشتر باقی مانده است.برای پر کردن این شکاف ، این مقاله جدید را پیشنهاد می کند
برآوردگرهای متغیر ابزاری مبتنی بر FPCA سازگار و آنها را توسعه می دهد
خصوصیات بدون علامت به طور مفصل.آزمایش های شبیه سازی در طیف گسترده ای از
تنظیمات نشان می دهد که برآوردگرهای پیشنهادی عملکرد خوبی دارند.ما اقدام می کنیم
روش ما برای برآورد تأثیر مهاجرت بر دستمزد بومی. |
30,506 | We study regression discontinuity designs in which many predetermined
covariates, possibly much more than the number of observations, can be used to
increase the precision of treatment effect estimates. We consider a two-step
estimator which first selects a small number of "important" covariates through
a localized Lasso-type procedure, and then, in a second step, estimates the
treatment effect by including the selected covariates linearly into the usual
local linear estimator. We provide an in-depth analysis of the algorithm's
theoretical properties, showing that, under an approximate sparsity condition,
the resulting estimator is asymptotically normal, with asymptotic bias and
variance that are conceptually similar to those obtained in low-dimensional
settings. Bandwidth selection and inference can be carried out using standard
methods. We also provide simulations and an empirical application. | ما طرح های ناپیوستگی رگرسیون را مطالعه می کنیم که در آن بسیاری از پیش تعیین شده است
متغیرهای متغیر ، احتمالاً بسیار بیشتر از تعداد مشاهدات ، می توان از آنها استفاده کرد
دقت تخمین اثر درمانی را افزایش دهید.ما دو مرحله ای را در نظر می گیریم
برآوردگر که ابتدا تعداد کمی از متغیرهای "مهم" را از طریق انتخاب می کند
یک روش از نوع لاسو از نوع ، و سپس ، در مرحله دوم ، تخمین می زند
اثر درمانی با استفاده از متغیرهای متغیر به صورت خطی در معمول
برآوردگر خطی محلی.ما یک تجزیه و تحلیل عمیق از الگوریتم ارائه می دهیم
خصوصیات نظری ، نشان می دهد که ، تحت یک شرایط تقریبی پراکندگی ،
برآوردگر حاصل بدون علامت طبیعی است ، با تعصب بدون علامت و
واریانس که از نظر مفهومی شبیه به موارد به دست آمده در ابعاد کم است
تنظیمات.انتخاب پهنای باند و استنتاج را می توان با استفاده از استاندارد انجام داد
مواد و روش ها.ما همچنین شبیه سازی ها و یک کاربرد تجربی را ارائه می دهیم. |
30,507 | Classical measures of inequality use the mean as the benchmark of economic
dispersion. They are not sensitive to inequality at the left tail of the
distribution, where it would matter most. This paper presents a new inequality
measurement tool that gives more weight to inequality at the lower end of the
distribution, it is based on the comparison of all value pairs and synthesizes
the dispersion of the whole distribution. The differences that sum to the Gini
coefficient are scaled by angular differences between observations. The
resulting index possesses a set of desirable properties, including
normalization, scale invariance, population invariance, transfer sensitivity,
and weak decomposability. | اقدامات کلاسیک نابرابری از میانگین به عنوان معیار اقتصادی استفاده می کند
پراکندگیآنها نسبت به نابرابری در دم سمت چپ حساس نیستند
توزیع ، جایی که بیشترین اهمیت را دارد.این مقاله نابرابری جدیدی را نشان می دهد
ابزار اندازه گیری که وزن بیشتری به نابرابری در انتهای پایین تر می دهد
توزیع ، بر اساس مقایسه همه جفت های ارزش و سنتز است
پراکندگی کل توزیع.تفاوت هایی که به جینی می پردازد
ضریب با تفاوت های زاویه ای بین مشاهدات مقیاس می شود.در
شاخص حاصل مجموعه ای از خواص مطلوب ، از جمله
عادی سازی ، تغییر مقیاس ، عدم تغییر جمعیت ، حساسیت انتقال ،
و تجزیه ضعیف |
30,508 | Observations in various applications are frequently represented as a time
series of multidimensional arrays, called tensor time series, preserving the
inherent multidimensional structure. In this paper, we present a factor model
approach, in a form similar to tensor CP decomposition, to the analysis of
high-dimensional dynamic tensor time series. As the loading vectors are
uniquely defined but not necessarily orthogonal, it is significantly different
from the existing tensor factor models based on Tucker-type tensor
decomposition. The model structure allows for a set of uncorrelated
one-dimensional latent dynamic factor processes, making it much more convenient
to study the underlying dynamics of the time series. A new high order
projection estimator is proposed for such a factor model, utilizing the special
structure and the idea of the higher order orthogonal iteration procedures
commonly used in Tucker-type tensor factor model and general tensor CP
decomposition procedures. Theoretical investigation provides statistical error
bounds for the proposed methods, which shows the significant advantage of
utilizing the special model structure. Simulation study is conducted to further
demonstrate the finite sample properties of the estimators. Real data
application is used to illustrate the model and its interpretations. | مشاهدات در برنامه های مختلف غالباً به عنوان یک زمان نشان داده می شود
سری آرایه های چند بعدی ، به نام سری Tensor Series ، حفظ
ساختار چند بعدی ذاتی.در این مقاله ، ما یک مدل فاکتور ارائه می دهیم
رویکرد ، به شکلی شبیه به تجزیه CP Tensor ، به تجزیه و تحلیل
سری زمانی تنسور پویا با ابعاد بالا.همانطور که بردارهای بارگیری هستند
منحصر به فرد تعریف شده اما لزوماً متعامد نیست ، تفاوت قابل توجهی دارد
از مدل های فاکتور تانسور موجود بر اساس تانسور از نوع Tucker
تجزیه.ساختار مدل مجموعه ای از نامربوط را فراهم می کند
فرآیندهای فاکتور پویا نهفته یک بعدی ، آن را بسیار راحت تر می کند
برای مطالعه پویایی اساسی سری زمانی.یک مرتبه عالی جدید
برآوردگر طرح ریزی برای چنین مدل فاکتور با استفاده از ویژه پیشنهاد شده است
ساختار و ایده روشهای تکرار متعامد مرتبه بالاتر
معمولاً در مدل فاکتور تانسور از نوع Tucker و CP Tensor General استفاده می شود
روشهای تجزیهبررسی نظری خطای آماری را ارائه می دهد
مرزهای روشهای پیشنهادی ، که مزیت قابل توجهی از آن را نشان می دهد
با استفاده از ساختار مدل ویژه.مطالعه شبیه سازی برای ادامه انجام شده است
خصوصیات نمونه محدود برآوردگرها را نشان دهید.داده های واقعی
برنامه برای نشان دادن مدل و تفسیرهای آن استفاده می شود. |
30,509 | This paper explores the duration dynamics modelling under the Autoregressive
Conditional Durations (ACD) framework (Engle and Russell 1998). I test
different distributions assumptions for the durations. The empirical results
suggest unconditional durations approach the Gamma distributions. Moreover,
compared with exponential distributions and Weibull distributions, the ACD
model with Gamma distributed innovations provide the best fit of SPY durations. | در این مقاله به بررسی مدل سازی دینامیک مدت زمان تحت خودی می پردازد
چارچوب مدت زمان مشروط (ACD) (Engle and Russell 1998).من امتحان میکنم
فرضیات مختلف توزیع برای مدت زمان.نتایج تجربی
پیشنهاد مدت زمان بی قید و شرط به توزیع گاما.علاوه بر این،
در مقایسه با توزیع های نمایی و توزیع Weibull ، ACD
مدل با نوآوری های توزیع شده گاما بهترین تناسب مدت زمان جاسوسی را ارائه می دهد. |
30,528 | We provide new insights regarding the headline result that Medicaid increased
emergency department (ED) use from the Oregon experiment. We find meaningful
heterogeneous impacts of Medicaid on ED use using causal machine learning
methods. The individualized treatment effect distribution includes a wide range
of negative and positive values, suggesting the average effect masks
substantial heterogeneity. A small group-about 14% of participants-in the right
tail of the distribution drives the overall effect. We identify priority groups
with economically significant increases in ED usage based on demographics and
previous utilization. Intensive margin effects are an important driver of
increases in ED utilization. | ما بینش جدیدی در مورد نتیجه تیتر افزایش می دهیم که Medicaid افزایش یافته است
بخش اورژانس (ED) از آزمایش اورگان استفاده می کند.ما معنی دار می یابیم
تأثیرات ناهمگن Medicaid در استفاده از ED با استفاده از یادگیری ماشین علیت
مواد و روش ها.توزیع اثر درمانی فردی شامل طیف گسترده ای است
از مقادیر منفی و مثبت ، ماسک های اثر متوسط را نشان می دهد
ناهمگونی قابل توجهی.یک گروه کوچک حدود 14 ٪ از شرکت کنندگان در سمت راست
دم توزیع اثر کلی را هدایت می کند.ما گروه های اولویت را شناسایی می کنیم
با افزایش قابل توجه اقتصادی در استفاده ED بر اساس جمعیت شناسی و
استفاده قبلیاثرات حاشیه ای فشرده عامل مهمی است
افزایش در استفاده از ED. |
30,510 | We consider a potential outcomes model in which interference may be present
between any two units but the extent of interference diminishes with spatial
distance. The causal estimand is the global average treatment effect, which
compares outcomes under the counterfactuals that all or no units are treated.
We study a class of designs in which space is partitioned into clusters that
are randomized into treatment and control. For each design, we estimate the
treatment effect using a Horvitz-Thompson estimator that compares the average
outcomes of units with all or no neighbors treated, where the neighborhood
radius is of the same order as the cluster size dictated by the design. We
derive the estimator's rate of convergence as a function of the design and
degree of interference and use this to obtain estimator-design pairs that
achieve near-optimal rates of convergence under relatively minimal assumptions
on interference. We prove that the estimators are asymptotically normal and
provide a variance estimator. For practical implementation of the designs, we
suggest partitioning space using clustering algorithms. | ما یک مدل نتایج بالقوه را در نظر می گیریم که در آن ممکن است تداخل وجود داشته باشد
بین هر دو واحد اما میزان تداخل با مکانی کاهش می یابد
فاصلهبرآورد علیت ، میانگین اثر درمانی جهانی است که
نتایج را در مورد پیشخوان ها مقایسه می کند که تمام یا هیچ واحدی با آنها رفتار نمی شود.
ما یک کلاس از طرح ها را مطالعه می کنیم که در آن فضا به خوشه هایی تقسیم می شود
به صورت تصادفی در درمان و کنترل قرار می گیرند.برای هر طرح ، ما تخمین می زنیم
اثر درمانی با استفاده از یک برآوردگر Horvitz-Thompson که میانگین آن را مقایسه می کند
نتایج واحدها با همسایگان یا هیچ یک از همسایگان ، که در آن محله است
شعاع به همان ترتیب اندازه خوشه ای است که توسط طراحی دیکته می شود.ما
میزان همگرایی برآوردگر را به عنوان تابعی از طراحی استخراج کنید و
درجه تداخل و استفاده از این برای به دست آوردن جفت های طراحی برآوردگر که
دستیابی به نرخ نزدیک به حد مطلوب همگرایی تحت فرضیات نسبتاً حداقل
در مورد تداخلما ثابت می کنیم که برآوردگرها از نظر غیر عادی طبیعی هستند و
یک برآوردگر واریانس ارائه دهید.برای اجرای عملی طرح ها ، ما
فضای پارتیشن بندی را با استفاده از الگوریتم های خوشه بندی پیشنهاد دهید. |
30,511 | This paper introduces a novel Ito diffusion process to model high-frequency
financial data, which can accommodate low-frequency volatility dynamics by
embedding the discrete-time non-linear exponential GARCH structure with
log-integrated volatility in a continuous instantaneous volatility process. The
key feature of the proposed model is that, unlike existing GARCH-Ito models,
the instantaneous volatility process has a non-linear structure, which ensures
that the log-integrated volatilities have the realized GARCH structure. We call
this the exponential realized GARCH-Ito (ERGI) model. Given the auto-regressive
structure of the log-integrated volatility, we propose a quasi-likelihood
estimation procedure for parameter estimation and establish its asymptotic
properties. We conduct a simulation study to check the finite sample
performance of the proposed model and an empirical study with 50 assets among
the S\&P 500 compositions. The numerical studies show the advantages of the new
proposed model. | در این مقاله یک فرآیند انتشار ITO جدید برای مدل سازی فرکانس بالا معرفی شده است
داده های مالی ، که می تواند پویایی نوسانات کم با فرکانس پایین را در خود جای دهد
تعبیه ساختار گارچ نمایی غیر خطی در زمان گسسته با
نوسانات یکپارچه ورود به سیستم در یک فرآیند نوسانات فوری مداوم.در
ویژگی اصلی مدل پیشنهادی این است که برخلاف مدل های موجود Garch-ITO ،
فرآیند نوسانات فوری دارای یک ساختار غیر خطی است که تضمین می کند
این که نوسانات یکپارچه ورود به سیستم دارای ساختار گارچ تحقق یافته است.زنگ میزنیم
این مدل نمایی تحقق بخش Garch-ito (ERGI).با توجه به اتخاذ خودکار
ساختار ناپایداری یکپارچه ورود به سیستم ، ما یک شبه احتمال را پیشنهاد می کنیم
روش تخمین برای برآورد پارامتر و ایجاد مجانبی آن
خواصما یک مطالعه شبیه سازی را برای بررسی نمونه محدود انجام می دهیم
عملکرد مدل پیشنهادی و یک مطالعه تجربی با 50 دارایی در بین
ترکیبات S \ & P 500.مطالعات عددی مزایای جدید را نشان می دهد
مدل پیشنهادی |
30,512 | We provide novel bounds on average treatment effects (on the treated) that
are valid under an unconfoundedness assumption. Our bounds are designed to be
robust in challenging situations, for example, when the conditioning variables
take on a large number of different values in the observed sample, or when the
overlap condition is violated. This robustness is achieved by only using
limited "pooling" of information across observations. Namely, the bounds are
constructed as sample averages over functions of the observed outcomes such
that the contribution of each outcome only depends on the treatment status of a
limited number of observations. No information pooling across observations
leads to so-called "Manski bounds", while unlimited information pooling leads
to standard inverse propensity score weighting. We explore the intermediate
range between these two extremes and provide corresponding inference methods.
We show in Monte Carlo experiments and through an empirical application that
our bounds are indeed robust and informative in practice. | ما مرزهای جدیدی را در مورد میانگین اثرات درمانی (در درمان) ارائه می دهیم که
تحت یک فرض غیرقانونی معتبر هستند.مرزهای ما به گونه ای طراحی شده است
به عنوان مثال ، در موقعیت های چالش برانگیز قوی است.
تعداد زیادی از مقادیر مختلف را در نمونه مشاهده شده یا هنگامی که
شرایط همپوشانی نقض می شود.این استحکام فقط با استفاده از آن حاصل می شود
محدود "جمع" اطلاعات در سراسر مشاهدات.یعنی مرزها
ساخته شده به عنوان میانگین نمونه بر عملکردهای نتایج مشاهده شده از جمله
اینکه سهم هر نتیجه فقط به وضعیت درمان a بستگی دارد
تعداد محدودی از مشاهدات.هیچ اطلاعاتی در بین مشاهدات جمع نمی شود
منجر به به اصطلاح "مرزهای مانسکی" می شود ، در حالی که جمع آوری اطلاعات نامحدود منجر می شود
به وزن استاندارد معکوس معکوس.ما واسطه را کاوش می کنیم
دامنه بین این دو افراط و ارائه روشهای استنتاج مربوطه.
ما در آزمایش های مونت کارلو و از طریق یک کاربرد تجربی نشان می دهیم که
مرزهای ما در عمل واقعاً قوی و آموزنده است. |
30,513 | Observational studies are needed when experiments are not possible. Within
study comparisons (WSC) compare observational and experimental estimates that
test the same hypothesis using the same treatment group, outcome, and estimand.
Meta-analyzing 39 of them, we compare mean bias and its variance for the eight
observational designs that result from combining whether there is a pretest
measure of the outcome or not, whether the comparison group is local to the
treatment group or not, and whether there is a relatively rich set of other
covariates or not. Of these eight designs, one combines all three design
elements, another has none, and the remainder include any one or two. We found
that both the mean and variance of bias decline as design elements are added,
with the lowest mean and smallest variance in a design with all three elements.
The probability of bias falling within 0.10 standard deviations of the
experimental estimate varied from 59 to 83 percent in Bayesian analyses and
from 86 to 100 percent in non-Bayesian ones -- the ranges depending on the
level of data aggregation. But confounding remains possible due to each of the
eight observational study design cells including a different set of WSC
studies. | در صورت امکان آزمایش ، مطالعات مشاهده ای مورد نیاز است.در داخل
مقایسه های مطالعه (WSC) برآوردهای مشاهده ای و تجربی را مقایسه کنید که
همان فرضیه را با استفاده از همان گروه درمانی ، نتیجه و برآورد آزمایش کنید.
متاآنالیز 39 مورد از آنها ، ما میانگین تعصب و واریانس آن را برای هشت مقایسه می کنیم
طرح های مشاهده ای که ناشی از ترکیب پیش آزمون است
اندازه گیری نتیجه یا نه ، آیا گروه مقایسه با آن محلی است
گروه درمانی یا نه ، و اینکه آیا مجموعه ای نسبتاً غنی از دیگر وجود دارد
متغیر یا نه.از این هشت طرح ، یکی از هر سه طرح را ترکیب می کند
عناصر ، دیگری هیچ کدام را ندارند و باقیمانده شامل هر یک یا دو نفر است.ما پیدا کردیم
این که هم میانگین و هم واریانس تعصب با افزودن عناصر طراحی ، کاهش می یابد ،
با کمترین میانگین و کوچکترین واریانس در طراحی با هر سه عنصر.
احتمال تعصب در 0.10 انحراف استاندارد از
برآورد تجربی در تجزیه و تحلیل بیزی از 59 تا 83 درصد متغیر بود و
از 86 تا 100 درصد در موارد غیر بویایی-محدوده بسته به
سطح تجمع داده ها.اما مخدوش به دلیل هر یک از این موارد امکان پذیر است
هشت سلول طراحی مطالعه مشاهده ای شامل مجموعه ای متفاوت از WSC
مطالعات. |
30,514 | Many popular specifications for Vector Autoregressions (VARs) with
multivariate stochastic volatility are not invariant to the way the variables
are ordered due to the use of a Cholesky decomposition for the error covariance
matrix. We show that the order invariance problem in existing approaches is
likely to become more serious in large VARs. We propose the use of a
specification which avoids the use of this Cholesky decomposition. We show that
the presence of multivariate stochastic volatility allows for identification of
the proposed model and prove that it is invariant to ordering. We develop a
Markov Chain Monte Carlo algorithm which allows for Bayesian estimation and
prediction. In exercises involving artificial and real macroeconomic data, we
demonstrate that the choice of variable ordering can have non-negligible
effects on empirical results. In a macroeconomic forecasting exercise involving
VARs with 20 variables we find that our order-invariant approach leads to the
best forecasts and that some choices of variable ordering can lead to poor
forecasts using a conventional, non-order invariant, approach. | بسیاری از مشخصات محبوب برای اتورگیهای بردار (VAR) با
نوسانات تصادفی چند متغیره به نحوه متغیرها ثابت نیست
به دلیل استفاده از تجزیه cholesky برای کواریانس خطا سفارش داده می شود
ماتریسما نشان می دهیم که مشکل تغییر نظم در رویکردهای موجود است
به احتمال زیاد در VAR های بزرگ جدی تر می شود.ما استفاده از a را پیشنهاد می کنیم
مشخصاتی که از استفاده از این تجزیه cholesky جلوگیری می کند.ما نشان می دهیم که
وجود نوسانات تصادفی چند متغیره امکان شناسایی
مدل پیشنهادی و ثابت می کند که سفارش آن ثابت نیست.ما توسعه می دهیم
الگوریتم زنجیره مونت کارلو مارکوف که امکان تخمین بیزی را فراهم می کند و
پیش بینی.در تمرینات شامل داده های کلان اقتصادی و واقعی ، ما
نشان می دهد که انتخاب سفارش متغیر می تواند غیرقابل تحمل باشد
تأثیر بر نتایج تجربی.در یک تمرین پیش بینی اقتصادی کلان شامل
VAR با 20 متغیر متوجه می شویم که رویکرد سفارش ما منجر به
بهترین پیش بینی ها و اینکه برخی از گزینه های سفارش متغیر می توانند به فقیر منجر شوند
پیش بینی با استفاده از یک رویکرد متعارف و غیر مرتبه. |
30,529 | In the paper, we propose two models of Artificial Intelligence (AI) patents
in European Union (EU) countries addressing spatial and temporal behaviour. In
particular, the models can quantitatively describe the interaction between
countries or explain the rapidly growing trends in AI patents. For spatial
analysis Poisson regression is used to explain collaboration between a pair of
countries measured by the number of common patents. Through Bayesian inference,
we estimated the strengths of interactions between countries in the EU and the
rest of the world. In particular, a significant lack of cooperation has been
identified for some pairs of countries.
Alternatively, an inhomogeneous Poisson process combined with the logistic
curve growth accurately models the temporal behaviour by an accurate trend
line. Bayesian analysis in the time domain revealed an upcoming slowdown in
patenting intensity. | در مقاله ، ما دو مدل ثبت اختراع هوش مصنوعی (AI) را پیشنهاد می کنیم
در اتحادیه اروپا (اتحادیه اروپا) کشورهایی که به رفتار مکانی و زمانی پرداخته اند.که در
به طور خاص ، مدل ها می توانند تعامل بین کمی را توصیف کنند
کشورها یا روندهای به سرعت در حال رشد در حق ثبت اختراعات هوش مصنوعی را توضیح می دهند.برای مکانی
تجزیه و تحلیل رگرسیون پواسون برای توضیح همکاری بین یک جفت استفاده می شود
کشورهایی که با تعداد ثبت اختراعات مشترک اندازه گیری می شوند.از طریق استنباط بیزی ،
ما نقاط قوت تعامل بین کشورها در اتحادیه اروپا و
بقیه دنیا.به ویژه ، عدم همکاری قابل توجه بوده است
برای برخی از جفت کشورها مشخص شده است.
از طرف دیگر ، یک فرایند پواسون ناهمگن همراه با لجستیک
رشد منحنی به طور دقیق رفتار زمانی را با یک روند دقیق مدل می کند
خطتجزیه و تحلیل بیزی در حوزه زمان ، کندی آینده را نشان داد
شدت ثبت اختراع. |
30,515 | Humans exhibit irrational decision-making patterns in response to
environmental triggers, such as experiencing an economic loss or gain. In this
paper we investigate whether algorithms exhibit the same behavior by examining
the observed decisions and latent risk and rationality parameters estimated by
a random utility model with constant relative risk-aversion utility function.
We use a dataset consisting of 10,000 hands of poker played by Pluribus, the
first algorithm in the world to beat professional human players and find (1)
Pluribus does shift its playing style in response to economic losses and gains,
ceteris paribus; (2) Pluribus becomes more risk-averse and rational following a
trigger but the humans become more risk-seeking and irrational; (3) the
difference in playing styles between Pluribus and the humans on the dimensions
of risk-aversion and rationality are particularly differentiable when both have
experienced a trigger. This provides support that decision-making patterns
could be used as "behavioral signatures" to identify human versus algorithmic
decision-makers in unlabeled contexts. | انسانها در پاسخ به الگوهای تصمیم گیری غیرمنطقی نشان می دهند
محرک های زیست محیطی ، مانند تجربه ضرر اقتصادی یا سود.در این
مقاله ما بررسی می کنیم که آیا الگوریتم ها با بررسی همان رفتار را نشان می دهند
تصمیمات مشاهده شده و پارامترهای خطر و عقلانیت نهفته توسط تخمین زده می شود
یک مدل ابزار تصادفی با عملکرد ابزار تحقق ریسک نسبی ثابت.
ما از یک مجموعه داده متشکل از 10،000 دست پوکر که توسط Pluribus بازی می شود استفاده می کنیم
اولین الگوریتم در جهان برای ضرب و شتم بازیکنان حرفه ای انسانی و یافتن (1)
Pluribus سبک بازی خود را در پاسخ به خسارات اقتصادی و دستاوردهای خود تغییر می دهد ،
ceteris paribus ؛(2) pluribus به دنبال یک ریسک تر و منطقی تر می شود
محرک اما انسان ها به دنبال ریسک و غیر منطقی تر می شوند.(3)
تفاوت در سبک های بازی بین Pluribus و انسان در ابعاد
از خطر و عقلانیت به ویژه در صورت وجود هر دو قابل تغییر است
یک ماشه را تجربه کرد.این امر از الگوهای تصمیم گیری پشتیبانی می کند
می تواند به عنوان "امضاهای رفتاری" برای شناسایی انسان در مقابل الگوریتمی استفاده شود
تصمیم گیرندگان در زمینه های بدون برچسب. |
30,516 | This paper extends Becker (1957)'s outcome test of discrimination to settings
where a (human or algorithmic) decision-maker produces a ranked list of
candidates. Ranked lists are particularly relevant in the context of online
platforms that produce search results or feeds, and also arise when human
decisionmakers express ordinal preferences over a list of candidates. We show
that non-discrimination implies a system of moment inequalities, which
intuitively impose that one cannot permute the position of a lower-ranked
candidate from one group with a higher-ranked candidate from a second group and
systematically improve the objective. Moreover, we show that that these moment
inequalities are the only testable implications of non-discrimination when the
auditor observes only outcomes and group membership by rank. We show how to
statistically test the implied inequalities, and validate our approach in an
application using data from LinkedIn. | این مقاله آزمون نتیجه تبعیض بکر (1957) را گسترش می دهد
جایی که یک تصمیم گیرنده (انسانی یا الگوریتمی) یک لیست رتبه بندی شده از
نامزدهای.لیست های رتبه بندی شده به ویژه در زمینه آنلاین مرتبط هستند
بسترهای نرم افزاری که نتایج یا خوراک را تولید می کنند ، و همچنین در هنگام انسان بوجود می آیند
تصمیم گیرندگان ترجیحات نظم را نسبت به لیستی از نامزدها بیان می کنند.ما نشان می دهیم
عدم تبعیض به معنای سیستم نابرابری های لحظه ای است که
به طور شهودی تحمیل می کند که نمی توان موقعیت یک رده پایین را مجاز کرد
کاندیدای یک گروه با نامزد بالاتری از گروه دوم و
به طور سیستماتیک هدف را بهبود بخشید.علاوه بر این ، ما نشان می دهیم که این لحظه
نابرابری ها تنها پیامدهای قابل آزمایش عدم تبعیض در هنگام
حسابرس تنها نتایج و عضویت گروه را با رتبه مشاهده می کند.ما نشان می دهیم که چگونه
از نظر آماری نابرابری های ضمنی را آزمایش کنید و رویکرد ما را در یک تأیید کنید
برنامه با استفاده از داده های LinkedIn. |
30,517 | The COVID-19 pandemic has created a sudden need for a wider uptake of
home-based telework as means of sustaining the production. Generally,
teleworking arrangements impacts directly worker's efficiency and motivation.
The direction of this impact, however, depends on the balance between positive
effects of teleworking (e.g. increased flexibility and autonomy) and its
downsides (e.g. blurring boundaries between private and work life). Moreover,
these effects of teleworking can be amplified in case of vulnerable groups of
workers, such as women. The first step in understanding the implications of
teleworking on women is to have timely information on the extent of teleworking
by age and gender. In the absence of timely official statistics, in this paper
we propose a method for nowcasting the teleworking trends by age and gender for
20 Italian regions using mobile network operators (MNO) data. The method is
developed and validated using MNO data together with the Italian quarterly
Labour Force Survey. Our results confirm that the MNO data have the potential
to be used as a tool for monitoring gender and age differences in teleworking
patterns. This tool becomes even more important today as it could support the
adequate gender mainstreaming in the ``Next Generation EU'' recovery plan and
help to manage related social impacts of COVID-19 through policymaking. | بیماری همه گیر Covid-19 نیاز ناگهانی به جذب گسترده تر از آن ایجاد کرده است
از راه دور مستقر در خانه به عنوان وسیله ای برای حفظ تولید.بطور کلی،
ترتیبات از راه دور بر کارآیی و انگیزه کارگران تأثیر می گذارد.
جهت این تأثیر ، با این حال ، به تعادل بین مثبت بستگی دارد
تأثیر کار از راه دور (به عنوان مثال افزایش انعطاف پذیری و استقلال) و آن
Downsides (به عنوان مثال مرزهای تار بین زندگی خصوصی و کاری).علاوه بر این،
این اثرات کار از راه دور را می توان در مورد گروههای آسیب پذیر تقویت کرد
کارگران ، مانند زنان.اولین قدم برای درک پیامدهای
کار از طریق زنان این است که اطلاعات به موقع در مورد میزان کار از راه دور داشته باشید
براساس سن و جنس.در غیاب آمار رسمی به موقع ، در این مقاله
ما روشی را برای Nowcasting روند کار از راه دور براساس سن و جنس پیشنهاد می کنیم
20 منطقه ایتالیایی با استفاده از داده های اپراتور شبکه تلفن همراه (MNO).روش است
با استفاده از داده های MNO به همراه فصلنامه ایتالیا توسعه یافته و تأیید شده است
بررسی نیروی کار.نتایج ما تأیید می کند که داده های MNO پتانسیل دارند
به عنوان ابزاری برای نظارت بر تفاوت های جنسیتی و سنی در کار از راه دور استفاده شود
الگوهایاین ابزار امروزه از اهمیت بیشتری برخوردار می شود زیرا می تواند از آن پشتیبانی کند
جریان اصلی جنسیت در برنامه بازیابی "نسل بعدی اتحادیه اروپا" و
به مدیریت تأثیرات اجتماعی مرتبط COVID-19 از طریق سیاست گذاری کمک کنید. |
30,518 | This paper extends the literature on the theoretical properties of synthetic
controls to the case of non-linear generative models, showing that the
synthetic control estimator is generally biased in such settings. I derive a
lower bound for the bias, showing that the only component of it that is
affected by the choice of synthetic control is the weighted sum of pairwise
differences between the treated unit and the untreated units in the synthetic
control. To address this bias, I propose a novel synthetic control estimator
that allows for a constant difference of the synthetic control to the treated
unit in the pre-treatment period, and that penalizes the pairwise
discrepancies. Allowing for a constant offset makes the model more flexible,
thus creating a larger set of potential synthetic controls, and the
penalization term allows for the selection of the potential solution that will
minimize bias. I study the properties of this estimator and propose a
data-driven process for parameterizing the penalization term. | این مقاله ادبیات را در مورد خصوصیات نظری مصنوعی گسترش می دهد
کنترل در مورد مدلهای مولد غیرخطی ، نشان می دهد که
برآوردگر کنترل مصنوعی به طور کلی در چنین تنظیماتی مغرضانه است.من مشتق می کنم
پایین برای تعصب ، نشان می دهد که تنها مؤلفه آن است که
تحت تأثیر انتخاب کنترل مصنوعی ، مجموع وزنه برداری زوج است
تفاوت بین واحد تحت درمان و واحدهای درمان نشده در مصنوعی
کنترل.برای پرداختن به این تعصب ، من یک برآوردگر کنترل مصنوعی رمان را پیشنهاد می کنم
که امکان اختلاف مداوم کنترل مصنوعی با درمان شده را فراهم می کند
واحد در دوره قبل از درمان ، و آن را به صورت جفتی مجازات می کند
اختلافاتاجازه دادن به یک جبران ثابت ، مدل را انعطاف پذیر تر می کند ،
بنابراین ایجاد مجموعه ای بزرگتر از کنترل های مصنوعی بالقوه ، و
اصطلاح مجازات امکان انتخاب راه حل بالقوه را فراهم می کند
تعصب را به حداقل برسانید.من خواص این برآوردگر را مطالعه می کنم و پیشنهاد می کنم
فرآیند داده محور برای پارامتر کردن اصطلاح مجازات. |
30,519 | Researchers using instrumental variables to investigate ordered treatments
often recode treatment into an indicator for any exposure. We investigate this
estimand under the assumption that the instruments shift compliers from no
treatment to some but not from some treatment to more. We show that when there
are extensive margin compliers only (EMCO) this estimand captures a weighted
average of treatment effects that can be partially unbundled into each complier
group's potential outcome means. We also establish an equivalence between EMCO
and a two-factor selection model and apply our results to study treatment
heterogeneity in the Oregon Health Insurance Experiment. | محققانی که از متغیرهای ابزاری برای بررسی درمانهای سفارش داده شده استفاده می کنند
اغلب درمان را به یک شاخص برای هرگونه قرار گرفتن در معرض بازگردانید.ما این را بررسی می کنیم
برآورد با این فرض که ابزارها از NO تغییر می دهند
درمان برخی از مواردی اما نه از برخی از درمان ها تا موارد دیگر.ما این را نشان می دهیم وقتی آنجاست
این برآورد یک وزنه بردار را ضبط می کند (EMCO)
میانگین اثرات درمانی که می تواند تا حدی در هر یک از این شکایات جدا شود
نتیجه بالقوه گروه به معنی است.ما همچنین بین EMCO هم ارزی ایجاد می کنیم
و یک مدل انتخاب دو عاملی و نتایج ما را برای درمان مطالعه اعمال می کند
ناهمگونی در آزمایش بیمه درمانی اورگان. |
30,520 | To further develop the statistical inference problem for heterogeneous
treatment effects, this paper builds on Breiman's (2001) random forest tree
(RFT)and Wager et al.'s (2018) causal tree to parameterize the nonparametric
problem using the excellent statistical properties of classical OLS and the
division of local linear intervals based on covariate quantile points, while
preserving the random forest trees with the advantages of constructible
confidence intervals and asymptotic normality properties [Athey and Imbens
(2016),Efron (2014),Wager et al.(2014)\citep{wager2014asymptotic}], we propose
a decision tree using quantile classification according to fixed rules combined
with polynomial estimation of local samples, which we call the quantile local
linear causal tree (QLPRT) and forest (QLPRF). | برای توسعه بیشتر مشکل استنباط آماری برای ناهمگن
اثرات درمانی ، این مقاله بر روی درخت جنگلی تصادفی Breiman (2001) ساخته شده است
(RFT) و Wager et al. (2018) درخت علی برای پارامتر کردن غیرپارامتری
مشکل با استفاده از خصوصیات آماری عالی OLS کلاسیک و
تقسیم فواصل خطی محلی بر اساس نقاط کواریت کمیته ، در حالی که
حفظ درختان جنگلی تصادفی با مزایای ساختار
فواصل اطمینان و خصوصیات نرمال بودن بدون علامت [Athey and Imbens
(2016) ، Efron (2014) ، Wager et al. (2014) \ Citep {Wager2014Asymptotic}] ، ما پیشنهاد می کنیم
یک درخت تصمیم با استفاده از طبقه بندی کمی مطابق با قوانین ثابت همراه
با برآورد چند جمله ای نمونه های محلی ، که ما آن را محلی کمی می نامیم
درخت علت خطی (QLPRT) و جنگل (QLPRF). |
30,521 | This paper presents an ensemble forecasting method that shows strong results
on the M4 Competition dataset by decreasing feature and model selection
assumptions, termed DONUT (DO Not UTilize human beliefs). Our assumption
reductions, primarily consisting of auto-generated features and a more diverse
model pool for the ensemble, significantly outperform the statistical,
feature-based ensemble method FFORMA by Montero-Manso et al. (2020). We also
investigate feature extraction with a Long Short-term Memory Network (LSTM)
Autoencoder and find that such features contain crucial information not
captured by standard statistical feature approaches. The ensemble weighting
model uses LSTM and statistical features to combine the models accurately. The
analysis of feature importance and interaction shows a slight superiority for
LSTM features over the statistical ones alone. Clustering analysis shows that
essential LSTM features differ from most statistical features and each other.
We also find that increasing the solution space of the weighting model by
augmenting the ensemble with new models is something the weighting model learns
to use, thus explaining part of the accuracy gains. Moreover, we present a
formal ex-post-facto analysis of an optimal combination and selection for
ensembles, quantifying differences through linear optimization on the M4
dataset. Our findings indicate that classical statistical time series features,
such as trend and seasonality, alone do not capture all relevant information
for forecasting a time series. On the contrary, our novel LSTM features contain
significantly more predictive power than the statistical ones alone, but
combining the two feature sets proved the best in practice. | در این مقاله یک روش پیش بینی گروه ارائه شده است که نتایج قوی را نشان می دهد
در مجموعه داده های مسابقه M4 با کاهش ویژگی و انتخاب مدل
فرضیات ، دونات نامیده می شوند (از اعتقادات انسانی استفاده نمی کنند).فرض ما
کاهش ، در درجه اول شامل ویژگی های تولید شده و متنوع تر است
استخر مدل برای این گروه ، به طور قابل توجهی از آماری بهتر عمل می کند ،
روش گروهی مبتنی بر ویژگی FForma توسط مونتررومن و همکاران.(2020).ما همچنین
استخراج ویژگی را با یک شبکه حافظه کوتاه مدت طولانی (LSTM) بررسی کنید
AutoEncoder و دریابید که چنین ویژگی هایی حاوی اطلاعات مهم نیست
ضبط شده توسط رویکردهای ویژگی آماری استاندارد.وزنه برداری گروه
مدل از ویژگی های LSTM و آماری برای ترکیب دقیق مدل ها استفاده می کند.در
تجزیه و تحلیل اهمیت ویژگی و تعامل ، برتری کمی برای
LSTM فقط در مورد آماری به تنهایی ویژگی دارد.تجزیه و تحلیل خوشه بندی این را نشان می دهد
ویژگی های اساسی LSTM با بیشتر ویژگی های آماری و یکدیگر متفاوت است.
ما همچنین می دانیم که افزایش فضای محلول مدل وزنه برداری توسط
تقویت گروه با مدل های جدید چیزی است که مدل وزنه برداری می آموزد
برای استفاده ، بنابراین بخشی از سودهای دقت را توضیح می دهد.علاوه بر این ، ما ارائه می دهیم
تجزیه و تحلیل رسمی پست سابق-Facto از یک ترکیب بهینه و انتخاب برای
گروه ها ، اندازه گیری اختلاف از طریق بهینه سازی خطی در M4
مجموعه دادهیافته های ما نشان می دهد که ویژگی های سری آماری کلاسیک ،
مانند روند و فصلی ، به تنهایی تمام اطلاعات مربوطه را ضبط نمی کنید
برای پیش بینی یک سری زمانی.در مقابل ، ویژگی های رمان LSTM ما حاوی
به طور قابل توجهی قدرت پیش بینی کننده تر از موارد آماری به تنهایی است ، اما
ترکیب دو مجموعه ویژگی بهترین عملکرد را در عمل نشان داد. |
30,522 | This paper synthesizes recent advances in the econometrics of
difference-in-differences (DiD) and provides concrete recommendations for
practitioners. We begin by articulating a simple set of ``canonical''
assumptions under which the econometrics of DiD are well-understood. We then
argue that recent advances in DiD methods can be broadly classified as relaxing
some components of the canonical DiD setup, with a focus on $(i)$ multiple
periods and variation in treatment timing, $(ii)$ potential violations of
parallel trends, or $(iii)$ alternative frameworks for inference. Our
discussion highlights the different ways that the DiD literature has advanced
beyond the canonical model, and helps to clarify when each of the papers will
be relevant for empirical work. We conclude by discussing some promising areas
for future research. | در این مقاله پیشرفت های اخیر در اقتصاد سنجی ترکیب شده است
اختلاف در اختلاف (DID) و توصیه های مشخصی را برای آن ارائه می دهد
پزشکانما با بیان یک مجموعه ساده از "" متعارف "شروع می کنیم
فرضیاتی که براساس آن اقتصاد سنجی DID به خوبی درک شده است.سپس ما
استدلال کنید که پیشرفت های اخیر در روش های DID می تواند به طور گسترده ای به عنوان آرامش بخش طبقه بندی شود
برخی از مؤلفه های Canonical با تمرکز بر روی $ (i) $ چندگانه تنظیم شده است
دوره ها و تغییر در زمان درمانی ، $ (ii) $ تخلفات بالقوه
روند موازی یا چارچوب های جایگزین $ (iii) $ برای استنتاج.ما
بحث روشهای مختلفی را که ادبیات DID پیشرفت کرده است برجسته می کند
فراتر از مدل متعارف ، و به روشن شدن هر یک از مقالات کمک می کند
برای کارهای تجربی مرتبط باشید.ما با بحث در مورد برخی از مناطق امیدوارکننده نتیجه می گیریم
برای تحقیقات آینده |
30,523 | We propose an approximate factor model for time-dependent curve data that
represents a functional time series as the aggregate of a predictive
low-dimensional component and an unpredictive infinite-dimensional component.
Suitable identification conditions lead to a two-stage estimation procedure
based on functional principal components, and the number of factors is
estimated consistently through an information criterion-based approach. The
methodology is applied to the problem of modeling and predicting yield curves.
Our results indicate that more than three factors are required to characterize
the dynamics of the term structure of bond yields. | ما یک مدل فاکتور تقریبی را برای داده های منحنی وابسته به زمان پیشنهاد می کنیم که
یک سری زمانی کاربردی را به عنوان کل یک پیش بینی کننده نشان می دهد
مؤلفه کم بعدی و یک مؤلفه بی نهایت غیرقابل پیش بینی.
شرایط شناسایی مناسب منجر به یک روش تخمین دو مرحله ای می شود
بر اساس مؤلفه های اصلی عملکردی ، و تعداد عوامل این است
به طور مداوم از طریق یک رویکرد مبتنی بر معیار اطلاعات تخمین زده می شود.در
روش شناسی برای مشکل مدل سازی و پیش بینی منحنی های عملکرد اعمال می شود.
نتایج ما نشان می دهد که بیش از سه عامل برای توصیف لازم است
پویایی اصطلاح ساختار بازده اوراق قرضه. |
30,524 | This paper considers an endogenous binary response model with many weak
instruments. We in the current paper employ a control function approach and a
regularization scheme to obtain better estimation results for the endogenous
binary response model in the presence of many weak instruments. Two consistent
and asymptotically normally distributed estimators are provided, each of which
is called a regularized conditional maximum likelihood estimator (RCMLE) and a
regularized nonlinear least square estimator (RNLSE) respectively. Monte Carlo
simulations show that the proposed estimators outperform the existing
estimators when many weak instruments are present. We apply our estimation
method to study the effect of family income on college completion. | در این مقاله یک مدل پاسخ باینری درون زا با بسیاری از افراد ضعیف در نظر گرفته شده است
سازهاما در مقاله حاضر از یک روش عملکرد کنترل و الف استفاده می کنیم
طرح منظم برای به دست آوردن نتایج تخمین بهتر برای درون زا
مدل پاسخ باینری در حضور بسیاری از ابزارهای ضعیف.دو سازگار
و برآوردگرهای توزیع شده به صورت مجانبی ارائه شده است که هر یک از آنها
برآوردگر حداکثر احتمال مشروط (RCMLE) و الف نامیده می شود
به ترتیب برآوردگر حداقل مربعات غیرخطی (RNLSE).مونت کارلو
شبیه سازی ها نشان می دهد که برآوردگرهای پیشنهادی بهتر از موجود هستند
برآوردگرها وقتی بسیاری از ابزارهای ضعیف حضور دارند.ما تخمین خود را اعمال می کنیم
روش مطالعه تأثیر درآمد خانواده در تکمیل کالج. |
30,525 | We propose two specifications of a real-time mixed-frequency semi-structural
time series model for evaluating the output potential, output gap, Phillips
curve, and Okun's law for the US. The baseline model uses minimal theory-based
multivariate identification restrictions to inform trend-cycle decomposition,
while the alternative model adds the CBO's output gap measure as an observed
variable. The latter model results in a smoother output potential and lower
cyclical correlation between inflation and real variables but performs worse in
forecasting beyond the short term. This methodology allows for the assessment
and real-time monitoring of official trend and gap estimates. | ما دو مشخصات از یک فرکانس با فرکانس مخلوط در زمان واقعی را پیشنهاد می کنیم
مدل سری زمانی برای ارزیابی پتانسیل خروجی ، شکاف خروجی ، فیلیپس
منحنی ، و قانون اوکون برای ایالات متحده.مدل پایه از حداقل مبتنی بر تئوری استفاده می کند
محدودیت های شناسایی چند متغیره برای اطلاع از تجزیه چرخه روند ،
در حالی که مدل جایگزین اندازه گیری شکاف خروجی CBO را به عنوان یک مشاهده اضافه می کند
متغیر.مدل دوم منجر به پتانسیل خروجی نرم تر و پایین تر می شود
همبستگی چرخه ای بین تورم و متغیرهای واقعی اما عملکرد بدتری دارد
پیش بینی فراتر از کوتاه مدت.این روش امکان ارزیابی را فراهم می کند
و نظارت بر زمان واقعی برآوردهای رسمی و تخمین شکاف. |
30,526 | We propose a method for reporting how program evaluations reduce gaps between
groups, such as the gender or Black-white gap. We first show that the reduction
in disparities between groups can be written as the difference in conditional
average treatment effects (CATE) for each group. Then, using a
Kitagawa-Oaxaca-Blinder-style decomposition, we highlight how these CATE can be
decomposed into unexplained differences in CATE in other observables versus
differences in composition across other observables (e.g. the "endowment").
Finally, we apply this approach to study the impact of Medicare on American's
access to health insurance. | ما روشی را برای گزارش چگونگی ارزیابی ارزیابی برنامه ها ، شکاف بین شکاف ها پیشنهاد می کنیم
گروه ها ، مانند جنس یا شکاف سیاه و سفید.ما ابتدا نشان می دهیم که کاهش
در اختلافات بین گروه ها را می توان به عنوان تفاوت مشروط نوشت
میانگین اثرات درمانی (CATE) برای هر گروه.سپس ، با استفاده از a
تجزیه kitagawa-oaxaca-blinder به سبک ، ما برجسته می کنیم که این کیت چگونه می تواند باشد
تجزیه به تفاوت های غیر قابل توضیح در CATE در سایر مشاهدات در مقابل
تفاوت در ترکیب در سایر مشاهدات (به عنوان مثال "موقوفه").
سرانجام ، ما این روش را برای مطالعه تأثیر Medicare بر روی آمریکایی ها اعمال می کنیم
دسترسی به بیمه درمانی. |
30,527 | The Granular Instrumental Variables (GIV) methodology exploits panels with
factor error structures to construct instruments to estimate structural time
series models with endogeneity even after controlling for latent factors. We
extend the GIV methodology in several dimensions. First, we extend the
identification procedure to a large $N$ and large $T$ framework, which depends
on the asymptotic Herfindahl index of the size distribution of $N$
cross-sectional units. Second, we treat both the factors and loadings as
unknown and show that the sampling error in the estimated instrument and
factors is negligible when considering the limiting distribution of the
structural parameters. Third, we show that the sampling error in the
high-dimensional precision matrix is negligible in our estimation algorithm.
Fourth, we overidentify the structural parameters with additional constructed
instruments, which leads to efficiency gains. Monte Carlo evidence is presented
to support our asymptotic theory and application to the global crude oil market
leads to new results. | متغیرهای ابزاری سازنده (GIV) از پانل ها استفاده می کند
ساختارهای خطای عامل برای ساخت ابزارها برای برآورد زمان ساختاری
مدل های سری با درون زا حتی پس از کنترل عوامل نهفته.ما
روش GIV را در ابعاد مختلف گسترش دهید.اول ، ما گسترش می دهیم
روش شناسایی به یک چارچوب بزرگ $ n $ و بزرگ $ t $ ، که بستگی دارد
در شاخص بدون علامت Herfindahl از توزیع اندازه $ n $
واحدهای مقطعی.دوم ، ما هم عوامل و هم بارگذاری را با هم درمان می کنیم
ناشناخته و نشان می دهد که خطای نمونه برداری در ساز تخمینی و
فاکتورها هنگام در نظر گرفتن توزیع محدود کننده ناچیز هستند
پارامترهای ساختاری.سوم ، ما نشان می دهیم که خطای نمونه برداری در
ماتریس با دقت بالا در الگوریتم تخمین ما ناچیز است.
چهارم ، ما پارامترهای ساختاری را با ساخت اضافی شناسایی می کنیم
ابزارهایی که منجر به افزایش کارآیی می شود.شواهد مونت کارلو ارائه شده است
برای حمایت از نظریه بدون علامت و کاربرد ما در بازار جهانی نفت خام
منجر به نتایج جدید می شود. |
30,530 | Time-varying parameter VARs with stochastic volatility are routinely used for
structural analysis and forecasting in settings involving a few endogenous
variables. Applying these models to high-dimensional datasets has proved to be
challenging due to intensive computations and over-parameterization concerns.
We develop an efficient Bayesian sparsification method for a class of models we
call hybrid TVP-VARs--VARs with time-varying parameters in some equations but
constant coefficients in others. Specifically, for each equation, the new
method automatically decides whether the VAR coefficients and contemporaneous
relations among variables are constant or time-varying. Using US datasets of
various dimensions, we find evidence that the parameters in some, but not all,
equations are time varying. The large hybrid TVP-VAR also forecasts better than
many standard benchmarks. | پارامتر متغیر زمان با نوسانات تصادفی به طور معمول برای استفاده می شود
تجزیه و تحلیل ساختاری و پیش بینی در تنظیمات مربوط به چند درون زا
متغیرهااستفاده از این مدل ها در مجموعه داده های با ابعاد بالا ثابت شده است
به دلیل محاسبات فشرده و نگرانی های بیش از حد پارامتر ، چالش برانگیز است.
ما برای یک کلاس از مدل های ما یک روش کارآمد بیزی ایجاد می کنیم
تماس با TVP-VARS HYBRID-VARS با پارامترهای متغیر زمان در برخی معادلات اما
ضرایب ثابت در دیگران.به طور خاص ، برای هر معادله ، جدید
روش به طور خودکار تصمیم می گیرد که آیا ضرایب VAR و همزمان همزمان
روابط بین متغیرها ثابت یا متغیر است.استفاده از مجموعه داده های ایالات متحده
ابعاد مختلف ، ما شواهدی می یابیم که پارامترها در برخی ، اما نه همه ،
معادلات متغیر هستند.TVP-VAR بزرگ ترکیبی نیز بهتر از
بسیاری از معیارهای استاندارد. |
30,531 | We present an algorithm for the calibration of local volatility from market
option prices through deep self-consistent learning, by approximating both
market option prices and local volatility using deep neural networks,
respectively. Our method uses the initial-boundary value problem of the
underlying Dupire's partial differential equation solved by the parameterized
option prices to bring corrections to the parameterization in a self-consistent
way. By exploiting the differentiability of the neural networks, we can
evaluate Dupire's equation locally at each strike-maturity pair; while by
exploiting their continuity, we sample strike-maturity pairs uniformly from a
given domain, going beyond the discrete points where the options are quoted.
Moreover, the absence of arbitrage opportunities are imposed by penalizing an
associated loss function as a soft constraint. For comparison with existing
approaches, the proposed method is tested on both synthetic and market option
prices, which shows an improved performance in terms of reduced interpolation
and reprice errors, as well as the smoothness of the calibrated local
volatility. An ablation study has been performed, asserting the robustness and
significance of the proposed method. | ما یک الگوریتم برای کالیبراسیون نوسانات محلی از بازار ارائه می دهیم
قیمت های گزینه از طریق یادگیری عمیق خود سازگار ، با تقریب هر دو
قیمت گزینه های بازار و نوسانات محلی با استفاده از شبکه های عصبی عمیق ،
به ترتیب.روش ما از مشکل ارزش مرزی اولیه استفاده می کند
معادله دیفرانسیل جزئی Dupire که توسط پارامتر حل شده است
قیمت گزینه برای ایجاد اصلاحات به پارامتری در یک خود سازگار
مسیر.با بهره برداری از متفاوت بودن شبکه های عصبی ، می توانیم
معادله Dupire را به صورت محلی در هر یک از جفت های اعتصاب ارزیابی کنید.در حالی که توسط
با استثمار تدا
با توجه به دامنه ، فراتر از نقاط گسسته که گزینه ها نقل شده است.
علاوه بر این ، عدم وجود فرصت های داوری با مجازات کردن
عملکرد از دست دادن مرتبط به عنوان یک محدودیت نرم.برای مقایسه با موجود
رویکردها ، روش پیشنهادی در هر دو گزینه مصنوعی و بازار آزمایش می شود
قیمت ها ، که عملکرد بهبود یافته را از نظر کاهش درون یابی نشان می دهد
و خطاهای چاپ مجدد ، و همچنین صاف بودن محلی کالیبره شده
نوسان.یک مطالعه فرسایش انجام شده است ، و ادعای استحکام و
اهمیت روش پیشنهادی. |
30,532 | Integrated assessment models have become the primary tools for comparing
climate policies that seek to reduce greenhouse gas emissions. Policy
comparisons have often been performed by considering a planner who seeks to
make optimal trade-offs between the costs of carbon abatement and the economic
damages from climate change. The planning problem has been formalized as one of
optimal control, the objective being to minimize the total costs of abatement
and damages over a time horizon. Studying climate policy as a control problem
presumes that a planner knows enough to make optimization feasible, but
physical and economic uncertainties abound. Earlier, Manski, Sanstad, and
DeCanio proposed and studied use of the minimax-regret (MMR) decision criterion
to account for deep uncertainty in climate modeling. Here we study choice of
climate policy that minimizes maximum regret with deep uncertainty regarding
both the correct climate model and the appropriate time discount rate to use in
intergenerational assessment of policy consequences. The analysis specifies a
range of discount rates to express both empirical and normative uncertainty
about the appropriate rate. The findings regarding climate policy are novel and
informative. The MMR analysis points to use of a relatively low discount rate
of 0.02 for climate policy. The MMR decision rule keeps the maximum future
temperature increase below 2C above the 1900-10 level for most of the parameter
values used to weight costs and damages. | مدلهای ارزیابی یکپارچه به ابزارهای اصلی برای مقایسه تبدیل شده اند
سیاست های آب و هوایی که به دنبال کاهش انتشار گازهای گلخانه ای هستند.خط مشی
مقایسه ها اغلب با در نظر گرفتن یک برنامه ریز که به دنبال آن است انجام شده است
تجارت بهینه بین هزینه های کاهش کربن و اقتصادی انجام دهید
خسارت ناشی از تغییرات آب و هوا.مشکل برنامه ریزی به عنوان یکی از آنها رسمی شده است
کنترل بهینه ، هدف برای به حداقل رساندن کل هزینه های کاهش
و خسارت در یک افق زمانی.مطالعه سیاست آب و هوا به عنوان یک مشکل کنترل
فرض می کند که یک برنامه ریز به اندازه کافی می داند که بهینه سازی را امکان پذیر کند ، اما
عدم قطعیت های جسمی و اقتصادی فراوان است.پیش از این ، مانسکی ، سانستاد ، و
Decanio استفاده از معیار تصمیم گیری Minimax-Regret (MMR) را پیشنهاد و مورد مطالعه قرار داد
برای عدم اطمینان عمیق در مدل سازی آب و هوا.در اینجا ما انتخاب می کنیم
سیاست آب و هوایی که حداکثر پشیمانی را با عدم اطمینان عمیق در مورد به حداقل می رساند
هم مدل آب و هوایی صحیح و هم نرخ تخفیف زمانی مناسب برای استفاده در
ارزیابی بین نسلی پیامدهای سیاست.تجزیه و تحلیل مشخص می کند
دامنه نرخ تخفیف برای بیان عدم اطمینان تجربی و هنجاری
در مورد نرخ مناسبیافته های مربوط به سیاست آب و هوا رمان و
آموزندهتجزیه و تحلیل MMR به استفاده از نرخ تخفیف نسبتاً پایین اشاره می کند
از 0.02 برای سیاست آب و هوا.قانون تصمیم MMR حداکثر آینده را حفظ می کند
افزایش دما زیر 2 درجه بالاتر از سطح 1900-10 برای بیشتر پارامتر
مقادیر استفاده شده برای هزینه و خسارت وزن. |
30,533 | This paper presents a new approach for the estimation and inference of the
regression parameters in a panel data model with interactive fixed effects. It
relies on the assumption that the factor loadings can be expressed as an
unknown smooth function of the time average of covariates plus an idiosyncratic
error term. Compared to existing approaches, our estimator has a simple partial
least squares form and does neither require iterative procedures nor the
previous estimation of factors.
We derive its asymptotic properties by finding out that the limiting
distribution has a discontinuity, depending on the explanatory power of our
basis functions which is expressed by the variance of the error of the factor
loadings. As a result, the usual ``plug-in" methods based on estimates of the
asymptotic covariance are only valid pointwise and may produce either over- or
under-coverage probabilities. We show that uniformly valid inference can be
achieved by using the cross-sectional bootstrap. A Monte Carlo study indicates
good performance in terms of mean squared error. We apply our methodology to
analyze the determinants of growth rates in OECD countries. | در این مقاله یک رویکرد جدید برای تخمین و استنباط از
پارامترهای رگرسیون در یک مدل داده پانل با اثرات ثابت تعاملی.آی تی
به این فرض متکی است که می توان بارهای عاملی را به عنوان یک بیان کرد
عملکرد صاف ناشناخته از میانگین زمان متغیرهای متغیر به علاوه یک ایدیوسنکراتیک
عبارت خطا.در مقایسه با رویکردهای موجود ، برآوردگر ما یک جزئی ساده دارد
حداقل مربعات تشکیل می شوند و نه به روشهای تکراری و نه نیاز دارند
تخمین قبلی عوامل.
ما با فهمیدن محدود کردن ، خصوصیات بدون علامت آن را استخراج می کنیم
بسته به قدرت توضیحی ما ، توزیع دارای ناپیوستگی است
توابع پایه ای که با واریانس خطای فاکتور بیان می شود
بارگذاریدر نتیجه ، روشهای معمول "افزونه" بر اساس تخمین های
کواریانس بدون علامت فقط از نظر نقطه ای معتبر است و ممکن است بیش از حد یا بیش از حد تولید کند
احتمالات زیر پوشش.ما نشان می دهیم که استنتاج یکنواخت معتبر می تواند باشد
با استفاده از بوت استرپ مقطعی حاصل می شود.یک مطالعه مونت کارلو نشان می دهد
عملکرد خوب از نظر خطای متوسط مربع.ما روش خود را در
عوامل تعیین کننده نرخ رشد در کشورهای OECD را تجزیه و تحلیل کنید. |
30,534 | Estimation of causal effects using machine learning methods has become an
active research field in econometrics. In this paper, we study the finite
sample performance of meta-learners for estimation of heterogeneous treatment
effects under the usage of sample-splitting and cross-fitting to reduce the
overfitting bias. In both synthetic and semi-synthetic simulations we find that
the performance of the meta-learners in finite samples greatly depends on the
estimation procedure. The results imply that sample-splitting and cross-fitting
are beneficial in large samples for bias reduction and efficiency of the
meta-learners, respectively, whereas full-sample estimation is preferable in
small samples. Furthermore, we derive practical recommendations for application
of specific meta-learners in empirical studies depending on particular data
characteristics such as treatment shares and sample size. | تخمین اثرات علی با استفاده از روشهای یادگیری ماشین به یک تبدیل شده است
زمینه تحقیق فعال در اقتصاد سنجی.در این مقاله ، ما محدود را مطالعه می کنیم
عملکرد نمونه از متا مدنی برای برآورد درمان ناهمگن
اثرات تحت استفاده از نمونه های تقسیم نمونه و متناسب برای کاهش
تعصب بیش از حددر هر دو شبیه سازی مصنوعی و نیمه سنتز
عملکرد متا-یادگیری در نمونه های محدود تا حد زیادی به این امر بستگی دارد
روش تخمیننتایج حاکی از آن است که نمونه برداری و متناسب با آن متناسب است
در نمونه های بزرگ برای کاهش تعصب و کارآیی در
به ترتیب ، متا-یادگیری ، در حالی که برآورد کامل نمونه در آن ارجح است
نمونه های کوچکعلاوه بر این ، ما توصیه های عملی را برای کاربرد تهیه می کنیم
بسته به داده های خاص ، از متا یادگیری های خاص در مطالعات تجربی بسته به داده های خاص
خصوصیاتی مانند سهام درمانی و اندازه نمونه. |
30,540 | We develop and justify methodology to consistently test for long-horizon
return predictability based on realized variance. To accomplish this, we
propose a parametric transaction-level model for the continuous-time log price
process based on a pure jump point process. The model determines the returns
and realized variance at any level of aggregation with properties shown to be
consistent with the stylized facts in the empirical finance literature. Under
our model, the long-memory parameter propagates unchanged from the
transaction-level drift to the calendar-time returns and the realized variance,
leading endogenously to a balanced predictive regression equation. We propose
an asymptotic framework using power-law aggregation in the predictive
regression. Within this framework, we propose a hypothesis test for long
horizon return predictability which is asymptotically correctly sized and
consistent. | ما متدولوژی را توسعه داده و توجیه می کنیم تا به طور مداوم برای افکار طولانی آزمایش کنیم
پیش بینی بازگشت بر اساس واریانس تحقق یافته.برای انجام این کار ، ما
یک مدل سطح معامله پارامتری را برای قیمت ورود به سیستم مداوم پیشنهاد دهید
فرآیند بر اساس یک فرآیند پرش خالص.مدل بازده را تعیین می کند
و واریانس تحقق یافته در هر سطح از تجمع با خواص نشان داده شده است
مطابق با حقایق تلطیف شده در ادبیات مالی تجربی.زیر
مدل ما ، پارامتر حافظه بلند بدون تغییر از
حرکت در سطح معامله به بازده زمان تقویم و واریانس تحقق یافته ،
پیشرو درون زا به یک معادله رگرسیون پیش بینی کننده متعادل.ما پیشنهاد می کنیم
یک چارچوب بدون علامت با استفاده از تجمع قدرت قانون در پیش بینی
پسرفت.در این چارچوب ، ما یک آزمون فرضیه را برای مدت طولانی پیشنهاد می کنیم
پیش بینی بازگشت Horizon که به صورت بدون علامت به اندازه کافی اندازه است و
استوار. |
30,535 | Practitioners and academics have long appreciated the benefits of covariate
balancing when they conduct randomized experiments. For web-facing firms
running online A/B tests, however, it still remains challenging in balancing
covariate information when experimental subjects arrive sequentially. In this
paper, we study an online experimental design problem, which we refer to as the
"Online Blocking Problem." In this problem, experimental subjects with
heterogeneous covariate information arrive sequentially and must be immediately
assigned into either the control or the treated group. The objective is to
minimize the total discrepancy, which is defined as the minimum weight perfect
matching between the two groups. To solve this problem, we propose a randomized
design of experiment, which we refer to as the "Pigeonhole Design." The
pigeonhole design first partitions the covariate space into smaller spaces,
which we refer to as pigeonholes, and then, when the experimental subjects
arrive at each pigeonhole, balances the number of control and treated subjects
for each pigeonhole. We analyze the theoretical performance of the pigeonhole
design and show its effectiveness by comparing against two well-known benchmark
designs: the match-pair design and the completely randomized design. We
identify scenarios when the pigeonhole design demonstrates more benefits over
the benchmark design. To conclude, we conduct extensive simulations using
Yahoo! data to show a 10.2% reduction in variance if we use the pigeonhole
design to estimate the average treatment effect. | پزشکان و دانشگاهیان مدتهاست که از مزایای متغیرهای متغیر قدردانی می کنند
تعادل هنگام انجام آزمایشات تصادفی.برای شرکت های وب سایت
با این حال ، اجرای تست های A/B آنلاین ، هنوز هم در تعادل همچنان چالش برانگیز است
اطلاعات متغیر هنگامی که افراد آزمایشی به صورت متوالی وارد می شوند.در این
مقاله ، ما یک مشکل طراحی آزمایشی آنلاین را مطالعه می کنیم ، که از آن به عنوان آن یاد می کنیم
"مشکل مسدود کردن آنلاین."در این مشکل ، افراد آزمایشی با
اطلاعات متغیر ناهمگن به صورت متوالی وارد می شوند و باید بلافاصله باشند
به کنترل یا گروه تحت درمان اختصاص داده می شود.هدف این است که
اختلاف کل را که به عنوان حداقل وزن کامل تعریف شده است به حداقل برسانید
تطبیق بین دو گروه.برای حل این مشکل ، ما یک تصادفی پیشنهاد می کنیم
طراحی آزمایش ، که ما از آن به عنوان "طراحی کبوتر" یاد می کنیم.در
طراحی کبوتر پارتیشن های اول فضای متغیر را در فضاهای کوچکتر ،
که ما از آن به عنوان کبوتر یاد می کنیم ، و سپس ، هنگامی که افراد آزمایشی
به هر کبوتر وارد شوید ، تعداد کنترل و افراد تحت درمان را متعادل می کند
برای هر کبوتر.ما عملکرد نظری کبوتر را تجزیه و تحلیل می کنیم
با مقایسه در برابر دو معیار مشهور ، اثربخشی آن را طراحی و نشان دهید
طرح ها: طراحی جفت مسابقه و طراحی کاملاً تصادفی.ما
سناریوها را شناسایی کنید که طراحی کبوتر مزایای بیشتری را نشان می دهد
طراحی معیار.برای نتیجه گیری ، ما شبیه سازی های گسترده ای را با استفاده از آن انجام می دهیم
یاهودر صورت استفاده از کبوتر ، داده ها برای کاهش 10.2 ٪ واریانس نشان می دهد
طراحی برای تخمین میانگین اثر درمانی. |
30,536 | Time series that display periodicity can be described with a Fourier
expansion. In a similar vein, a recently developed formalism enables
description of growth patterns with the optimal number of parameters (Elitzur
et al, 2020). The method has been applied to the growth of national GDP,
population and the COVID-19 pandemic; in all cases the deviations of long-term
growth patterns from pure exponential required no more than two additional
parameters, mostly only one. Here I utilize the new framework to develop a
unified formulation for all functions that describe growth deceleration,
wherein the growth rate decreases with time. The result offers the prospects
for a new general tool for trend removal in time-series analysis. | سری زمانی که تناوب را نشان می دهد با یک فوریه قابل توصیف است
انبساطدر همین راستا ، یک فرمالیسم اخیراً توسعه یافته امکان پذیر است
شرح الگوهای رشد با تعداد بهینه پارامترها (الیتزور
و همکاران ، 2020).این روش برای رشد تولید ناخالص داخلی ملی اعمال شده است ،
جمعیت و همه گیر Covid-19 ؛در همه موارد انحراف طولانی مدت
الگوهای رشد از نمایی خالص بیش از دو مورد دیگر لازم نیست
پارامترها ، بیشتر فقط یک.در اینجا من از چارچوب جدید برای توسعه استفاده می کنم
فرمولاسیون یکپارچه برای کلیه کارکردهایی که کاهش سرعت رشد را توصیف می کنند ،
که در آن نرخ رشد با گذشت زمان کاهش می یابد.نتیجه چشم انداز را ارائه می دهد
برای یک ابزار کلی جدید برای حذف روند در تجزیه و تحلیل سری زمانی. |
30,537 | We investigate how to improve efficiency using regression adjustments with
covariates in covariate-adaptive randomizations (CARs) with imperfect subject
compliance. Our regression-adjusted estimators, which are based on the doubly
robust moment for local average treatment effects, are consistent and
asymptotically normal even with heterogeneous probability of assignment and
misspecified regression adjustments. We propose an optimal but potentially
misspecified linear adjustment and its further improvement via a nonlinear
adjustment, both of which lead to more efficient estimators than the one
without adjustments. We also provide conditions for nonparametric and
regularized adjustments to achieve the semiparametric efficiency bound under
CARs. | ما بررسی می کنیم که چگونه می توان با استفاده از تنظیمات رگرسیون ، کارآیی را بهبود بخشید
متغیرهای متغیر در تصادفی سازی های متغیر متغیر (CARS) با موضوع ناقص
انطباق.برآوردگرهای تنظیم شده رگرسیون ما ، که مبتنی بر دو برابر هستند
لحظه قوی برای اثرات درمانی متوسط محلی ، سازگار است و
بدون علامت طبیعی حتی با احتمال ناهمگن تکلیف و
تنظیمات رگرسیون غلط املایی.ما یک بهینه اما بالقوه پیشنهاد می کنیم
تنظیم خطی اشتباه و بهبود بیشتر آن از طریق غیرخطی
تعدیل ، که هر دو منجر به برآوردگرهای کارآمدتر از آن می شوند
بدون تنظیمما همچنین شرایطی را برای غیرپارامتری فراهم می کنیم و
تنظیمات منظم برای دستیابی
ماشین ها. |
30,538 | Limited datasets and complex nonlinear relationships are among the challenges
that may emerge when applying econometrics to macroeconomic problems. This
research proposes deep learning as an approach to transfer learning in the
former case and to map relationships between variables in the latter case.
Although macroeconomists already apply transfer learning when assuming a given
a priori distribution in a Bayesian context, estimating a structural VAR with
signal restriction and calibrating parameters based on results observed in
other models, to name a few examples, advance in a more systematic transfer
learning strategy in applied macroeconomics is the innovation we are
introducing. We explore the proposed strategy empirically, showing that data
from different but related domains, a type of transfer learning, helps identify
the business cycle phases when there is no business cycle dating committee and
to quick estimate a economic-based output gap. Next, since deep learning
methods are a way of learning representations, those that are formed by the
composition of multiple non-linear transformations, to yield more abstract
representations, we apply deep learning for mapping low-frequency from
high-frequency variables. The results obtained show the suitability of deep
learning models applied to macroeconomic problems. First, models learned to
classify United States business cycles correctly. Then, applying transfer
learning, they were able to identify the business cycles of out-of-sample
Brazilian and European data. Along the same lines, the models learned to
estimate the output gap based on the U.S. data and obtained good performance
when faced with Brazilian data. Additionally, deep learning proved adequate for
mapping low-frequency variables from high-frequency data to interpolate,
distribute, and extrapolate time series by related series. | مجموعه داده های محدود و روابط غیرخطی پیچیده از جمله چالش ها است
این ممکن است هنگام استفاده از اقتصاد سنجی برای مشکلات کلان اقتصادی پدیدار شود.این
تحقیقات یادگیری عمیق را به عنوان رویکردی برای انتقال یادگیری در
مورد قبلی و نقشه برداری روابط بین متغیرها در مورد دوم.
اگرچه اقتصاد شناسان کلان در هنگام فرض یک داده شده از یادگیری انتقال استفاده می کنند
توزیع پیشینی در یک زمینه بیزی ، تخمین VAR ساختاری با
محدودیت سیگنال و پارامترهای کالیبراسیون بر اساس نتایج مشاهده شده در
مدل های دیگر ، برای ذکر چند مثال ، در یک انتقال سیستماتیک تر پیش می روند
استراتژی یادگیری در اقتصاد کلان کاربردی نوآوری ماست
معرفیما استراتژی پیشنهادی را به صورت تجربی کشف می کنیم و این داده ها را نشان می دهیم
از حوزه های مختلف اما مرتبط ، نوعی یادگیری انتقال ، به شناسایی کمک می کند
مراحل چرخه تجارت هنگامی که هیچ کمیته دوستیابی چرخه تجارت وجود ندارد و
برای برآورد سریع شکاف خروجی مبتنی بر اقتصادی.بعد ، از زمان یادگیری عمیق
روشها راهی برای یادگیری بازنمایی ها هستند ، مواردی که توسط
ترکیب چندین تحول غیرخطی ، برای به دست آوردن انتزاعی تر
بازنمودها ، ما برای نقشه برداری از فرکانس پایین از یادگیری عمیق استفاده می کنیم
متغیرهای با فرکانس بالا.نتایج به دست آمده ، مناسب بودن عمیق را نشان می دهد
مدل های یادگیری برای مشکلات کلان اقتصادی اعمال می شود.اول ، مدل ها آموخته اند
چرخه های تجاری ایالات متحده را به درستی طبقه بندی کنید.سپس ، با استفاده از انتقال
یادگیری ، آنها توانستند چرخه های تجاری خارج از نمونه را شناسایی کنند
داده های برزیل و اروپایی.در همان خطوط ، مدل ها آموخته اند
شکاف خروجی را بر اساس داده های ایالات متحده تخمین بزنید و عملکرد خوبی کسب کنید
هنگامی که با داده های برزیل روبرو می شوید.علاوه بر این ، یادگیری عمیق برای
نقشه برداری از متغیرهای با فرکانس پایین از داده های با فرکانس بالا تا درون یابی ،
توزیع و سریال های زمانی را توسط سری های مرتبط توزیع کنید. |
30,539 | The decisions of whether and how to evacuate during a climate disaster are
influenced by a wide range of factors, including sociodemographics, emergency
messaging, and social influence. Further complexity is introduced when multiple
hazards occur simultaneously, such as a flood evacuation taking place amid a
viral pandemic that requires physical distancing. Such multi-hazard events can
necessitate a nuanced navigation of competing decision-making strategies
wherein a desire to follow peers is weighed against contagion risks. To better
understand these nuances, we distributed an online survey during a pandemic
surge in July 2020 to 600 individuals in three midwestern and three southern
states in the United States with high risk of flooding. In this paper, we
estimate a random parameter logit model in both preference space and
willingness-to-pay space. Our results show that the directionality and
magnitude of the influence of peers' choices of whether and how to evacuate
vary widely across respondents. Overall, the decision of whether to evacuate is
positively impacted by peer behavior, while the decision of how to evacuate is
negatively impacted by peers. Furthermore, an increase in flood threat level
lessens the magnitude of these impacts. These findings have important
implications for the design of tailored emergency messaging strategies.
Specifically, emphasizing or deemphasizing the severity of each threat in a
multi-hazard scenario may assist in: (1) encouraging a reprioritization of
competing risk perceptions and (2) magnifying or neutralizing the impacts of
social influence, thereby (3) nudging evacuation decision-making toward a
desired outcome. | تصمیمات مربوط به اینکه آیا و چگونه برای تخلیه در هنگام فاجعه آب و هوا تخلیه می شوند
تحت تأثیر طیف گسترده ای از عوامل ، از جمله جامعه شناسی ، اضطراری
پیام رسانی ، و تأثیر اجتماعی.پیچیدگی بیشتر هنگامی معرفی می شود که چند
خطرات به طور همزمان رخ می دهد ، مانند تخلیه سیل که در میان A اتفاق می افتد
بیماری همه گیر ویروسی که نیاز به فاصله جسمی دارد.چنین رویدادهای چند خطرناک می تواند
نیاز به یک ناوبری ظریف در استراتژی های تصمیم گیری رقابتی
که در آن تمایل به پیروی از همسالان در برابر خطرات مسری وزن می شود.بهتر
این تفاوت ها را درک کنید ، ما یک بررسی آنلاین را در طول یک بیماری همه گیر توزیع کردیم
در ژوئیه 2020 به 600 نفر در سه میانه غربی و سه جنوبی افزایش می یابد
ایالت های ایالات متحده با خطر زیاد سیل.در این مقاله ، ما
یک مدل ورود پارامتر تصادفی را در هر دو فضای اولویت تخمین بزنید
تمایل به پرداخت فضای.نتایج ما نشان می دهد که جهت و
بزرگی تأثیر انتخاب همسالان از اینکه آیا و چگونه تخلیه می شود
در بین پاسخ دهندگان بسیار متفاوت است.به طور کلی ، تصمیم در مورد تخلیه این است
تحت تأثیر رفتار همسالان ، در حالی که تصمیم به تخلیه است
تحت تأثیر منفی توسط همسالان.علاوه بر این ، افزایش سطح تهدید سیل
میزان این تأثیرات را کاهش می دهد.این یافته ها دارای مهم هستند
پیامدهای طراحی استراتژی های پیام رسانی اضطراری متناسب.
به طور خاص ، تأکید یا تأکید بر شدت هر تهدید در
سناریوی چند خطر ممکن است به: (1) تشویق مجدداً از
درک ریسک ریسک و (2) بزرگنمایی یا خنثی کردن تأثیرات
تأثیر اجتماعی ، از این طریق (3) تصمیم گیری در مورد تخلیه به سمت a
نتیجه مورد نظر. |
30,549 | This paper proposes a simple unified approach to testing transformations on
cumulative distribution functions (CDFs) in the presence of nuisance
parameters. The proposed test is constructed based on a new characterization
that avoids the estimation of nuisance parameters. The critical values are
obtained through a numerical bootstrap method which can easily be implemented
in practice. Under suitable conditions, the proposed test is shown to be
asymptotically size controlled and consistent. The local power property of the
test is established. Finally, Monte Carlo simulations and an empirical study
show that the test performs well on finite samples. | در این مقاله یک رویکرد ساده یکپارچه برای آزمایش تحولات در مورد ارائه شده است
توابع توزیع تجمعی (CDF) در حضور مزاحمت
مولفه های.آزمون پیشنهادی بر اساس خصوصیات جدید ساخته شده است
که از برآورد پارامترهای مزاحمت جلوگیری می کند.مقادیر بحرانی هستند
به دست آمده از طریق یک روش بوت استرپ عددی که به راحتی قابل اجرا است
در عملدر شرایط مناسب ، آزمایش پیشنهادی نشان داده شده است
اندازه بدون علامت کنترل و سازگار.خاصیت قدرت محلی
آزمون برقرار شده است.سرانجام ، شبیه سازی مونت کارلو و یک مطالعه تجربی
نشان دهید که این آزمایش در نمونه های محدود عملکرد خوبی دارد. |
30,543 | This paper introduces a Threshold Asymmetric Conditional Autoregressive Range
(TACARR) formulation for modeling the daily price ranges of financial assets.
It is assumed that the process generating the conditional expected ranges at
each time point switches between two regimes, labeled as upward market and
downward market states. The disturbance term of the error process is also
allowed to switch between two distributions depending on the regime. It is
assumed that a self-adjusting threshold component that is driven by the past
values of the time series determines the current market regime. The proposed
model is able to capture aspects such as asymmetric and heteroscedastic
behavior of volatility in financial markets. The proposed model is an attempt
at addressing several potential deficits found in existing price range models
such as the Conditional Autoregressive Range (CARR), Asymmetric CARR (ACARR),
Feedback ACARR (FACARR) and Threshold Autoregressive Range (TARR) models.
Parameters of the model are estimated using the Maximum Likelihood (ML) method.
A simulation study shows that the ML method performs well in estimating the
TACARR model parameters. The empirical performance of the TACARR model was
investigated using IBM index data and results show that the proposed model is a
good alternative for in-sample prediction and out-of-sample forecasting of
volatility.
Key Words: Volatility Modeling, Asymmetric Volatility, CARR Models, Regime
Switching. | در این مقاله ، یک محدوده اتورگرایی مشروط نامتقارن آستانه معرفی شده است
(TACARR) فرمول برای مدل سازی محدوده قیمت روزانه دارایی های مالی.
فرض بر این است که فرآیند تولید محدوده مورد انتظار مشروط در
هر نقطه زمانی بین دو رژیم تغییر می کند ، با عنوان بازار رو به بالا و
کشورهای بازار رو به پایین.مدت اختلال در روند خطا نیز هست
بسته به رژیم مجاز به جابجایی بین دو توزیع است.این است
فرض کرد که یک مؤلفه آستانه تنظیم کننده که توسط گذشته هدایت می شود
مقادیر سری زمانی رژیم فعلی بازار را تعیین می کند.پیشنهاد
مدل قادر به ضبط جنبه هایی مانند نامتقارن و ناهمگن است
رفتار نوسانات در بازارهای مالی.مدل پیشنهادی یک تلاش است
در پرداختن به چندین کسری بالقوه موجود در مدل های محدوده قیمت موجود
مانند محدوده اتوراگرایی مشروط (CARR) ، کار نامتقارن (ACARR) ،
بازخورد ACARR (FACARR) و مدل های محدوده اتورگرایی آستانه (TARR).
پارامترهای مدل با استفاده از روش حداکثر احتمال (ML) تخمین زده می شود.
یک مطالعه شبیه سازی نشان می دهد که روش ML در تخمین عملکرد عملکرد خوبی دارد
پارامترهای مدل TACARR.عملکرد تجربی مدل TACARR بود
با استفاده از داده ها و نتایج شاخص IBM بررسی شده است که مدل پیشنهادی a است
جایگزین مناسب برای پیش بینی در نمونه و پیش بینی خارج از نمونه از
نوسان.
کلمات کلیدی: مدل سازی نوسانات ، نوسانات نامتقارن ، مدل های CARR ، رژیم
تعویض |
30,544 | We use machine learning techniques to investigate whether it is possible to
replicate the behavior of bank managers who assess the risk of commercial loans
made by a large commercial US bank. Even though a typical bank already relies
on an algorithmic scorecard process to evaluate risk, bank managers are given
significant latitude in adjusting the risk score in order to account for other
holistic factors based on their intuition and experience. We show that it is
possible to find machine learning algorithms that can replicate the behavior of
the bank managers. The input to the algorithms consists of a combination of
standard financials and soft information available to bank managers as part of
the typical loan review process. We also document the presence of significant
heterogeneity in the adjustment process that can be traced to differences
across managers and industries. Our results highlight the effectiveness of
machine learning based analytic approaches to banking and the potential
challenges to high-skill jobs in the financial sector. | ما از تکنیک های یادگیری ماشین استفاده می کنیم تا بررسی کنیم که آیا امکان پذیر است
رفتار مدیران بانکی را که خطر وام های تجاری را ارزیابی می کنند ، تکرار کنید
ساخته شده توسط یک بانک تجاری بزرگ ایالات متحده.حتی اگر یک بانک معمولی از قبل اعتماد کند
در یک فرآیند کارت امتیازی الگوریتمی برای ارزیابی ریسک ، به مدیران بانک داده می شود
عرض جغرافیایی قابل توجه در تنظیم نمره ریسک به منظور حساب کردن سایر موارد
عوامل جامع بر اساس شهود و تجربه آنها.ما نشان می دهیم که این است
برای یافتن الگوریتم های یادگیری ماشین که می تواند رفتار را تکرار کند ممکن است
مدیران بانکورودی به الگوریتم ها از ترکیبی از
مالی استاندارد و اطلاعات نرم در دسترس مدیران بانک به عنوان بخشی از
فرآیند بررسی وام معمولی.ما همچنین حضور قابل توجه را مستند می کنیم
ناهمگونی در فرآیند تنظیم که می تواند در اختلافات ردیابی شود
در سراسر مدیران و صنایع.نتایج ما اثربخشی را برجسته می کند
رویکردهای تحلیلی مبتنی بر یادگیری ماشین به بانکداری و پتانسیل
چالش های مربوط به مشاغل با مهارت بالا در بخش مالی. |
30,545 | Economists often estimate models using data from a particular domain, e.g.
estimating risk preferences in a particular subject pool or for a specific
class of lotteries. Whether a model's predictions extrapolate well across
domains depends on whether the estimated model has captured generalizable
structure. We provide a tractable formulation for this "out-of-domain"
prediction problem and define the transfer error of a model based on how well
it performs on data from a new domain. We derive finite-sample forecast
intervals that are guaranteed to cover realized transfer errors with a
user-selected probability when domains are iid, and use these intervals to
compare the transferability of economic models and black box algorithms for
predicting certainty equivalents. We find that in this application, the black
box algorithms we consider outperform standard economic models when estimated
and tested on data from the same domain, but the economic models generalize
across domains better than the black-box algorithms do. | اقتصاددانان غالباً مدل ها را با استفاده از داده های یک دامنه خاص تخمین می زنند ، به عنوان مثال
تخمین ترجیحات ریسک در یک استخر موضوعی خاص یا برای یک خاص
کلاس قرعه کشی.این که آیا پیش بینی های یک مدل به خوبی از بین می روند
دامنه ها به این بستگی دارد که آیا مدل تخمین زده شده قابل تعمیم بوده است
ساختارما یک فرمول قابل ردیابی برای این "خارج از دامنه" ارائه می دهیم
مشکل پیش بینی و خطای انتقال یک مدل را بر اساس میزان خوب تعریف کنید
این داده ها را از یک دامنه جدید اجرا می کند.ما پیش بینی نمونه محدود را به دست می آوریم
فواصل زمانی که برای پوشش خطاهای انتقال تحقق یافته با a تضمین شده اند
احتمال انتخاب کاربر هنگامی که دامنه ها IID هستند و از این فواصل استفاده می کنند
قابلیت انتقال مدل های اقتصادی و الگوریتم های جعبه سیاه را برای مقایسه کنید
پیش بینی معادل های یقین.ما می دانیم که در این برنامه ، سیاه
الگوریتم های جعبه ما وقتی تخمین زده می شود مدل های اقتصادی استاندارد را بهتر می دانیم
و بر روی داده های همان دامنه آزمایش شده است ، اما مدل های اقتصادی تعمیم می دهند
در سراسر دامنه ها بهتر از الگوریتم های جعبه سیاه هستند. |
30,546 | In many first-price auctions, bidders face considerable strategic
uncertainty: They cannot perfectly anticipate the other bidders' bidding
behavior. We propose a model in which bidders do not know the entire
distribution of opponent bids but only the expected (winning) bid and lower and
upper bounds on the opponent bids. We characterize the optimal bidding
strategies and prove the existence of equilibrium beliefs. Finally, we apply
the model to estimate the cost distribution in highway procurement auctions and
find good performance out-of-sample. | در بسیاری از حراج های قیمت اول ، داوطلبان با استراتژیک قابل توجهی روبرو هستند
عدم اطمینان: آنها نمی توانند پیشنهادات داوطلب دیگر را کاملاً پیش بینی کنند
رفتار - اخلاق.ما مدلی را پیشنهاد می کنیم که در آن داوطلبان کل را نمی شناسند
توزیع پیشنهادات حریف اما فقط پیشنهاد مورد انتظار (برنده) و پایین تر و
مرزهای بالایی در پیشنهادات حریف.ما مناقصه بهینه را توصیف می کنیم
استراتژی ها و اثبات وجود اعتقادات تعادل.سرانجام ، ما اقدام می کنیم
مدل برای برآورد توزیع هزینه در حراج های تهیه بزرگراه و
عملکرد خوب خارج از نمونه را پیدا کنید. |
30,547 | Labor economists regularly analyze employment data by fitting predictive
models to small, carefully constructed longitudinal survey datasets. Although
modern machine learning methods offer promise for such problems, these survey
datasets are too small to take advantage of them. In recent years large
datasets of online resumes have also become available, providing data about the
career trajectories of millions of individuals. However, standard econometric
models cannot take advantage of their scale or incorporate them into the
analysis of survey data. To this end we develop CAREER, a transformer-based
model that uses transfer learning to learn representations of job sequences.
CAREER is first fit to large, passively-collected resume data and then
fine-tuned to smaller, better-curated datasets for economic inferences. We fit
CAREER to a dataset of 24 million job sequences from resumes, and fine-tune its
representations on longitudinal survey datasets. We find that CAREER forms
accurate predictions of job sequences on three widely-used economics datasets.
We further find that CAREER can be used to form good predictions of other
downstream variables; incorporating CAREER into a wage model provides better
predictions than the econometric models currently in use. | اقتصاددانان کار به طور مرتب داده های اشتغال را با متناسب سازی پیش بینی تجزیه و تحلیل می کنند
مدل ها به مجموعه داده های کوچک و با دقت ساخته شده ساخته شده.با اينكه
روشهای مدرن یادگیری ماشین نوید برای چنین مشکلاتی ، این نظرسنجی ها ارائه می دهد
مجموعه داده ها برای استفاده از آنها بسیار کوچک هستند.در سالهای اخیر بزرگ
مجموعه داده های رزومه های آنلاین نیز در دسترس قرار گرفته است ، و اطلاعات مربوط به
مسیرهای شغلی میلیون ها نفر.با این حال ، اقتصاد سنجی استاندارد
مدل ها نمی توانند از مقیاس خود استفاده کنند یا آنها را در
تجزیه و تحلیل داده های نظرسنجی.برای این منظور ما شغلی را توسعه می دهیم ، یک ترانسفورماتور
مدلی که از یادگیری انتقال برای یادگیری بازنمایی از توالی های شغلی استفاده می کند.
شغلی ابتدا متناسب با داده های رزومه بزرگ و منفعلانه و سپس است
تنظیم شده به مجموعه داده های کوچکتر و بهتر برای استنتاج های اقتصادی.ما متناسب هستیم
شغلی به مجموعه داده 24 میلیون دنباله شغلی از رزومه ها ، و آن را خوب تنظیم کنید
بازنمایی در مجموعه داده های بررسی طولی.ما می توانیم شکل های شغلی را پیدا کنیم
پیش بینی های دقیق از توالی های شغلی در سه مجموعه داده اقتصاد بسیار مورد استفاده.
در ادامه می بینیم که از حرفه می توان برای ایجاد پیش بینی های خوب از دیگر استفاده کرد
متغیرهای پایین دست ؛ترکیب حرفه در یک مدل دستمزد بهتر می کند
پیش بینی ها نسبت به مدلهای اقتصاد سنجی که در حال حاضر در حال استفاده هستند. |
30,548 | This paper introduces a local-to-unity/small sigma process for a stationary
time series with strong persistence and non-negligible long run risk. This
process represents the stationary long run component in an unobserved short-
and long-run components model involving different time scales. More
specifically, the short run component evolves in the calendar time and the long
run component evolves in an ultra long time scale. We develop the methods of
estimation and long run prediction for the univariate and multivariate
Structural VAR (SVAR) models with unobserved components and reveal the
impossibility to consistently estimate some of the long run parameters. The
approach is illustrated by a Monte-Carlo study and an application to
macroeconomic data. | در این مقاله یک فرآیند سیگما محلی به Unity/Small برای یک ثابت ارائه شده است
سریال های زمانی با پایداری قوی و خطر طولانی مدت غیرقانونی.این
فرآیند نمایانگر مؤلفه بلند مدت ثابت در یک کوتاه مدت است-
و مدل اجزای بلند مدت که شامل مقیاس های مختلف زمانی است.بیشتر
به طور خاص ، مؤلفه کوتاه مدت در زمان تقویم و طولانی تکامل می یابد
مؤلفه اجرا در مقیاس بسیار طولانی تکامل می یابد.ما روشهای
تخمین و پیش بینی طولانی مدت برای تک متغیره و چند متغیره
مدل های VAR ساختاری (SVAR) با اجزای بدون نظارت و آشکار کردن
عدم امکان تخمین مداوم برخی از پارامترهای بلند مدت.در
رویکرد توسط یک مطالعه مونت کارلو و یک برنامه کاربردی نشان داده شده است
داده های کلان اقتصادی. |
30,550 | In the context of treatment effect estimation, this paper proposes a new
methodology to recover the counterfactual distribution when there is a single
(or a few) treated unit and possibly a high-dimensional number of potential
controls observed in a panel structure. The methodology accommodates, albeit
does not require, the number of units to be larger than the number of time
periods (high-dimensional setup). As opposed to modeling only the conditional
mean, we propose to model the entire conditional quantile function (CQF)
without intervention and estimate it using the pre-intervention period by a
l1-penalized regression. We derive non-asymptotic bounds for the estimated CQF
valid uniformly over the quantiles. The bounds are explicit in terms of the
number of time periods, the number of control units, the weak dependence
coefficient (beta-mixing), and the tail decay of the random variables. The
results allow practitioners to re-construct the entire counterfactual
distribution. Moreover, we bound the probability coverage of this estimated
CQF, which can be used to construct valid confidence intervals for the
(possibly random) treatment effect for every post-intervention period. We also
propose a new hypothesis test for the sharp null of no-effect based on the Lp
norm of deviation of the estimated CQF to the population one. Interestingly,
the null distribution is quasi-pivotal in the sense that it only depends on the
estimated CQF, Lp norm, and the number of post-intervention periods, but not on
the size of the post-intervention period. For that reason, critical values can
then be easily simulated. We illustrate the methodology by revisiting the
empirical study in Acemoglu, Johnson, Kermani, Kwak and Mitton (2016). | در زمینه تخمین اثر درمانی ، این مقاله جدید را پیشنهاد می کند
روش شناسی برای بازیابی توزیع ضد عملی هنگامی که یک وجود دارد
(یا چند مورد) واحد تحت درمان و احتمالاً تعداد بالایی از پتانسیل
شاهد مشاهده شده در یک ساختار پانل.این روش ، هرچند در آن قرار دارد
نیازی به تعداد واحدها بزرگتر از تعداد زمان نیست
دوره ها (راه اندازی با ابعاد بالا).بر خلاف مدل سازی فقط مشروط
میانگین ، ما پیشنهاد می کنیم کل عملکرد کمی مشروط (CQF) را مدل کنیم
بدون مداخله و آن را با استفاده از دوره قبل از مداخله توسط a تخمین بزنید
رگرسیون L1-Penalized.ما برای تخمین CQF مرزهای غیر متعارف را استخراج می کنیم
معتبر به طور یکنواخت بر روی مقدار.مرزها از نظر صریح صریح هستند
تعداد دوره های زمانی ، تعداد واحدهای کنترل ، وابستگی ضعیف
ضریب (بتا مخلوط) و پوسیدگی دم متغیرهای تصادفی.در
نتایج به پزشکان این امکان را می دهد تا کل ضد خلاف را دوباره ساختند
توزیععلاوه بر این ، ما پوشش احتمال این تخمین زده شده را محدود می کنیم
CQF ، که می تواند برای ایجاد فواصل اطمینان معتبر برای
(احتمالاً تصادفی) اثر درمانی برای هر دوره بعد از مداخله.ما همچنین
آزمون فرضیه جدیدی را برای تهی شدید بدون اثر بر اساس LP پیشنهاد دهید
هنجار انحراف CQF تخمین زده شده به جمعیت.جالب است که
توزیع تهی به این معنا که فقط به آن بستگی دارد
تخمین CQF ، هنجار LP ، و تعداد دوره های بعد از مداخله ، اما نه
اندازه دوره بعد از مداخله.به همین دلیل ، مقادیر بحرانی می توانند
سپس به راحتی شبیه سازی شوید.ما روش شناسی را با تجدید نظر در
مطالعه تجربی در Acemoglu ، Johnson ، Kermani ، Kwak and Mitton (2016). |
30,551 | In this paper, we introduce the weighted-average quantile regression
framework, $\int_0^1 q_{Y|X}(u)\psi(u)du = X'\beta$, where $Y$ is a dependent
variable, $X$ is a vector of covariates, $q_{Y|X}$ is the quantile function of
the conditional distribution of $Y$ given $X$, $\psi$ is a weighting function,
and $\beta$ is a vector of parameters. We argue that this framework is of
interest in many applied settings and develop an estimator of the vector of
parameters $\beta$. We show that our estimator is $\sqrt T$-consistent and
asymptotically normal with mean zero and easily estimable covariance matrix,
where $T$ is the size of available sample. We demonstrate the usefulness of our
estimator by applying it in two empirical settings. In the first setting, we
focus on financial data and study the factor structures of the expected
shortfalls of the industry portfolios. In the second setting, we focus on wage
data and study inequality and social welfare dependence on commonly used
individual characteristics. | در این مقاله ، رگرسیون متوسط متوسط وزنی را معرفی می کنیم
چارچوب ، $ \ int_0^1 q_ {y | x} (u) \ psi (u) du = x '\ beta $ ، جایی که $ y $ وابسته است
متغیر ، $ x $ یک بردار متغیر است ، $ q_ {y | x} $ عملکرد کمی است
توزیع مشروط $ y $ با توجه به $ x $ ، $ \ psi $ یک عملکرد وزنه برداری است ،
و $ \ beta $ بردار پارامترها است.ما استدلال می کنیم که این چارچوب از
علاقه به بسیاری از تنظیمات کاربردی و توسعه یک برآوردگر از بردار
پارامترهای $ \ بتا $.ما نشان می دهیم که برآوردگر ما $ \ sqrt t $-سازگار است و
بدون علامت طبیعی با میانگین ماتریس کواریانس صفر و به راحتی قابل تخمین ،
جایی که $ t $ اندازه نمونه موجود است.ما سودمندی خود را نشان می دهیم
برآوردگر با استفاده از آن در دو تنظیم تجربی.در اولین تنظیم ، ما
روی داده های مالی تمرکز کنید و ساختارهای عاملی مورد انتظار را مطالعه کنید
کمبود اوراق بهادار صنعت.در تنظیم دوم ، ما روی دستمزد تمرکز می کنیم
داده ها و مطالعه نابرابری و وابستگی به رفاه اجتماعی به معمولاً مورد استفاده
ویژگیهای فردی. |
30,552 | `All models are wrong but some are useful' (George Box 1979). But, how to
find those useful ones starting from an imperfect model? How to make informed
data-driven decisions equipped with an imperfect model? These fundamental
questions appear to be pervasive in virtually all empirical fields -- including
economics, finance, marketing, healthcare, climate change, defense planning,
and operations research. This article presents a modern approach (builds on two
core ideas: abductive thinking and density-sharpening principle) and practical
guidelines to tackle these issues in a systematic manner. | "همه مدل ها اشتباه هستند اما برخی از آنها مفید هستند" (جورج باکس 1979).اما ، چگونه
آنهایی که از یک مدل ناقص شروع می شوند ، آن موارد مفید را پیدا می کنید؟نحوه اطلاع رسانی
تصمیمات مبتنی بر داده مجهز به یک مدل ناقص؟این اساسی
به نظر می رسد سؤالات تقریباً در همه زمینه های تجربی گسترده است - از جمله
اقتصاد ، امور مالی ، بازاریابی ، مراقبت های بهداشتی ، تغییرات آب و هوا ، برنامه ریزی دفاعی ،
و تحقیقات عملیاتیاین مقاله یک رویکرد مدرن را ارائه می دهد (بر اساس دو
ایده های اصلی: تفکر آدم ربایی و اصل تراکم تراکم) و عملی
دستورالعمل ها برای مقابله با این موضوعات به روشی منظم. |
30,553 | In many longitudinal settings, economic theory does not guide practitioners
on the type of restrictions that must be imposed to solve the rotational
indeterminacy of factor-augmented linear models. We study this problem and
offer several novel results on identification using internally generated
instruments. We propose a new class of estimators and establish large sample
results using recent developments on clustered samples and high-dimensional
models. We carry out simulation studies which show that the proposed approaches
improve the performance of existing methods on the estimation of unknown
factors. Lastly, we consider three empirical applications using administrative
data of students clustered in different subjects in elementary school, high
school and college. | در بسیاری از تنظیمات طولی ، نظریه اقتصادی پزشکان را راهنمایی نمی کند
در مورد نوع محدودیت هایی که برای حل چرخش باید تحمیل شود
نامحدودی از مدل های خطی فاکتور.ما این مشکل را مطالعه می کنیم و
چندین نتیجه جدید در مورد شناسایی با استفاده از تولید داخلی ارائه دهید
سازهاما کلاس جدیدی از برآوردگرها را پیشنهاد می کنیم و نمونه بزرگی را ایجاد می کنیم
نتایج با استفاده از تحولات اخیر در نمونه های خوشه ای و با ابعاد بالا
مدل ها.ما مطالعات شبیه سازی را انجام می دهیم که نشان می دهد رویکردهای پیشنهادی
عملکرد روشهای موجود را در تخمین ناشناخته بهبود بخشید
عوامل.سرانجام ، ما سه برنامه تجربی را با استفاده از اداری در نظر می گیریم
داده های دانش آموزان که در موضوعات مختلف در مدرسه ابتدایی جمع شده اند ، بالا
مدرسه و کالج. |
30,554 | The prediction of financial markets is a challenging yet important task. In
modern electronically-driven markets, traditional time-series econometric
methods often appear incapable of capturing the true complexity of the
multi-level interactions driving the price dynamics. While recent research has
established the effectiveness of traditional machine learning (ML) models in
financial applications, their intrinsic inability to deal with uncertainties,
which is a great concern in econometrics research and real business
applications, constitutes a major drawback. Bayesian methods naturally appear
as a suitable remedy conveying the predictive ability of ML methods with the
probabilistically-oriented practice of econometric research. By adopting a
state-of-the-art second-order optimization algorithm, we train a Bayesian
bilinear neural network with temporal attention, suitable for the challenging
time-series task of predicting mid-price movements in ultra-high-frequency
limit-order book markets. We thoroughly compare our Bayesian model with
traditional ML alternatives by addressing the use of predictive distributions
to analyze errors and uncertainties associated with the estimated parameters
and model forecasts. Our results underline the feasibility of the Bayesian
deep-learning approach and its predictive and decisional advantages in complex
econometric tasks, prompting future research in this direction. | پیش بینی بازارهای مالی یک کار چالش برانگیز و در عین حال مهم است.که در
بازارهای مدرن الکترونیکی محور ، سریال سنتی اقتصاد سنجی
روشها اغلب به نظر می رسد که پیچیدگی واقعی را بدست آورند
تعامل چند سطحی منجر به پویایی قیمت.در حالی که تحقیقات اخیر انجام شده است
اثربخشی مدل های یادگیری ماشین سنتی (ML) در
برنامه های مالی ، ناتوانی ذاتی آنها در مقابله با عدم قطعیت ها ،
که یک نگرانی بزرگ در تحقیقات اقتصاد سنجی و تجارت واقعی است
برنامه ها ، یک اشکال اساسی را تشکیل می دهد.روشهای بیزی به طور طبیعی ظاهر می شوند
به عنوان یک راه حل مناسب با انتقال توانایی پیش بینی روشهای ML با
عمل احتمالی گرا از تحقیقات اقتصاد سنجی.با اتخاذ
الگوریتم بهینه سازی مرتبه دوم پیشرفته ، ما یک بیزی را آموزش می دهیم
شبکه عصبی دو طرفه با توجه زمانی ، مناسب برای چالش برانگیز
وظیفه سری زمانی پیش بینی حرکات قیمت میانی در فرکانس فوق العاده بالا
بازارهای کتاب محدود.ما مدل بیزی خود را کاملاً مقایسه می کنیم
گزینه های سنتی ML با پرداختن به استفاده از توزیع های پیش بینی
برای تجزیه و تحلیل خطاها و عدم قطعیت های مرتبط با پارامترهای تخمین زده شده
و پیش بینی های مدلنتایج ما تأکید بر امکان سنجی بیزی است
رویکرد یادگیری عمیق و مزایای پیش بینی کننده و تصمیم گیری آن در پیچیده
وظایف اقتصادسنجی ، و تحقیقات آینده را در این راستا انجام می دهد. |
30,555 | Rapidly diminishing Arctic summer sea ice is a strong signal of the pace of
global climate change. We provide point, interval, and density forecasts for
four measures of Arctic sea ice: area, extent, thickness, and volume.
Importantly, we enforce the joint constraint that these measures must
simultaneously arrive at an ice-free Arctic. We apply this constrained joint
forecast procedure to models relating sea ice to atmospheric carbon dioxide
concentration and models relating sea ice directly to time. The resulting
"carbon-trend" and "time-trend" projections are mutually consistent and predict
a nearly ice-free summer Arctic Ocean by the mid-2030s with an 80% probability.
Moreover, the carbon-trend projections show that global adoption of a lower
carbon path would likely delay the arrival of a seasonally ice-free Arctic by
only a few years. | یخ دریای تابستانی قطب شمال به سرعت در حال کاهش است ، یک سیگنال قوی از سرعت است
تغییرات جهانی آب و هوا.ما پیش بینی های نقطه ، فاصله و چگالی را ارائه می دهیم
چهار اندازه از یخ دریای قطب شمال: مساحت ، وسعت ، ضخامت و حجم.
مهمتر از همه ، ما محدودیت مشترک را اجرا می کنیم که این اقدامات باید
همزمان به قطب شمال بدون یخ می رسند.ما این مفصل محدود را اعمال می کنیم
روش پیش بینی به مدل های مربوط به یخ دریا به دی اکسید کربن جوی
غلظت و مدل های مربوط به یخ دریا به طور مستقیم به زمان.نتیجه
پیش بینی های "روند کربن" و "زمان زمان" متقابل هستند و پیش بینی می شوند
یک اقیانوس قطب شمال تقریباً بدون یخ در اواسط دهه 2030 با احتمال 80 ٪.
علاوه بر این ، پیش بینی های روند کربن نشان می دهد که پذیرش جهانی پایین تر
مسیر کربن احتمالاً ورود یک قطب شمال بدون یخ فصلی را به تأخیر می اندازد
فقط چند سال |
30,556 | Least squares regression with heteroskedasticity and autocorrelation
consistent (HAC) standard errors has proved very useful in cross section
environments. However, several major difficulties, which are generally
overlooked, must be confronted when transferring the HAC estimation technology
to time series environments. First, in plausible time-series environments
involving failure of strong exogeneity, OLS parameter estimates can be
inconsistent, so that HAC inference fails even asymptotically. Second, most
economic time series have strong autocorrelation, which renders HAC regression
parameter estimates highly inefficient. Third, strong autocorrelation similarly
renders HAC conditional predictions highly inefficient. Finally, The structure
of popular HAC estimators is ill-suited for capturing the autoregressive
autocorrelation typically present in economic time series, which produces large
size distortions and reduced power in HACbased hypothesis testing, in all but
the largest samples. We show that all four problems are largely avoided by the
use of a simple dynamic regression procedure, which is easily implemented. We
demonstrate the advantages of dynamic regression with detailed simulations
covering a range of practical issues. | رگرسیون حداقل مربعات با ناهمگونی و همبستگی
خطاهای استاندارد سازگار (HAC) در مقطع بسیار مفید بوده است
محیطبا این حال ، چندین مشکل اساسی ، که به طور کلی وجود دارد
نادیده گرفته شده ، هنگام انتقال فناوری تخمین HAC باید با آن روبرو شود
به محیط های سری زمانی.اول ، در محیط های سری زمانی قابل قبول
شامل عدم موفقیت اگزوژنیت قوی ، برآورد پارامتر OLS می تواند باشد
متناقض ، به طوری که استنباط HAC حتی به صورت مجانبی از بین می رود.دوم ، بیشتر
سری زمانی اقتصادی دارای همبستگی قوی است که رگرسیون HAC را ارائه می دهد
پارامتر بسیار ناکارآمد تخمین می زند.سوم ، همبستگی قوی به طور مشابه
پیش بینی های شرطی HAC را بسیار ناکارآمد می کند.سرانجام ، ساختار
از برآوردگرهای محبوب HAC برای گرفتن خودجوش مناسب نیست
همبستگی به طور معمول در سری زمانی اقتصادی وجود دارد ، که بزرگ تولید می کند
اعوجاج اندازه و کاهش قدرت در آزمایش فرضیه hacbased ، در کل
بزرگترین نمونهما نشان می دهیم که از هر چهار مشکل تا حد زیادی توسط
استفاده از یک روش رگرسیون پویا ساده ، که به راحتی اجرا می شود.ما
مزایای رگرسیون پویا را با شبیه سازی های دقیق نشان دهید
پوشش طیف وسیعی از موضوعات عملی. |
30,557 | In this article we propose a set of simple principles to guide empirical
practice in synthetic control studies. The proposed principles follow from
formal properties of synthetic control estimators, and pertain to the nature,
implications, and prevention of over-fitting biases within a synthetic control
framework, to the interpretability of the results, and to the availability of
validation exercises. We discuss and visually demonstrate the relevance of the
proposed principles under a variety of data configurations. | در این مقاله مجموعه ای از اصول ساده را برای هدایت تجربی پیشنهاد می کنیم
در مطالعات کنترل مصنوعی تمرین کنید.اصول پیشنهادی از
خصوصیات رسمی برآوردگرهای کنترل مصنوعی ، و مربوط به ماهیت است ،
پیامدها ، و جلوگیری از تعصبات بیش از حد در یک کنترل مصنوعی
چارچوب ، به تفسیر نتایج و در دسترس بودن
تمرینات اعتبار سنجی.ما در مورد ارتباط و بصری نشان می دهیم
اصول پیشنهادی تحت تنظیمات مختلف داده ها. |
30,558 | We propose a multivariate extension of the Lorenz curve based on multivariate
rearrangements of optimal transport theory. We define a vector Lorenz map as
the integral of the vector quantile map associated to a multivariate resource
allocation. Each component of the Lorenz map is the cumulative share of each
resource, as in the traditional univariate case. The pointwise ordering of such
Lorenz maps defines a new multivariate majorization order. We define a
multi-attribute Gini index and complete ordering based on the Lorenz map. We
formulate income egalitarianism and show that the class of egalitarian
allocations is maximal with respect to our inequality ordering over a large
class of allocations. We propose the level sets of an Inverse Lorenz Function
as a practical tool to visualize and compare inequality in two dimensions, and
apply it to income-wealth inequality in the United States between 1989 and
2019. | ما یک پسوند چند متغیره از منحنی لورنز را بر اساس چند متغیره پیشنهاد می کنیم
بازآرایی تئوری حمل و نقل بهینه.ما نقشه بردار لورنز را به عنوان تعریف می کنیم
انتگرال نقشه کمی بردار مرتبط با یک منبع چند متغیره
تخصیصهر مؤلفه نقشه لورنز سهم تجمعی هر یک است
منبع ، مانند پرونده تک متغیره سنتی.ترتیب نکته ای از این قبیل
Lorenz Maps یک دستورالعمل جدید چند متغیره را تعریف می کند.ما تعریف می کنیم
شاخص جینی چند و همتای و سفارش کامل بر اساس نقشه لورنز.ما
برابری گرایی درآمد را تدوین کنید و نشان دهید که طبقه مساوات
تخصیص با توجه به نظم نابرابری ما بیش از یک بزرگ حداکثر است
کلاس تخصیص.ما مجموعه های سطح یک عملکرد لورنز معکوس را پیشنهاد می کنیم
به عنوان ابزاری عملی برای تجسم و مقایسه نابرابری در دو بعد و
آن را در مورد نابرابری درآمدی در ایالات متحده بین سالهای 1989 و
2019. |
30,559 | Log-linear models are prevalent in empirical research. Yet, how to handle
zeros in the dependent variable remains an unsettled issue. This article
clarifies it and addresses the log of zero by developing a new family of
estimators called iterated Ordinary Least Squares (iOLS). This family nests
standard approaches such as log-linear and Poisson regressions, offers several
computational advantages, and corresponds to the correct way to perform the
popular $\log(Y+1)$ transformation. We extend it to the endogenous regressor
setting (i2SLS) and overcome other common issues with Poisson models, such as
controlling for many fixed-effects. We also develop specification tests to help
researchers select between alternative estimators. Finally, our methods are
illustrated through numerical simulations and replications of landmark
publications. | مدل های خطی ورود به سیستم در تحقیقات تجربی شیوع دارند.با این حال ، چگونه رسیدگی کنیم
صفر در متغیر وابسته یک مسئله ناآرام است.این مقاله
آن را روشن می کند و با ایجاد یک خانواده جدید از ورود به سیستم صفر می پردازد
برآوردگرانی که حداقل مربعات معمولی تکرار شده (IOL) نامیده می شوند.این لانه های خانوادگی
رویکردهای استاندارد مانند رگرسیون log-linear و poisson ، چندین ارائه می دهد
مزایای محاسباتی ، و مطابق با روش صحیح برای انجام
محبوب $ \ log (y+1) $ تحول.ما آن را به رگرسور درون زا گسترش می دهیم
تنظیم (i2sls) و غلبه بر سایر موضوعات مشترک با مدلهای پواسون ، مانند
کنترل بسیاری از عوارض ثابت.ما همچنین برای کمک به تست های مشخصات تهیه می کنیم
محققان بین برآوردگرهای جایگزین انتخاب می کنند.سرانجام ، روشهای ما هستند
از طریق شبیه سازی های عددی و تکثیر نشانه گذاری نشان داده شده است
انتشارات |
30,560 | Quantifying both historic and future volatility is key in portfolio risk
management. This note presents and compares estimation strategies for
volatility estimation in an estimation universe consisting on 28 629 unique
companies from February 2010 to April 2021, with 858 different portfolios. The
estimation methods are compared in terms of how they rank the volatility of the
different subsets of portfolios. The overall best performing approach estimates
volatility from direct entity returns using a GARCH model for variance
estimation. | تعیین نوسانات تاریخی و آینده در ریسک نمونه کارها مهم است
مدیریت.این نت استراتژی های تخمین را برای
برآورد نوسانات در یک جهان تخمین متشکل از 28 629 منحصر به فرد
شرکت ها از فوریه 2010 تا آوریل 2021 ، با 858 پرتفوی مختلف.در
روشهای تخمین از نظر نحوه رتبه بندی نوسانات این مقایسه مقایسه می شوند
زیر مجموعه های مختلف اوراق بهادار.تخمین های کلی رویکرد بهترین عملکرد
نوسانات از موجودیت مستقیم با استفاده از یک مدل GARCH برای واریانس باز می گردد
برآورد کردن. |
30,561 | Factor models have become a common and valued tool for understanding the
risks associated with an investing strategy. In this report we describe
Exabel's factor model, we quantify the fraction of the variability of the
returns explained by the different factors, and we show some examples of annual
returns of portfolios with different factor exposure. | مدل های فاکتور به ابزاری رایج و ارزشمند برای درک
خطرات مرتبط با یک استراتژی سرمایه گذاری.در این گزارش ما شرح می دهیم
مدل فاکتور Exabel ، ما کسری از تنوع را تعیین می کنیم
بازده های توضیح داده شده توسط عوامل مختلف ، و ما نمونه هایی از سالانه را نشان می دهیم
بازده اوراق بهادار با قرار گرفتن در معرض فاکتور مختلف. |
30,562 | This paper studies the network structure and fragmentation of the Argentinean
interbank market. Both the unsecured (CALL) and the secured (REPO) markets are
examined, applying complex network analysis. Results indicate that, although
the secured market has less participants, its nodes are more densely connected
than in the unsecured market. The interrelationships in the unsecured market
are less stable, making its structure more volatile and vulnerable to negative
shocks. The analysis identifies two 'hidden' underlying sub-networks within the
REPO market: one based on the transactions collateralized by Treasury bonds
(REPO-T) and other based on the operations collateralized by Central Bank (CB)
securities (REPO-CB). The changes in monetary policy stance and monetary
conditions seem to have a substantially smaller impact in the former than in
the latter 'sub-market'. The connectivity levels within the REPO-T market and
its structure remain relatively unaffected by the (in some period pronounced)
swings in the other segment of the market. Hence, the REPO market shows signs
of fragmentation in its inner structure, according to the type of collateral
asset involved in the transactions, so the average REPO interest rate reflects
the interplay between these two partially fragmented sub-markets. This mixed
structure of the REPO market entails one of the main sources of differentiation
with respect to the CALL market. | در این مقاله به بررسی ساختار شبکه و تکه تکه شدن آرژانتینی می پردازیم
بازار بین بانکی.هر دو بازارهای ناامن (تماس) و امن (repo) هستند
مورد بررسی ، استفاده از تجزیه و تحلیل پیچیده شبکه.نتایج نشان می دهد ، اگرچه ،
بازار امن شرکت کنندگان کمتری دارد ، گره های آن متراکم تر هستند
از بازار ناامن.روابط متقابل در بازار ناامن
پایدارتر هستند و ساختار آن را بی ثبات تر و آسیب پذیرتر می کنند
شوکاین تجزیه و تحلیل دو شبکه زیربنایی پنهان را در داخل مشخص می کند
بازار repo: یکی بر اساس معاملات وثیقه های خزانه داری
(repo-t) و دیگری بر اساس عملیات وثیقه های بانک مرکزی (CB)
اوراق بهادار (repo-cb).تغییرات در موضع سیاست پولی و پولی
به نظر می رسد شرایط تأثیر قابل ملاحظه ای کوچکتر در گذشته دارد
دومی "زیر بازار".سطح اتصال در بازار repo-t و
ساختار آن نسبتاً تحت تأثیر قرار نگرفته است (در برخی از دوره ها)
نوسانات در بخش دیگر بازار.از این رو ، بازار repo علائم را نشان می دهد
تکه تکه شدن در ساختار داخلی آن ، با توجه به نوع وثیقه
دارایی درگیر در معاملات است ، بنابراین میانگین نرخ بهره repo منعکس می شود
تعامل بین این دو بازار فرعی جزئی تکه تکه شده.این مخلوط
ساختار بازار repo مستلزم یکی از منابع اصلی تمایز است
با توجه به بازار تماس |
30,563 | This study demonstrates the existence of a testable condition for the
identification of the causal effect of a treatment on an outcome in
observational data, which relies on two sets of variables: observed covariates
to be controlled for and a suspected instrument. Under a causal structure
commonly found in empirical applications, the testable conditional independence
of the suspected instrument and the outcome given the treatment and the
covariates has two implications. First, the instrument is valid, i.e. it does
not directly affect the outcome (other than through the treatment) and is
unconfounded conditional on the covariates. Second, the treatment is
unconfounded conditional on the covariates such that the treatment effect is
identified. We suggest tests of this conditional independence based on machine
learning methods that account for covariates in a data-driven way and
investigate their asymptotic behavior and finite sample performance in a
simulation study. We also apply our testing approach to evaluating the impact
of fertility on female labor supply when using the sibling sex ratio of the
first two children as supposed instrument, which by and large points to a
violation of our testable implication for the moderate set of socio-economic
covariates considered. | این مطالعه وجود یک شرایط قابل آزمایش برای
شناسایی اثر علی یک درمان در نتیجه در
داده های مشاهده ای ، که به دو مجموعه متغیر متکی است: متغیرهای متغیر
برای کنترل و یک ابزار مشکوک.تحت یک ساختار علی
معمولاً در برنامه های تجربی ، استقلال مشروط قابل آزمایش یافت می شود
از ابزار مشکوک و نتیجه با توجه به درمان و
کوواریاتس دو پیامد دارد.اول ، ابزار معتبر است ، یعنی این کار را انجام می دهد
به طور مستقیم بر نتیجه (غیر از طریق درمان) تأثیر نمی گذارد و هست
مشروط غیرقابل انعطاف بر متغیرهای متغیر.دوم ، درمان است
مشروط غیرقانونی بر متغیرهای متغیر به گونه ای که اثر درمانی باشد
شناخته شده است.ما آزمایشات این استقلال مشروط را بر اساس دستگاه پیشنهاد می کنیم
روشهای یادگیری که متغیرهای متغیر را به روشی محور داده و
رفتار بدون علامت آنها و عملکرد نمونه محدود را در یک بررسی کنید
مطالعه شبیه سازی.ما همچنین از روش آزمایش خود برای ارزیابی تأثیر استفاده می کنیم
باروری در تأمین نیروی کار زنان هنگام استفاده از نسبت جنسی خواهر و برادر
دو کودک اول به عنوان ابزار فرضی ، که به طور کلی به یک
نقض پیامدهای قابل آزمایش ما برای مجموعه متوسط اجتماعی و اقتصادی
متغیرهای متغیر در نظر گرفته شده است. |
30,564 | Diagnostic tests are almost never perfect. Studies quantifying their
performance use knowledge of the true health status, measured with a reference
diagnostic test. Researchers commonly assume that the reference test is
perfect, which is not the case in practice. When the assumption fails,
conventional studies identify "apparent" performance or performance with
respect to the reference, but not true performance. This paper provides the
smallest possible bounds on the measures of true performance - sensitivity
(true positive rate) and specificity (true negative rate), or equivalently
false positive and negative rates, in standard settings. Implied bounds on
policy-relevant parameters are derived: 1) Prevalence in screened populations;
2) Predictive values. Methods for inference based on moment inequalities are
used to construct uniformly consistent confidence sets in level over a relevant
family of data distributions. Emergency Use Authorization (EUA) and independent
study data for the BinaxNOW COVID-19 antigen test demonstrate that the bounds
can be very informative. Analysis reveals that the estimated false negative
rates for symptomatic and asymptomatic patients are up to 3.17 and 4.59 times
higher than the frequently cited "apparent" false negative rate. | آزمایش های تشخیصی تقریباً هرگز کامل نیستند.مطالعات تعیین کمیت آنها
از عملکرد دانش در مورد وضعیت سلامتی واقعی استفاده کنید ، با یک مرجع اندازه گیری می شود
آزمایش تشخیصی.محققان معمولاً فرض می کنند که آزمون مرجع است
ایده آل ، که در عمل اینگونه نیست.وقتی فرض شکست می خورد ،
مطالعات متعارف عملکرد یا عملکرد "آشکار" را با
احترام به مرجع ، اما عملکرد واقعی نیست.در این مقاله آمده است
کوچکترین مرزهای ممکن در اقدامات عملکرد واقعی - حساسیت
(نرخ مثبت مثبت) و ویژگی (نرخ منفی واقعی) یا معادل آن
نرخ مثبت و منفی کاذب ، در تنظیمات استاندارد.مرزهای ضمنی
پارامترهای مرتبط با سیاست مشتق شده اند: 1) شیوع در جمعیت غربالگری.
2) مقادیر پیش بینی.روشهای استنباط بر اساس نابرابری های لحظه
برای ساختن مجموعه های اعتماد به نفس یکنواخت در سطح بیش از یک مربوطه استفاده می شود
خانواده توزیع داده ها.مجوز استفاده اضطراری (EUA) و مستقل
داده های مطالعه برای آزمون آنتی ژن Binaxnow Covid-19 نشان می دهد که مرزها
می تواند بسیار آموزنده باشد.تجزیه و تحلیل نشان می دهد که تخمین منفی کاذب
نرخ برای بیماران علامت دار و بدون علامت حداکثر 3.17 و 4.59 بار است
بالاتر از نرخ منفی کاذب "ظاهری" که اغلب استناد می شود. |