id
int64
28.8k
36k
text
stringlengths
44
3.03k
translation
stringlengths
36
2.47k
30,466
We study the impact of climate volatility on economic growth exploiting data on 133 countries between 1960 and 2019. We show that the conditional (ex ante) volatility of annual temperatures increased steadily over time, rendering climate conditions less predictable across countries, with important implications for growth. Controlling for concomitant changes in temperatures, a +1 degree C increase in temperature volatility causes on average a 0.3 percent decline in GDP growth and a 0.7 percent increase in the volatility of GDP. Unlike changes in average temperatures, changes in temperature volatility affect both rich and poor countries.
ما تأثیر نوسانات آب و هوا را بر روی داده های بهره برداری از رشد اقتصادی بررسی می کنیم در 133 کشور بین سالهای 1960 تا 2019. ما نشان می دهیم که مشروط (سابق) نوسانات درجه حرارت سالانه با گذشت زمان به طور پیوسته افزایش می یابد ، شرایط آب و هوایی کمتر در سراسر کشورها قابل پیش بینی است ، با مهم پیامدهای رشد.کنترل تغییرات همزمان در دما ، الف 1 درجه C افزایش در نوسانات دما به طور متوسط ​​0.3 درصد است کاهش رشد تولید ناخالص داخلی و افزایش 0.7 درصدی در نوسانات تولید ناخالص داخلی. برخلاف تغییر در دمای متوسط ​​، تغییر در نوسانات دما هر دو کشور ثروتمند و فقیر را تحت تأثیر قرار دهید.
30,467
In this work, we propose a novel framework for density forecast combination by constructing time-varying weights based on time series features, which is called Feature-based Bayesian Forecasting Model Averaging (FEBAMA). Our framework estimates weights in the forecast combination via Bayesian log predictive scores, in which the optimal forecasting combination is determined by time series features from historical information. In particular, we use an automatic Bayesian variable selection method to add weight to the importance of different features. To this end, our approach has better interpretability compared to other black-box forecasting combination schemes. We apply our framework to stock market data and M3 competition data. Based on our structure, a simple maximum-a-posteriori scheme outperforms benchmark methods, and Bayesian variable selection can further enhance the accuracy for both point and density forecasts.
در این کار ، ما یک چارچوب جدید برای ترکیب پیش بینی چگالی پیشنهاد می کنیم با ساخت وزنهای متغیر زمان بر اساس ویژگی های سری زمانی ، که است به عنوان میانگین مدل پیش بینی بیزی مبتنی بر ویژگی (Febama).ما چارچوب وزنهای موجود در ترکیب پیش بینی را از طریق ورود به سیستم بیزی تخمین می زند نمرات پیش بینی کننده ، که در آن ترکیب پیش بینی بهینه تعیین می شود ویژگی های سری زمانی از اطلاعات تاریخی.به طور خاص ، ما از روش انتخاب متغیر بیزی اتوماتیک برای اضافه کردن وزن به اهمیت ویژگی های مختلفبرای این منظور ، رویکرد ما تفسیر بهتری دارد در مقایسه با سایر طرح های ترکیبی پیش بینی جعبه سیاه.ما خود را اعمال می کنیم چارچوب داده های بازار سهام و داده های رقابت M3.بر اساس ساختار ما ، یک طرح ساده حداکثر یک خلفی از روشهای معیار بهتر عمل می کند ، و انتخاب متغیر بیزی می تواند دقت را برای هر دو نقطه و پیش بینی چگالی.
30,468
This article studies experimental design in settings where the experimental units are large aggregate entities (e.g., markets), and only one or a small number of units can be exposed to the treatment. In such settings, randomization of the treatment may result in treated and control groups with very different characteristics at baseline, inducing biases. We propose a variety of synthetic control designs (Abadie, Diamond and Hainmueller, 2010, Abadie and Gardeazabal, 2003) as experimental designs to select treated units in non-randomized experiments with large aggregate units, as well as the untreated units to be used as a control group. Average potential outcomes are estimated as weighted averages of treated units, for potential outcomes with treatment -- and control units, for potential outcomes without treatment. We analyze the properties of estimators based on synthetic control designs and propose new inferential techniques. We show that in experimental settings with aggregate units, synthetic control designs can substantially reduce estimation biases in comparison to randomization of the treatment.
در این مقاله به بررسی طراحی تجربی در تنظیماتی که در آن آزمایشی است واحدها نهادهای بزرگ (به عنوان مثال ، بازارها) و فقط یک یا یک کوچک هستند تعداد واحدها را می توان در معرض درمان قرار داد.در چنین تنظیماتی ، تصادفی سازی درمان ممکن است منجر به گروههای تحت درمان و کنترل شود خصوصیات بسیار متفاوتی در ابتدا ، باعث تعصب می شود.ما پیشنهاد می کنیم انواع طرح های کنترل مصنوعی (Abadie ، Diamond and Hainmueller ، 2010 ، Abadie and Gardeazabal ، 2003) به عنوان طرح های آزمایشی برای انتخاب واحدهای تحت درمان در آزمایشات غیر تصادفی با واحدهای بزرگ و همچنین واحدهای درمان نشده به عنوان یک گروه کنترل استفاده می شوند.نتایج بالقوه متوسط ​​است به عنوان میانگین وزنی واحدهای تحت درمان تخمین زده می شود ، برای نتایج بالقوه با واحدهای درمانی - و کنترل ، برای نتایج بالقوه بدون درمان.ما ویژگی های برآوردگرها را بر اساس طرح های کنترل مصنوعی تجزیه و تحلیل کنید تکنیک های جدید استنباطی را پیشنهاد دهید.ما نشان می دهیم که در تنظیمات آزمایشی واحدهای کل ، طرح های کنترل مصنوعی می توانند به طور قابل توجهی تخمین را کاهش دهند تعصب در مقایسه با تصادفی درمان.
30,469
We consider a high-dimensional model in which variables are observed over time and space. The model consists of a spatio-temporal regression containing a time lag and a spatial lag of the dependent variable. Unlike classical spatial autoregressive models, we do not rely on a predetermined spatial interaction matrix, but infer all spatial interactions from the data. Assuming sparsity, we estimate the spatial and temporal dependence fully data-driven by penalizing a set of Yule-Walker equations. This regularization can be left unstructured, but we also propose customized shrinkage procedures when observations originate from spatial grids (e.g. satellite images). Finite sample error bounds are derived and estimation consistency is established in an asymptotic framework wherein the sample size and the number of spatial units diverge jointly. Exogenous variables can be included as well. A simulation exercise shows strong finite sample performance compared to competing procedures. As an empirical application, we model satellite measured NO2 concentrations in London. Our approach delivers forecast improvements over a competitive benchmark and we discover evidence for strong spatial interactions.
ما یک مدل با ابعاد بالا را در نظر می گیریم که در آن متغیرها بیش از حد مشاهده می شوند زمان و فضا.این مدل شامل یک رگرسیون فضایی-زمانی است که حاوی a است تاخیر زمانی و تاخیر مکانی از متغیر وابسته.برخلاف مکانی کلاسیک مدلهای خودکار ، ما به تعامل مکانی از پیش تعیین شده اعتماد نمی کنیم ماتریس ، اما تمام فعل و انفعالات مکانی از داده ها استنباط می شود.با فرض کمبود ، ما وابستگی مکانی و زمانی را به طور کامل با مجازات کردن a تخمین بزنید مجموعه ای از معادلات Yule-Walker.این تنظیم می تواند بدون ساختار باقی بماند ، اما ما همچنین روشهای انقباض سفارشی را پیشنهاد می کنیم که مشاهدات سرچشمه می گیرند از شبکه های مکانی (به عنوان مثال تصاویر ماهواره ای).مرزهای خطای نمونه محدود هستند مشتق شده و قوام تخمین در یک چارچوب بدون علامت ایجاد می شود که در آن اندازه نمونه و تعداد واحدهای مکانی به طور مشترک واگرایی می کنند. متغیرهای اگزوژن نیز می توانند گنجانده شوند.یک تمرین شبیه سازی قوی را نشان می دهد عملکرد نمونه محدود در مقایسه با روشهای رقابتی.به عنوان یک تجربی کاربرد ، ما ماهواره ای غلظت NO2 را در لندن اندازه گیری می کنیم.ما رویکرد پیشرفت های پیش بینی را نسبت به یک معیار رقابتی و ما ارائه می دهد شواهدی را برای تعامل مکانی قوی کشف کنید.
30,470
The Gini index signals only the dispersion of the distribution and is not very sensitive to income differences at the tails of the distribution. The widely used index of inequality can be adjusted to also measure distributional asymmetry by attaching weights to the distances between the Lorenz curve and the 45-degree line. The measure is equivalent to the Gini if the distribution is symmetric. The alternative measure of inequality inherits good properties from the Gini but is more sensitive to changes in the extremes of the income distribution.
شاخص جینی فقط پراکندگی توزیع را نشان می دهد و نیست نسبت به اختلاف درآمد در دم توزیع بسیار حساس است.در شاخص نابرابری به طور گسترده ای قابل استفاده است تا بتواند توزیع را نیز اندازه گیری کند عدم تقارن با اتصال وزنه ها به مسافت بین منحنی لورنز و خط 45 درجه.در صورت توزیع معادل جینی است متقارن استاندازه گیری جایگزین نابرابری خواص خوبی را به ارث می برد از جینی اما نسبت به تغییر در افراط و تفریط درآمد حساس تر است توزیع
30,471
This study aims to show the fundamental difference between logistic regression and Bayesian classifiers in the case of exponential and unexponential families of distributions, yielding the following findings. First, the logistic regression is a less general representation of a Bayesian classifier. Second, one should suppose distributions of classes for the correct specification of logistic regression equations. Third, in specific cases, there is no difference between predicted probabilities from correctly specified generative Bayesian classifier and discriminative logistic regression.
این مطالعه با هدف نشان دادن تفاوت اساسی بین لجستیک رگرسیون و طبقه بندی کننده های بیزی در مورد نمایی و خانواده های غیرمجاز توزیع ، یافته های زیر را ارائه می دهند. اول ، رگرسیون لجستیک نمایندگی کمتری از یک بیزی است طبقه بندی.دوم ، باید تصور کرد که توزیع کلاس ها برای صحیح است مشخصات معادلات رگرسیون لجستیک.سوم ، در موارد خاص ، آنجا هیچ تفاوتی بین احتمالات پیش بینی شده از درست مشخص نشده است طبقه بندی کننده مولد بیزی و رگرسیون لجستیک تبعیض آمیز.
30,472
We develop a new approach for identifying and estimating average causal effects in panel data under a linear factor model with unmeasured confounders. Compared to other methods tackling factor models such as synthetic controls and matrix completion, our method does not require the number of time periods to grow infinitely. Instead, we draw inspiration from the two-way fixed effect model as a special case of the linear factor model, where a simple difference-in-differences transformation identifies the effect. We show that analogous, albeit more complex, transformations exist in the more general linear factor model, providing a new means to identify the effect in that model. In fact many such transformations exist, called bridge functions, all identifying the same causal effect estimand. This poses a unique challenge for estimation and inference, which we solve by targeting the minimal bridge function using a regularized estimation approach. We prove that our resulting average causal effect estimator is root-N consistent and asymptotically normal, and we provide asymptotically valid confidence intervals. Finally, we provide extensions for the case of a linear factor model with time-varying unmeasured confounders.
ما یک رویکرد جدید برای شناسایی و تخمین میانگین علی ایجاد می کنیم اثرات در داده های پانل تحت یک مدل فاکتور خطی با مخدوشان اندازه گیری نشده. در مقایسه با سایر روشها مدل های فاکتور مانند کنترل مصنوعی و تکمیل ماتریس ، روش ما به تعداد دوره های زمانی نیاز ندارد بی نهایت رشد کنید.در عوض ، ما از اثر ثابت دو طرفه الهام می گیریم مدل به عنوان یک مورد خاص از مدل فاکتور خطی ، که در آن ساده است تفاوت در اختلافات ، اثر را مشخص می کند.ما نشان می دهیم که تحولات مشابه ، البته پیچیده تر ، به طور کلی وجود دارد مدل فاکتور خطی ، فراهم کردن وسیله جدیدی برای شناسایی اثر در آن مدل.در واقع بسیاری از این تحولات وجود دارد ، به نام توابع پل ، همه شناسایی همان برآورد اثر علی.این یک چالش منحصر به فرد برای تخمین و استنباط ، که ما با هدف قرار دادن پل حداقل آن را حل می کنیم عملکرد با استفاده از یک رویکرد تخمین منظم.ما ثابت می کنیم که نتیجه ما برآوردگر اثر علیت متوسط ​​ریشه N سازگار و بدون علامت طبیعی است ، و ما فواصل اطمینان بدون علامت معتبر را ارائه می دهیم.سرانجام ، ما ارائه می دهیم پسوندها برای مورد یک مدل فاکتور خطی با عدم اندازه گیری زمان گیج کننده
30,541
A new integer-valued autoregressive process (INAR) with Generalised Lagrangian Katz (GLK) innovations is defined. We show that our GLK-INAR process is stationary, discrete semi-self-decomposable, infinite divisible, and provides a flexible modelling framework for count data allowing for under- and over-dispersion, asymmetry, and excess of kurtosis. A Bayesian inference framework and an efficient posterior approximation procedure based on Markov Chain Monte Carlo are provided. The proposed model family is applied to a Google Trend dataset which proxies the public concern about climate change around the world. The empirical results provide new evidence of heterogeneity across countries and keywords in the persistence, uncertainty, and long-run public awareness level.
یک فرآیند جدید خودجوش با ارزش عدد صحیح (INAR) با تعمیم یافته نوآوری های Lagrangian Katz (GLK) تعریف شده است.ما نشان می دهیم که روند GLK-inar ما ثابت ، گسسته نیمه خود-دبستان ، تقسیم نامتناهی است ، و یک چارچوب مدل سازی انعطاف پذیر برای داده های شمارش فراهم می کند که اجازه می دهد پراکندگی بیش از حد ، عدم تقارن و بیش از حد کورتوز.یک استنباط بیزی چارچوب و یک روش تقریب خلفی کارآمد بر اساس مارکوف زنجیره مونت کارلو ارائه شده است.خانواده مدل پیشنهادی برای a اعمال می شود مجموعه داده های Google Trend که نگرانی عمومی در مورد تغییرات آب و هوا را نشان می دهد سراسر دنیا.نتایج تجربی شواهد جدیدی از ناهمگونی ارائه می دهد در سراسر کشورها و کلمات کلیدی در پایداری ، عدم اطمینان و بلند مدت سطح آگاهی عمومی.
30,473
This paper develops a general methodology to conduct statistical inference for observations indexed by multiple sets of entities. We propose a novel multiway empirical likelihood statistic that converges to a chi-square distribution under the non-degenerate case, where corresponding Hoeffding type decomposition is dominated by linear terms. Our methodology is related to the notion of jackknife empirical likelihood but the leave-out pseudo values are constructed by leaving columns or rows. We further develop a modified version of our multiway empirical likelihood statistic, which converges to a chi-square distribution regardless of the degeneracy, and discover its desirable higher-order property compared to the t-ratio by the conventional Eicker-White type variance estimator. The proposed methodology is illustrated by several important statistical problems, such as bipartite network, generalized estimating equations, and three-way observations.
در این مقاله یک روش کلی برای انجام استنتاج آماری تهیه شده است برای مشاهدات نمایه شده توسط مجموعه های مختلف موجودات.ما یک رمان پیشنهاد می کنیم آمار احتمال تجربی چند جانبه که به یک مربع مجذور همگرا می شود توزیع تحت مورد غیر دفع ، که در آن نوع hoeffding مربوطه تجزیه با اصطلاحات خطی حاکم است.روش ما مربوط به مفهوم احتمال تجربی jackknife اما ارزش های شبه ترک خارج از کشور است با ترک ستون ها یا ردیف ها ساخته شده است.ما بیشتر نسخه اصلاح شده را توسعه می دهیم از آمار احتمال تجربی چند جانبه ما ، که به یک مجذور کای همگرا می شود توزیع بدون در نظر گرفتن انحطاط ، و مطلوب آن را کشف کنید خاصیت مرتبه بالاتر در مقایسه با نسبت T توسط Eicker-White معمولی برآوردگر واریانس نوع.روش پیشنهادی توسط چندین نشان داده شده است مشکلات مهم آماری ، مانند شبکه دو طرفه ، تعمیم یافته است تخمین معادلات و مشاهدات سه طرفه.
30,474
A unified frequency domain cross-validation (FDCV) method is proposed to obtain a heteroskedasticity and autocorrelation consistent (HAC) standard error. This method enables model/tuning parameter selection across both parametric and nonparametric spectral estimators simultaneously. The candidate class for this approach consists of restricted maximum likelihood-based (REML) autoregressive spectral estimators and lag-weights estimators with the Parzen kernel. Additionally, an efficient technique for computing the REML estimators of autoregressive models is provided. Through simulations, the reliability of the FDCV method is demonstrated, comparing favorably with popular HAC estimators such as Andrews-Monahan and Newey-West.
اعتبار سنجی متقاطع دامنه فرکانس یکپارچه (FDCV) ارائه شده است یک استاندارد ناهمگن و همبستگی سازگار (HAC) به دست آورید خطااین روش انتخاب پارامتر مدل/تنظیم را در هر دو امکان پذیر می کند برآوردگرهای طیفی پارامتری و غیر پارامتری به طور همزمان.نامزد کلاس برای این رویکرد شامل حداکثر محدودیت مبتنی بر احتمال (REML) است برآوردگرهای طیفی خودکار و برآوردگرهای وزن تاخیر با پارزن هستهعلاوه بر این ، یک تکنیک کارآمد برای محاسبه برآوردگرهای ReML از مدل های خودکار ارائه شده است.از طریق شبیه سازی ، قابلیت اطمینان از روش FDCV نشان داده شده است ، و مقایسه مطلوب با HAC محبوب برآوردگرانی مانند اندروز-موناهان و نیوی وست.
30,475
We provide a sharp identification region for discrete choice models where consumers' preferences are not necessarily complete and only aggregate choice data is available. Behavior is modeled using an upper and a lower utility for each alternative so that non-comparability can arise. The identification region places intuitive bounds on the probability distribution of upper and lower utilities. We show that the existence of an instrumental variable can be used to reject the hypothesis that the preferences of all consumers are complete. We apply our methods to data from the 2018 mid-term elections in Ohio.
ما یک منطقه شناسایی تیز برای مدل های انتخاب گسسته ارائه می دهیم ترجیحات مصرف کنندگان لزوماً کامل نیست و فقط انتخاب کل است داده ها در دسترس استرفتار با استفاده از یک ابزار بالا و پایین تر برای هر گزینه دیگری به گونه ای که عدم مقایسه بتواند بوجود بیاید.منطقه شناسایی مرزهای بصری را در توزیع احتمال فوقانی و پایین قرار می دهد خدمات رفاهی.ما نشان می دهیم که می توان از وجود یک متغیر ابزاری استفاده کرد برای رد این فرضیه مبنی بر اینکه ترجیحات کلیه مصرف کنندگان کامل است.ما روشهای ما را برای داده های انتخابات میان دوره ای 2018 در اوهایو اعمال کنید.
30,476
Using a state-space system, I forecasted the US Treasury yields by employing frequentist and Bayesian methods after first decomposing the yields of varying maturities into its unobserved term structure factors. Then, I exploited the structure of the state-space model to forecast the Treasury yields and compared the forecast performance of each model using mean squared forecast error. Among the frequentist methods, I applied the two-step Diebold-Li, two-step principal components, and one-step Kalman filter approaches. Likewise, I imposed the five different priors in Bayesian VARs: Diffuse, Minnesota, natural conjugate, the independent normal inverse: Wishart, and the stochastic search variable selection priors. After forecasting the Treasury yields for 9 different forecast horizons, I found that the BVAR with Minnesota prior generally minimizes the loss function. I augmented the above BVARs by including macroeconomic variables and constructed impulse response functions with a recursive ordering identification scheme. Finally, I fitted a sign-restricted BVAR with dummy observations.
با استفاده از یک سیستم فضای دولتی ، من بازده خزانه داری ایالات متحده را با استفاده از آن پیش بینی کردم روشهای مکرر و بیزی پس از تجزیه اول بازده های مختلف سررسید در عوامل ساختار مدت غیرقابل کنترل آن.سپس ، من سوءاستفاده کردم ساختار مدل فضای فضا برای پیش بینی بازده خزانه داری و مقایسه شده عملکرد پیش بینی هر مدل با استفاده از خطای پیش بینی مربع میانگین.از جمله روشهای مکرر ، من اصلی دو مرحله ای Diebold-LI ، دو مرحله ای را اعمال کردم مؤلفه ها ، و فیلتر کلمن یک مرحله ای.به همین ترتیب ، من پنج نفر را تحمیل کردم مقدمات مختلف در Bayesian Vars: پراکنده ، مینسوتا ، کونژوگه طبیعی ، معکوس طبیعی مستقل: ویشارت ، و متغیر جستجوی تصادفی انتخاب مقدماتی.پس از پیش بینی بازده خزانه برای 9 متفاوت پیش بینی افق ، فهمیدم که BVAR با مینسوتا به طور کلی عملکرد از دست دادن را به حداقل می رساند.من BVAR های فوق را با استفاده از آن افزودم متغیرهای کلان اقتصادی و توابع پاسخ تکانه ساخته شده با a طرح شناسایی سفارش بازگشتی.سرانجام ، من یک محدودیت محدود کردم bvar با مشاهدات ساختگی.
30,477
We consider a causal inference model in which individuals interact in a social network and they may not comply with the assigned treatments. In particular, we suppose that the form of network interference is unknown to researchers. To estimate meaningful causal parameters in this situation, we introduce a new concept of exposure mapping, which summarizes potentially complicated spillover effects into a fixed dimensional statistic of instrumental variables. We investigate identification conditions for the intention-to-treat effects and the average treatment effects for compliers, while explicitly considering the possibility of misspecification of exposure mapping. Based on our identification results, we develop nonparametric estimation procedures via inverse probability weighting. Their asymptotic properties, including consistency and asymptotic normality, are investigated using an approximate neighborhood interference framework. For an empirical illustration, we apply our method to experimental data on the anti-conflict intervention school program. The proposed methods are readily available with the companion R package latenetwork.
ما یک مدل استنباط علی را در نظر می گیریم که در آن افراد در یک تعامل دارند شبکه اجتماعی و آنها ممکن است مطابق با درمان های اختصاصی نباشند.که در به ویژه ، ما تصور می کنیم که شکل تداخل شبکه ناشناخته است محققانبرای برآورد پارامترهای علی معنادار در این شرایط ، ما مفهوم جدیدی از نقشه برداری از قرار گرفتن در معرض را معرفی کنید ، که به طور بالقوه خلاصه می شود اثرات سرریز پیچیده به یک آمار بعدی ثابت از متغیرهای ابزاری.ما شرایط شناسایی را برای اثرات قصد به درمان و میانگین اثرات درمانی برای تعارفات ، در حالی که صریحاً امکان شناسایی اشتباه قرار گرفتن در معرض را در نظر می گیرد نقشه برداری.بر اساس نتایج شناسایی ما ، ما غیرپارامتری ایجاد می کنیم روشهای تخمین از طریق وزن احتمال معکوس.بدون علامت آنها خواص ، از جمله قوام و نرمال بودن بدون علامت ، مورد بررسی قرار گرفته است با استفاده از یک چارچوب تداخل تقریبی محله.برای یک تجربی تصویر ، ما روش خود را برای داده های تجربی در مورد ضد درگیری اعمال می کنیم برنامه مدرسه مداخله.روشهای پیشنهادی به راحتی در دسترس هستند بسته Companion R Latenetwork.
30,478
This paper develops an individual-based stochastic network SIR model for the empirical analysis of the Covid-19 pandemic. It derives moment conditions for the number of infected and active cases for single as well as multigroup epidemic models. These moment conditions are used to investigate the identification and estimation of the transmission rates. The paper then proposes a method that jointly estimates the transmission rate and the magnitude of under-reporting of infected cases. Empirical evidence on six European countries matches the simulated outcomes once the under-reporting of infected cases is addressed. It is estimated that the number of actual cases could be between 4 to 10 times higher than the reported numbers in October 2020 and declined to 2 to 3 times in April 2021. The calibrated models are used in the counterfactual analyses of the impact of social distancing and vaccination on the epidemic evolution, and the timing of early interventions in the UK and Germany.
این مقاله یک مدل شبکه تصادفی مبتنی بر فردی را برای آن تهیه می کند تجزیه و تحلیل تجربی از همه گیر Covid-19.این شرایط لحظه ای را برای تعداد موارد آلوده و فعال برای تک و چند گروه مدل های اپیدمی.این شرایط لحظه ای برای بررسی استفاده می شود شناسایی و تخمین نرخ انتقال.کاغذ سپس روشی را پیشنهاد می کند که به طور مشترک نرخ انتقال و بزرگی گزارش زیر موارد آلوده.شواهد تجربی در مورد شش کشورهای اروپایی پس از گزارش زیر ، نتایج شبیه سازی شده را مطابقت می دهند موارد آلوده مورد بررسی قرار می گیرد.تخمین زده می شود که تعداد موارد واقعی می تواند بین 4 تا 10 برابر بیشتر از شماره های گزارش شده در اکتبر 2020 باشد و در آوریل 2021 به 2 تا 3 بار خودداری کرد. از مدل های کالیبره شده در تجزیه و تحلیل ضد خلاف تأثیر فاصله و واکسیناسیون اجتماعی در مورد تکامل اپیدمی و زمان مداخلات اولیه در انگلیس و آلمان
30,485
We study estimation of the conditional tail average treatment effect (CTATE), defined as a difference between conditional tail expectations of potential outcomes. The CTATE can capture heterogeneity and deliver aggregated local information of treatment effects over different quantile levels, and is closely related to the notion of second order stochastic dominance and the Lorenz curve. These properties render it a valuable tool for policy evaluations. We consider a semiparametric treatment effect framework under endogeneity for the CTATE estimation using a newly introduced class of consistent loss functions jointly for the conditioanl tail expectation and quantile. We establish asymptotic theory of our proposed CTATE estimator and provide an efficient algorithm for its implementation. We then apply the method to the evaluation of effects from participating in programs of the Job Training Partnership Act in the US.
ما تخمین از اثر متوسط ​​درمان دم شرطی (CTATE) را بررسی می کنیم ، به عنوان تفاوت بین انتظارات دم شرطی از پتانسیل تعریف شده است عواقب.CTATE می تواند ناهمگونی را به دست آورد و محلی جمع شده را تحویل دهد اطلاعات مربوط به اثرات درمانی بر روی سطوح مختلف ، و از نزدیک است مربوط به مفهوم تسلط تصادفی مرتبه دوم و لورنز منحنیاین خصوصیات آن را به ابزاری ارزشمند برای ارزیابی سیاست تبدیل می کند.ما یک چارچوب اثر درمانی نیمهرامتری تحت درون زایی را در نظر بگیرید برآورد CTATE با استفاده از یک کلاس تازه معرفی شده از توابع از دست دادن مداوم به طور مشترک برای انتظار دم ConditioAnl و کمی.ما تأسیس می کنیم نظریه بدون علامت از برآوردگر CTATE پیشنهادی ما و ارائه کارآمد الگوریتم برای اجرای آن.ما سپس روش را برای ارزیابی استفاده می کنیم تأثیرات شرکت در برنامه های قانون مشارکت آموزش شغلی در ایالات متحده آمریکا.
30,479
We develop new semiparametric methods for estimating treatment effects. We focus on settings where the outcome distributions may be thick tailed, where treatment effects may be small, where sample sizes are large and where assignment is completely random. This setting is of particular interest in recent online experimentation. We propose using parametric models for the treatment effects, leading to semiparametric models for the outcome distributions. We derive the semiparametric efficiency bound for the treatment effects for this setting, and propose efficient estimators. In the leading case with constant quantile treatment effects one of the proposed efficient estimators has an interesting interpretation as a weighted average of quantile treatment effects, with the weights proportional to minus the second derivative of the log of the density of the potential outcomes. Our analysis also suggests an extension of Huber's model and trimmed mean to include asymmetry.
ما روشهای جدید نیمهرامتری را برای برآورد اثرات درمانی ایجاد می کنیم.ما روی تنظیماتی تمرکز کنید که توزیع نتیجه ممکن است ضخیم باشد ، جایی که اثرات درمانی ممکن است کوچک باشد ، جایی که اندازه نمونه ها بزرگ و در کجا هستند انتساب کاملاً تصادفی است.این تنظیمات مورد توجه ویژه ای است آزمایش آنلاین اخیر.ما با استفاده از مدلهای پارامتری برای اثرات درمانی ، منجر به مدل های نیمهرامتری برای نتیجه توزیعما کارآیی نیمهرامتری را برای درمان به دست می آوریم اثرات این تنظیم ، و برآوردگرهای کارآمد را پیشنهاد می کند.در مورد پیشرو با اثرات درمانی کمی ثابت یکی از کارآمدهای پیشنهادی برآوردگرها تعبیر جالبی به عنوان میانگین وزنی کمیت دارند اثرات درمانی ، با وزن متناسب با منهای مشتق دوم ورود به سیستم چگالی نتایج بالقوه.تجزیه و تحلیل ما همچنین نشان می دهد گسترش مدل هوبر و میانگین برش شامل عدم تقارن.
30,480
Pervasive cross-section dependence is increasingly recognized as a characteristic of economic data and the approximate factor model provides a useful framework for analysis. Assuming a strong factor structure where $\Lop\Lo/N^\alpha$ is positive definite in the limit when $\alpha=1$, early work established convergence of the principal component estimates of the factors and loadings up to a rotation matrix. This paper shows that the estimates are still consistent and asymptotically normal when $\alpha\in(0,1]$ albeit at slower rates and under additional assumptions on the sample size. The results hold whether $\alpha$ is constant or varies across factor loadings. The framework developed for heterogeneous loadings and the simplified proofs that can be also used in strong factor analysis are of independent interest.
وابستگی مقطعی فراگیر به طور فزاینده ای به عنوان یک شناخته می شود مشخصه داده های اقتصادی و مدل فاکتور تقریبی چارچوب مفید برای تجزیه و تحلیل.با فرض ساختار عاملی قوی که در آن $ \ lop \ lo/n^\ alpha $ در حد قطعی مثبت است وقتی $ \ alpha = 1 $ ، زود است کار ایجاد همگرایی برآوردهای مؤلفه اصلی عوامل و بارگذاری تا یک ماتریس چرخش.این مقاله نشان می دهد که تخمین ها هنوز هم سازگار و از نظر غیر عادی طبیعی هستند وقتی $ \ alpha \ in (0،1] $ البته با نرخ کندتر و تحت فرضیات اضافی در مورد اندازه نمونه.در نتایج معتقدند که آیا \ alpha $ ثابت است یا در بارهای عامل متفاوت است.در چارچوب برای بارهای ناهمگن و اثبات ساده ای که ایجاد شده است همچنین می توان در تجزیه و تحلیل عاملی قوی مورد استفاده قرار گرفت.
30,481
Autoregressive conditional duration (ACD) models are primarily used to deal with data arising from times between two successive events. These models are usually specified in terms of a time-varying conditional mean or median duration. In this paper, we relax this assumption and consider a conditional quantile approach to facilitate the modeling of different percentiles. The proposed ACD quantile model is based on a skewed version of Birnbaum-Saunders distribution, which provides better fitting of the tails than the traditional Birnbaum-Saunders distribution, in addition to advancing the implementation of an expectation conditional maximization (ECM) algorithm. A Monte Carlo simulation study is performed to assess the behavior of the model as well as the parameter estimation method and to evaluate a form of residual. A real financial transaction data set is finally analyzed to illustrate the proposed approach.
مدلهای مدت زمان مشروط (ACD) در درجه اول برای معامله استفاده می شوند با داده های ناشی از زمان بین دو رویداد پی در پی.این مدل ها هستند معمولاً از نظر میانگین مشروط یا میانگین مشروط مشخص شده است مدت زمان.در این مقاله ، ما این فرض را آرام می کنیم و مشروط را در نظر می گیریم رویکرد کمی برای تسهیل مدل سازی صدک های مختلف.در مدل Quantile ACD پیشنهادی براساس نسخه ای از رنگهای Birnbaum-Saunders ساخته شده است توزیع ، که اتصالات بهتری از دم را نسبت به سنتی فراهم می کند توزیع Birnbaum-Saunders ، علاوه بر پیشبرد اجرای الگوریتم حداکثر سازی مشروط انتظار (ECM).یک مونت کارلو مطالعه شبیه سازی برای ارزیابی رفتار مدل و همچنین انجام می شود روش تخمین پارامتر و ارزیابی نوعی از باقیمانده.یک واقعی مجموعه داده های معامله مالی سرانجام برای نشان دادن پیشنهادی مورد تجزیه و تحلیل قرار می گیرد رویکرد.
30,482
Implicit copulas are the most common copula choice for modeling dependence in high dimensions. This broad class of copulas is introduced and surveyed, including elliptical copulas, skew $t$ copulas, factor copulas, time series copulas and regression copulas. The common auxiliary representation of implicit copulas is outlined, and how this makes them both scalable and tractable for statistical modeling. Issues such as parameter identification, extended likelihoods for discrete or mixed data, parsimony in high dimensions, and simulation from the copula model are considered. Bayesian approaches to estimate the copula parameters, and predict from an implicit copula model, are outlined. Particular attention is given to implicit copula processes constructed from time series and regression models, which is at the forefront of current research. Two econometric applications -- one from macroeconomic time series and the other from financial asset pricing -- illustrate the advantages of implicit copula models.
کوپل های ضمنی رایج ترین انتخاب کوپلا برای مدل سازی وابستگی در ابعاد بالااین طبقه گسترده از کوپول ها معرفی و مورد بررسی قرار می گیرد ، از جمله کوپل های بیضوی ، کوپول های $ t $ ، کپی های فاکتور ، سری زمانی کوپول ها و کوپل های رگرسیون.نمایندگی مشترک کمکی ضمنی کوپول ها تشریح شده است ، و اینکه چگونه این امر باعث می شود که آنها هم مقیاس پذیر و هم قابل تراکت باشند مدل سازی آماری.موضوعاتی مانند شناسایی پارامتر ، گسترش یافته احتمال داده های گسسته یا مختلط ، پارسیمونی در ابعاد بالا و شبیه سازی از مدل Copula در نظر گرفته شده است.رویکردهای بیزی به پارامترهای Copula را تخمین بزنید ، و از یک مدل ضمنی Copula پیش بینی کنید. تشریح شدهتوجه ویژه ای به فرآیندهای ضمنی کوپول ها داده می شود ساخته شده از سری زمانی و مدل های رگرسیون ، که در خط مقدم است تحقیقات فعلیدو برنامه اقتصاد سنجی - یکی از کلان اقتصادی سری زمانی و دیگری از قیمت گذاری دارایی های مالی - نشان می دهد مزایای مدل های کوپول ضمنی.
30,483
Truncated conditional expectation functions are objects of interest in a wide range of economic applications, including income inequality measurement, financial risk management, and impact evaluation. They typically involve truncating the outcome variable above or below certain quantiles of its conditional distribution. In this paper, based on local linear methods, a novel, two-stage, nonparametric estimator of such functions is proposed. In this estimation problem, the conditional quantile function is a nuisance parameter that has to be estimated in the first stage. The proposed estimator is insensitive to the first-stage estimation error owing to the use of a Neyman-orthogonal moment in the second stage. This construction ensures that inference methods developed for the standard nonparametric regression can be readily adapted to conduct inference on truncated conditional expectations. As an extension, estimation with an estimated truncation quantile level is considered. The proposed estimator is applied in two empirical settings: sharp regression discontinuity designs with a manipulated running variable and randomized experiments with sample selection.
توابع انتظارات شرطی کوتاه اشیاء مورد علاقه در گسترده ای هستند طیف وسیعی از برنامه های اقتصادی ، از جمله اندازه گیری نابرابری درآمدی ، مدیریت ریسک مالی و ارزیابی تأثیر.آنها به طور معمول درگیر هستند کوتاه کردن متغیر نتیجه در بالا یا زیر مقدار خاصی از آن توزیع مشروط.در این مقاله ، بر اساس روش های خطی محلی ، a برآوردگر جدید ، دو مرحله ای ، غیرپارامتری چنین توابع ارائه شده است.که در این مشکل تخمین ، عملکرد کمی مشروط یک مزاحمت است پارامتر که باید در مرحله اول تخمین زده شود.برآوردگر پیشنهادی به دلیل استفاده از a نسبت به خطای تخمین مرحله اول حساس نیست لحظه Neyman-orthogonal در مرحله دوم.این ساخت و ساز تضمین می کند روشهای استنباط توسعه یافته برای رگرسیون استاندارد غیرپارامتری می تواند باشد به آسانی برای انجام استنباط در انتظارات مشروط کوتاه سازگار است.مانند پسوند ، برآورد با سطح کمی تخمین زده شده است در نظر گرفته شده.برآوردگر پیشنهادی در دو تنظیم تجربی اعمال می شود: تیز طرح های ناپیوستگی رگرسیون با یک متغیر در حال اجرا دستکاری شده و آزمایش های تصادفی با انتخاب نمونه.
30,484
This paper studies the case of possibly high-dimensional covariates in the regression discontinuity design (RDD) analysis. In particular, we propose estimation and inference methods for the RDD models with covariate selection which perform stably regardless of the number of covariates. The proposed methods combine the local approach using kernel weights with $\ell_{1}$-penalization to handle high-dimensional covariates. We provide theoretical and numerical results which illustrate the usefulness of the proposed methods. Theoretically, we present risk and coverage properties for our point estimation and inference methods, respectively. Under certain special case, the proposed estimator becomes more efficient than the conventional covariate adjusted estimator at the cost of an additional sparsity condition. Numerically, our simulation experiments and empirical example show the robust behaviors of the proposed methods to the number of covariates in terms of bias and variance for point estimation and coverage probability and interval length for inference.
در این مقاله مورد همبستگی های احتمالاً با ابعاد بالا در تجزیه و تحلیل ناپیوستگی رگرسیون (RDD).به طور خاص ، ما پیشنهاد می کنیم روش تخمین و استنباط برای مدل های RDD با انتخاب متغیر که بدون توجه به تعداد متغیرهای متغیر ، پایدار عمل می کنند.پیشنهاد روشها رویکرد محلی را با استفاده از وزن هسته با هم ترکیب می کنند $ \ ell_ {1} $-مجازات برای رسیدگی به متغیرهای متغیر با ابعاد بالا.ما فراهم می کنیم نتایج نظری و عددی که سودمندی را نشان می دهد روشهای پیشنهادیاز لحاظ تئوریکی ، ما ویژگی های خطر و پوشش را برای آن ارائه می دهیم به ترتیب برآورد نقطه و روشهای استنتاج ما.تحت خاص خاص مورد ، برآوردگر پیشنهادی نسبت به متعارف کارآمدتر می شود برآوردگر تنظیم شده متغیر با هزینه یک شرایط اضافی اضافی. از نظر عددی ، آزمایش های شبیه سازی و مثال تجربی ما را قوی نشان می دهد رفتارهای روشهای پیشنهادی به تعداد متغیرهای متغیر از نظر تعصب و واریانس برای برآورد نقطه و احتمال پوشش و طول فاصله برای استنباط
30,542
This article proposes an estimation method to detect breakpoints for linear time series models with their parameters that jump scarcely. Its basic idea owes the group LASSO (group least absolute shrinkage and selection operator). The method practically provides estimates of such time-varying parameters of the models. An example shows that our method can detect each structural breakpoint's date and magnitude.
در این مقاله یک روش تخمین برای تشخیص نقاط شکست برای خطی ارائه شده است مدل های سری زمانی با پارامترهای خود که به سختی می پرند.ایده اصلی آن مدیون گروه Lasso (گروه حداقل کوچک شدن و انتخاب اپراتور انتخاب) است. این روش عملاً تخمین هایی از چنین پارامترهای متغیر زمانی را ارائه می دهد مدل هایک مثال نشان می دهد که روش ما می تواند هر ساختاری را تشخیص دهد تاریخ و بزرگی Breakpoint.
30,486
This paper provides a design-based framework for variance (bound) estimation in experimental analysis. Results are applicable to virtually any combination of experimental design, linear estimator (e.g., difference-in-means, OLS, WLS) and variance bound, allowing for unified treatment and a basis for systematic study and comparison of designs using matrix spectral analysis. A proposed variance estimator reproduces Eicker-Huber-White (aka. "robust", "heteroskedastic consistent", "sandwich", "White", "Huber-White", "HC", etc.) standard errors and "cluster-robust" standard errors as special cases. While past work has shown algebraic equivalences between design-based and the so-called "robust" standard errors under some designs, this paper motivates them for a wide array of design-estimator-bound triplets. In so doing, it provides a clearer and more general motivation for variance estimators.
در این مقاله یک چارچوب مبتنی بر طراحی برای تخمین واریانس (محدود) ارائه شده است در تجزیه و تحلیل تجربی.نتایج برای هر ترکیبی تقریباً کاربرد دارد از طراحی آزمایشی ، برآوردگر خطی (به عنوان مثال ، تفاوت در میانگین ، OLS ، WLS) و واریانس محدود ، امکان درمان یکپارچه و پایه ای برای سیستماتیک مطالعه و مقایسه طرح ها با استفاده از آنالیز طیفی ماتریس.پیشنهادی برآوردگر واریانس Eicker-Huber-White را بازتولید می کند (با نام مستعار. "قوی" ، "سازگار هتروسیکاستی" ، "ساندویچ" ، "سفید" ، "هوبر سفید" ، "HC" و غیره) خطاهای استاندارد و خطاهای استاندارد "خوشه-روبست" به عنوان موارد خاص.در حالی که کار گذشته معادل های جبری را بین طراحی مبتنی بر طراحی و به اصطلاح خطاهای استاندارد "قوی" تحت برخی طرح ها ، این مقاله انگیزه دارد آنها را برای طیف گسترده ای از سه گانه طراحی-تخمین سازنده.در انجام این کار ، آن انگیزه واضح تر و عمومی تری برای برآوردگرهای واریانس فراهم می کند.
30,487
This chapter presents an overview of a specific form of limited dependent variable models, namely discrete choice models, where the dependent (response or outcome) variable takes values which are discrete, inherently ordered, and characterized by an underlying continuous latent variable. Within this setting, the dependent variable may take only two discrete values (such as 0 and 1) giving rise to binary models (e.g., probit and logit models) or more than two values (say $j=1,2, \ldots, J$, where $J$ is some integer, typically small) giving rise to ordinal models (e.g., ordinal probit and ordinal logit models). In these models, the primary goal is to model the probability of responses/outcomes conditional on the covariates. We connect the outcomes of a discrete choice model to the random utility framework in economics, discuss estimation techniques, present the calculation of covariate effects and measures to assess model fitting. Some recent advances in discrete data modeling are also discussed. Following the theoretical review, we utilize the binary and ordinal models to analyze public opinion on marijuana legalization and the extent of legalization -- a socially relevant but controversial topic in the United States. We obtain several interesting results including that past use of marijuana, belief about legalization and political partisanship are important factors that shape the public opinion.
در این فصل مروری بر یک شکل خاص از وابسته محدود ارائه شده است مدل های متغیر ، یعنی مدل های انتخاب گسسته ، که در آن وابسته است (پاسخ یا نتیجه) متغیر مقادیری را که گسسته ، ذاتاً سفارش داده می شوند ، می گیرد و مشخص شده توسط یک متغیر پنهان مداوم.در این تنظیم ، متغیر وابسته ممکن است فقط دو مقدار گسسته داشته باشد (مانند 0 و 1) ایجاد مدلهای باینری (به عنوان مثال ، مدل های پروبیت و ورود به سیستم) یا بیش از دو مقادیر (مثلاً $ j = 1،2 ، \ ldots ، j $ ، جایی که $ j $ مقداری عدد صحیح است ، به طور معمول کوچک) ایجاد مدلهای معمولی (به عنوان مثال ، مدلهای پروبیت و الگوریته معمولی). در این مدل ها ، هدف اصلی مدل سازی احتمال از آن است پاسخ ها/نتایج مشروط به متغیرهای متغیر.ما نتایج a را به هم وصل می کنیم مدل انتخاب گسسته به چارچوب ابزار تصادفی در اقتصاد ، بحث کنید تکنیک های تخمین ، محاسبه اثرات متغیر و اقدامات برای ارزیابی اتصالات مدل.برخی از پیشرفت های اخیر در داده های گسسته مدل سازی نیز مورد بحث قرار گرفته است.پس از بررسی نظری ، ما از مدلهای باینری و منظم برای تجزیه و تحلیل افکار عمومی در مورد قانونی شدن ماری جوانا و میزان قانونی بودن - یک موضوع مرتبط با اجتماعی اما بحث برانگیز در ایالات متحده.ما چندین نتیجه جالب از جمله گذشته به دست می آوریم استفاده از ماری جوانا ، اعتقاد به قانونی بودن و حزب سیاسی است عوامل مهمی که افکار عمومی را شکل می دهند.
30,488
This paper aims to project a climate change scenario using a stochastic paleotemperature time series model and compare it with the prevailing consensus. The ARIMA - Autoregressive Integrated Moving Average Process model was used for this purpose. The results show that the parameter estimates of the model were below what is established by the anthropogenic current and governmental organs, such as the IPCC (UN), considering a 100-year scenario, which suggests a period of temperature reduction and a probable cooling. Thus, we hope with this study to contribute to the discussion by adding a statistical element of paleoclimate in counterpoint to the current scientific consensus and place the debate in a long-term historical dimension, in line with other existing research on the topic.
این مقاله با هدف طرح یک سناریوی تغییر آب و هوا با استفاده از یک تصادفی مدل سری زمانی paleotemperature و مقایسه آن با غالب اجماع، وفاق.مدل متوسط ​​فرآیند متحرک ARIMA - Autoregresgive یکپارچه برای این منظور استفاده شدنتایج نشان می دهد که برآورد پارامتر از مدل زیر آنچه توسط جریان انسان شناسی ایجاد شده است و اندامهای دولتی ، مانند IPCC (UN) ، با توجه به سناریوی 100 ساله ، که نشان می دهد دوره کاهش دما و خنک کننده احتمالی.بدین ترتیب، ما امیدواریم که با این مطالعه با اضافه کردن یک آماری در بحث کمک کند عنصر paleoclimate در نقطه مقابل به اجماع علمی فعلی و بحث را در یک بعد تاریخی طولانی مدت ، مطابق با دیگران قرار دهید تحقیقات موجود در مورد موضوع.
30,489
When randomized trials are run in a marketplace equilibriated by prices, interference arises. To analyze this, we build a stochastic model of treatment effects in equilibrium. We characterize the average direct (ADE) and indirect treatment effect (AIE) asymptotically. A standard RCT can consistently estimate the ADE, but confidence intervals and AIE estimation require price elasticity estimates, which we provide using a novel experimental design. We define heterogeneous treatment effects and derive an optimal targeting rule that meets an equilibrium stability condition. We illustrate our results using a freelance labor market simulation and data from a cash transfer experiment.
هنگامی که کارآزمایی های تصادفی در یک بازار تعادل با قیمت ها انجام می شود ، تداخل بوجود می آید.برای تجزیه و تحلیل این ، ما یک مدل تصادفی از درمان می سازیم اثرات در تعادل.ما میانگین مستقیم (ADE) و غیرمستقیم را توصیف می کنیم اثر درمانی (AIE) بدون علامت.یک RCT استاندارد می تواند به طور مداوم تخمین بزند ADE ، اما فواصل اطمینان و تخمین AIE به کشش قیمت نیاز دارند تخمین ها ، که ما با استفاده از یک طرح آزمایشی جدید ارائه می دهیم.ما تعریف می کنیم اثرات درمانی ناهمگن و یک قانون هدفمند بهینه را که برآورده می شود ، به دست می آورند یک وضعیت پایداری تعادل.ما نتایج خود را با استفاده از یک آزاد نشان می دهیم شبیه سازی بازار کار و داده های آزمایش انتقال نقدی.
30,490
Sibling fixed effects (FE) models are useful for estimating causal treatment effects while offsetting unobserved sibling-invariant confounding. However, treatment estimates are biased if an individual's outcome affects their sibling's outcome. We propose a robustness test for assessing the presence of outcome-to-outcome interference in linear two-sibling FE models. We regress a gain-score--the difference between siblings' continuous outcomes--on both siblings' treatments and on a pre-treatment observed FE. Under certain restrictions, the observed FE's partial regression coefficient signals the presence of outcome-to-outcome interference. Monte Carlo simulations demonstrated the robustness test under several models. We found that an observed FE signaled outcome-to-outcome spillover if it was directly associated with an sibling-invariant confounder of treatments and outcomes, directly associated with a sibling's treatment, or directly and equally associated with both siblings' outcomes. However, the robustness test collapsed if the observed FE was directly but differentially associated with siblings' outcomes or if outcomes affected siblings' treatments.
مدلهای اثرات ثابت خواهر و برادر برای برآورد درمان علیت مفید هستند اثرات در هنگام جبران مخرب خواهر و برادر بی توجه.با این حال، اگر نتیجه فرد بر آنها تأثیر بگذارد ، تخمین های درمانی مغرضانه هستند نتیجه خواهر و برادرما یک آزمایش استحکام برای ارزیابی حضور ارائه می دهیم تداخل نتیجه به نتیجه در مدل های دو خواهر و برادر خطی.ما رکود امتیاز کسب-تفاوت بین نتایج مداوم خواهر و برادر-در هر دو درمانهای خواهر و برادر و در مورد پیش درمانی مشاهده شده است.تحت الشعاع محدودیت ها ، ضریب رگرسیون جزئی مشاهده شده آهن را نشان می دهد حضور تداخل نتیجه به نتیجه.شبیه سازی مونت کارلو تست استحکام را تحت چندین مدل نشان داد.ما متوجه شدیم که اگر مستقیماً در ارتباط باشد ، FE را مشاهده می کند. مستقیماً با یک خواهر و برادر متغیر از معالجه و نتایج ، مستقیماً همراه با درمان خواهر و برادر ، یا به طور مستقیم و به همان اندازه با نتایج هر دو خواهر و برادر.با این حال ، در صورت مشاهده ، آزمایش استحکام از بین رفت آه نتایج تحت تأثیر درمان خواهران و برادران قرار گرفت.
30,491
A new mixture vector autoregressive model based on Gaussian and Student's $t$ distributions is introduced. As its mixture components, our model incorporates conditionally homoskedastic linear Gaussian vector autoregressions and conditionally heteroskedastic linear Student's $t$ vector autoregressions. For a $p$th order model, the mixing weights depend on the full distribution of the preceding $p$ observations, which leads to attractive theoretical properties such as ergodicity and full knowledge of the stationary distribution of $p+1$ consecutive observations. A structural version of the model with statistically identified shocks and a time-varying impact matrix is also proposed. The empirical application studies asymmetries in the effects of the Euro area monetary policy shock. Our model identifies two regimes: a high-growth regime that is characterized by positive output gap and mainly prevailing before the Financial crisis, and a low-growth regime that characterized by negative but volatile output gap and mainly prevailing after the Financial crisis. The average inflationary effects of the monetary policy shock are stronger in the high-growth regime than in the low-growth regime. On average, the effects of an expansionary shock are less enduring than of a contractionary shock. The CRAN distributed R package gmvarkit accompanies the paper.
یک مدل جدید وکتور وکتور مخلوط بر اساس $ t $ گاوسی و دانشجویی توزیع معرفی شده است.به عنوان اجزای مخلوط آن ، مدل ما گنجانیده شده است به طور مشروط به طور مشروط به اتورهای وکتور $ t $ دانش آموز خطی ناهمگن.برای یک مدل مرتبه T $ P ، وزن مخلوط به توزیع کامل این بستگی دارد مشاهدات قبل از $ P ، که منجر به خصوصیات نظری جذاب می شود مانند ergodicity و دانش کامل در مورد توزیع ثابت $ P+1 $ مشاهدات متوالی.نسخه ساختاری مدل با آماری شوک های شناسایی شده و یک ماتریس ضربه متغیر متغیر نیز پیشنهاد شده است.در مطالعات کاربرد تجربی عدم تقارن در اثرات منطقه یورو شوک سیاست پولی.مدل ما دو رژیم را مشخص می کند: یک رژیم با رشد بالا که با شکاف خروجی مثبت مشخص می شود و عمدتاً قبل از آن غالب است بحران مالی ، و یک رژیم با رشد کم که توسط منفی اما مشخص می شود شکاف خروجی فرار و عمدتاً پس از بحران مالی غالب است.در میانگین اثرات تورمی شوک سیاست پولی در آن قوی تر است رژیم با رشد بالا نسبت به رژیم کم رشد.به طور متوسط ​​، اثرات یک شوک انبساطی نسبت به یک شوک انقباضی کمتر ماندگار است.کران بسته R توزیع Gmvarkit با مقاله همراه است.
30,492
A year following the initial COVID-19 outbreak in China, many countries have approved emergency vaccines. Public-health practitioners and policymakers must understand the predicted populational willingness for vaccines and implement relevant stimulation measures. This study developed a framework for predicting vaccination uptake rate based on traditional clinical data-involving an autoregressive model with autoregressive integrated moving average (ARIMA)- and innovative web search queries-involving a linear regression with ordinary least squares/least absolute shrinkage and selection operator, and machine-learning with boost and random forest. For accuracy, we implemented a stacking regression for the clinical data and web search queries. The stacked regression of ARIMA (1,0,8) for clinical data and boost with support vector machine for web data formed the best model for forecasting vaccination speed in the US. The stacked regression provided a more accurate forecast. These results can help governments and policymakers predict vaccine demand and finance relevant programs.
یک سال پس از شیوع اولیه Covid-19 در چین ، بسیاری از کشورها واکسن های اضطراری تأیید شده.پزشکان و سیاستگذاران بهداشت عمومی باید تمایل جمعیتی پیش بینی شده برای واکسن ها و اجرای آن را درک کنید اقدامات تحریک مربوطه.این مطالعه چارچوبی برای پیش بینی ایجاد کرده است میزان جذب واکسیناسیون بر اساس داده های بالینی سنتی درگیر مدل خودکار با میانگین متحرک یکپارچه خودجوش (ARIMA)- و جستجوی وب نوآورانه جستجوی رگرسیون خطی با حداقل معمولی مربع ها/حداقل عملگر کوچک و انتخابی مطلق و یادگیری ماشین با تقویت و جنگل تصادفی.برای صحت ، ما یک انباشت را اجرا کردیم رگرسیون برای داده های بالینی و نمایش داده های جستجوی وب.رگرسیون انباشته از Arima (1،0،8) برای داده های بالینی و تقویت با دستگاه بردار پشتیبانی برای داده های وب بهترین مدل را برای پیش بینی سرعت واکسیناسیون در ایالات متحده تشکیل دادند.در رگرسیون انباشته پیش بینی دقیق تری ارائه داد.این نتایج می تواند کمک کند دولت ها و سیاستگذاران پیش بینی تقاضای واکسن و امور مالی مربوطه برنامه ها.
30,493
This study presents contemporaneous modeling of asset return and price range within the framework of stochastic volatility with leverage. A new representation of the probability density function for the price range is provided, and its accurate sampling algorithm is developed. A Bayesian estimation using Markov chain Monte Carlo (MCMC) method is provided for the model parameters and unobserved variables. MCMC samples can be generated rigorously, despite the estimation procedure requiring sampling from a density function with the sum of an infinite series. The empirical results obtained using data from the U.S. market indices are consistent with the stylized facts in the financial market, such as the existence of the leverage effect. In addition, to explore the model's predictive ability, a model comparison based on the volatility forecast performance is conducted.
این مطالعه مدل سازی معاصر بازده دارایی و دامنه قیمت را ارائه می دهد در چارچوب نوسانات تصادفی با اهرم.جدید بازنمایی عملکرد چگالی احتمال برای محدوده قیمت است ارائه شده ، و الگوریتم نمونه برداری دقیق آن توسعه یافته است.یک بیزی تخمین با استفاده از روش زنجیره ای مارکوف مونت کارلو (MCMC) برای پارامترهای مدل و متغیرهای بدون نظارت.نمونه های MCMC قابل تولید است با دقت ، با وجود روش تخمین نیاز به نمونه گیری از چگالی عملکرد با مجموع یک سری بی نهایت.نتایج تجربی به دست آمده استفاده از داده های شاخص های بازار ایالات متحده با حقایق تلطیف سازگار است در بازار مالی ، مانند وجود اثر اهرم.که در علاوه بر این ، برای کشف توانایی پیش بینی مدل ، یک مقایسه مدل مبتنی بر در مورد عملکرد پیش بینی نوسانات انجام می شود.
30,494
We propose a simple dynamic model for estimating the relative contagiousness of two virus variants. Maximum likelihood estimation and inference is conveniently invariant to variation in the total number of cases over the sample period and can be expressed as a logistic regression. We apply the model to Danish SARS-CoV-2 variant data. We estimate the reproduction numbers of Alpha and Delta to be larger than that of the ancestral variant by a factor of 1.51 [CI 95%: 1.50, 1.53] and 3.28 [CI 95%: 3.01, 3.58], respectively. In a predominately vaccinated population, we estimate Omicron to be 3.15 [CI 95%: 2.83, 3.50] times more infectious than Delta. Forecasting the proportion of an emerging virus variant is straight forward and we proceed to show how the effective reproduction number for a new variant can be estimated without contemporary sequencing results. This is useful for assessing the state of the pandemic in real time as we illustrate empirically with the inferred effective reproduction number for the Alpha variant.
ما یک مدل پویا ساده برای برآورد مسری نسبی پیشنهاد می کنیم از دو نوع ویروس.حداکثر برآورد احتمال و استنباط است به راحتی متغیر به تغییر در تعداد کل موارد در مورد دوره نمونه و می تواند به عنوان یک رگرسیون لجستیک بیان شود.ما مدل را اعمال می کنیم به داده های نوع SARS-COV-2 دانمارکی.ما تعداد تولید مثل را تخمین می زنیم آلفا و دلتا بزرگتر از نوع اجدادی توسط عاملی هستند 1.51 [CI 95 ٪: 1.50 ، 1.53] و 3.28 [CI 95 ٪: 3.01 ، 3.58].در یک ما عمدتا واکسینه شده جمعیت ، ما Omicron را 3.15 تخمین می زنیم [CI 95 ٪: 2.83 ، 3.50] برابر بیشتر از دلتا عفونی.پیش بینی نسبت یک نوع ویروس در حال ظهور مستقیم به جلو است و ما نشان می دهیم که چگونه تعداد تولید مثل مؤثر برای یک نوع جدید بدون تخمین زده می شود نتایج توالی معاصر.این برای ارزیابی وضعیت مفید است همه گیر در زمان واقعی ، همانطور که ما به صورت تجربی با مؤثر استنباط نشان می دهیم تعداد تولید مثل برای نوع آلفا.
30,495
This paper extends my research applying statistical decision theory to treatment choice with sample data, using maximum regret to evaluate the performance of treatment rules. The specific new contribution is to study as-if optimization using estimates of illness probabilities in clinical choice between surveillance and aggressive treatment. Beyond its specifics, the paper sends a broad message. Statisticians and computer scientists have addressed conditional prediction for decision making in indirect ways, the former applying classical statistical theory and the latter measuring prediction accuracy in test samples. Neither approach is satisfactory. Statistical decision theory provides a coherent, generally applicable methodology.
این مقاله تحقیقات من را با استفاده از تئوری تصمیم آماری گسترش می دهد انتخاب درمان با داده های نمونه ، با استفاده از حداکثر پشیمانی برای ارزیابی عملکرد قوانین درمانی.سهم جدید خاص مطالعه AS-IF است بهینه سازی با استفاده از برآورد احتمالات بیماری در انتخاب بالینی بین نظارت و درمان تهاجمی.فراتر از مشخصات آن ، مقاله پیام گسترده ای ارسال می کند.آمارشناسان و دانشمندان رایانه به آن پرداخته اند پیش بینی مشروط برای تصمیم گیری به روش های غیرمستقیم ، سابق استفاده از نظریه آماری کلاسیک و پیش بینی اندازه گیری دوم دقت در نمونه های آزمایش.هیچ رویکردی رضایت بخش نیست.وابسته به آماری نظریه تصمیم گیری یک روش منسجم و به طور کلی کاربردی را ارائه می دهد.
30,496
One of the most important studies in finance is to find out whether stock returns could be predicted. This research aims to create a new multivariate model, which includes dividend yield, earnings-to-price ratio, book-to-market ratio as well as consumption-wealth ratio as explanatory variables, for future stock returns predictions. The new multivariate model will be assessed for its forecasting performance using empirical analysis. The empirical analysis is performed on S&P500 quarterly data from Quarter 1, 1952 to Quarter 4, 2019 as well as S&P500 monthly data from Month 12, 1920 to Month 12, 2019. Results have shown this new multivariate model has predictability for future stock returns. When compared to other benchmark models, the new multivariate model performs the best in terms of the Root Mean Squared Error (RMSE) most of the time.
یکی از مهمترین مطالعات در زمینه امور مالی ، یافتن سهام است بازده را می توان پیش بینی کرد.این تحقیق با هدف ایجاد یک چند متغیره جدید مدل ، که شامل سود سهام ، نسبت سود به قیمت ، کتاب به بازار است نسبت و همچنین نسبت مصرف-سلامت به عنوان متغیرهای توضیحی ، برای آینده پیش بینی های بازده سهام.مدل چند متغیره جدید برای آن ارزیابی خواهد شد پیش بینی عملکرد با استفاده از تجزیه و تحلیل تجربی.تجزیه و تحلیل تجربی است در داده های سه ماهه S&P500 از سه ماهه 1 ، 1952 تا سه ماهه 4 ، 2019 انجام شده است خوب داده های ماهانه S & P500 از ماه 12 ، 1920 تا 12 ماه 2019 نشان داده شده این مدل چند متغیره جدید دارای پیش بینی برای بازده سهام آینده است. در مقایسه با سایر مدلهای معیار ، مدل جدید چند متغیره انجام می شود بهترین ها از نظر خطای میانگین مربع ریشه (RMSE) بیشتر اوقات.
30,497
Gambits are central to human decision-making. Our goal is to provide a theory of Gambits. A Gambit is a combination of psychological and technical factors designed to disrupt predictable play. Chess provides an environment to study gambits and behavioral game theory. Our theory is based on the Bellman optimality path for sequential decision-making. This allows us to calculate the $Q$-values of a Gambit where material (usually a pawn) is sacrificed for dynamic play. On the empirical side, we study the effectiveness of a number of popular chess Gambits. This is a natural setting as chess Gambits require a sequential assessment of a set of moves (a.k.a. policy) after the Gambit has been accepted. Our analysis uses Stockfish 14.1 to calculate the optimal Bellman $Q$ values, which fundamentally measures if a position is winning or losing. To test whether Bellman's equation holds in play, we estimate the transition probabilities to the next board state via a database of expert human play. This then allows us to test whether the \emph{Gambiteer} is following the optimal path in his decision-making. Our methodology is applied to the popular Stafford and reverse Stafford (a.k.a. Boden-Kieretsky-Morphy) Gambit and other common ones including the Smith-Morra, Goring, Danish and Halloween Gambits. We build on research in human decision-making by proving an irrational skewness preference within agents in chess. We conclude with directions for future research.
گامبیت ها برای تصمیم گیری های انسانی اساسی هستند.هدف ما ارائه یک تئوری است از گامبیتقمار ترکیبی از عوامل روانشناختی و فنی است طراحی شده برای مختل کردن بازی قابل پیش بینی.شطرنج محیطی را برای مطالعه فراهم می کند گامبیت و نظریه بازی رفتاری.نظریه ما مبتنی بر بلمن است مسیر بهینه برای تصمیم گیری متوالی.این به ما اجازه می دهد تا $ q $-مقادیر یک قمار که در آن ماده (معمولاً یک پیاده) برای آن قربانی می شود بازی پویااز طرف تجربی ، ما اثربخشی تعدادی را بررسی می کنیم گام های شطرنج محبوب.این یک محیط طبیعی است زیرا شطرنج های شطرنج به ارزیابی متوالی مجموعه ای از حرکات (سیاست A.K.A.) پس از Gambit پذیرفته شده استتجزیه و تحلیل ما برای محاسبه بهینه از سهام 14.1 استفاده می کند Bellman $ q $ ارزش ها ، که اساساً در صورت برنده شدن یا از دست دادن.برای آزمایش اینکه آیا معادله بلمن در بازی است ، ما تخمین می زنیم احتمالات انتقال به حالت هیئت مدیره بعدی از طریق یک پایگاه داده از متخصص انسان بازی.این به ما اجازه می دهد تا آزمایش کنیم که آیا \ amp {gambiteer} دنبال می شود مسیر بهینه در تصمیم گیری وی.روش ما برای محبوب اعمال می شود Stafford و معکوس Stafford (A.K.A. Boden-Kieretsky-Morphy) قمار و موارد دیگر افراد متداول از جمله Smith-Morra ، Goring ، دانمارکی و هالووین Gambits.ما با اثبات یک کمبود غیر منطقی ، در تصمیم گیری انسان بر اساس تحقیقات ایجاد کنید اولویت در مأمورین در شطرنج.ما با دستورالعمل های آینده نتیجه می گیریم پژوهش.
34,455
We propose an extensive-form solution concept, with players that neglect information from hypothetical events, but make inferences from observed events. Our concept modifies cursed equilibrium (Eyster and Rabin, 2005), and allows that players can be 'cursed about' endogenous information.
ما یک مفهوم راه حل گسترده را با بازیکنانی که غفلت می کنند پیشنهاد می کنیم اطلاعات مربوط به وقایع فرضی ، اما از وقایع مشاهده شده استنباط می شود. مفهوم ما تعادل نفرین شده را اصلاح می کند (Eyster and Rabin ، 2005) ، و اجازه می دهد این بازیکنان می توانند در مورد اطلاعات درون زا "نفرین شوند".
30,498
We develop a Bayesian non-parametric quantile panel regression model. Within each quantile, the response function is a convex combination of a linear model and a non-linear function, which we approximate using Bayesian Additive Regression Trees (BART). Cross-sectional information at the pth quantile is captured through a conditionally heteroscedastic latent factor. The non-parametric feature of our model enhances flexibility, while the panel feature, by exploiting cross-country information, increases the number of observations in the tails. We develop Bayesian Markov chain Monte Carlo (MCMC) methods for estimation and forecasting with our quantile factor BART model (QF-BART), and apply them to study growth at risk dynamics in a panel of 11 advanced economies.
ما یک مدل رگرسیون پانل کمی غیر پارامتری بیزی ایجاد می کنیم.در داخل هر کمی ، عملکرد پاسخ ترکیبی محدب از یک مدل خطی است و یک عملکرد غیر خطی ، که ما با استفاده از افزودنی بیزی تقریب می دهیم درختان رگرسیون (BART).اطلاعات مقطعی در Pth Quantile است از طریق یک فاکتور نهفته هتروسکوپی به طور مشروط ضبط شده است.در ویژگی غیر پارامتری مدل ما انعطاف پذیری را افزایش می دهد ، در حالی که پانل ویژگی ، با بهره برداری از اطلاعات متقابل کشور ، تعداد آنها را افزایش می دهد مشاهدات در دم.ما زنجیره مارکوف بیزی مونت کارلو (MCMC) را توسعه می دهیم روشهای تخمین و پیش بینی با مدل بارت فاکتور کمی ما (QF-BART) ، و آنها را برای مطالعه رشد در پویایی خطر در یک صفحه 11 استفاده کنید اقتصاد پیشرفته.
30,499
A recent literature considers causal inference using noisy proxies for unobserved confounding factors. The proxies are divided into two sets that are independent conditional on the confounders. One set of proxies are `negative control treatments' and the other are `negative control outcomes'. Existing work applies to low-dimensional settings with a fixed number of proxies and confounders. In this work we consider linear models with many proxy controls and possibly many confounders. A key insight is that if each group of proxies is strictly larger than the number of confounding factors, then a matrix of nuisance parameters has a low-rank structure and a vector of nuisance parameters has a sparse structure. We can exploit the rank-restriction and sparsity to reduce the number of free parameters to be estimated. The number of unobserved confounders is not known a priori but we show that it is identified, and we apply penalization methods to adapt to this quantity. We provide an estimator with a closed-form as well as a doubly-robust estimator that must be evaluated using numerical methods. We provide conditions under which our doubly-robust estimator is uniformly root-$n$ consistent, asymptotically centered normal, and our suggested confidence intervals have asymptotically correct coverage. We provide simulation evidence that our methods achieve better performance than existing approaches in high dimensions, particularly when the number of proxies is substantially larger than the number of confounders.
ادبیات اخیر استنتاج علی را با استفاده از پروکسی های پر سر و صدا در نظر می گیرد فاکتورهای مخدوش غیرقابل تحمل.پروکسی ها به دو مجموعه تقسیم می شوند مشروط مستقل در مورد متجاوزان.یک مجموعه از پروکسی ها منفی هستند تیمارهای کنترل و دیگری "نتایج کنترل منفی" هستند.موجود کار در مورد تنظیمات کم بعدی با تعداد مشخصی از پروکسی ها و گیج کنندهدر این کار مدل های خطی را با بسیاری از کنترل های پروکسی در نظر می گیریم و احتمالاً بسیاری از گیج کننده ها.یک بینش مهم این است که اگر هر گروه از پروکسی ها کاملاً بزرگتر از تعداد عوامل مخدوش است ، سپس یک ماتریس از پارامترهای مزاحمت دارای ساختار کم رتبه و بردار مزاحمت هستند پارامترها ساختار پراکنده ای دارند.ما می توانیم از رتبه بندی رتبه و کمبود برای کاهش تعداد پارامترهای رایگان که باید تخمین زده شود.تعداد مخدوشان بدون نظارت پیشینی شناخته نشده اند اما ما نشان می دهیم که شناسایی شده است ، و ما روشهای مجازات را برای سازگاری با این مقدار اعمال می کنیم.ما ارائه می دهیم برآوردگر با فرم بسته و همچنین یک برآوردگر دوتایی که باید باشد باید باشد با استفاده از روشهای عددی ارزیابی شد.ما شرایطی را فراهم می کنیم که تحت آن قرار بگیریم برآوردگر مضاعف رو به طور یکنواخت ریشه دارد-$ n $ سازگار ، بدون علامت محور طبیعی است ، و فواصل اطمینان پیشنهادی ما بدون علامت است پوشش صحیحما شواهد شبیه سازی را ارائه می دهیم که روشهای ما به دست می آورند عملکرد بهتر از رویکردهای موجود در ابعاد بالا ، به ویژه هنگامی که تعداد پروکسی ها از نظر تعداد قابل ملاحظه ای بزرگتر هستند گیج کننده
30,500
Beyond the new results mentioned hereafter, this article aims at familiarizing researchers working in applied fields -- such as physics or economics -- with notions or formulas that they use daily without always identifying all their theoretical features or potentialities. Various situations where the L1-norm distance E|X-Y| between real-valued random variables intervene are closely examined. The axiomatic surrounding this distance is also explored. We constantly try to build bridges between the concrete uses of E|X-Y| and the underlying probabilistic model. An alternative interpretation of this distance is also examined, as well as its relation to the Gini index (economics) and the Lukaszyk-Karmovsky distance (physics). The main contributions are the following: (a) We show that under independence, triangle inequality holds for the normalized form E|X-Y|/(E|X| + E|Y|). (b) In order to present a concrete advance, we determine the analytic form of E|X-Y| and of its normalized expression when X and Y are independent with Gaussian or uniform distribution. The resulting formulas generalize relevant tools already in use in areas such as physics and economics. (c) We propose with all the required rigor a brief one-dimensional introduction to the optimal transport problem, essentially for a L1 cost function. The chosen illustrations and examples should be of great help for newcomers to the field. New proofs and new results are proposed.
فراتر از نتایج جدید که از این پس ذکر شد ، این مقاله با هدف محققانی که در زمینه های کاربردی کار می کنند - مانند فیزیک یا اقتصاد - با مفاهیم یا فرمول هایی که روزانه بدون استفاده از آنها استفاده می کنند شناسایی تمام ویژگی ها یا پتانسیل های نظری آنها.مختلف موقعیت هایی که فاصله L1-norm e | x-y |بین تصادفی با ارزش واقعی متغیرها مداخله از نزدیک مورد بررسی قرار می گیرند.بدیهیات اطراف این مسافت نیز مورد بررسی قرار گرفته است.ما دائماً سعی می کنیم پل ها را بین کاربردهای بتونی E | X-Y |و مدل احتمالی اساسی.یک جایگزین تفسیر این فاصله نیز مورد بررسی قرار می گیرد ، و همچنین ارتباط آن با شاخص جینی (اقتصاد) و فاصله لوکازیک-کرمافسکی (فیزیک).در مشارکتهای اصلی موارد زیر است: (الف) ما این را تحت استقلال نشان می دهیم ، نابرابری مثلث برای فرم نرمال شده E | X-Y |/(E | X | + E | Y |) نگه می دارد.(صندوقچه برای ارائه یک پیشرفت بتونی ، ما شکل تحلیلی E | x-y | را تعیین می کنیم و از بیان عادی آن هنگامی که x و y مستقل از گاوسی هستند یا توزیع یکنواختفرمول های حاصل از قبل ابزارهای مربوطه را تعمیم می دهند در زمینه هایی مانند فیزیک و اقتصاد استفاده می شود.(ج) ما با همه لازم است یک مقدمه مختصر یک بعدی برای حمل و نقل بهینه مشکل ، اساساً برای عملکرد هزینه L1.تصاویر انتخاب شده و نمونه ها باید برای افراد تازه وارد در این زمینه کمک زیادی کنند.اثبات جدید و جدید نتایج ارائه شده است
30,501
The Regression Discontinuity (RD) design is a widely used non-experimental method for causal inference and program evaluation. While its canonical formulation only requires a score and an outcome variable, it is common in empirical work to encounter RD analyses where additional variables are used for adjustment. This practice has led to misconceptions about the role of covariate adjustment in RD analysis, from both methodological and empirical perspectives. In this chapter, we review the different roles of covariate adjustment in RD designs, and offer methodological guidance for its correct use.
طرح ناپیوستگی رگرسیون (RD) یک غیر تجربی است روش برای استنباط علی و ارزیابی برنامه.در حالی که متعارف است فرمولاسیون فقط به یک نمره و متغیر نتیجه نیاز دارد ، در آن رایج است کار تجربی برای مواجهه با آنالیزهای RD که در آن از متغیرهای اضافی استفاده می شود تنظیماین عمل منجر به تصورات غلط در مورد نقش همبستگی شده است تنظیم در تجزیه و تحلیل RD ، از هر دو دیدگاه روش شناختی و تجربی. در این فصل ، ما نقش های مختلف تنظیم همبستگی را در RD مرور می کنیم طراحی ، و راهنمایی روش شناختی را برای استفاده صحیح از آن ارائه می دهد.
30,502
In an influential critique of empirical practice, Freedman (2008) showed that the linear regression estimator was biased for the analysis of randomized controlled trials under the randomization model. Under Freedman's assumptions, we derive exact closed-form bias corrections for the linear regression estimator with and without treatment-by-covariate interactions. We show that the limiting distribution of the bias corrected estimator is identical to the uncorrected estimator, implying that the asymptotic gains from adjustment can be attained without introducing any risk of bias. Taken together with results from Lin (2013), our results show that Freedman's theoretical arguments against the use of regression adjustment can be completely resolved with minor modifications to practice.
در یک انتقاد تأثیرگذار از عمل تجربی ، فریدمن (2008) این را نشان داد برآوردگر رگرسیون خطی برای تجزیه و تحلیل تصادفی مغرضانه بود کارآزمایی های کنترل شده تحت مدل تصادفی.تحت فرضیات فریدمن ، ما برای رگرسیون خطی ، اصلاحات تعصب بسته بندی دقیق را انجام می دهیم برآوردگر با و بدون تعامل با درمان- کونیایی.ما نشان می دهیم که توزیع محدود کننده برآوردگر اصلاح شده تعصب یکسان با برآوردگر اصلاح نشده ، دلالت بر اینکه دستاوردهای بدون علامت از تعدیل می تواند بدون ایجاد خطر تعصب حاصل می شود.همراه با نتایج از لین (2013) ، نتایج ما نشان می دهد که استدلال های نظری فریدمن علیه استفاده از تعدیل رگرسیون را می توان به طور کامل با جزئی برطرف کرد اصلاحات برای تمرین.
30,503
We revisit the finite-sample behavior of single-variable just-identified instrumental variables (just-ID IV) estimators, arguing that in most microeconometric applications, the usual inference strategies are likely reliable. Three widely-cited applications are used to explain why this is so. We then consider pretesting strategies of the form $t_{1}>c$, where $t_{1}$ is the first-stage $t$-statistic, and the first-stage sign is given. Although pervasive in empirical practice, pretesting on the first-stage $F$-statistic exacerbates bias and distorts inference. We show, however, that median bias is both minimized and roughly halved by setting $c=0$, that is by screening on the sign of the \textit{estimated} first stage. This bias reduction is a free lunch: conventional confidence interval coverage is unchanged by screening on the estimated first-stage sign. To the extent that IV analysts sign-screen already, these results strengthen the case for a sanguine view of the finite-sample behavior of just-ID IV.
ما دوباره رفتار نمونه محدود از تک مشخصه تک متغیر را بررسی می کنیم متغیرهای ابزاری (فقط IV IV) برآوردگرها ، با بیان اینکه در اکثر آنها برنامه های خرد اقتصادی ، استراتژی های استنباط معمول محتمل است قابل اعتماد.از سه برنامه گسترده استناد شده برای توضیح اینکه چرا چنین است ، استفاده می شود. سپس استراتژی های پیش بینی فرم $ t_ {1}> c $ را در نظر می گیریم ، جایی که $ t_ {1} $ است مرحله اول $ t $-statistic و نشانه مرحله اول ارائه شده است.با اينكه فراگیر در عمل تجربی ، پیش بینی در مرحله اول $ f $-statistic تعصب را تشدید می کند و استنباط را تحریف می کند.با این حال ، ما نشان می دهیم که تعصب متوسط ​​است هر دو با تنظیم $ c = 0 $ ، هر دو به حداقل رسیده و تقریباً نصف می شوند. نشانه \ textit {تخمین زده شده} مرحله اول.این کاهش تعصب رایگان است ناهار: پوشش فاصله اطمینان متعارف با غربالگری روشن بدون تغییر است نشانه مرحله اول تخمین زده شده است.به حدی که تحلیلگران IV صفحه نمایش را امضا کنند در حال حاضر ، این نتایج پرونده را برای یک دیدگاه سنگی از رفتار نمونه محدود از IV Just-ID.
30,504
We introduce an Attention Overload Model that captures the idea that alternatives compete for the decision maker's attention, and hence the attention that each alternative receives decreases as the choice problem becomes larger. We provide testable implications on the observed choice behavior that can be used to (point or partially) identify the decision maker's preference and attention frequency. We then enhance our attention overload model to accommodate heterogeneous preferences based on the idea of List-based Attention Overload, where alternatives are presented to the decision makers as a list that correlates with both heterogeneous preferences and random attention. We show that preference and attention frequencies are (point or partially) identifiable under nonparametric assumptions on the list and attention formation mechanisms, even when the true underlying list is unknown to the researcher. Building on our identification results, we develop econometric methods for estimation and inference.
ما یک مدل اضافه بار توجه را معرفی می کنیم که این ایده را ضبط می کند گزینه های دیگر برای توجه تصمیم گیرنده رقابت می کنند و از این رو توجه که هر گزینه جایگزین دریافت می کند به عنوان مشکل انتخاب کاهش می یابد بزرگتر می شودما پیامدهای قابل آزمایش در انتخاب مشاهده شده ارائه می دهیم رفتاری که می تواند برای (اشاره یا جزئی) شناسایی تصمیم گیرنده استفاده شود اولویت و فرکانس توجه.سپس اضافه بار توجه خود را افزایش می دهیم مدل برای قرار دادن ترجیحات ناهمگن بر اساس ایده مبتنی بر لیست اضافه بار توجه ، جایی که گزینه های دیگری برای تصمیم گیرندگان ارائه می شود لیستی که با ترجیحات ناهمگن و تصادفی ارتباط دارد توجهما نشان می دهیم که فرکانس های اولویت و توجه (نقطه یا تا حدی) تحت فرضیات غیرپارامتری در لیست قابل شناسایی است و مکانیسم های شکل گیری توجه ، حتی اگر لیست زیرین واقعی ناشناخته باشد به محققبا تکیه بر نتایج شناسایی ما ، ما توسعه می دهیم روشهای اقتصاد سنجی برای برآورد و استنباط.
30,505
Functional linear regression gets its popularity as a statistical tool to study the relationship between function-valued response and exogenous explanatory variables. However, in practice, it is hard to expect that the explanatory variables of interest are perfectly exogenous, due to, for example, the presence of omitted variables and measurement error. Despite its empirical relevance, it was not until recently that this issue of endogeneity was studied in the literature on functional regression, and the development in this direction does not seem to sufficiently meet practitioners' needs; for example, this issue has been discussed with paying particular attention on consistent estimation and thus distributional properties of the proposed estimators still remain to be further explored. To fill this gap, this paper proposes new consistent FPCA-based instrumental variable estimators and develops their asymptotic properties in detail. Simulation experiments under a wide range of settings show that the proposed estimators perform considerably well. We apply our methodology to estimate the impact of immigration on native wages.
رگرسیون خطی عملکردی محبوبیت خود را به عنوان ابزاری آماری به دست می آورد رابطه بین پاسخ با ارزش عملکرد و اگزوژن را مطالعه کنید متغیرهای توضیحی.با این حال ، در عمل ، دشوار است که انتظار داشته باشید متغیرهای توضیحی مورد علاقه کاملاً برونزا هستند ، به عنوان مثال ، وجود متغیرهای حذف شده و خطای اندازه گیری.علی رغم تجربی ارتباط ، تا همین اواخر نبود که این موضوع از درون زایی مورد بررسی قرار گرفت در ادبیات مربوط به رگرسیون عملکردی و توسعه در این به نظر نمی رسد که جهت به اندازه کافی نیازهای پزشکان را برآورده کند.مثلا، این موضوع با توجه خاص به سازگار مورد بحث قرار گرفته است تخمین و در نتیجه خصوصیات توزیع برآوردگرهای پیشنهادی هنوز برای کاوش بیشتر باقی مانده است.برای پر کردن این شکاف ، این مقاله جدید را پیشنهاد می کند برآوردگرهای متغیر ابزاری مبتنی بر FPCA سازگار و آنها را توسعه می دهد خصوصیات بدون علامت به طور مفصل.آزمایش های شبیه سازی در طیف گسترده ای از تنظیمات نشان می دهد که برآوردگرهای پیشنهادی عملکرد خوبی دارند.ما اقدام می کنیم روش ما برای برآورد تأثیر مهاجرت بر دستمزد بومی.
30,506
We study regression discontinuity designs in which many predetermined covariates, possibly much more than the number of observations, can be used to increase the precision of treatment effect estimates. We consider a two-step estimator which first selects a small number of "important" covariates through a localized Lasso-type procedure, and then, in a second step, estimates the treatment effect by including the selected covariates linearly into the usual local linear estimator. We provide an in-depth analysis of the algorithm's theoretical properties, showing that, under an approximate sparsity condition, the resulting estimator is asymptotically normal, with asymptotic bias and variance that are conceptually similar to those obtained in low-dimensional settings. Bandwidth selection and inference can be carried out using standard methods. We also provide simulations and an empirical application.
ما طرح های ناپیوستگی رگرسیون را مطالعه می کنیم که در آن بسیاری از پیش تعیین شده است متغیرهای متغیر ، احتمالاً بسیار بیشتر از تعداد مشاهدات ، می توان از آنها استفاده کرد دقت تخمین اثر درمانی را افزایش دهید.ما دو مرحله ای را در نظر می گیریم برآوردگر که ابتدا تعداد کمی از متغیرهای "مهم" را از طریق انتخاب می کند یک روش از نوع لاسو از نوع ، و سپس ، در مرحله دوم ، تخمین می زند اثر درمانی با استفاده از متغیرهای متغیر به صورت خطی در معمول برآوردگر خطی محلی.ما یک تجزیه و تحلیل عمیق از الگوریتم ارائه می دهیم خصوصیات نظری ، نشان می دهد که ، تحت یک شرایط تقریبی پراکندگی ، برآوردگر حاصل بدون علامت طبیعی است ، با تعصب بدون علامت و واریانس که از نظر مفهومی شبیه به موارد به دست آمده در ابعاد کم است تنظیمات.انتخاب پهنای باند و استنتاج را می توان با استفاده از استاندارد انجام داد مواد و روش ها.ما همچنین شبیه سازی ها و یک کاربرد تجربی را ارائه می دهیم.
30,507
Classical measures of inequality use the mean as the benchmark of economic dispersion. They are not sensitive to inequality at the left tail of the distribution, where it would matter most. This paper presents a new inequality measurement tool that gives more weight to inequality at the lower end of the distribution, it is based on the comparison of all value pairs and synthesizes the dispersion of the whole distribution. The differences that sum to the Gini coefficient are scaled by angular differences between observations. The resulting index possesses a set of desirable properties, including normalization, scale invariance, population invariance, transfer sensitivity, and weak decomposability.
اقدامات کلاسیک نابرابری از میانگین به عنوان معیار اقتصادی استفاده می کند پراکندگیآنها نسبت به نابرابری در دم سمت چپ حساس نیستند توزیع ، جایی که بیشترین اهمیت را دارد.این مقاله نابرابری جدیدی را نشان می دهد ابزار اندازه گیری که وزن بیشتری به نابرابری در انتهای پایین تر می دهد توزیع ، بر اساس مقایسه همه جفت های ارزش و سنتز است پراکندگی کل توزیع.تفاوت هایی که به جینی می پردازد ضریب با تفاوت های زاویه ای بین مشاهدات مقیاس می شود.در شاخص حاصل مجموعه ای از خواص مطلوب ، از جمله عادی سازی ، تغییر مقیاس ، عدم تغییر جمعیت ، حساسیت انتقال ، و تجزیه ضعیف
30,508
Observations in various applications are frequently represented as a time series of multidimensional arrays, called tensor time series, preserving the inherent multidimensional structure. In this paper, we present a factor model approach, in a form similar to tensor CP decomposition, to the analysis of high-dimensional dynamic tensor time series. As the loading vectors are uniquely defined but not necessarily orthogonal, it is significantly different from the existing tensor factor models based on Tucker-type tensor decomposition. The model structure allows for a set of uncorrelated one-dimensional latent dynamic factor processes, making it much more convenient to study the underlying dynamics of the time series. A new high order projection estimator is proposed for such a factor model, utilizing the special structure and the idea of the higher order orthogonal iteration procedures commonly used in Tucker-type tensor factor model and general tensor CP decomposition procedures. Theoretical investigation provides statistical error bounds for the proposed methods, which shows the significant advantage of utilizing the special model structure. Simulation study is conducted to further demonstrate the finite sample properties of the estimators. Real data application is used to illustrate the model and its interpretations.
مشاهدات در برنامه های مختلف غالباً به عنوان یک زمان نشان داده می شود سری آرایه های چند بعدی ، به نام سری Tensor Series ، حفظ ساختار چند بعدی ذاتی.در این مقاله ، ما یک مدل فاکتور ارائه می دهیم رویکرد ، به شکلی شبیه به تجزیه CP Tensor ، به تجزیه و تحلیل سری زمانی تنسور پویا با ابعاد بالا.همانطور که بردارهای بارگیری هستند منحصر به فرد تعریف شده اما لزوماً متعامد نیست ، تفاوت قابل توجهی دارد از مدل های فاکتور تانسور موجود بر اساس تانسور از نوع Tucker تجزیه.ساختار مدل مجموعه ای از نامربوط را فراهم می کند فرآیندهای فاکتور پویا نهفته یک بعدی ، آن را بسیار راحت تر می کند برای مطالعه پویایی اساسی سری زمانی.یک مرتبه عالی جدید برآوردگر طرح ریزی برای چنین مدل فاکتور با استفاده از ویژه پیشنهاد شده است ساختار و ایده روشهای تکرار متعامد مرتبه بالاتر معمولاً در مدل فاکتور تانسور از نوع Tucker و CP Tensor General استفاده می شود روشهای تجزیهبررسی نظری خطای آماری را ارائه می دهد مرزهای روشهای پیشنهادی ، که مزیت قابل توجهی از آن را نشان می دهد با استفاده از ساختار مدل ویژه.مطالعه شبیه سازی برای ادامه انجام شده است خصوصیات نمونه محدود برآوردگرها را نشان دهید.داده های واقعی برنامه برای نشان دادن مدل و تفسیرهای آن استفاده می شود.
30,509
This paper explores the duration dynamics modelling under the Autoregressive Conditional Durations (ACD) framework (Engle and Russell 1998). I test different distributions assumptions for the durations. The empirical results suggest unconditional durations approach the Gamma distributions. Moreover, compared with exponential distributions and Weibull distributions, the ACD model with Gamma distributed innovations provide the best fit of SPY durations.
در این مقاله به بررسی مدل سازی دینامیک مدت زمان تحت خودی می پردازد چارچوب مدت زمان مشروط (ACD) (Engle and Russell 1998).من امتحان میکنم فرضیات مختلف توزیع برای مدت زمان.نتایج تجربی پیشنهاد مدت زمان بی قید و شرط به توزیع گاما.علاوه بر این، در مقایسه با توزیع های نمایی و توزیع Weibull ، ACD مدل با نوآوری های توزیع شده گاما بهترین تناسب مدت زمان جاسوسی را ارائه می دهد.
30,528
We provide new insights regarding the headline result that Medicaid increased emergency department (ED) use from the Oregon experiment. We find meaningful heterogeneous impacts of Medicaid on ED use using causal machine learning methods. The individualized treatment effect distribution includes a wide range of negative and positive values, suggesting the average effect masks substantial heterogeneity. A small group-about 14% of participants-in the right tail of the distribution drives the overall effect. We identify priority groups with economically significant increases in ED usage based on demographics and previous utilization. Intensive margin effects are an important driver of increases in ED utilization.
ما بینش جدیدی در مورد نتیجه تیتر افزایش می دهیم که Medicaid افزایش یافته است بخش اورژانس (ED) از آزمایش اورگان استفاده می کند.ما معنی دار می یابیم تأثیرات ناهمگن Medicaid در استفاده از ED با استفاده از یادگیری ماشین علیت مواد و روش ها.توزیع اثر درمانی فردی شامل طیف گسترده ای است از مقادیر منفی و مثبت ، ماسک های اثر متوسط ​​را نشان می دهد ناهمگونی قابل توجهی.یک گروه کوچک حدود 14 ٪ از شرکت کنندگان در سمت راست دم توزیع اثر کلی را هدایت می کند.ما گروه های اولویت را شناسایی می کنیم با افزایش قابل توجه اقتصادی در استفاده ED بر اساس جمعیت شناسی و استفاده قبلیاثرات حاشیه ای فشرده عامل مهمی است افزایش در استفاده از ED.
30,510
We consider a potential outcomes model in which interference may be present between any two units but the extent of interference diminishes with spatial distance. The causal estimand is the global average treatment effect, which compares outcomes under the counterfactuals that all or no units are treated. We study a class of designs in which space is partitioned into clusters that are randomized into treatment and control. For each design, we estimate the treatment effect using a Horvitz-Thompson estimator that compares the average outcomes of units with all or no neighbors treated, where the neighborhood radius is of the same order as the cluster size dictated by the design. We derive the estimator's rate of convergence as a function of the design and degree of interference and use this to obtain estimator-design pairs that achieve near-optimal rates of convergence under relatively minimal assumptions on interference. We prove that the estimators are asymptotically normal and provide a variance estimator. For practical implementation of the designs, we suggest partitioning space using clustering algorithms.
ما یک مدل نتایج بالقوه را در نظر می گیریم که در آن ممکن است تداخل وجود داشته باشد بین هر دو واحد اما میزان تداخل با مکانی کاهش می یابد فاصلهبرآورد علیت ، میانگین اثر درمانی جهانی است که نتایج را در مورد پیشخوان ها مقایسه می کند که تمام یا هیچ واحدی با آنها رفتار نمی شود. ما یک کلاس از طرح ها را مطالعه می کنیم که در آن فضا به خوشه هایی تقسیم می شود به صورت تصادفی در درمان و کنترل قرار می گیرند.برای هر طرح ، ما تخمین می زنیم اثر درمانی با استفاده از یک برآوردگر Horvitz-Thompson که میانگین آن را مقایسه می کند نتایج واحدها با همسایگان یا هیچ یک از همسایگان ، که در آن محله است شعاع به همان ترتیب اندازه خوشه ای است که توسط طراحی دیکته می شود.ما میزان همگرایی برآوردگر را به عنوان تابعی از طراحی استخراج کنید و درجه تداخل و استفاده از این برای به دست آوردن جفت های طراحی برآوردگر که دستیابی به نرخ نزدیک به حد مطلوب همگرایی تحت فرضیات نسبتاً حداقل در مورد تداخلما ثابت می کنیم که برآوردگرها از نظر غیر عادی طبیعی هستند و یک برآوردگر واریانس ارائه دهید.برای اجرای عملی طرح ها ، ما فضای پارتیشن بندی را با استفاده از الگوریتم های خوشه بندی پیشنهاد دهید.
30,511
This paper introduces a novel Ito diffusion process to model high-frequency financial data, which can accommodate low-frequency volatility dynamics by embedding the discrete-time non-linear exponential GARCH structure with log-integrated volatility in a continuous instantaneous volatility process. The key feature of the proposed model is that, unlike existing GARCH-Ito models, the instantaneous volatility process has a non-linear structure, which ensures that the log-integrated volatilities have the realized GARCH structure. We call this the exponential realized GARCH-Ito (ERGI) model. Given the auto-regressive structure of the log-integrated volatility, we propose a quasi-likelihood estimation procedure for parameter estimation and establish its asymptotic properties. We conduct a simulation study to check the finite sample performance of the proposed model and an empirical study with 50 assets among the S\&P 500 compositions. The numerical studies show the advantages of the new proposed model.
در این مقاله یک فرآیند انتشار ITO جدید برای مدل سازی فرکانس بالا معرفی شده است داده های مالی ، که می تواند پویایی نوسانات کم با فرکانس پایین را در خود جای دهد تعبیه ساختار گارچ نمایی غیر خطی در زمان گسسته با نوسانات یکپارچه ورود به سیستم در یک فرآیند نوسانات فوری مداوم.در ویژگی اصلی مدل پیشنهادی این است که برخلاف مدل های موجود Garch-ITO ، فرآیند نوسانات فوری دارای یک ساختار غیر خطی است که تضمین می کند این که نوسانات یکپارچه ورود به سیستم دارای ساختار گارچ تحقق یافته است.زنگ میزنیم این مدل نمایی تحقق بخش Garch-ito (ERGI).با توجه به اتخاذ خودکار ساختار ناپایداری یکپارچه ورود به سیستم ، ما یک شبه احتمال را پیشنهاد می کنیم روش تخمین برای برآورد پارامتر و ایجاد مجانبی آن خواصما یک مطالعه شبیه سازی را برای بررسی نمونه محدود انجام می دهیم عملکرد مدل پیشنهادی و یک مطالعه تجربی با 50 دارایی در بین ترکیبات S \ & P 500.مطالعات عددی مزایای جدید را نشان می دهد مدل پیشنهادی
30,512
We provide novel bounds on average treatment effects (on the treated) that are valid under an unconfoundedness assumption. Our bounds are designed to be robust in challenging situations, for example, when the conditioning variables take on a large number of different values in the observed sample, or when the overlap condition is violated. This robustness is achieved by only using limited "pooling" of information across observations. Namely, the bounds are constructed as sample averages over functions of the observed outcomes such that the contribution of each outcome only depends on the treatment status of a limited number of observations. No information pooling across observations leads to so-called "Manski bounds", while unlimited information pooling leads to standard inverse propensity score weighting. We explore the intermediate range between these two extremes and provide corresponding inference methods. We show in Monte Carlo experiments and through an empirical application that our bounds are indeed robust and informative in practice.
ما مرزهای جدیدی را در مورد میانگین اثرات درمانی (در درمان) ارائه می دهیم که تحت یک فرض غیرقانونی معتبر هستند.مرزهای ما به گونه ای طراحی شده است به عنوان مثال ، در موقعیت های چالش برانگیز قوی است. تعداد زیادی از مقادیر مختلف را در نمونه مشاهده شده یا هنگامی که شرایط همپوشانی نقض می شود.این استحکام فقط با استفاده از آن حاصل می شود محدود "جمع" اطلاعات در سراسر مشاهدات.یعنی مرزها ساخته شده به عنوان میانگین نمونه بر عملکردهای نتایج مشاهده شده از جمله اینکه سهم هر نتیجه فقط به وضعیت درمان a بستگی دارد تعداد محدودی از مشاهدات.هیچ اطلاعاتی در بین مشاهدات جمع نمی شود منجر به به اصطلاح "مرزهای مانسکی" می شود ، در حالی که جمع آوری اطلاعات نامحدود منجر می شود به وزن استاندارد معکوس معکوس.ما واسطه را کاوش می کنیم دامنه بین این دو افراط و ارائه روشهای استنتاج مربوطه. ما در آزمایش های مونت کارلو و از طریق یک کاربرد تجربی نشان می دهیم که مرزهای ما در عمل واقعاً قوی و آموزنده است.
30,513
Observational studies are needed when experiments are not possible. Within study comparisons (WSC) compare observational and experimental estimates that test the same hypothesis using the same treatment group, outcome, and estimand. Meta-analyzing 39 of them, we compare mean bias and its variance for the eight observational designs that result from combining whether there is a pretest measure of the outcome or not, whether the comparison group is local to the treatment group or not, and whether there is a relatively rich set of other covariates or not. Of these eight designs, one combines all three design elements, another has none, and the remainder include any one or two. We found that both the mean and variance of bias decline as design elements are added, with the lowest mean and smallest variance in a design with all three elements. The probability of bias falling within 0.10 standard deviations of the experimental estimate varied from 59 to 83 percent in Bayesian analyses and from 86 to 100 percent in non-Bayesian ones -- the ranges depending on the level of data aggregation. But confounding remains possible due to each of the eight observational study design cells including a different set of WSC studies.
در صورت امکان آزمایش ، مطالعات مشاهده ای مورد نیاز است.در داخل مقایسه های مطالعه (WSC) برآوردهای مشاهده ای و تجربی را مقایسه کنید که همان فرضیه را با استفاده از همان گروه درمانی ، نتیجه و برآورد آزمایش کنید. متاآنالیز 39 مورد از آنها ، ما میانگین تعصب و واریانس آن را برای هشت مقایسه می کنیم طرح های مشاهده ای که ناشی از ترکیب پیش آزمون است اندازه گیری نتیجه یا نه ، آیا گروه مقایسه با آن محلی است گروه درمانی یا نه ، و اینکه آیا مجموعه ای نسبتاً غنی از دیگر وجود دارد متغیر یا نه.از این هشت طرح ، یکی از هر سه طرح را ترکیب می کند عناصر ، دیگری هیچ کدام را ندارند و باقیمانده شامل هر یک یا دو نفر است.ما پیدا کردیم این که هم میانگین و هم واریانس تعصب با افزودن عناصر طراحی ، کاهش می یابد ، با کمترین میانگین و کوچکترین واریانس در طراحی با هر سه عنصر. احتمال تعصب در 0.10 انحراف استاندارد از برآورد تجربی در تجزیه و تحلیل بیزی از 59 تا 83 درصد متغیر بود و از 86 تا 100 درصد در موارد غیر بویایی-محدوده بسته به سطح تجمع داده ها.اما مخدوش به دلیل هر یک از این موارد امکان پذیر است هشت سلول طراحی مطالعه مشاهده ای شامل مجموعه ای متفاوت از WSC مطالعات.
30,514
Many popular specifications for Vector Autoregressions (VARs) with multivariate stochastic volatility are not invariant to the way the variables are ordered due to the use of a Cholesky decomposition for the error covariance matrix. We show that the order invariance problem in existing approaches is likely to become more serious in large VARs. We propose the use of a specification which avoids the use of this Cholesky decomposition. We show that the presence of multivariate stochastic volatility allows for identification of the proposed model and prove that it is invariant to ordering. We develop a Markov Chain Monte Carlo algorithm which allows for Bayesian estimation and prediction. In exercises involving artificial and real macroeconomic data, we demonstrate that the choice of variable ordering can have non-negligible effects on empirical results. In a macroeconomic forecasting exercise involving VARs with 20 variables we find that our order-invariant approach leads to the best forecasts and that some choices of variable ordering can lead to poor forecasts using a conventional, non-order invariant, approach.
بسیاری از مشخصات محبوب برای اتورگیهای بردار (VAR) با نوسانات تصادفی چند متغیره به نحوه متغیرها ثابت نیست به دلیل استفاده از تجزیه cholesky برای کواریانس خطا سفارش داده می شود ماتریسما نشان می دهیم که مشکل تغییر نظم در رویکردهای موجود است به احتمال زیاد در VAR های بزرگ جدی تر می شود.ما استفاده از a را پیشنهاد می کنیم مشخصاتی که از استفاده از این تجزیه cholesky جلوگیری می کند.ما نشان می دهیم که وجود نوسانات تصادفی چند متغیره امکان شناسایی مدل پیشنهادی و ثابت می کند که سفارش آن ثابت نیست.ما توسعه می دهیم الگوریتم زنجیره مونت کارلو مارکوف که امکان تخمین بیزی را فراهم می کند و پیش بینی.در تمرینات شامل داده های کلان اقتصادی و واقعی ، ما نشان می دهد که انتخاب سفارش متغیر می تواند غیرقابل تحمل باشد تأثیر بر نتایج تجربی.در یک تمرین پیش بینی اقتصادی کلان شامل VAR با 20 متغیر متوجه می شویم که رویکرد سفارش ما منجر به بهترین پیش بینی ها و اینکه برخی از گزینه های سفارش متغیر می توانند به فقیر منجر شوند پیش بینی با استفاده از یک رویکرد متعارف و غیر مرتبه.
30,529
In the paper, we propose two models of Artificial Intelligence (AI) patents in European Union (EU) countries addressing spatial and temporal behaviour. In particular, the models can quantitatively describe the interaction between countries or explain the rapidly growing trends in AI patents. For spatial analysis Poisson regression is used to explain collaboration between a pair of countries measured by the number of common patents. Through Bayesian inference, we estimated the strengths of interactions between countries in the EU and the rest of the world. In particular, a significant lack of cooperation has been identified for some pairs of countries. Alternatively, an inhomogeneous Poisson process combined with the logistic curve growth accurately models the temporal behaviour by an accurate trend line. Bayesian analysis in the time domain revealed an upcoming slowdown in patenting intensity.
در مقاله ، ما دو مدل ثبت اختراع هوش مصنوعی (AI) را پیشنهاد می کنیم در اتحادیه اروپا (اتحادیه اروپا) کشورهایی که به رفتار مکانی و زمانی پرداخته اند.که در به طور خاص ، مدل ها می توانند تعامل بین کمی را توصیف کنند کشورها یا روندهای به سرعت در حال رشد در حق ثبت اختراعات هوش مصنوعی را توضیح می دهند.برای مکانی تجزیه و تحلیل رگرسیون پواسون برای توضیح همکاری بین یک جفت استفاده می شود کشورهایی که با تعداد ثبت اختراعات مشترک اندازه گیری می شوند.از طریق استنباط بیزی ، ما نقاط قوت تعامل بین کشورها در اتحادیه اروپا و بقیه دنیا.به ویژه ، عدم همکاری قابل توجه بوده است برای برخی از جفت کشورها مشخص شده است. از طرف دیگر ، یک فرایند پواسون ناهمگن همراه با لجستیک رشد منحنی به طور دقیق رفتار زمانی را با یک روند دقیق مدل می کند خطتجزیه و تحلیل بیزی در حوزه زمان ، کندی آینده را نشان داد شدت ثبت اختراع.
30,515
Humans exhibit irrational decision-making patterns in response to environmental triggers, such as experiencing an economic loss or gain. In this paper we investigate whether algorithms exhibit the same behavior by examining the observed decisions and latent risk and rationality parameters estimated by a random utility model with constant relative risk-aversion utility function. We use a dataset consisting of 10,000 hands of poker played by Pluribus, the first algorithm in the world to beat professional human players and find (1) Pluribus does shift its playing style in response to economic losses and gains, ceteris paribus; (2) Pluribus becomes more risk-averse and rational following a trigger but the humans become more risk-seeking and irrational; (3) the difference in playing styles between Pluribus and the humans on the dimensions of risk-aversion and rationality are particularly differentiable when both have experienced a trigger. This provides support that decision-making patterns could be used as "behavioral signatures" to identify human versus algorithmic decision-makers in unlabeled contexts.
انسانها در پاسخ به الگوهای تصمیم گیری غیرمنطقی نشان می دهند محرک های زیست محیطی ، مانند تجربه ضرر اقتصادی یا سود.در این مقاله ما بررسی می کنیم که آیا الگوریتم ها با بررسی همان رفتار را نشان می دهند تصمیمات مشاهده شده و پارامترهای خطر و عقلانیت نهفته توسط تخمین زده می شود یک مدل ابزار تصادفی با عملکرد ابزار تحقق ریسک نسبی ثابت. ما از یک مجموعه داده متشکل از 10،000 دست پوکر که توسط Pluribus بازی می شود استفاده می کنیم اولین الگوریتم در جهان برای ضرب و شتم بازیکنان حرفه ای انسانی و یافتن (1) Pluribus سبک بازی خود را در پاسخ به خسارات اقتصادی و دستاوردهای خود تغییر می دهد ، ceteris paribus ؛(2) pluribus به دنبال یک ریسک تر و منطقی تر می شود محرک اما انسان ها به دنبال ریسک و غیر منطقی تر می شوند.(3) تفاوت در سبک های بازی بین Pluribus و انسان در ابعاد از خطر و عقلانیت به ویژه در صورت وجود هر دو قابل تغییر است یک ماشه را تجربه کرد.این امر از الگوهای تصمیم گیری پشتیبانی می کند می تواند به عنوان "امضاهای رفتاری" برای شناسایی انسان در مقابل الگوریتمی استفاده شود تصمیم گیرندگان در زمینه های بدون برچسب.
30,516
This paper extends Becker (1957)'s outcome test of discrimination to settings where a (human or algorithmic) decision-maker produces a ranked list of candidates. Ranked lists are particularly relevant in the context of online platforms that produce search results or feeds, and also arise when human decisionmakers express ordinal preferences over a list of candidates. We show that non-discrimination implies a system of moment inequalities, which intuitively impose that one cannot permute the position of a lower-ranked candidate from one group with a higher-ranked candidate from a second group and systematically improve the objective. Moreover, we show that that these moment inequalities are the only testable implications of non-discrimination when the auditor observes only outcomes and group membership by rank. We show how to statistically test the implied inequalities, and validate our approach in an application using data from LinkedIn.
این مقاله آزمون نتیجه تبعیض بکر (1957) را گسترش می دهد جایی که یک تصمیم گیرنده (انسانی یا الگوریتمی) یک لیست رتبه بندی شده از نامزدهای.لیست های رتبه بندی شده به ویژه در زمینه آنلاین مرتبط هستند بسترهای نرم افزاری که نتایج یا خوراک را تولید می کنند ، و همچنین در هنگام انسان بوجود می آیند تصمیم گیرندگان ترجیحات نظم را نسبت به لیستی از نامزدها بیان می کنند.ما نشان می دهیم عدم تبعیض به معنای سیستم نابرابری های لحظه ای است که به طور شهودی تحمیل می کند که نمی توان موقعیت یک رده پایین را مجاز کرد کاندیدای یک گروه با نامزد بالاتری از گروه دوم و به طور سیستماتیک هدف را بهبود بخشید.علاوه بر این ، ما نشان می دهیم که این لحظه نابرابری ها تنها پیامدهای قابل آزمایش عدم تبعیض در هنگام حسابرس تنها نتایج و عضویت گروه را با رتبه مشاهده می کند.ما نشان می دهیم که چگونه از نظر آماری نابرابری های ضمنی را آزمایش کنید و رویکرد ما را در یک تأیید کنید برنامه با استفاده از داده های LinkedIn.
30,517
The COVID-19 pandemic has created a sudden need for a wider uptake of home-based telework as means of sustaining the production. Generally, teleworking arrangements impacts directly worker's efficiency and motivation. The direction of this impact, however, depends on the balance between positive effects of teleworking (e.g. increased flexibility and autonomy) and its downsides (e.g. blurring boundaries between private and work life). Moreover, these effects of teleworking can be amplified in case of vulnerable groups of workers, such as women. The first step in understanding the implications of teleworking on women is to have timely information on the extent of teleworking by age and gender. In the absence of timely official statistics, in this paper we propose a method for nowcasting the teleworking trends by age and gender for 20 Italian regions using mobile network operators (MNO) data. The method is developed and validated using MNO data together with the Italian quarterly Labour Force Survey. Our results confirm that the MNO data have the potential to be used as a tool for monitoring gender and age differences in teleworking patterns. This tool becomes even more important today as it could support the adequate gender mainstreaming in the ``Next Generation EU'' recovery plan and help to manage related social impacts of COVID-19 through policymaking.
بیماری همه گیر Covid-19 نیاز ناگهانی به جذب گسترده تر از آن ایجاد کرده است از راه دور مستقر در خانه به عنوان وسیله ای برای حفظ تولید.بطور کلی، ترتیبات از راه دور بر کارآیی و انگیزه کارگران تأثیر می گذارد. جهت این تأثیر ، با این حال ، به تعادل بین مثبت بستگی دارد تأثیر کار از راه دور (به عنوان مثال افزایش انعطاف پذیری و استقلال) و آن Downsides (به عنوان مثال مرزهای تار بین زندگی خصوصی و کاری).علاوه بر این، این اثرات کار از راه دور را می توان در مورد گروههای آسیب پذیر تقویت کرد کارگران ، مانند زنان.اولین قدم برای درک پیامدهای کار از طریق زنان این است که اطلاعات به موقع در مورد میزان کار از راه دور داشته باشید براساس سن و جنس.در غیاب آمار رسمی به موقع ، در این مقاله ما روشی را برای Nowcasting روند کار از راه دور براساس سن و جنس پیشنهاد می کنیم 20 منطقه ایتالیایی با استفاده از داده های اپراتور شبکه تلفن همراه (MNO).روش است با استفاده از داده های MNO به همراه فصلنامه ایتالیا توسعه یافته و تأیید شده است بررسی نیروی کار.نتایج ما تأیید می کند که داده های MNO پتانسیل دارند به عنوان ابزاری برای نظارت بر تفاوت های جنسیتی و سنی در کار از راه دور استفاده شود الگوهایاین ابزار امروزه از اهمیت بیشتری برخوردار می شود زیرا می تواند از آن پشتیبانی کند جریان اصلی جنسیت در برنامه بازیابی "نسل بعدی اتحادیه اروپا" و به مدیریت تأثیرات اجتماعی مرتبط COVID-19 از طریق سیاست گذاری کمک کنید.
30,518
This paper extends the literature on the theoretical properties of synthetic controls to the case of non-linear generative models, showing that the synthetic control estimator is generally biased in such settings. I derive a lower bound for the bias, showing that the only component of it that is affected by the choice of synthetic control is the weighted sum of pairwise differences between the treated unit and the untreated units in the synthetic control. To address this bias, I propose a novel synthetic control estimator that allows for a constant difference of the synthetic control to the treated unit in the pre-treatment period, and that penalizes the pairwise discrepancies. Allowing for a constant offset makes the model more flexible, thus creating a larger set of potential synthetic controls, and the penalization term allows for the selection of the potential solution that will minimize bias. I study the properties of this estimator and propose a data-driven process for parameterizing the penalization term.
این مقاله ادبیات را در مورد خصوصیات نظری مصنوعی گسترش می دهد کنترل در مورد مدلهای مولد غیرخطی ، نشان می دهد که برآوردگر کنترل مصنوعی به طور کلی در چنین تنظیماتی مغرضانه است.من مشتق می کنم پایین برای تعصب ، نشان می دهد که تنها مؤلفه آن است که تحت تأثیر انتخاب کنترل مصنوعی ، مجموع وزنه برداری زوج است تفاوت بین واحد تحت درمان و واحدهای درمان نشده در مصنوعی کنترل.برای پرداختن به این تعصب ، من یک برآوردگر کنترل مصنوعی رمان را پیشنهاد می کنم که امکان اختلاف مداوم کنترل مصنوعی با درمان شده را فراهم می کند واحد در دوره قبل از درمان ، و آن را به صورت جفتی مجازات می کند اختلافاتاجازه دادن به یک جبران ثابت ، مدل را انعطاف پذیر تر می کند ، بنابراین ایجاد مجموعه ای بزرگتر از کنترل های مصنوعی بالقوه ، و اصطلاح مجازات امکان انتخاب راه حل بالقوه را فراهم می کند تعصب را به حداقل برسانید.من خواص این برآوردگر را مطالعه می کنم و پیشنهاد می کنم فرآیند داده محور برای پارامتر کردن اصطلاح مجازات.
30,519
Researchers using instrumental variables to investigate ordered treatments often recode treatment into an indicator for any exposure. We investigate this estimand under the assumption that the instruments shift compliers from no treatment to some but not from some treatment to more. We show that when there are extensive margin compliers only (EMCO) this estimand captures a weighted average of treatment effects that can be partially unbundled into each complier group's potential outcome means. We also establish an equivalence between EMCO and a two-factor selection model and apply our results to study treatment heterogeneity in the Oregon Health Insurance Experiment.
محققانی که از متغیرهای ابزاری برای بررسی درمانهای سفارش داده شده استفاده می کنند اغلب درمان را به یک شاخص برای هرگونه قرار گرفتن در معرض بازگردانید.ما این را بررسی می کنیم برآورد با این فرض که ابزارها از NO تغییر می دهند درمان برخی از مواردی اما نه از برخی از درمان ها تا موارد دیگر.ما این را نشان می دهیم وقتی آنجاست این برآورد یک وزنه بردار را ضبط می کند (EMCO) میانگین اثرات درمانی که می تواند تا حدی در هر یک از این شکایات جدا شود نتیجه بالقوه گروه به معنی است.ما همچنین بین EMCO هم ارزی ایجاد می کنیم و یک مدل انتخاب دو عاملی و نتایج ما را برای درمان مطالعه اعمال می کند ناهمگونی در آزمایش بیمه درمانی اورگان.
30,520
To further develop the statistical inference problem for heterogeneous treatment effects, this paper builds on Breiman's (2001) random forest tree (RFT)and Wager et al.'s (2018) causal tree to parameterize the nonparametric problem using the excellent statistical properties of classical OLS and the division of local linear intervals based on covariate quantile points, while preserving the random forest trees with the advantages of constructible confidence intervals and asymptotic normality properties [Athey and Imbens (2016),Efron (2014),Wager et al.(2014)\citep{wager2014asymptotic}], we propose a decision tree using quantile classification according to fixed rules combined with polynomial estimation of local samples, which we call the quantile local linear causal tree (QLPRT) and forest (QLPRF).
برای توسعه بیشتر مشکل استنباط آماری برای ناهمگن اثرات درمانی ، این مقاله بر روی درخت جنگلی تصادفی Breiman (2001) ساخته شده است (RFT) و Wager et al. (2018) درخت علی برای پارامتر کردن غیرپارامتری مشکل با استفاده از خصوصیات آماری عالی OLS کلاسیک و تقسیم فواصل خطی محلی بر اساس نقاط کواریت کمیته ، در حالی که حفظ درختان جنگلی تصادفی با مزایای ساختار فواصل اطمینان و خصوصیات نرمال بودن بدون علامت [Athey and Imbens (2016) ، Efron (2014) ، Wager et al. (2014) \ Citep {Wager2014Asymptotic}] ، ما پیشنهاد می کنیم یک درخت تصمیم با استفاده از طبقه بندی کمی مطابق با قوانین ثابت همراه با برآورد چند جمله ای نمونه های محلی ، که ما آن را محلی کمی می نامیم درخت علت خطی (QLPRT) و جنگل (QLPRF).
30,521
This paper presents an ensemble forecasting method that shows strong results on the M4 Competition dataset by decreasing feature and model selection assumptions, termed DONUT (DO Not UTilize human beliefs). Our assumption reductions, primarily consisting of auto-generated features and a more diverse model pool for the ensemble, significantly outperform the statistical, feature-based ensemble method FFORMA by Montero-Manso et al. (2020). We also investigate feature extraction with a Long Short-term Memory Network (LSTM) Autoencoder and find that such features contain crucial information not captured by standard statistical feature approaches. The ensemble weighting model uses LSTM and statistical features to combine the models accurately. The analysis of feature importance and interaction shows a slight superiority for LSTM features over the statistical ones alone. Clustering analysis shows that essential LSTM features differ from most statistical features and each other. We also find that increasing the solution space of the weighting model by augmenting the ensemble with new models is something the weighting model learns to use, thus explaining part of the accuracy gains. Moreover, we present a formal ex-post-facto analysis of an optimal combination and selection for ensembles, quantifying differences through linear optimization on the M4 dataset. Our findings indicate that classical statistical time series features, such as trend and seasonality, alone do not capture all relevant information for forecasting a time series. On the contrary, our novel LSTM features contain significantly more predictive power than the statistical ones alone, but combining the two feature sets proved the best in practice.
در این مقاله یک روش پیش بینی گروه ارائه شده است که نتایج قوی را نشان می دهد در مجموعه داده های مسابقه M4 با کاهش ویژگی و انتخاب مدل فرضیات ، دونات نامیده می شوند (از اعتقادات انسانی استفاده نمی کنند).فرض ما کاهش ، در درجه اول شامل ویژگی های تولید شده و متنوع تر است استخر مدل برای این گروه ، به طور قابل توجهی از آماری بهتر عمل می کند ، روش گروهی مبتنی بر ویژگی FForma توسط مونتررومن و همکاران.(2020).ما همچنین استخراج ویژگی را با یک شبکه حافظه کوتاه مدت طولانی (LSTM) بررسی کنید AutoEncoder و دریابید که چنین ویژگی هایی حاوی اطلاعات مهم نیست ضبط شده توسط رویکردهای ویژگی آماری استاندارد.وزنه برداری گروه مدل از ویژگی های LSTM و آماری برای ترکیب دقیق مدل ها استفاده می کند.در تجزیه و تحلیل اهمیت ویژگی و تعامل ، برتری کمی برای LSTM فقط در مورد آماری به تنهایی ویژگی دارد.تجزیه و تحلیل خوشه بندی این را نشان می دهد ویژگی های اساسی LSTM با بیشتر ویژگی های آماری و یکدیگر متفاوت است. ما همچنین می دانیم که افزایش فضای محلول مدل وزنه برداری توسط تقویت گروه با مدل های جدید چیزی است که مدل وزنه برداری می آموزد برای استفاده ، بنابراین بخشی از سودهای دقت را توضیح می دهد.علاوه بر این ، ما ارائه می دهیم تجزیه و تحلیل رسمی پست سابق-Facto از یک ترکیب بهینه و انتخاب برای گروه ها ، اندازه گیری اختلاف از طریق بهینه سازی خطی در M4 مجموعه دادهیافته های ما نشان می دهد که ویژگی های سری آماری کلاسیک ، مانند روند و فصلی ، به تنهایی تمام اطلاعات مربوطه را ضبط نمی کنید برای پیش بینی یک سری زمانی.در مقابل ، ویژگی های رمان LSTM ما حاوی به طور قابل توجهی قدرت پیش بینی کننده تر از موارد آماری به تنهایی است ، اما ترکیب دو مجموعه ویژگی بهترین عملکرد را در عمل نشان داد.
30,522
This paper synthesizes recent advances in the econometrics of difference-in-differences (DiD) and provides concrete recommendations for practitioners. We begin by articulating a simple set of ``canonical'' assumptions under which the econometrics of DiD are well-understood. We then argue that recent advances in DiD methods can be broadly classified as relaxing some components of the canonical DiD setup, with a focus on $(i)$ multiple periods and variation in treatment timing, $(ii)$ potential violations of parallel trends, or $(iii)$ alternative frameworks for inference. Our discussion highlights the different ways that the DiD literature has advanced beyond the canonical model, and helps to clarify when each of the papers will be relevant for empirical work. We conclude by discussing some promising areas for future research.
در این مقاله پیشرفت های اخیر در اقتصاد سنجی ترکیب شده است اختلاف در اختلاف (DID) و توصیه های مشخصی را برای آن ارائه می دهد پزشکانما با بیان یک مجموعه ساده از "" متعارف "شروع می کنیم فرضیاتی که براساس آن اقتصاد سنجی DID به خوبی درک شده است.سپس ما استدلال کنید که پیشرفت های اخیر در روش های DID می تواند به طور گسترده ای به عنوان آرامش بخش طبقه بندی شود برخی از مؤلفه های Canonical با تمرکز بر روی $ (i) $ چندگانه تنظیم شده است دوره ها و تغییر در زمان درمانی ، $ (ii) $ تخلفات بالقوه روند موازی یا چارچوب های جایگزین $ (iii) $ برای استنتاج.ما بحث روشهای مختلفی را که ادبیات DID پیشرفت کرده است برجسته می کند فراتر از مدل متعارف ، و به روشن شدن هر یک از مقالات کمک می کند برای کارهای تجربی مرتبط باشید.ما با بحث در مورد برخی از مناطق امیدوارکننده نتیجه می گیریم برای تحقیقات آینده
30,523
We propose an approximate factor model for time-dependent curve data that represents a functional time series as the aggregate of a predictive low-dimensional component and an unpredictive infinite-dimensional component. Suitable identification conditions lead to a two-stage estimation procedure based on functional principal components, and the number of factors is estimated consistently through an information criterion-based approach. The methodology is applied to the problem of modeling and predicting yield curves. Our results indicate that more than three factors are required to characterize the dynamics of the term structure of bond yields.
ما یک مدل فاکتور تقریبی را برای داده های منحنی وابسته به زمان پیشنهاد می کنیم که یک سری زمانی کاربردی را به عنوان کل یک پیش بینی کننده نشان می دهد مؤلفه کم بعدی و یک مؤلفه بی نهایت غیرقابل پیش بینی. شرایط شناسایی مناسب منجر به یک روش تخمین دو مرحله ای می شود بر اساس مؤلفه های اصلی عملکردی ، و تعداد عوامل این است به طور مداوم از طریق یک رویکرد مبتنی بر معیار اطلاعات تخمین زده می شود.در روش شناسی برای مشکل مدل سازی و پیش بینی منحنی های عملکرد اعمال می شود. نتایج ما نشان می دهد که بیش از سه عامل برای توصیف لازم است پویایی اصطلاح ساختار بازده اوراق قرضه.
30,524
This paper considers an endogenous binary response model with many weak instruments. We in the current paper employ a control function approach and a regularization scheme to obtain better estimation results for the endogenous binary response model in the presence of many weak instruments. Two consistent and asymptotically normally distributed estimators are provided, each of which is called a regularized conditional maximum likelihood estimator (RCMLE) and a regularized nonlinear least square estimator (RNLSE) respectively. Monte Carlo simulations show that the proposed estimators outperform the existing estimators when many weak instruments are present. We apply our estimation method to study the effect of family income on college completion.
در این مقاله یک مدل پاسخ باینری درون زا با بسیاری از افراد ضعیف در نظر گرفته شده است سازهاما در مقاله حاضر از یک روش عملکرد کنترل و الف استفاده می کنیم طرح منظم برای به دست آوردن نتایج تخمین بهتر برای درون زا مدل پاسخ باینری در حضور بسیاری از ابزارهای ضعیف.دو سازگار و برآوردگرهای توزیع شده به صورت مجانبی ارائه شده است که هر یک از آنها برآوردگر حداکثر احتمال مشروط (RCMLE) و الف نامیده می شود به ترتیب برآوردگر حداقل مربعات غیرخطی (RNLSE).مونت کارلو شبیه سازی ها نشان می دهد که برآوردگرهای پیشنهادی بهتر از موجود هستند برآوردگرها وقتی بسیاری از ابزارهای ضعیف حضور دارند.ما تخمین خود را اعمال می کنیم روش مطالعه تأثیر درآمد خانواده در تکمیل کالج.
30,525
We propose two specifications of a real-time mixed-frequency semi-structural time series model for evaluating the output potential, output gap, Phillips curve, and Okun's law for the US. The baseline model uses minimal theory-based multivariate identification restrictions to inform trend-cycle decomposition, while the alternative model adds the CBO's output gap measure as an observed variable. The latter model results in a smoother output potential and lower cyclical correlation between inflation and real variables but performs worse in forecasting beyond the short term. This methodology allows for the assessment and real-time monitoring of official trend and gap estimates.
ما دو مشخصات از یک فرکانس با فرکانس مخلوط در زمان واقعی را پیشنهاد می کنیم مدل سری زمانی برای ارزیابی پتانسیل خروجی ، شکاف خروجی ، فیلیپس منحنی ، و قانون اوکون برای ایالات متحده.مدل پایه از حداقل مبتنی بر تئوری استفاده می کند محدودیت های شناسایی چند متغیره برای اطلاع از تجزیه چرخه روند ، در حالی که مدل جایگزین اندازه گیری شکاف خروجی CBO را به عنوان یک مشاهده اضافه می کند متغیر.مدل دوم منجر به پتانسیل خروجی نرم تر و پایین تر می شود همبستگی چرخه ای بین تورم و متغیرهای واقعی اما عملکرد بدتری دارد پیش بینی فراتر از کوتاه مدت.این روش امکان ارزیابی را فراهم می کند و نظارت بر زمان واقعی برآوردهای رسمی و تخمین شکاف.
30,526
We propose a method for reporting how program evaluations reduce gaps between groups, such as the gender or Black-white gap. We first show that the reduction in disparities between groups can be written as the difference in conditional average treatment effects (CATE) for each group. Then, using a Kitagawa-Oaxaca-Blinder-style decomposition, we highlight how these CATE can be decomposed into unexplained differences in CATE in other observables versus differences in composition across other observables (e.g. the "endowment"). Finally, we apply this approach to study the impact of Medicare on American's access to health insurance.
ما روشی را برای گزارش چگونگی ارزیابی ارزیابی برنامه ها ، شکاف بین شکاف ها پیشنهاد می کنیم گروه ها ، مانند جنس یا شکاف سیاه و سفید.ما ابتدا نشان می دهیم که کاهش در اختلافات بین گروه ها را می توان به عنوان تفاوت مشروط نوشت میانگین اثرات درمانی (CATE) برای هر گروه.سپس ، با استفاده از a تجزیه kitagawa-oaxaca-blinder به سبک ، ما برجسته می کنیم که این کیت چگونه می تواند باشد تجزیه به تفاوت های غیر قابل توضیح در CATE در سایر مشاهدات در مقابل تفاوت در ترکیب در سایر مشاهدات (به عنوان مثال "موقوفه"). سرانجام ، ما این روش را برای مطالعه تأثیر Medicare بر روی آمریکایی ها اعمال می کنیم دسترسی به بیمه درمانی.
30,527
The Granular Instrumental Variables (GIV) methodology exploits panels with factor error structures to construct instruments to estimate structural time series models with endogeneity even after controlling for latent factors. We extend the GIV methodology in several dimensions. First, we extend the identification procedure to a large $N$ and large $T$ framework, which depends on the asymptotic Herfindahl index of the size distribution of $N$ cross-sectional units. Second, we treat both the factors and loadings as unknown and show that the sampling error in the estimated instrument and factors is negligible when considering the limiting distribution of the structural parameters. Third, we show that the sampling error in the high-dimensional precision matrix is negligible in our estimation algorithm. Fourth, we overidentify the structural parameters with additional constructed instruments, which leads to efficiency gains. Monte Carlo evidence is presented to support our asymptotic theory and application to the global crude oil market leads to new results.
متغیرهای ابزاری سازنده (GIV) از پانل ها استفاده می کند ساختارهای خطای عامل برای ساخت ابزارها برای برآورد زمان ساختاری مدل های سری با درون زا حتی پس از کنترل عوامل نهفته.ما روش GIV را در ابعاد مختلف گسترش دهید.اول ، ما گسترش می دهیم روش شناسایی به یک چارچوب بزرگ $ n $ و بزرگ $ t $ ، که بستگی دارد در شاخص بدون علامت Herfindahl از توزیع اندازه $ n $ واحدهای مقطعی.دوم ، ما هم عوامل و هم بارگذاری را با هم درمان می کنیم ناشناخته و نشان می دهد که خطای نمونه برداری در ساز تخمینی و فاکتورها هنگام در نظر گرفتن توزیع محدود کننده ناچیز هستند پارامترهای ساختاری.سوم ، ما نشان می دهیم که خطای نمونه برداری در ماتریس با دقت بالا در الگوریتم تخمین ما ناچیز است. چهارم ، ما پارامترهای ساختاری را با ساخت اضافی شناسایی می کنیم ابزارهایی که منجر به افزایش کارآیی می شود.شواهد مونت کارلو ارائه شده است برای حمایت از نظریه بدون علامت و کاربرد ما در بازار جهانی نفت خام منجر به نتایج جدید می شود.
30,530
Time-varying parameter VARs with stochastic volatility are routinely used for structural analysis and forecasting in settings involving a few endogenous variables. Applying these models to high-dimensional datasets has proved to be challenging due to intensive computations and over-parameterization concerns. We develop an efficient Bayesian sparsification method for a class of models we call hybrid TVP-VARs--VARs with time-varying parameters in some equations but constant coefficients in others. Specifically, for each equation, the new method automatically decides whether the VAR coefficients and contemporaneous relations among variables are constant or time-varying. Using US datasets of various dimensions, we find evidence that the parameters in some, but not all, equations are time varying. The large hybrid TVP-VAR also forecasts better than many standard benchmarks.
پارامتر متغیر زمان با نوسانات تصادفی به طور معمول برای استفاده می شود تجزیه و تحلیل ساختاری و پیش بینی در تنظیمات مربوط به چند درون زا متغیرهااستفاده از این مدل ها در مجموعه داده های با ابعاد بالا ثابت شده است به دلیل محاسبات فشرده و نگرانی های بیش از حد پارامتر ، چالش برانگیز است. ما برای یک کلاس از مدل های ما یک روش کارآمد بیزی ایجاد می کنیم تماس با TVP-VARS HYBRID-VARS با پارامترهای متغیر زمان در برخی معادلات اما ضرایب ثابت در دیگران.به طور خاص ، برای هر معادله ، جدید روش به طور خودکار تصمیم می گیرد که آیا ضرایب VAR و همزمان همزمان روابط بین متغیرها ثابت یا متغیر است.استفاده از مجموعه داده های ایالات متحده ابعاد مختلف ، ما شواهدی می یابیم که پارامترها در برخی ، اما نه همه ، معادلات متغیر هستند.TVP-VAR بزرگ ترکیبی نیز بهتر از بسیاری از معیارهای استاندارد.
30,531
We present an algorithm for the calibration of local volatility from market option prices through deep self-consistent learning, by approximating both market option prices and local volatility using deep neural networks, respectively. Our method uses the initial-boundary value problem of the underlying Dupire's partial differential equation solved by the parameterized option prices to bring corrections to the parameterization in a self-consistent way. By exploiting the differentiability of the neural networks, we can evaluate Dupire's equation locally at each strike-maturity pair; while by exploiting their continuity, we sample strike-maturity pairs uniformly from a given domain, going beyond the discrete points where the options are quoted. Moreover, the absence of arbitrage opportunities are imposed by penalizing an associated loss function as a soft constraint. For comparison with existing approaches, the proposed method is tested on both synthetic and market option prices, which shows an improved performance in terms of reduced interpolation and reprice errors, as well as the smoothness of the calibrated local volatility. An ablation study has been performed, asserting the robustness and significance of the proposed method.
ما یک الگوریتم برای کالیبراسیون نوسانات محلی از بازار ارائه می دهیم قیمت های گزینه از طریق یادگیری عمیق خود سازگار ، با تقریب هر دو قیمت گزینه های بازار و نوسانات محلی با استفاده از شبکه های عصبی عمیق ، به ترتیب.روش ما از مشکل ارزش مرزی اولیه استفاده می کند معادله دیفرانسیل جزئی Dupire که توسط پارامتر حل شده است قیمت گزینه برای ایجاد اصلاحات به پارامتری در یک خود سازگار مسیر.با بهره برداری از متفاوت بودن شبکه های عصبی ، می توانیم معادله Dupire را به صورت محلی در هر یک از جفت های اعتصاب ارزیابی کنید.در حالی که توسط با استثمار تدا با توجه به دامنه ، فراتر از نقاط گسسته که گزینه ها نقل شده است. علاوه بر این ، عدم وجود فرصت های داوری با مجازات کردن عملکرد از دست دادن مرتبط به عنوان یک محدودیت نرم.برای مقایسه با موجود رویکردها ، روش پیشنهادی در هر دو گزینه مصنوعی و بازار آزمایش می شود قیمت ها ، که عملکرد بهبود یافته را از نظر کاهش درون یابی نشان می دهد و خطاهای چاپ مجدد ، و همچنین صاف بودن محلی کالیبره شده نوسان.یک مطالعه فرسایش انجام شده است ، و ادعای استحکام و اهمیت روش پیشنهادی.
30,532
Integrated assessment models have become the primary tools for comparing climate policies that seek to reduce greenhouse gas emissions. Policy comparisons have often been performed by considering a planner who seeks to make optimal trade-offs between the costs of carbon abatement and the economic damages from climate change. The planning problem has been formalized as one of optimal control, the objective being to minimize the total costs of abatement and damages over a time horizon. Studying climate policy as a control problem presumes that a planner knows enough to make optimization feasible, but physical and economic uncertainties abound. Earlier, Manski, Sanstad, and DeCanio proposed and studied use of the minimax-regret (MMR) decision criterion to account for deep uncertainty in climate modeling. Here we study choice of climate policy that minimizes maximum regret with deep uncertainty regarding both the correct climate model and the appropriate time discount rate to use in intergenerational assessment of policy consequences. The analysis specifies a range of discount rates to express both empirical and normative uncertainty about the appropriate rate. The findings regarding climate policy are novel and informative. The MMR analysis points to use of a relatively low discount rate of 0.02 for climate policy. The MMR decision rule keeps the maximum future temperature increase below 2C above the 1900-10 level for most of the parameter values used to weight costs and damages.
مدلهای ارزیابی یکپارچه به ابزارهای اصلی برای مقایسه تبدیل شده اند سیاست های آب و هوایی که به دنبال کاهش انتشار گازهای گلخانه ای هستند.خط مشی مقایسه ها اغلب با در نظر گرفتن یک برنامه ریز که به دنبال آن است انجام شده است تجارت بهینه بین هزینه های کاهش کربن و اقتصادی انجام دهید خسارت ناشی از تغییرات آب و هوا.مشکل برنامه ریزی به عنوان یکی از آنها رسمی شده است کنترل بهینه ، هدف برای به حداقل رساندن کل هزینه های کاهش و خسارت در یک افق زمانی.مطالعه سیاست آب و هوا به عنوان یک مشکل کنترل فرض می کند که یک برنامه ریز به اندازه کافی می داند که بهینه سازی را امکان پذیر کند ، اما عدم قطعیت های جسمی و اقتصادی فراوان است.پیش از این ، مانسکی ، سانستاد ، و Decanio استفاده از معیار تصمیم گیری Minimax-Regret (MMR) را پیشنهاد و مورد مطالعه قرار داد برای عدم اطمینان عمیق در مدل سازی آب و هوا.در اینجا ما انتخاب می کنیم سیاست آب و هوایی که حداکثر پشیمانی را با عدم اطمینان عمیق در مورد به حداقل می رساند هم مدل آب و هوایی صحیح و هم نرخ تخفیف زمانی مناسب برای استفاده در ارزیابی بین نسلی پیامدهای سیاست.تجزیه و تحلیل مشخص می کند دامنه نرخ تخفیف برای بیان عدم اطمینان تجربی و هنجاری در مورد نرخ مناسبیافته های مربوط به سیاست آب و هوا رمان و آموزندهتجزیه و تحلیل MMR به استفاده از نرخ تخفیف نسبتاً پایین اشاره می کند از 0.02 برای سیاست آب و هوا.قانون تصمیم MMR حداکثر آینده را حفظ می کند افزایش دما زیر 2 درجه بالاتر از سطح 1900-10 برای بیشتر پارامتر مقادیر استفاده شده برای هزینه و خسارت وزن.
30,533
This paper presents a new approach for the estimation and inference of the regression parameters in a panel data model with interactive fixed effects. It relies on the assumption that the factor loadings can be expressed as an unknown smooth function of the time average of covariates plus an idiosyncratic error term. Compared to existing approaches, our estimator has a simple partial least squares form and does neither require iterative procedures nor the previous estimation of factors. We derive its asymptotic properties by finding out that the limiting distribution has a discontinuity, depending on the explanatory power of our basis functions which is expressed by the variance of the error of the factor loadings. As a result, the usual ``plug-in" methods based on estimates of the asymptotic covariance are only valid pointwise and may produce either over- or under-coverage probabilities. We show that uniformly valid inference can be achieved by using the cross-sectional bootstrap. A Monte Carlo study indicates good performance in terms of mean squared error. We apply our methodology to analyze the determinants of growth rates in OECD countries.
در این مقاله یک رویکرد جدید برای تخمین و استنباط از پارامترهای رگرسیون در یک مدل داده پانل با اثرات ثابت تعاملی.آی تی به این فرض متکی است که می توان بارهای عاملی را به عنوان یک بیان کرد عملکرد صاف ناشناخته از میانگین زمان متغیرهای متغیر به علاوه یک ایدیوسنکراتیک عبارت خطا.در مقایسه با رویکردهای موجود ، برآوردگر ما یک جزئی ساده دارد حداقل مربعات تشکیل می شوند و نه به روشهای تکراری و نه نیاز دارند تخمین قبلی عوامل. ما با فهمیدن محدود کردن ، خصوصیات بدون علامت آن را استخراج می کنیم بسته به قدرت توضیحی ما ، توزیع دارای ناپیوستگی است توابع پایه ای که با واریانس خطای فاکتور بیان می شود بارگذاریدر نتیجه ، روشهای معمول "افزونه" بر اساس تخمین های کواریانس بدون علامت فقط از نظر نقطه ای معتبر است و ممکن است بیش از حد یا بیش از حد تولید کند احتمالات زیر پوشش.ما نشان می دهیم که استنتاج یکنواخت معتبر می تواند باشد با استفاده از بوت استرپ مقطعی حاصل می شود.یک مطالعه مونت کارلو نشان می دهد عملکرد خوب از نظر خطای متوسط ​​مربع.ما روش خود را در عوامل تعیین کننده نرخ رشد در کشورهای OECD را تجزیه و تحلیل کنید.
30,534
Estimation of causal effects using machine learning methods has become an active research field in econometrics. In this paper, we study the finite sample performance of meta-learners for estimation of heterogeneous treatment effects under the usage of sample-splitting and cross-fitting to reduce the overfitting bias. In both synthetic and semi-synthetic simulations we find that the performance of the meta-learners in finite samples greatly depends on the estimation procedure. The results imply that sample-splitting and cross-fitting are beneficial in large samples for bias reduction and efficiency of the meta-learners, respectively, whereas full-sample estimation is preferable in small samples. Furthermore, we derive practical recommendations for application of specific meta-learners in empirical studies depending on particular data characteristics such as treatment shares and sample size.
تخمین اثرات علی با استفاده از روشهای یادگیری ماشین به یک تبدیل شده است زمینه تحقیق فعال در اقتصاد سنجی.در این مقاله ، ما محدود را مطالعه می کنیم عملکرد نمونه از متا مدنی برای برآورد درمان ناهمگن اثرات تحت استفاده از نمونه های تقسیم نمونه و متناسب برای کاهش تعصب بیش از حددر هر دو شبیه سازی مصنوعی و نیمه سنتز عملکرد متا-یادگیری در نمونه های محدود تا حد زیادی به این امر بستگی دارد روش تخمیننتایج حاکی از آن است که نمونه برداری و متناسب با آن متناسب است در نمونه های بزرگ برای کاهش تعصب و کارآیی در به ترتیب ، متا-یادگیری ، در حالی که برآورد کامل نمونه در آن ارجح است نمونه های کوچکعلاوه بر این ، ما توصیه های عملی را برای کاربرد تهیه می کنیم بسته به داده های خاص ، از متا یادگیری های خاص در مطالعات تجربی بسته به داده های خاص خصوصیاتی مانند سهام درمانی و اندازه نمونه.
30,540
We develop and justify methodology to consistently test for long-horizon return predictability based on realized variance. To accomplish this, we propose a parametric transaction-level model for the continuous-time log price process based on a pure jump point process. The model determines the returns and realized variance at any level of aggregation with properties shown to be consistent with the stylized facts in the empirical finance literature. Under our model, the long-memory parameter propagates unchanged from the transaction-level drift to the calendar-time returns and the realized variance, leading endogenously to a balanced predictive regression equation. We propose an asymptotic framework using power-law aggregation in the predictive regression. Within this framework, we propose a hypothesis test for long horizon return predictability which is asymptotically correctly sized and consistent.
ما متدولوژی را توسعه داده و توجیه می کنیم تا به طور مداوم برای افکار طولانی آزمایش کنیم پیش بینی بازگشت بر اساس واریانس تحقق یافته.برای انجام این کار ، ما یک مدل سطح معامله پارامتری را برای قیمت ورود به سیستم مداوم پیشنهاد دهید فرآیند بر اساس یک فرآیند پرش خالص.مدل بازده را تعیین می کند و واریانس تحقق یافته در هر سطح از تجمع با خواص نشان داده شده است مطابق با حقایق تلطیف شده در ادبیات مالی تجربی.زیر مدل ما ، پارامتر حافظه بلند بدون تغییر از حرکت در سطح معامله به بازده زمان تقویم و واریانس تحقق یافته ، پیشرو درون زا به یک معادله رگرسیون پیش بینی کننده متعادل.ما پیشنهاد می کنیم یک چارچوب بدون علامت با استفاده از تجمع قدرت قانون در پیش بینی پسرفت.در این چارچوب ، ما یک آزمون فرضیه را برای مدت طولانی پیشنهاد می کنیم پیش بینی بازگشت Horizon که به صورت بدون علامت به اندازه کافی اندازه است و استوار.
30,535
Practitioners and academics have long appreciated the benefits of covariate balancing when they conduct randomized experiments. For web-facing firms running online A/B tests, however, it still remains challenging in balancing covariate information when experimental subjects arrive sequentially. In this paper, we study an online experimental design problem, which we refer to as the "Online Blocking Problem." In this problem, experimental subjects with heterogeneous covariate information arrive sequentially and must be immediately assigned into either the control or the treated group. The objective is to minimize the total discrepancy, which is defined as the minimum weight perfect matching between the two groups. To solve this problem, we propose a randomized design of experiment, which we refer to as the "Pigeonhole Design." The pigeonhole design first partitions the covariate space into smaller spaces, which we refer to as pigeonholes, and then, when the experimental subjects arrive at each pigeonhole, balances the number of control and treated subjects for each pigeonhole. We analyze the theoretical performance of the pigeonhole design and show its effectiveness by comparing against two well-known benchmark designs: the match-pair design and the completely randomized design. We identify scenarios when the pigeonhole design demonstrates more benefits over the benchmark design. To conclude, we conduct extensive simulations using Yahoo! data to show a 10.2% reduction in variance if we use the pigeonhole design to estimate the average treatment effect.
پزشکان و دانشگاهیان مدتهاست که از مزایای متغیرهای متغیر قدردانی می کنند تعادل هنگام انجام آزمایشات تصادفی.برای شرکت های وب سایت با این حال ، اجرای تست های A/B آنلاین ، هنوز هم در تعادل همچنان چالش برانگیز است اطلاعات متغیر هنگامی که افراد آزمایشی به صورت متوالی وارد می شوند.در این مقاله ، ما یک مشکل طراحی آزمایشی آنلاین را مطالعه می کنیم ، که از آن به عنوان آن یاد می کنیم "مشکل مسدود کردن آنلاین."در این مشکل ، افراد آزمایشی با اطلاعات متغیر ناهمگن به صورت متوالی وارد می شوند و باید بلافاصله باشند به کنترل یا گروه تحت درمان اختصاص داده می شود.هدف این است که اختلاف کل را که به عنوان حداقل وزن کامل تعریف شده است به حداقل برسانید تطبیق بین دو گروه.برای حل این مشکل ، ما یک تصادفی پیشنهاد می کنیم طراحی آزمایش ، که ما از آن به عنوان "طراحی کبوتر" یاد می کنیم.در طراحی کبوتر پارتیشن های اول فضای متغیر را در فضاهای کوچکتر ، که ما از آن به عنوان کبوتر یاد می کنیم ، و سپس ، هنگامی که افراد آزمایشی به هر کبوتر وارد شوید ، تعداد کنترل و افراد تحت درمان را متعادل می کند برای هر کبوتر.ما عملکرد نظری کبوتر را تجزیه و تحلیل می کنیم با مقایسه در برابر دو معیار مشهور ، اثربخشی آن را طراحی و نشان دهید طرح ها: طراحی جفت مسابقه و طراحی کاملاً تصادفی.ما سناریوها را شناسایی کنید که طراحی کبوتر مزایای بیشتری را نشان می دهد طراحی معیار.برای نتیجه گیری ، ما شبیه سازی های گسترده ای را با استفاده از آن انجام می دهیم یاهودر صورت استفاده از کبوتر ، داده ها برای کاهش 10.2 ٪ واریانس نشان می دهد طراحی برای تخمین میانگین اثر درمانی.
30,536
Time series that display periodicity can be described with a Fourier expansion. In a similar vein, a recently developed formalism enables description of growth patterns with the optimal number of parameters (Elitzur et al, 2020). The method has been applied to the growth of national GDP, population and the COVID-19 pandemic; in all cases the deviations of long-term growth patterns from pure exponential required no more than two additional parameters, mostly only one. Here I utilize the new framework to develop a unified formulation for all functions that describe growth deceleration, wherein the growth rate decreases with time. The result offers the prospects for a new general tool for trend removal in time-series analysis.
سری زمانی که تناوب را نشان می دهد با یک فوریه قابل توصیف است انبساطدر همین راستا ، یک فرمالیسم اخیراً توسعه یافته امکان پذیر است شرح الگوهای رشد با تعداد بهینه پارامترها (الیتزور و همکاران ، 2020).این روش برای رشد تولید ناخالص داخلی ملی اعمال شده است ، جمعیت و همه گیر Covid-19 ؛در همه موارد انحراف طولانی مدت الگوهای رشد از نمایی خالص بیش از دو مورد دیگر لازم نیست پارامترها ، بیشتر فقط یک.در اینجا من از چارچوب جدید برای توسعه استفاده می کنم فرمولاسیون یکپارچه برای کلیه کارکردهایی که کاهش سرعت رشد را توصیف می کنند ، که در آن نرخ رشد با گذشت زمان کاهش می یابد.نتیجه چشم انداز را ارائه می دهد برای یک ابزار کلی جدید برای حذف روند در تجزیه و تحلیل سری زمانی.
30,537
We investigate how to improve efficiency using regression adjustments with covariates in covariate-adaptive randomizations (CARs) with imperfect subject compliance. Our regression-adjusted estimators, which are based on the doubly robust moment for local average treatment effects, are consistent and asymptotically normal even with heterogeneous probability of assignment and misspecified regression adjustments. We propose an optimal but potentially misspecified linear adjustment and its further improvement via a nonlinear adjustment, both of which lead to more efficient estimators than the one without adjustments. We also provide conditions for nonparametric and regularized adjustments to achieve the semiparametric efficiency bound under CARs.
ما بررسی می کنیم که چگونه می توان با استفاده از تنظیمات رگرسیون ، کارآیی را بهبود بخشید متغیرهای متغیر در تصادفی سازی های متغیر متغیر (CARS) با موضوع ناقص انطباق.برآوردگرهای تنظیم شده رگرسیون ما ، که مبتنی بر دو برابر هستند لحظه قوی برای اثرات درمانی متوسط ​​محلی ، سازگار است و بدون علامت طبیعی حتی با احتمال ناهمگن تکلیف و تنظیمات رگرسیون غلط املایی.ما یک بهینه اما بالقوه پیشنهاد می کنیم تنظیم خطی اشتباه و بهبود بیشتر آن از طریق غیرخطی تعدیل ، که هر دو منجر به برآوردگرهای کارآمدتر از آن می شوند بدون تنظیمما همچنین شرایطی را برای غیرپارامتری فراهم می کنیم و تنظیمات منظم برای دستیابی ماشین ها.
30,538
Limited datasets and complex nonlinear relationships are among the challenges that may emerge when applying econometrics to macroeconomic problems. This research proposes deep learning as an approach to transfer learning in the former case and to map relationships between variables in the latter case. Although macroeconomists already apply transfer learning when assuming a given a priori distribution in a Bayesian context, estimating a structural VAR with signal restriction and calibrating parameters based on results observed in other models, to name a few examples, advance in a more systematic transfer learning strategy in applied macroeconomics is the innovation we are introducing. We explore the proposed strategy empirically, showing that data from different but related domains, a type of transfer learning, helps identify the business cycle phases when there is no business cycle dating committee and to quick estimate a economic-based output gap. Next, since deep learning methods are a way of learning representations, those that are formed by the composition of multiple non-linear transformations, to yield more abstract representations, we apply deep learning for mapping low-frequency from high-frequency variables. The results obtained show the suitability of deep learning models applied to macroeconomic problems. First, models learned to classify United States business cycles correctly. Then, applying transfer learning, they were able to identify the business cycles of out-of-sample Brazilian and European data. Along the same lines, the models learned to estimate the output gap based on the U.S. data and obtained good performance when faced with Brazilian data. Additionally, deep learning proved adequate for mapping low-frequency variables from high-frequency data to interpolate, distribute, and extrapolate time series by related series.
مجموعه داده های محدود و روابط غیرخطی پیچیده از جمله چالش ها است این ممکن است هنگام استفاده از اقتصاد سنجی برای مشکلات کلان اقتصادی پدیدار شود.این تحقیقات یادگیری عمیق را به عنوان رویکردی برای انتقال یادگیری در مورد قبلی و نقشه برداری روابط بین متغیرها در مورد دوم. اگرچه اقتصاد شناسان کلان در هنگام فرض یک داده شده از یادگیری انتقال استفاده می کنند توزیع پیشینی در یک زمینه بیزی ، تخمین VAR ساختاری با محدودیت سیگنال و پارامترهای کالیبراسیون بر اساس نتایج مشاهده شده در مدل های دیگر ، برای ذکر چند مثال ، در یک انتقال سیستماتیک تر پیش می روند استراتژی یادگیری در اقتصاد کلان کاربردی نوآوری ماست معرفیما استراتژی پیشنهادی را به صورت تجربی کشف می کنیم و این داده ها را نشان می دهیم از حوزه های مختلف اما مرتبط ، نوعی یادگیری انتقال ، به شناسایی کمک می کند مراحل چرخه تجارت هنگامی که هیچ کمیته دوستیابی چرخه تجارت وجود ندارد و برای برآورد سریع شکاف خروجی مبتنی بر اقتصادی.بعد ، از زمان یادگیری عمیق روشها راهی برای یادگیری بازنمایی ها هستند ، مواردی که توسط ترکیب چندین تحول غیرخطی ، برای به دست آوردن انتزاعی تر بازنمودها ، ما برای نقشه برداری از فرکانس پایین از یادگیری عمیق استفاده می کنیم متغیرهای با فرکانس بالا.نتایج به دست آمده ، مناسب بودن عمیق را نشان می دهد مدل های یادگیری برای مشکلات کلان اقتصادی اعمال می شود.اول ، مدل ها آموخته اند چرخه های تجاری ایالات متحده را به درستی طبقه بندی کنید.سپس ، با استفاده از انتقال یادگیری ، آنها توانستند چرخه های تجاری خارج از نمونه را شناسایی کنند داده های برزیل و اروپایی.در همان خطوط ، مدل ها آموخته اند شکاف خروجی را بر اساس داده های ایالات متحده تخمین بزنید و عملکرد خوبی کسب کنید هنگامی که با داده های برزیل روبرو می شوید.علاوه بر این ، یادگیری عمیق برای نقشه برداری از متغیرهای با فرکانس پایین از داده های با فرکانس بالا تا درون یابی ، توزیع و سریال های زمانی را توسط سری های مرتبط توزیع کنید.
30,539
The decisions of whether and how to evacuate during a climate disaster are influenced by a wide range of factors, including sociodemographics, emergency messaging, and social influence. Further complexity is introduced when multiple hazards occur simultaneously, such as a flood evacuation taking place amid a viral pandemic that requires physical distancing. Such multi-hazard events can necessitate a nuanced navigation of competing decision-making strategies wherein a desire to follow peers is weighed against contagion risks. To better understand these nuances, we distributed an online survey during a pandemic surge in July 2020 to 600 individuals in three midwestern and three southern states in the United States with high risk of flooding. In this paper, we estimate a random parameter logit model in both preference space and willingness-to-pay space. Our results show that the directionality and magnitude of the influence of peers' choices of whether and how to evacuate vary widely across respondents. Overall, the decision of whether to evacuate is positively impacted by peer behavior, while the decision of how to evacuate is negatively impacted by peers. Furthermore, an increase in flood threat level lessens the magnitude of these impacts. These findings have important implications for the design of tailored emergency messaging strategies. Specifically, emphasizing or deemphasizing the severity of each threat in a multi-hazard scenario may assist in: (1) encouraging a reprioritization of competing risk perceptions and (2) magnifying or neutralizing the impacts of social influence, thereby (3) nudging evacuation decision-making toward a desired outcome.
تصمیمات مربوط به اینکه آیا و چگونه برای تخلیه در هنگام فاجعه آب و هوا تخلیه می شوند تحت تأثیر طیف گسترده ای از عوامل ، از جمله جامعه شناسی ، اضطراری پیام رسانی ، و تأثیر اجتماعی.پیچیدگی بیشتر هنگامی معرفی می شود که چند خطرات به طور همزمان رخ می دهد ، مانند تخلیه سیل که در میان A اتفاق می افتد بیماری همه گیر ویروسی که نیاز به فاصله جسمی دارد.چنین رویدادهای چند خطرناک می تواند نیاز به یک ناوبری ظریف در استراتژی های تصمیم گیری رقابتی که در آن تمایل به پیروی از همسالان در برابر خطرات مسری وزن می شود.بهتر این تفاوت ها را درک کنید ، ما یک بررسی آنلاین را در طول یک بیماری همه گیر توزیع کردیم در ژوئیه 2020 به 600 نفر در سه میانه غربی و سه جنوبی افزایش می یابد ایالت های ایالات متحده با خطر زیاد سیل.در این مقاله ، ما یک مدل ورود پارامتر تصادفی را در هر دو فضای اولویت تخمین بزنید تمایل به پرداخت فضای.نتایج ما نشان می دهد که جهت و بزرگی تأثیر انتخاب همسالان از اینکه آیا و چگونه تخلیه می شود در بین پاسخ دهندگان بسیار متفاوت است.به طور کلی ، تصمیم در مورد تخلیه این است تحت تأثیر رفتار همسالان ، در حالی که تصمیم به تخلیه است تحت تأثیر منفی توسط همسالان.علاوه بر این ، افزایش سطح تهدید سیل میزان این تأثیرات را کاهش می دهد.این یافته ها دارای مهم هستند پیامدهای طراحی استراتژی های پیام رسانی اضطراری متناسب. به طور خاص ، تأکید یا تأکید بر شدت هر تهدید در سناریوی چند خطر ممکن است به: (1) تشویق مجدداً از درک ریسک ریسک و (2) بزرگنمایی یا خنثی کردن تأثیرات تأثیر اجتماعی ، از این طریق (3) تصمیم گیری در مورد تخلیه به سمت a نتیجه مورد نظر.
30,549
This paper proposes a simple unified approach to testing transformations on cumulative distribution functions (CDFs) in the presence of nuisance parameters. The proposed test is constructed based on a new characterization that avoids the estimation of nuisance parameters. The critical values are obtained through a numerical bootstrap method which can easily be implemented in practice. Under suitable conditions, the proposed test is shown to be asymptotically size controlled and consistent. The local power property of the test is established. Finally, Monte Carlo simulations and an empirical study show that the test performs well on finite samples.
در این مقاله یک رویکرد ساده یکپارچه برای آزمایش تحولات در مورد ارائه شده است توابع توزیع تجمعی (CDF) در حضور مزاحمت مولفه های.آزمون پیشنهادی بر اساس خصوصیات جدید ساخته شده است که از برآورد پارامترهای مزاحمت جلوگیری می کند.مقادیر بحرانی هستند به دست آمده از طریق یک روش بوت استرپ عددی که به راحتی قابل اجرا است در عملدر شرایط مناسب ، آزمایش پیشنهادی نشان داده شده است اندازه بدون علامت کنترل و سازگار.خاصیت قدرت محلی آزمون برقرار شده است.سرانجام ، شبیه سازی مونت کارلو و یک مطالعه تجربی نشان دهید که این آزمایش در نمونه های محدود عملکرد خوبی دارد.
30,543
This paper introduces a Threshold Asymmetric Conditional Autoregressive Range (TACARR) formulation for modeling the daily price ranges of financial assets. It is assumed that the process generating the conditional expected ranges at each time point switches between two regimes, labeled as upward market and downward market states. The disturbance term of the error process is also allowed to switch between two distributions depending on the regime. It is assumed that a self-adjusting threshold component that is driven by the past values of the time series determines the current market regime. The proposed model is able to capture aspects such as asymmetric and heteroscedastic behavior of volatility in financial markets. The proposed model is an attempt at addressing several potential deficits found in existing price range models such as the Conditional Autoregressive Range (CARR), Asymmetric CARR (ACARR), Feedback ACARR (FACARR) and Threshold Autoregressive Range (TARR) models. Parameters of the model are estimated using the Maximum Likelihood (ML) method. A simulation study shows that the ML method performs well in estimating the TACARR model parameters. The empirical performance of the TACARR model was investigated using IBM index data and results show that the proposed model is a good alternative for in-sample prediction and out-of-sample forecasting of volatility. Key Words: Volatility Modeling, Asymmetric Volatility, CARR Models, Regime Switching.
در این مقاله ، یک محدوده اتورگرایی مشروط نامتقارن آستانه معرفی شده است (TACARR) فرمول برای مدل سازی محدوده قیمت روزانه دارایی های مالی. فرض بر این است که فرآیند تولید محدوده مورد انتظار مشروط در هر نقطه زمانی بین دو رژیم تغییر می کند ، با عنوان بازار رو به بالا و کشورهای بازار رو به پایین.مدت اختلال در روند خطا نیز هست بسته به رژیم مجاز به جابجایی بین دو توزیع است.این است فرض کرد که یک مؤلفه آستانه تنظیم کننده که توسط گذشته هدایت می شود مقادیر سری زمانی رژیم فعلی بازار را تعیین می کند.پیشنهاد مدل قادر به ضبط جنبه هایی مانند نامتقارن و ناهمگن است رفتار نوسانات در بازارهای مالی.مدل پیشنهادی یک تلاش است در پرداختن به چندین کسری بالقوه موجود در مدل های محدوده قیمت موجود مانند محدوده اتوراگرایی مشروط (CARR) ، کار نامتقارن (ACARR) ، بازخورد ACARR (FACARR) و مدل های محدوده اتورگرایی آستانه (TARR). پارامترهای مدل با استفاده از روش حداکثر احتمال (ML) تخمین زده می شود. یک مطالعه شبیه سازی نشان می دهد که روش ML در تخمین عملکرد عملکرد خوبی دارد پارامترهای مدل TACARR.عملکرد تجربی مدل TACARR بود با استفاده از داده ها و نتایج شاخص IBM بررسی شده است که مدل پیشنهادی a است جایگزین مناسب برای پیش بینی در نمونه و پیش بینی خارج از نمونه از نوسان. کلمات کلیدی: مدل سازی نوسانات ، نوسانات نامتقارن ، مدل های CARR ، رژیم تعویض
30,544
We use machine learning techniques to investigate whether it is possible to replicate the behavior of bank managers who assess the risk of commercial loans made by a large commercial US bank. Even though a typical bank already relies on an algorithmic scorecard process to evaluate risk, bank managers are given significant latitude in adjusting the risk score in order to account for other holistic factors based on their intuition and experience. We show that it is possible to find machine learning algorithms that can replicate the behavior of the bank managers. The input to the algorithms consists of a combination of standard financials and soft information available to bank managers as part of the typical loan review process. We also document the presence of significant heterogeneity in the adjustment process that can be traced to differences across managers and industries. Our results highlight the effectiveness of machine learning based analytic approaches to banking and the potential challenges to high-skill jobs in the financial sector.
ما از تکنیک های یادگیری ماشین استفاده می کنیم تا بررسی کنیم که آیا امکان پذیر است رفتار مدیران بانکی را که خطر وام های تجاری را ارزیابی می کنند ، تکرار کنید ساخته شده توسط یک بانک تجاری بزرگ ایالات متحده.حتی اگر یک بانک معمولی از قبل اعتماد کند در یک فرآیند کارت امتیازی الگوریتمی برای ارزیابی ریسک ، به مدیران بانک داده می شود عرض جغرافیایی قابل توجه در تنظیم نمره ریسک به منظور حساب کردن سایر موارد عوامل جامع بر اساس شهود و تجربه آنها.ما نشان می دهیم که این است برای یافتن الگوریتم های یادگیری ماشین که می تواند رفتار را تکرار کند ممکن است مدیران بانکورودی به الگوریتم ها از ترکیبی از مالی استاندارد و اطلاعات نرم در دسترس مدیران بانک به عنوان بخشی از فرآیند بررسی وام معمولی.ما همچنین حضور قابل توجه را مستند می کنیم ناهمگونی در فرآیند تنظیم که می تواند در اختلافات ردیابی شود در سراسر مدیران و صنایع.نتایج ما اثربخشی را برجسته می کند رویکردهای تحلیلی مبتنی بر یادگیری ماشین به بانکداری و پتانسیل چالش های مربوط به مشاغل با مهارت بالا در بخش مالی.
30,545
Economists often estimate models using data from a particular domain, e.g. estimating risk preferences in a particular subject pool or for a specific class of lotteries. Whether a model's predictions extrapolate well across domains depends on whether the estimated model has captured generalizable structure. We provide a tractable formulation for this "out-of-domain" prediction problem and define the transfer error of a model based on how well it performs on data from a new domain. We derive finite-sample forecast intervals that are guaranteed to cover realized transfer errors with a user-selected probability when domains are iid, and use these intervals to compare the transferability of economic models and black box algorithms for predicting certainty equivalents. We find that in this application, the black box algorithms we consider outperform standard economic models when estimated and tested on data from the same domain, but the economic models generalize across domains better than the black-box algorithms do.
اقتصاددانان غالباً مدل ها را با استفاده از داده های یک دامنه خاص تخمین می زنند ، به عنوان مثال تخمین ترجیحات ریسک در یک استخر موضوعی خاص یا برای یک خاص کلاس قرعه کشی.این که آیا پیش بینی های یک مدل به خوبی از بین می روند دامنه ها به این بستگی دارد که آیا مدل تخمین زده شده قابل تعمیم بوده است ساختارما یک فرمول قابل ردیابی برای این "خارج از دامنه" ارائه می دهیم مشکل پیش بینی و خطای انتقال یک مدل را بر اساس میزان خوب تعریف کنید این داده ها را از یک دامنه جدید اجرا می کند.ما پیش بینی نمونه محدود را به دست می آوریم فواصل زمانی که برای پوشش خطاهای انتقال تحقق یافته با a تضمین شده اند احتمال انتخاب کاربر هنگامی که دامنه ها IID هستند و از این فواصل استفاده می کنند قابلیت انتقال مدل های اقتصادی و الگوریتم های جعبه سیاه را برای مقایسه کنید پیش بینی معادل های یقین.ما می دانیم که در این برنامه ، سیاه الگوریتم های جعبه ما وقتی تخمین زده می شود مدل های اقتصادی استاندارد را بهتر می دانیم و بر روی داده های همان دامنه آزمایش شده است ، اما مدل های اقتصادی تعمیم می دهند در سراسر دامنه ها بهتر از الگوریتم های جعبه سیاه هستند.
30,546
In many first-price auctions, bidders face considerable strategic uncertainty: They cannot perfectly anticipate the other bidders' bidding behavior. We propose a model in which bidders do not know the entire distribution of opponent bids but only the expected (winning) bid and lower and upper bounds on the opponent bids. We characterize the optimal bidding strategies and prove the existence of equilibrium beliefs. Finally, we apply the model to estimate the cost distribution in highway procurement auctions and find good performance out-of-sample.
در بسیاری از حراج های قیمت اول ، داوطلبان با استراتژیک قابل توجهی روبرو هستند عدم اطمینان: آنها نمی توانند پیشنهادات داوطلب دیگر را کاملاً پیش بینی کنند رفتار - اخلاق.ما مدلی را پیشنهاد می کنیم که در آن داوطلبان کل را نمی شناسند توزیع پیشنهادات حریف اما فقط پیشنهاد مورد انتظار (برنده) و پایین تر و مرزهای بالایی در پیشنهادات حریف.ما مناقصه بهینه را توصیف می کنیم استراتژی ها و اثبات وجود اعتقادات تعادل.سرانجام ، ما اقدام می کنیم مدل برای برآورد توزیع هزینه در حراج های تهیه بزرگراه و عملکرد خوب خارج از نمونه را پیدا کنید.
30,547
Labor economists regularly analyze employment data by fitting predictive models to small, carefully constructed longitudinal survey datasets. Although modern machine learning methods offer promise for such problems, these survey datasets are too small to take advantage of them. In recent years large datasets of online resumes have also become available, providing data about the career trajectories of millions of individuals. However, standard econometric models cannot take advantage of their scale or incorporate them into the analysis of survey data. To this end we develop CAREER, a transformer-based model that uses transfer learning to learn representations of job sequences. CAREER is first fit to large, passively-collected resume data and then fine-tuned to smaller, better-curated datasets for economic inferences. We fit CAREER to a dataset of 24 million job sequences from resumes, and fine-tune its representations on longitudinal survey datasets. We find that CAREER forms accurate predictions of job sequences on three widely-used economics datasets. We further find that CAREER can be used to form good predictions of other downstream variables; incorporating CAREER into a wage model provides better predictions than the econometric models currently in use.
اقتصاددانان کار به طور مرتب داده های اشتغال را با متناسب سازی پیش بینی تجزیه و تحلیل می کنند مدل ها به مجموعه داده های کوچک و با دقت ساخته شده ساخته شده.با اينكه روشهای مدرن یادگیری ماشین نوید برای چنین مشکلاتی ، این نظرسنجی ها ارائه می دهد مجموعه داده ها برای استفاده از آنها بسیار کوچک هستند.در سالهای اخیر بزرگ مجموعه داده های رزومه های آنلاین نیز در دسترس قرار گرفته است ، و اطلاعات مربوط به مسیرهای شغلی میلیون ها نفر.با این حال ، اقتصاد سنجی استاندارد مدل ها نمی توانند از مقیاس خود استفاده کنند یا آنها را در تجزیه و تحلیل داده های نظرسنجی.برای این منظور ما شغلی را توسعه می دهیم ، یک ترانسفورماتور مدلی که از یادگیری انتقال برای یادگیری بازنمایی از توالی های شغلی استفاده می کند. شغلی ابتدا متناسب با داده های رزومه بزرگ و منفعلانه و سپس است تنظیم شده به مجموعه داده های کوچکتر و بهتر برای استنتاج های اقتصادی.ما متناسب هستیم شغلی به مجموعه داده 24 میلیون دنباله شغلی از رزومه ها ، و آن را خوب تنظیم کنید بازنمایی در مجموعه داده های بررسی طولی.ما می توانیم شکل های شغلی را پیدا کنیم پیش بینی های دقیق از توالی های شغلی در سه مجموعه داده اقتصاد بسیار مورد استفاده. در ادامه می بینیم که از حرفه می توان برای ایجاد پیش بینی های خوب از دیگر استفاده کرد متغیرهای پایین دست ؛ترکیب حرفه در یک مدل دستمزد بهتر می کند پیش بینی ها نسبت به مدلهای اقتصاد سنجی که در حال حاضر در حال استفاده هستند.
30,548
This paper introduces a local-to-unity/small sigma process for a stationary time series with strong persistence and non-negligible long run risk. This process represents the stationary long run component in an unobserved short- and long-run components model involving different time scales. More specifically, the short run component evolves in the calendar time and the long run component evolves in an ultra long time scale. We develop the methods of estimation and long run prediction for the univariate and multivariate Structural VAR (SVAR) models with unobserved components and reveal the impossibility to consistently estimate some of the long run parameters. The approach is illustrated by a Monte-Carlo study and an application to macroeconomic data.
در این مقاله یک فرآیند سیگما محلی به Unity/Small برای یک ثابت ارائه شده است سریال های زمانی با پایداری قوی و خطر طولانی مدت غیرقانونی.این فرآیند نمایانگر مؤلفه بلند مدت ثابت در یک کوتاه مدت است- و مدل اجزای بلند مدت که شامل مقیاس های مختلف زمانی است.بیشتر به طور خاص ، مؤلفه کوتاه مدت در زمان تقویم و طولانی تکامل می یابد مؤلفه اجرا در مقیاس بسیار طولانی تکامل می یابد.ما روشهای تخمین و پیش بینی طولانی مدت برای تک متغیره و چند متغیره مدل های VAR ساختاری (SVAR) با اجزای بدون نظارت و آشکار کردن عدم امکان تخمین مداوم برخی از پارامترهای بلند مدت.در رویکرد توسط یک مطالعه مونت کارلو و یک برنامه کاربردی نشان داده شده است داده های کلان اقتصادی.
30,550
In the context of treatment effect estimation, this paper proposes a new methodology to recover the counterfactual distribution when there is a single (or a few) treated unit and possibly a high-dimensional number of potential controls observed in a panel structure. The methodology accommodates, albeit does not require, the number of units to be larger than the number of time periods (high-dimensional setup). As opposed to modeling only the conditional mean, we propose to model the entire conditional quantile function (CQF) without intervention and estimate it using the pre-intervention period by a l1-penalized regression. We derive non-asymptotic bounds for the estimated CQF valid uniformly over the quantiles. The bounds are explicit in terms of the number of time periods, the number of control units, the weak dependence coefficient (beta-mixing), and the tail decay of the random variables. The results allow practitioners to re-construct the entire counterfactual distribution. Moreover, we bound the probability coverage of this estimated CQF, which can be used to construct valid confidence intervals for the (possibly random) treatment effect for every post-intervention period. We also propose a new hypothesis test for the sharp null of no-effect based on the Lp norm of deviation of the estimated CQF to the population one. Interestingly, the null distribution is quasi-pivotal in the sense that it only depends on the estimated CQF, Lp norm, and the number of post-intervention periods, but not on the size of the post-intervention period. For that reason, critical values can then be easily simulated. We illustrate the methodology by revisiting the empirical study in Acemoglu, Johnson, Kermani, Kwak and Mitton (2016).
در زمینه تخمین اثر درمانی ، این مقاله جدید را پیشنهاد می کند روش شناسی برای بازیابی توزیع ضد عملی هنگامی که یک وجود دارد (یا چند مورد) واحد تحت درمان و احتمالاً تعداد بالایی از پتانسیل شاهد مشاهده شده در یک ساختار پانل.این روش ، هرچند در آن قرار دارد نیازی به تعداد واحدها بزرگتر از تعداد زمان نیست دوره ها (راه اندازی با ابعاد بالا).بر خلاف مدل سازی فقط مشروط میانگین ، ما پیشنهاد می کنیم کل عملکرد کمی مشروط (CQF) را مدل کنیم بدون مداخله و آن را با استفاده از دوره قبل از مداخله توسط a تخمین بزنید رگرسیون L1-Penalized.ما برای تخمین CQF مرزهای غیر متعارف را استخراج می کنیم معتبر به طور یکنواخت بر روی مقدار.مرزها از نظر صریح صریح هستند تعداد دوره های زمانی ، تعداد واحدهای کنترل ، وابستگی ضعیف ضریب (بتا مخلوط) و پوسیدگی دم متغیرهای تصادفی.در نتایج به پزشکان این امکان را می دهد تا کل ضد خلاف را دوباره ساختند توزیععلاوه بر این ، ما پوشش احتمال این تخمین زده شده را محدود می کنیم CQF ، که می تواند برای ایجاد فواصل اطمینان معتبر برای (احتمالاً تصادفی) اثر درمانی برای هر دوره بعد از مداخله.ما همچنین آزمون فرضیه جدیدی را برای تهی شدید بدون اثر بر اساس LP پیشنهاد دهید هنجار انحراف CQF تخمین زده شده به جمعیت.جالب است که توزیع تهی به این معنا که فقط به آن بستگی دارد تخمین CQF ، هنجار LP ، و تعداد دوره های بعد از مداخله ، اما نه اندازه دوره بعد از مداخله.به همین دلیل ، مقادیر بحرانی می توانند سپس به راحتی شبیه سازی شوید.ما روش شناسی را با تجدید نظر در مطالعه تجربی در Acemoglu ، Johnson ، Kermani ، Kwak and Mitton (2016).
30,551
In this paper, we introduce the weighted-average quantile regression framework, $\int_0^1 q_{Y|X}(u)\psi(u)du = X'\beta$, where $Y$ is a dependent variable, $X$ is a vector of covariates, $q_{Y|X}$ is the quantile function of the conditional distribution of $Y$ given $X$, $\psi$ is a weighting function, and $\beta$ is a vector of parameters. We argue that this framework is of interest in many applied settings and develop an estimator of the vector of parameters $\beta$. We show that our estimator is $\sqrt T$-consistent and asymptotically normal with mean zero and easily estimable covariance matrix, where $T$ is the size of available sample. We demonstrate the usefulness of our estimator by applying it in two empirical settings. In the first setting, we focus on financial data and study the factor structures of the expected shortfalls of the industry portfolios. In the second setting, we focus on wage data and study inequality and social welfare dependence on commonly used individual characteristics.
در این مقاله ، رگرسیون متوسط ​​متوسط ​​وزنی را معرفی می کنیم چارچوب ، $ \ int_0^1 q_ {y | x} (u) \ psi (u) du = x '\ beta $ ، جایی که $ y $ وابسته است متغیر ، $ x $ یک بردار متغیر است ، $ q_ {y | x} $ عملکرد کمی است توزیع مشروط $ y $ با توجه به $ x $ ، $ \ psi $ یک عملکرد وزنه برداری است ، و $ \ beta $ بردار پارامترها است.ما استدلال می کنیم که این چارچوب از علاقه به بسیاری از تنظیمات کاربردی و توسعه یک برآوردگر از بردار پارامترهای $ \ بتا $.ما نشان می دهیم که برآوردگر ما $ \ sqrt t $-سازگار است و بدون علامت طبیعی با میانگین ماتریس کواریانس صفر و به راحتی قابل تخمین ، جایی که $ t $ اندازه نمونه موجود است.ما سودمندی خود را نشان می دهیم برآوردگر با استفاده از آن در دو تنظیم تجربی.در اولین تنظیم ، ما روی داده های مالی تمرکز کنید و ساختارهای عاملی مورد انتظار را مطالعه کنید کمبود اوراق بهادار صنعت.در تنظیم دوم ، ما روی دستمزد تمرکز می کنیم داده ها و مطالعه نابرابری و وابستگی به رفاه اجتماعی به معمولاً مورد استفاده ویژگیهای فردی.
30,552
`All models are wrong but some are useful' (George Box 1979). But, how to find those useful ones starting from an imperfect model? How to make informed data-driven decisions equipped with an imperfect model? These fundamental questions appear to be pervasive in virtually all empirical fields -- including economics, finance, marketing, healthcare, climate change, defense planning, and operations research. This article presents a modern approach (builds on two core ideas: abductive thinking and density-sharpening principle) and practical guidelines to tackle these issues in a systematic manner.
"همه مدل ها اشتباه هستند اما برخی از آنها مفید هستند" (جورج باکس 1979).اما ، چگونه آنهایی که از یک مدل ناقص شروع می شوند ، آن موارد مفید را پیدا می کنید؟نحوه اطلاع رسانی تصمیمات مبتنی بر داده مجهز به یک مدل ناقص؟این اساسی به نظر می رسد سؤالات تقریباً در همه زمینه های تجربی گسترده است - از جمله اقتصاد ، امور مالی ، بازاریابی ، مراقبت های بهداشتی ، تغییرات آب و هوا ، برنامه ریزی دفاعی ، و تحقیقات عملیاتیاین مقاله یک رویکرد مدرن را ارائه می دهد (بر اساس دو ایده های اصلی: تفکر آدم ربایی و اصل تراکم تراکم) و عملی دستورالعمل ها برای مقابله با این موضوعات به روشی منظم.
30,553
In many longitudinal settings, economic theory does not guide practitioners on the type of restrictions that must be imposed to solve the rotational indeterminacy of factor-augmented linear models. We study this problem and offer several novel results on identification using internally generated instruments. We propose a new class of estimators and establish large sample results using recent developments on clustered samples and high-dimensional models. We carry out simulation studies which show that the proposed approaches improve the performance of existing methods on the estimation of unknown factors. Lastly, we consider three empirical applications using administrative data of students clustered in different subjects in elementary school, high school and college.
در بسیاری از تنظیمات طولی ، نظریه اقتصادی پزشکان را راهنمایی نمی کند در مورد نوع محدودیت هایی که برای حل چرخش باید تحمیل شود نامحدودی از مدل های خطی فاکتور.ما این مشکل را مطالعه می کنیم و چندین نتیجه جدید در مورد شناسایی با استفاده از تولید داخلی ارائه دهید سازهاما کلاس جدیدی از برآوردگرها را پیشنهاد می کنیم و نمونه بزرگی را ایجاد می کنیم نتایج با استفاده از تحولات اخیر در نمونه های خوشه ای و با ابعاد بالا مدل ها.ما مطالعات شبیه سازی را انجام می دهیم که نشان می دهد رویکردهای پیشنهادی عملکرد روشهای موجود را در تخمین ناشناخته بهبود بخشید عوامل.سرانجام ، ما سه برنامه تجربی را با استفاده از اداری در نظر می گیریم داده های دانش آموزان که در موضوعات مختلف در مدرسه ابتدایی جمع شده اند ، بالا مدرسه و کالج.
30,554
The prediction of financial markets is a challenging yet important task. In modern electronically-driven markets, traditional time-series econometric methods often appear incapable of capturing the true complexity of the multi-level interactions driving the price dynamics. While recent research has established the effectiveness of traditional machine learning (ML) models in financial applications, their intrinsic inability to deal with uncertainties, which is a great concern in econometrics research and real business applications, constitutes a major drawback. Bayesian methods naturally appear as a suitable remedy conveying the predictive ability of ML methods with the probabilistically-oriented practice of econometric research. By adopting a state-of-the-art second-order optimization algorithm, we train a Bayesian bilinear neural network with temporal attention, suitable for the challenging time-series task of predicting mid-price movements in ultra-high-frequency limit-order book markets. We thoroughly compare our Bayesian model with traditional ML alternatives by addressing the use of predictive distributions to analyze errors and uncertainties associated with the estimated parameters and model forecasts. Our results underline the feasibility of the Bayesian deep-learning approach and its predictive and decisional advantages in complex econometric tasks, prompting future research in this direction.
پیش بینی بازارهای مالی یک کار چالش برانگیز و در عین حال مهم است.که در بازارهای مدرن الکترونیکی محور ، سریال سنتی اقتصاد سنجی روشها اغلب به نظر می رسد که پیچیدگی واقعی را بدست آورند تعامل چند سطحی منجر به پویایی قیمت.در حالی که تحقیقات اخیر انجام شده است اثربخشی مدل های یادگیری ماشین سنتی (ML) در برنامه های مالی ، ناتوانی ذاتی آنها در مقابله با عدم قطعیت ها ، که یک نگرانی بزرگ در تحقیقات اقتصاد سنجی و تجارت واقعی است برنامه ها ، یک اشکال اساسی را تشکیل می دهد.روشهای بیزی به طور طبیعی ظاهر می شوند به عنوان یک راه حل مناسب با انتقال توانایی پیش بینی روشهای ML با عمل احتمالی گرا از تحقیقات اقتصاد سنجی.با اتخاذ الگوریتم بهینه سازی مرتبه دوم پیشرفته ، ما یک بیزی را آموزش می دهیم شبکه عصبی دو طرفه با توجه زمانی ، مناسب برای چالش برانگیز وظیفه سری زمانی پیش بینی حرکات قیمت میانی در فرکانس فوق العاده بالا بازارهای کتاب محدود.ما مدل بیزی خود را کاملاً مقایسه می کنیم گزینه های سنتی ML با پرداختن به استفاده از توزیع های پیش بینی برای تجزیه و تحلیل خطاها و عدم قطعیت های مرتبط با پارامترهای تخمین زده شده و پیش بینی های مدلنتایج ما تأکید بر امکان سنجی بیزی است رویکرد یادگیری عمیق و مزایای پیش بینی کننده و تصمیم گیری آن در پیچیده وظایف اقتصادسنجی ، و تحقیقات آینده را در این راستا انجام می دهد.
30,555
Rapidly diminishing Arctic summer sea ice is a strong signal of the pace of global climate change. We provide point, interval, and density forecasts for four measures of Arctic sea ice: area, extent, thickness, and volume. Importantly, we enforce the joint constraint that these measures must simultaneously arrive at an ice-free Arctic. We apply this constrained joint forecast procedure to models relating sea ice to atmospheric carbon dioxide concentration and models relating sea ice directly to time. The resulting "carbon-trend" and "time-trend" projections are mutually consistent and predict a nearly ice-free summer Arctic Ocean by the mid-2030s with an 80% probability. Moreover, the carbon-trend projections show that global adoption of a lower carbon path would likely delay the arrival of a seasonally ice-free Arctic by only a few years.
یخ دریای تابستانی قطب شمال به سرعت در حال کاهش است ، یک سیگنال قوی از سرعت است تغییرات جهانی آب و هوا.ما پیش بینی های نقطه ، فاصله و چگالی را ارائه می دهیم چهار اندازه از یخ دریای قطب شمال: مساحت ، وسعت ، ضخامت و حجم. مهمتر از همه ، ما محدودیت مشترک را اجرا می کنیم که این اقدامات باید همزمان به قطب شمال بدون یخ می رسند.ما این مفصل محدود را اعمال می کنیم روش پیش بینی به مدل های مربوط به یخ دریا به دی اکسید کربن جوی غلظت و مدل های مربوط به یخ دریا به طور مستقیم به زمان.نتیجه پیش بینی های "روند کربن" و "زمان زمان" متقابل هستند و پیش بینی می شوند یک اقیانوس قطب شمال تقریباً بدون یخ در اواسط دهه 2030 با احتمال 80 ٪. علاوه بر این ، پیش بینی های روند کربن نشان می دهد که پذیرش جهانی پایین تر مسیر کربن احتمالاً ورود یک قطب شمال بدون یخ فصلی را به تأخیر می اندازد فقط چند سال
30,556
Least squares regression with heteroskedasticity and autocorrelation consistent (HAC) standard errors has proved very useful in cross section environments. However, several major difficulties, which are generally overlooked, must be confronted when transferring the HAC estimation technology to time series environments. First, in plausible time-series environments involving failure of strong exogeneity, OLS parameter estimates can be inconsistent, so that HAC inference fails even asymptotically. Second, most economic time series have strong autocorrelation, which renders HAC regression parameter estimates highly inefficient. Third, strong autocorrelation similarly renders HAC conditional predictions highly inefficient. Finally, The structure of popular HAC estimators is ill-suited for capturing the autoregressive autocorrelation typically present in economic time series, which produces large size distortions and reduced power in HACbased hypothesis testing, in all but the largest samples. We show that all four problems are largely avoided by the use of a simple dynamic regression procedure, which is easily implemented. We demonstrate the advantages of dynamic regression with detailed simulations covering a range of practical issues.
رگرسیون حداقل مربعات با ناهمگونی و همبستگی خطاهای استاندارد سازگار (HAC) در مقطع بسیار مفید بوده است محیطبا این حال ، چندین مشکل اساسی ، که به طور کلی وجود دارد نادیده گرفته شده ، هنگام انتقال فناوری تخمین HAC باید با آن روبرو شود به محیط های سری زمانی.اول ، در محیط های سری زمانی قابل قبول شامل عدم موفقیت اگزوژنیت قوی ، برآورد پارامتر OLS می تواند باشد متناقض ، به طوری که استنباط HAC حتی به صورت مجانبی از بین می رود.دوم ، بیشتر سری زمانی اقتصادی دارای همبستگی قوی است که رگرسیون HAC را ارائه می دهد پارامتر بسیار ناکارآمد تخمین می زند.سوم ، همبستگی قوی به طور مشابه پیش بینی های شرطی HAC را بسیار ناکارآمد می کند.سرانجام ، ساختار از برآوردگرهای محبوب HAC برای گرفتن خودجوش مناسب نیست همبستگی به طور معمول در سری زمانی اقتصادی وجود دارد ، که بزرگ تولید می کند اعوجاج اندازه و کاهش قدرت در آزمایش فرضیه hacbased ، در کل بزرگترین نمونهما نشان می دهیم که از هر چهار مشکل تا حد زیادی توسط استفاده از یک روش رگرسیون پویا ساده ، که به راحتی اجرا می شود.ما مزایای رگرسیون پویا را با شبیه سازی های دقیق نشان دهید پوشش طیف وسیعی از موضوعات عملی.
30,557
In this article we propose a set of simple principles to guide empirical practice in synthetic control studies. The proposed principles follow from formal properties of synthetic control estimators, and pertain to the nature, implications, and prevention of over-fitting biases within a synthetic control framework, to the interpretability of the results, and to the availability of validation exercises. We discuss and visually demonstrate the relevance of the proposed principles under a variety of data configurations.
در این مقاله مجموعه ای از اصول ساده را برای هدایت تجربی پیشنهاد می کنیم در مطالعات کنترل مصنوعی تمرین کنید.اصول پیشنهادی از خصوصیات رسمی برآوردگرهای کنترل مصنوعی ، و مربوط به ماهیت است ، پیامدها ، و جلوگیری از تعصبات بیش از حد در یک کنترل مصنوعی چارچوب ، به تفسیر نتایج و در دسترس بودن تمرینات اعتبار سنجی.ما در مورد ارتباط و بصری نشان می دهیم اصول پیشنهادی تحت تنظیمات مختلف داده ها.
30,558
We propose a multivariate extension of the Lorenz curve based on multivariate rearrangements of optimal transport theory. We define a vector Lorenz map as the integral of the vector quantile map associated to a multivariate resource allocation. Each component of the Lorenz map is the cumulative share of each resource, as in the traditional univariate case. The pointwise ordering of such Lorenz maps defines a new multivariate majorization order. We define a multi-attribute Gini index and complete ordering based on the Lorenz map. We formulate income egalitarianism and show that the class of egalitarian allocations is maximal with respect to our inequality ordering over a large class of allocations. We propose the level sets of an Inverse Lorenz Function as a practical tool to visualize and compare inequality in two dimensions, and apply it to income-wealth inequality in the United States between 1989 and 2019.
ما یک پسوند چند متغیره از منحنی لورنز را بر اساس چند متغیره پیشنهاد می کنیم بازآرایی تئوری حمل و نقل بهینه.ما نقشه بردار لورنز را به عنوان تعریف می کنیم انتگرال نقشه کمی بردار مرتبط با یک منبع چند متغیره تخصیصهر مؤلفه نقشه لورنز سهم تجمعی هر یک است منبع ، مانند پرونده تک متغیره سنتی.ترتیب نکته ای از این قبیل Lorenz Maps یک دستورالعمل جدید چند متغیره را تعریف می کند.ما تعریف می کنیم شاخص جینی چند و همتای و سفارش کامل بر اساس نقشه لورنز.ما برابری گرایی درآمد را تدوین کنید و نشان دهید که طبقه مساوات تخصیص با توجه به نظم نابرابری ما بیش از یک بزرگ حداکثر است کلاس تخصیص.ما مجموعه های سطح یک عملکرد لورنز معکوس را پیشنهاد می کنیم به عنوان ابزاری عملی برای تجسم و مقایسه نابرابری در دو بعد و آن را در مورد نابرابری درآمدی در ایالات متحده بین سالهای 1989 و 2019.
30,559
Log-linear models are prevalent in empirical research. Yet, how to handle zeros in the dependent variable remains an unsettled issue. This article clarifies it and addresses the log of zero by developing a new family of estimators called iterated Ordinary Least Squares (iOLS). This family nests standard approaches such as log-linear and Poisson regressions, offers several computational advantages, and corresponds to the correct way to perform the popular $\log(Y+1)$ transformation. We extend it to the endogenous regressor setting (i2SLS) and overcome other common issues with Poisson models, such as controlling for many fixed-effects. We also develop specification tests to help researchers select between alternative estimators. Finally, our methods are illustrated through numerical simulations and replications of landmark publications.
مدل های خطی ورود به سیستم در تحقیقات تجربی شیوع دارند.با این حال ، چگونه رسیدگی کنیم صفر در متغیر وابسته یک مسئله ناآرام است.این مقاله آن را روشن می کند و با ایجاد یک خانواده جدید از ورود به سیستم صفر می پردازد برآوردگرانی که حداقل مربعات معمولی تکرار شده (IOL) نامیده می شوند.این لانه های خانوادگی رویکردهای استاندارد مانند رگرسیون log-linear و poisson ، چندین ارائه می دهد مزایای محاسباتی ، و مطابق با روش صحیح برای انجام محبوب $ \ log (y+1) $ تحول.ما آن را به رگرسور درون زا گسترش می دهیم تنظیم (i2sls) و غلبه بر سایر موضوعات مشترک با مدلهای پواسون ، مانند کنترل بسیاری از عوارض ثابت.ما همچنین برای کمک به تست های مشخصات تهیه می کنیم محققان بین برآوردگرهای جایگزین انتخاب می کنند.سرانجام ، روشهای ما هستند از طریق شبیه سازی های عددی و تکثیر نشانه گذاری نشان داده شده است انتشارات
30,560
Quantifying both historic and future volatility is key in portfolio risk management. This note presents and compares estimation strategies for volatility estimation in an estimation universe consisting on 28 629 unique companies from February 2010 to April 2021, with 858 different portfolios. The estimation methods are compared in terms of how they rank the volatility of the different subsets of portfolios. The overall best performing approach estimates volatility from direct entity returns using a GARCH model for variance estimation.
تعیین نوسانات تاریخی و آینده در ریسک نمونه کارها مهم است مدیریت.این نت استراتژی های تخمین را برای برآورد نوسانات در یک جهان تخمین متشکل از 28 629 منحصر به فرد شرکت ها از فوریه 2010 تا آوریل 2021 ، با 858 پرتفوی مختلف.در روشهای تخمین از نظر نحوه رتبه بندی نوسانات این مقایسه مقایسه می شوند زیر مجموعه های مختلف اوراق بهادار.تخمین های کلی رویکرد بهترین عملکرد نوسانات از موجودیت مستقیم با استفاده از یک مدل GARCH برای واریانس باز می گردد برآورد کردن.
30,561
Factor models have become a common and valued tool for understanding the risks associated with an investing strategy. In this report we describe Exabel's factor model, we quantify the fraction of the variability of the returns explained by the different factors, and we show some examples of annual returns of portfolios with different factor exposure.
مدل های فاکتور به ابزاری رایج و ارزشمند برای درک خطرات مرتبط با یک استراتژی سرمایه گذاری.در این گزارش ما شرح می دهیم مدل فاکتور Exabel ، ما کسری از تنوع را تعیین می کنیم بازده های توضیح داده شده توسط عوامل مختلف ، و ما نمونه هایی از سالانه را نشان می دهیم بازده اوراق بهادار با قرار گرفتن در معرض فاکتور مختلف.
30,562
This paper studies the network structure and fragmentation of the Argentinean interbank market. Both the unsecured (CALL) and the secured (REPO) markets are examined, applying complex network analysis. Results indicate that, although the secured market has less participants, its nodes are more densely connected than in the unsecured market. The interrelationships in the unsecured market are less stable, making its structure more volatile and vulnerable to negative shocks. The analysis identifies two 'hidden' underlying sub-networks within the REPO market: one based on the transactions collateralized by Treasury bonds (REPO-T) and other based on the operations collateralized by Central Bank (CB) securities (REPO-CB). The changes in monetary policy stance and monetary conditions seem to have a substantially smaller impact in the former than in the latter 'sub-market'. The connectivity levels within the REPO-T market and its structure remain relatively unaffected by the (in some period pronounced) swings in the other segment of the market. Hence, the REPO market shows signs of fragmentation in its inner structure, according to the type of collateral asset involved in the transactions, so the average REPO interest rate reflects the interplay between these two partially fragmented sub-markets. This mixed structure of the REPO market entails one of the main sources of differentiation with respect to the CALL market.
در این مقاله به بررسی ساختار شبکه و تکه تکه شدن آرژانتینی می پردازیم بازار بین بانکی.هر دو بازارهای ناامن (تماس) و امن (repo) هستند مورد بررسی ، استفاده از تجزیه و تحلیل پیچیده شبکه.نتایج نشان می دهد ، اگرچه ، بازار امن شرکت کنندگان کمتری دارد ، گره های آن متراکم تر هستند از بازار ناامن.روابط متقابل در بازار ناامن پایدارتر هستند و ساختار آن را بی ثبات تر و آسیب پذیرتر می کنند شوکاین تجزیه و تحلیل دو شبکه زیربنایی پنهان را در داخل مشخص می کند بازار repo: یکی بر اساس معاملات وثیقه های خزانه داری (repo-t) و دیگری بر اساس عملیات وثیقه های بانک مرکزی (CB) اوراق بهادار (repo-cb).تغییرات در موضع سیاست پولی و پولی به نظر می رسد شرایط تأثیر قابل ملاحظه ای کوچکتر در گذشته دارد دومی "زیر بازار".سطح اتصال در بازار repo-t و ساختار آن نسبتاً تحت تأثیر قرار نگرفته است (در برخی از دوره ها) نوسانات در بخش دیگر بازار.از این رو ، بازار repo علائم را نشان می دهد تکه تکه شدن در ساختار داخلی آن ، با توجه به نوع وثیقه دارایی درگیر در معاملات است ، بنابراین میانگین نرخ بهره repo منعکس می شود تعامل بین این دو بازار فرعی جزئی تکه تکه شده.این مخلوط ساختار بازار repo مستلزم یکی از منابع اصلی تمایز است با توجه به بازار تماس
30,563
This study demonstrates the existence of a testable condition for the identification of the causal effect of a treatment on an outcome in observational data, which relies on two sets of variables: observed covariates to be controlled for and a suspected instrument. Under a causal structure commonly found in empirical applications, the testable conditional independence of the suspected instrument and the outcome given the treatment and the covariates has two implications. First, the instrument is valid, i.e. it does not directly affect the outcome (other than through the treatment) and is unconfounded conditional on the covariates. Second, the treatment is unconfounded conditional on the covariates such that the treatment effect is identified. We suggest tests of this conditional independence based on machine learning methods that account for covariates in a data-driven way and investigate their asymptotic behavior and finite sample performance in a simulation study. We also apply our testing approach to evaluating the impact of fertility on female labor supply when using the sibling sex ratio of the first two children as supposed instrument, which by and large points to a violation of our testable implication for the moderate set of socio-economic covariates considered.
این مطالعه وجود یک شرایط قابل آزمایش برای شناسایی اثر علی یک درمان در نتیجه در داده های مشاهده ای ، که به دو مجموعه متغیر متکی است: متغیرهای متغیر برای کنترل و یک ابزار مشکوک.تحت یک ساختار علی معمولاً در برنامه های تجربی ، استقلال مشروط قابل آزمایش یافت می شود از ابزار مشکوک و نتیجه با توجه به درمان و کوواریاتس دو پیامد دارد.اول ، ابزار معتبر است ، یعنی این کار را انجام می دهد به طور مستقیم بر نتیجه (غیر از طریق درمان) تأثیر نمی گذارد و هست مشروط غیرقابل انعطاف بر متغیرهای متغیر.دوم ، درمان است مشروط غیرقانونی بر متغیرهای متغیر به گونه ای که اثر درمانی باشد شناخته شده است.ما آزمایشات این استقلال مشروط را بر اساس دستگاه پیشنهاد می کنیم روشهای یادگیری که متغیرهای متغیر را به روشی محور داده و رفتار بدون علامت آنها و عملکرد نمونه محدود را در یک بررسی کنید مطالعه شبیه سازی.ما همچنین از روش آزمایش خود برای ارزیابی تأثیر استفاده می کنیم باروری در تأمین نیروی کار زنان هنگام استفاده از نسبت جنسی خواهر و برادر دو کودک اول به عنوان ابزار فرضی ، که به طور کلی به یک نقض پیامدهای قابل آزمایش ما برای مجموعه متوسط ​​اجتماعی و اقتصادی متغیرهای متغیر در نظر گرفته شده است.
30,564
Diagnostic tests are almost never perfect. Studies quantifying their performance use knowledge of the true health status, measured with a reference diagnostic test. Researchers commonly assume that the reference test is perfect, which is not the case in practice. When the assumption fails, conventional studies identify "apparent" performance or performance with respect to the reference, but not true performance. This paper provides the smallest possible bounds on the measures of true performance - sensitivity (true positive rate) and specificity (true negative rate), or equivalently false positive and negative rates, in standard settings. Implied bounds on policy-relevant parameters are derived: 1) Prevalence in screened populations; 2) Predictive values. Methods for inference based on moment inequalities are used to construct uniformly consistent confidence sets in level over a relevant family of data distributions. Emergency Use Authorization (EUA) and independent study data for the BinaxNOW COVID-19 antigen test demonstrate that the bounds can be very informative. Analysis reveals that the estimated false negative rates for symptomatic and asymptomatic patients are up to 3.17 and 4.59 times higher than the frequently cited "apparent" false negative rate.
آزمایش های تشخیصی تقریباً هرگز کامل نیستند.مطالعات تعیین کمیت آنها از عملکرد دانش در مورد وضعیت سلامتی واقعی استفاده کنید ، با یک مرجع اندازه گیری می شود آزمایش تشخیصی.محققان معمولاً فرض می کنند که آزمون مرجع است ایده آل ، که در عمل اینگونه نیست.وقتی فرض شکست می خورد ، مطالعات متعارف عملکرد یا عملکرد "آشکار" را با احترام به مرجع ، اما عملکرد واقعی نیست.در این مقاله آمده است کوچکترین مرزهای ممکن در اقدامات عملکرد واقعی - حساسیت (نرخ مثبت مثبت) و ویژگی (نرخ منفی واقعی) یا معادل آن نرخ مثبت و منفی کاذب ، در تنظیمات استاندارد.مرزهای ضمنی پارامترهای مرتبط با سیاست مشتق شده اند: 1) شیوع در جمعیت غربالگری. 2) مقادیر پیش بینی.روشهای استنباط بر اساس نابرابری های لحظه برای ساختن مجموعه های اعتماد به نفس یکنواخت در سطح بیش از یک مربوطه استفاده می شود خانواده توزیع داده ها.مجوز استفاده اضطراری (EUA) و مستقل داده های مطالعه برای آزمون آنتی ژن Binaxnow Covid-19 نشان می دهد که مرزها می تواند بسیار آموزنده باشد.تجزیه و تحلیل نشان می دهد که تخمین منفی کاذب نرخ برای بیماران علامت دار و بدون علامت حداکثر 3.17 و 4.59 بار است بالاتر از نرخ منفی کاذب "ظاهری" که اغلب استناد می شود.