source
stringlengths 128
512
| target
stringlengths 100
1.22k
|
---|---|
We also implement the off-policy method T-DQN based on the single agent algorithm DQN [1]} for completeness. In Figure REF We evaluate DQN on a Markov Game (Matrix games with random transition), a hard and a superhard SMAC maps to show that our framework is also compatible with off-policy methods.
<FIGURE> | Мы также реализуем метод T-DQN без учета политики на основе одноагентного алгоритма DQN [1] для полноты. На рисунке REF мы оцениваем DQN на Марковской игре (матричные игры со случайным переходом), на сложных и суперсложных картах SMAC, чтобы продемонстрировать, что наш фреймворк также совместим с методами без учета политики. |
Intent prediction is the task of extracting meaning from a natural language utterance in order to understand the user's goal [1]}, [2]}. We leverage three different datasets for the task of intent prediction, all of which span several domains and consist of many different intents.
| Предсказание намерений - это задача извлечения смысла из высказывания на естественном языке для понимания цели пользователя [1]}, [2]}. Мы используем три различных набора данных для задачи предсказания намерений, охватывающих несколько областей и включающих множество различных намерений. |
A comprehensive treatment of metaheuristic algorithms, their implementation details, and theoretical analysis, can be found in the monograph [1]}.
| Обширное изложение метаэвристических алгоритмов, их реализационных деталей и теоретических анализов можно найти в монографии [1]. |
Let \(R\) be a commutative ring with unity. The notions of clean ring and clean module motivate us to bring this concept to the coalgebra and comodule case. In 1977, Nicholson, W. K. defined clean rings [1]}. The ring \( R \) is said to be clean if every element of \( R \) can be expressed as the sum of a unit and an idempotent element. Furthermore, clean rings are a subclass of exchange rings [2]}, [3]}.
| Пусть \(R\) - коммутативное кольцо с единицей. Понятия чистого кольца и чистого модуля вдохновляют нас применить это понятие к области алгебры углерода и комодулей. В 1977 году Николсон, В.К. определил чистые кольца [1]. Кольцо \(R\) считается чистым, если каждый элемент \(R\) может быть выражен как сумма единицы и нильпотента. Более того, чистые кольца являются подклассом обменных колец [2], [3]. |
In this section, we introduce TEP-GNN. We first provide a general overview of the model and discuss the problem addressed in this paper, followed by a detailed discussion of the main components of TEP-GNN (FA-ASTs and the machine learning pipeline based on the GraphConv [1]} higher order GNN).
| В этом разделе мы представляем TEP-GNN. Сначала мы даем общий обзор модели и обсуждаем проблему, решаемую в этой статье, а затем подробно обсуждаем основные компоненты TEP-GNN (FA-ASTs и конвейер машинного обучения, основанный на GraphConv [1] - более высоком порядке GNN). |
However, the situation is different for curves of finite distortion. Their coordinate functions are not necessarily weakly monotone as our example in Theorem REF shows. On the other hand, if we assume the weak monotonicity of the coordinate maps and that \(e^{\lambda K_f(x)}\in L^1_{loc}\) , for some \(\lambda >0\) , then by adapting the arguments in [1]} and [2]} we obtain the existence of a continuous representative.
| Однако ситуация несколько отличается для кривых конечного искажения. Их координатные функции не обязательно слабо монотонны, как показано нашим примером в Теореме REF. С другой стороны, если мы предположим слабую монотонность координатных отображений и \(e^{\lambda K_f(x)}\in L^1_{loc}\), для некоторого \(\lambda >0\), то, адаптируя аргументы из [1] и [2], мы получим существование непрерывного представителя. |
In fact, the above normalization is consistent with that of Jack symmetric functions[1]}, [2]}.
The normalization of the Jack polynomials is derived from that of
the wave function in the CS model:
\( \left(\prod _i^N \int _0^\pi dx_i\right)J_{\lambda ^\prime }(p^{\ast })J_{\lambda }(p)\prod _{i<j} |z_i-z_j|^{2\beta } = \Gamma _N^2 \delta _{ \lambda ,\lambda ^\prime } j_\lambda \dfrac{\bar{A}_{\lambda ,N}}{\bar{B}_{\lambda ,N}}\,,\)
| Фактически, приведенная нормализация согласуется с нормализацией симметрических функций Джекк[1]}, [2]}.
Нормализация многочленов Джека вытекает из нормализации волновой функции в модели CS:
\( \left(\prod _i^N \int _0^\pi dx_i\right)J_{\lambda ^\prime }(p^{\ast })J_{\lambda }(p)\prod _{i<j} |z_i-z_j|^{2\beta } = \Gamma _N^2 \delta _{ \lambda ,\lambda ^\prime } j_\lambda \dfrac{\bar{A}_{\lambda ,N}}{\bar{B}_{\lambda ,N}}\,,\) |
where the condensed notation with the logarithmic RG-time \(t=\log (\mu /\mu _0)\) was used. In the
four-derivative theory, the perturbative coupling constant is \(\lambda _C\) (see, e.g., [1]}), where
\(\lambda _C = - \frac{1}{2\theta _C}\) . In this case, the
stability of the theory requires \(\lambda _C>0\) , so \(\theta _C(t)<0\) . Moreover, to have asymptotic
freedom in the UV regime, the signs of \(\theta _C(0)\) and \(\beta _C\) should be the
same.
| где использовалась сжатая нотация с логарифмическим RG-временем \(t=\log (\mu /\mu _0)\) . В
четырехпроизводной теории взаимодействия, парамагнитная константа связи \(\lambda _C\) (см., например, [1]) равна \(\lambda _C = - \frac{1}{2\theta _C}\). В этом случае
стабильность теории требует \(\lambda _C>0\), поэтому \(\theta _C(t)<0\). Более того, для асимптотической
свободы в УФ-режиме знаки \(\theta _C(0)\) и \(\beta _C\) должны быть одинаковыми. |
In order to build our baseline unsupervised tagger (based on a Simple Cross-lingual Projection – see section REF ), we also tag the target side of the training corpus, with tags projected from English side through word-alignments established by GIZA++. After tags projection, a target language POS tagger based on TNT approach [1]} is trained.
| Для построения нашего базового набора правил безнаблюдаемого теггера (основанного на простой межъязыковой проекции - см. раздел ССЫЛКА), мы также помечаем целевую сторону обучающего корпуса с использованием тегов, проецированных со стороны английского языка с помощью выравнивания слов, установленного с помощью GIZA++. После проектирования тегов обучается POS-теггер целевого языка на основе подхода TNT [1]. |
Second largest of category of CVPR in terms of number of contributions is a Vision + other modalities, Vision + language. In this category we have identified papers on image annotation[1]}, [2]}, [3]}, [4]}, visual question answering [5]}, [6]}, [7]}, [8]}, [9]}, [10]}, situation recognition[11]}, [12]}, as well as image understanding, image captioning and object annotation[13]}. In this subfield no novelty in architectural designs have been identified within GNN-based contributions.
| Вторая по величине категория CVPR по количеству вкладов – это Vision + другие модальности, Vision + язык. В этой категории мы выявили статьи по аннотированию изображений[1]}, [2]}, [3]}, [4]}, ответам на вопросы на основе визуальных данных [5]}, [6]}, [7]}, [8]}, [9]}, [10]}, распознаванию ситуации[11]}, [12]}, а также пониманию изображений, подписыванию изображений и аннотированию объектов[13]}. В этом подполе не было обнаружено новых архитектурных решений внутри вкладов, основанных на GNN. |
Remark 3 Upper bounds for least-squares estimator with neural nonparametric regression were studied by [1]} and [2]} under the assumption that the response \(Y\) is bounded.
[3]} and [4]} derived error bounds for the least squares nonparametric regression estimator with deep neural networks under the assumption that the response \(Y\) is sub-exponential.
| Замечание 3 В [1 и [2 были изучены верхние границы для оценщика наименьших квадратов с непараметрической нелинейной регрессией при предположении о том, что ответ Y ограничен.
[3 и [4 получены границы погрешности для оценщика наименьших квадратов с непараметрической регрессией с глубокими нейронными сетями при предположении о том, что ответ Y является субэкспоненциальным. |
by choosing \(H({r},v) = \sum _{p=-\infty }^{\infty } \int _0^{\infty } C_p(\alpha ,v) B_p(\mathbf {r};\alpha )\) and noting that \(C_{pq}(\alpha _1,\alpha _2) = \int p(v)C_p^*(\alpha _1,v)C_q(\alpha _2,v)dv\) with \(p(v) > 0\) . Correlation profiles involving Bessel functions have also been considered in [1]}, [2]} where the authors demonstrate dark and antidark diffraction-free beams which are represented by \(z\) -independent cross-spectral densities.
| выбрав \(H({r},v) = \sum _{p=-\infty }^{\infty } \int _0^{\infty } C_p(\alpha ,v) B_p(\mathbf {r};\alpha )\) и отметив, что \(C_{pq}(\alpha _1,\alpha _2) = \int p(v)C_p^*(\alpha _1,v)C_q(\alpha _2,v)dv\) со \(p(v) > 0\) . Корреляционные профили, включающие функции Бесселя, также рассматривались в [1], [2], где авторы демонстрируют темные и антитемные бездифракционные пучки, которые представлены кросс-спектральной плотностью, не зависящей от \(z\). |
Of the aforementioned works, the pre-defined threshold (\(\tau \) ) is constant. We believe this can be improved because the data of some classes may be inherently more difficult to learn than others.
Curriculum learning [1]} is a learning strategy where learning samples are gradually introduced according to the model's learning process. In such a way, the model is always optimally challenged. This technique is widely employed in deep learning research [2]}, [3]}, [4]}, [5]}, [6]}.
| Из указанных работ предопределенный порог (\(\tau \)) является постоянным. Мы считаем, что это можно улучшить, поскольку данные некоторых классов могут быть внутренне более сложными для изучения, чем другие.
Обучение по программе (Curriculum learning) [1] - это стратегия обучения, при которой образцы обучения постепенно вводятся в соответствии с процессом обучения модели. Таким образом, модель всегда оптимально стимулируется. Эта техника широко применяется в исследованиях по глубинному обучению [2], [3], [4], [5], [6]. |
In this subsection, we show how to reduce the problem of finding a \(s\) -\(t\) path that contains a given edge \((u,v)\) (\(\mathtt {ExistOracle}\) ) to the 2-vertex connectivity problem [1]} as follows.
| В этом подразделе мы показываем, как сократить задачу поиска пути \(s\) -\(t\) , содержащего заданное ребро \((u,v)\) (\(\mathtt {ExistOracle}\) ), до задачи о 2-вершинной связности [1] следующим образом. |
Here I want to show that holographic modelling of these gauge theories [1]}, [2]} is a useful tool that can quickly provide an estimate of the spectrum. Although these models are not first principle, they can provide a helpful exchange of ideas with lattice studies that can highlight important questions to address.
| Здесь я хочу показать, что голографическое моделирование этих калибровочных теорий [1], [2] является полезным инструментом, который может быстро дать оценку спектра. Хотя эти модели не основаны на первых принципах, они могут предоставить полезный обмен идеями с решётчатыми исследованиями, которые могут выявить важные вопросы для рассмотрения. |
Although this sequence splits, the splitting is not canonical. In order to have a canonical splitting, we need a connection cf. [1]}.
| Хотя эта последовательность разделяется, разделение не является каноническим. Чтобы иметь каноническое разделение, нам нужно соединение см. [1]. |
We conclude sec:boundedindep by showing that our method yields an alternative to Fischer's \(O(\log ^2\Delta \cdot \log n)\) -round deterministic \(\mathsf {CONGEST}\) algorithm [1]} for computing a maximal matching of a graph. This show that all the four classic symmetry breaking problems (MIS, maximal matching, \((\Delta +1)\) -vertex coloring, and \((2\Delta -1)\) -edge coloring) can be solved by the same general method and in all cases, the method yields the best current distributed algorithms.
| Мы заключаем sec: boundedindep показывая, что наш метод дает альтернативу детерминированному \(\mathsf {CONGEST}\) алгоритму Фишера с \(\mathcal{O}(\log ^2\Delta \cdot \log n)\)- раундами для вычисления максимального совпадения графа [1]. Это показывает, что все четыре классических проблемы разрыва симметрии (MIS, максимальное совпадение, \((\Delta +1)\) -раскраска вершин и \((2\Delta -1)\) -раскраска ребер) могут быть решены с использованием того же общего метода, и во всех случаях этот метод дает лучшие текущие распределенные алгоритмы. |
Here, the superscript bayes implies Bayesian
filtering [1]}, [2]}.
By restricting the total number of frames to one in
(REF ) and (REF ), we obtain the
original single-frame BM3D and NLB algorithms. This implies that MF
encompasses the single-frame filters.
| Здесь надстрочный знак "Bayes" означает байесовскую фильтрацию [1], [2].
Ограничивая общее количество кадров до одного в (REF) и (REF), мы получаем исходные однокадровые алгоритмы BM3D и NLB. Это означает, что MF включает в себя однокадровые фильтры. |
For the study design, recommendations for benchmark studies as given, e.g., in
[1]}, [2]} have been taken into account. One important issue
is a definition of the scope of the study.
There is an enormous amount of clustering methods, and clustering is applied to
data of very different formats. It is not even remotely possible to cover
everything that could potentially be of interest. Therefore the present study
constrains its scope in the following way:
| При проектировании исследования учитываются рекомендации по проведению эталонных исследований, описанных, например, в [1] и [2]. Одной из важных задач является определение объема исследования.
Существует огромное количество методов кластерного анализа, и кластеризация применяется к данным самых разных форматов. Невозможно охватить все, что потенциально может представлять интерес. Поэтому данное исследование ограничивает свой объем следующим образом: |
Finally, for refinement, we first perform local feature matching [1]}, [2]} between the query and selected reference images.
We count the number of matches found for each query-reference pair and choose the reference view \(I_r\) with the largest number of matches.
Then we obtain the refined 6DoF pose by retrieving the 3D points visible from \(I_r\) and performing PnP-RANSAC [3]}, [4]}, [5]}, [6]} between the 2D points in \(I_q\) and retrieved 3D points.
| Наконец, для уточнения мы сначала выполняем локальное сопоставление особенностей между запросом и выбранными эталонными изображениями [1] [2].
Мы подсчитываем количество найденных совпадений для каждой пары запрос-эталон и выбираем эталонный вид \(I_r\) с наибольшим количеством совпадений.
Затем мы получаем уточненную 6DoF-позу, извлекая 3D-точки, видимые из \(I_r\), и выполняем PnP-RANSAC [3] [4] [5] [6] между 2D-точками в \(I_q\) и извлеченными 3D-точками. |
Further indirect bounds can be extracted from data at lower energies.
Ref. [1]} used electroweak precision data to derive
constraints on top-quark electroweak couplings, but CP-violating operators
were not taken into account.
Using in addition experimental upper bounds on the electric dipole moments
of the neutron and atoms/molecules a powerful indirect constraint was
derived in Ref. [2]}, [3]} on the static
moment \(F_{2A}^\gamma \) of the top quark.
| Дополнительные косвенные ограничения могут быть извлечены из данных на более низких энергиях. Используя данные о прецизионных электрослабых измерениях, исследование [1] получило ограничения на электрослабые связи верхнего кварка, но операторы, нарушающие СР-симметрию, не были учтены. В дополнение к этому, используя экспериментально установленные верхние границы на электрические дипольные моменты нейтрона и атомов/молекул, было получено мощное косвенное ограничение на статический момент \(F_{2A}^\gamma\) верхнего кварка в работах [2], [3]. |
We call any node \(v\) good if and only if it has at least \(\deg (v)/3\) incoming edges. A node \(v\) that is not good is called bad. It can be proven [1]} that
\(\sum _{\textit {good vertex\;} v} \deg (v) \ge |E|/2.\)
| Мы называем любой узел \(v\) хорошим, если и только если у него есть как минимум \(\deg (v)/3\) входящих ребер. Узел \(v\), который не является хорошим, называется плохим.
Можно доказать [1], что \(\sum _{\textit {хороший узел\;} v} \deg (v) \ge |E|/2.\) |
Recently, channel-based pruning approaches [1]}, [2]}, [3]}, [4]} have attracted lots of attention, which remove entire filters as well as the corresponding feature maps, without the requirement of specialized software and hardware. Its typical pipeline contains three steps, 1) pre-training an over-parameterized neural network, 2) pruning least important filters based on a certain criterion, and 3) fine-tuning to alleviate performance degradation. The last two steps are an iterative procedure.
| Недавно канальные методы сокращения [1]}, [2]}, [3]}, [4]} привлекли много внимания, которые удаляют целые фильтры, а также соответствующие карты признаков, без необходимости специализированного программного обеспечения и оборудования. Его типичный этап состоит из трех шагов: 1) предварительное обучение надпараметризованной нейронной сети, 2) сокращение наименее важных фильтров на основе определенного критерия и 3) тонкая настройка для уменьшения деградации производительности. Последние два шага являются итерационным процессом. |
Using prompts, it is possible to imitate some capabilities of text generation. For example, CLIP-based applications exhibit zero-shot solving capabilities in various scenarios never seen before. With careful engineering of the prompt, one can, for example, improve detection of unseen objects [1]}. Zero-shot prompt engineering has also been used for higher-level tasks (e.g., VQA), but it is nowhere near the level of supervised methods [2]}.
| С помощью подсказок можно имитировать некоторые возможности генерации текста. Например, приложения, основанные на модели CLIP, обладают возможностью решать незнакомые задачи в различных сценариях. С тщательным созданием подсказок можно, например, улучшить обнаружение невидимых объектов [1]. Инженерия нулевых подсказок также была использована для более высокоуровневых задач (например, VQA), но пока не достигла уровня методов с учителем [2]. |
The Zeeman shift of the transition frequency is given in Hz by
[1]}
\( \delta \nu _B\approx -\delta g m_F\mu _0 B+\beta B^2\approx -1.084(4)\times 10^{6}m_FB- 5.8(8)\times 10^{-8} B^2\)
| Изменение частоты перехода Земана задается в герцах следующим образом:
\(\delta \nu _B \approx -\delta gm_F\mu _0 B + \beta B^2 \approx -1.084(4)\times 10^{6}m_FB - 5.8(8)\times 10^{-8} B^2\) |
Combining (REF ) with Hölder's inequality yields \(|AA|\gg |A|^{3/2}/\log |A|\) when \(|A+A|\ll |A|\) , which can be proved by simpler means.
To take full advantage of the sharp third energy bound (REF ), we use the techniques of [1]}, [2]} to input additional sum-product arguments, yielding Theorem REF :
\(|A-A|\gtrsim |A|^{8/5}\)
| Комбинирование (REF ) с неравенством Гёльдера дает \(|AA|\gg |A|^{3/2}/\log |A|\) при условии \(|A+A|\ll |A|\), что можно доказать проще.
Чтобы полностью воспользоваться острым третьим граничным условием энергии (REF), мы используем методы [1] и [2] для введения дополнительных аргументов суммы-произведения, что приводит к Теореме REF:
\(|A-A|\gtrsim |A|^{8/5}\) |
Because treatment is assumed to only change at visit times, the estimating equations include \(1_{visit}(m)\) , an indicator of whether a visit took place at time \(m\) . For loss to follow-up, we assumed missing at random ([1]} [1]}) and applied inverse probablity of censoring weighting ([3]} [3]}). Web-Appendix D describes the nuisance parameter models.
| Поскольку предполагается, что лечение меняется только во время посещений, оценочные уравнения включают \(1_{посещение}(m)\) , индикатор того, состоялось ли посещение в момент \(m\) . Для потери в ходе наблюдения, мы предположили пропущенность случайной ([1]} [1]}) и применили обратную вероятность взвешивания цензурирования ([3]} [3]}). Приложение D подробно описывает модели нежелательных параметров. |
Subgroup fairness has been proposed in the literature as a way to interpolate between group and individual fairness [1]}, [2]}, [3]}. When there is a limited number of known subgroups, it can be achieved with group fairness algorithms. However when subgroups are not clearly defined, or there are many of them, individual fairness is a more practical approach.
| Подгрупповая справедливость была предложена в литературе как способ интерполяции между групповой и индивидуальной справедливостью [1], [2], [3]. Когда существует ограниченное количество известных подгрупп, ее можно достичь с помощью алгоритмов групповой справедливости. Однако, когда подгруппы нечетко определены или их много, индивидуальная справедливость является более практичным подходом. |
Constraining the Lipschitz continuity of a network is not only interesting for regularisation. [1]} have shown that constraining the weights of the discriminator in a generative adversarial network to have a specific spectral norm can improve the quality of generated samples. They use the same technique as [2]} to compute these norms, and thus may benefit from the improvements presented in this paper.
| Ограничение Липшицевой непрерывности сети интересно не только для регуляризации. [1] показали, что ограничение весов дискриминатора в генеративной состязательной сети до определенной спектральной нормы может улучшить качество сгенерированных образцов. Они используют ту же технику, что и [2] для вычисления этих норм, и, следовательно, могут воспользоваться улучшениями, представленными в этой статье. |
where \(\mathrm {d_v}\) is the vertical differential. Recall that on a jet-bundle de Rham differential decomposes as \(d=\mathrm {d_h}+\mathrm {d_v}\) , see e.g. [1]}, [2]}, [3]} for more details on jet-bundles. If in addition \({\overset{n}{\omega }}\) is \(s\) -invariant modulo total derivative, i.e.
\(L_s{\overset{n}{\omega }}+\mathrm {d_h}{\overset{n-1}{\omega }}=0\,,\)
| где \(\mathrm {d_v}\) - вертикальная производная. Напоминаем, что в случае пучка дельта-форм дифференциал разлагается на \(\mathrm {d_h}\) и \(\mathrm {d_v}\), см. например [1]}, [2]}, [3]} для более подробной информации о пучках дельта-форм. Если, кроме того, \({\overset{n}{\omega }}\) является \(s\)-инвариантной по модулю полной производной, то есть
\(L_s{\overset{n}{\omega }}+\mathrm {d_h}{\overset{n-1}{\omega }}=0\,,\) |
Two of the most widely used strictly proper scoring rules, for binary data, are the Brier (or quadratic) score [1]} and the logarithmic score [2]}. These are good candidates for evaluating this class of earthquake forecasts. Here we give the definitions of these two scores, including brief proofs of their propriety.
| Два из самых широко использованных строго правильных правил оценки для бинарных данных - это правило Брайера (или квадратичное правило) [1] и логарифмическое правило [2]. Они являются хорошими вариантами для оценки такого класса прогнозов землетрясений. Здесь мы приводим определения этих двух правил, включая краткие доказательства их правильности. |
The universe made a smooth transition from deccelerated phase to accelerating phase at a transition redshift \(z_T=0.7306\) that is comparable to the transition redshift, \(Z_T=0.50-0.73\) obatined for the \(\Lambda \) CDM model[1]}, [2]}. The current decceleration parameter value is obtained by substituting \(a=1\) (or equivalently \(z=0\) ) in eq. (REF ),
\(q_0=-1+\frac{3}{2}(\Omega _{m_0}-\tilde{\xi _1})\)
| Вселенная сделала плавный переход от замедленной фазы к ускоренной фазе при переходном красном смещении \(z_T=0.7306\), которое сравнимо с переходным красным смещением \(Z_T=0.50-0.73\), полученным для модели \(\Lambda \) CDM[1], [2]. Текущее значение параметра замедления получается подстановкой \(a=1\) (или, что равносильно, \(z=0\)) в уравнение (REF),
\(q_0=-1+\frac{3}{2}(\Omega _{m_0}-\tilde{\xi _1})\). |
To make the results comparable with previous work, we report the \(F_1\) score for four binary classifications and both \(F_1\) and Accuracy for 4-way classification, which can be found in Table REF . We can see that our method outperforms all alternatives on Comparison and Contingency, and obtain comparable scores with the state-of-the-art in others. For 4-way classification, we got the best accuracy and second-best \(F_1\) with around 2% better than in [1]}.
| Для того чтобы результаты были сравнимы с предыдущими работами, мы сообщаем о показателе \(F_1\) для четырех двоичных классификаций и и о показателях \(F_1\) и точности для четырехкратной классификации, которые можно найти в таблице REF. Мы видим, что наш метод превосходит все альтернативы в сравнении и событийности, и достигает сопоставимых результатов с передовыми методами в других случаях. Для четырехкратной классификации, мы получили самую высокую точность и второй по величине показатель \(F_1\), который на 2% лучше, чем в [1]. |
where \(\mathfrak {h}\) is the Lie algebra of \(H(\mathbb {R})\) and \(V_\lambda \) is the finite dimensional representation of weight \(\lambda \) . Using the definition from [1]},
\(H^*(\mathfrak {h}, K_{H,\infty }, \pi _\infty \otimes V_\lambda ) = H^*(\mathfrak {h}, K^0_{H,\infty }, \pi _\infty \otimes V_\lambda )^{K_{H,\infty }/K^0_{H,\infty }},\)
| где \(\mathfrak {h}\) - алгебра Ли \(H(\mathbb {R})\), а \(V_\lambda \) - конечномерное представление с весом \(\lambda\). Используя определение из [1], получим что
\(H^*(\mathfrak {h}, K_{H,\infty }, \pi _\infty \otimes V_\lambda ) = H^*(\mathfrak {h}, K^0_{H,\infty }, \pi _\infty \otimes V_\lambda )^{K_{H,\infty }/K^0_{H,\infty }}\). |
We perform numerical experiments
on three symmetric test matrices
from [1]}
of dimension \(n = 100\) that depend on a
parameter \(\theta \) .
| Мы проводим численные эксперименты на трех симметричных тестовых матрицах из [1], размерностью \(n = 100\), которые зависят от параметра \(\theta\). |
Finally tensor group field theories are built around a more general space \(V := L^2 (G)\) where \(G\) is a Lie group [1]}, [2]} or homogeneous space [3]}, and their propagator incorporates a Boulatov projector
\(C (n_{\cal {D}}, \bar{n}_{\cal {D}}) = \frac{\delta _{n_{\cal {D}}, \bar{n}_{\cal {D}}}\delta \Big (\sum \limits _{j=1}^d n_j\Big ) }{\sum \limits _{j=1}^d n^2_j + m^2},\)
| Наконец, тензорные групповые полевые теории строятся вокруг более общего пространства \(V := L^2(G)\), где \(G\) - группа Ли [1], [2] или однородное пространство [3], и их пропагатор включает проектор Булатова
\(C(n_{\cal {D}}, \bar{n}_{\cal {D}}) = \frac{\delta _{n_{\cal {D}}, \bar{n}_{\cal {D}}}\delta \Big (\sum \limits _{j=1}^d n_j\Big ) }{\sum \limits _{j=1}^d n^2_j + m^2}\), |
The recent increase in availability of load data,
for model training has ignited data-driven approaches, such as deep neural networks using both convolutional neural network (CNN) and recurrent neural network (RNN) architectures [1]}, [2]}, [3]}. The nature of data in load disaggregation is a uni-dimensional time series that keeps track of power consumption of each appliance in time. The NILM problem requires algorithms with the ability to process temporal information or data.
| Возрастание доступности данных о нагрузке для обучения моделей возбудило интерес к подходам, основанным на данных, таким как глубокие нейронные сети, использующие как архитектуру сверточных нейронных сетей (CNN), так и рекуррентных нейронных сетей (RNN) [1], [2], [3]. Сущность данных в декомпозиции нагрузки - это одномерный временной ряд, отслеживающий потребление электроэнергии каждого прибора во времени. Проблема NILM требует алгоритмов, способных обрабатывать временную информацию или данные. |
We introduce a baseline for comparison, i.e., STAF-Scratch, training from scratch for 3D ResNet-50. Then we compare this baseline with the other five models trained from the combinations of three different large-scale video datasets,i.e., Kinetics-700[1]}, Moment-in-time[2]}, and START-action[3]}.
| Мы представляем базовую линию для сравнения, то есть STAF-Scratch, обучение с нуля для 3D ResNet-50. Затем мы сравниваем эту базовую линию с другими пятью моделями, обученными из комбинаций трех разных крупномасштабных видео-наборов данных, то есть Kinetics-700[1]}, Moment-in-time[2]}, и START-action[3]}. |
In this section I will briefly introduce Support Vector Machines from a theoretical perspective.
Further introduction may be found in Bishop's book[1]}.
If more substance is wanted I recommend reading the whole book by Christianini and Shawe-Taylor[2]}.
The very thorough coverage of the topic by its original implementor Vapnik in his book[3]}, sometimes called the bible, was often an additional useful source for me.
| В этом разделе я кратко познакомлю вас с машинами опорных векторов с теоретической точки зрения.
Более подробное введение можно найти в книге Бишопа[1]}.
Если вы хотите получить более глубокое представление, я рекомендую прочитать всю книгу Кристианини и Шоу-Тейлора[2]}.
Очень подробное изложение этой темы в книге ее первоначального разработчика Вапника, иногда называемой "библия", часто было дополнительным полезным источником для меня[3]}. |
Thm. REF was foreshadowed for finite type I factors, and with a focus on
classifying quantum from non-signalling correlations in [1]}. Its close connection with entanglement classification will be discussed elsewhere [2]}. For a broader perspective on the significance of contextuality in the foundations of quantum mechanics we refer to [3]}.
| Теорема REF была предсказана для конечных типов I-факторов с упором на классификацию квантовых и несигнальных корреляций в [1]. Близкая связь с классификацией запутанности будет обсуждаться в другом месте [2]. Для более широкого понимания значения контекстуальности в основах квантовой механики мы ссылаемся на [3]. |
Corollary 5.17 ([1]} and [2]})
Let \((X,T)\) be a reiteratively hypercyclic linear dynamical system. Then \(T_N:X^N\longrightarrow X^N\) is reiteratively hypercyclic for every \(N \in \mathbb {N}\) .
| Следствие 5.17 ([1] и [2])
Пусть \((X,T)\) - это повторно гиперциклическая линейная динамическая система. Тогда \(T_N:X^N\longrightarrow X^N\) является повторно гиперциклическим для каждого \(N \in \mathbb {N}\). |
with \(u(0)=u_0\) can be solved explicitly [1]}, [2]}, [3]}. Then, by composing the solution of each part with appropriately chosen
coefficients, it is possible to construct an integrator of a given order \(r \ge 1\) for (REF ). In the particular case
of a linear problem,
\( \frac{du }{dt} = A u + B u,\)
| с \(u(0) = u_0\) можно решить явно [1], [2], [3]. Затем, с помощью соответствующих коэффициентов, комбинируя решения каждой части, можно построить интегратор заданного порядка \(r \ge 1\) для (REF ). В частном случае линейной проблемы,
\( \frac{du}{dt} = A u + B u,\) |
At the heart of the above theorem is a new impossibility result for copy-protection in the plain model. Specifically, we show that even copy-protection with approximate correctness can be ruled out in the plain model (thm:imp:approxcp), while prior works [1]}, [2]} only ruled out copy-protection with statistical correctness.
| В основе указанной теоремы лежит новый результат о невозможности копирования в модели без защиты. Конкретно, мы показываем, что даже копирование с приближенной корректностью невозможно в такой модели (thm:imp:approxcp), в то время как ранее было доказано только невозможность копирования с статистической корректностью [1], [2]. |
In this work, we show that two generalizations of the Faddeev-Volkov model constructed in [1]} and [2]} are identical in regard to their integrability properties.
| В данной работе мы показываем, что два обобщения модели Фаддеева-Волкова, конструированные в [1] и [2], идентичны по своим интегрируемым свойствам. |
As detailed in Appendix A of [1]}, the matrix \(D_n\) for the Chebyshev polynomials in (REF ) can be expressed as the \((n+1)\times (n+1)\) upper triangular matrix with nonzero entries
\([D_n]_{kr}=\frac{2r}{\sigma _k},\qquad \text{$k+r$ odd},~ r>k,\)
| Как подробно описано в Приложении A [1], матрица \(D_n\) для полиномов Чебышёва в (REF) может быть выражена как верхнетреугольная матрица размером \((n+1)\times (n+1)\) с ненулевыми элементами
\([D_n]_{kr}=\frac{2r}{\sigma _k},\qquad \text{$k+r$ нечётное},~ r>k,\) |
Here, \(\underline{\Phi }\) is a set of gradient kernel functions determined using a higher-order meshfree method that is asymptotically compatible with the local gradient operator [1]}. We employ the reproducing kernel (RK) shape functions [2]}, [3]}, [4]}, as follows, to construct a meshfree differential operator equipped with an \(n\) -th order accuracy:
\(\underline{\Phi }^{[n]} = \underline{\omega } \, \tilde{\Xi }^{[n]} \, \mathbf {M}^{[n]^{-1}} \, \underline{\Xi }^{[n]} ,\)
| Тут \(\underline{\Phi }\) является набором функций ядра градиента, определенных с использованием более высокоуровневого метода без сеток, который асимптотически совместим с локальным оператором градиента [1]. Мы используем воспроизводящие ядерные (RK) функции формы [2], [3], [4], следующим образом, чтобы построить дифференциальный оператор без сеток с \(n\)-ой степенью точности:
\(\underline{\Phi }^{[n]} = \underline{\omega } \, \tilde{\Xi }^{[n]} \, \mathbf {M}^{[n]}^{-1} \, \underline{\Xi }^{[n]}\), |
Another quantity, which is indicator of nuclear stopping and has been used recently,
is the quadrupole moment \(Q_{zz}\) , defined as[1]}:
\(Q_{zz} = \sum _{i} \left(2p_z^2(i) - p_x^2(i) - p_{y}^2(i)\right).\)
| Другой показатель ядерной остановки, который недавно использовался, - это квадрупольный момент \(Q_{zz}\), определенный как[1]:
\(Q_{zz} = \sum_{i} \left(2p_z^2(i) - p_x^2(i) - p_{y}^2(i)\right).\) |
The reduced electric quadrupole transition rate
between the \( J_{i}\rightarrow J_{f} \) states is given by
[1]}, [2]}
\(B(E2; \alpha _{i} J_{i} \rightarrow \alpha _{f} J_{f})=\frac{|\langle \alpha _{f} J_{f} || T^{(E2)} || \alpha _{i}J_{i}\rangle |^{2} }{2J_{i}+1}\)
| Уменьшенная скорость квадрупольного электрического перехода между состояниями \( J_{i}\rightarrow J_{f} \) определяется следующим выражением:
\(B(E2; \alpha _{i} J_{i} \rightarrow \alpha _{f} J_{f})=\frac{|\langle \alpha _{f} J_{f} || T^{(E2)} || \alpha _{i}J_{i}\rangle |^{2} }{2J_{i}+1}\) |
In the model of [1]} the geometry ends at a boundary located at the value of the radial variable \(y\) at which the circumference of the circle \((0<\theta \le 2\pi )\) is the inverse temperature \(\beta ,\)
\(\sinh {y_b} = \frac{\beta }{2 \pi \mu }.\)
| В модели [1] геометрия заканчивается на границе, которая находится на значении радиальной переменной \(y\), при котором окружность \((0<\theta \le 2\pi)\) имеет обратную температуру \(\beta\):
\(\sinh {y_b} = \frac{\beta }{2 \pi \mu }.\) |
Lemma 2.1 (Furuya [1]})
Let \(n\ge 1\) and \(l\ge 1\) be integers.
Let \(H\) be a connected \(\lbrace K^{*}_{n},S^{*}_{n}\rbrace \) -free graph with \({\rm diam}(H)\le l\) .
Then there exists a dominating set \(U\) of \(H\) with \(|U|\le R(n,n)\sum _{2\le h\le l}\alpha _{n,h}+1\) .
| Лемма 2.1 (Фуруя [1])
Пусть \(n\ge 1\) и \(l\ge 1\) - целые числа.
Пусть \(H\) является связным графом, свободным от \(\lbrace K^{*}_{n},S^{*}_{n}\rbrace \), и \({\rm diam}(H)\le l\).
Тогда существует доминирующее множество \(U\) в \(H\) с \(|U|\le R(n,n)\sum _{2\le h\le l}\alpha _{n,h}+1\). |
In addition, there exists another line of work focusing on the hyper-graph clustering problem; see [1]}, [2]}, [3]}, among many others. In hyper-graphs, the hyper-edges are directly known as a prior rather than constructed using the motifs. Theoretically,
the motif adjacency matrix brings extra dependence between entries, nevertheless in the context of hyper-graph clustering, the entries of the adjacency tensor are independent.
| Кроме того, существует еще одно направление работы, сфокусированное на проблеме кластеризации гиперграфов; см. [1]}, [2]}, [3]}, и многие другие. В гиперграфах гиперребра изначально известны, а не строятся с использованием мотивов. Теоретически, матрица смежности мотивов вносит дополнительную зависимость между элементами, однако в контексте кластеризации гиперграфов элементы тензора смежности независимы. |
Contact-rich skills require inputs from force, position and visual sensors to effectively understand the environment state. Combining data from multiple sensors can effectively learn tasks such as grasping or peg insertion [1]}, [2]}. Predictive representations for state based on multi sensor data can capture action-relevant information [3]}. Inspired by this we propose a multi-modal representation to capture contact conditions, type and scene occlusion based on the multiple sensor inputs.
| Контактно-насыщенные навыки требуют входных данных от сенсоров силы, положения и зрения, чтобы эффективно понимать состояние окружающей среды. Комбинирование данных от нескольких сенсоров позволяет эффективно выполнять такие задачи, как захват или вставка штифта [1]}, [2]}. Предсказательные представления состояния на основе многоканальных данных сенсоров могут захватывать информацию, необходимую для действий [3]}. Инспирируясь этим, мы предлагаем мультимодальное представление для захвата контактных условий, типа и заслонения сцены на основе данных от нескольких сенсоров. |
A homotopy Poisson algebra is a graded commutative algebra with an \(L_\infty \) -structure
whose brackets satisfy the Leibniz rule. It has appeared as higher Poisson structures in [1]}, [2]} and
\(P_\infty \) -structures in [3]}.
| Гомотопическая Пуанссонова алгебра - это ступенчатая коммутативная алгебра с \( L_\infty \) -структурой, у которой скобки удовлетворяют правилу Лейбница. Она появляется в качестве высших Пуанссоновых структур в работах [1]}, [2]} и \( P_\infty \) -структур в работе [3]}. |
Assumption REF .REF is standard in online optimization (e.g. [1]}, [2]}, and [3]}). We note that Assumption REF .REF implies Assumption REF .REF . The latter is nevertheless introduced to distinguish the effects of the time variation of \(\mathcal {T}_t\) (which influences both \(\delta _1\) and \(\delta _2\) ) from the one of \(\phi _t\) (which only influences \(\delta _1\) ).
| Предположение REF .REF является стандартным в онлайн оптимизации (например, [1], [2] и [3]). Мы отмечаем, что предположение REF .REF подразумевает предположение REF .REF. Последнее, тем не менее, вводится для различия эффектов временной вариации \(\mathcal {T}_t\) (которая влияет на оба \(\delta _1\) и \(\delta _2\)) от эффекта \(\phi _t\) (который влияет только на \(\delta _1\)). |
in accordance with empirical evidence [1]}, [2]}.
For more components and details about this model and further development we refer to [3]}, [4]}, [5]}, [6]}.
| в соответствии с эмпирическими доказательствами [1]}, [2]}.
Для получения более подробной информации об этой модели и ее дальнейшем развитии мы ссылаемся на [3]}, [4]}, [5]}, [6]}. |
The difficulty of optimizing the IB Lagrangian lies in the compression term \(\mathrm {MI}(X; Z)\) , since the prediction term \(\mathrm {MI}(Z; Y)\) follows [1]}, [2]},
\(\mathrm {MI}(Z; Y) \le \mathrm {H}(Y) + E_{P(Z; Y)}\log P(Y|Z)\)
| Сложность оптимизации IB функции Лагранжа заключается в сжимающем члене \(\mathrm {MI}(X; Z)\), так как прогностический член \(\mathrm {MI}(Z; Y)\) следует из [1], [2]:
\(\mathrm {MI}(Z; Y) \le \mathrm {H}(Y) + E_{P(Z; Y)}\log P(Y|Z)\) |
in which the conversion of S into P is achieved via two elementary reactions: the reversible formation of the enzyme-substrate complex, C, and the conversion of S to P in the complex C with (in this simple model) simultaneous disassociation into E and P. Enzymes lower the free-energy barrier separating reactants from products, with the result that (REF ) is generally faster than (REF ) by many orders of magnitude [1]}.
| в котором превращение S в P достигается с помощью двух элементарных реакций: обратимое образование комплекса фермент-субстрат (C) и превращение S в P в комплексе C с (в этой простой модели) одновременным диссоциацией на E и P. Ферменты снижают энергетический барьер, отделяющий реагенты от продуктов, в результате чего (ССЫЛКА) во много раз быстрее, чем (ССЫЛКА) [1]. |
Although these parametric quasi-experimental designs are not covered by the do-calculus, their identification results are well-known [1]}, [2]}, [3]}. Similar to the causal graphical models, SBI correctly recovers that average treatment effects are identifiable for all three of these designs, despite their diversity.
| Хотя эти параметрические псевдо-экспериментальные дизайны не рассматриваются в do-калькуле, их результаты определения широко известны [1]}, [2]}, [3]}. Аналогично моделям причинно-следственных графов, SBI верно определяет, что среднее воздействие лечения определено для всех трех этих дизайнов, несмотря на их разнообразие. |
STB.
Stereo Hand Pose Tracking Benchmark [1]} is composed of 15,000 training samples and 3,000 testing samples.
During our experiments, we only use the RGB images and the paired 3D joint annotations.
We use the training set of STB to train our model and compare our models with other state-of-the-art methods on the validation set.
To unify the definition of joints, following the practice of [2]}, [3]}, we move the root joint from the palm center to the wrist.
| STB.
Stereo Hand Pose Tracking Benchmark [1] состоит из 15 000 образцов для обучения и 3 000 образцов для тестирования.
В наших экспериментах мы используем только цветные изображения (RGB) и соответствующие аннотации трехмерных суставов.
Мы используем обучающий набор STB для обучения нашей модели и сравниваем её с другими передовыми методами на валидационном наборе данных.
Для единого определения суставов, в соответствии с практикой в [2], [3], мы перемещаем корневой сустав с центра ладони на запястье. |
where \(\alpha = (q,p)\) is a point in the phase space, \(\omega = e^{2\pi i/d}\) , and \(X\) and \(Z\) are generalised Pauli operators defined as the clock operator \(X{i} = {i\oplus 1\,\text{mod}\,d}\) and the phase operator \(Z{i} = \omega ^{i}{i}\) with \(\omega = \exp (2\pi i/d)\). Correspondingly, the dual is given by \(G(\alpha ) = d V(\alpha )\) . The previous example of quasi-probability representation is the extensively studied Wigner function [1]}, [2]}, [3]}, [4]}.
| где \(\alpha = (q,p)\) - точка в фазовом пространстве, \(\omega = e^{2\pi i/d}\), а \(X\) и \(Z\) - обобщенные операторы Паули, определенные как оператор часов \(X_i = i \oplus 1 \text{mod} d\) и оператор фазы \(Z_i = \omega^i i\), с \(\omega = \exp (2\pi i/d)\). Соответственно, двойственное преобразование задается как \(G(\alpha) = d V(\alpha)\). Предыдущий пример представления квази-вероятности является хорошо изученной функцией Вигнера [1], [2], [3], [4]. |
The Aomoto-Gelfand hypergeometric functions [1]} are associated to Grassmannians. In this section, we will make this connection explicit and derive the differential equations associated to them. For a quick introduction, see [2]} from which most of this section is adopted (with cosmetic changes).
| Гипергеометрические функции Аомото-Гельфанда [1] связаны с грассманианами. В этом разделе мы сделаем эту связь явной и получим связанные с ними дифференциальные уравнения. Для краткого введения см. [2], из которого подавляющее большинство этого раздела взято (с незначительными изменениями). |
Table REF summarizes the strengths and weaknesses of of different GAN-based image editing methods. Some works use an unsupervised approach to discover meaningful latent space directions, and then manually attribute a semantic to each of the found directions [1]}, [2]}, [3]}, [4]}. However, the discovered directions are entangled and usually change more than one semantic attributes simultaneously, e.g., both age and gender. Hence , they are rarely applied to localized image editing.
| Таблица REF суммирует преимущества и недостатки различных методов редактирования изображений на основе GAN. Некоторые работы используют неразмеченный подход для обнаружения значимых направлений скрытого пространства, а затем вручную присваивают семантику каждому обнаруженному направлению [1], [2], [3], [4]. Однако обнаруженные направления переплетены и обычно одновременно изменяют более одного семантического признака, например, возраст и пол. Поэтому они редко применяются для локализованного редактирования изображений. |
for some constants \(a,b,c,d\in \mathbb {F}_q\) with \(ad-bc\ne 0\) .
In particular, there exists an automorphism \(\sigma \in {\rm Aut }(K/\mathbb {F}_q)\) with order \(q+1\) such that \(\sigma \) acts cyclically on all rational places of \(K\) from [1]}.
| для некоторых констант \(a, b, c, d \in \mathbb{F}_q\) с условием \(ad-bc\neq 0\). В частности, существует автоморфизм \(\sigma \in \text{{Aut}}(K/\mathbb{F}_q)\) порядка \(q+1\), который действует циклически на всех рациональных местах \(K\) из [1]}. |
Note that the framework for our decoder is also compatible with other equivariant layers on graphs, such as the geometric vector perceptron (GVP) [1]} or vector neuron [2]}.
We choose EGCL as it is a powerful layer for molecular modeling and conformation generation [3]}, [4]}, [5]}.
| Обратите внимание, что структура нашего декодера также совместима с другими эквивариантными слоями на графах, такими как геометрический векторный перцептрон (GVP) [1]} или векторный нейрон [2]}.
Мы выбираем EGCL, поскольку это мощный слой для молекулярного моделирования и генерации конформаций [3]}, [4]}, [5]}. |
In this section, we have investigated the convergence rate of the
proposed algorithm for general Lipschitz convex function. Our result
can be seen as an extension of the classical work [1]},
which has shown that the optimization error is \(O(\sqrt{M}T^{-\frac{1}{4}})\)
in a centralized setting.
| В этом разделе мы исследовали скорость сходимости предлагаемого алгоритма для общей липшицевой выпуклой функции. Наш результат можно рассматривать как расширение классической работы [1], которая показала, что ошибка оптимизации составляет \(O(\sqrt{M}T^{-\frac{1}{4}})\) в централизованном окружении. |
Quite a number of ethical frameworks have been proposed [1]}, [2]}, [3]} and “at least 63 public-private initiatives have produced statements describing high-level principles, values and other tenets to guide the ethical development, deployment and governance of AI” [4]}, [5]}. Within the framework proposed herein an ethical framework is referenced to, however the scope of such a discussion would warrant a paper of its own.
| Было предложено значительное количество этических рамок [1], [2], [3], и "как минимум 63 публично-частных инициативы выработали заявления, описывающие высокоуровневые принципы, ценности и другие положения, руководящие этическим развитием, внедрением и управлением искусственным интеллектом" [4], [5]. В данной работе приводится справка о выбранной этической рамке, но ее обсуждение требует отдельного научного исследования. |
leads to the Wheeler–DeWitt equation [1]}, [2]}
\(\left\lbrace -G_{ijkl}\dfrac{\delta ^2}{\delta h_{ij}\delta h_{kl}}-h^{1/2}\left(-{^{(3)}R}+2\Lambda +6\varrho \right)\right\rbrace \Psi [h_{ij},\phi ]=0,\)
| приводит к уравнению Уилера–ДеВитта [1], [2]
\(\left\lbrace -G_{ijkl}\dfrac{\delta ^2}{\delta h_{ij}\delta h_{kl}}-h^{1/2}\left(-{^{(3)}R}+2\Lambda +6\varrho \right)\right\rbrace \Psi [h_{ij},\phi ]=0,\) |
The existence of global–in–time weak solutions under the constitutive restrictions specified in the forthcoming section was proved in [1]}. In addition, the weak solutions comply with the weak–strong uniqueness principle and coincide with strong solutions as soon as they are smooth.
| Существование глобальных слабых решений во времени, удовлетворяющих ограничениям, указанным в следующем разделе, было доказано в [1]. Кроме того, слабые решения соответствуют принципу слабых-сильных единственности и совпадают сильными решениями, как только они гладкие. |
The relevant data to construct the quivers associated to these massless modes are the linking numbers of the D4-branes and the NS5-branes. To define these we use that the brane set-up depicted in Table REF is T-dual to the Type IIB construction studied in [1]}, and use the definitions
\(4.15\)
| Необходимые данные для построения стрелков, связанных с этими безмассовыми модами, - это числа связывания D4-бран и NS5-бран. Для их определения мы используем то, что установка бран в таблице REF является T-дуальной к конструкции типа IIB, изучаемой в [1}, и используем определения
\(4.15\) |
in [1]}, Bordellés, Dai, Heyman, Pan and Shparlinski proved that
\(S_{f}(x)=C_{f}x+O\left(x^{(1+\eta )/3}(\log x)^{(1+\eta )(2+\varepsilon _{2}(x))/6}\right),\)
| в [1], Борделлез, Дай, Хейман, Пан и Шпарлинский доказали, что
\(S_{f}(x)=C_{f}x+O\left(x^{(1+\eta )/3}(\log x)^{(1+\eta )(2+\varepsilon _{2}(x))/6}\right),\) |
Let \((X,\mu )\) be a measure space. A well-known result in classical analysis, see [1]} and [2]}, is that if \(f:X\rightarrow \mathbb {R}\) is a \(\mu \) -measurable function such that \(f\in L^r(X,\mu )\) for some \(r\ge 1\) , then
\(\lim _{p\rightarrow \infty }\Vert f\Vert _{L^p(X,\mu )}= \Vert f\Vert _{L^\infty (X,\mu )}.\)
| Пусть \((X,\mu )\) - измеримое пространство. Известным результатом в классическом анализе, см. [1] и [2], является то, что если \(f:X\rightarrow \mathbb {R}\) - \(\mu\)-измеримая функция, такая что \(f\in L^r(X,\mu )\) для некоторого \(r\ge 1\), то
\(\lim _{p\rightarrow \infty }\Vert f\Vert _{L^p(X,\mu )}= \Vert f\Vert _{L^\infty (X,\mu )}.\) |
We focused our study on two specific toy models of evaporating black holes, but it would be interesting to generalize our analysis to other models, including the examples studied in [1]}.
| Мы сосредоточились на изучении двух конкретных игрушечных моделей испаряющихся черных дыр, но было бы интересно обобщить наш анализ на другие модели, включая примеры, исследованные в [1]. |
Other authors addressed the problem by using both categorical information of the training images and also their semantic segmentation, as in [1]}, [2]}, [3]}, [4]}. In those works, the authors train the discriminator to distinguish real and fake images and at the same time, to match the objective pixel wise semantic information given.
| Другие авторы решали проблему, используя как категориальную информацию обучающих изображений, так и их семантическую сегментацию, как в [1], [2], [3], [4]. В этих работах авторы обучают дискриминатор различать реальные и фальшивые изображения, а также совпадать с предоставленной объектной семантической информацией на уровне пикселей. |
Model - Normalizing Flows. To model distributions, we use Neural Spline Flows (NSF) with a coupling layer [1]}. More details about how coupling layers and NSF work can be found in the appendix.
| Модель - нормализующих потоков. Для моделирования распределений мы используем нейронные сети с гладкими сплайнами (NSF) с помощью связывающего слоя [1]. Более подробную информацию о том, как работают связывающие слои и NSF, можно найти в приложении. |
However, one needs to be careful when giving such statements, since some results on tilting theory do not hold in the context of \(\tau \) -tilting theory.
Also, before the definition of \(\tau \) -tilting theory there was at least one other generalisation of tilting theory to higher projective dimensions.
We are referring to the generalised tilting modules introduced by Miyashita in [1]}.
They are defined as follows.
| Однако необходимо быть осторожным при предоставлении таких утверждений, поскольку некоторые результаты в теории наклонов не справедливы в контексте \(\tau \)-теории наклонов.
Кроме того, перед определением \(\tau \)-теории наклонов существовало по крайней мере ещё одно обобщение теории наклонов к более высоким проективным размерностям.
Мы ссылаемся на обобщённые модули наклона, введённые Мияситой в [1].
Они определяются следующим образом. |
Figure REF plots the time history of the pressure signals probed by sensor \(P\)
with the present method in single- and multi-resolution simulation
and its comparison against experimental data [1]}
and numerical prediction obtained by the multi-phase SPH method [2]}.
As expected,
the main pressure plateau agrees well with the experimental [1]}
and numerical data [1]},
while large oscillations mitigated with increased spatial resolution
are exhibited due to the WC-assumption [5]}, [2]}, [7]}.
<TABLE> | На рисунке REF показана временная история сигналов давления, зондируемых сенсором \(P\) с использованием предложенного метода в одно- и многоразрешенной симуляции, а также их сравнение с экспериментальными данными [1] и численными предсказаниями, полученными с использованием многопоточного метода SPH [2]. Как и ожидалось, основная плоскость давления хорошо согласуется с экспериментальными [1] и численными данными [1], тогда как большие колебания, смягченные с увеличением пространственного разрешения, проявляются вследствие использования предположения WC [5], [2], [7]. |
The attention-based encoder-decoder (AED) model is another type of E2E ASR model [1]}, [2]}, [3]}, [4]}, [5]}. As shown in Figure REF , AED has an encoder network, an attention module, and a decoder network.
The AED model calculates the probability as
\( P( {\bf {y}|\bf {x}} ) = \prod _u P(y_u | {\bf {x}} , {\bf {y}}_{1:u-1}),\)
| Внимательно-основанная энкодер-декодер (АОД) модель является еще одним типом модели ASR E2E [1], [2], [3], [4], [5]. Как показано на рисунке REF, АОД имеет сеть энкодера, модуль внимания и сеть декодера.
Модель АОД вычисляет вероятность как
\( P( {\bf {y}|\bf {x}} ) = \prod _u P(y_u | {\bf {x}} , {\bf {y}}_{1:u-1}),\) |
Hierarchical Reinforcement Learning (HRL) is often regarded as an open frontier in RL for developing more sample-efficient control algorithms [1]}, [2]}, [3]}, [4]}, [5]}, [6]}. Hierarchy provides innate structure for solving complex problems by decomposing tasks into smaller, simpler and recurring, subtasks. In turn, this allows the decision making algorithm to reason or plan over temporally distant events instead of only the (arbitrarily granular) environment actions.
| Иерархическое обучение с подкреплением (Hierarchical Reinforcement Learning, HRL) часто рассматривается как открытая граница в области обучения с подкреплением для разработки более эффективных алгоритмов управления [1], [2], [3], [4], [5], [6]. Иерархия предоставляет врожденную структуру для решения сложных задач путем разбиения задач на более малые, простые и повторяющиеся подзадачи. В свою очередь, это позволяет алгоритму принятия решений рассуждать или планировать события с длительными временными интервалами, а не только (произвольно детализированные) действия в среде. |
Discussion.—
Our general arguments show that the superconductivity-induced optical spectral weight transfer can be understood as quantum geometric effects within the multi-band BCS theory.
This is essentially the same phenomenon as the geometric superfluidity studied previously [1]}, [2]}.
However, our approach has practical advantages over the previous approach as well as conceptual merits in the understanding of the physics of the cuprates.
| Обсуждение. —
Наши общие рассуждения показывают, что перенос оптической спектральной плотности, вызванный сверхпроводимостью, можно понять как квантовые геометрические эффекты в рамках многозоновой BCS-теории.
Это по существу тот же феномен, что и геометрическая сверхтекучесть, изучаемая ранее [1], [2].
Однако наш подход имеет практические преимущества перед предыдущим подходом и концептуальные достоинства в понимании физики купратов. |
Following the arguments in [1]}, we will use results from incidence geometry to control incidences between points \(p\in B\times B\) and certain curves \(\alpha _{a,a^{\prime }}\) with \(a,a^{\prime }\in A\) . One difficulty is that distinct pairs \((a,a^{\prime })\) might lead to curves \(\gamma _{a,a^{\prime }}\) that contain a common irreducible component. Our next task is to show that this situation cannot occur frequently. We recall Definition 2.4 and Proposition 2.5 from [1]}.
| Исходя из аргументов в [1], мы будем использовать результаты инцидентной геометрии для контроля инцидентности между точками \(p\in B\times B\) и определенными кривыми \(\alpha _{a,a^{\prime }}\) с \(a,a^{\prime }\in A\) . Одна из сложностей заключается в том, что различные пары \((a,a^{\prime })\) могут привести к кривым \(\gamma _{a,a^{\prime }}\), содержащим общий неприводимый компонент. Наша следующая задача - показать, что подобная ситуация не может происходить часто. Мы напоминаем Определение 2.4 и Предложение 2.5 из [1]. |
[1]} \( \mathcal {C} \) is an MDS symbol-pair code, when \(\left( {r_1},{r_2},{r_3}\right) =\left(4,0,0 \right)\) is satisfied.
\( \mathcal {C} \) is not an MDS symbol-pair code, when we have \(\left( {r_1},{r_2},{r_3}\right) =\left(0,4,0 \right) ,\left(0,0,4 \right) \) .
| [1]} \( \mathcal {C} \) является символьно-парным кодом MDS, когда выполняется условие \(\left( {r_1},{r_2},{r_3}\right) =\left(4,0,0 \right)\).
\( \mathcal {C} \) не является символьно-парным кодом MDS, когда выполнены условия \(\left( {r_1},{r_2},{r_3}\right) =\left(0,4,0 \right) ,\left(0,0,4 \right)\). |
There are only few work related to the theoretical part of learning-based LRA especially considering error bound. Bartlett et al. [1]} give a generalization bound for learning-based methods and this result can be improved [2]} by PAC-learning approach [3]}, [4]}.
| Существует лишь немного работ, посвященных теоретической части обучающегося LRA, особенно с учетом предела ошибки. Бартлетт и др. [1] представляют общую оценку для методов, основанных на обучении, и этот результат можно улучшить [2] с помощью подхода PAC-обучения [3], [4]. |
Training settings: Following prior works, we fine-tune all models for 100 epochs with the batch size \(=128\) , weight decay \(=1e-4\) , optimizer = SGD + momentum, learning rate \(=0.01\times batch\_size/512\) , and cosine learning rate schedule. Our only difference is that we use AutoAugment [1]} instead of standard ViT augmentation such as Rotation, Flip, and MixUp [2]}. The reason for this change and its significance in results is discussed accurately in Section .
| Параметры обучения: Следуя предыдущим работам, мы настраиваем все модели в течение 100 эпох с размером пакета \(=128\), весовым затуханием \(=1e-4\), оптимизатором = SGD + импульс, скоростью обучения \(=0.01\times batch\_size/512\) и косинусным расписанием скорости обучения. Наше единственное отличие состоит в том, что вместо стандартных методов улучшения ВиТ, таких как вращение, отражение и смешивание [2], мы используем AutoAugment [1]. Причина этого изменения и его значение для результатов подробно обсуждаются в разделе . |
The classical approach to the stacking in neural network ensembling is to train individually several neural networks and then use major voting principles for the calculation of the final result [1]}.
| Классический подход к стекингу в ансамблях нейронных сетей заключается в тренировке отдельно нескольких нейронных сетей, а затем использовании принципа голосования для вычисления окончательного результата [1]. |
Recent years have seen increased interest in methods to integrate observational data with experimental data [1]}. Such methods have been used to identify average causal effects in target populations [2]}, [3]}, identify heterogeneous treatment effects [4]}, and improve precision in causal estimation [5]}
| В последние годы возрос интерес к методам интеграции наблюдательных данных с экспериментальными данными [1]. Такие методы были использованы для определения среднего причинного эффекта в целевых популяциях [2], [3], выявления разнообразных эффектов лечения [4] и повышения точности в оценке причинности [5]. |
We now proceed to define the final chain of an endofunctor \(F\) on \(\mathbf {Set}\) .
[1]}, [2]}
The final chain of \(F\) is an inverse \(\mathsf {Ord}\) -chain, with \(i\) th level written \(\nu ^{(i)}{F}\) and
connecting map written
\(\nu ^{({i}\geqslant {j})}F \; : \;\nu ^{(i)}{F} \longrightarrow \nu ^{(j)}{F}\) or
\(\nu ^{({i}\geqslant {j})}\) for short. These sets and maps are given as
follows.
| Мы теперь переходим к определению конечной цепи эндофунктора \(F\) на \(\mathbf {Set}\) .
Конечная цепь \(F\) является обратной \(\mathsf {Ord}\)-цепью, с \(i\)-м уровнем \(\nu ^{(i)}{F}\) и соединяющим отображением \(\nu ^{({i}\geqslant {j})}F \; : \;\nu ^{(i)}{F} \longrightarrow \nu ^{(j)}{F}\) или \(\nu ^{({i}\geqslant {j})}\) в краткой форме. Эти множества и отображения задаются следующим образом. |
by identifying \(\mathbb {R}^2 \ni \mathbf {x} \leftrightarrow z\in . Here \) c\( is a \) L2\( normalization constant and \) a1,...,aJ are the locations of the zeros of the analytic function associated to \(u\) , cf (REF ). It is proved in [1]}, [2]} that, for \(\Omega \) sufficiently close to 1, minimizers are indeed of this form, with \(J= \infty \) .
| идентифицируя \(\mathbb {R}^2 \ni \mathbf {x} \leftrightarrow z\in\). Здесь \(c\) - нормализационная константа \(L2\), а \(a1,...,aJ\) - местоположения нулей аналитической функции, связанной с \(u\), cf (ССЫЛКА). В [1], [2] доказано, что при достаточно близком к 1 \(\Omega\) минимизаторы действительно имеют такую форму, с \(J= \infty\). |
The major and minor axis of the ellipse have length \(a\) and \(d\) respectively\(.\) The ellipticity angle \(\psi _{K}\) is defined[1]} as
\(\tan \psi _{K}=\pm \frac{d}{a},\)
| Большая и малая оси эллипса имеют длину \(a\) и \(d\) соответственно. Угол эллиптичности \(\psi _{K}\) определяется[1] как
\(\tan \psi _{K}=\pm \frac{d}{a},\) |
In [1]},
the semi-classical analysis developed on \(G\) yields the same property of existence of (group) semi-classical measures:
| В [1], полученный полуклассический анализ на G демонстрирует ту же самую характеристику существования (групповых) полуклассических мер: |
Clearly, if a solution exists, then RRT* is guaranteed to find it. However, in real-life implementations, this process consumes a lot of time and memory until it reaches the optimal solution which motivated the authors in [1]} to consider the utilization of NNs to speed-up the convergence such that the proposed mechanism can be used as an online-planning scheme.
| Очевидно, если существует решение, то алгоритм RRT* гарантированно его найдет. Однако, в реальных реализациях этот процесс требует много времени и памяти, пока он не достигнет оптимального решения. Это побудило авторов [1] рассмотреть возможность использования нейронных сетей для ускорения сходимости, чтобы предложенный механизм можно было использовать в качестве схемы онлайн-планирования. |
The partonic processes for signal and background events have been produced with MadGraph5_aMC (v2.8.2) [1]}. The showering and hadronization have been performed by PYTHIA8 [2]}, [3]}, and the detector simulation has been done by Delphes (v3.4.2) [4]}.
| Процессы с частицами для сигнальных и фоновых событий были созданы с помощью MadGraph5_aMC (v2.8.2) [1]. Каскадирование и адронизация были выполнены с помощью PYTHIA8 [2], [3], а симуляция детектора была выполнена с помощью Delphes (v3.4.2) [4]. |
Let \(T\in \mathcal {B}_R(X)\) . If \(Tx =xq\) for some \(q \in \mathbb {H}\) and \(x\in X\setminus \lbrace 0\rbrace \) , then \(x\) is called right eigenvector of \(T\) with right eigenvalue \(q\) . The assertion (ii) in the above proposition is well-known (see, for instance, [1]} or [2]}).
| Пусть \(T \in \mathcal{B}_R(X)\). Если \(Tx = xq\) для некоторого \(q \in \mathbb{H}\) и \(x \in X \setminus \{0\}\), то \(x\) называется правым собственным вектором \(T\) с правым собственным значением \(q\). Утверждение (ii) в вышеприведенном предложении хорошо известно (см., например, [1] или [2]). |
We apply domain randomization to facilitate transfer of learned behaviors from simulation to the real world[1]}. Namely, we randomize the terrain friction, base mass, PD controller gains, and perturb the robot's base velocity by adding a sampled velocity vector to the current base velocity at random intervals during training.
The randomization variables and the range of the uniform distribution from which they are sampled are shown in Table REF .
<TABLE> | Мы применяем доменную рандомизацию для облегчения передачи изученных поведений из симуляции в реальный мир. А именно, мы случайно изменяем трение по поверхности, массу основания, коэффициенты ПД-регулятора и возмущаем базовую скорость робота, добавляя выбранный вектор скорости к текущей базовой скорости в случайные моменты времени во время обучения.
Переменные рандомизации и диапазон равномерного распределения, из которого они выбираются, показаны в таблице REF. |
As shown in [1]}, this composition scheme is critical, in the sense that the radius of convergence of \(y\rightarrow K(y)\) is \(y_0=\rho D_0^3\) , and \(K(y)\) has a
singular expansion of the form \(K(y)=K_0-K_2Y^2+K_3Y^3+O(Y^4)\) , with \(Y=\sqrt{1-y/y_0}\) . We can now use the results from [2]}. Let \(A(x)\) be the
density function defined by
\(A(x)=\frac{1}{\pi }\sum _{k\geqslant 1}(-1)^{k-1}x^k\frac{\Gamma (1+2k/3)}{\Gamma (1+k)}\mathrm {sin}(2\pi k/3).\)
| Как показано в [1], этот схема состава является критическим в том смысле, что радиус сходимости \(y\rightarrow K(y)\) равен \(y_0=\rho D_0^3\) , и \(K(y)\) имеет сингулярное разложение вида \(K(y)=K_0-K_2Y^2+K_3Y^3+O(Y^4)\) , где \(Y=\sqrt{1-y/y_0}\) . Теперь мы можем использовать результаты из [2]. Пусть \(A(x)\) будет плотностью функции, определенной как
\(A(x)=\frac{1}{\pi }\sum _{k\geqslant 1}(-1)^{k-1}x^k\frac{\Gamma (1+2k/3)}{\Gamma (1+k)}\mathrm {sin}(2\pi k/3).\) |
For the leading twist transverse amplitude in terms of \(\pi N\) TDAs,
\(H_i^{{\rm tw}=3}\) , and nucleon DAs, \(\phi _i^{{\rm tw}=3}\) ,
we employ the notation
\(\langle H_i^{{\rm tw}=3} \phi _j^{{\rm tw}=3} \rangle \) .
To describe the next-to-leading twist longitudinal amplitude we need to introduce
\(\pi N\) TDAs, \(H_i^{{\rm tw}=4}\) , and nucleon DAs, \(\phi _i^{{\rm tw}=4}\)
[1]}, [2]}.
| Для ведущей трансверсальной амплитуды при использовании \(\pi N\) TDAs, \(H_i^{{\rm tw}=3}\), и допасоударных амплитуд нуклона, \(\phi _i^{{\rm tw}=3}\), мы используем обозначение \(\langle H_i^{{\rm tw}=3} \phi _j^{{\rm tw}=3} \rangle\).
Для описания ненулевой продольной амплитуды ведущего кручения нам потребуются \(\pi N\) TDAs, \(H_i^{{\rm tw}=4}\), и допасоударные амплитуды нуклона, \(\phi _i^{{\rm tw}=4}\) [1], [2]. |
Remark 3.8 In [1]}, we obtain the same result in different conditions. In fact, we need to rectify an omission of Theorems in [1]}. That is, for \(c<0\) , it also need to satisfy \(|\kappa _{i}|\ge \sqrt{-c}\) .
| Замечание 3.8 В [1] мы получаем тот же самый результат в различных условиях. Фактически, нам необходимо исправить упущение теорем в [1]. А именно, для \(c<0\) необходимо также выполнять условие \(|\kappa _{i}|\ge \sqrt{-c}\). |
Let us now remind the statement of Krener's theorem (see [1]}). According to this theorem, if a control system rank is full, then \({\mathbf {r}}^0\in {\rm cl\,}{\rm int\,}C_+({\mathbf {r}}^0)\) and \({\mathbf {r}}^0\in {\rm cl\,}{\rm int\,}C_-({\mathbf {r}}^0)\) for any point \({\mathbf {r}}^0\) . At the first sight, this fact seems to be hardly applicable. Nonetheless, this theorem appears to be a very powerful tool in geometric control theory.
| Давайте сейчас напомним утверждение теоремы Кренера (см. [1]). Согласно этой теореме, если ранг системы управления полный, то \({\mathbf {r}}^0\in {\rm cl\,}{\rm int\,}C_+({\mathbf {r}}^0)\) и \({\mathbf {r}}^0\in {\rm cl\,}{\rm int\,}C_-({\mathbf {r}}^0)\) для любой точки \({\mathbf {r}}^0\). На первый взгляд, это факт кажется трудно применимым. Тем не менее, эта теорема оказывается очень мощным инструментом в геометрической теории управления. |
the bound being saturated by pure states. This convexity inequality is strictly required by a entanglement witness, since physically this property reflects the fact that mixing quantum states cannot increase the entanglement content, as well as the related achievable estimation sensitivity [1]}.
| связанная насыщением чистыми состояниями. Это неравенство выпуклости строго требуется свидетелем запутанности, поскольку физически эта свойство отражает тот факт, что смешивание квантовых состояний не может увеличивать степень запутанности, а также связанную достижимую чувствительность оценки [1]. |
We categorize matting methods to three categories: trimap-based methods, trimap-free methods, and background-based methods. Therefore, we compare the proposed method with all three kinds methods, FBA [1]}, RVM [2]} and RTBGM [3]}. FBA is the representative of trimap-based methods. RVM is one of the latest trimap-free video matting methods. RTBGM represents the latest background-based methods. As RTBGM requires static background, we test RTBGM using ground truth backgrounds.
| Мы классифицировали методы матирования на три категории: методы, основанные на траймапе, методы без использования траймапа и методы, основанные на фоне. Поэтому мы сравниваем предложенный метод со всеми тремя видами методов, FBA [1], RVM [2] и RTBGM [3]. FBA является представителем методов, основанных на траймапе. RVM является одним из последних методов матирования видео без использования траймапа. RTBGM представляет собой последние методы, основанные на фоне. Поскольку для RTBGM требуется статический фон, мы тестируем RTBGM, используя фон из истинных данных. |
where \(k\) is the order of the non-linearity or interaction. Such systems have been shown to be capable of producing very good scaling [1]}, but again are typically hard to implement experimentally.
| где \(k\) - это порядок нелинейности или взаимодействия. Такие системы были показаны способными обеспечивать очень хорошее масштабирование [1], но снова обычно сложно реализовать экспериментально. |