en
sequencelengths 2
2
| ms
sequencelengths 2
2
|
---|---|
[
"We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model.",
"We train a 4-Gram language model on the Xinhua portion of the Gigaword corpus using the Sri language Toolkit with modified Kneser-Ney smoothing."
] | [
"Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram.",
"Kami melatih model bahasa 4-Gram di bahagian Xinhua korpus Gigaword menggunakan Toolkit bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai."
] |
[
"Syntactic models give better performance compared with N-Gram models, despite trained with less data.",
"Compared with N-Gram models, syntactic models give overall better performance."
] | [
"Model sintaktik memberikan prestasi yang lebih baik berbanding model N-Gram, walaupun dilatih dengan data yang kurang.",
"Berbanding dengan model N-Gram, model sintaktik memberikan prestasi yang lebih baik secara keseluruhan."
] |
[
"Rhetorical structure theory is a well known text representation technique that represents the knowledge present in the text using semantic relations known as discourse relations.",
"The Rhetorical structure theory is a language independent theory based on the idea that a text can be Segmented into elementary discourse units linked by means of Nucleus-Satellite or Multinuclear Rhetorical relations."
] | [
"Teori struktur rhetorikal adalah teknik perwakilan teks yang terkenal yang mewakili pengetahuan yang terdapat dalam teks menggunakan hubungan semantik yang dikenali sebagai hubungan wacana.",
"Teori struktur Rhetorikal adalah teori bebas bahasa berdasarkan idea bahawa teks boleh di Segmenkan ke dalam unit wacana asas yang dihubungkan melalui hubungan Nucleus-Satelit atau Multinuclear Rhetorical."
] |
[
"Therefore, we used BLEU and Rouge as automatic evaluation measures.",
"We used smoothed BLEU for Benchmarking purposes."
] | [
"Oleh itu, kami menggunakan BLEU dan Rouge sebagai langkah penilaian automatik.",
"Kami menggunakan BLEU yang lancar untuk tujuan penanda aras."
] |
[
"For training the translation model and for decoding we used the Moses Toolkit.",
"We used the Phrasebased translation system in Moses 5 as a baseline Smt system."
] | [
"Untuk melatih model terjemahan dan untuk penyahkodan, kami menggunakan Musa Toolkit.",
"Kami menggunakan sistem terjemahan berasaskan frasa dalam Musa 5 sebagai sistem Smt asas."
] |
[
"In our paper, we use Te to compute Connectivity between nodes of the graph and apply the weighted minimum vertex cover (W Mvc) algorithm on the graph to select the sentences for the summary.",
"In our paper, we use Te to compute Connectivity between nodes of the graph and apply the weighted minimum vertex cover (W Mvc) algorithm on the graph."
] | [
"Dalam kertas kerja kami, kami menggunakan Te untuk mengira Kesambungan antara nod graf dan menggunakan algoritma penutup verteks minimum berwajaran (W Mvc) pada grafik untuk memilih ayat untuk ringkasan.",
"Dalam kertas kerja kami, kami menggunakan Te untuk mengira Kesambungan antara nod graf dan menggunakan algoritma penutup verteks minimum berwajaran (W Mvc) pada graf."
] |
[
"Aspect extraction is a central problem in sentiment analysis.",
"Aspect extraction is a key task of opinion mining (Cite-P-15-1-14)."
] | [
"Pengekstrakan aspek adalah masalah utama dalam analisis sentimen.",
"Pengekstrakan aspek adalah tugas utama perlombongan pendapat (Cite-P-15-1-14)."
] |
[
"While this does not seem like a challenging task, many recent attempts that apply either complex linguistic reasoning or deep neural networks achieve 65% ¨C76% accuracy on benchmark sets.",
"By Cite-P-8-1-4, recent attempts that apply either complex linguistic reasoning or Attention-Based complex neural network architectures achieve up to 76% accuracy on benchmark sets."
] | [
"Walaupun ini tidak kelihatan seperti tugas yang mencabar, banyak percubaan baru-baru ini yang menggunakan sama ada penalaran linguistik yang kompleks atau rangkaian saraf yang mendalam mencapai ketepatan 65% C76% pada set penanda aras.",
"Oleh Cite-P-8-1-4, percubaan baru-baru ini yang menggunakan sama ada penalaran linguistik kompleks atau seni bina rangkaian saraf kompleks Berasaskan Perhatian mencapai ketepatan sehingga 76% pada set penanda aras."
] |
[
"Li et al substituted Oov words in training Corpora with a similar In-Vocabulary word as Pre-And Post-Processing steps.",
"Li et al replaced Oovs with In-Vocabulary words by semantic similarity to reduce the negative effect for words around the Oovs."
] | [
"Li et al menggantikan kata-kata Oov dalam latihan Corpora dengan perkataan In-Vocabulary yang serupa sebagai langkah Pra-Dan Pasca Pemprosesan.",
"Li et al menggantikan Oovs dengan perkataan In-Vocabulary dengan persamaan semantik untuk mengurangkan kesan negatif bagi perkataan di sekeliling Oovs."
] |
[
"We used small portions of the Penn WSJ Treebank for the experiments.",
"We tested our methods on the English Penn Treebank."
] | [
"Kami menggunakan sebahagian kecil Penn WSJ Treebank untuk eksperimen.",
"Kami menguji kaedah kami di English Penn Treebank."
] |
[
"Bengio et al presented a neural network language model where word Embeddings are simultaneously learned along with a language model.",
"For instance, Bengio et al present a neural probabilistic language model that uses the N-Gram model to learn word Embeddings."
] | [
"Bengio et al mempersembahkan model bahasa rangkaian saraf di mana perkataan Embeddings dipelajari serentak bersama dengan model bahasa.",
"Sebagai contoh, Bengio et al membentangkan model bahasa probabilistik neural yang menggunakan model N-Gram untuk mempelajari Embedding perkataan."
] |
[
"One of the most popular and well-known topic models is Lda.",
"Examples of topic models include Plsi and Lda."
] | [
"Salah satu model topik yang paling popular dan terkenal ialah Lda.",
"Contoh model topik termasuk Plsi dan Lda."
] |
[
"Lin and he propose a method based on Lda that explicitly deals with the interaction of topics and sentiments in text.",
"Lin and he propose a joint Topic-Sentiment model, but topic words and sentiment words are still not explicitly separated."
] | [
"Lin dan beliau mencadangkan kaedah berdasarkan Lda yang secara jelas berkaitan dengan interaksi topik dan sentimen dalam teks.",
"Lin dan beliau mencadangkan model Topic-Sentiment bersama, tetapi kata-kata topik dan kata-kata sentimen masih tidak dipisahkan secara jelas."
] |
[
"Our direct system uses the Phrase-Based translation system.",
"Our baseline is a standard Phrase-Based Smt system."
] | [
"Sistem langsung kami menggunakan sistem terjemahan Berasaskan Frasa.",
"Asas kami adalah sistem Smt Berasaskan Frasa standard."
] |
[
"Word sense Disambiguation (Wsd) is the task to identify the intended sense of a word in a computational manner based on the context in which it appears (Cite-P-13-3-4).",
"Word sense Disambiguation (Wsd) is a key task in computational lexical Semantics, inasmuch as it addresses the lexical ambiguity of text by making explicit the meaning of words occurring in a given context (Cite-P-18-3-10)."
] | [
"Disambiguasi erti kata (Wsd) adalah tugas untuk mengenal pasti pengertian perkataan yang dimaksudkan dengan cara pengiraan berdasarkan konteks di mana ia muncul (Cite-P-13-3-4).",
"Disambiguation Word Sense Disambiguation (Wsd) adalah tugas utama dalam Semantik leksikal komputasi, seperti menangani kekaburan leksikal teks dengan membuat makna kata yang eksplisit yang berlaku dalam konteks tertentu (Cite-P-18-3-10)."
] |
[
"Given the parameters of IBM model 3, and a sentence pair Math-W-5-1-0-21, compute the probability Math-W-5-1-0-30.",
"Given the model parameters and a sentence pair Math-W-2-14-1-11, compute Math-W-2-14-1-18."
] | [
"Memandangkan parameter model IBM 3, dan pasangan ayat Math-W-5-1-0-21, mengira kebarangkalian Math-W-5-1-0-30.",
"Memandangkan parameter model dan pasangan ayat Math-W-2-14-1-11, pengiraan Math-W-2-14-1-18."
] |
[
"Kamp is a Multiagent planning system that can be given a high-level description of an agent's goals, and then produce a plan that includes the performance of both physical and linguistic actions by several agents that will achieve the agent's goals.",
"Kamp is a Multiple-Agent planning system designed around a Noah-Like Hierarchical planner [10]."
] | [
"Kamp adalah sistem perancangan Multiagen yang boleh diberikan penerangan peringkat tinggi mengenai matlamat ejen, dan kemudian menghasilkan rancangan yang merangkumi prestasi kedua-dua tindakan fizikal dan linguistik oleh beberapa ejen yang akan mencapai matlamat ejen.",
"Kamp adalah sistem perancangan Pelbagai Ejen yang direka di sekitar perancang Hierarki Noah-Like [10]."
] |
[
"We compare our Graphbtm approach with the Avitm and the Lda model.",
"The Bilda model is a straightforward Multilingual extension of the standard Lda model."
] | [
"Kami membandingkan pendekatan Graphbtm kami dengan model Avitm dan Lda.",
"Model Bilda adalah lanjutan Multilingual mudah model Lda standard."
] |
[
"First, to establish our baseline tagging performance, we take the classification algorithm outlined earlier in section 4, and apply it to the switchboard corpus for both training and testing, replicating the work reported in Webb et al.",
"To that end, we take the classification algorithm outlined earlier in section 4, and apply it to the switchboard corpus for both training and testing, replicating the work reported in Webb et al."
] | [
"Pertama, untuk mewujudkan prestasi penandaan asas kami, kami mengambil algoritma pengelasan yang digariskan lebih awal dalam seksyen 4, dan menerapkannya ke korpus papan suis untuk latihan dan ujian, meniru kerja yang dilaporkan di Webb et al.",
"Untuk itu, kami mengambil algoritma pengelasan yang digariskan lebih awal dalam seksyen 4, dan memohon kepada korpus papan suis untuk kedua-dua latihan dan ujian, meniru kerja yang dilaporkan di Webb et al."
] |
[
"For improving the word alignment, we use the Word-Classes that are trained from a Monolingual corpus using the Srilm Toolkit.",
"We then Lowercase all data and use all sentences from the modern Dutch part of the corpus to train an N-Gram language model with the Srilm Toolkit."
] | [
"Untuk meningkatkan penjajaran perkataan, kami menggunakan Word-Classes yang dilatih dari korpus Monolingual menggunakan Srilm Toolkit.",
"Kami kemudian menurunkan semua data dan menggunakan semua ayat dari bahagian Belanda moden korpus untuk melatih model bahasa N-Gram dengan Srilm Toolkit."
] |
[
"Can be evaluated by Maximising the Pseudo-Likelihood on a training corpus.",
"Can be evaluated by maximizing the Pseudo-Likelihood on a training corpus ,."
] | [
"Boleh dinilai dengan memaksimumkan Pseudo-Likelihood pada korpus latihan.",
"Boleh dinilai dengan memaksimumkan Pseudo-Likelihood pada korpus latihan,."
] |
[
"Relation extraction is a traditional information extraction task which aims at detecting and classifying semantic relations between entities in text (Cite-P-10-1-18).",
"Relation extraction is a challenging task in natural language processing."
] | [
"Pengekstrakan hubungan adalah tugas pengekstrakan maklumat tradisional yang bertujuan untuk mengesan dan mengklasifikasikan hubungan semantik antara entiti dalam teks (Cite-P-10-1-18).",
"Pengekstrakan hubungan adalah tugas yang mencabar dalam pemprosesan bahasa semula jadi."
] |
[
"Entity linking (El) is the task of automatically linking mentions of entities (E.G . persons, locations, organizations) in a text to their corresponding entry in a given knowledge base (KB), such as Wikipedia or Freebase.",
"Entity linking (El) is the task of Disambiguating mentions in text by associating them with entries in a predefined Database of mentions (persons, organizations, etc)."
] | [
"Entiti penghubung (El) adalah tugas untuk menghubungkan sebutan entiti secara automatik (E.G. orang, lokasi, organisasi) dalam teks ke entri yang sesuai dalam pangkalan pengetahuan tertentu (KB), seperti Wikipedia atau Freebase.",
"Entiti linking (El) adalah tugas untuk Mengubah sebutan dalam teks dengan mengaitkannya dengan entri dalam pangkalan data sebutan yang telah ditetapkan (orang, organisasi, dll)."
] |
[
"Phrase reordering is a challenge for statistical machine translation systems.",
"Phrase reordering is a common problem when translating between two grammatically different languages."
] | [
"Penetapan semula frasa adalah cabaran untuk sistem terjemahan mesin statistik.",
"Susunan semula frasa adalah masalah biasa apabila menterjemahkan antara dua bahasa yang berbeza secara tatabahasa."
] |
[
"Semantic role labeling (SRL) has been defined as a Sentence-Level Natural-Language processing task in which semantic roles are assigned to the syntactic arguments of a Predicate (Cite-P-14-1-7).",
"Semantic role labeling (SRL) is a form of shallow semantic Parsing whose goal is to discover the Predicate-Argument structure of each Predicate in a given input sentence."
] | [
"Pelabelan peranan semantik (SRL) telah ditakrifkan sebagai tugas pemprosesan Bahasa Semulajadi Tahap Sentence di mana peranan semantik ditugaskan kepada hujah sintaktik Predicate (Cite-P-14-1-7).",
"Pelabelan peranan semantik (SRL) adalah satu bentuk Parsing semantik cetek yang matlamatnya adalah untuk menemui struktur Predicate-Argument setiap Predicate dalam ayat input yang diberikan."
] |
[
"In the Reranking stage, we use linearly combined model of these models.",
"In the Reranking stage is performed using linear interpolation of these models."
] | [
"Dalam peringkat Reranking, kami menggunakan model gabungan linear model ini.",
"Dalam peringkat Reranking dilakukan menggunakan interpolasi linear model-model ini."
] |
[
"Relation extraction is a challenging task in natural language processing.",
"Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence."
] | [
"Pengekstrakan hubungan adalah tugas yang mencabar dalam pemprosesan bahasa semula jadi.",
"Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat."
] |
[
"A 4-Gram language model which was trained on the entire training corpus using Srilm was used to generate responses in conjunction with the Phrase-Based translation model.",
"Our Trigram word language model was trained on the target side of the training corpus using the Srilm Toolkit with modified Kneser-Ney smoothing."
] | [
"Model bahasa 4-Gram yang dilatih pada keseluruhan korpus latihan menggunakan Srilm digunakan untuk menghasilkan respons bersempena dengan model terjemahan Berfiksyen.",
"Model bahasa perkataan Trigram kami dilatih di sisi sasaran korpus latihan menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."
] |
[
"We use phrase based Moses with default options as the Spe engine.",
"We used a Phrase-Based Smt model as implemented in the Moses Toolkit."
] | [
"Kami menggunakan frasa berasaskan Musa dengan pilihan lalai sebagai enjin Spe.",
"Kami menggunakan model Smt Berasaskan Frasa seperti yang dilaksanakan dalam Musa Toolkit."
] |
[
"Abbasi et al use a genetic algorithm for both English and Arabic web forums sentiment detection on the document level.",
"Abbasi et al applies sentiment analysis techniques to identify and classify Documentlevel opinions in text crawled from English and Arabic web forums."
] | [
"Abbasi et al menggunakan algoritma genetik untuk kedua-dua pengesanan sentimen forum web bahasa Inggeris dan Arab pada tahap dokumen.",
"Abbasi et al menerapkan teknik analisis sentimen untuk mengenal pasti dan mengklasifikasikan pendapat Documentlevel dalam teks yang dirayap dari forum web bahasa Inggeris dan Arab."
] |
[
"The Statistics for these Datasets are summarized in settings we use glove vectors with 840B tokens as the Pre-Trained word Embeddings.",
"For the classification task, we use Pre-Trained glove Embedding vectors as lexical features."
] | [
"Statistik untuk Dataset ini diringkaskan dalam tetapan yang kami gunakan vektor sarung tangan dengan token 840B sebagai Embedding perkataan Pra-Latih.",
"Untuk tugas pengelasan, kami menggunakan vektor Embedding sarung tangan Pra-Latih sebagai ciri leksikal."
] |
[
"Cao et al , 2015) proposed a novel neural topic model where the representation of words and documents are efficiently and naturally combined into a uniform framework.",
"Cao et al explained topic models from the perspective of neural networks and proposed a neural topic model where the representation of words and documents are combined into a unified framework."
] | [
"Cao et al, 2015) mencadangkan model topik neural novel di mana perwakilan perkataan dan dokumen secara cekap dan secara semula jadi digabungkan menjadi kerangka seragam.",
"Cao et al menjelaskan model topik dari perspektif rangkaian saraf dan mencadangkan model topik saraf di mana perwakilan perkataan dan dokumen digabungkan menjadi kerangka bersatu."
] |
[
"The feature weights are tuned with Mert to maximize Bleu-4.",
"The model weights are automatically tuned using minimum error rate training."
] | [
"Berat ciri ditala dengan Mert untuk memaksimumkan Bleu-4.",
"Berat model ditala secara automatik menggunakan latihan kadar ralat minimum."
] |
[
"We created a data collection for research into Why-Questions and for development of a method for Why-Qa.",
"We created a data collection for research, development and evaluation of a method for automatically answering Why-Questions (Why-Qa)."
] | [
"Kami mencipta pengumpulan data untuk penyelidikan ke dalam Why-Questions dan untuk pembangunan kaedah untuk Why-Qa.",
"Kami mencipta pengumpulan data untuk penyelidikan, pembangunan dan penilaian kaedah untuk menjawab soalan-soalan (Why-Qa) secara automatik."
] |
[
"An idiom is a combination of words that has a figurative meaning which differs from its literal meaning.",
"An idiom is a relatively frozen expression whose meaning cannot be built Compositionally from the meanings of its component words."
] | [
"Sebuah idiom adalah gabungan perkataan yang mempunyai makna kiasan yang berbeza dari makna harfiahnya.",
"Sebuah idiom adalah ungkapan yang agak beku yang maknanya tidak boleh dibina Komposisi dari makna perkataan komponennya."
] |
[
"As Embedding vectors, we used the publicly available representations obtained from the Word2Vec Cbow model.",
"For all three classifiers, we used the Word2Vec 300D Pre-Trained Embeddings as features."
] | [
"Sebagai vektor Embedding, kami menggunakan perwakilan yang tersedia secara terbuka yang diperoleh daripada model Word2Vec Cbow.",
"Untuk ketiga-tiga pengelas, kami menggunakan Embedding Pra-Trained 300D Word2Vec sebagai ciri."
] |
[
"One of the first challenges in sentiment analysis is the vast lexical diversity of subjective language.",
"Sentiment analysis is a recent attempt to deal with evaluative aspects of text."
] | [
"Salah satu cabaran pertama dalam analisis sentimen adalah kepelbagaian leksikal bahasa subjektif yang luas.",
"Analisis sentimen adalah percubaan baru-baru ini untuk menangani aspek penilaian teks."
] |
[
"Language models were built with Srilm, modified Kneser-Ney smoothing, default pruning, and order 5.",
"All language models are created with the Srilm Toolkit and are standard 4-Gram LMS with interpolated modified Kneser-Ney smoothing."
] | [
"Model bahasa dibina dengan Srilm, smoothing Kneser-Ney yang diubahsuai, pemangkasan lalai, dan pesanan 5.",
"Semua model bahasa dicipta dengan Srilm Toolkit dan merupakan LMS 4-Gram standard dengan smoothing Kneser-Ney yang diubahsuai interpolated."
] |
[
"First, we extract the named entities in the text using Stanford Corenlp.",
"In a Preprocessing step, we apply the Coreference resolution Module of Stanford Corenlp to the whole corpus."
] | [
"Pertama, kami mengekstrak entiti yang dinamakan dalam teks menggunakan Stanford Corenlp.",
"Dalam langkah Pemprosesan, kami menggunakan Modul Resolusi Coreference Stanford Corenlp ke seluruh korpus."
] |
[
"We evaluated the performance of the three pruning criteria in a real application of Chinese text input (Cite-P-15-1-2) through Cer.",
"We evaluated the performance of the three pruning criteria in a real application of Chinese text input."
] | [
"Kami menilai prestasi tiga kriteria pemangkasan dalam aplikasi sebenar input teks Cina (Cite-P-15-1-2) melalui Cer.",
"Kami menilai prestasi tiga kriteria pemangkasan dalam aplikasi sebenar input teks Cina."
] |
[
"These Nlp tools have the potential to make a marked difference for gun violence researchers.",
"Nlp researchers have the potential to significantly advance gun violence research."
] | [
"Alat Nlp ini berpotensi untuk membuat perbezaan yang ketara bagi penyelidik keganasan senjata api.",
"Penyelidik NLP mempunyai potensi untuk memajukan penyelidikan keganasan senjata api dengan ketara."
] |
[
"The backbone of our system is a Character-Based Segmenter with the application of conditional random fields.",
"The backbone of our system is a Character-Based Segmenter with the application of Crf that provides a framework to use a large number of linguistic features."
] | [
"Tulang belakang sistem kami adalah Segmenter Berasaskan Ciri dengan penggunaan medan rawak bersyarat.",
"Tulang belakang sistem kami adalah Segmenter Berasaskan Ciri dengan penggunaan Crf yang menyediakan rangka kerja untuk menggunakan sebilangan besar ciri linguistik."
] |
[
"The development of more comprehensive Bayesian models for discourse structure seems an exciting direction for future research.",
"But the development of Cohesion-Based Unsupervised methods is an interesting possibility for future work."
] | [
"Pembangunan model Bayesian yang lebih komprehensif untuk struktur wacana nampaknya merupakan arah yang menarik untuk penyelidikan masa depan.",
"Tetapi pembangunan kaedah Unsupervised Berasaskan Kohesi adalah kemungkinan yang menarik untuk kerja masa depan."
] |
[
"We have explored a variety of neural network models in this paper to identify the most suitable model.",
"In this paper, we develop an approach based on recurrent neural networks."
] | [
"Kami telah meneroka pelbagai model rangkaian saraf dalam kertas ini untuk mengenal pasti model yang paling sesuai.",
"Dalam makalah ini, kami mengembangkan pendekatan berdasarkan rangkaian saraf berulang."
] |
[
"User: so I have to remove a file to create a file?",
"User: I want to prevent Tom from reading my file."
] | [
"User: Jadi saya perlu buang file untuk membuat file?",
"Pengguna: Saya mahu menghalang Tom daripada membaca fail saya."
] |
[
"Word Embedding models are aimed at learning vector representations of word meaning.",
"Word Embeddings are commonly estimated from large text Corpora utilizing Statistics concerning the Co-Occurrences of words."
] | [
"Model Embedding Perkataan bertujuan untuk mempelajari perwakilan vektor makna perkataan.",
"Embedding perkataan biasanya dianggarkan dari teks besar Corpora menggunakan Statistik mengenai Co-Occurrences perkataan."
] |
[
"The candidate with the highest probability was chosen as the target entity.",
"The candidate answer with the highest probability will be selected as the target."
] | [
"Calon dengan kebarangkalian tertinggi dipilih sebagai entiti sasaran.",
"Jawapan calon dengan kebarangkalian tertinggi akan dipilih sebagai sasaran."
] |
[
"We train a 4-Gram language model on the Xinhua portion of English Gigaword corpus by Srilm Toolkit.",
"For the fluency and Grammaticality features, we train 4-Gram LMS using the development Dataset with the Sri Toolkit."
] | [
"Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus bahasa Inggeris oleh Srilm Toolkit.",
"Untuk kefasihan dan ciri Grammaticality, kami melatih LMS 4-Gram menggunakan Dataset pembangunan dengan Sri Toolkit."
] |
[
"For core task, we collect 6 types of similarity measures, I.E ., string similarity, number similarity, Knowledge-Based similarity, Corpus-Based similarity, syntactic dependency similarity and machine translation similarity.",
"In core task, using 6 types of similarity measures, I . E ., string similarity, number similarity, Knowledge-Based similarity, Corpus-Based similarity, syntactic dependency similarity and machine translation similarity."
] | [
"Untuk tugas teras, kami mengumpulkan 6 jenis ukuran kesamaan, I.E., persamaan rentetan, persamaan nombor, persamaan Berasaskan Pengetahuan, persamaan Berasaskan Corpus, persamaan kebergantungan sintaksis dan persamaan terjemahan mesin.",
"Dalam tugas teras, menggunakan 6 jenis ukuran kesamaan, I. E., persamaan rentetan, persamaan nombor, persamaan Berasaskan Pengetahuan, persamaan Berasaskan Corpus, persamaan kebergantungan sintaksis dan persamaan terjemahan mesin."
] |
[
"The restaurants Dataset contains 3,710 English sentences from the restaurant reviews of Ganu et al.",
"The restaurants Dataset contains 3,710 English sentences from the reviews of Ganu et al."
] | [
"Dataset restoran mengandungi 3,710 kalimat bahasa Inggeris dari ulasan restoran Ganu et al.",
"Restoran Dataset mengandungi 3,710 ayat bahasa Inggeris dari ulasan Ganu et al."
] |
[
"We use the logistic regression implementation of Liblinear wrapped by the Scikit-Learn library.",
"We used the logistic regression implementation in Scikit-Learn for the maximum entropy models in our experiments."
] | [
"Kami menggunakan pelaksanaan regresi logistik Liblinear yang dibungkus oleh perpustakaan Scikit-Learn.",
"Kami menggunakan pelaksanaan regresi logistik dalam Scikit-Learn untuk model entropi maksimum dalam eksperimen kami."
] |
[
"The abstract meaning representation is a semantic meaning representation language that is purposefully Syntax-Agnostic.",
"Abstract meaning representation is a popular framework for Annotating whole sentence meaning."
] | [
"Perwakilan makna abstrak adalah bahasa perwakilan makna semantik yang sengaja Syntax-Agnostic.",
"Perwakilan makna abstrak adalah rangka kerja yang popular untuk Menganotasi makna ayat keseluruhan."
] |
[
"The Lstm architecture is proposed to address this problem.",
"Lstm and GRU networks are known to be successful remedies to these problems."
] | [
"Seni bina Lstm dicadangkan untuk menangani masalah ini.",
"Rangkaian Lstm dan GRU diketahui berjaya untuk menyelesaikan masalah ini."
] |
[
"We used the Sri language modeling Toolkit to train LMS on our training data for each Ilr level.",
"We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting."
] | [
"Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih LMS pada data latihan kami untuk setiap peringkat Ilr.",
"Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai."
] |
[
"Main tasks include aspect extraction, polarity identification and subjectivity analysis.",
"Main tasks include aspect extraction, opinion polarity identification and subjectivity analysis."
] | [
"Tugas utama termasuk pengekstrakan aspek, pengenalpastian polariti dan analisis subjektiviti.",
"Tugas utama termasuk pengekstrakan aspek, pengenalan polariti pendapat dan analisis subjektiviti."
] |
[
"Our experiments show that performance improves steadily as the number of languages increases.",
"We ’ ve demonstrated that the benefits of Unsupervised Multilingual learning increase steadily with the number of available languages."
] | [
"Eksperimen kami menunjukkan bahawa prestasi bertambah baik dengan stabil apabila bilangan bahasa meningkat.",
"Kami telah menunjukkan bahawa manfaat pembelajaran Multilingual Unsupervised meningkat dengan stabil dengan bilangan bahasa yang ada."
] |
[
"Probabilistic Context-Free Grammars underlie most high-performance Parsers in one way or another.",
"Probabilistic Context-Free Grammars are commonly used in Parsing and grammar induction systems."
] | [
"Grammar Bebas Konteks Probabilistik mendasari kebanyakan Parsers berprestasi tinggi dalam satu cara atau yang lain.",
"Grammar Bebas Konteks Probabilistik biasanya digunakan dalam sistem aruhan Parsing dan tatabahasa."
] |
[
"Coreference resolution is a well known clustering task in natural language processing.",
"Coreference resolution is the task of clustering a set of mentions in the text such that all mentions in the same cluster refer to the same entity."
] | [
"Resolusi spatial adalah tugas clustering yang terkenal dalam pemprosesan bahasa semula jadi.",
"Resolusi spatial adalah tugas untuk mengelompokkan satu set sebutan dalam teks sedemikian rupa sehingga semua sebutan dalam kluster yang sama merujuk kepada entiti yang sama."
] |
[
"Due to their ability to capture syntactic and semantic information of words from large scale Unlabeled texts, we Pre-Train the word Embeddings from the given training Dataset by Word2Vec Toolkit.",
"Since our Dataset is not so large, we make use of Pre-Trained word Embeddings, which are trained on a much larger corpus with Word2Vec Toolkit."
] | [
"Oleh kerana keupayaan mereka untuk menangkap maklumat sintaktik dan semantik perkataan dari teks Unlabeled skala besar, kami Pra-Latih perkataan Embeddings dari Dataset latihan yang diberikan oleh Word2Vec Toolkit.",
"Oleh kerana Dataset kami tidak begitu besar, kami menggunakan Embedding kata Pra-Latihan, yang dilatih pada korpus yang jauh lebih besar dengan Word2Vec Toolkit."
] |
[
"The various models developed are evaluated using BLEU and Nist.",
"The various Smt systems are evaluated using the BLEU score."
] | [
"Pelbagai model yang dibangunkan dinilai menggunakan BLEU dan Nist.",
"Pelbagai sistem Smt dinilai menggunakan skor BLEU."
] |
[
"Coreference resolution is the task of clustering referring expressions in a text so that each resulting cluster represents an entity.",
"Coreference resolution is the task of determining when two textual mentions name the same individual."
] | [
"Resolusi spatial adalah tugas pengelompokan merujuk ungkapan dalam teks supaya setiap kluster yang terhasil mewakili entiti.",
"Resolusi spatial adalah tugas menentukan apabila dua sebutan teks menamakan individu yang sama."
] |
[
"Gamon shows that introducing deeper linguistic features into SVM can help to improve the performance.",
"Gamon shows that SVM with deep linguistic features can further improve the performance."
] | [
"Gamon menunjukkan bahawa memperkenalkan ciri linguistik yang lebih mendalam ke dalam SVM dapat membantu meningkatkan prestasi.",
"Gamon menunjukkan bahawa SVM dengan ciri-ciri linguistik yang mendalam dapat meningkatkan lagi prestasi."
] |
[
"Twitter is a fantastic data resource for many tasks: measuring political (O ’ Connor et al . , 2010; Tumasjan et al . , 2010), and general sentiment (Cite-P-11-1-3), studying linguistic variation (Cite-P-11-3-2) and detecting earthquakes (Cite-P-11-3-18).",
"Twitter is a huge Microblogging service with more than 500 million Tweets per day from different locations of the world and in different languages (Cite-P-10-1-6)."
] | [
"Twitter adalah sumber data yang hebat untuk banyak tugas: mengukur politik (O Connor et al., 2010; Tumasjan et al., 2010), dan sentimen umum (Cite-P-11-1-3), mengkaji variasi linguistik (Cite-P-11-3-2) dan mengesan gempa bumi (Cite-P-11-3-18).",
"Twitter adalah perkhidmatan Microblogging yang besar dengan lebih daripada 500 juta Tweet setiap hari dari lokasi yang berbeza di dunia dan dalam bahasa yang berbeza (Cite-P-10-1-6)."
] |
[
"Ccg is a linguistic formalism that tightly couples syntax and semantic.",
"Ccg is a Linguistically-Motivated Categorial formalism for modeling a wide range of language phenomena."
] | [
"Ccg adalah formalisme linguistik yang saling berpasangan sintaksis dan semantik.",
"Ccg adalah formalisme Categorial Bermotivasi Linguistik untuk memodelkan pelbagai fenomena bahasa."
] |
[
"To evaluate the full abstract generation system, the BLEU score is computed with human abstracts as reference.",
"The system output is evaluated using the meteor and BLEU scores computed against a single reference sentence."
] | [
"Untuk menilai sistem generasi abstrak penuh, skor BLEU dikira dengan abstrak manusia sebagai rujukan.",
"Output sistem dinilai menggunakan skor meteor dan BLEU yang dikira berbanding dengan satu ayat rujukan."
] |
[
"Teufel and Moens introduced Az and applied it to computational linguistics papers.",
"Teufel and Moens , 2002) introduced Az and applied it first to computational linguistics papers."
] | [
"Teufel dan Moens memperkenalkan Az dan menerapkannya kepada kertas linguistik komputasi.",
"Teufel dan Moens, 2002) memperkenalkan Az dan menggunakannya terlebih dahulu untuk kertas linguistik pengiraan."
] |
[
"We find that Demographic-Aware models consistently outperform their Agnostic counterparts in all tasks.",
"By including age or gender information, we consistently and significantly improve performance over Demographic-Agnostic models."
] | [
"Kami mendapati bahawa model Demographic-Aware secara konsisten mengatasi rakan-rakan Agnostik mereka dalam semua tugas.",
"Dengan memasukkan maklumat umur atau jantina, kami secara konsisten dan ketara meningkatkan prestasi berbanding model Demografi-Agnostik."
] |
[
"Firstly, we built a forward 5-Gram language model using the Srilm Toolkit with modified Kneser-Ney smoothing.",
"We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit."
] | [
"Pertama, kami membina model bahasa 5-Gram maju menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.",
"Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit."
] |
[
"Relation extraction is the task of predicting attributes and relations for entities in a sentence (Zelenko et al . , 2003; Bunescu and Mooney , 2005; Guodong et al . , 2005).",
"Relation extraction (re) is a task of identifying typed relations between known entity mentions in a sentence."
] | [
"Pengekstrakan hubungan adalah tugas meramalkan atribut dan hubungan untuk entiti dalam ayat (Zelenko et al., 2003; Bunescu dan Mooney, 2005; Guodong et al., 2005).",
"Pengekstrakan hubungan (re) adalah tugas untuk mengenal pasti hubungan yang ditaip antara sebutan entiti yang diketahui dalam ayat."
] |
[
"Potash et al proposed a neural architecture based on a pointer network for jointly predicting types of Argumentative components and identifying Argumentative relations.",
"Potash et al use an Encoder-Decoder problem formulation by employing a pointer network based deep neural network architecture."
] | [
"Potash et al mencadangkan seni bina neural berdasarkan rangkaian penuding untuk meramalkan bersama-sama jenis komponen Argumentatif dan mengenal pasti hubungan Argumentatif.",
"Potash et al menggunakan formulasi masalah Encoder-Decoder dengan menggunakan rangkaian penuding berasaskan seni bina rangkaian neural mendalam."
] |
[
"Discourse Parsing is the task of identifying the presence and the type of the discourse relations between discourse units.",
"Discourse Parsing is a difficult, Multifaceted problem involving the understanding and modeling of various semantic and pragmatic phenomena as well as understanding the structural properties that a discourse graph can have."
] | [
"Parsing Wacana adalah tugas mengenal pasti kehadiran dan jenis hubungan wacana antara unit wacana.",
"Parsing wacana adalah masalah yang sukar, Multifaceted yang melibatkan pemahaman dan pemodelan pelbagai fenomena semantik dan pragmatik serta memahami sifat struktur yang boleh dimiliki oleh graf wacana."
] |
[
"Concept classification, as an alternative translation method, has been successfully integrated in Speech-To-Speech Translators.",
"Statistical machine translation methods are well established in Speech-To-Speech translation systems as the main translation technique."
] | [
"Klasifikasi konsep, sebagai kaedah terjemahan alternatif, telah berjaya disepadukan dalam Penterjemah Pidato-Ke-Ucapan.",
"Kaedah terjemahan mesin statistik ditubuhkan dengan baik dalam sistem terjemahan Pidato-Ke-Speech sebagai teknik terjemahan utama."
] |
[
"Smith et al used a conditional random field to learn to Disambiguate over sentence by modeling local contexts.",
"Smith et al proposed a Log-Linear model for the Context-Based Disambiguation of a morphological dictionary."
] | [
"Smith et al menggunakan medan rawak bersyarat untuk belajar untuk Mengubah ayat dengan memodelkan konteks tempatan.",
"Smith et al mencadangkan model Log-Linear untuk Disambiguasi Berasaskan Konteks bagi kamus morfologi."
] |
[
"We used the Moses machine translation Decoder, using the default features and decoding settings.",
"We used the Moses mt Toolkit with default settings and features for both Phrase-Based and Hierarchical systems."
] | [
"Kami menggunakan Decoder terjemahan mesin Moses, menggunakan ciri lalai dan tetapan penyahkodan.",
"Kami menggunakan Musa mt Toolkit dengan tetapan lalai dan ciri untuk kedua-dua sistem Berasaskan Frasa dan Hierarki."
] |
[
"The use of word Unigrams is a standard approach in text classification, and has also been successfully used to predict reading difficulty.",
"Using appropriate word weighting functions is known to improve the performance of text Categorization."
] | [
"Penggunaan perkataan Unigrams adalah pendekatan standard dalam pengelasan teks, dan juga telah berjaya digunakan untuk meramalkan kesukaran membaca.",
"Menggunakan fungsi pemberat perkataan yang sesuai diketahui meningkatkan prestasi Categorization teks."
] |
[
"The Target-Normalized Hierarchical Phrase-Based model is based on a more general Hierarchical Phrase-Based model.",
"We consider a Phrase-Based translation model and a Hierarchical translation model."
] | [
"Model berasaskan frasa hierarki sasaran-Normalized adalah berdasarkan model berasaskan frasa hierarki yang lebih umum.",
"Kami menganggap model terjemahan berasaskan frasa dan model terjemahan Hierarki."
] |
[
"We use glove vectors with 200 dimensions as Pre-Trained word Embeddings, which are tuned during training.",
"To learn the User-Dependent word Embeddings for stance classification and visualization, we train the 50-Dimensional word Embeddings via glove."
] | [
"Kami menggunakan vektor sarung tangan dengan 200 dimensi sebagai Embedding perkataan Pra-Latih, yang ditala semasa latihan.",
"Untuk mempelajari Embedding perkataan Pengguna-Bergantung untuk pengelasan pendirian dan visualisasi, kami melatih Embedding perkataan 50-Dimensional melalui sarung tangan."
] |
[
"In this paper, we present an approach to obtain axiomatic knowledge of geometry in the form of Horn-Clause rules from math textbooks.",
"After harvesting axioms from textbooks, we also present an approach to Parse the axiom mentions to Horn clause rules."
] | [
"Dalam makalah ini, kami membentangkan pendekatan untuk mendapatkan pengetahuan axiomatik geometri dalam bentuk peraturan Horn-Clause dari buku teks matematik.",
"Selepas menuai aksiom dari buku teks, kami juga membentangkan pendekatan untuk Parse sebutan aksiom kepada peraturan klausa Horn."
] |
[
"We Initialize the word Embedding matrix with Pre-Trained glove Embeddings.",
"To keep consistent, we Initialize the Embedding weight with Pre-Trained word Embeddings."
] | [
"Kami Memulakan perkataan Embedding matrix dengan Embedding sarung tangan Pra-Trained.",
"Untuk memastikan konsisten, kami Memulakan berat Embedding dengan Embedding perkataan Pra-Trained."
] |
[
"For input representation, we used glove word Embeddings.",
"We use Pre-Trained vectors from glove for Word-Level Embeddings."
] | [
"Untuk perwakilan input, kami menggunakan perkataan sarung tangan Embeddings.",
"Kami menggunakan vektor Pra-Trained dari sarung tangan untuk Embeddings Peringkat Perkataan."
] |
[
"To overcome this problem, Dagan and Itai used a bilingual lexicon and statistical data from a Monolingual corpus of the target language for Disambiguation.",
"Dagan and Itai proposed an approach to Wsd using Monolingual Corpora, a bilingual lexicon and a Parser for the source language."
] | [
"Untuk mengatasi masalah ini, Dagan dan Itai menggunakan leksikon dwibahasa dan data statistik dari korpus Monolingual bahasa sasaran untuk Disambiguasi.",
"Dagan dan Itai mencadangkan pendekatan kepada Wsd menggunakan Monolingual Corpora, leksikon dwibahasa dan Parser untuk bahasa sumber."
] |
[
"We used the Stanford Parser to generate the grammatical structure of sentences.",
"The Stanford Parser we used produced Parse trees with minor errors in some sentences."
] | [
"Kami menggunakan Stanford Parser untuk menghasilkan struktur tatabahasa ayat.",
"Stanford Parser yang kami gunakan menghasilkan pokok Parse dengan kesilapan kecil dalam beberapa ayat."
] |
[
"We show that a combination of both classifiers leads to significant improvements over using the Unsupervised Classifier alone.",
"We show that the performance of such a Classifier can be significantly improved by Complementing it with a second-stage supervised Classifier."
] | [
"Kami menunjukkan bahawa gabungan kedua-dua pengelas membawa kepada peningkatan yang ketara berbanding menggunakan Pengelas Unsupervised sahaja.",
"Kami menunjukkan bahawa prestasi Pengelas sedemikian dapat ditingkatkan dengan ketara dengan Melengkapkannya dengan Pengelasan yang diawasi peringkat kedua."
] |
[
"For training, we Pre-Train the word vector and set the dimension to be 200 with Skipgram.",
"We Pre-Train the 200-Dimensional word Embeddings on each Dataset in with Skipgram."
] | [
"Untuk latihan, kami Pra-Latih perkataan vektor dan menetapkan dimensi menjadi 200 dengan Skipgram.",
"Kami Pra-Latih Embedding perkataan 200-Dimensional pada setiap Dataset dengan Skipgram."
] |
[
"Sentiment analysis is the natural language processing (Nlp) task dealing with the detection and classification of sentiments in texts.",
"Sentiment analysis is a Multi-Faceted problem."
] | [
"Analisis sentimen adalah tugas pemprosesan bahasa semula jadi (Nlp) yang menangani pengesanan dan pengelasan sentimen dalam teks.",
"Analisis kepekaan adalah masalah pelbagai aspek."
] |
[
"We use the open source Moses Phrase-Based mt system to test the impact of the Preprocessing technique on translation quality.",
"We employ widely used and standard machine translation tool Moses to train the Phrasebased Smt system."
] | [
"Kami menggunakan sistem mt berasaskan frasa Moses sumber terbuka untuk menguji kesan teknik pemprosesan pada kualiti terjemahan.",
"Kami menggunakan alat terjemahan mesin yang digunakan secara meluas dan standard Moses untuk melatih sistem Smt berasaskan Phrase."
] |
[
"It also shows that our method significantly Outperforms the baseline methods.",
"Tasks show that our method statistically significantly Outperforms the baseline methods."
] | [
"Ia juga menunjukkan bahawa kaedah kami dengan ketara Outperforms kaedah asas.",
"Tugas menunjukkan bahawa kaedah kami secara statistik Outperforms kaedah asas."
] |
[
"We used the Svd implementation provided in the Scikit-Learn Toolkit.",
"We use a set of 318 English function words from the Scikit-Learn package."
] | [
"Kami menggunakan pelaksanaan Svd yang disediakan dalam Scikit-Learn Toolkit.",
"Kami menggunakan satu set 318 perkataan fungsi bahasa Inggeris dari pakej Scikit-Learn."
] |
[
"Third and finally, the Baselines reported for Resnik¡¯S test set were higher than those for the All-Words task.",
"And finally, the Baselines reported for Resnik ¡¯ s test set were higher than those for the All-Words task."
] | [
"Ketiga dan akhirnya, Baselines yang dilaporkan untuk set ujian Resnik S lebih tinggi daripada yang untuk tugas All-Words.",
"Dan akhirnya, Baselines yang dilaporkan untuk set ujian Resnik dan ujian adalah lebih tinggi daripada yang untuk tugas All-Words."
] |
[
"We use a Fourgram language model with modified Kneser-Ney smoothing as implemented in the Srilm Toolkit.",
"For language model, we used Sri language modeling Toolkit to train a 4-Gram model with modified Kneser-Ney smoothing."
] | [
"Kami menggunakan model bahasa Fourgram dengan smoothing Kneser-Ney yang diubahsuai seperti yang dilaksanakan dalam Srilm Toolkit.",
"Untuk model bahasa, kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model 4-Gram dengan smoothing Kneser-Ney yang diubahsuai."
] |
[
"For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.",
"We use Srilm Toolkit to build a 5-Gram language model with modified Kneser-Ney smoothing."
] | [
"Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.",
"Kami menggunakan Srilm Toolkit untuk membina model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai."
] |
[
"We employed the machine learning tool of Scikit-Learn 3, for training the Classifier.",
"For Nb and SVM, we used their implementation available in Scikit-Learn."
] | [
"Kami menggunakan alat pembelajaran mesin Scikit-Learn 3, untuk melatih Pengelas.",
"Untuk Nb dan SVM, kami menggunakan pelaksanaannya yang terdapat di Scikit-Learn."
] |
[
"Mihalcea et al proposed a method to measure the semantic similarity of words or short texts, considering both Corpus-Based and Knowledge-Based information.",
"Mihalcea et al developed several Corpus-Based and Knowledge-Based word similarity measures and applied them to a paraphrase recognition task."
] | [
"Mihalcea et al mencadangkan kaedah untuk mengukur persamaan semantik perkataan atau teks pendek, memandangkan kedua-dua maklumat berasaskan Corpus dan maklumat berasaskan pengetahuan.",
"Mihalcea et al membangunkan beberapa langkah kesamaan perkataan berasaskan Corpus dan berasaskan pengetahuan dan menggunakannya untuk tugas pengiktirafan parafrasa."
] |
[
"Therefore, we propose a novel combination of Post-Processing morphology prediction with Morpheme-Based translation.",
"We show that using a Post-Processing morphology generation model can improve translation."
] | [
"Oleh itu, kami mencadangkan gabungan novel ramalan morfologi pasca pemprosesan dengan terjemahan berasaskan Morpheme.",
"Kami menunjukkan bahawa menggunakan model penjanaan morfologi pasca pemprosesan dapat meningkatkan terjemahan."
] |
[
"We use the 300-Dimensional Pre-Trained Word2Vec 3 word Embeddings and compare the performance with that of glove 4 Embeddings.",
"We use 50 dimensional word Embeddings, which are Initialized by the 50 dimensional Pre-Trained word vectors 6 from glove, and updated in the training process."
] | [
"Kami menggunakan Embedding perkataan Pra-Trained 300-Dimensional 2Vec 3 dan membandingkan prestasi dengan sarung tangan 4 Embeddings.",
"Kami menggunakan 50 dimensi perkataan Embeddings, yang Dimulakan oleh 50 dimensi vektor perkataan Pra-Trained 6 dari sarung tangan, dan dikemas kini dalam proses latihan."
] |
[
"We implemented linear models with the Scikit learn package.",
"We use the linear SVM Classifier from Scikit-Learn."
] | [
"Kami melaksanakan model linear dengan pakej pembelajaran Scikit.",
"Kami menggunakan Classifier SVM linear dari Scikit-Learn."
] |
[
"A pattern is a Phrasal Cons~Ruc~ OI Varyxng degrees of specificity.",
"A pattern is a sequence of conditions that must hold true for a sequence of terms."
] | [
"Corak adalah Phrasal ConsRuc OI Varyxng darjah kekhususan.",
"Corak adalah urutan keadaan yang mesti berlaku untuk urutan istilah."
] |
[
"This indicates the critical role of the structural information in zero Anaphora resolution and the necessity of tree Kernel-Based methods in modeling such structural information.",
"Employment of tree Kernel-Based methods indicates the critical role of the structural information in zero Anaphora resolution and the necessity of tree kernel methods in modeling such structural information."
] | [
"Ini menunjukkan peranan kritikal maklumat struktur dalam resolusi Anaphora sifar dan keperluan kaedah berasaskan Kernel pokok dalam memodelkan maklumat struktur tersebut.",
"Kerja kaedah berasaskan kernel pokok menunjukkan peranan kritikal maklumat struktur dalam resolusi Anaphora sifar dan keperluan kaedah kernel pokok dalam memodelkan maklumat struktur tersebut."
] |
[
"Semantic Parsing is the task of converting a sentence into a representation of its meaning, usually in a logical form grounded in the symbols of some fixed Ontology or relational Database (Cite-P-21-3-3, Cite-P-21-3-4, Cite-P-21-1-11).",
"Semantic Parsing is the problem of deriving a structured meaning representation from a natural language utterance."
] | [
"Penghuraian Semantik adalah tugas menukar ayat menjadi perwakilan maknanya, biasanya dalam bentuk logik yang didasarkan pada simbol beberapa Ontologi tetap atau Pangkalan Data hubungan (Cite-P-21-3-3, Cite-P-21-3-4, Cite-P-21-1-11).",
"Penghuraian Semantik adalah masalah memperoleh perwakilan makna berstruktur dari ucapan bahasa semula jadi."
] |
[
"We present Triviaqa, a new Dataset of 650K Question-Document-Evidence triples.",
"We present a clean, Human-Annotated Subset of 1975 Question-Document-Answer triples."
] | [
"Kami membentangkan Triviaqa, Dataset baru 650K Soalan-Dokumen-Bukti tiga kali ganda.",
"Kami membentangkan Subset Human-Annotated yang bersih dari 1975 Soalan-Dokumen-Penjawab tiga kali."
] |