en
sequencelengths
2
2
ms
sequencelengths
2
2
[ "We chose to use data from a collection of translated Subtitles compiled in the freely available opus corpus.", "We used translated movie Subtitles from the freely available opus corpus." ]
[ "Kami memilih untuk menggunakan data daripada koleksi Subtitle yang diterjemahkan yang disusun dalam opus corpus yang tersedia secara bebas.", "Kami menggunakan filem terjemahan Subtitle dari opus corpus yang tersedia secara percuma." ]
[ "Zhao et al used topic Modelling to compare Twitter with the New York Times news site.", "Zhao et al use a background topic in Twitter-Lda to distill Discriminative words in Tweets." ]
[ "Zhao et al menggunakan topik Pemodelan untuk membandingkan Twitter dengan laman berita New York Times.", "Zhao et al menggunakan topik latar belakang di Twitter-Lda untuk menyuling kata-kata Diskriminatif dalam Tweets." ]
[ "Lam et al , 2002) present work on Email summarization by exploiting the thread structure of Email conversation and common features such as named entities and dates.", "Lam et al present work on Email summarization by exploiting the thread structure of Email conversation and common features such as named entities and dates." ]
[ "Lam et al, 2002) membentangkan kerja-kerja ringkasan E-mel dengan mengeksploitasi struktur benang perbualan E-mel dan ciri-ciri umum seperti entiti dan tarikh yang dinamakan.", "Lam et al present work on Email summarization by exploiting the thread structure of Email conversation and common features such as named entities and dates." ]
[ "We used Europarl and Wikipedia as parallel resources and all of the Finnish data available from WMT to train Five-Gram language models with Srilm and Kenlm.", "We built a 5-Gram language model on the English side of Europarl and used the Kneser-Ney smoothing method and Srilm as the language model Toolkit." ]
[ "Kami menggunakan Europarl dan Wikipedia sebagai sumber selari dan semua data Finland yang tersedia dari WMT untuk melatih model bahasa Lima Gram dengan Srilm dan Kenlm.", "Kami membina model bahasa 5-Gram di sisi bahasa Inggeris Europarl dan menggunakan kaedah smoothing Kneser-Ney dan Srilm sebagai model bahasa Toolkit." ]
[ "Kilicoglu and Bergler apply a linguistically motivated approach to the same classification task by using knowledge from existing lexical resources and incorporating syntactic patterns.", "Kilicoglu and Bergler proposed a linguistically motivated approach based on syntactic information to Semi-Automatically refine a list of hedge cues." ]
[ "Kilicoglu dan Bergler menggunakan pendekatan bermotivasi linguistik untuk tugas pengelasan yang sama dengan menggunakan pengetahuan daripada sumber leksikal sedia ada dan menggabungkan corak sintaksis.", "Kilicoglu dan Bergler mencadangkan pendekatan bermotivasi linguistik berdasarkan maklumat sintaktik untuk Semi-Automatik menyempurnakan senarai isyarat lindung nilai." ]
[ "Amr is a graph representation for the meaning of a sentence, in which noun phrases (NPS) are manually Annotated with internal structure and semantic relations.", "Amr is a semantic formalism, structured as a graph (Cite-P-13-1-1)." ]
[ "Amr adalah perwakilan grafik untuk makna ayat, di mana frasa kata nama (NPS) secara manual Dianotasi dengan struktur dalaman dan hubungan semantik.", "Amr ialah formalisme semantik, berstruktur sebagai graf (Cite-P-13-1-1)." ]
[ "In addition, we use an English corpus of roughly 227 million words to build a Target-Side 5-Gram language model with Srilm in combination with Kenlm.", "For building our statistical ape system, we used maximum phrase length of 7 and a 5-Gram language model trained using Kenlm." ]
[ "Di samping itu, kami menggunakan korpus bahasa Inggeris kira-kira 227 juta perkataan untuk membina model bahasa Target-Side 5-Gram dengan Srilm dalam kombinasi dengan Kenlm.", "Untuk membina sistem kera statistik kami, kami menggunakan panjang frasa maksimum 7 dan model bahasa 5-Gram yang dilatih menggunakan Kenlm." ]
[ "As such, Masc is the first large-scale, open, Community-Based effort to create much needed language resources for Nlp.", "As such, Masc is the first large-scale, open, Community-Based effort to create a much-needed language resource for Nlp." ]
[ "Oleh itu, Masc adalah usaha besar-besaran, terbuka, berasaskan komuniti yang pertama untuk mewujudkan sumber bahasa yang sangat diperlukan untuk Nlp.", "Oleh itu, Masc adalah usaha besar-besaran, terbuka, berasaskan komuniti yang pertama untuk mewujudkan sumber bahasa yang sangat diperlukan untuk Nlp." ]
[ "Coreference resolution is the task of automatically grouping references to the same Real-World entity in a document into a set.", "Since Coreference resolution is a pervasive discourse phenomenon causing performance impediments in current Ie systems, we considered a corpus of aligned English and Romanian texts to identify Coreferring expressions." ]
[ "Resolusi spatial adalah tugas untuk mengumpulkan rujukan secara automatik ke entiti Dunia Nyata yang sama dalam dokumen ke dalam satu set.", "Oleh kerana resolusi Coreference adalah fenomena wacana yang meluas yang menyebabkan halangan prestasi dalam sistem Ie semasa, kami menganggap korpus teks bahasa Inggeris dan Romania yang sejajar untuk mengenal pasti ungkapan Coreferring." ]
[ "We trained a 5-Gram Sri language model using the corpus supplied for this purpose by the shared task organizers.", "We trained a 5-Gram language model on the Xinhua portion of Gigaword corpus using the Srilm Toolkit." ]
[ "Kami melatih model bahasa Sri 5-Gram menggunakan korpus yang dibekalkan untuk tujuan ini oleh penganjur tugas bersama.", "Kami melatih model bahasa 5-Gram di bahagian Xinhua Gigaword corpus menggunakan Srilm Toolkit." ]
[ "Topic models, such as Plsa and Lda, have shown great success in discovering latent topics in text collections.", "Generative models like Lda and Plsa have been proved to be very successful in modeling topics and other textual information in an Unsupervised manner." ]
[ "Model topik, seperti Plsa dan Lda, telah menunjukkan kejayaan besar dalam menemui topik laten dalam koleksi teks.", "Model-model generasi seperti Lda dan Plsa telah terbukti sangat berjaya dalam topik pemodelan dan maklumat teks lain dengan cara yang tidak diawasi." ]
[ "Sentiment analysis is the study of the subjectivity and polarity (positive vs. negative) of a text (Cite-P-7-1-10).", "Sentiment analysis is a technique to classify documents based on the polarity of opinion expressed by the author of the document (Cite-P-16-1-13)." ]
[ "Analisis kepekaan adalah kajian subjektiviti dan polariti (positif vs negatif) teks (Cite-P-7-1-10).", "Analisis sentimen adalah teknik untuk mengklasifikasikan dokumen berdasarkan polariti pendapat yang dinyatakan oleh pengarang dokumen (Cite-P-16-1-13)." ]
[ "We use the glove Pre-Trained word Embeddings for the vectors of the content words.", "We use the Pre-Trained glove 50-Dimensional word Embeddings to represent words found in the glove Dataset." ]
[ "Kami menggunakan sarung tangan Embeddings perkataan Pra-Latih untuk vektor perkataan kandungan.", "Kami menggunakan sarung tangan Pra-Latih 50-Dimensional Embedding perkataan untuk mewakili perkataan yang terdapat dalam Dataset sarung tangan." ]
[ "For instance, de Choudhury et al predicted the onset of depression from user Tweets, while other studies have modeled distress.", "For instance, Choudhury et al predicted the onset of depression from user Tweets, while other studies have modeled distress." ]
[ "Sebagai contoh, de Choudhury et al meramalkan permulaan kemurungan dari Tweet pengguna, sementara kajian lain telah memodelkan kesusahan.", "Sebagai contoh, Choudhury et al meramalkan permulaan kemurungan dari Tweet pengguna, sementara kajian lain telah memodelkan kesusahan." ]
[ "Luong et al utilized the Morpheme segments produced by Morfessor and constructed Morpheme trees for words to learn Morphologically-Aware word Embeddings by the recursive neural network.", "Luong et al segment words using Morfessor, and use recursive neural networks to build word Embeddings from Morph Embeddings." ]
[ "Luong et al menggunakan segmen Morpheme yang dihasilkan oleh Morfessor dan membina pokok Morpheme untuk perkataan untuk mempelajari Embedding perkataan Morphologically-Aware oleh rangkaian saraf rekursif.", "Kata-kata segmen Luong et al menggunakan Morfessor, dan menggunakan rangkaian neural rekursif untuk membina Embedding perkataan dari Embedding Morph." ]
[ "Unlike most previous work, which has used a reduced set of Pos tags, we use all 680 tags in the Bultreebank.", "For this language, which has limited the number of possible tags, we used a very rich Tagset of 680 Morphosyntactic tags." ]
[ "Tidak seperti kebanyakan kerja terdahulu, yang telah menggunakan set tag Pos yang dikurangkan, kami menggunakan semua tag 680 di Bultreebank.", "Untuk bahasa ini, yang telah mengehadkan bilangan tag yang mungkin, kami menggunakan Tagset yang sangat kaya 680 tag Morphosyntactic." ]
[ "Twitter is a Microblogging service that has 313 million monthly active users 1.", "Twitter is a well-known social network service that allows users to post short 140 character status update which is called “ Tweet ”." ]
[ "Twitter adalah perkhidmatan Microblogging yang mempunyai 313 juta pengguna aktif bulanan 1.", "Twitter adalah perkhidmatan rangkaian sosial yang terkenal yang membolehkan pengguna untuk menyiarkan kemas kini status 140 aksara pendek yang dipanggil \"Tweet\"." ]
[ "We train the model by using a simple optimization technique called stochastic gradient descent over shuffled Mini-Batches with the Adadelta rule.", "We apply the stochastic gradient descent algorithm with Mini-Batches and the Adadelta update rule." ]
[ "Kami melatih model dengan menggunakan teknik pengoptimuman mudah yang dipanggil keturunan kecerunan stokastik ke atas Mini-Batches yang disempitkan dengan peraturan Adadelta.", "Kami menggunakan algoritma keturunan kecerunan stokastik dengan Mini-Batches dan peraturan kemas kini Adadelta." ]
[ "Human judges are often only slightly better than chance at discriminating between truths and lies.", "Meta-Analytic findings indicate that human judges are just slightly better than chance at discriminating between truths and lies." ]
[ "Hakim manusia selalunya hanya sedikit lebih baik daripada peluang untuk membezakan antara kebenaran dan pembohongan.", "Penemuan meta-analisis menunjukkan bahawa hakim manusia hanya sedikit lebih baik daripada peluang untuk membezakan antara kebenaran dan pembohongan." ]
[ "Semantic role labeling (SRL) has been defined as a Sentence-Level Natural-Language processing task in which semantic roles are assigned to the syntactic arguments of a Predicate (Cite-P-14-1-7).", "Semantic role labeling (SRL) is the process of assigning semantic roles to strings of words in a sentence according to their relationship to the semantic Predicates expressed in the sentence." ]
[ "Pelabelan peranan semantik (SRL) telah ditakrifkan sebagai tugas pemprosesan Bahasa Semulajadi Tahap Sentence di mana peranan semantik ditugaskan kepada hujah sintaktik Predicate (Cite-P-14-1-7).", "Pelabelan peranan semantik (SRL) adalah proses menetapkan peranan semantik kepada rentetan perkataan dalam ayat mengikut hubungan mereka dengan semantik Predicates yang dinyatakan dalam ayat." ]
[ "We apply reinforce to directly optimize the task reward of this structured prediction problem.", "In order to directly optimize the task reward of the structured prediction problem." ]
[ "Kami menggunakan pengukuhan untuk mengoptimumkan ganjaran tugas masalah ramalan berstruktur ini secara langsung.", "Untuk mengoptimumkan ganjaran tugas masalah ramalan berstruktur secara langsung." ]
[ "Items were identified using the unified medical language system vocabularies for dictionary Look-Up.", "Vocabulary lists were drawn from the French component of the unified medical language system and the Vi-Dal drug Database." ]
[ "Item telah dikenalpasti menggunakan sistem bahasa perubatan bersatu vocabularies untuk kamus Look-Up.", "Senarai vokal diambil dari komponen Perancis sistem bahasa perubatan bersatu dan Pangkalan Data ubat Vi-Dal." ]
[ "Compared with Character-Based methods, our model explicitly Leverages word and word sequence information.", "Character-Based and Word-Based NER methods, our model has the advantage of Leveraging explicit word information over character sequence labeling." ]
[ "Berbanding dengan kaedah Berasaskan Ciri, model kami secara jelas Leverages maklumat urutan perkataan dan perkataan.", "Kaedah NER Berasaskan Karakter dan Berasaskan Perkataan, model kami mempunyai kelebihan Leveraging maklumat perkataan eksplisit berbanding pelabelan urutan watak." ]
[ "We use Moses, a statistical machine translation system that allows training of translation models.", "For training the translation model and for decoding we used the Moses Toolkit." ]
[ "Kami menggunakan Moses, sistem terjemahan mesin statistik yang membolehkan latihan model terjemahan.", "Untuk melatih model terjemahan dan untuk penyahkodan, kami menggunakan Musa Toolkit." ]
[ "The word Embeddings are Initialized with 100-Dimensions vectors Pre-Trained by the Cbow model.", "The model parameters of word Embedding are Initialized using Word2Vec." ]
[ "Perkataan Embeddings Dimulakan dengan vektor 100-Dimensions Pra-Trained oleh model Cbow.", "Parameter model Embedding perkataan Diawalkan menggunakan Word2Vec." ]
[ "We present a Korean question answering framework for restricted domains, called K-Qard.", "To evaluate the K-Qard framework, we built restricted domain question answering systems." ]
[ "Kami membentangkan rangka kerja menjawab soalan Korea untuk domain terhad, yang dipanggil K-Qard.", "Untuk menilai kerangka K-Qard, kami membina sistem jawapan soalan domain terhad." ]
[ "The Decoder and Encoder word Embeddings are of size 500, the Encoder uses a Bidirectional Lstm layer with 1K units to Encode the source side.", "The Encoder units are Bidirectional Lstms while the Decoder unit incorporates an Lstm with DOT product attention." ]
[ "Embedding kata Decoder dan Encoder bersaiz 500, Encoder menggunakan lapisan Lstm Bidirectional dengan unit 1K untuk mengekod sisi sumber.", "Unit Encoder adalah Lstm Bidirectional manakala unit Decoder menggabungkan Lstm dengan perhatian produk DOT." ]
[ "We use Liblinear logistic regression Module to classify Document-Level Embeddings.", "We used a logistic regression Classifier provided by the Liblinear software." ]
[ "Kami menggunakan Modul regresi logistik Liblinear untuk mengklasifikasikan Embedding Tahap Dokumen.", "Kami menggunakan Classifier regresi logistik yang disediakan oleh perisian Liblinear." ]
[ "However, as we discussed in the introduction, these methods do not focus on the ability to accumulate learned knowledge and leverage it in New learning in a lifelong manner.", "In the introduction, these methods do not focus on the ability to accumulate learned knowledge and leverage it in New learning." ]
[ "Walau bagaimanapun, seperti yang kita bincangkan dalam pengenalan, kaedah ini tidak memberi tumpuan kepada keupayaan untuk mengumpul pengetahuan yang dipelajari dan memanfaatkannya dalam pembelajaran baru dengan cara sepanjang hayat.", "Dalam pengenalan, kaedah ini tidak memberi tumpuan kepada keupayaan untuk mengumpul pengetahuan yang dipelajari dan memanfaatkannya dalam pembelajaran baru." ]
[ "The language model was constructed using the Srilm Toolkit with interpolated Kneser-Ney discounting.", "The language models are 4-Grams with modified Kneser-Ney smoothing which have been trained with the Srilm Toolkit." ]
[ "Model bahasa dibina menggunakan Srilm Toolkit dengan diskaun Kneser-Ney yang saling berkaitan.", "Model bahasa adalah 4-Gram dengan smoothing Kneser-Ney yang diubahsuai yang telah dilatih dengan Srilm Toolkit." ]
[ "Koppel et al also suggest that syntactic errors might be useful features, but these were not explored in their study.", "Koppel et al did suggest using syntactic errors in their work but did not investigate them in any detail." ]
[ "Koppel et al juga mencadangkan bahawa kesilapan sintaksis mungkin ciri berguna, tetapi ini tidak diterokai dalam kajian mereka.", "Koppel et al memang menyarankan menggunakan kesalahan sintaksis dalam karya mereka tetapi tidak menyelidikinya secara detail." ]
[ "To generate the greatest breadth of synonyms, the tool uses a Distributional thesaurus, Wordnet and a paraphrase generation tool.", "The system automatically generates a thesaurus using a measure of Distributional similarity and an Untagged corpus." ]
[ "Untuk menghasilkan luas sinonim yang paling besar, alat ini menggunakan alat tesaurus Distributional, Wordnet dan alat generasi parafrasa.", "Sistem ini secara automatik menghasilkan tesaurus menggunakan ukuran persamaan Distributional dan korpus Untagged." ]
[ "Coreference resolution is the process of linking together multiple expressions of a given entity.", "Coreference resolution is the process of finding discourse entities (Markables) referring to the same Real-World entity or concept." ]
[ "Resolusi spatial adalah proses menghubungkan pelbagai ungkapan entiti tertentu.", "Resolusi spatial adalah proses mencari entiti wacana (Markables) merujuk kepada entiti atau konsep Dunia Nyata yang sama." ]
[ "Berant et al have used a lexicon extracted from a Subset of Reverb triples, which is similar to the relation expression set used in question translation.", "Berant et al proposed a semantic Parsing model that can be trained from Qna pairs, which are much easier to obtain than correct KB queries used previously." ]
[ "Berant et al telah menggunakan leksikon yang diekstrak daripada Subset Reverb triples, yang serupa dengan set ungkapan hubungan yang digunakan dalam terjemahan soalan.", "Berant et al mencadangkan model Parsing semantik yang boleh dilatih dari pasangan Qna, yang lebih mudah diperoleh daripada pertanyaan KB yang betul yang digunakan sebelum ini." ]
[ "Word sense Disambiguation (Wsd) is the task of determining the correct meaning (“ sense ”) of a word in context, and several efforts have been made to develop automatic Wsd systems.", "Word sense Disambiguation (Wsd) is the task of assigning sense tags to ambiguous lexical items (Lis) in a text." ]
[ "Disambiguasi perkataan (Wsd) adalah tugas menentukan makna yang betul ( sense ) perkataan dalam konteks, dan beberapa usaha telah dibuat untuk membangunkan sistem Wsd automatik.", "Disambiguasi kata (Wsd) adalah tugas untuk menetapkan tag deria kepada item leksikal samar (Lis) dalam teks." ]
[ "We consider using Bi-Lstms for Pos tagging.", "We compare Bi-Lstms to traditional Pos Taggers." ]
[ "Kami mempertimbangkan untuk menggunakan Bi-Lstms untuk penandaan Pos.", "Kami membandingkan Bi-Lstms dengan Pos Taggers tradisional." ]
[ "The in-house Phrase-Based translation system is used for generating translations.", "The kit translations are generated by an in-house Phrase-Based translations system." ]
[ "Sistem terjemahan berasaskan frasa dalaman digunakan untuk menghasilkan terjemahan.", "Terjemahan kit dihasilkan oleh sistem terjemahan berasaskan frasa dalaman." ]
[ "Our approach shows an accuracy that rivals that of expert agreement.", "We show that such a system provides an accuracy rivaling that of experts." ]
[ "Pendekatan kami menunjukkan ketepatan yang menyaingi perjanjian pakar.", "Kami menunjukkan bahawa sistem sedemikian memberikan ketepatan menyaingi pakar." ]
[ "Auli et al and Kalchbrenner and Blunsom proposed joint language and translation model with recurrent neural networks, in which latent semantic analysis and Convolutional sentence model were used to model Source-Side sentence.", "Auli et al presented a joint language and translation model based on a recurrent neural network which predicts target words based on an unbounded history of both source and target words." ]
[ "Auli et al dan Kalchbrenner dan Blunsom mencadangkan model bahasa dan terjemahan bersama dengan rangkaian neural berulang, di mana analisis semantik laten dan model ayat Konvolutional digunakan untuk model ayat Sumber-Side.", "Auli et al menyampaikan model bahasa dan terjemahan bersama berdasarkan rangkaian neural berulang yang meramalkan kata sasaran berdasarkan sejarah yang tidak terikat kedua-dua kata sumber dan sasaran." ]
[ "Sentiment analysis is the study of the subjectivity and polarity (positive vs. negative) of a text (Cite-P-7-1-10).", "Sentiment analysis is a Multi-Faceted problem." ]
[ "Analisis kepekaan adalah kajian subjektiviti dan polariti (positif vs negatif) teks (Cite-P-7-1-10).", "Analisis kepekaan adalah masalah pelbagai aspek." ]
[ "Turney and Littman calculate the Pointwise mutual information of a given word with positive and negative sets of sentiment words.", "Turney and Littman proposed to compute Pair-Wised mutual information between a target word and a set of seed positive and negative words to infer the so of the target word." ]
[ "Turney dan Littman mengira maklumat bersama Pointwise dari perkataan tertentu dengan set positif dan negatif kata sentimen.", "Turney dan Littman mencadangkan untuk mengira maklumat bersama Pair-Wised antara perkataan sasaran dan satu set kata positif dan negatif benih untuk menyimpulkan kata sasaran." ]
[ "Takamura et al propose using spin models for extracting semantic orientation of words.", "Takamura et al proposed using spin models for extracting semantic orientation of words." ]
[ "Takamura et al mencadangkan menggunakan model spin untuk mengekstrak orientasi semantik perkataan.", "Takamura et al mencadangkan menggunakan model spin untuk mengekstrak orientasi semantik perkataan." ]
[ "Parallel data in the domain of interest is the key resource when training a statistical machine translation (Smt) system for a specific purpose.", "Parallel data in the domain of interest is the key resource when training a statistical machine translation (Smt) system for a specific business purpose." ]
[ "Data selari dalam domain kepentingan adalah sumber utama apabila melatih sistem terjemahan mesin statistik (Smt) untuk tujuan tertentu.", "Data selari dalam domain kepentingan adalah sumber utama apabila melatih sistem terjemahan mesin statistik (Smt) untuk tujuan perniagaan tertentu." ]
[ "Our Cdsm feature is based on word vectors derived using a Skip-Gram model.", "In our word Embedding training, we use the Word2Vec implementation of Skip-Gram." ]
[ "Ciri Cdsm kami adalah berdasarkan vektor perkataan yang diperolehi menggunakan model Skip-Gram.", "Dalam latihan Embedding perkataan kami, kami menggunakan pelaksanaan Skip-Gram Word2Vec." ]
[ "We use BLEU to evaluate translation quality.", "We report BLEU scores to compare translation results." ]
[ "Kami menggunakan BLEU untuk menilai kualiti terjemahan.", "Kami melaporkan skor BLEU untuk membandingkan hasil terjemahan." ]
[ "We used Kenlm with Srilm to train a 5-Gram language model based on all available target language training data.", "We use the Sri language model Toolkit to train a 5-Gram model with modified Kneser-Ney smoothing on the Target-Side training corpus." ]
[ "Kami menggunakan Kenlm dengan Srilm untuk melatih model bahasa 5-Gram berdasarkan semua data latihan bahasa sasaran yang ada.", "Kami menggunakan model bahasa Sri Toolkit untuk melatih model 5-Gram dengan smoothing Kneser-Ney yang diubahsuai pada korpus latihan Target-Side." ]
[ "We classically used the error metric P K proposed in and its variant Windowdiff to measure Segmentation accuracy.", "As for the boundary detection problem, we use the Windowdiff and P K Metrics." ]
[ "Kami secara klasik menggunakan metrik ralat P K yang dicadangkan dalam dan variannya Windowdiff untuk mengukur ketepatan Segmentasi.", "Bagi masalah pengesanan sempadan, kami menggunakan Tetingkap dan P K Metrik." ]
[ "The language model is a 5-Gram with interpolation and Kneser-Ney smoothing.", "All models used interpolated modified Kneser-Ney smoothing." ]
[ "Model bahasa adalah 5-Gram dengan interpolasi dan smoothing Kneser-Ney.", "Semua model menggunakan smoothing Kneser-Ney yang diubahsuai interpolated." ]
[ "By modeling dependency paths as sequences of words and Dependencies, we implicitly address the data Sparsity problem.", "But rather than solely making using of sparse Binary features, we explicitly model dependency paths." ]
[ "Dengan memodelkan laluan dependensi sebagai urutan perkataan dan Dependensi, kami secara implisit menangani masalah Sparsity data.", "Tetapi daripada hanya menggunakan ciri Binary yang jarang, kami secara eksplisit memodelkan laluan dependensi." ]
[ "Peters et al propose a deep neural model that generates Contextual word Embeddings which are able to model both language and Semantics of word use.", "Peters et al show that their language model Elmo can implicitly Disambiguate word meaning with their contexts." ]
[ "Peters et al mencadangkan model neural mendalam yang menghasilkan Embedding kata Kontekstual yang mampu memodelkan kedua-dua bahasa dan Semantik penggunaan perkataan.", "Peters et al menunjukkan bahawa model bahasa mereka Elmo secara tersirat boleh membezakan makna perkataan dengan konteks mereka." ]
[ "We train a linear Classifier using the averaged Perceptron algorithm.", "The weights of the linear Ranker are Optimized using the averaged Perceptron algorithm." ]
[ "Kami melatih Classifier linear menggunakan algoritma Perceptron purata.", "Berat Ranker linear dioptimumkan menggunakan algoritma Perceptron purata." ]
[ "As benchmarks, we use manually and automatically determined sentiment labels of the Arabic texts.", "We use manually and automatically determined sentiment labels of the Arabic Tweets." ]
[ "Sebagai penanda aras, kami menggunakan label sentimen yang ditentukan secara manual dan automatik teks Arab.", "Kami menggunakan label sentimen yang ditentukan secara manual dan automatik dari Tweet Arab." ]
[ "In this paper we present a sample ensemble Parse assessment (Sepa) algorithm for detecting Parse quality.", "In this paper we introduced Sepa, a novel algorithm for assessing Parse quality." ]
[ "Dalam makalah ini kami membentangkan algoritma penilaian Parse ensemble sampel (Sepa) untuk mengesan kualiti Parse.", "Dalam makalah ini kami memperkenalkan Sepa, algoritma novel untuk menilai kualiti Parse." ]
[ "Word sense Disambiguation (Wsd) is the task of determining the meaning of an ambiguous word in its context.", "Word sense Disambiguation (Wsd) is the task of automatically determining the correct sense for a target word given the context in which it occurs." ]
[ "Kemusykilan erti kata Kemusykilan (Wsd) ialah tugas menentukan makna perkataan yang samar-samar dalam konteksnya.", "Disambiguasi erti kata (Wsd) adalah tugas menentukan secara automatik pengertian yang betul untuk perkataan sasaran yang diberikan konteks di mana ia berlaku." ]
[ "We use the Attention-Based Nmt model introduced by Bahdanau et al as our Text-Only Nmt baseline.", "We make use of an ensemble of text only attention based Nmt models with a conditional Gated recurrent units Decoder." ]
[ "Kami menggunakan model Nmt Berasaskan Perhatian yang diperkenalkan oleh Bahdanau et al sebagai garis dasar Text-Only Nmt kami.", "Kami menggunakan ensemble teks hanya perhatian berasaskan model Nmt dengan unit berulang Gated bersyarat Decoder." ]
[ "In addition, we describe an approach to Crowdsourcing ideological bias Annotations.", "And we also illustrate how our model correctly identifies ideological bias." ]
[ "Di samping itu, kami menerangkan pendekatan untuk Crowdsourcing Annotations bias ideologi.", "Dan kita juga menggambarkan bagaimana model kita mengenal pasti bias ideologi dengan betul." ]
[ "User Simulations are commonly used to train strategies for dialogue management, see for example.", "User Simulations are commonly used to train strategies for dialogue management, see for example." ]
[ "Simulasi pengguna biasanya digunakan untuk melatih strategi untuk pengurusan dialog, lihat contohnya.", "Simulasi pengguna biasanya digunakan untuk melatih strategi untuk pengurusan dialog, lihat contohnya." ]
[ "Hierarchical Phrase-Based translation models that utilize synchronous context free Grammars have been widely adopted in statistical machine translation.", "The use of various synchronous grammar based Formalisms has been a trend for statistical machine translation." ]
[ "Model terjemahan Berasaskan Frasa Hierarki yang menggunakan konteks yang menyegerakkan Grammar bebas telah diterima pakai secara meluas dalam terjemahan mesin statistik.", "Penggunaan pelbagai tatabahasa yang bersangkutan Formalisme telah menjadi trend untuk terjemahan mesin statistik." ]
[ "We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting.", "We used the Sri language modeling Toolkit to train a Fivegram model with modified Kneser-Ney smoothing." ]
[ "Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai.", "Kami menggunakan Toolkit pemodelan bahasa Sri untuk melatih model Fivegram dengan smoothing Kneser-Ney yang diubahsuai." ]
[ "Chen et al introduced a lexical syntactic feature architecture to detect offensive content and identify potential offensive users in social media.", "Chen et al , 2012) proposed the lexical syntactic feature architecture to detect offensive content and identify the potential offensive users in social media." ]
[ "Chen et al memperkenalkan seni bina ciri sintaksis leksikal untuk mengesan kandungan yang menyinggung perasaan dan mengenal pasti pengguna yang berpotensi menyinggung perasaan di media sosial.", "Chen et al, 2012) mencadangkan seni bina ciri sintaksis leksikal untuk mengesan kandungan yang menyinggung perasaan dan mengenal pasti pengguna yang berpotensi menyinggung perasaan di media sosial." ]
[ "Coreference resolution is the task of identifying all mentions which refer to the same entity in a document.", "Coreference resolution is a challenging task, that involves identification and clustering of noun phrases mentions that refer to the same Real-World entity." ]
[ "Resolusi spatial adalah tugas untuk mengenal pasti semua sebutan yang merujuk kepada entiti yang sama dalam dokumen.", "Resolusi spatial adalah tugas yang mencabar, yang melibatkan pengenalan dan pengelompokan frasa kata nama yang menyebut yang merujuk kepada entiti Dunia Nyata yang sama." ]
[ "In addition, recently, Distributional features have also been used directly to train classifiers that classify pairs of words as being synonymous or not and showed good performance on the applied tasks.", "Recently, Distributional features have also been used directly to train classifiers that classify pairs of words as being synonymous or not." ]
[ "Selain itu, baru-baru ini, ciri-ciri pengedaran juga telah digunakan secara langsung untuk melatih pengelas yang mengklasifikasikan pasangan perkataan sebagai sinonim atau tidak dan menunjukkan prestasi yang baik pada tugas yang digunakan.", "Baru-baru ini, ciri-ciri pengedaran juga telah digunakan secara langsung untuk melatih pengelas yang mengklasifikasikan pasangan perkataan sebagai sinonim atau tidak." ]
[ "Pseudo-Word is a kind of Multi-Word expression (includes both Unary word and Multi-Word).", "A Pseudoword is a composite comprised of two or more words chosen at random; the individual occurrences of the original words within a text are replaced by their Conflation." ]
[ "Pseudo-Word adalah sejenis ungkapan Multi-Word (termasuk kedua-dua perkataan Unary dan Multi-Word).", "Pseudoword adalah komposit yang terdiri daripada dua atau lebih perkataan yang dipilih secara rawak; kejadian individu perkataan asal dalam teks digantikan oleh Conflation mereka." ]
[ "In the Cross-Validation process, Multinomial naive Bayes (Mnb) has shown better results than support vector machines (SVM) as a component for Adaboost.", "In the Cross-Validation process, Multinomial naive Bayes (Mnb) has shown better results than support vector machines (SVM)." ]
[ "Dalam proses Cross-Validation, Multinomial naive Bayes (Mnb) telah menunjukkan hasil yang lebih baik daripada mesin vektor sokongan (SVM) sebagai komponen untuk Adaboost.", "Dalam proses Cross-Validation, Multinomial naive Bayes (Mnb) telah menunjukkan hasil yang lebih baik daripada mesin vektor sokongan (SVM)." ]
[ "The feature weights for each system were tuned on development SETS using the Moses implementation of minimum error rate training.", "The feature weights are tuned to optimize BLEU using the minimum error rate training algorithm." ]
[ "Berat ciri bagi setiap sistem ditala pada pembangunan SETS menggunakan pelaksanaan Musa latihan kadar ralat minimum.", "Berat ciri ditala untuk mengoptimumkan BLEU menggunakan algoritma latihan kadar ralat minimum." ]
[ "The Expectation-Maximization algorithm was applied to a wide range of problems.", "The expectation maximization algorithm has been widely applied for solving the Decipherment problem." ]
[ "Algoritma Expectation-Maximization digunakan untuk pelbagai masalah.", "Algoritma pemaksimalan jangkaan telah digunakan secara meluas untuk menyelesaikan masalah Pengiraan." ]
[ "With reference to this system, we implement a Data-Driven Parser with a neural Classifier based on long short-term memory.", "We start with a Bidirectional long short-term memory model that employs Pretrained word Embeddings." ]
[ "Dengan merujuk kepada sistem ini, kami melaksanakan Penghurai Data-Driven dengan pengelasan neural berdasarkan ingatan jangka pendek yang panjang.", "Kami bermula dengan model memori jangka pendek panjang Bidirectional yang menggunakan Embedding perkataan Pretrained." ]
[ "Text Normalization and smoothing Parameterizations were as presented in Roark et al.", "Corpus Normalization and smoothing methods were as described in Roark et al." ]
[ "Teks Normalisasi dan melicinkan Parameterisasi telah dibentangkan dalam Roark et al.", "Kaedah Normalisasi dan smoothing Corpus seperti yang diterangkan dalam Roark et al." ]
[ "We use a standard maximum entropy Classifier implemented as part of Mallet.", "We use the maximum entropy model for our classification task." ]
[ "Kami menggunakan Classifier entropi maksimum standard yang dilaksanakan sebagai sebahagian daripada Mallet.", "Kami menggunakan model entropi maksimum untuk tugas pengelasan kami." ]
[ "In this paper, we have considered new input sources for Imt.", "In this work, we will be using word graphs." ]
[ "Dalam kertas ini, kami telah mempertimbangkan sumber input baru untuk Imt.", "Dalam kerja ini, kita akan menggunakan graf perkataan." ]
[ "Our Smt system is a Phrase-Based system based on the Moses Smt Toolkit.", "We used a Phrase-Based Smt model as implemented in the Moses Toolkit." ]
[ "Sistem Smt kami adalah sistem Berasaskan Frasa berdasarkan Musa Smt Toolkit.", "Kami menggunakan model Smt Berasaskan Frasa seperti yang dilaksanakan dalam Musa Toolkit." ]
[ "To improve Chinese SRL, we propose a set of additional features, some of which are designed to better capture structural information.", "In this paper, we propose a set of additional features, some of which are designed to better capture structural information." ]
[ "Untuk meningkatkan SRL Cina, kami mencadangkan satu set ciri tambahan, beberapa di antaranya direka untuk menangkap maklumat struktur dengan lebih baik.", "Dalam kertas kerja ini, kami mencadangkan satu set ciri tambahan, beberapa di antaranya direka untuk menangkap maklumat struktur dengan lebih baik." ]
[ "We use Word2Vec as the vector representation of the words in Tweets.", "This matrix is produced from a word representation method such as Word2Vec." ]
[ "Kami menggunakan Word2Vec sebagai perwakilan vektor perkataan dalam Tweets.", "Matriks ini dihasilkan daripada kaedah perwakilan perkataan seperti Word2Vec." ]
[ "Collobert et al use a Convolutional neural network over the sequence of word Embeddings.", "Collobert et al, Kalchbrenner et al, and Kim use Convolutional networks to deal with varying length sequences." ]
[ "Collobert et al menggunakan rangkaian neural Konvolutional atas urutan perkataan Embeddings.", "Collobert et al, Kalchbrenner et al, dan Kim menggunakan rangkaian Konvolutional untuk menangani urutan panjang yang berbeza-beza." ]
[ "It is a standard Phrasebased Smt system built using the Moses Toolkit.", "Moses is used as a baseline Phrase-Based Smt system." ]
[ "Ia merupakan sistem Smt berasaskan Phrase standard yang dibina menggunakan Musa Toolkit.", "Musa digunakan sebagai sistem Smt Berasaskan Frasa asas." ]
[ "For these experiments we use the Weka Toolkit.", "The Weka Toolkit was used for all experiments." ]
[ "Untuk eksperimen ini, kami menggunakan Weka Toolkit.", "Weka Toolkit digunakan untuk semua eksperimen." ]
[ "Rockt盲Schel et al proposed a joint model that injects first-order logic into Embeddings.", "Rockt盲Schel et al recently proposed a joint model which injects first-order logic into Embeddings." ]
[ "RocktSchel et al mencadangkan model bersama yang menyuntik logik pesanan pertama ke dalam Embeddings.", "RocktSchel et al baru-baru ini mencadangkan model bersama yang menyuntik logik pesanan pertama ke dalam Embeddings." ]
[ "Our proposed work is identifying attitudes in sentences that appear in Online discussions.", "In this work, we present a method to identify the attitude of participants in an Online discussion." ]
[ "Kerja yang dicadangkan kami adalah mengenal pasti sikap dalam ayat yang muncul dalam perbincangan dalam talian.", "Dalam kerja ini, kami membentangkan kaedah untuk mengenal pasti sikap peserta dalam perbincangan dalam talian." ]
[ "To generate from the Kbgen data, we induce a Feature-Based Lexicalised tree adjoining grammar, augmented with a Unification-Based Semantics from the training data.", "In particular, we use a Feature-Based Lexicalized Tree-Adjoining grammar, that is derived from an Hpsg grammar." ]
[ "Untuk menjana dari data Kbgen, kami mendorong tatabahasa tatabahasa yang bersebelahan dengan pokok Berasaskan Ciri, ditambah dengan Semantik Berasaskan Penyatuan dari data latihan.", "Khususnya, kita menggunakan tatabahasa Lexicalized Tree-Adjoining berasaskan ciri, yang berasal dari tatabahasa Hpsg." ]
[ "Lerner and Petrov train classifiers to predict the Permutations of up to 6 tree nodes in the source dependency tree.", "Lerner and Petrov present a simple Classifier-Based Preordering approach using the Source-Side dependency tree." ]
[ "Lerner dan Petrov melatih pengelas untuk meramalkan Permutasi sehingga 6 nod pokok dalam pokok dependensi sumber.", "Lerner dan Petrov membentangkan pendekatan Preordering berasaskan Klasifier mudah menggunakan pokok dependensi Source-Side." ]
[ "Coreference resolution is a task aimed at identifying phrases (mentions) referring to the same entity.", "Coreference resolution is the problem of identifying which mentions (I.E ., noun phrases) refer to which Real-World entities." ]
[ "Resolusi spatial adalah tugas yang bertujuan untuk mengenal pasti frasa (mention) yang merujuk kepada entiti yang sama.", "Resolusi spatial adalah masalah mengenal pasti sebutan mana (I.E., frasa kata nama) merujuk kepada entiti Dunia Nyata mana." ]
[ "We use the Stanford NER system with a standard set of Language-Independent features.", "We use the Stanford Pos-Tagger and name entity Recognizer." ]
[ "Kami menggunakan sistem Stanford NER dengan set standard ciri-ciri Bahasa-Independent.", "Kami menggunakan Stanford Pos-Tagger dan nama entiti Pengiktirafan." ]
[ "Our proposed method yielded better results than the previous state-of-the-art Ilp system on different Tac data sets.", "Summarization data SETS demonstrate this proposed method Outperforms the previous Ilp system." ]
[ "Kaedah yang dicadangkan kami menghasilkan hasil yang lebih baik daripada sistem Ilp canggih sebelumnya pada set data Tac yang berbeza.", "Data ringkasan SETS menunjukkan kaedah yang dicadangkan ini Melakukan sistem Ilp sebelumnya." ]
[ "The translation performance was measured using the BLEU and the Nist Mt-Eval Metrics, and word error rate.", "The translation quality is evaluated by Case-Insensitive BLEU and Ter Metrics using Multeval." ]
[ "Prestasi terjemahan diukur menggunakan BLEU dan Nist Mt-Eval Metrics, dan kadar ralat perkataan.", "Kualiti terjemahan dinilai oleh Case-Insensitive BLEU dan Ter Metrics menggunakan Multeval." ]
[ "Lambert et al did tune on queen, a simplified version of Ulc that Discards the semantic features of Ulc and is based on pure lexical similarity.", "Lambert et al did tune on queen, a simplified version of Ulc that Discards the semantic features and is based on pure lexical features." ]
[ "Lambert et al did tune on queen, a simplified version of Ulc that Discards the semantic features of Ulc and is based on pure lexical similarity.", "Lambert et al did tune on queen, a simplified version of Ulc that Discards the semantic features and is based on pure lexical features." ]
[ "For our Parsing experiments, we use the Berkeley Parser.", "The Ptb Parser we use for comparison is the publicly available Berkeley Parser." ]
[ "Untuk eksperimen Parsing kami, kami menggunakan Berkeley Parser.", "Ptb Parser yang kami gunakan untuk perbandingan adalah Berkeley Parser yang tersedia secara terbuka." ]
[ "This paper introduced the problem of Modelling frequency profiles of rumours in social media.", "This paper considers the problem of Modelling temporal frequency profiles of rumours." ]
[ "Kertas ini memperkenalkan masalah profil frekuensi pemodelan khabar angin di media sosial.", "Kertas ini menganggap masalah profil frekuensi temporal pemodelan khabar angin." ]
[ "The results show that Lexicalized Surprisal according to both models is a significant Predictor of RT, outperforming its Unlexicalized counterparts.", "And indeed, the results show the ability of Lexicalized Surprisal to explain a significant amount of variance in RT data." ]
[ "Keputusan menunjukkan bahawa Kejutan Lexicalized mengikut kedua-dua model adalah Predictor RT yang penting, mengatasi rakan-rakan Unlexicalized.", "Dan memang, hasilnya menunjukkan keupayaan Lexicalized Surprisal untuk menjelaskan sejumlah besar varians dalam data RT." ]
[ "Experiments on 5 languages show that the novel strategy significantly Outperforms previous Unsupervised or Bilingually-Projected models.", "Projected from the Parsed English translation, experiments show that the Bilingually-Guided method achieves a significant improvement of 28 . 5% over the Unsupervised baseline." ]
[ "Eksperimen pada 5 bahasa menunjukkan bahawa strategi novel dengan ketara Outperforms sebelumnya Unsupervised atau Bilingually-Projected model.", "Diprojekkan dari terjemahan Bahasa Inggeris Parsed, eksperimen menunjukkan bahawa kaedah Bilingually-Guided mencapai peningkatan yang signifikan sebanyak 28.5% berbanding garis dasar yang tidak diawasi." ]
[ "Hu and Liu use the synonym and Antonym relations within linguistic resources.", "Hu and Liu used similar lexical network, but they considered not only synonyms but Antonyms." ]
[ "Hu dan Liu menggunakan hubungan sinonim dan Antonym dalam sumber linguistik.", "Hu dan Liu menggunakan rangkaian leksikal yang serupa, tetapi mereka menganggap bukan sahaja sinonim tetapi Antonyms." ]
[ "Each translation model is tuned using Mert to maximize BLEU.", "Phrasebased Smt models are tuned using minimum error rate training." ]
[ "Setiap model terjemahan ditala menggunakan Mert untuk memaksimumkan BLEU.", "Model Smt berasaskan frasa ditala menggunakan latihan kadar ralat minimum." ]
[ "For learning language models, we used Srilm Toolkit.", "We trained a 5-Grams language model by the Srilm Toolkit." ]
[ "Untuk model bahasa pembelajaran, kami menggunakan Srilm Toolkit.", "Kami melatih model bahasa 5-Gram oleh Srilm Toolkit." ]
[ "Currently, recurrent neural network based models are widely used on natural language processing tasks for excellent performance.", "Using recurrent neural networks has become a very common technique for various Nlp based tasks like language modeling." ]
[ "Pada masa ini, model berasaskan rangkaian saraf berulang digunakan secara meluas pada tugas pemprosesan bahasa semula jadi untuk prestasi yang sangat baik.", "Menggunakan rangkaian saraf berulang telah menjadi teknik yang sangat biasa untuk pelbagai tugas berasaskan Nlp seperti pemodelan bahasa." ]
[ "A pun is a means of expression, the essence of which is in the given context the word or phrase can be understood in two meanings simultaneously (Cite-P-22-3-7).", "The pun is defined as “ a joke exploiting the different possible meanings of a word or the fact that there are words which sound alike but have different meanings ” (Cite-P-7-1-6)." ]
[ "A pun adalah cara ekspresi, intipati yang dalam konteks yang diberikan perkataan atau frasa dapat difahami dalam dua makna serentak (Cite-P-22-3-7).", "Pun ditakrifkan sebagai \"gurauan mengeksploitasi makna yang berbeza dari perkataan atau fakta bahawa ada perkataan yang sama bunyi tetapi mempunyai makna yang berbeza\" (Cite-P-7-1-6)." ]
[ "Interestingly, as reported in, a simple averaging scheme was found to be very competitive to more complex models for high level semantic tasks despite its simplicity.", "As reported in, a simple averaging scheme was found to be very competitive to more complex models for representing a sentence vector." ]
[ "Menariknya, seperti yang dilaporkan pada tahun 2014, skema purata sederhana didapati sangat kompetitif untuk model yang lebih kompleks untuk tugas semantik tahap tinggi walaupun kesederhanaannya.", "Seperti yang dilaporkan dalam, skim purata mudah didapati sangat kompetitif kepada model yang lebih kompleks untuk mewakili vektor ayat." ]
[ "Kambhatla Leverages lexical, syntactic and semantic features, and feeds them to a maximum entropy model.", "Kambhatla employs maximum entropy models to combine diverse lexical, syntactic and semantic features derived from the text for relation extraction." ]
[ "Kambhatla Leverages mempunyai ciri-ciri leksikal, sintaktik dan semantik, dan memberi makan kepada model entropi maksimum.", "Kambhatla menggunakan model entropi maksimum untuk menggabungkan pelbagai ciri leksikal, sintaksis dan semantik yang berasal dari teks untuk pengekstrakan hubungan." ]
[ "For example, indicate the limited coverage of Framenet as one of the main problems of this resource.", "For example, or indicate the limited coverage of Framenet as one of the main problems of this resource." ]
[ "Sebagai contoh, nyatakan liputan terhad Framenet sebagai salah satu masalah utama sumber ini.", "Sebagai contoh, atau menunjukkan liputan terhad Framenet sebagai salah satu masalah utama sumber ini." ]
[ "We used the logistic regression implemented in the Scikit-Learn library with the default settings.", "We used the implementation of random forest in Scikitlearn as the Classifier." ]
[ "Kami menggunakan regresi logistik yang dilaksanakan dalam perpustakaan Scikit-Learn dengan tetapan lalai.", "Kami menggunakan pelaksanaan hutan rawak di Scikitlearn sebagai Pengelas." ]
[ "In this paper, we focus on one of the key Subtasks ¨C answer sentence selection.", "In this paper, we present an experimental study on solving the answer selection problem." ]
[ "Dalam kertas ini, kami memberi tumpuan kepada salah satu pilihan ayat jawapan Subtugas C utama.", "Dalam makalah ini, kami membentangkan kajian eksperimen mengenai penyelesaian masalah pemilihan jawapan." ]
[ "Relation extraction is the task of finding semantic relations between two entities from text.", "Relation extraction is the task of predicting attributes and relations for entities in a sentence (Zelenko et al . , 2003; Bunescu and Mooney , 2005; Guodong et al . , 2005)." ]
[ "Pengekstrakan hubungan adalah tugas mencari hubungan semantik antara dua entiti dari teks.", "Pengekstrakan hubungan adalah tugas meramalkan atribut dan hubungan untuk entiti dalam ayat (Zelenko et al., 2003; Bunescu dan Mooney, 2005; Guodong et al., 2005)." ]