en
sequencelengths 2
2
| ms
sequencelengths 2
2
|
---|---|
[
"The development set is used to optimize feature weights using the Minimum-Error-Rate algorithm.",
"We set the feature weights by optimizing the BLEU score directly using minimum error rate training on the development set."
] | [
"Set pembangunan digunakan untuk mengoptimumkan berat ciri menggunakan algoritma Minimum-Error-Rate.",
"Kami menetapkan berat ciri dengan mengoptimumkan skor BLEU secara langsung menggunakan latihan kadar ralat minimum pada set pembangunan."
] |
[
"Unlike our Dcd algorithm, the Extragradient method requires the learning rate to be specified.",
"Unlike Algorithms such as Perceptron and stochastic gradient descent, our method keeps track of dual variables."
] | [
"Tidak seperti algoritma Dcd kami, kaedah Extragradient memerlukan kadar pembelajaran ditentukan.",
"Tidak seperti Algoritma seperti Perceptron dan keturunan kecerunan stokastik, kaedah kami menjejaki pemboleh ubah ganda."
] |
[
"Motivated by the idea of addressing Wce problem as a sequence labeling process, we employ the conditional random fields for our model training, with Wapiti Toolkit.",
"Motivated by the idea of addressing Wce as a sequence labeling task, we employ the conditional random fields model and the corresponding Wapiti Toolkit to train our Classifier."
] | [
"Didorong oleh idea menangani masalah Wce sebagai proses pelabelan urutan, kami menggunakan medan rawak bersyarat untuk latihan model kami, dengan Wapiti Toolkit.",
"Didorong oleh idea untuk menangani Wce sebagai tugas pelabelan urutan, kami menggunakan model medan rawak bersyarat dan Wapiti Toolkit yang sesuai untuk melatih Pengelas kami."
] |
[
"Our 5-Gram language model was trained by Srilm Toolkit.",
"Our 5-Gram language model is trained by the Sri language modeling Toolkit."
] | [
"Model bahasa 5-Gram kami dilatih oleh Srilm Toolkit.",
"Model bahasa 5-Gram kami dilatih oleh Toolkit pemodelan bahasa Sri."
] |
[
"In the first pass, a resume is Segmented into a consecutive blocks attached with labels indicating the information types.",
"In the first pass, the general information is extracted by Segmenting the entire resume into consecutive blocks."
] | [
"Dalam pas pertama, resume di Segmenkan ke blok berturut-turut yang dilampirkan dengan label yang menunjukkan jenis maklumat.",
"Dalam pas pertama, maklumat umum diekstrak dengan Segmen keseluruhan resume ke blok berturut-turut."
] |
[
"In this line of work, the focus is mainly on article content analysis, as a way to detect new potential translations, rather than link analysis as done in our work.",
"In this line of work, the focus is mainly on article content analysis, as a way to detect new potential translations, rather than link analysis."
] | [
"Dalam bidang kerja ini, tumpuan adalah terutamanya pada analisis kandungan artikel, sebagai cara untuk mengesan terjemahan berpotensi baru, dan bukannya analisis pautan seperti yang dilakukan dalam kerja kami.",
"Dalam baris kerja ini, tumpuan adalah terutamanya pada analisis kandungan artikel, sebagai cara untuk mengesan terjemahan berpotensi baru, dan bukannya analisis pautan."
] |
[
"Translation quality is evaluated by Case-Insensitive Bleu-4 metric.",
"The evaluation metric is Casesensitive Bleu-4."
] | [
"Kualiti terjemahan dinilai oleh metrik Case-Insensitive Bleu-4.",
"Metrik penilaian ialah Casesensitive Bleu-4."
] |
[
"We have introduced the Nus corpus of Learner English (Nucle), a fully Annotated corpus of Learner text.",
"Second, we introduce the Nus corpus of Learner English (Nucle), a fully Annotated one million words corpus of Learner English."
] | [
"Kami telah memperkenalkan Nus corpus of Learner English (Nucle), corpus Annotated sepenuhnya teks Learner.",
"Kedua, kami memperkenalkan Nus corpus of Learner English (Nucle), sebuah corpus Bahasa Inggeris Learner English yang diberi nama sepenuhnya."
] |
[
"In this work, we present a hybrid learning method for training Task-Oriented dialogue systems through Online user interactions.",
"In this work, we focus on training Task-Oriented dialogue systems through user interactions."
] | [
"Dalam kerja ini, kami membentangkan kaedah pembelajaran hibrid untuk melatih sistem dialog Berorientasikan Tugas melalui interaksi pengguna dalam talian.",
"Dalam kerja ini, kami memberi tumpuan kepada latihan sistem dialog Berorientasikan Tugas melalui interaksi pengguna."
] |
[
"Based on Tai et al, Miwa and Bansal introduced a tree Lstm model that can handle different types of children.",
"Later, Miwa and Bansal have implemented an end-to-end neural network to construct a context representation for joint entity and relation extraction."
] | [
"Berdasarkan Tai et al, Miwa dan Bansal memperkenalkan model Lstm pokok yang boleh mengendalikan pelbagai jenis kanak-kanak.",
"Kemudian, Miwa dan Bansal telah melaksanakan rangkaian saraf hujung-ke-hujung untuk membina perwakilan konteks untuk entiti bersama dan pengekstrakan hubungan."
] |
[
"Information extraction (Ie) is a technology that can be applied to identifying both sources and targets of new Hyperlinks.",
"Information extraction (Ie) is the task of extracting factual assertions from text."
] | [
"Pengekstrakan maklumat (Ie) adalah teknologi yang boleh digunakan untuk mengenal pasti kedua-dua sumber dan sasaran Hyperlinks baru.",
"Pengekstrakan maklumat (Ie) adalah tugas untuk mengekstrak pernyataan fakta dari teks."
] |
[
"All Corpora were Preprocessed using the standard Moses scripts to perform Normalization, Tokenization, and Truecasing.",
"The pipeline consisted in Normalizing punctuation, Tokenization and Truecasing using the standard Moses scripts."
] | [
"Semua Corpora telah diproses menggunakan skrip Musa standard untuk melakukan Normalisasi, Tokenisasi, dan Truecasing.",
"Saluran paip ini terdiri daripada Normalisasi tanda baca, Tokenisasi dan Truecasing menggunakan skrip Musa standard."
] |
[
"We use 300-Dimensional word Embeddings from glove to Initialize the model.",
"We use the Pre-Trained glove vectors to Initialize word Embeddings."
] | [
"Kami menggunakan Embedding perkataan 300 dimensi dari sarung tangan untuk Memulakan model.",
"Kami menggunakan vektor sarung tangan Pra-Latih untuk Memulakan Embedding perkataan."
] |
[
"For the fluency and Grammaticality features, we train 4-Gram LMS using the development Dataset with the Sri Toolkit.",
"We train a 5-Gram language model with the Xinhua portion of English Gigaword corpus and the English side of the training set using the Srilm Toolkit."
] | [
"Untuk kefasihan dan ciri Grammaticality, kami melatih LMS 4-Gram menggunakan Dataset pembangunan dengan Sri Toolkit.",
"Kami melatih model bahasa 5-Gram dengan bahagian Xinhua Gigaword corpus bahasa Inggeris dan bahagian bahasa Inggeris set latihan menggunakan Srilm Toolkit."
] |
[
"Two popular evaluation Metrics Nist and BLEU were chosen for automatic evaluation.",
"For the automatic evaluation the two most popular and widely used Metrics BLEU and Nist were used."
] | [
"Dua penilaian popular Metrics Nist dan BLEU dipilih untuk penilaian automatik.",
"Untuk penilaian automatik, dua Metrik BLEU dan Nist yang paling popular dan digunakan secara meluas digunakan."
] |
[
"Sentence compression is a task of creating a short grammatical sentence by removing extraneous words or phrases from an original sentence while preserving its meaning.",
"Sentence compression is the task of compressing long, Verbose sentences into short, concise ones."
] | [
"Pemampatan ayat adalah tugas untuk mencipta ayat tatabahasa pendek dengan mengeluarkan perkataan atau frasa yang luar biasa dari ayat asal sambil mengekalkan maknanya.",
"Pemampatan ayat adalah tugas memampatkan ayat panjang, ayat Verbose menjadi pendek, ringkas."
] |
[
"The feature weights 位 I are trained in concert with the LM weight via minimum error rate training.",
"The corresponding weight is trained through minimum error rate method."
] | [
"Berat ciri Saya dilatih secara konsert dengan berat LM melalui latihan kadar ralat minimum.",
"Berat yang sepadan dilatih melalui kaedah kadar ralat minimum."
] |
[
"Particle swarm optimization is an evolutionary technique, inspired by the social behavior of birds.",
"Particle swarm optimization (PSO) is a Meta-Heuristic intelligent technique inspired by social behavior of the swarm."
] | [
"Pengoptimuman swarm zarah adalah teknik evolusi, yang diilhamkan oleh tingkah laku sosial burung.",
"Pengoptimuman swarm zarah (PSO) adalah teknik pintar Meta-Heuristik yang diilhamkan oleh tingkah laku sosial swarm."
] |
[
"In this paper, we present a survey on Taxonomy learning from text Corpora.",
"In this paper, we overview recent advances on Taxonomy."
] | [
"Dalam makalah ini, kami menyajikan survei tentang Pembelajaran Taksonomi dari teks Corpora.",
"Dalam makalah ini, kita melihat kemajuan baru-baru ini mengenai Taksonomi."
] |
[
"In this paper, we proposed a way to extend the size of the target vocabulary for neural machine translation.",
"In this paper, we use a specific implementation of neural machine translation."
] | [
"Dalam makalah ini, kami mencadangkan cara untuk memperluas saiz perbendaharaan kata sasaran untuk terjemahan mesin saraf.",
"Dalam kertas kerja ini, kita menggunakan pelaksanaan terjemahan mesin saraf tertentu."
] |
[
"We use the Word2Vec framework in the Gensim implementation to generate the Embedding spaces.",
"We derive 100-Dimensional word vectors using Word2Vec Skip-Gram model trained over the domain corpus."
] | [
"Kami menggunakan kerangka Word2Vec dalam pelaksanaan Gensim untuk menghasilkan ruang Embedding.",
"Kami memperoleh vektor perkataan 100 dimensi menggunakan model Skip-Gram Word2Vec yang dilatih melalui korpus domain."
] |
[
"Language models were built using the Sri language modeling Toolkit with modified Kneser-Ney smoothing.",
"We used a 5-Gram language model with modified Kneser-Ney smoothing implemented using the Srilm Toolkit."
] | [
"Model bahasa dibina menggunakan Toolkit pemodelan bahasa Sri dengan smoothing Kneser-Ney yang diubahsuai.",
"Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai yang dilaksanakan menggunakan Srilm Toolkit."
] |
[
"We use a random forest Classifier, as implemented in Scikit-Learn.",
"We used the implementation of random forest in Scikitlearn as the Classifier."
] | [
"Kami menggunakan Classifier hutan rawak, seperti yang dilaksanakan dalam Scikit-Learn.",
"Kami menggunakan pelaksanaan hutan rawak di Scikitlearn sebagai Pengelas."
] |
[
"We also proposed a novel method (I.E ., adaptation) to add Discriminative information to such Embeddings.",
"We also propose a method to adapt Embeddings for each classification task."
] | [
"Kami juga mencadangkan kaedah novel (I.E., penyesuaian) untuk menambah maklumat Diskriminatif kepada Embeddings tersebut.",
"Kami juga mencadangkan kaedah untuk menyesuaikan Embeddings untuk setiap tugas klasifikasi."
] |
[
"Machine translation models typically require large, Sentence-Aligned bilingual texts to learn good translation models.",
"Phrase-Based translation models are widely used in statistical machine translation."
] | [
"Model terjemahan mesin biasanya memerlukan teks dwibahasa yang besar dan bertandatangan untuk mempelajari model terjemahan yang baik.",
"Model terjemahan berasaskan frasa digunakan secara meluas dalam terjemahan mesin statistik."
] |
[
"As Embedding vectors, we used the publicly available representations obtained from the Word2Vec Cbow model.",
"In both cases, we computed 1 the word Embeddings using the Word2Vec implementation of Gensim."
] | [
"Sebagai vektor Embedding, kami menggunakan perwakilan yang tersedia secara terbuka yang diperoleh daripada model Word2Vec Cbow.",
"Dalam kedua-dua kes, kami mengira 1 perkataan Embeddings menggunakan pelaksanaan Word2Vec Gensim."
] |
[
"Combined with simple Thresholding, this method can be used to give a 58% reduction in grammar size without significant change in Parsing performance, and can produce a 69% reduction with some gain in recall, but a loss in precision.",
"The fully compacted grammar produces lower Parsing performance than the extracted grammar, a 58% reduction (without loss) can still be achieved by using linguistic Compaction, and 69% reduction yields a gain in recall, but a loss in precision."
] | [
"Digabungkan dengan Thresholding mudah, kaedah ini boleh digunakan untuk memberikan pengurangan 58% dalam saiz tatabahasa tanpa perubahan ketara dalam prestasi Parsing, dan boleh menghasilkan pengurangan 69% dengan beberapa keuntungan dalam penarikan balik, tetapi kerugian dalam ketepatan.",
"Tatabahasa yang dipadat sepenuhnya menghasilkan prestasi Parsing yang lebih rendah daripada tatabahasa yang diekstrak, pengurangan 58% (tanpa kerugian) masih boleh dicapai dengan menggunakan Kompak linguistik, dan pengurangan 69% menghasilkan keuntungan dalam penarikan balik, tetapi kerugian dalam ketepatan."
] |
[
"We chose to take up the evaluation method proposed in.",
"We have achieved a first evaluation based on the methodology defined in."
] | [
"Kami memilih untuk mengambil kaedah penilaian yang dicadangkan dalam.",
"Kami telah mencapai penilaian pertama berdasarkan metodologi yang ditakrifkan dalam."
] |
[
"The Phrase-Based model segments a bilingual sentence pair into phrases that are continuous sequences of words.",
"Phrase-Based Smt segments a bilingual sentence pair into phrases that are continuous sequences of words or discontinuous sequences of words."
] | [
"Model Berasaskan Frasa segmen pasangan ayat dwibahasa ke dalam frasa yang merupakan urutan perkataan yang berterusan.",
"Smt Berasaskan Frasa segmen pasangan ayat dwibahasa ke dalam frasa yang merupakan urutan kata berterusan atau urutan kata yang tidak berterusan."
] |
[
"Bahdanau et al propose integrating an attention mechanism in the Decoder, which is trained to determine on which portions of the source sentence to focus.",
"Bahdanau et al extend the vanilla Encoder-Decoder Nmt framework by adding a small Feed-Forward neural network which learns which word in the source sentence is relevant for predicting the next word in the target sequence."
] | [
"Bahdanau et al mencadangkan mengintegrasikan mekanisme perhatian dalam Decoder, yang dilatih untuk menentukan bahagian mana ayat sumber untuk memberi tumpuan.",
"Bahdanau et al extends vanilla Encoder-Decoder Nmt framework by adding a small Feed-Forward neural network which learns which word in the source sentence is relevant for predicting the next word in the target sequence."
] |
[
"In this paper we propose a Phrase-Based framework for the task of Cross-Language document summarization.",
"Utilizing the phrase alignment information, we design a scoring scheme for the Cross-Language document summarization task."
] | [
"Dalam makalah ini kami mencadangkan rangka kerja Berasaskan Frasa untuk tugas ringkasan dokumen Cross-Language.",
"Menggunakan maklumat penjajaran frasa, kami merancang skema pemarkahan untuk tugas meringkaskan dokumen Cross-Language."
] |
[
"Automatic evaluation results in terms of BLEU scores are provided in Table 2.",
"The results evaluated by BLEU score is shown in Table 2."
] | [
"Keputusan penilaian automatik dari segi skor BLEU disediakan dalam Jadual 2.",
"Keputusan yang dinilai oleh skor BLEU ditunjukkan dalam Jadual 2."
] |
[
"Kalchbrenner et al proposed to extend Cnns Max-Over-Time pooling to K-Max pooling for sentence modeling.",
"Kalchbrenner et al , 2014) proposes a CNN framework with multiple Convolution layers, with latent, dense and Low-Dimensional word Embeddings as inputs."
] | [
"Kalchbrenner et al dicadangkan untuk memanjangkan Cnns Max-Over-Time pooling ke K-Max pooling untuk pemodelan ayat.",
"Kalchbrenner et al, 2014) mencadangkan rangka kerja CNN dengan lapisan Convolution berganda, dengan perkataan laten, padat dan Low-Dimensional Embeddings sebagai input."
] |
[
"We use Skip-Gram with negative sampling for obtaining the word Embeddings.",
"We use the Word2Vec tool to train Monolingual vectors , 6 and the Cca-Based tool for projecting word vectors."
] | [
"Kami menggunakan Skip-Gram dengan persampelan negatif untuk mendapatkan perkataan Embeddings.",
"Kami menggunakan alat Word2Vec untuk melatih vektor Monolingual, 6 dan alat Cca-Based untuk memproyeksikan vektor perkataan."
] |
[
"Currently, studies are mainly concerned with the Binary evaluation of humor, whether it is funny or not.",
"However, most recent studies are concerned with a Binary perspective over humor."
] | [
"Pada masa ini, kajian terutamanya berkaitan dengan penilaian humor Binari, sama ada lucu atau tidak.",
"Walau bagaimanapun, kajian terbaru berkaitan dengan perspektif binari mengenai humor."
] |
[
"We use a combination of negative sampling and Hierachical Softmax via Backpropagation.",
"We use negative sampling to approximate Softmax in the objective function."
] | [
"Kami menggunakan gabungan persampelan negatif dan Hierachical Softmax melalui Backpropagation.",
"Kami menggunakan persampelan negatif untuk menghampiri Softmax dalam fungsi objektif."
] |
[
"Sarcasm, commonly defined as ‘ an ironical taunt used to express contempt ’, is a challenging Nlp problem due to its highly figurative nature.",
"Sarcasm is defined as ‘ a cutting, often ironic remark intended to express contempt or ridicule ’ 1."
] | [
"Sarcasm, biasanya ditakrifkan sebagai ejekan ironis yang digunakan untuk menyatakan penghinaan, adalah masalah Nlp yang mencabar kerana sifatnya yang sangat kiasan.",
"Sarcasm ditakrifkan sebagai potong, sering ironis kenyataan yang bertujuan untuk menyatakan penghinaan atau ejekan 1."
] |
[
"Script knowledge is a form of structured world knowledge that is useful in Nlp applications for natural language understanding tasks (E.G ., ambiguity resolution Rahman and Ng , 2012), as well as for Psycholinguistic models of human language processing, which need to represent event knowledge to model human expectations (Cite-P-15-3-5, Cite-P-15-3-4) of upcoming Referents and utterances.",
"Script knowledge is a body of knowledge that describes a typical sequence of actions people do in a particular situation (Cite-P-7-1-6)."
] | [
"Pengetahuan skrip adalah satu bentuk pengetahuan dunia berstruktur yang berguna dalam aplikasi Nlp untuk tugas pemahaman bahasa semula jadi (E.G., resolusi kekaburan Rahman dan Ng, 2012), serta untuk model Psikologistik pemprosesan bahasa manusia, yang perlu mewakili pengetahuan peristiwa untuk memodelkan harapan manusia (Cite-P-15-3-5, Cite-P-15-3-4) Rujukan dan ucapan yang akan datang.",
"Pengetahuan skrip adalah badan pengetahuan yang menerangkan urutan tindakan yang biasa dilakukan orang dalam situasi tertentu (Cite-P-7-1-6)."
] |
[
"In conversational systems, understanding user intent is the key to the success of the interaction.",
"Identification of user intent also has important implications in building intelligent conversational Qa systems."
] | [
"Dalam sistem perbualan, memahami niat pengguna adalah kunci kejayaan interaksi.",
"Pengenalan niat pengguna juga mempunyai implikasi penting dalam membina sistem Qa perbualan pintar."
] |
[
"Relation extraction is the task of detecting and characterizing semantic relations between entities from free text.",
"Relation extraction is a key step towards question answering systems by which vital structured data is acquired from underlying free text resources."
] | [
"Pengekstrakan hubungan adalah tugas mengesan dan mencirikan hubungan semantik antara entiti dari teks percuma.",
"Pengekstrakan hubungan adalah langkah utama ke arah sistem menjawab soalan di mana data berstruktur penting diperoleh dari sumber teks bebas yang mendasari."
] |
[
"Twitter is a widely used Microblogging environment which serves as a medium to share opinions on various events and products.",
"Twitter is a very popular Micro Blogging site."
] | [
"Twitter adalah persekitaran Microblogging yang banyak digunakan yang berfungsi sebagai medium untuk berkongsi pendapat mengenai pelbagai acara dan produk.",
"Twitter adalah laman web Micro Blogging yang sangat popular."
] |
[
"As a strong baseline, we trained the Skip-Gram model of Mikolov et al using the publicly available Word2Vec 5 software.",
"We Pretrain word vectors with the Word2Vec tool on the news Dataset released by Ding et al, which are Fine-Tuned during training."
] | [
"Sebagai asas yang kuat, kami melatih model Skip-Gram Mikolov et al menggunakan perisian Word2Vec 5 yang tersedia secara terbuka.",
"Kami Pretrain vektor perkataan dengan alat Word2Vec pada Dataset berita yang dikeluarkan oleh Ding et al, yang Fine-Tuned semasa latihan."
] |
[
"Ckbs like Wikipedia and Wiktionary, which have been applied in computational methods only recently, offer new possibilities to tackle this problem.",
"Like Wikipedia and Wiktionary, which have been applied in computational methods only recently, offer new possibilities to enhance information Retrieval."
] | [
"Ckbs seperti Wikipedia dan Wiktionary, yang telah digunakan dalam kaedah pengiraan baru-baru ini, menawarkan kemungkinan baru untuk menangani masalah ini.",
"Seperti Wikipedia dan Wiktionary, yang telah digunakan dalam kaedah pengiraan baru-baru ini, menawarkan kemungkinan baru untuk meningkatkan pengambilan maklumat."
] |
[
"Section 2 briefly describes the related work on both zero Anaphora resolution and tree Kernel-Based Anaphora resolution.",
"Briefly Overviews the related work on both zero Anaphora resolution and tree Kernel-Based Anaphora resolution."
] | [
"Seksyen 2 secara ringkas menerangkan kerja berkaitan pada kedua-dua resolusi Anaphora sifar dan resolusi Anaphora berasaskan Kernel pokok.",
"Gambaran ringkas kerja berkaitan pada kedua-dua resolusi Anaphora sifar dan resolusi Anaphora berasaskan Kernel pokok."
] |
[
"For implementation, we used the Liblinear package with all of its default parameters.",
"We use the SVM implementation available in the Li-Blinear package."
] | [
"Untuk pelaksanaan, kami menggunakan pakej Liblinear dengan semua parameter lalainya.",
"Kami menggunakan pelaksanaan SVM yang terdapat dalam pakej Li-Blinear."
] |
[
"Dependency Parsing is a core task in Nlp, and it is widely used by many applications such as information extraction, question answering, and machine translation.",
"Dependency Parsing is the task of building dependency links between words in a sentence, which has recently gained a wide interest in the natural language processing community and has been used for many problems ranging from machine translation (Cite-P-12-1-4) to question answering (Zhou et al . , 2011A)."
] | [
"Dependency Parsing adalah tugas teras dalam Nlp, dan ia digunakan secara meluas oleh banyak aplikasi seperti pengekstrakan maklumat, jawapan soalan, dan terjemahan mesin.",
"Penghuraian kebergantungan adalah tugas membina hubungan kebergantungan antara perkataan dalam ayat, yang baru-baru ini mendapat minat yang luas dalam komuniti pemprosesan bahasa semula jadi dan telah digunakan untuk banyak masalah mulai dari terjemahan mesin (Cite-P-12-1-4) hingga menjawab soalan (Zhou et al., 2011A)."
] |
[
"In this paper, we propose a method to identify important segments of textual data for analysis from full transcripts of conversations.",
"In this paper, we have proposed methods for identifying appropriate segments and expressions automatically from the data."
] | [
"Dalam makalah ini, kami mencadangkan kaedah untuk mengenal pasti segmen penting data teks untuk analisis dari transkrip perbualan penuh.",
"Dalam kertas kerja ini, kami telah mencadangkan kaedah untuk mengenal pasti segmen dan ungkapan yang sesuai secara automatik dari data."
] |
[
"In this paper, we presented a method that automatically generates an NE tagged corpus using enormous web documents.",
"In this paper, we present a method that automatically Constructs a named entity (NE) tagged corpus from the web."
] | [
"Dalam makalah ini, kami membentangkan kaedah yang secara automatik menghasilkan korpus bertanda NE menggunakan dokumen web yang sangat besar.",
"Dalam makalah ini, kami membentangkan kaedah yang secara automatik Membina entiti bernama (NE) yang ditandai korpus dari web."
] |
[
"In this study, we address the problem of extracting relations between entities from Wikipedia¡¯S English articles.",
"Study is intended to deal with the problem of extracting Binary relations between entity pairs from Wikipedia ¡¯ s English version."
] | [
"Dalam kajian ini, kami menangani masalah mengekstrak hubungan antara entiti dari artikel Wikipedia Bahasa Inggeris.",
"Kajian ini bertujuan untuk menangani masalah mengekstrak hubungan binari antara pasangan entiti dari Wikipedia versi Bahasa Inggeris."
] |
[
"Semantic role labeling (SRL) is the task of automatically labeling Predicates and arguments in a sentence with shallow semantic labels.",
"Semantic role labeling (SRL) is the task of labeling Predicate-Argument structure in sentences with shallow semantic information."
] | [
"Pelabelan peranan semantik (SRL) adalah tugas pelabelan secara automatik Predicates dan argumen dalam ayat dengan label semantik cetek.",
"Pelabelan peranan semantik (SRL) adalah tugas pelabelan struktur Predicate-Argument dalam ayat dengan maklumat semantik cetek."
] |
[
"We use word Embedding Pre-Trained on Newswire with 300 dimensions from Word2Vec.",
"Word Embeddings have been trained using Word2Vec 4 tool."
] | [
"Kami menggunakan perkataan Embedding Pre-Trained pada Newswire dengan 300 dimensi dari Word2Vec.",
"Embedding Word telah dilatih menggunakan alat Word2Vec 4."
] |
[
"In this work, we examine the use of Ecoc for improving Centroid text Classifier.",
"In this work, we explore the use of Ecoc to enhance the performance of Centroid Classifier."
] | [
"Dalam kerja ini, kami mengkaji penggunaan Ecoc untuk meningkatkan Klasifikasi teks Centroid.",
"Dalam kerja ini, kami meneroka penggunaan Ecoc untuk meningkatkan prestasi Centroid Classifier."
] |
[
"An English 5-Gram language model is trained using Kenlm on the Gigaword corpus.",
"The Smt systems used a Kenlm 5-Gram language model, trained on the Mono-Lingual data from WMT 2015."
] | [
"Model bahasa 5-Gram Inggeris dilatih menggunakan Kenlm pada korpus Gigaword.",
"Sistem Smt menggunakan model bahasa Kenlm 5-Gram, dilatih pada data Mono-Lingual dari WMT 2015."
] |
[
"The Corpus was processed with the mate dependency Parser.",
"The Dependencies were obtained using the mate Parser."
] | [
"Corpus diproses dengan penghurai dependensi pasangan.",
"Dependensi diperolehi menggunakan penghurai pasangan."
] |
[
"This transformation at most doubles the grammar ’ s rank and cubes its size, but we show that in practice the size increase is only quadratic.",
"At most cubes the grammar size, but we show empirically that the size increase is only quadratic."
] | [
"Transformasi ini paling menggandakan pangkat tatabahasa dan kiub saiznya, tetapi kami menunjukkan bahawa dalam praktiknya peningkatan saiz hanya kuadratik.",
"Pada kebanyakan kiub saiz tatabahasa, tetapi kami menunjukkan secara empirikal bahawa peningkatan saiz hanya kuadratik."
] |
[
"Toutanova and Moore improve the model by incorporating Pronunciation information.",
"Toutanova and Moore improved this approach by extending the error model with phonetic similarities over words."
] | [
"Toutanova dan Moore meningkatkan model dengan memasukkan maklumat Sebutan.",
"Toutanova dan Moore memperbaiki pendekatan ini dengan memanjangkan model ralat dengan persamaan fonetik berbanding perkataan."
] |
[
"In this paper, we have proposed a Semi-Supervised Hierarchical topic models, I.E . Sshlda, which aims to solve the drawbacks of Hlda and Hllda while combine their merits.",
"We propose a joint, Generative Semi-Supervised Hierarchical topic model, I . E . Semi-Supervised Hierarchical latent Dirichlet allocation (Sshlda), to overcome the defects of Hlda and Hllda while combining the their merits."
] | [
"Dalam makalah ini, kami telah mencadangkan model topik Hierarki Semi-Supervised, I.E. Sshlda, yang bertujuan untuk menyelesaikan kelemahan Hlda dan Hllda sambil menggabungkan merit mereka.",
"Kami mencadangkan model topik Hierarki Semi-Supervised Generatif, I. E. Peruntukan Dirichlet laten Hierarki Semi-Supervised (Sshlda), untuk mengatasi kecacatan Hlda dan Hllda sambil menggabungkan merit mereka."
] |
[
"As there is no available public data in Chinese, we Annotate 25K Chinese sentences manually for training and testing.",
"As there is no available public data in Chinese, we Annotate 25K Chinese sentences manually."
] | [
"Oleh kerana tidak ada data awam yang tersedia dalam bahasa Cina, kami Annotate 25K ayat Cina secara manual untuk latihan dan ujian.",
"Oleh kerana tidak ada data awam yang tersedia dalam bahasa Cina, kami Annotate 25K ayat Cina secara manual."
] |
[
"Grosz and Sidner claim that discourse Segmentation is an important factor, though obviously not the only one, governing the use of referring expressions.",
"Grosz and Sidner argue that such relations between intentions are a crucial part of intentional structure."
] | [
"Grosz dan Sidner mendakwa bahawa Segmentasi wacana adalah faktor penting, walaupun jelas bukan satu-satunya, yang mengawal penggunaan ungkapan rujukan.",
"Grosz dan Sidner berpendapat bahawa hubungan antara niat tersebut merupakan bahagian penting dalam struktur yang disengajakan."
] |
[
"Relation extraction is a crucial task in the field of natural language processing (Nlp).",
"Relation extraction (re) is the task of assigning a semantic relationship between a pair of arguments."
] | [
"Pengekstrakan hubungan adalah tugas penting dalam bidang pemprosesan bahasa semula jadi (Nlp).",
"Pengekstrakan hubungan (re) adalah tugas untuk menetapkan hubungan semantik antara sepasang hujah."
] |
[
"Adapting Lda for Selectional preference modeling was suggested independently By脫 S茅Aghdha and Ritter, Mausam, and Etzioni.",
"Ritter and Etzioni proposed a Generative approach to use extended Lda to model Selectional preferences."
] | [
"Menyesuaikan Lda untuk pemodelan pilihan pilihan telah dicadangkan secara bebas oleh SAghdha dan Ritter, Mausam, dan Etzioni.",
"Ritter dan Etzioni mencadangkan pendekatan Generatif untuk menggunakan Lda yang diperluaskan kepada pilihan Selectional model."
] |
[
"We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing.",
"We used Srilm to build a 4-Gram language model with Kneser-Ney discounting."
] | [
"Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai.",
"Kami menggunakan Srilm untuk membina model bahasa 4-Gram dengan diskaun Kneser-Ney."
] |
[
"To break this bottleneck, some recent studies exploit Bootstrapping or Unsupervised techniques.",
"To avoid this problem, some recent studies exploit Bootstrapping or Unsupervised techniques."
] | [
"Untuk memecahkan halangan ini, beberapa kajian baru-baru ini mengeksploitasi teknik Bootstrapping atau Unsupervised.",
"Untuk mengelakkan masalah ini, beberapa kajian baru-baru ini mengeksploitasi teknik Bootstrapping atau Unsupervised."
] |
[
"In recent years there has been increasing interest in improving the quality of Smt systems over a wide range of linguistic phenomena, including Coreference resolution and modality.",
"In recent years, there has been increasing interest in improving the quality of Smt systems over a wide range of linguistic phenomena, including Coreference resolution and modality."
] | [
"Dalam tahun-tahun kebelakangan ini terdapat peningkatan minat dalam meningkatkan kualiti sistem Smt dalam pelbagai fenomena linguistik, termasuk resolusi Coreference dan modaliti.",
"Dalam tahun-tahun kebelakangan ini, terdapat peningkatan minat dalam meningkatkan kualiti sistem Smt dalam pelbagai fenomena linguistik, termasuk resolusi Coreference dan modaliti."
] |
[
"Specifically, we tested the methods Word2Vec using the Gensim Word2Vec package and Pretrained glove word Embeddings.",
"We Initialize the Embedding layer using Embeddings from dedicated word Embedding techniques Word2Vec and glove."
] | [
"Khususnya, kami menguji kaedah Word2Vec menggunakan pakej Gensim Word2Vec dan Embedding kata sarung tangan Pretrained.",
"Kami Memulakan lapisan Embedding menggunakan Embeddings dari teknik Embedding perkataan khusus Word2Vec dan sarung tangan."
] |
[
"We apply this method to English Pos tagging and Japanese morphological analysis.",
"We apply this method to English Part-Of-Speech tagging and Japanese morphological analysis."
] | [
"Kami menggunakan kaedah ini untuk penandaan Pos Bahasa Inggeris dan analisis morfologi Jepun.",
"Kami menggunakan kaedah ini untuk penandaan Bahagian Bahasa Inggeris dan analisis morfologi Jepun."
] |
[
"We learn our word Embeddings by using Word2Vec 3 on Unlabeled review data.",
"We used Word2Vec, a powerful continuous Bag-Of-Words model to train word similarity."
] | [
"Kami mempelajari perkataan Embeddings kami dengan menggunakan Word2Vec 3 pada data ulasan yang tidak berlabel.",
"Kami menggunakan Word2Vec, model Bag-Of-Words berterusan yang kuat untuk melatih persamaan perkataan."
] |
[
"Language consists of much more than just content.",
"Language is a weaker source of supervision for Colorization than user clicks."
] | [
"Bahasa terdiri daripada lebih daripada sekadar kandungan.",
"Bahasa adalah sumber pengawasan yang lebih lemah untuk Colorization daripada klik pengguna."
] |
[
"The Statistics for these Datasets are summarized in settings we use glove vectors with 840B tokens as the Pre-Trained word Embeddings.",
"For the Actioneffect Embedding model, we use Pre-Trained glove word Embeddings as input to the Lstm."
] | [
"Statistik untuk Dataset ini diringkaskan dalam tetapan yang kami gunakan vektor sarung tangan dengan token 840B sebagai Embedding perkataan Pra-Latih.",
"Untuk model Embedding Kesan Tindakan, kami menggunakan Embedding perkataan sarung tangan Pra-Latih sebagai input ke Lstm."
] |
[
"Lexical analogies occur frequently in text and are useful in various natural language processing tasks.",
"Lexical analogies also have applications in word sense Disambiguation, information extraction, Question-Answering, and semantic relation classification."
] | [
"Analogi leksikal sering berlaku dalam teks dan berguna dalam pelbagai tugas pemprosesan bahasa semula jadi.",
"Analogi leksikal juga mempunyai aplikasi dalam pengertian kata Disambiguation, pengekstrakan maklumat, Question-Answering, dan pengelasan hubungan semantik."
] |
[
"We used the target side of the parallel corpus and the Srilm Toolkit to train a 5-Gram language model.",
"We use Srilm to train a 5-Gram language model on the target side of our training corpus with modified Kneser-Ney discounting."
] | [
"Kami menggunakan sisi sasaran korpus selari dan Srilm Toolkit untuk melatih model bahasa 5-Gram.",
"Kami menggunakan Srilm untuk melatih model bahasa 5-Gram di sisi sasaran korpus latihan kami dengan diskaun Kneser-Ney yang diubahsuai."
] |
[
"3 in the literature (Cite-P-13-3-5, Cite-P-13-3-12), translating Romanized Japanese or Chinese names to Chinese characters is also known as Back-Transliteration.",
"Recovering the original word from the Transliterated target is called Back-Transliteration."
] | [
"3 dalam kesusasteraan (Cite-P-13-3-5, Cite-P-13-3-12), menterjemahkan nama-nama Jepun atau Cina yang dirombak kepada aksara Cina juga dikenali sebagai Transliterasi Kembali.",
"Memulihkan perkataan asal dari sasaran Transliterated dipanggil Back-Transliteration."
] |
[
"We employed the machine learning tool of Scikit-Learn 3, for training the Classifier.",
"We used the Scikit-Learn implementation of Svrs and the Skll Toolkit."
] | [
"Kami menggunakan alat pembelajaran mesin Scikit-Learn 3, untuk melatih Pengelas.",
"Kami menggunakan pelaksanaan Scikit-Learn Svrs dan Skll Toolkit."
] |
[
"It is well known that support vector machine methods are very suitable for this task.",
"As noted in Joachims, support vector machines are well suited for text Categorisation."
] | [
"Adalah diketahui bahawa kaedah mesin vektor sokongan sangat sesuai untuk tugas ini.",
"Seperti yang dinyatakan dalam Joachims, mesin vektor sokongan sangat sesuai untuk Categorisation teks."
] |
[
"We used the Phrasebased translation system in Moses 5 as a baseline Smt system.",
"We use the constrained decoding feature included in Moses to this purpose."
] | [
"Kami menggunakan sistem terjemahan berasaskan frasa dalam Musa 5 sebagai sistem Smt asas.",
"Kita menggunakan ciri penyahkodan yang terhad termasuk dalam Musa untuk tujuan ini."
] |
[
"The Srilm Toolkit was used for training the language models using Kneser-Ney smoothing.",
"We further used a 5-Gram language model trained using the Srilm Toolkit with modified Kneser-Ney smoothing."
] | [
"Srilm Toolkit digunakan untuk melatih model bahasa menggunakan smoothing Kneser-Ney.",
"Kami menggunakan model bahasa 5-Gram yang dilatih menggunakan Srilm Toolkit dengan smoothing Kneser-Ney yang diubahsuai."
] |
[
"In this paper, we introduce an Em-Based approach with argument type checking and ontological constraints to automatically map verb phrases to KB relations.",
"We propose a Scalable Em-Based method that automatically maps verb phrases to KB relations by using the mentions of the verb phrases with the relation instances."
] | [
"Dalam makalah ini, kami memperkenalkan pendekatan berasaskan Em dengan pemeriksaan jenis argumen dan kekangan ontologi untuk memetakan frasa kata kerja secara automatik ke hubungan KB.",
"Kami mencadangkan kaedah Scalable Em-Based yang secara automatik memetakan frasa kata kerja ke hubungan KB dengan menggunakan sebutan frasa kata kerja dengan contoh hubungan."
] |
[
"Word sense Disambiguation (Wsd) is a fundamental task and Long-Standing challenge in natural language processing (Nlp).",
"Word sense Disambiguation (Wsd) is a natural language processing (Nlp) task in which the correct meaning (sense) of a word in a given context is to be determined."
] | [
"Disambiguasi erti kata (Wsd) adalah tugas asas dan cabaran Long-Standing dalam pemprosesan bahasa semula jadi (Nlp).",
"Disambiguasi erti kata (Wsd) ialah tugas pemprosesan bahasa semula jadi (Nlp) di mana makna (rasa) yang betul perkataan dalam konteks tertentu perlu ditentukan."
] |
[
"We used a 5-Gram language model with modified Kneser-Ney smoothing, built with the Srilm Toolkit.",
"We trained a standard 5-Gram language model with modified Kneser-Ney smoothing using the Kenlm Toolkit on 4 billion running words."
] | [
"Kami menggunakan model bahasa 5-Gram dengan smoothing Kneser-Ney yang diubahsuai, dibina dengan Srilm Toolkit.",
"Kami melatih model bahasa 5-Gram standard dengan smoothing Kneser-Ney yang diubahsuai menggunakan Kenlm Toolkit pada 4 bilion perkataan berjalan."
] |
[
"The translation quality is evaluated by Case-Insensitive Bleu-4.",
"The evaluation metric for the overall translation quality was Case-Insensitive Bleu4."
] | [
"Kualiti terjemahan dinilai oleh Case-Insensitive Bleu-4.",
"Metrik penilaian untuk kualiti terjemahan keseluruhan adalah Case-Insensitive Bleu4."
] |
[
"This model first Embeds the words using 300 dimensional word Embeddings created using the glove method.",
"We use 300-Dimensional word Embeddings from glove to Initialize the model."
] | [
"Model ini pertama kali mengekspresikan perkataan menggunakan 300 dimensi perkataan yang dicipta menggunakan kaedah sarung tangan.",
"Kami menggunakan Embedding perkataan 300 dimensi dari sarung tangan untuk Memulakan model."
] |
[
"We used Yamcha, a multi-purpose Chunking tool, to train our word Segmentation models.",
"We used Yamcha to detect named entities, and we trained it on the Semeval Full-Text training sets."
] | [
"Kami menggunakan Yamcha, alat Chunking pelbagai guna, untuk melatih model Segmentasi perkataan kami.",
"Kami menggunakan Yamcha untuk mengesan entiti yang dinamakan, dan kami melatihnya pada set latihan Semeval Full-Text."
] |
[
"In order to explore them, we introduce a Traversal algorithm based on user pages.",
"In order to do so, we perform Traversals of the platforms and use already available tools to filter the Urls."
] | [
"Untuk meneroka mereka, kami memperkenalkan algoritma Traversal berdasarkan halaman pengguna.",
"Untuk berbuat demikian, kami melakukan Traversals platform dan menggunakan alat yang sudah ada untuk menapis Urls."
] |
[
"In our work, we use latent Dirichlet allocation to identify the Sub-Topics in the given body of texts.",
"To get the the Sub-Fields of the community, we use latent Dirichlet allocation to find topics and label them by hand."
] | [
"Dalam kerja kami, kami menggunakan peruntukan Dirichlet laten untuk mengenal pasti Sub-Topik dalam badan teks yang diberikan.",
"Untuk mendapatkan Sub-Fields komuniti, kami menggunakan peruntukan Dirichlet laten untuk mencari topik dan melabelnya dengan tangan."
] |
[
"Periodicities play an important role when analysing the temporal dimension of text.",
"Temporal patterns and Periodicities can be useful to tasks like text."
] | [
"Tempoh memainkan peranan penting apabila menganalisis dimensi temporal teks.",
"Corak temporal dan Tempoh boleh berguna untuk tugas seperti teks."
] |
[
"In the first text, crime was Metaphorically portrayed as a virus and in the second as a beast.",
"In the first text, crime was Metaphorically portrayed as a virus."
] | [
"Dalam teks pertama, jenayah digambarkan secara metaforik sebagai virus dan di kedua sebagai binatang.",
"Dalam teks pertama, jenayah digambarkan secara metaforik sebagai virus."
] |
[
"In the future, we would like to apply a similar methodology to different text units, for example, Sub-Sentence units such as elementary discourse unit and a larger corpus, for example, Duc 2002 and Duc 2003.",
"In the future, we would like to apply a similar methodology to different text units, for example, Sub-Sentence units such as elementary discourse unit."
] | [
"Pada masa akan datang, kami ingin menggunakan metodologi yang sama untuk unit teks yang berbeza, contohnya, unit Sub-Sentence seperti unit wacana asas dan korpus yang lebih besar, contohnya, Duc 2002 dan Duc 2003.",
"Pada masa akan datang, kami ingin menggunakan metodologi yang sama untuk unit teks yang berbeza, contohnya, unit Sub-Sentence seperti unit wacana asas."
] |
[
"For both languages, we used the Srilm Toolkit to train a 5-Gram language model using all Monolingual data provided.",
"We train a 4-Gram language model on the Xinhua portion of English Gigaword corpus by Srilm Toolkit."
] | [
"Untuk kedua-dua bahasa, kami menggunakan Srilm Toolkit untuk melatih model bahasa 5-Gram menggunakan semua data Monolingual yang disediakan.",
"Kami melatih model bahasa 4-Gram di bahagian Xinhua Gigaword corpus bahasa Inggeris oleh Srilm Toolkit."
] |
[
"All features used by Pavlick et al for formality detection and by Danescu et al for politeness detection are included in our analysis.",
"For formality detection and by Danescu et al for politeness detection have been included in our analysis for a comparison against Baselines."
] | [
"Semua ciri yang digunakan oleh Pavlick et al untuk pengesanan formaliti dan oleh Danescu et al untuk pengesanan kesopanan dimasukkan dalam analisis kami.",
"Untuk pengesanan formaliti dan oleh Danescu et al untuk pengesanan kesopanan telah dimasukkan dalam analisis kami untuk perbandingan terhadap Baselines."
] |
[
"The word Embeddings are Pre-Trained, using Word2Vec 3.",
"We Pre-Train the word Embeddings using Word2Vec."
] | [
"Perkataan Embeddings adalah Pra-Trained, menggunakan Word2Vec 3.",
"Kami Pra-Latih Embedding perkataan menggunakan Word2Vec."
] |
[
"Using neural networks to process trees was first proposed by Pollack in the recursive Autoassociative memory model which was used for Unsupervised learning.",
"The recursive application of Autoencoders was first introduced in Pollack, whose recursive Auto-Associative memories learn vector representations over Pre-Specified recursive data structures."
] | [
"Menggunakan rangkaian saraf untuk memproses pokok pertama kali dicadangkan oleh Pollack dalam model memori Autoassociative rekursif yang digunakan untuk pembelajaran Unsupervised.",
"Aplikasi rekursif Autoencoders pertama kali diperkenalkan di Pollack, yang memori Auto-Asosiatif rekursif mempelajari perwakilan vektor atas struktur data rekursif Pra-Spesifik."
] |
[
"The Nonembeddings weights are Initialized using Xavier Initialization.",
"All weights are Initialized by the Xavier method."
] | [
"Berat Nonembeddings Diawalkan menggunakan Xavier Initialization.",
"Semua berat diawalkan oleh kaedah Xavier."
] |
[
"Ngram features have been generated with the Srilm Toolkit.",
"The Trigram language model is implemented in the Srilm Toolkit."
] | [
"Ciri-ciri Ngram telah dihasilkan dengan Srilm Toolkit.",
"Model bahasa Trigram dilaksanakan dalam Srilm Toolkit."
] |
[
"In this paper, we propose a Goal-Directed random walk algorithm to resolve the above problems.",
"In this paper, we introduce a Goal-Directed random walk algorithm to increase efficiency of mining."
] | [
"Dalam makalah ini, kami mencadangkan algoritma berjalan rawak yang diarahkan untuk menyelesaikan masalah di atas.",
"Dalam makalah ini, kami memperkenalkan algoritma berjalan rawak yang diarahkan untuk meningkatkan kecekapan perlombongan."
] |
[
"In this paper, we present a new model for Disfluency detection from spontaneous speech transcripts.",
"In this paper, we introduce a new model for detecting restart and repair Disfluencies in spontaneous speech transcripts."
] | [
"Dalam makalah ini, kami membentangkan model baru untuk pengesanan kelumpuhan dari transkrip pertuturan spontan.",
"Dalam makalah ini, kami memperkenalkan model baru untuk mengesan memulakan semula dan membaiki Gangguan dalam transkrip pertuturan spontan."
] |
[
"This is an extension of the similarity task for compositional models developed by Mitchell and Lapata, and constructed according to the same guidelines.",
"This is an extension of the two words phrase similarity task defined in Mitchell and Lapata, and constructed according to similar guidelines."
] | [
"Ini adalah lanjutan tugas kesamaan untuk model komposisi yang dibangunkan oleh Mitchell dan Lapata, dan dibina mengikut garis panduan yang sama.",
"Ini adalah lanjutan dari dua perkataan frasa tugas kesamaan yang ditakrifkan dalam Mitchell dan Lapata, dan dibina mengikut garis panduan yang sama."
] |
[
"Liu and Lane propose an attention mechanism on the Encoder-Decoder model for joint intent classification and slot filling.",
"Liu and Lane , 2016A) proposed an Attention-Based neural network model for joint intent detection and slot filling."
] | [
"Liu dan Lane mencadangkan mekanisme perhatian pada model Encoder-Decoder untuk pengelasan niat bersama dan pengisian slot.",
"Liu and Lane (2016A) mencadangkan model rangkaian saraf berasaskan perhatian untuk pengesanan niat bersama dan pengisian slot."
] |
[
"In order to reduce the vocabulary size, we apply Byte pair Encoding.",
"We apply Byte-Pair Encoding with 30,000 merge operations on the English sentences."
] | [
"Untuk mengurangkan saiz perbendaharaan kata, kami menggunakan Pengekodan pasangan Byte.",
"Kami menggunakan Byte-Pair Encoding dengan 30,000 operasi penggabungan pada ayat bahasa Inggeris."
] |
[
"We use the Stanford dependency Parser to Parse the statement and identify the path connecting the content words in the Parse tree.",
"For each emotional word, we create features based on the Parse tree and its Dependencies produced by the Stanford Parser."
] | [
"Kami menggunakan Stanford dependency Parser untuk Parse pernyataan dan mengenal pasti laluan yang menghubungkan kata-kata kandungan dalam pokok Parse.",
"Untuk setiap perkataan emosi, kami mencipta ciri berdasarkan pokok Parse dan Dependencies yang dihasilkan oleh Stanford Parser."
] |
[
"This model uses Multilingual word Embeddings trained using Fasttext and aligned using muse.",
"The input to this network consists of Pre-Trained word Embeddings extracted from the 300-Dimensional Fasttext Embeddings."
] | [
"Model ini menggunakan Embedding perkataan Multilingual yang dilatih menggunakan Fasttext dan diselaraskan menggunakan muse.",
"Input ke rangkaian ini terdiri daripada Embedding kata Pra-Latih yang diekstrak dari Embedding Fasttext 300-Dimensional."
] |