0
  1. Trang chủ >
  2. Luận Văn - Báo Cáo >
  3. Báo cáo khoa học >

Báo cáo khoa học: "Beyond Log-Linear Models: Boosted Minimum Error Rate Training for N-best Re-ranking" docx

Báo cáo khoa học:

Báo cáo khoa học: "Beyond Log-Linear Models: Boosted Minimum Error Rate Training for N-best Re-ranking" docx

... 37–40,Columbus, Ohio, USA, June 2008.c2008 Association for Computational LinguisticsBeyond Log-Linear Models: Boosted Minimum Error Rate Training for N-best Re-rankingKevin Duh∗Dept. of Electrical ... algorithms for machinetranslation rely on log-linear models, whichhave the potential problem of underfitting the training data. We present BoostedMERT, anovel boosting algorithm that uses Minimum Error ... optimization error is low). Table 1 shows the results, with Boosted- MERT outperforming MERT 42.0 vs. 41.2 BLEUon Eval. BoostedMERT has the potential to achieve43.7 BLEU, if a better method for selecting...
  • 4
  • 239
  • 0
Báo cáo khoa học:

Báo cáo khoa học: "Combining Coherence Models and Machine Translation Evaluation Metrics for Summarization Evaluation" doc

... read-ability of machine generated summaries. We alsointroduce two new feature sources to enhance themodel with hierarchical and Explicit/Non-Explicitinformation, and demonstrate that they improve ... are also evaluated for their ability to assess sum-mary readability, i.e., to measure how linguisticallyreadable a machine generated summary is. Sub-mitted metrics that perform consistently ... containsComp.Arg2, Temp.Arg1, Exp.Arg1, E.Comp.Arg2,E.Temp.Arg1, and N.Exp.Arg1 (E for Explicit andN for Non-Explicit).The other information that is not in the discourserole matrix is the discourse hierarchy...
  • 9
  • 351
  • 0
Báo cáo khoa học:

Báo cáo khoa học: "Sentence Ordering Driven by Local and Global Coherence for Summary Generation" docx

... that integrates local and global coherence concerns. Summary sentences are grouped before ordering is applied on two levels: group-level and sentence-level. Different algorithms for grouping ... explicitly stated that sentence ordering for summarization is primarily driven by coherence. For example, Barzilay et al. (2002) use lexical cohesion information to model local coherence. A ... 6–11,Portland, OR, USA 19-24 June 2011.c2011 Association for Computational LinguisticsSentence Ordering Driven by Local and Global Coherence for Summary Generation Renxian Zhang Department of...
  • 6
  • 236
  • 0
Tài liệu Báo cáo khoa học:

Tài liệu Báo cáo khoa học: "Distributional Similarity Models: Clustering Neighbors" doc

... we have also demonstrated perplexity re- ductions of 20% and statistically significant im- provement in speech recognition error rate. Fur- thermore, each method has generated some dis- cussion ... convergent iterative reestimation process for p(glc), p(YlC ) and p(C). These distributions form the model for the given/3. It is easy to see that for/ 3 = 0, p(nlc ) does not depend on ... to train k. Then, the performance of each similarity-based model was evaluated on the test triples for a sequence of settings for k. We expected that clustering performance with respect to...
  • 8
  • 268
  • 0
Tài liệu Báo cáo khoa học:

Tài liệu Báo cáo khoa học: "Beyond Lexical Units: Enriching Wordnets with Phrasets" pdf

... concept.Phrasets can provide useful information for different kind of NLP tasks, both in a monolin-gual and multilingual environment. For instance,phrasets can be useful for knowledge-based wordalignment ... WordNet is con-stantly updated and extended with different kindsof information such as domain information, syn-tactic information, topic signatures, syntacticparsing and PoS tagging of the ... NLPcommunity for a variety of practical tasks such asword sense disambiguation, question answering,information retrieval, summarization, etc. TheEnglish WordNet database is being used as a ba-sis for...
  • 4
  • 210
  • 0
Tài liệu Báo cáo khoa học:

Tài liệu Báo cáo khoa học: "Incremental Parsing Models for Dialog Task Structure" doc

... different stack contents.5.2 Training MethodWe randomly selected roughly 90% of the dialogs for training, and used the remainder for testing.We separately trained models for: user dia-log act classication ... to improvedperformance for any method. One utterance ofcontext is best for shift-reduce and start-join; threeis best for the connection path method. The shift-reduce method performs the best. ... types of infor-mation provide rich clues for building dialog mod-els (Grosz and Sidner, 1986). Dialog models canbe built ofine (for dialog mining and summariza-tion), or online (for dialog...
  • 9
  • 467
  • 0
Tài liệu Báo cáo khoa học:

Tài liệu Báo cáo khoa học: "Cascaded Markov Models" pptx

... again form a lattice and we can calculate the best path for layer 2. The Markov Model for layer 1 operates on the output of the Markov Model for part-of-speech tagging, the model for layer ... off the treebank. Training on annotated data is straight forward. First, we number the layers, starting with 0 for the part-of-speech layer. Subsequently, informa- tion for the different layers ... sequences for layers 0 - 4 generated from the sentence in figure 1. Each sentence gives rise to one training sequence for each layer. Contextual parameter estimation is done in analogy to models for...
  • 8
  • 389
  • 0
Báo cáo khoa học:

Báo cáo khoa học: "Latent variable models of selectional preference" potx

... use E M for infer-ence can be very sensitive to the number of latentvariables chosen. For example, the performanceof ROOTH-EM worsens quickly if the number ofclusters is overestimated; for the ... indicates that it does not performwell in this context. The most likely explanationis that LinkLDA generates its two arguments in-dependently, which may be suitable for distinctargument positions ... with parameters α.(2) For each argument class z, draw a multinomialdistribution Φzover argument types from aDirichlet with parameters β.(3) To generate an argument for v, draw an ar-gument...
  • 10
  • 390
  • 0
Báo cáo khoa học:

Báo cáo khoa học: "Enhancing Language Models in Statistical Machine Translation with Backward N-grams and Mutual Information Triggers" ppt

... theprobability of the current word. We henceforth callthe previous n − 1 words plus the current wordas forward n-grams and a language model built1288on forward n-grams as forward n-gram languagemodel. ... (wi|wmi+1) ≈mi=1P (wi|wi+n−1i+1) (2)3.1 Training For the convenience of training, we invert the or-der in each sentence in the training data, i.e., fromthe original order (w1 wm) ... program-ming algorithm to integrate a forward bigram lan-guage model with inversion transduction grammar.His algorithm is then adapted and extended for inte-grating forward n-gram language models...
  • 10
  • 415
  • 0
Báo cáo khoa học:

Báo cáo khoa học: "Employing Topic Models for Pattern-based Semantic Class Discovery" doc

... process illustrates how to generate a docu-ment d in pLSI: 1. Pick a topic mixture distribution (|). 2. For each word wi in d a. Pick a latent topic z with the probabil-ity (|) for wi ... “topics”. To further improve efficiency, we also perform preprocess-ing (refer to Section 3.4 for details) before build-ing topic models for CR(q), where some low-frequency items are removed. ... number k. We fix the k value for all dif-ferent query item q, as has been done for the top-ic model approach. For fair comparison, the same postprocessing is made for all the approaches. And...
  • 9
  • 398
  • 0

Xem thêm

Từ khóa: báo cáo khoa họcbáo cáo khoa học mẫubáo cáo khoa học y họcbáo cáo khoa học sinh họcbáo cáo khoa học nông nghiệpbáo cáo khoa học lâm nghiệpBáo cáo quy trình mua hàng CT CP Công Nghệ NPVNghiên cứu sự hình thành lớp bảo vệ và khả năng chống ăn mòn của thép bền thời tiết trong điều kiện khí hậu nhiệt đới việt namBiện pháp quản lý hoạt động dạy hát xoan trong trường trung học cơ sở huyện lâm thao, phú thọGiáo án Sinh học 11 bài 13: Thực hành phát hiện diệp lục và carôtenôitGiáo án Sinh học 11 bài 13: Thực hành phát hiện diệp lục và carôtenôitGiáo án Sinh học 11 bài 13: Thực hành phát hiện diệp lục và carôtenôitGiáo án Sinh học 11 bài 13: Thực hành phát hiện diệp lục và carôtenôitPhối hợp giữa phòng văn hóa và thông tin với phòng giáo dục và đào tạo trong việc tuyên truyền, giáo dục, vận động xây dựng nông thôn mới huyện thanh thủy, tỉnh phú thọNghiên cứu về mô hình thống kê học sâu và ứng dụng trong nhận dạng chữ viết tay hạn chếNghiên cứu khả năng đo năng lượng điện bằng hệ thu thập dữ liệu 16 kênh DEWE 5000Thiết kế và chế tạo mô hình biến tần (inverter) cho máy điều hòa không khíGiáo án Sinh học 11 bài 15: Tiêu hóa ở động vậtchuong 1 tong quan quan tri rui roGiáo án Sinh học 11 bài 14: Thực hành phát hiện hô hấp ở thực vậtGiáo án Sinh học 11 bài 14: Thực hành phát hiện hô hấp ở thực vậtBÀI HOÀN CHỈNH TỔNG QUAN VỀ MẠNG XÃ HỘIChiến lược marketing tại ngân hàng Agribank chi nhánh Sài Gòn từ 2013-2015Đổi mới quản lý tài chính trong hoạt động khoa học xã hội trường hợp viện hàn lâm khoa học xã hội việt namTÁI CHẾ NHỰA VÀ QUẢN LÝ CHẤT THẢI Ở HOA KỲQUẢN LÝ VÀ TÁI CHẾ NHỰA Ở HOA KỲ